
Midjourney 发布了其首个视频生成V1模型,这是一个基于 web 的工具,允许用户将静态图像动画化为 5 秒的视频片段。这个新模型标志着该公司向实时开放世界仿真的更广泛愿景迈出了重要一步,这将需要整合图像、视频和 3D 模型来创造动态、互动的环境。
V1通过两种选项让用户制作动画图像:一个是自动动画设置,它为基本运动生成运动提示;另一个是手动动画功能,用户可以描述特定的动作和相机移动。该系统旨在处理Midjourney生成的图像以及从外部源上传的图像,为视频创作提供了灵活性。
该模型还引入了一种独特的图像动画工作流程。用户可以将图像拖入提示栏并将其标记为起始帧,然后应用运动提示来对它们进行动画处理。V1 包括两种运动设置:低动态,适用于慢速或最小运动的环境场景;高动态,适用于具有主动相机和主体运动的快节奏场景。然而,高动态有时可能导致意外的小故障或错误。
与目前市场上的其他 AI 视频生成工具相比,V1 提供了一种独特的方法。与Runway或DeepBrain等更成熟的平台不同,这些平台专注于具有复杂编辑功能和音频集成的高度抛光、预构建的视频资产,V1 在特定美学下优先考虑静态图像的动画,与 Midjourney 的流行图像模型相一致。虽然像Veo 3这样的竞争对手以其实时视频创作、全音频集成和高质量的运动捕捉而闻名,但 V1 坚持使用更简单的视频输出和有限的运动能力,主要关注于图像到视频的转换。
Midjourney 的 V1 视频模型的推出在创意社区中引发了兴奋,用户对其惊人的视觉一致性和艺术风格赞不绝口,经常将其与竞争对手进行比较。
AI 艺术家Koldo Huici在 X 上评论道:
以前在 After Effects 中创建动画需要 3 个小时。现在有了 Midjourney,我 3 分钟就完成了!我来告诉你这有多简单。
而 Gen AI 专家Everett World发文称:
拥有一个新的视频模型真是太棒了,尤其是因为它是由 Midjourney 制作的——它开辟了新的、意想不到的可能性。一些生成看起来非常自然(动漫看起来很棒!)。尽管它只有 480p,但我认为我们在 AI 视频领域看到了有趣的发展,我很高兴我们可以从这个模型中获得乐趣!
Midjourney计划继续发展其视频能力,着眼于在不久的将来实现实时、开放世界模拟。目前,V1 模型仅供 Web 使用,公司正在密切监控使用情况,以确保它可以扩展其基础设施以满足需求。
这次发布之前,该公司正面临着持续不断的法律挑战,包括最近迪士尼和环球影业的侵权诉讼。尽管面临这些挑战,Midjourney 专注于扩展其技术,V1 被视为实现公司沉浸式、互动数字环境愿景的重要一步。
原文链接:
评论