(资料图片仅供参考)
IT之家 10 月 2 日消息,Meta 公司近日发布了一个人工智能系统,可以根据文字提示生成短视频。
IT之家了解到,这个系统名为 Make-A-Video,允许用户输入一连串的词语,比如“一只穿着超级英雄服装、披着红色斗篷在天空中飞翔的狗”,然后生成一个五秒钟的短视频。
虽然效果相当粗糙,但这个系统显然要比文字转图片 AI 系统更高级。
上个月,人工智能实验室 OpenAI 向所有人提供了其最新的文本转图像人工智能系统 DALL-E,而人工智能初创公司 Stability.AI 则推出了 Stable Diffusion,这是一个开源的文本转图像系统。
但文本转视频 AI 系统伴随着一些更大的挑战。首先,这些模型需要大量的计算能力。它们比大型文本到图像的人工智能模型的计算量还要大,后者使用数百万张图像进行训练,因为仅仅拼凑一个短视频就需要数百张图像。这意味着在可预见的未来,只有大型科技公司才有能力建立这些系统。它们的训练也比较棘手,因为没有大规模的高质量视频与文本配对的数据集。
为了解决这个问题,Meta 结合了三个开源图像和视频数据集的数据来训练其模型。标准的文本转图像数据集的标记静态图像帮助人工智能学习物体的名称和它们的样子。一个视频数据库帮助它学习这些物体应该如何在世界中移动。这两种方法的结合帮助 Make-A-Video 能够从文本中大规模地生成视频。
Meta 公司称,该技术可以“为创作者和艺术家带来新的机会”。但是,随着技术的发展,人们担心它可能被用作创造和传播错误信息和深度伪造的有力工具,它可能会使人们更难区分网上的真实和虚假内容。
打造 Make-A-Video 的研究人员过滤掉了攻击性的图片和文字,但对于由数百万和数以百万计的文字和图片组成的数据集,几乎不可能完全删除有偏见和有害的内容。
Meta 公司的一位发言人说,目前还没有向公众提供这个模型,“作为这项研究的一部分,我们将继续探索进一步完善和减少潜在风险的方法”。
免责声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。如稿件版权单位或个人不想在本网发布,可与本网联系,本网视情况可立即将其撤除。