据 Cointelegraph 报道,社交媒体巨头Meta发布了最新的人工智能(AI)模型,用于内容编辑和生成。该公司推出了两个AI驱动的生成模型。首先是Emu Video,它利用Meta之前的Emu模型,可以根据文本和图像输入生成视频片段。第二个模型Emu Edit专注于图像处理,承诺在图像编辑方面提供更高的精确度。这些模型目前仍处于研究阶段,但Meta表示,初步结果显示它们对创作者、艺术家和动画师等具有潜在的应用价值。根据Meta的博客文章,Emu Video采用“因子化”方法进行训练,将训练过程分为两个步骤,使模型能够对不同输入做出响应。Emu Edit专注于图像处理,将允许用户删除或添加图像背景,进行颜色和几何变换,以及对图像进行局部和全局编辑。Meta使用1000万张合成图像的数据集对Emu Edit进行了计算机视觉任务的训练,每张图像都有输入图像、任务描述和目标输出图像。