登陆注册
12911

Meta发布Emu Video和Emu Edit 将颠覆文本到视频生成和图像编辑领域

站长网2023-11-17 10:14:001

**划重点:**

1. 🎨 **Emu Edit**:革新图像编辑,通过文本指令实现精细控制,类似Adobe Photoshop的"生成填充"功能,支持局部和全局编辑、背景添加或移除、颜色和几何变换、物体检测和分割。

2. 🎥 **Emu Video**:简化文本到视频生成,基于扩散模型,能够通过文本、图像或两者的输入生成视频,为社交媒体平台用户提供创造动画贴纸和GIFs的可能性。

3. 🌐 **影响力**:这些AI工具将影响用户在社交媒体平台上与图像和视频互动的方式,潜在应用包括创作自己的动态贴纸和编辑照片,拓展了艺术性可能性。然而,工具仍在开发中,尚无发布时间表。

站长之家(ChinaZ.com)11月17日 消息:Facebook和Instagram的母公司Meta宣布在人工智能内容创作和编辑工具领域取得了重大进展,推出两项创新性工具:Emu Edit用于图像编辑,Emu Video用于视频生成。

Emu Edit:提升图像编辑标准

Emu Edit的首次突破旨在为用户提供对图像编辑的精细控制。它采用一种独特的图像处理方式,用户通过文本指令进行图像修改,类似于Adobe Photoshop目前提供的“生成填充”功能。

该工具能够执行多种编辑任务,包括局部和全局编辑、添加或删除背景、颜色和几何变换、物体检测以及分割。Emu Edit的目标是仅修改与编辑请求相关的区域,确保不影响无关的像素。

Meta的研究人员在最新公告中强调:“主要目标不应只是生成一个可信的图像,而应专注于精确地修改仅与编辑请求相关的像素。”

Emu Edit是通过一个包含1000万合成样本的庞大数据集进行训练的,使其能够在指令忠实度和图像质量方面提供高质量的结果。例如,用户可以输入文本“Aloha!”以添加到棒球帽的图像中,而Emu Edit会在不修改帽子本身的情况下完成此任务。

体验网址:https://emu-edit.metademolab.com/

Emu Video:简化文本到视频生成

除了图像编辑,Meta的AI团队还在改进视频生成。基于扩散模型的Emu Video工具为文本到视频生成提供了简便方法。它对各种输入做出响应,包括仅文本、仅图像或两者兼而有之。

视频生成过程包括创建一个由文本提示条件化的图像,然后根据该图像和另一个文本提示创建视频。如果您有兴趣尝试新的Emu Video编辑工具,您可以立即尝试在线演示。体验网址:https://emu-video.metademolab.com/

对内容创作的深远影响

这些创新将改变用户在社交媒体平台上与图像和视频互动的方式。例如,用户可以创建自己的动画贴纸和GIF,或编辑照片而无需依赖诸如Photoshop之类的复杂工具。然而,值得注意的是,这些工具仍在开发中,尚未正式宣布在Facebook和Instagram等平台上的发布时间。

对于Meta来说,Emu提供的工具代表着生成式AI领域不断增长的动力,与Make-A-Video和AI图像生成器DALL-E等现有项目相辅相成。作为公司在辅助AI方面不断挑战极限的一部分,它旨在提供直观的功能,为普通用户拓展艺术可能性。

Emu Video和Emu Edit的发布也是Meta推动其应用程序家族中用户参与的战略的一部分。通过平台内编辑和创作,Meta将用户更深入地锁定在其社交生态系统中。

尽管这些新工具承诺更多创造力,但围绕AI伦理和内容监管仍然存在问题。与其他生成模型一样,Emu将需要监管以防止潜在的滥用。Meta表示,在快速发展的生成式AI进程中,安全措施仍然是首要任务。

目前,Emu Video和Emu Edit仍在开发中,尚无公开发布时间表。但Meta公司积极进行的生成式AI研究表明,更具变革性的社交媒体体验可能在不久的将来实现。随着AI合成的成熟,用户或许有朝一日可以像发送短信一样直观地产生专业级别的内容。

项目网址:

https://emu-video.metademolab.com/

https://emu-edit.metademolab.com/

0001
评论列表
共(0)条