Meta翻译大模型可模仿语气语速,AI再也不“莫得感情”了
Meta发布了全新AI翻译大模型,实时语音转换延迟不超过2秒。
感受一把这个速度(西班牙语<=>英语):
不仅速度快,它的准确率还和离线模型一样高。
最重要的是,像什么停顿、语气、语速和情绪…… 它都可以复刻。
例如模仿耳语:
原声1,量子位,3秒
翻译1,量子位,3秒
例如模仿悲伤:
原声2,量子位,3秒
翻译2,量子位,3秒
有了它,再也不用吐槽AI翻译“莫的感情”了。
有网友则表示:
AI这发展速度,再过几年咱们学一门新语言就像学写字一样简单。
不由地让人想象70亿人说同一种语言是什么感觉。
目前,此模型已在GitHub已揽获近9k标星,可谓爆受欢迎。
除了开源下载,官方也提供了demo供大家尝试体验。
4种型号,非自回归架构
Meta此次发布的是一个翻译模型系列:Seamless Communication(无缝交流)。
4个不同型号分别为:
SeamlessExpressive
可以保留跨语言语音复杂性的模型,包括停顿、语速、情绪等内容。
SeamlessStreaming
大规模多语言模型,提供大约2秒延迟的语音和文本翻译,与离线模型准确率几乎一样高。
支持近100种输入语言和36种输出语言的语音到语音翻译,支持近100种输入和输出语言的自动语音识别和语音到文本翻译。
SeamlessM4T v2
前两个模型的底座模型,多语言多任务,今年8月发布的第一个版本,实现跨语音和文本翻译的SOTA结果。
这一新版本采用的是带有非自回归文本到单元解码器的新架构,可提高文本和语音输出之间的一致性。
Seamless
将前三种模型的功能融为一体的模型。
开源的是前三个。
那么,这一系列模型具体怎么打造出来的?
据官方博客介绍,以上所有模型都由fairseq2提供支持。
后者是一个用于序列到序列任务的轻量建模工具包,支持机器翻译、语音识别等任务,可与PyTorch生态系统库组合。
此外,还包括具有非自回归文本到单元(text-to-unit)解码器的新架构UnitY2。
它的语音生成能力很强。
在SeamlessM4T v2中,Meta使用multitask-UnitY2来启用文本输入。
在SeamlessStreaming和SeamlessExpressive中,UnitY2也作为模型架构构建基础。
在此,Meta也特别解释了一下为什么要采用非自回归架构。
这是因为,自回归模型虽然模拟语音很自然,但随着序列长度的增加,它们的扩展性很差。
而非自回归模型预测每个片段的持续时间,使得每个片段可以并行解码。
因此它对长序列具有鲁棒性,更适应流媒体场景。
那么,说到流媒体,Meta的模型是如何快速又准确地翻译实时语音的呢?
核心算法是EMMA,一个可以智能决定何时已经拥有足够的信息来生成下一个语音片段或目标文本的模型。
它还可以从离线模型中进行微调,让准确率更高。
原理的最后一部分,主要说说Meta的模型又是如何让翻译不机械,富有表现力的。
在此,他们用PRETSSEL(一个语音到单元生成器)替换SeamlessM4T v2中的HiFi-GAN 声码器单元。
这个生成器以源语音为条件来生成波形,以此传输音调、情感表达和声音风格质量等信息。
此外,团队还开发了Prosody UnitY2,将它集成到SeamlessM4T v2中,让它指导模型生成具有适当节奏、语速和停顿的单元生成。
两项特别的工作
除了以上这些,Meta还介绍了两项额外的工作。
一是“毒性缓解”。
指的是翻译准确性的问题,在这种翻译任务中,意外的错误或幻觉可能会导致两个不同语言的人产生误会。
由于这一问题的主要原因通常在于训练数据。
所以Meta做的第一件事就是在训练前过滤一遍数据中出现的“有毒内容”。
但这只是被动的,并不能完全防问题发生。
因此,他们提出直接在翻译生成过程中自动检测生成的有毒单词,确有问题时自动重新调整生成过程并使用新单词来表达。
这个过程在推理时就能做,不需要对翻译模型进行任何微调。
最终,它显著减少了翻译“毒性”,并同时保持翻译质量。
二是音频水印。
为了防止可能的滥用风险,Meta翻译模型也为音频添加了水印。
方式是主动在音频中嵌入人耳无法觉察的信号,用专门的检测器模型可以检测出来;通过这个水印,我们就可以准确追踪音频的来源。
除此之外,这一水印还可以对抗各种攻击,比如有人想通过添加噪音、回声或过滤某范围内的频率来修改音频、淡化水印以此来绕过检测,就是行不通的。
One More Thing
除了模型、论文,Meta还同步开源了此系列翻译模型的元数据、数据和数据对齐工具。
其中元数据包括58.5万小时的语音文本对,涵盖76种语言。
这是迄今为止总容量最大、语言覆盖范围最广的语音语料库。
参考链接:
[1]https://ai.meta.com/blog/seamless-communication/
[2]https://ai.meta.com/resources/models-and-libraries/seamless-communication-models/
[3]https://twitter.com/AIatMeta/status/1737560778801389841
Anim400K:一个针对视频自动配音设计的数据集
Anim400K:一个针对视频自动配音设计的数据集,包含超过425,000个对齐的音视频剪辑,总时长达763小时。这些剪辑来自超过190个作品,涵盖了数百种主题和类型,并包含英语和日语两种语言的内容。利用这个数据集,开发者可以训练和改进自动配音系统,同时支持多种视频相关任务,如同步翻译、引导式视频概括和类型/主题/风格分类。站长网2024-01-16 14:31:380002马斯克X平台与Midjourney正商谈合作 致力于生成式AI项目
**划重点:**1.🌐ElonMusk的X平台与Midjourney,Inc据称正在商谈合作,可能致力于开发生成式人工智能相关项目。2.🧠合作可能涉及在选举前识别X平台上的GenAI内容,以推动人工智能技术的应用。3.🤖Midjourney公司的生成式AI程序类似于其他项目,如OpenAI的DALL-E和StabilityAI的StableDiffusion。站长网2024-02-21 10:29:25000010万+爆款制造机,@小糖糖女士 为何在视频号风生水起?
如果提到视频号热门达人,@小糖糖女士必定当属其中一个。在行业榜单中,可以看到@小糖糖女士持续霸榜母婴育儿垂类。@小糖糖女士的视频究竟有何特色?为什么她的内容在视频号更受欢迎?在热度居高不下的背景下,她的商业化状况如何?活宝小糖糖,靠语言圈粉无数站长网2024-05-27 19:38:150000OpenAI 竞争对手 Anthropic 发布第二代人工智能聊天机器人 Claude 2
Anthropic是人工智能竞赛中的新参与者。在微软支持的OpenAI和谷歌争相开发由生成式人工智能驱动的最先进聊天机器人时,Anthropic正在大举投资以保持竞争力。站长网2023-07-12 14:30:200000元象开源多语言大模型XVERSE-13B 可免费商用
元象XVERSE公司宣布开源其百亿参数的高性能通用大模型XVERSE-13B,可免费商用。据介绍,XVERSE-13B是由深圳元象科技自主研发的支持多语言的大语言模型(LargeLanguageModel),基于它生成的服务包括了文本生成、自动化写作、数据分析、知识问答等方面。主要特点如下:站长网2023-08-07 09:37:450000