谷歌的野心:通用语音识别大模型已经支持100+语言
谷歌表示,推出通用语音模型(USM)是其未来支持1000种语言的关键一步。
去年11月,谷歌宣布推出「1000种语言计划」,旨在构建一个机器学习 (ML) 模型,支持世界上使用最广泛的1000种语言,从而为全球数十亿人带来更大的包容性。然而,其中一些语言的使用人数不到两千万,因此核心挑战是如何支持使用人数相对较少或可用数据有限的语言。
现在,谷歌公开了更多有关通用语音模型 (USM) 的信息,这是支持1000种语言的第一步。USM 包含一系列 SOTA 语音模型,带有20亿参数,经过1200万小时的语音和280亿个文本句子的训练,涵盖300多种语言。USM 不仅可以对英语和普通话等广泛使用的语言执行自动语音识别(ASR),还可以对阿姆哈拉语、宿雾语、阿萨姆语、阿塞拜疆语等使用人数很少的语言执行自动语音识别。
谷歌证明了利用大型未标记的多语言数据集来预训练模型的编码器,并用较小的标记数据集进行微调,能够让模型识别使用人数非常少的语言。此外,谷歌的模型训练过程可以有效地适应新的语言和数据。
USM 支持的语言示例。
当前的挑战
为了实现「1000种语言计划」,谷歌需要解决 ASR 中的两个重大挑战。
首先,传统的监督学习方法缺乏可扩展性。将语音技术扩展到多种语言的一个基本挑战是获得足够的数据来训练高质量的模型。使用传统方法,音频数据需要手动标记,这既费时又昂贵;或者从已有数据中收集可用数据,但这对于使用人数很少的语言来说很难找到。
相比之下,自监督学习可以利用纯音频数据,这些数据包含大量不同的语言,使得自监督学习成为实现跨数百种语言扩展的好方法。
另一个挑战是,在扩大语言覆盖范围和提升模型质量的同时,模型必须以计算高效的方式进行改进。这就要求学习算法具有灵活性、高效性和泛化性。更具体地说,算法需要能够使用来自各种来源的大量数据,在不需要完全重新训练的情况下启用模型更新,并推广到新的语言和用例。
解决方法:带有微调的自监督学习
USM 使用标准的编码器 - 解码器架构,其中解码器可以是 CTC、RNN-T 或 LAS。对于编码器,USM 使用 Conformer 或卷积增强型 transformer。Conformer 的关键组件是 Conformer 块,它由注意力模块、前馈模块和卷积模块组成。它将语音信号的 log-mel 声谱图作为输入并执行卷积下采样,之后应用一系列 Conformer 块和投影层以获得最终嵌入。
USM 的训练流程如下图所示:
第一步先从对涵盖数百种语言的语音音频进行自监督学习开始。
第二步是可选步骤,谷歌通过使用文本数据进行额外的预训练来提高模型的质量和语言覆盖率。是否采用这个步骤取决文本数据是否可用。
训练 pipeline 的最后一步是使用少量有监督数据微调下游任务(例如,ASR 或自动语音翻译)。
USM 的整体训练流程。
第一步中谷歌使用了 BEST-RQ,因为它已经在多语言任务上展示了 SOTA 结果,并且在使用大量无监督音频数据时被证明是有效的。
在第二步中,谷歌使用了多目标有监督预训练来整合来自额外文本数据的知识。USM 模型引入了一个额外的编码器模块将文本作为输入,并引入了额外的层来组合语音编码器和文本编码器的输出,然后再在未标记语音、标记语音和文本数据上联合训练模型。
凭借在预训练期间获得的知识,最后一步 USM 模型仅需来自下游任务的少量有监督数据即可获得良好的模型性能。
主要结果展示
YouTube Captions 测试集上不同语言的性能
谷歌的编码器通过预训练整合了300多种语言,并通过在 YouTube Caption 多语言语音数据上微调证明了该预训练编码器的有效性。监督式 YouTube 数据包括73种语言,每种语言平均具有不超过3000小时的数据。尽管监督数据有限,USM 仍在73种语言中平均实现了低于30% 的词错率(WER,越低越好),这是以往从未实现的里程碑。对于 en-US,与当前谷歌内部 SOTA 模型相比,USM 的 WER 相对降低了6%。
谷歌还与 OpenAI 近期发布的大模型 Whisper (large-v2) 进行了比较,后者使用超过400k 小时的标注数据进行训练。为了便于比较,谷歌仅使用 Whisper 可以成功解码且 WER 低于40% 的18种语言。结果如下图所示,USM 的平均 WER 比 Whisper 低了32.7%。
对于下游 ASR 任务的泛化性能
对于公开可用的数据集,USM 在 CORAAL(非裔美国人土语)、SpeechStew(en-US)和 FLEURS(102种语言)数据集上显示出了较 Whisper 更低的 WER。USM 在接受和没有接受域内数据训练的情况下都实现了更低的 WER。具体结果如下图所示。
自动语音翻译(AST)性能
对于语音翻译,谷歌在 CoVoST 数据集上进行微调。谷歌的模型(包括通过 pipeline 第二阶段的文本)在有限监督数据下实现了 SOTA 性能。此外,为了评估模型性能的广度,谷歌根据资源可利用性将 CoVoST 数据集中的语言分为了高(high)、中(medium)和低(low),并计算相应的 BLEU 分数(越高越好)。
如下图所示,USM 在所有语言细分中超越了 Whisper。
未来将支持1000种语言
USM 的开发是实现「谷歌组织全球信息并使人人皆可访问」使命的关键努力。谷歌相信,USM 的基础模型架构和训练 pipeline 奠定了将语音建模扩展到未来1000种语言的根基。
中国联通联合华为在广东建成全栈自主创新 AI 智算中心
据中国联通微博消息,中国联通研究院、广东联通携手华为建成全栈自主创新AI智算中心,并完成全国首个OSU(光业务单元,OpticalServiceUnit)灵活入多云的现网验证,实现算网融合发展新突破,为大湾区数字经济高质量发展注入新动能。据介绍,广东联通携手华为打造运营商首个全栈自主创新智算平台,具备全栈自主创新、极简开发、全场景端边云协同和丰富的生态体系四大能力优势:站长网2023-04-10 09:51:020000B 站停更潮,一场内容生产危机?
B站「停更潮」风波席卷网络,最终却似以闹剧收场。卷入这场漩涡的核心是三位UP主,坐拥百万级粉丝,很快冲上热搜,引起全网热议。他们停更的理由各有不同,有的称「单纯累了想放假」,有的称「不赚钱」,有的是「团队运作失败」。最后他们都否认了与B站商业化不足有关。这并没有消除外界的疑惑,舆论最强音还是指向UP主收益减少、收支难以平衡。站长网2023-04-10 21:26:120000刘润对话有赞白鸦:企业复苏与增长的生机在哪里?
先从几组数据看起:-在近日的微信公开课PRO上,微信提到在过去一年,小程序整体交易规模同比增长了40%,单个用户年交易金额增长了34%。-3月15日的国务院新闻办新闻发布会上提到,1-2月正逢春节,社会消费品零售总额同比增长了3.5%,旅客发送量增长了71.2%,国内游客出游人次增长23.1%,餐饮收入同比增长9.2%。0000马斯克嘲讽比尔·盖茨:他对AI的理解“有限”
凤凰网科技讯北京时间3月28日消息,特斯拉CEO埃隆马斯克(ElonMusk)周一发布推文,嘲讽微软创始人比尔盖茨(BillGates),认为盖茨对人工智能的理解“有限”。一位推特用户周一发文,引用了盖茨在他的《AI时代已开启》博文中所说的话,说明盖茨一直关注着OpenAI团队的进展,以及他对AI的整体乐观态度。站长网2023-03-28 09:09:270009小红书将加强PUSH弹窗等重点流量环节治理 处置违规账号
小红书方面发布消息称,为营造清朗网络空间,切实履行企业责任,小红书积极响应中央网信办工作要求,自即日起开展为期三个月的“清朗?规范重点流量环节网络传播秩序”专项行动。本次行动将重点针对以下突出问题进行治理:恶意歪曲解读国家重要方针政策,传播不实信息;以博眼球营销为目的,借极端事件蹭热点;炮制耸人听闻的标题,严重题文不符;站长网2023-04-10 18:10:390000