摩尔线程开源音频理解大模型MooER:38小时训练5000小时数据
快科技8月23日消息,摩尔线程官方宣布,音频理解大模型MooER”(摩耳)已经正式开源,并公布在GitHub上:https://github.com/MooreThreads/MooER
目前开源的内容包括推理代码,以及5000小时数据训练的模型,后续还将开源训练代码,以及基于8万小时数据训练的模型。
摩尔线程希望,能够在语音大模型的方法演进和技术落地方面为社区做出贡献。
MooER是业界首个基于国产全功能GPU进行训练和推理的大型开源语音模型,依托摩尔线程的夸娥(KUAE)智算平台,并得益于自研的创新算法和高效计算资源的结合,仅用38个小时,就完成了5000小时音频数据和伪标签的训练。
MooER不仅支持中文和英文的语音识别,还具备中译英的语音翻译能力,并在多个语音识别领域的测试集中,展现出了领先或至少持平的优异表现。

MooER的模型结构包括Encoder、Adapter、Decoder(LLM)三个部分。
其中,Encoder对输入的原始音频进行建模,提取特征并获取表征向量。
Encoder的输出会送到Adapter进一步下采样,使得每120ms音频输出一组音频Embedding。
音频Embedding和文本的Prompt Embedding拼接后,再送进LLM进行对应的下游任务,如语音识别(ASR)、语音翻译(AST)等。
在模型训练阶段,融合了语音模态和文本模态的数据会按以下形式输入到LLM:

摩尔线程使用开源的Paraformer语音编码器、Qwen2-7B-instruct大语言模型,初始化Encoder和LLM模块,并随机初始化Adapter模块。
训练过程中,Encoder始终固定参数,Adapter和LLM会参与训练和梯度更新。
利用自研的夸娥智算平台,摩尔线程使用DeepSpeed框架和Zero2策略,基于BF16精度进行训练和推理。
经实验发现,训练过程中更新LLM参数能够提升最终音频理解任务的效果。
为了提升训练效率,摩尔线程采用了LoRA技术,仅更新2%的LLM参数。具体的模型参数规模如下:

该模型的训练数据MT5K(MT 5000h)由部分开源数据和内部数据构成,内部数据的语音识别标签均是由第三方云服务得到的伪标签。
语音识别的伪标签经过一个文本翻译模型后,得到语音翻译的伪标签,且没有对这些伪标签数据做任何的人工筛选。
具体数据来源和对应的规模如下:

摩尔线程将MooER与多个开源的音频理解大模型进行了对比,包括Paraformer、SenseVoice、Qwen-audio、Whisper-large-v3、SeamlessM4T-v2等。这些模型的训练规模从几万小时到上百万小时不等。
对比结果显示,开源模型MooER-5K在六个中文测试集上的CER(字错误率)达到4.21%,在六个英文测试集的WER(词错误率)为17.98%,与其它开源模型相比,效果更优或几乎持平。
特别是在Covost2 zh2en中译英测试集上,MooER的BLEU分数达到了25.2,显著优于其他开源模型,取得了可与工业水平相媲美的效果。
基于内部8万小时数据训练的MooER-80k模型,在上述中文测试集上的CER达到了3.50%,在英文测试集上的WER到达了12.66%。
与此同时,摩尔线程还得到一些有趣的结论,可以为数据资源和计算资源有限的开发者提供一些建议:
▼Encoder的选择。
分别对比无监督(Self-Supervised Learning)训练的W2v-bert 2.0、半监督(Semi-Supervised Learning)训练的Whisper v3、有监督(Supervised Learning)训练的Paraformer。
采用无监督训练得到的Encoder必须参与到训练过程中,否则模型很难收敛。
综合考虑模型效果、参数量以及训练和推理的效率,选择Paraformer作为Encoder。
▼音频建模粒度很关键。
尝试使用240ms、180ms和120ms的粒度进行建模,并发现这一参数对音频与文本的融合效果具有重要影响,同时会影响模型的最终效果和训练的收敛速度。
经过评估,最终选择每120ms输出一个音频Embedding。
▼快速适应到目标垂类。
仅使用了140h~150h的英文数据进行训练,可以在6个不同来源的英文的测试集上取得一定效果。
同时尝试将任务迁移到语音翻译(AST)领域,取得了很好的效果。
相信这个方法同样也适用于小语种、方言或其它低资源的音频理解任务。
▼LLM对音频理解任务的影响。
在模型训练过程中采用LoRA技术对LLM参数进行更新,可以使训练更快收敛,并且最终取得更好的效果。
同时,音频理解任务上的效果也会随着基础LLM效果提升而提升。
更多技术细节,请参考技术文档:
https://arxiv.org/pdf/2408.05101
外国博主,还能“坐地吸金”吗?
“给外国人一点小小的亚运震撼。”随着国庆假期的结束,杭州亚运会也落下了帷幕。这场长达15日的盛会,外国人作为其中的显眼包,让不少杭州人体验了一把“无痛出国”,“外国人来亚运会进货”“还不如一个外国人会讲价”“在哪里能偶遇中东富豪”等话题也频频在社交平台刷新存在感。站长网2023-10-09 17:51:38000219.9元三菜一汤?亏了30万后,我放弃做打对折的“低价团购”
2023年夏天,苏州木渎古镇。周瑞在这徘徊了已有好一阵子。这里曾是吴中地区最繁华的商业街之一。从起名风格就能看得出来——隔壁是“香港街”,再过去是“澳门街”,饭馆、KTV、足浴等一应俱全。站长网2024-08-10 13:32:450000女装测评天花板账号!粉丝245万,博主还是个男的!
各位村民好,我是村长。一个大男人,纯素颜、测评女装、女鞋、涨粉245万。这个账号,我一年前在社群里面分享过,今天我把他拿出来,和大家做一个分享。因为这个账号目前的方法,依然有效,还值得借鉴。01服饰测评的问题刚才说了这个账号主要是做女装、女鞋测评的,但是目前女装领域测评的账号有几个明显的问题。其一是专业测评少,尤其围绕产品的材质、使用等方面用心测的少,多数是服装卖家。站长网2023-04-27 08:58:570000深言科技“语鲸大模型”通过备案 将陆续向公众开放服务
12月26日,深言科技“语鲸大模型”正式通过《生成式人工智能服务管理暂行办法》备案,将陆续面向社会公众开放服务。“语鲸大模型”具备强大的语义理解与文本生成、代码理解与生成、逻辑推理等能力,提供文本创作、数学计算、代码补全等服务,在中文理解和生成能力上行业领先,做到了更懂中文,更懂中文使用场景。站长网2023-12-28 10:42:350000苹果终止造车后续:超600名员工丢掉工作
快科技4月5日消息,苹果公司在今年2月28日宣布取消了其电动汽车项目,将重心转向生成式人工智能。这一举动标志着苹果结束了长达十年的电动汽车探索计划。据媒体报道,苹果本周向美国加利福尼亚州提交了必要的文件,显示将永久裁员600多名员工。裁员主要集中在加州圣克拉拉市附近几处苹果建筑内,离苹果总部不远。外界推测,这可能是因为苹果放弃了汽车项目,部分员工转岗到其他项目,而另一部分则被裁员。0000