Hugging Face研究人员推语音识别模型Distil-Whisper 速度提高、参数减少
划重点:
⦁ Hugging Face研究人员利用伪标记创建了一个庞大的开源数据集,用于提炼Whisper模型的较小版本,称为Distil-Whisper。
⦁ Distil-Whisper在挑战性的声学条件下保持了Whisper模型的韧性,同时减轻了长篇音频中的错觉错误。
⦁ 自动语音识别(ASR)系统已达到人类水平的准确度,但由于预训练模型的不断增大,在资源受限的环境中面临挑战。
Hugging Face研究人员最近解决了在资源受限环境中部署大型预训练语音识别模型的问题。他们通过创建一个庞大的开源数据集,使用伪标记的方法,提炼出了Whisper模型的较小版本,称为Distil-Whisper。
图源备注:图片由AI生成,图片授权服务商Midjourney
Whisper语音识别变压器模型是在68万小时的嘈杂互联网语音数据上进行了预训练。它包括基于变压器的编码器和解码器组件,在零调优的情况下取得了竞争激烈的结果。而Distil-Whisper是通过使用伪标记进行知识提炼得到的紧凑版本。
Distil-Whisper在挑战性的声学条件下保持了Whisper模型的韧性,同时减轻了长篇音频中的错觉错误。这项研究引入了一种针对语音数据的大规模伪标记方法,这是一个尚未充分开发但颇具前景的知识提炼途径。
自动语音识别(ASR)系统已经达到了人类水平的准确度,但由于预训练模型的不断增大,在资源受限的环境中面临挑战。Whisper作为一个大型预训练ASR模型,在各种数据集上表现出色,但在低延迟部署方面可能更实用。而知识提炼在压缩自然语言处理变压器模型方面已经得到了有效应用,但在语音识别中的运用尚未得到充分探讨。
与原始 Whisper 模型相比,源自知识蒸馏的 Distil-Whisper 显着提高了速度并减少了参数,同时在具有挑战性的声学条件下保持了弹性。它的加速速度提高了5.8倍,参数减少了51%,在零样本场景下的分布外测试数据上实现了不到1% 的 WER。distil-medium.en 模型的 WER 稍高,但直接推理能力提高了6.8倍,模型压缩率提高了75%。Whisper 模型在长格式音频转录中容易出现幻觉错误,而 Distil-Whisper 可以减轻这些错误,同时保持有竞争力的 WER 性能。
Distil-Whisper 是通过知识蒸馏实现的 Whisper 模型的紧凑变体。这种创新方法在速度和参数减少方面产生了显着的好处,与原始 Whisper 模型相比,Distil-Whisper 速度更快,参数更少。尽管 WER 稍高,但 distil-medium.en 模型提供了更直接的推理和实质性的模型压缩。
项目网址:https://github.com/huggingface/distil-whisper
李嘉诚布局大模型
当房地产商高喊向科技领域转型之际,往往也是其核心地产业务陷入危机之时。为寻找新增长曲线,2018年,许家印通过投资贾跃亭的法拉第未来,正式进军新能源汽车,随后又走上自主造车之路;同年,杨国强开始投资建筑机器人研发以及打造高科技农业生态圈。站长网2023-10-09 17:46:370000创业做小工具的7个建议
各位村民好,我是村长前段时间,看了一位创业前辈写了一篇关于创业做小工具的文章。不仅让我感触很深,更对我有很大的启发。这一两年来,我也一直在做一些小工具。在零投放下,有过一天三五十万的新增用户,一天10万收入的高光时刻。也经历过因用户发布擦边信息,审核不严,导致平台被封禁20天以上的至暗时刻。所以,今天我再来做一些延申和总结,希望对即将做小工具创业的朋友有一些启发。0000狂揽10k star,微软AutoGen框架太火了,智能体聊聊天就把问题解决了
正如网友所说的,借助AutoGen,以后完成某项任务,用户只需给出需求,敲下回车,中间过程完全不用管,任务自动就完成了。一个项目,用了短短两个星期的时间,星标量从390狂增到10K,并在Discord上吸引了5000多名成员,如此爆火的项目便是微软最近发布的全新工具AutoGen。站长网2023-10-16 14:53:590001TikTok计划将全球电商业务规模扩大 争取今年达到200亿美元
资本市场消息称,字节跳动旗下的TikTok计划今年将全球电子商务业务规模扩大到达200亿美元的商品销售额,目标是扩大四倍以上,主要依靠东南亚市场的快速增长。据了解,TikTokShop于2022年相继进入新加坡、马来西亚、印度尼西亚、菲律宾、越南和泰国等东南亚国家,进一步开发当地的市场。到2022年,TikTokShop在东南亚的GMV达到了44亿美元,较2021年将增长四倍以上。站长网2023-06-09 19:25:510003