研究人员推出压缩框架QMoE:可将1.6万亿参数模型高效压缩20倍
要点:
1. ISTA的研究人员提出了QMoE模型量化方法,可以将1.6万亿参数的SwitchTransformer压缩至160GB以下,每参数仅0.8位,实现了高达20倍的压缩率。
2. 这种压缩框架通过专门设计的GPU解码内核实现,能在一天内将庞大的模型压缩至适用于4张英伟达RTX A6000或8张英伟达RTX3090GPU的大小,而开销不到未压缩模型的5%。
3. QMoE采用了数据依赖的量化方法,实现了高效的压缩,即使在极低位宽下,仍能维持准确性,适用于大规模的混合专家架构模型。
最新研究来自ISTA的科学家提出了一种创新的模型量化方法,称为QMoE,可以将庞大的1.6万亿参数SwitchTransformer压缩到令人难以置信的160GB以下,每个参数仅占用0.8位。这一方法实现了高达20倍的压缩率,为解决大型模型的高昂成本和内存需求问题提供了新的解决方案。
GPT-4等大型模型的发展使混合专家架构(MoE)成为研究的焦点。虽然MoE可以显著提高模型的准确性和训练速度,但由于庞大的参数数量,需要大量的显存才能运行这些模型。例如,1.6万亿参数的SwitchTransformer-c2048模型需要3.2TB的GPU显存。为解决这一问题,ISTA的研究人员提出了QMoE,这一框架利用专门设计的GPU解码内核,实现了高效的端到端压缩推理。
论文地址:https://arxiv.org/pdf/2310.16795.pdf
QMoE的独特之处在于采用了数据依赖的量化方法,允许在底层的位宽下实现高度压缩,同时仍能维持准确性。实验结果表明,即使在仅有2位或三元精度的情况下,与未压缩模型相比,精度的损失非常小。这一研究的成果为大规模混合专家架构模型的高效压缩和执行提供了新的可能性,将其适用于消费级GPU服务器,减少了内存开销,并降低了运行成本。
尤其令人印象深刻的是,QMoE的高效性,小型模型甚至可以在一小时内完成压缩,而大型模型如c2048也只需要不到一天的时间。虽然在执行速度方面与未压缩模型相比略有下降,但这一方法在大规模模型的压缩方面具有重要潜力。总的来说,QMoE为解决大型模型的内存需求问题提供了创新的解决方案,实现了高度的压缩和高效的执行。
然而,这项研究也存在一些局限性,因为目前公开可获得的大规模精确MoE模型数量有限,因此需要更多的研究和实验来进一步验证其适用性。这一创新性研究将有望为未来的深度学习和大型模型研究开辟新的方向。
马来西亚正考虑制定人工智能监管法案
马来西亚科学、技术和创新部考虑制定人工智能法案,以监管人工智能应用程序的使用。该法案将包括对由人工智能生成的材料进行标记,以保证透明度和知情消费。马来西亚将与技术专家、法律专业人士、利益相关者和公众合作,确保法案的稳健性和相关性。法案还将涵盖数据隐私和公众对人工智能使用的意识等关键方面。站长网2023-07-24 17:15:260002小米发布2023年第一季度财报 称正式组建AI实验室大模型团队
小米今日发布2023年第一季度财报。财报显示,小米第一季度总收入达到595亿元,较2022年同期下滑18.9%;经调整净利润为32亿元,较2022年同期增长13.1%。其中包含智能电动汽车等创新业务费用11亿元。站长网2023-05-24 17:59:070000异军突起的视频AI,揭示了什么?
悄然崛起的视频AI,标志着AI竞争进入了下一阶段。在当下的AI赛道上,AI聊天、绘画一类的应用,早已枝繁叶茂。然而,在此类同质化应用扎堆的情况下,一类颇有技术难度,也较少被人提及的方向,正在悄然崛起。这就是最能调动人感官的视频AI领域。根据twitter上的作者Will郎瀚威统计的图表,今年8—9月,各大文生图类AI网站的访问量均开始呈现下降趋势。站长网2023-10-11 19:11:240000当消费者开始做选择,“李佳琦”们怎么办?
自2022年9月淘宝直播开启“新内容时代”,提出“专业有趣的人带你买”之后,很多品牌直播间悄然改变了直播风格。随着业界对“新内容”理解的深入,品牌纷纷聚焦自身核心优势,并借助直播电商,去锁定“自己的消费者”。“如果说,几年前的消费者们还抱着开放的态度尝试产品,那么现在,大家一定是开始选择产品了。”站长网2023-08-22 14:13:530001视觉中国与华为云合作 携手打造视觉大模型
视觉(中国)文化发展股份有限公司与华为云计算技术有限公司正式签署关于视觉大模型的合作协议。双方将以华为云盘古大模型为基础打造视觉大模型。据悉,视觉中国是一家国际知名的以“视觉内容”为核心的互联网科技文创公司,依托人工智能、大数据、区块链、云计算等互联网技术,聚合超过4亿的优质图片、视频、音乐等数字内容,打造了以“优质内容智能科技”为核心驱动的智能交易与服务平台。站长网2023-10-09 13:51:590000