FastGen:在不降低LLM质量的情况下降低GPU内存成本
划重点:
- ⭐FastGen 一种高效的技术,可以提高 LLM 的推理效率,而不会降低可见质量。
- ⭐FastGen 轻量级模型分析和自适应键值缓存来实现。
- ⭐FastGen 通过自适应的键值缓存构造来少生成推理过程中的 GPU 内存使用量。
研究人员来自伊利诺伊大学厄巴纳 - 香槟分校和微软提出了一种名为 FastGen 的高效技术,通过使用轻量级模型分析和自适应键值缓来提高 LLM 的推理效率,而不会降低可见质量。FastGen 通过自适应的键值缓存构造来减少生成推理过程中的 GPU 内存使用量。
FastGen 的自适应键值缓存压缩方法减小了 LLM 生成推理内存占用。该方法涉及两个步骤:
1. 提示编码:注意模块需要从前面的 i-1标记中收集上下文信息,以生成 LLM 的第 i 个标记。
2. 令牌生成:当完成提示编码后,M 逐个标记生成输出,对于每个步骤,使用 LLM 对上一步生成的新标记进行编码。
对于 B 模型,FastGen 在所有非自适应键值缓存压缩方法中表现最佳,并随着模型规模的增加而得更高的键值缓存压缩比例,同时保持模型的质量不受影响。例如,与 Llama17B 上的16.9% 压缩比例相比,FastGen 在 Llama1-65B 上获得了44.9% 的缩比例,达到了45% 的胜率。此外,对 FastGen 进行了敏感性分析,选择了不同的超。由于模型保持45% 的胜率,研究表明在更改超参数后对生成质量没有明显影响。
伊利诺伊大学厄巴纳 - 香槟分校和微软的研究人员提出了 FastGen,一种新的技,通过使用轻量级模型分析和自适应键值缓存来提高 LLM 的推理效率,而不会降低见质量。研究人员引入的自适应键值缓存压缩通过 FastGen 构建,以减少 LLM 生成推的内存占用。未来的工作包括将 FastGen 与其他模型压缩方法(如量化和蒸馏、分组查询注意等)进行整合。
论文地址:https://arxiv.org/abs/2310.01801
“听劝”外国人,掘金小红书
“活体外国人写评论区所有英语作业。”法国博主@Sahil星辰在小红书写下这段文案,配上“伤心偷妈头”的表情包,底下的小红书用户毫不客气,纷纷掏出自己的随堂练习,求问这道题是选A还是选B。在他的另一篇笔记中,双方的身份颠倒过来,占据母语优势的用户给他批试卷,“目代表眼睛,眼睛有两个,所以是两横”,为此他亲切将小红书称为“外国人的作业帮”。站长网2024-05-09 23:07:200000谷歌折叠屏手机Pixel 9 Pro Fold上架:新功能来了!
谷歌旗舰折叠屏手机Pixel{tag_keyurl_9}ProFold已经上市,除了带来丰富的软件新功能外,还新增了一项备受用户喜爱的折叠屏手机功能——应用配对。通过这个功能,用户可以将两个并排运行的应用程序保存为一个组合,以便快速访问。例如,在使用浏览器和微信时,可以将这两个应用程序组合保存为一个快捷方式放在主屏幕上。只需点击该快捷方式即可并排启动这两个应用程序。0000小米15屏幕参数公布:M9发光材料 1.38mm超窄四等边直屏
今日,小米15系列手机的屏幕参数正式公布,该机型配备了一块被称为“超级阳光屏”的显示屏,其特点是拥有令人惊艳的1.38mm超窄四等边设计。这款屏幕采用了独家定制的M9发光材料和双微腔屏幕结构,使得发光效率在同类产品中领先,同时实现了屏幕功耗下降10%。此外,该屏幕还支持全亮度DC调光和全屏AOD(AlwaysOnDisplay)锁屏功能,为用户提供了更舒适的视觉体验。00003D点云处理 PCL部署使用
pcl是3D点云处理的必须算法,比肩图像算法中的opencv,是国内自主开发开源的算法包,适合所有需要处理点云的算法工程师的必备技能。应用范围极其广泛,自动驾驶相关应用的经典算法库。从理论到实际,从实验到应用,记录学习pcl算法的学习之路。算法的范围,PCL是指纳入了多种操作点云数据的三维处理算法,其中包括过滤、特征估计、表面重建、模型拟合和分割、定位搜索...站长网2023-05-24 16:42:110000苹果的新人工智能排除了超过 90% 的当前 iPhone 用户
站长之家(ChinaZ.com)6月15日消息:等待了近两年后,Apple终于踏上了生成式人工智能(AI)的潮流。在全球开发者大会(WWDC)上,AppleCEOTimCook宣布了这一重大消息。在主题演讲的开幕式上,Cook表示:「我很高兴我们将推出意义深远的新智能功能,希望这能激发开发者的灵感,使用户感到愉悦,并使我们的平台变得更智能、更有用。」站长网2024-06-16 14:09:440000