FastGen:在不降低LLM质量的情况下降低GPU内存成本
划重点:
- ⭐FastGen 一种高效的技术,可以提高 LLM 的推理效率,而不会降低可见质量。
- ⭐FastGen 轻量级模型分析和自适应键值缓存来实现。
- ⭐FastGen 通过自适应的键值缓存构造来少生成推理过程中的 GPU 内存使用量。
研究人员来自伊利诺伊大学厄巴纳 - 香槟分校和微软提出了一种名为 FastGen 的高效技术,通过使用轻量级模型分析和自适应键值缓来提高 LLM 的推理效率,而不会降低可见质量。FastGen 通过自适应的键值缓存构造来减少生成推理过程中的 GPU 内存使用量。
FastGen 的自适应键值缓存压缩方法减小了 LLM 生成推理内存占用。该方法涉及两个步骤:
1. 提示编码:注意模块需要从前面的 i-1标记中收集上下文信息,以生成 LLM 的第 i 个标记。
2. 令牌生成:当完成提示编码后,M 逐个标记生成输出,对于每个步骤,使用 LLM 对上一步生成的新标记进行编码。
对于 B 模型,FastGen 在所有非自适应键值缓存压缩方法中表现最佳,并随着模型规模的增加而得更高的键值缓存压缩比例,同时保持模型的质量不受影响。例如,与 Llama17B 上的16.9% 压缩比例相比,FastGen 在 Llama1-65B 上获得了44.9% 的缩比例,达到了45% 的胜率。此外,对 FastGen 进行了敏感性分析,选择了不同的超。由于模型保持45% 的胜率,研究表明在更改超参数后对生成质量没有明显影响。
伊利诺伊大学厄巴纳 - 香槟分校和微软的研究人员提出了 FastGen,一种新的技,通过使用轻量级模型分析和自适应键值缓存来提高 LLM 的推理效率,而不会降低见质量。研究人员引入的自适应键值缓存压缩通过 FastGen 构建,以减少 LLM 生成推的内存占用。未来的工作包括将 FastGen 与其他模型压缩方法(如量化和蒸馏、分组查询注意等)进行整合。
论文地址:https://arxiv.org/abs/2310.01801
腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源
单击画面中的火箭,输入“发射”prompt,瞬间起飞!就连想要回收火箭,也只需要输入“Launchdown”,再轻轻一点击:马斯克看了都要自我怀疑一下,这火箭发射这么简单,自家星舰成功进入太空怎么那么难(开个小玩笑)??以上效果来自一个新的图生视频模型Follow-Your-Click,由腾讯混元、清华大学和香港科技大学联合推出。食用方法非常友好:站长网2024-03-17 17:42:110001雷军宣布小米SU7 Pro今天下午开启交付:比原计划提前12天
快科技5月18日消息,雷军在今天上午的超长直播中表示,小米SU7Pro版将在5月18日下午首车会在北京交付。接下来,会陆续在各城市开始交付给用户,比原计划提前了12天。从这也能看出小米汽车工厂产能的爬坡非常顺利,近期还有消息称其将在下月达到2万台的月产能。小米SU7Pro售价24.59万,为超长续航高阶智驾版本,零百加速5.7秒,动力性能相较于标准版稍有提升。站长网2024-05-18 16:12:560000月薪4000存款43万,我在小红书做攒钱博主
从28万攒到43万,小红书博主“努力攒钱的少女”用了1年又9个月。在习惯以年薪、总包作为工资计量单位的社交平台,这样的攒钱速度似乎不足以让人惊讶,但搭配她在东北18线小城4000元的月薪来看,却又显得有些不可思议。“啃老族?还是不吃不喝?”这可能是大多数人的第一反应。站长网2023-07-24 17:15:280000一加12跑分曝光:搭载第三代骁龙8 12GB达211万分
近日,一加手机宣布其新款旗舰手机一加12将首批搭载全新第三代骁龙8旗舰处理器,号称同档产品中无对手。今日,数码博主“数码闲聊站”晒出一加12的首个安兔兔V10跑分,展示了该手机在超大天工VC散热支持下的性能表现。一加12的12GB版本在安兔兔跑分中取得了高达2110808分的好成绩,这一成绩的取得得益于强大的CPU和GPU性能。站长网2023-10-27 22:14:510000AI作品会侵权吗?我花了一个月时间,调研了你想知道的一切。
在AI越来越被普及之后,有越来越多的创作者下场,开始使用AI,来创作自己的一些作品。但是在这个时间点,很多的创作者,都非常关心一个问题:AI版权。特别是最近的有两个月,在聊天中有密集想了解的,比如影视飓风,比如某国企,比如港中大等等。大家的问题几乎都聚焦在两个问题上:我用AI直接创作的内容,会有侵权的可能吗?我用AI直接创作的内容,我拥有版权吗?站长网2024-05-13 15:28:320000