微软新工具LLMLingua-2:可将 AI 提示压缩高达80%,节省时间和成本
划重点:
🔍 微软研究发布了 LLMLingua-2,一种用于任务不可知压缩提示的模型,可以将原始长度减少高达20%,从而降低成本和延迟。
📊 LLMLingua-2通过智能压缩长提示,去除不必要的词语或标记,同时保留关键信息,使得提示长度可减少至原长度的20%。
🚀 LLMLingua-2在多个数据集上进行了评估,显示出与强基线相比的显著性能改进,并在不同 LLM 之间展现了稳健的泛化能力。
微软研究发布了名为 LLMLingua-2的模型,用于任务不可知的提示压缩。该模型通过智能地去除长提示中的不必要词语或标记,同时保留关键信息,使得提示长度可减少至原长度的20%,从而降低成本和延迟。研究团队写道:“自然语言存在冗余,信息量不尽相同。”
LLMLingua-2比其前身 LLMLingua 和类似方法快3到6倍。LLMLingua-2使用了 MeetingBank 中的示例进行训练,该数据集包含会议记录及其摘要。要对文本进行压缩,首先将原始文本输入训练好的模型。模型对每个词语进行评分,根据周围语境为其分配保留或移除的点数。然后选择具有最高保留值的词语,以创建缩短的提示。
微软研究团队在多个数据集上对 LLMLingua-2进行了评估,包括 MeetingBank、LongBench、ZeroScrolls、GSM8K 和 BBH。尽管模型规模较小,但在各种语言任务(如问答、摘要和逻辑推理)中,它始终优于原始的 LLMLingua 和选择性上下文策略。同样,相同的压缩策略对不同 LLM(从 GPT-3.5到 Mistral-7B)和语言(从英语到中文)都有效。

LLMLingua-2只需两行代码就可以实现。该模型还已集成到广泛使用的 RAG 框架 LangChain 和 LlamaIndex 中。微软提供了演示、实际应用示例以及说明提示压缩的好处和成本节省的脚本。该公司认为这是一个有前途的方法,可以通过压缩提示实现更好的泛化能力和效率。
论文地址:https://arxiv.org/abs/2403.12968
项目入口:https://top.aibase.com/tool/llmlingua-2
谷歌将为广告商带来一系列生成式人工智能功能
站长之家(ChinaZ.com)11月8日消息:谷歌发布博客文章宣布,正在推出一系列新的生成式人工智能工具,旨在创造广告内容,从撰写出现在搜索结果旁的标题和描述,到创建和编辑配图。图片来自Google谷歌正在将此工具推广给广告代理机构以及没有内部创意团队的企业。广告商可以使用文本提示来迭代他们生成的文本和图像,直到找到他们喜欢的内容。站长网2023-11-08 10:02:080000金山办公与阿里云达成战略合作 针对智能办公进行共创
今天,北京金山办公软件股份有限公司与阿里云达成战略合作,双方将发挥各自的技术优势和平台能力,在云资源、AI大模型、产品生态融合、联合解决方案等多个领域展开深度合作。据悉,双方将围绕AIGC(内容创作)、Copilot(智慧助手)、Insight(知识洞察)三个战略方向,一起就智能办公进行共创,为用户提供更加智能便利的办公体验。同时,双方将展开产品融合和方案共创,协同助力组织数字化转型。站长网2023-09-06 17:45:240000以搜索增强对抗幻觉,百川智能拿出了实现大模型商业化的最后一块拼图
12月19日,百川智能宣布开放基于搜索增强的Baichuan2-Turbo系列API,包含Baichuan2-Turbo-192K及Baichuan2-Turbo。这是9月末Baichuan2-53B第一次向外界打开API之后,百川智能在B端的进一步动作。0000OpenAI CEO山姆·奥特曼被时代杂志评为2023年度CEO
站长之家(ChinaZ.com)12月7日消息:《时代》杂志今日评选出2023年度CEO,OpenAICEO山姆·奥特曼荣膺此殊荣。这标志着在充满挑战和胜利的一年里,奥特曼以其富有科技远见和卓越领导力受到了巨大的赞誉。奥特曼表示,今年的感恩节对他来说格外特别。他回顾了OpenAI经历的一年,其中包括公司从非营利性到部分营利性的转变,以及人工智能聊天机器人ChatGPT的爆发性增长。站长网2023-12-07 09:51:020000你有没深入想过,什么造成了GPT-4的输出很随机?
GoogleDeepmind可能早就意识到了这个问题。今年,大型语言模型(LLM)成为AI领域最受关注的焦点,OpenAI的ChatGPT和GPT-4更是爆火出圈。GPT-4在自然语言理解与生成、逻辑推理、代码生成等方面性能出色,令人惊艳。然而,人们逐渐发现GPT-4的生成结果具有较大的不确定性。对于用户输入的问题,GPT-4给出的回答往往是随机的。站长网2023-08-07 16:41:370004