牛津大学AI研究员发出警告:大语言模型对科学真相构成风险
**划重点:**
1. 🤖 AI研究员指出大型语言模型(LLMs)可能对科学完整性构成威胁。
2. 🧠 牛津研究呼吁改变LLMs的使用方式,建议将其作为“零射击翻译器”以确保输出的事实准确性。
3. 📢 研究强调,信任LLMs作为可靠信息来源可能导致科学真相受损,呼吁负责任的LLMs使用。
在最新的一篇研究中,牛津大学互联网研究所的人工智能研究员发出了对大语言模型(LLMs)对科学真相构成威胁的警告。由Brent Mittelstadt、Chris Russell和Sandra Wachter等研究员在《自然人类行为》期刊上发表的论文中,他们指出,基于GPT-3.5架构等LLMs并非绝对的真实信息来源,可能产生他们所称的“幻觉”——即不真实的回应。
图源备注:图片由AI生成,图片授权服务商Midjourney
一年前,科技巨头Meta发布了一款名为“Galactica”的大型语言模型,旨在协助科学家。然而,与Meta期望相反,“Galactica”在经历了三天的激烈批评后黯然失色。一年后,在科学研究领域对LLMs的依赖仍然未有显著改变。
研究呼吁改变LLMs的使用方式,建议将其作为“零射击翻译器”。与其依赖LLMs作为知识库,用户应提供相关信息并指导模型将其转化为期望的输出。这种方法有助于更容易验证输出的事实准确性和与提供的输入一致性。
论文中指出的核心问题在于这些模型训练所使用的数据的性质。设计用于提供有用且具有说服力回应的语言模型,缺乏对其准确性或与事实一致性的保证。在从在线内容获取的大规模数据集上进行训练,其中可能包含虚假陈述、观点和创造性写作,使LLMs接触到非事实信息。
Mittelstadt教授强调了用户信任LLMs作为可靠信息来源的风险,类似于人类专家。由于它们被设计成听起来像人类的代理,用户可能会被误导,即使回应缺乏事实依据或呈现事实的偏见版本,也会接受其准确性。
为了保护科学真相和教育免受不准确和有偏见信息的传播,研究呼吁对LLMs的负责任使用设定明确期望。论文建议用户,特别是在准确性至关重要的任务中,应提供包含事实信息的翻译提示。
Wachter教授强调了在科学界负责任使用LLMs的作用以及对事实信息的信心的重要性。研究呼吁警惕如果LLMs在生成和传播科学文章中被随意使用可能导致的严重危害。
Russell教授强调了对LLMs提供的机会进行谨慎考虑,并促使反思这项技术是否应该因为它能够提供某些机会而被授予这些机会。
微软开发新型大模型压缩方法SliceGPT
SliceGPT是微软开发的一种新型的大语言模型压缩方法。通过SLICEGPT,可以在保持99%,99%,和90%零样本任务性能的同时,将LLAMA2-70B、OPT66B和Phi-2模型分别去除高达25%的模型参数(包括嵌入)。站长网2024-01-29 17:21:360000俞敏洪回应天权提前复出:给予年轻人改正错误的机会
站长之家(ChinaZ.com)1月16日消息:近日,新东方创始人俞敏洪在视频中就天权提前复出一事进行了解释。他表示,对于年轻人犯错,应该给予他们改正的机会。据悉,一个月前,天权在直播中言行不当,俞敏洪对其进行了处罚,要求停播三个月进行反思。然而,经过一个月的反思和成长,天权已经认识到了自己的错误,并采取了实际行动与公司共同成长。站长网2024-01-16 14:31:370000周鸿祎:我不是针对李彦宏 开源一定会超过闭源
快科技4月20日消息,周鸿祎发文称,并不是针对李厂长(李彦宏),自己一直是开源的信徒。周鸿祎辟谣称,自己说开源好,是13号在哈佛讲的,李彦宏说闭源好,是16号在北京讲的。据了解,第二十七届哈佛中国论坛上,周鸿祎发表演讲称:我是一直相信开源的力量,至于说网上有些名人胡说八道,你们别被忽悠了。他说开源不如闭源好?连说这话的公司自己都是借助了开源的力量才成长到今天。”站长网2024-04-21 10:13:380000《纽约时报》聘请首位专注于人工智能的新闻编辑室负责人
《纽约时报》于官网发布新闻稿宣布,扎克·塞沃德(ZachSeward),一位成就卓著且具有创造力的新闻界领袖,将作为其首位人工智能倡议的编辑总监。0000腾讯节奏大师回归上热搜:今日10点开服 老玩家数据继承
腾讯旗下《节奏大师》手游于今日重新回归,上午10:00正式开服。这款曾经风靡一时的音乐手游,因其独特的下落式操作玩法和传统敲击音符与滑动屏幕相结合的操作方式,赢得了大量玩家的喜爱。站长网2023-11-07 10:12:100000