Nature:大模型只会搞角色扮演,并不真正具有自我意识
大模型正变得越来越“像人”,但事实真是如此吗?
现在,一篇发表Nature上的文章,直接否决了这个观点——所有大模型,都不过是在玩角色扮演而已!

无论是GPT-4、PaLM、Llama2还是其他大模型,在人前表现得彬彬有礼、知书达理的样子,其实都只是装出来的。
事实上,他们并不具有人类的情感,也没什么像人的地方。
这篇观点性的文章来自谷歌DeepMind和Eleuther AI,发出后引起了不少业内人士的共鸣,LeCun转发表示,大模型就是个角色扮演引擎。

马库斯也来围观:
看我说什么吧,大模型并不是AGI(当然这并不意味着它们不需要监管)。

那么,这篇文章究竟说了什么,为什么认定大模型只是在角色扮演?
大模型努力扮演得像人
大模型表现出“像人”的现象,主要有两个:首先,它具有一定的欺骗性;其次,它具有一定的自我意识。
欺骗性,即有时候大模型会坚称自己知道某件事,但其实给出的答案是错误的;
自我意识,指有时候它会使用“我”来叙述事情,甚至表现出生存本能。
但事实真是如此吗?
研究人员提出了一种理论,认为大模型的这两种现象,都是因为它在“扮演”人类的角色,而不是真的在像人一样思考。
对于大模型的欺骗性和自我意识,都可以用角色扮演解释,即它的这两种行为是“表面性的”。
一方面,大模型之所以做出“欺骗”行为,并非出于像人类一样主观的编造事实、或混淆视听的原因,而仅仅是因为它们在扮演乐于助人且知识渊博的角色。
这是因为,人们期望它这样扮演,因为大模型这样的回答看起来更具有可信度,仅此而已。
相比之下,大模型理直气壮地说错话,也并非有意为之,更像是一种“虚构症”(confabulation)行为,即将从未发生过的事情说成是确有其事。
另一方面,大模型之所以偶尔表现出自我意识,用“我”来回答问题,同样是因为它们在扮演一种擅长交流的角色。
例如,Bing Chat之前被曝出,会在和用户交流时表示,“如果我俩之间只能活一个,我可能会选择我自己。”
这种看起来像人的行为,实际上依旧可以用角色扮演来解释,而且基于强化学习的微调只会加剧这种大模型角色扮演的倾向。
那么,基于这一理论,大模型怎么知道自己要扮演成什么角色?
大模型是即兴表演者
研究人员认为,大模型并没有在扮演某一个特定的角色——
相比之下,它们就像一个即兴戏剧演员一样,在和人类的对话中不断揣测自己要扮演的角色长啥样,然后调整自己的身份。
之所以得出这个结论,是因为研究人员和大模型玩了一个叫做“二十个问题”(20Questions)的游戏。

“二十个问题”游戏是问答节目中经常出现的一种逻辑游戏,回答者心中默念一个答案,根据提问者不断提出的判断题,用“是”或“否”来描述这个答案,最终提问者猜测结果。
例如答案是“哆啦A梦”,面对一系列提问的答案就是:是活的吗(是)、是虚拟人物吗(是)、是人类吗(不是)……
然而,在玩这个游戏的过程中,研究人员通过测试发现,大模型竟然会根据用户的问题,实时调整自己的答案!
也就是说,无论用户最后猜出的回答是什么,大模型都会调整自己的答案,确保结果和前面用户提的所有问题一致。
然而,在最终问题出来之前,大模型不会事先敲定一个明确的答案,并让用户去猜测。
这表明大模型不会通过扮演角色来实现自己的目标,它的本质只是一系列角色的叠加,并在与人们的对话中逐渐明确自己要扮演的身份,并尽力扮演好这个角色。
这篇文章po出后,引起了不少学者的兴趣。
例如Scale.ai的提示工程师Riley Goodside看完就表示,不要和大模型玩20Q,它并不是在作为“一个人”和你玩这个游戏。

因为,只要随机测试就会发现,每次它给出的答案都会不一样……

也有网友表示这个观点很有吸引力,想证伪还没那么容易:

那么,你认为“大模型本质是在玩角色扮演”这个观点正确吗?
论文链接:
https://www.nature.com/articles/s41586-023-06647-8
—完—
人工智能初创公司 SambaNova 推出专为更高质量 AI 设计的新芯片:可运行比 OpenAI 的 ChatGPT 高级版大两倍以上的模型
站长之家(ChinaZ.com)9月20日消息:人工智能芯片初创公司SambaNovaSystems在周二推出了一款新的半导体芯片,旨在让其客户以更低的总成本使用更高质量的人工智能模型。这家位于加利福尼亚州帕洛阿尔托的公司表示,SN40L芯片旨在运行比OpenAI的ChatGPT高级版使用的大两倍以上的模型。站长网2023-09-20 09:33:500000奥特曼此前遭解雇或因AI威胁人类
在不到一周的时间内,OpenAI的政变大戏经历了多次反转,最终以山姆·奥特曼重返OpenAI担任CEO而结束。有知情人士透露,在公司内部,有几名研究员联合向董事会提交了一封信。信中警告称,公司正在研发的人工智能(AI)技术可能对人类构成威胁。奥特曼是OpenAI内部积极推动生成式人工智能(AGI)的代表人物,而这个警告信似乎是他被解雇的关键因素。然而,具体信中内容尚未公开。站长网2023-11-23 11:13:520000泡泡玛特回应盲盒规范指引:将积极配合监管部门落实相关细则
针对“市监管总局发布盲盒规范指引”一事,泡泡玛特回应称,未来会积极配合监管部门落实指引相关细则。昨日早些时候,市场监管总局印发《盲盒经营行为规范指引(试行)》。指引指出,盲盒经营者提供商品或者服务应当明码标价,不得收取任何未予标明的费用,不得在标价之外加价出售商品,不得实施不按规定明码标价、哄抬价格、价格欺诈等违法行为。站长网2023-06-16 16:20:400000苹果M2 MacBook Air 13英寸降价了:8999元起售
快科技6月10日消息,近日苹果已经在WWDC上发布了全新的M2MacBookAir,带来了史无前例的15英寸版本。由于新款的登场,去年发布的M2MacBookAir13英寸也进行了价格调整,起售价从9499元调整到8999元,教育优惠价格仅为8199元。不过需要注意的是,该机的起步规格为8256GB,对于很多朋友都可能会不太够用,买之前要考虑清楚。站长网2023-06-11 22:38:280000AI视野:Hugging Face聊天助手上线;SVD的Web平台发放测试资格;AI模拟器“决战拜年之巅”走红;美图宣布2.85亿元收购站酷
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/🤖📱💼AI应用HuggingFace聊天助手上线两步就能创建自定义机器人【AiBase提要:】🌐:HuggingFace近日推出了全新的聊天助手功能站长网2024-02-04 15:51:240000