35年首次证明!NYU重磅发现登Nature:神经网络具有类人泛化能力,举一反三超GPT-4
35年来,认知科学、人工智能、语言学和哲学领域的研究人员一直在争论神经网络是否能实现类似人类的系统泛化。
具体来说,人们一直认为,AI无法像人类一样具有「系统泛化(systematic generalization)」能力,不能对没有经过训练的知识做到「举一反三」,几十年来这一直被认为是AI的最大局限之一。

图源备注:图片由AI生成,图片授权服务商Midjourney
最近,NYU和西班牙庞培法布拉大学的研究者首次证明——它可以!
他们在这个方向取得了里程碑式的突破,论文已经刊发在了Nature上。

论文链接:https://www.nature.com/articles/s41586-023-06668-3#auth-Brenden_M_-Lake-Aff1
研究人员提出了一种新的神经网络训练方法——MLC(Meta-Learning for Compositionality),能够大幅提高神经网络「举一反三」的能力,甚至能够超越人类!
人类之所以能够做到举一反三,快速掌握复杂语言的含义或者某种技巧,是因为人类天生具有「系统泛化」的能力。
举个例子,如果我们从未听过「秦始皇戴小红帽——赢到姥姥家了」这个短语,但知道「秦始皇叫嬴政」,知道「小红帽」的故事,就能理解这个歇后语,还能把它用在正确的地方。

但就算是「先进如GPT-4」的AI模型却还是无法理解这个歇后语,即使他知道「秦始皇叫嬴政」,以及「小红帽」的故事。
研究人员通过一种新的神经网络训练方法——MLC在变化的任务环境中训练模型,使模型逐步获得组合词汇含义的系统性推理能力。
结果表明,MLC模型不仅可以做出符合逻辑的响应,还能捕捉人类偏差性错误的规律,在人机对比中展现出惊人的人类化思维。
甚至,通过MLC训练出来的模型,系统泛化能力已经碾压了GPT-4。

论文作者同时还强调,如果孩子们在自然成长的体验中也有类似MLC这样的组合和激励机制,就可以解释人类的系统性泛化能力的来源。
这项研究可能会对人工智能和认知科学都产生深远影响。
它表明合适的方法可以让标准神经网络获得人类语言思维的核心特征——系统性复合推理能力。
尽管当今最强大的AI模型(例如 ChatGPT)可以在许多对话场景中发挥作用,但在对未训练过的知识的理解能力上,仍然存在不足。
某种程度上导致了模型「幻觉」问题一直无法有效解决。

针对LLM的局限,作者强调,「研究通过MCL来解锁了系统性泛化(SG)的更加强大的能力之后,也可能帮助大语言模型来克服自身固有的缺陷。」
理解系统性泛化(Understanding Systematic Generalization)
这一突破性的研究在于系统性概括的概念。当我们人类在不同的环境时,拥有毫不费力地适应和使用新学单词的能力。
例如,「Photobomb」是一个英语俚语,指的是在拍照时突然出现在照片中,通常是有意而为之,以吸引注意力或制造幽默效果。
一旦我们理解了「Photobomb」这个词,我们就会本能地知道如何在各种情况下使用它,无论是「两次Photobomb」还是「在使用Zoom期间进行Photobomb」。
同样地,当人类理解「狗追猫」这样的句式结构之后,可以轻松掌握「猫追狗」的含义。
然而,人类固有的举一反三的理解和泛化能力,对于人工智能来说一直是具有挑战性的前沿领域。
传统的神经网络是AI研究的支柱,但是它不具备理解和泛化能力,神经网络只会努力合并一个新单词,否则需要靠大量的样本进行广泛的训练。
几十年来,这种受限的泛化性一直是AI研究人员争论的话题,关于神经网络作为人类认知过程的真实反应是否可行,引发了大量的讨论。
在本文中,研究人员提供了证据,证明神经网络可以通过研究人员提出的MLC(Meta-Learning for Compositionality)系统实现类似人类的系统泛化。
MLC 是研究人员提出的一种优化程序,旨在通过一系列少样本合成任务来激励系统性(如下图1)。

研究人员展示了MLC如何通过实践来提高神经网络的组合技能(Compositional Skills)。
MLC获得一个新词(或规则系统)并尝试系统地使用它。在不断地修正和更新「理解」之后,可以对下一个新词重复该过程。
研究人员构建的MLC只使用了常见的神经网络,没有添加符号机制,也没有手工设计的内部表示或归纳偏差。
相反,MLC提供了一种通过高级指导和/或直接人类示例来指定所需行为的方法;然后要求神经网络通过元学习(Meta Learning)来培养正确的学习技能。

为了证明MLC的能力,研究人员在相同的系统泛化测试中并排对比评估了人类和机器的能力。
具体来说,研究人员,在伪语言(pseudolanguage)指令学习任务中使用代数或数学概念,以测试人类和机器学习系统对这些概念的理解和应用能力。

还研究了人们对高度模糊语言的探测反应。这些语言探测的设计目的是了解人类在面对模糊信息时的倾向或偏差。
即人类如何进行归纳推理,以及这些倾向或偏差是如何可能促进或者阻碍系统性泛化。
在对结果进行了评估之后,研究人员发现,MLC实现(甚至超过)人类水平的系统泛化!
当人类行为偏离纯粹代数推理时,MLC 还会产生类似人类的错误模式。
这表明神经网络是一种卓越的建模工具,可用于细致入微的人类组合行为。
在最后一组模拟中,研究人员展示了 MLC 如何提高流行基准的准确性,以实现少样本系统泛化。

研究细节(The Study in Detail)
为了更深入地研究神经网络的功能及其语言泛化的潜力,作者进行了全面系统的实验,其不仅研究了机器,25名人类也交叉地参与其中,以此作为AI的表现基准。

在实验中使用了一种伪语言,即参与者不熟悉的单词,这样能够确保参与者真正第一次学习这些术语,从而为测试泛化性能提供一个可信的baseline。
如上图(左侧),原始类别包括「dax、wif、lug」等单词,它们象征着类似于「jump、skip」跳过与跳跃的基本动作(下图左侧)。

另一方面,使用更抽象的功能词,比如「blicket、kiki、feg」,为之前的原始词术语的应用和组合制定了规则,从而推断出「skip twice、walk backwards」等序列。
在培训参与者的过程中还引入了视觉元素,每一个原始单词都与特定颜色的圆圈相关联。
例如,如下图,红色圆圈代表「dax」,而蓝色圆圈代表「lux」。

制定好颜色单词映射规则后,接下来,向参与者展示原始语和功能词的组合,并附带彩色的圆圈图案。
例如,一个短语「fep」与三个红色圆圈配对,说明「fep」可能代表一个动作的三次重复。
此外,为了衡量参与者的理解能力和系统性的概括能力,还向它们展示了原始词和功能词的负责组合。参与者的任务是准确地推断出圆圈的颜色和数量,并进一步给出正确的排列顺序。

影响力和专家意见(Implications and Expert Opinions)
这项研究不仅仅是人工智能研究史册上的又一个增量,还代表了范式的转变。
神经网络的性能密切反映了类人系统的泛化能力,这引起了广泛学者和行业专家的关注。
著名约翰霍普金斯大学语言专业认知科学家Dr. Paul Smolensky表示:
「在训练过程中能让网络拥有系统化能力的重大突破。」
如果可以训练网络进行系统泛化,那么这些模型就可能彻底改变聊天机器人、虚拟助手等诸多应用程序。
然而,这种发展不仅仅是技术的进步,它还触及了AI界长期存在的争论:
「神经网络是否真的可以视作准确模拟人类认知的工具?」
在过去的近四十年里,这个问题一直是AI研究者们争论不休的焦点。尽管有些人相信神经网络有潜力模拟类似人类思维过程,但另一些人依然对它们的天生局限表示怀疑,特别是在语言泛化领域。
这项研究的结果带来了新的希望,使人们变得更加乐观。
正如纽约大学认知计算科学家、该研究的共同作者Brenden Lake所指出的,神经网络过去可能一直在取得艰难的进展,但通过正确的方法,它们确实可以被调整和训练,以更好地反映人类认知的各个方面。
迈向人机无缝协同的未来
AI从起初的萌芽阶段到如今强大,经历了不断地演化和突破。最近在训练神经网络系统的概括语言方面取得的成就再次证明AI的无限潜力。
当我们处于这个关头时,有必要认识到这些进步的广泛应用。
我们正一步步接近未来:机器不仅能理解人类的的语言,还能掌握细微的差别和语义,从而促进更加无缝和直观的人机交互未来。
比格PPT:AI一键生成精美演示文稿 具有智能排版功能
比格PPT是一款基于人工智能技术的PPT设计软件。它可以帮助用户快速、高效地制作精美的演示文稿,节省用户大量的设计时间。比格PPT提供了丰富的PPT模板和设计元素,用户可以根据自己的需求选择模板并进行个性化定制,使演示文稿更加专业和吸引人。官网地址:https://bigesj.com/ai-ppt/站长网2024-02-01 16:59:550000You.com推出API,实现LLM实时访问互联网
划重点:1.💡You.com本月推出一套API,旨在为Llama2和其他LLM提供实时访问互联网的能力,获取最新的上下文,并增强用户提问的效果。2.💻大多数LLMs是通过从公共网页、电子书等地方抓取的公开可用的静态数据进行训练的。这足以让它们执行从写电子邮件到起草信件和文章等任务。然而,这限制了LLMs的知识范围。站长网2024-01-02 17:06:090000视频号6·18好物节激励计划公布 技术服务费率降至1%
今日,视频号直播6.18大促激励计划正式发布,活动期间,视频号商家可享受技术服务费率减至1%的优惠;带货主播设置直播预告、完成带货目标,或发布带商品短视频并带话题#618好物就在视频号,均有机会获得流量激励。激励计划有效期:6.18大促活动:2023年05月31日20:00:00至2023年06月18日23:59:59(北京时间)站长网2023-05-26 11:36:070000高合汽车回应FF起诉:否认侵犯商业秘密和不正当竞争
法拉第未来(FF公司)今日宣布,已向中国广东省深圳市中级人民法院提起诉讼,指控其前高管、华人运通创始人丁磊及其关联公司侵犯了FF公司的商业秘密,并存在不正当竞争行为。对此,高合汽车迅速作出回应,坚决否认了所有指控。站长网2024-03-05 16:12:520000《时代》2024最具影响力100人名单公布:黄仁勋、王传福等入选
快科技4月22日消息,今天,《时代》周刊发布了2024年度最具影响力的100人名单,英伟达创始人兼CEO黄仁勋、比亚迪创始人王传福、微软CEO纳德拉等均入选。对于王传福,《时代》周刊在介绍中表示,1995年王传福创办比亚迪公司,并带领比亚迪发展成为一家跨领域的高科技企业,涉及电子元器件、汽车、新能源、IT等多个领域。0000