GPT-4满分通过MIT本科数学考试,这套提示词火了
万万想不到啊,MIT数学考试,被GPT-4攻破了?!
突然有人在最新论文工作中高调宣布:
GPT-4在MIT的数学和EECS(电气工程和计算机科学系)本科学位考试中,表现出的能力完全满足毕业要求。
而且妥妥地拿下满分!
要知道,测出这个结果的不是别人,正是来自MIT和波士顿大学、康奈尔大学的研究团队。
而且强如上一代王者GPT-3.5,在同样的测试中,只成功搞定了三分之一。
△
论文一出,无数目光迅速被吸引过来。
GPT-4这样看似开挂的行为,自然引发了不少网友的感慨。
比GPT-3.5强好多,好耶!
咱就是说,有没有可能以后不需要比GPT-4更强的模型,来解决学术问题了?
还有网友展现了自己网上冲浪的“前沿性”,玩了个这两天Yann LeCun吐槽“GPT-4智商不如狗”的梗:
GPT-4开挂MIT考试
具体来说,GPT-4这次是参与了这样一场测试:
研究团队策划了一个数据集,其中包含4550个问题和解决方案。
这4550个问题和解决方案,来自MIT数学系和EECS的学生获得本科学位,需要学习的课程问题集、期中考试和期末考试。
包括:
6-1:电气科学与工程;6-2:电气工程与计算机科学;6-3:计算机科学与工程;6-4:人工智能与决策;18-1:普通数学;18-2:应用数学;18-3:纯数学;18-C:数学与计算机科学。
△
题目统统出自MIT的数据集,从中随机生成228个问题,不涉及图像和已有解决方案的问题。
题目的难度等级由易到难依次为:练习、习题、 期中考试、期末考试、实验和专题。
按答案类型排序,题目的难度由易到难依次为:编程、开放、选择题、数值、表达式和图像。
这一次,参与考试的不只有GPT-4和GPT-3.5,还有StableVicuna-13B、LLaMA-30B和LLaMA-60B。
选择让这4个大模型作为考试参赛选手,原因是它们是“最先进的大语言模型”。
△
通过表格里的数据可以看到,得分最高的是经过调优后的GPT-4,得分率100%;表现最一般的是LLaMA-30B,只拿下了30%的分数。
值得关注的是,原始版本的GPT-4开箱即用,完全不经过调优,在本次MIT考试中也拿到了90%的分数。
调优流程,包括Few-Shot CoT Self-critique Experts。
从最终考试成绩的表格数据可以看到,从左到右每增加一个环节,调优后的GPT-4得分都会更上一层楼。
此外,研究团队还在提示框里进行了工程优化,具体的“咒语”如下:
等等,评分人是GPT-4自己?
看到这样的结果,不少网友心生感慨,LLM在数学考试上的进步,未免有些神速了哈。
2年前,AI还在苦苦挣扎小学数学问题。
类似“小明种了5棵柠檬树,每年从每棵树上得到6个柠檬,10年间他总共得到多少柠檬”这种。
去年年初,MIT 哈佛 哥伦比亚大学 滑铁卢大学的联合研究表示,把数学问题转换成等价的编程问题,就可以让GPT-3的同门师兄弟——OpenAI的Codex掌握高数,达到MIT本科水平。
学了6门MIT本科基础数学课里随机抽取的例题,6门课程每门随机出25道题,再加上一个ACT水平(美国高考)的数据集里的60道题。
总计210道题,AI全部答对。
不过有人提出,AI达到的“MIT本科水平”,实际是Codex在做语言题而非数学题——
因为当时的评测中,Codex负责读写,并不包括求解。
所以,这一回GPT-4表现奇佳,怎一个妙字了得~
好了,知道你很着急夸它,但你先别着急夸它,因为很快有人发现了一些“诡异”。
主要有2大槽点。
第一个值得质疑一番的,就是OpenAI的训练数据集没有完全公布。
这也就意味着,无法证明数据集中的4550个问题和解决方案,在GPT-4的训练集中不存在。
换句话说,如果GPT-4在预训练阶段已经接触到了这次的考题们,那最终拿下完美得分,就没什么好惊喜的了。
也难怪乎有网友毫不客气地yygq,认定GPT-4拿到这样的结果,一定是数据集已经包含在训练数据里了。
第二个槽点,就是GPT-4最后100%的得分率,似乎哪里不对劲???
定睛一看,在论文的第2.6节有一句很关键的点:
团队在数据集上微调开源大模型,“给定问题Q、基本事实解S和LLM答案A,我们使用GPT-4自动对模型响应进行评分”。
实际操作上,就是每个大模型生成这次考试的答案,然后派出GPT-4打分,分值在0-5之间。
所以给GPT-4打出满分的,实际上是GPT-4自己。
啊这……很难说没有王婆卖瓜自卖自夸的嫌疑。
此外,关于要给GPT-4提供“好的提示”,才能让它达到满分成绩,也让许多人抱有微词。
到底什么算“好的提示”呢?似乎无法定义。
甚至有人喊着,应该把这些题丢给MIT数学和EECS的学生去做,并不断给他们“好的提示”,这样人类学生也能拿下100%的吧……
One More Thing
一个小小的彩蛋:
整个测试中,基本上可以在笔记本电脑上部署运行的StableVicuna-13B,也有48%的得分率。
这个成绩,不仅比模型更大的LLaMA-65B高出近10个百分点,就连MIT fine-tuing过后的LLaMA-30B,还要高。
让人不得不陷入一些关于模型规模与能力相关性的思考
参考链接:[1]https://arxiv.org/abs/2306.08997[2]https://twitter.com/johnjnay/status/1669687958960586753[3]https://twitter.com/arankomatsuzaki/status/1669528841629601792[4]https://twitter.com/emollick/status/1669742473097228292
AI算力70年增长6.8亿倍,3个历史阶段见证AI技术指数级爆发
【新智元导读】一张图揭示了AI算力70多年发展了6.7亿倍,未来AI各方面能力将全面超越人类,而真正令人期待的是,AI行业才刚刚进入爆发前的萌芽期。电子计算机于上世纪40年代诞生,而在计算机出现后的10年内,人类历史上的第一个AI应用就出现了。70多年过去了,AI模型现在不仅能写诗,还能根据文本提示生成图像,甚至是帮助人类发现未知的蛋白质结构。站长网2023-09-25 15:33:480000暴雪魔兽世界国服正式服今日开服
今天,《魔兽世界》的国服正式重新开放,根据暴雪的计划,原定开服时间是中午12:00,但玩家的实际体验显示,服务器开放时间比预期提前了,玩家们现在已经可以登录并进入游戏。玩家在首次登录游戏时,会触发全新的战团系统转换流程,这个过程可能会持续20分钟以上。此外,由于数据量处理的需要,玩家在登录时可能会遇到排队等待的情况。站长网2024-08-01 09:58:090000报告称ChatGPT移动端营收增长开始放缓
据Appfigures公布数据显示,ChatGPT移动端营收增长已开始放缓。在过去的几个月里,ChatGPT的营收增长一直保持在30%以上,其中7月份为31%,8月份为39%。然而,到了9月份,这一数字下降到20%。这可能是ChatGPT的用户数量接近饱和的一个迹象,或者反映出有多少移动用户不愿意为升级后的ChatGPT订阅服务付费。据悉,ChatGPT并不是收入最高的人工智能应用。站长网2023-10-10 08:47:220000谷歌AI提出视觉语言模型PixelLLM:能够进行细粒度定位和视觉语言对齐
**划重点:**1.🧠谷歌研究团队与加州大学圣迭戈分校合作,提出了一种名为PixelLLM的智能模型,可实现细粒度定位和视觉-语言对齐。2.🌐PixelLLM通过在语言模型的每个输出单词与像素位置之间建立密集对齐,成功解决了大语言模型在定位任务中的挑战。站长网2023-12-19 11:07:110000百度地图V20 3D领先版预告:特斯拉全球首发、华为系也将用上
快科技4月22日消息,在今日举办的百度Apollo智能汽车产品发布会上,百度副总裁尚国斌表示,百度地图V20将在近期全面上线,支持车机端3D车道级导航。非常重磅的是,特斯拉在华的车型将首发搭载该地图,从5月开始,这一更新将陆续推送给新老特斯拉车主。除特斯拉外,还有四家企业也将上线百度地图V20版本,其中,百度自家亲儿子极越汽车自然不能落后,而且使用的还是最强版本SR智驾版。站长网2024-04-23 07:44:250000