Human or Not游戏测试:三分之一的人分不清人和AI
站长网2023-06-01 16:16:440阅
日前,OpenAI 的竞争对手AI21Labs发布了一项名为“ Human or Not ”的网络游戏社交实验的结果,该游戏发现高达32% 的人无法区分人类和 AI 机器人。
该公司称这款游戏是迄今为止规模最大的图灵测试,它使用基于领先的大型语言模型 (LLM)(例如 OpenAI 的 GPT-4和 AI21Labs的Jurassic-2、最终分析了超过一百万次的对话和猜测。

结果令人诧异:一方面,测试表明,人们发现更容易识别对象是不是同类(即人类),参与者猜对率73% 。但在与机器人交谈时,参与者只猜对率只有60% 。
但除了这些数字之外,研究人员还指出,参与者使用了几种流行的方法和策略来确定他们是在与人交谈还是与机器人交谈。例如,他们假设机器人不会犯拼写错误、语法错误或使用俚语,而在游戏中的大多数模型都经过训练可以犯这些类型的错误并使用俚语。
参与者还经常问一些个人问题,例如“你来自哪里?”、“你在做什么?” 或“你叫什么名字?”,相信人工智能机器人不会有个人历史或背景,而且他们的回答将仅限于某些主题或提示。然而,机器人大多能够回答这些类型的问题,因为它们接受过很多个人故事的训练。
在两分钟的对话之后,用户被要求猜测他们一直在人还是机器人对话。经过一个多月的游戏和数百万次对话,结果表明32% 的人无法区分人类和人工智能。
些参与者认为,如果他们的讨论伙伴过于礼貌,他们可能是一个机器人。
0000
评论列表
共(0)条相关推荐
5亿个token之后,我们得出关于GPT的七条宝贵经验
ChatGPT正确的使用姿势。自ChatGPT问世以来,OpenAI一直被认为是全球生成式大模型的领导者。2023年3月,OpenAI官方宣布,开发者可以通过API将ChatGPT和Whisper模型集成到他们的应用程序和产品中。在GPT-4发布的同时OpenAI也开放了其API。一年过去了,OpenAI的大模型使用体验究竟如何,行业内的开发者怎么评价?0000网络风险公司警告称 ChatGPT 有可能暴露企业机密信息
据彭博消息,根据以色列网络风险公司Team8的一份报告,使用ChatGPT等生成式人工智能工具的公司可能会将客户的机密信息和商业秘密置于危险之中。该报告说,新的人工智能聊天机器人和写作工具的广泛采用可能使公司容易受到数据泄露和诉讼的影响。人们担心的是,聊天机器人可能被黑客利用,获取敏感的公司信息或对公司采取行动。还有人担心,现在输入聊天机器人的机密信息将来可能会被人工智能公司利用。站长网2023-04-19 09:21:440000微信可一次性删除所有单向好友 但需要好友人数达到上限
站长之家(ChinaZ.com)2月17日消息:微信iOS版近日迎来功能更新,为用户带来了通讯录管理的便利升级。此次更新后,微信通讯录新增了一项重要功能:允许用户一次性删除已经删除或屏蔽自己的好友,相较于此前每次仅能删除5个的限制,这一改变无疑极大地提升了用户的操作效率。站长网2025-02-17 08:31:350000闲鱼「搞钱」,可能比年轻人更急迫?
每个时代有每个时代的财富密码。当宏观放缓,“会省钱”和“会花钱”的人都开始追求质价比、性价比,以闲鱼为代表的循环经济和二手生意迎来了它前所未有的发展良机。不再藏着掖着。2023年11月,阿里CEO吴泳铭在财报分析师电话会上,公布了集团第一批战略级创新业务——1688、闲鱼、钉钉、夸克。对应的遴选标准是市场潜力大、定位独特、符合用户需求和AI驱动。0000Google Brain 联合创始人:科技巨头放大 AI 风险恐惧以遏制竞争
站长之家(ChinaZ.com)10月31日消息:据《澳大利亚金融评论》报道,人工智能(AI)领域的知名专家、GoogleBrain的联合创始人吴恩达(AndrewNg)表示了对大型科技公司放大AI风险恐惧以遏制竞争的担忧。GoogleBrain是以深度学习AI研究而闻名的团队,于今年早些时候与DeepMind部门合并,以整合他们在AI技术方面的专长。站长网2023-10-31 12:04:560000