OpenAI大逃亡,AGI安全团队半数出走!奥特曼:攘外必先安内
尽管不断招兵买马,依旧挡不住OpenAI的安全团队「集体出走」。半数员工已离职、公司处在风口浪尖,奥特曼却在此时选择对内部员工展开安全监控。
今年5月发布会后,安全团队负责人Ilya Sutskever和Jan Leike曾前后脚在推特上官宣离职。
加入Anthropic的Jan Leike曾公开指责OpenAI没有对AI安全投入足够的重视,「安全文化和流程已经让位于闪亮的产品」。
奥特曼曾经承诺的20%计算资源迟迟不到位到位,让他的团队始终在「逆风航行」。
Ilya和Jan Leike的离职,宣告着OpenAI「超级对齐」团队的正式解散。
几个月来,关于OpenAI安全团队的人事新闻也始终不断,包括雇用前陆军上将Paul M. Nakasone,以及CMU教授Zico Kolter任职于董事会新成立的安全和保障委员会,还有「打包」挖来AI安全公司Indent。
种种招兵买马之举,让人好奇,奥特曼是否真的「良心未泯」、仍对AI安全有所关注,还是仅仅为了平息两位大佬离职后全网的指责。
在如此多的「大动作」之下,OpenAI安全团队的现状究竟如何?
最近,前OpenAI研究员Daniel Kokotajlo接受了《财富》杂志的独家专访。他表示,情况并不乐观,原AGI安全团队中近一半的员工已经离职。
由于部分研究人员担心,AGI可能逃脱人类控制并对全人类构成生存威胁,因此OpenAI自成立以来就雇用了大量研究人员,专注于「AI安全」领域。
根据Kokotajlo的说法,这支队伍最近正因辞职而人数锐减,其中包括OpenAI联合创始人、ChatGPT架构师John Schulman和Scaling Law论文共同作者之一Jeffrey Wu。
John Schulman已入职Anthropic,Jeff Wu的领英显示他7月已离职,目前未透露去向。
此外,离职的还包括以下员工:
- Jonathan Uesato,GPT-4o的核心贡献者之一,曾在DeepMind Gemini团队工作
- Jan Hendrik Kirchner,GPT-4技术报告的共同作者之一,8月已入职Anthropic
- Yuri Burda,已在OpenAI任职8年,今年7月后离职并加入Anthropic
- Todor Markov,GPT-4o的核心贡献者之一,已在OpenAI任职近6年,今年6月离职
- Steven Bills,曾参与ChatGPT的开发,已加入Anthropic
Kokotajlo本人是一名哲学专业的博士生,于2022年加入OpenAI担任治理研究员,并于4月辞职,因为他对公司在「构建通用人工智能系统方面的负责任行为失去了信心。」
他在接受采访时表示,2024年出现了缓慢而稳定的离职潮。大约30名AI安全方面的员工中,现在只剩下16人左右。
「(离职潮)并不是一个协调一致的事情,我认为只是大家在个体层面上放弃。」
这些离职背后的意义可能不止于科技公司中常见的跳槽。这可能说明,OpenAI对技术风险的谨慎程度逐渐滑坡,以及奥特曼主导的盈利动机可能导致危险行为。
根据The Information之前的披露,OpenAI尚未实现收支平衡,2024年度的净亏损可能高达50亿美元。因此,奥特曼强烈的盈利动机也是事出有因。
纽约时报在今年6月的报道中也提到,Kokotajlo认为科技巨头们开发AGI的竞赛是鲁莽的。
他担心,「OpenAI会不顾一切地向前推进,并合理化我们的行动」,但「世界还没有准备好,我们也没有准备好」。
OpenAI是从什么时候开始变化的?在Kokotajlo看来,事情还要追溯到去年11月的那场「宫斗」。
作为CEO的奥特曼被解雇后又迅速复职;随后,董事会中专注于AGI安全的三名成员被撤换。
「那件事算是尘埃落定。之后就没有回头路了。」
Kokotajlo还补充说,虽然他无法接触到幕后发生的事情,但感觉自那时起,奥特曼和最近请长假休息的总裁Greg Brockman一直在「巩固权力」。
「那些主要关注AGI安全和准备工作的人正在被日益边缘化……从某种意义上说,这背叛了我们在2022年制定的计划。」
尽管如此,Kokotajlo并不后悔最初加入OpenAI,只是后悔自己离开得太迟:「我在那里学到了很多有用的东西,我觉得自己可能产生了积极的影响。」
目前,Kokotajlo还有朋友留在OpenAI继续从事AGI安全相关的工作。
但对于那些留在公司的人,Kokotajlo警告说,在科技巨头竞相开发AGI的过程中,要防止「群体思维」,即所谓的「合理」观点是由大多数人的观点和公司高层制定的激励措施所决定的。
正因如此,大多数科技公司会认为——他们赢得AGI竞赛会造福人类。这看似荒谬,但正是激励措施所导出的结果。
OpenAI正在招人调查内部员工
就在「离职潮」的进行时中,Business Insider又爆出了一则猛料——OpenAI开始监控调查内部员工,以应对「内部的安全威胁」。
他们最近发布了一则招聘信息,寻找一名技术方面的内部风险调查员,以「强化组织对内部安全威胁的防御」。
招聘信息称,工作职责包括分析异常活动、检测和缓解内部威胁,并与人力资源和法律部门合作「调查可疑活动」。
OpenAI如今正处于AI安全的风口浪尖,内部员工和立法者都纷纷表示担忧,质疑公司是否采取足够措施确保其技术不会被用于造成伤害。
与此同时,OpenAI表示,已发现来自某些国家的关联行为者试图利用自己的AI模型进行恶意行为。OpenAI称已中断这些行动并终止了相关方的账户。
根据《纽约时报》2023年的报道,曾经有黑客入侵OpenAI内部的消息系统,并窃取关于AI技术设计的机密信息。公司高管在去年4月的全体会议上向员工透露了这件事。
除了黑客组织外,这则招聘信息似乎表明,OpenAI也担心来自内部员工的威胁,尽管尚不清楚这到底是哪种形式的威胁。
一种可能性是,OpenAI只是想保护与技术有关的商业机密。
招聘信息显示,内部风险调查员是OpenAI向白宫做出的「AI安全自愿承诺」的一部分,即投资于「内部威胁防护措施,以保护专有和未发布的模型权重。」
在去年6月的一封公开信中,现任和前任OpenAI员工表示,他们感到在表达对AI安全的担忧时受到了阻碍。信中呼吁 OpenAI保证公众对其产品危险的「警告权」。
尚不清楚风险调查员负责实施的「数据丢失防护控制」是否涵盖这种类型的员工告密行为。
雷军的新造型引热议:戴朋克项链 太酷了
小米CEO雷军将于7月19日晚7点带来他第五次的年度演讲,今年演讲的主题定为《勇气》,届时雷军将分享小米造车历程的全貌以及过去三年多的起伏故事。在为此次演讲预热的海报和视频中,雷军以全新的造型亮相,引发了网友的广泛讨论。与他以往的休闲装扮不同,雷军此次选择了工装风格的衬衫,并佩戴了一条朋克风格的项链,展现出了一种更加硬朗的形象,与他以往的风格形成了鲜明对比。站长网2024-07-16 14:53:150004腾讯乐享发布“乐享 AI 助手”
在2023腾讯全球数字生态大会上,腾讯集团发布了“腾讯乐享AI助手”,基于腾讯的大模型等AIGC能力开发,该助手集成了腾讯乐享的多项产品能力,包括智能知识问答、多模态智能搜索、AI辅助创作、智能生成考题等功能。它可以帮助企业员工更快速、便捷地获取知识,提升学习效果。此外,AI助手还具备智能生成内容的能力,可以辅助内容生产和管理,助力企业创新增效。站长网2023-09-11 09:38:170000微软将为 Bing AI 聊天推出重新生成回复功能
站长之家(ChinaZ.com)7月25日消息:你是否一直渴望在BingAI聊天中拥有重新生成回复的功能?如果是的话,你将迎来一些好消息。如果你对这个功能还不熟悉,这个按钮的作用类似于ChatGPT的选项。一旦聊天机器人生成了一个回答,你可以点击一个按钮请求另一个回答,按照你的喜好来选择。站长网2023-07-25 15:51:420000微软Windows11更新 可从PC和安卓屏幕截图复制文字
近日,微软正在对Windows11进行一系列功能升级,针对截图工具和照片应用进行优化,为用户提供更多实用功能。更新后的Windows11截图工具加入了文字识别和复制功能,用户可以对屏幕截图进行文字检测,并可选择性复制需要的文字内容,大大优化了图片中的文字资料的转录和利用。同时针对手机链接应用进行升级,当在安卓手机拍照后,可快速通过截图工具提取照片中的文字。站长网2023-09-15 09:43:280002一个人在家卖零食,带货10W+。
各位村民好,我是村长。一个人在家拍抖音,也能带货10W。如果要问对于普通人来说,在抖音拍什么最简单且有机会带货成功,那我推荐你做零食带货号。一个人在家就能拍,关键成本还极低。01零食可持续的大赛道首先说一下,为什么要选择零食这个产品赛道。其一,人群受众广,零食是典型满足三高特点的赛道:高人群、高消耗、高转化。从三四岁幼儿园小孩子到七八十岁老人,许多产品大家都能吃。站长网2023-05-23 11:17:010000