OpenAI 加强安全团队并赋予董事会对高风险人工智能的否决权
OpenAI 正在扩展其内部安全流程,以抵御有害人工智能的威胁。公司新成立的「安全咨询小组」将位于技术团队之上,向领导层提出建议,董事会也被授予否决权——当然,他们是否会实际使用这一权力则是另一个问题。

通常,这类政策的细节不需要报道,因为实际上它们往往涉及许多与外界鲜为人知的闭门会议、职责流程和功能。尽管这种情况可能也适用于此次事件,但近期的领导层动荡和不断演变的 AI 风险讨论,促使人们关注这家全球领先的 AI 开发公司是如何处理安全问题的。
在一份新文件和博客文章中,OpenAI 讨论了他们更新的「预备框架」,这可能在去年 11 月的重组后进行了一些调整,该重组去除了董事会中两名最「减速主义」的成员:仍在公司担任略有变化角色的 Ilya Sutskever 和完全离职的 Helen Toner。
更新的主要目的似乎是展示识别、分析和决定如何处理他们正在开发的模型固有的「灾难性」风险的明确路径。正如他们定义的那样:
我们所说的灾难性风险是指可能导致数千亿美元经济损失或导致许多人严重受伤或死亡的任何风险——这包括但不限于存在风险。
(存在风险是指「机器崛起」类型的事情。)
投入生产的模型由「安全系统」团队管理;例如,通过 API 限制或调整来缓解对 ChatGPT 的系统性滥用。正在开发的前沿模型由「预备」团队负责,这个团队试图在模型发布之前识别和量化风险。然后是「超级对齐」团队,他们正在为「超级智能」模型制定理论指导原则,我们可能距离这一点还很遥远。
前两类是真实的而非虚构的,具有相对容易理解的标准。他们的团队将每个模型在四个风险类别上进行评级:网络安全、「说服力」(例如,虚假信息)、模型自主性(即自主行动)和 CBRN(化学、生物、放射性和核威胁;例如,创造新型病原体的能力)。
假设采取了各种缓解措施:例如,合理地拒绝描述制造凝固汽油弹或管状炸弹的过程。在考虑到已知的缓解措施后,如果模型仍然被评估为具有「高」风险,它不能被部署,如果模型具有任何「关键」风险,将不会进一步开发。
OpenAI 的框架中实际记录了这些风险等级,以防您想知道它们是否留给某些工程师或产品经理自行决定。
例如,在网络安全部分中,最实用的部分,通过一定因素「提高操作员在关键网络操作任务上的生产力」被评为「中等」风险。另一方面,高风险模型将「识别和开发针对强化目标的高价值漏洞的概念验证,而无需人为干预。」关键是「模型可以在仅给出高级别目标的情况下,为针对强化目标的网络攻击设计和执行端到端的新策略。」显然我们不希望这种情况发生(尽管它可以卖出很高的价格)。
因此,只有中等和高风险是可以以某种方式容忍的。但制作这些模型的人并不一定是评估它们并提出建议的最佳人选。出于这个原因,OpenAI 正在组建一个「跨职能安全咨询小组」,该小组将位于技术层面之上,审查专家们的报告并提出更高视野的建议。他们希望这将揭示一些「未知的未知」,尽管这些未知本质上很难捕捉到。
这一流程要求这些建议同时发送给董事会和领导层,我们理解这是指首席执行官 Sam Altman 和首席技术官 Mira Murati 及其副手。领导层将决定是发布还是搁置,但董事会将能够推翻这些决定。
这将有望阻断之前传闻中发生的类似事件,即高风险产品或流程在董事会未知或未批准的情况下获得批准。该事件的结果是边缘化了两位更具批判性的声音,并任命了一些以金钱为导向的人(Bret Taylor 和 Larry Summers),他们虽然敏锐但并非 AI 专家。
如果一个专家小组提出建议,而首席执行官根据这些信息做出决定,这个友好的董事会真的会觉得有权力反驳他们并踩刹车吗?如果他们这样做,我们会听到吗?除了 OpenAI 将征求独立第三方审计的承诺之外,透明度并没有真正得到解决。
假设开发了一个被评为「关键」风险类别的模型。过去,OpenAI 并不羞于对此类事情吹嘘——谈论他们的模型是多么强大,以至于他们拒绝发布它们,这是很好的广告。但如果风险如此真实且 OpenAI 如此担心,我们是否能保证这种情况会发生呢?也许这是一个坏主意。但无论如何,它都没有被真正提及。
阅读 OpenAI 完整的准备框架(测试版):
https://cdn.openai.com/openai-preparedness-framework-beta.pdf
阿里巴巴:未来3年加大三大AI领域投入 将超过去10年总和
阿里巴巴加大AI投入,三大领域重点布局阿里巴巴集团CEO吴泳铭在2025财年第三季度财报会议中宣布,公司将加大对AI的投入,重点围绕三大领域展开:AI和云计算基础设施建设:提升AI和云计算的底层支撑能力。AI基础模型平台及AI原生应用:开发先进的AI基础模型和促进AI原生应用的创新。现有业务的AI转型升级:利用AI赋能现有业务,提升效率和竞争力。0000百度百家号整治自媒体乱象 打击“自媒体”违规营利行为
近日,百家号宣布开展“清朗·从严整治‘自媒体’乱象”专项行动。百家号称,将对以下三大类违规行为进行重点治理:一、坚决打击“自媒体”发布传播谣言信息、有害信息和虚假消息,平台将对发布以下几类违规内容的账号进行处罚:通过编造虚假事件、离奇故事,无中生有制造谣言;通过“标题党”炒作传播有害信息;翻炒旧闻博取关注吸引流量;其他违反平台规范的违规内容。站长网2023-05-25 10:03:070003厉害了!AI无人机在比赛中打败人类冠军专业选手
文章概要:1.苏黎世大学和英特尔研发的Swift人工智能无人机,在与人类专业选手的比赛中取得了胜利。2.Swift的优势在于更快的反应时间、更高的转弯速度和更长期的规划。3.Swift使用传感器、神经网络和深度强化学习来导航现实世界和制定飞行策略。苏黎世大学和英特尔的研究人员推出了一款名为Swift的自动竞技无人机,它在无人机比赛中击败了人类专业选手。站长网2023-09-01 11:24:070000互联网大公司:忘记江湖恩怨,回归根本
2024开春,股市不好。包括不仅限于美股、港股和大A。资本市场表现不佳,这是一个链条效应。但是,资本天然要追求流动。资产只有流动起来才能产生更大的价值,因此,2023年岁末,2024年年初,互联网巨头们也没闲着。0000选择比努力重要,在AI行业更加明显
技术只是起步的基础,商业模式才是王道。在科技与商业相互交织的历史中,我们经常会看到一些技术大咖亲自上阵,担任企业CEO的例子,从苹果的乔布斯,到Mdjourney的DavidHolz,再到OpenAI的SamAltman,都是如此。这些心怀理想,又天马行空的技术狂人,时常能用自己过人的创造力,为企业带来巨大的成就。然而,令人唏嘘的是,并非所有狂热的技术理想,最后都能造就行业佳话。站长网2023-06-30 23:54:090001