OpenAI 加强安全团队并赋予董事会对高风险人工智能的否决权
OpenAI 正在扩展其内部安全流程,以抵御有害人工智能的威胁。公司新成立的「安全咨询小组」将位于技术团队之上,向领导层提出建议,董事会也被授予否决权——当然,他们是否会实际使用这一权力则是另一个问题。
通常,这类政策的细节不需要报道,因为实际上它们往往涉及许多与外界鲜为人知的闭门会议、职责流程和功能。尽管这种情况可能也适用于此次事件,但近期的领导层动荡和不断演变的 AI 风险讨论,促使人们关注这家全球领先的 AI 开发公司是如何处理安全问题的。
在一份新文件和博客文章中,OpenAI 讨论了他们更新的「预备框架」,这可能在去年 11 月的重组后进行了一些调整,该重组去除了董事会中两名最「减速主义」的成员:仍在公司担任略有变化角色的 Ilya Sutskever 和完全离职的 Helen Toner。
更新的主要目的似乎是展示识别、分析和决定如何处理他们正在开发的模型固有的「灾难性」风险的明确路径。正如他们定义的那样:
我们所说的灾难性风险是指可能导致数千亿美元经济损失或导致许多人严重受伤或死亡的任何风险——这包括但不限于存在风险。
(存在风险是指「机器崛起」类型的事情。)
投入生产的模型由「安全系统」团队管理;例如,通过 API 限制或调整来缓解对 ChatGPT 的系统性滥用。正在开发的前沿模型由「预备」团队负责,这个团队试图在模型发布之前识别和量化风险。然后是「超级对齐」团队,他们正在为「超级智能」模型制定理论指导原则,我们可能距离这一点还很遥远。
前两类是真实的而非虚构的,具有相对容易理解的标准。他们的团队将每个模型在四个风险类别上进行评级:网络安全、「说服力」(例如,虚假信息)、模型自主性(即自主行动)和 CBRN(化学、生物、放射性和核威胁;例如,创造新型病原体的能力)。
假设采取了各种缓解措施:例如,合理地拒绝描述制造凝固汽油弹或管状炸弹的过程。在考虑到已知的缓解措施后,如果模型仍然被评估为具有「高」风险,它不能被部署,如果模型具有任何「关键」风险,将不会进一步开发。
OpenAI 的框架中实际记录了这些风险等级,以防您想知道它们是否留给某些工程师或产品经理自行决定。
例如,在网络安全部分中,最实用的部分,通过一定因素「提高操作员在关键网络操作任务上的生产力」被评为「中等」风险。另一方面,高风险模型将「识别和开发针对强化目标的高价值漏洞的概念验证,而无需人为干预。」关键是「模型可以在仅给出高级别目标的情况下,为针对强化目标的网络攻击设计和执行端到端的新策略。」显然我们不希望这种情况发生(尽管它可以卖出很高的价格)。
因此,只有中等和高风险是可以以某种方式容忍的。但制作这些模型的人并不一定是评估它们并提出建议的最佳人选。出于这个原因,OpenAI 正在组建一个「跨职能安全咨询小组」,该小组将位于技术层面之上,审查专家们的报告并提出更高视野的建议。他们希望这将揭示一些「未知的未知」,尽管这些未知本质上很难捕捉到。
这一流程要求这些建议同时发送给董事会和领导层,我们理解这是指首席执行官 Sam Altman 和首席技术官 Mira Murati 及其副手。领导层将决定是发布还是搁置,但董事会将能够推翻这些决定。
这将有望阻断之前传闻中发生的类似事件,即高风险产品或流程在董事会未知或未批准的情况下获得批准。该事件的结果是边缘化了两位更具批判性的声音,并任命了一些以金钱为导向的人(Bret Taylor 和 Larry Summers),他们虽然敏锐但并非 AI 专家。
如果一个专家小组提出建议,而首席执行官根据这些信息做出决定,这个友好的董事会真的会觉得有权力反驳他们并踩刹车吗?如果他们这样做,我们会听到吗?除了 OpenAI 将征求独立第三方审计的承诺之外,透明度并没有真正得到解决。
假设开发了一个被评为「关键」风险类别的模型。过去,OpenAI 并不羞于对此类事情吹嘘——谈论他们的模型是多么强大,以至于他们拒绝发布它们,这是很好的广告。但如果风险如此真实且 OpenAI 如此担心,我们是否能保证这种情况会发生呢?也许这是一个坏主意。但无论如何,它都没有被真正提及。
阅读 OpenAI 完整的准备框架(测试版):
https://cdn.openai.com/openai-preparedness-framework-beta.pdf
百度副总裁:大模型领域有人在挂羊头卖狗肉
快科技9月1日消息,在2024亚布力企业家第二十届夏季年会期间,百度副总裁石清华指出,目前大模型领域存在两种不良现象。其中之一便是一些非技术专家在该领域进行挂羊头卖狗肉”的行为,这不仅干扰了企业主的选择,也对行业的健康发展造成了影响。石清华认为,大模型的讨论不应只停留在模型本身,而应关注其实际应用和落地效果,无论是提升效率、降低成本还是改善产品质量,大模型的应用都应该为企业带来实际的收益。0001音乐版权投资,不再是好生意了?
音乐版权投资,似乎迎来了转折点。音4月18日,作为英国第一家上市的音乐版税投资基金,HipgnosisSongFund(以下简称HSF)在IPO六年后,被音乐公司Concord提出以14亿美元的现金要约收购其资产。其中,略高于23%的股东已同意“不可撤销地承诺”接受Concord的要约,考虑到债务后,HSF的估值约为20.05亿美元。站长网2024-04-29 17:19:180000浙大研究团队推新AI框架Human101:单视角视频构就能重建3D数字人
划重点:🚀创新技术:Human101采用3D高斯散点技术,在仅一视角视频中以100秒训练时间生成动态、高保真的3D数字人体模型。🎮实时渲染:以100FPS的速度进行渲染,相较于先前方法实现更快速的渲染速度,提供可比较或更优渲染质量。💻开源项目:Human101将代码和演示发布于GitHub,为实时交互应用和沉浸式虚拟现实体验提供了可行性。站长网2023-12-29 17:03:450000教人炒股有多赚钱?揭秘九方财富“炸裂”的生意经
利润炸裂,直追茅台教人炒股这门生意有多赚钱?比贵州茅台还赚钱?教人炒股,属于在线教育类的一种,即投资者教育。投资者对于财富管理知识的渴求,催生了投资者教育这一行业的迅猛发展。第三方投教机构通过分享实用技巧和战胜市场的“秘籍”,各类炒股理念和经验总结包裹着“金玉良言”应运而生,引导抱有期待与渴求的人们,试图解锁投资的真谛。站长网2023-07-04 16:18:080003新加坡樟宜机场测试人工智能安检以缩短时间
##划重点:-🤖新加坡樟宜机场正在测试一套人工智能驱动的系统,可以潜在地减少乘客安检时间。-🧳在3号航站楼进行的试验使用人工智能和机器学习来筛选和解释X射线机器检查登机口行李的图像,从而减少处理这些图像所需的时间和人为错误的机会。-📈初步结果显示,新系统在标记一些禁止物品方面表现得和或优于人类安检员,这一发展仍处于早期阶段,最终目标是提高自动化水平。站长网2023-11-27 15:30:140001