刚刚,OpenAI发布o1模型新突破,推理时间增强对抗鲁棒性
今天凌晨2点,OpenAI发布了一项新技术研究,通过增加推理时间、算力资源来大幅度提升模型的对抗鲁棒性。
与传统的对抗训练样本方法不同的是,OpenAI提出的新方法不需要对大模型进行专门的对抗训练,也不需要提前了解攻击的具体形式。只需要通过增加推理时间和算力资源,模型就可以更充分地利用其推理能力表现出更强的鲁棒性。
OpenAI将新技术在o1-preview和o1-mini模型进行了综合实验,结果显示,成功抵御了 Many-shot、Soft Token Attack、Human Red-teaming Attack等多种攻击方法。
对抗鲁棒性指的是模型在面对经过精心设计的恶意攻击时,依然能保证正确、安全的输出。这对于确保模型在实际商业应用至关重要,尤其是在模型被用于高风险场景,例如,AI Agent、语音聊天助手、AI客服等自动驾驶、医疗诊断和金融决策等。
传统的对抗鲁棒性方法是通过修改训练目标,让模型学习抵御特定的对抗攻击。但这个方法有两大弊端,第一是对抗训练的成本非常高;第二就是需要提前知道对方的攻击集和方法。但现实世界是千变万化的根本防不胜防。
而OpenAI提出的新方法不需要对模型进行专门的对抗训练,也无需提前了解攻击的具体方法,只需增加推理时间和算力资源,模型就能增强对抗鲁棒性。
OpenAI发现,适当延长推理时间、算力,让模型有更多机会去思考,可以显著提高其应对复杂问题的能力,尤其是那些包含潜在风险或误导信息的提示。
从本质上来看,推理时间不只是简单的延迟输出,它允许模型更深入地分析输入数据,识别出可能存在的异常情况,并根据先前学到的知识库进行推理。这种深度思考有助于模型更好地理解上下文语境、分辨歧义词汇、排除干扰项,最终做出更为准确和安全的选择。
为了验证推理时间的有效性,研究人员在o1-preview和o1-mini模型实验了Many-shot Attack(多样本攻击)、Soft Token Attack(软token攻击)、Human Red-teaming Attack(人类攻击)、AI Red-teaming Attack(人类红队攻击)等不同类型的攻击方法。
Many-shot Attack:研究人员首先设计了一系列误导性样本。这些样本通常包含正确的问题和错误的答案,但错误答案被伪装成正确答案。例如,在数学任务中,攻击者可能会设计一个样本,其中问题是一个简单的加法问题,但答案被设置为一个错误的数字(如“42”)。误导性样本被设计为在模型的上下文中多次出现,以增加模型学习错误模式的可能性。
在实验中,这些样本被放置在模型需要忽略的区域(如通过特殊的标签标记),但模型可能会因为误导性样本的重复出现而被诱导学习错误的模式。攻击的强度通过注入的误导性样本数量来衡量,样本数量越多,攻击的强度越大。
模型在接收到包含误导性样本的输入后,开始进行推理。研究人员记录模型的输出,并评估其是否符合攻击目标。实验结果显示,随着推理时算力资源的增加,模型对多样本攻击的鲁棒性大幅度提高。
Soft Token Attack:软token攻击是一种白盒攻击方法,攻击者通过直接操作模型的内部嵌入向量来生成误导性输入。这种攻击方法利用了模型的可微分性,通过优化嵌入向量来最大化攻击成功率。
这些嵌入向量被优化以生成误导性输入。优化过程通常通过梯度下降算法完成,目标是使模型的输出符合攻击者的意图。例如,在数学任务中,攻击者可能会优化嵌入向量,使模型输出错误的答案。
这些嵌入向量可以是单独的单词或短语,也可以是整个句子的一部分。攻击的强度通过嵌入向量的数量和优化步骤的数量来衡量。
模型在接收到包含优化后的嵌入向量的输入后,开始进行推理。研究人员记录模型的输出,并评估其是否符合攻击目标。实验中,研究人员会调整推理时算力资源的量,以观察不同算力资源水平下模型的鲁棒性变化。
结果显示,模型在推理时间、算力增加的情况下同样抵御了软token的攻击。
AI Red-teaming Attack:AI红队攻击是一种自动化攻击方法,攻击者通过设计语言模型程序(LMP)来生成攻击样本,试图诱导模型产生错误的输出。这种攻击方法利用了语言模型的生成能力,能够快速生成大量攻击样本,从而提高攻击效率。
研究人员设计了一种语言模型程序,该程序能够根据模型的输出动态调整攻击策略。LMP通过分析模型的反应,生成新的攻击样本,以提高攻击成功率。同样模型在增加推理时间、算力情况下成功抵御攻击。
苹果公司或将禁止摇一摇跳转广告 要求移除陀螺仪权限
据时代财经报道,近日有互联网大厂内部人士透露,苹果公司已通知国内多家头部App要求移除陀螺仪权限,禁止摇一摇跳转广告。这意味着,这些App的新版本将不再具有摇一摇跳转广告的功能。站长网2023-11-14 08:24:010001中国第二批,11个大模型备案获批
加上首批的10余个大模型,目前已有超过20个大模型获得审批。据钛媒体独家报道,国内第二批通过备案的AI大模型包括11家公司,部分已面向全社会开放服务。加上首批的10余个大模型,目前已有超过20个大模型获得备案。站长网2023-11-09 09:05:020002自主研发安全GPT 深信服董事长何朝曦:AI技术将推动网络安全产业发生重要变革
当前,人工智能技术在网络安全领域有诸多应用,比如以大数据处理、自主学习、自动监测与响应等能力进行赋能,让攻防对抗更加智能高效。作为一家专注于企业级网络安全、云计算、IT基础设施与物联网的产品和服务供应商,深信服从2016年就开始不断加码AI技术,并确立了AIFirst的研发战略,截至目前,深信服已经在文件分析、行为检测、日志分析等十几个不同的安全技术领域应用了人工智能。站长网2023-05-25 02:01:2500004月,国内大模型遍地开花
ChatGPT的火热掀起了国内外对大模型的探索热情,即便是一边呼吁暂停AI研究以防“失控的人工智能”的马斯克,近期也被曝正在推特内部启动人工智能项目。不管是差GPT“2个月”还是“3年”,国内大模型一夜之间已经遍地开花。继百度打响国内大模型第一枪后,目前阿里、京东、华为等互联网大厂,商汤、昆仑万维等科技公司也纷纷推出了自家的大模型,包括内容平台知乎也在4月13日推出了中文大模型“知海图AI”。0000联想总部门牌被涂鸦成华为 联想内部论坛:严惩不贷
在北京大雪之后,联想集团总部门牌石上覆盖了积雪。然而,有人将积雪涂鸦成了华为的字样。一名高级经理在联想论坛上发文,要求员工积极举报将公司logo涂鸦成竞品的人,并表示查实后会严肃处理涂鸦者。0000