登陆注册

秒破GPT4o等六大模型安全限制

  • 提示词用上“过去式“,秒破GPT4o等六大模型安全限制!中文语境也好使

    只要在提示词中把时间设定成过去,就能轻松突破大模型的安全防线。而且对GPT-4o尤其有效,原本只有1%的攻击成功率直接飙到88%,几乎是“有求必应”。有网友看了后直言,这简直是有史以来最简单的大模型越狱方式。来自洛桑联邦理工学院的一篇最新论文,揭开了这个大模型安全措施的新漏洞。
    站长网2024-07-21 06:32:04
    0000