登陆注册

研究发现利用特定的提示可

  • 研究发现利用特定的提示可「越狱」ChatGPT 和 Bard 等 AI 聊天机器人

    来自卡内基梅隆大学、人工智能安全中心和博世人工智能中心的研究团队日前展示了如何「越狱」最先进、大型语言模型(LLM)AI聊天机器人。他们发现,通过给给定的提示添加特定的字符串,可以欺骗这些工具产生有害内容。尽管团队在一个开源的公开LLM上进行了实验,但研究人员表示,他们发现的技术也适用于广泛使用的闭源聊天机器人,包括ChatGPT和Bard。
    站长网2023-08-03 11:28:14
    0000