登陆注册

增强LLM安全性的开源工具包

  • LLM Guard:增强LLM安全性的开源工具包 安全使用各种等模型

    文章概要:1.LLMGuard是一个旨在增强大型语言模型(LLMs)安全性的工具包,可轻松集成和部署在生产环境中。2.它提供了广泛的评估器,用于LLMs的输入和输出,包括清理、检测有害语言和数据泄漏,以及防止注入和越狱攻击。3.该工具包旨在简化公司对LLMs的安全采用,通过提供一站式的必要工具,希望成为市场首选的开源安全工具包。
    站长网2023-09-19 17:23:37
    0003