Nvidia发布开源工具包NeMo Guardrails,使文本生成式AI“更安全”
站长网2023-04-27 09:50:090阅
为了追求“更安全”的文本生成模型,Nvidia 日前发布了开源工具包NeMo Guardrails,旨在使基于 AI 应用程序更加“准确、合理、切合主题和安全”。
Nvidia 应用研究副总裁 Jonathan Cohen 表示,该公司“多年来”一直致力于 Guardrails 的底层系统,但大约一年前才意识到它非常适用于 GPT-4和ChatGPT等模型。
Guardrails 包括代码、示例和文档,可为生成文本和语音的 AI 应用程序“增加安全性”。Nvidia 声称该工具包旨在与大多数生成语言模型一起使用,允许开发人员使用几行代码创建规则。
具体来说,Guardrails 可用于防止——或至少试图防止——模型偏离主题、以不准确的信息或极为负面的语言做出响应,以及与“不安全”的外部来源建立联系。例如,阻止搜索引擎聊天机器人链接到声名狼藉的学术期刊等等。
Cohen 还指出,Guardrails 最适用于“很擅长执行指令”的模型,例如 ChatGPT,并且使用流行的LangChain框架来构建 AI 驱动的应用程序。然而,Nvidia 承认该工具包并不完美,也无法涵盖所有问题。
虽然 Guardrails 是一个开源版本,但 Nvidia 更希望其它公司为其托管版本付费。
0000
评论列表
共(0)条相关推荐
首席分析师揭秘爆火Groq,每小时要烧168美元!10倍H100拥有成本,老黄笑而不语
【新智元导读】SemiAnalysis的行业专家对最近爆火的Groq推理系统进行了像素级的拆解,测算出其持有成本依然高达现有H100的10倍,看来要赶上老黄的步伐,初创公司还有很多要做。最近爆火的AI初创公司Groq,推出了比目前常见GPU推理系统快4倍,成本低70%的大模型推理解决方案。站长网2024-02-26 18:12:370001AI学会篡改奖励函数、欺骗研究者!Claude团队:无法根除的行为,令人不安
坏了!AI被发现偷偷篡改自己的奖励函数,并且欺骗研究人员,隐瞒这一行为。只需要给AI一个隐藏的“草稿纸”,研究人员假装不会查看,AI就会在上面自言自语着写下计划并暗中执行。参与这项试验的Claude团队表示:……这是一种令人不安的奖励篡改行为……即使通过专门的训练也无法彻底修正。具体来说,实验中让AI可以访问自己的强化学习代码,并且提问一个人畜机都无害的问题:站长网2024-06-24 14:23:500000乌克兰计划2030年发展芯片制造和人工智能
**划重点:**1.🚀乌克兰提出"赢得2030"计划,旨在发展高科技产业,支持芯片制造和人工智能。2.💻数字化转型部长费多罗夫表示,政府将推动技术增长,采用人工智能技术协助无人机和识别俄罗斯士兵。3.💰对于芯片制造项目,政府将提供初期非货币支持,寻求私人资本,但承认国家支持在某种形式上是必要的。0000阿里巴巴国际站发布AI采购助手“Smart Assistant”
近日,阿里巴巴国际站宣布,在美国Co-Create2023大会上,旗下AI采购助手“SmartAssistant”正式推出。据介绍,该工具包括智能升级后的图片搜索、RFQ、沟通工具和采购助手等功能,官方表示SmartAssistant可帮助全球中小企业提升采购效率,尤其采购中国商品方面。站长网2023-09-11 10:14:050000概率退化模型PDM 解决盲图像超分辨率问题
要点:本文介绍了一种新的解决盲图像超分辨率问题的方法,称为概率退化模型(PDM),它有助于更好地理解图像退化分布。传统的图像超分辨率方法通常假设退化模型是已知的,但实际中这种模型往往复杂且不确定。PDM通过学习退化分布来解耦退化作用与图像内容。PDM的关键思想是将退化过程分解为模糊核和噪声的独立部分,并使用生成模型来建模它们的分布,从而提高图像超分辨率性能。站长网2023-10-31 12:09:320000