登陆注册

LLM评估测试框架DeepEval

  • LLM评估测试框架DeepEval 可离线评估大模型性能

    DeepEval是一个用于对语言模型(LLM)应用进行评估和单元测试的框架。它提供了各种指标,可以测试语言模型应用生成的回复在相关性、一致性、无偏见性和无毒性等方面的表现。DeepEval使得机器学习工程师可以通过持续集成/持续交付(CI/CD)流程快速评估语言模型应用的性能。项目地址:https://github.com/confident-ai/deepeval
    站长网2023-09-27 21:01:35
    00011