登陆注册

训练来源

  • 可验证大模型输出、训练来源,斯坦福提出“统一归因”框架

    随着ChatGPT等大模型被广泛应用在实际业务中,其输出内容的真实、可靠、安全性成为了重点。学术界则使用“归因”来表示追查、证实内容。目前,在“归因”研究领域有两大派系,一种是协同归因,主要追查引用数据和训练数据来源;另外一种是贡献归因,证明模型输出内容的真实性以减少幻觉。这两种归因方法对于法律、医疗、金融等,对于内容准确率要求极高的行业应用大模型至关重要。
    站长网站长资讯2023-12-21 14:07:07
    0000