登陆注册

研究人员推无微调对齐方法URIAL

  • 研究人员推无微调对齐方法URIAL 1个提示搞定LLM对齐

    要点:研究者通过分析基础大语言模型(LLM)与其对齐调优版本在token分布上的偏移发现,对齐调优主要学习语言风格,而基础LLM本身已经具备回答用户查询所需的知识。提出了一种免微调的对齐方法URIAL,完全利用基础LLM的上下文学习(ICL)来实现有效对齐,只需3个恒定的风格化样本和1个系统提示。使用URIAL的基础LLM在性能上能媲美或超越传统的微调方法。
    站长网2023-12-06 14:02:27
    0000