登陆注册

仅7亿

  • 微软发布小型语言模型Orca 2:仅7亿/13亿参数,媲美Llama-2-Chat-70B

    **划重点:**1.📊*Orca2模型在零样本测试中,涵盖语言理解和常识推理等15个多样化基准测试中,与五到十倍更大的模型相匹敌或胜过。2.🌐微软开源了两个规模为7亿和13亿参数的Orca2模型,旨在促进对更小型模型的研究,这有助于有限资源的企业更经济地解决特定应用场景。
    站长网2023-11-21 16:26:30
    0003