登陆注册

参数量达70亿

  • 基于Llama 2的日语LLM发布,参数量达70亿、可与GPT3.5匹敌

    文章概要:1.ELYZA发布了基于Meta的Llama2的日语LLM「ELYZA-japanese-Llama-2-7b」,参数数量达到70亿,性能媲美GPT3.5。2.该模型经过追加事前学习和独特的事后学习,性能在5级手动评估中获得最高分,尽管还未达到封闭型LLM的水平,但已经与GPT3.5相匹敌。
    站长网2023-09-11 15:27:51
    0001