登陆注册

MPT

  • MosaicML发布大型语言模型 MPT-7B 可商用

    MosaicML的MPT-7B是一个具有近70亿个参数的大型语言模型,该团队在自己的近万亿个标记的数据集上对其进行了训练。MosaicML遵循Meta的LLaMA模型的训练方案。培训花费近200,000美元,使用MosaicML平台耗时9.5天。
    站长网2023-05-11 12:02:56
    0000