登陆注册

87GB种子直接开源8x7B

  • 一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

    「高端」的开源,往往采用最朴素的发布方式。昨天,MistralAI在X平台甩出一条磁力链接,宣布了新的开源动作。没有长篇官方博客,没有刻意加速的Demo,这家公司算是当下大模型领域的「一股清流」。打开一看,发现是接近87GB的种子:参数配置什么样?很多人放弃了周末,第一时间下载运行起来。看上去,Mistral8x7B使用了与GPT-4非常相似的架构,但是「缩小版」:
    站长网站长资讯2023-12-11 09:35:18
    0001