登陆注册

不是大模型全局微调不起

  • 不是大模型全局微调不起,只是LoRA更有性价比,教程已经准备好了

    增加数据量和模型的参数量是公认的提升神经网络性能最直接的方法。目前主流的大模型的参数量已扩展至千亿级别,「大模型」越来越大的趋势还将愈演愈烈。这种趋势带来了多方面的算力挑战。想要微调参数量达千亿级别的大语言模型,不仅训练时间长,还需占用大量高性能的内存资源。
    站长网2023-12-05 11:23:32
    0001