全面取代Llama 2!Baichuan 2自曝史上最全训练细节
在国内,Llama的时代,已经过去了。
9月6日,百川智能宣布正式开源Baichuan2系列大模型,包含7B、13B的Base和Chat版本,并提供了Chat版本的4bits量化,均为免费商用。
下载链接:https://github.com/baichuan-inc/Baichuan2
在所有主流中英文通用榜单上,Baichuan2全面领先Llama2,而Baichuan2-13B更是秒杀所有同尺寸开源模型。毫不夸张地说,Baichuan2-13B是目前同尺寸性能最好的中文开源模型。
而在过去一个月里,Baichuan系列的下载量在Hugging Face等开源社区已经超过了347万次,是当月下载量最高的开源大模型,总下载量已经突破500万次。
Llama2,已经不需要了
相比之下,国外的当红炸子鸡Llama2,就可以和我们说拜拜了。
千模大战过后,大模型已经进入了「安卓时刻」。现在看来,最有希望替代Llama2的国产大模型,就是Baichuan2。
原因其实很简单,一方面Baichuan2系列大模型在性能上,不仅以绝对优势领先Llama2,而且大幅度优于同尺寸的竞品。
另一方面,在Meta的商用协议中,实际上并不允许开放Llama模型在中文社区的商用;而Baichuan系列大模型目前是全面开源商用的。
Llama2商业协议明确表示不允许英文以外的商业
中文开源第一
作为中文开源大模型的第一,百川大模型面对LLM经典难题的表现,也让人眼前一亮。
对于博大精深的汉语,具备精准语义理解能力的Baichuan2,可以充分理解其中的精妙。
而并不擅长中文的Llama213B,只是说了一堆无用的废话。
在考验推理能力的代码生成方面,Baichuan2能做到足够的精细化,并且可用率已经达到了行业领先水平。
对于这道题,Llama2也可以搞定,但默认只会用英文进行回复。
难度更大的多轮对话,让无数大模型折戟。
在这方面,百川大模型可以说是遥遥领先,能够轻松完成各种复杂的指令跟随。
就连难倒GPT-4的推理题,百川大模型都不在话下。
模型评测
除了刚刚这些真实场景的评测外,Baichuan2在多个权威的中文、英文和多语言的通用以及专业领域的基准测试中,都取得了同等规模最佳的效果,而Llama2则是全面落败。
对于通用领域,评测采用的基准为:中文基础模型评测数据集C-Eval、主流英文评测数据集MMLU、评估知识和推理能力的中文基准CMMLU、评估语言和逻辑推理能力的数据集Gaokao、评估认知和解决问题等通用能力的AGIEval,以及挑战性任务Big-Bench的子集BBH。
在法律领域,采用的是基于中国国家司法考试的JEC-QA数据集。在医疗领域,除了通用领域数据集中医学相关的问题外,还有MedQA和MedMCQA。
数学领域为GSM8K和MATH数据集;代码领域为HumanEval和MBPP数据集。
最后,在多语言能力方面,则采用了源于新闻、旅游指南和书籍等多个不同领域的数据集Flores-101,它包含英语在内的101种语言。
总结来说,Baichuan2系列不仅继承了上一代良好的生成与创作能力,流畅的多轮对话能力以及部署门槛较低等众多特性,而且在数学、代码、安全、逻辑推理、语义理解等能力有显著提升。
其中,Baichuan2-13B-Base相比上一代13B模型,数学能力提升49%,代码能力提升46%,安全能力提升37%,逻辑推理能力提升25%,语义理解能力提升15%。
数据
Baichuan2系列大模型之所以能实现如此傲人的成绩,其中一个原因便是,训练语料规模大、覆盖全,且质量优。
在数据获取上,百川团队主要从网页、书籍、研究论文、代码库等丰富的数据源采集信息,覆盖了科技、商业、娱乐等各个领域。
总计有2.6TB token规模的数据集。
与此同时,数据集中也加入了多语言的支持,包括中文、英文、西班牙语、法语等数十种语言。
Baichuan2训练数据不同种类分布
那么,优秀的数据质量获取是如何实现?
作为一家有搜索基因的公司,百川智能借鉴了之前在搜索领域的经验,将重点放在了数据频率和质量上。
一方面,通过建立一个大规模「重复数据删除和聚类系统」,能够在数小时内,实现对千亿级数据的快速清洗和去重。
另一方面,数据清洗时还采用了多粒度内容质量打分,不仅参考了篇章级、段落级、句子级的评价,还参考了搜索中对内容评价的精选。
通过细粒度采样,大幅提升了模型生成质量,尤其是在中文领域。
不同数据处理阶段的训练数据大小
训练
数据准备完成后,接下来就进入大模型最重要的阶段——训练。
百川团队使用AdamW优化器,BFloat16混合精度对模型进行了训练。
为了稳定训练过程,提高模型性能,研究还采用了NormHead,对输出embedding进行归一化处理。
另外,在训练期间,百川团队还发现LLM的对数值可能会变得非常大,由此引入Max-z loss来稳定训练,让模型推理对超参数更加稳健。
如下图,可以看到,Baichuan2-7B/13B的损失曲线在持续降低。
以往研究表明,模型的性能随着参数规模的扩大呈现出一定的可预测性,也就是人们常说的scaling law。
在训练数十亿参数的大型语言模型之前,百川智能预训练了从10M到30B参数的模型,总计token规模达1万亿。
通过将幂律项拟合到给定训练浮点运算次数的损失中,可以预测在2.6万亿token上训练Baichuan2-7B和Baichuan2-13B的损失曲线。
如下图所示,30M、50M、100M等不同参数规模的模型曲线都在下降,并且最后能够线性回归到一个值。
这使得,在预测更大规模模型的性能时,能够有一个较为准确的估计。
值得一提的是,这与OpenAI在发布GPT-4时的情况类似,只需要万分之一的训练,可以预测后面模型的性能。
由此可见,整个拟合过程,能够较为精确地预测模型的损失。
同时,百川基础设施的团队进行了大量工作,优化了集群性能,使得目前千卡A800集群达到180TFLOPS训练速度,机器利用率超过50%,达到行业领先水平。
如上,在训练过程中,百川智能模型呈现出了高效、稳定、可预测的能力。
安全
那么,训练后得到的模型,如何确保是安全的呢?百川智能在此也做了很多安全对齐的工作。
在模型训练前,团队已经对整个数据集进行了严格的过滤,还策划了一个中英文双语数据集,纳入了各种正能量的数据。
另一方面,百川智能还对模型做了微调增强,安全强化学习,设置了6种攻击类型,并进行了大量红蓝对抗训练,能够提升模型的鲁棒性。
在强化学习优化阶段,通过DPO方法可以有效利用少量标注数据,来提升模型对特定漏洞问题的性能。
另外,还采用了结合有益和无害目标的奖励模型,进行了PPO安全强化训练,在不降低模型有用性的前提下,显著增强了系统的安全性。
可以看到,百川智能在模型安全对齐方面也做出很多努力,包括预训练数据加强、安全微调、安全强化学习、引入红蓝对抗。
Baichuan2的开源,是真正的开源
对于学术界来说,是什么阻碍了对大模型训练的深入研究?
从0到1完整训练一个模型,成本是极其高昂的,每个环节都需要大量人力、算力的投入。
其中,在大模型的训练上,更是包括了海量的高质量数据获取、大规模训练集群稳定训练、模型算法调优等等,失之毫厘,差之千里。
然而,目前大部分的开源模型,只是对外公开了模型权重,对于训练细节却很少提及。并且,这些模型都是最终版本,甚至还带着Chat,对学术界并不友好。
也是因此,企业、研究机构、开发者们,都只能在模型基础上做有限的微调,很难深入研究。
针对这一点,百川智能直接公开了Baichuan2的技术报告,并详细介绍了Baichuan2训练的全过程,包括数据处理、模型结构优化、Scaling law、过程指标等。
更重要的是,百川智能还开源了模型训练从220B到2640B全过程的Check Ponit。
这在国内开源生态尚属首次!
对于模型训练过程、模型继续训练和模型的价值观对齐等方面的研究来说,Check Ponit极具价值。
Baichuan2的11个中间checkpoints在C-Eval、MMLU、CMMLU三个benchmark上的效果变化
对此,复旦大学计算科学技术学院教授张奇表示:
Baichuan系列发布的模型分片,对于研究大模型的本质来说有非常大的好处。我们既可以知道它每次的迭代过程,也可以在中间的分片里面做非常多的事情。
而且,相比于那些直接开源最终版,甚至还是Chat版的模型,百川开源得非常干净,从底座开始就是很干净的语言模型。
此外,很多的评测都是从单点维度进行的,甚至在某些榜单,GPT-4都排到第10了,这其实没有任何意义。而百川的评测结果就非常好。
而从商业角度看,Baichuan2模型也是企业非常好的选择。
之前免费可商用的Llama2发布后,许多人认为这会对众多创业公司造成打击,因为它可以满足低成本、个性化的需求。
但经过仔细思考就能明白,Llama2并未改变市场格局。
企业若是要用模型,即使是微调,也需要花费一些成本、精力和时间。
而如果选一个性能较弱的模型(尤其是主要基于英文语料的模型),重新训练也是有难度的,成本几乎跟自己重新去做一个大模型差不多了。
既然Llama2不擅长中文,协议也禁止非英文场景商用化,因此显而易见,在商用领域,综合能力更强的开源模型Baichuan2,几乎可以说是不二之选。
基于Baichuan2系列大模型,国内研究人员可以进行二次开发,快速将技术融进现实的场景之中。
一言蔽之,Baichuan2就像是源源不断地活水,不仅通过尽可能全面的开源来极大地推动国内大模型的科研进展,而且还通过降低国内商业部署门槛让应用创新能够不断涌现。
参考资料:
https://github.com/baichuan-inc/Baichuan2
Nvidia 表示已有2万家 GenAI 初创公司正在其平台上开发
划重点:⭐Nvidia首席执行官JensenHuang强调,有20,000家GenAI初创公司正在其加速计算平台上开发。⭐需求激增导致Nvidia供应无法满足,首席执行官表示将持续到2024年。⭐Nvidia正积极推进以太网网络,以拓展人工智能计算领域。站长网2024-05-24 11:06:1300002023小米雷军年度演讲定档8月14日 主题为“成长”
8月9日上午,雷军,小米创始人兼CEO,通过官方微博发布了一条消息,宣布他将于8月14日晚7点举办今年的雷军年度演讲,主题为“成长”。这将是他第四次举办年度演讲,与大家分享他在过去30多年中几次关键成长的经历和体会。与前三次不同的是,这次演讲将离开小米科技园,转至国家会议中心举行。这个场地可以容纳3500人,其中包括1000名小米粉丝。演讲预计持续3个小时,并将有多款新产品亮相。站长网2023-08-09 12:02:240000谷歌推“Circle to Search”AI搜索功能,用手势在Android设备就能随意搜索
##划重点:🔄**新功能介绍:**Google在今天的Samsung发布活动中宣布推出了一种名为“CircletoSearch”的新搜索方式。这一功能允许用户通过手势操作(如画圈、划线、涂鸦或轻击)在手机任何地方进行搜索。站长网2024-01-18 14:34:4100078小米澎湃OS尝鲜计划来了:拼手气抽优先体验资格
快科技10月27日消息,小米全新操作系统澎湃OS已正式发布,与此同时,小米社区也开启了澎湃OS尝鲜计划。据了解,小米手机用户可参与报名尝鲜计划,抽取小米澎湃OS开发版优先体验资格。除升级资格外,还可抽取小米14、小米平板6、小米手环8Pro、米家桌面空气净化器、RedmiPadSE、小米社区虚拟金币、小米社区成长值等。站长网2023-10-28 13:01:460003一张“纸片”卖4万,这门暴利生意,崩了?
近几年,一种“小纸片”在追星族中流行,其中稀缺款甚至可卖出数万元一张的高价,圈内人一般将其称之为“小卡”。所谓“小卡”,原本是韩国娱乐公司在推出专辑时随专附赠的印有艺人照片的卡片,一般约为3寸照片大小、硬卡质地,本质上是一种音乐专辑周边。0000