CodeFuse微调框架MFTCoder升级v0.3.0版本 支持Mixtral等模型
MFTCoder 是蚂蚁CodeFuse开源的一种多任务微调框架,可以在多个任务上同时进行微调。它通过结合多种损失函数解决了多任务学习中的挑战。MFTCoder 具备高效训练特征,包括高效的数据 Tokenization 模式和支持 PEFT 微调,能提升微调训练速度并降低资源需求。
MFTCoder 在 v0.3.0版本中进行了重磅升级。
首先,它支持了 Mixtral 等更多的主流开源 LLMs 模型,如 Mistral、Deepseek-coder、Chatglm3等。这些模型经过 MFTCoder 微调后,在代码能力上有了显著的提升。
其次,新版本适配了最新的 transformers v4.36.0和 FlashAttention2v2.3.6,使得 MFTCoder 可以更好地利用最新的 Attention 实现,如 sliding_window Attention,进一步提升模型性能。
第三,MFTCoder-accelerate 框架在原有支持 Accelerate DeepSpeed 的基础上,增加了对 FSDP 的支持,提供了更多的选择。
最后,MFTCoder 引入了 Self-Paced Loss 作为新的收敛均衡技术,可以调整不同任务的权重,控制不同任务的收敛速度,实现多任务同时收敛。
通过多任务微调,CodeFuse-Mixtral-8x7B 在各种语言的 Pass@1评测中的性能得到了显著提升,达到40.9% ->52.8%。这使得 CodeFuse-Mixtral-8x7B 成为当前开源的非代码大模型中代码能力领先的模型之一。
项目地址:https://github.com/codefuse-ai/MFTCoder/tree/main/mftcoder_accelerate
AI蛋白质设计公司“力文所”获数千万元天使轮投资
近日,国内AI蛋白质设计公司杭州力文所生物科技有限公司宣布完成数千万元天使轮融资。本轮融资由凯泰资本领投,磐霖资本、红什资本跟投,种子轮领投方真格基金追加投资。融资资金将主要用于AI蛋白质设计平台的优化和开发,及推动平台孵化建设多条产品管线。力文所成立于2021年,致力于AI蛋白质设计研究。公司核心研发团队来自哈佛大学、波士顿大学、北京大学、中科院等国内外知名大学和研究机构。站长网2023-07-28 09:38:090000诺奖得主莱维特称ChatGPT提高个人智力50%,可“取代人类”
9月13日,2013年诺贝尔化学奖得主、美国斯坦福大学迈克尔·莱维特在上海出席2023ESG全球领导者大会时表示,ChatGPT这个AI语言模型让自己的智力提高了50%。他认为,ChatGPT不仅是一个搜索模型,而是一个真正的智能,它可以用2500种方式进行交流。站长网2023-09-13 17:41:010000尴尬!印度一家公司推“TruthGPT”,但完全不真实
本文概要:1.印度公司TheWholeTruthFoods推出了自己的TruthGPT,用于提供有关食物和健身的信息。2.该平台声称是经过事实核实的,但实际上与ChatGPT相比有很大差距。3.公司的真实性和可靠性值得怀疑,这可能只是一种营销策略。站长网2023-08-08 14:28:000000GPT-4只是AGI的火花?LLM终将退场,世界模型才是未来
【新智元导读】人类距离AGI还有多远?也许大语言模型不是最终答案,一个理解世界的模型才是未来的方向。在人类的认知之中,似乎早已习惯将通用人工智能(AGI)设定为人工智能的终极形态和发展的最终目标。虽然OpenAI早已把公司的目标设定为实现AGI。但对于什么是AGI,OpenAICEOSamAltman自己都没法给出具体的定义。站长网2023-08-15 14:03:160002三部门:延续和优化新能源汽车车辆购置税减免政策
财政部、税务总局、工业和信息化部联合发布《关于延续和优化新能源汽车车辆购置税减免政策的公告》称,对购置日期在2024年1月1日至2025年12月31日期间的新能源汽车免征车辆购置税。其中,每辆新能源乘用车免税额不超过3万元;对购置日期在2026年1月1日至2027年12月31日期间的新能源汽车减半征收车辆购置税,其中,每辆新能源乘用车减税额不超过1.5万元。站长网2023-06-21 15:26:080000