微软开源最强小参数大模型—Phi-3 Mini
4月23日晚,微软在官网开源了小参数的大语言模型——Phi-3-mini。
据悉,Phi-3-mini是微软Phi家族的第4代,有预训练和指令微调多种模型,参数只有38亿训练数据却高达3.3T tokens,比很多数百亿参数的模型训练数据都要多,这也是其性能超强的主要原因之一。
Phi-3-mini对内存的占用极少,可以在 iPhone14等同类手机中部署使用该模型。尽管受到移动硬件设备的限制,但每秒仍能生成12个tokens数据。
值得一提的是,微软在预训练Phi-3-mini时使用了合成数据,能帮助大模型更好地理解语言架构、表达方式、文本语义理解、逻辑推理以及特定业务场景的专业术语等。
开源地址:https://huggingface.co/collections/microsoft/phi-3-6626e15e9585a200d2d761e3
Ollama地址:https://ollama.com/library/phi3
技术报告:https://arxiv.org/abs/2404.14219

2023年6月,微软首次推出了专用于Python编码的模型Phi-1,只有13亿参数却在编程领域击败了GPT-3.5等知名模型,这让微软看到小参数模型的广阔发展空间。
随后在Phi-1基础之上,微软推出了具备推理、文本生成、内容总结、起草邮件的大语言模型Phi-1.5,成为当时最强小参数模型之一。

2023年12月,微软在Phi-1.5基础之上开发了Phi-2,参数只有27亿并且在没有人类反馈强化学习和指令微调的情况下,击败了130亿参数的Llama-2和70亿参数的Mistral;在编码和数学测试中,Phi-2的性能甚至超过了700亿参数的Llama-2。
本次发布的Phi-3系列集合了之前三代所有的优秀技术特征,并使用了海量高质量数据集、创新的训练、微调方法,使其成为目前最强的开源小参数模型。
Phi-3-mini架构简单介绍
Phi-3-mini采用了transformer架构,支持4K和128K上下文窗口,也是同类小模型中第一个支持128K的开源产品。

高质量训练数据集是Phi-3-mini性能超强的重要原因之一,微软使用了3.3T tokens数据集包括:经过严格质量筛选的网络公开文档、精选的高质量教育数据和编程代码;
通过合成数据创建的教科书式数据,例如,数学、编码、常识推理、世界常识、心理科学等;
高质量聊天格式的监督数据,涵盖各种主题以反映人类在不同方面的偏好,例如,遵循指令、真实性、诚实性等。
在训练策略方面,为了帮助Phi-3-mini更好地吸收合成数据,微软使用了迭代训练策略:初始阶段,Phi-3-mini使用了公开网络数据,学会了基本的语法、语义和上下文理解;

迭代阶段,将合成数据与网络数据合并构建全新的训练集,并对Phi-3-mini进行迭代训练,进一步强化模型的理解和生成能力,并且进行多次重复训练。
测试数据方面,Phi-3Mini在MMLU、GSM-8K、MedQA、BigBench-Hard等知名基准测试平台中,对语言理解、逻辑推理、机器翻译、编码等进行了综合测试。
结果显示,Phi-3-mini仅通过少量样本提示,在语言理解、编码、数学的性能超过了参数更大的模型,整体性能非常出色。

微软表示,在未来几周内还会发布70亿参数的Phi-3-small和140亿参数的Phi-3-medium两款小模型。其中,Phi-3-medium的性能可媲美Mixtral8x7B 和GPT-3.5,资源消耗却更少。
英伟达投资东南亚:将在印尼投资2亿美元建AI中心
快科技4月5日消息,据媒体报道,英伟达近日宣布将与印尼第二大移动电信公司IndosatOoredooHutchison携手,在梭罗建设一座总投资额高达2亿美元的人工智能开发中心,此举标志着英伟达进一步扩大在印尼乃至整个东南亚的业务版图。0000在抖音“批量制造”小杨哥,月赚20万的野蛮生意
FastReading靠着批量制作小杨哥直播切片视频,乔林和他的团队每个月营业额能达到20万元上下。切片视频依靠带货产品的购买量拿分成,公司会将切片视频盈利的千分之一分给剪辑师。越来越多的个体涌入切片小视频制作,正是这一行业红利期快结束的端倪之一。“小杨哥徒弟小黄在直播间公然造反!”“小杨哥推荐雪地靴,和美女品牌方亲切互动,被小杨嫂查岗抓现行。”0000网易有道「子曰」教育大模型通过相关备案 将对公众开放
11月4日,网易有道「子曰」教育大模型正式通过相关备案。「子曰」教育大模型及其应用产品即将对公众开放。网易有道表示,「子曰」教育大模型将不断汲取用户反馈快速迭代升级,搭载在更丰富的智能硬件产品及APP中,为全年龄段学习者持续提供高效的学习体验。此外,基于「子曰」教育大模型,近期将再次发布一系列精彩的新产品及新应用。站长网2023-11-04 15:10:250000微软将于下个月推出人工智能驱动的 OneDrive 功能
微软计划于本月举行Surface活动,发布重大消息,但其可能还有其他惊喜,包括新的OneDrive特性。站长网2023-09-05 08:55:1500015G网络为何面临“叫好不叫座”局面 邬贺铨:用户感知差 运营商回报低
快科技4月20日消息,中国工程院院士邬贺铨最近在演讲中指出,6G对于5G/5G-A而言不仅仅是技术的简单叠加,更是整体架构平台的彻底变革。他强调,5G网络所具备的大带宽eMBB、大连接mMTC、高可靠低时延uRLLC三大特性将在5G-A和6G中继续得到加强。同时,6G还将引入5G阶段所不具备的特性,比如通感融合、内生智能,以及支持沉浸式体验等。0001