1800亿参数,支持中文,3.5万亿训练数据!开源类ChatGPT模型
阿联酋阿布扎比技术创新研究所(Technology Innovation Institute,简称TII)在官网发布了,目前性能最强的开源大语言模型之一Falcon180B。
TII表示,Falcon180B拥有1800亿参数,使用4096个GPU在3.5万亿token 数据集上进行训练,这也是目前开源模型里规模最大的预训练数据集之一。Falcon180B有基础和聊天两个模型,允许商业化。
Falcon180B在多个权威测试平台中,在推理、编程、知识测试等方面,超过了Meta最新发布的 Llama270B 和 OpenAI 的 GPT-3.5,可媲美谷歌的PaLM2-Large仅次于GPT-4。
基础开源地址:https://huggingface.co/tiiuae/falcon-180B
聊天开源地址:https://huggingface.co/tiiuae/falcon-180B-chat
在线测试地址:https://huggingface.co/spaces/tiiuae/falcon-180b-demo
今年5月,「AIGC开放社区」曾介绍过TII发布的一款类ChatGPT开源大语言模型Falcon-40B。
该产品刚推出便成为Huggingface的开源大语言模型排行第一名,击败了LLaMa65b、GPT4-X-Alpasta-30b、LLaMa30b等众多著名开源项目成为一匹黑马。
Falcon180B便是在Falcon-40B基础之上研发而成,并将模型参数扩大了4.5倍,训练集从1万亿提升至3.5万亿token,并在算法、推理、硬件部署方面进行了大幅度优化。
其中,最大的亮点就是Falcon180B- chat版本支持中文,并进行了数据微调。
Falcon180B简单介绍
预训练方面,Falcon180通过使用 Amazon SageMaker 在多达4096个GPU上同时对3.5万亿个token数据集进行训练,总共花费了约7,000,000个小时。
TII表示,Falcon180B的规模是Llama2的2.5倍,而训练所需的算力资源是Llama2的4倍。
Falcon180B的训练数据集主要来自RefinedWeb的网络数据(大约占85%)。还在对话、技术论文和一小部分代码 (约占3%) 等,经过整理的混合数据的基础上进行了训练。
Falcon180B-chat模型在聊天和指令数据集上进行了微调,并混合了多个大规模对话数据集,使其能够更好地理解用户的文本提示意图,生成丝滑、流畅、拟人化的各种文本内容。
Falcon180B性能评测
Falcon180B在MMLU上的测试结果,优于Llama270B 和 OpenAI 的 GPT-3.5;在 HellaSwag、LAMBADA、WebQuestions、Winogrande、PIQA、ARC等测试中,可媲美谷歌的PaLM2-Large。
目前,Falcon180B在Hugging Face排行榜上得分为68.74,是得分最高的公开发布的预训练大语言模型,超越了Meta的 LLaMA2、LLaMA等。
Falcon180B- chat使用体验
「AIGC开放社区」通过在线demo体验了一下Falcon180B- chat,使用方法和ChatGPT一样,中文生成的内容基本达到了GPT-3.5的效果,支持单话题,多轮深度询问。
例如,询问,中国历史上有哪些著名诗人?Falcon180B- chat可以按照罗列的方式,列出最知名的诗人。
让其详细介绍一下李白。
再介绍一下李白对现代人的影响。Falcon180B- chat的整体回复内容非常丝滑、流畅。
关于TII
TII 成立于2020年,是阿布扎比高等教育和科技部 (ADEK) 旗下的研究机构。TII 的目标是推动科学研究、开发前沿技术并将其商业化,以促进阿布扎比和阿联酋的经济发展。
目前,TII拥有来自74个国家的800多名研究专家,发表了700多篇论文和25多项专利,是世界领先的科学研究机构之一。
英国公布AI监管原则 开发者须对输出内容负责
近日,英国反垄断监管机构“竞争与市场管理局”(CMA)提出了管理AI模式的新标准,旨在规范AI技术的健康发展。这些标准涵盖了问责、访问、透明度等7个方面。CMA首席执行官SarahCardell表示,AI技术确实能提高生产力,但也可能带来负面后果。制定这些原则和启动相关计划,目的是确保AI的发展能促进竞争和保护消费者利益。图源备注:图片由AI生成,图片授权服务商Midjourney站长网2023-09-19 09:41:350000强大的机器人视觉学习框架GROOT 帮助机器人更好地理解环境
要点:1.ImitationLearning(IL)在教授神经网络基础的视觉动作策略以执行复杂操作任务方面取得了成功。2.GROOT是一种独特的模仿学习技术,通过构建面向视觉的操纵任务的强策略,解决了在不断变化的背景、摄像机角度和对象引入等真实世界环境中的问题。站长网2023-10-30 11:20:410000存量内卷时代,盘活沉睡老用户做转化,难吗?
流量匮乏,无论大公司还是小公司都是当下面临的困境。关键在于如何快速挖掘平台现有用户价值,完成商业化变现。结合曾经操盘过的某个下沉市场项目,围绕平台存量做转化,回头看项目,从中总结可复制的方法论。备注:项目部分数据展示站长网2023-09-19 13:54:040000《纽约时报》屏蔽了 OpenAI 的网络爬虫GPTBot
本文概要:1.《纽约时报》阻止OpenAI使用其内容训练AI模型。2.《纽约时报》更新服务条款,禁止使用其内容进行人工智能训练。3.《纽约时报》可能考虑对OpenAI采取法律行动。站长网2023-08-22 10:21:260000十亿参数,一键瘦身!「模型减重」神器增强型 SmoothQuant,让大模型狂掉 3/4
【新智元导读】SamAltman曾表示,语言模型不是越大越好。不断炼大的模型,若想实现高效训练和部署还得需要「量化」。英特尔增强型SmoothQuant给出了解决方案。本文介绍了可提升大语言模型的训练后量化表现的增强型SmoothQuant技术,说明了这项技术的用法,并证明了其在准确率方面的优势。此方法已整合至英特尔®NeuralCompressor(1)中。站长网2023-06-30 23:54:140000