ChatGPT模型中的1750亿参数,到底啥意思?
我们经常会看到在介绍大语言、扩散等模型时,会在后面或前缀加上100亿、500亿、2000亿等各种参数,你可能会纳闷这到底是个啥呀,是体积大小、内存上限、还是使用权限?
在ChatGPT发布一周年的日子,「AIGC开放社区」用通俗易懂的方式为大家介绍一下这个参数的含义。由于OpenAI没有公布GPT-4的详细参数,我们就用GPT-3的1750亿来说说。
OpenAI曾在2020年5月28日发布了一份名为《Language Models are Few-Shot Learners》的论文,就是GPT-3,对模型的参数、架构、功能进行了详细的阐述。
论文地址:https://arxiv.org/abs/2005.14165
大模型的参数含义
按照该论文的说法,GPT-3的参数达到了1750亿,而GPT-2只有15亿,整整提升了100多倍。
参数的大幅度提升主要体现在存储、学习、记忆、理解、生成等能力全面得到增强,这也是为什么ChatGPT可以无所无能。
所以,大模型中的参数通常指的是模型内部用于存储知识和学习能力的数值。这些参数可以被看作是模型的“记忆细胞”,它们决定了模型如何处理输入的数据、如何做出预测和生成文本等。
在神经网络模型中,这些参数主要是权重和偏置,在训练过程中通过不断的迭代来优化。权重控制着输入数据之间的相互影响,而偏置则是添加到最终计算中以调整输出的数值。
权重是神经网络中的核心参数,它们表示输入特征与输出之间的关系强度或重要性。在网络层之间的每个连接上都有一个权重,决定了一个节点(神经元)的输入在计算下一个层的节点输出时的影响程度。
偏置则是另一种类型的网络参数,它们通常与每个节点的输出相加以引入一个偏移量,使得激活函数能够在零附近有更好的动态范围,从而改善和调整节点的激活水平。
简单来说,可以把GPT-3看作是一间超级大办公室的助理,里面有1750亿个抽屉(参数),每个抽屉里都放着一些特定的信息,包括单词、短语、语法规则、断句原则等。
当你向ChatGPT提问时,例如,帮我生成一个用于社交平台的鞋子营销文案。GPT-3这个助理就会去装有营销、文案、鞋子等抽屉中去提取信息,然后按照你的文本要求进行排列组合重新生成。
在预训练过的程中,GPT-3会像人类一样阅读大量的文本来学习各种语言和叙述结构。
每当它读到新信息或尝试生成新的文本方法时,都会打开这些抽屉查看里面的信息,并尝试找出最好的信息组合来回答问题或生成连贯的文本。
当GPT-3在某些任务上表现得不够好时,会根据需要调整抽屉里的信息(更新参数),以便下次能做得更好。
所以,每个参数都是模型在特定任务上的一个小决策点。更大的参数意味着模型可以有更多的决策能力和更细致的控制力,同时可以捕捉到语言中更复杂的模式和细节。
模型的参数越高,性能就一定越好吗
从性能上来看,对于ChatGPT等大型语言模型而言,参数量多通常意味着模型有更强的学习、理解、生成、控制等能力。
但随着参数的增大,也会出现算力成本高,边际效应递减,过拟合等问题,尤其是对于没有开发能力、算力资源的中小企业和个人开发者来说非常困难。
更高的算力消耗:参数越大,所消耗的算力资源就越多。这意味着训练更大的模型需要更多的时间和更昂贵的硬件资源。
边际效应递减:随着模型规模的增长,从每个新增参数获得的性能提升越来越少。有时候,增加参数量并不能带来显著的性能改进,而是带来更多的运营成本负担。
优化困难:当模型的参数量极大时,它可能会遇到“维度的诅咒”,即模型变得如此复杂以至于很难找到优化的解决方案,甚至在某些区域出现性能退化。这一点在OpenAI的GPT-4模型上体现的非常明显。
推理延迟:参数量大的模型在执行推理时通常响应较慢,因为他们需要更多的时间找出更优的生成路径。相比GPT-3,GPT-4同样有这个问题。
所以,如果你是在本地部署大模型的中小型企业,可以选择那些通过高质量训练数据打造的参数小性能强的模型,例如,Meta发布的开源大语言模型Llama2。
如果你没有本地资源希望在云端使用,那么就可以通过API使用OpenAI的最新模型GPT-4Turbo、百度的文心大模型或者微软的Azure OpenAI等服务。
针对PS的AI插件“Alpaca” 可将草图转为艺术作品
Alpaca是一款专为艺术家设计的个性化AI工具包,旨在帮助用户更深入地探索、更快速地迭代,并发挥创意潜能。它是一个针对AdobePhotoshop的插件,将人工智能图像生成能力与人类技能相结合。体验地址:https://www.alpacaml.com/核心功能:从草图中生成图像:将自己的草图转化为栩栩如生的艺术作品。控制图像生成:从草图和参考图像开始,指导艺术作品的构图。站长网2023-08-14 15:47:330000姚班斯隆奖马腾宇正式宣布大模型创业
要点1.清华姚班校友、斯坦福助理教授马腾宇宣布创办Voyage,一个专注于嵌入模型的创业项目,其嵌入模型在MTEB数据集上表现超越OpenAI,成为SOTA。2.Voyage的嵌入模型强调高检索精度,使用自监督损失函数和多领域训练数据,具有出色的性能,尤其在工业领域数据集上表现明显。站长网2023-11-01 17:03:330000SD3-Turbo:基于LADD的快速文本到图像生成模型
SD3模型还未发布,SD3-Turbo又来了!近日,一篇关于SD3-Turbo的论文引起了广泛关注。该论文主要介绍了StabilityAI升级过的蒸馏技术LADD,以及其在SD3-Turbo模型上的应用效果。站长网2024-03-19 17:53:360000小米推出PC换机助手 最高速率90MB/s
站长之家(ChinaZ.com)2月21日消息:近日,小米正式推出了PC换机助手,这款工具旨在为用户提供一个便捷、高效的数据迁移方案。据悉,小米PC换机助手不仅支持多种旧机型号的数据迁移至小米新PC,而且迁移过程只需一键操作,极大简化了用户的操作步骤。更令人惊喜的是,该工具的最高平均传输速率可达每秒90MB,迁移速度之快令人咋舌。站长网2024-02-21 16:58:000000微软正在解决 Bing Image Creator 中的一些激进的内容过滤规则
站长之家(ChinaZ.com)10月10日消息:几天前,微软宣布将OpenAI的DALL-E3模型添加到其BingImageCreator艺术制作工具中后,由于有太多人想要尝试该工具,服务开始在生成图像时出现巨大的放缓。微软表示正在其数据中心添加更多的GPU,以加快图像生成速度。站长网2023-10-10 14:57:080000