ChatGPT模型中的1750亿参数,到底啥意思?
我们经常会看到在介绍大语言、扩散等模型时,会在后面或前缀加上100亿、500亿、2000亿等各种参数,你可能会纳闷这到底是个啥呀,是体积大小、内存上限、还是使用权限?
在ChatGPT发布一周年的日子,「AIGC开放社区」用通俗易懂的方式为大家介绍一下这个参数的含义。由于OpenAI没有公布GPT-4的详细参数,我们就用GPT-3的1750亿来说说。
OpenAI曾在2020年5月28日发布了一份名为《Language Models are Few-Shot Learners》的论文,就是GPT-3,对模型的参数、架构、功能进行了详细的阐述。
论文地址:https://arxiv.org/abs/2005.14165
大模型的参数含义
按照该论文的说法,GPT-3的参数达到了1750亿,而GPT-2只有15亿,整整提升了100多倍。
参数的大幅度提升主要体现在存储、学习、记忆、理解、生成等能力全面得到增强,这也是为什么ChatGPT可以无所无能。
所以,大模型中的参数通常指的是模型内部用于存储知识和学习能力的数值。这些参数可以被看作是模型的“记忆细胞”,它们决定了模型如何处理输入的数据、如何做出预测和生成文本等。
在神经网络模型中,这些参数主要是权重和偏置,在训练过程中通过不断的迭代来优化。权重控制着输入数据之间的相互影响,而偏置则是添加到最终计算中以调整输出的数值。
权重是神经网络中的核心参数,它们表示输入特征与输出之间的关系强度或重要性。在网络层之间的每个连接上都有一个权重,决定了一个节点(神经元)的输入在计算下一个层的节点输出时的影响程度。
偏置则是另一种类型的网络参数,它们通常与每个节点的输出相加以引入一个偏移量,使得激活函数能够在零附近有更好的动态范围,从而改善和调整节点的激活水平。
简单来说,可以把GPT-3看作是一间超级大办公室的助理,里面有1750亿个抽屉(参数),每个抽屉里都放着一些特定的信息,包括单词、短语、语法规则、断句原则等。
当你向ChatGPT提问时,例如,帮我生成一个用于社交平台的鞋子营销文案。GPT-3这个助理就会去装有营销、文案、鞋子等抽屉中去提取信息,然后按照你的文本要求进行排列组合重新生成。
在预训练过的程中,GPT-3会像人类一样阅读大量的文本来学习各种语言和叙述结构。
每当它读到新信息或尝试生成新的文本方法时,都会打开这些抽屉查看里面的信息,并尝试找出最好的信息组合来回答问题或生成连贯的文本。
当GPT-3在某些任务上表现得不够好时,会根据需要调整抽屉里的信息(更新参数),以便下次能做得更好。
所以,每个参数都是模型在特定任务上的一个小决策点。更大的参数意味着模型可以有更多的决策能力和更细致的控制力,同时可以捕捉到语言中更复杂的模式和细节。
模型的参数越高,性能就一定越好吗
从性能上来看,对于ChatGPT等大型语言模型而言,参数量多通常意味着模型有更强的学习、理解、生成、控制等能力。
但随着参数的增大,也会出现算力成本高,边际效应递减,过拟合等问题,尤其是对于没有开发能力、算力资源的中小企业和个人开发者来说非常困难。
更高的算力消耗:参数越大,所消耗的算力资源就越多。这意味着训练更大的模型需要更多的时间和更昂贵的硬件资源。
边际效应递减:随着模型规模的增长,从每个新增参数获得的性能提升越来越少。有时候,增加参数量并不能带来显著的性能改进,而是带来更多的运营成本负担。
优化困难:当模型的参数量极大时,它可能会遇到“维度的诅咒”,即模型变得如此复杂以至于很难找到优化的解决方案,甚至在某些区域出现性能退化。这一点在OpenAI的GPT-4模型上体现的非常明显。
推理延迟:参数量大的模型在执行推理时通常响应较慢,因为他们需要更多的时间找出更优的生成路径。相比GPT-3,GPT-4同样有这个问题。
所以,如果你是在本地部署大模型的中小型企业,可以选择那些通过高质量训练数据打造的参数小性能强的模型,例如,Meta发布的开源大语言模型Llama2。
如果你没有本地资源希望在云端使用,那么就可以通过API使用OpenAI的最新模型GPT-4Turbo、百度的文心大模型或者微软的Azure OpenAI等服务。
库克关于苹果生成式AI计划说辞毫无新意 引发股东不满
划重点:-股东对苹果生成式人工智能计划的回应不佳,因为蒂姆·库克反复使用相同言辞。-库克在多次财报电话会议上几乎用相同的措辞陈述苹果的人工智能战略,引发关注。-尽管有关“苹果GPT”类似于OpenAI的ChatGPT的传闻,苹果尚未正式确认其生成式人工智能产品。站长网2023-11-03 14:42:410000武汉大学雷军班招生:目标培养更多“小雷军”
今年,武汉大学宣布开设独具特色的“雷军班”,并首次启动招生,计划选拔30名精英学子。此次招生策略别具一格,一半名额面向高考招生,另一半则面向全校新生进行二次选拔,以确保选拔出最具潜力和才华的学生。“雷军班”学生自本科阶段起,便有机会进入小米等头部企业实习,参与一线高水平课题研发,这一实践机会无疑为学生们提供了宝贵的行业经验和技能锻炼。站长网2024-06-22 23:21:540000抖音12个去重方法,搞定二创作品过原创
各位村民好,我是村长。问题来了,如何在进行短视频内容二次创作的时候,有效避免官方判断重复呢?随着各种短视频二次创作可以赚取收益的火热,出现了一大批账号开始搬运各种各样的作品。同时还有一些拍摄产品的剧情段子,高度相同,导致会被系统判断重复,无法通过原创或者得到官方流量的推荐。我们常见的各种国内外影视剧解说账号、各种海外纪录片等内容,想要获得流量收益,必须解决这个问题。站长网2023-04-13 08:58:3300035三星在 AI GPU 订单争夺战中落后于台积电 市场份额差距越来越大
站长之家(ChinaZ.com)7月3日消息:全球客户纷纷排队购买英伟达的图形处理单元(GPU),但供应紧张导致价格飙升。GPU是生成式人工智能(AI)程序如ChatGPT的核心。英伟达在全球AIGPU市场占据了90%以上的份额。站长网2023-07-04 00:57:010000