谷歌DeepMind被曝抄袭开源成果,论文还中了顶流会议
大模型圈再曝抄袭大瓜,这回,“被告”还是大名鼎鼎的谷歌DeepMind。
“原告”直接怒喷:他们就是把我们的技术报告洗了一遍!
具体是这么个事儿:
谷歌DeepMind一篇中了顶流新生代会议CoLM2024的论文被挂了,瓜主直指其抄袭了一年前就挂在arXiv上的一项研究。开源的那种。
两篇论文探讨的都是一种规范模型文本生成结构的方法。
抓马的是,谷歌DeepMind这篇论文中确实明晃晃写着引用了“原告”的论文。
然鹅,即便是标明了引用,“原告”的两位论文作者Brandon T. Willard(布兰登)和R´emi Louf(雷米)还是坚称谷歌抄袭,并认为:
谷歌对两者差异性的表述“简直荒谬”。
而不少网友看过论文后也缓缓打出一个问号:CoLM是怎么审的稿?
唯一区别是换了概念?
赶紧瞅一眼论文对比……
两篇论文的比较
先浅看一眼两篇论文的摘要对比。
谷歌DeepMind的论文说的是,tokenization给约束语言模型输出带来了麻烦,他们引入自动机理论来解决这些问题,核心是避免在每个解码步骤遍历所有逻辑值(logits)。
该方法只需要访问每个token的解码逻辑值,计算与语言模型的大小无关,高效且易用于几乎所有语言模型架构。
而“原告”的说法大致是:
提出了一个高效框架,通过在语言模型的词汇表上构建索引,来大幅提升约束文本生成的效率。简单来说,就是通过索引避免对全部逻辑值的遍历。
同样“不依赖于具体模型”。
方向上确实大差不差,我们还是接着来看看更多详细内容。
我们用谷歌Gemini1.5Pro分别总结了两篇论文的主要内容,并接着让Gemini来比较两者的异同。
对于“被告”谷歌这篇论文,Gemini总结其方法是将detokenization重新定义为有限状态转换器(FST)操作。
将此FST与表示目标形式语言的自动机组合,这种自动机可以用正则表达式或语法来表示。
通过以上结合,生成一个基于token的自动机,用于在解码过程中约束语言模型,确保其输出的文本符合预设的形式语言规范。
此外,谷歌论文中还进行了一系列正则表达式扩展,这些扩展通过使用特别命名的捕获组来编写,显著提升了系统处理文本时的效率和表达能力。
而对于“原告”论文,Gemini总结其方法的核心是将文本生成问题重新定义为有限状态机(FSM)之间的转换。
“原告”的具体方法是:
利用正则表达式或上下文无关文法构建FSM,并将其用于指导文本生成过程。
通过构建词汇表索引,高效地确定每个步骤中的有效词,避免遍历整个词汇表。
Gemini列出了两篇论文的共同点。
至于两者的区别,有点像前头那位网友说的,简单总结就是:谷歌将词汇表定义为了一个FST。
前面也说到了,谷歌在“Related work”中将原告论文列为“最相关”的一项工作:
最相关的研究是Outlines(Willard&Louf,2023),该研究同样采用有限状态自动机(FSA)和下推自动机(PDA)作为约束手段——我们的方法是在2023年初独立开发的。
谷歌认为两者的差异在于,Outlines的方法基于一种特制的“索引”操作,需要手动扩展到新的应用场景。相比之下,谷歌使用自动机理论彻底重新定义了整个过程,使得应用FSA和泛化到PDA变得更加容易。
另一个区别是,谷歌定义了扩展以支持通配符匹配,并提高了可用性。
谷歌紧接着在介绍下面的两项相关工作中,也都提到了Outlines。
一项是Yin等人(2024年)通过增加“压缩”文本段到预填充的功能,扩展了Outlines。
另一项是Ugare等人(2024年)近期提出的一个系统,名为SynCode。它也利用FSA,但采用LALR和LR解析器而非PDA处理语法。
与Outlines类似,该方法依赖于定制算法。
但吃瓜群众们显然不是很买账:
CoLM的评审们应该注意。我不认为这看上去是各自独立的“同期工作”。
网友:这事儿不罕见…
这件事一发酵,不少网友都怒了,抄袭可耻,更何况“科技巨头剽窃小团队的工作成果不是第一次了”。
顺便一提,布兰登和雷米发布原告论文的时候都在给Normal Computing远程工作,这家AI Infra公司成立于2022年。
哦对了,Normal Computing的创始团队有一部分就来自Google Brain……
另外,布兰登和雷米现在合伙出来创业了,新公司名叫.txt,官网信息显示,其目标是提供快速可靠的信息提取模型。并且官网挂出的GitHub主页,就是Outlines仓库。
说回到网友这边,更让大家伙儿生气的是,“这种情况已经变得普遍”。
一位来自荷兰代尔夫特理工大学的博士后分享了自己的遭遇:
去年10月我们完成了一项工作,最近有篇已被接收的论文采用了相同的思路和概念,但甚至没有引用我们的论文。
还有一位美国东北大学的老哥更惨,这种情况他遭遇过两次,下手的还都是同一个组。并且对面那位第一作者还给他的GitHub加过星标……
不过,也有网友表达了不同的意见:
如果说发个博客文章或未经评估的预印本论文就算占坑了,那人人都会占坑,不是吗?
对此,雷米怒怼:
好家伙,发布预印本论文并开源代码 = 占坑;
写篇数学论文,甚至不需要任何伪代码 = 好工作???
布兰登老哥也表示yue了:
开源代码并撰写相关论文是“占坑”,复制别人的工作却说“我更早有了这个想法”且投稿了会议反而不是啦?真恶心。
瓜就先吃到这里,对此你有什么想法?不妨在评论区继续讨论~
两篇论文戳这里:
谷歌DeepMind论文:https://arxiv.org/abs/2407.08103v1
原告论文:https://arxiv.org/abs/2307.09702
参考链接:
[1]https://x.com/remilouf/status/1812164616362832287?s=46
[2]https://x.com/karan4d/status/1812172329268699467?s=46
[3]https://x.com/brandontwillard/status/1812163165767053772?s=46
奥特曼宫斗戏新爆料:自己投芯片公司,让OpenAI签下3.6亿订购意向书
奥特曼又惹上事了。一份订购意向书曝光,奥特曼任CEO期间,OpenAI承诺从一家初创公司订购芯片,金额高达5100万美元(约合人民币3.6亿元)。关键问题在于,这家公司RainAI是奥特曼自己参与投资的。两家公司总部都在旧金山,相距不到一公里左右,走路十来分钟就到了那种。消息一出,网友马上联想到之前奥特曼被开除公告中的“沟通不坦诚”。站长网2023-12-04 15:05:300002新西兰媒体公司Stuff禁止OpenAI爬取数据训练ChatGPT
文章概要:1.媒体公司Stuff采取行动,禁止人工智能引擎如ChatGPT使用其新闻内容来学习回答问题和生成内容。2.Stuff首席执行官LauraMaxwell表示,越来越多的新闻机构已封锁OpenAI旗下的ChatGPT,不允许其软件“爬取”信息。3.主要目标是说服OpenAI支付许可费以使用他们的信息。站长网2023-09-11 18:16:390001新加坡华人团队开源全能「大一统」多模态大模型NExT-GPT
要点:1、NExT-GPT支持任意模态的输入和输出,实现了从任一模态到任一模态的转换。2、NExT-GPT通过组合开源的编码器、语言模型和解码器实现了全能的多模态能力。3、NExT-GPT实现了端到端的训练和指令微调,具有较好的多模态表示对齐能力。站长网2023-09-18 14:37:2100000粉丝带货,也能月入过万
各位村民好,我是村长。我来拍视频,你只要负责上传,在家就能月入上万。包开橱窗、包原创、只要几百块,不想出镜、不拍视频、不会剪辑,我问帮你。相信许多人,都有在抖音上刷到过这样的广告。无数宝妈、普通打工人蠢蠢欲动啊,这不就是我梦寐以求要找的发财项目嘛!总结就是三个字:割韭菜!今天村长就和大家聊聊,关于这种——【视频分发赚钱项目】的一些看法。01视频分发真能带货吗?站长网2023-06-05 21:29:350001英伟达 AI Workbench 让任何人都可以训练生成式 AI 模型
站长之家(ChinaZ.com)8月9日消息:除了推出推出更强大的升级款人工智能芯片GH200之外,英伟达还宣布推出AIWorkbench,承诺使生成式人工智能的创建变得更加容易和可管理。据介绍,这个AIWorkbench将允许开发者在各种英伟达AI平台上开发和部署各种模型,包括个人电脑和工作站。站长网2023-08-09 20:03:250000