ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞
【新智元导读】当前的视觉模型哪个更好?Meta团队最新一波研究来了。
如何根据特定需求选择视觉模型?
ConvNet/ViT、supervised/CLIP模型,在ImageNet之外的指标上如何相互比较?
来自MABZUAI和Meta的研究人员发表的最新研究,在「非标准」指标上全面比较了常见的视觉模型。

论文地址:https://arxiv.org/pdf/2311.09215.pdf
就连LeCun称赞道,非常酷的研究,比较了相似大小的ConvNext和VIT架构,无论是在监督模式下训练,还是使用CLIP方法进行训练,并在各种属性上进行了比较。

超越ImageNet准确性
计算机视觉模型格局,变得越来越多样复杂。
从早期的ConvNets到Vision Transformers的演进,可用模型的种类在不断扩展。
类似地,训练范式已经从ImageNet上的监督训练,发展到自监督学习、像CLIP这样的图像文本对训练。

在标志着进步的同时,这种选择的爆炸式增长给从业者带来了重大挑战:如何选择适合自己的目标模型?
一直以来,ImageNet准确率一直是评估模型性能的主要指标。自从引发深度学习革命以来,它已经推动了人工智能领域显著的进步。
不过,它却无法衡量因不同架构、训练范式和数据而产生的细微差别的模型。
如果仅根据ImageNet的准确度来判断,具有不同属性的模型可能看起来很相似(图1)。随着模型开始过度拟合ImageNet的特性,精度达到饱和,这种局限性就会变得更加明显。

为了弥补差距,研究人员对ImageNet准确性之外的模型行为进行了深入探索。
为了研究架构和训练目标对模型性能的影响,具体比较了Vision Transformer (ViT)和ConvNeXt。这两种现代架构的ImageNet-1K验证精度和计算要求相当。
此外,研究对比了以DeiT3-Base/16和ConvNeXt-Base为代表的监督模型,以及OpenCLIP基于CLIP模型的视觉编码器。

结果分析
研究人员的分析旨在,研究无需进一步训练或微调即可评估的模型行为。
这种方法对于计算资源有限的从业人员尤为重要,因为他们通常依赖于预训练模型。
具体分析中,虽然作者认识到对象检测等下游任务的价值,但重点是那些能以最小的计算需求提供洞察力的特性,以及反映对真实世界应用非常重要的行为的特性。
模型错误
ImageNet-X是一个对ImageNet-1K进行了扩展的数据集,其中包含16个变化因素的详细人工标注,从而能够深入分析图像分类中的模型错误。
它采用错误率(越低越好)来量化模型在特定因素上,相对于整体准确性的表现,从而对模型错误进行细致入微的分析。ImageNet-X 的结果表明:
1. 相对于其ImageNet准确性,CLIP模型比受监督的模型犯的错误更少。
2. 所有模型都主要受到遮挡等复杂因素的影响。
3. 纹理是所有模型中最具挑战性的因素。


形状/纹理偏差
形状/纹理偏差会检验模型,是否依赖于纹理快捷方式,而不是高级形状提示。
这种偏向可以通过结合不同类别的形状和纹理的提示冲突图像来研究。
这种方法有助于了解与纹理相比,模型的决策在多大程度上是基于形状的。
研究人员对提示冲突数据集上的形状-纹理偏差进行了评估,发现CLIP模型的纹理偏差小于监督模型,而ViT模型的形状偏差高于ConvNets。

模型校准
校准可量化模型的预测置信度与其实际准确度是否一致。
这可以通过预期校准误差 (ECE) 等指标,以及可靠性图和置信度直方图等可视化工具进行评估。
研究人员在ImageNet-1K和ImageNet-R上对校准进行了评估,将预测分为15个等级。在实验中,观察到以下几点:
- CLIP模型置信度高,而监督模型则略显不足。
- 有监督的ConvNeXt比有监督的ViT校准得更好。

健壮性和可移植性
模型的健壮性和可移植性,是适应数据分布变化和新任务的关键。
研究人员使用不同的ImageNet变体评估了稳健性,发现虽然ViT和ConvNeXt模型具有类似的平均性能,但除了ImageNet-R和ImageNet-Sketch之外,监督模型在稳健性方面通常优于CLIP。
在可移植性方面,使用VTAB基准测试对19个数据集进行评估,监督ConvNeXt优于ViT,几乎与CLIP模型的性能相当。

合成数据
像PUG-ImageNet这样的合成数据集,可以精确控制相机角度和纹理等因素,成为一种很有前途的研究途径,因此研究人员根据合成数据分析模型的性能。
PUG-ImageNet包含逼真的ImageNet图像,这些图像具有照明等因素的系统变化,性能以绝对最高准确率来衡量。
研究人员提供了PUG-ImageNet中不同因素的结果,发现ConvNeXt在几乎所有因素上都优于ViT。
这表明ConvNeXt在合成数据上优于ViT,而CLIP模型的差距较小,因为CLIP模型的准确率低于监督模型,这可能与原始ImageNet的准确率较低有关。

特征不变性
特征不变性是指模型能够产生一致的表征,不受输入转换的影响,从而保留语义,如缩放或移动。
这一特性使模型能够在不同但语义相似的输入中很好地泛化。
研究人员的方法包括,调整图像大小以实现比例不变性,移动裁剪以实现位置不变性,以及使用内插位置嵌入调整ViT模型的分辨率。
在有监督的训练中,ConvNeXt的表现优于ViT。
总体而言,模型对尺度/分辨率变换的鲁棒性高于对移动的鲁棒性。对于需要对缩放、位移和分辨率具有较高鲁棒性的应用,研究结果表明有监督的ConvNeXt可能是最佳选择。

研究人员发现,每种模型都有自己独特的优势。
这表明模型的选择应该取决于目标用例,因为标准的性能指标可能会忽略关键任务特定的细微差别。
此外,许多现有的基准是从ImageNet派生出来的,这对评估有偏见。开发具有不同数据分布的新基准,对于在更具现实代表性的背景下评估模型至关重要。
ConvNet vs Transformer
- 在许多基准测试中,有监督的ConvNeXt比有监督的VIT具有更好的性能:它更好地校准,对数据转换不变,表现出更好的可转移性和健壮性。
- 在合成数据上,ConvNeXt的表现优于ViT。
- ViT有较高的形状偏向。
Supervised vs CLIP
- 尽管CLIP模型在可转移性方面更好,但监督的ConvNeXt在这项任务上表现出了竞争力。这展示了有监督的模型的潜力。
- 监督模型更擅长稳健性基准,这可能是因为这些模型是ImageNet的变体。
- CLIP模型具有较高的形状偏差,与其ImageNet精度相比,分类错误较少。
雷军也没抢到SU7Ultra车模:产能低 被加价到上千元
小米公司的创始人雷军今日在微博上分享了一组小米SU7Ultra车模的照片,并在评论区表达了自己未能抢购到车模的遗憾。这款小米SU7Ultra车模以1:18的比例精确复制了量产车型,采用合金材质制作,共有三种版本供消费者选择:标准版售价599元、礼盒版799元、尊享版999元。站长网2024-11-02 10:43:560000谷歌聊天机器人Bard为“Google it”按钮添加了更多搜索主题
为了进一步探索AI聊天机器人的功能,Google将谷歌搜索引擎的自动搜索短语集成到Bard聊天机器人中。据悉,谷歌正在将搜索建议整合到其Bard聊天机器人中,用户在回复后点击Bard中的“Googleit”按钮,将首先收到与主题匹配的搜索短语建议,点击该短语将带出匹配结果的谷歌搜索页面。谷歌表示,此举旨在涵盖更广泛的兴趣范围和更多相关主题。站长网2023-04-12 11:41:290000GitHub Copilot让陶哲轩感到“不安”
GitHubCopilot,又一次被数学大神陶哲轩“点名”了:我发现GitHubCopilot在撰写我最近博客文章的过程中非常有帮助。它能够正确地预测那篇文章中数学论证的几个步骤。并且陶哲轩还给出了一个具体的案例做阐述。例如在上面这个例子中,陶哲轩先是将一个积分分成了三块。然后他用语言描述了如何对第一块的内容做估计,以及说明了一下如何估计剩下两块的内容。站长网2023-10-03 09:44:3000002024年,AI“魔盒”还能开出什么?
刚刚过去的2023年里,GPT大模型开启了普通人走向AI世界的“魔盒”,也拉开了全球各国科技公司的大模型“军备赛”。文本、图片、视频大模型纷纷涌现后,应用端狂卷创新,也造成AI芯片资源紧缺,“AI替代论”、“风险质疑”无时无刻不在上演。AI的一面是人类对先进生产力的狂热追求,另一面是人类面对新技术的担忧。0000YY直播诉丫丫直播商标侵权胜诉 获赔 300 万元
广州知识产权法院近日就YY直播与“丫丫直播”“吖吖直播”商标侵权一案作出终审判决,驳回广州市九浚信息技术有限公司等五家公司的上诉,维持一审原判。判决认定“丫丫直播”和“吖吖直播”侵害了YY直播的商标权,并要求这五家公司共同承担高达300万元的惩罚性赔偿,并全额支付二审案件受理费用。站长网2024-05-09 23:07:160000