ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞
【新智元导读】当前的视觉模型哪个更好?Meta团队最新一波研究来了。
如何根据特定需求选择视觉模型?
ConvNet/ViT、supervised/CLIP模型,在ImageNet之外的指标上如何相互比较?
来自MABZUAI和Meta的研究人员发表的最新研究,在「非标准」指标上全面比较了常见的视觉模型。
论文地址:https://arxiv.org/pdf/2311.09215.pdf
就连LeCun称赞道,非常酷的研究,比较了相似大小的ConvNext和VIT架构,无论是在监督模式下训练,还是使用CLIP方法进行训练,并在各种属性上进行了比较。
超越ImageNet准确性
计算机视觉模型格局,变得越来越多样复杂。
从早期的ConvNets到Vision Transformers的演进,可用模型的种类在不断扩展。
类似地,训练范式已经从ImageNet上的监督训练,发展到自监督学习、像CLIP这样的图像文本对训练。
在标志着进步的同时,这种选择的爆炸式增长给从业者带来了重大挑战:如何选择适合自己的目标模型?
一直以来,ImageNet准确率一直是评估模型性能的主要指标。自从引发深度学习革命以来,它已经推动了人工智能领域显著的进步。
不过,它却无法衡量因不同架构、训练范式和数据而产生的细微差别的模型。
如果仅根据ImageNet的准确度来判断,具有不同属性的模型可能看起来很相似(图1)。随着模型开始过度拟合ImageNet的特性,精度达到饱和,这种局限性就会变得更加明显。
为了弥补差距,研究人员对ImageNet准确性之外的模型行为进行了深入探索。
为了研究架构和训练目标对模型性能的影响,具体比较了Vision Transformer (ViT)和ConvNeXt。这两种现代架构的ImageNet-1K验证精度和计算要求相当。
此外,研究对比了以DeiT3-Base/16和ConvNeXt-Base为代表的监督模型,以及OpenCLIP基于CLIP模型的视觉编码器。
结果分析
研究人员的分析旨在,研究无需进一步训练或微调即可评估的模型行为。
这种方法对于计算资源有限的从业人员尤为重要,因为他们通常依赖于预训练模型。
具体分析中,虽然作者认识到对象检测等下游任务的价值,但重点是那些能以最小的计算需求提供洞察力的特性,以及反映对真实世界应用非常重要的行为的特性。
模型错误
ImageNet-X是一个对ImageNet-1K进行了扩展的数据集,其中包含16个变化因素的详细人工标注,从而能够深入分析图像分类中的模型错误。
它采用错误率(越低越好)来量化模型在特定因素上,相对于整体准确性的表现,从而对模型错误进行细致入微的分析。ImageNet-X 的结果表明:
1. 相对于其ImageNet准确性,CLIP模型比受监督的模型犯的错误更少。
2. 所有模型都主要受到遮挡等复杂因素的影响。
3. 纹理是所有模型中最具挑战性的因素。
形状/纹理偏差
形状/纹理偏差会检验模型,是否依赖于纹理快捷方式,而不是高级形状提示。
这种偏向可以通过结合不同类别的形状和纹理的提示冲突图像来研究。
这种方法有助于了解与纹理相比,模型的决策在多大程度上是基于形状的。
研究人员对提示冲突数据集上的形状-纹理偏差进行了评估,发现CLIP模型的纹理偏差小于监督模型,而ViT模型的形状偏差高于ConvNets。
模型校准
校准可量化模型的预测置信度与其实际准确度是否一致。
这可以通过预期校准误差 (ECE) 等指标,以及可靠性图和置信度直方图等可视化工具进行评估。
研究人员在ImageNet-1K和ImageNet-R上对校准进行了评估,将预测分为15个等级。在实验中,观察到以下几点:
- CLIP模型置信度高,而监督模型则略显不足。
- 有监督的ConvNeXt比有监督的ViT校准得更好。
健壮性和可移植性
模型的健壮性和可移植性,是适应数据分布变化和新任务的关键。
研究人员使用不同的ImageNet变体评估了稳健性,发现虽然ViT和ConvNeXt模型具有类似的平均性能,但除了ImageNet-R和ImageNet-Sketch之外,监督模型在稳健性方面通常优于CLIP。
在可移植性方面,使用VTAB基准测试对19个数据集进行评估,监督ConvNeXt优于ViT,几乎与CLIP模型的性能相当。
合成数据
像PUG-ImageNet这样的合成数据集,可以精确控制相机角度和纹理等因素,成为一种很有前途的研究途径,因此研究人员根据合成数据分析模型的性能。
PUG-ImageNet包含逼真的ImageNet图像,这些图像具有照明等因素的系统变化,性能以绝对最高准确率来衡量。
研究人员提供了PUG-ImageNet中不同因素的结果,发现ConvNeXt在几乎所有因素上都优于ViT。
这表明ConvNeXt在合成数据上优于ViT,而CLIP模型的差距较小,因为CLIP模型的准确率低于监督模型,这可能与原始ImageNet的准确率较低有关。
特征不变性
特征不变性是指模型能够产生一致的表征,不受输入转换的影响,从而保留语义,如缩放或移动。
这一特性使模型能够在不同但语义相似的输入中很好地泛化。
研究人员的方法包括,调整图像大小以实现比例不变性,移动裁剪以实现位置不变性,以及使用内插位置嵌入调整ViT模型的分辨率。
在有监督的训练中,ConvNeXt的表现优于ViT。
总体而言,模型对尺度/分辨率变换的鲁棒性高于对移动的鲁棒性。对于需要对缩放、位移和分辨率具有较高鲁棒性的应用,研究结果表明有监督的ConvNeXt可能是最佳选择。
研究人员发现,每种模型都有自己独特的优势。
这表明模型的选择应该取决于目标用例,因为标准的性能指标可能会忽略关键任务特定的细微差别。
此外,许多现有的基准是从ImageNet派生出来的,这对评估有偏见。开发具有不同数据分布的新基准,对于在更具现实代表性的背景下评估模型至关重要。
ConvNet vs Transformer
- 在许多基准测试中,有监督的ConvNeXt比有监督的VIT具有更好的性能:它更好地校准,对数据转换不变,表现出更好的可转移性和健壮性。
- 在合成数据上,ConvNeXt的表现优于ViT。
- ViT有较高的形状偏向。
Supervised vs CLIP
- 尽管CLIP模型在可转移性方面更好,但监督的ConvNeXt在这项任务上表现出了竞争力。这展示了有监督的模型的潜力。
- 监督模型更擅长稳健性基准,这可能是因为这些模型是ImageNet的变体。
- CLIP模型具有较高的形状偏差,与其ImageNet精度相比,分类错误较少。
一夜之间,“电视家”等众多电视直播软件停摆,发生了什么?
昨天,电视家突然发布公告称,其服务遇到问题。若用户在会员期内,用户的付款将足额退还。昨天晚上,三言测试发现,使用电视家看电视,仍有几个央视频道可以观看,但很多电影不能看了,显示“网络原因播放失败”。此外,安卓应用市场显示,电视家“涉嫌资质造假,暂不提供下载”。电视家的官网已无法打开,“电视家跑路”登上了微博热搜。电视家助手表示会妥善解决所有退款需求,绝对不跑路。站长网2023-11-22 14:00:460000Clipchamp AI旁白生成器 免费为视频添加专业的画外音
ClipchampAI文字转语音生成器是一款免费在线工具,通过人工智能技术,为视频添加专业的画外音。用户可以选择400多个逼真的声音,涵盖不同年龄、口音、性别和中性音调,以满足各种品牌和需求的要求。支持170多种语言,包括西班牙语、意大利语、日语、韩语、希腊语、印地语、阿拉伯语、德语和法语等。站长网2023-12-05 14:00:260005英伟达市值赶上苹果 仅差1000亿美元
5月28日,纳斯达克指数再次刷新历史纪录,上涨0.59%,成为当日市场的亮点。引领这一上涨潮流的,是科技行业的巨头英伟达。这家知名半导体公司的股价大幅上涨,市值一夜之间暴增了1.35万亿元人民币,达到惊人的2.81万亿美元。这一市值增长不仅让英伟达逼近了科技行业的领头羊苹果,更让外界对其CEO黄仁勋的财富增长充满了期待。站长网2024-05-29 19:25:170000科学家推新工具Glaze 保护艺术家作品风格被AI系统模仿
本文概要:1.芝加哥大学的科学家声称发明了一种可以保护艺术家作品不被用于训练人工智能系统的工具。2.这种工具通过向数字艺术作品添加一个看不见的层,使其对于人类来说看起来一样,但对于人工智能来说却完全不同。3.许多艺术家感到无助,这种工具为他们提供了一种抵抗的方式。芝加哥大学的科学家声称开发了一种名为Glaze的新工具,旨在保护艺术家的作品不被用于训练人工智能系统。站长网2023-08-19 13:07:150000到2031年,全球生成式人工智能市场预计将达1360亿美元
**划重点:**1.🚀生成式人工智能市场份额预计在未来几年内迅速扩大,预计到2031年将达到1360亿美元,以33.2%的复合年增长率增长。2.🌎北美是最大的市场,其次是欧洲和亚太地区。在北美,生成式人工智能在医疗保健、媒体和娱乐行业的部署不断推动市场发展。站长网2023-11-30 14:33:550000