Adobe研究人员研发新AI模型LRM:实现从2D样本瞬时生成3D图像
**划重点:**
1. 💡 Adobe Research和澳大利亚国立大学(ANU)联合宣布,他们研发出首个能够从单一2D图像生成3D图像的人工智能模型。
2. 💻 新算法基于大规模图像样本训练,能够在几秒钟内生成高质量的3D图像,该算法采用了名为LRM(Large Reconstruction Model)的高度可扩展神经网络,包含一百万数据集和五亿参数。
3. 🚀 LRM的成功在于其能够利用数百万图像参数的数据库,并预测神经辐射场(NeRF),从而仅基于2D图像生成逼真的3D图像,即使这些图像是低分辨率的。
由Adobe Research和澳大利亚国立大学(ANU)联合研发的人工智能模型宣布了一项突破性的成果,能够从单一的2D图像中生成3D图像。
研究人员表示,他们的新算法在大规模图像样本上进行训练,可以在几秒钟内生成这样的3D图像。该算法采用了名为LRM(Large Reconstruction Model)的高度可扩展神经网络,包含一百万数据集和五亿参数,涵盖图像、3D形状和视频等多种数据。
该项目的领导作者、澳大利亚国立大学工程、计算和控制学院的毕业生、Adobe实习生Yicong Hong表示:“这种高容量模型和大规模训练数据的结合使得我们的模型具有很强的泛化能力,能够从各种测试输入中产生高质量的3D重建。”
据Hong介绍,早期的3D成像软件只在特定主题类别中表现良好,后来的图像生成进展是通过程序如DALL-E和Stable Diffusion实现的,它们利用了2D扩散模型的卓越泛化能力以实现多视图。然而,这些程序的结果仅限于预训练的2D生成模型。
其他系统利用每形状优化来取得令人印象深刻的结果,但根据Hong的说法,它们“通常缓慢且不切实际”。他指出,利用大规模数据的巨大变压器网络内的自然语言模型的发展激发了他的团队提出一个问题:“是否可能学习从单一图像重建对象的通用3D先验?”他们的答案是“是”。
“LRM可以从现实世界中捕获的各种图像以及由生成模型创建的图像中重建高保真度的3D形状。” Hong说道,“LRM也是下游应用的高度实用解决方案,因为它可以在仅五秒钟内生成一个3D形状,无需后期优化。”
该程序的成功在于其能够利用数百万图像参数的数据库,并预测神经辐射场(NeRF)。这意味着它能够仅基于2D图像生成逼真的3D图像,即使这些图像是低分辨率的。与之前的3D软件相比,该模型的突破性在于其快速、高效地生成高质量的3D图像,为增强现实、虚拟现实系统、游戏、影视动画和工业设计等领域带来了转变。
总的来说,LRM(Large Reconstruction Model)是一种用于从单张图像生成高保真度3D物体模型的模型。LRM通过采用大规模数据和高容量模型的组合,实现了从单张图像到3D模型的快速而准确的重建。以下是LRM的主要功能特色:
1. 快速生成:LRM能够在短短5秒内,从单张输入图像中生成高保真度的3D物体模型。
2. 大规模训练:与许多先前的方法不同,LRM采用了高度可扩展的基于transformer的架构,具有5亿个可学习参数,用于直接预测神经辐射场(NeRF)。
3. 数据多样性:模型以端到端的方式在包含大约100万个对象的大规模多视图数据上进行训练,包括Objaverse的合成渲染和MVImgNet的实际捕捉数据。
4.高通用性: 由于高容量模型和大规模训练数据的结合,LRM具有很强的通用性,能够从各种测试输入中生成高质量的3D重建,包括真实世界中的野外捕捉和生成模型的图像。
5. Transformer-Based架构:LRM采用了完全可微分的transformer-based编码器-解码器框架,通过预训练的视觉模型(DINO)对输入图像进行编码,使用大型transformer解码器通过交叉注意力将图像特征投影到3D三平面表示,然后通过多层感知器预测体积渲染的点颜色和密度。
项目页面:https://yiconghong.me/LRM/
代码生成工具CodeGPT成开发者新宠 高效生成符合规范代码
划重点:🔹CodeGPT是一个使用GPT-3语言模型的代码生成工具,受到开发者的喜爱🔹CodeGPT能够理解自然语言,并根据描述生成代码,节省开发时间🔹CodeGPT通过训练大量真实项目的代码,能够生成高效和符合规范的代码站长网2023-11-09 17:26:100000低配版英伟达GPU国内炒至10万元!算力军备竞赛重启
作者丨张睿编辑丨康晓出品丨深网·腾讯新闻小满工作室“算力不能保证我们在通用人工智能技术上领先,算力是可以买来的,创新的能力是买不来的。”百度创始人李彦宏日前在一次内部分享中表示。但无可否认,算力是大模型发展的关键基础,全球各大科技公司对算力储备资源的争夺正愈演愈烈。站长网2023-05-24 17:41:310000参数小,性能强!开源多模态模型—TinyGPT-V
安徽工程大学、南洋理工大学和理海大学的研究人员开源了多模态大模型——TinyGPT-V。TinyGPT-V以微软开源的Phi-2作为基础大语言模型,同时使用了视觉模型EVA实现多模态能力。尽管TinyGPT-V只有28亿参数,但其性能可以媲美上百亿参数的模型。此外,TinyGPT-V训练只需要24GGPU就能完成,不需要A100、H100那些高端显卡来训练。0000阿里云Serverless应用引擎SAE2.0上线 函数计算集成大模型框架
阿里云宣布Serverless应用引擎SAE2.0正式公测上线。全面升级后的SAE2.0具备极简体验、标准开放、极致弹性三大优势,应用冷启动全面提效,秒级完成创建发布应用,应用成本下降40%以上。站长网2023-08-08 09:05:230000AI日报:谷歌发布全新Gemma 2 2B模型;字节推AI音乐产品海绵音乐;Runway推Gen-3 Alpha Turbo 版本;华为Pura 70系列上线AI扩图
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、谷歌发布全新Gemma22B模型,性能超越GPT-3.5-Turbo与Mixtral-8x7B站长网2024-08-01 15:05:080000