图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东
能不能有一种通用的图模型——
它既能够根据分子结构预测毒性,又能够给出社交网络的朋友推荐?
或者既能预测不同作者的论文引用,还可以发现基因网络中的人类衰老机制?
你还真别说,被ICLR2024接收为Spotlight的“One for All(OFA)”框架就实现了这个“精髓”。
它由圣路易斯华盛顿大学陈一昕教授团队、北京大学张牧涵以及京东研究院陶大程等研究者们联合提出。
作为图领域首个通用框架,OFA实现了训练单一GNN模型即可解决图领域内任意数据集、任意任务类型、任意场景的分类任务。
具体如何实现,以下为作者投稿。
图领域通用模型设计面临三大难
设计一个通用的基础模型来解决多种任务是人工智能领域的一个长期目标。近年来,基础大语言模型(LLMs)在处理自然语言任务方面表现出色。
然而,在图领域,虽然图神经网络(GNNs)在不同的图数据中都有着不俗的表现,但如何设计与训练一个能同时处理多种图任务的基础图模型依然前路茫茫。
与自然语言领域相比,图领域的通用模型设计面临着许多独有的困难。
首先,区别于自然语言,不同的图数据有着截然不同的属性与分布。
比如分子图描述了多个原子如何通过不同的作用力关系形成不同的化学物质。而引用关系图则描述了文章与文章之间相互引用的关系网。
这些不同的图数据很难被统一在一个训练框架下。
其次,不同于LLMs中所有任务都可以被转化成统一的下文生成任务,图任务包含了多种子任务,比如节点任务,链路任务,全图任务等。
不同的子任务通常需要不同的任务表示形式与不同的图模型。
最后,大语言模型的成功离不开通过提示范式而实现的上下文学习(in-context learning)。
在大语言模型中,提示范式通常为对于下游任务的可读文字描述。
但是对于非结构化且难以用语言描述的图数据,如何设计有效的图提示范式来实现in-context learning依然是个未解之谜。
用“文本图”概念等来解决
下图给出了OFA的整体框架:
具体而言,OFA的团队通过巧妙的设计来解决上述所提到的三个主要问题。
对于不同图数据属性与分布不同的问题,OFA通过提出文本图(Text-Attributed Graph, TAGs)的概念来统一所有图数据。利用文本图,OFA将所有的图数据中的节点信息与边信息用统一的自然语言框架来描述,具体如下图所示:
接着,OFA通过单一LLM模型对所有数据中的文本进行表示学习得到其嵌入向量。
这些嵌入向量将作为图模型的输入特征。这样,来自不同领域的图数据将被映射到相同的特征空间,使得训练一个统一的GNN模型可行。
OFA收集了9个来自不同领域,不同规模的图数据集,包括引用关系图,Web链接图,知识图谱,分子图, 如下图所示:
此外,OFA提出Nodes-of-Interest(NOI)子图与NOI提示节点(NOI Prompt Node)来统一图领域内不同的子任务类型。这里NOI代表参与到相应任务的一组目标节点。
比如,在节点预测任务中,NOI是指需要预测的单个节点;而在链路任务中,NOI包括需要预测链路的两个节点。NOI子图是指围绕着这些NOI节点扩展出的一个包含h-hop邻域的子图。
然后,NOI提示节点为一个新引入的节点类型,直接连接到所有的NOI上。
重要的是,每个NOI提示节点包含了当前任务的描述信息,这些信息以自然语言的形式存在,并和文本图被同一个LLM所表示。
由于NOI中节点所包含的信息在经过GNNs的消息传递后将被NOI提示节点所收集,GNN模型仅需通过NOI提示节点来进行预测。
这样,所有不同的任务类型将拥有统一的任务表示。具体实例如下图所示:
最后,为了实现图领域的in-context learning,OFA引入统一的提示子图。
在一个有监督的k-way分类任务场景下,这个提示子图包含了两类节点:一类是上文提到的NOI提示节点,另一类是代表k个不同类别的类别节点(Class Node)。
每个类别节点的文本将描述此类别的相关信息。
NOI提示节点将会单向连接到所有类别节点上。通过这个方式构建好的图将被输入进图神经网路模型进行消息传递与学习。
最终,OFA将对每个类别节点分别进行二分类任务,并取概率最高的类别节点作为最终的预测结果。
由于类别信息存在于提示子图中,即使遇到全新的分类问题,OFA通过构建相应的提示子图即可直接进行预测而无需任何微调,从而实现了零样本学习。
对于少样本学习场景,一个分类任务将包含一个query输入图和多个support输入图,OFA的提示图范式会将每个support输入图的NOI提示节点与其所对应的类别节点相连,同时将query输入图的NOI提示节点与所有类别节点相连。
后续的预测步骤与上文所述一致。这样每个类别节点将会额外得到support输入图的信息,从而在统一的范式下实现少样本学习。
OFA的主要贡献总结如下:
统一的图数据分布:通过提出文本图并用LLM转化文本信息,OFA实现了图数据的分布对齐与统一。
统一的图任务形式:通过NOI子图与NOI提示节点,OFA实现了多种图领域子任务的统一表示。
统一的图提示范式:通过提出新颖的图提示范式,OFA实现了图领域内的多场景in-context learning。
超强泛化能力
文章在所收集的9个数据集上对OFA框架进行了测试,这些测试覆盖了在有监督学习场景下的十种不同任务,包括节点预测、链路预测和图分类。
实验的目的是验证单一的OFA模型处理多任务的能力,其中作者对比使用不同LLM(OFA-{LLM})和每个任务训练单独模型(OFA-ind-{LLM})的效果。
比较结果如下表所示:
可以看到,基于OFA强大的泛化能力,一个单独的图模型(OFA-st,OFA-e5,OFA-llama2-7b,OFA-llama2-13b)即能够在所有的任务上都具有与传统的单独训练模型(GCN, GAT, OFA-ind-st)相近或更好的表现。
同时,使用更强大的LLM可以带来一定的性能提升。文章进一步绘制了训练完成的OFA模型对于不同任务的NOI提示节点的表示。
可以看到不同的任务被模型嵌入到不同的子空间,从而使得OFA可以对于不同的任务进行分别的学习而不会相互影响。
在少样本以及零样本的场景下,OFA在ogbn-arxiv(引用关系图),FB15K237(知识图谱)以及Chemble(分子图)上使用单一模型进行预训练,并测试其在不同下游任务及数据集上的表现。结果如下:
可以看到,即使在零样本场景下,OFA依旧可以取得不错的效果。综合来看,实验结果很好的验证了OFA强大的通用性能以及其作为图领域基础模型的潜力。
更多研究细节,可参考原论文。
地址:
https://arxiv.org/abs/2310.00149
https://github.com/LechengKong/OneForAll
—完—
谷歌让大模型更具“心智”,GPT-4任务准确率大增
谷歌联合多所高校的一项最新研究,让大模型开始拥有了人类的“心智”。在新的提示策略下,大模型不仅能推测出人类所面临的问题,还学会了用推测的结论调整自己的行为。有了这一成果,GPT-4的“心智”水平已经提高到了人类的71%。具体来说,研究人员发现,现在的大模型,已经具备了在对话中推测人类“在想啥”的能力。但如果你要它根据这种推理给出行动建议,那可就难倒大模型了。站长网2023-10-15 15:19:200000稚晖君刚拿了百度投资,估值被曝已超独角兽
“华为天才少年”稚晖君创业项目,刚被百度投了!量子位获悉,稚晖君创业项目智元机器人,日前完成了第三轮融资,市场估值被曝在十几亿美元左右。天眼查App显示,本轮新增股东包括李彦宏旗下三亚百川致新私募股权投资基金合伙企业(有限合伙),以及经纬、高榕等一线VC,注册资本增至约4847.02万元。智元机器人关联公司名为上海智元新创技术有限公司,成立于2023年2月,法定代表人为舒远春。站长网2023-05-30 14:05:040001资本市场再遇东方甄选,交个朋友二度借壳终上市
交个朋友终于实现曲线上市。5月10日晚,上市公司世纪睿科发布公告,宣布拟改名为「交个朋友控股有限公司」,英文名也将相应改为“BeFriendsHoldingLimited”,同时表示已完成对交个朋友公司的全资收购,世纪睿科拥有“交个朋友”的核心IP和相关的全部账号。“交个朋友直播间”官方微博通过转发的形式,对该消息予以确认。图源:世纪睿科公告站长网2023-05-18 14:06:450001人像绝了!张颂文晒小米14 Pro自拍照:直言国产手机质感很好
快科技1月13日消息,小米代言人、知名演员张颂文日前晒出了小米14Pro钛金属版的自拍照。他在微博表示:北京雁栖湖国际会议中心,用我的手机拍的。”画面中,张颂文人像清晰立体,背景虚化柔和。有网友表示手机效果很好,张颂文回应道:现在国产手机确实质感很好。”据了解,今年4月,小米宣布张颂文担任小米影像探索家,此后,他经常在社交平台分享他同各种小米手机拍摄的照片。0000高考作文人工智能上热搜:AI时代 人们的问题是否会越来越少?
站长之家(ChinaZ.com)6月7日消息:随着2024年高考语文科目的落幕,考生们的心头重担暂时放下,而网络上对于今年高考作文题目的热议却如潮水般汹涌。今年,高考作文题目依旧牵动着亿万网友的心,各地试题纷纷亮相,其中,新课标I卷的作文题尤为引人注目,它首次将人工智能作为核心议题。题目如下:阅读下面的材料,根据要求写作。(60分)站长网2024-06-08 05:41:260000