大模型理解复杂表格,字节&中科大出手了
只要一个大模型,就能解决打工人遇到的表格难题!
字节联手中科大推出了一款统一表格理解大模型,可以以用户友好的方式解决多种表格理解任务。
同时提出的还有一套开源测试基准,可以更好地评估模型在表格理解任务上的表现。
该模型名为TabPedia,利用多模态大模型,将不同处理表格任务的专有模型进行了整合。
在这之前,不同的任务都有独立的模型和解决方案,单是找到适合的模型就是已经很让人头疼。
而TabPedia通过概念协同(Concept Synergy)机制来实现多个任务、多种源信息的整合协作,打工人再也不用为找模型而烦恼了。
那么,这款新模型都能实现怎样的效果呢?
无需裁剪识别多表格结构
首先来看,在测试数据集上,TabPedia可以在不借助后处理算法的条件下,精准识别表格位置并直接生成无重叠的检测框。
在判断出表格位置的基础之上,对于表格结构识别任务,TabPedia可以继续生成一系列连续的表格结构元素以及相应的检测框。
不仅判断准确,还有效地解决了标记语言(HTML或者Markdown)处理空间坐标的不足和非法语法潜在造成解析错误的弊端。
而且不再需要将表格从图片中手动裁剪,研究者们借助大模型的理解能力,让模型可以直接在原始文档图像中实现多表格实例的表格结构识别。
值得一提的是,此类任务是由TabPedia团队的作者首次提出的。
当然,只识别表格的位置和结构是远远不够的,而对于表格问答任务,TabPedia不仅可以给出正确的答案,同时还能基于表格的内容给出相应的理由。
实战方面,面对多种不同的开放场景,TabPedia同样表现优异。
比如在论文中的表格检测任务当中,TabPedia可以准确地检测出图像中的所有表格实例。
对于表格结构识别能力,研究者们随机选取了不同论文中的表格图像,对于包含密集文本信息的表格结构,依然预测出准确的结构信息。
而在问答任务上,TabPedia仍然可以像在数据集测试中一样,根据表格内容和表格结构信息,做出合理且正确的回答。
此外,为了更好地评估各种模型在现实世界表格图像上的TQA性能,作者还构建了一个复杂的TQA数据集(ComTQA)。
与现有的基准WTQ和TabFact相比,ComTQA具有更具挑战性的问题,例如多个答案、数学计算和逻辑推理。
通过专家标注,作者们从大约1.5k张图像中注释了约9k个高质量的表格问答对。该数据集的标注目前已经在Huggingface开源。
那么,TabPedia具体是如何实现的呢?
高低分辨率分别训练
如下图所示,TabPedia包含两个视觉编码器以及各自的映射层,一个分词器以及大语言模型。
在预训练阶段,TabPedia主要学习如何对齐视觉表征和语言模型的输入空间;在微调阶段,TabPedia进一步专注于视觉表格理解。
其中,高分辨率视觉编码器用于2560x1920的高分辨文档图像,可以提供丰富的细粒度视觉信息;
低分辨率视觉编码器为了保持整图的结构信息,编码224x224的低分辨图像。
为了更好地让语言模型理解视觉信息,该工作沿袭了主流多模态大模型的对齐策略,设计了两个简单的映射层。
对于高分辨率支路的映射层,TabPedia采用2D的卷积层来聚合近邻的视觉特征,同时有效地缓解视觉token数量冗余的现状。
给定大量的视觉tokens以及文本指令的嵌入特征,TabPedia采用Vicuna-7B作为语言模型生成回答。
考虑到表格感知和理解任务之间的差异,TabPedia引入了Meditative Tokens M 来实现概念协同机制,它可以自适应地激活不同区域的视觉tokens,并理解特定任务问题的意图。
整体的输入序列为 X = [Q;; V_l ;; V_h,; M],其中,和都是可学习的特殊token,分别代表视觉tokens的开始、结束,以及区分不同分辨率的视觉tokens。
由于TabPedia和其它LLMs一样执行next token预测,因此仅需要简单的交叉熵损失函数作为目标函数来优化整个框架。
通过预训练,TabPedia能够很好地理解各种文档图像的文本和结构,但无法根据指示执行不同的表格理解任务。
为了增强模型的指令跟随能力,该工作首先构建了一个用于视觉表格理解的大规模数据集。
基于该数据集,研究者引入了四个与表格相关的任务,即表格检测,表格结构识别,表格查询以及表格问答,来同步执行感知和理解任务。
在该阶段,LLM也参与训练微调,进一步增强大模型的指令跟随和视觉信息抓取的能力。
开源数据集与合成数据共同训练
数据方面,TabPedia的全部数据来源于五个公开的表格数据集,包括PubTab1M、FinTabNet、 PubTabNet、WikiTableQuestions(WTQ)和TabFact,具体的数据使用情况如下图所示:
同时,对于不同任务的指令设计,作者也给出了对应的示例以便模型更好地理解。
其中最值得注意的是,表格检测和表格结构识别的任务摆脱了之前繁琐的后处理的弊端,TabPedia直接可以预测无重叠的检测框,高效率地输出用户需要的答案。
除此之外,研究者们进一步借助大模型的理解能力,克服之前工作需要将表格从原文档中裁剪出来做结构识别的流程,直接在原文档图像中实现多表格实例的表格结构识别。
该任务为利用大语言模型实现更复杂的表格理解奠定了强有力的基础。
对于表格问答任务,现有的数据绝大多数是基于文本的表格中生成的,仅在背景颜色和字体大小存在变化,导致在现实世界的表格中泛化能力较差。此外,TQA数据的量级远远落后于其他任务。
为了克服这些障碍,研究者们利用开源多模态大模型,基于FinTabNet和PubTab1M中部分图像数据生成了大量的TQA数据。
另外作者表示,尽管TabPedia已经在视觉表格理解展现出强大的能力,仍然有很多未解决的挑战激发研究者更深入的探索:
对于扭曲表格无法准确的理解和识别。该能力不足一方面源于训练数据的不足,另一方面是对于表格结构的表示采用了规则的矩形框。
目前的表格问答仍需要table-centic图像,如何将其迁移到在原始文档图像直接问答也是一项挑战性的工作。
增加表格单元格内容识别可以提升模型对于表格内容的理解以及细粒度信息的抓取能力。
总体来说,视觉表格理解任务依然有很多技术难点等待攻克。TabPedia初步探究了多模态大模型的表格理解能力,作者希望能对大家的研究有所帮助。
论文地址:
https://arxiv.org/abs/2406.01326
ComTQA数据集:
https://huggingface.co/datasets/ByteDance/ComTQA
从居家到工作,CES 2024上演 AI硬件大秀
新年伊始,科技圈迎来了首场世界级盛会。1月9日到12日,国际消费类电子产品展览会(CES)在美国拉斯维加斯举办。从1967年举办至今,CES被视作整个消费电子领域的风向标,云集了当前最优秀的消费类电子厂商和IT核心厂商。今年的CES也是众星云集,参展的企业超过4000家,包括英伟达、英特尔、AMD、三星、索尼等,中国企业如TCL、海信、极米、科沃斯、Anker等也纷纷奔赴这场盛宴。站长网2024-01-15 17:04:180000中科院和汪军团队发布 大模型玩星际争霸秀到起飞
要点:1、中国科学院自动化研究所与伦敦大学学院合作,将最近兴起的LLMAgent技术应用于星际争霸II的AI研究。2、团队通过LLM理解与分析能力来提高星际AI的长期战略规划与可解释性决策。3、在测试中,LLMagent涌现出了超越AlphaStar的危险预测和兵种转型能力,以及前期快攻、前期侦察等类人策略。站长网2023-12-29 10:47:230007宝马工厂“机器狗”SpOTTO 上岗 可“嗅探”过热故障和压缩空气泄漏
站长之家(ChinaZ.com)5月28日消息:最近,宝马在英国哈姆斯霍尔工厂引入了一种名为SpOTTO的机器人,其职责是帮助发动机生产线顺利运转。自从70多年前雷·布拉德伯里在其经典作品《华氏451度》中描述了那只令人毛骨悚然的机械猎犬后,这个可怕的概念如今似乎正在现实世界中成为现实。站长网2024-05-28 17:28:190000一公司在搜索引擎中设置他人商标为关键词 被判构成侵权
据人民法院报报道,近日,重庆市渝中区人民法院审结一起侵害商标权及不正当竞争纠纷案,重庆一家教育公司因在搜索引擎推广中设置他人商标作为关键词,被判决立即停止侵权、消除影响并赔偿经济损失及合理费用共计2万元。重庆市知某方教育信息咨询服务有限公司(以下简称知某方公司)、重庆莘某教育科技有限公司(以下简称莘某公司)系“莘某教育”商标的所有权人。在重庆地区教育培训类行业具有一定的知名度和影响力。站长网2023-06-07 20:02:430000英伟达发布Nemotron-4 15B: 8 万亿训练数据,性能超LLaMA-2
**划重点:**1.🌐Nemotron-415B拥有150亿参数,基于8万亿文本标注数据预训练,在多领域测试中超越同类大小的开源模型,尤其在代码语言准确率上表现出色。2.🧠采用标准Transformer架构,结合自注意力、全局注意力和多头注意力等机制,以及旋转位置编码技术,提升模型表达和泛化能力。站长网2024-03-07 14:50:250000