微软开源创新框架:可将DeepSeek,变成AI Agent
微软在官网发布了视觉Agent解析框架OmniParser最新版本V2.0,可将DeepSeek-R1、GPT-4o、Qwen-2.5VL等模型,变成可在计算机使用的AI Agent。
与V1版本相比,V2在检测较小的可交互UI元素时准确率更高、推理速度更快,延迟降低了60%。在高分辨率Agent基准测试ScreenSpot Pro中,V2 GPT-4o的准确率达到了惊人的39.6%,而GPT-4o原始准确率只有0.8%,整体提升非常大。
除了V2,微软还开源了omnitool,这是一个基于Docker的 Windows 系统,涵盖屏幕理解、定位、动作规划和执行等功能,也是将大模型变成Agent的关键工具。
开源地址:https://huggingface.co/microsoft/OmniParser-v2.0
Github:https://github.com/microsoft/OmniParser/
https://github.com/microsoft/OmniParser/tree/master/omnitool
OmniParser V2简单介绍
目前,将大模型变成Agent的关键难点在于,需要能够可靠地识别用户界面中的可交互图标,同时必须理解截图中各种元素的语义,并准确将预期动作与屏幕上的对应区域关联起来。
而V2通过将用户界面从像素空间“标记化”解析为结构化元素,使得大模型能够理解和操作这些元素。这有点类似于自然语言处理中的分词操作,但针对的是视觉信息。通过这种方式,大模型可以在解析后的可交互元素集合上进行基于检索的下一步动作预测。
例如,当一个大模型需要完成一个复杂的网页操作任务时, V2可以帮助它识别网页中的按钮、输入框等元素,并理解这些元素的功能如登录按钮、搜索框等。
大模型就可以更准确地预测下一步需要执行的动作,比如点击登录按钮,或在搜索框中输入关键词。
简单来说,你可以把V2看成是大模型的“眼睛”,可以让其更好地理解和操作复杂的用户界面。
OmniTool是一个集成化工具,支持开箱即用,可以将DeepSeek-R1、GPT-4o、Qwen-2.5VL等模型变成Agent,一共由V2、OmniBox和Gradio三大块组成。
V2上面已经介绍过了,OmniBox则是一个基于 Docker 的轻量级Windows11虚拟机。与传统的Windows虚拟机相比,OmniBox占用的磁盘空间减少了50%,同时提供了相同的计算机使用 API。
用户可以在更小的资源消耗下,快速搭建和运行 GUI 自动化任务的测试环境。这对于硬件资源有限的开发者来说非常方便。
Gradio UI提供了一个交互界面,可以帮助开发者轻松地与V2和大模型进行交互,快速测试和验证自动化任务的效果。
Gradio UI的使用非常简单,只需要在本地机器上启动OmniBox和 Gradio服务器,然后通过浏览器访问Gradio UI提供的界面即可。
OmniParser核心架构
OmniParser的核心思想是将用户界面的视觉信息,转化为易于理解和操作的结构化数据。不过这个过程比较复杂,需要多个模块协作才能完成。
首先,OmniParser需要从用户界面截图中识别出所有可交互的元素,例如,按钮、图标和输入框等。这些元素是用户与界面交互的基础,因此准确地检测它们是至关重要的第一步。
接下来,OmniParser不仅要识别这些元素的位置,还要理解它们的功能和语义。例如,一个带有三个点的图标可能表示“更多选项”,而一个放大镜图标则可能代表“搜索”。这种对功能的深入理解,才能使得大模型能够更准确地预测用户可能需要执行的操作。
为了实现这些目标,OmniParser采用了多阶段的解析流程。在第一阶段,可交互区域检测模块利用深度学习技术,从用户界面截图中识别出所有可能的交互点。这一模块的训练数据集,包含了来自流行网页的67,000张独特截图,每张截图都标注了从DOM树中提取的可交互区域的边界框。
通过使用模型对这些数据进行训练,OmniParser能够以极高的准确率识别出屏幕上的可交互元素,并为每个元素分配一个唯一的标识符。
但仅仅识别出可交互元素的位置是不够的。在复杂的用户界面中,一个按钮的形状和颜色可能与其他按钮相似,其功能却截然不同。所以,OmniParser内置了功能语义模块。
该模块的目标是为每个检测到的图标生成一个描述其功能的文本。微软开发了一个包含7,185个图标描述对的数据集,并使用BLIP-v2模型对其进行微调,能够更准确地描述常见应用图标的语义信息。
例如,它不再仅仅描述一个图标为“带有三个点的圆形图标”,而是能够理解并生成“用于访问更多选项的图标”这样的描述。
OmniParser的第三个重要模块是结构化表示与动作生成模块。这一模块将前两个模块的输出整合在一起,形成一个结构化的、类似DOM的UI表示。不仅包含了叠加了边界框和唯一ID的截图,还包含了每个图标的语义描述。
这可以帮助DeepSeek-R1、GPT-4o、Qwen-2.5VL等模型更轻松地理解屏幕内容,并专注于动作预测。例如,当任务是“点击设置按钮”时,OmniParser不仅提供了设置按钮的边界框和ID,还提供了其功能描述,颗显著提高了模型的准确性和鲁棒性。
本文素材来源微软官网,如有侵权请联系删除
阿里巴巴推出通义千问2.5 号称性能超越GPT-4 Turbo
在人工智能领域,阿里巴巴再次取得重大进展,于5月9日正式发布了通义千问2.5版本。该版本在模型性能上全面超越了GPT-4Turbo,标志着阿里巴巴在AI技术发展上的又一重要里程碑。通义千问2.5的主要提升包括:理解能力提升9%:在文本理解方面,相较2.1版本有了显著增强。逻辑推理能力提升16%:在处理复杂逻辑问题时表现更加出色。指令遵循能力提升19%:更好地理解和执行用户的指令。站长网2024-05-09 19:41:510000Vectara排行榜:OpenAI的GPT-4在文档摘要中幻觉率最低
**划重点:**1.📊Vectara的排行榜显示,OpenAI的GPT-4在文档摘要中具有最低的幻觉率,准确率为97%。2.🚀GPT-4和GPT-4Turbo表现最佳,GPT-3.5Turbo排名第二,MetaLlama为最高得分的非OpenAI模型,而GooglePalm排名最后。站长网2023-11-22 10:44:140000AI搜索引擎Perplexity.ai估值达10亿美元并发布新的企业产品
划重点:⭐️Perplexity.ai近期完成一轮融资,估值达数十亿美元,引领AI搜索引擎领域⭐️推出企业服务“EnterprisePro”,旨在提高工作场所搜索的准确性和效率⭐️部分功能包括增强数据隐私、改善安全性、用户管理、SOC2认证、数据存储和单一登录(SSO)站长网2024-04-26 22:26:050000CNET的发行商因AI丑闻而难以出售
划重点:🔸CNET的所有者RedVentures想出售这家技术网站,但因AI丑闻而难以出售。🔸2023年1月,CNET在AI生成文章时没有充分披露,丑闻曝光后导致道歉和更正。🔸AI技术的使用给CNET的声誉带来了负面影响,导致网站出售困难。站长网2024-01-18 11:36:100000字节跳动旗下大模型产品 “ChitChop” 在海外上线
据Tech星球报道,字节跳动旗下的大模型产品“ChitChop”已经在海外上线,该产品由POLIGON开发和运营。ChitChop是一款人工智能助理工具,提供多达200的智能机器人服务,旨在提供创造性灵感和提高工作效率。ChitChop提供了6大使用场景,包括创作、工作、AI画画、娱乐、AI学习和生活。站长网2023-11-29 15:38:540000