CRAFT:一种用于视觉功能亲和力定位的神经符号框架-计算机科学-机器学习-神经符号框架-可解释性.pdfVIP

CRAFT:一种用于视觉功能亲和力定位的神经符号框架-计算机科学-机器学习-神经符号框架-可解释性.pdf

  1. 1、本文档共10页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

ProceedingsofMachineLearningResearchvol284:1–10,202519thConferenceonNeurosymbolicLearningandReasoning

CRAFT:一种用于视觉功能亲和力定位的神经符号框架

ZhouChenzzc0053@auburn.edu

JoeLinjzl0277@auburn.edu

SathyanarayananN.Aakursan0028@auburn.edu

CSSEDepartment,AuburnUniversity,AL,USA

Editors:LeilaniH.Gilpin,EleonoraGiunchiglia,PascalHitzler,andEmilevanKrieken

Abstract

我们介绍了CRAFT,这是一个用于可解释性操作可能性定位的神经符号框架,它识别场景中能够实

本现给定动作(例如,“切割”)的对象。CRAFT将来自ConceptNet和语言模型的结构化常识先验与

来自CLIP的视觉证据结合起来,使用基于能量的推理循环来迭代地改进预测。这一过程产生透明、

译目标驱动的决策,以定位符号和感知结构。在多对象、无标签设置中的实验表明,CRAFT提高了准

中确性并增强了可解释性,朝着实现稳健且值得信赖的场景理解迈进了一步。

1

v

61.介绍

2

4自主代理不仅需要推理物体是什么,还需要推理它们能做什么——它们如何能够服务于用

4

1户的某个目标。例如,当被要求“给我一些可以用来切割的东西”时,机器人必须认识到刀、剪

.

7刀甚至破碎的玻璃都提供了“切割”的功能,无论它们属于哪个类别或标签。这种功能性视角

0

5反映了吉布森式的可及性(Gibson,2000,2014):环境提供的相对于代理能力的操作可能性。将

2这些可及性进行定位需要整合常识知识(例如,刀可以切割)、结构推理(例如,锋利度很重要)

:

v和视觉定位。纯粹基于学习的模型,如视觉语言模型(VLMs)(Radfordetal.,2021),在这种

i

x开放世界的设置中往往表现不佳,缺乏必要的符号框架来在模糊或未见的情境中进行泛化。

r

a先前的工作在功能定位上依赖监督标签或手工知识库,这限制了其在开放世界任务中的泛

化能力(Quetal.,2024;Sawatzkyetal.,2020)。随着视觉语言模型的兴起Radfordetal.(2021),

研究工作探索通过图像文本对齐进行零样本功能推理(Cuttanoetal.,2024)。然而,这些模型

缺乏结构化的推理,并且在模糊或杂乱的场景中遇到困难(Chenetal.,2024)。为了提高鲁棒

性,新方法使用大型语言模型通过提示提取功能属性(Tangetal.,2023)或者绕过对象标签,

通过动词进行定位(Nguyenetal.,2020)。其他人通过外部知识来源或感知动作API来增强解

释(Mavrogiannisetal.,2023)。尽管取得了进展,但在不同任务中将功能语义与视觉上下文对

齐仍然是一个具有挑战性的任务。

为了解决这些限制,我们提出了CRAFT(专注于功能可能性的组合推理),如图1所示。该

神经符号框架统一了符号先验与视觉证据,以在模糊、开放世界设置中确定功能性用途。给定

一个动词查询和一组未标记图像,CRAFT从外部知识来源(例如ConceptN

您可能关注的文档

文档评论(0)

zikele + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档