DiCE-Extended: 机器学习中反事实解释的一种稳健方法-计算机科学-人工智能-机器学习-可解释性.pdf

DiCE-Extended: 机器学习中反事实解释的一种稳健方法-计算机科学-人工智能-机器学习-可解释性.pdf

  1. 1、本文档共13页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

DiCE-Extended:机器学习中反事实解释的一种稳

健方法

VolkanBAKIR,PolatGOKTAS,andSureyyaOZOGUR-AKYUZ

FacultyofGraduateEducationInstitute,DepartmentofArtificialIntelligence

(Interdisciplinary),BahçeehirUniversity,Turkey

volkan.bakir@.tr

SchoolofComputerScience,UniversityCollegeDublin,Ireland

polat.goktas@ucd.ie

本FacultyofEngineeringandNaturalSciences,DepartmentofMathematics,

译BahçeehirUniversity,Turkey

sureyya.akyuz@.tr

2

v

7

2

0

9

1摘要可解释的人工智能(XAI)在医疗、金融和法律等决策关键领域变得

.

4越来越重要。反事实(CF)解释是XAI中的一个重要方法,通过建议对输

0入特征进行最小修改以导致不同的模型结果,为用户提供可行的见解。尽

5

2管取得了显著的进步,现有的CF生成方法往往难以平衡接近性、多样性和

:稳健性,限制了它们在现实世界中的应用。一个广泛采用的框架多样化的

v

i反事实解释(DiCE)强调多样性但缺乏稳健性,使得CF解释对扰动和领

x

r域约束敏感。为了应对这些挑战,我们引入了迪西-扩展版,这是一个增强

a

的CF解释框架,整合多目标优化技术以提高稳健性同时保持可解释性。我

们的方法基于Dice-Sørensen系数引入了一种新的稳健性度量标准,使在

小输入变化下保持稳定成为可能。此外,我们使用加权损失组件(,,

)来平衡接近性、多样性和稳健性,从而改进CF生成。我们在多个ML

后端(Scikit-learn,PyTorch,TensorFlow)上的基准数据集(COMPAS,

LendingClub,德国信用,成人收入)上实证验证了DiCE-Extended。结果

表明,与标准的DiCE生成解释相比,CF的有效性、稳定性和与决策边界

的对齐程度得到了提高。我们的研究结果突出了DiCE-扩展版在为高风

险应用生成更可靠和可解释的反事实方面的能力。未来的工作可以探索自

适应优化技术和特定领域的约束,以进一步提高现实世界场景中的反事实

生成能力。

关键词:反事实解释·机器学习·可解

您可能关注的文档

文档评论(0)

zikele + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档