暴露并减轻 MLLM 少样本上下文学习在医学图像分类中的校准偏差和人口不公平性-计算机科学-多模态大型语言模型-医疗图像分析-公平性.pdf

暴露并减轻 MLLM 少样本上下文学习在医学图像分类中的校准偏差和人口不公平性-计算机科学-多模态大型语言模型-医疗图像分析-公平性.pdf

此“医疗卫生”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、本文档共13页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

暴露并减轻MLLM少样本上下文学习在医学图像分

类中的校准偏差和人口不公平性

XingShen,JustinSzeto,MingyangLi,HengguanHuang,and

TalArbel

CentreforIntelligentMachines,McGillUniversity,Montreal,Canada

xing.shen@mail.mcgill.ca,tal.arbel@mcgill.ca

Mila–QuebecAIInstitute,Montreal,Canada

StanfordUniversity,Stanford,USA

本UniversityofCopenhagen,Copenhagen,Denmark

hengguan.huang@sund.ku.dk

3摘要多模态大型语言模型(MLLMs)在医疗图像分析的上下文中进行少

v样本情境学习方面具有巨大的潜力。然而,将这些模型安全地部署到实际临

8

9床实践中需要对它们预测的准确性及其相关校准误差进行深入分析,尤其

2是在不同的人口统计子组中。在这项工作中,我们首次探讨了MLLMs在少

3

2样本情境学习中的医疗图像分类预测和置信分数的校准偏差及人口统计不

.公平性。我们引入了卡林,这是一种设计用于缓解相关偏差的推理时校准方

6

0法。具体来说,CALIN通过两级过程估计所需的校准量,用校准矩阵表示:

5在校准前从群体层面进展到子组层面。然后在推理过程中应用此估算来校

2

:准预测置信分数。我们在三个医疗图像数据集上的实验结果证明了CALIN

v确保公平的置信度校准、提高整体预测准确性并展示最小的公平性-效用权

i

x衡的有效性:PAPILA用于视网膜图像分类,HAM10000用于皮肤癌分

r

a类,MIMIC-CXR用于胸部X光片分类。我们的代码库可以在https://

/xingbpshen/medical-calibration-fairness-mllm找到。

Keywords:公平性·偏差·置信度校准·不确定性·基础模型·大型

语言模型

1介绍

图像-文本到文本的基础模型,尤其是多模态大型语言模型(MLLMs,

或称为大型多模态模型,LMMs),例如OpenAIGPT-4o和GoogleGem-

ini[8,19],已经展示了强大的泛化能力,并在众多任务中达到了最先进的性

2X.Shenetal.

能。此外,少样本上下文学习(FS-ICL)的进步使MLLMs能够通过简单地与

少量的问题答案对提示进行交互来

您可能关注的文档

文档评论(0)

zikele + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档