氢分子医学分享 http://blog.sciencenet.cn/u/孙学军 对氢气生物学效应感兴趣者。可合作研究:sunxjk@hotmail.com 微信 hydrogen_thinker

博文

医疗大数据时代还需要重视小数据 精选

已有 4723 次阅读 2023-9-13 07:08 |系统分类:海外观察

医疗保健领域的人工智能必需考虑小数据的作用

作者Fay Cobb Payton

Without Small Data, AI in Health Care Contributes to Disparities - Scientific American

几年前,作者(Cobb Payton参加了一次国际医疗保健会议,他非常希望听关于一项针对美国低收入社会经济群体的糖尿病干预措施的主题演讲主题演讲者指出,人工智能工具使研究人员和医生能够使用模式识别来更好地规划糖尿病患者的治疗。

演讲者描述了这项研究、其背后的想法以及方法和结果。还描述了参与该项目的典型人物:一位55岁的黑人女性,阅读水平为高中水平,体重指数显示她患有肥胖症。这位女性很少遵循她的正常糖尿病治疗计划。这让Cobb Payton感到困扰:一个人是否遵循她的治疗计划被简化为一个二元的是或否。而这并没有考虑到她的生活经历——导致她健康问题的日常事物以及她无法坚持治疗的原因。

该算法基于药品、实验室测试和诊断代码等数据,根据这项研究,医生将为中年低收入黑人女性提供医疗保健并设计治疗方案,而不知道这些方案的可行性如何。这种做法无疑会增加健康差异和健康公平性。

随着我们在医疗保健领域不断建设和使用人工智能,如果我们希望实现真正的平等获取、交付和结果,我们需要在整个医疗保健过程和生态系统中采取更加全面的方法。人工智能开发人员必须来自不同的背景才能实现这一点,他们需要训练他们的系统使用“小数据”——关于人类经验、选择、知识健康的社会决定因素的信息。这样做将避免临床错误,节省资金,缩小耻辱感并带来更好的生活。

Cobb Payton认为人工智能在医疗保健中的一个基本缺陷是过度依赖大数据,如病历、影像和生物标志物值,同时忽视小数据。然而,这些小数据对于了解人们是否可以获得医疗保健以及如何获得医疗保健至关重要,以及人们是否可以坚持治疗计划。这是将人工智能引入医学各个方面所缺失的组件,没有它,人工智能不仅会继续存在偏见,而且会加剧偏见。

在医疗保健中采用全面的人工智能发展方法可以在任何时候发生;生活经验数据可以在问题定义、数据采集、整理和准备阶段等早期阶段提供信息,模型开发和培训等中间工作以及结果解释的最后步骤也是如此。

例如,如果基于名为R的平台训练的人工智能糖尿病模型使用了小数据,它将知道一些参与者需要乘坐公交车或火车超过一个小时才能到达医疗中心,而其他人的工作使他们在工作时间难以去看医生。模型可以考虑食物沙漠问题,这限制了人们获得营养食品和身体活动机会,因为糖尿病患者(16%)比非糖尿病患者(9%)更容易缺乏营养。

这些因素是社会经济地位的一部分;这不仅仅是收入,还包括社会阶层、教育水平和社会中人们享有的机会和特权。更好的方法将意味着包括捕捉或考虑健康的社会决定因素以及健康公平性的数据。这些数据点可以包括经济稳定、邻里或环境属性、社会和社区背景、教育访问和质量以及医疗保健访问和质量。

 

所有这些问题本来可以提供者和服务系统更多关于为什么研究中的任何一位女性可能无法遵守包括多次门诊、每天多种药物、身体活动或社区支持团体在内的治疗计划的细微信息。治疗方案本来可以包括长效药物、不需要旅行的干预措施等等。

但是在那次演讲中所得的结论是,研究中的典型黑人女性并不关心她的病情及其慢性健康影响。这样的研究结果往往被狭隘地解释,并且缺乏对“典型”患者的“完整”生活经历和状况的理解。因此,临床建议排除了对“典型”患者的健康决定因素,并且在没有理解“如何”的情况下给出、报告和记录,比如这位黑人女性患者是如何生活、工作、旅行、崇拜和变老的。这是极其有害的医学。

预测性建模、生成型人工智能和其他许多技术进步正在冲击公共卫生和生命科学建模领域,而没有将小数据融入项目生命周期。在COVID-19大流行和疫情准备方面,肤色较深的人接受补充氧气和救命治疗的可能性比肤色较浅的人要低,因为脉搏血氧计算法的快速发展没有考虑到深色皮肤会导致血氧计高估患者血液中的含氧量,以及低估COVID-19的严重程度。

人机配对要求我们所有人反思而不是急于下判断或得出结果,而且我们应该提出能够促进健康决策公平性的重大问题,比如关于医疗资源分配、资源利用和疾病管理的问题。研究发现,算法预测在疼痛方面导致的健康差异是标准差的4.7倍,而且在心脏病学、放射学和肾病学等领域已经显示出种族偏见。模型结果不是数据工作的结局,而应该嵌入在算法生命周期中。

对于生活经验数据的需求也是一个人才问题:谁在做数据收集和算法开发?2018年只有5%的在职医生被确认为黑人,约6%被确认为西语裔或美洲原住民。看起来像他们病人的医生,并对他们所从事的社区有一定的了解,更有可能询问成为小数据的事情。

对于构建AI平台的人来说也是如此;科学和工程教育在这些群体中已经减少,美洲印第安人或阿拉斯加原住民也是如此。我们必须让更多来自不同群体的人参与AI的开发、使用和结果解释。

解决这个问题的途径是多方面的。在就业方面,有色人种可以在数据工作中不可见但存在、缺席或不被听到;Cobb Payton自己的著作《利用交叉性:看见与看不见》中谈到了这一点。组织必须对其使用或创建的系统负责;他们必须培养包容性人才和领导力。他们在招聘和保留有色人种方面必须有意识地理解有色人种的组织经历。

AI的小数据范式可以用来解开生活经验。否则,偏见会被编码在不代表真相的数据集中,这种编码会抹去人类的背景并计算信息以指导我们的解读——最终放大“典型”患者生活中的偏见。数据问题指向了一个人才问题,无论是在临床还是技术层面。这样的系统的开发不能像糖尿病研究中的AI那样是二元的。既不能接受被认为坚持或不坚持的“典型”患者作为最终版本的真相;也必须考虑护理中的不平等性。




https://blog.sciencenet.cn/blog-41174-1402416.html

上一篇:天然食物更利于健康,加工食物容易成瘾
下一篇:自由基和氧气水平的关系
收藏 IP: 117.135.13.*| 热度|

3 许培扬 杨正瓴 赵凤光

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-7-17 14:32

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部