科技

AI系统决策犯规时经常出现什么问题?如果有问题,谁负责管理?‘BB娱乐平台’

2021-01-14 04:14

本文摘要:在希波克拉底信誓旦旦要奠定2400年医学伦理学的基础之后,人工智能的频繁出现可能会给医学伦理学带来历史上第二个唯一的挑战。人工智能将成为未来医疗实践的福音,因此需要提高临床效果,获得个性化化疗,及时发现未来的公共医疗风险。

研究

在希波克拉底信誓旦旦要奠定2400年医学伦理学的基础之后,人工智能的频繁出现可能会给医学伦理学带来历史上第二个唯一的挑战。专家预测,到2024年,AI医疗将是一个近200亿美元的市场。

人工智能将成为未来医疗实践的福音,因此需要提高临床效果,获得个性化化疗,及时发现未来的公共医疗风险。即便如此,这项技术也引发了一系列棘手的道德问题。

AI系统决策犯规时经常出现什么问题?如果有问题,谁负责管理?临床医生如何检查甚至理解AI“黑匣子”的内容?他们如何防止AI系统中的种族主义,维护患者隐私?2018年6月,美国医学协会(AMA)发布了第一份关于如何开发、使用和调整人工智能的指南。值得注意的是,该协会称人工智能为“增强智能”,而不是我们通常指出的“人工智能”。这指出美国医学会指出人工智能可以加强而不是取代医生的工作。

虽然AMA在指南中回应说,人工智能的设计应该是为了识别和解决种族主义问题,确保弱势群体的市场需求,使建设过程透明并维护患者的隐私,但在具体实施中很难满足这些拒绝。以下是医学从业者、研究者和医学伦理学家必须面对的道德挑战。

如何解决背后的种族主义?2017年,芝加哥大学医学院(UCM)的数据分析团队使用人工智能来预测可能的住院时间。它的目标是确定可以提前出院的患者,从而释放医院资源,为新患者获得医疗。那么医院就不会指定个案经理协助患者办理保险事宜,以保证患者能够及时回家,为其早日出院做好铺垫。

在测试系统时,研究小组发现预测患者住院时间最准确的因素是他们的邮政编码,这立刻给研究小组敲响了警钟。他们告诉我,邮政编码与患者的种族和社会经济地位密切相关。依靠邮政编码进行预测不会对芝加哥最贫困社区的非裔美国人产生不利影响,他们往往会在医院呆得更久。

因此,该团队指出,将案例管理员分配给算法是有偏见和不道德的。“如果你想在实践中实施这种算法,你不会得到相反的结果,即分配更好的(病例管理)资源给更富裕的白人患者,”UCM医生和医学伦理学教授马歇尔钦说。最后,数据分析团队删除了邮政编码作为预测因子。

算法还在开发中,没有测试过模型。这个案例考虑了基于人工智能的医疗工具的弱点:一般来说,算法可以反映种族或性别健康方面存在的差异。

如果这个问题得不到解决,它可能会造成长期的种族主义,并巩固保健领域现有的不平等。对于化疗数据有限的罕见或新疾病,种族主义不会影响化疗。

人工智能系统可能是获得一般化疗方案所必需的,而不考虑患者的个人情况。这时候人工智能推荐的化疗方案是违宪的。最近,斯坦福大学麻醉学助理教授DantonChar在一篇关于机器学习的论文中认为,由于严重脑损伤或早产儿患者的存活率非常低,医生经常暂停他们的护理。即使部分患者肾功能良好,机器学习算法可能还是需要得出所有类似病例都很可怕的结论,建议回归化疗。

“黑箱”问题的出路在哪里?第二个道德挑战是,一般来说,研究人员不理解AI系统是如何计算结果的,这就是所谓的黑箱问题。先进设备的机器学习技术,在没有具体命令的情况下,可以吸收大量数据,识别统计数据模式,整个过程是人类无法检查的。

盲目遵循这一制度的医生可能会在无意中伤害患者。“我们通常很难解释算法的‘思考’过程是什么。

”联合国大学政策研究中心新兴网络技术研究员EleonorePauwels对此作出回应。2015年的一项研究特别强调了这一问题。在这项研究中,研究人员比较了不同的人工智能模型,以预测肺炎患者的死亡风险。

预测后,风险较高者送医院,风险较低者可转门诊化疗。其中一个模型是“基于规则”的系统,它的决策过程对研究人员来说是半透明的,但它预测了一个违反直觉的结果:患有肺炎和哮喘的患者比单独患有肺炎的患者有更好的生存机会,因此患有这两种疾病的患者可以推迟化疗。

很明显,医生和护士需要识别两种死亡风险较高的疾病的患者,但算法不能。所以依靠这种算法意味着最差的病人也不会及时得到自己需要的化疗。神经网络和机器学习算法中使用的另一种模型产生更准确的结果,但其推理过程并不透明,因此研究人员无法及时发现问题。

负责这项研究的微软研究员理查德卡鲁阿纳(Richard Caruana)认为,神经网络模型风险太大,无法转移到临床试验中,因为无法判断它是否犯了类似的错误。决策犯规谁来买单?根据AMA医学伦理的基本原则,医生几乎必须对病人的管理负责。但是,当人工智能变成等式时,如何区分责任?伦理学家、研究人员和监管者仍在研究这个问题的答案。

人工智能超越了获取医疗服务的群体权限,一些传统上不受医学伦理约束的人,比如数据科学家,也可以为患者获取医疗服务。此外,就像黑盒问题的右图一样,人们并不总是需要清楚地告诉人工智能系统如何制定临床或穿梭化疗处方。有缺陷的算法可能对患者造成根本性的损害,导致医疗事故。斯坦福大学的麻醉师查尔将人工智能比作处方药。

Char回应说,虽然不可能确定临床医生在他们的班车上了解药物的每一个生化细节,但基于他们的临床经验和医学文献的科学知识,他们至少必须告诉他们这些药物是安全有效的。至于人工智能系统,除非他仔细研究后认为是最好的自由选择,否则他会使用。Char说:“当你对工具的理解不充分的时候,你就不想把任何病人的生命置于危险之中。”病人隐私何去何从?美国医学协会被警告说,人工智能必须维护患者信息的隐私和安全。

自希波克拉底宣誓以来,医患保密的承诺是医学伦理不存在的基石。然而,为了做出准确的预测,机器学习系统必须访问大量的患者数据。没有个人病历,人工智能将无法获得准确的临床或简单的化疗方法,更谈不上构建更加个性化的化疗。

更重要的是,如果数百万患者隐瞒了他们的医疗数据,关键的公共卫生趋势可能会被忽视,这将是每个人的损失。一个潜在的解决方案是将个人身份信息从病历中分离出来,以维护患者的隐私。然而,加州大学最近联合进行的一项研究回应说,目前的电子邮件技术过于成熟,不能保证数据的有效清理。

但是,将来可以开发更简单的数据收集方法,以更好地维护隐私。无论技术能力如何,医学专家建议医学界重新考虑病人隐私的整个概念。随着医疗系统变得更加简单,越来越多的机构将有合法合理的市场需求来访问脆弱的患者信息。

Char在论文中写道:“机器学习系统的构建意味着我们必须重新理解医学数据的隐私性等职业道德的核心原则。”在实践中,医院和机构必须赢得病人的信任。患者有权了解他们的医疗隐私数据是如何使用的,以及这些数据是否不会对他们自己或未来的患者有益。

伦敦大学学院物理健康信息学研究所的高级研究员NathanLea回应说:“如果患者对人工智能如何改善个人和公共健康有更好的理解,他们可能不愿意放弃传统的隐私概念。隐私本身并不意味着我们不能以维护患者隐私为借口,拒绝接受数据背后的可观价值。”动脉网上说医学科技与伦理的冲突依然不存在,从人体解剖的人权问题到克隆技术的身份之争;从人工流产的人性批判到人工智能的人际关系修辞,围绕医疗技术创新和社会伦理的争论从未停止过。

正是这些对人性、人性、人的精神和人的价值的关注,使医学体现了人文关怀,保持了人性的张力。AI医学技术的应用并不违背普世伦理,关键在于找到更合理的方式去开启它。我们期待人工智能在伦理思维的鞭策下递归转型。

最后,我们需要用自己的方式解决人类社会的简单问题。


本文关键词:预测,医院,患者,研究,BB娱乐平台

本文来源:BB娱乐平台-www.yaboyule95.icu