大多数非刑事诉讼都是关于谁应为不当行为负责,而各方似乎都认为自己是无辜的。随着人工智能(AI)在医学中的应用日益增多,越来越多的人开始提出同样的问题:如果医生使用医疗AI系统进行诊断和治疗并出现错误,最终伤害了患者,那么谁应该承担责任?
本文重点关注在医疗诊断和治疗建议中使用AI的法律影响。
包括机器学习(ML)和深度学习(DL)模型在内的AI技术已在全球各地的医院和诊所广泛应用于各种应用,如中风检测、糖尿病视网膜病变筛查和预测住院情况。多项调查显示,这项技术通过为医生和患者提供更智能、更快捷的解决方案,显著受益于医疗系统。通过快速高效地分析大量数据集,AI工具能够加速疾病诊断并监测治疗反应。例如,在早期癌症检测和诊断中,放射科医生使用这些基于AI的算法来识别肉眼无法察觉的影像模式。例如,AI算法已被设计用于分析计算机断层扫描(CT)图像和磁共振成像(MRI)数据,以分别筛查肺癌和前列腺癌。基于深度学习的方法已被用于通过解释二维和三维乳房X光片来早期检测乳腺癌。多项研究表明,作为放射科医生解读乳房X光片的辅助工具,AI提高了整体准确性。
目前,许多商业可用算法由于缺乏全面的临床有效性数据而未能有效运行。科学家们已经使用AI来促进肿瘤内异质性的自动表征,这有助于预测疾病进展和治疗效果。深度学习算法已被用于评估CT、MRI和正电子发射断层扫描(PET)图像。对肿瘤形态的放射组学评估使固体肿瘤的治疗反应监测更加精确。
IBM Watson Health、Google DeepMind Health、Eyenuk、IBEX Medical Analytics、Aidoc和Butterfly iQ等AI医疗工具是医生、放射科医生、心理学家和其他医疗官员最常用的平台之一,用于各种疾病的诊断和治疗计划。
如果AI错误导致不良后果,医生可能会将任何因AI性能不佳的责任推给开发者,而公司则可能指出,医疗决策最终是由医生做出的。在医疗领域不断增长的AI使用时代,了解当基于AI的诊断或治疗计划伤害患者时,谁应承担责任至关重要。目前,医疗提供者、AI系统开发者和监管机构之间关于错误判断导致患者伤害的责任界限尚不明确。因此,需要全面的政策来分配责任,保护患者。此外,还需要进一步明确AI供应链中是否存在任何责任。
尽管AI在医疗诊断和治疗中的应用带来了巨大的益处,但这项技术也伴随着关于问责、隐私和法规遵从的有效法律关切。例如,AI工具依赖于访问患者的健康数据,这引发了关于数据隐私保护和数据使用透明度的问题。为了保护敏感的健康信息不被泄露,1996年制定了《健康保险可移植性和责任法案》(HIPAA)。不透明的AI系统可能会通过训练数据不平衡延续偏好,这可能导致AI工具加剧现有的偏见。如果AI系统用特定患者人口统计数据进行训练,可能会生成不公平或歧视性的治疗建议,从而缩小其通用性。在大多数AI系统中,其内部工作机制仍然是“黑箱”,这减少了对AI引导决策的问责。AI开发者必须确保设备机制、限制和临床验证的透明度。医生可以自由使用AI,但由于担心AI工具的错误会导致他们被指控低于标准的医疗实践,许多人选择不使用AI。大多数医疗AI工具可能会在美国食品药品监督管理局(FDA)的监管下失败,因为现有的框架侧重于医疗器械而不是自适应软件算法。因此,必须制定新的法规专门解决医疗中的AI问题。这促进了创新,以提高效率并确保用户安全。
各国对医疗AI工具的监管立场因风险容忍度和促进创新的愿望等因素而异。治理和医疗AI之间的持续国际合作将在平衡这一障碍、促进创新和公众福祉方面发挥关键作用。迫切需要精确的法规、问责机制和技术标准来支持AI在医学中的使用。科学家和政策制定者认为,持续检查数据偏见、透明度和隐私对于提高AI工具在医疗领域的准确性和使用至关重要。AI系统必须提供诊断背后的推理。这将帮助临床医生评估在疾病诊断过程中是否考虑了关键特征。此外,监管机构必须建立一种机制来评估AI系统的实际表现,以发现设备中的任何错误。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。