人性化的人工智能在医学培训:道德框架负责设计
- 1部门经济学、外国服务的学校,乔治城大学在卡塔尔多哈,卡塔尔
- 2控制和计算机工程系,Politecnico di都灵,意大利都灵
- 3卡内基梅隆大学工商管理系,在卡塔尔多哈,卡塔尔
人工智能(AI)使用的不断增加医疗带来了众多的道德考虑,推动反射。人性化的人工智能在医学培训是至关重要的,以确保设计和部署算法结合的伦理原则和促进公平的医疗保健医师学员和患者的治疗结果。本文的视角提供了一个道德框架,负责设计人工智能系统在医学训练,利用自己的过去的研究领域的心电图解释培训和e-health可穿戴设备。负责设计的提出五大支柱:透明、公平和正义,安全和健康,责任,和协作。透明度支柱强调维护人工智能算法的explainabilty的至关重要的作用,而公平和正义支柱强调解决偏见在医疗数据和优先考虑公平的医疗培训结果的设计模型。然而安全和福祉支柱,强调需要优先考虑患者安全,幸福在人工智能模型设计无论是训练还是模拟的目的,呼吁建立清晰的线条和问责支柱AI-derived决策的责任和义务。最后,强调跨学科协作支柱涉众之间的协作,包括医生、数据科学家,患者和教育者。拟议的框架从而为设计和部署提供了一个实用指南的人工智能在医学上一般来说,和在医学培训专门负责任的和道德的方式。
1。介绍
人工智能(AI)的领域正在迅速发展,其应用在众多领域也不断扩大。其中的一个应用领域是医学,医学培训的方式交付给从业者。人工智能有潜力改变医疗培训为从业者提供高级的个性化工具和资源来提高他们的知识和技能。由于机器学习和学习算法,可以完全个性化和定制的医疗培训实习。我们是否需要阅读医学图形像心电图(ecg) (Tahri Sqalli et al ., 2021 a),或者医学图像像磁共振图像(核磁共振成像)(Tahri Sqalli和阿勒萨尼,2020年),甚至模拟机器人手术模拟(Poon et al ., 2005;Tahri Sqalli et al ., 2016;山下先生et al ., 2016通过人工解释),他们的重复性方面是一个合适的流程生成模式,可以处理ML算法(Alahmadi和萨利姆,2022)。然而,将人工智能纳入医疗培训提出了重要的伦理性考量,包括需要确保AI系统协调与人类价值观和优先级(班纳特和Rosner, 2019年)。这是特别重要的在医学领域,人工智能的影响可以为病人和医生都有深远的影响。人性化的人工智能在医学培训是至关重要的,以确保AI系统结合值,医生和患者的需求和优先事项。这需要考虑的因素,如数据收集和使用的伦理,AI对医疗的影响差异,人力监督在人工智能系统的作用。
在我们个人的分析几个技术为基础的医学工具和系统,将人工智能,我们意识到有几个不同的医药,人性化的人工智能在医学训练尤为重要(Tahri Sqalli和阿勒萨尼,2020年)。在这些领域是心脏病学领域(Chetwood et al ., 2012),人们也越来越多地使用人工智能来帮助从业者在解释心电图(ecg)。另一个例子是可穿戴设备领域的外行来监控和改善他们的健康状况,利用人工智能发展的健康指导系统(Tahri Sqalli和阿勒萨尼,2019年),可以支持个人在管理他们的整体健康。
本文旨在提供第一手的概述需要人性化考虑人工智能在医学培训,借鉴相关领域的例子如心脏病和可穿戴设备。我们强调伦理性考量和最佳实践的关键。本文还将通知人工智能系统的发展,旨在支持人员为患者提供高质量的护理。本文目标主要是医师、医学生AI工程师、研究人员、计算机科学家,设计师,和病人参与设计或使用的人工智能系统。负责设计:本文提出五大支柱(1)透明度,(2)公平和正义,(3)安全和幸福,(4)问责,最后(5)合作。透明度支柱强调确保可辩解的人工智能算法的重要性,同时强调了公平和正义支柱需要解决偏见在医疗数据和设计模型,优先考虑公平的医疗培训的结果。强调安全和福祉支柱设计人工智能模型与患者安全、健康作为首要任务,同时呼吁建立明确的问责支柱行AI-derived决策的责任和义务。最后,呼吁合作的支柱跨学科合作以确保所有利益相关者,包括医生、数据科学家,和病人,参与设计和部署的人工智能在医学训练。
2。负责设计柱子
2.1。透明的支柱
AI-enabled系统迅速作为介质间接医疗决策,explainability是至关重要的终端用户,这些用户是否病人,医学实习生或从业者。系统的expalinability明智和负责任的行为是很重要的。研究评估的过程解释人际互动中发现它时是最有效的过程是socially-situated (•et al ., 2021)。此外,人工智能系统通常设计为socio-organizationally嵌入式(Rezgui et al ., 2005)。然而,可辩解的AI(新品)方法往往采用一个algorithm-centered方法,专注于复杂的算法设计,而忘记AI-enabled socially-situated方面的系统的输出(Rezgui et al ., 2005)。因此,改革是迫在眉睫需要向发展socially-situated新品。这将是通过介绍和探索社会透明度(ST)在这些AI-powered系统,尤其是在医疗培训的背景下。实现这一面向社会技术的角度来看,它是认为,尽管explainability对于确保AI系统的诚信很重要,它是社会透明度不足以解决更广泛的问题(Rezgui et al ., 2005)。因此,建议一个社会透明度框架包括三个部分:
1。描述性的透明度,包括提供信息的人工智能系统是如何工作的,以及它如何发展;
2。程序的透明度,包括制作人工智能系统的决策过程透明和负责任;和
3所示。实质性的透明度,包括确保结果的人工智能系统是符合社会价值观和目标。
这将加快输液socio-organizational上下文的解释AI-mediated决策系统内的医疗培训背景。
2.2。公平和正义支柱
医疗数据常常是偏见由于某些人口中所占比例较小的临床试验和医学研究。因为它是通过心电图解释实验证明(Tahri Sqalli et al ., 2022 b),种族和少数民族往往代表医疗研究,从而导致偏见的算法没有考虑这些人群(独特的卫生需求和结果弗莱彻et al ., 2021)。同样,医疗数据会导致差异中的性别偏见在诊断和治疗女性(弗莱彻et al ., 2021)。这种偏见在医疗数据可能导致AI系统,并不代表他们所服务的不同的患者群体,甚至可能加剧健康差异。此外,人工智能模型必须设计优先考虑公平的医疗培训的结果。例如,人工智能系统,用于医疗培训应该旨在提供反馈和支持,是根据学员的个人需求,而不管他们的背景或经验(Tahri Sqalli et al ., 2022 a)。这有助于减轻偏见的影响在医疗数据和确保所有学员成功得到他们需要的支持。人工智能模型,设计优先考虑公平的医疗培训结果可能有助于解决现有医学教育和培训之间的差距。例如,个人来自弱势背景可能面临额外的挑战在医学训练由于他们的社会经济地位,缺乏资源,和其他因素。通过设计人工智能模型,考虑这些因素,医疗教育工作者可以确保所有学员都有一个平等的机会成功的医疗培训(Tahri Sqalli和阿勒萨尼,2020 b)。
2.3。安全与健康支柱
这表现为支柱最以人为中心的支柱讨论的五大支柱之一。这是由于威胁的严重性,人工智能集成在医疗保险制度提出了建议。因此,这个过程的集成面临的挑战和风险。这除了政策上的挑战和基于ai医疗建议。这个支柱是基于过去出现技术故障,因此早期的采用人工智能在医院。这也源于我们的观察不可用的这种集成的必要策略。此外,我们的观察推断医护人员缺乏经验AI-supported基于上下文的决策,主要是由于不成熟的数据策略(Tahri Sqalli和阿勒萨尼,2019年)。
人工智能软件系统的技术水平及其广泛的应用在医院与病人增加不良事件的风险最终受害者(2016年纽约和丹尼尔)。传统上,如果病人被误诊的受害者,后来导致延误的治疗计划,这是医生谁负责。随着人工智能的引入,主要的挑战是开发一个定义良好的自然增长的协议责任和参与情况下病人虐待不准确的分析的基础上进行的人工智能(2016年纽约和丹尼尔)。集成现代医院和治疗实践中的人工智能引入了一个重要的行政工作的自动化水平,医院的资源分配,并根据每个病人的治疗建议数字医疗记录。自动化这些任务使医务人员专注于高优先级的责任,包括疾病诊断、病人护理,使更有效的治疗方案。然而,人工智能在医学上的应用和病人护理需要近距离观察和持续改进。这是医院的生产力最大化操作和病人护理。这也保证了利用人工智能软件系统在一个透明的医疗保险,安全,和道德的方式(2016年纽约和丹尼尔)。因此,应该采取实际步骤增加人工智能的安全系统和减少他们的错误决策程序包括:
1。测试:连续测试的人工智能算法,实现更健壮的数据收集策略。
2。强大的监测实践。这将是通过设置数据策略,以及最佳实践包容的AI在医院的操作。
3所示。病人数据隐私和保护,这是在问责支柱彻底讨论。
2.4。问责制
在医学领域,明确线分离不同利益相关方的责任,参与照顾病人是至关重要的。基于AI的输液医疗系统支持为病人提供护理服务,问责制有助于独立决定由AI的由医疗从业者(费根鲍姆et al ., 2020)。问责从人机交互的角度指的识别错误的可能性演员是否系统或子系统,收集证据的可能性数据和积压mis-behavior系统,最后明确指标的可用性进行评估和判断系统的输出是否符合医学护理的标准(费根鲍姆et al ., 2020)。因此,建议一个问责制框架的上下文中人性化人工智能在医学培训包括三个部分:
1。能够确定一个行为不端的演员或子系统(费根鲍姆et al ., 2020)。这是很重要的,找到一个清晰的分离的决定由人类保健提供者而不是支持人工智能系统提供的建议。这反过来将有助于促进应用程序和清晰的发展保健协议,从而有效整合AI-powered系统提供治疗。
2。能够识别一个人工智能系统的决定背后的根源或输出(费根鲍姆et al ., 2020)。另一种方法,以确保问责制是通过追溯根源。这种方法体现在医学实践。违反标准治疗时通过一个不一致的系统的输出,它可以发现和抓住之前,由监督医生在操作。同时,发现行为不端的子系统通过回顾后备数据。
3所示。收购的可能性、保存和使用的证据(费根鲍姆et al ., 2020)。这指的是人工智能子系统有足够的记录过程和可收回原始数据需要评估其总体性能。这将支持相应当事人交付的强有力的证据。
2.5。协作
我们把“协作”这个词在医疗领域的医务人员承担的角色和责任来解决问题和做出决定来改善病人的健康。与人工智能的广泛使用在医疗、不同党派已经成为重要的合作,特别是在医疗教育工作者,技术专家和其他利益相关者。负责et al。(2021)指出各领域,强调合作的重要性。主要用于人工智能工具和平台的发展,卫生监测、数据基础设施管理、评价和评估。卫生保健提供者和教育工作者应该准备团队实践的变化趋势。卫生保健提供者的概念将改变从一个人管理信息系统思考专业谁可以访问,评估,并使用信息来满足需求的一个特定的人或社区(负责et al ., 2021)。每个从业者都必须了解数据输入影响人工智能输出,直接影响病人的护理和治疗。AI-connected这套将日益结合的治疗和预防Tahri Sqalli和阿勒萨尼,2020)。因此,数字健康知识培训是必需的。这是帮助卫生保健专业人士理解这些数据通过特定的卫生行业的角度来看,等了解信息适合其他健康专业领域和更大的医疗保健系统(Tahri Sqalli和阿勒萨尼,2020)。病人自己采集的数据通过智能技术监测每个保健提供者将补充提交的数据。留学生的职业卫生职业需要准备的范式变化远离“面向疾病医学”健康促进与患者和提供者(合作的框架负责et al ., 2021)。当医疗临床医生处理数据科学家和其他数字技术,团队团队的组成将会改变。团队的职责将改变更多跨学科,人为本的方法,指导病人向更有助于健康的食品选项和深度上优于决策。随着团队越来越依赖于数据驱动算法来指导决策,教育者应该开发团队学习的机会识别数据偏差,生命伦理困难,责任和风险。
3所示。讨论
提出负责设计柱显示,人性化的人工智能在医学训练的过程是一个跨学科和协作过程。它需要病人之间的合作努力,医疗从业者,AI开发者,决策者和其他利益相关者。因此,需要采用一个“以人为本”的方法来人工智能发展。这种方法需要考虑社会、伦理和法律的影响他们的工作。另一方面,政策制定者应该建立法规和标准,促进社会AI系统的透明度。由于任务的跨学科性质,几个挑战。这些挑战可能是医疗、技术或政策相关。整个讨论,我们简要阐明这些挑战并解释该支柱可能是一个资产来克服它们。
医疗错误被认为是最重要的一个不良事件影响医疗部门。这是更重要的对病人的护理标准包括一个AI参与决策过程。在分析进行的纽约和丹尼尔(2016),死于医疗事故的平均速度在美国找到达到平均每年251454在我们住院的总数。此外,CDC排名表明医疗错误是第三个最常见的死亡原因在美国(2016年纽约和丹尼尔)。虽然人工智能的计算能力住在大组病人数字数据识别早期疾病或福利模式,不能立即被医学专家,有效的数据策略是临界值,以确保建议的AI系统不太容易产生的医疗错误。实际上,数据收集必须尽可能广泛的包容性,考虑到年龄,种族和性别的患者,并减少倾向弱势病人组,其数据可能没有被考虑在早期人工智能集成阶段(Tahri Sqalli et al ., 2021 b)。
扩大医疗错误的风险,这些系统的另一个挑战是技术挑战。克服这个技术挑战是通过增加医疗保险的AI系统的安全。这将是有效的在医院通过连续审计AI系统操作。它也会需要密切关注任何边界情况对于个别病人,看看AI特定实例的误差分析。这主要是因为,即使机器学习算法产生数据驱动的分析可以是错误的。的一个例子是当一个人工智能系统无法识别肿瘤扫描,或者当它建议错误的治疗方案,包括不适当的药物。这些反响直接影响病人的最终用户是系统的影响(价格,2022)。受伤的问题引起的错误建议的AI系统甚至可以加剧的标准化系统在整个医院。人工智能系统的误差可以从有限的翻译组患者个体更多(价格,2022)。
最后一个挑战是克服社会透明度的成就在人工智能系统。这主要是由于缺乏标准化和一致性的AI系统开发,评估,和部署。为基于ai的医疗培训系统开发标准和最佳实践可以帮助促进社会透明度和确保这些系统是值得信赖和可靠的。这最终会克服的复杂性和不透明性,这些人工智能系统的输入和参数,从而促进他们的运作方式的理解以及如何决策。此外,开发工具和方法解释人工智能专家系统的功能可以帮助应对这一挑战,改善社会的透明度。
图1总结了该框架包括支柱和负责任的挑战需要克服医疗培训系统的设计。
4所示。结论
总之,增加使用人工智能医疗需要考虑道德原则的设计和部署算法,特别是在医疗培训。这个角度看文章负责人工智能设计提供了一个框架,借鉴以往的研究在心电图解释培训和e-health可穿戴设备。拟议的框架由五个支柱:透明、公平和正义,安全和健康,责任,和协作。这些柱子强调维护explainability人工智能算法的重要性,解决偏见在医疗数据,优先考虑病人安全和健康,建立明确的责任和责任线AI-derived决策,以及促进跨学科的涉众之间的协作。通过采用这个框架,人工智能系统的设计和部署在医学训练能促进公平医疗结果医师学员和病人同时确保遵守道德原则。
数据可用性声明
最初的贡献提出了研究中都包含在本文/辅料,可以针对相应的作者进一步询问。
作者的贡献
太贡献本文的概念和头脑风暴,组织文章的结构,并且写的手稿。英航、镁、和SN了写作提出了5大支柱支柱之一。所有作者导致修订手稿、阅读和批准提交的版本。
资金
本研究支持,由乔治城大学在卡塔尔和卡塔尔基金会资助。
确认
作者要感谢乔治敦大学的支持和承认在卡塔尔和卡塔尔基金会。
的利益冲突
作者声明,这项研究是在没有进行任何商业或财务关系可能被视为一个潜在的利益冲突。
出版商的注意
本文表达的所有索赔仅代表作者,不一定代表的附属组织,或出版商、编辑和审稿人。任何产品,可以评估在这篇文章中,或声称,可能是由其制造商,不保证或认可的出版商。
引用
Chetwood, A . s。、郭K.-W。、太阳L.-W。、Mylonas g P。克拉克,J。Darzi,。,et al。(2012)。协作的眼睛跟踪:腹腔镜手术的一个潜在的培训工具。Surg. Endosc。26日,2003 - 2009。doi: 10.1007 / s00464 - 011 - 2143 - x
伊桑·U。廖,问:V。穆勒,M。Riedl, m . O。薇,j . d . (2021)。“扩大explainability:向社会透明度在人工智能系统中,”学报2021年气会议在计算系统的人为因素(横滨:ACM)。
弗莱彻,R R。Nakeshimana,。,Olubeko o . (2021)。解决公平,偏见,和适当的使用人工智能和机器学习在全球健康。前面。Artif。智能。3,561802。doi: 10.3389 / frai.2020.561802
Poon K。,Okin, p . M。,Kligfield p (2005)。诊断计算机心电图节奏算法的性能。j . Electrocardiol。38岁,235 - 238。doi: 10.1016 / j.jelectrocard.2005.01.008
Rezgui Y。威尔逊,我。Olphert, W。,Damodaran l . (2005)。“Socio-organizational问题”虚拟组织(阿姆斯特丹:Kluwer学术出版社),187 - 198。
Tahri Sqalli, M。阿勒萨尼,d . (2020)。在慢性疾病如何影响patient-AI交互:一个文献综述。医疗保健8,313。doi: 10.3390 / healthcare8030313
Tahri Sqalli, M。阿勒萨尼,d . (2020)。进化的可穿戴设备健康指导:挑战和机遇。前面。数字。健康2、545646。doi: 10.3389 / fdgth.2020.545646
Tahri Sqalli, M。阿勒萨尼,d . (2020 b)。”一个完整的健康和健康计划使用human-IoT互动,”2020年IEEE国际会议信息、物联网和支持技术(ICIoT)(多哈:IEEE)。
Tahri Sqalli, M。阿勒萨尼,D。、Elshazly m B。,Al-Hijji m (2021)。解读12导心电图的医学生:定量眼球追踪的方法。JMIR地中海,建造。7,e26675。doi: 10.2196/26675
Tahri Sqalli, M。阿勒萨尼,D。、Elshazly m B。Al-Hijji, M。Alahmadi,。,Houssaini y s (2022 b)。心电图了解心脏病医生的解释:一个眼动跟踪研究。JMIR嗡嗡声。的事实。9,e34058。doi: 10.2196/34058
Tahri Sqalli, M。阿勒萨尼,D。、Elshazly m B。Al-Hijji, M。,Houssaini y s (2021 b)。“准确解读心电图之旅:一个眼动跟踪研究概述,”2021第八届国际行为和社会计算会议(BESC)(多哈:IEEE)。
Tahri Sqalli, M。阿勒萨尼,D。、Elshazly m B。,Al-Hijji m (2022)。“人工智能的蓝图和AR-based眼睛跟踪系统训练心脏病学专家更好的解释心电图,”有说服力的技术(Cham:施普林格国际出版),221 - 229。
Tahri Sqalli, M。Tatsuno, K。Kurabe, K。安藤,H。Obitsu, H。Itakura, R。,et al。(2016)。“这些改进的远距机器人自主导航使用slam算法,”2016年国际研讨会上Micro-NanoMechatronics和人类科学(肉类)(名古屋),1 - 7。
关键词:human-AI交互、人机交互、数字医疗、新品,人工智能
引用:Tahri Sqalli M, Aslonov B, Gafurov M和Nurmatov年代(2023)人性化的人工智能在医学培训:道德框架负责设计。前面。Artif。智能。6:1189914。doi: 10.3389 / frai.2023.1189914
收到:2023年3月21日;接受:2023年4月24日;
发表:2023年5月16日。
编辑:
阿尔弗雷多Vellido,大学为加泰罗尼亚,西班牙审核:
索尼娅·苏萨爱沙尼亚塔林大学版权©2023 Tahri Sqalli、Aslonov Gafurov Nurmatov。这是一个开放分布式根据文章知识共享归属许可(CC)。使用、分发或复制在其他论坛是允许的,提供了原始作者(年代)和著作权人(s)认为,最初发表在这个期刊引用,按照公认的学术实践。没有使用、分发或复制是不符合这些条件的允许。
*通信:穆罕默德Tahri Sqalli,mt1516@georgetown.edu
__这些作者贡献了同样的工作