您现在的位置是:首页 > 医疗

人工智能如何利用集体思维改变医疗保健

2023-09-15 02:05:11

2013年,IBM以一个大胆的想法出售了德克萨斯大学的MD安德森癌症中心:一个由人工智能驱动的平台——IBM Watson——可以伸出一只数字化的手,对抗人类最可怕的疾病之一——癌症。

在不到四年的时间里,这颗具有开拓性的月球探测器就解体了。然而,就在沃森步履蹒跚之时,它为机器学习技术如何在未来的某一天对医生所做的几乎每件事进行补充和革新提供了有价值的视角——而且是一个强有力的先见之明。

问题不在于人工智能是否会进入医学领域。它是如何。在最好的情况下,机器学习可以利用几乎所有临床医生的集体经验,为一位拥有数百万类似病例经验的医生提供明智的决策。在最糟糕的情况下,人工智能可能会助长不安全的做法,放大社会偏见,对分娩做出过度承诺,并失去医生和患者的信任。

谷歌的Alvin Rajkomar博士、Jeffrey Dean博士和哈佛医学院的Isaac Kohane博士在《新英格兰医学杂志》上共同撰写了一份蓝图,概述了机器学习在医学实践中的前景和陷阱。

他们认为,人工智能不仅仅是一种新工具,像一个小工具或药物。相反,它是一项扩展人类认知能力的基础技术,有潜力使医疗保健的几乎每一步都变得更好。他们说,机器学习不是取代医生,如果谨慎实施,它将通过提供额外的洞见来增强医患关系。

当涉及到人工智能和医学时,诊断学受到的压力最大。

基于人工智能的诊断工具,即使是在它们的初期,在发现乳房x线照片上潜在的致命病变、诊断皮肤癌和视网膜疾病(现在FDA批准了!)方面,也经常比放射科专家和病理学家更聪明。一些人工智能模型甚至可以分析出精神症状,或者学会为转诊提供建议。

计算机诊断能力的提高得益于机器视觉和转移学习方面的最新进展。虽然人工智能放射科医生通常需要大型带注释的数据集来“学习”,但转移学习允许受过训练的人工智能快速学习另一项类似的技能。例如,对标准存储库ImageNet中的数千万个日常对象进行训练的算法可以对100,000张视网膜图像进行再训练(这对于机器学习来说是一个相对较小的数字),从而诊断视力丧失的两个常见原因。

更重要的是,机器学习非常适合分析日常护理期间收集的数据,以确定未来可能出现的状况——《少数族裔健康报告》。这些系统可以帮助预防措施,将健康问题消灭在萌芽状态,并降低医疗成本。当提供足够数量和质量的患者健康纵向数据时,人工智能已经能够建立预测模型,其准确性远远超过任何使用医学成像原始数据的医生。

这个问题?这组作者说,相对老派的博士们将必须接受培训,以便收集必要的信息,输入人工智能预测引擎。这些模型需要仔细分析,以确保它们没有反映出计费动机(更多的测试!)或通常不显示症状的低建议条件。

护理治疗的下一步对机器来说要困难得多。人工智能模型提供的治疗数据可能只反映医生的处方习惯,而不是理想的做法。一个更有帮助的系统必须从精心策划的数据中学习,以估计某一种治疗方法对某一特定人群的影响。

你可以想象,这很困难。最近的几次尝试发现,获取专家数据、更新人工智能或根据本地实践对其进行调整是非常具有挑战性的。目前,使用人工智能作为治疗建议仍然是一个未来的前沿,作者总结道。

也许更直接明显的是人工智能对简化医生工作流程的影响。一般的人工智能能力,如智能搜索引擎,可以帮助提取必要的病人数据,以及其他技术,如预测打字或语音口述(医生们已经在日常工作中使用),可以减轻获取医疗数据的繁琐过程。

作者强调,我们不应该低估这种特殊的影响。医生们被文书工作淹没了,这占用了他们与病人相处的宝贵时间。对当前的医生队伍进行人工智能技术培训,提高工作效率,改善工作流程,可以降低工作倦怠率。更重要的是,这些数据反过来可以反馈给训练机器学习模型,进一步优化对患者的护理,形成良性循环。

人工智能还掌握着将医疗保健扩展到物理诊所之外的关键。例如,未来的应用程序可以让患者拍下皮疹的照片,并在不急着去急诊的情况下获得在线诊断。自动分诊可以有效地将患者送到适当的医疗机构和医生那里。在“看到”数十亿次病人遭遇之后,机器学习或许是人工智能辅助医疗的最大希望,它可以让医生具备做出更好决定的能力。

然而,这个特定的场景只是在没有数据支持的情况下挥挥手。作者说,现在的关键是开发出正式的方法来测试这些想法,而不伤害医生或病人。

正如IBM Watson的小插曲所表明的,人工智能和医学界在学习协作的过程中都面临着多重挑战。Theranos的惨败进一步描绘了一幅痛苦而清晰的画面:在处理病人健康问题时,硅谷的信条“快速行动,打破现状”既鲁莽又极其危险。

医学特别强调了机器学习的局限性。例如,如果没有装配一个具有代表性的、不同的疾病数据集,人工智能模型要么是错误的,要么是有偏见的——或者两者兼而有之。这就是IBM Watson崩溃的部分原因:管理一个足够大的带注释的数据集来发现未知的医学发现是极其困难的,如果不是不可能的话。

然而,作者认为这并不是一个永久的障碍。人工智能模型越来越能够处理嘈杂、不可靠或可变的数据集,只要数据量足够大。虽然不完美,但是这些模型可以通过一个更小的注释集进一步细化,这使得研究人员和临床医生能够识别模型的潜在问题。

例如,谷歌Brain正在探索打开人工智能“黑匣子”的新方法,迫使算法解释它们的决策。在临床环境中,可解释性变得越来越重要,幸运的是,如今发表在顶级期刊上的著名人工智能诊断学家往往带有一种内在的解释机制。尽管人类专家可以监督人工智能替代低误诊率的发展,但各方都应该清楚:医疗错误率为零对男性和机器来说都是不现实的。

作者说,采用这些系统的临床医生和患者需要了解其最佳使用的局限性。任何一方都不应过度依赖机器诊断,即使(或当)机器诊断变得司空见惯。

目前,我们仅限于基于历史数据集的模型;未来几年的关键是建立前瞻性模型,让临床医生能够在现实世界中评估,同时应对为人工智能获取和管理大型数据集而面临的复杂的法律、隐私、伦理和监管困境。

正如沃森痛苦地说明的那样,过分夸大人工智能扰乱医疗保健的前景并不是最好的出路。相反,两位作者“谨慎乐观”,预计未来几年将出现一些经过仔细审查的早期模型,以及由经济激励和全民价值医疗理想推动的文化变革。

最后,机器学习并没有从医生身上拿走任何东西。相反,医生的温暖——她的情感、敏感和对生命的欣赏永远不会消失。只是补充一下。Kohane说:“这不是机器对抗人类,而是通过利用人工智能的优势来优化人类医生和病人的护理。”