您现在的位置是:首页 > 医疗

人工智能在医疗领域应用风险很大

2023-09-18 02:05:07

虽然医学人工智能是发展的大趋势,但目前AI还有很多不成熟的地方,如果大规模在临床应用的话是很危险的。在资源不足且分布不均的医疗领域,人们开始把希望寄托在机器上,医疗成为人工智能(AI)赋能的热门领域。前瞻产业研究院数据显示,2017年中国医疗人工智能市场规模超过130亿元,并有望在2018年达到200亿元,医疗人工智能空间广阔。但现实情况是,AI进入医疗领域,头上有一面穿不透的天花板。

人工智能要一分为二地看待。一方面,从积极的态度看,医学人工智能目前是发展大趋势。大数据技术的发展使得AI已成为一个行业发展的必经之路和重要方向。从需求上来说,无论是大医院的医生,还是基层医生,都需要一些辅助用具,都需要一些用以决策的数据依据。按照人的记忆能力,是没法完成数字化大规模运算和大规模记忆存储的,这是人脑的局限性,而机器正好弥补了人类的短板。所以在很大程度上,我们对AI有很大的期待,将来在各个领域,AI都会产生重要的作用。但回过头来说,我们要清醒地看待AI现在发展的历程。

目前AI还处在非常初级的阶段,有很多不成熟的地方,包括数据模型的建立、数据的来源以及知识模型和知识标准等,这些方面都很初级。而且,目前都是工程师在建立模型,很少有临床医学的专家参与这个过程。所以在这个阶段,AI还存在很多缺陷和风险,如果大规模临床应用的话是很危险的,因为医疗是不能出错的。IT界有个行话叫开着飞机修飞机,但医疗是不行的,一定得把飞机修好了才能开上去,这是由行业的特点决定的,医疗和电商等领域都不太一样。

现在的AI是基于国际开源的一些公用的模型和算法,所以它局限在我们的语音识别、图像识别,对于很多其他逻辑数据的建立,目前还很难建造一个非常符合临床医学规律的数据模型。所以,这就需要更多的数学家参与到医学AI的开发中来。我们的医学数据模型没有建立的话,将来AI的应用场景就会非常受限,会很肤浅。

所以在目前这个状态下,AI用在基层医疗上是不行的,是一个风险所在。或许很多大专家有判断能力,但是基层医生是没有判断能力的,你把这样一个机器给他,他无法判定是采取机器的建议还是拒绝机器的建议,这对诊断疾病来说就会有潜在风险。

在AI不太成熟的时候,我们不主张大规模在医疗领域推广,但是我们需要实验,需要一个局限性的、小范围的、特定环境下的实验,目的是为了帮助AI工程师们去建立更好的数学模型。

现在AI的整个设计逻辑还存在短板,它是基于一种完全可控的、可知的、可预测的数学逻辑去建立的模型,换句话说,它是符合现代简单数学逻辑的,比如“1+1=2”的这种。但我们的临床疾病很多情况下不是如此清楚的数学逻辑,它是因果关系,其中会涉及很多潜在的干扰因素,还有未知因素,所以目前建立起来的AI模型还无法模拟临床上的这种因果关系。简单一句话就是,目前的AI不具备逻辑推理能力,因为人还不知道自己的逻辑推理是怎么算出来的。

从生物学上来说,我们对人的这些跳跃性思维还不完全掌握,我们看到科学界有很多报告也对AI的一些优点和弊端做了相关鉴定。一方面,AI具备大规模的运算能力、存储能力、深度搜索能力以及快速学习能力。它目前解决的包括精确控制和远程操控,都是劳动密集型问题,也就是重复性的、简单逻辑很明确的工作关系。但是对临床诊断来说,它需要逻辑推理能力,这是AI的短板。所以目前整个AI的运用还有很大风险。

从思维方式上来说,积极的深度学习是一个连续性的学习,我们在人脑上叫连续性思维,但目前机器无法做到的是跳跃性思维。比如,我们人类有个事情解决不了,睡了一觉后,第二天早上突然灵光一现,找到了解决方案,这种跳跃性思维目前从生理学上是怎么诞生的,我们并不知道,这是脑科学还没有解决的问题,所以无法用机器去模拟这种跳跃性思维,这时候就无法完成逻辑推理层面上的治病过程。

从AI发展的技术上来说,技术本身存在很多缺陷,比如说鲁棒性的问题。鲁棒性是系统面临决策产生的干扰因素时表现出来的稳健性。人在判断错误的时候会有一些其他因素来补偿,人会及时终止自己的逻辑,会有一些潜意识的反应去防范一些恶性问题的发生。所以科学界说,人的鲁棒性是好的,后果不是很严重。但机器的鲁棒性是差的,它出现错误时自己都不知道是错的,会继续错下去,带来的后果很严重,因为它没有修正的过程。所以我们目前对AI的认识必须要看到背后的风险。