首页 资讯正文

人工智能医生可信吗? 会诊断却做不出解释

人工智能医生可信吗? 会诊断却做不出解释

2018年,美国食品和药物管理局(FDA)正式授权第一套人工智能设备用于诊断眼疾。到现在才几年的时间,医疗领域已经出现了大量人工智能医疗系统。也就是说,机器人已经在给不少人看病了。

宾夕法尼亚大学(University of Pennsylvania)生物医学信息学研究所所长摩尔(Jason H. Moore)最近发表在美国科学人(Scientific American)杂志上的文章质疑了人工智能诊断软件的几项局限性。其中他觉得最令人担忧的是,这些软件直接给出“诊断”结果,拿不出理由。

摩尔是转化生物信息学科学家、生物医学信息学家和人类遗传学家。他表示很高兴看到人工智能的发展,特别对于大数据的处理,这些系统展现了人力达不到的优势。

6月28日,世界卫生组织(WHO)公布了一份对人工智能医疗系统的管理纲要,里面提到这些软件在责任感、公平度、职业道德、可持续发展、透明度、值得信赖度和有据可查等方面都很欠缺。

摩尔说,人工智能系统存在各种隐藏的偏见。这是因为设计师自身存在各种偏见,他们在设计系统的时候不自觉地把这样的影响留在系统内。现在要把这些偏见从人工智能系统中除掉是非常困难的工作。例如,急诊室用的一套系统无意地对不同肤色的人种就会区别对待。

不过摩尔认为现在最糟糕的问题是,人工智能医疗系统诊断过程的透明度很差。

对于疑难杂症,患者一般都会征求很多专家医师的意见,也很正常都会提出诸如“为什么你认为这个疗法最好?”,或是“为什么你推荐这个疗程?”这类的问题。医生都能一一作答,消除病患的疑惑,建立信任。可是现在的人工智能医疗系统完全答不出这些问题。

摩尔说,现在多数人工智能软件来自商业实体,他们为了保护各自的知识产权并不公开他们的算法和代码。内部细节的不透明度,可能是这些系统无法向患者就它们做出的诊断结果做出解释的因素之一。

可是,上世纪70年代推出的最早的一套人工智能系统MYCIN却能够很好地解释自己。那套系统可以给重症监护室的患者自动开出消炎药处方。面对“为什么”的问题,那套系统会把自己计算的各种可能性摆出来,告诉用户它如何得到处方所示的结果。

遗憾的是,这么重要的功能在近年人工智能飞速发展的过程中竟然丢失了。摩尔认为,这只需要系统把自己计算的每一步做好记录展示出来就可以办到。如果是这样,他希望接下来系统设计人员能把这作为系统的关键元素融入设计中。

也有可能有的系统现在发展到如此复杂的程度,连设计者自己都搞不清里面的机制。摩尔说,如果是这样,那这样的人工智能系统就不适合作为医疗系统,根本就不能用。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/14216.html

发表评论

评论列表(0人评论 , 4798人围观)
☹还没有评论,来说两句吧...