医疗AI深水区:仍然需要解决的一些大问题


你的这个产品在临床使用时预测准确率达到多少?

你刚说准确率达到了多少,安全性怎么保证?

你的产品目前是第几代,盈利模式是怎样的?

……

除了5G,人工智能依然是今年备受关注的话题,笔者近日近距离观看了一个医疗人工智能大赛,现场十几个医疗项目,每一次路演完成台下评委老师们就会发问,上面这几个是最经常被问到的几个问题。这些评委老师们多数是医院的医生专家、医疗领域的投资者,他们犀利的提问背后也是人工智能在医疗领域应用最常面对的几个问题:准确率、安全性、商业模式。于是又回到一个最核心的也是老生常谈的问题:信任。比如人工智能对疾病识别的敏感度、特异度、准确率值得医生信任吗?如果医生用人工智能辅助决策,患者该相信医生吗?

随着人工智能技术的发展,语音交互、计算机视觉和认知计算、深度学习等技术也逐渐成熟,人工智能医疗领域的各项运用变成了可能,如语音录入病历、医疗影像智能识别、辅助诊疗、医疗机器人、个人健康大数据的智能分析及AI医药研发等。

然而具体到实际的应用,三年前,人工智能先驱Geoffrey Hinton曾信誓旦旦地说:“我们现在应该停止培训放射科医生。五年之内,深度学习将比放射科医生做得更好。”如今,全球数百家新兴公司都在探索将深度学习应用于放射学,然而被AI取代的放射科医生的数量是多少呢,放射科医生在全球范围内仍然非常短缺。

今天的人工智能+医疗,除了信任和商业化,还面临政策、监管等方面的挑战,近日腾讯集团法务部发布了《医疗人工智能产业监管及法律研究》(以下简称《报告》),就医疗AI领域的法律与监管主题进行了探讨和研究分析。

《报告》指出,医疗AI面临的法律及监管问题包括:医疗人工智能产品在进入市场时是否需要作为医疗器械进行注册;在医疗人工智能产品的研发及运行过程中如何对健康医疗数据、个人信息进行合法使用;如何确认医疗人工智能产品在使用过程中的产品责任和医疗损害责任;如何对医疗人工智能产品的知识产权进行保护;如何面对和规避医疗人工智能产品所带来的医学伦理问题等。

1、如何保护隐私
医疗AI无论是在研发阶段还是应用阶段,不可避免地会收集、使用到个人的健康信息,比如某些健康管理型的AI产品会采集和利用用户健康信息、某些癌症的CT影像或MRI照片会被用于医疗AI模型训练。如何在保证个人信息和隐私安全的前提下做到数据的开放共享,探索大数据挖掘的合理边界,成为医疗AI发展面临的关键问题。

“当前法律规定,收集和使用个人信息要满足公开透明、最小够用原则,但医疗AI使用信息的复杂性和黑箱测试的不可知性使得上述原则很难被满足。而且,医疗AI的开发者从第三方获取数据时面临的审查义务边界,法律也没有明确规定”,面对这些困境,《报告》指出,目前国际上通用的合规做法是“去标识化”。

“去标识化”是指通过对个人信息的技术处理,使其在不借助额外信息的情况下,无法识别到个人信息主体的过程,经过“去标识化”处理的个人信息即成为“去标识化信息”。使用“去标识化信息”有助于降低数据安全风险,更有利于保障个人的信息安全。

但《报告》显示,我国对健康医疗数据去标识化的标准在具体执行上还尚未统一,开发者很难判断信息被处理到什么程度才属于去标识化信息。

有专家表示,希望相关部门尽快出台医疗健康信息去标识化的标准,并可适当放宽使用去标识化信息的限制要求,以促进医疗AI技术的合规发展。

2、医疗AI的伦理问题
未来的医疗AI产品可能具备人类的情感、性格、习惯,不同程度地参与到医疗健康相关的活动中,甚至可以代替医生独立从事诊疗行为。这时,是否应当保护以及如何保护医疗AI的伦理地位和法律权利,将是未来需要考虑的问题。欧盟对人工智能机器人权利的讨论处于世界前沿,并已经在考虑要不要赋予智能机器人“电子人”的法律人格,具有权利能力并对其行为负责。

2017年初的一份欧洲议会报告认为:“从长计议,为机器人创造一个独立的法律地位,至少让最精密复杂的自动机器人具有电子人的身份,使他们为可能造成的损害负责,并可能将电子人身份应用于机器人做出自主决定或以其他方式独立地与第三方互动的情境。”

然而,授予人工智能法人资格的话题引起了巨大争议。报告发布后不久,包括计算机科学家、法学教授和公司首席执行官在内的、来自14个欧洲国家的156名人工智能专家联名签署了公开信,警告说从“法律和伦理角度”来看,授予机器人法人资格是“不恰当的”。

虽然因受限于技术的发展,针对上述伦理困境在现阶段尚难以给出明确答案。但《报告》认为,随着科技的不断进步,应当对该类问题保持关注,逐步探索并建立医疗专业人士利用AI作出诊断决策的伦理规范和行为准则,以适应AI在医疗领域更加广泛和深入的应用。

3、医疗数据是垄断还是共享
数据是人工智能发展的基石,对于数据的控制及垄断可能会直接影响医疗AI产业的发展。《报告》认为,从数据占有的角度来说,数据的独占本身并不违反《反垄断法》。只有因独占数据在某一相关商品市场形成市场支配地位,并且企业滥用这种市场支配地位,或因独占数据造成严重排除、限制竞争的效果才会违反《反垄断法》。

目前仍未看到各国直接针对医疗AI相关的数据垄断问题进行专门立法,但一些国家出台政策鼓励数据的开放共享。

我国目前在政务数据开放和公共企事业单位数据的开放方面已做出了规划;欧盟委员会已将建立出于研究目的的健康数据的安全访问和跨境交换的技术规范提上了日程;美国通过《21世纪治愈法案》确立了打击数据阻隔、鼓励数据共享的总体方向。

《报告》建议,立法者可以专注各国在医疗数据共享方面的进展,逐步建立医疗数据共享的统一标准,在解决医疗数据来源合法性的问题的基础上,进一步推进医疗数据的公平共享,保证医疗AI开发者安全合法的使用数据,以促进医疗AI开发者的公平竞争。

4、医疗大数据跨境传输必须合规
在跨境传输方面,国际间的交流合作是医疗AI技术进步不可或缺的要素。但《报告》指出,从国家利益角度看,健康医疗大数据已然成为了重要的国家资产,因此各国几乎都采取了较为谨慎的出境管制态度。我国于2014年5月5日发布施行的《人口健康信息管理办法(试行)》规定人口健康信息仅能在境内存储,不能以任何形式储存于境外。

国家卫健委通过《国家健康医疗大数据标准、安全和服务管理办法(试行)》第三十条进一步规定:“健康医疗大数据应当存储在境内安全可信的服务器上,因业务需要确需向境外提供的,应当按照相关法律法规及有关要求进行安全评估审核。”

《报告》认为,如何能够在保障公民和国家利益的同时,持续推动健康医疗大数据的流动和相关科技产业的健康发展,是今后值得继续深入探索的现实命题。

小结
据IDC的统计数据,到2025年人工智能应用市场总值将达到1270亿美元,其中医疗行业将占市场规模的五分之一,人工智能+医疗领域是大势所趋。从解放医院管理到解放医生到辅助制药再到大众健康管理,经过几十年的发展,人工智能逐渐深入医疗的方方面面,迈入深水区。而从监管和政策层面上,近日中国卫生信息与健康医疗大数据学会成立智慧医院与人工智能应用专业委员会、标准委员会和工作委员会,未来将制定中国智慧医疗与人工智能应用的行业标准。那么随着技术、政策、监管等困境的一点点清除,期盼已久的颠覆性革命必将会有到来的那一天。

参考资料

1.《这份报告超前沿:医疗AI是不是“电子人” 医疗数据如何“脱敏”》,21世纪经济报道;

2.Advancing AI in health care: It’s all about trust,https://www.statnews.com/2019/10/23/advancing-ai-health-care-trust/

分享到