回顾IBM Watson AI如何发挥优势、避开陷阱来优化医患护理?
https://www.cn-healthcare.com/articlewm/20190621/content-1064445.html
2013年,IBM向德克萨斯大学MD安德森癌症中心提供了一个大胆的想法--建立一个基于人工智能的平台,IBM Watson,该平台可以借助数字化来对抗人类最可恶的疾病之一--癌症。
但在不到4年的时间里,这个开创性的项目分崩离析。虽然Waston的发展过程充满坎坷,但它也向我们展示了机器学习技术是怎样在有朝一日补充甚至彻底改变医生所做的一切。
问题不在于AI是否会进入医学领域,而是它以怎样的形式进入。在最好的情况下,机器学习可以利用几乎所有临床医生的集体经验,为一个医生提供数百万个类似病例的经验,让医生做出明智的决定。在最糟糕的情况下,人工智能可以促进不安全的做法,扩大社会偏见,表现出过度承诺,从而失去医生和患者之间的信任。
近日,Google的Alvin Rajkomar博士和Jeffrey Dean博士以及哈佛医学院的Isaac Kohane博士在新英格兰医学杂志(New England Journal of Medicine)上概述了在医学实践中机器学习的前景和陷阱。
他们认为,AI不仅仅是一种新工具,它是扩展人类认知能力的基础技术,有可能彻底改革医疗健康,使之向更好的方面发展。谨慎利用机器学习有助于促进患者与医生之间的关系。
1、诊断治疗
在人工智能和医学方面,诊断方面受到很大的压力。
基于人工智能的诊断工具,往往可通过乳房X线照片发现可能致命的病变并诊断皮肤癌和视网膜疾病(现已获得FDA批准),即使是在他们的婴儿期,而一些放射科医生和病理科医生可能会看不出来这些。一些AI模型甚至可以解析精神症状或为转诊提供建议。
机器视觉(machine vision)和转移学习(transfer learning)方面的最新进展提高了计算机的诊断能力。尽管AI放射科医师通常需要大量注释数据集来"学习",但转移学习可以使先前训练过的AI快速获得另一种类似的技能。例如,对标准存储库ImageNet中数千万日常对象进行训练的算法,可以针对100,000幅视网膜图像(机器学习的相对较少数量)进行重新训练,以诊断两种常见的视力丧失原因。
更重要的是,机器学习非常适合分析在日常护理期间收集的数据,以鉴别未来可能出现的健康状况--少数群体健康报告。这些系统可以帮助实施预防措施,将健康问题扼杀在萌芽状态,并降低医疗成本。当给予足够数量和质量的患者健康纵向数据时,AI建立的预测模型往往比执业医师通过医学成像获得的原始数据更准确。
报告作者表示,医生必须接受培训,收集必要的信息,将它们输入进AI预测引擎。我们需要对这些模型进行仔细分析,以确保它们没有计费激励或出现当没有显著症状时无法给出建议的情况。
但通过治疗数据所建立的AI模型,可能仅反映医生的处方习惯而不是理想的做法。一个更有帮助的系统必须从谨慎挑选过的数据中学习,以评估某种治疗对某一特定人群的影响。
而要做到这点是有一定难度的。最近的一些尝试发现,获取专家数据,更新AI或根据实践定制它们,确实很有挑战性。作者总结说,使用AI治疗,给予医疗建议仍然是未来的前沿。
2、医疗改革
诊断只是冰山一角。
也许更明显的是人工智能对简化医生工作流程的影响。一般AI如智能搜索引擎等可以帮助挑选必要的患者数据。而其他技术,如医生已经在日常实践中使用的预测类型或语音听写,可以简化获取医疗数据的繁琐过程。
作者强调,我们不应该低估这种特殊的影响。医生们淹没在文书工作中,会占据与患者相处的宝贵时间。将工作主力变为AI技术,可以提高效率和改善工作流程,从而降低倦怠率。更重要的是,数据可以反过来反馈到培训机器学习模型,以进一步优化对患者的护理,进行良性循环。
人工智能也是将医疗保健扩展到诊所之外的关键。例如,未来的应用程序可以让患者拍摄皮疹照片,获得在线诊断而不需要跑过去进行紧急治疗。自动分诊可以有效地将患者转移至适当护理医师手中。并且在"看到"数十亿患者的情况之后,机器学习可以使医生有能力做出更好的决策,这也许是AI辅助医疗保健的最大希望。
但是,这种特殊情况尚没有数据支持它。现在的关键是开发正式的方法来测试这些想法,同时不会伤害医生或病人。
3、挑战与陷阱
正如IBM的Watson的发展磕磕绊绊,人工智能在医学界中的利用面临着多重挑战。Theranos惨败进一步描绘了一幅令人痛苦的清晰画面:在处理患者健康问题时,硅谷教条"move fast and break things"既鲁莽又极其危险。
医学往往可以展现机器学习的极限。例如,在没有代表性、多样化的疾病数据集的情况下,AI模型可能是错误或有偏差的。这也是IBM Watson崩溃的一部分原因:利用一个足够大的注释数据集以发现尚未知的医学发现,即使是可能的也是非常困难的。
然而,作者认为这不是一个永久的障碍。只要数据量足够大,AI模型就越来越能够处理不可靠或可变的数据集。虽然不完美,但这些模型可以通过较小的注释集进一步细化,这使研究人员和临床医生能够识别模型的潜在问题。
例如,Google Brain的工作正在探索打开AI"黑匣子"的新方法,迫使算法来解释他们的决定。在临床环境中,可解释性变得越来越重要,幸运的是,如今在顶级期刊上发表文章的著名AI诊断学家往往带有固有的解释机制。虽然人类专家可以监督人工智能替代方案的发展以降低错误诊断,但所有各方都应该明确:对于人类和机器来说,医疗错误率为零是不现实的。
作者说,采用这些系统的临床医生和患者需要了解其最佳使用的局限性。任何一方都不应过度依赖机器诊断,即使它变得习惯和平凡。
目前,我们仅限于基于历史数据集的模型;未来几年的关键是建立临床医生可以在现实世界中评估的前瞻性模型,同时应对因获取和管理AI的大型数据集而面临的复杂的法律,隐私,道德和监管问题。
作者对此抱有"谨慎乐观"的态度,期望在未来几年内出现一些经过仔细审查的早期模型,以及由经济激励和价值医疗理念驱动的文化变革。
最后,机器学习不会带走医生的任何东西。相反,医生的温暖,她的感性,敏感和对生活的欣赏,永远不会消失。它只会得到补充。
"这不是关于机器与人类,而是关于通过利用AI的优势来优化人类医生和患者护理," Kohane说。
参考资料:https://singularityhub.com/2019/04/25/how-ai-can-tap-into-the-collective-mind-to-transform-healthcare/