如何避免AI在医疗健康领域应用的风险 加速医疗变革

在今年的博鳌亚洲论坛上,“AI+健康”的应用和治理成为单独的分论坛议题。这不仅因为AI给医疗健康领域带来了巨大变化,还因为它在该领域的应用存在许多需要澄清的问题。

如何避免AI在医疗健康领域应用的风险

腾讯健康总裁吴文达在论坛对话中表示,在医疗健康领域,未知部分大于已知部分,AI能帮助科学界理解人体生物学,带来新的文艺复兴。AI在新药研发、药物发现、AI阅片等方面都为医疗健康带来益处,但识别和防范AI风险也是一个复杂的话题。

新加坡医疗集团人工智能办公室主任张书维认为,医生需要更好地使用AI。例如,放射科医生在AI支持下可以避免人类易犯的错误,提高效率。吴文达举例说,宫颈癌AI筛查在中西部基层医疗机构应用后将检出率提升了2~3倍,与广医附一院研发的DeepGEM病理大模型将肺癌基因突变预测时间从数周缩短至1分钟,降低了医疗成本。

海南博鳌乐城国际医疗旅游先行区管理局局长傅晟指出,以往开发新药需花费10年、10亿美元,但现在AI改变药物开发模式已初见端倪,推动药物发现,并在分子、基因层面提供提前诊断。AI阅片能力超过传统医生水平,还能提出个性化治疗方案。细胞出版社战略与创新副总裁李统胤表示,生成式AI能整合大量信息,有助于理解复杂的人体变化。

然而,专家也呼吁要谨慎看待医疗健康领域的AI应用。李统胤提醒,如果AI在医疗健康方面作出错误决定,后果会非常严重。红十字国际委员会主席中国事务个人特使史德林则强调,对于AI要解决什么问题,必须从更广泛的层面考虑,坚持AI至少无害的原则。

多名业界专家认为,AI在医疗健康领域的应用面临数据流通、决策主体和AI可靠性等问题。刘翔宜指出,数据隐私十分重要,医疗数据是最敏感的领域,要做到数据绝对安全的同时保证数据充分流通和分享,需要国际公认的数据标准和规范。李统胤指出,研究层面原始数据获取过程复杂,需要简化数据提供的过程。吴文达提到,高质量、标准化生物数据的稀缺以及算法在复杂生物学机制中的可解释性不足是当前存在的局限。

AI的可靠性也是一个需要严肃对待的问题。励讯集团企业事务总裁池永硕指出,大语言模型像黑匣子,透明度不足,公众需要了解其运作方式。吴文达提醒,大语言模型黑匣子问题未解决,AI智能体会使用黑匣子的数据,因此AI不是百分之百可靠。

专家提醒,应用AI时要明确人的责任。傅晟指出,AI能在相当大程度上替代医生,但在涉及人性和道德时,AI不能完全代替人类。吴文达提醒,人们要明确在什么情境下使用AI,高风险任务完全依赖AI智能体是不可取的。医学的本质还是“人学”,关乎信任、共情与综合决策,医生的角色在于整合技术、经验与人文关怀,作出有温度的判断。而AI应作为医生的辅助角色。

返回顶部