跳转到主要内容

世卫组织为生成式人工智能的医疗应用发布伦理指南

世界卫生组织今天发布最新的人工智能伦理指南,旨在确保基于多模态大模型(LMMs)的生成式人工智能在卫生保健领域得到恰当的应用。

作为一种快速发展的生成式人工智能技术,多模态大模型可以接受包括文本、视频和图像在内的多类型数据提示,其输出也不限于输入数据的类型。自去年以来,人们熟知的ChatGPT和Bard等平台都是基于这种技术。

多模态大模型在模仿人类交流方面同样独树一帜,并且还能够完成未被明确界定的任务。

广泛的应用场景

世卫组织认为,生成式人工智能有改善卫生保健的潜力,但前提是与之相关联的所有风险都必须得以应对。

在这份指南中,世卫组织提出了多模态大模型在卫生领域的五大应用场景,包括回应患者的书面问询,探讨症状与治疗方法,以及在电子健康记录中登记患者的访问情况等。

联合国教科文组织号召各国立即执行其《人工智能伦理问题建议书》,以避免这项技术被滥用。
Unsplash/D koi

潜在风险

但该指南同时提醒,多模态大模型可能会生成虚假、不准确、有偏见或不完整的陈述,从而对使用这些信息做出健康决策的人造成伤害。

不仅如此,用于训练多模态大模型的数据也可能质量堪忧,或是在种族、族裔、血统、性别、性别认同或年龄等方面存在偏见。

多利益攸关方的努力

世卫组织认为,在为多模态大模型的开发、部署和医疗应用制定标准的问题上,各国政府负有首要责任。因此,政府应向开发者提供算力和数据集等公共资源,同时使用政策法规来确保多模态大模型的医疗应用遵循伦理义务和人权标准,并创建或指定专门的机构来评估和批准此类应用。

而在开发者层面,世卫组织则提出,应当从人工智能开发的早期阶段就让潜在用户及所有直接和间接利益攸关方参与进来,包括医疗提供方、科学研究人员、卫生保健专业人员和患者。此外,还要确保多模态大模型以必要的准确性和可靠性执行明确定义的任务,从而提升卫生系统的能力,并让患者进一步受益。