跳转到主要内容

教科文组织发布首份全球指南,力促对生成式AI在教育中的运用实施管制

随着新学期的开始,联合国教科文组织今天发布全球首份关于在教育和研究领域使用生成式人工智能(AI)的指南,并呼吁各国政府尽快就此问题实施适当的管制和教师培训,确保这项技术在教育中的运用遵循以人为中心的方法。

教科文组织指出,随着ChatGPT在去年11月的问世,生成式AI引发公众的强烈关注。然而,在今年1月ChatGPT的月活用户就已突破一亿的情况下,到7月为止全球仅有中国对生成式AI推出了专门的管制措施。

机遇与挑战并存

教科文组织总干事阿祖莱表示,生成式AI对人类发展来说可以成为一个巨大的机遇,但也可能造成伤害和偏见。她强调,“在缺乏公众的参与以及来自政府的必要保障和监管的情况下,这项技术无法纳入到教育之中”。

为此,基于教科文组织2021年通过的《人工智能伦理问题建议书》以及2019年国际人工智能与教育大会达成的《北京共识》成果文件,这份最新指南旨在回应今年5月全球教育部长会议提出的关切,并帮助政策制定者和教师最大限度地利用人工智能的潜力,以服务于学习者的根本利益。

生成式AI引争议

该指南不仅给生成式AI做出定义,还解释了其运作机制,同时围绕这项技术本身及其对教育的影响阐述了相关争议。这些争议包括:加剧“数字贫困”,超越国家监管的适应步伐,不经同意使用内容,训练模型缺乏透明度和可解释性,生成内容“污染”互联网,不可靠的产出与现实世界脱节,有损意见的多样性,以及制造更多的虚假信息。

教科文组织特别强调,目前ChatGPT模型是基于在线用户的数据进行训练,而这些数据反映的是全球北方国家的价值观与主导社会规范。因此,生成式AI如何在数字层面加剧数据鸿沟尤其值得思考。

联合国教科文组织号召各国立即执行其《人工智能伦理问题建议书》,以避免这项技术被滥用。
Unsplash/D koi
联合国教科文组织号召各国立即执行其《人工智能伦理问题建议书》,以避免这项技术被滥用。

坚持“以人为中心”

针对这些争议,教科文组织在其指南中重申,在教育中运用人工智能也将遵循一种以人为中心的方法。这种方法倡导人工智能的使用要服务于人类能力的发展,以实现包容、公正和可持续的未来。

同时,实施这种方法必须要以人权原则为指导,并且突出保护人类尊严与文化多样性的需要。而从治理角度来说,以人为中心的方法要求对人工智能进行适当的管制,以确保人能够继续发挥作用,同时确保人工智能运用的透明度与公共问责。

七个监管步骤

基于这一原则方法,教科文组织为各国政府提出了七个关键步骤,用以管制生成式AI,并就其在教育和研究领域符合伦理的运用制定政策框架。

这些步骤包括:批准国际或地区通用数据保护条例(GDPR),或在国家层面制定这一条例;采取/修订并资助关于人工智能的“全政府”战略;巩固和实施针对人工智能伦理问题的专门监管措施;调整或执行现有版权法以管制人工智能生成的内容;细化针对生成式AI的监管框架;为教育和研究领域正确使用生成式AI进行能力建设;思考生成式AI对教育与研究的长期影响。

学校应对缺失

此外,教科文组织还特别提出,在课堂上使用人工智能工具的年龄限制应设在13岁。该组织今年7月发布的一份文件显示,与发行一本新的教科书相比,在课堂上使用生成式AI工具所需的授权更少。

教科文组织认为,全球教育部门在很大程度上并未对人工智能工具在伦理和教学层面的融入做好准备。

今年早些时候,教科文组织对450多所中小学和大学进行的一项全球调查发现,只有不到10%的学校制定了关于使用生成式AI应用的机构政策和/或正式指导。而该组织认为,这在很大程度上要归咎于国家监管的缺失。