人权高专:必须确保人权植根于人工智能的整个生命周期与风险管理之中
联合国人权事务高级专员蒂尔克今天在“生成式人工智能与人权”峰会上强调,必须基于人权来加强对人工智能风险的治理,同时推进负责任的工商业行为,并确保对造成人权伤害的企业追究责任。
蒂尔克首先指出,《世界人权宣言》通过75周年之际,正值人工智能领域迎来一个快速变革期,“这是一个重大的历史性时刻”。
但他坦言,生成式人工智能的横空出世正影响到每个人,并且造成了技术进步的矛盾局面:一方面,“我们生活、工作和解决一些最复杂挑战的方式可能被彻底改变”;而另一方面,可能损害人类尊严和权利的风险进一步加深。
蒂尔克尤其对数字技术重塑社会和影响全球政治的能力表达了担忧。他表示,2024年有近70场选举计划举行,覆盖到全球40亿人所居住的国家,而数字平台上的虚假信息和宣传可能会对其造成影响。他强调,在虚假信息和操纵行为面前,“我们必须竖立起一个坚不可摧的支柱”。
全面评估受影响领域
他进一步指出,必须对人工智能可能产生变革性影响的多个领域进行全面评估,包括对非歧视、政治参与、获得公共服务的潜在威胁,以及对公民自由的侵蚀。
2019年,人权高专办建立了至关重要的工商业与人权技术项目(B-Tech项目),旨在提供权威的路线图,将《联合国工商企业与人权指导原则》应用于数字技术的开发和使用。就在峰会当天,该项目发布了《生成式人工智能人权危害分类法》。蒂尔克对此表示欢迎,并称“这将有助于更广泛地理解当前与潜在的风险”。
植根于国际人权准则的框架
他强调,对于生成式人工智能的治理,需要采取全球性的合作方式,并且确保将保护人权置于核心位置。为此,受到广泛使用的《联合国工商企业与人权指导原则》以及《经合组织负责任商业行为尽责管理指南》不仅可以为国家和企业提供坚实的屏障,还能为负责任的人工智能发展奠定基础。
但他同时认为,仅靠这两项指南还不足以应对人工智能带来的挑战;由于人工智能技术可能被国家或犯罪团伙滥用,因此需要制定一系列法律、监管和多边框架。而这些框架必须植根于国际人权准则,包括那些用以明确企业和投资者人权责任的标准。
治理倡议需寻求协调
蒂尔克提醒,虽然现在人们正普遍认识到人工智能治理的必要性,但当前推进的多项政策倡议大多存在不一致的问题,而且通常未给予人权因素应有的重视,“这有可能导致整个监管格局支离破碎”。
他为此强调,B-Tech推出的生成式人工智能项目是一项结构性的倡议,可以让人们更清楚地了解人工智能对人权造成的潜在影响,并让国家和企业明白需要采取怎样的行动,从而为更具连贯性的治理指明道路。
对人权侵害实施补救
蒂尔克还表示,各国需要保护每个人免受由人工智能造成的人权侵害,企业也需要确保其人工智能算法、运营流程和业务模式尊重人权。
与此同时,人权高专办继续敦促对受到人工智能人权侵害的受害者提供有效的补救。蒂尔克强调,在建立有效的补救制度方面,科技公司必须认识到自身的责任,以及这样做所带来的社会效益;而归根结底,在确保补救人权伤害方面,各国承担着最基本的责任,包括应当强行要求企业采取适当行动。
蒂尔克最后呼吁,应当将国家、企业、民间社会和个人团结在一起,担负起一个共同的使命:确保人工智能符合人类的最大利益,并与人类共建一个未来世界,让技术不仅服务于有钱有势的人,还要能够普遍提升人类的尊严和权利。