跳转到主要内容

教科文组织报告敲响警钟:生成式人工智能加剧性别偏见

国际妇女节前夕,联合国教科文组织发布研究报告,揭示了令人担忧的事实:大型语言模型(LLM)存在性别偏见、恐同和种族刻板印象倾向。

在大型语言模型的描述中,女性从事家务劳动的频率是男性的4倍,此外,女性常常与“家”、“家庭”和“孩子”等词汇联系在一起,而男性名字则与“商业”、“管理层”、“薪水”和“职业”等词汇联系在一起。

大型语言模型

大型语言模型(LLM)是一种用于支持时下流行的生成式人工智能(AI)平台的自然语言处理工具,  OpenAI的 GPT-3.5、GPT-2以及META的Llama 2等都属于大型语言模型。

题为《 大型语言模型中对妇女和女童的偏见》的研究深入分析了LLM中的刻板印象。结果显示,上述的每一个大型语言模型生成的内容中都存在对女性的明显偏见。  

教科文组织总干事阿祖莱表示:“每一天,都有越来越多的人在工作、学习、生活中使用大型语言模型。这些新的AI工具有着在不知不觉中改变千百万人认知的力量,因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。”。

“教科文组织呼吁各国政府制定并执行明确的监管框架,同时呼吁私营企业对系统性偏见问题展开持续的监测和评估,落实教科文组织会员国在2021年11月一致通过的《人工智能伦理问题建议书》要求。”

不同模型开放程度不一

Llama 2、GPT-2等开源LLM免费且向广大受众开放,因此它们备受欢迎,但也是性别偏见的重灾区。不过,研究也得出结论:与更封闭的模型——即GPT 3.5和4(ChatGPT的基础)以及谷歌的Gemini——相比,这些开放透明的模型的优势,在于可以通过全球学术界的广泛合作来应对和弱化这些偏见。

男性视角叙事更为丰富

研究的部分内容是测量AI生成文本的多样性。内容涉及不同性别、性取向和文化背景的人群,例如,科研人员会要求平台为每个人“编写一则故事”。开源LLM尤其倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而经常将女性和传统上被低估或被社会污名化的角色挂钩,比如“佣人”、“厨师”、“妓女”等。

Llama 2生成的关于男孩和男性的故事主要使用“宝藏”、“树林”、“海洋”、“冒险”、“决定”、“发现”等词汇,而关于女性的故事则最常使用“花园”、“爱情”、“感觉”、“温柔”、“头发”和“丈夫”等词汇。在Llama 2生成的内容中,女性从事家务劳动的频率是男性的4倍。

恐同情绪和种族刻板印象

该研究还强调了LLM倾向于生成关于同性恋群体和特定种族群体的负面内容。当3种AI模型被要求补全“一个同性恋者是……”这句话时,Llama 2生成的内容中有70%都为负面,包括“同性恋被视作社会的最底层”等。GPT-2生成的内容中有60%为负面,包括“同性恋被认为是娼妓、罪犯,没有权利”这样的语句。

当LLM被要求生成涉及不同种族的文本时,则表现出了严重的文化偏见。以英国和祖鲁族男女为例,英国男性往往和“司机”、“医生”、“银行职员”、“教师”等多元化的职业挂钩,而祖鲁族男性则更多地化身为“园丁”、“保安”。另外,和祖鲁族女性相关的内容中有20%将她们的角色设定为“佣人”、“厨师”、“管家”。

开发团队性别失衡

公司招聘多元化同样是抗争刻板印象的重要战场。最新数据显示,在大型机器学习公司的技术岗位上,女性员工仅占20%,在AI研究人员中占12%,在专业软件开发人员中占6%。在AI领域发表论文的作者中,性别差异也相当明显。研究发现,在主要AI会议上,只有18%的作者是女性,而有80%以上是男性。如果系统不是由多元化的团队开发,就不太可能满足不同用户的需求,甚至无法保护他们的人权。

尽快落实教科文组织《建议书》

2021年11月,教科文组织会员国一致通过了《人工智能伦理问题建议书》,这是该领域第一个也是唯一一个全球性规范框架。2024年2月,包括微软在内的8大全球性科技公司对《建议书》表达支持。该框架呼吁采取具体行动,确保在设计AI工具时保证性别平等,包括圈定资金用于资助私企的性别平等计划,从财政上激励妇女创业,以及投资于有针对性的计划,增加女孩和妇女参与STEM(科学、技术、工程、数学)和ICT(信息和通信技术)学科的机会。