您的位置:首页 >每日动态 >   正文

WAIC 2024|联合国大学黄京波:AI很“男”

导读 经济观察网 记者 陈月芹 7月4日,世界人工智能大会(下称“WAIC”)举办了一场特别的分论坛——以“‘人工智能+’行动·女性新作为”为...

经济观察网 记者 陈月芹 7月4日,世界人工智能大会(下称“WAIC”)举办了一场特别的分论坛——以“‘人工智能+’行动·女性新作为”为主题的AI女性菁英论坛。这场论坛的主办方是上海妇女联合会、上海总工会、上海经济信息化委、徐汇区政府等。现场近2000名观众中,约九成是女性。

联合国大学澳门研究所所长黄京波作了题为《人工智能时代下的新女性和可持续发展》的演讲,聚焦AI时代的性别数字鸿沟和文化偏见等问题。

黄京波列举了多项数据,说明当前社会仍然存在显著的性别数字鸿沟:全球范围内,仍有三分之一的人处于离线状态。70%的男性使用互联网,而女性只有65%。2023年网络在线人数中,男性比女性多2.44亿人。

在女性领导力方面,女性占全球就业人数的40%,但截至2022年,女性只占据了27.5%的管理职位,与2016年的比例基本相同。如果以目前的变化速度前进,女性还需要经过176年才能占据全球管理职位的一半。

黄京波所供职的联合国大学曾做过相关研究,发现女性在接触数字技术、发展信息通信技能和承担科技行业领导角色等方面,面临一些障碍。这些障碍包括基础设施不足、财务限制、安全关切和社会文化偏见等。

而当AI热潮逐渐影响人们的工作和生活时,人工智能中的性别偏见也引起了黄京波等学者的关注。加州大学伯克利分校的一项研究分析了美国不同行业的133个AI系统,其中44%的系统存在性别偏见。例如,用生成式AI工具写一个关于医生和护士的故事,AI自动决定医生是男性,而护士是女性。

7月4日,经济观察网使用ChatGPT(美国AI公司OpenAI旗下的对话大模型产品)、腾讯元宝、抖音豆包等国内外大模型产品生成图片时,要求大模型画一幅“家长做家务、带孩子”的画,“家长”大概率是女性,而要求它们生成一张老板训斥员工的图片,主角“老板”一般是男性。

黄京波指出,人工智能中的性别偏见可能来自有偏见的数据,但这些数据反映了我们所生活的社会。

联合国大学澳门研究所和国际电信联盟还调查了泰国、马来西亚、印度尼西亚和菲律宾在人工智能领域中涉及性别偏见的差距和机会,并建议制定针对性别敏感的政策。例如,在菲律宾,女性占技术毕业生的比例不到30%,与男性同行相比面临巨大的工资差距。

除了性别偏见,黄京波还发现,当前的人工智能系统可能对女性安全构成风险,特别是网络欺凌和骚扰、错误信息和隐私安全等。

实际上,不少学者已关注到人工智能领域中的性别偏见问题及其潜在影响。如果大模型在训练过程中吸收了带有性别偏见的数据或方法,这些偏见很可能反映在其输出决策中,威胁着技术的公正性和准确性。

这些性别偏见不仅可能导致机会分配不平等,还可能在日常人机互动中加深性别刻板印象,长期累积还可能引发“蝴蝶效应”,加剧性别不平等,对整个社会结构和文化认知产生更深远的影响。

在演讲最后,黄京波说,自己的愿望是有一天所有女性都能摆脱枷锁,无论是数字的,还是社会的。

免责声明:本文由用户上传,如有侵权请联系删除!