首页 > 中国妇女网 > 公共栏目 > 女网时评

算法中的性别歧视,应被看见被纠正

标签:女网时评 | 来源:中国妇女报·中国妇女网 | 作者:金勇

■ 金勇

“如何避免算法中的偏见和歧视”“AI时代,女性如何向前一步”等话题,在刚刚召开的“世界互联网大会·互联网发展论坛”上,引起了普遍关注。

算法是以数学方式或计算机代码表达的意见,由算法模型和数据输入决定着预测的后果。随着人工智能时代的加速到来,我们将生活在一个算法无所不在的世界,尤其是随着算法决策开始介入并主导人类社会事务,算法对我们的生活和未来都将产生不可估量的影响。基于此,由于算法偏见可能带来的法律与伦理风险也开始引起人们重视。

算法中的偏见之所以能引起注意,源于几次刷爆互联网的新闻:2015年,谷歌图片软件的自动标记功能,误将两名黑人标记为“大猩猩”;2016年,微软的首个聊天机器人Tay上线,由于事先没有为它植入规则,希望它在与人互动中产生自己的愿望与想法,结果Tay一上线聊天就被网民们“教坏”,成了一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”,不到一天就被紧急下线;2018年,亚马逊的招聘软件在招聘员工时被发现,在读取到带有女性、女子相关词汇时,算法会降低简历的权重,当简历中出现女子学院等关键词时,算法更会直接对她们作降级处理——这打破了人们对计算机技术的一个广为人知的误解:算法决策倾向是公平的。而算法背后隐藏的“性别歧视”,也作为AI时代的伦理问题之一开始浮现。

算法中的性别歧视是如何发生的?虚拟世界的算法偏见首先源于算法决策。英国作家乔治·奥威尔在他的政治小说《一九八四》中写到:“谁掌握过去,谁就掌握未来。”这也可以拿来类比算法,如果给算法录入的用于学习的海量数据是带有偏见的,算法就会在一次次推演中把原本细小的偏见撕的越来越大,最后一根针被撕成了一道裂缝。

因此,算法偏见是人带给机器的人类固有偏见。因为智能算法的背后是人,算法的开发和应用都会有大量的人工因素和人为判断,要想让算法没有偏见,首先人类要克服自身易产生偏见和其他诸多思维的缺陷。比如,若想在未来打破固有的性别歧视,就要从现在开始,在给机器提供的学习数据中尽可能多元化,不让性别歧视在算法中得到巩固并在未来得到加强。因为过去不完美数据中的性别歧视是人为造成的,这种歧视理应随着社会的发展而改变。同时,还要鼓励更多女性从事人工智能领域的工作,以便通过引入“女性视角”,提出实现算法性别平等的技术方案。

从现实情况看,算法中性别歧视的产生也与AI领域从业者男性居多不无关系。据统计,谷歌技术部中仅有21%是女性,而人工智能部只有10%的女性。Facebook的技术员工中22%是女性,但只有15%的女性从事人工智能领域。其实,人工智能不仅仅是一种基于算法的技术,同时也是人的意识的延伸,在人与机器合作、人与机器互动的过程中,人类会不自觉把固有偏见带入到新世界,而也只有人,才能改变这一切。

我们究竟要带给未来什么样的新观念?要给年轻一代怎样的新世界?我们希望那是一个没有性别歧视的公平世界,是一个科技更好造福人类的美好世界。因为性别平等,不只是保护女性,更关乎社会治理,关乎国家发展和全球进步。

让我们开始改变,从当下开始,从互联网等新技术的开发应用开始。

  • 分享:
  • 编辑:李凌霄     2020-11-27

评论

0/150