首页 > 中国妇女网 > 观点

“显性”平等与“隐性”不公:解密ChatGPT中的性别问题

标签:观点 | 来源:中国妇女报 | 作者:戴雪红

·编者按·

人工智能领域长期以来存在性别不平等问题,当最近爆火的AI应用程序ChatGPT被问及一些性别话题时,它呈现出了友好的姿态,引得一片赞誉声,也吸引了上亿的活跃用户。那么,ChatGPT真的能解决AI长期被诟病的性别偏见吗?本文作者带我们一起解密ChatGPT中的性别问题,文章围绕算法程序规避下的“显性”平等、技术背后资本操控的“隐性”不公以及ChatGPT与性别平等的现实审视进行了讨论。

■戴雪红

人工智能领域存在性别不平等问题已经是老生常谈了。当最近爆火的AI应用程序ChatGPT被问及一些性别话题时,它的回答常常是这样的:“作为一种人工智能,我认为歧视女性是一种不道德和不公正的行为。每个人都应该被平等对待,无论他们的性别、种族、宗教或其他身份特征。歧视女性不仅违反了基本的人权原则,也会导致社会的不公平和不平等。”由此可见,ChatGPT在应对性别问题上呈现出友好的姿态,引得一片赞誉声,也吸引了上亿的活跃用户。那么,ChatGPT真的能解决AI长期被诟病的性别偏见吗?当ChatGPT遭遇性别问题,又能给我们带来哪些新变化与新挑战?

算法程序规避下的“显性”平等

ChatGPT是由美国公司OpenAI开发的一种大型语言模型,其主要功能是生成语言文本。OpenAI是“开放人工智能”的缩写,宗旨是通过开放的研究和合作,将AI的好处带给更多的人。Open的意思是“打开”,正如潘多拉打开了一个盒子,释放了各种疾病、灾难和希望等。而在AI领域中,恰恰也存在着一个“黑盒子”——通常指的是一种模型或算法,OpenAI的使命之一是尽可能地减少“黑盒子”带来的负面影响。例如,Tay是微软公司2016年推出的一个聊天机器人,然而,由于其设计不良和缺乏对滥用的限制,Tay在推特上遭受了大量恶意用户的干扰,发布了涉及性别歧视与种族歧视等言论,引起了公众的不满和批评。Tay仅上线不到一天即死亡。“微软Tay事件”是AI领域的重大事件,是一次由于缺乏适当的监督和控制而导致AI产生不当行为的事件。为了避免出现类似的事件,OpenAI建立了一些内部规则和流程来确保ChatGPT的安全性和可靠性,以符合道德和法律的要求。到目前为止,ChatGPT已经发展为一种具有一定道德标准且保持中立态度的使用程序。值得一提的是,不同于微软Tay被设定为19岁的少女,ChatGPT是没有性别设定的。

针对AI模型中存在的性别不平等问题,当下的ChatGPT更加注重语言的包容性和多样性。在ChatGPT的训练数据中,对于不同性别、种族、文化和背景的人的言论进行了广泛的收集和分析,使用相同数量的男性和女性数据,从而确保模型学习到的知识是平衡的。另外,ChatGPT能够更好地理解语言中的隐含含义,这有助于避免在对话中出现性别偏见等不恰当的言论。在ChatGPT的设计中,模型被训练成能够识别并理解社交上下文和语境,这可以使ChatGPT更加准确地理解和回应包括性别在内的社会问题。ChatGPT已经通过大量的数据训练来识别性别不公正,并学会了避免使用具有性别刻板印象的单词和短语,这就可以用来对文本进行性别敏感语言的处理和删选。ChatGPT也能够用于传播关于性别平等的信息和知识,从而提高公众对性别平等话题的意识和理解。不过,无论技术背后的设计理念是否趋于平等,ChatGPT对于性别歧视问题是一种“显性”平等的思维逻辑。这导致了很多人认为其在算法方面突破了性别不公,那么,事实真相究竟如何呢?

技术背后资本操控的“隐性”不公

只有了解AI的性别偏见是怎么来的,我们才能知道ChatGPT为了纠偏做了些什么,还存在哪些问题。首先是数据源的偏见。数据源是从网络中抓取的,偏见来自搜集的数据源与现实情况的偏离。其次是算法的偏见。算法由算法工程师编写,但背后是工程师代表的利益集团的倾向。数据标注的质量和数量对ChatGPT的性能和应用场景都会产生重要影响。例如,当人们问ChatGPT一些关于性别、性少数或种族歧视等问题时,ChatGPT一般这样应答:“作为一个AI程序,我没有情感和个人信仰,我不会有任何偏见或倾向性。”为什么会出现这种答案?原因在于ChatGPT的技术编码对关于性别问题的敏感度提高,于是当聊天中出现相关话题时,它就会机械性地选择回答已经被植入的符合社会要求的标准答案。但是ChatGPT也不是绝对的道德理性状态,当有一些不怀好意的人引导、质疑、威胁它时,它就会展现出进退两难、模棱两可的姿态。而且,ChatGPT给出的答案就一定是标准答案吗?并不一定,但这个答案是由ChatGPT公司所有标注师综合价值观形成的结果,某种程度上它代表了在性别问题上形成的共识。它似乎显得非常成熟,永远保持中立的态度。简言之,ChatGPT的“成熟人设”是由算法工程师和数据标注师合力打造的。

实际上,ChatGPT的背后是互联网巨头微软,这种资本大鳄的垄断发展模式必将在ChatGPT的发展上重演。关于性别问题的标准答案是由垄断了数据的人说了算,掌握了标准答案就是掌握了话语权,甚至我们很难说清楚,是我们生产的数据影响了标准答案,还是标准答案影响了我们。因此,在这种貌似公开、平等的程序背后,我们要关注的不仅仅是ChatGPT的数据来源、ChatGPT的AI执行系统及其背后的算法机制,还要关注技术背后的资本支持,这些都离不开人类的操作与干预。也许在不远的未来,ChatGPT就会为你推荐适合你的产品,影响你的思维方式和判断力,因为它不仅仅是机器,它还是人类的对话者,它掌握着人类赋予的话语权。当ChatGPT得到了人类的信任之后,性别偏见就会以另一种方式重新浮现,它会为女性对话者推荐护肤品、母婴用品和家庭用品,为男性对话者介绍理财产品、交通工具和楼盘信息,对这种模式的理解可以参考谷歌和百度发展成熟之后的广告推送模块。因为ChatGPT的背后是资本的力量,ChatGPT作为资本的新宠必然是存在帮助资本实现价值增值的可能,说不定ChatGPT将是继直播平台后的新一任“带货王”。

ChatGPT与性别平等的现实审视

ChatGPT或者AI的性别不平等问题并不是独立存在的,其实质是反映了社会本身的偏见,不会因为一款人工智能产品的出现而简单地消失。只有实施思想和制度上的变革,ChatGPT才能被进一步改进与完善。尽管AI领域一直被认为是男性主导的领域,但事实上,越来越多的女性进入了这个领域,特别是在研究和开发AI算法和应用程序方面。然而,女性进入AI领域会面临诸多障碍,例如,招聘和晋升中存在的性别不公正、工资差距和性别平等问题等。可能我们很难在表面上捕捉到ChatGPT的性别歧视现象,但是现实的性别问题往往是隐而不见的、沉默不语的,这远远不是AI等技术可以帮助解决的。

总之,ChatGPT和其他AI本身并不具有道德、价值观或利益的色彩,它们只是通过算法、数据和模型进行编程的工具,最终取决于人类如何使用它们。这些工具可以被用于积极的和有益的目的,也可以被用于负面和有害的目的。实现性别平等不仅需要培养女性从事先进科技研究的能力,使其能与男性一同引领新技术的发展方向;还需要每个人的努力,以共同打破性别壁垒和陈旧的观念,为女性提供更多的机会和平等的待遇。解密ChatGPT或者AI可能存在的性别歧视问题要从现实社会中开始,只有建立一个公正和平等的社会和制度,才能使ChatGPT更加智能、更加人性化。这意味着实现性别平等的道路是一个充满冒险和挑战的漫长旅程,需要我们勇敢地面对各种不确定性与困难。

(作者为南京大学马克思主义学院教授、博士生导师)

注:本文是“江苏高校学习贯彻党的二十大精神专题研究项目”的阶段性成果。

  • 分享:
  • 编辑:肖睿     2023-02-28

评论

0/150