智谱华章-AI发掘科技创新原动力

您的位置:智谱华章官网 > 公司新闻 > 新闻报道 > AI 世界里的性别偏见

AI 世界里的性别偏见

发布日期:2020-03-07 19:40浏览次数:

  人工智能世界里的性别偏见,是人类自身的一面镜子。

美国劳工局的数据显示,虽然女性在劳动力市场中占了 59% 的比例,但在科技界往往只有 20-30% 的女性员工。在与程序开发相关的工作中,网站开发是女性比例最高的职业,但也只有不到 40%。

 

据估计,截至 2018 年,仅仅在美国就有 140 万个与计算机相关的就业机会,而女性只会获得这其中 29% 的工作。

 

许多学者曾尝试从不同角度来解释这一现象,例如可能是根深蒂固的 “极客即宅男” 等偏见使得女孩子们不愿意接触计算机,也可能是男生从小更容易被教育要去冒险,而计算机恰恰是一个需要创新的学科等等。

 

 

 

值得注意的是,并没有任何科学证据表明女性与男性在计算机相关领域的天赋和能力有所不同。

 

而在人工智能领域,虽然很多人认为 AI 系统冷静、客观、理性、有逻辑,看起来是中性的,但事实上由于它是人类制造的,AI 的世界里已经出现了与我们相同的偏见,包括性别偏见。

 

特别是在女性从业人员占比较小的前提下,人工智能领域潜在的偏见,就更有被重视的必要。

 

AI 继承了人类的偏见

 

根据《哈佛商业评论》的报道,有很多 AI 出现了人类性别偏见的现象。

 

例如,亚马逊的 Alexa 和苹果的 Siri 等常见 AI 系统的核心 — 自然语言处理(NLP)就存在性别偏见,AI 在词嵌入上的性别偏见,就像单词联想游戏一样,这些系统通常将 “男人” 与 “医生” 相关联,将 “女人” 与 “护士” 相关联。显然,这种关联词无疑体现的都是落伍的观念,并不能反映现代社会,或者至少不能反映出我们希望的现代社会。

 

 

人工智能算法本质上是从人类的历史行为与决策中进行学习,而人工智能中的这种关联概念,无疑是对人类社会性别偏见的继承。人工智能的性别偏见不仅反映了社会中存在的性别陈规定型与偏见,而且在设计与营销决策的过程中,人工智能还会进一步放大这些偏见。

 

2018 年,亚马逊被迫关闭了一个用于筛选申请人简历的人工智能招聘工具,其原因是这款工具被指歧视女性。比如,如果一家企业长期雇用的男性明显多于女性,那么人工智能很可能会将候选人的吸引力与男性应聘者的某些因素关联起来,或者直接淘汰那些拥有女性应聘者相关因素的就职申请。

 

根据 CNN Business 的报道,性别偏见也可能会导致使用 AI 的面部识别软件出现问题,例如音乐会,机场和运动场上的安全应用程序。麻省理工学院与微软的研究人员曾联合开展了一项针对机器学习算法是否存在性别与种族歧视的研究,结果发现当主流面部识别软件面对女性照片时,差错率会变得更高。而当对象为皮肤颜色较深的女性时,差错率会进一步上升。除此之外,在语音与话语识别领域,同样有很多案例证明,人工智能应用在面对女性时表现更糟。

 

AI 性别偏见如何产生?

 

如果没有足够的女性样本参与,那么 AI 的知识就会出现漏洞,这就是为什么会出现偏差错误的原因。机器学习是由人类领导的,这意味着他们自己的偏见将被纳入 AI 系统中。

 

您是否能想象世界上所有的幼儿都被 20 岁的男性抚养长大?这就是我们今天的 AI 的样子。它是由一个非常同质群体打造的。”Forida Polli ,Pymetrics 的首席执行官在最强大下一代财富女性峰会上如是说。

 

 

 

埃隆·马斯克、史蒂夫·乔布斯、比尔·盖茨、马克·扎克伯格,科技领域被人熟知的男性领导者太多。

 

Facebook 的首席运营官雪莉·桑德伯格(Sheryl Sandberg)曾经这样说道:“性别偏见的问题,无论是在科技界还是在领袖界,都在于它完完全全是自我强化的。正因为我们缺少女性领袖,所以我们会认为女性无法成为优秀的领袖,于是女性领袖越来越少。久而久之,当一想到领袖这个词,你想到的便是一个男性的形象。”

 

无偏见的未来 AI 世界

 

如果用于筛选潜在求职者的 AI 由具有性别偏见的数据科学家编码,那么我们的工作场所可能完全是男性。

 

而克服偏见的第一步是确保训练样本尽可能多样化 —— 在种族,年龄、性别等方面,而且开发 AI 的人也需要来自不同背景

 

当然,与所有行业一样,人工智能行业也需要在方法和观点上朝着平等的方向努力。人工智能公司也需要吸引更多的女性来从事技术工作

 

Equal AI 执行董事 Miriam Vogel 表示:“在对我们未来的惨淡预见中,或许几十年的争取民权与平等的斗争,都不会使相关的法律规定有所改变。”

 

 

偏见可能是生活中不可避免的事实,但我们不要让它成为新技术不可避免的方面。新技术使我们有机会重新从 AI 开始纠正偏见,但最终能否消除偏差,取决于人类而不是机器。根据《金融时报》的说法,如果人类技术开发者不能培训 AI 实现多样化,算法将始终反映我们自己的偏见

 

计算机诞生之初曾出现了许多伟大的女程序员,例如人类历史上第一位程序员 Ada Lovelace,ENIAC 的首批程序员之一 Jean Bartik,以及 COBOL 的发明者、写出第一个编译器的 Grace Hopper 准将。

 

因此,我们应当寄希望于女人与男人可以一起致力于塑造无偏见的 AI 世界的未来。

 

Each for Equal

 

女性对科学技术产生的影响毋容置疑,但统计下来的数字仍然令人震惊。根据 2017 年女性与科学技术的研究,只有 3%的女性认为科技行业是他们的第一选择,只有 5%的科技行业由女性执掌,78%的学生不能说出科技领域的著名女性

 

幸运的是,时代在变,越来越多女性加入创新者和创造者的行列,为世界推动卓越的科学技术创新贡献自己的力量。

 

对于前沿科技领域而言,女性是不可或缺的一半;而对于女性而言,前沿科技领域是一个非常酷的行业。每一个令人振奋的新发现、新进展,都为女性带来了许多令人振奋的机会。

 

2020 年国际妇女节活动主题为 Each for Equal。在今年的妇女节,清华大学-中国工程院知识智能联合研究中心、清华大学人工智能研究院与北京智源人工智能研究院将一起发布《人工智能全球女性榜单(Women in AI)》,旨在通过 AMiner 学术数据在全球范围内遴选人工智能学科最有影响力、最具活力的顶级女性学者。

 

闪耀全球的 AI 女神们将会于明日揭晓,让我们拭目以待!