种族主义机器人?问题的一部分,解决方案的一部分

                                                                       

关键点

  • 社交偏见和偏见是破坏性的.他们切碎了这个多元化社会的结构,并助长了偏执和混乱的火灾.
  • AI和人类都可以对各种社交群体产生偏见.
  • 最近努力从文本和视觉信息中消除偏见,这些信息可能会对公众舆论产生负面影响.

最简单的联想学习形式是帕夫洛维亚的调节.通过这个基本的行为过程,人类和其他生物开始欣赏世界上无数事件之间存在的可靠关系,而这种关系被称为环境的"因果关系". Pavlovian条件的关键特征是,两个刺激的频繁连接足以在它们之间建立持久的连接.

我们通常认为帕夫洛维亚的调节涉及基本的反射,例如眼睛的眨眼或唾液从口腔中的腺体分泌.但是,刺激之间的关联也会引起情绪或情感反应,其中一些人非常微妙,外在不可观察.

这些微妙的情感反应中的许多(如此被称为"隐性偏见")反映了一系列社会刻板印象和偏见.我们当然永远不希望承认对他人产生如此负面的感觉.确实,我们自己甚至可能都不知道拥有它们.然而,高效的行为技术可以揭示出这些原本潜在的偏见.隐式关联测试(IAT)就是一种这样的技术.

IAT要求人们按两个计算机键之一,以便对四个类别的单词进行排序:例如,女性的名字,男人的名字,与房屋相关的单词以及与办公室相关的单词.当将妇女和家庭的类别分配到一个密钥中,而男人和办公室的类别被分配给第二个钥匙时,人们的反应速度要比女人和办公室分享一个钥匙以及男人和家庭共享第二个钥匙的速度要快得多.这种响应速度的明显差异表明存在隐式性别偏见或刻板印象.自1998年以来,IAT已为我们可能拥有的许多不愉快的信念提供了独特的瞥见.

当然,没有人天生持有这些信念和偏见,必须学习.帕夫洛维亚调节的主要启示之一是,某些严重的适应不良行为,例如,可能是由独特的个人经历引起的.许多社会最有害的种族主义者和性别歧视偏见是否会被同样获得?

答案似乎是"否".这些和其他社会偏见(例如,年龄,残疾,体重和财富)太普遍了,无法成为许多不同的人共享许多共同经历的结果.那么,这种普遍的偏见会在哪里起源?

对AI和偏见的研究

一个有趣的线索来自一个不太可能的来源.考虑一下这些新闻发布的这些头条新闻:"即使是人工智能也会因种族和性别而产生偏见." "接受过AI训练的机器人成为种族主义者和性别歧视." "种族主义机器人的崛起:AI如何学习我们所有最糟糕的冲动." "人为聪明的机器人使种族主义者和性别歧视的偏见永存."这些寒冷的计算机怎么可能变得有偏见和偏见?

答案既简单又揭示.大多数AI设备的"大脑"都使用已编程的算法来检测我们自己的大脑已经进化的那种协变量,以检测无数无关刺激的噪音.

.

对于计算机,已经设计了不同的偏差测试:一个是词 - 装饰协会测试(WEAT).通过在互联网上检查数千亿英语单词,事实证明,一些单词被证明比单独的10字阅读框架更加强烈地嵌入到了10字的阅读框架中,这与偶然性相比,IAT使用人类的反应时间来揭示隐式偏见的关联.至关重要的是,已经发现WEAT和IAT在各种人类偏见上,包括种族偏见.

.

这种恶性刻板印象不仅限于言语刺激.还发现视觉刺激及其口头标题显示出强烈的种族主义和性别歧视偏见.

简而言之,在广泛的言语和视觉刺激中,可以通过人工设备和人类成年人检测到相同的偏见.为了从莎士比亚的戏剧《朱利叶斯·凯撒(Julius Caesar)》(Julius Caesar)中脱颖而出,这不是我们自己的错,而是在我们的星星中 - 在这里,用我们读过的无数词和我们每天都看到的照片.

含义

这些结果具有重要意义.首先,无论我们的个人经历如何,无论是美好,坏还是无害的文化力量,都可以肯定地用刻板印象的信息压倒我们.鉴于这一事实,即使是迄今为止设计的最有前途的培训计划也将有艰巨的任务来调节这些偏见.这些努力结束后,我们将再次受到首先促进偏见的同一文化力量.

第二,从第一点开始,许多偏见已被证明是异常耐用的.通过广泛的文本分析来衡量,有些已经持续了200年.

第三,仍然有鼓励的迹象表明,其中一些偏见的严重性可能正在下降.从2007年到2020年,IAT在人群水平上测得的隐式态度已逐渐变化,这是在减少偏见的方向上.这项研究研究了反同性恋偏见,种族偏见,肤色偏见,年龄偏见,残疾偏见和体重偏见.有趣的是,显示最大减少的偏见是反同性恋偏见.种族偏见和肤色偏见也下降了,但程度较低.但是,年龄偏见,残疾偏见和体重偏见并没有下降.这些结果背后的文化因素无疑是复杂的,需要进一步研究.

最后,最近发起了努力,以更快地贬低文本和视觉信息,这些信息可能会对公众舆论产生最大的负面影响.正在部署几种方法,以实现AI计划输出中个人和群体的更公平表示.其中的努力是最大程度地减少学习算法对敏感社会属性的影响以及制定"偏见检测"程序,以便在检测到的情况下扎根和消除偏见.

我们的社会系统已经在很长一段时间内发展起来,这使克服现有偏见的挑战异常具有挑战性.这些偏见切碎了我们多元化社会的结构,并助长了偏执和混乱的大火.认识到AI可能会无意中反映和延续这些偏见,我们现在可以更加乐观地预测,创新的努力可能会更快地有助于最大程度地减少偏见和偏见对我们个人和文化行为的毒性影响.

>

>

尽管如此,我们必须清楚地了解许多此类AI重编程工作的可能有效性.现在已经在4岁以下的儿童中发现了隐性的种族偏见.这增加了即使是年幼的孩子看电视或被阅读到的可能性,也可以通过AI重新编程项目来解决隐性偏见.

托尼·格林瓦尔德(Tony Greenwald)和马赫林·巴纳吉(Mahzarin Banaji)亲切地帮助我准备了这个故事.

                                               
0
订阅评论
提醒
0 评论
内联反馈
查看所有评论