美女图片、壁纸大全、丝袜美腿高清图片大全!手机端
找朋网>娱乐八卦>娱乐 > 建筑、代码和算法 隐身在人造物里的种族主义

建筑、代码和算法 隐身在人造物里的种族主义

查看:705 / 更新:2022-12-14 18:10

  美国总统拜登最近签署法案,将每年的6月19日——“六月节”(Juneteenth)正式定为联邦节日。美国的六月节是为了纪念奴隶制终结的标志——《解放黑人奴隶宣言》而举行的节日。从美国最古老的节日之一,到美国最新的联邦节日,六月节走过了100多年。然而,在节日庆祝的背后,种族主义仍无处不在,它不仅显露在诸如乔治·弗洛伊德(George Floyd)之死的显性暴行里,也隐藏在我们平时较少察觉的“人造物”(artifacts)中。

  一、人造物的种族歧视

  “Do artifacts have politics?”(人造物是否具有政治性?),这是美国技术哲学家兰登·温纳(Langdon Winner)在1980年提出的疑问。

  为了回答这个问题,温纳举过一个关于技术政治的著名事例。位于纽约长岛的琼斯沙滩(Jones Beach)是夏季休闲的度假胜地,公众前往海滩的最快路线就是由建筑师罗伯特·摩西(Robert Moses,1888-1981)设计的纽约旺托州立公园大道(Wantagh State Parkway)。公园大道于1929年通车,道路上有两百多座矮桥。这些矮桥只有9英尺(约2.7米)高,以至于只能通过小汽车,而12英尺(约3.6米)高的公交车就无法从它下面通过。在摩西的时代,也就是上世纪二三十年代的美国,小汽车不是普通交通工具,而是高档的消费品,是富裕阶级的象征。而刚好,当时的富裕阶级大多数是白人。

建筑、代码和算法:隐身在人造物里的种族主义
摩西设计的矮桥(图源https://www.jaredfanning.com/notes/design-systems-urban-planning)

  只有拥有小汽车的富人才能从矮桥下自由通行,享受琼斯沙滩的美景,而平时利用公交车出行的贫民和黑人则被排除在外。温纳进而指出,公园大道的矮桥设计反映了建筑师罗伯特·摩西的政治意图——阶级和种族歧视。看似中立的桥梁建筑,却通过技术配置对社会秩序施加了歧视性的影响。温纳利用摩西矮桥的事例,揭示了人造物(artifacts)背后的权力影响因素。

  然而,低矮的桥梁设计是否只因建筑师的个人偏见?历史学家乔治·史蒂文斯(George Stevens)试图为摩西解释。他写道:“摩西在世时,美国弥漫着合法的种族隔离和强烈的种族主义。”

  摩西设计矮桥的年代,正值美国种族隔离盛行的时代。1865年南北战争结束后,尽管奴隶制度得到废除,但美国黑人并没有因此得到平等对待,他们陷入了另一种灾难——种族隔离。

建筑、代码和算法:隐身在人造物里的种族主义
电影《绿皮书》的原型是美国种族隔离时期的一本黑人旅行指南,它列举了美国南部能接待黑人的场所。

  1892年,一位名叫普莱西的黑人被捕,因为他没有遵循法律乘坐“隔离车厢”,而坐到了白人车厢。“普莱西案”的判决明确表示,在火车车厢等公共场所为黑人保留和指定位置是一种“隔离但平等”政策,并未剥夺黑人的公民权利,因此不构成歧视。在不胜枚举的种族隔离惯例和规定下,很多白人衣食住行所在之处,例如学校、教堂、餐厅、厕所、公共汽车等等,黑人都不得进入。如果黑人闯进,还有可能面临生命危险。

  设计矮桥的摩西正处于这种时代,法律保护种族隔离的时代。我们也许可以说,摩西矮桥只是美国当时的一个缩影。尽管如此,利用时代作为理由试图为一个人的种族主义开脱,也不能减轻这个人作为种族主义者的罪恶。

  二、隐身在计算机代码里的种族歧视

  从黑人罢乘蒙哥马利公车运动,到马丁·路德·金发表《我有一个梦想》演讲,在一系列风起云涌的民权运动之后,美国终于在1964年废除了种族隔离制度。甚至在奥巴马胜出2008年美国总统大选后,一些媒体和学者认为,美国已经进入了“后种族时代”,即种族歧视不复存在,反种族歧视跻身进政治正确。

建筑、代码和算法:隐身在人造物里的种族主义
1983年在华盛顿举行的一个反种族歧视集会。

  而事实上,“后种族时代”只是一层精致的糖衣,包裹着仍然令人致命的种族主义现象。特雷沃恩·马丁(Trayvon Martin),迈克尔·布朗(Michael brown),埃里克·加纳(Eric Garner),塔米尔·莱斯(Tamir Rice),菲兰多·卡斯蒂尔(?Philando Castile),布雷娜·泰勒(Breonna Taylor),乔治·弗洛伊德(George Floyd),一个个遭受美国警察暴力而死的名字,提醒着人们种族主义仍在美国大行其道。

  除了关注屡见不鲜的种族歧视犯罪,我们可以继续追随温纳的思路,把目光聚焦我们这个时代最重要的人造物——计算机。

  2020年,美国谷歌公司旗下的Chrome浏览器开发团队表态要弃用其程序代码中“黑名单”(Blacklist)和“白名单”(Whitelist)术语,将这两个词更换为“屏蔽名单”(Blocklist)和“允许名单”(Allowlist)。原先的术语将“黑/白”与“好/坏”联系起来,潜移默化地延续和强化了种族歧视。而另一边,苹果公司禁止开发人员使用“主从模式”(master/slave)术语,并替换成不带有种族歧视含义的表达,例如primary/secondary、primary/replica、main/secondary等等。隐性的种族歧视从计算机代码中可见一斑。

  然而,为什么像“黑名单和白名单”(Blacklist/ Whitelist)、“主从模式”(master/slave)这样的术语长期以来没有遭到抗议?

  研究种族与文化的安娜·埃弗利特(Anna Everett)教授指出,个中原因离不开计算机发展的历史。美国早期计算机领域的员工大部分由白人构成,在那里,有色人种的贡献几乎被抹去。编写代码的白人有意无意地将自身的种族身份融入了计算机中的默认设置,这也成为了一段被延续下去的历史。

  另一方面,互联网使用者鲜少质疑技术的“默认设置”,相反,他们常常认为“默认即中立”。而事实上,许多人在声称技术是“无价值倾向”(value-free)时,他们只是在无意识地复制霸权制造出来的话语。

  持有这种观点的互联网用户,也很难理解一些维护种族权益的技术创新。Blackbird是一款为了满足对非裔权益感兴趣的用户信息需求而研发的浏览器。它的设计者发现,在常规浏览器中,例如谷歌浏览器,与黑人群体相关的信息往往被排序到很后,而许多用户在搜索时,只会浏览首条搜索结果。为了让有需要的用户(不仅仅是非裔群体自身)更容易检索到相关信息,Blackbird将浏览器搜索结果中黑人相关的信息排列在靠前的位置。

建筑、代码和算法:隐身在人造物里的种族主义
Blackbird浏览器

  此举一出,便备受质疑。有用户指责设计者是“逆向种族主义”(reverse racism),而Blackbird浏览器更是种族隔离的再现。

  反对者认为,Blackbird浏览器的优先排序已经是一种筛选,这会“限制”使用者的眼界。显然,反对者基于一种观点——目前的主流互联网是“客观中立的”。然而,这只是一种过度信任互联网的想象,谷歌浏览器并不是客观世界本身。另外,反对者在这里将有关黑人的内容与“有所限制”联系在一起,本质上也是在贬低黑人相关信息的价值。

建筑、代码和算法:隐身在人造物里的种族主义
Algorithms of Oppression: How Search Engines Reinforce Racism Safiya U. Noble

  在《压迫算法:搜索引擎如何强化种族主义》一书中,作者举出一些搜索引擎中种族主义和性别歧视的例子,例如搜索“大猩猩”,谷歌浏览器会显示黑人照片;搜索“黑人女孩”关键词,谷歌会导向色情网页等等。正如这本书的封面,在谷歌浏览器搜索栏中输入“为什么黑人女性如此”之后,自动补全的都是诸如“愤怒、吵闹、诱人、懒惰”等负面形容词。

  可见,浏览器搜索结果并不是那么可靠中立,它甚至带有歧视性的价值倾向。而当他们以“不够原本的互联网中立”这种观点来指责Blackbird浏览器的设计时,他们只是在支持和复制白人意识形态框架。或许人们已经忘记,白色也是一种颜色。建筑、代码和算法

  三、被植入偏见的人工智能

  计算机科学发展到今天,人工智能无疑成为当下的焦点,而偏见也如影随形。

  2011年,洛杉矶警察局和加州大学洛杉矶分校合作开展了一个研究项目,这也是PredPol程序的前身。项目建立了一种“预测犯罪”的算法,根据警方以往收集的犯罪数据,例如犯罪类型、逮捕数量、报警次数等等,来预测未来可能会发生犯罪的地点。一般警察的执法流程是在犯罪发生后才介入,但近年来人工智能的进步似乎能够为警方部署提供依据,提高工作效率。

建筑、代码和算法:隐身在人造物里的种族主义
PredPol预测犯罪界面

  从表面上看,使用“客观数据”来预测犯罪风险似乎是一种很可靠的方法,可以避免警察个人带有偏见的主观判断。然而,批评者很快指出了PredPol的缺陷——使用历史犯罪数据实际也有可能加剧种族歧视。华盛顿特区大学法学院教授安德鲁·弗格森(Andrew Ferguson)表示,虽然数据本身只是数字和位置的集合,但警方数据收集的做法可能已经充满偏见。有数据表明,黑人在美国警察拦截、拘留和逮捕的人中占绝大多数。而PredPol使用这些数据作为预测基础,在其显示的犯罪区域中,黑人社区的数量几乎是白人社区的两倍。因此,根据PredPol的算法运算逻辑,美国警方会在黑人社区不断加派警力巡逻,而在那些警察越常访问的地区,PredPol预测的犯罪行为也会越多,这也将导致更多的警察被安排到这些地区,那么就会进入一个恶性循环。因此,如果不假思索地使用算法来“预测犯罪”,这将在本质上延续警方以往的做法,强化带有偏见的执法行为。

  从PredPol的例子中,我们再一次认识到了技术的偏见。《压迫算法:搜索引擎如何强化种族主义》的作者诺布尔分析道,用户之所以那么盲目地信任互联网,是因为他们将数学运算的观念,迁移到互联网的算法理念中。人们从小就被灌输“数字的存在是绝对真理”,例如1之所以为1,是被规定的客观事实,无需质疑。但人们忽略的是,算法与数字不一样,一个算法涉及到不同的运算步骤,这其中就包含了主观决策,因此一个算法的构建是一系列人为决定的结果,并不是绝对的“客观中立”。

  另外,即使最终决策是由人做出,算法在完成“偏见”过程中也起到关键作用。人们选择算法,就不得不去适应其中的逻辑——算法意味着自动执行,它不会自我纠正和修复,只会使偏见变得更加剧,灾难变得更极端。我们对此并不陌生。被植入资本逻辑的算法,造成了外卖小哥的困境。被植入了种族主义的算法,加深了对非裔的偏见。技术就是以这种方式,反向统治了人类。

  人脸识别是说明人工智能具有偏见的另一个例子。人工智能要想有智慧,不是写好程序就足够了,之后还要利用大量数据进行训练,让它学会找到规律。而在目前用于训练人脸识别的数据集中,浅色皮肤占据绝大多数,导致样本数据的不平衡,并最终导致了人脸识别在针对有色皮肤时错误率明显增大。

  麻省理工学院在2018年的一项研究将微软、IBM和旷视科技三家人脸识别技术进行对比,结果显示,针对黑人女性的人脸识别错误率高达21%-35%,而针对白人男性的错误率则低于1%,不同种族的准确率差异巨大。

  2015年,由于人工智能的局限性,谷歌公司的图片软件曾错将黑人的照片标记为“大猩猩”。为此,谷歌选择删除了“大猩猩”的标签,但依然无法解决人脸识别存在的种族问题。

建筑、代码和算法:隐身在人造物里的种族主义
罗伯特·威廉姆斯

  2019年,美国更是发生了第一宗人脸识别错误导致的误捕案。2018年年底,一位小偷在底特律的一家商店行窃后离开,警察调出商店的监控录像进行调查。然而,监控画面比较模糊,而且小偷低着头,并不能清楚地看见嫌疑人的面部。于是,警方试图通过人脸识别技术将小偷识别出来,最终系统匹配到了42岁的罗伯特·威廉姆斯(Robert Williams)。之后,威廉姆斯被警方拘押共30个小时,警方才核实他的不在场证明,承认是人脸识别系统出现错误。

  威廉姆斯是美国第一宗公开的人脸识别误捕案,但舆论认为,威廉姆斯可能未必是第一个被冤枉的人。此后,旧金山、波士顿、波特兰等美国13个城市陆续禁止警察和限制其他市政部门使用人脸识别技术。

建筑、代码和算法:隐身在人造物里的种族主义
《自主性技术》,[美] 兰登·温纳

  温纳在《自主性技术》一书中写道:“人们确信技术是中立的、工具式的,以此来掩护一种正在或者已经建立的秩序。”歧视性的秩序不仅体现在政治和法律制度中,也存在于建筑、计算机代码、人工智能或者其他人造物里,而沉默是后者独特的表达方式。无形互联网逐渐成为我们时代的基础设施,它在某些时候,犹如一座座有形的摩西矮桥,将人们分隔开来。如果不想自动化偏见,那么就去看见和纠正偏见吧。

  参考文献

  Brock, A. (2011). Beyond the pale: The Blackbird web browser’s critical reception. New Media & Society, 13(7), 1085-1103.

  Buolamwini, J., Gebru, T. "Gender Shades: Interpal Accuracy Disparities in Commercial Gender Classification.

  Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.

  Senft, T. & Noble, S. U. (2013). Race and social media. In The social media handbook (pp. 115-133). Routledge.

  Stevens, G. (1989). Robert Caro’s Moses: A Historian’s Critique in Joann P Krieg. Robert Moses: Single-Minded Genius. New York: Heart of the Lakes Publishing.

  The New York Times - Facial Recognition Is Accurate, if You’re a White Guy

  https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html

  Winner, L. (1980). Do artifacts have politics. The social shaping of technology, 28-40.

  兰登·温纳,《自主性技术:作为政治思想主题的失控技术》

  王阳,《摩西低桥与技术产品政治性》

上一篇:

于月仙车祸事故司机付全责究竟是怎么一回事?

下一篇:

吴卓林自称成龙女儿求助 睡桥底一个月 谁来帮我
标签:影视娱乐

相关推荐

最新娱乐

标签大全