authorImg 罗世宏

罗世宏,台湾中正大学传播学系教授。

有一种歧视叫“脸书歧视”

导读

社群媒体上的定向广告机制尤其是如此:透过紧密地监视用户个人资料与使用行为来指认和评估用户的兴趣,并且把他们分类为某个特定群体,最后对准他们投放定向广告。

美国总统大选结果揭晓之后,脸书(Facebook)因为散播各种“假新闻”而成为众矢之的。比较少人注意的是,脸书过去两年来提供在发送定向广告时可以排除特定种族的服务。这项为时已有两年的服务,近日因为美国非营利网媒ProPublica在10月28日刊发的一篇报道而首次进入公众视野。

根据ProPublica的调查报道,脸书允许广告客户避开若干少数族群,譬如房地产广告避开族群背景属于非洲裔、亚裔或拉美裔的用户。

脸书第一时间的反应是辩称该公司并未要求用户提供所属种族或族群身份数据,只是依据用户分享的内容分析其“族群亲近性”(ethnic affinity),并提供给有需要的广告客户利用。脸书硬拗说,“族群亲近性”不等于“种族身份”,所以脸书并无涉及种族歧视之虞。

对此,有民权律师驳斥,脸书的这项服务明显违反美国1968年制订的《公平居住法》与1964制订的《民权法》,因为脸书的做法已涉及在房屋租售广告和就业招聘广告中排除特定种族和族群身份的对象。

《公平居住法》禁止任何房屋租售广告包含任何基于种族、肤色、宗教、性别、身心障碍、家庭状况或国族身份的偏好、限制或歧视。《民权法》也禁止在就业招聘广告中涉及类似偏好、限制或歧视。

影响所及,有四名美国国会议员在11月1日联名致函脸书,要求停止让广告客户拥有排除特定族群的选项:“我们强烈希望脸书立即处理这个问题。”

紧接着,11月3日有三位美国公民向北加州地区法院提告,指控脸书在房屋租售与就业招聘广告排除特定种族的做法,已经违反《公平居住法》与《民权法案》的规定,而且脸书并无任何机制防范广告买家涉及类似的种族歧视行为。除了脸书之外,这三位公民也将多达近万家曾经用过脸书类似服务的广告客户列为同案被告。

这三位原告都是脸书用户:第一位是住在纽约市的凯伦(Karen Savage)是一位记者,正在纽约城市大学攻读新闻学位课程,也是一位已经育有四名子女的单亲离婚母亲。第二位是路易斯安纳州的维特(Victor Onuoha),他是非洲裔美国人,从事心理健康咨询工作。第三位是住在新奥尔良市的莫博里女士(Suzanne-Juliette Mobley),她也是一位非洲裔美国人,是育有一子的单亲母亲。他们的共同点是在过去一年里都有求职和找房子的需要,并且从脸书广告中寻求相关信息。

面对三位普通公民的提告,脸书的反应,不只是将疑似种族或性别歧视的责任推得一干二净,更显露其傲慢心态。

脸书先是响应说这场官司毫无帮助,而脸书将会强烈为自己辩护。脸书不仅不认错,更辩称这种被脸书称为“多元文化广告选项”(multicultural advertising options)的本意是良善的,有助于少数族裔获得更加客制化和贴近他们需求的服务。

本身是拉丁裔的脸书广告部门主管马丁尼兹(Christian Martinez)更说,脸书只是平台,就算“多元文化广告选项”被误用,应该由广告客户自行负责,而且脸书也没有责任判定广告内容是否妥当,而应由政府执法部门认定违法后再通知脸书处理。

不过,事隔几天,脸书态度丕变,有了一百八十度的大翻转。11月11日,脸书公共政策部门副主席艾根(Erin Egan)突然代表脸书公司宣布,在与众多的利害攸关者进行“建设性的对话”后,脸书决定立即在住房、信贷与就业相关广告上,停止类似的“多元文化广告选项”服务。脸书并且表示,在未来几个内,它将建置一个自动化的系统,更好地发现涉及可能非法歧视的广告,并且自动跳出警示这已违法或违反脸书的广告政策。

脸书为什么会在几天之内态度翻转,前倨后恭?原来,脸书并非主动改过,而是在政治人物、政府部门和公民团体积极介入后才意识到不能不认错。在这段时间,包括美国检察总长及多位民主党众议员及国会拉美裔党团、政府的住宅与都市发展部门皆曾对脸书做法表达“严重关切”,而且也在“美国公民自由联盟”等多个公民权利倡议组织沟通后,脸书才终于做出让步。

脸书是否真的从善如流,或只是在外界压力下虚应故事?这还值得继续观察与监督,因为这件事非同小可,牵涉的是拥有庞大个人资料等大数据的营利公司,极可能在追求广告效益最大化的动机下,导致种族、性别与社经地位的弱势群体,面对严重的差别待遇和歧视,从而使他们原本的弱势处境更加不利。

对此,印度裔的美国学者奥斯卡·甘地(Oscar Gandy)提出的“全景敞视分类”(panoptic sort)这个概念相当有启示意义。根据这个概念,我们可将脸书等社交媒体视为一个权力规训和监控的系统,它实际上所做的,正是夜以继日地对每一个脸书用户进行指认、分类与评估。

社群媒体上的定向广告机制尤其是如此:透过紧密地监视用户个人资料与使用行为来指认和评估用户的兴趣,并且把他们分类为某个特定群体,最后对准他们投放定向广告。

奥斯卡·甘地指出,算法的预测和控制,可能轻易地导致种族主义与其他形式的歧视。这种基于算法和统计学的歧视,除了可能导致弱势群体在住房、信贷和就业机会上遭受歧视,也可能发生在执法、营销和保险业等方面,例如有色人种、贫穷、住在破败小区、失业或生病,很可能会遭受歧视待遇,并且被数据探勘技术标记为“高风险群体”,在日常生活的每一个领域都持续遭遇各种歧视待遇。换言之,那些运气较差的人可能会一直处于运气不好的际遇,并非出于纯粹是巧合的偶然性所致。

因此,这次ProPublica所揭露的脸书广告所涉及的种族歧视,恐怕只是整个图景的冰山一角,还有更多的歧视形式值得我们继续关注,特别是包括脸书在内的所有社交媒体用户更不可对此掉以轻心才是。

【责任编辑:赵琼】
show