幕后之人:西方社会被隐藏的数字劳动

[美] 莎拉·罗伯茨    美国加利福尼亚大学洛杉矶分校教育与信息研究院助理教授
[译] 罗文   
作者简介

莎拉·罗伯茨(Sarah T. Roberts),美国加利福尼亚大学洛杉矶分校教育与信息研究院助理教授。她是2018年卡内基学者(Carnegie Fellow),并于2018年凭借在互联网内容审核方面的研究成果,荣获美国电子前哨基金会(EFF)巴洛先锋奖。

2010年夏,伊利诺伊州尚佩恩

2010年的夏天闷热潮湿,我一手拿着冰拿铁,一手握着鼠标,漫无目的地浏览着《纽约时报》网站。这是一个短暂而惬意的假期,当时我正在伊利诺伊大学图书馆与信息科学研究生院攻读博士学位。这个公立的赠地大学主导了厄巴纳(Urbana)和尚佩恩(Champaign)两座姊妹小镇的经济来源和地貌,无穷无尽的麦田将小镇包围。如果你有季节性过敏或者讨厌田地风景,那最好不要来到伊利诺伊州的这个区域。

我在那里度过了整个酷热潮湿的夏天,一边做助教,一边做数字媒体方面的独立研究。在学期结束和课程准备的空档期,我喜欢每天阅读新的报道。《纽约时报》的科技版块有一篇短文章引起了我的注意,它的题目是“请关注那些在网络上审核不良内容的工作者”。

作者布拉德·斯通(Brad Stone)讲了这样一件事:一家名为Caleris的呼叫中心公司在艾奥瓦州的一个农业小镇为客户提供业务流程外包服务(business process outsourcing,下文简称BPO)。它拓展的一项新业务是内容审核,即雇佣小时工为大型网站审核用户生成内容(即UGC,涵盖我们上传到西方社交媒体平台上的所有图片、视频和文本等)。这篇报道重点关注的是Caleris员工以及美国其他几个内容审核中心的员工在工作中所遭受的身心损害。他们必须观看许多令人不适的图片和视频,如淫秽画面、仇恨言论、虐待儿童和动物的画面,以及未经剪辑的战场片段,为此,他们身心俱疲。

报道称,其他一些专门从事内容审核的公司已经开始为那些在审核过程中感到烦闷和压抑的员工提供心理咨询。他们仅仅领着八美元的时薪,却要为此观看用户上传到西方社交媒体平台和网站上的那些令人不适的内容。这些内容是如此不堪入目,以至于许多员工最终都得接受心理咨询。我读了这篇文章后意识到,对于西方社交媒体平台以及任何将产品放在网络上供用户公开评价的公司来说,这种新型的科技工作都是不可或缺的。仅仅是品牌保护这项需求就足以促使它们这样做,没有公司愿意让未知的、匿名的网络用户随意发表令人反感甚至非法的内容,它们得进行干预。但是,在将近20年时间里,身为一个重度网民、信息技术工作者和互联网研究者,我从来没有听说或者想象过这种有组织、有偿的内容审核工作,直到在2010年看到这篇文章。

我将这篇文章分享给了一些朋友、同事和教授,他们和我一样都是长期的互联网用户,也是数字媒体和互联网领域的学者。“你们听说过这份职业吗?”我问道,“你们对这种工作有什么了解吗?”所有人都给出了否定的答案。有些人之前已经看过了这篇报道,依然很茫然。我们这群狂热的网络迷和数字媒体爱好者,竟然对这种工作一无所知。我将这种工作称为商业性内容审核,以便将其与网络空间和社群里多年来司空见惯的自愿、自治管理区分开来。

经过认真思考后我意识到,这种做法只会在依靠用户生成内容来吸引和留住用户的商业性平台才存在。2014年,用户每分钟上传到YouTube的视频时长超过100个小时。YouTube向全球数十亿人分发内容,覆盖范围远远超出任何有线电视网络。2015年,用户每分钟上传到YouTube的视频时长高达400个小时。2017年,YouTube每日的视频浏览时长高达10亿个小时。新闻媒体在2013年报道称,用户每天上传至Facebook的图片数量高达3.5亿张。过去十年,这些平台的规模、范围和收入不断扩大,对劳动力和物质方面也产生了越来越大的影响,针对这些问题发表过重要著作的学者有尼克·戴尔-威瑟福德(Nick Dyer Witheford)、邱林川(Jack Linchuan Qiu)、安东尼奥·卡西利(Antonio Casilli)和米丽娅姆·波斯纳(Miriam Posner)等。2018年,对于依赖用户生成内容的西方社交媒体平台以及其他内容分享平台(比如Snapchat、Instagram、OneDrive、Dropbox、WhatsApp和Slack)来说,我们只需要大致估算一下它们的用户规模和每日新增内容的数量就能知道,要应对这样的海量内容流入是一项重大的长期工程,除了需要有一支人数众多的全球劳动力队伍之外,在网络线缆、矿产开采、设备生产、销售、软件开发、数据中心、电子垃圾处理等方面,都需要有庞大的全球供应链加以支撑。

在我读到这篇报道的2010年,YouTube和Facebook还没有像今天这样流行。但即便在那个时候,这些平台及其主要竞品平台也已经在全球吸引了数以亿计的用户。通过不断更新内容,它们吸引用户去点击、观看和关注视频和图片旁边的合作广告。因此,YouTube、Facebook、Twitter和Instagram这类平台以及它们的竞争者不会允许各种内容毫无阻碍地在平台上传播,而是会设置某种形式的审查机制来保护自己的品牌。深入思考后,我发现尽管公众对于平台的审查行为没有太多讨论,但内容审核员在格子间里默默无闻做出的决策,可能会显著影响那些为平台贡献了大部分内容的用户的体验。

审核员在做判断时需要考虑社交规范、文化美学、内容策展(content curation)以及内容是否符合站内规则和外部法律等诸多方面,但他们却是公司里薪酬最低的员工,同时还要承受工作所带来的伤害。这群默默无闻的幕后工作者从未留下过名字。他们是谁?他们在哪里工作、工作条件怎么样?他们的日常工作是怎样的?他们需要做出哪些决策、这些决策代表着谁的利益?对我来说最重要的问题是:为什么我们没有集体讨论过这群人、他们的工作以及他们所受的影响?既然互联网已经融入了成千上万人的生活,为什么我们没有讨论过这项工作对于互联网的影响?

八年来,我一直在追寻这些问题的答案,这个过程中有激动,也有沮丧。我的足迹遍布全世界,从北美到欧洲,再到菲律宾的大都市马尼拉。我接触了许多员工、管理者、活动人士、艺术家和律师。我常常与实力强劲的公司和机构发生冲突,但有时候又与他们坐在一起交流。这项研究使我有了少许发言权,能够在大大小小的场合里讲述商业性内容审核员的现状。

被掩藏的数字劳动:商业性内容审核

多年来,很少有人了解商业性内容审核及审核员的生活状况。但最近,这类话题登上了国际新闻的头条。在2016年美国总统大选之后,西方社交媒体平台的角色以及它们在线传播的信息,引发了公众的广泛质疑。这是公众第一次如此大规模地对社交媒体的内容生产方式感到担忧。“假新闻”(fake news)一词进入公众的话语之中。2017年,一系列暴力和悲剧事件在Facebook和其他西方社交媒体平台上传遍了世界,有的内容还是用直播的方式“广而告之”。自那以后,商业性内容审核就成了一个热门话题。这些事件在公共领域引发了疑问:什么内容能够在线上传播?它们是怎样传播的?如果有人把关的话,那么是谁在负责这方面的工作?

现在我们知道,完成大部分内容审核工作的并不是先进的人工智能和深度学习算法,而是薪资低微的普通人,这种工作的性质还让他们不得不承受过度劳累、感情麻木和其他更为严重的风险。这一点让公众极为震惊,就像2010年刚读到那篇报道的我一样。一些心怀不满的审核员渴望让公众了解他们的角色和工作环境,向各大报刊透露了他们的经历,Facebook和YouTube等大型网络平台也因此饱受批评。越来越多的计算机学者和社会学家开始关注社交媒体及其算法的局限性及影响,包括塔伊纳·布赫(Taina Bucher)、弗吉尼亚·尤班克斯(Virginia Eubanks)、萨菲娅·诺布尔和梅雷迪思·布鲁萨德(Meredith Broussard)。

商业性内容审核多年来一直隐藏在幕后,这个机制包括提供劳动力的外包公司、有相关需求的大型网络平台,以及将有害画面和有害信息挡在用户视野之外的审核员。现在,这个机制在学术研究、新闻报道、技术研究、政策制定等层面得到了人们的关注,然而它的真实面目依然非常模糊,依靠这个机制来开展业务的社交媒体公司也不愿意讨论这方面的问题。

我意识到,要想穿过公司设置的重重阻碍,了解它们在背后用了哪些手段来决定你在屏幕上看到的内容,我必须和审核员直接对话;要找到他们,并说服这些人把自己的经历讲出来。鉴于雇主为他们设置了很多法律上的限制,这个过程很有挑战性,但也极其重要。此外还有一些麻烦:审核员的工作大都不太稳定;公司通常还会强迫他们签署保密协议;岗位有期限限制,致使他们在就业大军中进进出出。还有一个挑战是,这些数字劳动会“改头换面”、以不同的名义在全球范围内转移,审核员分散在全球性的外包公司网络中,与最终从他们的劳动中受益的平台相距甚远。

在访谈过程中,我尽量避开一些敏感或涉及隐私的问题,以免加剧内容审核员的负面情绪。问题经过精心设计,旨在让审核员讲出对于他们的工作和生活来说最重要的事情。我渴望将审核工作的重要性以及审核员们的观察和洞见分享给更多的人。从内容审核员身上得到的经验性研究,以及我后面的分析和思考,构成了本书的主要内容。

随着时间的推移,我的研究和结论也有了一些调整和演变,本书的多重主旨也同样如此。阿德·布洛克(Aad Blok)在《信息革命时期的劳动,1750—2000》(Uncovering Labour in Information Revolutions,1750–2000)的导言中讲过,许多有关信息通信技术的发展与变革的学术研究,都忽视了同时期劳动方式的演变。他进一步提到:“在劳动方面,研究者把绝大部分精力放在了发明家、革新者和系统构建者所做的高度专业化的‘知识性工作’上面。”本书旨在填补以往对商业性内容审核员的忽视,把他们的贡献摆在与其他那些更广为人知、更受推崇的知识性工作同等重要的位置。人们对于数字技术愈发依赖,由此催生了很多新型的劳动形式,随着许多重要的研究成果不断出现,有关这些劳动形式的研究文献也得到了极大丰富。

后面我会讲到,这种审核工作能够揭示互联网的现状,以及互联网到底在做些什么。实际上,如果说本书有什么中心论点,那就是我认为任何关于当代互联网性质的讨论都绕不开以下问题:用户创建的哪些内容是允许保留的?哪些要删除?由谁来决定?决定是怎样做出来的?谁是这些决定的受益者?缺少了这些问题的讨论必然是不完整的。接受访谈的内容审核员认为,他们的工作对于当代社交媒体环境的形成非常重要。而作为用户,我们理所当然地接受了这样的环境,认为其中的内容一定是设计好的,因为它们是经过严格审查、有内在价值的“优质”内容。审核员们则讲述了完全不同的故事,而他们的讲述往往体现出矛盾:审核员们殚精竭虑地遏制不良的、令人反感的、非法的内容传播,但他们也知道,自己所接触到的内容只是冰山一角,社交媒体上还有数以亿计的可变现视频、图片、直播,而正是这些内容让我们相互联结,并最终成为广告商的目标对象。

机器中的幽灵:数字系统中的人为痕迹

西方大众在接触社交媒体平台以及平台所汇集、传播的用户生成内容时,忽视了某些东西。这些平台多年来都在兜售一种主流看法,即平台为民主、自由的表达扫清了障碍。还有一种更新的观点认为,“Web2.0”和西方社交媒体平台为用户提供了单向的创作机会,用户可以直接将内容通过平台传播出去[参考YouTube断断续续使用过的口号“播出自己”(Broadcast Yourself)]。但是,商业性内容审核员和审核机制的存在,无疑对这种理解构成了挑战。终端用户认为自己与社交平台的关系很简单,他们只要上传内容,内容就会传播到全世界。但事实上,这些内容需要经过一个中间机制的处理,这个机制涉及一系列行为、政策和工作者,这些工作者的工作流程、动机和从属机构乃至其存在本身都是难以察觉的,用户在点击“上传”时并不会想到他们。

但假如这个中间机制被曝光了,人们会对哪些事情进行重新评价?有哪些活动值得我们以批判性的眼光去发掘其中存在的人类价值观和人类行为?发掘出它们又会如何影响我们对这种活动的认知?萨菲娅·U.诺布尔在她的著作《压迫性算法》(Algorithms of Oppression)中阐述了谷歌搜索功能如何构建了对性别、性向和种族的有害表述。米丽娅姆·斯威尼(Miriam Sweeney)探讨了在智能助理(或者说拟人化的虚拟助理,简称AVAs)的设计过程中的人为干预以及内嵌的价值体系。雷娜·比文斯(Rena Bivens)在为期十年的研究中记录了Facebook二元性别选项的影响,及其在性别表达和性别选择上的衍生影响。这些平台到底反映了谁的价值观?这些工具和系统所描绘出来的是哪一类人?他们是怎么描绘出来的?目的是什么?

为了探究和揭示数字技术中的政治和人文因素,有些人试图从艺术、行动主义和学术研究的交汇点批判性地切入,安德鲁·诺曼·威尔逊(Andrew Norman Wilson)就是其中一员。通过曝光谷歌图书(Google Book)人工扫描员的工作,揭示了数字化流程中的人为痕迹。他曾经是谷歌聘用的摄像师,他注意到在加利福尼亚州山景城(Mountain View)的谷歌园区里,有一座大楼的员工每天上下班的时间点很奇怪,与其他员工都不一样。后来他得知,这些人是负责扫描数百万张图书页面的合同工。这个庞大的书籍数字化项目直到它最后的生产就绪(production-ready)版本,都没有显示出任何人为的痕迹。威尔逊继续深入调查,发现这些扫描员的工作条件和地位远不如其他谷歌员工。此时谷歌解雇了他,还试图没收他为扫描员拍下的视频。这段视频后来被命名为《工人离开谷歌园区》(Workers Leaving the Googleplex),以此向卢米埃尔兄弟在1895年拍摄的经典纪录片《工人离开里昂的卢米埃尔工厂》(Workers Leaving the Lumière Factory)致敬。由此,威尔逊将谷歌园区图书扫描员的地位和工作条件与那些工厂工人直接联系了起来,这与谷歌工作给人的通常印象形成了鲜明对比。

这种无论是字面意义还是抽象意义上对人为痕迹的抹去都非常值得关注的。我们必须时常发问,这种做法符合谁的利益?谷歌图书扫描员留下的痕迹被记录下来,当做一种现成物艺术予以展示。除了威尔逊的作品之外,一位罗得岛设计学院艺术硕士所创建的一个Tumblrc博客也关注了这一题材,这个博客广受好评,甚至得到了美国高雅文化主阵地《纽约客》(New Yorker)的赞赏。这个Tumblr博客搜集了谷歌图书中既有趣又引人思考的扫描错误,比如意外扫描进去的手指、页面边缘的笔记,以及扫描错误新形成的文字排列。

不过,威尔逊的作品和这个Tumblr博客在我们视为自动化流程的背后所找到的人为痕迹仍然太少。我们仍然不知道是谁在怎样的条件下留下了这些痕迹。

结语

技术从来都不是中立的,也不是“先天”为善或者没有影响的。恰恰相反,它们作为一种社会技术建构,必定会反映创始人的想法。同时,它们创立的目的是服务某些东西或者某些人,无论其创立初衷就是如此,还是后期在适应和抗拒过程中演变成这样的。因此我们可以继续追问下去:谁会为此受益?这些技术的使用和普及,对于权力的积累和扩张、文化涵化(acculturation)、边缘化(marginalization)和资本来说,会产生怎样的影响?例如我们知道,在技术发展史上,女性遭到了系统性的排斥。正如历史学家马尔·希克斯(Mar Hicks)在她的文章中所说的,在英国,从事计算机编程工作的女性被刻意打压,导致英国在全球计算机产业的崛起中落伍。韦努斯·格林(Venus Green)和梅利莎·维拉–尼古拉斯(Melissa Villa-Nicholas)也指出,美国电报电话公司(AT&T)系统性地歧视女性和少数族裔,打击了新兴的黑人和拉丁裔劳动力,使得许多早期的科技工作者无法在通信、计算机和技术领域从事有价值的长期职业。

西方社交媒体平台、数字协议和计算机架构都是人类建构和追求的产物,包含着人类的选择,也反映了人类的价值观。媒介学者列夫·马诺维奇(Lev Manovich)指出:“在我们使用软件和其中内嵌的操作(operations)时,这些操作就成为我们理解自身、他人和世界的一部分。处理计算机数据的策略就会成为我们普遍的认知策略。同时,软件设计和人机交互反映了一种更宏大的社会逻辑、意识形态和对当代社会的想象。因此,如果我们发现某些特定操作主导了软件程序,那么它们很可能在整个文化中也发挥着作用。”

许多学者和活动人士(比如本书引述和讨论过的那些人)付出大量脑力劳动,写下大量作品来质疑那些使数字系统不透明、使信息成为商品的行为和政策。但是,他们对于数字系统中的人类工作者所知甚少。毕竟,活动人士、学者和用户只能讨论他们能够看到、知道或者至少能想象到、接触到的事物。本文之所以介绍了与商业性内容审核相关的一系列广泛问题,也是旨在为读者们勾勒出当代互联网的状况,包括它的历史、用途和缺陷。互联网之所以能成为本书所描述的样子,商业性内容审核员是其中的重要中介。他们(通常是秘密地)干预并裁决西方社交媒体平台上的用户生成内容,以便创造更加舒适宜人、便于使用、令人向往的网络空间。他们从事这份工作是为了获得报酬,虽然用户体验也许会得到提升,但他们最终是为雇主的目标和利益服务,因为对于那些提供在线参与空间的公司来说,更好的用户体验就意味着更高的营收。

本文节选自:《幕后之人》
作者: [美]莎拉·罗伯茨(Sarah T. Roberts)
出版社: 广东人民出版社
出品方: 万有引力
副标题: 社交媒体时代的内容审核
原作名: Behind the Screen: Content Moderation in the Shadows of Social Media
译者: 罗文
出版年: 2023-5-15