数字时代的科技责任挑战与应对

作者
司  晓    腾讯集团副总裁、腾讯研究院院长

疫情终将过去,科技行业在这场抗疫过程中和社会各方一起,贡献了创新和智慧。当从极限考验回归到社会常态,我们需要通过相应的机制沉淀过往的创新,从而更好地应对未来的挑战。对科技行业而言,构建面向数字时代的科技责任机制成为重要选项。

当下,以人工智能为代表的新一代信息技术正在加速应用,自动化与智能化成为趋势,物理世界与数字世界的融合加快,人类与技术正在从协作走向共生。作为数字时代最有代表性的前沿技术,人工智能也是伦理争议最为集中的领域之一。

事实上,在人工智能技术真正应用之前,像《黑客帝国》《终结者》《黑镜》《西部世界》等无数的科幻影视作品不断通过艺术手法和文学想象勾勒着人们对于未来智能及其相关伦理问题的思考。

如果说,影视作品中机器人统治世界这类强人工智能问题还属于“远虑”,那么人工智能在人脸识别、自动驾驶、智慧教育等领域的应用,已经引发了一系列亟需关注和解决的“近忧”。面对新技术的发展,我们既要保持乐观,也要思考新一代科技创新应该遵循怎样的伦理规范和机制,才能更好地服务用户、提升社会整体福祉。

01 人工智能伦理风险引发各方关注

(1)
数据安全挑战

数据安全一直是信息时代的最大挑战和构建信任的基础,但从2018年以来,不断发生的数据泄漏案例,让人们对信息时代的数据安全越发担忧。在数字时代,训练算法需要海量的数据,大规模数据的可得性也在提高,数据保护这一经典问题的紧迫性和重要性更加凸显。

但数据问题的复杂性在于,它不仅是一个技术问题,还涉及多方权利与诉求的平衡。围绕数据议题的讨论存在多元视角:个人视角关注数据权利的保护,产业视角关注竞争、创新、发展,而国家视角关注国家数据安全和在全球的数字竞争力,这三个视角之间紧密互联,彼此互动。

当数据成为数字时代关键生产要素的时候,我们还需要从源头去理清关于数据的基本认知,并在一些关键问题上达成共识。如何平衡数字经济发展同个人数据权利之间的关系,成为摆在全球政策制定者、产学研各界人士面算法偏见前文已经提及,算法偏见是人工智能领域另外一个经常被提及的挑战。微软在推特(Twitter)上发布的对话机器人Tay,就暴露了这个问题。作为一款面向美国18~24岁青年人的对话机器人产品,Tay可以和任何@她的 Twitter用户聊天,在对话过程中被训练得更加“聪明”。但这款基于人工智能的机器人在部分用户的刺激下发表了大量不当言论,包含脏话、种族歧视、性别歧视等,所以在上线后24小时内被迫下线。[1]Tay的“成长”过程,让人们看到了人工智能在应用中可能会出现的偏见。

此外,人工智能技术的决策过程并不透明,决策结果可能对部分群体带有偏见。近期,美国国家技术标准研究院(NIST)等研究机构陆续发布研究成果,探究人脸识别算法针对不同种族、性别、年龄的群体是否有差异。NIST在检查了由99家公司、学术机构和其他开发人员自愿提交的189种算法后发现,在一对一匹配中,相较于白人,亚裔和非裔的人脸识别错误率要高10~100倍。此外,老年人和儿童的人脸识别错误率高于中年人,女性的人脸识别错误率高于男性。[2]

针对人脸识别偏见问题,英国皇家国际事务研究所伊丽莎白·艾塞莱认为,仅靠纯粹的技术手段,很难实现对人工智能的每个阶段实现无漏洞监控,还需通过人工评估和干预,才能确保偏见和歧视被彻底消除。[3]

人脸识别越来越广泛地应用在出行、金融、安防等场景中,针对不同群体识别错误率的差异将给部分群体带来诸多不便,甚至侵害其合法权益和人格尊严。人工智能偏见并不是个别产品的问题,而是基于算法的自动化系统需要面临的共性问题。

(2)
道德选择困境

人工智能在自动驾驶中的应用,给经典伦理学议题“电车难题”提供了新的表现形式。在自动驾驶汽车的发展历程中,人工智能系统在驾驶事故中的道德选择始终是各方关注的焦点。为了探索自动驾驶汽车面临的道德困境,麻省理工学院部署了在线实验平台——“道德机器”(Moral Machine)。

“道德机器”是一款多语言的在线“严肃游戏”,用于在全世界范围内收集数据,了解公民希望自动驾驶汽车在不可避免的事故情况下如何解决道德难题。实验收集到了来自233个国家和地区的数百万人用10种语言做出的4000万项决定。结果显示,参与者呈现出3种十分强烈的偏好,分别为:保护人类而不是保护动物,保护更多的生命,保护年轻的生命。[4]值得注意的是,这项“严肃游戏”的参与者大多是是善于使用网络和对科技感兴趣的人,并不具有人口学意义上的代表性,基于此的研究结果不能为自动驾驶的道德选择问题提供定论。

美国认知科学哲学家科林·艾伦(Colin Allen)和技术伦理专家温德尔·瓦拉赫(Wendell Wallach)在《道德机器:如何让机器人明辨是非》一书中介绍了两种使道德机器实现道德决策能力的方法,即“自上而下”和“自下而上” 两种设计思路。前者指的是设定一套可以转化为算法的伦理规则,用它来指导设计执行规则的子系统;后者指的是不预先给定伦理规则,而是创造环境让机器人自主地探索学习,当其做出道德上良好的行为,就给予积极反馈使之得到强化。然而,这两种路径都存在一些问题。前者无论采取何种道德原则,都会遇到具体规则如何与首要原则自洽、存在计算复杂难以落实等问题;采用后者则会面临当环境变化时如何适应、难以确定机器人是否会产生出复杂的道德判断能力等问题。[5]

自动驾驶事故中的道德选择只是人工智能系统可能面临的道德选择中的一个案例。如何设计人工智能系统应当遵守的伦理原则或者让人工智能系统自主学习伦理原则,都是尚需进一步探索的课题。

(3)
就业冲击

人工智能的应用在提升生产效率的同时是否会对就业市场造成冲击?市场调研公司牛津经济(Oxford Economics)的研究显示,到2030年前,全球有大2000万制造业工作将消失,这些工作岗位的任务将由自动化系统承担。技术含量较低、重复性较高的工作被取代的风险较高。这类可取代性最高的就业岗位通常集中在经济较落后、劳工技术水平较低的地区,人们再就业的难度也较高。[6]

经济学家卡尔·贝内迪克特·弗雷(Carl Benedikt Frey)认为,自动化趋势在短期内会降低工人工资,但长期来看,技术进步最终会通过提高生产力来促进社会繁荣。因此,弗雷指出,为了确保工人们对长期科技发展的支持, 政府就必须介入去推行相关政策去为工人们赋权,增加他们在劳动力市场上的竞争力。[7]

其实,自从工业时代以来,人们对机器取代人的担忧就从未停止。要应对人工智能对就业带来的挑战,盲目的悲观或者乐观都不可取,而需要从系统层面思考人工智能和人类之间的关系。

02 数字时代呼唤新的科技伦理机制

人工智能所面临的伦理问题,既有旧问题在新技术上的投射,如数据泄露、道德选择;也有人工智能技术所特有的挑战,如算法黑箱、技术责任化。从数据泄露、人工智能偏见、道德困境到就业冲击,人工智能所引发的伦理议题的广度和深度超越了以往,数字时代的科技伦理需要建立与其特点相匹配的机制。

回顾过往的科技发展,科学家群体往往是制定科技伦理的主体。但人工智能等新技术所引发的伦理问题,难以通过学术共同体的约束而解决。在数字时代,一方面前沿科技创新加速,往往会出现应用领先于规则的情况;另一方面,前沿技术作为一种基础能力,其通过技术平台输出,潜在使用者范围大大拓宽。因此,科技伦理的覆盖范围也从之前的前沿研究者、平台应用者,延伸到了更为广泛的开发者乃至社会公众。

数字时代的科技伦理机制建设面临着技术变化快、涉及面广、责任主体复杂等多重难题,需要包括政府、学界、企业、社会等多方参与,共同探索系统性、制度化的解决方案。

03 人工智能伦理制度建设多方探索

针对人工智能引发的伦理问题,各国已在细分领域持续推进立法和标准制定工作。以算法偏见为例,全球多国已开始探索“算法影响评估”机制。

2019年2月5日,加拿大出台了《自动化决策指令》,将算法监管的重心放在了政府部门,《指令》针对政府部门行政行为中使用的自动化决策系统,提出了算法影响评估、透明度(例如决策前通知、决策后提供解释、软件准入许可、公布源代码等)、质量保证(如测试和监测结果、数据质量、同行审查、员工培训、意外事故处置、安全、合规、人类干预等)、救济、报告等要求。

2019年4月,美国国会议员提出的《算法责任法案》则要求针对符合条件的主体的高风险自动化决策系统,建立自动化决策系统影响评估机制,评估自动化决策系统及其开发过程(包括系统的设计和训练数据),以评估其在准确性、公平、偏见、歧视、隐私、安全等方面的影响。然而在现阶段,“算法影响评估”机制在全球范围内存在巨大争议,仍有很多落地问题悬而未决。[8]

当前,各方在应对人工智能伦理问题时,遇到了多重挑战。一是平衡创新和监管之间的关系。在人工智能伦理问题中,技术创新、产业发展同伦理和监管制度建设之间存在明显的张力。例如,欧盟在人工智能相关的数据保护、伦理机制建设上的要求十分严格。一方面,严格的要求有利于确保人工智能发展以人为本;另一方面,一些不具有可执行的理想化举措,也给技术创新和产业发展带来了不利的影响。

二是机制落地的问题。在应对算法偏见问题时,要审查人工智能系统是否存在潜在的可导致偏见的因素,需要打开“算法黑箱”。然而,人工智能算法涉及企业的商业秘密和知识产权,在推进算法透明和开源的过程中存在很多阻力。此外,简单公开算法系统的源代码也不能提供有效的透明度,反而可能威胁数据隐私或影响技术安全应用。

为应对这些痛点问题,国际组织、国家和行业等多元主体正结合自身的优势和特点,不断探索更为完善的人工智能伦理制度,推进行业内人工智能伦理机制建设,加强伦理机制建设中的国际合作。

本文(本文节选自2021年8月出版的《共生:科技与社会驱动的数字化未来》)

注 释
[1] Hunt.Tay, Microsoft’s AIchatbot, gets a crash course in racism from Twitter[N/OL]. https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism- from-twitter,2016-3-24.
[2] National Institute of Standardsand Technology.NIST Study Evaluates Effects of Race, Age, Sex on FaceRecognition Software[EB/OL]. https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates- effects-race-age-sex-face-recognition-software,2019-12-19.
[3] 伊丽莎白·艾塞莱.人工智能该如何远离偏见与歧视[EB/OL]. http://www.xinhuanet.com/ world/2018-10/15/c_129971123.htm,2018-10-15.
[4] 丁洪然.MIT道德机器实验:当事故不可避免,自动驾驶汽车该怎么选[EB/OL]. https://www. thepaper.cn/ newsDetail_forward_2723623,2018-12-12.
[5] 李颖娜.制造“道德机器人”的远虑与近忧——评《道德机器:如何让机器人明辨是非》[J]. 科技导报,2018(4):101-102.
[6] 英伦网.机器人如何“抢走2000万工人的饭碗”[EB/OL]. https://www.bbc.com/ukchina/simp/ 48787306,2019-6-27.
[7] Carl Benedikt Frey.The Technology Trap: Capital, Labor, and Power in the Age of Automation[M]. London:Princeton University Press,2019.
[8] 曹建峰.2019年全球人工智能治理报告:从科技中心主义到科技人文协 [EB/OL]. https://zhuanlan. zhihu.com/p/105784343,2020-2-8.