在一月底结束的2019年国际消费电子产品展会上(CES 2019),LG总裁兼首席技术官帕克(I.P.Park)发表了关于AI如何促进“自我进化”产品的主旨演讲。“人工智能与伦理”的讨论,成为了这场原本与严肃话题不太相关的消费技术盛会的序幕。

从自动驾驶到智能家居,无论是讨论频率还是技术创新,人工智能都已经渗透在人们追求更好生活的方方面面。

据麦肯锡估计,到2030年,人工智能会在全球范围内创造近130亿美元的额外经济产值,占世界GDP增长的1.2%[1]。同时,各国政府也注意到这一技术对人类社会的深入,在加拿大一家国际智库发布的《建设人工智能的世界——国家和区域人工智能政策报告》[2]中,全球已有18个主要国家发布了关于人工智能的针对性战略和政策,包括科技、法规、伦理、社会治理等多个方面。

然而,随着人工智能的井喷式发展,关于人工智能为整个社会带来的影响,也从科幻作品中走进现实。

撇开科幻作品中炫酷而强大的终结者不谈,仅仅简单的自动驾驶技术,当真正投入使用后也会面临“电车悖论”的困扰。人类社会生活的复杂性在于其不仅追求工作的效率和精确,更追求选择的公正与合理。

随着技术的不断发展,当人工智能真正嵌入人们的日常生活,这些伦理选择便也真实地摆在面前,成为人工智能设计者们需要解决的问题。

那么具体来看,人工智能究竟引发了哪些讨论?我们需要关注哪些问题呢?在过去的一年里,大家关注了这些问题:

人工智能不应该伤害人

早在机器人诞生之时,人们便为这种本为帮助人类而设计的机器制定了伦理规范。上世纪50年代,著名科幻小说家阿西莫夫便在《我,机器人》一书中提出了“机器人学的三大法则”。

法则第一条便规定:“机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管”。保护至高的人类生命是一切行动的前提。从字面上看,这应是一条被普遍承认与遵守的规则,但现实并非科幻作品中那样简单。

2018年4月,谷歌与美国五角大楼达成了Maven项目的合作,通过机器学习技术和先进的计算机视觉技术,在无人机拍摄的视频中辨别物体,自动探测和识别38种类别的目标,从而减轻军事分析员的工作负担。此外,该技术也可以用于追踪目标人员的行动。

此举引发众多项目相关员工辞职,也有将近4000名员工签名请愿谷歌取消该项目。6月,谷歌发表声明,强调其不会进行任何武器开发或以伤害人类为目的的人工智能研究,但项目并未终止。最终在员工们“拒绝为军方研究人工智能”的压力下,谷歌最终确认该项目2019年3月到期后将不再续约。

这场在人工智能界由普通员工发起的“反战运动”的胜利提醒我们——毫无疑问,人工智能技术有极为广阔的应用领域,在技术高速发展的今天,人形“终结者”并不会出现,但可能会以另一种形式悄悄到来。

然而,技术发展需要伦理与规则的限制。毕竟,正是这些最基本的规制保持着人类社会在不断的摩擦、碰撞与冲突中的正常前行。

也许人工智能的去武器化已经在社会大部分达成共识,谷歌的项目也在世界众多和平主义者的声讨中败下阵来。

然而,除了自动化武器这种“主动伤人”之外,当人工智能深入到我们生活中不同场景时,一些人工智能“被迫伤人”的场景如何处理也成为了重要的议题。

自动驾驶便是一例。

2018年10月,麻省理工学院在Nature上发表了一篇将自动驾驶牵涉入“电车难题”的论文[3]。

研究人员通过其开发的“道德机器”(moral machine)向来自200多个国家的200多万在线参与者提出了一系列自动驾驶汽车在紧急情况时面对不同生命如何选择的问题。

结果显示了人类间选择的多样性——不同群体的选择偏好有很大不同,如一些集群倾向于保护动物,一些集群倾向于保护老人。这些特殊性可以在人类的不同集群中出现,但对于需要提前规定好程序,按唯一特定模式选择的自动驾驶汽车,要么少数人的偏好被无限放大,与大多数产生冲突,要么少数人的偏好在多数人的压倒性优势下完全湮灭

如果按照研究的普遍性结果制定自动驾驶规则,那么多数人与青年人会被保护,而少数人与老年人则被牺牲。可以想象,若如此规则被全面推广,老年人是否还敢出现在车水马龙的街头。

“一方面,我们希望为公众提供一种简单的方式进行重要的社会讨论,”媒体实验室媒体艺术与科学副教授Iyad Rahwan说。 “另一方面,我们希望收集数据,以确定人们认为哪些因素对于自动驾驶汽车在解决道德权衡方面的重要性。”讨论并未结束,人们也在不断的讨论中进一步认识自动驾驶的真正影响,并为其制定规则。

人工智能不应该歧视人

在麻省理工学院的调查中,除了对生命的选择,更值得关注的是人工智能算法对人类偏好差异性的放大。若不注意,这些不同很有可能通过算法开发被扩大为偏见,并实在地影响人们的选择。

比如亚马逊的人工智能雇员系统。这一试验性的雇员系统通过对之前员工简历的机器学习,在实际操作中会给女性技术员的简历评分较低。在无数争议后,亚马逊终于在2018年11月关闭了这一系统。

就在亚马逊关闭人工智能简历筛选系统的同一个月,八名美国国会议员向亚马逊的CEO寄出了联名签名信,抗议其人脸识别系统也存在种族歧视的问题。尽管这次亚马逊顶住压力给予回击,但来自全世界的平权者仍不买账。双方的争吵尚未停止。

通过大量、迅速且精确的重复计算,机器学习能够解决效率问题,在许多领域都大有发展空间。但在高效的同时,细观人类提供的机器学习的样本,在摒除误差、寻找规律时,自然以样本中的多数为样例,运用到现实时,便成为人们所指责的“歧视”。这并非开发者故意的行为,也并非人工智能本身的问题。

只能说,在人类历史的发展中,人工智能帮我们指出了曾经没有意识到的问题,当我们坚信人工智能应当为所有人服务时,我们需要思考如何克服曾经的偏见,这是人与人工智能共同的任务。

人工智能不应该“操纵”人

除了已有数据的不同偏好,在人工智能的数据与推荐方面,人们也有许多担心。

当人工智能不断展示其强大的数据处理能力时,许多评论者认为人工智能是中心化的,由于极强的数据攫取能力,巨大的信息不对称带来社会的恐慌。2018年的Facebook隐私泄露事件将数据安全推到了风口浪尖。对人工智能和算法的不信任也上升到从未有过的高度。

同时,算法推荐类产品也被重新审视。

一方面,算法推荐背后强力的数据抓取与分析令人们觉得自己在人工智能面前仿佛赤身裸体,没有一点隐私;另一方面,算法推荐,一味满足人们喜好造就的“知识茧房”也令人们恐惧人工智能强大到可以操控人类的“自我意识”。

2018年12月,谷歌旗下的视频社交网站YouTube又被指出向客户推送极端主义、假新闻等内容。YouTube立刻道歉并删除了视频,但如何纠偏算法推荐系统各方讨论的问题。

人类的道德观,是在历史漫长的社会实践活动中天然形成的,而对于没有经历过这些社会实践的计算机来说,并不能自然形成道德约束。

但显然,算法需要价值观已经成为人工智能界的一种主流共识。

要将符合人类价值的约束加于算法中,公开算法只是第一步,如何通过社会讨论确立规则、通过想象力和创造力设计更符合人类伦理价值的算法,还需要在人工智能技术开发的路上不断探索。

人工智能不应该完全取代人

如果说算法使消费者与人工智能之间出现了裂痕,那么人工智能在生产端对人的碾压性优势则带来更多恐慌。从机械臂到机器人,从自动化生产到人工智能写新闻,能够替代人类劳动的人工智能产品层出不穷。

2016年12月,美国白宫发布了《人工智能、自动化与经济报告》[4],指出人工智能生产正在颠覆劳动力市场。在当时这似乎还略显“多虑”,但之后的这两年中,人们也切身感受到人工智能给劳动力市场带来的压力。

2019年初,布鲁金斯研究中心的报告指出[5],大约3600万美国人面临被人工智能替代的危险,不仅在农业和制造业,服务业也受到威胁。但也有经济学家指出,自动化生产与服务能够创造新的职位,同时,一些对创造力要求很高的职位也并不能被替代。

事实上,每一次技术的飞跃与变革,都会带来相应社会的阵痛,但社会总能在阵痛中实现转型。或以教育提升个人素质,跻身于更具挑战性也更具价值的工作中;或通过人工智能创造新的职位,实现劳动转型;或加入创业创新大潮,为社会创新注入更多活力。

我们看到,这些富有创造力的人们,正是在“抗争”人工智能的过程中与其合作,在牺牲中实现社会的不断向前。

警醒而不忘科技向善之初心

面对技术带来的问题与社会讨论,治理者与实业家们都以自己的方式给出了回应。

在美国2019年的国防部财政预算中,人工智能国家安全委员会第一次出现。委员会聘请包括谷歌、微软在内的人工智能巨头公司的专家,专门评估人工智能、机器学习相关的技术创新,保证对其的运用在法律框架内,并符合伦理价值。

无独有偶,2018年12月,欧盟的52位各领域专家发布了《人工智能发展和运用的伦理指导》[6],希望在伦理方面对人工智能技术进行规制。他们认为,人工智能首先应当尊重基本人权、伦理规则和社会价值,即追求“伦理目标”;在保持技术创造性的同时,需要反思和加强人工智能的可靠性。

在2018年的人工智能发展规划中,英国也建立了数据伦理中心,试图管理难以捉摸的大数据。

政府以外,各大公司也主动发出自己关于人工智能的伦理倡议,以保证人工智能的合理发展。在2018年世界移动通信大会上,IBM Watson首席技术官Rob High提出了IBM人工智能开发的三大原则——信任、尊重与隐私保护。

同时,微软倡议政府为面部识别技术制定规制,并提出了六大原则——公平、透明、责任、无歧视、知情同意与法律控制。深陷数据泄露旋涡的Facebook也在2019年初开始行动——拿出750万美元与慕尼黑技术大学合作建立了人工智能伦理研究所,希望在人工智能的研究中引入更多伦理思考。

腾讯董事会主席马化腾在2018年世界人工智能大会上提到的人工智能的“四可”理念,也对人工智能的各个问题做出了完整的回应。“四可”翻译为“ARCC”(Available, Reliable, Comprehensible, and Controllable,读作ark),即未来人工智能是应当做到“可知”、“可控”、“可用”和“可靠”。

腾讯希望通过“四可”这样的一个道德框架开始,去帮助AI开发者和他们的产品赢得公众的信任。这也正是如今全世界人工智能开发者追求的目标。

腾讯公司高级副总裁郭凯天在第二届科技向善论坛上谈到:“在数字社会的背景下,从业者需要保持警醒、自省,更需要相信科技向善,相信人类有能力和智慧去驾驭和控制这次技术革命。

从数据采集、训练到机器学习,人工智能其实只是放大了一直存在于人类社会的问题,提醒我们在新的时代背景下发挥想象力与创造力,去思考与解决这些问题。

技术来自于人类对美好生活的追求,它始于人,也应控于人,无论是立法限制,还是价值原则,归根结底,都是对人类社会伦理价值的重新探讨。

人工智能的大潮仍在继续,互联网时代的先锋,应当能够在这大潮中立足、思考,抱着向善的信念,不断稳重前行。

— END —

【尾注】

[1] Bughin, J. et al (2018). Notes from the AI Frontier: Modeling the Impact of AI on the World Economy. https://www.mckinsey.

com/~/media/McKinsey/Featured%20Insights/Artificial%20Intelligence/Notes%20from%20the%20frontier%20

Modeling%20the%20impact%20of%20AI%20on%20the%20world%20economy/MGI-Notes-from-the-AI-frontier-

Modeling-the-impact-of-AI-on-the-world-economy-September-2018.ashx

[2] Dutton, T. et al(2018). BUILDING AN AI WORLD–Report on National and Regional AI Strategies. https://www.cifar.ca/docs/default-source/ai-society/buildinganaiworld_eng.pdf?sfvrsn=fb18d129_4

[3]Edmond Awad, Sohan Dsouza, Richard Kim, Jonathan Schulz, Joseph Henrich, Azim Shariff, Jean-François Bonnefon & Iyad Rahwan. The Moral Machine experiment. Nature 563, pages59–64 (2018)

[4]Executive Office of the President,Artificial Intelligence, Automation, and the Economy. https://www.whitehouse.gov/sites/whitehouse.gov/files/documents/Artificial-Intelligence-Automation-Economy.PDF

[5]报告见www.brookings.edu 

[6]AI With An Ethic: European Experts Release Draft Guidelines. https://www.forbes.com/sites/federicoguerrini/2018/12/23/from-mass-surveillance-to-killer-robots-eu-experts-want-your-feedback-to-create-trustworthy-ai/#54bbcfee7ddf