中国信息通信研究院与腾讯研究院AI联合课题组
作 者:Danit Gal 腾讯研究院科技政策分析师
译 者:孙 那 腾讯研究院研究员、博士后
李金磊 腾讯研究院助理研究员
人工智能是人类进入信息产业革命时代,达到的认识和改造客观世界能力的高峰。人工智能的大规模应用与机器人技术发展的日新月异,将在未来带给人类社会前所未有的巨大冲击。联合国作为全球最重要的国际组织,在2016年最新发布的人工智能报告中,表达了其对于人工智能的关注;同时为应对人工智能及机器人技术的发展带来的各种问题,提出了全新的思考方式与解决路径,这对世界各国的人工智能监管具有重要的参考意义。
联合国的人工智能政策与监管
近年来,自动化和智能化的机器人在现代社会的应用越来越广泛。先进机器人的全球研发、部署安装与使用,在引发的公众讨论的同时,也鼓励着政府监管的创新。例如,无人机不仅成为大众消遣的工具,同时也在反恐战争发挥着重要作用。自动化机器正在取代工厂中体力劳动者,同时带来了劳动力市场的革命。人形机器人不但被引进了学校,还用来在日托机构中照顾老年人;辅助机器人技术还广泛应用在医疗方案中,不管是在对自闭症患者的心理治疗还是在复杂重要的外科手术中,都能发现智能机器人的身影。机器人在家庭、工作、社会公共层面的广泛存在,不仅带给人类新的机会与挑战,同时还改变着人类的行为方式。
在联合国内,虽然大部分关于自动化系统与人工智能的讨论主要围绕在自动化武器系统,但是,我们看到联合国正在对大众化的人工智能系统应用产生浓厚的兴趣。联合国关于人工智能的若干附属报告,呼吁世界各国采用全新的视角看待人工智能系统的未来监管以及它们在机器人和机器人技术上的应用。联合国提供了一种考察基于机器人物理形态下的人工智能系统全新路径,作为世界各国“国家中心”视角的有效补充。
联合国教科文组织(The United Nations Education, Scientificand Cultural Organization)与世界科学知识与技术伦理委员会(World Commission on the Ethics of Scientific Knowledge and Technology)最新联合发布的报告(2016)主要讨论了机器人的制造和使用促进了人工智能的进步,以及这些进步所带来的社会与伦理道德问题。
尽管人工智能机器人通常被认为是人工智能系统的载体,事实上,人工智能机器人具有的身体移动功能和应用以及机器学习能力使得它们成为了自动化、智能化的电子实体。同样的,自动化、智能化机器人不仅能够胜任复杂的决策过程,而且还能通过复杂的算法进行实实在在的执行活动。这些进化出的新能力,反过来,导致出现了新的伦理和法律问题。具体来说,主要包括以下四个方面:
(一)自动化机器人的使用带来的挑战
2016年欧洲议会发布的关于人工智能和机器人的报告,表达了其对于机器人将给人类带来的风险的关注,包括:安全、隐私、诚信、尊严、自主。为了应对这些风险,欧洲议会讨论了未来可能面对的道德挑战以及应对的监管措施。联合国教科文组织与世界科学知识与技术伦理委员会的报告(2015)列举了以下可行的应对措施,包括:
数据和隐私保护;创新关于机器人与机器人制造者之间的责任分担机制;预警机制的建立;对机器人在实际生活场景中的测试;在涉及人类的机器人研究中的知情同意权;智能机器人的退出机制;为应对自动机器人的广泛应用将给人类教育和就业带来的巨大影响而建立全新的保险制度。
(二)机器人技术与机械伦理学
关于机器人制造和部署的伦理道德问题,被视为“机械伦理学(roboethics)”,用来处理人们发明和分配机器人的伦理道德问题,而不仅仅是机器的伦理学。联合国教科文组织与世界科学知识与技术伦理委员会的报告(2015)认为,“机械伦理学”的大部分领域仍然处于没有规范的状态,一方面是因为政府无法跟飞速的科技发展相同步,另一方面是因为“机械伦理学”的复杂性和其无法预知的本质。这一问题对于常常与公众直接接触的机器人商业开发者和制造者来说尤其麻烦,因为他们同样没有既定的伦理准则去遵守和执行。联合国在报告中记录了各个国家在寻找机器人伦理道德准则的实践中,所采用的不同做法。例如,韩国政府强制实施的机器人特许状制度;日本对于机器人应用部署问题制定的管理方针,包括建立中心数据基地来储存机器人对于人类造成伤害的事故报告。
(三)迈向新的责任分担机制
联合国教科文组织与世界科学知识与技术伦理委员会的报告(2015)探讨了一个复杂的问题,即在制造一个机器人需要不同的专家和部门合作的情况下,谁该为机器人的某次操作失灵负有责任。在科学技术不断进步和市场需求不断增长、机器人的自由和自主性不断增强的情况下,这个问题显得尤为重要。报告认为,关于机器人伦理的考虑,不应该局限于某次事故或者失灵造成的人身损害,更应该包括智能机器人带来的心理伤害,如机器人侵犯人的隐私、人因为机器人的类人行为而对其过分依赖等。
报告提出了一个可行的解决办法,即采取责任分担的解决途径,让所有参与到机器人的发明、授权和分配过程中的人来分担责任。另一个解决办法,就是让智能机器人承担责任,因为智能机器人确实拥有前所未有的自主性,并且拥有能够独立做出决策的能力。这两种责任分担方式展现了两种极端,既无视了人类在科技发展过程中的固有偏见,也忽略了科技被居心叵测的使用者用做他途的可能性。因此,报告并没有对机器人使用者应该承担的责任给予充分的考虑。
为了寻找可能的法律解决途径,联合国的报告援引了阿萨罗(Asaro)提出的结论,即机器人以及机器人技术造成的伤害,很大一部分由民法中产品责任的相关法律调整,因为机器人一般被视为通常意义上的科技产品。从这个角度看,机器人造成的伤害很大一部分被归责于机器人制造者和零售商的“过失”、“产品警告的缺失”、“没有尽到合理的注意义务”。这种归责制度,在阿萨罗(Asaro)看来,会随着机器人越来越自动化及智能化,而逐渐被废弃。然后一个新的平衡机器人制造者、销售者和最终使用者的责任分担机制会被逐渐创造出来。
(四)决策可追溯的重要性
联合国的报告认为,在对机器人及机器人技术的伦理与法律监管中,一个至关重要的要素是可追溯性,可追溯性的确立才能让机器人的行为及决策全程处于监管之下。可追溯性的重要性表现在,它让人类的监管机构不仅能够理解智能机器人的思考决策过程以及做出必要的修正,而且能够在特定的调查和法律行动中发挥它本来应有的作用。只有保证人类能够全面追踪机器人思考及决策的过程,我们才有可能在监管机器人的过程中占据主动权或者事后进行全面的追踪调查。
决策制定者考虑的问题
联合国报告在探讨政府监管政策的制定方法时,引用了来自联合国经济与社会事务部(United Nations Department of Economic and Social Affairs)的索尔陶·弗里德里希(Soltau Friedrich)的说法,认为国家应该关注于社会生活中不断增长的半自动化与全自动化服务。索尔陶认为人类更热衷于人与人之间的交流互动,即使计算机或者人工智能化的机器能够更好的胜任这项交流互动,而且在某项交流需要敏感的社会感知力与同情心的情况下,尤其如此。所以,监管者必须考虑科技发展的社会性限制因素。因为即使科技被发明出来并且得到应用,但是并不一定意味着其就会被广大的普通消费者所接受。
因此,索尔陶建议每个国家的政策制定者在将一般的机械自动化推进至智能自主化时,需要考虑诸多问题的应对措施,包括:
加强社会保障系统;采取教育政策促进计算机人才的培养满足市场需求;制定政策促使劳动者从低技能行业向高技能行业流动;同时强化失业安全保障网应对国际贸易条约对劳动者带来的不利影响;制定政策提高在研究和开发领域的投资,促进发展中国家的市场竞争与发达国家的创新。
联合国的报告指出了智能机器人的核心问题,由于它们能够执行复杂的任务,无疑将影响就业市场和人类消费与接受服务的方式。除了法律与伦理道德的政府监管,公众对于智能化机器人的某一项功能的接受与拒绝所带来的社会、经济以及科技影响,也可能促进或阻碍智能机器人未来的发展、扩张及大规模应用。正因如此,政府必须考虑公众对于科技的需求和接受程度,才能在新兴科技迅猛发展引起社会结构剧烈变迁的过程中找准自己的角色。