中国信息通信研究院与腾讯研究院AI联合课题组

作者:曹建峰  腾讯研究院法律研究中心研究员

各国纷纷关注人工智能伦理和法律问题

      2016年以来,人工智能不仅受到科技公司热捧,人工智能在智力游戏、自动驾驶、语音和图像识别、翻译等诸多领域取得重大突破,谷歌、脸书、微软等科技巨头收购人工智能创业公司的速度已经快赶上这些公司的创立速度。而且,各国政府(比如美国、英国等)以及一些社会公共机构(比如UN、IEEE等)开始积极关注人工智能的法律、伦理、社会、经济等影响,密集出台战略文件和报告。

      在人工智能法律和伦理研究方面,以UN和IEEE最为突出。2016年8月,UN下属COMEST(科学知识和科技伦理世界委员会)发布《机器人伦理初步报告草案》,认为机器人不仅需要尊重人类社会的伦理规范,而且需要将特定伦理准则编写进机器人中。[1]2016年12月,IEEE发布《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景(第一版)》,就一般原则、伦理、方法论、通用人工智能(AGI)和超级人工智能(ASI)的安全与福祉、个人数据、自主武器系统、经济/人道主义问题、法律等八大主题给出具体建议。[2]

欧盟快人一步

开始考虑人工智能民事立法

      欧盟走得更远,开始考虑针对机器人和人工智能出台民事法律规则,并为人工智能研发和审查人员制定伦理守则,确保在整个研发和审查环节中,将人类价值予以考虑,使最终面向消费者和社会的机器人能够符合人类利益。

      早在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立一个工作小组,专门研究与机器人和人工智能发展相关的法律问题。2016年5月,法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics,简称《报告草案》);同年10月,发布研究成果《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics)。

      在这些报告和研究的基础上,2017年1月12日,法律事务委员会以12票赞成、2票反对、2票弃权,通过一份决议(resolution),在其中提出了一些具体的立法建议,要求欧盟委员会就机器人和人工智能提出立法提案(在欧盟只有欧盟委员会有权提出立法提案)。当然,欧盟委员会并无义务遵守这一要求,但如果其拒绝这么做,就必须陈述其理由。[3]2017年2月16日,欧盟议会以396票赞成、123票反对、85票弃权,通过这份决议。[4]可以预见,推进人工智能法律和伦理研究,包括可能的立法和监管措施,未来将成为欧盟立法议程的一个核心。

法律事务委员会提出多项立法建议

      1、成立欧盟人工智能监管机构

      人工智能的发展将会带来很多新问题。法律事务委员会呼吁成立一个专门负责机器人和人工智能的欧盟机构,负责就技术、伦理、监管等问题提出专业知识,以更好抓住人工智能的新机遇,并应对从中产生的挑战。


      考虑到人工智能的当前发展和投资,需要给予这一新机构充分预算,配备监管人员以及外部的技术和伦理专家,对人工智能应用开展跨领域、跨学科的监测,确认行业最佳实践,并适时提出监管措施。

      2、需要人工智能伦理准则

      人工智能虽然可能赋能于人,带来效率的提高;但是,相伴而来的人类安全、隐私、尊严、正义、自治、数据所有权等风险,却也不容忽视。因此,在机器人和人工智能的设计、研发、生产和利用过程中,需要一个指导性的伦理框架,确保其以符合法律、安全、伦理等标准的方式运作。比如,机器人设计者应当考虑一个“一键关闭”功能,以便可以在紧急情况下将机器人关闭。

      在其《报告草案》中,法律事务委员会提出了所谓的“机器人宪章”(Charter on Robotics)。这一宪章针对人工智能科研人员和研究伦理委员会(REC),提出了在机器人设计和研发阶段需要遵守的基本伦理原则。对机器人科研人员而言,诸如人类利益、不作恶、正义、基本权利、警惕性、包容性、可责性、安全性、可逆性、隐私等都是需要认真对待的事项。

      此外,需要伦理审查委员会对人工智能设计和研发进行把关,确保机器人符合人类社会的伦理、法律等规范;这个委员会应当是跨学科的,同时吸纳男性和女性参与者。

      3、重构责任规则:强制保险机制和赔偿基金

      自动驾驶汽车、工业机器人、护理机器人等类型的人工智能产品可能完全或者部分脱离人类的控制,在这些人工智能产品具有自主学习、判断和完善的能力的情况下,一旦对人类和财产造成损害,其设计者和开发者是否应当承担严格责任,抑或承担有限责任?当具有自主学习能力的人工智能系统造成损害,让其设计者和开发者承担责任可能遭遇原因力(因果关系)和可预见性这两大难题,这给既有的民事侵权责任规则带来了挑战。

      对此,法律事务委员会提出了两个建议:

      第一个建议是,对机器人适用强制保险机制,这类似于针对机动车的强制险,由机器人的生产者或者所有者负责购买,以便对机器人造成的损害进行责任分配。

      第二个建议是,设立赔偿基金;这一制度有两大目的,其一,对强制险未予覆盖的损害进行赔偿,其二,让投资人、生产者、消费者等多方主体参与这一机制,从而形成赔偿基金。

      4、长期来看,考虑赋予复杂的自主机器人法律地位(电子人,electronic persons)的可能性

      界定监管对象(即智能自主机器人)是机器人立法的起点。对于智能自主机器人,法律事务委员会提出了四大特征:(1)通过传感器和/或借助与其环境交换数据(互联性)获得自主性的能力,以及分析那些数据;(2)从经历和交互中学习的能力;(3)机器人的物质支撑形式;(4)因其环境而调整其行为和行动的能力。

      此外,应当提出机器人分类标准,并建立高级机器人登记制度,目的在于实现可追溯性,并促进进一步推荐性规范的落实。

      在主体地位方面,机器人应当被界定为自然人、法人、动物还是物体?是否需要创造新的主体类型(电子人),以便复杂的高级机器人可以享有权利,承担义务,并对其造成的损害承担责任?未来,随着更复杂的机器人的出现,需要就机器人的法律地位问题展开更多探讨。

      5、知识产权方面,明确人工智能的“独立智力创造”(own intellectual creation)

      第一,法律事务委员会建议欧盟委员会就与软硬件标准、代码有关的知识产权提出一个更平衡的路径,以便在保护创新的同时,也促进创新。

      第二,对于计算机或者机器人创作的可版权作品,需要提出界定人工智能的“独立智力创造”的标准,以便可以明确版权归属。

      6、注重隐私和数据保护

      在针对人工智能和机器人制定政策时,应当按照必要性原则和比例原则,保障隐私和数据保护。在这一方面,需要进一步完善通过设计保护隐私(privacy by design)、默认保护隐私(privacy by default)、知情同意、加密等概念的标准。

      此外,当个人数据成为“流通物”,各种服务可以就其进行交易,更频繁的数据流动将成为可能,这可能带来数据所有权等需要明确的新问题。需要特别强调的是,将个人数据作为“流通物”使用,在任何情况下都不得规避涉及隐私和数据保护的基本原则。

      7、推进标准化工作和机器人的安全可靠性

      一是标准化,国际层面,欧盟委员会应继续致力于技术标准的国际统一,欧盟层面,需要建立相应的标准化框架,以免造成欧盟各成员国之间标准的不统一以及欧盟内部市场的分裂。

      二是机器人的安全可靠性,在现实场景中测试自动驾驶汽车等机器人技术,对于识别和评估其潜在风险是至关重要的。

      8、针对具有特定用途的机器人和人工智能出台特定规则

      法律事务委员会呼吁就特定类型的机器人出台特定监管规则,也即,进行特殊立法。需要采取特殊立法的机器人类型包括,自动驾驶汽车、护理机器人、医疗机器人、无人机、人类修复和增强(human repair and enhancement,即,为修复和补足受损器官和人体功能而存在的机器人)。

      9、关注人工智能的社会影响

      机器人和人工智能的发展将导致重大社会变革,诸如工作岗位和结构的变迁、人机交互对人类道德的影响(比如护理机器人和被看护者之间的情感关系)、教育等。法律事务委员会督促欧盟委员会密切追踪这些趋势,包括新的就业模式、税收和社会系统(比如收入分配制度)的可行性等。

      10、加强国际合作

      当前,机器人和人工智能在全球都是热点中的热点,被推到了投资和创业的风口浪尖。在这样的背景下,加强国际合作是十分可取的,一方面,诸如《维也纳道路交通公约》《海牙交通事故公约》等相关国际协议需要修改,另一方面,需要针对机器人和人工智能寻求并确立新的国际标准,以促进其更好地造福于人类。

人工智能成为公共政策焦点议题

      当前,人工智能不仅是以互联网为首的产业界竞相追逐的对象,而且是世界范围内的公共政策热议的焦点。无论是产业界领袖发出生存危机等担忧,还是政府针对人工智能的法律、伦理、社会影响等问题频发官方报告,抑或是学术界对人工智能歧视、偏见、不公正、责任等问题的热议,都足以表明,人们在人工智能第三次发展浪潮之际,对人工智能对人类社会影响的担忧几乎超过了对以往任何科技(包括原子核技术)的担忧。

      2017年1月,人工智能研究机构Future of Life Institute召集人工智能、法律、伦理、哲学等领域众多专家和学者召开2017阿西洛马会议(2017 Asilomar conference),并形成了23条AI原则,作为AI研究、开发和利用的指南,截至目前,已经有接近1000名人工智能研究人员为这些原则背书。[4]而在此前,美国白宫、英国、IEEE、斯坦福大学(即AI100)等都尝试出台AI指南,确保人工智能以符合人类社会规范的方式运作,并服务于人类利益。此外,政府和企业背书并提供研究资金支持的人工智能法律、伦理等研究项目也在不断增多。如前所述,欧盟等国家和地区针对机器人、人工智能或者自动驾驶汽车、无人机等特殊人工智能系统的立法和监管也在紧锣密鼓地进行着。

      国外和国际上所有这些讨论、研究、指南和立法都有助于帮助人们更好地认知人工智能技术对诸如法律、道德、价值、税收、收入分配、教育、就业等人类社会制度的影响,但是,正如对所有新兴技术的恐慌和担忧一样,对人工智能的担忧和规制也不能走过了头,以免法律等规则成为阻碍人工智能创新和发展的桎梏。在这方面,美国白宫的人工智能报告就明智地认识到,现在就对人工智能进行广泛的监管是不可取的,一方面,没必要进行激进的监管变革,另一方面,在必要性的前提下,以及在充分考虑人工智能的影响的基础上,对人工智能进行渐进式监管。


[1]http://www.unesco.org/new/en/media-services/single-view/news/unesco_science_experts_explore_robots_rights/

[2]http://mp.weixin.qq.com/s/2ElkNUeAdN9HAVFsUhewxQ

[3]http://www.europarl.europa.eu/news/en/news-room/20170110IPR57613/robots-legal-affairs-committee-calls-for-eu-wide-rules

[4]http://www.europarl.europa.eu/news/en/news-room/20170210IPR61808/robots-and-artificial-intelligence-meps-call-for-eu-wide-liability-rules

[5]https://futureoflife.org/ai-principles/