互联网前沿

互联网前沿36

区块链:信用革命与商业未来

作者:lilian 2016-12-27
监管人工智能系统:风险、挑战、能力和策略

  作者: Matthew U. Scherer

  译者: 曹建峰 腾讯研究院法律研究中心研究员   

                李金磊 腾讯研究院法律研究中心助理研究员

  来源: Harvard journal of law and technology
  引言
  智能机器时代,人工智能正在全方位侵入我们的生活。人工智能(artificial intelligence,简称AI)正在替代那些以前只能由具有专业知识或者获得政府颁发的许可证的人员才能完成的任务。美国一些州以及哥伦比亚特区已经允许无人驾驶汽车上路行驶,无人驾驶汽车进入消费市场可能给交通出行领域带来一场变革。自动化的机器能够完成复杂的金融交易,面部识别软件可以标记出恐怖分子,人工智能还能够审阅法律文件。智能机器人能够击败世界上最强的棋手,谷歌翻译软件能够将法国《世界报》的文章翻译成通顺的英文,人工智能甚至可以为《世界报》撰写文章。
  人工智能越来越普遍的使用以及其商业潜力的逐渐开发,吸引更多的公司投资于人工智能项目。诸如谷歌、脸书、亚马逊以及百度等公司都加入了人工智能的军备竞赛当中。人工智能发展的巨大潜力,也引起了公众的关注,有人呼吁在人工智能的开发和运行中加强政府的监管,科技行业内的领导者也不断表达对于人工智能监管的关注。这些关注,是担心科技进步导致的技术性失业和人类对于新兴科技的不当使用。当然,也有更深层次的原因。
  2014年在麻省理工(MIT)举办的航空航天百年研讨会(AeroAstro Centennial Symposium)的采访中,埃隆·马斯克(Elon Musk)没有像以往硅谷的大多数巨头一样质疑政府的监管,而是认为在人工智能领域,政府监管的介入可能是一个非常明智的选择。他说:“我们应该十分小心地看待人工智能。我猜测我们人类下一个生存威胁恐怕就是人工智能。我越来越倾向于认为,对于人工智能应该在国际或者国家层面上有相应的监管措施,以防人类做出不可挽回的傻事来。”另两位科技界声名显赫的人物,比尔·盖茨(Bill Gates)和斯蒂夫·沃兹尼亚克(Steve Wozniak),也表达了对于人工智能未来发展的担忧。
  至少在不远的将来,贴近人们生活实际的人工智能法律问题就将接踵而至。例如,在自动驾驶汽车发生交通事故时,哪个主体或者是什么东西应该承担责任呢?外科医生在多大程度上可以将医疗诊断的任务委托给智能检查系统,而无需为因该系统出错而导致的错误诊断承担额外的法律责任?随着人工智能科技进入更多的行业领域,人工智能所造成的伤害将会频繁出现。
  但是,就像埃隆·马斯克提到的那样,刚刚兴起的人工智能还处在一个监管真空之中。除了仅仅几个州对无人驾驶汽车和无人机的立法外,几乎没有针对人工智能的专门的监管法律与机构,法院事实上也没有针对人工智能造成损害案件的裁判标准。同样地,对于人工智能监管途径的法律研究也是匮乏的。此外,也没有任何研究通过对政府各个不同机构的能力的考察,找出哪个机构最能够担负起应对人工智能挑战的责任。传统的监管方式,如产品许可制度、研究与开发监管、产品侵权责任,都十分不适用于管理自主智能机器所带来的风险。事前的监管措施亦不可行,因为人工智能的开发与研究可能是非常秘密的(只需要占据非常少的基础设施)、不连续的(人工智能系统需要的部件可能并不需要有意的合作就能够被制造出来)、零散分布的(人工智能的研究计划可以由地理位置相距甚远的几个小组共同完成),以及不透明的(外部人员很难发现人工智能系统中潜在的危险)。人工智能的自动化特征造成了风险预见和管理上的困难,尤其是在人工智能系统带来灾难性风险的情况下,使得事后监管措施变得无效。而且在任何阶段,监管都面临的困难,是准确定义人工智能的概念。
  本文将进一步深化对于政府监管人工智能的可行性与误区的讨论,并通过讨论这些问题进而解释为什么在这种困境之下,依然有可能找到政府监管人工智能的可行路径。第一部分将会探讨人工智能的本质特征及其呈现出的监管挑战。一些是概念性的挑战,例如,如何准确定义人工智能以及在其造成伤害的情况下如何分配道德和法律责任。还有一些非常实际的挑战,包括:控制自动化机器行为的内在困难,这可能让事后监管措施变得无效;人工智能系统行为的不可预见性;人工智能开发中的秘密性与分散性,这让事前监管变得无能无力。尽管面临着这些挑战,法律系统的庞大的监管工具包,以及人工智能开发中大公司分量的加重,意味着人工智能的有效监管不无可能。
  第二部分将会分析美国政府三个最主要实体,即立法机关、行政机关以及法院在监管人工智能中各自的能力范围。民主正当性与代表自由让立法机关享有立法权限,为人工智能的监管建立指导方针。政府应该有权决定法律的内容,因为其相对独立,并且有能力应对特殊化、专业化的科技行业。最后,法院应当在人工智能系统造成伤害的情况下分配各方的责任。
  第三部分将会提议在不同的责任分担体系之下,建立人工智能的监管框架。而这个监管框架的核心就是人工智能的授权审批系统:经过审批的人工智能的生产者和使用者将会承担有限的侵权责任,而没有经过审批的人工智能系统就将承担严格的责任。立法、行政(特别是一个专注于人工智能的行政机构)以及司法的各自功能都将其限制在其各自的能力范围,致力于对诸如人工智能这样的新兴科技的监管。
  一、人工智能监管的困难
  人工智能在经济与社会中越来越广泛的存在,在实际操作与概念层面上给法律系统带来了困难。大部分实际操作上的困难起源于人工智能开发与研究的方式以及控制自动化机器的基础性问题。概念上的困难则来自于如何对自动化机器造成的损害分配道德与法律责任以及如何准确定义人工智能。
  (一)人工智能的定义难题
  所有的人工智能监管制度必须首先定义它监管的是什么;易言之,它必须首先定义人工智能是什么。遗憾的是,迄今为止人工智能研究领域尚没有一个广泛接受的定义,更何况是政府监管领域。笔者不会自以为是地给出一个人工智能的定义来解决这个问题。相反,笔者旨在探讨监管者在定义人工智能过程中可能遇到的问题。
  准确定义人工智能,困难不在于定义“人工”(artificiality),而在于“智能”(intelligence)一词在概念上的模糊性。因为人类是得到广泛承认的拥有智能的唯一实体,所以任何关于智能的定义都毫无疑问要跟人类的特征相关。现代人工智能的领军人物约翰·麦卡锡(John McCarthy),同时也是人工智能这一概念的创造者,认为“任何关于智能的定义都要建立在人的智能之上”,因为“目前为止,我们还不能总体概括出什么样的计算机程序可以被称之为智能”。因此,关于智能的定义十分灵活,并且同人类的某些本身就难以定义的特质相关联,包括:意识、自我意识、语言使用、学习能力、抽象思维的能力、适应的能力、逻辑推理的能力。
  困扰定义“智能”的问题,同样困扰着定义“人工智能”。如今最畅销的人工智能的入门书籍,斯图尔特·罗素(Stuart Russell)和皮特·诺威格(Peter Norvig)合著的《人工智能:一个现代路径》(Artificial Intelligence: A Modern Approach)中,提出了八个不同的人工智能定义,可以被分为四类:像人一样思考(thinking humanly);像人一样行为(acting humanly);理性思考(thinking rationally);理性行为(acting rationally)。总有一天,这些定义概念的重要性会在人工智能的研究领域内逐渐显现。
  罗素和诺威格援引了计算机领域的先驱阿兰·图灵(Alan Turing)的文章来解释“像人一样行为”的定义办法。在图灵《计算机器与智能》一文中,他认为机器能否思考这个问题非常没有意义,甚至根本不值得讨论。相反,图灵关注于数字机器重复人类思维的外在表现行为的能力,而不是人类思维过程本身。这是图灵模仿游戏的前提,即一个计算机想要让它的提问者相信它是一个人而非一台机器。随着科技的发展,智能的概念内涵也随之改变。图灵曾经使用“来自各种缺陷的论据”来描述那种因机器无法完成某些特定任务而认为它们无法思考的观念。国际象棋一度被认为是机器人无法从事的活动之一,但早在上世纪60年代,机器人就能够进行简单的国际象棋活动,而到了1997年就已经打败了当时世界上最优秀的国际象棋选手。这说明人类描述智能的概念内涵及本质特征需要寻找新的标尺。
  今天定义人工智能所使用的最广泛的方法,关注于机器是否可以实现目标(goals),这是罗素和诺威格的体系中“理性行为”的重要标志。罗素和诺威格的教科书将理性代理人(rational agent)的概念实用化为一个人工智能的操作定义,从而把这一主体定义为,行为是为了获得最好的结果,或者在不确定的情况下,获得期待的最好结果。从监管的角度看,这一目标导向型的定义方式并没有很大的帮助,因为它只是把一个难以定义的概念(智能)换成了另外一个难以定义的概念(目标)。所以,为了监管的目的,如何通过目标的角度准确定义人工智能的问题仍没有解决。
  采用更加一般的概念“理性行为”来定义人工智能,会过于泛泛,同时又过于限缩。很多没有公共危险的电脑程序已经可以被归类为理性行为。国际象棋的棋手以及电子游戏中的智能对手,都能在既定的规则与程序下,尝试获得最佳的结果,这应该可以被定义为理性行为。当然,现在看来并无必要监管这些无伤大雅的程序与系统。“理性行为”的定义同时也是过于限缩的。一个不能理性行为的人工智能系统可能因无法预知其自身的行为而带来非常严重的公共危险。这并不是说,理性行为的人工智能系统就不会带来公共危险。相反,现在学术界对于人工智能系统的灾难性风险的研究,集中于那些妄图最大化人工智能的实用功能。但是,仅仅“理性行为”一项指标,尚不能为人工智能提供一个法律上完整的定义。
  为了本文的目的,在一个巧妙的循环定义中,将人工智能定义为,机器能够完成人类需要智能才能够完成的任务。为了有效区分作为一个概念的人工智能与作为一项科学技术的人工智能,本文将会使用人工智能系统来指代后者。因为人工智能是建立在现代数字算法的基础上,而人工智能系统需要软硬件的配合使用。所以,在这样的定义下,一个机器人、一台运行着程序的独立电脑或者互联网电脑、抑或任何一套组件都能承载人工智能的运行。
  (二)人工智能的特征带来监管困境
  人工智能的一些独有特征,让它与其他一般的公共危险源相比,更加难以监管。
  1.自主性、可预见性与因果关系
  行为的自动化(自主化),是人工智能与人类其他早期科技最大的不同。人工智能系统已经可以在不需要人类控制或者监督的情况下,自动驾驶汽车或者起草一份投资组合协议。未来,人工智能系统所能够从事的工作的难度和范围还将更上一层楼。正像工业革命带来了机器取代了工厂和农业生产中的大量手工劳动者,从而造成了经济社会的巨大震荡,人工智能以及与其相关的科技进步将会降低对于高素质的受教育人群的岗位需求,因为大量的工作可以由人工智能系统来完成。人工智能也将会迫使法律发生大的改变,以适应现代社会人工智能机器的大规模使用。
  人工智能给法律带来的一个重要的挑战,就是可预见性(foreseeability)问题。我们已经见过很多的人工智能标榜创造性的例子,或者其行为可以被认为是创造性的,或者是作为对人类行为的一种创造性表现形式。这一现象起源于国际象棋的电脑程序,它因为能够创造出在人类象棋基本规则与战略对策之外的独特对弈步骤,而被广大公众所熟知。
  人工智能创造性的例子是一种错觉,是人类给予特殊人工智能系统的可用运算数据与人工智能系统不受人类固有认知偏见共同作用的结果。对于一个电脑象棋机器,统计学家Nate Silver认为:“我们可能不应该将电脑做出的独特的对弈步骤描述为创造性的行为,因为它能够这样做可能仅仅是因为它强大的运算能力。但是机器的这一点同样也有好处,它没有让自己寻找正确步骤的困扰阻挡了自己在某些情形下确定什么才是正确的方式。而对于一个象棋选手来说,需要独特的创造力才能跳出原有的旧式思维。”
  人类决策系统与现代人工智能系统存在一个本质上的区别,正是这一区别让人类无法准确预知人工智能系统对于一个问题的解决措施。由于受限于人类大脑认知能力,为了做出决策,人类无法在有时间限制的情况下分析所有的相关信息,所以人类常常退而求其次,选择一个自己满意的解决方法,而非一个最佳化的解决方法,经济学家Herbert Simon称之为“满意法”。电脑计算能力的不断提高,使得现代的人工智能系统能够在有限的时间内精确计算所有的可能性,从而使得它们能够选择人类完全没有考虑过或者可能会实施的解决问题的方法。所以在一个受限的可能性的范围内,如四子棋中,人工智能系统更能够做出最佳化的决策而非一个仅仅满意的决策。即使是在更加复杂的设定下,例如在国际象棋中,人工智能系统做出的结论可能同人类的认知系统做出的决策产生极大的不同。所以,尽管人类设计并制造了人工智能,但是人类可能也无法预见人工智能所做出的决策。
  从法律的角度看,国际象棋中出其不意的对弈步骤并没有表现出人工智能的创造性,而是表现出了人工智能系统行为的不可预见性。因为人工智能系统本质上并不受其提前预置的概念、经验法则、传统智慧等因素的限制,而人类则需要依靠这些因素才能做出决策,所以人工智能系统有能力做出人类根本没有考虑过的决策。正是这种能够做出独特决策的能力,让人工智能系统能够应用于更加广泛的领域,同时也让人工智能系统的设计者们有了赋予人工智能系统这项能力的经济动力。在某种程度上,人类可能无法预见人工智能的决策,但是这种无法预见的行为可能正是系统的设计者和运行者所期待的。
  目前为止,人工智能所能做出的不可预见的行为仍然很大程度上被限制在一个很小的范围,尽管电脑棋手可能会做出一些意外的对弈步骤,但是它还是在下棋。但是随着更加通用化的人工智能的发展以及机器学习技术的进步,人工智能行为的不可预见性问题将会更加频繁的出现,而且程度会不断加深。一个可以学习的人工智能系统的经历可以被视为此类系统造成的任何损害的一个替代原因(superseding cause),这即是说,是一个介入力或者行为,足以使其侵权行为是事实上的原因的行动者免于承担责任。这是因为,一个能够自主学习的人工智能系统的行为部分依靠其后天的经历,即使是最细心的设计者、编程者以及制造者都没有办法控制或者预测人工智能系统在脱离他们之后将会经历些什么。所以,人工智能系统的设计者无法预测人工智能系统在现实中将会如何行为,但是无论怎样,这些行为都应该是设计者所期待的行为,即使有特殊的例外,也不能改变这一基本原则。
  如果法院认为人工智能系统因其特殊经历导致其做出的行为造成损害,而这些经历对于设计者来说是如此难以预测,以至于让设计者承担责任会导致不公平和非正义,这样会导致被侵权人无法因其损失而得到赔偿。法院面临的挑战是,法院为了保证人工智能系统的受害者的损失能够得到补偿,必须解决人工智能的可预见性与因果关系的问题。
  2.控制问题
  人工智能系统的自主性所带来的问题除了可预见性,还有如何控制的问题。人类对本来设计上就带有相当大自主性的机器进行控制是非常困难的。人工智能系统包含了很多不受控制的机制,例如,文件损害、输入设备受损等故障、安全系统上的漏洞、计算机系统相比于人类更快的反应时间、有瑕疵的编程等等。在人工智能系统自带学习和适应能力的情况下,一旦人类失去对它的控制,再想拿回控制权可能非常困难。正是这些独特的特征让人工智能成为了一个不同于以往的公共危险的来源,因为以往的公共危险纯粹是人类行为的恶果。
  失去控制可以被分为两种类型:其一,失去本地化的控制,即人工智能系统无法再被人类控制,人类也无法再对人工智能的监管和运行负有法律上的责任;其二,全方位的失去控制,即任何一个人都无法再控制人工智能系统。很明显,后者要比前者严重得多。而且即使是人工智能全方位失控,也并不会必然带来公共危险,只要人工智能系统的目标跟广大公众的目标相一致。然而,保持这种目标与利益上的一致性可能非常困难,因为人类的价值就是人类自己,而且人类的价值也无法被精确定义。
  人类与人工智能利益上的不一致性,起源于人工智能的目标是由人类最初的编程确定的这一事实。即使最初的编程程序允许人工智能根据随后的经历改变其目标,但是这些改变目标的指令仍然是由最初的编程系统发出的。乍看起来,这好像有利于维持人类对人工智能的控制,毕竟如果人类是人工智能最初编程的设计者,我们具有完全的控制权去改变人工智能的目标。但是,许多的人工智能专家和评论者却认为,如果人工智能被设定去完成某些目标,它们可能会不惜一切去完成,即使它们为完成目标所做的努力的结果并不是最初的设计者的主观意愿:“例如,我们可能会为人工智能设计一项目标,这项目标旨在减少人类痛苦。但是,考虑到人类的本质,我们即使在天堂也会找到方式受苦受难;所以,人工智能系统的最佳化解决措施就是尽快灭绝人类。没有人类就没有痛苦。”
  在这样的假定情形下,风险不是来自于人工智能系统对人类的怨恨或者无法理解人类的主观意愿,而是来自于对人类主观意愿完完全全的漠不关心。因此,对于人工智能系统,我们必须非常小心地向它们索取,否则我们可能会意识到原本设计的实用功能可能并不是它字面含义那么简单。
  越来越多的学者、科技企业家以及未来学家认识到,更强大的人工智能形式可能会抗拒人类的一切监管措施,从而给人类带来灾难性甚至生存性的风险。随着人工智能更加的强大、聪明以及智能化、自主化,人们没有必要在接受这一生存危机假设的真实性之后才能够认识到人工智能所面临的监管与控制问题。人工智能系统已经能够以十亿分之一秒的速度从事自动化的股票交易,完全剥夺了人类现实中干预的可能性。2010年的“瞬间崩盘”(flash crash)展示出计算机算法系统之间的交易行为能够在极短的时间内产生巨大的经济影响。幸运的是,对于大多数的人类投资者来说,这些股票交易能够被更正。随着人工智能系统在各个行业内的大规模应用,情况可能会变得大不相同。而这更需要加强人类对于先进的智能系统的控制。
  3.人工智能研发:秘密性、分散性、不连续性及不透明性
  站在监管者的角度,最令人头疼的问题其实不是人工智能,而是人工智能的研究与开发方式。秘密性是指人工智能的研究与开发只需要极少的可见设施;分散性是指研究人工智能系统不同组成部分的研发人员可能分布在不同的地方;而跟分散性紧密相连的一个特征,不连续性,是指人工智能的研究与开发不需要所有的部件同时就位,也不需要不同部分的研究人员通力合作;最后一个特征,不透明性,是指人工智能系统的运行可能处在秘密状态而不能被反向工程控制。这些特征可能并不是人工智能的研究与开发中所独有的,信息时代的许多科技都有一项或几项这样的特征,但是,只有人工智能的这些特征给人类带来了特别的挑战。
  二十世纪的公共危险源,如原子核科技、大规模生产的消费用品、工业环境污染以及制造了大量的有毒物质等等,都需要大量的基础设施投入。这样一来反倒简化了监管程序。建造必需的基础设施,购置必要的生产设备,雇佣大量的员工,使得大型公司成为了政府之外唯一能够产生大部分公共危险源的实体。物理上实实在在的可见性,使得公共危险在秘密中大量产生变得极不可能。监管者能够非常容易地确定是谁以及在何处正在制造潜在的公共危险源。
  作为对比,人工智能的研究与开发能够在相对秘密的情况下进行,这一特征跟很多信息时代的科技相类似。在现在开源编程逐渐兴起的条件下,一个人并不需要一个大公司的资源与设备才能进行人工智能研究工作。任何一个拥有现代个人电脑(或者智能手机)与互联网接入的个人都能够为人工智能及其相关项目做出贡献。所以,个人能够在自己的大学寝室、地下车库或是火车站的候车室内就加入到人工智能的研究开发中来。这种人工智能研究秘密性的潜在可能,是人工智能与以往公共危险源的最大不同。
  用公共危险的标准考察,这些加入人工智能相关研究项目的人可能也是显著分散的。人工智能相关研究项目的参与者可能并不来自同一个机构,或者他们根本就不属于任何一个机构,同时这些人还能够从开源数字图书馆中获得他们想要的软件资源。分散性的特征并不局限于此。现代的人工智能系统几乎没有完全是从底层做起,完全由自身的开发者完成系统组件与编程。此外,现代人工系统的物理部件都将会有完全独立于人工系统编程的其他实体来生产。尽管现代电脑系统软硬件生产中的分散程度和规模以及交互程度都远远超过以往的任何科技,但是这种分工协作的复杂性将会随着更加强大的人工智能形式的到来而更进一步。
  最后,人工智能系统的内部工作模式以及各个组件之间的互相配合,比起以往的任何科技,都更加的不透明。将人工智能与20世纪最大的公共危险源之一的汽车相比:汽车拥有接近30000个物理组件,但是人们非常了解这些物理组件之间是如何工作的,不仅是汽车的设计者与生产者知道,而且汽车零件的生产者与负责售后服务的维修者都非常清楚汽车的工作原理。即使人工智能跟随信息科技时代的发展大趋势,它也不太可能获得如汽车一般的透明度。复杂人工智能系统在设计上存在的缺陷,不仅消费者们难以发现,就算是下游的生产商与销售商同样无法知晓。
  总的来说,人工智能研究与开发过程的这些特征,使得监管者面临着以前从未有过的逻辑上的困难。人工智能项目的参与者可能生活在不同的国家,并且彼此之间没有法律上或者书面的合同关系。任何国家想要限制本国公民参与这些人工智能研究项目的努力,可能并不会对人工智能的发展产生实质性的影响。即使是那些大型公司参与的项目,人工智能本身较少的固定资产投资以及并不复杂的搬迁程序,可能使得这些公司在本国法律制度过于严苛的情况下,选择将人工智能项目移植到海外。许多公司会毫不犹豫的选择这样做,毕竟人工智能的进步能够为公司带来巨大的竞争优势。
  人工智能事前监管面临的这些困难,同样使得致力于使遭受人工智能损害的受害者获得赔偿的事后监管变得复杂。由于参与人工智能系统部件的设计、修正及组装的个人以及公司数量太多,以至于很难确定出哪一方或者哪几方应当承当责任。许多人工智能系统的部件,可能在人工智能系统存在之前就已经存在,而且他们的制造者也没有想到他们生产的部件被用在了人工智能系统上,而这个人工智能系统造成了损害,就更非他们的本意了。在这种情况下,将责任分配给人工智能系统某一部件的设计者,就显得非常的不公平,因为其生产的部件距离人工系统的完成以及运转,不管是在空间还是时间上都太过遥远。法院也不太可能会认为,这一部件的生产者能够预见到人工智能系统会造成这一伤害。同样地,人工智能系统运转的不透明让法院也不能轻易地将人工智能系统造成第三人损害的责任归责于用户。人工智能系统损害发生的预见性问题先暂且不谈,单单是潜在被告的数量就已经让责任的分配与承担问题足够复杂了。
  (三)法律扮演的角色
  尽管人工智能有着各种特殊问题,但是我们仍然有理由相信法律制度能够在不阻碍创新的前提下,控制人工智能带来的公共危险。为人工智能创造一个可行的定义是非常困难的,但是给一个不够严谨的术语想出若干精确的法律定义并不是那么难,而且这一点也并非人工智能所独有。尽管为了监管或者责任分配问题而创造的法律定义,可能会过于宽泛或者过于限缩,但是这对于法律系统来说也不是什么新鲜问题。同样,法院也必须解决可预见性与因果关系的问题,但是法院需要根据科技的发展和进步,不断调整其最接近因果关系的判断标准。从限制人工智能造成损害的规模的角度看,人工智能的控制问题确实带给法院不小的挑战;但是,这并没有额外增加对人工智能实施事前监管与引导措施的困难。
  法律已经针对人工智能研究与开发中的不透明和非连续性问题采取措施。非连续性特征,不只是人工智能所独有,其他一些科技也有这样的特征。汽车生产商很早就采用了不同公司制造的零部件来制造和生产汽车,法院也很早就为这些组装汽车的各种部件造成的损害建立了分配责任的规则。对于不透明的问题,可以直接通过法律规定强制要求编程信息的公开和提供详细的使用说明书,或者间接的通过税收优惠措施或者侵权责任标准的减轻来促使人工智能系统更加透明。
  人工智能研究与开发中潜在的分散性与秘密性所带来的问题,乍一看可能觉得非常难以解决。但是人工智能产业现在的发展趋势表明,同许多20世纪的科技成果一样,人工智能的发展也必须由大型商业公司以及政府来推动,而不是私人的小作坊。人工智能的商业发展潜力已经引发了人工智能领域的一场实实在在军备竞赛,各大公司争先恐后地投资于人工智能项目。在2014年1月,谷歌公司以5亿美元的价格收购了深度思维(DeepMind),一家致力于人工智能开发的英国公司。在人工智能的研究领域,几乎所有的科技巨头都有重要的人工智能研究项目,包括IBM的Watson、Facebook的人工智能研究实验室以及微软的Adam项目。就像20世纪的公共危险源一样,人工智能的重心也是这些可见的超大型公司。
  如果这种趋势继续发展,人工智能领域的巨大进步可能来自于某些大公司,而这些大公司对于政府和法院来说,非常容易确定。虽然人工智能的开发工作可以由一个人只用一台电脑就能完成,但是大公司的经济规模以及资金基础和人力资源的巨大优势,将会在未来人工智能的研发中占得先机。在人工智能的进一步发展需要强大的计算能力的情况下,这种优势就会更加明显。如今,世界上最强大的超级计算机掌握在政府机构、国有企业、大型研究机构以及市值巨大的上市公司手中。如果这种状态持续下去,在很长时间内,制造了其他公共危险源的政府机构以及大型公司等类似实体,是唯一可能制造出强大的人工智能系统的机构。
  然而,从另一个角度看,私人资本对于人工智能的投资,限制了政府所能够支配的工具范围。大型私人资本对于人工智能研发的投入,使得政府支持的人工智能的安全研究项目不太可能成为唯一能够产生巨大影响的项目。如果政府不能在人工智能上花费巨大的公共预算研究经费,它就有可能被私人资本支出的研究项目所超越;除非出现类似第二次世界大战的大变动,否则政府对于人工智能的研究预算很难被公众接受而落到实处。此外,即使政府机构的人工智能研究仅限于安全层面和发布如何安全开发人工智能的信息,也同样需要机制来鼓励人工智能的开发人员将这些安全特征整合到他们的研究系统中去。因此,政府支持人工智能研究有利于创建一个宽泛的人工智能法律框架,但仍然不是应对人工智能潜在公共危险的一个充分的法律措施。
  幸运的是,已经工业化后的世界,它的法律与监管机构能够为影响人工智能的发展与运行提供广泛而丰富的“工具箱”。尽管人工智能的某一方面可能并不会受到政府机构直接的事前监管,然而它可能对侵权法的事后监管中的激励措施做出回应。立法机关、政府机构以及法院,它们都能够为引导人工智能的发展走上有利于社会经济发展的道路,提供解决机制。本文的第二部分,就将探讨这三个不同的政府机构所拥有的不同能力,以及它们如何来管理人工智能带来的公共危险。
  二、政府公共机构的职能
  在一个以最大化公共利益为己任的政府内,每个机关都有自己的能力范围或者专长。而一个好的政府不仅仅是制定出好的政策,还要考虑哪个机构应该做出决策,以及机构之间应该如何互动协作。
  在管理人工智能的公共危险方面,政府内的独立机构,即国家立法机关、行政机关以及普通法的侵权系统(即法院)有其各自的能力范围。政府的这三个机构有着一些共同之处,即拥有更多的财务资源就能够影响政府这三个主要机构的决策,同时还包括资源与财政预算限制和关键决策者的腐败可能性等。
  即使不考虑这些共同特征,也没有哪一个机构在一项独特的能力方面有着垄断地位。举例来说,行政机构通常在确定被规制内容题材方面拥有比法院和立法机构更加专业的能力,但是法院和立法机构可以通过咨询聘请的专家来缩小这种能力差距。尽管行政机构与立法机关在采取事前措施,防止损害发生上有着比法院更大的自由,但是他们并不在实践中经常性的行使这种自由。尽管如此,以下要讨论的各项原则,对于要不要监管以及如何有效监管人工智能的影响来说,是非常有指导意义的。
  (一)立法机关
  现代的法律程序学者,大部分都忽视了立法所承担的监管责任,而专注于研究司法与行政程序。这种现象可能非常费解,尤其是自美国进步时代开始以来,直接的立法监管正在不断增长。在二十世纪,人们创造出了复杂的税法条文,废除了普通法犯罪而制定了刑法典。成文法正在取代普通法,为破产、劳动、公共健康等领域建立实质的规则。
  尽管学术上对于立法机关的机构能力和弱点没有太多关注,我们仍然能够总结出立法机关作为一个监管机构所具有的特征:(1)民主正当性;(2)相对缺乏的专业性;(3)代表民意的能力。立法机关的这些特征使得其成为建立监管体制和树立基本原则的起点。立法所树立的基本原则应当引领政策的发展方向,而不是事无巨细地去决定其具体内容。
  1.民主正当性
  立法机关通过的法律,相比政府的法令或者法院的裁判,更能反映公众的意愿,所以更具有民主正当性。而其民主正当性来源于其立法议员由民主选举产生,并且更乐于倾听民众意见。所以对于重大基础的法律与道德原则的问题,公众更倾向于希望立法机关来做出决策。尽管立法机关也存在诸多问题,但是它是最能够胜任做出价值判断与衡量决策的机构。行政机关的人员是任命产生的,法官必须遵守法律,即使法律偏离了民意。这使得立法机关是在公共决策中,最能够代表民主正当性的机构。
  所有的人工智能监管体制必须得到公众的认可,即立法上的承认。价值衡量的内在要求包括两个方面:一方面决定能够承受的公共危险程度;另一方确定某些必须由人来承担决策者责任的领域。为了确保立法机关的民主正当性,立法机构应当作为人工智能监管的起点,并且厘清监管的目标与应该建立的监管体制。
  2.缺乏专业能力
  立法机关监管新兴科技的一大缺陷就是其专业性上的相对缺乏。政府机构可以雇佣具有特殊知识的专家,法院则可以在特殊案件中启用专家证人。而立法者只能依靠听证会和游说团体来获得相对专业的意见。
  对于新兴科技领域,游说者的建议和听证会的意见在立法中可能都有问题。立法机构可能只有一些下设的立法专业委员会,依赖于专家的建议,而即使这些立法者,也不可能在一个特殊问题或者议案上消耗太多的时间。此外,近年来,国会中的立法专业委员会的力量在不断减弱。这限制了立法机关通过专家咨询意见获得某项科技的具体特征,从而做出正确立法决策的能力。
  3.授权与监督
  庆幸的是,立法者能够通过授权立法,来弥补其立法专业性上的不足。这些授权团体可能是立法机关内部下设的委员会和隶属委员会,或者是行政机关、法院、民间组织等外部机构。授权立法减小了立法机关同政府机关之间的专业性差距。更重要的是,授权立法使得立法机关可以将其不擅长的专业立法任务,分配给外部机构的专业委员会。立法机关拥有自由裁量的权力更大,能够直接制定政策,或者将该项自由裁量权授予一个政府机构。
  即使做出这样的授权,立法机构也能够采取多种措施监督授权立法的行使,包括控制预算的权力、采取受到监督的听证的能力以及完全收回授权的权力等。这样,立法机关就能够在法院或者政府监管机构没有建立起良好监管体制的情况下介入,重新分配监管权力。若政府监管机构或法院,能够建立起理想的监管框架,立法机关就可以通过法典化的手段将该监管框架制度化。
  (二)行政机关
  行政机关的一个特点就是其可塑性非常强,它能够为了应对某一个社会问题或者监管某一个行业而迅速调整自己。政府机关内某一个部门的决策者,可能是在相关领域有着专业知识背景的专家,这一点相比立法机关和法院要强出许多。而且不像法院,行政机构并不受法律规定的个案事实的限制,所以政府机构能够在更宏大的社会背景下考察某一问题。在人工智能的监管领域,行政机关的这些特点让其能够做出更好的监管决策。
  1.灵活性
  行政机关与立法机关、法院相比,在机构构成、组织形式、机构负责人的选择与任期等上面,都有着明显的优势。行政机关不仅仅是一个立法机构与法院决策的执行者,它在某种程度上可以包含三者所有的职能。它不仅能像立法者一样制定政策,而且能够像法院一样处理矛盾纠纷,而且还有执行决策的能力。行政机构还能够通过收集和发布关于某一行业的相关风险信息,来微妙地影响人们的行为。法律赋予行政机关作出范围更为广泛决策的权力,这对于行政机构来说,是相对明显的优势,因为法院必须把法律的适用限制在具体案件的具体问题上。
  但是立法机关由于害怕行政机关的“任务偏离”以及为了确保归责机制的运转,十分不情愿给予行政机关过大的改变其运转模式的自由。因此,立法机关对于行政机关的运转模式通常都是通过授权法律的形式赋予,包括领导体制、行政立法程序等重要职能。因此,行政机构的灵活性,随着授权法律的通过而逐渐失去。而这一立法限制,可能在人工智能的有效监管中被极其剧烈地感受到,因为人工智能的研究方向和关注点可能会随着时间不断变化。
  2.专业化与专业知识
  行政机关的政策制定更加专业化。首先,行政机关的组成人员由特定行业内的专家学者组成;其次,行政机关本身被赋予了一项具体的任务,这样行政机关内的组成人员可以只关注于与特定行业相关的事项。而立法者与法官都是通才,他们的工作横跨所有的行业与法律领域,所以缺乏专家化与专业化的处理。但是行政机关的专家化优势可能随着最新科技的迅猛发展而逐渐失去,因为人工智能的研究领域涉及太广,上至计算机科学,下至语言学、心理学,甚至哲学,而且人工智能的研究发展太过迅猛,今天的人工智能专家可能难以预估明天人工智能研究的安全与风险问题。
  人工智能的上述问题,在通常意义上指出了专家一词的滑稽可笑。一个人仅仅具备了一门相关知识,还不足以成为人工智能领域的专家。而这些问题对于行政机关来说,似乎并不是特殊且不可克服的,如果行政机关需要挑选一个空缺职位的候选人。所有的机构和实体都必须做出有价值的建议,但是,由于人工智能涉及的领域实在是太过广泛,并且研究趋势处在不断变化之中,行政机关要确保,在某一个时间内,行政机关有足够多的能够胜任的专家。
  3.独立性及其代价
  行政机关兴起的一大动力,就是在大众媒体和政治游说团体的包围下,由选举产生的立法议员能否保护公共利益。行政机关可以白手起家,能够在理论上建立起不受政治压力影响的结构体制,例如通过法律限制总统罢免行政机关负责人的权力。诸如此类的措施,可以保证行政部门作出的决策与实行的政策,不受政治压力的影响,能够建立起独立且专业的行政机构与部门,逃离扭曲的选举政治的藩篱。
  但是这样的独立是要付出代价的,代价就是疏远了同公众及他们的议员代表的关系,让独立的行政部门承受非民主的指责。但是将政策的制定权交给行政机关,代表了一种价值选择,即将公共问题的解决,由立法机构代表的大多数民意,转换成了行政机关的直击问题本质与专业化的解决方法。此外,行政机关还能够进行独立的调查。这一点使得行政机关不同于法院,法官虽然有权利传唤特殊的证人,但是很少使用该项权力,而陪审团更是不被允许进行独立的调查或者听信除法庭出示以外的证据,行政机关显然没有这些限制。
  4.事前措施
  行政机关同样享有与立法机关相同的事前监管权力,能够在损害发生之前就制定政策措施。在面对人工智能时,行政机关事前监管的重要性与作用都大为削减。人工智能的某些科技功能是否有害,可能要等到其大规模的使用后才能得知,而且即使行政机关有着人工智能的专家团队,但是人工智能的研究方向与范围实在是难以预测,所以行政机关很难做出准确的事前监管措施。
  然而,这并不绝对意味着行政机关在新兴科技,如人工智能的事前监管中,不能有所作为。通过公布行业标准和加强公共宣传,行政机关通过不给予许可或者禁止某项产品就能够树立期望值。此外,行政机关在收集与发布危险信息上有得天独厚的优势,以便于普通公众可以独立判断一个产品或某类产品的安全与危险性。在人工智能监管的情况下,可以通过各项标准来定义人工智能系统应该具有的特征,如限制人工智能的某些功能或者让人工智能一直处于人类控制之下等。
  (三)普通法侵权体系
  侵权法主要通过责任的威慑来影响未来的行为。因为法院无法在侵权没有发生的情况下适用侵权法律,所以侵权法在影响和制定政策的前瞻性上有极大的不足。而且当侵权案件发生时,法院只能在个案中发现事实、适用法律,而不能够将法院裁判置于一个宏大的社会经济环境下考察。因此,法院倾向于考虑一项新兴科技的害处,而非其能够带来的益处,这样的倾向如果不加以纠正,可能会影响社会上对于新兴科技的投资热情。综合来看,法院的这些特点,使得其能够很好地胜任事后监管的职能,而不是在社会宏观层面确定人工智能等新兴科技的风险与收益。
  1.事实认定
  在每个侵权案件中,一个审判法庭的任务是,评价双方当事人的事实记录,做出必要的事实发现,并决定某一个案件的结果。法院运用法律和程序,将当事人双方和陪审团的注意力集中到特定案件中来,而不是任何的外部条件。行政机关和立法机关通常会将社会和经济环境作为其决策的出发点,而法院则是以个案为出发点。在案件损害的发生涉及到多方主体或者多个危险源时,法院在责任分配问题上,相比其他政府机构,都更加有耐心,所以在损害发生时,其仍是确定责任的分担的最合适主体。
  在管理新兴科技带来的公共危险时,侵权法系统的这种特质,使得其利弊参半。在个案中发现某项产品所造成的损害,确定具体产品的设计与安全功能,确定产品的风险因素来源,无疑是重要的。但是,由于法庭的事实发现集中在造成损害的功能之上,而没有涉及到为什么产品本身没有阻止损害发生的功能,所以法官和陪审团,无法在一个更广大的背景下考察这些争议的科技产品。这些个案的发现,呈现出的某项科技的具体情况是不完整的。
  2.反应性
  与行政与立法机关相比,法院通常没有能力进行事前监管。法院不能行使自主裁量权去代替法律判断如何分配新兴科技的责任。对于新兴科技来说,法院的这种事后性监管,可能会降低科技行业对于法院如何确定一项新兴科技责任的期望值。对于人工智能来说,这可能带来一些棘手的问题。取决于人工智能的具体使用情形,人工智能既可以被认为是一项产品,也可以被认为是一项服务,这种判断又会影响到严格责任或者疏忽大意的过失是否适用于人工智能的问题。而且,这种判断在具有自主学习功能的人工智能上,就更加难以实现。
  法院的反应性特征,还导致了对于新风险的保守主义。法官与陪审团都不了解风险的量化分析,他们都倾向于认为,新的风险比旧的风险更加严峻和难以克服。这种保守主义的倾向,还进一步被侵权法的个案事实发现加重,所以,在政府机构层面的法院系统,倾向于做出保守的公共危险选择。
  3.渐进主义
  侵权法系统的事后监管特征,意味着普通法发展得非常缓慢。侵权法诉讼过程十分冗长。在第一次的侵权判决之后,一项新兴科技的法律标准发展更为缓慢,因为遵循先例的规定不能适用于不同的司法管辖区域。即使在同一个司法管辖区域,一项普通法的发展进程也不可能是一马平川,因为上诉法院可能做出不同的判决。
  目前,人工智能的进步还是渐进式的。自动化系统的大规模使用,并没有导致现行法律规则的大规模改变。但是,随着人工智能科技发展速度的提升,会要求普通法对未来的人工智能进步做出预测,以防这些科技落入法律的真空。但是可惜的是,法院的个案审查,而不考虑个案的广泛社会影响,且因为缺乏专业性,法院是不太可能能够预测这些改变的发生。
  4. 错位的激励机制
  美国侵权法下的对抗制的诉讼模式,并没有与最优化公共危险的需要相协调。律师选择案件,主要是看能否达成有利可图的和解方案或者法院判决,而不是哪个案件能够有利于减少未来的损害。所以,律师们可能会更关注于自动驾驶汽车案件,即使它们并不属于人工智能所带来的最大的公共危险。当然,律师们更关注使用人工智能获得净利益的案件,而非数量更多的使用人工智能造成损害的案件。这种错位的激励机制,在法庭审判之中表现的更加明显。诉讼双方可能都会使用对自己一方有力的专家证人来迷惑法官和陪审团。
  行政机关同样难以理解新兴科技,但是对于行政机关来说,其行政人员往往具有相关领域的知识储备,所以相较于法院之中的通才法官和外行陪审团,不太可能做出完全错误的判断。由于这些专业人员的存在,尽管不能保证行政机关完全不受迷惑,但相比法院,行政机关能够看透科技的外表,发现它的本质。
  三、监管建议
  本文这一部分提出人工智能监管制度的建议。此项建议并不是要提出一个完整的人工智能监管制度的蓝图,而是围绕如何在不阻碍创新的前提下最大程度地控制人工智能带来的公共危险,展开对话。为了达到这一目的,下文提议的方案,是在立法层面起草《人工智能发展法》(Artificial Intelligence Development Act,简称AIDA),创建监管人工智能系统安全的专门机构,而且并不需要赋予这个专门机构如美国食品药品管理局一样“能够禁止其认为不安全的一切产品”的权力。《人工智能发展法》能够创造一个责任体系,而在这样一个责任体系中,经过合法审批的人工智能项目的设计者、生产者或者销售者仅需要承担有限的侵权责任,但是没有经过审批的人工智能项目进行商业销售或者使用将会承担严格的连带责任。
  《人工智能发展法》通过将设定人工智能监管的目标与目的的任务分配给立法者,利用了立法机关的民主正当性。通过将实质的人工智能系统的风险衡量工作委托给独立的专门机构,而使得其决策不受选举政治的压力影响。将这一项关键的任务交给行政机关,是因为行政机关比法院更能胜任评估每一个人工智能项目的工作,而法院则更容易受到法院系统内错位的激励制度的影响。任何关于新兴科技安全问题的决策,都不应当仅凭诉讼中双方当事人的证词决定,因为在个案中很难反映出该项新兴科技所带来的总体风险和收益。最后,《人工智能发展法》利用了法院在裁判个案纠纷方面的经验,在一项人工智能系统内部的多个组成部件相互作用而发生侵权损害时,需要法院来分配责任,并判断人工智能系统失灵是否在人工智能监管机构批准的设计的范围之内。
  这个强有力的以侵权为基础的制度,能够迫使人工智能系统的设计者与生产者将人工智能侵权成本内部化,保证对受害者的补偿,同时能够强制人工智能系统的设计者、编程者、生产者检查各自系统的安全性,而且不会出现一个权力部门全部禁止某项人工智能系统,阻碍科技创新。
  (一)人工智能发展法
  人工智能监管的起点应该是一部涵盖了人工智能监管一般原则的法律。这部法律应当建立一个人工智能监管机构,负责审核人工智能项目的安全性,同时这部法律还应当为该机构干预人工智能研究与开发的权力设定限制。《人工智能发展法》的立法目的,应当是确保人工智能是安全的,并且受制于人类的管控,与人类的利益相同,并且应当制止那些不具有这些特征的人工智能科技的研发与应用,鼓励具有以上特征的人工智能科技的发展。人工智能监管机构还应当发布定义人工智能的规则,而且还应当周期性地更新这些规则。关于人工智能定义的标准应当由立法机关批准,因为这直接关系着该机构的权力范围。
  《人工智能发展法》将会授予人工智能监管机构以权力去建立一套审批制度,在该制度之下,由该机构的专业人员对进行商业销售的人工智能系统进行审批。通过人工智能监管机构审批程序的人工智能系统,实质上将只承担有限的侵权责任,对监管规则的部分遵守,换来的是限制侵权责任,而非完全排除其侵权责任。在一个侵权诉讼中,对于经过人工智能监管机构批准的人工智能系统,原告需要举证该系统在设计、生产、运行中存在实际的过失,才能说服法官或者陪审团。如果在经审核批准的人工智能系统的侵权案件中,责任一方是私人破产者,那么被侵权人就可以提起对人工智能监管机构失职的行政诉讼。而为了应对这些可能的潜在行政诉讼赔偿,人工智能监管机构应该将审核费用的一部分或者政府财政预算用来设立赔偿基金。
  任何开发、销售或者运行没有经过审批的人工智能的公司都将对该人工智能造成的损害承担严格的侵权责任。而且该责任是连带责任,这样才能让未经审批的人工智能涉及到的多个相关主体都承担责任,以便达到最大化的救济被侵权人的目的。在诉讼中承担了责任的被告,则可以向其他的潜在的被告人索要其应付的赔偿款。
  人工智能监管机构同样需要建立规则管理人工智能的研究和测试。这样的规则要求人工智能的开发者在一个安全的环境中测试他们的设计,同时搜集数据,以便人工智能监管机构做出更加明智的审核决策,而且这样的测试不受未经审批的人工智能的严格责任的约束。此外,《人工智能发展法》还应该包含保留条款,确保本法实施前十二个月内的人工智能项目的商业化应用免受本法律规则的约束,以免造成人工智能产业和消费者期望的混乱。不仅如此,《人工智能发展法》还应该允许人工智能监管机构在审批程序外,再建一套监督现有的可能带来公共危险的人工智能系统的解决机制。
  因为人工智能是一个新兴的高科技领域,立法者可能无法判断哪一种人工智能会带来公共危险。所以立法者应该将《人工智能发展法》的立法任务,委托给一个由专业人员或者具有行业经验的专家组成的机构。除了上述的规则之外,《人工智能发展法》还应该给予人工智能监管机构以权力,让其细化和明确这一人工智能监管框架的大部分规则,同时还包括具体的审批程序。
  (二)人工智能监管机构
  《人工智能发展法》所创建的新机构,将会由两部分组成,其一是政策制定,其二是审批。政策制定方面,该机构将会被赋予定义人工智能的权力(尽管其定义还需要立法的批准),有权创设豁免情形,允许在特定的环境条件下人工智能的研究者可以不受严格责任的约束,同时建立人工智能的审核认证程序。审核认证程序要求人工智能的开发者,在获准进行安全测试的情况下,提交他们的测试结果和审批认证申请书。人工智能监管机构连同分支机构的人员,都应该具有与人工智能相关的教育经历或行业背景。此外,应该设定雇佣程序保证所雇佣的专家中,有相当的比例能够跟上现阶段的人工智能的研究趋势。
  在政策制定方面,规则制定的权威取决于管理委员会(下文简称委员会)。作为一个独立的行政机构实体,该委员会应当由行政机关任命并由立法机构批准。除了制定规章制度外,该委员会的职责还包括对提议的建议和修正案举行听证。
  如何定义人工智能,可能是人工智能监管机构所面临的最大的决策难题。因为立法机关和法院都不适合对人工智能做出一个准确定义,才让行政机关成了最适合的政府机构,可以为了监管的需要而确定一个可行的人工智能定义。不管最终人工智能监管机构选择了什么样的人工智能定义,这个定义都必须被定期的修正,才能跟上人工智能领域最新的发展方向。人工智能的定义以及其他规章制度,应该按照行政法律的标准程序,在进行投票决定是否适用之前的几个月前就应当公布,并且还应该经过公共评议阶段。
  《人工智能发展法》还应当要求人工智能监管机构对审批认证前的测试确立标准与规则。测试所得到的信息应当与审批认证的申请书一同提交给人工智能监管机构,而符合人工智能监管机构规则的测试将不会受到严格责任的约束。关于测试的规则,旨在保证该测试是在一个封闭安全的环境中做出。例如,测试规则应当禁止在以下系统中进行测试:联网的电脑、机器人或者任何能够操纵现实世界物体的系统、超过入门级计算机能力的系统,或者任何能够使人工智能测试对外部环境产生影响的系统。人工智能监管机构应当享有快速修正测试标准的权力,但是这样的修正,也应当经过公共评议,继而还需要投票表决。
  在测试完成后,人工智能的开发者可以向人工智能监管机构提起审批认证申请。为了给申请者提供指导和给人工智能行业树立期望,管理委员会应当公布对人工智能申请的评判标准,如是否会导致人身伤害、目标是否一致、能否确保人类的控制等等。人工智能监管机构组成人员的主要工作将会是判断某一人工智能系统是否符合这些标准。申请人工智能审批认证的公司应当公布所有与人工智能产品相关的信息,包括:(1)完整的源代码;(2)人工智能的软硬件部分的测试环境;(3)人工智能在测试环境中的表现;(4)其他任何与人工智能安全相关的信息。在公司披露信息之后,人工智能监管机构应当再一次在内部测试人工智能项目的安全性。
  考虑到人工智能的形式可能是多种多样的,人工智能监管机构还应当享有限制认证范围的权力。例如,人工智能系统可以被审批认证为在某些设置之下,或者某些安全程序之下,才是安全的,如果其开发者提出申请的话。人工智能监管机构可以通过快速审批程序,扩大某一人工智能系统的安全使用范围,如从自动驾驶汽车到无人机。为了审批和核准人工智能的新版本,一个相似的流水型的审批流程应该建立,可以参考美国食品药品管理局对于已获批准的药物再次申请类似同种类新药的新药审批简报制度(Abbreviated New Drug Application)。
  人工智能监管机构还应当发布涉及许可发放以及获批准的人工智能系统的警告告示要求的规则。例如,这些规则可以详细列明,人工智能系统的设计者和生产者将会失去有限责任保护,如果他们没有跟经销商或者零售商签订协议禁止他们更改人工智能系统。这将会有利于保证到达最终用户手中的产品,跟人工智能监管机构所审批认证的产品一致。
  (三)法院的作用
  在《人工智能发展法》的监管框架下,法院的作用在于,利用其在事实发现方面的机构特点和经验,裁决人工智能损害引发的诉讼案件。按照《人工智能发展法》的责任框架,法院将会在涉及经审批认证的人工智能案件中适用过失规则,而在未经审批认证的人工智能系统中适用严格责任规则。在后一类案件中,法院最重要的任务是在设计者、生产者、经销商以及操作者之间分配人工智能造成损害的责任。在有多名被告或者要求赔偿或者补偿的诉讼中,责任的分配应当比照一般的侵权案件处理。
  尽管建立了审批认证的程序和证书发放的标准,但是在许多的案件中,仍然会对某个版本的人工智能系统是否被认证或者对人工智能系统的某些修正是否超出了认证的范围存在争议。在处理这些案件时,法院可以召开预审听证会,判定争议的人工智能产品的版本是否属于审批认证的原版,如果不符合,其在哪一点上超出了审批认证的范围。关于人工智能修正是否超过审批认证范围的这一分界点,将会决定被告是享有有限责任还是需要承担严格责任。
  结论
  本文提出的依托侵权法系统的监管路径,是一个中间路线,它并没有像一个严格的监管机构一样,禁止所有的未经审批认证的人工智能产品的生产,但是它同时给人工智能的开发者为强化人工智能产品的安全属性和消化其外部成本提供了激励措施。通过侵权责任的杠杆,将人工智能系统的外部性安全成本内部化,保证市场上的人工智能产品的售价合理反映出它们所带来的危险。而对于未经审核批准的人工智能系统可以连带责任和严格责任,鼓励人工智能系统的销售商、零售商以及使用者,认真检查未经审核批准的人工智能系统的安全性,同时,随意更改人工智能系统可能失去有限责任的保护,确保下游的销售商不会随意更改人工智能系统,除非他们有足够的信心保证这样的更改不会带来大的公共危险。
  《人工智能发展法》不是一个最终的提案,这个提案只是为了让公众对人工智能监管开展对话交流。约翰·麦金尼斯(John McGinnis)提出,建立一个不具有干涉主义色彩的旨在支持人工智能安全研究的政府机构,同时对于无视这些安全研究结果的人工智能的开发者适用严格的侵权责任。如果人工智能的行为与人工智能的安全有着很强的关联性,那么支持这些人工智能的安全研究可能会对发展更加安全的人工智能大有裨益。而一个非常强势严厉的监管制度,更像美国食品药品管理局关于药物的审批制度,即一项药物不能在缺少许可的情况下上市销售,而获得许可则需要经过多重阶段的严格的安全测试。如果人工智能真的能够带来灾难性的风险,那么这样严格的监管措施是十分必要的。
  一个更加以市场为导向的监管途径,是人工智能的生产者和使用者为他们的人工智能系统购买保险,这样让市场来决定人工智能系统可能带来的损害风险。有人提出观点认为,应该通过法律拟制,让人工智能系统不仅能够拥有财产而且可以作为法庭中的被告。这样,人工智能系统就将被视为独立的法律实体,它们的所有者和使用者都不会为其造成的损害承担非故意的侵权责任,除非这个人工智能系统出资不足或者法院因发现了其他的原因而需要“刺破人工智能的面纱”。还有人提出一种解决框架认为,应该对人工智能系统适用最低工资,以确保它能够支付其造成的可预见的损害赔偿金。最终,可能立法机关会通过“人工智能阳光法案”,要求人工智能的设计者和运行者公开其人工智能系统的代码和技术参数,有赖于公众成员去关注和指出人工智能的哪些方面可能会造成公共危险,类似于维基百科网站允许公共成员对其词条进行修改一样。
  关于这些解决途径的呼声,将会随着人工智能的进一步发展以及个人所能感受到的其带来的风险与收益,而有所不同。那些像埃隆·马斯克一样,相信人工智能会给人类带来灾难性的生存威胁的人,可能会支持对人工智能采取最严格的政府监管。而那些认为人工智能所带来的风险是可控的,并且并不存在对人类造成的生存危机,可能会反对任何对人工智能的政府监管,或者只赞同有限制的政府监管。不管怎样,我们步入了一个依靠自动化与学习机器去完成不断增长的任务的时代。在某种程度上,当这些机器造成损害是,法律需要决定该怎么做,同时需要考虑直接监管是否可以作为减少此类损害的令人满意的方式。这提醒我们需要及早考量人工智能监管所带来的优点与不足。
前沿杂志
互联网前沿61

2022年,从引爆AI作画领域的DALL-E 2、Stable Diffusion等AI模型,到以ChatGPT为代表的接近人类水平的对话机器人,AIGC不断刷爆网络,其强大的内容生成能力给人们带来了巨大的震撼。

2023-05-12

全站精选