作者 | 曹建峰 腾讯研究院高级研究员

 

目录

(一)AI伦理和治理成基本共识,各界探索落地机制

1.中美欧采取不同的AI路径,创新与伦理平衡是AI治理关键

2.国际社会探索建立广泛认可的AI伦理原则,推进敏捷灵活的AI治理

3.科技行业日益重视AI伦理,但落地机制仍需探索行业共识

(二)细分领域监管持续推进,立法需合理平衡风险防范与发展诉求

1.欧盟探索AI算法分类分级监管机制,避免过度规制商业领域应用

2.深度伪造和合成内容引监管关注,立法防范风险同时留出发展空间

3.人脸识别引发法律和伦理争议,政策选项在于规范而非禁止

4.立法助推自动驾驶汽车落地,“城市空中出行”呼吁监管革新

5.人工智能赋能医疗健康产业发展,应用落地离不开监管革新

(三)展望:构建多层次的新技术治理体系,实现安全可信、负责任AI

1.构建多层次的治理体系,采取敏捷灵活的治理方式

2.立法和监管需充分考虑国际竞争、技术的经济社会价值等视角,推动先行先试

3.推动人工智能治理的跨学科参与和国际合作

 

作为有望引领第四次工业革命、重塑经济社会发展形态的新兴技术,人工智能(AI)已经成为了全球科技竞争的焦点。2017年以来,全球30多个国家(如美、中、日、德、英等)和地区(如欧盟)已出台了AI战略,抢占技术、应用和产业高地。[1]在此背景下,人工智能作为底层技术(如深度学习、强化学习)、功能性应用(如人脸识别、语音识别)和应用领域(如安防、交通、医疗)组成的产业生态系统,正从互联网领域加速扩张渗透到实体经济等诸多领域和各行各业,并与大数据、云计算、IoT等深度融合,推动经济社会数字化、智能化发展,并塑造新的经济和社会形态。我国作为全球最大的互联网市场,为人工智能的发展提供了肥沃的土壤,在数字世界与物理世界融合、人工智能与实体经济融合、从数字化到智能化转型等背景下,人工智能新技术给我国经济社会的高质量、可持续发展提供了前所未有的机遇,需要适宜的制度土壤来孕育面向未来的产业格局和国家竞争力。

但在另一方面,人工智能的广泛应用,也引发了社会各界对于人工智能的法律、伦理和社会影响的持续关注和激烈讨论,呼吁重视AI伦理,加强AI治理,践行科技向善,发展安全可信、负责任的人工智能。回顾2019年,AI伦理原则和AI伦理审查,以及AI算法决策、深度伪造和合成内容、人脸识别、自动驾驶汽车和“城市空中出行”(UAM)、AI医疗等细分领域监管,是全球人工智能治理的焦点话题,表明国内外对人工智能治理的持续高度重视。总结各国经验,对于人工智能需要采取多方主体共同参与的多元多层次治理模式,构筑适宜技术创新和产业发展的制度土壤来打造面向未来的科技引擎。

 

(一)AI伦理和治理成基本共识,各界探索落地机制

 

1.中美欧采取不同的AI路径,创新与伦理平衡是AI治理关键

全球来看,中美欧是AI领域的主要“玩家”,代表着不同的发展路径。互联网等数字技术发展薄弱、在数字经济领域显著落后于美国的欧盟,采取了更加侧重立法和监管的路径,其AI战略的三大支柱之一即是“建立与人工智能发展和应用相适应的法律和伦理框架”。[2]GDPR影响着全球个人信息保护立法,欧盟希望在AI立法和监管上也成为全球领导者。2019年欧盟不仅提出了系统性的伦理框架,而且开始酝酿人工智能相关立法,以2019年4月发布的《可信AI伦理指南》和《关于构筑对以人为本的人工智能的信任的通讯》等政策文件为代表。[3]但欧盟对立法和监管的过度强调,能否最终转化为其在AI技术、产业上的国际竞争力,是值得深入探讨的。另一方面,就像通过GDPR、数字税、互联网反垄断调查等一系列举措来限制美国大型互联网企业一样,欧盟希望通过AI政策提升其自身竞争力的意图也是不言而喻的。

相反,美国作为AI领域的领头羊,采取了轻监管、促创新的路径,以政策不阻碍AI技术和产业发展、降低创新的门槛和成本为优先考虑,并在发展过程中采取渐进式监管而非激进的监管,来应对新出现的问题。目前美国已在积极废除或修订交通、医疗等重点应用领域内限制、阻碍AI技术发展应用的既有监管规则。2019年2月,美国正式出台了AI战略,其中提出制定AI监管指南并设定AI治理标准。而且美国已提出了联邦政府参与、主导AI标准的系统性计划。[4]美国的国家人工智能战略虽然姗姗来迟,但表明了美国在人工智能领域维持并巩固其全球领导地位的决心,预计将采取一系列措施和行动。例如,为了推动实施美国AI战略,2020年1月美国联邦政府发布了《人工智能应用的监管指南》,要求联邦政府在针对人工智能技术和相关产业采取监管和非监管措施时,要以减少AI技术应用的障碍、促进技术创新为宗旨,《指南》同时提出了管理人工智能应用的十大原则,并呼吁更多采取行业细分的政策指南或框架、试点项目和实验(如为AI应用提供安全港)、自愿性的行业标准等非监管的措施。[5]因此可以预见,相比草率地推行强硬的立法和监管,未来美国的AI政策会更加侧重标准、指南等敏捷灵活的方式。

就我国而言,除了密集出台促进人工智能发展的产业政策之外,我国也已开始加强AI伦理、标准等方面的建设,《新一代人工智能治理原则——发展负责任的人工智能》回应了国际社会对我国不重视AI伦理和治理的质疑,国务院副总理刘鹤在2019年的重庆智博会上提出了发展智能技术需要坚持的四个原则并呼吁“科技向善”。未来在AI治理上,我国需要结合自身产业发展实际,遵循促创新、促发展的路径,同时采取多元化的方式防范技术的伦理风险,避免偏向欧盟的强监管模式,给技术创新和产业发展形成掣肘。

 

2.国际社会探索建立广泛认可的AI伦理原则,推进敏捷灵活的AI治理

国际层面,AI领域的竞争已从技术和产业应用扩张到了国际规则的制定,尤其是AI伦理和治理规则的制定。2019年5月,OECD成员国批准了全球首个由各国政府签署的AI原则——“负责任地管理可信AI的原则”, 包括包容性增长、可持续发展和福祉原则,以人为本的价值观和公平原则,透明性和可解释性原则,稳健性和安全可靠原则,以及责任原则。[6]这些原则已被G20采纳,今后有望成为AI领域的国际准则。

整体而言,从联合国的“AI向善国际峰会”(AI for Good Global Summit)和推动建立“AI伦理国际对话”的努力到OECD和G20人工智能原则,国际层面的AI治理已进入实质性阶段,初步确立了以人为本、安全可信、创新发展、包容普惠等基调,以及敏捷灵活的治理理念。

此外,根据WIPO的报告,科学知识和创新呈现出越来越全球化的趋势。[7]在此背景下,为了实现可持续发展目标,AI领域的国际合作尤其重要。所以需要包容性的、全球化的路径。我国需要积极参与、主导AI领域的国际治理和国际规则制定,输出AI伦理和治理理念,增强话语权。

 

3.科技行业日益重视AI伦理,但落地机制仍需探索行业共识

行业层面,互联网、人工智能等数字技术的影响日益广泛、纵深和复杂,对“科技向善”的呼吁已经成为行业共识。在此背景下,微软、谷歌、腾讯等国内外主流科技公司纷纷提出了各自的AI伦理原则,积极防范AI滥用风险并缓解AI应用可能引发的负面问题。例如,腾讯在国内率先提出“科技向善”理念,将其与“用户为本”一道作为新的使命愿景,并提出其人工智能研究与应用需要遵循的“四可”(可用、可靠、可知、可控)原则。[8]

但对于以什么样的方式和标准来落地AI伦理原则和要求,行业缺乏共识。伦理审查委员会作为科技行业开始探索的一种机制,目前存在较大争议。2019年3月,谷歌成立了外部顾问性质的AI伦理委员会,但由于引发了较大争议,不久之后便予以解散。2019年谷歌子公司DeepMind也遣散了其AI医疗部门的伦理审查委员会。微软则成立了内部的AI伦理委员会,旨在制定内部政策,确保其AI业务和AI平台符合其核心价值和原则并造福社会。在我国已在组建国家科技伦理委员会的大背景下,科技行业在制定AI伦理原则之外,还需要探索更具体的举措,让伦理原则真正落地到AI研究与应用活动中,对技术和产业发展形成正向引导和规范。

 

(二)细分领域监管持续推进,立法需合理平衡风险防范与发展诉求

 

1.欧盟探索AI算法分类分级监管机制,避免过度规制商业领域应用

AI算法自动化决策系统在数字内容分发、在线广告、电子商务、金融等领域的广泛应用,可以提高决策的效率、准确性或者避免人类决策者自身可能怀抱的偏见,但也引发了社会各界对歧视、隐私、安全等问题的关注。我国和欧盟、加拿大等已在通过立法对这些问题予以回应。

我国的《数据安全管理办法》《个人信息安全规范》《网络信息内容生态治理规定》等立法,针对定向推送、算法推荐、个性化展示、信息系统自动决策提出了要求,规范算法系统的应用。[9]例如,对于定向推送或个性化展示,要求标明“定推”字样或通过不同的栏目、版块、页面分别展示,并提供退出选项和信息删除;开展定向推送活动禁止歧视、欺诈等;对于满足条件的信息系统自动决策,建立个人信息安全影响评估和用户投诉机制;个性化算法推荐体现主流价值导向,建立人工干预机制。

欧盟的《通用数据保护条例》(GDPR),从个人信息保护的角度,针对不存在人为干预的完全自动化决策(包括画像)作出了规定,但其赋予个人的拒绝权仅限于产生法律效果或类似重大效果的应用场景,而非针对所有的应用场景,因此并不约束新闻、广告等数字内容的算法推荐。其后,欧盟进一步调整监管思路,2019年4月发布的《算法责任与透明治理框架》提出建立分类分级监管机制,且不要求对算法进行公开或解释。[10]具体而言,在算法监管方面,分类即针对政府和公共部门使用的算法系统和商业领域的算法系统建立不同的监管,前者需要建立“算法影响评估”(algorithmic impact assessment)机制;分级即对于一般的商业算法系统采取事后追究法律责任的方式,但对于具有与政府和公共部门的算法系统应用类似的重大影响的商业算法系统可考虑建立“算法影响评估”机制。这种做法能避免给企业带来不成比例的成本和管理负担,有助于人工智能发展应用。

在算法透明方面,欧盟立法者认为,技术透明不等于“对算法的每一个步骤、算法的技术原理和实现细节进行解释”,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。考虑到AI的技术特征,理解AI系统整体是异常困难的,对理解AI作出的某个特定决策也收效甚微。因此,对于现代AI系统,通过解释某个结果如何得出而实现透明,将面临巨大的技术挑战,也会极大限制AI的应用;相反,在AI系统的行为和决策上实现有效透明,会更可取,也能提供显著的效益。因此,考虑到人工智能的技术特征,GDPR并没有要求对特定自动化决策进行解释,而仅要求提供关于内在逻辑的有意义的信息,并解释自动化决策的重要性和预想的后果。除了监管之外,欧盟立法者认为,还应通过教育、新闻报道、揭秘等方式提高公众的算法素养。[11]

全球来看,“算法影响评估”机制得到了越来越多的讨论。除了欧盟以外,加拿大、美国等也在探索相关措施。例如,2019年2月5日加拿大出台的《自动化决策指令》(Directive on Automated Decision-making),将算法监管的重心放在了政府部门,《指令》针对政府部门在作出行政行为的过程中使用自动化决策系统(automated decision system),提出了算法影响评估、透明度(例如决策前通知、决策后提供解释、软件准入许可、公布源代码等)、质量保证(如测试和监测结果、数据质量、同行审查、员工培训、意外事故处置、安全、合规、人类干预等)、救济、报告等要求。[12]2019年4月美国国会议员提出的《算法责任法案》则要求针对符合条件的主体的高风险自动化决策系统,建立自动化决策系统影响评估机制(automated decision system impact assessment),评估自动化决策系统及其开发过程(包括系统的设计和训练数据),以评估其在准确性、公平、偏见、歧视、隐私、安全等方面的影响。[13]然而在现阶段,这一新倡议的“算法影响评估”机制在全球范围内存在巨大争议,仍有很多落地问题悬而未决,需要理性对待。

 

2.深度伪造和合成内容引监管关注,立法防范风险同时留出发展空间

深度伪造(Deepfake)和合成内容随着生成对抗网络(GAN)等机器学习技术的发展而出现,其最常见的方式是AI换脸,例如deepfake、face2face等技术,此外还包括语音模拟、人脸合成、视频生成等,这些技术统称为深度伪造。深度伪造及相关的AI技术在文娱、教育、医疗等诸多领域具有积极应用价值,如实现虚拟主播、替身演出、虚拟歌手、戏仿和自我表达(如AI换脸应用“ZAO”让普通人实现明星梦)、医疗数据生成等。但也给网络平台治理提出了新的挑战,主要表现为利用深度学习等AI技术制作高度逼真且真假难辨的图片、音频、视频等深度伪造内容来从事各种欺骗和欺诈活动,将网络攻击场景和信息安全问题带到一个全新的层面,如色情报复、敲诈勒索、假冒身份、散布虚假信息等,给个人和企业利益以及公共安全带来威胁。[14]而且深度伪造生成方法开源软件(如deepfake、face2face等)的增多,极大地降低了操纵、伪造音视频的门槛。报告显示,网上的深度伪造视频的总数比2018年12月翻了一番,达到近15000个,其中伪造的色情视频占比高达96%。[15]

美国最早对深度伪造进行规制,今年以来,美国尤其担心深度伪造对2020年大选和国家安全的影响,开始探索立法应对措施,防范潜在滥用风险。2019年6月,美国国会先后提出了《深度伪造责任法案》[16]和《2019年深度伪造报告法案》[17]。此外,美国的加州、德州、马萨诸塞州、弗吉尼亚州等也陆续推出了相关立法。这些立法提出的主要措施包括:

第一,划定应用边界,禁止政治干扰、色情报复、假冒身份等非法目的的深度伪造,否则可能构成刑事犯罪。例如,美国加州的法律草案规定,禁止在投票选举前60日内传播明知是伪造或合成的候选人视频,除非包含视频属于伪造的免责声明。美国得克萨斯州2019年9月1日生效的一项法案将在选举前30日内制作、散布深度伪造视频意图伤害候选人或影响选举结果的行为,认定为刑事犯罪。此外,美国弗吉尼亚州2019年7月1日生效的反色情复仇修正法案,将“制作、传播虚假的裸体或性视频、图像”意图胁迫、骚扰或恐吓他人的行为,认定为刑事犯罪。《深度伪造责任法案》规定,利用深度伪造技术实施数字冒名顶替行为也应视为假冒身份行为。

第二,设置披露义务,要求制作者、上传者以适当方式披露、标记合成内容,例如采取嵌入数字水印、文字、语音标识等方式。《深度伪造责任法案》规定,利用深度伪造技术合成虚假内容放置于网络上传播的,制作者应当采用嵌入数字水印、文字、语音标识等方式披露合成信息。违反披露义务的制作者或者恶意删除披露信息的行为人需承担民事责任,行为恶劣、造成严重后果的还会面临罚金、人身监禁等刑事处罚。

第三,加强技术攻防,呼吁开发检测识别技术和反制技术。《深度伪造责任法案》要求成立深度伪造特别小组,其职责包括研究开发针对包括深度伪造在内的图像、音视频操纵技术的检测识别和反制技术、为研究此类技术的其他政府部门提供行政和科学支持、与私营企业或学术机构合作开发检测识别工具等。此外,《2019年深度伪造报告法案》要求美国国土安全部(DHS)定期发布关于深度伪造技术的评估报告。

我国相关立法也开始关注深度伪造问题,制定中的《民法典人格权编》《数据安全管理办法》以及已出台的《网络音视频信息服务管理规定》《网络信息内容生态治理规定》等都作出了相应规定,侧重人格侵权和内容安全。[18]具体包括:禁止利用信息技术手段伪造的方式侵犯他人的肖像权和声音;针对自动合成的信息内容标明“合成”字样;禁止利用深度伪造等新技术从事禁止性活动。

从国外监管趋势来看,规范深度伪造和合成内容的应用,需要政府、企业、公众、用户等多方主体共同参与,在分类分场景监管之外,还可采取制定行业公约和技术标准、研发视频鉴伪和溯源技术、提高公众的警惕防范意识和数字素养等多元化的方式,同时鼓励行业探索更多有益运用场景,引导技术向善发展,提振产业发展信心。未来需要加强源头治理,构建以制作者的标注、标记义务为核心的治理机制,同时鼓励发展应用鉴别对抗技术。

在源头治理方面,如前所述,当前美国的做法主要是要求制作者、上传者对深度伪造内容进行标注,从而从源头上对深度伪造进行规范。这一源头治理的做法具有合理性,因为没有标注的深度伪造内容一旦传播出去之后,第三方就很难鉴别,检测技术的开发、成熟也面临着诸多困难,而且难以跟上深度伪造技术进化的步伐,所以开发溯源技术并进行源头标记是最有效的措施。此外,考虑到行业内当前还没有通用的、高准确率的视频鉴伪网络,相应的鉴伪技术也都尚在初步阶段、还有很长一段路要走,所以美国并未强制要求平台对用户上传的或第三方的视频是否属于“深度伪造”或“自动合成”进行检测识别,并以此为由要求平台承担责任,因为这将给企业带来不成比例的管理负担和成本。

在技术对抗方面,当前谷歌、Facebook、腾讯等国内外主流科技公司都开始通过多种举措,发展甄别深度伪造和合成内容、对抗深度伪造技术滥用的方法和工具,包括:构建并开放深度伪造数据集,为研究、开发检测识别技术提供基准;支持、发起深度伪造检测挑战赛,与行业携手推动检测技术的研究与开发;开发深度伪造检测识别和标注工具;培训专门的合成内容审查人员,加强对视频内容的真实性审核。可见,面对人工智能等新技术的潜在风险,行业内越来越重视自律性质的风险管理措施。

 

3.人脸识别引发法律和伦理争议,政策选项在于规范而非禁止

2019年,人脸识别技术广泛应用,从设备解锁、刷脸核身、刷脸支付到安检、安防、犯罪侦查等,在带来效率、便利并增进社会福祉的同时,也不断引发歧视偏见、隐私保护、个人自由、伦理边界等诸多争议。例如,Facebook因使用照片自动标记功能而招致的潜在赔偿额高达350亿美元的人脸识别集体诉讼,可能改写美国隐私诉讼要求有形损害的规则,无形损害也可作为提取隐私诉讼的理由。据悉,Facebook已同意和解该案,将向原告支付5.5亿美元和解费。此外,2019年8月瑞典数据保护机构针对当地一所高中利用人脸识别记录学生出勤的行为,开出了GDPR生效以来的第一张人脸识别罚单,认为学校的数据收集行为违反必要性原则且缺乏正当性依据。我国也出现了相关诉讼,郭兵诉杭州野生动物世界被认为是国内人脸识别第一案。

随着相关争议的不断发酵,美欧开始推进人脸识别立法,尝试为政府部门使用人脸识别技术建立较高的法律门槛。2019年以来,美国已有多个城市(如旧金山、萨默维尔以及奥克兰)禁止政府部门使用人脸识别技术;美国国会提出了《商业人脸识别隐私法案》,要求使用人脸识别技术前须获得终端用户的“明确同意”(affirmative consent)。[19]然而,美国个别城市的“保守”的态度引发了美国 商会(CTEC)的担忧,CTEC认为过早禁止人脸识别技术将阻碍技术的利用和创新,并会冲击相关产品市场。[20]为此,2019年12月CTEC起草了《面部识别政策原则》(Facial Recognition Policy Principles),期望协助政策制定者在平衡技术与隐私的前提下制定监管提案,建议国会在减少面部识别技术相关风险的基础上,确保人脸识别技术能得到安全开发和有效监管。

英国对人脸识别技术的态度较为理性,在R (Bridges) v The Chief Constable of South Wales一案中,英国高等法院判决认为警方对实时人脸识别技术(LFR)的使用是合法的;英国信息专员公署(ICO)发布的《关于执法部门在公共场所使用实时人脸识别技术的建议》则呼吁政府针对实时人脸识别技术的部署和使用,建立强行性的规则和较高的法律门槛,充分平衡各方利益,即执法部门必须提供充分的证据来证明在每一个特定的场景下使用人脸识别技术是严格必需的、有效的且符合利益平衡原则和比例原则的。[21]此外,欧盟也在推进制定人脸识别技术的特殊监管规则,例如2020年1月被媒体泄露出来的欧盟人工智能监管政策白皮书中已针对人脸识别技术提出了潜在监管方案,其中一项即为“在评估人脸识别技术影响的方法和风险管理措施被开发出来之前,可能会暂时(3-5年)禁止在公共场所使用该项技术”。[22]

在国内,AI换脸应用“ZAO”收集人脸信息、人脸识别技术进课堂、北京地铁拟利用人脸识别技术对乘客进行分类安检等争议性事件引发社会各界激烈讨论。从实时人脸识别到分析步态、预测情绪的AI系统,技术快速进化,给监管提出更多挑战。结合国外监管趋势来看,科学理性的政策选择在于规范而非禁止,明确合法性依据和合规要求是应有之意。政策制定者应当看到人脸识别的积极价值,在权衡利弊的基础上对其进行适度监管和规范,在人脸识别技术的发展上寻求科技创新与隐私保护的“最大公约数”,而非一刀切地予以禁止或者放任不管。更进一步而言,鉴于人脸作为个人生物识别信息的敏感性,人脸识别技术的妥善应用需要明确技术应用的法律和伦理边界,建立法规标准。一方面需要针对不同的应用场景配置不同的监管要求,明确人脸识别技术应用的合法性依据和利益平衡、比例原则等问题;另一方面需要消除算法系统中的歧视和偏见,以合理平衡个人权利保护、公共利益和产业发展。就我国而言,行业的健康有序发展离不开标准和规范的支持,我国目前已在制定人脸识别国家标准,确保人脸识别系统功能、性能及安全要求,保障算法与应用的准确率,引导技术健康发展。

 

4.立法助推自动驾驶汽车落地,“城市空中出行”呼吁监管革新

当前,全球多国已将发展自动驾驶汽车技术上升为国家战略,通过立法、标准、技术指南、伦理准则等全方位举措加速推进其应用落地。[23]2019年是自动驾驶汽车从测试逐步走向商业化应用的一年,谷歌旗下自动驾驶技术公司Waymo等行业领头羊开始推出自动驾驶出租汽车服务,立法和监管政策也在加速这一发展趋势。例如,美国加州已于2018年允许自动驾驶汽车客运服务试点项目。2019年6月,美国佛罗里达州制定的自动驾驶立法,不仅将在道路上操作自动驾驶汽车合法化,而且提出了“自动驾驶汽车共享网络”这一全新的客运交通服务,为自动驾驶汽车的应用普及奠定了坚实的法律基础。在美国国家层面,在去年未能最终通过自动驾驶汽车法案之后,2019年美国国会继续推动相关立法,以期通过法律和监管创新来加速自动驾驶汽车的商业化发展。2020年1月美国交通部发布的《自动驾驶汽车政策4.0:确保美国在自动驾驶汽车技术上的领导地位》(Ensuring AmericanLeadership in Automated Vehicle Technologies: Automated Vehicles 4.0)在过去发布的三版自动驾驶汽车政策指南的基础上,系统提出了美国政府对于自动驾驶汽车技术的监管原则,表明了美国大力推动自动驾驶汽车技术发展落地、抢占国际制高点的决心。[24]

就我国而言,在2018年出台的《智能网联汽车道路测试管理规范(试行)》允许路测之后,各地已在出台推动智能网联汽车应用落地的政策。2019年9月,《上海市智能网联汽车道路测试和示范应用管理办法(试行)》的出台,使得上海成为了国内首个为企业颁发智能网联汽车示范应用牌照的城市,并推动测试牌照区域互认。北京、广州、长沙、武汉等城市已允许载人、载物、编队行驶等测试情形,例如2019年12月13日北京出台《北京市自动驾驶车辆道路测试管理实施细则(试行)》,允许载人及载物测试、编队行驶测试等。智能网联汽车向商业化和市场化迈进了一步。长远来看,我国自动驾驶汽车技术和产业的发展普及需要在安全标准、道路测试、商业试点、高精地图、责任保险等多方面配套推进政策措施,并积极废除或修改阻碍自动驾驶汽车发展应用的既有法规和标准,才能确保在制造业与ICT融合的自动驾驶汽车领域抢占全球高地。

此外,以电动垂直起降航空器(eVTOL)为核心的未来“城市空中出行”(UAM)也呼吁监管革新。未来交通领域的变革不限于自动驾驶汽车,商用的电动垂直起降航空器(eVTOL),即所谓的“飞行汽车”,也已成为美欧的重点布局。目前Uber Elevate、Airbus、Lilium、Volocopter等航空制造商已在尝试推出“空中出租车”服务。城市交通未来将有更大的想象空间,到2030年城市空中出行行业的市场价值有望达到79亿美元。美欧已在从无到有地建立城市空中出行监管,需要解决很多监管挑战,如设备设计认证、适航管理等。2019年7月,欧洲航空安全局(EASA)出台了针对小型VTOL航空器操作的特殊规定,针对这类新的飞行设备建立了基本的监管框架。美国FAA也在推进制定合适的安全立法,并已于2019年4月就无人机送货服务向谷歌子公司Wing颁发了第一个适航认证。eVTOL作为新生事物,在我国存在诸多监管障碍和法律空白。长远来看,为了应对eVTOL带来的监管挑战并推动其应用普及,需要加快建立eVTOL设计和操作的监管框架,并可考虑建立一套以UAM为核心的新体系,兼顾安全、公共利益和行业发展诉求。

 

5.人工智能赋能医疗健康产业发展,应用落地离不开监管革新

在医疗健康领域,人工智能正被广泛应用于医学影像、辅助诊疗、疾病预测、药物研发、健康管理等,有望变革医疗健康行业。全球医疗市场对“AI医疗”的需求巨大,据IDC统计,到2025年人工智能应用市场规模将达到1270亿美元,其中医疗健康行业将占市场规模的五分之一。

但AI医疗的发展面临着AI医疗设备准入和审批、医疗数据库建设与共享、责任承担、隐私保护等诸多问题。美国、日本、印度、新加坡等已在探索制定促进AI医疗服务应用落地的法律和监管规则。例如,由于AI技术可不断利用新获取的数据来精进算法,AI模型的自主性、适应性和持续迭代成了监管难点,给传统的医疗设备监管框架提出了挑战,因此美国FDA已为AI医疗设备提出了新的监管框架,从而允许AI医疗设备在获得审批、投入市场之后不断迭代改进。[25]

就我国而言,2019年6月发布的《深度学习辅助决策医疗器械软件的审评要点及相关说明》进一步明确了AI医疗设备的审批标准。可以预见,AI医疗领域的市场准入、数据共享与数据安全、责任承担等问题将极大影响产业走向,呼吁监管革新。一方面,AI医疗分级监管与审批已成为国际趋势,在行业发展探索阶段,对部分风险较小的细分领域加快审批速度,优先发展,有利于提供更多实践经验。另一方面,我国丰富的医疗数据资源亟待整合,加快数据平台建设实现医疗数据的结构化与标准化,构建医疗数据分享与利用机制,可能成为我国下一阶段AI医疗发展的重要优势。

 

(三)展望:构建多层次的新技术治理体系,实现安全可信、负责任AI

人工智能的健康可持续发展离不开良好治理,良好治理旨在实现安全可信、负责任的人工智能。未来AI技术可能变得更加强大,出现所谓的强人工智能和超人工智能。我们需要管理好比我们自身更大甚至更强(例如现阶段的人工智能在某些领域已经超过了人类)的AI技术,最大程度地释放AI技术在社会、经济、环境等各方面的巨大价值,并将其风险和危害控制在最低限度。未来对AI技术的良好治理需要着重考虑以下三点。

 

1.构建多层次的治理体系,采取敏捷灵活的治理方式

多层次的治理体系比单一维度的立法和监管更能适应人工智能所具有的快速发展迭代、日益复杂化等特征。顶层的法律规范可以划定技术应用的边界。在基本理念上,立法需要避免统一的、一刀切式的、激进的监管方式,而应以领域细分和风险防范管理为导向,遵循包容审慎、敏捷灵活、鼓励创新等监管理念,同时考虑不同应用场景的不同影响、监管对技术和产业的影响、技术和商业可行性、企业负担等因素,采取分类分级、分阶段的方式进行适度监管。

此外,由于技术及商业模式快速发展迭代,草率的立法不可能期待会产生正面的效果,而且成文或专门的立法恐难跟上技术步伐,故应避免过于严格和过于细致的法律要求,而是可以采取事后监管、事后追责等轻监管的方式。中层的行业和企业自律也将发挥重要作用,需要鼓励践行科技向善、负责任创新与研究等理念,支持行业自律。具体而言,可以采取行业标准、自律公约、最佳实践做法、技术指南、伦理框架等敏捷灵活的治理方式来规范、引导人工智能的发展应用,实现科技向善。[26]底层的教育和意识培养同样不可或缺,一方面需要提升社会公众的数字素养、算法素养等技术素养;另一方面需要针对技术人员和从业者开展伦理教育,使其做到自律。

 

2.立法和监管需充分考虑国际竞争、技术的经济社会价值等视角,推动先行先试

在当前激烈的国际竞争背景下,我国针对人工智能等新技术的立法和监管需要着重考虑国际竞争视角,避免产生阻碍、延缓技术发展应用的不利效果,削弱我国的科技和产业竞争实力。因为在全球竞争重心日益转向人工智能等新技术的大背景下,过早或过度的监管都可能削弱一国在AI领域的竞争力。与此同时,立法和监管还应充分考虑技术的经济社会价值,保证技术红利在经济社会发展中的最大释放,避免因偶发性的负面问题而“过度反应”或“因噎废食”,从而采取应激、激进的监管措施。

此外,我国正在密集推动人工智能创新发展试验区建设,自动驾驶、5G、大数据等领域也在涌现发展示范区,人工智能与实体经济融合也已成国家重要布局;这些前沿科技领域的发展和应用落地往往需要突破既有的法律和监管壁垒。因此有必要在这些领域出台更包容新技术的政策和立法,探索制定前瞻性规则,移除法律和监管障碍,推动先行先试,给予适度宽松的发展空间,给AI应用提供安全港(safe harbor),通过试验、测试、试点等方式加速AI从研发到商业落地的转变,同时审查、调整政策、监管框架和评估机制以鼓励创新和竞争。

 

3.推动人工智能治理的跨学科参与和国际合作

面向未来,AI等新技术的健康发展离不开技术、社科、人文等不同背景的人员的通力协作。科技行业需要从当前的技术中心主义模式转向技术人文协作模式,AI研究与发展需要广泛吸纳不同种族、性别、文化和社会经济阶层以及不同领域(如经济、法律、哲学、社会学、人类学、心理学等等)的人员的思考和顾虑。监管也需要采取多利益相关方共同参与的模式,广泛听取行业主体、专家和公众的意见,避免决策者与从业者脱节。此外,在当前的全球化背景下,一个可持续发展的地球也需要各国在AI技术、产业、伦理、治理等各方面加强合作,从而让人工智能实现以人为本的、包容普惠的、安全可持续的发展。

 

参考资料:

[1]参见https://futureoflife.org/national-international-ai-strategies/?cn-reloaded=1

[2]参见曹建峰、方龄曼:《欧盟人工智能伦理与治理的路径及启示》,https://zhuanlan.zhihu.com/p/83867653

[3]参见https://ec.europa.eu/digital-single-market/en/artificial-intelligence#Building-Trust-in-Human-Centric-Artificial-Intelligence

[4]参见https://www.whitehouse.gov/ai/

[5]参见https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf

[6]参见https://www.oecd.org/going-digital/ai/principles/

[7]参见https://www.wipo.int/wipr/en/2019/

[8]参见腾讯AI实验室、腾讯研究院:《智能时代的技术伦理观——重塑数字社会的信任》,https://mp.weixin.qq.com/s/NOGtj5y_5ADmSk0TijdOgQ

[9]数据安全管理办法草案第23条,网络信息内容生态治理规定第12条,个人信息安全规范的最新修订草案7.5、7.7。

[10]参见http://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2019)624262

[11]参见曹建峰:《从行业角度看人工智能治理与伦理问题》,https://mp.weixin.qq.com/s/5wq0pYuC-fNotcA_bl7oQA

[12]参见https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=32592

[13]参见https://www.lexology.com/library/detail.aspx?g=f31f9909-0f74-494e-b81b-bb4aa528283c

[14]参见张钦坤、曹建峰:《从《网络生态治理规定》看互联网新技术的治理》,https://mp.weixin.qq.com/s/ZWcUdo9rM48rAh-0PMXAsA

[15] https://deeptracelabs.com/mapping-the-deepfake-landscape/

[16]参见https://www.congress.gov/bill/116th-congress/house-bill/3230

[17]参见https://www.congress.gov/bill/116th-congress/senate-bill/2065/text

[18]民法典人格权编草案第799条,数据安全管理办法草案第24条,网络信息内容生态治理规定第23条,音视频信息服务管理规定第11-13条。

[19]参见https://www.congress.gov/bill/116th-congress/senate-bill/847/text

[20]参见https://www.uschamber.com/letters-congress/coalition-letter-facial-recognition-technology

[21]参见https://ico.org.uk/about-the-ico/news-and-events/blog-live-facial-recognition-technology-police-forces-need-to-slow-down-and-justify-its-use/

[22]参见https://www.euractiv.com/section/digital/news/leak-commission-considers-facial-recognition-ban-in-ai-white-paper/

[23]参见腾讯研究院:《2018年全球自动驾驶法律政策研究》,https://mp.weixin.qq.com/s/fFKZs5T4UZ4U60Dj1j4Y0w

[24]参见https://www.transportation.gov/av/4

[25]参见https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device

[26]参见曹建峰:《既要人工智能高效发展,还要符合伦理,该怎么做?》,https://mp.weixin.qq.com/s/j6bvrjxKFurmzBWkTdbUeQ