蔡雄山 腾讯研究院法律研究中心副主任、首席研究员
曹建峰 腾讯研究院法律研究中心研究员
巴洁如 腾讯研究院法律研究中心高级研究员
孙 那 腾讯研究院法律研究中心研究员
李金磊 腾讯研究院法律研究中心助理研究员
不经意间,人工智能(AI)成为2016年主流话题之一。有关技术进步的报道,充斥着媒体。AI将深刻影响生活、社会、经济、法律、政治、全球格局等诸多方面。AI应用的拓展和加深,使得AI伦理问题日益突出,成为关注焦点。
美国、英国等开始重视AI伦理问题。今年以来,美国政府连发三份AI报告,其中提出了美国国家人工智能战略,其中包括理解并解决潜在的法律、道德、社会等影响。英国政府连发二份AI报告,呼吁重视并研究AI伦理与法律问题。《麻省理工科技评论》评选的2016年最佳图书包括以AI伦理为主题的著作:《数学武器:大数据如何加剧不平等、威胁民主》和《发明伦理:科技和人类未来》。诸如技术性失业、致命性自主武器、算法公平、道德判断、价值一致性等AI伦理问题需要获得深入研究。
2016年12月,标准制定组织IEEE发布《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景(第一版)》,旨在鼓励科技人员在AI研发过程中,优先考虑伦理问题。这份文件由专门负责研究人工智能和自主系统中的伦理问题的IEEE全球计划下属各委员会共同完成。这些委员会由人工智能、伦理学、政治学、法学、哲学等相关领域的100多位专家组成。这份文件包括一般原则、伦理、方法论、通用人工智能(AGI)和超级人工智能(ASI)的安全与福祉、个人数据、自主武器系统、经济/人道主义问题、法律等八大部分,并就这些问题提出了具体建议。
一、一般原则
一般原则涉及高层次伦理问题,适用于所有类型的人工智能和自主系统。在确定一般原则时,主要考虑三大因素:体现人权;优先考虑最大化对人类和自然环境的好处;削弱人工智能的风险和负面影响。
原则之一:人类利益(Human Benefit)
人类利益原则要求考虑如何确保AI/AS不侵犯人权。为了实现AI/AS尊重人权、自由、人类尊严及文化多样性,在使用年限内是安全、可靠的,一旦造成损害必须能够找出根本原因(可追溯性)等目的,应当构建治理框架,包括标准化机构和监管机构,增进公众对AI/AS的信任;探索将法律义务“翻译为”充分理解的政策和技术考虑事项的方法论。
原则之二:责任(Responsibility)
责任原则涉及如何确保AI/AS是可以被问责的。为了解决过错问题,避免公众困惑,AI系统必须在程序层面具有可责性,证明其为什么以特定方式运作。
第一,立法机构/法院应当阐明AI系统开发和部署过程中的职责、过错、责任、可责性等问题,以便于制造商和使用者可以知晓其权利和义务分别是什么;
第二,AI设计者和开发者在必要时考虑使用群体的文化规范的多样性;
第三,当AI及其影响游离于既有规范之外时,利益相关方应当一起制定新的规范;
第四,自主系统的生产商/使用者应当创建记录系统,记录核心参数。
原则之三:透明性(Transparency)
透明性原则意味着自主系统的运作必须是透明的。AI/AS是透明的意味着人们能够发现其如何以及为何做出特定决定。AI的不透明性,加上AI开发的去中心化模式,加重了责任确定和责任分配的难度。透明性对每个利益相关方都意味重大。
第一,对使用者,透明性可以增进信任,让其知道AI系统可以做什么及其这样做的原因;
第二,对AI/AS批准和认证机构,透明性则确保AI系统可以接受审查;
第三,如果发生事故,透明性有助于事故调查人员查明事故原因;
第四,事故发生之后,参与审判的法官、陪审团、律师、专家证人需要借助透明性来提交证据,做出决定;
第五,对于自动驾驶汽车等颠覆性技术,一定程度的透明性有助于增强公众对技术的信心。
因此,需要制定透明性标准,阐明可测量的、可测试的透明性程度。但对于不同的利益相关方,透明性的具体要求是不同的。
原则之四:教育和意识(Education and Awareness)
教育和意识原则涉及如何扩大AI/AS技术的好处,最小化其被滥用的风险。在AI/AS越来越普及的时代,需要推进伦理教育和安全意识教育,让人们警惕AI/AS被滥用的潜在风险。这些风险可能包括黑客攻击、赌博、操纵、剥削等。
二、伦理问题:如何将人类规范和道德价值嵌入AI系统
由于AI系统在做决定、操纵其所处环境等方面越来越具有自主性,让其采纳、学习并遵守其所服务的社会和团体的规范和价值是至关重要的。可以分三步来实现将价值嵌入AI系统的目的:
第一,识别特定社会或团体的规范和价值;
第二,将这些规范和价值编写进AI系统;
第三,评估被写进AI系统的规范和价值的有效性,即其是否和现实的规范和价值相一致、相兼容。
(一) 为AI系统识别并确定规范和价值
首先,应当明确需要嵌入AI系统的规范和价值是什么。法律规范一般是成文的、形式化的,容易得到确认。但社会和道德规范比较难确认,它们体现在行为、语言、习俗、文化符号、手工艺品等中。更进一步,规范和价值不是普世的,需要嵌入AI的价值应当是特定社会或团体中针对特定任务的一套规范。
其次,道德过载(Moral Overload)问题。AI系统一般受到多种规范和价值约束,诸如法律要求、金钱利益、社会和道德价值等,它们彼此之间可能发生冲突。在这些情况下,哪些价值应当被置于最优先的地位?
第一,优先考虑广大利益相关方群体共同分享的价值体系;
第二,在AI研发阶段确定价值位阶时,需要有清晰、明确的正当理由;
第三,在不同情境下或随着时间的推移,价值位阶可能发生变化,技术应当反映这一变化。
第四,数据或算法歧视问题。AI系统可能有意或无意地造成对特定使用者的歧视。一方面,要承认AI系统很容易具有内在歧视,意识到这些歧视的潜在来源,并采取更加包容的设计原则;强烈鼓励在整个工程阶段,从设计到执行到测试再到市场推广,尽可能具有广泛的包容性,包容所有预期的利益相关方。另一方面,在解决价值冲突时保持透明性,尤其需要考虑脆弱、易被忽视的人群(儿童、老年人、罪犯、少数民族、贫困人群、残障人群等)的利益;在设计过程中,采取跨学科的路径,让相关专家或顾问团体参与其中。
(二) 将规范和价值嵌入AI系统
在规范体系得到确认之后,如何将其内置到计算机结构中,是一个问题。虽然相关研究一直在持续,这些研究领域包括机器道德(Machine Morality)、机器伦理学(Machine Ethics)、道德机器(Moral Machine)、价值一致论(Value Alignment)、人工道德(Artificial Morality)、安全AI、友好AI等,但开发能够意识到并理解人类规范和价值的计算机系统,并让其在做决策时考虑这些问题,一直困扰着人们。当前主要存在两种路径:自上而下的路径和自下而上的路径。这一领域的研究需要加强。
(三) 评估AI系统的规范和价值是否和人类的相符
需要对嵌入AI系统的规范和价值进行评估,以确定其是否和现实中的规范体系相一致,而这需要评估标准。评估标准包括机器规范和人类规范的兼容性、AI经过批准、AI信任等。
需要在人类和AI之间建立信任。这涉及两个层面:一方面,就使用者而言,AI系统的透明性和可验证性对于建立信任是必要的;当然,信任是人类-机器交互中的一个动态变量,可能随着时间推移而发生变化。另一方面,就第三方评估而言,第一,为了促进监管者、调查者等第三方对系统整体的评估,设计者、开发者应当日常记录对系统做出的改变,高度可追溯的系统应具有一个类似飞机上的黑匣子的模型,记录并帮助诊断系统的所有改变和行为;第二,监管者连同使用者、开发者、设计者可以一起界定最小程度的价值一致性和相符性标准,以及评估AI可信赖性的标准。
三、需要指导伦理研究和设计的方法论
人工智能应当符合人类价值观,服务于人类,服务于人类社会和经济的发展。以人类价值观为导向的方法论是人工智能设计的核心,其中最重要的是对人权的保护。
(一) 跨学科的教育和研究
将应用伦理学整合到教育和研究中,解决AI/AS的问题,需要跨学科的路径,需要融合人文学科、社会学科、科学和工程学等。首先,在大学教育阶段,伦理学需要成为计算机相关专业的一个核心课程,并建立跨文化、跨学科的课程体系。其次,为了研究AI/AS的特有问题,需要建立跨学科、跨文化的教育模型,在学术界和产业界,以多学科合作的模式塑造技术创新的未来。最后,需要区别嵌入AI设计中的不同文化价值,为了避免文化歧视,不能仅仅考虑西方影响下的伦理基础,其他文化的伦理/道德、宗教、政治传统也需要加以考虑。
(二) 商业实践与人工智能
首先,产业界缺乏基于价值和伦理文化的实践。业界急切想要开发AI/AS并从中赚钱,却甚少考虑在其开发、使用过程中如何建立伦理系统和实践。
其次,缺乏价值层面的领导角色。创新团队和工程师在AI设计过程中,得不到如何以及尊重什么人类价值的指引。
再次,缺乏提出伦理问题的赋权。在一个组织内,工程师和设计团队不能就其设计或设计方案提出伦理问题。需要新形式的行为准则,以便于个体可以在充分信任的环境中,自由谈论、分享其见解和看法。
第四,科技圈缺乏主人翁意识和责任心。科技圈往往不认为关注伦理问题是其职责,这些问题一般由公众、法律圈和社会科学圈提出。工程科学中的多学科伦理委员会应当常态化,负责跟进研究和产品中的伦理问题及其影响。
最后,需要纳入利益相关者和从业者。从业者和AI、机器人一道工作,可以表达其诉求,也可以提供洞见。
(三) 缺乏透明性
AI/AS制造过程缺乏透明度,给落实和监督机器伦理提出了挑战。
首先,AI的限制和假设通常未被合理记录,什么数据被处理以及如何处理也是不明确的。记录文档应满足可被审计、容易获取、有意义、可读取等要求。
其次,算法缺乏监督。AI系统背后的算法是不透明的,这导致终端用户不知道算法是如何得出结论的。一方面,需要建立监督AI制造过程的标准,避免给终端用户带来伤害;另一方面,政策制定者可以限制计算机推理,以免其过分复杂,造成人们难以理解的局面。
再次,缺乏独立的审查机构。需要引入独立的审查机构来给出指导意见,评估人工智能的安全性及其是否符合道德标准。
最后,“黑箱”软件的使用问题。深度机器学习过程是“黑箱”软件的一个重要来源。科技人员必须承认并评估“黑箱”软件中的伦理风险,并且在使用“黑箱”软件服务或组件过程中,特别关注伦理问题。
四、通用人工智能和超级人工智能的安全与福祉
首先,随着AI系统越来越强大,其不可测的或非故意的行为将变得越来越危险。为此,需要研究具体的人工智能安全问题;确保人工智能系统的透明度;开发安全、可靠的环境来开发、测试具有潜在安全风险的AI系统;在输入错误、环境改变等情况下,确保AI系统平稳失效;确保AI系统可以被操作者关闭或改进。
其次,改进安全性以适应未来更加多才多艺的AI系统可能面临困难。AI研发团队在开发系统时,需要提前采取相应的安全防范措施。
第三,AI研发者未来会面临更加复杂的伦理和技术安全问题。为了应对这一问题,可以考虑设立伦理审查委员会来支持和审查研发者的工作项目。目前、Google DeepMind、Lucid AI等机构已经设立了伦理审查委员会。该审查委员会由具有不同知识背景和经验的专家组成,在审查时需要参考一定的行业标准,并最大限度地考虑安全和伦理问题。
最后,人工智能系统未来会影响世界的农业和工业革命。人工智能系统的技术成功不仅意味着巨大的商业价值,其对于世界范围内的政治格局也将产生深远影响。
五、个人数据与个体访问控制
数据不对称是个人信息保护的一个重大道德困境。在算法时代,AI系统对个人数据的使用不断增强。为了解决不对称问题,需要完善个人信息保护政策。
(一) 个人数据定义
首先,个人数据应该包括对个体身份的定义和说明,表现其独特的偏好与价值。个体应该能够获取充分可信的身份验证资源去证明、核实和广播其身份信息。
其次,个人识别信息应被定义为任何能够合理关联到一个个体的相关数据,不管是实在的、数字的还是虚拟的。个人识别信息应被认定为个人拥有绝对控制权的一项资产(Asset),法律应给予优先保护。
最后,个体对其个人数据应该拥有比外部行为者更大的控制权限。
(二) 重新定义个人数据获取与知情同意
第一,需要建立实用的、可执行的程序,以便于设计者和开发者可以借助经规划的隐私(Privacy-by-Design)、默认的隐私(Privacy-by-Default)等方法论来保护隐私。此外,差别化隐私(Differential Privacy)的范式也为开发者和设计者将隐私保护融入其提供的服务中提供了便利。差别化隐私不等同于数据的匿名化。相反,差别化隐私利用哈希(Hashing)、次级抽样、噪声注入等技术使个人信息模糊化。
第二,开放的标准和互相操作性对于社会和个体在生态系统之间自由转换至关重要。
第三,通过在个体与外部行为者之间就其个人信息创建一个决策矩阵,个人数据就可以充当两种用途:在一般分析中处理大量匿名化数据,在个性化服务提供中处理少量个人识别信息。社会、团体以及研究机构对个人数据的需求将会整合到这个决策矩阵中,同时考虑安全、角色以及权利管理。例如,一个医生为了治疗病人可能需要可辨认的个人数据,但是一个研究者可能只需要匿名的统计数据。此外,还需要综合考虑使用场景的不同,采取不同的管理机制。
第四,数据分析的自动化和智能化,使得分析者及数据使用者都可能不知道在数据的分析过程中,哪些数据被使用及如何被使用。所以,不能只关注知情同意本身,也要把关注点放在数据收集和使用上。同时,数据使用的限制也十分重要,而且更加具有可操作性。
第五,一些常见数据的累积可能导致对用户做出敏感结论。为了应对这些复杂性风险,需要灵活应变的知情同意条款。必须采取措施将非敏感个人数据的收集置于监管之下,防止这些信息被用来做出对信息所有者不利的结论。同时,应赋予个人随时终止收集这些信息的权利。
(三) 个人数据管理
在算法时代,想要维持个体对其自身数据的控制权,就需要延伸身份保证范式(Identity Assurance Paradigm),将算法工具作为个体在数字和现实世界中的代理人或者守护者。有人认为个体对其自身数据的绝对控制,可能阻碍科技创新与公共福利;然而与此相反,数据分享方式的创新,使得二者可以共存,而并不是非此即彼。算法守护平台可被用来帮助个体分析和管理其个人信息。这样的算法守护者(Algorithmic Guardian)能够根据不同的情况,设定不同的使用权限,同时管理个人同意与不同意分享的信息。
六、重构自主武器系统(AWS)
自主武器系统相比其他自主系统以及传统武器,有着自身额外的道德影响。概括来讲,人类可以有效控制AWS是十分重要的。
具体来说,首先,应该确保自主武器系统的利益相关方都能够对自主武器系统领域的相关定义保持准确的理解。其次,自主武器系统的设计者应使自主武器系统处于人类有效控制之下,或者半自动、半人类控制之下。同时需要审计追踪机制来确保这些控制可以有效运行。再次,该自主武器系统的利益相关者,必须能够全方位了解该系统。最后,需要专业的伦理规则来让设计者知道哪些产品是自主武器系统,以及哪些产品可以被用做自主武器系统,并确保创造出这些武器系统的人了解这些武器的影响。因为有些自动化武器十分难以识别,然而却可能给社会带来极大危害,所以需要专业的伦理规则确保这种情况不会发生。
七、经济/人道主义问题
(一) 自动化和就业
首先,媒体对人工智能和自主系统的误读令公众感到困惑。很多分析和消息(包括虚假消息)存在严重的简单化倾向,无益于开展客观讨论。呼吁建立国际性的、独立的信息交换中心,适当传播客观统计数据、事实调查情况,并向媒体、政策制定者、社会公众和其他利益相关者公布机器人和人工智能对工作增长和就业结构的影响。
其次,不能仅从市场角度探讨自动化问题。机器人和人工智能的影响不仅限于市场和商业模式领域。机器人和人工智能系统的应用,还将对安全、公众健康、社会政治等方面产生影响。这种影响也将扩散至全球社会。因此,有必要从全球整体角度考虑产品和流程创新,及其带来的更为广泛的影响。
再次,应重点分析自动化和人工智能对就业结构造成的变化,而不仅仅关注可能受到影响的工作数量。
第四,目前的技术变化速度将对就业结构的变化产生深刻影响。为使劳动力适应这种变化,应采取更为主动的措施,包括教育培训等。
第五,新兴技术应当受到监管,以使其对社会产生的不利影响最小化。需要采取灵活的治理方式。立法和人工智能政策必须具有充分的灵活性,以便与技术的快速发展保持一致。同时,规则和法规应保护社会价值并促进创新,不应对创新造成不必要的阻碍作用。考虑到这些问题,政府、产业和民间组织之间的密切合作尤为重要。
(二) 可责性和平等分配
第一,人工智能和自主技术在世界范围内的可得性不均。需确保AI/AS技术的效益在世界范围内的公平分配。应特别为欠发达国家提供机器人和自主系统的培训、教育和机会。
第二,缺乏获取和理解个人信息的渠道。一方面,应关注个人数据中的个体同意、侵犯隐私、损害或歧视等问题,并采取标准化措施。另一方面,人道主义者有责任教育人们,他们的数据一般将作何用,数据的开放和共享可能带来什么。此外,应开展关于数字隐私的教育活动,帮助弱势群体成为更懂数字技术的人。
(三) 赋予发展中国家从人工智能获益的能力
围绕AI/AS的讨论大部分出现在人们能够获得适当的金融服务和平均生活水平更高的发达国家中。在这些系统的开发和应用中,迫切需要避免技术偏见、阶级化和排斥,覆盖更广泛的人口和社群。一方面,在IEEE全球计划中提升发展中国家的参与和代表,推动形成便于包容发展中国家参与的条件。另一方面,AI/AS的出现加剧了发达国家和发展中国家的经济和权力结构差异。因此,应建立相应机制,提高权力结构的透明度,公平分享机器人/AI带来的经济和知识成果。促进发展中国家的机器人/AI研究和开发。确保发展中国家的代表参与其中。
八、法律
在发展早期阶段,人工智能和自主系统(AI/AS)带来了许多复杂的伦理问题。这些伦理问题往往直接转化为具体的法律挑战,或是引发复杂的连带法律问题。每个伦理问题一般都涉及相关法律问题。
(一) 提升AI系统的可责性和可验证性
第一,应将人工智能系统设计为能够向用户显示其行为背后的记录程序,能够识别不确定性的来源,并能够说明其所依赖的假设条件。
第二,在某些情况下,人工智能系统应能够向用户主动告知此类不确定性。
第三,由于潜在的经济和人身损害风险较高,应降低主动告知用户风险的门槛,并扩大主动披露的范围。
第四,设计人员在编写代码时,应充分利用涉及可追责性和可验证方面的计算机科学。
第五,适时考虑并审查引入新的法律法规的必要性,包括在新的AI/AS技术推出之前,先进行测试,并适当地经国内或国际相关机构规则的批准。
(二) 确保人工智能的透明度并尊重个人权利
政府决策的自动化程度日益提高,法律要求政府确保决策过程中的透明度、参与度和准确性。当政府剥夺个人基本权利时,个体应获得通知,并有权利提出异议。关键问题在于,当基于算法的人工智能系统做出针对个人的重要决定时,如何确保法律所承诺的透明度、参与度和准确性得以实现。
第一,政府不能使用无法提供决策和风险评估方面的法律和事实报告的AI/AS。必须要求AI/AS具备常识和解释其逻辑推理的能力。当事人、律师和法院必须能够获取政府和其他国家机关使用AI/AS技术生成和使用的全部数据和信息。
第二,人工智能系统的设计应将透明性和可追责性作为首要目标。
第三,应向个体提供向人类申诉的救济机制。
第四,自主系统应生成记载事实和法律决定的审计痕迹(Audit Trails)。审计痕迹应详细记载系统做出每个决策过程中适用的规则。
(三) AI系统的设计应保证由系统导致的损害具备法律可追责性
大部分法律法规将人类是最终的决策者作为一个基本假设。随着自主设备和人工智能的日益复杂化和普及化,情况会发生变化。可以在以下建议中进行选择,目的是为归责原则的未来发展提供尽可能多的建议。
第一,设计人员应考虑采用身份标签标准,没有身份标签将不被准入,以保持法律责任链条的明确性。
第二,立法者和执法者应确保AI系统不被滥用,一些企业和组织可能将AI系统作为逃避责任的手段。应考虑出台相应法规,建立充足的资本金或保险机制,使AI系统可以就其造成的伤害和损失承担责任。
第三,高昂的诉讼成本和过高的举证标准,可能阻碍受害者向AI造成的损害进行追偿,因此应考虑引入类似于工伤赔偿的支付体系。可采用较低的必要举证标准:受害者只需证明实际伤害或损失,并合理证明伤害或损失是由AI造成的。
第四,应要求使用和制造AI的公司制定书面政策,规定AI如何使用、谁有资格使用AI、操作人员需接受何种培训,以及AI能够为操作人员和其他主体带来什么,这有助于更准确地理解AI能为人类带来什么,并保护AI制造企业免受未来可能引起的诉讼纠纷。
第五,不应自动将责任划归给启动AI的人。如果在AI的操作中需将责任划分给个人,那么AI运行中的监督者或管理者应作为承担责任的主体,而非必然由启动AI的个人承担责任。
第六,如果应用AI的主要目的是提高作业效率或消除人为错误,人类对AI活动进行监督则是必要的。如果AI应用的主要目的是为人类活动提供便利,如自动驾驶汽车,那么要求人类对AI活动进行监督则有悖于AI应用的目的。
第七,应对知识产权领域的法规进行审查,以明确是否需对AI参与创作的作品保护方面的规定做出修订。其中基本的规则应为,如果AI依靠人类的交互而实现新内容或发明创造,那么使用AI的人应作为作者或发明者,受到与未借助AI进行的创作和发明相同的知识产权保护。
(四) 以尊重个人数据完整性的方式设计并应用智能系统
人工智能增加了个人数据完整性方面的风险。除个人隐私之外,消费者也担心数据的完整性问题,包括数据被黑客攻击、滥用,甚至被篡改的风险。虽然这个问题不是人工智能领域独有的,但是人工智能加重了此类风险。一般来说,应鼓励以确保数据完整性为目标的研究/措施/产品,在不同情形中明确不同类型数据的所有权人。
结语
在AI发展史上,2016年绝对是光辉与荣耀的一年,见证了太多AI光明与光彩的一面,阿尔法狗、无人驾驶汽车、语音识别、聊天机器人等等。然而,在这些光彩之下,是AI以理性代理人的身份参与人类社会各种事务之后所带来的伦理和法律问题。AI作为决策者,至少是决策辅助者,在金融、教育、就业、医疗、信赖、刑事执法等诸多领域开始扮演一个显著的角色。人们不禁要问,AI能够确保公平吗?AI是否会给当事人带来损害?此外,诸如黑客攻击、剥削、操纵等AI滥用问题也开始浮出水面。
数据科学家凯西·欧尼尔在其著作《数学武器:大数据如何加剧不平等、威胁民主》中,将造成歧视、个体损害等不利后果的人工智能称为“杀伤性数学武器”(Weapons of Math Destruction),并因其不透明性、规模效应及损害性而应当引起足够关注。算法和人工智能作为一个数学武器,如果利用不当,其给个体和社会带来的危害将远大于传统武器。因此,关注AI的伦理和法律问题,在AI研发过程中考虑这些问题,正成为一个趋势。未来,AI技术将需要以跨学科的方式研发,其不仅仅是技术人员的事,不考虑社会规范、伦理、价值的AI设计已不现实。无论是通过跨学科的审查委员会,比如谷歌的DeepMind和Lucid AI已经设立了伦理审查委员会,还是通过其他方式,AI开发将更多以融合人文学科、社会学科和工程学等跨学科的方式进行。
所以我们看到,2016年,联合国、美国、英国、IEEE等开始关注AI伦理和法律问题;2017年,AI滥用、AI透明性、算法公平、AI伦理、AI监管和责任、AI信任等将进入更广泛的公众讨论视野,相关标准和规范将进一步出台。未来需要更多的讨论和对话,一方面需要确保法律和政策不会阻碍创新进程,另一方面,对新出现的诸如伦理、责任、安全、隐私等问题,需要在跨学科的基础上,以及在政府、企业、民间机构、公众密切合作的基础上,共同削弱AI的不利影响,创建人类-AI彼此信任的未来。