7月9日,2021世界人工智能大会腾讯论坛在上海世博中心成功举办。
追求“科技向善”,就要推动“AI向善”,让AI技术实现“可知、可控、可用、可靠”。
今年,“可持续社会价值创新”成为了腾讯的核心战略和计划。 在以“AI与可持续发展的未来”为主题的圆桌会议上,来自多个领域的大咖们共同探讨AI与社会可持续发展,AI如何助力可持续社会价值创新? 如何让AI更人文、温暖一点? 担忧与期望并行,AI如何保证安全和公平等问题?
圆桌论坛现场
苏文颖: “AI最重要的起点,即是来源于现实社会中最真实的需求”
苏文颖 联合国儿童基金会驻华办 儿童保护官员
最近这几年来,随着社会的发展和技术的进步,不管是技术行业,还是公益行业,它都在探索怎么样让技术更好的赋能于解决一些社会问题。 比如说在我参与评委的腾讯light公益创新挑战赛上,就对在未成年人赛道上获得一等奖的,一个专门致力于做青少年心理健康服务的平台印象深刻。 因为大家知道现在青少年的心理问题抑郁、焦虑等等非常的多发,他们需要有安全,有归属感的倾诉、交流的平台。 而这个青少年心理健康服务平台提供了大家迫切需要的一种服务。 同时AI的技术,特别是AI语言和AI聊天的技术搭载在心理健康服务平台上,其实也是非常期待能看到更多的可能性。
现在在我熟悉的未成年人领域还有很多探索。 比如说用AI进行一些关于幼儿身体形态和体能的一些评测,比如说大家都非常关注的AI搭载的教育平台如何能够致力于弥合一些地区差距,实现教育公平。
那么更多的还有一些从我们的技术和产品出发,解决一些可能是更底层的需求。 比如说未成年人上网安全的需求。 我知道腾讯优图也有一个「守护青苗」的行动,也是基于图象识别和OCR等技术,来过滤网上的一些不良内容或是不适合未成年人、对他们的身心健康有负面影响的内容,这些都是很有价值的探索。
不仅仅是在未成年人领域,在大家关注的日益老龄化的社会,如何让AI技术更好的去服务于老年人群体,特别是在他们的生活支持,健康管理以及他们的心理慰籍方面,AI在智能陪伴、智能监测等等技术都有了很多的应用。 其实AI的应用目前来说还是比较注重在比较底层的需求,特别是对安全、安康的需求。
对更深层次的需求,不管是对未成年人还是老年人很多技术目前可能它的预设还是或多或少矮化未成年人和老年人,我们出于扶持,帮助管理它的思路,怎么更多的关注他们的尊严感和价值感,更多的用技术赋能他们,陪伴他们,还是更进一步完善的技术应用场景需要补充,需要做的。
归根到底,AI服务于这些领域,它必须有一个最重要的起点,就是它是来源于真实的需求,这个社会问题必须是真实的,来源于现实社会的。 社会问题的解决它符合AI自身的逻辑,也有现实的AI应用的实现的路径,同时还是要符合目前这个现阶段社会伦理的框架,来制约和指导。
陈楸帆: “AI是为每个人而生的,而不是为了某些特定的群体去设计出来”
最近可以看到包括国内外的一些相关的法律法规都在出台对于个人的一些数据隐私的保护,包括对一些不当应用个人数据行为的一些打击。 其实赛博朋克这样一个类型是在上个世纪80年代在美国开始兴起,有非常强的一个时代背景,一个是消费类电子的兴起,一个是所谓的跨国的大工业,大公司的崛起,巨头的崛起。 大家会重新提到赛博朋克这样一种美学和生活方式,我觉得是有一定历史的回音在。 而且在当下,我们会发现这样一个命题更加的贴近我们现实。 因为赛博朋克由“控制论+组织”,组合成的这样一个东西,就是人在一个高度信息化的控制论的社会里,它会不断的受到数据流反向的操控,你会发现自己无意之间会变成这个系统的一部分。 人的自助性,人的主观能动性,自由意志被削减。 苏老师提到的价值感、尊严感。 去年开始提到困在系统里的人,会发现很多的外卖小哥受到算法的驱使,不断得更快的赶路,完成订单,赚到微不足道的收入。
归根到底,我们当以什么样的标准,以一种什么样的权量的参照系创造出这样一种算法。 今年我跟李开复博士有一本书《AI 2041》,讲的是10个在20年后跟AI相关的故事,医疗、教育、娱乐也包括老年人等等这样一些问题,我们花很长的时间,跟AI从业者、学者、研究者做交流,希望从最坚实的基础展望未来。 在这个过程当中,我发现现在的弱势群体在未来的AI主导的社会里,变得更加的弱势。 因为我们现有的AI是基于现有收集的数据,经过机器的强化学习得到的解决方案,所谓的弱势群体,比如说在疫情中没有用智能手机的这样一群人,包括没有接入网络的一群人,他可能出行遇到很大的困难。 其实在我们的书里探讨了非常多这样的议题,在未来怎么建立更加平衡、友好,用善意对待每个人这样一个AI技术。 因为AI是为每个人而生的,而不是为了某些特定的群体去设计出来。
我们需要传递“AI可持续发展”这样一个非常重要的观念,不仅是对政策的制定者,对于大公司,对于技术的从业者,更重要的对每个个体应该理解说,我有什么样的权利。 这种可持续发展在社会层面,在经济的层面,包括在环境、在个体的心理层面,比如说刚刚讲到的咱们青少年的心理问题、老人的陪伴的问题,比如说个体在非常高度竞争的环境下,我们怎么样去给他一定的空间实现自我价值? 我们通过文字做了非常多的设想,需要跟更多的业界从业者一起探讨,把一个想象通过讲故事的方式,建立起一个更大的共识,这样的共识形成之后,我们才能凝聚起这样的力量,让每个人都能看到AI所能带来的这种未来的光。
人们对AI有期待也有担忧
作为腾讯旗下顶级
人工智能实验室
优图实验室做了哪些努力?
刀可以做菜也可以伤人,这都取决于用这个物件的人本身。 人工智能也是这样一个逻辑,它是能力特别强大的工具、系统,但技术再强大,使用者才是核心。 我们怎么样更好地设计它,怎么运用它,这非常关键。 绝大多数的时候,我们看到的人工智能一定是对于人类,对于社会有非常大的帮助。 这几年的人工智能的快速发展,我们有更多的时间、更多的去沉淀和思考人工智能如何发挥的更好。 以前我们更多的是去想怎样解决问题,现在就会考虑更多的社会价值,比如我们在谈的人工智能可持续性发展。
早期的人工智能相对不成熟,比如说我打印一张照片,是不可以仿冒这个人,能不能冒名。 再比如人工智能对不同识别的个体,很难做到完全公平。 也许我训练的数据集对于老年人识别效果未必那么好,这都是社会可持续发展的问题,这是我们更多需要讨论的,也有更多的考虑。
人工智能实际上会面临很多的一系列的问题,这个也正好切合我们现在的一些关注的点或者我们现在做的事情。 优图从2012年成立以来,解决的问题是人工智能可以实现它的价值,我们从最开始图像智能的压缩,智能识别、图像检索,OCR,车辆识别,我们更多的是在实现它的应用功能。 现在这些基础能力上面,我们都已经健全且足够完备,所以我们思考如何让人工智能降本增效和高效应用。
个体的AI应用无法做到单独针对性训练、采集数据,部署成本非常高,而成本高了以后,导致人工智能的成本增加,这样中小企业用起来是很难的。 这个时候我们关注的是通过自动机器学习的算法,自适应,且通过平台的自动训练,更好的部署应用。 即使在手机上端上运行,我们也要用自动的方法寻找出来一些更优的模型,能够让模型更小,跑的更快,这样才能真正的高效、降本增效地用起来。
一是怎么帮助人工智能应用的成本降低。 人工智能其实它在长尾应用里数据是稀缺的,数据分散在不同场景里。 其实就像我们今年跟国家天文台的合作,我们收集的望远镜观测的数据是残缺的,这些数据可能是不同的望远镜收集出来的,它的表现形式是有区别的。 怎么样能够把这些不同的数据、残缺的数据用起来,所以我们会关注数据的监督,半监督的学习和训练的方式,以及跨越迁移等等技术,把这些技术能够真正的帮助人工智能应用的成本进一步的降低,在不同的场景里。 这是我们关注的一个技术点。
二是让人工智能做到更公平,更安全。 公平像刚刚提到的针对老年人,或者理解为我们以前这个机器见到的数据比较少,见到样本比较少,对它来说是比较难的一些事情。 怎么样能让这些难的,老年人或者青少年识别也做的足够准,这样刷脸支付的时候可以非常方便的来用。 这也是我们关注的问题,这是公平性的问题。
三就是人工智能要考虑的社会伦理和安全问题。 像我们给健康码和刷脸支付提供的人脸识别技术,我们要注意防范的安全问题就是有人拿着别人的照片、面具,硅胶面具,头模各种东西,希望攻破人脸识别系统。 如果想真正的大批量应用,这些安全和公平都是我们关注的点。
这几年技术趋势上有一些变化,从原来的识别,现在往更多的像生成对抗网络这样一些深层的技术也有飞速的进步,把多模态的信息融合起来做一些综合的视频,内容的理解。 举个例子,像我们在做青少年内容保护,互联网上有很多不良的内容,包括色情、暴力、恐怖,如何更好的去鉴别这些内容,我们就会使用到多模态的技术,将CV,NLP,OCR等技术融合贯通来使用。
朱劲松: “安全问题不容忽视,但我们有信心解决,并相信AI会让我们的生活更美好”
安全是一个基石,如何处理不好会导致整个技术的发展失序。 安全的问题不能以偏概全,我们要用发展的眼光解决它,而不是因为出现了再踩刹车遏制,这是不可取的。 另外随着人工智能的发展,它带给我们整个生活或者学习,工作,带来三类挑战和风险。
第一,以人工智能为代表的新的技术,它对我们传统的伦理规则这一块带来很多的挑战。 例如现在大家经常看到的关于自动驾驶的技术。 有一天自动驾驶的车辆遭遇了紧急的状况,我们车里面有四个人,他判断这里面有50%的可能性会有死亡的发生的风险。 但是如果采取紧急避险,往旁边的行人方向开过去撞死一个人,这里面的死亡率是100%,这时候自动驾驶的系统怎么选择? 我们把一个人的选择权交给了一个人工智能,交给一个算法做决策的时候,这里带来了很多的伦理上的问题。 包括看到最近法律上的服务,我们让人工智能来对证据做一些判断和排除,对量刑给一些建议。 我们知道法律有温度,有很多可考量的角度,如果让算法去对案子做分析和决策,这里面也有伦理的问题遇到挑战。
第二,关于社会安全的角度。 刚刚几位老师也有提到,这里面衍生很多的网络犯罪,网络黑产的问题,还有利用人脸识别深度伪造技术,可以骗过很多验证的策略,这都会带来很多安全风险,对于用户财产,包括整个社会网络秩序都造成比较大的冲击。
第三,关于用户隐私方面的挑战。 大家最近几年谈的比较多,比如说关于信息茧房的问题。 大数据会知道你很多的喜好,您喜欢浏览哪些新闻,你的观点是什么样的,它会推送同质的内容,似乎我们看到很多的信息,实际上处在很窄的信息茧房里面。 包括大数据杀熟的问题,最近几年大家逐渐关注到,并且察觉到科技的发展给我们带来的困扰。 安全的问题在科技的技术发展过程当中小的涟漪,我们更要相信科技会给我们和我们的生活带来更多美好的东西。
过去几年参与了很多的项目,包括腾讯light项目,还有更早之前我跟优图一起合作了一个比较有意义的项目,得到了国内的执法部门的深度支持。 在中国西部地区有一个地方是被拐的儿童最多的省份,他们在当地破了一个案子,做恶很多年拐卖人口的团伙被抓了。 他们交待说,他们拐卖很多儿童,都把儿童卖到了中国东南某沿海地区的地方,但是卖给谁却没有记录,那个时候没有任何的电子的数据存储的条件,他们也不记得买家是谁。 只有这样一个很模糊的信息,在过去这种案件就变成没有办法破的案件。 我们跟优图做了一个推演,说这里面用人工智能的能力帮助社会痛点,我们将当时被拐卖的儿童照片收集起来,在东南沿海地区的教育部和公安部门的支持下,通过照片比对,把相似度最高的前十名的学生筛出来,通过采集DNA样本,比对出来十几对被拐卖多年的儿童。 这是利用我们技术的能力去解决社会长期的痛点,带来的一个非常正面的例子。
安全问题是客观的存在,但是我们应该有信心去解决这个问题,我们通过加强立法,要有一些适合我们智能化时代的立法的监督体系。 二是对行业要有一个完善的监管的规则的体系。 三是引导大的平台,有技术能力的团队去做一些积极的向善的事情。 我们安全问题不能忽视,我们要做好自己对于整个网络,安全免疫的能力,同时要有更多的信心,我们AI人工智能这样一种技术会给我们的生活带来更多更美好的东西。
朱劲松: 科技虽然从技术的角度看有中性的特点,但是实际上从整个实际应用层面,科技一定是有价值观的,这是我的一个观点。 在科技使用的时候,如何规制这一块,比如说作为政府的监管部门,它可以对这种科技的发展设立一些禁区和红线,我们所有人在规则之下去做这样一个科技的研发和应用的工作,就会更好的做一些引导。
黄飞跃: 科技可以定义为发现一些规则或者是一些原理,这些可能是世界中客观已经存在的。 在客观存在的规律中,我们发现了它,在这个基础上,我们把这些技术,规则原理设计出来成为人类服务的系统,是向善的系统,把它用的更好。
陈楸帆: 我顺着黄总这个往下说,我比较赞同黄总的意思,科学是对客观世界规律的一种探寻和发现,它是一个中性的存在。 但是技术是对于这种规律的一个应用,它是根据人的需求来量体裁衣。 但是对于某些人可以说是正面的科技对于另一些人来说不一定,就是我们从AI这件事上可以看到特别明显的,因为是一个非常中性的筛选简历的AI,但是在使用过程中,您会发现它变得越来越具有某种倾向性,比如说性别上的,比如说种族上的,比如说背景上的倾向性,后面还是由于目标函数最大化的设置,让它不断的自我强化。
我们现在所谓的科学都是一个启蒙于工业革命,一直一路到现在的产物,它对于人类来说有正向的,比如说出生率、存活率,人的平均寿命,包括人的物质生活的水平,它其实提升的。 但你从另一个角度,从整体的生物圈,生态多样性,气候变化,有可能是一个负面的科技。 因为我们从去年可以感受到,为什么野猪在成都街头,高速公路狂奔,很多野生动物开始在城市里嬉戏,北京的雾霾没有那么严重了,这是对于原来工业文明,人类主导的加速主义视角下的一个拨乱反正,在我看来,包括病毒同样也是这样一种存在。 这样的视角下,我们应该用更宏观,更大,更多元的甚至是去人类中心化的视角讨论科技这件事情。 如果人类想让自己的文明延续的更久远一些,我们必须去深刻的考虑什么是可持续发展,是针对谁的可持续发展。
苏文颖: 我同意几位老师分享的。 我们都在提到对于青少年做科学素养的普及,这理念有一个开宗明义就是科学和技术,黄总也提到,科学是发现客观规律,技术是怎么样应用这些客观规律。 技术,人是在应用,肯定还是会有一个尺度或者价值观在后年的。 科技向善这个术语,我觉得最关键的,是在“向”字上,这是一个动态词,是主观能动性,是一个主动的选择。 我非常的赞同已经升级到可持续社会价值,因为“善”的尺度其实在不同的人,不同的群体,不同的历史阶段和社会发展阶段会有一些不同的解读。 当然最核心的人之为人,最基本的价值,是非常可持续的。 可持续社会价值的提法,一方面借鉴了联合国2030年可持续发展目标的宏伟的体系,这个可持续发展目标,其实也是拆分成了很多具体的领域,每个里面是有很多的小目标和衡量的指标。 社会价值更是从经济、社会、文化各个维度设立一些标准衡量的。 所以可持续社会价值这个提法是对科技向善的一个非常及时的升级,同时也是一个更加好衡量,和实现的东西。
回到这个问题上来,之前还跟陈楸帆老师谈到我最近看的科幻小说印象非常深的,还是陈楸帆老师翻译的刘宇昆的《拜占庭同情》。 这本小说为什么印象深,因为它关注的就是我关注的公益慈善行业,设计了一个思想实验,探讨了虚拟现实技术,VR和区块链技术如何可能会重构我们传统的主流的公益慈善行业。 当然像很多科幻小说的思想实验一样,并没有一个确定的结论,只是促使我们思考,同样的技术其实在两种,二元对立的价值体系之下,其实能够发展出完全不一样的应用,甚至是在平常谈论技术上比较少去思考的,怎么重塑慈善这样一个行业。 其实我觉得目前来说,我们更多的不是说科技是是否向善,而是在互联网或者技术的下半场,我们应该去做什么,能够解决什么问题,这些问题肯定是要植根于真实的社会需求的,这个可能也是可持续社会价值这样一个事业要探索的。
2、站在个人的专业角度上看,未来五年您对于人工智能的发展有一个什么样的展望? 有什么样的期待? 展望和期待是两回事,您觉得他能发展到什么样的程度,如果没有现实的限制,它期待它是什么样子?
苏文颖: 我现在个人的谈不上展望,因为技术很多细节包括它发展的速度很多时候不深在其中,不对它有深刻的了解,不能做出轻易的预测。 从我的角度来讲,我非常希望AI这样的技术更关注一些现在并没有纳入到这个技术的应用场景中的很多人群。 比如说很多有残障的群体,包括特别是残障群体里听障、视障有了很多探索,但是像更复杂的心智障碍方面,技术能够起到什么样的作用,就非常的期待。 另外一方面,AI的应用,其实不仅仅是我比较关注的,比如说是青少年群体或者是老年人群体,这些弱势群体,包括我们每一个人数字的技术,包括平台型的企业跟我们每个人来说都是一个陪伴,共同成长和赋能的关系,在这个过程中人是怎么样反哺或者反向赋能于技术,包括对于这些平台的影响,我觉得也是值得去探索和思考的问题。
陈楸帆: 五年说长不长,说短不短,技术不是线速匀速发展的东西,它有自己的生命曲线,所以很难预测。 对于我来说,有几个趋势,我希望在深度学习算法的底层的逻辑能有一些突破。 因为我们不知道它为什么能有效的解决一些问题,这其实是最基础的一个研究。 在这基础上,我们应该去把AI把大数据往小数据去迁移,因为我们知道人其实是小数据学习的一个认知的模式。 只有这样的基础上,才能期待一个通用人工智能的到来。 在这个基础上,我觉得可能,希望五年之内AI能够以一个更自然的NLP包括种种的多模态的交互的能力能变得更加的易用,更加贴近我们普通人交流的习惯。 因为在疫情之后,你可以看到这样的需求非常的大量,包括远程在线学习,工作,甚至一些家居的娱乐都会加速往线上往虚拟化、数字化去发展。 我觉得其实这是在五年之内比较可期待的一个发展的目标。
黄飞跃: 过往的近十年,比如说人工智能发展的趋势来说,人工智能后续的发展可能是有两种方式,一种是在技术上有比较大的突破,就像之前的深度学习网络快速,基础研究层面巨大的突破,我们会把新的突破的技术应用在各个场景,各个领域,寻找更多机会点。 第二种人工智能发展的路径,某些行业,某些领域,某些产业,像下一代移动互联网或者自动驾驶汽车或者是可能其他的一些行业里面,这些行业取得特别大的发展,这个时候人工智能在这个行业里能够有进一步的发展。
实际上,我们很难预测未来五年到底AI在哪里取得特别大的突破。 从我个人期待的角度来说,我希望人工智能能够给人类带来更多真正的便利,现在 来讲 AI还是更多的偏向生活体验,应用层面用的更多,那么未来是不是能够给我们提供更多真实的指导和建议,譬如像气候,医学这些方面,能够帮助人类能够更好的应对自然变化和生理变化。
朱劲松: 信息技术其实以加速的方式往前推进。 从现在往后推五年是什么样子,实际上用过去尺度衡量,可能是十年二十年,五年内会发生什么真的很难预料。 现在整体来讲,全球人工智能还处于弱人工智能的时代,五年之后如果当强人工智能到来的时候,它对整个世界的颠覆到什么样的程度,我们都很难现在有明确的判断。 有一点是很明确的,我们这些人工智能的技术发展,现在更多的围绕不同的社会痛点去解决一个社会问题,从这样一点一点事情出发,慢慢往先演化、推进。
如果再看强人工智能到来以后,人类该怎么办? 我们要建这样一些基本的准则,人工智能的原则的时候,我们应该放在一个全球化的视角。 因为信息社会是没有地域限制,整个世界是一体的,从人类未来的角度,我们应该规范人工智能应该遵从的原则,在这样大的原则下,整个全球不同的国家推进这样一个科技的发展,才会有更美好的未来。