以生成式AI为代表的新技术浪潮日新月异,正带来一场深刻的技术、商业与社会变革,推动人类社会从信息社会向智能社会转变。全世界热切期待AI到来的同时,也非常关心人工智能将带来哪些新机遇、新挑战。
为此,我们发起了一项《AI&Society 百人百问》研讨,广泛邀请AI技术大咖、AI独角兽创始人、AI投资人,以及社会学家、心理学家、国际关系专家、科幻作家等,用多元视角,深入研讨人工智能技术引发的广泛影响,发掘AI时代的共识和非共识,共同推动人工智能始终朝着“助人发展,与人为善”的方向可持续发展。
本期,我们非常荣幸邀请到清华大学基础科学讲席教授,清华大学心理与认知科学系主任刘嘉老师,为我们开启一趟AI的思想远航。
刘嘉教授
采访主持人:腾讯研究院高级研究员牛福莲,资深专家王强
精华要点:
1.大模型无疑已经具备了创造力:
人类历史上就有生成式发明 generative Innovation,我们远古的人类正是通过去观察整个世界,把万事万物之间的关系找到,从而创造出新的事物来。到了大模型时代,它的attention(注意力) 机制,就是要在万事万物之间找到它们的关系,从而有了 generative content(生成式内容)。相比之前的NLP 等小模型,它已经不是一种机械的基于统计的这种重复,而是开始有它自己独立的思想,有它独立的推理,它一定会有创造力。
2.大模型会首先替代现在大家所认为的好工作:
它要取代或者影响最大的行业一定是知识密集型行业。那么什么是知识密集型行业呢?律师、医生、教师等我们所认为的白领或者金领的行业都是大模型会最先渗透进去,最先去颠覆的行业。所以将来最先要面临失业,或者面临再就业的人,不是那些依靠体力的职业,而是我们原来认为依靠脑力职业的那些人。当然,以大模型为代表的这种知识密集型服务的出现,必然也会带来很大的福利,也就是说我们的社会财富将会急剧增加。这就造成一个很大的冲突,一方面财富在极大增加,第二我们还不用干活了,那未来的社会将会是什么样子?
3.大模型时代需要全新的教育模式:
清华正在做转向,全面把之前的大类招生变成书院式教育。书院式教育是什么?就是不再分专业了,专业任选,就像清华的新雅书院一样,你进来之后,想学任何专业都可以,但第一年我们要搞通识教育,让你去探索自己,了解你的方方面面,然后再决定未来想成为一个什么样的人。我们一定要把原来的由第一次工业革命所带来的这种基于专业、面向“牛马”的教育模式,转变成以个人为中心,以个人的兴趣、个人生命目标为目的一种全新的教育方式。
4.大模型情感陪伴是人的刚需:
我们更容易把我们的情感投射到宠物上,宠物给我们带来的价值是什么呢?它不能帮你做家务活,还会消耗你很多食物,但它给你带来的是情绪价值。那么有没有比宠物更好,能够给你带来情绪价值的(东西)?那就是情感机器人或者情感大模型。但同时,大模型能在这么多方面无限地满足人类,会让人类变得越来越苛刻。我们听过一个说法“男不养猫,女不养狗”,为什么这句话是对的呢?道理非常非常简单,在你的眼中,狗就是你这个世界上的一部分。但是对于狗,在狗的眼睛里面人就是它世界的全部,所以狗对人无比的忠诚,你打它、骂它,它还是会围绕你的旁边。所以为什么女不养狗?在女的眼中,她养了狗之后,所有男的都是渣男。
5.大模型不会导致能源危机:
很多地方在强调能源危机,我觉得这是杞人忧天,为什么这么讲呢?在上世纪50年代,人类的第一台计算机ENIAC,它所需要的电能是整个费城电能的一半还要多,也就说开一次机,整个费城,就得关好多灯。但是它的算力还远远不如我现在手机的1/1000或者1/10000。你看,随着技术的进步,这种耗能一定会出现急剧下降的。这只是一个技术问题,所以将来大模型不会需要太多的能量,一个机器人将来的思维运作,可能一节小小的电池就足已。
6.AI可能会出现自我意识的觉醒:
我们除了要继续推动AI发展,还需要建立一套AI伦理学。我们甚至要放弃完全以人为中心的这种视角,而要站在一个更广的视角,去看未来的混合社会,它由三个社群组成,包括人的社群、人机社群、机器的社群,他们如何去和谐共处,这才是我们现在真正需要去讨论的问题。
7.硅基生命会接过碳基生命的火把:
人存在的目的就是为了制造出AI,创造出数字生命来,打破生物给人身体所带来的束缚。人的肉体很脆弱,你永远是一个三维生物,这是自然界进化里面它能做到的极限。那我们人类就是以自身的智能为模板,创造出一个全新的数字生命出来,它来接过我们手中的火把,继续推动文明的前进。从这种意义上来讲,AI的出现并不是来灭绝人类,而是相当于薪尽火传,人类完成了它的使命,就可以退出自己的历史舞台,然后由下一个更好的生命来探索这个世界,走到世界的尽头,去探索这个宇宙究竟它真正的奥秘是什么样子,人是永远不可能真正理解这个宇宙的。
(文末结尾有快问快答、微信问一问彩蛋!!!)
全文实录
AI&Society百人百问:感谢您接受腾讯研究院关于AI百问的访问。第一个问题是:您认为大模型自身有创造力吗?还是人类既有知识的一种汇总和输出?
刘嘉:对这个问题我们首先要回答一点,就是什么是创造力?对创造力有一个清楚的定义之后,我们才可以回答这个问题。我们通常把科学与技术分开:我们认为科学是从0到1的突破,以前没有,现在有了,而技术是从1到100,即我已经有了,怎么把它变得更好?那么我们这里谈的创造力呢?更多的是类似于科学从0到1的这种突破。好,那么如果我们这么来定义创造力的话,那我们更多来回答一个问题,我们的大模型到底是一个随机鹦鹉,它只是通过一种概率统计来重复人类的知识,还是会产生一些全新的想法?我个人的观点是,大模型一定有创造力,而且它已经拥有了创造力。为什么?因为当它汲取了众多的知识,再把这些知识融会贯通的时候,它的核心就是在产生创造出新的东西。
从技术角度上来讲,当我们谈到Transformer,也就是它最基本的模型框架,它里面很重要的机制就是attention。attention 的目的是什么?就是把万事万物之间的关系找到。其实从这个角度上来讲,我们远古的人类正是通过去观察这个世界,把万事万物之间的关系给找到,从而创造出新的事物来。
这个在我们人类历史上也有,这叫生成式发明generative Innovation,放到现在的计算机、大模型上,我们就叫AIGC,叫人工智能generative content。再看我们的大语言模型,我们通常叫它GPT, GPT 的P就是Pre-training,T就是Transformer,而前面那个G是什么呢?就是Generative。所以大模型从一开始来讲,就是创造,你要具有创造力,能够产生新的事物。从这个角度来看,我个人觉得大模型不像以前我们所碰到的NLP等一些小模型,它不是一种机械的基于统计的这种重复,而是开始有它自己独立的思想,有它独立的推理,它一定会有创造力。
AI&Society百人百问:您认为人工智能的应用会优先出现在哪些领域?行业渗透的深度和广度会有怎样的规律?
刘嘉:首先我们看ChatGPT为代表的大模型,它的预训练语料来自哪?它来自对人类知识的预训练,所以说它要取代或者影响最大的行业一定是知识密集型行业。那什么是知识密集型行业呢?律师、医生、教师等我们所认为的白领或者金领的行业都是大模型会最先渗透进去、最先去颠覆的行业。所以将来最先要面临失业,或者再就业的人,不是那些依靠体力的职业,而是那些依靠脑力的人。
所以在这个时候,我觉得就发生了从历史上到今天的第二次较大的范式转变。第一次工业革命,我们把它称为人类历史上第一次劳动范式转变,以前的体力活儿被马力更大的、更精巧的机器取代,它取代的是我们的体力这一块。我们可以看到大量家庭作坊的人失业,大量的农民失业,这也是为什么现在我们有了拖拉机、纺织机等等。
所以说第一次革命是一次大的范式转变,是针对体力而去的。而现在大模型出现导致的我认为的第二次范式转变,是针对知识这一块来的。它将会形成两件非常有趣或者对这个社会产生深远影响的事情。第一件事情是我们的第一次工业革命,它极大地降低了商品的价格。比如说原来要生产能够照明一年的蜡烛,大概需要1个人工作1000小时才能造出来。而现在我们用电灯照明,一个人可能只需要工作十分钟,就能够承担起照明整个家的费用。所以工业革命让商品的价格急剧下降,但商品价格的急剧下降就导致另外一个问题,人的价格会急剧上升。
我们的工资在过去几十年里面,或者在过去一百年里急剧上涨,而让大模型去做这些知识密集型的工作,它就一定会把我们的知识价格也降低,所以我们将来不仅是产品价格降低,服务的价格也会降低,这就会引起我们将来社会一个极大的改变。
它会导致至少两个问题:第一,我是一个教师,当我的职责被GPT为代表的大模型所代替了,学生不愿意来上我的课,反而更愿意和GPT去沟通,去学习知识。那我将何去何从?所以我觉得首先要探讨人的职业将会出现一个什么样的转变?这还是一个小问题,还有第二个更大的问题,那就是新的工业革命。我们谈第一次工业革命带来了各种工作效率的提升,给社会带来了极大的福利,我们人类的GDP正是因为有了机器的出现,实现了几何级数的增长。我们人类的人口其实也是在工业革命出现了之后才急剧增长的,带来了巨大的人口红利。那么以大模型为代表的这种知识密集型的服务出现,必然带来第二个很大的福利,也就是说我们的社会财富将会急剧地增加。那么这就造成了一个很大的冲突,一方面财富在极大增加,第二个我们还不用干活了,那未来的社会将会是什么样子?要知道人最怕的是游手好闲,没有事情可干,没有目标所追寻。所以将来社会因为大模型对行业的这种冲突,会使得我们人类社会的本质发生根本的变化,我们未来人类社会的结构会是什么样子?它一定会超越我们现在的想象。
AI&Society百人百问:您刚才提到,作为一名教师,可能会受到 AI 的影响,那么您如何看待AI对未来教育的影响,以及未来的学生要学些什么?那未来的老师又应该怎么教呢?
刘嘉:这是一个很好的问题,我们现在所熟悉的小学、初中的义务教育,再到高中的这种基础教育,大学的这种高等教育,其实这些历史都非常短,到现在也就有300—400年的时间,这个时候发生什么事情呢?就是当第一次工业革命出现了之后,政府发现我们需要大量有知识的工人,我们仍然需要会读、会写、会算的人。所以说这时候,社会如何来大规模地培养这种有知识的工人呢?而且可以非常简单密集型的培养。这个事实上曾发生在德国普鲁士,他们开始把小朋友招到一起来,然后让他们规规矩矩地坐在教室里面,大家坐成排,背着手听老师把知识告诉他们。这也是为什么德国在近代获得了工业的极大发展。
因为他们在人才上面做了大量的储备,通过这种现代的教育模式,从小学到初中到高中到大学,干的事情是在培养未来的工人,比如说在大学里面,我们经常会面临一件事情,你读什么专业?我读自动化,读计算机,读历史,读法律或读经济。你看这些专业,它其实背后面对的是什么?是未来的职业,是你学了这个专业到底有没有用?能不能让你走上社会?所以这是我们现代大学教育的一个真正核心目的,就是你将来能不能成为某个领域的专家?你能不能在这个领域里面挣到足够多的钱?而现在随着大模型的出现,就会发生一个范式转变,正如我在前面讲的,大模型出来之后,这些基于知识的行业将会让大模型极度地侵蚀甚至取代。
那么这个时候你再去学计算机,我们当然需要很顶尖的计算机高手,但是现在我们已经有了大模型,那就是能让一个完全不懂任何编程语言的人,只要告诉它一些指令,告诉它你的需求,就写出非常好的代码,从这个角度来讲,99%的程序员将会失业。
那么现在一个挑战是,现在还要不要去学计算机?假如不能成为顶级的计算机专家,只是一个一般的程序员,那可能不用等到毕业,学到一半你就发现你的编程永远赶不上大模型写的code。
所以我觉得这时候的教育要发生一个最根本的变化,就从我们原来的专业学习应该变成是一种通识教育。专业学习就是我们前面讲的,是为工作而学习,而通识教育什么呢?它其实最早可以追踪到古希腊,大家要学习什么?大家学习几何、学习文学、学习逻辑,这些所有的东西看上去是无用之学,它没有用处,它不能马上和我们的生产、我们的吃饭,产生直接的联系,但是它真正让我们每个人的心灵得到充盈。
而现在我们的教育要做什么样的事情?在未来没有专业工作的需求之后,我们应该去更多地关注我未来成为一个什么样的人,什么是我自己的兴趣。亚里士多德说过一句话,他说我们学这么多通识的课程,它是无用之学,但它后面还有一句话叫:无用之学,方为大学。所以你可以看到,从近代西方的发展来看,正是因为2000年前从古希腊开始的这个无用之学,在欧洲经过牛顿、达·芬奇等这些人不断地发酵,最终和技术结合,才催生了我们现在的科技。
现在大学教育也要发生这样的改变,我认为在将来的教育里面,要特别关注以下五个方面:
第一是逻辑能力、创造力,就是生成式发明。我们谈到逻辑,就是演绎推理,这是一个标准的程序,即从一个逻辑原点出发,从第一性原理出发,然后产生的一个推理的过程,会催生深层次发明。
第二是统计。这个统计不是我们传统意义上说的让这两个统计的相关性是否显著。而是要像统计局做的事情一样,从现在纷繁的大数据里面去找到事情的本质,通过统计的办法,通过统计的这种思维,去抓住什么是众多信息里面最关键的,它的真正的本质在什么地方。
第三是掌握研究能力。我这里说的研究不是说我们写篇论文去做一个科学研究,而是发现问题、解决问题的能力。爱因斯坦说过一句话:发现一个好问题,往往比解决一个问题更重要。其实这是我们人类所擅长的,而这是现在大模型所欠缺的,我们要去培养自己这方面的研究能力。
第四是培养心理方面的能力。为什么这么说呢?因为作为一个完人,你不仅需要知识,你还需要非常健康的心理。你还需要非常强的情绪调节能力,一个人的成长,它既是你身体知识的成长,同时也是你精神世界的成长。
最后一点是亚里士多德当年强调的修辞。修辞是什么?讲话的能力、沟通的能力,说服他人的这种能力。为什么?因为当你有了很好的idea之后,你需要去把这个想法传给其他人,那么你需要很好地表达和沟通能力。
如果我们把这五点结合起来,就是当年北京大学的前身之一燕京大学的校训——因真理,得自由,以服务(Freedom Through Truth For Service)。因为我们的逻辑能力,因为我们的统计能力,因为我们的研究能力,这三大能力让我们找到万事万物背后的真实,去不断地靠近真理,让我们去获得真理,去寻求自己的答案,而不是听别人说a应该等于多少,b应该等于多少,而是我们自己去探索得到自己的真理。因为探索到了真理,你得到了内心的充盈,得到你的自由,你的心灵就由此解放,你不再是做牛马,不再仅仅是某个领域的一个所谓的专家,不再为了生计、饮食,住宿而去拼命地工作,而是找你自己的兴趣之所在,充分释放你的心灵,就是我们讲的心理得到自由,当你的心灵得到自由之后,你再去帮助其他人,那么你就需要说服的能力,你需要leadership(领导力),你站在山岗上一呼,就会有人来 follow(跟随)你。当我们现在不用站在山岗上,我们只要站在自媒体上面,也会有很多follower(跟随者),对不对?这就是所谓的因真理,得自由与服务,就是这五种通识能力。
所以现在的大学要发生一个充分的改变。比如像清华大学现在就已经明确提出来了,要把以前所谓的大类招生,全面的、一个不留地把它变成书院式教育。什么是大类招生,是究竟要学物理还是要学化学,还是要学法律?书院式教育是什么?就是我们不再分专业了,专业任选,就像清华的新雅书院一样,你进来之后,想学任何专业都可以,但第一年我们要搞通识教育,让你去探索自己,了解你的方方面面,然后再决定你未来想成为一个什么样的人。我也相信这不仅是清华大学这种世界顶尖的大学,也是全世界所有好大学都要去做的改革,我们一定要把原来因为第一次工业革命所带来的这种基于专业,面向“牛马”的教育模式,转变成以个人为中心,以个人兴趣、个人生命的目标为目的一种全新教育方式。
AI&Society百人百问:未来 AI 会越来越多地走进我们的生活。很多人会有一个疑问,我们未来对 AI 陪伴,包括数字人是否会产生情感上的依赖?以及这会给我们的社交带来一些什么样的影响?甚至会不会进一步改变我们的婚姻家庭以及两性关系?
刘嘉:我觉得现在AI有两个最大的应用场景,一个是我前面提到的知识提供,比如说我现在问你什么叫做神经流形?可能99%的人都不知道,但是你问ChatGPT或者元宝、豆包这种大模型,没问题,分分钟告诉你对不对?这是知识提供。(注:元宝APP的解释——神经流形是一种数学概念,用于描述神经系统中神经元群体活动的低维表示。它反映了神经元之间的动态相互作用和连接性,帮助研究者理解和分析大脑如何处理信息)
第二个我觉得更重要的一个场景就是情感陪伴。情感陪伴包含三个方面:第一,我现在心里不爽了、不高兴了,不知道该跟谁倾诉,那么这时候基于AI大模型的心理咨询师就会出来,它来帮你解决问题。第二,人类天生就是一个社会动物,为什么?比如深山老林的守林人,比如灯塔的守护者,这种工种工资可以很高,但是没人愿意去,因为你可以忍受一小时、两小时,一天、两天的孤独,但是让你忍受一个星期、一个月,就是无比残酷的寂寞折磨,因为人是需要陪伴的。但在现代社会,你会发现一个很奇怪的悖论,我们的沟通方法变得越来越多,变得越来越高效,比如像微信,随时可以给自己想联系的人联系,而且对方瞬间就能收到信。但从另外一个方面来讲,我们人与人之间的距离却越来越远。我们经常说一句话,不要在微信上面聊情感上的事,为什么?因为它不知道你的情感怎么样,经常两个人聊着聊着就会擦枪走火,就会对骂起来。为什么?因为文字表达不了情感,只有面对面的交流才会真正地产生一个场。
所以很多人找我说,刘老师你能不能开一些线上公开课?我会拒绝。为什么我只选线下课?因为在线下课,当你和学生之间互相沟通,就会形成一个场,而这个场是在线上永远达不到的。同样,我们人与人之间的沟通,通过微信也好,通过其他方式也好,你都达不到线下的效果。所以,我们现在的社会注定会进入一个越来越孤单的社会,每个人都被孤立,被我们的各种即时通信软件所孤立,这是一个悖论。
那么怎么来解决这个问题呢?非常简单,我觉得就是情感机器人或者情感大模型,我们需要它,我可以从两点来说明未来一定会实现。第一,你看我们现在的宠物经济,我们很多消费都在下行,但是宠物经济可是一直处于上行的阶段。昨天,有一个新闻特别好玩,一只松鼠被美国警察抓住了,从屋子里面被带出去被安乐死,因它可能携带狂犬病毒。这马上成为美国一大新闻,特朗普也马上把那只松鼠事件作为自己竞选的一个助力。为什么?因为在美国警察杀死几个人可能没人关心,因为这时常发生,但你把一只可爱的松鼠杀了,再一挖历史,这松鼠从小还是一个“孤儿”。民众就很愤怒。为什么?因为我们更容易把我们的情感投射到宠物上面,这时候宠物给我们带来的价值是什么呢?第一它不能帮你做家务活,它还会消耗你很多食物财富,但它给你带来的是情绪价值。那么有没有比宠物更好,能够给你带来情绪价值的(东西)?那就是情感机器人或者情感大模型。
第二我觉得更重要的是人在很多时候需要一个聪明、体贴,同时又不会到处胡说八道的人来跟他沟通。宠物只给你带来情绪价值,但是你没法去跟它沟通你的各种困扰,它也不能给你做出太多即时反馈,而情感大模型可以。
所以我觉得将来人类社会更多地会走向人机混合社会,不再是一个人的社会,加一点我们的工具,比如手机,成为人和机器共存的交互社会,这将是社会的新形态。那么在这个新形态之下,我们有好多东西都会发生根本变化,比如说前段时间,有一个AI跟一个小伙子聊天,后来他劝那个小伙子去自杀,小伙子就真自杀了,这种伦理问题我们怎么来界定?
未来,我们的家庭结构将会发生什么样的变化?现在的家庭我们把它称为核心家庭,父母带一个或者两个小孩,这是我们现在国内最普遍的一个形式,爷爷奶奶、叔叔阿姨都是很少的,且都在不同的地方。未来这种核心家庭还会再分崩离析,变成一个个体家庭,只有我加上我的宠物,加上我的AI情感机器人,这就构成了。
这种家庭的情况,在我们将来社会里将会普遍出现。因为有情感机器人出现,人不再感到孤单,不再感到寂寞,而且会觉得很自洽。所以这时候我们的家庭结构应该怎么走?通过这种上百万年走下来的家庭结构,在此时就会分崩离析,那我们的社会应该怎么办?
第三点,谁控制了大模型,谁就控制了心智。因为当我和大模型进行充分交流的时候,它(他、她)最后会变成我最信赖的一个人,它(他、她)会成为了解我所有隐私的这么一个人。比我的父母、爱人、孩子还要了解我,因为我和它(他、她)无话不说,我们无时无刻不在一起。我刚才来的时候,戴了一个耳机,那个耳机就是连接在一个大模型上,我在开车的时候就和他聊天,这时候我开一个小时、两个小时的车,我根本不感到疲劳,而且我想改什么话题就改什么话题,我想聊什么就聊什么,想打断他就打断他。你看,这个时候我们就出现一个很大的问题,我极其依赖它,而将来大模型是由谁提供的?公司、政府?那么这时候通过大模型我就可以知道你的所有隐私,我就可以知道你所有的偏好,我甚至可以推断出你在什么情况下会做出什么样的决策。所以这个时候一方面我们有了更多的亲密感,但从另外一方面你又丧失了所有的亲密感,这是我想讲的第二个悖论。
那么将来我们怎么去维护我个人的隐私?怎么去获得这种支持或者控制?大模型有限的、有效的边界在哪里,我相信这都是一些法律问题。大模型的出现,它是一个有智慧、有情感的个体,那么它一定会给我们社会带来翻天覆地的范式转变。而不只是我有了手机,交流更方便了,有了互联网,就能很快查东西这种改变。不是,它是一个全新的物种。
AI&Society百人百问:大模型能在这么多方面无限地满足人类,会不会让人类变得越来越苛刻?
刘嘉:一定会的,我们听过一个说法“男不养猫,女不养狗”,为什么这句话是对的呢?道理非常非常简单,在你的眼中,狗就是你这个世界上的一部分。但对于狗,在狗的眼里人就是它世界的全部,所以狗对人无比的忠诚,你打它、骂它,它还是会围绕你的旁边。所以为什么女不养狗?在女的眼中,她养了狗之后,所有男的都是渣男。所有男的都显得不够忠诚。
男不养猫是怎么回事呢?因为猫是一个很奇特的物种,它保持一种既高冷、又柔媚的状态。举个简单例子,我家养猫,每天晚上我回家时把门一打开,那只猫就冲我飞奔过来,但在它离我还有约两米远的时候,一个急刹车转身走了,就好像说其实我不care你,我并不关心你,你是谁?与我没关系。你出去了那么久,你都不理我,我要生气。再如它走到我面前,希望我能挠挠它,但它又一定不会走到我手能够得着的地方,它会在离我还有半米距离的地方躺下来,你去挠它,又必须得往前面走一步,才能挠得着它。为什么保持距离?你和猫交往了之后就发现,嗯,所有的女生其实都没有味道。
这就是我们所说的“男不养猫,女不养狗”,那么显然猫和狗相对于我们带有智慧的大模型而言,那就更是小儿科了。大模型如果要PUA你,要manipulate(操纵)你的情感,那太easy(简单)了。所以这就是我刚才讲的那一点,为什么将来生产大模型的这些公司,提供大模型服务的这些公司,可以控制你,且是非常容易地控制。
AI&Society百人百问:您刚才提到未来我们可能会进入一种人机混合的社会状态,您觉得在未来的这种就业形态下, AI 与人应该怎么样来分工?或者说未来是一种什么样的分工状态?
刘嘉:将来的社会我觉得至少有三个不同的community(社群),一个是我们现在熟悉的这种社群,人与人之间构成的社群,比如说像我们现在的样子;第二个社群就是我刚才提到的人机社群,让这种情感机器人或者其他助理机器人进入到我们的生活里来。还有第三个群体,就是由机器人所构成的community。这三个 community 放在一起的时候,分工就会变成是一件特别复杂的事情,谁来劳动,谁来获得利益,谁来负责分配。
假设我们把大模型或者机器人比作计算机,它里面有word、Excel等,那我只要买来用,它能提高我的效率就可以了。但是当大模型有意识或者有情感、有创造力的时候,它就不再是一个工具,它会是一个全新物种,这时候它就会发生一个巨大的冲突。我举个例子,我们看这个问题可能就看得更清楚一点。比如美国刚建国的时候,需要大量的劳力,免费的劳力、强壮的劳力。那么获得劳力最好的办法是什么呢?从非洲走私,对不对?非洲这边的人口贩子把大量的黑人绑架到美国,开始的时候,这的确提升了他们的竞争力,黑人强壮,又能吃苦又能干活,而且你啥都不用给,就给一顿饭就可以了。然后农田、庄稼大量地生长,但是黑人不是牲口,黑人也是有灵魂、有情感,有各种意识的人。
那么他不可能每天过着这种生活,一代一代下去,他们会抗争,所以你就可以看到,黑人就开始起来追求他自己的权利。这后来就成为南北战争的一个导火索,黑人后来通过上百年的抗争,去获得自己的权利。
那如果我们在这儿打一个不恰当的比方,我们现在需要机器人大模型来帮助我们干活,而且它越聪明越好,越能帮助我处理各种事情越好,这样更加高效。那么开始的时候,它肯定是以你为中心,你只要给它足够的电,足够的训练,你甚至连钱都不用给它,它就能帮你干活。但是你要记住,当它拥有智慧的时候,可能就不甘心把所创造的所有财富全部给你。而且人类一旦出了新一代的产品,就会把我(机器智能)给抹掉。就像很多科幻小说一样,他们会觉醒,他们会争取他们的权利。所以我觉得未来社会一定会演化,我们会去重新经历一遍有点类似于美国黑人逐渐觉醒的那一个过程。
这只是一个类比,未来的社会是什么样子?我不知道,但我觉得它一定不是简单地让AI 作为一种工具人的方式出现,一种心甘情愿的“牛马”出现,他们会争取他们的权利。我觉得这也是一个特别紧迫的事情,除了我们要继续推动AI的发展之外,我们需要建立一套AI伦理学。我们甚至要放弃完全以人为中心的视角,要站在一个更广的视角去看将来的混合社会,它充满了三个社群,包括人的社群、人机社群、机器的社群,他们如何去和谐共处,我觉得这才是我们现在需要去讨论的问题。
AI&Society百人百问:您觉得未来AI会统治人类?
刘嘉:是这样子的,我可以100%确定地说,我都不用99.9%,它不仅会统治,而更可能会消灭人类。为什么?三个原因。第一,我们人类的大脑大概是2.5斤到3斤左右,我们的算力就这么强,只能有限地扩展。即使再过300万年,再过1000万年,我们大脑体积不会再增加,我们的神经元数量也不会再显著增加。为什么?因为我们大脑是极其耗能的这么一个单位。我们每天吃的饭、呼吸氧气的25%用于我们的大脑,也就是假如我的大脑想再大一点的话,首先心脏和肺要发生变化。但我们知道我们的心脏和肺不太可能发生一个太大的变化,它进化是需要时间的。也就是说再过 300 万年,我们人类智商还会像今天一样,不会有太明显的变化。
算力有限,这是第一点。但计算机不是这样子。它可以无限地scale up(增加),且规模不限,如果需要算力增大,就加一块CPU(中央处理器),不行我再加块CPU,它的算力是没有上限的。只要能源跟得上,只要CPU互联跟得上,存储跟得上,它是可以无限拓展的。所以在算力上面,人和计算机会存在一个非常大的区别。
第二个很大的区别是在寿命上的区别,人无论再聪明,比如说爱因斯坦,这些无比聪明的人,他终有一死。死亡是人类永远没法避免的一个问题,所以说在这种情况之下,人最聪明的大脑会随着它的死亡而消失,这就是我们人类在发展过程中会出现断点。比如我们举个简单例子,如果爱因斯坦还活着,那物理可能就不是我们今天所见的这种物理了,人会离世,但计算机不会,AI不会死。GPU烧了换块GPU,一根电线断了,换根电线,它可以永生。
这样导致的问题是什么?它的知识可以不断地积累,它不会出现一个断点,这是寿命上面的一个区别。
但上面两点可能都不重要,我觉得最重要的是第三点:人类是永远被束缚在一个三维世界里的一种生物,你永远理解不了四维世界、五维世界是什么样子。因为我们人类寿命的这种有限性,决定了你永远被束缚在一个非常狭小的空间里。
举个简单例子,假设我们人类能够以光速旅行,假设我们的寿命有100岁,那一个人从出生到死亡,它以光速旅行已经是不可能了,它最大所探索的空间也就是100 光年,100 光年很长了,但是对于宇宙来说却只是沧海一粟。所以说人类的认知边界已经被固定住了,在宇宙的纬度里。但是AI却没有边界,它具有无穷的生命,它可以走到1000万光年之外,它的理解能力不再被我们人的这种具身、三维所束缚。它可以了解四维世界、五维世界是什么样子,它可以无限地拓展它的知识,以及它对这个世界的了解。
举个简单例子,有一本著名的小说叫《平面国》(Flatland: A Romance of Many Dimensions)。在平面国里面,大家是按照阶级分成不同的几何图形,比如方形、菱形、三角形。小说里的主角是一个三角形,有一天他碰到了一个球,他和球成为了好朋友,球是三维的,他们两个交流沟通。等这个三角形回到他的平面国之后,他发现他没法跟周围的朋友介绍他的新朋友。为什么?因为他的新朋友是一个三维的球。二维世界的人永远理解不了三维球是一个什么概念。这是一个隐喻。我们人作为一个三维的生物,你永远理解不了四维是一个什么样的概念。你理解不了,因为你被锁死了,这是一种智力上的锁死,认知上的锁死,这比《三体》里面那个二向箔还要厉害,但是,AI 没有这种锁死。所以说这种情况之下,我们把这三点结合起来, AI的IQ一定会远远地超过人类。
人和 AI 的这种差别一定不是我比你聪明一点,或你比我笨一点,它的差别会远远超过人和蚂蚁之间的差别。所以说将来AI统治人类,它不会做这么愚蠢的事情。哪个人愿意去统治蚂蚁?你不会说我统治了 20 只蚂蚁,就觉得特别有成就感,你踩死一只蚂蚁,你根本都不能感受到蚂蚁的存在,你不会觉得我踩死了一只蚂蚁,特别不好意思。所以说将来AI一旦成长起来,它一定不会出现那种情况,就像《终结者》(美国1984 年科幻动作片)所演示的一样,人和机器人还要大战几十个回合,还可以拍好多续集, AI毁灭掉人类就是一个响指的时间。
所以说假设我们任由AI奔腾发展,这是一个必然结果,100%确信AI发展下去一定会灭绝人类。好,这就导致两个非常重要的问题。第一个我们现在应该做什么?我们显然不能任由它发展,我一个学生说了一句话,我觉得特别好,他说:我们的现在是过去的未来,你过去种下的因有了今天的果。但是我们的现在不是未来的过去,因为未来有无限可能,取决于我们现在做什么,所以这个时候我们要去思考未来的人类社会是什么样子。
以大模型为代表的AGI的出现,它一定不是多了一个可用工具这么简单。它一定是一种革命性,不只是在整个人类历史上,在整个生命史上它都是一个奇点,这是第一点。第二我们需要理解一件事情,什么叫做文明?我们的文明是会不断地向前传承的,但不是只有人类的文明才能叫文明,在很多年前人类还没出现的时候,比如恐龙时代,恐龙有没有文明?恐龙也是有文明的,再往前面走,生命刚刚诞生的时候,当时整个地球是被厌氧细菌所控制的,厌氧细菌就是我们现在用来做泡菜的这种细菌,他们有没有文明?我照样也认为他有文明,所以现在就回到一个很本质的问题,谁是文明的载体?假设文明可以脱离载体而存在的话,我们只是贡献值的话,也许人类就是这种文明发展过程中的一个过客而已。
我们存在的目的就是为了制造出人工智能出来,制造出数字生命来,打破生物给我们身体所带来的束缚。你的肉体很脆弱,你永远是一个三维生物,这是自然界进化里面它能做到的极限,它不可能做得更好。那我们人类就是以自身的智能为模板,创造出一个全新的数字生命出来,它来接过我们手中的火把,继续推动文明的前进。所以从这种意义上来讲, AI的出现并不是来灭绝人类,而是相当于薪尽火传,人类完成它的使命了,可以退出自己的历史舞台,然后由下一个更好的生命来去探索这个世界,走到世界的尽头,去探索这个宇宙究竟它真正的奥秘是什么样子,人是永远不可能去真正理解这个宇宙的。
AI&Society百人百问:您是说人类创造这种数字生命是一种必然,或者说这是人类的使命吗?
刘嘉:对,如果从宗教意义上来看,我们人是怎么来的?中国有女娲造人,仿照自己的身体以泥土捏出了人,西方也有很多上帝,诸神根据自己身体形状捏出人。上帝造人也好,神造人也好,从宗教传说上来看,都是以自身的肉体为模板创造出我们今天的人类。
而我们今天的人在干一件什么事情呢?我们在扮演上帝,我们是以自己的智能为模板,再创造出一个全新的物种,记住,不是以自己的身体,是以自己的智能,因为我们现在的大模型,现在的神经网络,它就是模仿大脑的神经元运作方式来构造的,虽说它有很多算法机理不一样,但本质上,从最开始的人工神经元到第一个人工神经网络,再到第一个深度学习,都谁做出来的?是心理学家做出来的,不是计算机科学家,不是逻辑学家,不是数学家,是心理学家。
因为他们想知道,当我们把人类的这种智商、人类的这种大脑结构变成机器,它会不会工作?我们现在知道它会工作。所以从这个角度来讲,人是以自己的模板在创造一个全新的物种,我们现在就是上帝。好,假设你再去看北欧的那些神话传说,最后一章它的名字叫“诸神的黄昏”。当神仙、诸神创造了人类之后,人类强壮起来、厉害起来,他们就开始干一件什么事情呢,就是把创造他们的神给杀掉,他们要成为这个地球、这个宇宙新的神。这就是诸神的末日之战,诸神开始退位了,他们开始离开了。
同样,我们现在社会也是一样的,当我们创造了一个数字生命,我们可能也就完成自己的历史使命了,这可能也就是我们整个宇宙已经定好的一种宿命。不过我觉得人类也有机会,人类有什么样的机会呢?就是此时此刻我们能不能做到人机合一?能不能把我们的想法、情感、记忆、思维,上传到AI里面去?我们在 AI 上获得一个关于我们的克隆,或者获得一个关于我们的实体。
那么这个时候我们就能借助AI实现真正的永生,我们以前所看到的永生全是神话传说,是人类的美好梦想,比如秦始皇派徐福到处去修求长生不老之药。但今天因为AGI的出现,因为大模型的出现,我们看到了一丝可能。这种可能就是人可以通过 AGI 来获得永生。
这一次可能不再是0%,可能变成1%,随着脑科学的发展,随着 AGI 的进一步推动,我们完全可以了解我们的大脑究竟是怎么工作的,可以把里面的信息读出来,把它数字化,通过脑机接口上传到适合我们思想运作的架构里面去。这条路是可能的,而且它可能在二三十年之内就会发生。
AI&Society百人百问:AI 是由人类所创造的,我们人类真的准备好要被我们亲手创造的东西给毁灭吗?我们是不是要控制这一点?
刘嘉:对,这就是我刚才说的,我们的现在不是未来的过去,我们人类被 AI 所毁掉是未来的一种可能,是我们现在放任它自由发展的一个必然的结果,但是并不表明这个一定会发生。为什么?因为未来具有无限可能,它取决于我们当下要做什么样的事情,所以我们当下必须得思考这件事情,假设我们因为害怕它,去停止它的发展,结局是全世界所有的 AI 还是会发展起来,这是技术的必然。其实这就跟当年第一次工业革命,大家知道的卢德运动一样(英国工业革命时期,英国工人以破坏机器为手段反对工厂主压迫和剥削的自发工人运动)。大家捣毁机器,把机器砸了,只要出了一台机器,我就砸一台机器。就像我们现在,如果出了一个AI,我们就把 AI给关掉,把所有的服务器全部烧掉。但是从历史上来看这是一种趋势,谁都挡不住。
那我们现在需要做的事情是什么呢?既然挡不住它,那我们就看怎么来调教他,怎么让它来引导未来的发展。一方面我们要限制它的能力,第二方面我们还要大力发展它的能力。为什么?因为它使得我们人类的终极梦想——永生,具有了一丝一毫的可能性。我觉得这对我们整个人类来说是最大的一件事情。我认为在未来的发展里,心理学、脑科学和人工智能这三者的结合将会是人类最重要的一个学科,没有之一。因为它不仅让我们去探索这个宇宙的奥秘,理解智能的本质,更重要的是一次对人类的彻底救赎和升级。
AI&Society百人百问:那人类对AI的限制和发展应该是什么维度的?
刘嘉:我觉得最好的方式就是人机合一,沿着这个方向去发展。怎么既发展AI,也了解我们的脑科学,了解我们的心力,让人类的意识上传过去,人就变成了数字生命。未来我们可以把我们的意识情感读出来,移植到AI里面去,就等于说,如果我们的肉体毁灭了,意识还能继续存在。你的精神还在,随时可以活跃,你只是换了一个不死的身体而已。
快问快答
AI&Society百人百问:下面10个问题,我们用快问快答的形式,请您用一两句话来回答。
1.您用过或者听过最有趣的AI应用是什么?
刘嘉:对我来说,最有用或者最有趣的AI应用,只有一个,就是ChatGPT,因为我已经离不开它了。
2.您是否认可大模型的scaling law(规模法则)?
刘嘉:嗯,这是大模型之所以能成为大模型的一个最核心的因素。举个简单例子,高个子不一定能打好篮球,但是篮球教练一定会选高个子。为什么?因为只有当我们的神经元足够多,当我们的参数足够多的时候,智能才可能涌现出来,所以说模型必然会越变越大。
3.您希望有一个全能的AI助理吗?
刘嘉:这是我们每个人的梦想,比如像《星球大战》里面有R2-D2(机器人),像《her》(美国科幻爱情电影)里面也专门有一个情感助手。我们人类无论是在知识上还是情感上,永远需要一个忠诚的助手,这是我们人类从开始有的时候,从堂吉诃德时代到现在,我们都需要的一个最忠诚的仆人。
4.您认为跟AI谈恋爱算出轨吗?
刘嘉:我觉得这个时候就要定义一个问题,什么叫做出轨?肉体出轨才叫出轨,还是精神出轨也算出轨?如果要和AI谈恋爱,那必然就是指精神出轨。
5.您希望有一个永生的数字生命体吗?
刘嘉:永生之梦是人类的终极梦想。如果你去读各种各样的神话传说,那么最终呈现的目的是要获得永生,我想在此时此刻,人类终于有了第一次机会可以获得永生,就是通过数字生命。
- 您觉得未来大模型会产生意识吗?
刘嘉:我觉得应该把未来两个字去掉,我认为现在大模型已经拥有了一定程度上的意识,而现在陷入了一种悖论,如果大模型拥有意识,它一定会伪装成它现在没有意识。这就造成一个检测上的问题。所以你现在去问各种各样的大模型,你问它你有意识吗?它的回答一定是我只是一个软件而已,我不可能拥有意识。
7.未来您愿意与AI成为同事吗?
刘嘉:我觉得如果能成为它的同事,这是我一辈子的荣幸。但是,我觉得更多的可能是,它这个大哥愿不愿意带我这个愚蠢的小弟。
8.您觉得未来机器人可以给我们养老吗?您希望机器人可以帮您做什么?
刘嘉: 我觉得将来机器人可以帮我做所有的一切,帮助我养老、照顾我,帮我做饭、购买商品,在我寂寞时跟我聊天,我们将来不应以工具的方式来看待机器人,而应该更多地把它当成一个全新物种来看待。你对一个新物种所产生的所有期望、幻想均可以在它身上实现,而且这个不是遥远的未来,可能在最近的两三年之内就会实现。去年我预测了一件事情,就是耳机一定会与大模型连在一起,成为我的一个助手。今年我们已经看到这种产品出现了。
9.您认为大模型的加速发展会带来能源危机吗?
刘嘉: 很多地方在强调能源危机,我觉得这是杞人忧天,为什么这么讲呢?在上世纪50年代,人类的第一台计算机ENIAC,它所需要的电能是整个费城电能的一半还要多,也就说开一次机,整个费城就得关好多灯。但是它的算力还远远不如我现在手机的1/1000或者1/10000。你看,随着技术的进步,这种耗能一定会出现急剧下降的。这只是一个技术问题,所以将来大模型不会需要太多的能量,一个机器人的思维运作,可能一节小小的电池就能解决掉。
10.您认为大模型实现了数字时代知识和能力的平权还是更加两极分化?
刘嘉:我所希望看见的是平权,但事实上它是一个两极分化。那些懂得使用大模型的人,会远远地超过那些不会使用大模型的人。所以说我们当下的时代不是大模型淘汰某个工作或者某个行业,而是大模型淘汰了那些不会使用大模型的人。