5月7日,腾讯研究院举办了主题为“AI 是音乐行业的《命运交响曲》吗? ——人工智能如何重塑音乐创作、服务与产业”的线上沙龙,探讨人工智能技术如何在音乐领域带来创新和变革。
随着人工智能技术在音乐生成领域的发展,Suno、 StableAudio等生成式 AI使得每个人都有可能成为音乐创作者,音乐创作的门槛大大降低。相信这一趋势,不仅是对创作领域产生革命性影响,也将对围绕音乐的服务、产业和生态产生冲击和影响。
四位来自音乐行业各个领域的专家讨论轻松、热烈,在音乐 AI 突破和广泛应用于音乐领域的的当下,为广大业内从业者和音乐爱好者答疑解惑,并给 AI 时代音乐行业的进化与未来发展指明了方向,增强了信心。
以下是“AI 是音乐行业的《命运交响曲》吗?”线上沙龙实录:
本期嘉宾:
赵易山 音乐教育家,南方科技大学教授、艺术中心副主任
翁雷 钢琴演奏家,美国北科罗拉多大学音乐学院键盘系主任、终身教授
刘晓光 DeepMusic灵动音科技的创始人兼 CEO
杨樾 中国著名电台 DJ,AI 视觉艺术家
节目主理人:
刘莫闲 腾讯研究院高级研究员
关于 AI+音乐讨论的嘉宾观点
(笔者和腾讯元宝AI协同整理)
1. AI 生成音乐是既 AI 生图之后,人工智能对大众最大的一次冲击,可能改变未来的娱乐体验。
2.AI创作的音乐会在社交关系链上有更多传播,但不一定会影响新的听歌消费。
3.音乐人面对AI时的态度各异,有的完全拒绝,有的观望,有的全力拥抱,还有的已经在使用AI创作音乐。
4.AI生成音乐不仅是对娱乐应用的影响,还可能推动传统音乐人在音乐创作上的进步。
5.AI 音乐技术可以启发音乐人创作。AI音乐在现阶段适合用于功能性音乐产品创作,如公共场所的背景音乐、初级配乐和IP化音乐。
6.AI技术在音乐领域的商业机会包括工具变现、唱片公司模式以及与音乐教育和游戏的结合。
7.AI时代的传播模式将决定AI音乐是否能够广为流传,而非生产方式。
8.在AI时代,我们需要寻找新的传播机制和遴选机制,从海量音乐中筛选出优秀的作品。
9.在AI时代,音乐行业应关注如何产生更多经典作品,以触动人心并创造好的市场。
10.AI在音乐教育中起到重要作用,可以帮助孩子更好地理解和感受音乐,更好的培养孩子的艺术感觉。
11.音乐对人的人格培养非常重要,现场音乐会的体验对孩子的成长有很大益处。
12.家长应鼓励孩子多听音乐,发掘他们的兴趣,但不必强迫他们学习乐器。
音乐从业者眼中,AI现在有多厉害?
AI 音乐已来,大家都有听说或者使用过吗?印象是怎样?大家讨论的话题和热点是什么?生成式音乐 AI 的直观体验是什么?它都能做些什么?做得有多好?
刘莫闲:首先想给大家抛出一个问题,在 Suno 这样的音乐 AI 工具出现以后,各位老师有没有用过这些AI 软件?用过以后大家的体验以及印象是怎样的?
杨樾:其实 AI音乐工具基本上我都用过,和弦派这类专业的工具我一直在推荐身边那些专业的音乐人去用,普通人可以用国际上这几个比较流行的,比如Uido、 Suno 、包括之前的 Aiva、 Boomy,这些我都用过。
差不多在前年 12月份 ChatGPT正式发布之前,已经有一些音频的 AI工具在生成,并在不断的升级。升级直到Suno出现的时候,是真的把大家吓到:因为大家可能以为音乐 AI 工具会像文本、或图片视频的 AI工具一样,迭代会是阶梯性的,相对比较慢的。但Suno出来之后,你会发现它突然一下子拔高了特别多,这应该是让很多人真正震惊的原因。
其次对于普通老百姓,音乐 AI工具会让人觉得更感性、更能够触摸到,因为每个人都觉得自己跟音乐是有关的。但是用 AI 生成视频、图片、文本,或者是我们用AI 大模型去写代码、去做数据分析,这个还是离普通人比较远。
所以我觉得AI音乐反倒变成了一个除了生成图片之外,对于大众来讲最大的一次AI时代的一个冲击,这是我特别强烈的感受,不管是对于专业的 – 我身边有很多的专业音乐人,我都跟他们交流过,还有很多的普通人我也跟他们交流过,大家受到的冲击是非常大的,远超过其他各个领域的AI工具的诞生和迭代。
刘晓光:对,我还是比较赞同杨老师这边去说的,也特别感谢杨老师能够推荐我们的产品。因为我自己也是音乐行业的从业者,之前也做制作人,其实对国内整个数字音乐生态是有一定了解的,我个人认为像音乐生产力工具的大幅度的提升,其实不会对行业整个生态有太大的影响。因为这个行业本来的“供”已经远大于“求”了,每年生产出来的歌已经远远大于老百姓可以听歌的时间,听歌的时间已经早就到尽头了,所以多了更多的内容不会对生态有太大的变化。
Suno CEO分享时候会说,期待Suno未来能够成为全球10亿人去创作音乐的一种新的体验,他们也在不断迭代自己的产品,这句话我是比较赞同的。首先,我会认为有听歌需求的人,中国13亿人中有8~10亿人。而使用类似Suno这种工具做音乐更像是一种音乐的实践行为,是音乐实践 – 艺术实践其实也是教育部在说的一个词。我们觉得像Suno这种创作音乐的音乐实践体验,应该是大概1/10的全人口所需要的一种未来娱乐体验,所以它可能是一个新的需求,但是它应该不太会影响新的听歌消费,而用AI 创作的这种音乐会在社交关系链上面有更多的传播。此外我个人还会觉得IP化的那些顶流,这些真正的艺术家去做出的作品,他们的价值会变得越来越大。
DeepMusic在做的产品,音乐人可能用的更好一些。我们面对的是1/50全人口,这些人有比较深度的音乐的实践需求,他们可能大多数已经知道了旋律和歌词在一首歌里边意味着人该唱什么、有和弦和段落这样的信息。对于一个创作者来说,它意味着你可以去通过这种信息去控制伴奏。我们希望的是音乐实践者可以把音乐控制到这种级别,所以从整个产品开发的技术路线上和技术栈上看,其实和 Suno是不一样的,包括他们可能用的是AI音频模型去做生成,我们还是在用音乐符号模型去做生成。
我觉得 AI音乐这一波体验,确实可以把大概全人口1/10的这种音乐实践需求满足得很好,并且它一定会不断的提升,也会有更多的技术进步,让这些体验可以更多地嵌入到传统音乐制作的工作流里面。但是我觉得短期还不会对音乐的消费生态有太大的影响,这是我的初步的见解,跟大家分享。
生成式音乐 AI算不算是音乐领域的技术革命?影响力和电子乐器如何比较?
赵易山:其实任何一个行业出现新鲜事儿,不像这次我们面临的这样。我们想这次铺天盖地的AI已经覆盖到我们全生活链条里面,当然更多惊喜的,包括刚才杨樾老师说的视频、图像画面,还有不同人群推荐的文学、戏剧剧情的创作,都是非常令人刮目的。
说到新事物,其实音乐行当里面出现的新事物也是由来已久,非常久远。我们从最早的留声机出现,大家就惊呼:完了,这东西出现了以后,音乐家干什么去,我们就没有人听音乐家了 – 都是近百年以前的事儿了。后来随着很多的事情 CD的出现、 MP3的出现,包括从 CD转到随身播放,甚至专业音乐领域里边制作行当的合成器的出现、电子音乐的出现、模拟和采样的出现,这些都是划时代的,不可想象的,我们怎么可能想象以前会出现这种东西?每一次出现的时候,大家都在惊呼:完了,要失业了。
我好像听到Suno 做的最好听的一首歌,说:“来了来了,AI 来了,音乐家要失业了,没饭吃了……” 但是我看到每个音乐家都在津津有味地听着这首歌,我特别想问问晓光,如果要产生这样一首歌,到底人为要干预多少才能够产生这样的效果?因为我之前也听了大量 AI创作的内容,先不说是音乐还是歌曲了,多数大家都说不尽人意了,对吧?
所以这是一个特别值得思考的问题,主持人的问题特别好。
我作为一个从事音乐教育多年的人,也经历过音乐传播,也经历过很多与传播人和音乐人的沟通。我的观点是这样:一个新鲜事物出来一定是可贵的,因为它一定是通过当下若干技术、和这个时代的前沿思维、以及可实现的生产力,共同把它促成了。它是不是成熟,我们另外说,但是它的出现一定是可喜的。因为我们之前有那么多的例子,它一定是推动某一方面快速成长,面向新社会,面向新人群有好作用的内容,这一定是可喜的。在这个状态下,我们再来讨论到底干什么,我想核心的两个字就是态度,我们以一个什么样的态度来面对它?这个是非常重要的。
翁雷:问题问得都非常好,我的专业是钢琴演奏,但是在这些年我对其他的也很有兴趣,包括科技业的,像音乐科技、数字科技等等。
首先我想说今天的题目,是一个非常好的题目:“AI,是音乐行业的命运交响曲吗?” 我就在想,当我们听到贝多芬创作的《命运交响曲》,或者是贝多芬最后一首交响曲《第九交响曲》,大家都认为已经到了交响曲登峰造极的完美,它的形式、音乐已经写到完美,不可能再更好。但是接下来,还有更多的作曲家 – 当然是踩在前人的、巨人的肩膀上一步一步走下来,从舒伯特到布拉姆斯,到后面的瓦格纳、马勒、柴可夫斯基,他们都有新的音乐语言来讲述。所以交响乐并没有在贝多芬之后就完蛋了,没有。恰恰相反,我觉得很多新的东西在他之后诞生。
我觉得以古典音乐为例,流传了几百年 – 两百年、三百年、甚至四五百年,它都要经历过一个时间的考验,无论是莫扎特,或巴赫、或者更早的巴洛克作曲家。他们同时代还有很多的作曲家、演奏家,他们的作品我相信也是浩如烟海的 – 不说别的乐器,光钢琴作品这辈子再加十个辈子都弹不完,永远都不可能的。但是经过时间的考验后,我们在音乐会上也好,用随身听也好,或者用流媒体也好,甚至还可以听交响乐,为什么?因为这些确实是经典的作品。
我觉得刚才赵老师说的我非常完全同意,我觉得说得非常好,这是一个好的事情,给了大家一个好的工具。当时在计算器出现的时候,可能很多人都觉得它取代了人类的思维,取代用脑力来算吗?完全不是,只是一个工具而已。
那么我们人类过去这么多年里,工具是不停产生的,只要你利用的好,都会为人类的发展、对音乐的发展、艺术的发展有益。那么在大爆发的时代,AI好像生成音乐的速度很快,我也听了一些,但是什么样的作品才可以留得下来?才能真能够触动人心?这种真诚的东西、打动人的东西、我认为还是不会代替人类,包括演奏、创作等。这是我大概的一个想法,抛砖引玉。
从技术科普角度来说,生成式音乐 AI 为什么这么强?它的基本原理是什么?
刘晓光:音乐整个生产的过程中,最开始大概三四十年前,都是在棚里边制作的。这个时候都是通过硬件和录音,音乐的制作成本很高,都要通过卡带去剪辑。
后来在2000年到2010 年之间,主要推动这个行业发展的,其实是苹果公司和雅马哈公司,有了数字音乐工作站。我们把很多这种以往要录制的乐器变成了可以用MIDI加上采样器- MIDI就是数字信号,通过触发各种各样的音源到采样器里面,后来还有了合成器 – 这个时代人们可以通过软件来替代很多硬件去制作音乐了。再之后2.5时代,你可以用AI去生成MIDI,可以在移动端做一些音乐。
那在3.0时代,我们关键要说的是音频模型。音频模型大概有两种开发路线,第一种是直接用音频去训练模型,把几千万首歌放进去训练,然后生成新的音频,把音频和自然语言的模态做对应。而我们在2018年做的时候,用的是信息的开发路线:先从音频里提取出音乐知识,比如歌词、旋律演唱、和弦演奏、用了什么样的乐器、歌曲的段落结构等这些信息,然后用这些信息去做训练模型,再去生成新的音乐符号,再通过传统的音乐制作流,把它渲染成一个新的音频。每个环节的AI技术都对应着一些具体的应用方式。
前一阵看到的MusicLM、MusicGen,还有最近的Suno和 Udio,在我们看来更颠覆性的音频模型的进展来自于是MusicLM和MusicGen。Suno和Udio其实都是在做音频生成音频的产品策略。另外还有通过符号去做的,包括网易的产品,我们的产品还有最近的天工 sky music。
接下来我跟大家主要分享一下像Suno这种音频模型大概是怎么去做的?首先在训练的时候会有这样一个音频。我们可以音乐的音频、以及它里面的歌词、所对应的数据;我们再用人声伴奏分离技术把BGM(背景音乐)和人声进行分离。最终在生成的时候,基于有一个prompt(提示词)输入,Suno 会先在BGM库里面去找到一个 BGM去匹配,再基于输入的歌词,在原始的BGM上叠上人声,最终生成出一个完整的音乐。
刘莫闲:听起来有点像一个演奏家和一个歌唱家在一起配合。
赵易山:音乐这个东西,刚才我说的两个字“态度”太大,我们再说的小一点:对音乐的态度,简单分为音乐人针对音乐的态度,和普通人欣赏音乐的态度。那么刚才说的技术飞跃,划时代的、革新的,我们还是要想一想针对什么人来说,我理解所有前面的时代的革新,所有针对音乐的新事物、新技术、新产品、新思维的革新,都是针对音乐人的,没有一个是针对普通人的。
针对音乐人来说,音乐创作的灵魂是“人是主体”,音乐人会通过他的思想,通过他的学识,通过他对这个技术和音乐的理解、对世界命运共同体的理解,再造出有灵魂的音乐。那么新技术给音乐人提供了若干种可能,所以出现了那么多的好的音乐。
贝多芬时期也是这样,他没有现在的和声器,没有现在的电脑,他甚至都没有自己的可以供跟大家交流的听觉,为什么这么说?他自己有听觉,是他内心听觉,他可以自己听到自己写的东西,他能够在脑子里面有回想出他写谱子。我们学音乐的人都知道,叫内心听觉,我这辈子就研究这事,音乐内心听觉。有内心听觉的人,可以在不出声、别人听不到的情况下,运用他自身灵魂状态下的这种技术,把这样灵魂状态下的音乐制造出来。
当然后来的各方大神,包括电子音乐学、电子音乐家、音乐制作人等一系列的人物,科技为他们提供了无限的可能。刚才晓光说特别好,无论是工作站也好,模拟也好,或者采样也好,什么方式也好,都是为音乐人的灵魂和动作插上了翅膀。
这次的AI到现在为止,我不敢说在座的所有的人以音乐人的角度对它是满意度大概多少,但是我觉得它的方向不是对音乐人,它是对普通人的。就像我们的电脑应用一样,最早你写个东西还要写Basic语言、写代码才能用,后来完全就是点鼠标直接应用。
AI音乐已来,音乐行业如何面对?
有了生成式音乐 AI,真的人人都能创作音乐了吗?创作领域的企业和个人从业者会面临哪些挑战和机会?会出现就业替代问题吗?
杨樾:接着赵老师刚才讲的观点,赵老师觉得因为AI生成音乐好像看起来太简单了,所以它好像更倾向于面对的是普通人,而不是音乐人。我觉得刚才晓光也讲,AI 生成音乐可能实现的是一个大的方向,是10亿人的娱乐。
但是,我们不能忽视它对于职业音乐人的那种帮助和影响。这个就是在过去的两个月内,至少跟不少于30位中国非常有名的歌手、乐队、制作人、创作人交流过,而且甚至不是我主动跟他们交流,他们会跑来跟我交流,因为可能觉得我跑得比较往前,他们就跟我聊聊,可能能了解的更清楚一点。
首先我想讲AI 生成音乐对于职业音乐人到底会有什么样的影响?这些音乐人来问我说:这个东西我能用吗?- 这是一个特别朴素的问题。我说完全能用。为什么这么讲呢?刚才几位老师讲了第一个我完全同意的观点就是AI生产的音乐能不能成为经典,首先它是取决于人-使用的人、创作的人。它只是一个工具,它可能像一个键盘、像一个合成器一样。第二个认同的观点,是在这些音乐生产出来之后,需要让时间去检验它。这两点我完全同意,但是我们不能够默认现有的人写出来的音乐都是好的。
我每年大概要听3000张当年出版的新唱片,我全天都在听音,365天都在听音乐,而且我基本上把精力放在听全新的音乐上。你会发现,实际上人写的音乐也没有都那么好,甚至我们可以说大部分并不好,尤其是中国的音乐,你打开这几个平台,我们华语音乐早就度过了创作的巅峰期了,黄金期早就过了。你也不要假想说人写的就会比AI写得好,没有,很多也成不了经典。
所以当我们看到新音乐作品数量足够大的时候,我们把视角打得更开阔一些 – 我看过一个数据,好像现在全球每年新发行的唱片大概有几百万张,实际上如果用AI生产的话,像Suno这样生产几亿首歌特别容易 – 不管是人用传统方式生产音乐,还是用这种 AI的科技的手段去直接生成音乐,当新音乐作品数量足够多的时候,一定都可以产生非常好的作品,AI也可以,人也可以,这两个是并行的,都不矛盾。
所以我们别觉得AI生成的东西都是来自于前人的积累,然后训练出来的,它一定不会比人写得好。实际上我可以说,现在如果你是一个具有相当音乐知识和技术的人,你去使用Suno这样的工具,生产出来的音乐要超过绝大部分现在每年人创作出来的音乐。我们人写的音乐已经没有那么好了,其实虽然好作品有很多。比如说一年有100万首新歌出来,可能有5万首是非常好的,其他的95万并不好。AI也是这样。AI生产1亿首歌,里面也能有5万首特别好的,这个比例也许低于人,甚至还有可能高于人。
我跟那些音乐家创作者在讲AI怎么用的时候,我说特别简单:AI可以启发你的创作。当你想要一个风格的东西,但是在脑子里面憋不出来的时候 – 每一个创作者都有这样的困境 – 这个时候你用AI写一个东西,它可能给你一个动机,它中间有几段旋律的组合是能够触动你,你都可以拿出来用。灵感并不是说它是生产一首歌,你去发行,那不需要你发行。
我甚至在一个20天以前,我跟中国非常有名的一支摇滚乐队开了个会,我跟他们沟通,我说我们一起来做一张纯AI的作品,歌词音乐全部用 AI来做,但是不是 AI写完了,就直接拿去用了。我说最起码像传统的乐队一样,把谱子扒出来、重新编曲、补中间的过门、补头和尾巴。你自己要演奏,你以后要拿这些歌去演出的,你总得自己录一遍,你自己的编曲人要帮你重新编一遍,这不就是一个对AI的利用吗?我们用AI写10首歌出来,挑每一个动机、每一个创作的方向,你来确定,我来操作 AI生成。一首歌生成10版,选出一版最合适,然后基于这首歌我们把它给做完整,这是传统音乐人用传统方式要去干的活。所以我说AI 生成音乐对传统音乐人其实是有帮助的,而且会变成一个利器。
之前有媒体采访我说,你跟很多音乐人交流过 AI的使用,大家都是什么态度?我说基本上音乐圈是4种态度:第一种,完全拒绝,非常憎恶,非常愤怒。而且他讲不出别的来,就讲它在偷我们的成果;第二种,观望,这是大多数。既不拒绝也没有行动,也没有拥抱,只是很好奇,出来什么他也会关注, AI做的歌他也听,这是大部分人;第三种,是全力地去拥抱。跟得非常紧,出什么新工具,我都想试试。第四种 – 我觉得这个数量不好统计 – 其实他早就已经在用 AI 做音乐了,他的歌、他给别人写的配乐、他给影视剧写的配乐、他给歌手写的歌,早就是AI写的了。但是他不说,词曲编全是他。我觉得不光是中国这样,全世界的唱片行业那么大,一定有非常多的音乐人在这么干,但是大家不说,词也是我曲也是我,其实都是AI,写得挺好。
你说音乐人用不上AI吗?每周五是Apple Music发布新唱片、当周上新的日子,每周要上几千张上万张新唱片,你根本不知道里边哪首歌是AI写的。所以实际上行业已经在用AI了,我绝对相信很多人在用了,不用才是傻瓜,干嘛不用?用了,他也不告诉你。
比如说我要帮翁老师写写首钢琴曲,刚才翁老师回避了那个问题,问愿不愿意弹AI写的曲子。我用AI写一个,然后用打谱软件把钢琴谱打出来,再找个很厉害的人重新归置一下,再编一下。甚至我跟你合作,你来改,做好后我说这是你写的,你也就弹了 – 我不说这是Suno写的。这有什么区别?没有区别。
所以,我觉得AI生成音乐其实不只是对10亿人的一个娱乐应用,它应该是像我们刚才赵老师讲的 – 像历史上的每一次音乐工具的变革,传播介质的变革一样,它其实可以推动传统音乐人在做音乐上的进步。当然不是我们从此就依赖这个东西了,它是我们的无数个工具当中的一个新的工具,我一直是这么理解的。
赵易山:好比做饺子的时候,是自己动手和面还是用饺子机和面?饺子是结果。
翁雷:顺便说一下,我刚才不是故意回避这个问题,而是确实没来得及忘记回。
赵易山:没关系,AI 生成你能看清楚的谱子还要很久。这也不是一个简单的事情,对于电脑来说。因为是我搞过出版,自动生成出版级别的乐谱,现在还是世界上一个难题。
翁雷:我是完全不排斥,不完全不排斥。
杨樾:其实我身边有很多朋友在 Suno 出现之后特别兴奋,他们写了好多歌,每天写上百首,但实际上我没有写很多。后边我们可能会聊到你拿AI做音乐的目的是什么,它的使用场景是什么?假设我是一个普通人,我做了这个音乐干嘛用?我其实没有想特别清楚我拿它干什么用,所以我没有写很多。
但是我每一首写的都特别的仔细,我每一首歌的提示词写的都非常复杂,我会想很久这首歌我在里面要用什么乐器,它的速度是什么,它是什么调的,我都要写出来。所以我觉得我生成音乐的成功率还是比较高的,大部分还是比较好听。你给它描述的越精确,它出来的东西越好。
大家现在听到的这首歌,是4月1号那天,那是张国荣去世21周年,当时我在澳洲,白天大家又开始纪念他,我就想我能不能拿这个 AI来做一首纪念张国荣的歌。这就是一个特别实际的应用场景,而不是说我为了要去测试什么,而是当我们真的有应用场景的时候,它是不是能够迅速的满足我们的需求,我想的是这件事儿。
我当时就马上用GPT写了一版歌词,我的要求就是要写纪念张国荣的歌,写一首传统的、香港的、粤语的、八九十年代风格的、很伤情的歌,它就写出来了。写出来后,我拿去给Suno唱,发现唱出来不是粤语。我希望他唱粤语,后来我试了好多次,我发现都不对。我又回到GPT里边说:把这个歌词改成粤语的文字。它就重新给我跑了一遍,这个贴过去(把新的歌词给 Suno 唱),就是我们现在听到的这首歌。而且我只出了这一版,我就觉得非常好听,我很喜欢这首歌,我马上就把它补全。之后,我马上还给它画了一个MV,当天我就发出来了。
我觉得感受是,当我们有一个应用场景需求的时候,它(AI)马上能用最快的速度、最低的成本来给我们解决这个需求。
刘莫闲:我记得您当时还跟我说您肝了一晚上对吧?
杨樾:MV 花的时间比较长,生成歌5秒钟就干完了。
刘晓光:说实话挺牛的,还是很颠覆性的进展。
我觉得就像这样的音乐,不是没有市场价值的,因为在流媒体平台能获得收益的音乐其实有两部分,第一种叫IP化音乐,第二种叫非IP化音乐。其实非IP化音乐很多都是你不知道是谁唱的,但是这个歌是你会听的。歌火了,但是不知道是哪个歌手唱的。这样的歌曲其实在不断的迭代,其实每年也拿到了很多比例的播放占比分成的。
我觉得 AI技术的发展,现在是像杨老师是把一首歌的整体提示词输进去,以后一定是你能够每一句再单独修改,甚至自己上传一个BGM(背景音乐),对 BGM做进一步控制。这些都是应该在1~2年内就可以实现的,并且音质还会有大幅度的提高。所以我觉得未来的1~2年内,音乐的生产流中会有很多的音乐人开始借助AI去找寻灵感,然后他们会用传统的音乐工作流,把听到的东西再修改,改成一个你认为更好的版本,然后去做发行。但是这个事儿有可能在两年之后就会变成:你不需要传统工作流了,就能出来一个大致满意的作品了。像这样的作品,我觉得大概率和IP化的内容还没有太大的关系,但是非IP化的作品会有很多是这样生产出来的。
我觉得从技术上不得不去说的是 – 虽然人可以一句一句的去修改的更好 – 但是从技术角度讲,你端到端去寻找一个最优解,一定比你修改的会更好听。也许到那一天,有很多不用人做任何干预而生成的一些音乐出来,还会有人听,它应该会比有人参与所形成的非IP化音乐效果更好,并且这个事情2~3年应该会实现。
翁雷:何止是音乐,这种冲击两三年、一两年就更新一代,这个可以把过去100年的东西压缩到一两年,这种速度,机器的速度。
我第一次知道ChatGPT的时候,我记得很清楚,在23年年初,我在从机场到音乐会场地的路上,我有一个很喜欢听的播客(Podcast),一边听一边很震惊,然后回来马上就去尝试。那是一年以前,播客就说一年以后,会有很多你们都不会相信的事情会发生,但是就会发生。
今年我已经发现有些事情在发生,可以说很简单的指令,无论是做研究还是生成产品,他们可能确实做得比人还要好。或者说在国外有很多研究,包括写论文、职场、音乐,包括很多已经分不出来了,分不出来谁做的,完全分不出来。
而音乐我觉得最终还是人和人的交流,刚才赵老师也说到这种灵魂上的东西,让我们Stay ahead of machine (保持比机器更领先)。而机器一直在学习,将来也许有一天真的像电影里面,我们已经被机器学到,他们可以跟我们一样有自主意识,有情感,那就很可怕了。
杨樾:很快的,AI的涌现,没准两三年就实现了。
翁雷:对,他们会有一个质的、临界点的跨越。我记得很多年前我在看AI 在国际围棋、围棋对决中就是赢了韩国的李世石等等。最早是赢了国际象棋,国际象棋的可能性比围棋要少很多,围棋的复杂性更是几何倍数的增长。然而不久以后,AI不仅赢了韩国的选手,而且最后基本上是降维打击,人根本就不可能赢它。后来,国外用AI来学习什么呢?一个车企,他们放弃用激光传感数据来学习,而是用摄像头,用摄像头获取数据,再到一个机器大脑,让机器大脑来学习。
那人类至少在目前还可以领先机器一点的,就是我们真正的情感,我觉得杨老师提到了,我看你写东西是用心血来写,一个晚上,这个是机器没有办法做到。你第一次听机器的音乐会有一个第一印象,你会觉得很愉悦,会觉得挺好听的,但是我怀疑这种音乐你再听个三五遍,恐怕……就像几十年前的老歌,我现在还在听,我真觉得我还会掉眼泪,如果触景生情的话。我觉得在人和人的交流方面,即使机器它迭代再快,它只是更接近我们,还是有一个逐渐缩小的差距。
而作为人,我觉得我们应该不断学习来实现自我的提升、意识的提升、或者想法的提升,这样才能够领先。
杨樾:对,刚才我觉得翁老师讲的一点特别重要,他说这些歌很好听,但是你猛一听很好,可能你再听几次、再听几首,你就慢慢没有感觉了。
其实今天下午咱们在群里准备直播的时候,我脑子里就蹦出一句话来,腾讯举办这次沙龙的时机比较合适,没有在Suno 等AI音乐起来的最热点、最热乎的时候去做直播。
因为在两个月以前,我就在想一定要让子弹再飞一会儿,过一段时间看看,还有多少人真的去关心AI的音乐。那些自己完全没有任何乐理知识的人,平时他一年可能一首歌也不听的人,他在一个星期里边做了几百首歌,自己好像很开心,然后给自己的同事听,给自己的亲戚听,家族群里天天在不停的发歌,发朋友圈。之后呢?它很快会过去,不只是它没有应用场景,更重要是现在Suno做的音乐确实存在这个问题,它太好听了,但是它又没有让你就是能够刻骨铭心的东西。
尽管我说我写那些歌时写的很仔细,我觉得做出来的质量也很高,甚至是高于很多现在的华语流行音乐的这些创作者新的作品,但是我也并没有想天天去听我写的那些歌,这不就是问题吗?
这个事一定要再跑一段时间。我是这么想的:我从一开始就不觉得现在的 AI音乐生产出来的品质,适合马上去生成音乐成品,进入到唱片市场。尽管我这么拥抱、这么支持他,我也没觉得这个东西是用来做唱片的。我刚才讲一个应用,是启发音乐人的创作灵感,辅助我们的创作。
另一方面,AI音乐在现阶段,尤其是Suno这种高速的生产工具,很适合去做功能性的产品。我之前考虑过几个场景:一个是公共场所的BGM(背景音乐)。比如说大卖场、麦当劳也好、麦德龙也好、等等,这种卖场或者大超市每年需要花很多钱买BGM,实际上在这些场景里商家完全可以根据用户情绪,人们节假日的需求,在整个商业集团里只找一个专职人员,操作音乐 AI 生成大量音乐,就可以满足需要了。这样的商家需求非常多,而且这种方法比买版权更实际,针对性也更强。我觉得这种音乐适合使用 AI 去批量生成;还有,就是一些初级的配乐,比如说影视剧当中的非主旋律部分的配乐让AI跑一点出来,稍微改一下就能用。游戏当中的一些场景性的配乐,都可以用AI来写。我认识的专门给游戏做音乐的公司,这几个月特别兴奋,他们的产量特别高,开始用AI去写,然后改一改就做好了。尤其是说,创作者只是给一个游戏当中的场景写15-20秒的配乐,也不是一件容易的事,但是用AI生成就会变得很简单。
所以我们还是用发展的眼光来看,现阶段AI 生成音乐还是有一些很实际的用途,比如BGM 、影视和游戏的初级配乐。还有一点,就是刚才晓光讲的 IP化的音乐。比如说一些热歌、网红歌,实际上它们的创作者都是按照规律来写的,大家从里边找到了一些发财的密码,然后不断的去复制它 – 这其实是人在干AI的事儿。这些密码好比是人倒推出来的算法,那用AI根据这些算法去生成音乐要比人的效率高多了。所以如果很多人还是喜欢那些没有什么品质,但是很好听、受众最广的、短视频中容易流行起来的音乐,我觉得用AI来写挺好的,甚至可能写得比人好,还有可能进一步提高这些短视频平台的背景音乐的整体审美,这个是有可能的。
是否能分辨人创作的音乐和 AI 创作的音乐?如何让人们在 AI 音乐时代听到更好的音乐?
赵易山:其实从我的角度,我没有这样的能力能够听出谁是AI,谁是人,这个是没有办法的。就像刚才杨老师说的,我个人认为一个好的作品一定是经过人的加工的,没有人的干预,你得靠机器生成的这种东西,在我的概念当中它不叫音乐,我们老说音乐是听觉的艺术,我们不能说它是一个声音的艺术,声音和音乐还是有本质的区别的。
但是有一个核心的问题,我还是特别有感慨,刚才杨老师说的研究院做这次论坛的事,我刚开始也很奇怪,我说为什么从研究院开始关心音乐上的事了?后来一看是AI+音乐,这确实有关系了。
从我个人的角度来说,我特别惊奇,而且这有一个很大的愿望,无论谁爱音乐也好,还是什么音乐也好,它一定是音乐而不是声音。无论他是用电脑也好,AI技术也好,或者什么技术也好,它生成的一定是往音乐方向,而不是声音方向。
声音它是有功能性划分。我概念当中的音乐一定是经过无论是谁打底子、谁来做工具、谁来借助我们从来没用过的素材、谁来给我们灵感…所有这些努力加在一起生成的或者说创作出来的,一定是无论音乐人还是普通听众,能够公认好的音乐,它才能够得以生存,或者流传下去。这个是核心。所以我想AI也好,非AI也好、或者普通人也好,音乐人也好,大家的目标应该是一致的。
普通人就抱着一个很简单的心态:好听、跟我的场景需要相合适 – 我今天跟女朋友去逛街了,或者她过生日,我送她一个我自己创作的音乐,我听着好,她听着高兴,OK了。
而音乐人来说,在一些特定场景,无论是张国荣的特定的日子,还是重大活动,你在用 AI 创作时,无论在音乐方面、文字方面写入多少的要求条件和限制,我觉得一定还是过不了关。更甭提它是否是含有灵魂的音乐了。所以说工具不重要,人重要,产生出来的结果是音乐才重要。
刘莫闲:所以说音乐从业者的使命将会被升华,从制作角度、到品鉴、或者说加入灵魂方面工作量可能会提高。
赵易山:只有这样才有共鸣,要不然就像刚才杨老师说的,每年全世界的音乐太多了,估计百万的音乐,真正能够留存下来,或者能够被筛选出来的,确实是太少了。
我们这些AI技术在做训练的时候,它有没有可能识别出这个音乐里面的情感?因为音乐是有情感的,AI能不能识别音乐里面的这种情感?
刘晓光:这个事儿有相关研究,但还没有说能够落地,不过我觉得是有大的方向的。
首先,为什么说AI很难理解音乐里的情感,是因为音乐我们都讲是三度创作,其中第三度创作就是不同的人在听到不同的创作和不同的表演的时候,自己感受到的东西是不一样的。对,但是像这种不一样,也是在大数据的基础上也有可能会能够识别出来。然后,很久以后的一个终局我理解会是这样:那时候应该有脑机接口了,技术可以从你的脑电波中识别情绪的一些标签。假设我们有一个方法是让一堆人带着脑电接口听歌,然后我把音乐的音频和刚才采集到的脑电波数据对位,而后脑电波数据又可以和自然语言情绪标签对位。接着,音乐制作中又有一个技术叫MIR(音乐信息提取),你可以把音频里面的知识、用了什么样的和弦、什么样的旋律在于刚才的数据对位。最终,不同的人听到一首歌共同的情感、和这首歌的音频、以及和这首歌运用的音乐知识都能对位起来,这件事在技术上是可以实现的。
所以我觉得最终应该是:你想要一个什么样的情感,应该可以推导出用什么样的音乐知识。应该还可以做的事情,就是用音乐知识控制听众的情感。我让你悲伤,我让你快乐,我能在你痛苦的时候变得快乐,应该通过某些音乐知识就能够引导你变得快乐,我觉得这些事儿应该是未来可以达到的。
赵易山:其实那会儿就不用音乐知识,我觉得,就直接使用脑机接口变得快乐就好了,跟音乐和知识都没关系了。
刘晓光:对没错。
翁雷:现在购物已经通过听音乐的大数据来引导你来购物了。
杨樾:什么样的音频让人听着有更高的付费转化率?电子多巴胺。
生成式音乐 AI会对音乐服务和产业有哪些影响?能够类比 Apple Music的出现吗?音乐分发和消费模式会因此有哪些可能的变化?
刘莫闲:对,你看实际上讨论到这,我觉得真的就是商机无限。我觉得各位老师也可以谈一谈,关于商业模式。因为很多时候技术层面好像看起来很平淡无奇,但是它真的就是悄然的去撬动了一种新的商业模式,从另外一个维度去影响了一个行业:比如说我们之前所碰到、很典型的电子支付,好像也没什么复杂的,银行一直在用它,只不过没有用在手机上。又比如像苹果的这种数字版权,它的 Apple music整个的基于iPod终端的体系建设。苹果不是音乐行业的人,但是他一点点小的技术的革新就会让商业模式有变化。各位可不可以谈一谈商业模式上有哪些潜在的一些可能性?
刘晓光:我能回答这事,我已经想了5年了,我给出一个结论叫:AI可能对音乐的大生态没有太大的影响。
首先,从最简单的宏观经济学上就可以分析完毕,供需关系就可以决定了:音乐创作供远大于求,而音乐行业就是一个注意力经济的行业。怎么把一首歌推火,怎么把IP打造起来,这个事更重要,而每一首歌的生产成本不是特别重要,关键是你把每一首歌生产到极致,并且它还要有好的推广资源。这个时候你在生产端有一个更大的演变,对行业没有太大的影响;
其次,这些AI生产的新内容,对消费端产生新的用户消费场景影响不大,场景没有变多。所以全世界的以数字音乐听歌需求为核心的生态应该是不会变化的。
然后,可能会有一个新的、没有那么大规模的生态,就是音乐实践领域,可能会有变化。因为AI确实满足了很多人的需求,并且可以持续,甚至AI给这些音乐实践者变成音乐人提供了通路。不过这件事情到底能收上来多少钱,我们也在探索,Suno可能也在探索。第一波其实大家都是在看你能否做出一个好的工具,能否达到好的留存,大家愿意用,然后有一些功能大家愿意为你付费,进而给你付出了超过你服务器成本的费用,你能赚到一些钱。这是目前大家都在探索的第一阶段的商业模式,我们觉得这个场景跑通是问题不大的,因为现在很多体验已经达到大家愿意付费的水平了,并且规模也是足够撑起一个百人的创业公司的。
换另一个角度看,AI生成音乐最终还是一个软件产品,而互联网变现模式就五种:工具付费、直播打赏电商、广告,还有两个是教育、游戏。我觉得往后在音乐领域,AI 和教育产品、和游戏产品结合起来会有非常大的机会,这是我的见解。
教育结合方面,我估计我跟赵老师会有非常多的共同语言,因为我自己也当时做过音基的培训,教4/3拍,以4分音符为一拍每小节有 3 拍,然后大家打拍痛苦死了。而后来会发现你让孩子们听20遍生日快乐歌,4/3拍都会了。所以音乐教育领域,AI一定会在这种教学方式的改进方面有大的机会。
游戏结合方面,可能过去20年音乐游戏都是节奏大师那种节奏型的游戏,但是如果把音乐的各种交互体验和当前很火的RPG、MMRPG等等这类游戏结合起来,游戏这块有非常大的机会。
此外,眼前还能看到的机会和模式,就是如果你能够做一个一站式的、把音乐做出来的平台工具,并有一堆用户在这儿生产出内容,你就像一个唱片公司,然后可以拿一部分版权结算的抽成。但是这还是在当前整个音乐行业生态里切出来的一部分,是存量博弈。
总而言之,存量市场的商业机会,就是工具变现和类似唱片公司的模式;而增量市场部分我觉得在教育和游戏。
杨樾:我首先完全同意晓光刚才讲的,我也不认为AI对现有音乐产业、唱片产业会产生什么实质的影响,甚至影响不会很大的。可能大家会去尝试一下,辅助一下,但是并不会有特别大的变化。另外我也觉得增量市场不会很大,应该说甚至是非常小,现在可见的是非常小。
但是,我们说一个生意,要么你开源,如果开源不了,节流也是赚钱。我其实这几个月想的更多的是,从节流的角度来看这个生意 – 因为我也看不到它开源的空间有多大。像我刚才讲的,大卖场里那种版权的售卖,依然是有限的,但是那也是一种节流,而不是一个开源。它帮助企业省了钱,企业的利润增加了。
进一步我想说,现在我们要把全系列AI组合在一起去想,它是可以变成一个高度自动化的媒体工作流。我讲一个具体的例子:我最近一直在想,我们有了像Suno这样的工具,如果它再迭代的更成熟一点,能够把歌的收尾做的更完整一点,那我们就可以实现100%自动化的电台音乐编排了。
大家不要觉得好像Radio这个东西是过时的,实际上人类对听觉、对Radio的需求是永恒的,这种需求甚至远远超过电视。今天的年轻人你可以完全不看电视,但是完全离开声音媒介的人是几乎没有的。所以我们想做一个很简单的事情,就是做一个纯AI的电台。这个电台我先用人工智能模仿人的声音做8个DJ出来,然后DJ讲的所有内容,可以自动的在网上抓取最新的新闻,接着编辑它要讲的话,要讲资讯也好,讲知识也好,讲音乐。或者如果一个电台全部都是音乐,它中间所放的所有音乐都可以是AI生成的,而且是根据当时用户的情绪需求去生成音乐,根据大数据统计出来每一个时间段,它的电台受众群体需要什么样的音乐,即时的去生成。这整个工作流其实现在就可以跑通,都已经不需要等什么,就是一个完全的 AI的电台,这不就诞生了吗?
而这个电台它没有人,不就是省钱了吗?如果说电台主要的成本是人工和电费,那现在就只剩电费成本了。如果可以有若干个这样的电台出来,这就是一个媒体的矩阵,这里面你可以做的事情很多了。
我们其实可以用 AI生成音乐这样的工具跟其他的工具协作,创造出一种完全新型的人工智能媒体。在媒体当中,其实又可以融合晓光刚才讲的几种互联网的盈利模式,。用户似乎听的是一个传统电台,但其实一个人也没有,全天都在自动跑,没有人上班,那电台无论赚多少钱,就都是你的净利润。
这也是一个场景,在极度降低成本和提高效率的情况下,看到一种新的商业模式,这就是我想到的一个例子,做一个AI电台。
翁雷:我在一边听一边想,我想说两个层面,一个是我在想的,商业上会不会就像其他一些行业,大家大家一窝蜂的搞这个,形成内卷?当然如果有抢占先机的一些站在时代风口的浪头上的企业,我相信做大的话,肯定是可以有很大的市场先机。但是恐怕在将来做的人多了,那么或者都当老板,最后老板多了公司也多,最后还是要淘汰。
那么我在想一个词,就是电影行业里的叫座又叫好。有的电影它可以拍到又叫好又叫座,比如Christopher Nolan拍的《星际穿越》、再早些的《国王的演讲》、以及《阿甘正传》。这些经典的电影,拍得专业水平很高,广受大众喜爱。我觉得即使是 AI 的时代,音乐行业也应该多一些这样的经典作品,能打动人的作品。有好的经典作品,就会有好的市场。
赵易山:从我个人的角度,我反对提AI音乐这个概念。因为音乐就是音乐,至于用什么来做的,AI也好,BI也好,CI也好,不知道以后会出现什么,但是我们的结果是音乐,刚才说了有普通人娱乐的音乐,也有经典的音乐家和不朽的作品,从一个教育的角度来说,我还是比较推崇经典的作品,传世的东西。
刚才晓光提到了,我本来想接着他后面说,教育模式上AI是起了非常大的作用。刚才你说到你特别喜欢有故事的音乐,从我们教育角度来说,就是借力使力,借力打力,就是用文字来讲述音乐,更多的人能够理解。这就是歌的歌曲的诞生。
很多人喜欢歌曲并不是喜欢音乐,是喜欢歌词,因为歌词跟他的情绪所契合。当然更升华一步就是故事。像刚才杨老师讲的故事:我借助我的情绪,对张国荣经典的特定时间的这种纪念表达我个人的东西,那么广大的哥哥的歌迷们就会被感动,因为他投入进去了。这是非常重要的,但是我想说的是什么? AI的时代,它不单单使音乐立体化,它让所有的手段都可以跟音乐相结合。
比如我们说音乐是听觉的艺术,现在又加入了看,无论是刚才的表演也好,MV也好。还有动,肢体的语言跟舞蹈的结合。当然还有跟语言的结合,或者嗅觉等其他的结合。所有的这些内容,剧情、文字、场景、色彩、戏剧化的冲突,它跟音乐所结合成密不可分的整体。那么这个整体在教育领域里,能够快速的、丰富的、立体的、跨越很多障碍和传统步骤,帮你达到你需要教育的目标。或者简单说,让你理解一段音乐是什么。
举一个最简单的例子:我们通过看辛德勒名单的电影,最终记住的不是辛德勒做的这件事情,而是帕尔曼拉出来的、沁人心肺的那段小提琴的乐曲。当你再一次在不同的音乐会场景,听到帕尔曼或者另外一个人拉这个乐曲的时候,你自然而然会回到那样的场景,体会这段音乐的精髓在哪里。那么不是所有的音乐片段,它都能有这样的故事、这样的场景,但 AI应该可以做到。这是被动地传授给受教育者的。
当然还可以反过来,AI 来挖掘、捕捉和吸收被教育者的动态,能够测试到他真真正正的变化。比方说一个孩子,他的音乐感觉好,你说你从什么地方来判断呢?像我们翁雷教授钢琴的时候,孩子往钢琴旁一坐,弹两个音,他就知道这孩子音乐感觉好不好,有没有可培养的前途。这是他的经验,那么我就不行,但AI可以做到。假定我们在中小学的音乐教室里面,通过音乐的干预,通过刚才那样综合性的干预,能够通过每个孩子的面部变化,肢体变化,甚至眉丝上的一点点的变等等,我们可可捕捉到的跟音乐相关的或者跟艺术大概念相关的这些变化,进而能够判断一个孩子感觉的成长,艺术感觉的培养,那将是一个多么伟大的事情,非常了不起。
在座的老师都参加过若干的评奖,国际型的大比赛,若干水平、不同层次和种类的比赛,但现在最大诟病的,就是所有的艺术比赛都是人为的,都是以个体为主体来判断。因为没办法,我就认为他好,你认为他不好;我认为他这点好,你认为他那点好……我想在不久的将来,这些问题都是可以通过AI来解决,因为它已经进化到了刚才晓光说的脑电波,杨老师说的对细节的补充,还有翁雷老师说的对艺术的最细微情感变化的表达,只有AI能做到。
杨樾:我最本行就是做音乐的传播,做了将近30年传播,音乐是我最重要的工作。我觉得不管是人做的音乐,还是AI做的音乐,最后还是像刚才晓光讲的,其实还是传播决定它是否会被更多的人听到,而不是拿什么做的。有多少的传播很广的歌不是最好的歌。我们就说纯当代音乐,最近40年全球的音乐,它是传播决定一切,而不是生产决定一切。
所以在这件事上,我觉得既然我们要用发展的眼光去看待AI音乐,其实在传播也是一样,我们不能够用传统的传播思维模式去设想AI音乐的传播,在AI时代一定有AI时代的传播模式。至于这个模式,我觉得现在还没有完全建立起来,他可能需要全球的各种媒介也好,科学家也好,AI公司也好,包括受众也好,一起协力推动出来的一个结果。虽然这个结果我现在是不可能描述的,但是我坚信AI音乐的传播,它是否能够被广为流传,要决定于AI时代的传播模式,而不是我们在套用传统的想法 – 因为这首歌好,所以这首歌成为了经典被传承下去了 – 已经不是这么回事了。
我记得前年2022年,我在做一个短视频研究,当时说要探讨一个话题:为什么很多人觉得今天的音乐不如以前的好听了,为什么觉得现在的音乐很难成为经典?
我当时就在讲,实际上经典这两个字是个伪概念,对当代流行音乐来讲,摇滚音乐来讲,经典是个伪概念,为什么?第一,在你听老歌的年代,你根本没有别的娱乐方式,今天是无数的娱乐方式抢占了你听音乐的时间。想想我们80年代90年代,我们没有别的可玩的,听音乐是我们最美好的一个娱乐方式。包括读书,今天的人也不读书了,你可玩的东西实在太多了。所以,你留给音乐的时间变得特别少,被压缩掉了,这是其一。其二,还是回到传播的本质。在上一个时代,在移动互联网到来之前的音乐时代,是一个高度中心化的时代,中国人也好,美国人也好,听到的每一首歌是从收音机里听到的,从电台听到的。这是我们传播音乐最重要的一个媒介渠道。很多人忽视了这一点,然后去讲那个时候的音乐整体的音乐水平比现在高。我是不承认这一点的,我相信新的、更先进的音乐制作手段,创作理念一定比以前更好,这才是对的。所以我相信,今天的音乐应该比以前的好才对。
可是为什么大家会感觉,现在的好歌没有以前好?回到中心化传播这个问题上,当年大家听到的每一首歌都是被我们DJ筛过的,我听了多少烂歌都没有播给你听。我每天收到多少打榜碟,多少小样。如果我都给你播,你就不觉得那个时候好了。DJ是干什么的?DJ就是筛选音乐的人,是买手。我们靠自己的经验,靠我们的审美,挑出我们认为好的歌给你听,你听到的全是好歌,所以你觉得那时候歌特好。其实那个时候很多歌的质量也不尽人意,因为制作和创作水平低的人比现在多,而且辅助手段也少。所以不是说以前的音乐比现在更经典,以前的音乐比现在更好。是这几个原因,第一是时间的分配问题,娱乐多元化问题。第二个就是我们的筛选机制,传播机制从绝对中心化变成了绝对的去中心化。
每天有十几万首歌上QQ音乐、网易云音乐,上Apple Music,其实你根本不知道怎么选,因为所有歌都摆在那儿,不同创作水平的歌都摆在那,然后把真正的好歌稀释掉了,你可能根本发现不了,都沉默了。然后什么歌被大家记住?是被传播起来的那些歌,这有可能跟品质已经毫无关系了。
所以我们也要想的是,AI时代创作出来的音乐一定有很多好的音乐,但是也会受到传播的影响。比方说我写张国荣这个歌,我想放在张国荣去世这一天放这首歌,当然对它的传播是有帮助的,我今天放这首歌出来就没用了。这是不是也是一个我要卡那个点?可是回到传统的传播观念,这么做其实没有帮助这首歌红,这首歌没有红,可能在视频号里边有几百个点赞不错了,大概有个两三万观看量,仅此而已。我觉得这首歌不错,它也没红,而我也不知道该怎么让它更红了。如果我不投入成本的话,我不去推广它的话就这样了。
所以我觉得AI时代我们要想的是,会不会产生一些新的传播机制、遴选机制,从海量的、比人创作的音乐更海量几个数量级的音乐能够筛出来好的音乐。而从这里边筛出好音乐就不能靠DJ了,DJ也听不了这么多音乐,还得靠AI去筛,筛好的出来给大家听。AI时代的事儿,要用AI的方式去解决,我觉得是这样。
AI时代我们要怎么听音乐,学音乐?
在AI的时代,我们应该怎么更好地去学音乐?孩子的父母们应该做些什么?
刘莫闲:我们今天谈到的,首先,是 AI作为一种工具,它的影响力有多大,它有多强,但我们最终还是回归到了人,怎么帮助我们做音乐的人能够更认真的去做音乐,怎么帮怎么用这些 AI的这些工具去做好,更好的去做好音乐的教育,以及如何通过更好的传播方式、更高效的筛选方式,能够把更优秀的音乐奉献给我们广大的听众。第二,今天各位老师也极大的给了我们行业和大众信心,AI技术应该能更好的去辅助我们的音乐传播者,以及广大的听众去听到更好的音乐,去获得更好的身心愉悦,乃至是内心的力量。这里特别感谢各位。
最后,我想也请各位老师给我们在线的很多父母,这些培养孩子学音乐的父母一些小小的建议,在AI的时代我们应该怎么更好的去学音乐。
杨樾:因为我同时还在做亲子育儿,我被很多家长问过,怎么教孩子启蒙他们学乐器?怎么让孩子开始爱上音乐、学音乐?我说学音乐最好的方式就是听音乐。这个世界不需要那么多音乐家,不需要那么多人去当乐手,去当钢琴家,因为这是特别高贵的、人类金字塔尖上的职业,我觉得它不需要那么多人。但是我们每个人都应该热爱音乐,而触摸音乐最好的方式就是让孩子大量听音乐,而不是练琴。
我真的希望中国家长想明白这件事,有多少琴童根本就不爱音乐,甚至痛恨音乐,不要搞到那个份上。他每天可能有三个小时练琴,那一年两张新唱片都没听过,学这种音乐有什么用?
如果你一年听上100张、200张全世界各种风格流派的音乐、新唱片,对一个人的内心的补充是有多么巨大!一周只需要听两张新唱片。我真的是希望家长们让孩子们更多的去听音乐,而不是演奏音乐。
赵易山:又是一个沉重的话题,当然我还是有个小建议,现在提到教育实际上是一种时间的争夺,刚才杨老师说了,现在的可做的事情太多,凡是跟教育相关的就是时间的争夺,音乐在这种争夺里面是处于劣势。当然从我们研究音乐的人的角度讲,音乐对一个人格的培养是非常重要的。AI时代的来临,我更建议如果要是能够用AI解决时间的问题的话,那么让孩子去想办法学AI。音乐是必不可少的,只是时间问题。还有一个需要强调的是,我特别希望每一个孩子不单单听唱片,不单单听耳机,要去听现场音乐,这个是一个综合的立体的,他可以听、看、动、闻等参与,以及礼仪、性格、人品、尊重、交流、共情,都可以在一现场音乐会里面感受到。这是音乐的真谛,所以学 AI节省出时间来去现场听音乐,这是我的建议。
翁雷:刚刚赵老师讲到现场音乐会,我不以演奏者的角度来讲,我想先说我自己听音乐会的感受,或者带我孩子去听音乐会的感受。
刚才赵老师说的太全面了,而且在现场音乐会里的声音,花多少钱的立体音响也达不到现场的效果 – 哪怕音乐厅的音响不是最好的,但是现场音乐会你听到的真实的声音,有的人说他可以听到一声音的震动,确实是,如果音乐会是交响乐的话,或者有打击乐很有力的片段,震撼是物理化的,身体会被震撼到。
我记得我听伦敦交响乐团和合唱团那场亨德尔的《弥赛亚》音乐会,第一个音是合唱团一出来,确实人会被融化掉。如果AI音乐能做到这种程度,我就彻底服了。
我觉得在孩子的人生规划上,音乐是一个部分,我是这样想的,因为我两个孩子也都学过一些音乐,但是我完全不强迫。他们开始其实是用音乐律动课开始的,因为孩子谁会坐得住,让一个孩子坐在那里学习练琴,还不如去听东西。
当你让他们接触音乐,你就会发现每个孩子都不一样,你不能强迫这种爱动的孩子去光找音准,像小提琴就要很久的调音准,或者是比如说我的老二他比较爱动,我们就送他去学打击乐,他高兴得不得了,他在那里不停的动敲,老大比较静,就让他去学钢琴,但是应该就是学着玩。我自己学音乐,我受益良多,当然也知道其中的辛苦,所以我跟孩子们会讲到有意思的东西和很辛苦的东西。
对普通家长来讲,确实人生规划要站的稍微高一点,不要太为眼前,为功利或者为了升学,当然这个很重要,但是如果太过于强调这个,就像杨老师刚才讲,孩子就不仅是不爱音乐,他会讨厌音乐。我听到过孩子讲,将来不学琴之后我要把钢琴砸了,这是比较极端的,但是这是真的,我听到过孩子这么讲。我觉得这太可怕了。
让他们爱音乐,喜爱音乐,喜爱的风格可以完全不一样,不要训练一匹千里马去学游泳,他的长处不在这里,你何必去强迫,也许他将来学数理化可能超过更好,就不要去逼他学音乐。
但是音乐确实可以让人得到了很多人生的体验、情感,或者说音乐演奏上面其实是理性感性,甚至是说不清楚的东西混在一起。所以家长们给孩子人生规划的话,音乐是一个很重要的一部分,不要当做目的,当做一个过程好了。
那么小的孩子,他不知道自己会喜欢什么,给他多听多尝试,他不喜欢,强迫适得其反,搞不好就会特别讨厌音乐,是憎恨音乐或甚至更重要的是家庭的关系,父母和孩子的关系,心理学是个大问题,如果被毁掉的话,有些得不偿失。我太太是心理医生,所以我偷学了。
刘晓光:因为我之前也做过音乐教育,最近有一个故事经常在我脑子里徘徊:我问一个小孩你喜欢音乐吗?小孩说我喜欢。我再问你为什么喜欢音乐?他回答因为我喜欢《孤勇者》。然后我带他去学音乐,第一节课教五线谱,然后孩子就被劝退了。所以我就想表达一个我个人可能还比较激进的观点,我觉得音乐教育的初期不该学五线谱,五线谱是200年前的一个产物,告诉你音乐应该怎么演奏。
赵易山:我插你一句,这是方法问题。
刘晓光:对,所以我接下来说,我们做产品是把大家听到的流行音乐更直观的表达出来:旋律是什么,歌词是什么,还有小节线是什么,和弦是什么。你可以变里面的人声变成别的唱法,可以变里面某一个旋律,立刻听到它的声音,可以变一下里边的鼓,换成另一个音色,把吉他变成钢琴……除了听歌,最接近下一步音乐实践的能力,都可以通过我们的产品去完成。所以我很推荐家长可以在孩子已经有一定的音乐知识之后,可以去试用一下我们的产品和弦派。
赵易山:在音乐教育的初级阶段,这个叫理论和实践的结合,我特别推崇你这种状态。以前传统的音乐教育就是理论和实践脱离了,你讲这个谱子不知道跟音乐的关系是什么,晓光老师刚才说的就非常重要,让他第一时间认识这个,同时知道它的声音是什么样子的,这个产品就是两者之间特别好的一个桥梁,所以这种做法非常好。
杨樾:大概在一个月以前,我有一个朋友的小孩十几岁,他一直自己弹吉他,然后他就想学点音乐制作,学点编曲。后来 AI出来之后,他说:这个东西之后,我这个小孩还需要再去学编曲吗?我说这可以结合在一起学,你试试和弦派,里边带和弦转盘,特别直观,你马上就能明白这几个和弦之间关联的关系,它又是一个AI的产品。我当时还真的是给一个青少年推荐了和弦派,来做他AI学编曲的尝试。
赵易山:其实这样的工具特别缺,晓光我可以给你一点点建议:我从一个音乐学院,现在到了理工大学做院长,我现在面对的都是理工商医的学生,他们非常聪明,他们对音乐非常感兴趣,他们也自己制作了很多音乐,制作的音乐也有非常出彩的地方,当然最缺的是音乐本身的那些东西。比方说,他的和弦用的非常单一,这也是业余制作音乐的一个惯病。第二,就是运用和弦都是摸出来的和弦,它的逻辑连接关系是没有的,听起来乱七八糟。还有一个最重要的,就是它没有结构的逻辑,简单的说它不分句,分的句有长有短,就像说话一样,你有长有短有顿有错,有句有段,你音乐上也同样如此。所以如果你的工具能够解决高智商、高情商的音乐爱好者的这部分需求的话,它会是一个非常好的辅助工具。特别重要,因为现在的时代就是拿现成的,各种拼图,各种符号,各种东西把它拼在一起,同时你再告诉他一些最简洁的规则就OK了。
刘莫闲:我也是孩子父亲,也在教我儿子学一些音乐,我也代表我们线上和线下的各位家长感谢各位老师,真的不光是给了建议,还给了工具,给了使用工具的方法。
我觉得我们不知不觉来到了9点,这个话术是不是有点像DJ?我们线上可能暂时我们交流到这里,我相信以后会有更多的机会跟各位专家,包括跟线上的各位的听众和观众一起做进一步的这些交流,我觉得也再次感谢各位专家,也再次感谢线上的观众们,收看我们这期的 AI&Society创造营“AI是不是音乐行业的《命运交响曲》”!