AI音乐改变热门歌曲创作方式 连艺术创作也要沦陷?
网易科技讯 9月3日消息,国外媒体The Verge撰文谈到未来的音乐,讲述人工智能生成的音乐正在如何改变热门单曲的创作方式。 以下是文章主要内容: 人工智能能作曲对很多人来说都很可怕,包括我。但在过去几年里,音乐制作人工智能软件已经取得了长足的进步,它已不再是一种可怕的新奇事物;它是一个可行的工具,正被制作人用来帮助创作。这就提出了一个问题:人工智能有朝一日能取代音乐家吗?我去了洛杉矶,拜访了AI音乐平台Amper Music的办公室和流行歌手泰伦·萨瑟恩(Taryn Southern)的家。萨瑟恩正在与Amper和其他的AI平台合作,共同打造她的首张专辑《我是AI》(I AM AI)。 人工智能充当工具来制作音乐或辅助音乐家,已经有相当长的时间了。在上世纪90年代,英国著名音乐人大卫·鲍伊(David Bowie)帮助开发了一款名为Verbasizer的应用程序,它从文学作品获取素材,然后将里面的字词随机进行重新排序,形成可能被用作歌词的新内容。2016年,索尼公司的研究人员使用一种名为“流机器”(Flow Machines)的软件,创作了一首披头士(Beatles)风格的旋律。然后,它落到了人类作曲家伯努瓦·卡雷(Benoit Carre)的手中,并被制作成一首完整的流行歌曲《Daddy 's Car》(爸爸的车)。(“流机器”也曾被用于帮助打造一整个专辑,该专辑名为SKYGGE,在丹麦语中意指“影子。”)在消费级层面,该技术已经被整合到像Logic(被全球各地的音乐家广泛使用的一款软件)这样的音乐制作程序,它能够借助人工智能自动填充独特的鼓声。 人工智能已经与像Logic这样的消费级音乐制作程序相整合 现在,围绕着人工智能服务来创建音乐已经形成了一整个产业,玩家包括前面提到的Flow Machines、IBM的Watson Beat、Google Magenta的NSynth Super、Jukedeck、Melodrive、Spotify的创作者技术研究实验室和Amper music。 这些系统大多数都是通过利用深度学习网络来运作的。深度学习网络是一种依赖于分析大量数据的人工智能。基本上,你向软件输入大量的原始材料,从舞曲到迪斯科经典,分析这些材料以后,它就能够找到模式。它会学习和弦、节奏、长度之类的东西以及音符之间的联系,通过从所输入的所有材料中学习,它就能创作出自己的旋律来。不同的平台之间存在差异:有的平台提供MIDI,有的则提供音频。有的平台纯粹通过检阅数据来学习,有的则依靠基于音乐理论的硬编码规则来指导他们的输出。 然而,它们都有一个共同点:在微观层面上,那些音乐都是有吸引力的,但你听的时间越长,它们就越没有意义。它们当中还没有一个能出色到独立创作出格莱美获奖歌曲。 ?Amper Music的联合创始人迈克尔·霍比 在我尝试过的所有音乐制作AI平台中,Amper无疑是最容易使用的。IBM和谷歌的项目需要一些编程知识,也需要解包GitHub上的开发者语言。它们还会给你带来MIDI输出,而不是音频,所以你还需要对音乐制作有更多的了解才能把输出变成真正的音乐佳作。 另一方面,Amper的界面极其简单。你所要做的就是前往它的网站,然后选择音乐类型和情绪类型。就是这样。你不需要知道怎么写代码,怎么作曲,甚至也不需要知道音乐理论,就可以用它来创作一首歌。它从预先录制的样本中构建音轨,并输出真实的音频,而不是MIDI。然后,你可以改变节奏;减弱单个乐器的声音,或者关掉整个乐器组合来所制作的歌曲情绪。之后,这个音频可以作为一个整体或单独的乐器层输出。接着,可以在像Ableton或Logic那样的DAWs中对它们进行进一步的操作。 在我朋友的车后座上绕洛杉矶兜风时,我让Amper制作了一首歌曲。我使用我的手机,在音乐流派中选择了摇滚,然后在情绪分类中选择了“驾驶”。在高速运作大约一分钟以后,它产生了一个30秒长的音频。该音频还不能拿到电台去播放,但是它有和弦,有一点结构,听起来……让人愉快。你很容易就能把它插放在YouTube视频或广告的后面,没有人会猜出它是程序制作出来的,而不是人工创作的。 作为一个音乐制作人,代码可以做我所做的事情的想法很奇怪。一种算法可以在几分钟内做出一首不那么糟糕的歌曲,人工智能正在进入我们认为明显是人类专属的创作领域,这种想法令人不安。如果说人工智能目前已经足够出色到能够创造出上述的简单押韵的电梯音乐,那么它还需要多久才能创造出最热门的音乐呢?如果它发展到了这个程度,那对人类音乐家又意味着什么呢? ?泰伦·萨瑟恩在展示IBM的Watson Beat项目 (编辑:ASP站长网) |