美东时间周三(5/10)的百度I/O上,Google宣布可让用户输入文字产出高品质音乐的AI工具MusicLM开放大众测试。

Google今年一月公布实验性的MusicLM工具,允许用户输入一段描述文字产生音乐。 当时Google表示,基于可能的侵权疑虑,不会开放一般用户使用。 不过现在用户可以通过网页或Android、iOS版AI Test Kitchen App登录试用。 用户可以输入「晚宴后的深情爵士乐」MusicLM就会产出2个版本供用户选择,用户选择其中一项后,可以再通过提示对话框来逐步调整成想要的音乐。
Google说明,MusicLM模型比之前自己的AudioLM更先进。 若用户要的是「令人沈静的小提琴旋律,以重复破音效果的吉他声作为背景」,MusicLM会将此任务当成阶层式序列到序列(Seq2Seq)的建模流程来完成,产出数分钟24kHz的音乐。 还能根据文字要求,将口哨及人哼出的旋律加以转化成音乐。 Google实验显示MusicLM比早先其他系统生成的音乐音质更好,也更能符合描述所需。
Google也宣布,和音乐家如Dan Deacon及代管音乐网站合作,由真人音乐家协助Google开发MusicLM模型。
Google或许是在OpenAI刺激下开放这项服务。 OpenAI 2020年就推出深度神经网络模型Jukebox,可让用户输入歌词生成一段乐谱。