MusicNet(2016)

2020-10-15 01:57:18

最近,从音乐推荐(van den Oord et al.,2013;McFee&;Lanckriet,2011)到音乐生成(Driedger et al.,2015),机器学习方法在从音乐推荐(van den Oord et al.,2013;McFee&;Lanckriet,2011)到音乐生成(Driedger et al.,2015)等一系列问题上的有效性让音乐研究受益;另请参阅谷歌(Google)的Magenta项目最近的演示。在计算机视觉和语音处理的相关领域中,使用端到端深度体系结构的学习特征表示已经在图像分类和语音识别等任务中取得了巨大的进步。这些受监督的架构依赖于大型标签数据集,例如ImageNet(Russakovsky等人,2015年)。受这些方法的成功启发,我们创建了MusicNet,作为在音乐领域探索这些技术的项目的开始。具体地说,我们建议将MusicNet标签作为一种工具来解决以下任务:更广泛地说,我们希望MusicNet能够成为更具创造性的任务的资源。自动配乐,即从录音中推断出乐谱,是音乐信息检索领域的一个长期悬而未决的问题。传统上,音乐流媒体服务基于协作过滤和元数据(例如,艺术家和流派标签)进行推荐。最近,一些服务已经开始将音频功能整合到他们的推荐引擎中。从MusicNet标签学到的功能可能对推荐有用。我们还对能够在各种约束下制造性能的生成模型感兴趣。我们能不能在给分数的情况下学习综合一场表演呢?我们能用勃拉姆斯的旋律创作出巴赫风格的赋格吗?我们鼓励将MusicNet用于其他创造性的音乐处理应用程序。音乐数据集的许可分发通常受到版权限制的限制。MusicNet标签仅适用于知识共享和公共领域录制,因此我们可以分发和重新分发MusicNet标签及其相应的录制。MusicNet背后的音乐来源于伊莎贝拉·斯图尔特·加德纳博物馆(Isabella Stewart Gardner Museum)、欧洲档案馆(European Archive)和Musopen。我们感谢这些机构的表演者和工作人员的慷慨贡献。没有他们,我们的工作就不可能完成。确认这项工作得到了华盛顿研究基金会数据密集型发现创新基金以及机器和大脑学习计划(CIFAR)的支持。