筑波大学的 Shinichi Yamagiwa 副教授和大阪大学的 Yoshinobu Kawahara 副教授(研究时)成功开发了一种人工智能技术,该技术可以量化人类对音乐的感受,并通过数值比较表演的相似性。
音乐性的判断通常基于演奏技巧的差异,例如清晰度(将乐句中的曲调分开并赋予形状和含义)、动态(动态)和分句(如何剪切乐句)。如果这些标准可以量化,就有可能将情感数字化并成为新的沟通方式的基础。然而,直到现在,计算机还不能识别和理解这些元素。
该研究小组一直在继续研究,旨在开发人工智能技术,使计算机能够识别性能差异,并根据人类对“音乐表达”的感受力进行数字表达。而这一次,通过一种叫做MIDI(Musical Instruments Digital Interface)的标准将钢琴演奏数字化并捕捉它,并根据标准乐谱从演奏数据中提取差异,人们感受到的演奏表达的差异被量化。发现我能做什么。结果,可以量化一个人感受到的“气氛相似”的敏感性,并比较他或她的表现是否与此人相似。
该研究小组表示,量化音乐表达的能力将导致人工智能的新应用。例如,据说可以使用音乐感性建立新的交流方式,例如使用表演数据在互联网上搜索与自己音乐感相同的人,并通过感性表达来创建新社区......