站長之家(ChinaZ.com) 7月31日 消息:谷歌和大阪大學(xué)剛剛發(fā)表的研究展示了一種將思想轉(zhuǎn)化為音樂的技術(shù)。
五名志愿者躺在功能磁共振成像掃描儀內(nèi),以十種音樂風(fēng)格播放了 500 多個不同的曲目。他們大腦活動的圖像被輸入到一個名為Brain2Music的AI模型中,該模型使用谷歌的AI音樂生成器MusicLM學(xué)會了創(chuàng)建類似于受試者正在聽的歌曲。
該研究的作者得出結(jié)論,“生成的音樂類似于人類受試者所經(jīng)歷的音樂刺激,就流派、樂器和情緒等語義屬性而言。結(jié)果可以在Google Research Github上聽到。
人們的想法是,這可能會導(dǎo)致有一天智能音樂創(chuàng)作軟件能夠解碼思想并將其轉(zhuǎn)化為音樂。研究人員表示,下一步將是使用人工智能來生成純粹基于某人的想象力的音樂,而不是特定的音樂刺激。
當(dāng)然,心靈感應(yīng)DAW還有一段路要走——除非你碰巧在你的臥室工作室里有一臺fMRI掃描儀。整篇研究論文可在康奈爾大學(xué)的免費學(xué)術(shù)文章在線檔案arXiv上找到。
(舉報)