扫描打开手机站
随时逛,及时抢!
当前位置:首页>综合资讯>

谷歌发布 Brain2Music 模型,可基于人类大脑活动生成音乐

谷歌发布 Brain2Music 模型,可基于人类大脑活动生成音乐

时间:2023-07-26 12:02:31 来源:网络整理 作者:bianji123

IT之家7月26日消息,谷歌最近发布了一篇名为《人工智能》的论文,该论文可以利用人工智能读取并分析你的功能性磁共振成像(fMRI)数据,然后根据你的大脑活动自动生成音乐。

研究人员招募了五名志愿者,让他们聆听布鲁斯、古典、乡村、迪斯科、嘻哈、爵士、金属、流行、雷鬼和摇滚等不同音乐类型的 15 秒音乐片段,然后记录了这些音乐的 fMRI 数据。志愿者。

谷歌利用这些数据训练深度神经网络,以了解大脑活动模式与音乐不同元素(例如节奏和情感)之间的关系。

基于之前推出的模型(根据文本生成音乐片段),基于fMRI生成15秒的音乐片百思特网段。

研究结果显示,生成的15秒音乐片段,其中一首《Oops!...I Did It Again》与测试听到的原始音乐基本一致。

谷歌大脑项目_谷歌虚拟大脑是模拟人脑细胞_

IT之家在此附上论文的PDF下载链接,感兴趣的用户可以深入阅读。

广告声明:文章中包含的外部跳转链接(包括但不限于超链接、二维百思特网码、密码等)用于传达更多信百思特网息,节省选择时间。 结果仅供参考。 IT之家的所有文章均包含此声明。

本文地址:https://www.best73.com/zdmzt/277206.html
特别声明:以上内容来源于编辑整理发布,如有不妥之处,请与我方联系删除处理。
热门资讯
查看更多