SoundSculpt:用动作雕塑声音的沉浸式体验

融合空间音频与视觉艺术,重新定义音乐创作的边界

SoundSculpt由Yiqi Zhao设计,灵感源自雕塑艺术,通过空间音频与视觉交互,赋予用户前所未有的音乐创作体验。这一创新项目不仅模糊了创作者与作品的界限,更为数字艺术与情感调节开辟了新路径。

SoundSculpt的设计灵感来自于传统陶艺,强调手与材料的互动所带来的情感表达。Yiqi Zhao以此为基础,将“雕塑”的概念转化为声音的塑造,让用户通过动作和触觉成为创作过程的核心。项目融合空间音频与视觉艺术,打造出沉浸式的互动体验,推动数字艺术向更具情感深度的方向发展。

在技术实现方面,SoundSculpt采用了扩展现实(XR)技术,结合Bose AR智能眼镜的陀螺仪传感器,实现六自由度头部动作的捕捉。这些动作通过MIDI框架实时转化为音频调制,并通过Unity平台与C#脚本进行动态交互。用户可通过头部动作和触控操作,实时操控虚拟气泡的形态,获得直观的视听反馈,极大提升了参与感与情感共鸣。

SoundSculpt的独特之处在于其多感官融合的创新体验。用户仿佛置身于一个虚拟气泡中,通过直观的手势和头部动作“雕塑”声音与画面,形成“倾听—塑造—生成艺术”的循环。研究数据显示,该系统不仅增强了空间感知和情绪稳定性,还为艺术治疗和心理健康领域提供了新的可能性。专家认为,这种结合艺术与科技的方式,有望在精神健康和创意教育领域产生深远影响。

在设计挑战方面,项目团队需解决多感官反馈的实时同步与流畅交互,攻克了传感器精度、数据处理等技术难题。通过反复测试与优化,SoundSculpt实现了音画与动作的无缝衔接,确保每一次创作都能带来独特且富有情感的体验。项目自2019年秋季在MIT媒体实验室启动,2020年夏季完成,并在Bose公司展示,获得业界高度认可。

SoundSculpt不仅荣获2025年A'数字艺术奖铁奖,还因其创新性和实用性被誉为推动行业进步的典范。随着AI、空间音频与可穿戴技术的不断融合,SoundSculpt为未来数字艺术和情感科技的交汇提供了启示,激励更多设计师探索人机互动的无限可能。

SoundSculpt的出现,标志着艺术与科技融合迈向新纪元。它不仅是音乐创作的工具,更是情感表达与自我探索的桥梁。未来,随着相关技术的普及与完善,沉浸式多感官创作体验有望成为数字生活方式的重要组成部分,持续激发人们的创造力与幸福感。


项目详情和致谢

项目设计师: Yiqi Zhao
图片致谢: Image 1: Yiqi Zhao, 2024. Image 2: Yiqi Zhao, 2024. Image 3: Yiqi Zhao, 2024. Image 4: Yiqi Zhao, 2024. Image 5: Yiqi Zhao, 2024. Video Credits: Yiqi Zhao, 2024.
项目团队成员: Yiqi Zhao
项目名称: Sound Sculpt
项目客户: MIT Media Lab


Sound Sculpt  IMG #2
Sound Sculpt  IMG #3
Sound Sculpt  IMG #4
Sound Sculpt  IMG #5
Sound Sculpt  IMG #5

在灵感空间阅读更多