加利福尼亚的研究人员在一项临床试验中取得了重大突破,他们开发了一种由人工智能驱动的系统,能够实时恢复瘫痪患者的自然语音,并使用患者自身的声音。这项创新技术是由加州大学伯克利分校(UC Berkeley)和加州大学旧金山分校(UC San Francisco)的研究团队共同开发的,它结合了脑机接口(BCI)和先进的人工智能技术,将神经活动解码为可听的语音。
与最近其他尝试从脑信号创建语音的技术相比,这个新系统是一个重大进步。该系统使用高密度电极阵列等设备直接从大脑表面记录神经活动,同时使用穿透大脑表面的微电极和放置在面部的非侵入性表面肌电图传感器来测量肌肉活动。这些设备通过大脑获取神经活动数据,然后人工智能学习将这些数据转换成患者的声音。
神经假肢从大脑的运动皮层采样神经数据,该区域控制语音产生。根据研究的共同主要作者Cheol Jun Cho的说法,神经假肢在思想转化为发音的过程中拦截信号,并在其中进行运动控制。
关键进展
克服挑战
一个关键挑战是在患者没有残余发声能力的情况下,将神经数据映射到语音输出。研究人员通过使用预训练的文本到语音模型和患者受伤前的声音来克服这一挑战。
影响和未来方向
这项技术有可能显著改善瘫痪患者和ALS等疾病患者的生活质量。它使他们能够表达需求、传达复杂的思想并与亲人更自然地交流。加州大学旧金山分校的神经外科医生Edward Chang表示:“令人兴奋的是,最新的人工智能进步正在极大地加速BCI的实际应用。”
下一步包括加快人工智能的处理速度,使输出的声音更具表现力,并探索将音调、音高和响度变化纳入合成语音的方法。研究人员还希望从脑活动中解码副语言特征,以反映音调、音高和响度的变化。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。