
8月14日,Home News:Ann Johnson是加拿大萨斯喀彻温省的一名高中老师兼教练,在2005年,脑干中风几乎完全瘫痪了,此后患有抗衰学综合症。这种罕见的病使患者醒着,但不能说话或行动。 18年来,约翰逊依靠眼睛监测系统以每分钟14个单词的速度在世界范围内进行交流,这比普通人的速度少于每分钟160个单词的速度。但是,现在他再次听到了自己的声音,这要归功于直接从大脑活动中解码语言的大脑接口技术(BCI)。 2022年,约翰逊成为加州大学伯克利大学和加州大学旧金山分校的临床试验的第三名参与者。该测试旨在通过神经假体恢复严重的瘫痪者的语言技能。研究人员使用神经假体来记录大脑言语运动皮层的信号,该信号超过了神经PAT受损HS,从而产生可听见的语音。根据在家中的这一点,该设备依靠放置在大脑语言生成区域上方的植入物,当约翰逊试图说话时,植入设备会检测到神经活动并将信号发送到连接的计算机。然后,AI解码器将这些信号转换为面部表达式,转换为文本,语音或数字图像。最初,系统使用了一个顺序的人工智能模型,该模型需要一个完整的句子来输出结果,从而导致了8秒的延迟。但是,在2025年3月,JO研究小组报告说,自然神经科学说,他们转向流式架构,该建筑的近距离翻译仅延迟了1秒。为了使体验更加个性化,研究人员使用2004年约翰逊婚礼上演讲的录音来重新创建他的声音。他还选择了一个与他的外观相对应的虚拟图像,可以模仿面部表情,例如微笑或皱眉。 Gopala Anychi加州大学伯克利分校的电气工程和计算机科学助理教授,加州大学旧金山加州大学神经外科医生的爱德华·张(Edward Chang)和在伯克利(Berkeley)学习的医生Kaylo Littlejohn表示,他们的目的是启用神经假体的工具,以实现“实现和播放”具有标准临床工具的实验系统。未来的改进可能包括无线植入物的apasrato,消除了直接连接到计算机的需求,以及更逼真的头像以建立更自然的关系。研究团队还考虑开发一个数字“克隆”,不仅类似于用户的声音,还模仿了通信和视觉信号的风格。这一突破有望帮助相对合适但非常脆弱的群体,这些群体因中风,肌萎缩性横向硬化症(ALS)或受伤而失去了语言技能,恢复速度更快,更自然的沟通技巧。研究人员强调,只有在参与者一开始就可以品尝到该系统y在尝试讲话时工作,从而确保用户自主权和隐私。对于约翰逊来说,实验完全改变了他的生活。他在接受加州大学旧金山分校采访时说:“我希望病人能看到我,并知道塞特西尔的生活还没有结束。”他希望有一天能在康复中心担任顾问,并在神经假体的帮助下与客户交谈。随着延误在将近1秒内的下降,并且在几年内实施了AI模型的持续进步,这将改变使失去语言技能的人们发声的技术方式。
平台语句:本文的观点仅代表-set本身。 Sohu帐户是发布信息的平台。 SOHU仅提供存储信息服务。