加利福尼亚研究人员刚刚在脑部计算机界面领域迈出了重要一步。根据今年3月31日发表的一项研究自然神经科学并被美联社,一个47岁的女人,沉默了18年,能够找到实时表达自己的能力,这要归功于非侵入性的脑植入物加上人工智能。

大脑ai界面来翻译语音思想
Ann -Ancienne数学教授在30岁时的中风受害者已成为四肢瘫痪的人,并被剥夺了近20年的言论。伯克利大学和旧金山大学的研究人员开发了一个能够将您的大脑信号转换为口语句子,延迟减少只有80毫秒。
该系统基于一个网络253个电极放置在语音发动机皮层的表面上,而无需渗透到脑织物中 - 与标准技术有显着差异。该网络捕获神经活动,而患者在不发出精神句子的情况下表达了精神句子。
然后,这些数据由经过训练的AI处理以解码语音的意图然后,通过人声合成播放,重现了患者的原始声音,并根据她的婚姻视频进行了重建。

进行性驱动和扩展的词汇盖
该系统首先被纳入一组50个简单句子,然后朝着1000多个单词的词典演变而来。根据作者的说法,英语中使用的1,000个最常用的单词涵盖了当前对话的85%,在大多数情况下,这为流体互动提供了足够的功能基础。
此进步成功了该系统的先前版本,其中每个句子都需要在思想及其言语之间最多需要8秒的延迟。有了新的原型,通信几乎是实时进行的,这为更自然的相互作用打开了道路。

仍然实验但有前途的系统
在这个阶段,该系统仍保持实验性,需要大量的计算机设备以及专业工程师的存在来使其正常工作。技术尚未允许调整语调或声音情绪,而是研究人员在系统的优化和微型化方面工作,以便每天使其可用。
中期目标是允许ANN恢复一项专业活动,尤其是作为大学的定向议员。当然,将该系统扩展到相同情况下的其他人;根据团队的估计,在5到10年内可能会有可销售的版本。