神经科学家是如何读心术的呢?
美国加州大学旧金山分校的科学家,已经训练出一种算法,可以直接将受试者的脑电波实时翻译成句子,错误率仅为 3% 。
这项研究发表在《自然神经科学》(Nature Neuroscience)杂志上,他们招募了 4 位志愿者,这些志愿者被要求多次朗读 30-50 个固定句子,而电极记录下他们的大脑活动。[1]
这些数据随后被输入到机器学习算法,它将每个句子的大脑活动数据转换成一串数字和字符串。
系统从这些大脑活动数据再推导出声音,并和实际记录的音频进行比较。数字和字符串则被再次输入到系统,转换成一个单词序列。
起初,系统会吐出毫无意义的句子。但是当系统将每个单词序列与实际朗读的句子进行比较时,它得到了改进,学会了数字字符串与单词的关系,以及哪些单词是有上下文关系的。
算法不断的训练,直到从说话时的大脑活动中产生书面文本,类似机器翻译。
新系统的准确性远远高于以前的方法。虽然准确性因人而异,但对于其中一位志愿者来说,平均每个句子只有 3% 需要纠正,高于速记员 5% 的单词错误率。
当然,目前这个系统还是有很大局限,算法还只能处理少量的句子。系统也不能用于严重残疾失去语言能力的患者,因为它依赖于记录大声说出句子的人的大脑活动。
然而,每个志愿者只用了不到 40 分钟来训练,在有限的小数据集情况下,达到了迄今为止最大的精确度。
脑机接口
从类大脑信号到外部设备之间建立连接通路并不是新鲜事,脑机接口的研究已持续了 30 年。
在过去的十年,我们已经能够解码语音信号,但是局限于孤立音素或者单音节词,在一段 100 个单词的连续语音的情况下,解码正确的单词少于 40% 。
科学家们此次找到的是一个更直接的方法,就是采取机器翻译类似的算法。机器翻译就是将文本从一种语言到另一种语言的算法翻译,只不过这次输入的文本变成了脑电波信号。此次发表的论文《使用编码器-解码器框架:大脑皮层活动到文本的机器翻译》,正是详细描述了这一过程。
在系统对一个志愿者进行训练之后,再对另外一个志愿者训练时,解码结果得到了改善,这表明该技术可以在人和人之间进行迁移。
在 GitHub 上,放置了论文对应的代码。
ecog2txt 模块,用于从神经数据中将语音解码为文本。它用 Python 代码实现了跨主题的迁移学习的高级功能。[2]
而训练本身则是通过另一个 machine_learning 软件包,它在 TensorFlow 里实现了一个序列到序列的网络。[3]
这些软件包的作者,也是论文的联合作者之一约瑟夫·马金(Joseph Makin)博士,他目前是加州大学旧金山分校整合神经科学中心的研究科学家。他的专业是电机工程和计算机科学,专门研究控制理论,包括脑机接口的算法开发。[4]
论文的另外一个联合作者是张爱德(Edward Chang)博士,他是医学博士和神经外科医生,擅长为患有癫痫病,脑瘤,三叉神经痛,面肌痉挛和运动障碍的成年人提供治疗。他目前是加州大学旧金山分校威尔神经科学研究所的神经外科教授,还领导了一个神经工程与假肢中心,以恢复瘫痪和言语障碍等神经疾病患者的功能。