AI不用脑机接口仅通过心电图就能知道你在想什么

AI不用脑机接口仅通过心电图就能知道你在想什么

META介绍了可利用AI从大脑活动中直接解码语音的新技术,AI只需扫描对方的脑电图便能知道对方在想什么。

800_auto

曾经有人做过这样的社会调查:假如给你一种超能力,你会选择什么?结果大多数人选择了“读心术”。能“读心”会让人们的生活和事业更为顺利,但对于一些残障人士来说,他们迫切需要他人能读懂他的心。

AI读懂人心:脑波与声音匹配

每年遭受创伤性脑损伤的人数近7000万人,他们大都无法再通过语音,甚至手势与他人进行交流。因此,从大脑活动中直接解码语言成为医疗保健和神经科学中期待已久的目标。

Meta AI的研究人员开发出一种 AI 模型,可以根据大脑活动的无创记录解码语音。在Meta最新开发的模型,可在3秒的大脑活动中,从793个单词字汇表中,解码出相对应的语音片段,前10名单词的准确率高达73%,研究人员提到,这已经是人们每天常用字汇的一大部分。

800_auto

这项研究的目标是要开发一个人工智能模型,以非侵入性的方式,从大脑的活动中解码语音。因为很多人的创伤性脑损伤使他们无法说话、打字或是手势进行交流,因此如果发展出非侵入性从大脑活动解码语言的技术,这些人便可更方便地与其他人交流。

解码大脑活动是脑神经科学家一直努力的方向,但是到目前为止,大部分的研究都依赖侵入式的方式记录大脑活动,虽然这些设备比无创的方法能够记录更清晰的信号,但是却需要神经外科介入,无创方法的挑战很大。

机器学习:模拟人类大脑

研究人员以比对学习技术训练深度学习模型,再用该模型对齐大脑活动记录和语音。研究人员使用FAIR团队所开发的开源自监督学习模型wave2vec 2.0,并用这个模型来识别听有声读物受试者大脑海中的语音表达。训练数据集包括来自169名健康志愿者,在听有声读物和孤立句子时,大脑活动的150多个小时的录音。

800_auto

该团队还将这些脑电图和脑磁图的记录输入到一个“大脑”模型中,该模型由一个带有残差连接的标准深度卷积网络组成。在实践中,分析大脑数据通常需要一个复杂的工程管道,用于重新调整模板大脑上的大脑信号。

800_auto

值得一提的是,Meta AI 在之前工作中,使用 wav2vec 2.0证明了该算法可生成与大脑相似的语音表示。wav2vec 2.0中语音“类脑”表示的特点使其成为构建解码器的理想选择,它有助于了解应该从大脑信号中提取哪些表示。

800_auto

Meta AI在官方博文中提到:“训练后,我们的系统执行所谓的零样本分类:给定一个大脑活动片段,它可以从众多音频片段中确定这个人实际听到的是哪个片段。即算法能推断出人们最有可能听到的词。”

在索菲亚看来,该项研究是科学界使用AI更好地了解人类大脑广泛努力的一部分。这一研究领域除了可以帮助患者,它甚至可能推动技术的进一步的提升,我很期待能够看到AI造福人类的那一天。

{{collectdata}}

网友评论