脑机接口开始破译大脑反应,心灵解码会成为一场灾难吗?

钛度号
仅从大脑活动的测量中重建一个人的视觉体验的图像可能很快就会成为现实。

图片来源@视觉中国

图片来源@视觉中国

文 | 追问nextquestion

成真的法术

2020年5月的某个寻常的下午,就读于德州大学奥斯汀分校的计算机博士三年生杰瑞·唐(Jerry Tang)坐在电脑前。面对着眼前的一串乱码,他意识到,读心术或许将不再只是一个都市传说。那一串字符写道:“如果没有驾照我二十岁也没准备好开始工作我也用不着走然后让我爸妈把我接回家。”

这一个看似没有任何逻辑和意义的句子却是脑接口技术(BCI)研究历程上里程碑式的存在:尽管语言仍然支离破碎,但是技术已经成熟到能够让电脑能从人脑中直接提取想法了。

自从疫情导致实验室关闭,杰瑞在家工作的全部时间都在和这个脑机接口项目死磕。在此之前前,实验室已经收集了大量的数据来训练破译模型。其中,数据主要通过在听故事型播客时对参与者进行功能性磁共振成像(fMRI)扫描来收集,以记录他们大脑对这些故事的反应。然后,这些被试会被要求再听一个没有被用于模型训练的故事,这一次的fMRI结果也会被喂给破译模型——该模型调用了GPT-1,也就是现在很火的ChatGPT的前身———实验期待破译模型能根据这些全新的fMRI信息来还原被试当时到底听到了什么。

结合原始文本片段来看(“虽然我已经二十三了,但我还是没有驾照,所以我没法自己一个人走;这时候她说,那你为什么不回我家,这样我就能送你走。”*),破译模型不仅能抓住原文的主旨,更重要的是,它还能找到准确的、原文中使用的词,比如“二十”、“驾照”等。

*解码的文字:I am not finished yet to start my career at twenty without having gotten my license I never have to pull out and run back to my parents to take me home.”

原文:Although I’m twenty-three years old I don’t have my driver’s license yet and I just jumped out right when I needed to and she says well why don’t you come back to my house and I’ll give you a ride.

当杰瑞把这个结果跟他的导师汇报时,这位专攻破译模型的神经科学家亚历山大·赫斯(Alexander Huth)说:“我老天啊,这模型还真行。”到2021年秋季,这个模型已经进化到了可以破译无外部刺激的大脑反应,也就是说,被试不需要实际地听故事,而是在脑海中想象故事,模型一样可以大差不差地破译出来。“这两个实验都指向了同一个事实,”赫斯说道,“也就是我们现在就算不会读心术,也会读脑术了。”

学界对这一技术突破的激动溢于言表——这个技术的发展或许能够成为闭锁综合征(locked-in syndrome)患者重新与外界沟通的解药。闭锁综合征是由脑干损伤导致的全身随意肌瘫痪的疾病,该疾病的患者虽然保持着清晰的意识,但是无法自主活动或说话。如果能将脑机接口技术和破译模型应用到对该疾病的辅助和治疗上,闭锁综合征患者就有可能再次“说话”。然而,在广阔应用前景之外,该技术的伦理道德问题也被提上了议程。作为实验首批的三个被试之一,赫斯本人认为和该技术相关联的隐私问题与道德问题是不容忽视的:“这是肯定的——我们已经能把我的大脑看光了。”

赫斯的担忧也是学界一直以来的担忧:机器学习有一天可能会强大到让人类的精神世界一丝不挂。脑机接口技术扶摇直上,随之而来的是一种对无限可能的恐惧:未来,计算机或许能改变人类的个性,甚至操控自由意志。更可怕的是,这种看似遥遥无期的未来已经不再遥不可及。“保卫精神隐私权,这是我们必须要立刻开始打响的战役。”拉斐尔·尤斯特(Rafael Yuste)说道,他是一名任教于哥伦比亚大学的神经科学家,“这个保卫战如果失败,那将是不可逆的。如果连精神隐私权都没有了,作为一个人,我们还有什么可失去的呢?”

出于这些担忧,尤斯特和其他几位同事发起了一项国际运动,名为“神经权利”(neurorights),该运动倡导五项针对防止神经技术滥用的原则,并希望能将这五项条例纳入法律。然而,术的发展似乎远超于立法的速度

以尤斯特为首的科学家们认为,今天社会和学界对神经技术伦理问题的态度对整个世界在未来的发展至关重要,“有一种新技术正在出现,可能会带来变革,”他说。“实际上,它可能导致人类物种的改变。”

对于赫斯——一个不折不扣的“科幻迷”——来说,脑机接口技术的高速发展让书中的奇幻世界成为现实。然而,在真的看到脑机接口技术和破译模型的成功,以及它们会带来的无限可能时,他的担忧也后知后觉地降临了,“这意味着什么?”他回忆起当时的想法。

“我们该如何向公众披露这件事?公众的看法又会是怎样的?他们会认为我们制造了一些可怕的东西吗?”

框住膨胀的未知

尤斯特对这种咎由自取式的不安感太熟悉了。他本人在作为一名国际教育者活跃于神经技术立法之前,是一名生命科学和脑神经科学学者。早在2011年,也就是在赫斯和杰瑞创造出破译语言模型的十年前,他就已经在小鼠身上实验一种叫“光遗传学”(optogenetics)的技术,这种技术允许实验者自由开关小鼠脑内的回路。也就是说,通过这种技术,尤斯特和他的同事只是激活视觉中枢中的一些脑细胞,就可以人为地在小鼠的脑中植入一些图像。几年后,MIT的一群研究者证明了他们用同样的技术能在小鼠的脑中植入错误的记忆。

至此,尤斯特意识到,科学家可以像操控木偶一样随意摆布小鼠:从行为到情绪,从感知到记忆。实现这些,只需要控制特定的脑回路的开关。“项目被叫停了,”尤斯特回忆道,“因为人类的大脑和小鼠的大脑的运行机制几乎一致,我们今天能随意控制小鼠,明天就能洗脑人类。”

实际上,尤斯特的实验在当时并不是一枝独秀。21世纪的第一个十年,是神经技术蓬勃发展的一个十年。2004年,马修·纳格尔(Matthew Nagle)成为第一个使用脑机接口系统恢复部分功能的四肢瘫痪患者;通过在其大脑运动皮层(负责自主肌肉运动)植入一小块微电极,纳格尔能够控制电脑光标、玩乒乓游戏,以及开关机械手——全凭他的意念。

2011年,杜克大学的研究人员分享了他们开发的双向BCI,该设备不仅能让猴子能够控制一只虚拟手臂,还能从中接收人为创造的触感,这些都是通过刺激体感皮层(处理包括触觉在内的感官)实现的。到了2012年,机械手臂技术已经成熟到能够操纵立体空间内的物体,比如,一位瘫痪的女性仅只是在脑内想象就可以在现实中调动机械臂并喝到咖啡。

除了机械臂及医疗应用,其他研究团队也在不断探索BCI技术的更多可能。2008年,由加州大学伯克利分校的神经科学家杰克·加兰特(Jack Gallant)带领的团队迈出了破译人类视觉经验的第一步。通过分析fMRI技术扫描得到的大数据组,研究人员能够从大量的图像组中挑选出被试看到的那一张图像。在发表在《自然》杂志的论文中,团队写道:“我们的结果表明,仅从大脑活动的测量中重建一个人的视觉体验的图像可能很快就会成为现实。”值得一提的是,杰克·加兰特也是赫斯的前导师。

三年后,加兰特实验室的博士后研究员西本真司(Shinji Nishimoto)所带领的研究组在原本的研究成果上更上一层楼,实现了从fMRI扫描数据中还原被试所看过的动态影像。“这是重建内部想象力的重大飞跃,”加兰特在当时的加州大学伯克利分校新闻发布会上说。“我们正在打开一扇通往心灵中电影的窗口。”仅仅一年后,由上神康靖(Yukiyasu Kamitani)领导的日本团队则完全打开了这扇窗户,他们成功解码了被试的梦境。

正是高速发展的神经技术引发了尤斯特的担忧。2013年,尤斯特帮助启动并全力支持了一个名为“脑计划”(BRAIN Initiative),该计划由前总统奥巴马(Obama)投资,耗资数十亿美元。然而,尤斯特难掩对这个计划在伦理道德和社会影响方面的担忧,“根本就没有一点精力是花在伦理道德上的。”他说道。

他多次在BRAIN委员会内部发起重视神经技术相关道德问题的提案,几经碰壁后,他选择退出委员会,转而与华盛顿大学的生物伦理学家萨拉·戈尔林(Sara Goering)联手。在2016年发表于《细胞》杂志的一篇文章中,这两位作者写道:“我们的目标不是为末日情景制造或助长恐惧,而是确保我们在准备迎接神经技术的未来时能够深思熟虑和有意识地行动。”

12月,拉斐尔·尤斯特在哥伦比亚大学的办公室里。由于他的研究揭示了大脑对外部操纵的脆弱性,他越来越担心这些技术的伦理问题受到的关注太少。图源:Kitra Cahana for Undark

左:尤斯特阅读《世界人权宣言》。2017年,尤斯特和近30 名专家齐聚一堂,讨论“神经技术的伦理和社会后果”,他说。“我们得出的结论是,这是一个人权问题。”右:尤斯特办公室的架子上挂着一张他在2019年会见西班牙国王费利佩六世的照片。社会各阶层普遍缺乏对神经科技的了解,这在很大程度上让尤斯特扮演了全球教育者的角色。图源:Kitra Cahana for Undark

2017年秋,尤斯特和戈尔林在哥伦比亚大学晨边高地校区召开了一场国际会议,邀请了近30位来自全球各地的神经技术、人工智能、医学伦理和法律等领域的专家。截止2017年,澳大利亚、加拿大、中国、欧洲、以色列、韩国和日本等国家都已经推出了自己版本的大脑研究计划(BRAIN Initiative),在这种迅速扩大和膨胀的力量面前,创造者们后知后觉地感到恐惧。

“我们把自己封闭起来,用了三天时间来研究神经技术的伦理和社会后果,”尤斯特说。“我们得出的结论是,这是一个人权问题。这些技术将发展得非常强大,能够访问和操纵心智活动,因此,必须从人权角度进行监管。我们由此创造了‘神经权利’(neurorights)这个术语。”

“晨边小组”确定了四个主要的伦理原则,后来由尤斯特扩写为五个神经权利:思维隐私权、个人身份权、公平获得心智增强权、保护免受神经技术算法偏见权、以及自由意志权。这份宣言在《自然》杂志上被广泛引用。

然而,尽管尤斯特等人专注于伦理层面,这些技术本身却以惊人的速度继续发展。2014年,世界杯的第一个进球是由一位使用思维控制的机器人外骨骼的瘫痪男子踢出的。2016年,一名男子使用可以让他“感觉”到手势的机器人手臂与奥巴马击掌。隔年,科学家展示了通过电刺激海马体可以改善记忆,为认知增强技术铺平了道路。长期对脑机接口技术感兴趣的军方建立了一个系统,允许操作员同时用他们的思维部分控制三架无人机。与此同时,科学、科幻、炒作、创新和猜测的混乱漩涡席卷了私营部门。到2020年,超过330亿美元被投资于数百家神经科技公司——大约是美国国立卫生研究院(NIH)为BRAIN计划12年计划预期的七倍。

尤斯特等人的确在伦理方面取得了进展。但在如火如荼的创新潮中,还有人会注意到这些问题吗?

读心术,然后呢?

回到2020年的5月,当赫斯看到杰瑞的屏幕上破译出的那串字符,内心万分矛盾。一方面,他窃喜这个模型真的能够运行,另一方面,他也真正开始担忧起未来该技术被滥用的可能性。

思想警察。乔治奥威尔笔下邪典般的角色冒入了他的脑海,恐惧至此开始具像化。

正如他们之前的尤斯特,赫斯和杰瑞也很快就开始质疑自己的成果,尤其是在道德层面。他们开始广泛地阅读该领域伦理道德相关的文献,这其中就包括晨边小组于2017年发表在《自然》上的文章。

和该领域前人的观点一致,他们也认为,尽管神经技术的前景仍不确定,某些用途却是必须被禁止的,比如,破译静息状态的人的想法。当一个人无法自主活动或决定自己是否同意被"入侵大脑时",他人无权对他使用破译模型技术。此外,他们还认为,该技术不应该被用于法律系统,或其他任何有可能会扰乱现实社会的自然运转规律的程序中。

破译模型技术只允许被用于使用者认证后的场景。比如,对于全身瘫痪的患者来说,应在使用该技术前给予许可。对于公司的管理者来说,不应该在没有雇员许可的情况下对他们使用破译模型技术,或者使用通过技术收集到的数据。

对于赫斯和杰瑞来说,他们的破译技术和其他的破译技术最大的不同在于,他们的破译器是非侵入式的———也就是说,使用者不需要进行手术。因此,他们的技术免受于其他需要借助临床医疗才能进行的技术需要面对的那些严格的手续和许可。不过,他们也有自己的难题。该技术需要使用的fMRI扫描仪体积巨大,使用成本高昂,并且无法移动。

不过,fMRI也有平替。fMRI扫描仪是通过检测脑内血氧含量来成像的,同样的效果功能性近红外光谱仪(fNIRS)技术也能达到。尽管清晰度相比fMRI较低,但是,fNRIS技术的可穿戴性和经济成本对赫斯和杰瑞的解码技术研究都更为友好。

目前来说,fNIRS技术对普通消费者还遥不可及,但是更基础的fNIRS头戴式装备已经进入了市场。随着技术和市场进步,fNIRS总有一天可以成熟到能够支持脑解码模型的市场化和大众化。

一方面,赫斯和杰瑞正在携手fNIRS技术研究团队一同研究该技术;另一方面,中国的一所学校已经因为开始使用类似的利用脑成像技术破译并监控人脑而引发了舆论风波。浙江金华的一所小学通过利用头戴式EEG成像仪监视在读学生的专注度,并且,这些学生还要求互相之间比拼谁更专注、谁更高效。收集的数据及分析报告会被发送给这些学生的家长。同样的,2018年,《南华早报》的一篇报道揭露了中国存在大量的工厂和公司使用类似的技术监视员工的情绪,以此来鞭策他们的效率。金炜,时任宁波大学的脑科学家补充道,“很多员工开始还会有抵抗情绪,但是很快就习惯了。”

现在,科学家们还会因为脑成像技术的不成熟,只能对低清晰度的脑成像进行有限的分析。未来,随着计算机科学的高速发展,强大的算法很有可能也能对低清晰度的EEG数据进行详尽的分享分析,还原出被检测者当时的心情。因此,当人们在当时同意公司收集并使用他们的脑成像数据时,没有人能明确地预测到未来这意味着什么。

因此,赫斯和杰瑞对脑成像技术、破译模型和相关数据的合规抱有极大的担忧。“对于企业来说,很重要的一点是他们收集、处理、使用这些数据的过程必须是公开透明的。”杰瑞在Medium上的一条推文中写到。

不过,除此之外,赫斯和杰瑞还是对该技术的前景十分乐观的。

走向立法

正当赫斯和杰瑞还在对他们的研究成果喜忧参半时,尤斯特已经明确了一件事:关于神经技术的道德问题,这些想法不能只停留于日常的对话,而是必须进入立法空间了。

2019的一个炎热的夏夜,尤斯特在智利和他的老朋友,时任参议员圭多·吉拉迪(Guido Giradi)会面了,他们针对即将被科技改变的未来进行了一场讨论。像尤斯特一样,吉拉迪也对光速发展的科技背后并不完备的法律系统和社会认知不乐观,因此开创了拉丁美洲的首个科技相关活动——Congreso Futuro。尤斯特也是该论坛的活跃发言人之一。这两个人在智利阿塔卡马沙漠的辽阔夜空之下达成了一致,他们确信——当代的科学家们正在孕育出一种强大的科技,能让人变成非人。

吉拉迪提出了一个新颖的提案:他们二人应该一起推进针对智利现有宪法的修订案,确保智利公民精神隐私权不可侵犯。这个想法看起来过于大胆,不过对吉拉迪来说,这不是第一次将异想天开变成现实。此前,他就已经倡导并落实了多项立法,包括著名的智利食品标签和广告法。对于脑接口技术相关立法,吉拉迪决定再次成为那个“开拓者”,“我和尤斯特说,对啊,为什么不能我们设立第一个神经数据保护法呢?”吉拉迪回忆说。尤斯特欣然同意。

在二人会面后的几年中,尤斯特经常飞往智利进行神经数据技术和伦理道德相关的教育。他活跃于大学和论坛之间,与该领域的重要人士会晤,这其中包括智利当时的总统,塞巴斯蒂安·皮涅拉(Sebstian Pinera)。

尤斯特在当中的主要角色是指导律师起草相关立法,他说道,“神经科学和医学是律师们的知识盲点,而法学正好是我的。我们合作才能看得更全面。”

与此同时,吉拉迪也忙于推进对智利现有宪法的修订案,使其包含对精神隐私权的保护。2021年,智利国会全员通过了这项修订案,总统皮涅拉正式确定该项修订案的法律效益。“在精神隐私权面前没有左派右派,”吉拉迪回忆到,“这恐怕是国会有史以来第一次全员无异议通过一项法条。”至此,智利成为全世界第一个将“神经权利”包含进法律中的国家

然而,立法只是第一步。在光速发展的技术面前,仅仅停留在国家层面的法律保护是非常有限的。未来,技术的发展很快就会越过物理障碍,模糊国家边界的概念。“民主的进程是缓慢的,”吉拉迪说道,“一项立法要经过数年才能被通过,但科技的发展是呈指数的。”

为了将神经权利纳入国际法的保护范畴,尤斯特找到了贾里德·根瑟(Jared Genser),一名为多名国际政治罪犯辩护过的国际人权律师。和尤斯特张的专门为神经权利专门设立一个监管机构不同,根瑟认为,现阶段最有效的措施是扩大国际法的保护范畴,将“神经权利”纳入章程。根瑟解释道,一旦国际法的保护延伸到神经权利的范畴,各个国家就必须要将这一新的解读同步到自己的法律中。同样的策略也被用在了基因编辑技术ICCPR的人权保护立法上。

不过,即便是这样,扩大国际法的范畴也需要数年来推进,因此,法律的保护在科技发展前永远是滞后的

乐观一点

尽管尤斯特等人仍在努力搞懂那些复杂的法律问题,赫斯和杰瑞却发现,保护我们隐私的最强大力量可能并不是那些高高在上的机构,而是我们自己的大脑。解码器在迎接了最初的成功后,逐渐进入了瓶颈期。然而,在道德角度来看,这似乎是一件好事。

到了2021年末,赫斯团队开始了新实验。首先,他们想知道为某人量身定制的算法能否用在别人身上。结论是——不行,这个解码器需要长期的个性化训练才能有效。

如果参与者不配合,解码器还能工作吗?实验中,被试被要求在听故事的时候不专注于内容,而是在心里想其他事情。与此同时,fMRI机器会记录他们的大脑活动。赫斯说,这样一来,解码器就无法工作了——既解不出他们听的故事,也猜不到他们在想什么。

这说明,至少现在,那些关于被迫心灵阅读的恐怖场景还挺遥远的。随着这些担忧减少,科学家们开始看到他们发明的好处,比如说,作为一种恢复交流的工具。他们开始和华盛顿大学的一个团队合作,想看看能不能开发出一个和他们的解码器兼容的可穿戴设备,未来可能用于医疗。但赫斯也说,想想那些反乌托邦的情景还是有用的,他希望这种讨论能继续。他说,我们得继续想象各种可能的坏情况,这很重要。

尤斯特认为,赫斯和杰瑞的解码器开启了人类历史上一个新章节的大门,在这个章节里,人脑和电脑之间的界限可能会完全消失。他说,可以想象将来人类和电脑永久融合,我们可能会变成一种技术增强的半机械人。

尤斯特现在全心准备迎接这个未来。

但尤斯特和赫斯都觉得,现在是采取行动的时候了。技术还在起步阶段,但我们最好现在就开始保护我们的思维,以免将来出现什么可怕的事情。赫斯说,即使现在的技术还很原始,但谁知道五年后、十年后会发生什么呢?现在确实是我们应该思考这个问题的时候了。

原文链接:https://undark.org/2024/01/03/brain-computer-neurorights/,本文对原文做了重新组织与改写。

本文系作者 追问nextquestion 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容
  • 听起来有点恐怖

    回复 2月29日 · via h5
  • 人类对大脑的了解还很少

    回复 2月28日 · via pc
  • 脑机接口要成功,必须是对大脑本身已经研究成功了,而且可以仿制一个人工大脑

    回复 2月28日 · via pc
  • 电脑和人脑是两种机制,它们只不过名字都叫脑罢了

    回复 2月28日 · via android
  • 控制是个大难题,不得不感叹人体神经网络控制配合太精妙了

    回复 2月27日 · via iphone
5

扫描下载App