人工智能和人脑正在如何融合?
发布于2024年12月30日 | 审核人:Davia Sills
来源:NickyPe/Pixabay
这只是你的想象,还是人工智能(AI)确实越来越像生物大脑?较新的大型语言模型(LLMs)是否在进化方式上类似于人脑的功能?哥伦比亚大学和Northwell Health费恩斯坦医学研究所的研究人员在《自然机器智能》杂志上发表了一项新研究,该研究比较了多个LLMs与实际的人类脑活动神经记录,发现了两者正在融合的领域。
人工智能机器学习具有内在的算法复杂性,其多层人工神经网络的深度处理使得无法精确地解析其输出和预测是如何得出的。确切地识别AI深层神经网络在后处理中如何做出决策仍然是一个黑箱问题。
随着每个最新版本的发布,LLMs不断变化,但有一件事始终不变:导致这种趋同的人工语言处理的基本因素仍然难以识别。“尽管先前的研究已经展示了LLMs表示与神经反应之间的相似性,但驱动这种趋同的计算原理——尤其是在LLMs进化过程中——仍然难以捉摸”,第一作者Gavin Mischler及其合著者Yinghao Aaron Li、Stephan Bickel、Ashesh Mehta和Nima Mesgarani写道。
研究人员评估了12个大小相近的开源预训练LLM模型,这些模型具有不同的语言能力。具体来说,科学家们分析了具有70亿参数的LLMs(LLaMA、LLaMA2、Falcon、MPT、LeoLM、Mistral、XwinLM)、69亿参数的Pythia和67亿参数的FairseqDense、OPT、CerebrasGPT、Galactica。
如何获取人类脑活动数据?神经科学的一大挑战是获取活体人类的脑活动数据。因此,当患者因治疗需要进行脑部记录并同意参与神经科学研究时,这为研究人员提供了难得的机会。
在这项研究中,科学家记录了8名同意参与研究的患者的脑活动,这些患者正在进行治疗难治性癫痫的神经外科手术。为了确定引起癫痫发作的大脑区域,植入了称为颅内脑电图(iEEG)的特殊电极传感器。这些电极用于侵入式脑机接口(BCIs)。当研究参与者聆听语音演员朗读的故事段落和对话录音时,他们的脑活动由植入的iEEG电极记录下来。
“我们使用神经外科患者听语音时的颅内脑电图记录,调查高性能LLMs与大脑语言处理机制之间的对齐情况”,科学家们写道。
为了创建评分基准,AI模型被提供与人类研究参与者相同的内容,并进行了阅读理解和常识推理任务,类似于八名人类参与者执行的听力理解任务。为每种LLM计算了一个总体性能得分,该得分为阅读理解和常识推理任务得分的平均值。
研究团队发现,表现最好的LLMs显示出“更像人脑的层次结构”。具体来说,Mistral表现最佳,其次是XwinLM、LLaMA2、LLaMA、Falcon、MPT、LeoLM、FairseqDense、OPT、Pythia、CerebrasGPT和Galactica。
这项研究与其他研究生物大脑与AI深度学习的研究不同之处在于,它使用一致的单个架构——堆叠变换解码器作为基础来比较不同的LLM模型。
他们分析的主要结论是,LLMs表现出的层次结构反映了负责声音和语言处理的大脑皮层的神经生物学区域。
研究人员将LLMs和人脑的趋同归因于语言的分层结构,其中较小的组成部分,如发音特征、音素和音节,逐渐构建为较大的语言组成部分,如单词、句子和短语。
“这些发现揭示了大脑和LLMs在语言处理方面的趋同方面,为开发与人类认知处理更好地对齐的模型提供了新的方向”,科学家们总结道。
(全文结束)