自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

從語言到認(rèn)知:LLM如何超越人類語言網(wǎng)絡(luò)

發(fā)布于 2025-3-12 00:42
瀏覽
0收藏

引言

解碼人類大腦處理語言的機(jī)制是神經(jīng)科學(xué)的核心目標(biāo)之一。人類語言處理由大腦的語言網(wǎng)絡(luò)(Language Network, LN)支持,這是一組位于大腦左側(cè)的前額葉和顳葉區(qū)域,具有對(duì)語言輸入的選擇性反應(yīng)能力。近年來,隨著機(jī)器學(xué)習(xí)的快速發(fā)展,基于大規(guī)模文本語料庫(kù)訓(xùn)練的下一詞預(yù)測(cè)的大型語言模型(LLMs)成為了模擬人類語言網(wǎng)絡(luò)內(nèi)部過程的有力工具。

本文旨在探討大型語言模型如何與人類語言網(wǎng)絡(luò)對(duì)齊,并分析這種對(duì)齊在模型訓(xùn)練中的演化過程。研究表明,LLMs 與人類語言網(wǎng)絡(luò)的對(duì)齊主要依賴于形式語言能力(即對(duì)語言規(guī)則的理解),而功能語言能力(涉及世界知識(shí)和推理)的對(duì)齊較弱。這一發(fā)現(xiàn)為理解語言網(wǎng)絡(luò)的核心功能提供了全新視角,同時(shí)也揭示了提升未來語言模型的潛在方向。

研究背景與關(guān)鍵問題

人類語言網(wǎng)絡(luò)的基礎(chǔ)

人類語言網(wǎng)絡(luò)是支持語言處理的一組大腦區(qū)域,這些區(qū)域通過對(duì)語言輸入的選擇性反應(yīng)而被定義。相比于音樂感知或算術(shù)計(jì)算等非語言任務(wù),語言網(wǎng)絡(luò)對(duì)語言處理表現(xiàn)出顯著的選擇性。此外,失語癥患者的研究進(jìn)一步證實(shí)了語言網(wǎng)絡(luò)的功能性,當(dāng)語言區(qū)域受損時(shí),患者會(huì)失去語言能力,但保留其他認(rèn)知功能。

模型與大腦對(duì)齊的現(xiàn)狀

過去的研究表明,某些人工神經(jīng)網(wǎng)絡(luò)的內(nèi)部表征與大腦中的表征相似。例如,在視覺領(lǐng)域,深度卷積神經(jīng)網(wǎng)絡(luò)已被證明可以預(yù)測(cè)靈長(zhǎng)類動(dòng)物視覺皮層的神經(jīng)響應(yīng)。最近,這種對(duì)齊研究被擴(kuò)展到聽覺和語言處理領(lǐng)域。然而,盡管LLMs在語言建模任務(wù)中表現(xiàn)出色,其與人類大腦語言網(wǎng)絡(luò)的對(duì)齊仍存在許多未解之謎。

本研究聚焦以下四個(gè)關(guān)鍵問題:

  1. 什么驅(qū)動(dòng)了未訓(xùn)練模型的腦對(duì)齊?
  2. 腦對(duì)齊主要與形式語言能力還是功能語言能力相關(guān)?
  3. 模型大小或下一詞預(yù)測(cè)性能是否能解釋腦對(duì)齊?
  4. 當(dāng)前的LLMs是否完全解釋了腦對(duì)齊基準(zhǔn)中的變異性?

方法與數(shù)據(jù)集

基準(zhǔn)測(cè)試框架

為了系統(tǒng)地分析LLMs的腦對(duì)齊情況,研究引入了一套嚴(yán)格的大腦評(píng)分框架。該框架通過嶺回歸模型預(yù)測(cè)大腦活動(dòng),并測(cè)量預(yù)測(cè)值與實(shí)際大腦激活之間的皮爾遜相關(guān)系數(shù)。與其他度量(如中心核對(duì)齊和表征相似性分析)相比,線性預(yù)測(cè)性能夠更好地區(qū)分有意義的語言刺激與隨機(jī)刺激。

數(shù)據(jù)集

本研究使用了多種神經(jīng)影像學(xué)和行為數(shù)據(jù)集,包括fMRI、ECoG以及自我調(diào)節(jié)的逐詞閱讀時(shí)間數(shù)據(jù)。這些數(shù)據(jù)集涵蓋了從短句到完整故事的不同語言刺激形式,確保研究結(jié)論的普適性。

模型

研究使用了Pythia模型套件中的八個(gè)模型,規(guī)模從1400萬到69億參數(shù)不等。每個(gè)模型在訓(xùn)練過程中被評(píng)估了34個(gè)檢查點(diǎn),涵蓋了約3000億個(gè)標(biāo)記。為了避免模型規(guī)模對(duì)對(duì)齊結(jié)果的影響,研究控制了特征數(shù)量,并通過功能定位方法選擇固定數(shù)量的語言單元進(jìn)行比較。

從語言到認(rèn)知:LLM如何超越人類語言網(wǎng)絡(luò)-AI.x社區(qū)圖片

研究發(fā)現(xiàn)

未訓(xùn)練模型的腦對(duì)齊

盡管未訓(xùn)練模型的腦對(duì)齊分?jǐn)?shù)低于預(yù)訓(xùn)練模型,但它們?nèi)员憩F(xiàn)出一定程度的對(duì)齊。這表明,未訓(xùn)練模型的架構(gòu)本身可能具有促進(jìn)腦對(duì)齊的歸納偏差。研究進(jìn)一步發(fā)現(xiàn),基于序列的模型(如GRU、LSTM和Transformer)比僅依賴最后一個(gè)標(biāo)記表示的模型(如線性模型和MLP)表現(xiàn)出更高的腦對(duì)齊。這表明上下文或時(shí)間整合是實(shí)現(xiàn)高對(duì)齊的關(guān)鍵因素。

訓(xùn)練過程中的對(duì)齊演化

在訓(xùn)練早期(約20億個(gè)標(biāo)記),腦對(duì)齊迅速增加,并在約80億個(gè)標(biāo)記時(shí)達(dá)到峰值。此后,對(duì)齊分?jǐn)?shù)趨于穩(wěn)定或略有下降。這一趨勢(shì)在不同規(guī)模的模型中表現(xiàn)出一致性,表明腦對(duì)齊的演化主要受訓(xùn)練動(dòng)態(tài)驅(qū)動(dòng),而非模型規(guī)模。

形式與功能語言能力的關(guān)系

研究表明,腦對(duì)齊與形式語言能力(如對(duì)語法規(guī)則的理解)之間的相關(guān)性顯著高于功能語言能力(如世界知識(shí)和推理)。這一發(fā)現(xiàn)支持了人類語言網(wǎng)絡(luò)主要編碼形式語言結(jié)構(gòu)的假設(shè)。此外,功能語言能力在訓(xùn)練后期持續(xù)增長(zhǎng),但其與腦對(duì)齊的關(guān)系較弱。

模型規(guī)模的影響

研究發(fā)現(xiàn),在控制特征數(shù)量的情況下,模型規(guī)模并不是腦對(duì)齊的可靠預(yù)測(cè)指標(biāo)。較大的模型并未表現(xiàn)出更高的對(duì)齊分?jǐn)?shù),這挑戰(zhàn)了“更大模型更接近人腦”的假設(shè)。

討論與未來方向

對(duì)語言網(wǎng)絡(luò)功能的啟示

本研究的結(jié)果表明,人類語言網(wǎng)絡(luò)主要支持形式語言處理,而更廣泛的認(rèn)知功能可能依賴于其他大腦網(wǎng)絡(luò)。這一發(fā)現(xiàn)為理解語言網(wǎng)絡(luò)的核心功能提供了新的視角,并為改進(jìn)LLMs的設(shè)計(jì)提供了指導(dǎo)。

提升LLMs的潛力

盡管當(dāng)前的腦對(duì)齊基準(zhǔn)尚未飽和,但研究表明,通過優(yōu)化模型的架構(gòu)和訓(xùn)練動(dòng)態(tài),LLMs在模擬人類語言處理方面仍有很大的改進(jìn)空間。例如,研究發(fā)現(xiàn)腦對(duì)齊可以作為優(yōu)化模型初始化參數(shù)的有效啟發(fā)式指標(biāo),這可能有助于提高模型的訓(xùn)練效率。

開放問題與未來工作

未來的研究可以進(jìn)一步探索LLMs在發(fā)展推理和世界知識(shí)時(shí)與其他認(rèn)知網(wǎng)絡(luò)(如多需求網(wǎng)絡(luò)或心智理論網(wǎng)絡(luò))的對(duì)齊情況。此外,將LLMs的對(duì)齊演化與人類語言習(xí)得過程進(jìn)行比較,可能揭示其學(xué)習(xí)軌跡的獨(dú)特性。擴(kuò)展腦評(píng)分基準(zhǔn)并引入多模態(tài)模型也將有助于深化我們對(duì)人工智能和生物智能之間關(guān)系的理解。

結(jié)論

本研究通過系統(tǒng)分析LLMs與人類語言網(wǎng)絡(luò)的對(duì)齊情況,揭示了形式語言能力在對(duì)齊中的關(guān)鍵作用,并挑戰(zhàn)了關(guān)于模型規(guī)模與腦對(duì)齊關(guān)系的傳統(tǒng)假設(shè)。這些發(fā)現(xiàn)不僅為理解人工與生物語言處理的關(guān)系提供了新視角,也為未來語言模型的設(shè)計(jì)和優(yōu)化指明了方向。

論文??https://arxiv.org/abs/2503.01830??

本文轉(zhuǎn)載自??頓數(shù)AI??,作者:小頌


已于2025-3-12 00:42:58修改
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦