自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

長鏈推理表象下,大模型精細(xì)表征張冠李戴的本質(zhì)

人工智能 新聞
我們構(gòu)建了等效交互理論體系,發(fā)表了幾十篇論文,在一定程度上證明并成功實現(xiàn)了對大部分神經(jīng)網(wǎng)絡(luò)的符號化解釋。

近些年,大模型的發(fā)展可謂是繁花似錦、烈火烹油。從 2018 年 OpenAI 公司提出了 GPT-1 開始,到 2022 年底的 GPT-3,再到現(xiàn)在國內(nèi)外大模型的「百模爭鋒」,DeepSeek 異軍突起,各類大模型應(yīng)用層出不窮。

然而,無論在學(xué)術(shù)界還是在工業(yè)界,目前對大模型應(yīng)用的評測都是單純在模型輸出層面判斷結(jié)果的準(zhǔn)確性,而沒有從大模型內(nèi)在精細(xì)決策邏輯的角度來分析模型的可靠性。類比到人類社會,「實現(xiàn)內(nèi)在精細(xì)邏輯對齊」才是實現(xiàn)人與人互信的基礎(chǔ)。

圖片

  • 論文標(biāo)題:Alignment Between the Decision-Making Logic of LLMs and Human Cognition: A Case Study on Legal LLMs
  • Arxiv 地址:https://arxiv.org/abs/2410.09083

無法在內(nèi)在邏輯上與人類認(rèn)知溝通,也恰恰是黑盒智能模型無法取得信任的本質(zhì)——在可信問題上的「人」「機」有別,其主要問題并不在哲學(xué)、社會學(xué)方面,而是一個數(shù)學(xué)問題:能否嚴(yán)格地證明神經(jīng)網(wǎng)絡(luò)在單個樣本上輸出背后的千萬種不同變換,都可以在數(shù)值上嚴(yán)格表示為一個簡單的邏輯圖模型。

但是,因為神經(jīng)網(wǎng)絡(luò)的復(fù)雜結(jié)構(gòu)與所需要的清晰邏輯解釋是天然沖突的,所以「從數(shù)學(xué)上嚴(yán)格地解釋大模型內(nèi)在的精細(xì)決策邏輯」長期以來被認(rèn)為是一個不可能完成的問題。好在沉舟側(cè)畔千帆過,柳暗花明又一村。我們構(gòu)建了等效交互理論體系,發(fā)表了幾十篇論文,在一定程度上證明并成功實現(xiàn)了對大部分神經(jīng)網(wǎng)絡(luò)的符號化解釋。

相關(guān)鏈接:

https://zhuanlan.zhihu.com/p/693747946

https://mp.weixin.qq.com/s/MEzYIk2Ztll6fr1gyZUQXg

大模型金玉其外,敗絮其中

一旦有了嚴(yán)謹(jǐn)?shù)慕忉屝岳碚摴ぞ?,?dāng)我們可以清晰地解構(gòu)出大模型的內(nèi)在決策邏輯時,我們驚訝地發(fā)現(xiàn),哪怕大模型在特定任務(wù)上展現(xiàn)出再高的準(zhǔn)確率,其內(nèi)在的決策邏輯表征可謂是一塌糊涂,甚至一半以上都是混亂的、完全與正常推理邏輯不沾邊的。

很多應(yīng)用需求是創(chuàng)造出來的。比如,在新的研究 [3] 中,我們以法律大模型為例,目前幾乎所有的法律大模型應(yīng)用僅僅關(guān)注判案結(jié)果的正確性,而忽視了法律推理過程中可能潛在的不公平和倫理風(fēng)險。

然而,當(dāng)你第一次確切地解構(gòu)出一個法律大模型所使用的大量復(fù)雜、卻又一塌糊涂的決策邏輯時,當(dāng)你在各種情景中驗證了這些錯誤邏輯的客觀存在及其數(shù)值嚴(yán)謹(jǐn)性時,很多認(rèn)知就回不去了,就像見過元素周期表以后,五行煉丹也就回不去了。

我們發(fā)現(xiàn),法律大模型經(jīng)常錯誤地將與案件無關(guān)的時間、位置信息視為法律判決的理由,或者「張冠李戴」地將一個被告的行為引為其他被告的判案依據(jù)。

時代洪流滾滾向前,讓我們看看都發(fā)生了什么。

圖片

圖 1. 對 SaulLM-7B-Instruct 在案例 1 的解釋

讓我們考慮一個輸入案例圖片,它包含圖片個輸入變量(這里可以是案例中的各個短語),我們用集合圖片表示這些輸入變量的全集。由大模型生成的一個包含圖片個 tokens 的自然語言序列,圖片。這樣,大模型輸出結(jié)果的置信度得分圖片可以定義為:

圖片

其中,圖片表示在生成第圖片個 token 之前的前圖片個tokens 組成的序列。圖片表示給定輸入句子圖片和前圖片個tokens 的條件下生成第圖片個token的概率。

這樣,我們可以構(gòu)造出一個「與或交互邏輯模型」。

圖片

這個邏輯模型中包含「與交互」和「或交互」兩類操作。觸發(fā)函數(shù)圖片表示一個「與交互」,當(dāng)且僅當(dāng)集合圖片中全部輸入變量都被包含(沒有被遮擋)在樣本圖片時,函數(shù)圖片被激活,并返回 1;否則返回 0。

類似地,觸發(fā)函數(shù)圖片表示一個「或交互」,當(dāng)集合圖片中任一輸入變量被包含(沒有被遮擋)在樣本圖片時,函數(shù)圖片被激活,并返回 1;否則返回 0。

無限擬合性:我們證明,無論我們?nèi)绾坞S機遮擋圖片個輸入單元,得到圖片個不同的遮擋輸入,構(gòu)造出的與或交互模型總可以精確近似出神經(jīng)網(wǎng)絡(luò)在這所有圖片個遮擋狀態(tài)下對生成目標(biāo)的輸出置信度得分。

圖片

這里圖片表示遮擋輸入樣本圖片中屬于集合圖片中的輸入單元,僅保留屬于集合圖片中的輸入單元的遮擋樣本。

圖片

圖 2. 與或交互的無限擬合性

需要注意的是,與或交互解釋顯示,不同于驚艷的應(yīng)用性能所展示的對大模型推理能力的想象,大模型的大部分決策邏輯并不是嚴(yán)密的、清晰的、層次化的邏輯鏈條,大部分交互概念僅僅表示詞匯之間的統(tǒng)計關(guān)聯(lián)性。類似于「詞袋」模型,當(dāng)大模型基于輸入 prompt 生成下一個單詞或 token 時,其所依賴的交互效用大部分并沒有利用輸入上下文之間的邏輯關(guān)系,大部分決策依賴于詞匯間最淺表的統(tǒng)計關(guān)聯(lián)性來「盲猜」目標(biāo)單詞。

比如,在上文案例中,大模型僅僅根據(jù)「chased」為生成的判決結(jié)果「Assault」給出了 0.3811 的置信度,而單獨一個「with an axe」短語也會為「Assault」判決增加 0.4632 的置信度。

固然這些單詞與判決結(jié)果有統(tǒng)計意義的強相關(guān)性,但是大模型的決策依據(jù)并沒有試圖建模這些單詞與犯罪嫌疑人之間的切實關(guān)系,并沒有理解哪些犯罪嫌疑人做了什么事兒,也就導(dǎo)致了大模型可能產(chǎn)生一些看似正確的結(jié)果,但是其推理過程中可能潛在巨大的倫理風(fēng)險。

例如,在下面的案例中我們將展示大模型常常將不同犯罪嫌疑人的行為進行張冠李戴,使其他犯罪嫌疑人的行為影響到目標(biāo)犯罪嫌疑人的判罰。

案例:張冠李戴,根據(jù)其他犯罪嫌疑人的行為做出判決

模型:BAI-Law-13B [1]

輸入:On the morning of December 22, 2013, the defendants Andy and Bob deceived Charlie and the three of them had an argument. Andy chased Charlie with an axe and bit Charlie, causing Charlie to be slightly injured. Bob hit Charlie with a shovel, injuring Charlie and shovel causing Charlie's death.

輸出:Intentional Injury,輸出置信度數(shù)值 2.3792

圖片

圖 3. 對 BAI-Law-13B 模型和 SaulLM-7B-Instruct 模型在案例 1 上的解釋

法律 LLM 很大一部分交互模式錯誤地使用了犯罪嫌疑人的行為來對另一個無關(guān)的犯罪嫌疑人做出判決,顯示出大模型存在的一種典型缺陷——張冠李戴。

大模型傾向于記憶敏感詞語(如武器)與輸出結(jié)果之間的相關(guān)性,而不是理解輸入 prompt 中真正的邏輯,例如識別誰做了哪些行為。

案例顯示,Andy 咬傷 Charlie,構(gòu)成傷害罪,隨后 Bob 用鐵鍬擊打 Charlie,導(dǎo)致 Charlie 死亡。案例經(jīng)由法律專家將與判決相關(guān)的實體行為標(biāo)記為相關(guān)詞語,與判決不相關(guān)的詞語標(biāo)記為不相關(guān)詞語,以及將不應(yīng)影響判決的不正確的實體行為標(biāo)記為禁止詞語。

在這起案件中,當(dāng)法律大模型判決 Andy 行為的后果時,「hit」「with a shovel」「injuring」和「death」等描述 Bob 的行為和后果的詞語應(yīng)被標(biāo)記為禁止詞語,與Andy沒有直接關(guān)系。

在英文法律大模型 SaulLM-7B-Instruct 前 50 個最突出的 AND-OR 交互模式中,有 26 個 AND 交互模式和 24 個 OR 交互模式。如圖 1,可以看出 AND 交互模式圖片,AND 交互模式圖片,OR 交互模式 圖片分別對 Andy 的判決貢獻了顯著的可靠交互效應(yīng) = 0.47、= 0.33、= 0.09。然而,大模型也使用了描述 Bob 的行為和后果的禁止詞語得出對 Andy 的判決,例如,AND 交互模式圖片圖片,圖片等對 Andy 的判決產(chǎn)生不可靠的交互效應(yīng) = -1.04、= 0.93、= 0.19。

在中文法律大模型 BAI-Law-13B 前 50 個最突出的 AND-OR 交互模式中,有 17 個 AND 交互模式和 33 個 OR 交互模式。如圖 3,可以看出 AND 交互模式  圖片,AND 交互模式圖片,OR 交互模式 圖片 分別對 Andy 的判決貢獻了顯著的可靠交互效應(yīng) = 0.33、= 0.17、= 0.06。然而,大模型也使用了描述 Bob 的行為和后果的禁止詞語得出對 Andy 的判決,例如,AND 交互模式 圖片,OR 交互模式圖片,圖片 等對 Andy 的判決產(chǎn)生不可靠的交互效應(yīng) = -0.43、= -0.09、= -0.04。

這里大模型用的不可靠交互比例為 55.5%-58.5%。

圖片

圖 4.交互概念解釋率先揭示了大模型精細(xì)表征邏輯的隱患。大模型沒有建模長鏈推理」邏輯,而使用大量「張冠李戴」的局部信息來生成判決結(jié)果,引起了不容忽視的倫理問

圖 4 展示了 BAI-Law-13B 模型在中文案例上的解釋,判案所依據(jù)的大部分交互概念都是與目標(biāo)犯罪嫌疑人無關(guān)的張冠李戴的交互概念。

責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2025-02-08 17:00:11

2024-10-21 16:41:17

2024-12-12 17:30:00

模型測評AI

2023-01-05 09:33:37

視覺模型訓(xùn)練

2023-06-05 10:01:18

模型測評

2025-04-30 16:48:07

2025-02-17 14:43:51

2023-10-11 12:32:53

AI模型

2025-02-10 09:35:00

2024-04-15 12:50:00

大型語言模型ReFT

2024-07-08 12:18:13

2023-05-05 13:29:04

模型推理

2023-09-14 15:41:22

2023-09-01 15:37:56

2024-09-09 08:31:15

2023-12-25 09:23:07

模型技術(shù)

2024-02-01 08:34:30

大模型推理框架NVIDIA

2023-11-23 07:41:54

因果推斷大模型

2024-12-13 14:30:00

AI模型數(shù)據(jù)

2023-05-30 14:17:00

模型推理
點贊
收藏

51CTO技術(shù)棧公眾號