自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

國外Java工程師力證:GPT-4不能解決邏輯謎題,但確實(shí)具備推理能力

人工智能 新聞
現(xiàn)在,來自IMG Arena的高級軟件工程師 Johan LAJILI在自己的博客中發(fā)表了文章,堅(jiān)定地支持LLM具有「智能」、「推理」以及「邏輯」的能力。

GPT-4或LLM有推理能力嗎?這是個存在已久的爭議性問題。

有人認(rèn)為LLM只是通過大量的文本訓(xùn)練得到了一種普適的近似檢索,并不具備真正的推理能力。

但也有大量的論文研究宣稱LLM在多項(xiàng)推理任務(wù)中表現(xiàn)優(yōu)異。

現(xiàn)在,來自IMG Arena的高級軟件工程師 Johan LAJILI在自己的博客中發(fā)表了文章,堅(jiān)定地支持LLM具有「智能」、「推理」以及「邏輯」的能力。

并且,面對現(xiàn)有的諸多對LLM推理能力的質(zhì)疑,Johan也給出了相當(dāng)詳細(xì)的解釋。

博客地址:https://lajili.com/posts/post-3/

那么,就讓我們來看看,Johan是如何證明LLM是具備推理能力的。

LLM只是一個「字詞接龍」?

「LLM只是一個預(yù)測下一個單詞的模型」,這是反對LLM具有推理能力的主要觀點(diǎn)。

這個觀點(diǎn)通常來自于那些精通技術(shù)或人工智能的人,實(shí)際上,這個說法也是正確的。

在進(jìn)行工作時,GPT-4每次只能預(yù)測一個單詞(或者更具體地說是一個token)。用戶給它一個提示或一段需要填充的文本時,它就會使用其神經(jīng)網(wǎng)絡(luò)找到最可能跟在后面的單詞。

但是,將LLM的算法與智能手機(jī)鍵盤上的單詞建議算法相提并論是相當(dāng)短視的。

事實(shí)上,為了能夠準(zhǔn)確預(yù)測具有意義的句子,GPT-4必須具備一種表示概念的內(nèi)部方式,例如「對象」、「時間」、「家庭」以及其他一切的可以被表述的存在。

這不僅是找到一個與前一個詞有關(guān)聯(lián)的詞語,LLM還需理解這些詞語的含義,才能準(zhǔn)確地回復(fù)用戶提出的問題。

而LLM對概念的理解是通過大規(guī)模訓(xùn)練建立起來的。

通過這個過程,可以證實(shí)LLM具有對「概念」的概念,即它們可以對物理世界中的事物以及它們之間的相互作用進(jìn)行表示。

這意味著GPT-4不僅可以預(yù)測下一個詞語,還可以理解更高層次的語義概念,使其能夠生成連貫且有意義的文本。

但只能夠理解「概念」還不足以進(jìn)行推理,因?yàn)橥评磉€要求能夠組合不同的概念去解決問題。

LLM無法解答X謎題與邏輯問題

隨著人工智能技術(shù)的進(jìn)步,傳統(tǒng)的圖靈測試,即讓人類分辨與自己對話的是不是人工智能,在ChatGPT出世后失去了效用。

現(xiàn)在的圖靈測試變得更加復(fù)雜。

同時,一些聲稱能夠檢測出內(nèi)容是否由人工智能生成的公司也陸陸續(xù)續(xù)出現(xiàn),但這些嘗試基本上都失敗了。

此外,對于人工智能生成的內(nèi)容,連專業(yè)的語言學(xué)家都有一半的概率都無法區(qū)分辨認(rèn)。

這些嘗試檢測人工智能生成內(nèi)容的失敗恰恰證明了我們不再區(qū)分人與人工智能二者生成的內(nèi)容。

現(xiàn)在對人工智能生成內(nèi)容進(jìn)行區(qū)分時,通常是通過一些明顯的跡象,比如句子中出現(xiàn)的「根據(jù)我在2021年9月之前的訓(xùn)練...」此類表述。

但這對人工智能是不公平的。

如果我們唯一能用來識別它的是其自身的一些寫作習(xí)慣,那么我們顯然已經(jīng)到了一個承認(rèn)它的寫作技巧與人類相似的階段。

回到LLM能否推理和邏輯謎題的問題上。

Jeremy Howard在他的演講中很好地解釋了LLM如何進(jìn)行推理。

通常,一個優(yōu)秀的、系統(tǒng)的Prompt會對GPT-4的結(jié)果產(chǎn)生巨大影響。

如果用戶能夠詳細(xì)說明問題背景和邏輯步驟,GPT-4通??梢越鉀Q這些謎題。

如微軟亞洲研究院、北大、北航等機(jī)構(gòu)的研究人員,通過97個回合的「蘇格拉底式」嚴(yán)格推理,成功讓GPT-4得出了「P≠NP」的結(jié)論。

論文地址:https://arxiv.org/abs/2309.05689

與人類不同,GPT-4沒有思維和口頭語言之間的區(qū)分。

對于人類來說,在不思考或下意識的情況下解決問題時,意味著問題非常簡單,這本質(zhì)上是憑記憶回答的。

如在計(jì)算2x8時,我們會非常迅速地得出答案是16,此時我們的大腦沒有經(jīng)過任何思考。

但如果是解決一個復(fù)雜的數(shù)學(xué)問題,或猜一個謎語,一個編程問題,我們在回答問題前就得在腦海中思考一番了。

而這,就是推理。

更復(fù)雜的問題可能需要我們首先考慮如何解決它,然后再嘗試解答。

在這方面,GPT-4與人類沒有區(qū)別。

但GPT-4的思考過程作為回應(yīng)的一部分是可以被看到的。

也許未來的GPT-5將有一個「思考」部分的響應(yīng),但不會默認(rèn)顯示出來。

在GPT-4能否具有推理能力這一點(diǎn)上,實(shí)際上只涉及成本以及效率的問題。

就像在估算餐廳的餐費(fèi)或進(jìn)行稅務(wù)申報時不會有相同程度的雙重檢查一樣,讓GPT-4對用戶提出的每個問題都進(jìn)行一番詳細(xì)的論證是非常低效的。

LLM的幻覺和意識

關(guān)于LLM的另一個經(jīng)典問題是這些模型存在著偏見和幻覺等問題。

這的確是一個棘手的難題,但這不代表LLM不能進(jìn)行推理。

舉個例子,人無法避免偏見。有些人會意識到這一點(diǎn),而另一些人可能從未思考過這個問題。

在近代以前,人們還堅(jiān)信地球是宇宙的中心,認(rèn)為空氣就是「無」。

但我們可以因此下定論說近代以前的人都沒有推理能力嗎?

同樣地,模型會出錯也不意味著模型不會推理。

因?yàn)檎_或者持續(xù)正確并不是推理的定義,而是全知的定義。

但關(guān)于GPT-4是否存在意識,我的回答是沒有。

意識的存在是非常哲學(xué)性的問題,一定程度上也取決于個人的看法。

但我認(rèn)為意識是在很長一段時間內(nèi)產(chǎn)生的,并需要一個「自我」來照顧。

每當(dāng)用戶打開GPT-4,選擇在一個聊天框開始對話時,這實(shí)際上是在創(chuàng)造一個全新的存在。

對話結(jié)束后,這個存在要么被刪除。要么保持在靜態(tài)狀態(tài)。

缺乏長期記憶,缺乏情感,不能自發(fā)地對外部刺激做出反應(yīng),都是阻礙意識產(chǎn)生的限制因素。

但我們也可以樂觀地相信這些問題會在未來被解決。

也許,現(xiàn)在就有一群聰明人正在研究這些問題。

而GPT-4是否存在意識,只是關(guān)于「意識」這個謎題的一小部分。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2021-08-17 15:47:12

機(jī)器學(xué)習(xí)自然語言神經(jīng)網(wǎng)絡(luò)

2023-05-15 15:38:59

AI模型

2023-11-03 13:07:00

AI模型

2014-03-05 09:47:26

帶寬應(yīng)用性能

2024-12-26 09:20:51

2020-03-23 07:15:35

物聯(lián)網(wǎng)IOT物聯(lián)網(wǎng)技術(shù)

2023-06-19 08:19:50

2024-07-02 13:25:22

2021-05-13 16:57:14

機(jī)器人人工智能技術(shù)

2024-03-05 13:59:51

模型數(shù)據(jù)

2025-04-16 09:35:03

2023-03-23 21:57:06

OpenAIChatGPTAI

2010-09-07 14:08:11

2018-11-06 12:53:24

網(wǎng)絡(luò)安全網(wǎng)絡(luò)安全投資

2023-05-22 13:31:06

GPT-4語言能力智商

2009-01-28 09:13:00

服務(wù)器虛擬化刀片服務(wù)器

2024-08-08 13:04:28

2023-11-20 21:56:04

AI推理

2023-04-04 11:20:40

GPT-4OpenAI

2013-09-27 09:42:37

工程師邏輯
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號