自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Meta AI的COCONUT:無需語言即可思考的AI方法

譯文 精選
人工智能
當研究人員首次發(fā)現(xiàn)大型語言模型(LLMS)可以通過思維鏈提示一步一步地“思考”時,這是一個突破性的時刻!我們終于可以窺視這些黑盒子的推理過程了。

譯者 | 涂承燁

審校 | 重樓

當研究人員首次發(fā)現(xiàn)大型語言模型LLMS可以通過思維鏈提示一步一步地“思考”時,這是一個突破性的時刻!我們終于可以窺視這些黑盒子的推理過程了。但如果我告訴你,讓人工智能模型用自然語言思考可能會阻礙它們的發(fā)展呢?

Meta和加州大學圣地亞哥分校的研究人員通過他們的新COCONUT(連續(xù)思維鏈)方法發(fā)現(xiàn)了這一點。

想象一下,試圖解決一個復雜的數(shù)學問題,同時被迫大聲講述每一步。很煩人,對吧?現(xiàn)在,讓我們先了解語言模型面臨的核心挑戰(zhàn)。

當我們讓人工智能模型通過自然語言推理時:

  • 它們生成的大多數(shù)標記只是語言粘合劑,像“因此”、“下一步”和“結(jié)果”這樣的單詞,它們沒有增加任何推理價值
  • 關(guān)鍵決策點因需要承諾特定單詞而受到瓶頸
  • 該模型在保持語法連貫性上花費了大量的計算精力,而不是實際解決問題

研究人員在他們的神經(jīng)學研究中發(fā)現(xiàn)了一些有趣的事情:當人類處理復雜的推理任務(wù)時,我們大腦的語言中心通常會保持令人驚訝的安靜。然而,我們一直在構(gòu)建相反的人工智能系統(tǒng),迫使它們將每一個推理步驟轉(zhuǎn)化為文字。

想想你是如何解決一個謎題。你的大腦可能同時探索多種可能性,保持模糊的假設(shè),只有在分享解決方案時才將其思想總結(jié)為語言。但傳統(tǒng)的思維鏈方法迫使人工智能模型對每一個中間步驟進行表達,從而造成了“語言瓶頸”。

這種見解引出了一個問題:如果我們能讓人工智能模型用它們的原生“語言”進行推理,它們隱藏狀態(tài)下的連續(xù)、高維空間,而不是強迫它們把所有內(nèi)容都翻譯成符號,會怎么樣?

了解COCONUT的創(chuàng)新

想象一下大聲說出你的想法和你大腦中發(fā)生的實際心理過程之間的區(qū)別。這種差距言語化思維和神經(jīng)活動之間的差距正是Meta的研究人員利用COCONUT所挖掘的。

COCONUT的真正突破在于它如何讓人工智能模型以兩種不同的方式思考,就像人類一樣。想想當你解決一個復雜的謎題時你不會在腦海中講述每一個可能的動作,對吧?相反,你會這么做

  • 吸收問題:你吸收信息(比如閱讀謎題規(guī)則)
  • 靜靜地思考:你的大腦在不把它們變成文字的情況下探索多種可能性
  • 分享解決方案:只有這樣,你才能向他人解釋你的想法

COCONUT為AI模型提供了同樣的自然靈活性。它沒有像傳統(tǒng)方法那樣強迫他們大聲“說出”每一個想法,而是讓他們在自然的神經(jīng)空間中思考,研究人員稱之為“潛在空間”。

模型在兩種模式之間平滑切換:

  • 當它需要理解問題或給出答案時,它會使用常規(guī)語言
  • 但對于實際思考的過程時,它使用純神經(jīng)模式,不受詞語的限制

訓練過程

COCONUT最迷人的方面之一是它的訓練課程。它的特別之處在于它反映了自然的學習過程。想想我們是如何教授復雜技能的,就像你不會馬上把一個人扔進深淵,而是在他們通過了每一個關(guān)卡后,逐漸增加復雜性。

研究人員對COCONUT采用了同樣的方法:

階段1:基礎(chǔ)

首先,該模型像其他人工智能一樣學習,通過傳統(tǒng)的思維鏈推理。這給了它一個堅實的基礎(chǔ)理解。

階段2:過渡階段

這就是有趣的地方。漸漸地,那些寫下來的推理步驟被連續(xù)的思考所取代,慢慢地移除輔助輪,讓模型發(fā)展自己的內(nèi)部思維模式。

階段3:平衡

最后,該模型學會潛在空間的深度思考和清晰的語言傳達其見解之間無縫切換。

在訓練過程中,該模型開發(fā)人們沒有明確編程邏輯的能力,比如同時考慮多個推理路徑。這種新興行為尤其令人興奮,因為它表明我們可能更接近更自然的人工智能推理形式。正是這些意想不到的發(fā)展往往導致最大的突破。

還記得之前提到的那些神經(jīng)學研究嗎?他們發(fā)現(xiàn),人類大腦經(jīng)常在沒有高度參與的語言中心的情況下處理復雜的推理任務(wù)。COCONUT似乎正在發(fā)展類似的模式,在其原生神經(jīng)空間中進行深入思考,只有在需要交流時才轉(zhuǎn)換為語言。

數(shù)字講述現(xiàn)象

研究中還有一些重要發(fā)現(xiàn):

  • 數(shù)學單詞問題(GSM8k):在這里,COCONUT達到了34.1%的準確率。雖然這低于傳統(tǒng)的思維鏈(42.9%),但明顯優(yōu)于基準方法。
  • 邏輯推理(ProntoQA):COCONUT達到99.8%的準確率,超過了傳統(tǒng)思維鏈的98.8%。但令人驚訝的是,它只使用了9個標記,而CoT使用了92.5個標記
  • 復雜計劃(ProsQA):最令人印象深刻的結(jié)果來自這個高級推理測試。COCONUT的準確率達到97%,而傳統(tǒng)方法的準確率僅為77.5%。同樣,它以驚人的效率做到了這一點,14.2個標記對49.4個標記

讓這些結(jié)果充滿希望的不僅僅是原始數(shù)據(jù),而是它們揭示了不同類型的思維。雖然COCONUT在數(shù)學推理方面可能仍處于起步階段,但它在需要復雜邏輯規(guī)劃和推理的任務(wù)上表現(xiàn)出色。

COCONUT代表了對人工智能系統(tǒng)如何進行推理的根本性反思,它使我們更接近更自然、更高效、更強大的人工智能形式。從基于語言的推理到持續(xù)思考的旅程,是朝著更有能力、更高效的人工智能系統(tǒng)邁出的一步。

譯者介紹

涂承燁,51CTO社區(qū)編輯,省政府采購專家、省綜合性評標專家、公 E 采招標采購專家,獲得信息系統(tǒng)項目管理師、信息系統(tǒng)監(jiān)理師、PMP,CSPM-2等認證,擁有15年以上的開發(fā)、項目管理、咨詢設(shè)計等經(jīng)驗。對項目管理、前后端開發(fā)、微服務(wù)、架構(gòu)設(shè)計、物聯(lián)網(wǎng)、大數(shù)據(jù)、咨詢設(shè)計等較為關(guān)注。

原文標題:Meta’s COCONUT: The AI Method That Thinks Without Language,作者:Alex McFarland

責任編輯:華軒 來源: 51CTO
相關(guān)推薦

2021-03-22 17:16:04

AI 數(shù)據(jù)人工智能

2022-05-27 10:02:48

微軟MetaAI

2023-02-28 14:57:02

MetaAI

2025-03-05 08:57:55

2023-02-25 16:14:36

AIMeta語言模型

2022-02-24 12:46:03

3D元宇宙AI

2022-02-28 14:54:40

FacebookMeta元宇宙

2022-07-06 13:06:29

Meta神經(jīng)網(wǎng)絡(luò)架構(gòu)自監(jiān)督學習

2023-05-22 14:11:22

MetaAI芯片

2023-05-25 16:24:13

2023-05-06 09:34:15

MetaAI

2025-02-04 15:14:34

2024-11-05 13:40:00

2022-06-17 09:08:27

代碼Python內(nèi)置庫

2025-03-21 14:11:19

2023-05-12 07:54:15

Meta人工智能廣告工具

2023-09-04 19:19:36

語言模型LLM

2021-05-12 06:28:09

AI人工智能

2023-10-20 09:54:00

人工智能AI

2023-02-09 12:31:20

點贊
收藏

51CTO技術(shù)棧公眾號