自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

LoRA或許暗藏玄機 | 數(shù)字也會騙人?GPT-4都會說9.11>9.9,人工智能的"數(shù)學殘障"有救了嗎?

發(fā)布于 2024-11-14 14:52
瀏覽
0收藏

大模型領(lǐng)域的發(fā)展日新月異,每天都有許多有趣的論文值得深入品讀。下面是本期覺得比較有意思的論文:

  • LoRA或許暗藏玄機
  • 數(shù)字也會騙人?GPT-4都會說9.11>9.9,人工智能的"數(shù)學殘障"有救了嗎?    

1、LoRA或許暗藏玄機

近期,一項重磅研究揭示了AI訓練中廣受歡迎的LoRA方法可能存在隱患。雖然LoRA能讓模型訓練時節(jié)省90%以上的顯存,在目標任務上表現(xiàn)堪比完整微調(diào),但研究人員發(fā)現(xiàn)這種"看似完美"的方法背后,或許并不如表面那么美好。    

LoRA或許暗藏玄機 | 數(shù)字也會騙人?GPT-4都會說9.11>9.9,人工智能的"數(shù)學殘障"有救了嗎?-AI.x社區(qū)

研究團隊通過對模型權(quán)重矩陣的深入分析發(fā)現(xiàn),LoRA訓練出的模型中存在一些特殊的"入侵維度"(intruder dimensions)。這些維度就像是模型中的"異質(zhì)成分",雖然不影響模型在目標任務上的表現(xiàn),但會導致模型"忘記"更多預訓練時學到的知識,并且在持續(xù)學習多個任務時表現(xiàn)不夠穩(wěn)定。

LoRA或許暗藏玄機 | 數(shù)字也會騙人?GPT-4都會說9.11>9.9,人工智能的"數(shù)學殘障"有救了嗎?-AI.x社區(qū)

有趣的是,研究人員發(fā)現(xiàn),當增加LoRA的秩(rank)時,這個問題會得到明顯改善。特別是當秩達到64時,模型的行為會更接近傳統(tǒng)的完整微調(diào)方法。這就像是在"節(jié)省"和"全面"之間找到了一個更好的平衡點。    

LoRA或許暗藏玄機 | 數(shù)字也會騙人?GPT-4都會說9.11>9.9,人工智能的"數(shù)學殘障"有救了嗎?-AI.x社區(qū)

這項研究給AI從業(yè)者帶來了重要啟示:在選擇使用LoRA時,不能只關(guān)注顯存占用和目標任務的表現(xiàn),還需要考慮模型的泛化性能。同時,適當增加LoRA的秩可能是一個值得考慮的優(yōu)化方向。這為如何更好地應用LoRA提供了新的思路。

2、數(shù)字也會騙人?GPT-4都會說9.11>9.9,人工智能的"數(shù)學殘障"有救了嗎?

LoRA或許暗藏玄機 | 數(shù)字也會騙人?GPT-4都會說9.11>9.9,人工智能的"數(shù)學殘障"有救了嗎?-AI.x社區(qū)

大語言模型(LLM)近來可以解答奧數(shù)題、高考數(shù)學,甚至能做研究生難度的數(shù)學題。但你可能想不到,這些"數(shù)學天才"卻在最基礎的數(shù)字理解上栽了跟頭——它們居然會認為9.11比9.9大!這就好比一個解題思路完全正確的學霸,卻在最后的計算環(huán)節(jié)總是粗心大意地出錯。    

LoRA或許暗藏玄機 | 數(shù)字也會騙人?GPT-4都會說9.11>9.9,人工智能的"數(shù)學殘障"有救了嗎?-AI.x社區(qū)

為了系統(tǒng)研究這個問題,來自北京大學等機構(gòu)的研究人員開發(fā)了一個全面的測試基準。他們從小學到高中的數(shù)學課程中提取了4種數(shù)字表示方法(整數(shù)、小數(shù)、分數(shù)、科學計數(shù)法)和17種基礎運算任務,創(chuàng)建了41組測試。這些看似簡單的任務,即使是最新的GPT-4和Llama-3.1這樣的頂尖模型也頻頻失手,尤其是在稍微復雜一點的計算(如乘法、取模)或處理整數(shù)之外的數(shù)字表示時。

LoRA或許暗藏玄機 | 數(shù)字也會騙人?GPT-4都會說9.11>9.9,人工智能的"數(shù)學殘障"有救了嗎?-AI.x社區(qū)

研究團隊嘗試了三種改進方案:優(yōu)化預訓練階段的數(shù)字處理能力、對現(xiàn)有模型進行微調(diào)、使用鏈式思考(CoT)技術(shù)。有趣的是,簡單的微調(diào)確實能顯著提升模型的數(shù)字理解能力,但那些專門設計用來增強數(shù)字處理的技巧反而會適得其反。這就像給一個已經(jīng)形成思維定式的學生重新教授基礎知識,反而會打亂他原有的認知體系。    

LoRA或許暗藏玄機 | 數(shù)字也會騙人?GPT-4都會說9.11>9.9,人工智能的"數(shù)學殘障"有救了嗎?-AI.x社區(qū)

這項研究揭示了一個重要但經(jīng)常被忽視的問題:在人工智能追求解決高深數(shù)學問題的同時,最基礎的數(shù)字運算能力反而成了"短板"。這就好比一個會解微積分的學霸,卻在1+1等基礎題上犯錯。不過好消息是,研究人員已經(jīng)開始認真對待這個問題,相信在不久的將來,AI的"數(shù)學殘障"會得到根本性的改善。

論文標題:Number Cookbook: Number Understanding of Language Models and How to Improve It

論文鏈接:??https://arxiv.org/abs/2411.03766??

本文轉(zhuǎn)載自 ??AI帝國??,作者: 無影寺

收藏
回復
舉報
回復
相關(guān)推薦