自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OpenAI工程師必備經(jīng)典《苦澀的教訓(xùn)》,原來20多年前就有了原型

人工智能 新聞
大量數(shù)據(jù)學(xué)習(xí)涌現(xiàn)出來的能力,終于超越了人們的想象。

OpenAI 推出視頻生成模型 Sora 已經(jīng)一周的時間了,熱度不減,作者團(tuán)隊還在持續(xù)放出讓人眼前一亮的視頻。比如「一群愛冒險的小狗探索天空廢墟的電影預(yù)告片」,Sora 一次生成并自己完成剪輯。

當(dāng)然,一個個生動、逼真的 AI 視頻讓人們好奇為什么是 OpenAI 率先打造出了 Sora 并能夠跑通所有 AGI 技術(shù)棧呢?這一問題在社交媒體上引發(fā)了熱烈的討論。

圖片

其中,在一篇知乎文章中,加州大學(xué)伯克利分校計算機(jī)科學(xué)博士、作者 @SIY.Z 分析了 OpenAI 成功的一些方法論,他認(rèn)為 OpenAI 的方法論就是通往 AGI 的方法論,并且該方法論構(gòu)建在幾個重要的「公理」之上,包括了 The bitter lesson、Scaling Law 和 Emerging properties。

圖片

知乎原貼:https://www.zhihu.com/question/644486081/answer/3398751210?utm_psn=1743584603837992961

其中 The bitter lesson 源自機(jī)器學(xué)習(xí)先驅(qū) Rich Sutton 在 2019 年的一篇經(jīng)典文章《苦澀的教訓(xùn)》, 通過探討人工智能近幾十年所走過的彎路,他拋出的核心觀點是:人工智能如果想要長期獲得提升,利用強大的算力才是王道。這里的算力隱含了大量的訓(xùn)練數(shù)據(jù)和大模型。

圖片

原文鏈接:http://www.incompleteideas.net/IncIdeas/BitterLesson.html

因此,作者 @SIY.Z 認(rèn)為某種意義上,強大算力加持的通用 AI 算法才是 AGI 路徑的王道和 AI 技術(shù)真正進(jìn)步的方向。有了大模型、大算力和大數(shù)據(jù),The bitter lesson 構(gòu)成了 AGI 的必要條件。再加上 Scaling Law 這一充分條件,通過算法使大模型、大算力和大數(shù)據(jù)獲得更好的結(jié)果。

無獨有偶,本周被瘋傳的 OpenAI 研究人員 Jason Wei 的每日工作時間線中也提到了 Rich Sutton 的 The bitter lesson。由此可見,很多業(yè)內(nèi)人士將 The bitter lesson 視為圭臬。

圖片

來源:https://twitter.com/_jasonwei/status/1760032264120041684

與此同時,在另一個關(guān)于「大語言模型(LLM)是否可以作為自身結(jié)果的驗證者」的討論中,有人認(rèn)為 LLM 驗證自身結(jié)果時根本不夠準(zhǔn)確,并且會導(dǎo)致性能更差(還需要為 API 付出很多代價)。

圖片

來源:https://twitter.com/curious_vii/status/1759930194935029767

對于這一觀點,又有推特網(wǎng)友在 Rich Sutton 二十多年前的一篇博客中有了重要的發(fā)現(xiàn)。

原文鏈接:http://incompleteideas.net/IncIdeas/KeytoAI.html

博客中是這樣說的:

考慮到任何 AI 系統(tǒng)以及它所擁有的知識,它可能是一個專家系統(tǒng)或者像 CYC 這樣的大型數(shù)據(jù)庫?;蛘咚赡苁且粋€熟悉建筑物布局的機(jī)器人,或者了解在各種處境下如何做出反應(yīng)。在所有這些情況下,我們可以問 AI 系統(tǒng)是否可以驗證自己的知識,或者是否需要人們干預(yù)來檢測誤差和不可預(yù)見的交互,并進(jìn)行糾正。在后者這種情況下,我們永遠(yuǎn)無法建立真正龐大的知識系統(tǒng)。它們總是脆弱且不可靠的,并且規(guī)模僅限于人們可以監(jiān)控和了解的范疇。

沒想到,Rich Sutton 進(jìn)行了回帖,表示這篇寫了一半的博客是 The bitter lesson 的原型。

圖片

來源:https://twitter.com/RichardSSutton/status/1760104125625459171

其實,在 OpenAI 剛發(fā)布 Sora 不久,就有很多人意識到了 The bitter lesson 發(fā)揮了重要作用。

圖片

還有人將 The bitter lesson 與 Transformer 論文 Attention is All You Need 并列看待。

圖片

來源:https://twitter.com/karanganesan/status/1759782109399662777

文章最后,我們回顧一下 Rich Sutton 的《苦澀的教訓(xùn)》全文。

70 年的人工智能研究史告訴我們,利用計算能力的一般方法最終是最有效的方法。這個歸摩爾定律解釋,或者它對每單位計算成本持續(xù)指數(shù)級下降的概括。大部分 AI 研究都是在認(rèn)為智能體可用的計算為恒定的情況下進(jìn)行的(在這種情況下,利用人類知識是提高性能的唯一方法),但是,在比典型研究項目稍長的時間尺度內(nèi),我們不可避免地會需要大量的計算。

要在短期內(nèi)有所提升,研究人員要利用專門領(lǐng)域的人類知識。但如果想要長期的獲得提升,利用計算能力才是王道。這兩者本無需對立,但實際上它們往往如此?;〞r間研究一個,就會忽略另一個。利用人類知識的方法容易復(fù)雜化,導(dǎo)致其不太適合利用計算的方法。很多例子表明 AI 研究人員對這些教訓(xùn)的認(rèn)識太晚,因此我們有必要回顧一些突出的例子。

在計算機(jī)國際象棋中,1997 年擊敗世界冠軍卡斯帕羅夫的方法基于大量深度搜索。當(dāng)時,大多數(shù) AI 計算機(jī)象棋研究人員沮喪地發(fā)現(xiàn)了這一點,他們的方法是利用人類對象棋特殊結(jié)構(gòu)的理解。當(dāng)這個利用硬件和軟件的基于搜索的更簡單方法被證明更有效時,這些基于人類知識的象棋研究人員卻仍不肯認(rèn)輸。他們認(rèn)為雖然這個「暴力」搜索方法此次贏了,但它并不是一個普遍的策略,無論如何它不是人類下國際象棋的方法。這些研究人員希望基于人類輸入的方法獲勝,但結(jié)果卻令他們失望了。

計算機(jī)圍棋中也有類似的研究進(jìn)展模式,只是晚了 20 年。最初研究人員努力利用人類知識或游戲的特殊性來避免搜索,但所有的努力都被證明沒什么用,因為搜索被大規(guī)模地有效應(yīng)用。同樣重要的是利用自我對弈(self play)來學(xué)習(xí)一種價值函數(shù)(就像在很多其他游戲甚至國際象棋中一樣,雖然在 1997 年首次擊敗世界冠軍的比賽中沒起到什么作用)。通過自我對弈學(xué)習(xí)和一般學(xué)習(xí)有點像搜索,因為它能讓大量的計算發(fā)揮作用。搜索和學(xué)習(xí)是人工智能研究中利用大量計算的兩種最重要技術(shù)。在計算機(jī)圍棋中,就像計算機(jī)國際象棋中一樣,研究人員最初是想通過人類理解(這樣無需太多搜索)來實現(xiàn)目的,只是在后來,通過搜索和學(xué)習(xí)才取得了巨大成功。

在語音識別領(lǐng)域,早在上世紀(jì) 70 年代就有一個由 DARPA 贊助的競賽。參賽者利用了很多利用人類知識的特殊方法:單詞、因素和人類聲道等。另一方面,還有人利用了基于隱馬爾可夫模型的新方法,這些方法在本質(zhì)上更具統(tǒng)計性,計算量也更大。同樣,統(tǒng)計方法戰(zhàn)勝了基于人類知識的方法。這導(dǎo)致了自然語言處理領(lǐng)域的重大改變,過去幾十年來,統(tǒng)計和計算在該領(lǐng)域逐漸占據(jù)主導(dǎo)地位。深度學(xué)習(xí)最近在語音識別中的興起正是朝著這一方向邁出的最新一步。

深度學(xué)習(xí)方法更少依賴人類知識,使用更多的計算,并且伴有大量訓(xùn)練集的學(xué)習(xí),從而生成更好的語音識別系統(tǒng)。就像在游戲中一樣,研究人員總是試圖令系統(tǒng)按照他們的思維方式進(jìn)行運作 —— 他們試圖將知識放在系統(tǒng)中 —— 但事實證明,最終結(jié)果往往事與愿違,并且極大浪費了研究人員的時間。但是通過摩爾定律,研究人員可以進(jìn)行大量計算,并且找到一種有效利用的方法。

計算機(jī)視覺領(lǐng)域存在相似的模式。早期方法認(rèn)為視覺是為了搜索邊緣、廣義圓柱體或者取決于 SIFT 特征。但是今天,所有這些方法都被拋棄了。現(xiàn)代深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)僅使用卷積和某些不變性的概念即可以取得更好的效果。

這是一個非常大的教訓(xùn)。因為我們還在犯同一類錯誤,所以依然未能徹底了解人工智能領(lǐng)域。要看到這一點并且有效地避免重蹈覆轍,我們必須理解這些錯誤為何會讓我們誤入歧途。我們必須吸取慘痛的教訓(xùn),即從長遠(yuǎn)看,固守我們的思維模式是行不通的。痛苦的教訓(xùn)基于以下歷史觀察結(jié)果:

  1. AI 研究人員常常試圖在自身智能體中構(gòu)建知識,
  2. 從短期看,這通常是有幫助的,能夠令研究人員滿意,
  3. 但從長遠(yuǎn)看,這會令研究人員停滯不前,甚至抑制進(jìn)一步發(fā)展,
  4. 突破性進(jìn)展最終可能會通過一種相反的方法 —— 基于以大規(guī)模計算為基礎(chǔ)的搜索和學(xué)習(xí)。最后的成功往往帶有一絲苦澀,并且無法完全消化,因為這種成功不是通過一種令人喜歡、以人為中心的方法獲得的。

我們應(yīng)該從痛苦的教訓(xùn)中學(xué)到的一點:通用方法非常強大,這類方法會隨著算力的增加而繼續(xù)擴(kuò)展,即使可用計算變得非常大。搜索和學(xué)習(xí)似乎正是兩種以這種方式隨意擴(kuò)展的方法。

圖片

強化學(xué)習(xí)教父 Richard S. Sutton,現(xiàn)任加拿大阿爾伯塔大學(xué)教授。

我們從痛苦的教訓(xùn)中學(xué)到的第二個普遍觀點是,意識的實際內(nèi)容是極其復(fù)雜的;我們不應(yīng)該試圖通過簡單方法來思考意識的內(nèi)容,如思考空間、物體、多智能體或者對稱性。所有這些都是任意的、本質(zhì)上復(fù)雜的外部世界的一部分。

它們不應(yīng)該被固有化,其原因是復(fù)雜性是無窮無盡的;相反,我們只應(yīng)該構(gòu)建可以找到并捕獲這種任意復(fù)雜性的元方法。這些方法的關(guān)鍵在于它們能夠找到很好的近似值,但對它們的搜索應(yīng)由我們的方法完成,而不是我們自己。

我們希望 AI 智能體可以像我們一樣發(fā)現(xiàn)新事物,而不是重新找到我們所發(fā)現(xiàn)的。在我們發(fā)現(xiàn)的基礎(chǔ)上構(gòu)建只能令人更加難以看清發(fā)現(xiàn)過程的完成情況。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2023-07-10 09:12:18

Date存儲Unix

2025-02-27 10:17:01

操作系統(tǒng)Unix程序員

2019-09-08 15:20:38

人工智能AI

2019-01-28 06:13:11

數(shù)據(jù)工程師數(shù)據(jù)科學(xué)家數(shù)據(jù)分析

2023-10-26 19:05:57

AI模型

2021-03-09 09:57:33

算法開源技術(shù)

2024-10-18 09:14:12

2020-08-07 08:30:07

操作系統(tǒng)Android macOS

2020-10-30 08:49:06

戴爾

2024-06-17 08:38:00

2020-09-29 13:10:28

DevOps自動化技能

2015-01-26 09:53:54

AppleWatch

2019-02-20 09:35:05

爬蟲工程師開發(fā)工具

2019-09-24 20:26:03

Windows 10Windows微軟

2018-04-26 05:48:56

2025-03-17 12:52:00

AI開發(fā)測試

2011-11-28 14:01:30

蘋果日本iPhone

2017-10-23 13:58:46

前端代碼工程師

2022-08-15 10:28:11

分布式計算

2021-11-10 08:58:06

Linux服務(wù)器軟件
點贊
收藏

51CTO技術(shù)棧公眾號