自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

深度學習紅利將盡,AI 是否又面臨「死亡之谷」?

人工智能 深度學習
清華大學人工智能研究院院長張鈸曾表示,行業(yè)崇尚深度學習,但它本身的「缺陷」決定了其應用的空間被局限在特定的領域——大部分都集中在圖像識別、語音識別。而目前深度學習似乎已經(jīng)到了瓶頸期,就算財力和算力仍在不斷投入,但深度學習的回報率卻沒有相應的增長。

 [[384224]]

被寄予厚望的深度學習,是否會讓人工智能陷入又一輪 AI 寒冬?

人工智能存在于許多我們每天與之交互的技術(shù)中,比如最常見的語音助手和個性化推薦,以及不斷成熟的自動駕駛。從去年到現(xiàn)在,AI 領域更是好消息不斷,OpenAI 的 GPT-3 從自然語言處理衍生出了畫畫、敲代碼等能力,DeepMind 推出「進階版 AlphaGo」——MuZero,它在下棋和游戲前完全不知道游戲規(guī)則,完全通過自己摸索贏得棋局。一時間,「AI 將替代人類」的聲音不絕于耳。

但另一面,人類豐滿的 AI 夢,也正在撞上骨感的現(xiàn)實。近期,IBM 旗下的 Watson Health 被傳出將甩手賣掉,這個曾想替人類解決腫瘤治療的 AI 部門 6 年來從未盈利。更致命的是,Watson Health 的診斷精度和專家結(jié)果只有 30% 的重合。

看向國內(nèi),「AI 四小龍」中的商湯科技和曠視科技,時不時傳出計劃上市的消息,但似乎都中了「上市難」的魔咒。曠視科技的創(chuàng)始人印奇在去年 7 月,曾對媒體表示 AI 的快速爆發(fā)期發(fā)生在五六年前,現(xiàn)在正處于「死亡之谷」的泡沫期。繁榮表象之外的冰冷現(xiàn)實,都能讓人想到「人工智能的寒冬」:與 AI 有關(guān)的研究或其他項目難以獲得資金,人才和公司停滯不前。

清華大學人工智能研究院院長張鈸曾表示,行業(yè)崇尚深度學習,但它本身的「缺陷」決定了其應用的空間被局限在特定的領域——大部分都集中在圖像識別、語音識別。而目前深度學習似乎已經(jīng)到了瓶頸期,就算財力和算力仍在不斷投入,但深度學習的回報率卻沒有相應的增長。

「目前基于深度學習的人工智能在技術(shù)上已經(jīng)觸及天花板,此前由這一技術(shù)路線帶來的『奇跡』在 AlphaGo 獲勝后未再出現(xiàn),而且估計未來也很難繼續(xù)大量出現(xiàn)?!箯堚撜f。

被寄予厚望的深度學習,是否會讓人工智能陷入又一輪寒冬?「在每一次人工智能『寒冬』到來之前,科學家都會夸大他們的研究的潛力。僅僅說他們的算法擅長某一項任務還不夠,他們恨不得說 AI 能解決所有事。」長期研究數(shù)據(jù)科學和 AI 的作者 Thomas Nield 說道。但真正的通用人工智能,離我們似乎還很遙遠。

 

深度學習是什么?
就在 AI 慢慢沉寂,變成「隱學」的時候,Geoffrey Hinton、Yoshua Bengio 和 Yann LeCon 三位學者默默開始了 AI 的一個重要分支——神經(jīng)網(wǎng)絡——的研究。

神經(jīng)網(wǎng)絡通常被比喻成一塊有很多層的三明治,每層都有人工神經(jīng)元,這些神經(jīng)元在興奮時會把信號傳遞給相連的另一個神經(jīng)元

簡單來說,神經(jīng)網(wǎng)絡就是一層層的數(shù)字,這些數(shù)字又被稱為「神經(jīng)元」。之所以這樣命名,是因為科學家認為這些數(shù)字相互聯(lián)系,傳遞信號,就像大腦里的神經(jīng)元通過突觸來傳遞神經(jīng)刺激一樣。而神經(jīng)網(wǎng)絡里的每一層數(shù)字都通過一些約定的數(shù)學規(guī)則從上一層的數(shù)字計算得到。

而「深度學習」的概念源于神經(jīng)網(wǎng)絡的研究,是研究神經(jīng)網(wǎng)絡的學問。這里的「深度」,指的就是神經(jīng)網(wǎng)絡含有無數(shù)隱層,深不可測。

機器要模擬人類行為,要先獲取數(shù)據(jù),然后經(jīng)過預處理、特征提取、特征選擇,再到推理、預測或識別。其中最關(guān)鍵的,就是中間的三個步驟,同時也是系統(tǒng)中最耗費計算的部分。在現(xiàn)實中,一般都是靠人工提取特征,而深度學習的思路是自動學習特征。

深度學習模型一般由輸入層,隱層和輸出層構(gòu)成?;舅枷胧牵荷弦粚拥妮敵鲎鳛橄乱粚拥妮斎?,來實現(xiàn)對輸入信息的分級表達,進而通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征。也就是說,機器學會「抽象思考」了。

上述三位 AI 泰斗堅持著自己的學術(shù)方向,把神經(jīng)網(wǎng)絡推廣到了更多的領域,比如計算機視覺、自然語言處理等等。終于在幾十年后,他們等來了屬于深度學習的時代。互聯(lián)網(wǎng)和移動端的興起讓海量的數(shù)據(jù)唾手可得,而計算機硬件在人類一次又一次挑戰(zhàn)著納米世界的極限中,順著摩爾的預言一路狂奔。2012 年,深度學習暴得大名,因為 Geoffrey Hinton 基于卷積神經(jīng)網(wǎng)絡的 AlexNet 以驚人優(yōu)勢贏下 ImageNet 視覺識別挑戰(zhàn)賽。另外在這個實驗中,人們發(fā)現(xiàn),只有圖像的樣本量夠大,隱層夠多,識別率就能大幅提高,這極大地鼓舞了學界和企業(yè)。

 

數(shù)據(jù)越多,越智能?
OpenAI 最新的自然語言處理模型 GPT-3,幾乎是把整個互聯(lián)網(wǎng)的浩瀚內(nèi)容全部讀完了。它總共閱讀了大約 5000 億詞,模型大概有 1750 億參數(shù)。系統(tǒng)有上萬個 CPU/GPU,它們 24 小時不間斷地「閱讀」任何領域的信息,半個月讀完了整個互聯(lián)網(wǎng)的內(nèi)容。猛灌數(shù)據(jù)量,是這個 AI 模型的「暴力」所在。

但 GPT-3 也并不能因此變得完全像人,比如,它對不符合人類常理的「偽問題」也會應答,這恰恰證明它并不理解問題本身。前 Uber 人工智能實驗室的負責人 Gary Marcus 就曾對深度學習多次潑冷水:「人類可以根據(jù)明確的規(guī)律學習,比如學會一元二次方程的三種形式以后就可以用來解各種題目;見過了京巴、柴犬之后,再見到德牧就知道它也是一種狗。然而深度學習不是這樣的,「越多的數(shù)據(jù) = 越好的模型表現(xiàn)」,就是深度學習的基本規(guī)律,它沒有能力從字面上給出的規(guī)律學習?!?/p>

「深度學習是尋找那些重復出現(xiàn)的模式,因此重復多了就被認為是規(guī)律(真理),因此謊言重復一千遍就被認為真理,所以為什么大數(shù)據(jù)有時會做出非常荒唐的結(jié)果,因為不管對不對,只要重復多了它就會按照這個規(guī)律走,就是誰說多了就是誰?!箯堚撛菏恳脖硎旧疃葘W習「沒有那么玄」。

由于它不能真正理解知識,「深度學習學到的知識并不深入,而且很難遷移?!筂arcus 說道。而 AI 系統(tǒng)動輒擁有千億參數(shù),儼然就是一個黑匣子一般的謎。深度學習的不透明性將引致 AI 偏見等系列問題。最主要的是,AI 還是要為人所用,「你要它做決策,你不理解它,飛機就讓它開,誰敢坐這架飛機?」張鈸強調(diào) AI 必須擁有可解釋性。

最主要的是,給 AI 猛灌數(shù)據(jù)的做法極其考驗算力。MIT 研究人員理解深度學習性能和算力之間的聯(lián)系,分析了 Arxiv.org 上的 1058 篇論文和資料,主要分析了圖像分類、目標檢測、問題回答、命名實體識別和機器翻譯等領域兩方面的計算需求:

每一網(wǎng)絡遍歷的計算量,或給定深度學習模型中單次遍歷(即權(quán)值調(diào)整)所需的浮點運算數(shù)。
訓練整個模型的硬件負擔,用處理器數(shù)量乘以計算速度和時間來估算。
結(jié)論顯示,訓練模型的進步取決于算力的大幅提高,具體來說,計算能力提高 10 倍相當于 3 年的算法改進成果。換言之,算力提高的背后,其實現(xiàn)目標所隱含的計算需求——硬件、環(huán)境和金錢等成本將變得無法承受。

摩爾定律假定計算能力每兩年翻一番。OpenAI 一項研究表明,AI 訓練中使用的計算能力每三到四個月翻一番。自 2012 年以來,人工智能要求計算能力增加三十萬倍,而按照摩爾定律,則只能將 AI 提升 7 倍。人們從來沒有想到芯片算力極限會這么快到來。

算力供不起是一回事,但業(yè)界甚至認為這種「暴力」模式方向錯了?!钢R、經(jīng)驗、推理能力,這是人類理性的根本?,F(xiàn)在形成的人工智能系統(tǒng)都非常脆弱容易受攻擊或者欺騙,需要大量的數(shù)據(jù),而且不可解釋,存在非常嚴重的缺陷,這個缺陷是本質(zhì)的,由其方法本身引起的?!箯堚摫硎?,「深度學習的本質(zhì)就是利用沒有加工處理過的數(shù)據(jù)用概率學習的『黑箱』處理方法來尋找它的規(guī)律,它只能找到重復出現(xiàn)的模式,也就是說,你光靠數(shù)據(jù),是無法達到真正的智能。」

 

深度學習紅利將盡,但 AI 還在發(fā)展
在張鈸看來,既然深度學習在根子上就錯了,那么技術(shù)改良也就很難徹底解決 AI 的根本性缺陷。正是這些缺陷決定了其應用的空間被局限在特定的領域——大部分都集中在圖像識別、語音識別兩方面?!肝铱戳艘幌?,中國人工智能領域 20 個獨角獸 30 個準獨角獸企業(yè),近 80% 都跟圖像識別或者語音識別有關(guān)系?!?/p>

他表示,「只要選好合適的應用場景,利用成熟的人工智能技術(shù)去做應用,還有較大的空間。目前在學術(shù)界圍繞克服深度學習存在的問題,正展開深入的研究工作,希望企業(yè)界,特別是中小企業(yè)要密切注視研究工作的進展,及時地將新技術(shù)應用到自己的產(chǎn)品中。當然像谷歌、BAT 這樣規(guī)模的企業(yè),他們都會去從事相關(guān)的研究工作,他們會把研究、開發(fā)與應用結(jié)合起來?!?/p>

[[384225]]

一直在給深度學習潑冷水的 Gary Marcus, 提出要為深度學習祛魅:「我不認為我們就要放棄深度學習。相反,我們需要將它重新概念化:它不是一種萬能藥,而僅僅是作為眾多工具中的一種,在這個世界上,就像我們還需要錘子、扳手和鉗子?!?/p>

「深度學習只是目前人工智能技術(shù)的一部分,人工智能還有更大更寬的領域需要去研究,知識表示、不確定性處理、人機交互,等等一大片地方,不能說深度學習就是人工智能?!箯堚撜f。

另外,中科院自動化研究所副所長劉成林曾表示,「如今的 AI 熱潮其實主要依賴模式識別和深度學習的成功。深度學習的紅利將逐漸用盡,但 AI 的很多方向(感知、認知、學習語言理解、機器人、混合智能、博弈等)還會繼續(xù)發(fā)展,總體上不會跌入深谷。

責任編輯:梁菲 來源: 今日頭條
相關(guān)推薦

2018-12-17 17:14:06

AI數(shù)據(jù)科技

2021-07-01 06:01:20

人工智能AI深度學習

2022-03-31 18:42:40

飛槳百度深度學習框架

2018-10-19 16:24:09

深度學習無人駕駛語音識別

2022-12-27 07:50:34

python深度學習DeepDream

2020-11-03 14:31:55

Ai人工智能深度學習

2024-01-07 18:00:33

AI模型特點

2023-09-12 16:20:04

邊緣AI深度學習

2017-10-18 22:18:09

2021-03-05 14:52:32

深度學習人工智能工具

2021-02-26 21:15:45

人工智能機器學習經(jīng)濟

2019-02-12 15:04:09

2024-06-13 09:12:38

2021-02-25 10:07:42

人工智能AI機器學習

2020-05-28 15:35:07

人工智能

2017-10-13 15:59:47

2017-07-18 17:41:38

深度

2017-03-01 21:15:44

AI機器學習深度學習

2018-04-04 10:19:32

深度學習

2023-11-19 23:36:50

點贊
收藏

51CTO技術(shù)棧公眾號