通向未來人工智能的三條賽道:高性能計(jì)算、神經(jīng)形態(tài)計(jì)算和量子計(jì)算
有三種技術(shù),可以帶來更快、更簡(jiǎn)單、更廉價(jià)、更聰明的人工智能。今天,高性能計(jì)算,以及后來出現(xiàn)的量子計(jì)算機(jī)和神經(jīng)形態(tài)計(jì)算已觸手可及;并且,后兩者正變革著人工智能和方興未艾的深度學(xué)習(xí)。
人工智能與深度學(xué)習(xí)的三個(gè)問題
時(shí)間:訓(xùn)練一個(gè) CNN 或 RNN 通常需要數(shù)周的時(shí)間。這還不算上為了達(dá)到所需的性能表現(xiàn),花在定義問題以及編程深度網(wǎng)絡(luò)時(shí)迭代成敗上的數(shù)周甚至數(shù)月的時(shí)間。
成本:數(shù)百塊 GPU 連續(xù)數(shù)周的計(jì)算成本高昂。從亞馬遜云計(jì)算服務(wù)中租用 800 塊 GPU 一周的時(shí)間花費(fèi)在 120,000 美元。這還沒開始算上人力成本。完成一個(gè) AI 項(xiàng)目往往需要要占用最優(yōu)秀人才數(shù)月、一年甚或更多的時(shí)間。
數(shù)據(jù):由于缺乏足夠數(shù)量的標(biāo)注數(shù)據(jù)而使項(xiàng)目無法展開的情況比比皆是。由于無法以合理的價(jià)格獲取訓(xùn)練數(shù)據(jù),很多好創(chuàng)意被迫放棄。
因此,取得較好商業(yè)表現(xiàn)的多是圖像處理、文本和語音識(shí)別,并且那些借力谷歌、IBM、微軟和其他巨頭的初創(chuàng)企業(yè)成果更多。
通向未來人工智能的三條賽道
如果你關(guān)注這一領(lǐng)域就會(huì)發(fā)現(xiàn),我們已經(jīng)使用 CNN 和 RNN 做了一些應(yīng)用,但是超越這些應(yīng)用的進(jìn)展才剛開始。下一波的進(jìn)展來自生成對(duì)抗網(wǎng)絡(luò)和強(qiáng)化學(xué)習(xí),并獲得了問答機(jī)器(比如沃森)的一些幫助。我們最近的一篇文章對(duì)此作了很好的總結(jié)(詳見:人工智能的三個(gè)階段:我們正從統(tǒng)計(jì)學(xué)習(xí)走向語境順應(yīng))。
這是一個(gè)有關(guān)如何推動(dòng)人工智能發(fā)展的最常見版本。這是日益復(fù)雜的深度神經(jīng)網(wǎng)絡(luò),它與現(xiàn)在的 CNN 和 RNN 有著不同的架構(gòu)。僅僅是讓它們運(yùn)行更快。
實(shí)際上未來可能相當(dāng)不同?,F(xiàn)在展現(xiàn)在我們面前的是基于完全不同技術(shù)的通向未來人工智能的三條賽道。它們是:
- 高性能計(jì)算(HPC)
- 神經(jīng)形態(tài)計(jì)算(NC)
- 量子計(jì)算(QC)
其中,高性能計(jì)算是本篇文章關(guān)注的焦點(diǎn)。芯片制造商以及以及谷歌等巨頭正在開展競(jìng)爭(zhēng),爭(zhēng)相打造深度學(xué)習(xí)專用芯片。
另外兩個(gè),神經(jīng)形態(tài)計(jì)算(也被稱為脈沖神經(jīng)網(wǎng)絡(luò))和量子計(jì)算看起來似乎還需要幾年。但事實(shí)是商用神經(jīng)形態(tài)芯片和商用量子計(jì)算機(jī)已投入應(yīng)用于機(jī)器學(xué)習(xí)之中。不管兩者是冷是熱,神經(jīng)形態(tài)計(jì)算和量子計(jì)算都會(huì)使人工智能的未來之路變得更撲所迷離,但這是一件好事。
高性能計(jì)算(HPC)
高性能計(jì)算關(guān)注度最高。它使用我們已知的深度神經(jīng)網(wǎng)絡(luò)架構(gòu),并使其更快更容易被獲取。通常這意味著兩件事:更好的通用環(huán)境,比如 TensorFlow;更多地利用更大數(shù)據(jù)中心中的 GPU 和 FPGA,也許不久之后會(huì)出現(xiàn)更專業(yè)化的芯片。
現(xiàn)如今人工智能的新商業(yè)模式是「開源」。2016 年上半年,人工智能的每一個(gè)主要玩家都開源了其 AI 平臺(tái)。這些競(jìng)爭(zhēng)者在數(shù)據(jù)中心、云服務(wù)、人工智能 IP 上進(jìn)行了大量投資。開源背后的策略很簡(jiǎn)單:平臺(tái)用戶最多者獲勝。
同時(shí),英特爾、英偉達(dá)及其他傳統(tǒng)芯片制造商也正積極滿足用戶對(duì)于 GPU 的新需求,其他巨頭如谷歌和微軟則自己開發(fā)了全新的專屬芯片,從而使其深度學(xué)習(xí)平臺(tái)更快,更具吸引力。連同新近推出的 TPU,谷歌鐵定了要把 TensorFlow 作為其主打的通用型解決方案。微軟則在兜售非專屬芯片 FPGA 的使用,并發(fā)布了 CNTK 2.0 完整版;它提供了 Java API 可直接整合 Spark,同時(shí)支持 Keras 代碼。據(jù)稱 CNTK 比 TensorFlow 更快更精確,且也提供 Python API。
整合 Spark 將持續(xù)成為一個(gè)重要的推動(dòng)力。雅虎已實(shí)現(xiàn)了 TensorFlow 與 Spark 的整合。Spark 的主要商業(yè)供應(yīng)商 Databricks 現(xiàn)在有其自己的開源工具包,以把深度學(xué)習(xí)與 Spark 相整合。這里的關(guān)鍵驅(qū)動(dòng)力將至少解決三個(gè)障礙中的兩個(gè)。這些進(jìn)展將會(huì)使編程更快更簡(jiǎn)單,從而帶來更可靠的結(jié)果,尤其是更快速的芯片將會(huì)使機(jī)器計(jì)算的原始時(shí)間變的更短。
問題是這些提升將會(huì)幫助我們到那一步(這和摩爾定律的局限性很像),是否可用于 GAN 和強(qiáng)化學(xué)習(xí);答案很可能是,至少在今天我們知道如何使用這些深度學(xué)習(xí)架構(gòu)。
神經(jīng)形態(tài)計(jì)算(NC)或脈沖神經(jīng)網(wǎng)絡(luò)(SNN)
神經(jīng)生態(tài)計(jì)算或脈沖神經(jīng)網(wǎng)絡(luò)是通向強(qiáng)人工智能的一條路徑,它基于一些大腦運(yùn)行的原理而設(shè)計(jì),與深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和原理有顯著的不同。
神經(jīng)形態(tài)計(jì)算最開始是由研究者發(fā)現(xiàn)大腦神經(jīng)元并不是每一次都全部激活而啟發(fā)。神經(jīng)元將選擇性信號(hào)沿著突觸傳播,并且數(shù)據(jù)實(shí)際上是以信號(hào)的潛在脈沖方式傳播。實(shí)際上,這些信號(hào)是由一系列脈沖組成,所以研究者對(duì)信息是否編碼在一系列脈沖的振幅、頻率或延遲中做進(jìn)一步探討。
在現(xiàn)有的深度神經(jīng)網(wǎng)絡(luò)中,神經(jīng)元根據(jù)相對(duì)簡(jiǎn)單的激活函數(shù)(如 Sigmod 或 ReLU 等)每一次都會(huì)全部激活。
神經(jīng)形態(tài)計(jì)算相對(duì)于深度神經(jīng)網(wǎng)絡(luò)已經(jīng)展示了一些巨大的提升:
- 因?yàn)椴⒉粫?huì)每一次都激活所有的神經(jīng)元,所以大<單個(gè) SNN 神經(jīng)元可以替代傳統(tǒng)深度神經(jīng)網(wǎng)絡(luò)中的數(shù)百個(gè),因此在能效和規(guī)模上都有更高的效率樣本。
- 早期案例展示了脈沖神經(jīng)網(wǎng)絡(luò)可以僅使用無監(jiān)督技術(shù)(無標(biāo)注)從環(huán)境中學(xué)習(xí),而少量的樣本可以令它們學(xué)習(xí)非常迅速。
- 神經(jīng)形態(tài)計(jì)算可以從學(xué)習(xí)一個(gè)環(huán)境泛化到另一個(gè)環(huán)境,它能夠記憶并且泛化,這真的是一個(gè)突破性的能力。
- 因?yàn)樯窠?jīng)形態(tài)計(jì)算能效非常高,所以可以進(jìn)行小型化。
所以轉(zhuǎn)變這種基礎(chǔ)架構(gòu)能夠解決深度學(xué)習(xí)如今面臨的三個(gè)基礎(chǔ)問題。更重要的是,如今我們能夠購買和使用神經(jīng)形態(tài)脈沖神經(jīng)網(wǎng)絡(luò)系統(tǒng)。這并不是遙遠(yuǎn)未來的一個(gè)技術(shù)。
BrainChip Holdings (Aliso Viejo, CA) 已經(jīng)在拉斯維加斯最大的賭場(chǎng)應(yīng)用了商業(yè)安防監(jiān)控系統(tǒng),并且它宣稱還有一些其他應(yīng)用也已經(jīng)交付。在拉斯維加斯,該系統(tǒng)的功能就是通過標(biāo)準(zhǔn)攝像頭的視頻流自動(dòng)監(jiān)控 dealer 的錯(cuò)誤。該系統(tǒng)完全通過觀察學(xué)習(xí)游戲規(guī)則。BrainChip 表明它的 SNN 有 IP 專利保護(hù),并借此推出了一系列賭博監(jiān)控產(chǎn)品。
現(xiàn)如今有很多科技進(jìn)步,但 SNN 是開發(fā) AI 商業(yè)系統(tǒng)很有競(jìng)爭(zhēng)力的選擇。
量子計(jì)算
可能讀者對(duì)量子計(jì)算并沒有如下認(rèn)識(shí):
- 量子計(jì)算如今是可用的,Lockheed Martin 從 2010 開始就已經(jīng)從事相關(guān)的商業(yè)運(yùn)作。還有其他幾家公司都在推出基于 D-Wave 量子計(jì)算機(jī)的商業(yè)應(yīng)用,D-Wave 的量子計(jì)算機(jī)是第一個(gè)發(fā)展的商業(yè)市場(chǎng)。
- 今年五月,IBM 聲稱他們的量子計(jì)算機(jī) IBM Q 現(xiàn)在已經(jīng)可以投入商業(yè)中。在這是一種基于云端的訂閱服務(wù),它無疑將大大簡(jiǎn)化對(duì)這些昂貴且復(fù)雜的機(jī)器的訪問。IBM 表示截止到目前,用戶已經(jīng)在 IBM Q 機(jī)器上進(jìn)行了 30 萬次實(shí)驗(yàn)。
- 谷歌和微軟計(jì)劃在兩三年內(nèi)發(fā)布他們的商業(yè)化量子機(jī)器,并整個(gè)作為獨(dú)立的研究學(xué)術(shù)機(jī)構(gòu)。
- D-Wave 和其他一些獨(dú)立的研究者已經(jīng)引進(jìn)了量子計(jì)算機(jī)的開源編程語言,他們希望可以對(duì)量子計(jì)算機(jī)編程更加容易。
- 量子計(jì)算機(jī)擅長(zhǎng)于解決現(xiàn)有所有類型的優(yōu)化問題,包括整套基于隨機(jī)梯度下降的各類算法。量子計(jì)算機(jī)也很容易模擬受限玻爾茲曼機(jī),它是很多深度神經(jīng)網(wǎng)絡(luò)架構(gòu)中的一個(gè),并且還可以用于深度學(xué)習(xí)結(jié)構(gòu)中以像 CNN 那樣解決圖像分類問題。因?yàn)榛A(chǔ)架構(gòu)不一樣,所以我們稱其為量子神經(jīng)網(wǎng)絡(luò)(QNN)。
- 根據(jù)谷歌基準(zhǔn) 2015 年的研究報(bào)告,D-Wave 量子計(jì)算機(jī)相對(duì)于傳統(tǒng)計(jì)算機(jī)性能要優(yōu)秀 108 倍,也即快 1 億倍。谷歌工程主任 Hartmut Nevan 說:「D-Wave 在 1 秒中所做的,傳統(tǒng)計(jì)算機(jī)需要花 1 萬年計(jì)算」。
所以量子表征仍然是第三條通向強(qiáng)人工智能的道路,它同樣克服了速度與成本問題。
三條道路
事實(shí)是神經(jīng)形態(tài)計(jì)算和量子計(jì)算都是很有潛力的方向,它們都有可能令深度學(xué)習(xí)甚至是新型人工智能更快地運(yùn)行。
- 首先是時(shí)間線。高性能計(jì)算如今正在持續(xù)發(fā)展,并在接下來幾年都基于前面介紹的新型芯片而得到性能上的持續(xù)發(fā)展。然而,隨后幾年很大一部分實(shí)驗(yàn)室和數(shù)據(jù)中心都會(huì)由更先進(jìn)的量子計(jì)算機(jī)和神經(jīng)形態(tài)計(jì)算所替代。
- 像谷歌 TensorFlow 和微軟 Cognitive Toolkit(CNTK)那樣的深度學(xué)習(xí)平臺(tái)正在發(fā)展,而其他競(jìng)爭(zhēng)對(duì)手也在努力構(gòu)建平臺(tái)并獲得用戶。因此隨著量子計(jì)算和神經(jīng)形態(tài)計(jì)算的能力得到傳播,這些平臺(tái)都會(huì)適應(yīng)它們。
- 神經(jīng)形態(tài)脈沖神經(jīng)網(wǎng)絡(luò)(SNN)和量子計(jì)算現(xiàn)在僅僅在商業(yè)上出現(xiàn),但它們都會(huì)賦予人工智能非凡的能力。
- SNN 有希望成為強(qiáng)大的自學(xué)習(xí)者。通過更小的非標(biāo)注訓(xùn)練集以及不同領(lǐng)域之間的知識(shí)遷移能力,極大地提升了效率。
- 量子計(jì)算機(jī)將徹底消除時(shí)間障礙,成本障礙最終也將降低,基于時(shí)間的解決方案從數(shù)月縮短至數(shù)分鐘。重要的是當(dāng)前使用的學(xué)習(xí)風(fēng)格被稱作增強(qiáng)型量子計(jì)算,因?yàn)樗腔诋?dāng)前的深度學(xué)習(xí)算法,并提升了其性能。然而將來會(huì)出現(xiàn)基于完全不同能力(為這些機(jī)器所獨(dú)有)的全新類型的機(jī)器學(xué)習(xí)。
我的個(gè)人感覺是在量子計(jì)算和神經(jīng)形態(tài)計(jì)算上,我們現(xiàn)在的處情和 2007 年很像,那一年谷歌的 Big Table(譯者注:谷歌設(shè)計(jì)的分布式數(shù)據(jù)存儲(chǔ)系統(tǒng),用來處理海量數(shù)據(jù)的一種非關(guān)系型的數(shù)據(jù)庫)變成了開源的 Hadoop。一開始我們確實(shí)不知道怎么對(duì)待它,但是三年之后 Hadoop 幾乎主導(dǎo)了整個(gè)數(shù)據(jù)科學(xué)。我認(rèn)為從今天開始,下一個(gè)三年也同樣令人驚奇。
原文鏈接:
http://www.datasciencecentral.com/profiles/blogs/the-three-way-race-to-the-future-of-ai-quantum-vs-neuromorphic-vs?platform=hootsuite
【本文是51CTO專欄機(jī)構(gòu)“機(jī)器之心”的原創(chuàng)譯文,微信公眾號(hào)“機(jī)器之心( id: almosthuman2014)”】