自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Science重磅!用光速實(shí)現(xiàn)深度學(xué)習(xí),跟GPU說再見

新聞 機(jī)器學(xué)習(xí)
深度學(xué)習(xí)對(duì)算力的需求沒有止境,但受制于能耗和物理極限,基于硅基的電子元件雖然現(xiàn)在還能支撐,但遠(yuǎn)處那堵幾乎不可逾越的高墻已然顯現(xiàn)。

如果說GPU養(yǎng)大了深度學(xué)習(xí),那么如今深度學(xué)習(xí)的胃口早已經(jīng)超越了GPU。

當(dāng)然,GPU在不斷發(fā)展,也出現(xiàn)了TPU、IPU、MLU來滿足這頭巨獸。

深度學(xué)習(xí)對(duì)算力的需求沒有止境,但受制于能耗和物理極限,基于硅基的電子元件雖然現(xiàn)在還能支撐,但遠(yuǎn)處那堵幾乎不可逾越的高墻已然顯現(xiàn)。

怎么辦?

光速深度學(xué)習(xí)!

今天,Science發(fā)表了加州大學(xué)洛杉磯分校(UCLA)研究人員的***研究:All-optical machine learning using diffractive deep neural networks,他們使用 3D 打印打造了一套 “全光學(xué)” 人工神經(jīng)網(wǎng)絡(luò),可以分析大量數(shù)據(jù)并以光速識(shí)別目標(biāo)。

論文地址:http://science.sciencemag.org/content/361/6406/1004

這項(xiàng)技術(shù)名為衍射深度神經(jīng)網(wǎng)絡(luò)( diffractive deep neural network,D²NN),它使用來自物體的光散射來識(shí)別目標(biāo)。該技術(shù)基于深度學(xué)習(xí)的被動(dòng)衍射層設(shè)計(jì)。

研究團(tuán)隊(duì)先用計(jì)算機(jī)進(jìn)行模擬,然后用 3D 打印機(jī)打造出 8 平方厘米的聚合物層。每個(gè)晶圓表面都是不平整的,目的是為了衍射來自目標(biāo)的光線。

衍射深度神經(jīng)網(wǎng)絡(luò)由一系列聚合物層組成,每層大約 8 平方厘米。利用網(wǎng)絡(luò)區(qū)域內(nèi)的光的衍射傳播路徑來識(shí)別目標(biāo)。

研究人員使用 THz 級(jí)頻率的光穿透 3D 打印的網(wǎng)絡(luò)層。每一層網(wǎng)絡(luò)由數(shù)萬個(gè)像素組成,光可以通過這些像素傳播。

研究人員為每類的目標(biāo)分配像素,來自目標(biāo)的光被衍射到已分配給該目標(biāo)類型的像素上。這樣,衍射深度神經(jīng)網(wǎng)絡(luò)就能夠識(shí)別目標(biāo),其耗時(shí)與計(jì)算機(jī) “看到” 目標(biāo)所花費(fèi)的時(shí)間相仿。

D²NN: 光速實(shí)時(shí)學(xué)習(xí),成本不到 50 美元

而隨著來自不同目標(biāo)的光通過 D²NN, 研究人員利用深度學(xué)習(xí)訓(xùn)練神經(jīng)網(wǎng)絡(luò),以學(xué)習(xí)每個(gè)目標(biāo)產(chǎn)生的衍射光圖案。

“我們使用逐層制造的無源元件,并通過光的衍射將這些層相互連接起來,打造一個(gè)獨(dú)特的全光平臺(tái),可以以光速執(zhí)行機(jī)器學(xué)習(xí)任務(wù)。” 該研究團(tuán)隊(duì)負(fù)責(zé)人,加州大學(xué)洛杉磯分校教授 Aydogan Ozcan 表示。 

“這就像一個(gè)由玻璃和鏡子構(gòu)成的復(fù)雜迷宮。光進(jìn)入衍射網(wǎng)絡(luò),并在迷宮周圍反射,直到其離開該區(qū)域?yàn)橹?。系統(tǒng)能夠根據(jù)某目標(biāo)產(chǎn)生的大部分光最終離開迷宮的路徑,確定究竟是哪個(gè)目標(biāo)。”Ozcan 說。

在實(shí)驗(yàn)中,研究人員將圖像放在 THz 級(jí)頻率的光源前。 D²NN 通過光學(xué)衍射對(duì)圖像進(jìn)行觀察。研究人員發(fā)現(xiàn),該設(shè)備可以準(zhǔn)確識(shí)別手寫的數(shù)字和衣服,這兩類對(duì)象都是人工智能研究中的常用目標(biāo)。

圖為 D²NN 設(shè)備識(shí)別文本

在訓(xùn)練中,研究人員還該將設(shè)備作為成像的鏡頭,就像一般的相機(jī)鏡頭一樣。

由于 D²NN 的組成可以由 3D 打印制造,成本低廉,可以構(gòu)建規(guī)模更大、數(shù)量更多的層,制造出包含數(shù)億個(gè)人工神經(jīng)元(像素)的設(shè)備。規(guī)模較大的設(shè)備可以同時(shí)識(shí)別更多的目標(biāo),執(zhí)行更復(fù)雜的數(shù)據(jù)分析。

D²NN 的組件成本低廉。研究人員表示,他們使用的 D²NN 設(shè)備成本不到 50 美元。

雖然這項(xiàng)研究使用的是 Thz 級(jí)光譜中的光,但 Ozcan 表示,也可以打造使用可見光、紅外線或其他頻率光譜的神經(jīng)網(wǎng)絡(luò)。他表示,除 3D 打印外,D²NN 也可以使用光刻或其他印刷技術(shù)打造。

全光學(xué)衍射深度神經(jīng)網(wǎng)絡(luò)(D²NN)的 3D 打印衍射板

D²NN的設(shè)計(jì)和性能:MNIST分類準(zhǔn)確率達(dá)到91.75%

在論文中,研究人員介紹了D²NN框架的技術(shù)細(xì)節(jié)、實(shí)驗(yàn)和測(cè)試性能。

在D²NN全光學(xué)深度學(xué)習(xí)框架中,神經(jīng)網(wǎng)絡(luò)物理上由多層衍射表面(diffractive surfaces)形成,這些衍射表面協(xié)同工作以光學(xué)地執(zhí)行網(wǎng)絡(luò)可以統(tǒng)計(jì)學(xué)習(xí)的任意功能。雖然這個(gè)物理網(wǎng)絡(luò)的推理和預(yù)測(cè)機(jī)制都是光學(xué)的,但其學(xué)習(xí)部分是通過計(jì)算機(jī)完成的。

研究者將這個(gè)框架稱為衍射深度神經(jīng)網(wǎng)絡(luò)( diffractive deep neural network,D²NN),并通過模擬和實(shí)驗(yàn)證明了其推理能力。D²NN可以通過使用幾個(gè)透射和/或反射層進(jìn)行物理創(chuàng)建,其中給定層上的每個(gè)點(diǎn)都傳輸或反射進(jìn)來的光波,每個(gè)點(diǎn)代表一個(gè)人工神經(jīng)元,通過光學(xué)衍射連接到后續(xù)的層。如圖1A所示。

圖1:衍射深度神經(jīng)網(wǎng)絡(luò)D²NN

D²NN 中的人工神經(jīng)元通過由通過振幅和相位調(diào)制的次級(jí)波連接到下一層的其他神經(jīng)元。圖1D是標(biāo)準(zhǔn)深度神經(jīng)網(wǎng)絡(luò)的一個(gè)類比,可以將每個(gè)點(diǎn)或神經(jīng)元的傳輸或反射系數(shù)視為一個(gè)“bias”項(xiàng),這是一個(gè)可學(xué)習(xí)的網(wǎng)絡(luò)參數(shù),在訓(xùn)練過程中使用誤差反向傳播方法進(jìn)行迭代調(diào)整。

經(jīng)過這一數(shù)值訓(xùn)練階段, D²NN的設(shè)計(jì)就固定了,并且確定了各層神經(jīng)元的傳輸或反射系數(shù)。這種 D²NN設(shè)計(jì)可以以光速執(zhí)行所訓(xùn)練的特定任務(wù),僅使用光學(xué)衍射和無源光學(xué)器件(passive optical components)或無需功率的層,從而創(chuàng)建一種高效、快速的方式來實(shí)現(xiàn)機(jī)器學(xué)習(xí)任務(wù)。

一般來說,每個(gè)神經(jīng)元的相位和振幅可以是可學(xué)習(xí)的參數(shù),在每一層提供復(fù)值調(diào)制(complex-valued modulation),這改善了衍射網(wǎng)絡(luò)的推理性能。 對(duì)于phase-only調(diào)制的同調(diào)傳輸網(wǎng)絡(luò),每層可以近似為一個(gè)薄的光學(xué)元件(圖1)。通過深度學(xué)習(xí),在輸入層饋送訓(xùn)練數(shù)據(jù)并通過光學(xué)衍射計(jì)算網(wǎng)絡(luò)輸出,每一層的神經(jīng)元的phase value迭代調(diào)整(訓(xùn)練)來執(zhí)行一個(gè)特定的函數(shù)。

在計(jì)算目標(biāo)輸出誤差的基礎(chǔ)上,通過誤差反向傳播算法優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)及其神經(jīng)元相位值。誤差反向傳播算法基于傳統(tǒng)深度學(xué)習(xí)中的隨機(jī)梯度下降法。

D²NN性能:MNIST手寫數(shù)字?jǐn)?shù)據(jù)集

為了演示 D²NN框架的性能,我們首先將其訓(xùn)練成一個(gè)數(shù)字分類器,對(duì)從0到9的手寫數(shù)字進(jìn)行自動(dòng)分類(圖1B)。

為了完成這項(xiàng)任務(wù),我們?cè)O(shè)計(jì)了一個(gè)五層的D²NN,其中包含來自MNIST手寫數(shù)字?jǐn)?shù)據(jù)集的5.5萬張圖像(5000張驗(yàn)證圖像)。我們將輸入數(shù)字編碼到D²NN輸入域的幅值中,訓(xùn)練衍射網(wǎng)絡(luò)將輸入數(shù)字映射到10個(gè)檢測(cè)器區(qū)域,每個(gè)檢測(cè)器區(qū)域?qū)?yīng)一個(gè)數(shù)字。分類標(biāo)準(zhǔn)是尋找具有***光信號(hào)的檢測(cè)器,相當(dāng)于網(wǎng)絡(luò)訓(xùn)練過程中的損失函數(shù)。

在訓(xùn)練之后,使用來自MNIST測(cè)試數(shù)據(jù)集的10000個(gè)圖像(未用作訓(xùn)練或驗(yàn)證圖像集)對(duì)D²NN數(shù)字分類器進(jìn)行數(shù)值測(cè)試,并且實(shí)現(xiàn)了91.75%的分類精度(圖3C)。

根據(jù)這些數(shù)值結(jié)果,我們將這個(gè)5層的D²NN 設(shè)計(jì)3D打印出來(下圖),每一層的面積為8cm×8cm,然后在衍射網(wǎng)絡(luò)的輸出平面定義10個(gè)檢測(cè)器區(qū)域(圖1B)。

Science重磅!用光速實(shí)現(xiàn)深度學(xué)習(xí),跟GPU說再見

圖2:3D打印的D²NN的實(shí)驗(yàn)測(cè)試

然后,我們使用0.4 THz的連續(xù)波光照來測(cè)試網(wǎng)絡(luò)的推理性能(圖2,C和D)。

每一層神經(jīng)元的相位值用3D打印神經(jīng)元的相對(duì)厚度進(jìn)行物理編碼。對(duì)這個(gè)5層的D²NN設(shè)計(jì)的數(shù)值測(cè)試顯示,在 ~10000幅測(cè)試圖像中,分類準(zhǔn)確率達(dá)到91.75%(圖3C)。

圖3: D²NN手寫數(shù)字識(shí)別器的性能

D²NN性能:Fashion-MNIST數(shù)據(jù)集

接下來,為了測(cè)試D²NN框架的分類性能,研究者使用了一個(gè)更復(fù)雜的圖像數(shù)據(jù)集——Fashion-MNIST數(shù)據(jù)集,其中包含10個(gè)類別的時(shí)尚產(chǎn)品。

D²NN對(duì)Fashion-MNIST數(shù)據(jù)集的分類結(jié)果如下圖所示。具有N = 5個(gè)衍射層的phase-only和complex valued的D²NN的分類精度分別達(dá)到81.13%和86.33%。

通過將衍射層的數(shù)量增加到N = 10,并將神經(jīng)元的總數(shù)增加到40萬,D²NN的分類精度提高到86.60%。對(duì)比而言,在已有研究中,基于卷積神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)深度學(xué)習(xí),使用~890萬可學(xué)習(xí)參數(shù)和~250萬個(gè)神經(jīng)元,F(xiàn)ashion-MNIST分類準(zhǔn)確度的***性能為96.7%。

光學(xué)神經(jīng)網(wǎng)絡(luò)的應(yīng)用

光學(xué)電路深度學(xué)習(xí)是一項(xiàng)重大突破,而且其現(xiàn)實(shí)應(yīng)用已經(jīng)逐漸

根據(jù)光學(xué)領(lǐng)域權(quán)威期刊Optica的報(bào)道,美國(guó)斯坦福大學(xué)的研究人員已經(jīng)證明,可以直接在光學(xué)芯片上訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)。這一重大突破表明,光學(xué)電路可以實(shí)現(xiàn)基于電子的人工神經(jīng)網(wǎng)絡(luò)的關(guān)鍵功能,從而可以以更便宜、更快速和更節(jié)能的方式執(zhí)行語音識(shí)別、圖像識(shí)別等復(fù)雜任務(wù)。

不僅如此,斯坦福的另一組研究人員還研究出一套小型AI成像系統(tǒng),采用雙層光學(xué)-電子混合計(jì)算技術(shù),成像精度和速度均達(dá)到電子計(jì)算處理器水平。具體說,研究人員在電子計(jì)算之前加上一層光學(xué)計(jì)算,這種AI成像系統(tǒng)在低光照條件下具備更強(qiáng)的成像能力,每個(gè)立體像素上的光電子密度***可達(dá)幾十個(gè),同時(shí)節(jié)約了大量本該用于計(jì)算的時(shí)間和成本。

具體到這項(xiàng)研究,UCLA的研究團(tuán)隊(duì)表示,他們的 D²NN 設(shè)備可用于全光學(xué)圖像分析、特征檢測(cè)和對(duì)象分類任務(wù),還可以實(shí)現(xiàn)使用 D²NN 執(zhí)行任務(wù)的新相機(jī)設(shè)計(jì)和光學(xué)組件。

例如,使用該技術(shù)的無人駕駛汽車可以立即對(duì)停車標(biāo)志作出反應(yīng),一旦收到從標(biāo)志衍射來的光,D²NN 就可以讀取標(biāo)志信息。該技術(shù)還可用于對(duì)大量目標(biāo)的分類任務(wù),比如在數(shù)百萬細(xì)胞樣本中尋找疾病的跡象。 

“這項(xiàng)研究為基于人工智能的被動(dòng)設(shè)備提供了新機(jī)會(huì),可以對(duì)數(shù)據(jù)和圖像進(jìn)行實(shí)時(shí)分析,并對(duì)目標(biāo)進(jìn)行分類。”Ozcan 說。“這種光學(xué)人工神經(jīng)網(wǎng)絡(luò)設(shè)備直觀地模擬了大腦處理信息的方式,具備很高的可擴(kuò)展性,可以應(yīng)用到新的相機(jī)設(shè)計(jì)和獨(dú)特的光學(xué)組件設(shè)計(jì)中,也可用于醫(yī)療技術(shù)、機(jī)器人、安全等領(lǐng)域。”

論文:

http://science.sciencemag.org/content/361/6406/1004

參考鏈接:

https://www.photonics.com/Articles/All-Optical_Diffractive_Deep_Neural_Network_Is/a63751

https://newatlas.com/diffractive-deep-neural-network-uses-light-to-learn/55718/

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2014-03-24 09:46:32

Pythonweb開發(fā)

2013-09-16 09:25:55

PureDiscoveDave Copp搜索

2017-09-12 14:00:10

機(jī)器學(xué)習(xí)深度學(xué)習(xí)人工智能

2020-12-29 10:36:34

互聯(lián)網(wǎng)數(shù)據(jù)技術(shù)

2013-12-20 09:59:34

小米閃購模式雷軍

2014-07-15 13:57:53

Java8

2014-04-16 07:48:56

Java 8Permgen

2013-11-11 15:31:32

虛擬機(jī)Android Run

2012-10-19 10:32:57

2014-09-04 15:31:36

數(shù)據(jù)隱患山西師范大學(xué)數(shù)據(jù)集中

2009-08-01 08:46:47

2025-01-06 05:00:00

人工智能GPU深度學(xué)習(xí)

2015-04-16 13:38:26

GPU計(jì)算深度學(xué)習(xí)NVIDIA

2020-07-13 20:26:30

手機(jī)64G手機(jī)APP

2024-05-31 08:32:17

2024-09-09 04:00:00

GPU人工智能

2011-12-19 09:36:33

JavaJDKubuntu

2022-12-29 14:57:04

2019-08-21 09:24:45

GPUCPU深度學(xué)習(xí)

2024-11-25 16:15:14

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)