自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

微軟研究員在ImageNet計(jì)算機(jī)視覺(jué)識(shí)別挑戰(zhàn)中實(shí)現(xiàn)里程碑式突破

新聞
一直以來(lái),計(jì)算科學(xué)家一直在為建立世界上最精確的計(jì)算機(jī)視覺(jué)系統(tǒng)孜孜不倦地努力著,但取得進(jìn)展的過(guò)程卻一直如馬拉松競(jìng)賽般漫長(zhǎng)而艱辛。近期,微軟亞洲研究院視覺(jué)計(jì)算組實(shí)現(xiàn)的突破讓他們成為了這場(chǎng)競(jìng)賽的最新領(lǐng)跑者。該團(tuán)隊(duì)所開(kāi)發(fā)的基于深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)的計(jì)算機(jī)視覺(jué)系統(tǒng),在ImageNet 1000挑戰(zhàn)中首次超越了人類(lèi)進(jìn)行對(duì)象識(shí)別分類(lèi)的能力。

 

[[127778]]

一直以來(lái),計(jì)算科學(xué)家一直在為建立世界上最精確的計(jì)算機(jī)視覺(jué)系統(tǒng)孜孜不倦地努力著,但取得進(jìn)展的過(guò)程卻一直如馬拉松競(jìng)賽般漫長(zhǎng)而艱辛。近期,微軟亞洲研究院視覺(jué)計(jì)算組實(shí)現(xiàn)的突破讓他們成為了這場(chǎng)競(jìng)賽的***領(lǐng)跑者。該團(tuán)隊(duì)所開(kāi)發(fā)的基于深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)的計(jì)算機(jī)視覺(jué)系統(tǒng),在ImageNet 1000挑戰(zhàn)中***超越了人類(lèi)進(jìn)行對(duì)象識(shí)別分類(lèi)的能力。

微軟研究團(tuán)隊(duì)在題為“Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification”的論文中指出,他們的系統(tǒng)在ImageNet 2012分類(lèi)數(shù)據(jù)集中的錯(cuò)誤率已降低至4.94%。此前同樣的實(shí)驗(yàn)中,人眼辨識(shí)的錯(cuò)誤率大概為5.1%。這個(gè)數(shù)據(jù)集包含約120萬(wàn)張訓(xùn)練圖像、5萬(wàn)張驗(yàn)證圖像和10萬(wàn)張測(cè)試圖像,分為1000個(gè)不同的類(lèi)別。微軟研究員表示:“據(jù)我們所知,我們的研究成果是這項(xiàng)視覺(jué)識(shí)別挑戰(zhàn)中***個(gè)超越人類(lèi)視覺(jué)能力的計(jì)算機(jī)系統(tǒng)。” 

該研究團(tuán)隊(duì)由微軟亞洲研究院研究員孫劍、何愷明以及來(lái)自西安交通大學(xué)和中國(guó)科學(xué)技術(shù)大學(xué)的實(shí)習(xí)生張祥雨和任少卿組成。

孫劍已在微軟亞洲研究院工作了十二年,現(xiàn)任視覺(jué)計(jì)算組***研究員。此前,他在西安交通大學(xué)獲得了電氣工程專(zhuān)業(yè)學(xué)士、碩士及博士學(xué)位。2001年,孫劍曾是沈向洋博士的學(xué)生。沈向洋目前擔(dān)任微軟全球執(zhí)行副總裁,主管技術(shù)與研究,并且是微軟亞洲研究院創(chuàng)始成員之一。這位因在計(jì)算機(jī)視覺(jué)及圖像學(xué)領(lǐng)域建樹(shù)***而當(dāng)選IEEE Fellow(電氣電子工程師學(xué)會(huì)院士)及ACM Fellow(美國(guó)計(jì)算機(jī)協(xié)會(huì)院士)的計(jì)算機(jī)科學(xué)家,對(duì)他昔日弟子所取得的成就感到非常自豪。

“孫劍和我在2001年和西安交通大學(xué)鄭南寧教授一起做的***個(gè)項(xiàng)目是利用置信傳播(belief propagation)進(jìn)行立體重建。孫劍***個(gè)將貝葉斯置信傳播用來(lái)解決立體視覺(jué)問(wèn)題并取得了當(dāng)時(shí)***的效果。” 沈向洋對(duì)孫劍在微軟所取得的成就倍感驕傲。

“孫劍的很多研究成果都成功應(yīng)用到了微軟的核心產(chǎn)品中。而他在更深層神經(jīng)網(wǎng)絡(luò)方面***研究成果的潛力讓我尤為興奮和期待。”

孫劍將團(tuán)隊(duì)取得的***成果歸功于以下兩項(xiàng)關(guān)鍵突破:一是開(kāi)發(fā)了適應(yīng)性更強(qiáng)的非線性神經(jīng)元,二是改進(jìn)訓(xùn)練算法,使得神經(jīng)網(wǎng)絡(luò)更為強(qiáng)大。

微軟研究員在論文中指出,修正神經(jīng)元 (rectifier neuron)是近期將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用于計(jì)算機(jī)視覺(jué)挑戰(zhàn)時(shí)取得成功的關(guān)鍵要素之一。

研究人員表示:“在本論文中,我們從兩個(gè)方面對(duì)主要由修正神經(jīng)元驅(qū)動(dòng)的神經(jīng)網(wǎng)絡(luò)進(jìn)行了研究。首先,我們生成了一種新的修正線性單元(ReLU),并將其稱(chēng)為參數(shù)化修正線性單元(PReLU)。 該激活函數(shù)不僅可自適應(yīng)獲取修正參數(shù),還可提高計(jì)算精度,且所需額外計(jì)算成本幾乎可以忽略不計(jì)。其次,我們研究了深度修正模型的訓(xùn)練難度。我們通過(guò)對(duì)修正線性單元(即ReLU/PReLU)的非線性特征進(jìn)行直接建模,推導(dǎo)出一種符合理論的初始化方法,并直接從頭開(kāi)始訓(xùn)練網(wǎng)絡(luò),將其應(yīng)用于深度模型(例如,具 有30個(gè)帶權(quán)層的模型)的收斂過(guò)程。這為我們探索功能更強(qiáng)大的網(wǎng)絡(luò)體系結(jié)構(gòu)提供了更多的靈活性。” 

該研究團(tuán)隊(duì)雖然對(duì)其算法超越人類(lèi)視覺(jué)識(shí)別極限感到興奮不已,但與該領(lǐng)域的其他研究人員一樣,研究團(tuán)隊(duì)成員也強(qiáng)調(diào),計(jì)算機(jī)視覺(jué)目前從根本上仍無(wú)法與人類(lèi)視覺(jué)相比。計(jì)算機(jī)系統(tǒng)在識(shí)別物體、理解圖像上下文及場(chǎng)景高級(jí)信息等領(lǐng)域仍面臨諸多挑戰(zhàn)。 

“雖然我們的算法基于該特定的數(shù)據(jù)集得出了極為理想的結(jié)果,但這并不表明在對(duì)象識(shí)別領(lǐng)域機(jī)器視覺(jué)普遍優(yōu)于人類(lèi)視覺(jué)。某些對(duì)于人類(lèi)來(lái)說(shuō)輕而易舉 的基本對(duì)象類(lèi)別的識(shí)別,機(jī)器識(shí)別仍然存在明顯錯(cuò)誤。盡管如此,我們的研究結(jié)果表明機(jī)器算法在眾多視覺(jué)識(shí)別任務(wù)上具有巨大的發(fā)展?jié)摿Α?rdquo;

“人類(lèi)可以毫不費(fèi)力地區(qū)分出一只羊和一頭牛。但計(jì)算機(jī)在執(zhí)行這些簡(jiǎn)單任務(wù)時(shí)卻不盡***,”孫劍解釋道。“但是,當(dāng)涉及到不同品種的羊的區(qū)分時(shí),計(jì)算機(jī)可超越人類(lèi)。通過(guò)訓(xùn)練,計(jì)算機(jī)可觀察圖像的細(xì)節(jié)、紋理、形狀及環(huán)境,并發(fā)現(xiàn)人類(lèi)無(wú)法察覺(jué)出的區(qū)別。”

微軟研究團(tuán)隊(duì)的工作并不僅僅局限于基礎(chǔ)研究,其多項(xiàng)成果已被應(yīng)用到微軟的產(chǎn)品和服務(wù)中,包括必應(yīng)圖片搜索及微軟云存儲(chǔ)解決方案OneDrive。在近期的一篇博文中,微軟OneDrive項(xiàng)目經(jīng)理Douglas Pearce介紹了 OneDrive自動(dòng)識(shí)別照片內(nèi)容的功能。

“OneDrive會(huì)自動(dòng)為用戶(hù)上傳的照片創(chuàng)建標(biāo)簽,比如人、狗、沙灘、落日等等,使用戶(hù)借助標(biāo)簽?zāi)軌蚋p松地尋找到自己的圖片。有了這項(xiàng)功能,我們向演示項(xiàng)目中添加照片、與家人重溫特殊回憶,或與Facebook好友分享重要時(shí)刻就變得輕而易舉。”Pearce如是說(shuō)。

想要了解此項(xiàng)技術(shù)背后原理的讀者可閱讀微軟研究院去年發(fā)布的專(zhuān)題文章。該文章介紹了來(lái)自同一研究團(tuán)隊(duì)的研究成果,他們?cè)诒3譁?zhǔn)確性不變的條件下將深度學(xué)習(xí)目標(biāo)檢測(cè)系統(tǒng)加速了多達(dá)100倍。該團(tuán)隊(duì)的科研進(jìn)展記錄于題為“Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition”研究論文中。

“微軟亞洲研究院視覺(jué)計(jì)算研究組一直致力于推動(dòng)計(jì)算機(jī)視覺(jué)研究的前沿發(fā)展,***目標(biāo)是使計(jì)算機(jī)能夠模擬出人類(lèi)的感知能力。我對(duì)研究組多年來(lái)所 取得的成就深感自豪,他們不僅以高質(zhì)量的論文取得了學(xué)術(shù)界的認(rèn)可,而且通過(guò)將這些技術(shù)轉(zhuǎn)化到了微軟的多個(gè)核心產(chǎn)品中。”微軟亞太研發(fā)集團(tuán)主席兼微軟亞洲研 究院院長(zhǎng)洪小文博士說(shuō)道。

2010年,來(lái)自斯坦福大學(xué)、普林斯頓大學(xué)及哥倫比亞大學(xué)的科學(xué)家們啟動(dòng)大規(guī)模視覺(jué)識(shí)別挑戰(zhàn)賽(Large Scale Visual Recognition Challenge),推動(dòng)了計(jì)算機(jī)視覺(jué)識(shí)別挑戰(zhàn)的持續(xù)發(fā)展。科技行業(yè)知名記者John Markoff于2014年8月在《紐約時(shí)報(bào)》上刊登文章指出,2014年計(jì)算機(jī)識(shí)別挑戰(zhàn)的目標(biāo)識(shí)別準(zhǔn)確率幾乎提升了一倍,圖像分類(lèi)錯(cuò)誤率也減少了一半。最近,百度的研究人員在其論文中宣稱(chēng),以ImageNet對(duì)象分類(lèi)為基準(zhǔn),百度的計(jì)算機(jī)視覺(jué)系統(tǒng)實(shí)現(xiàn)了前五選5.33%的錯(cuò)誤率。

關(guān)于計(jì)算機(jī)視覺(jué)的挑戰(zhàn)仍在繼續(xù),今年的挑戰(zhàn)賽將 于12月啟動(dòng)。但這并不是孫劍、何愷明及其研究團(tuán)隊(duì)的關(guān)注重點(diǎn)。“我們的目標(biāo)是在眾多應(yīng)用上開(kāi)發(fā)出能與人類(lèi)視覺(jué)媲美,甚至比人類(lèi)更準(zhǔn)確的計(jì)算機(jī)視覺(jué)系 統(tǒng),”孫劍說(shuō)道。“如要實(shí)現(xiàn)這一目標(biāo),我們需要更多的訓(xùn)練數(shù)據(jù)和更加真實(shí)的測(cè)試場(chǎng)景。我們?cè)诒貞?yīng)、OneDrive和其他服務(wù)平臺(tái)上的工作將幫助我們進(jìn)一 步改善算法的魯棒性。”

責(zé)任編輯:鳶瑋 來(lái)源: 微軟
相關(guān)推薦

2022-05-19 15:51:57

技術(shù)信息AI

2012-11-06 09:20:21

軟件認(rèn)證管理云軟件認(rèn)證管理云環(huán)境

2015-11-20 16:21:26

Windows操作系統(tǒng)

2012-07-04 08:57:46

微軟Windows 8

2024-02-29 19:37:44

網(wǎng)絡(luò)安全框架網(wǎng)絡(luò)安全CSF

2015-01-21 15:33:11

Windows 10

2021-03-04 14:11:32

機(jī)器學(xué)習(xí)人工智能計(jì)算機(jī)

2019-01-28 09:21:45

存儲(chǔ)

2025-02-20 11:29:21

2023-05-30 13:53:31

模型語(yǔ)言

2024-12-04 10:39:00

Linux內(nèi)核技術(shù)性

2020-11-05 16:52:16

數(shù)據(jù)庫(kù)騰訊云TcaplusDB

2019-01-11 08:33:17

云計(jì)算云基礎(chǔ)設(shè)施服務(wù)

2010-04-06 09:17:29

Visual Stud

2011-09-09 13:42:16

2011-09-10 19:23:22

2021-02-03 16:19:49

新基建SAP

2021-02-01 12:14:02

SAP云基礎(chǔ)架構(gòu)解決方案

2017-12-11 17:02:13

量子計(jì)算安全

2024-03-14 11:55:21

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)