自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

計(jì)算機(jī)視覺(jué)的十年:深度學(xué)習(xí)帶來(lái)變革,經(jīng)典元素仍主導(dǎo)特定挑戰(zhàn)

人工智能 深度學(xué)習(xí)
在未來(lái)的十年中,預(yù)測(cè)“理解”將最終取代“學(xué)習(xí)”,成為網(wǎng)絡(luò)開(kāi)發(fā)的主要關(guān)注點(diǎn)。重點(diǎn)將不再是網(wǎng)絡(luò)能學(xué)到多少知識(shí),而是它能深入理解信息的程度以及我們?nèi)绾卧诓唤o予過(guò)多數(shù)據(jù)的情況下促進(jìn)這種理解。我們的目標(biāo)應(yīng)該是讓網(wǎng)絡(luò)能在最少的干預(yù)下得出更深入的結(jié)論。

大數(shù)據(jù)文摘出品

編譯:文摘菌

近些年來(lái),計(jì)算機(jī)視覺(jué)(CV)的發(fā)展勢(shì)如破竹,滲透到了我們生活的方方面面。對(duì)于大眾而言,這可能像是一項(xiàng)新鮮且令人興奮的科技創(chuàng)新,然而,實(shí)際上并非如此。

事實(shí)上,計(jì)算機(jī)視覺(jué)已經(jīng)有幾十年的發(fā)展歷程,早在20 世紀(jì) 70 年代,已經(jīng)為今日所使用的眾多算法打下了堅(jiān)實(shí)基礎(chǔ)。然后,在大約十年前,一種當(dāng)時(shí)還在理論發(fā)展階段的新技術(shù)浮現(xiàn)眼前:深度學(xué)習(xí),一種利用神經(jīng)網(wǎng)絡(luò)解決高度復(fù)雜問(wèn)題的 AI 形式,只要你有足夠的數(shù)據(jù)和計(jì)算能力就能驅(qū)動(dòng)它。

隨著深度學(xué)習(xí)的持續(xù)進(jìn)步,我們開(kāi)始認(rèn)識(shí)到它在解決某些計(jì)算機(jī)視覺(jué)問(wèn)題上的表現(xiàn)十分出色。對(duì)于目標(biāo)檢測(cè)和分類(lèi)等挑戰(zhàn)性問(wèn)題,深度學(xué)習(xí)的應(yīng)用效果特別理想。從這時(shí)開(kāi)始,"經(jīng)典"的計(jì)算機(jī)視覺(jué)與基于深度學(xué)習(xí)的計(jì)算機(jī)視覺(jué)開(kāi)始出現(xiàn)明顯的區(qū)別。

什么鎖住了經(jīng)典CV?

然而,深度學(xué)習(xí)的崛起并未將經(jīng)典計(jì)算機(jī)視覺(jué)貶低為過(guò)時(shí)技術(shù);兩者仍在并行發(fā)展,幫助我們明確哪些問(wèn)題更適合借助大數(shù)據(jù)來(lái)解決,哪些問(wèn)題應(yīng)當(dāng)繼續(xù)使用數(shù)學(xué)和幾何算法來(lái)處理。

盡管深度學(xué)習(xí)能夠革新計(jì)算機(jī)視覺(jué),但這種神奇的改變只有在有適宜的訓(xùn)練數(shù)據(jù)可供使用,或者在網(wǎng)絡(luò)能獨(dú)立地、在明確的邏輯或幾何約束下進(jìn)行學(xué)習(xí)時(shí)才能顯現(xiàn)。

在過(guò)去,經(jīng)典計(jì)算機(jī)視覺(jué)被用于物體檢測(cè),識(shí)別特征(如邊緣、角點(diǎn)和紋理)甚至對(duì)每一個(gè)圖片像素進(jìn)行標(biāo)記(語(yǔ)義分割)。然而,這些過(guò)程都非常復(fù)雜且耗時(shí)。

要檢測(cè)物體,需要熟練掌握滑動(dòng)窗口、模式匹配和窮舉搜索等技術(shù)。提取和分類(lèi)特征則需要工程師開(kāi)發(fā)定制的方法。在像素級(jí)別上區(qū)分不同類(lèi)別的對(duì)象需要大量的工作來(lái)劃分不同的區(qū)域,即使是最有經(jīng)驗(yàn)的計(jì)算機(jī)視覺(jué)工程師也并不總能正確地區(qū)分圖像中的每個(gè)像素。

深度學(xué)習(xí)變革目標(biāo)檢測(cè)

相較而言,深度學(xué)習(xí),尤其是卷積神經(jīng)網(wǎng)絡(luò)(CNN)和基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(R-CNN),已經(jīng)使得物體檢測(cè)變得相對(duì)簡(jiǎn)單,特別是與Google 和 Amazon 等大公司出品的大·圖像數(shù)據(jù)庫(kù)結(jié)合使用時(shí)。只需通過(guò)訓(xùn)練良好的網(wǎng)絡(luò),無(wú)需明確的手動(dòng)規(guī)則,算法就能在各種情況下檢測(cè)目標(biāo),且不會(huì)受到視角的限制。

在特征提取方面,深度學(xué)習(xí)只需要一個(gè)有效的算法和豐富多樣的訓(xùn)練數(shù)據(jù),既能防止模型過(guò)擬合,也能確保在投入生產(chǎn)后面對(duì)新數(shù)據(jù)時(shí)獲得高度的準(zhǔn)確性評(píng)分。在這項(xiàng)任務(wù)上,CNN 表現(xiàn)得尤為出色。此外,當(dāng)深度學(xué)習(xí)被應(yīng)用于語(yǔ)義分割時(shí),U-net 架構(gòu)表現(xiàn)得非常好,消除了復(fù)雜的手動(dòng)處理的需求。

回看“經(jīng)典算法”

雖然深度學(xué)習(xí)無(wú)疑已經(jīng)徹底改變了計(jì)算機(jī)視覺(jué)的領(lǐng)域,但在同時(shí)定位和映射(SLAM,Simultaneous Localization and Mapping )以及運(yùn)動(dòng)結(jié)構(gòu)(SFM)等特定挑戰(zhàn)上,經(jīng)典計(jì)算機(jī)視覺(jué)的解決方案仍然優(yōu)于較新的方法。這些問(wèn)題都涉及到使用圖像來(lái)理解和描繪物理空間的尺寸。

SLAM 主要針對(duì)構(gòu)建和更新某個(gè)區(qū)域的地圖,同時(shí)跟蹤代理物體(通常是某種類(lèi)型的機(jī)器人)在地圖中的位置。這種技術(shù)使得自動(dòng)駕駛和機(jī)器人吸塵器等成為了可能。

SFM 也同樣依賴(lài)于先進(jìn)的數(shù)學(xué)和幾何知識(shí),但其目標(biāo)是使用從無(wú)序圖像集中獲取的多個(gè)視角來(lái)創(chuàng)建物體的三維重建。它適用于不需要實(shí)時(shí)、即時(shí)響應(yīng)的情況。

最初,人們認(rèn)為正確執(zhí)行 SLAM 需要大量的計(jì)算能力。然而,通過(guò)使用近似方法,計(jì)算機(jī)視覺(jué)的先驅(qū)者們能夠使計(jì)算需求更加易于管理。

相比之下,SFM 更為簡(jiǎn)單:與通常涉及傳感器融合的 SLAM 不同,該方法只利用相機(jī)的固有屬性和圖像的特征。與許多由于范圍和分辨率限制而無(wú)法進(jìn)行的激光掃描相比,這是一種經(jīng)濟(jì)高效的方法。其結(jié)果是對(duì)物體的可靠且準(zhǔn)確的表示。

前方的路

深度學(xué)習(xí)仍然無(wú)法像經(jīng)典計(jì)算機(jī)視覺(jué)一樣解決某些問(wèn)題。工程師們應(yīng)繼續(xù)使用傳統(tǒng)技術(shù)來(lái)解決這些問(wèn)題。當(dāng)問(wèn)題涉及復(fù)雜的數(shù)學(xué)和直接觀察,且難以獲取適當(dāng)?shù)挠?xùn)練數(shù)據(jù)集時(shí),深度學(xué)習(xí)的強(qiáng)大和笨重可能無(wú)法生成優(yōu)雅的解決方案。可以用“瓷器店里的公?!边@個(gè)類(lèi)比來(lái)形容這種情況:就像 ChatGPT 在基本算術(shù)方面肯定不是最高效(或最準(zhǔn)確)的工具一樣,經(jīng)典計(jì)算機(jī)視覺(jué)將繼續(xù)主導(dǎo)特定的挑戰(zhàn)。

經(jīng)典計(jì)算機(jī)視覺(jué)向基于深度學(xué)習(xí)的計(jì)算機(jī)視覺(jué)的部分過(guò)渡給我們帶來(lái)了兩個(gè)主要的啟示。

首先,我們必須認(rèn)識(shí)到,全面替換舊技術(shù),盡管更簡(jiǎn)單,但卻是錯(cuò)誤的。當(dāng)一個(gè)領(lǐng)域被新技術(shù)打破時(shí),我們必須謹(jǐn)慎關(guān)注細(xì)節(jié),并逐個(gè)案例確定哪些問(wèn)題將從新技術(shù)中受益,哪些問(wèn)題仍然更適合使用舊方法。

第二個(gè)啟示是,雖然過(guò)渡帶來(lái)了可擴(kuò)展性,但它也帶來(lái)了一種苦樂(lè)參半的情感。傳統(tǒng)方法確實(shí)更多的是手動(dòng)操作,但這也意味著它們既是藝術(shù),又是科學(xué)的結(jié)合。從圖像中提取特征、物體、邊緣和關(guān)鍵元素所需的創(chuàng)造力和創(chuàng)新力,并不是來(lái)自深度學(xué)習(xí),而是來(lái)自深思熟慮。

隨著我們逐漸遠(yuǎn)離經(jīng)典計(jì)算機(jī)視覺(jué)技術(shù),而工程師有時(shí)候更像是計(jì)算機(jī)視覺(jué)工具的整合者。雖然這對(duì)行業(yè)來(lái)說(shuō)是“好事”,但卻遺憾地放棄了那些更具藝術(shù)性和創(chuàng)造性的元素。未來(lái)的一個(gè)挑戰(zhàn)將是嘗試以其他方式將這種藝術(shù)性融入進(jìn)來(lái)。

理解取代者

在未來(lái)的十年中,預(yù)測(cè)“理解”將最終取代“學(xué)習(xí)”,成為網(wǎng)絡(luò)開(kāi)發(fā)的主要關(guān)注點(diǎn)。重點(diǎn)將不再是網(wǎng)絡(luò)能學(xué)到多少知識(shí),而是它能深入理解信息的程度以及我們?nèi)绾卧诓唤o予過(guò)多數(shù)據(jù)的情況下促進(jìn)這種理解。我們的目標(biāo)應(yīng)該是讓網(wǎng)絡(luò)能在最少的干預(yù)下得出更深入的結(jié)論。

在計(jì)算機(jī)視覺(jué)領(lǐng)域,接下來(lái)的十年肯定會(huì)帶來(lái)一些驚喜。也許經(jīng)典計(jì)算機(jī)視覺(jué)最終會(huì)變得過(guò)時(shí)。也許深度學(xué)習(xí)也會(huì)被一種尚未被我們聽(tīng)說(shuō)過(guò)的技術(shù)所取代。然而,至少目前來(lái)說(shuō),這些工具是處理特定任務(wù)的最佳選擇,構(gòu)成了未來(lái)十年計(jì)算機(jī)視覺(jué)發(fā)展的基礎(chǔ)。無(wú)論如何,這都將是一段非常有意義的旅程。

參考來(lái)源:

https://venturebeat.com/ai/ten-years-in-deep-learning-changed-computer-vision-but-the-classical-elements-still-stand/

責(zé)任編輯:武曉燕 來(lái)源: 大數(shù)據(jù)文摘
相關(guān)推薦

2020-08-04 10:24:50

計(jì)算機(jī)視覺(jué)人工智能AI

2019-12-11 13:24:57

深度學(xué)習(xí)數(shù)據(jù)結(jié)構(gòu)軟件

2023-04-04 15:12:07

深度學(xué)習(xí)機(jī)器學(xué)習(xí)

2014-03-31 11:49:16

軟件定義網(wǎng)絡(luò)SDN

2023-03-28 15:21:54

深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)

2019-08-29 11:10:34

深度學(xué)習(xí)神經(jīng)架構(gòu)人工智能

2017-11-30 12:53:21

深度學(xué)習(xí)原理視覺(jué)

2020-04-26 17:20:53

深度學(xué)習(xí)人工智能計(jì)算機(jī)視覺(jué)

2019-11-22 10:50:56

區(qū)塊鏈人事

2021-03-29 11:52:08

人工智能深度學(xué)習(xí)

2010-12-31 10:07:40

2023-11-20 22:14:16

計(jì)算機(jī)視覺(jué)人工智能

2020-12-15 15:40:18

深度學(xué)習(xí)Python人工智能

2020-12-16 19:28:07

深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)Python庫(kù)

2013-07-01 11:08:11

業(yè)界科技變革

2022-06-30 11:28:14

計(jì)算機(jī)視覺(jué)AI

2022-02-11 10:27:28

面部識(shí)別算法人工智能

2019-07-17 20:27:04

機(jī)器學(xué)習(xí)人工智能計(jì)算機(jī)

2023-07-07 10:53:08

2019-11-07 11:29:29

視覺(jué)技術(shù)數(shù)據(jù)網(wǎng)絡(luò)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)