自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工智能遷移學(xué)習(xí)如何工作 在A(yíng)I模型和培訓(xùn)過(guò)程起到那些作用

人工智能 深度學(xué)習(xí)
如今,人工智能程序可以識(shí)別照片和視頻中的面部和物體,實(shí)時(shí)轉(zhuǎn)錄音頻,提前數(shù)年通過(guò)X射線(xiàn)掃描檢測(cè)癌癥,并在某些最復(fù)雜的游戲中與人類(lèi)競(jìng)爭(zhēng)。

 如今,人工智能程序可以識(shí)別照片和視頻中的面部和物體,實(shí)時(shí)轉(zhuǎn)錄音頻,提前數(shù)年通過(guò)X射線(xiàn)掃描檢測(cè)癌癥,并在某些最復(fù)雜的游戲中與人類(lèi)競(jìng)爭(zhēng)。

[[334607]]

 

直到幾年前,所有這些挑戰(zhàn)要么被認(rèn)為是無(wú)法克服的,幾十年之遙,要么已經(jīng)以次優(yōu)的結(jié)果得以解決。但是神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的進(jìn)步是人工智能的一個(gè)分支,在過(guò)去幾年中非常流行,它幫助計(jì)算機(jī)解決了這些問(wèn)題以及許多其他復(fù)雜問(wèn)題。

不幸的是,深度學(xué)習(xí)模型從頭開(kāi)始創(chuàng)建時(shí),需要訪(fǎng)問(wèn)大量數(shù)據(jù)和計(jì)算資源。這是許多人買(mǎi)不起的奢侈品。而且,訓(xùn)練深度學(xué)習(xí)模型來(lái)執(zhí)行任務(wù)需要很長(zhǎng)時(shí)間,這不適合時(shí)間預(yù)算短的用例。幸運(yùn)的是,轉(zhuǎn)移學(xué)習(xí)是一種使用從一種訓(xùn)練有素的AI模型獲得的知識(shí)到另一種知識(shí)的學(xué)科,可以幫助解決這些問(wèn)題。

訓(xùn)練深度學(xué)習(xí)模型的成本

深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的子集,是通過(guò)訓(xùn)練示例開(kāi)發(fā)AI的科學(xué)。但是直到最近幾年,由于效率低下,它們?cè)诤艽蟪潭壬弦驯籄I社區(qū)駁回。在過(guò)去的幾年中,大量數(shù)據(jù)和計(jì)算資源的可用性使神經(jīng)網(wǎng)絡(luò)備受關(guān)注,并使開(kāi)發(fā)能夠解決現(xiàn)實(shí)世界問(wèn)題的深度學(xué)習(xí)算法成為可能。

要訓(xùn)練深度學(xué)習(xí)模型,您基本上必須為神經(jīng)網(wǎng)絡(luò)提供大量帶注釋的示例。這些示例可以是諸如標(biāo)有物體的圖像或患者的乳房X線(xiàn)照片掃描及其最終結(jié)果之類(lèi)的東西。神經(jīng)網(wǎng)絡(luò)將仔細(xì)分析和比較圖像,并開(kāi)發(fā)數(shù)學(xué)模型來(lái)表示相似類(lèi)別圖像之間的重復(fù)模式。

 

已經(jīng)存在一些大型的開(kāi)源數(shù)據(jù)集,例如ImageNet(一個(gè)包含22000個(gè)類(lèi)別的超過(guò)1400萬(wàn)張圖像的數(shù)據(jù)庫(kù))和MNIST(一個(gè)包含60000個(gè)手寫(xiě)數(shù)字的數(shù)據(jù)集)。AI工程師可以使用這些資源來(lái)訓(xùn)練他們的深度學(xué)習(xí)模型。

但是,訓(xùn)練深度學(xué)習(xí)模型還需要訪(fǎng)問(wèn)非常強(qiáng)大的計(jì)算資源。開(kāi)發(fā)人員通常使用CPU,GPU集群或?qū)S糜布?例如Google的Tensor處理器(TPU))來(lái)高效地訓(xùn)練神經(jīng)網(wǎng)絡(luò)。購(gòu)買(mǎi)或租用此類(lèi)資源的成本可能超出單個(gè)開(kāi)發(fā)人員或小型組織的預(yù)算。而且,對(duì)于許多問(wèn)題,沒(méi)有足夠的示例來(lái)訓(xùn)練強(qiáng)大的AI模型。

轉(zhuǎn)移學(xué)習(xí)使深度學(xué)習(xí)培訓(xùn)的要求大大降低

假設(shè)AI工程師想要?jiǎng)?chuàng)建圖像分類(lèi)器神經(jīng)網(wǎng)絡(luò)來(lái)解決特定問(wèn)題。工程師無(wú)需收集成千上萬(wàn)的圖像,而可以使用諸如ImageNet之類(lèi)的公共可用數(shù)據(jù)集,并使用特定領(lǐng)域的照片對(duì)其進(jìn)行增強(qiáng)。

但是AI工程師仍然必須付出高昂的費(fèi)用來(lái)租用通過(guò)神經(jīng)網(wǎng)絡(luò)運(yùn)行這些數(shù)百萬(wàn)個(gè)圖像所需的計(jì)算資源。這是轉(zhuǎn)移學(xué)習(xí)發(fā)揮作用的地方。轉(zhuǎn)移學(xué)習(xí)是通過(guò)微調(diào)先前受過(guò)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)來(lái)創(chuàng)建新AI模型的過(guò)程。

開(kāi)發(fā)人員無(wú)需從頭開(kāi)始訓(xùn)練他們的神經(jīng)網(wǎng)絡(luò),而是可以下載經(jīng)過(guò)預(yù)先訓(xùn)練的開(kāi)源深度學(xué)習(xí)模型,并根據(jù)自己的目的對(duì)其進(jìn)行微調(diào)。有許多預(yù)訓(xùn)練的基本模型可供選擇。流行的示例包括AlexNet,Google的Inception-v3和Microsoft的ResNet-50。這些神經(jīng)網(wǎng)絡(luò)已經(jīng)在ImageNet數(shù)據(jù)集上進(jìn)行了訓(xùn)練。AI工程師只需要通過(guò)使用他們自己的特定領(lǐng)域的示例對(duì)它們進(jìn)行進(jìn)一步的培訓(xùn)來(lái)增強(qiáng)它們。

轉(zhuǎn)移學(xué)習(xí)不需要大量的計(jì)算資源。在大多數(shù)情況下,一臺(tái)臺(tái)式計(jì)算機(jī)或一臺(tái)筆記本電腦可以在幾個(gè)小時(shí)甚至更少的時(shí)間內(nèi)對(duì)預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)進(jìn)行微調(diào)。

轉(zhuǎn)移學(xué)習(xí)如何工作

有趣的是,神經(jīng)網(wǎng)絡(luò)以分層方式發(fā)展其行為。每個(gè)神經(jīng)網(wǎng)絡(luò)都由多層組成。訓(xùn)練后,調(diào)整每個(gè)圖層以檢測(cè)輸入數(shù)據(jù)中的特定特征。

例如,在圖像分類(lèi)器卷積網(wǎng)絡(luò)中,前幾層檢測(cè)一般特征,例如邊緣,拐角,圓形和顏色斑點(diǎn)。隨著您深入網(wǎng)絡(luò),這些層開(kāi)始檢測(cè)更具體的事物,例如眼睛,面部和完整的物體。

 

人工智能遷移學(xué)習(xí)如何工作 在A(yíng)I模型和培訓(xùn)過(guò)程起到那些作用

 

神經(jīng)網(wǎng)絡(luò)的頂層檢測(cè)一般特征。更深的層檢測(cè)實(shí)際對(duì)象(來(lái)源:arxiv.org)

在進(jìn)行遷移學(xué)習(xí)時(shí),AI工程師凍結(jié)了預(yù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)的第一層。這些是檢測(cè)所有域共有的常規(guī)功能的層。然后他們微調(diào)更深的層,以使用自己的示例對(duì)它們進(jìn)行微調(diào),并添加新層以對(duì)訓(xùn)練數(shù)據(jù)集中包含的新類(lèi)別進(jìn)行分類(lèi)。

經(jīng)過(guò)預(yù)先訓(xùn)練和微調(diào)的AI模型也分別稱(chēng)為“教師”模型和“學(xué)生”模型。

凍結(jié)層和微調(diào)層的數(shù)量取決于源AI模型和目標(biāo)AI模型之間的相似性。如果學(xué)生AI模型解決了非常接近老師的問(wèn)題,則無(wú)需微調(diào)預(yù)訓(xùn)練模型的各個(gè)層次。開(kāi)發(fā)人員僅需在網(wǎng)絡(luò)末端添加一個(gè)新層,并為新類(lèi)別訓(xùn)練AI。這稱(chēng)為“深層特征提取”。當(dāng)目標(biāo)域的訓(xùn)練數(shù)據(jù)很少時(shí),深度特征提取也更可取。

當(dāng)源與目的地之間存在相當(dāng)大的差異,或者培訓(xùn)示例很多時(shí),開(kāi)發(fā)人員將凍結(jié)預(yù)訓(xùn)練的AI模型中的幾層。然后,他們添加新的分類(lèi)層,并使用新示例微調(diào)未凍結(jié)的層。這稱(chēng)為“中間層特征提取”。

如果源AI模型和目標(biāo)AI模型之間存在顯著差異,則開(kāi)發(fā)人員將取消凍結(jié)并重新訓(xùn)練整個(gè)神經(jīng)網(wǎng)絡(luò)。這種稱(chēng)為“完整模型微調(diào)”的轉(zhuǎn)移學(xué)習(xí)還需要大量的訓(xùn)練示例。

 

人工智能遷移學(xué)習(xí)如何工作 在A(yíng)I模型和培訓(xùn)過(guò)程起到那些作用

 

圖片來(lái)源:芝加哥大學(xué)

采取預(yù)訓(xùn)練的模型并重新訓(xùn)練其所有層似乎是荒謬的。但實(shí)際上,它可以節(jié)省時(shí)間和計(jì)算資源。在訓(xùn)練之前,神經(jīng)網(wǎng)絡(luò)中的變量將使用隨機(jī)數(shù)進(jìn)行初始化,并在處理訓(xùn)練數(shù)據(jù)時(shí)調(diào)整其值。預(yù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)的變量值已被調(diào)整為數(shù)百萬(wàn)個(gè)訓(xùn)練示例。因此,它們對(duì)于新的AI模型來(lái)說(shuō)是一個(gè)更好的起點(diǎn),該模型想要訓(xùn)練一組與源AI模型甚至有一點(diǎn)相似之處的新示例。

轉(zhuǎn)移學(xué)習(xí)不是靈丹妙藥

轉(zhuǎn)移學(xué)習(xí)解決了以有效且負(fù)擔(dān)得起的方式訓(xùn)練AI模型的許多問(wèn)題。但是,它也需要權(quán)衡。如果預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)存在安全漏洞,則AI模型會(huì)使用它作為遷移學(xué)習(xí)的基礎(chǔ),并繼承這些漏洞。

例如,基本模型可能無(wú)法抵抗對(duì)抗攻擊,精心設(shè)計(jì)的輸入示例會(huì)迫使AI以不穩(wěn)定的方式更改其行為。如果惡意行為者設(shè)法為基本模型開(kāi)發(fā)對(duì)抗示例,則他們的攻擊將對(duì)從其派生的大多數(shù)AI模型起作用。芝加哥大學(xué),加州大學(xué)圣塔克拉拉分校和Virgina Tech的研究人員在去年Usenix安全研討會(huì)上發(fā)表的一篇論文中對(duì)此進(jìn)行了說(shuō)明。

此外,在某些領(lǐng)域,例如教AI玩游戲,遷移學(xué)習(xí)的使用非常有限。這些AI模型接受了強(qiáng)化學(xué)習(xí)的訓(xùn)練,強(qiáng)化學(xué)習(xí)是AI的一個(gè)分支,它是計(jì)算密集型的,并且需要大量的反復(fù)試驗(yàn)。在強(qiáng)化學(xué)習(xí)中,大多數(shù)新問(wèn)題都是獨(dú)特的,需要他們自己的 。

但總而言之,對(duì)于大多數(shù)深度學(xué)習(xí)應(yīng)用程序(例如圖像分類(lèi)和自然語(yǔ)言處理),您很有可能可以通過(guò)大量的巧妙的遷移學(xué)習(xí)來(lái)獲取捷徑。

責(zé)任編輯:華軒 來(lái)源: 今日頭條
相關(guān)推薦

2020-07-23 10:52:37

人工智能

2021-10-29 11:00:04

測(cè)試和維護(hù)人工智能機(jī)器學(xué)習(xí)

2022-06-06 09:41:21

云計(jì)算人工智能

2017-08-21 17:00:55

2023-10-26 15:10:16

AIGC編程

2022-08-18 09:42:02

人工智能機(jī)器學(xué)習(xí)

2024-01-29 11:12:23

人工智能機(jī)器學(xué)習(xí)物聯(lián)網(wǎng)

2022-11-17 13:57:40

人工智能AI

2023-03-24 14:51:05

人工智能大數(shù)據(jù)

2017-03-18 16:28:40

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2021-10-09 21:00:15

人工智能AI

2021-07-05 10:13:29

人工智能AI數(shù)據(jù)

2019-10-17 11:13:27

大數(shù)據(jù)人工智能

2023-08-07 17:45:11

人工智能物聯(lián)網(wǎng)

2020-08-06 16:30:07

人工智能機(jī)器學(xué)習(xí)技術(shù)

2022-06-01 14:33:59

人工智能交通運(yùn)輸機(jī)器學(xué)習(xí)

2020-10-16 10:19:10

智能

2021-03-15 22:59:56

人工智能大數(shù)據(jù)技術(shù)

2020-07-29 12:50:10

人工智能企業(yè)AI

2022-07-31 23:46:57

人工智能語(yǔ)言模型感知力
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)