自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工智能與機器學習有哪些不同

譯文
網(wǎng)絡 通信技術(shù)
在一些更具體的任務中,使用數(shù)據(jù)來適應函數(shù)的想法獲得了巨大的成功,這也構(gòu)成了機器學習的基礎。在模仿方面,人工智能在圖像識別、語音識別和自然語言處理方面有著廣泛的應用。

【51CTO.com快譯】 人工智能早已不是一個新名詞,它的發(fā)展歷史已經(jīng)有幾十年。從80年代早期開始,當時計算機科學家設計出可以學習和模仿人類行為的算法。在學習方面,最重要的算法是神經(jīng)網(wǎng)絡,但由于模型過于強大,沒有足夠的數(shù)據(jù)支持,導致不是很成功。然而,在一些更具體的任務中,使用數(shù)據(jù)來適應函數(shù)的想法獲得了巨大的成功,這也構(gòu)成了機器學習的基礎。在模仿方面,人工智能在圖像識別、語音識別和自然語言處理方面有著廣泛的應用。專家們花費了大量時間去創(chuàng)建邊緣計算,彩色型材,N-gram語言模型,語法樹等,不料所獲成績平平。

[[197336]]


傳統(tǒng)的機器學習

機器學習(ML)技術(shù)在預測中發(fā)揮了重要作用,機器學習已經(jīng)經(jīng)歷了多代,有一套完備的模型結(jié)構(gòu),如:

·線性回歸
·Logistic回歸
·決策樹
·支持向量機
·貝葉斯模型
·正則化模型
·集成模型
·神經(jīng)網(wǎng)絡

每一個預測模型都基于一定的算法結(jié)構(gòu),參數(shù)可進行調(diào)整。訓練預測模型涉及以下步驟:

1.選擇模型結(jié)構(gòu)(例如,邏輯回歸、隨機森林等)。
2.用訓練數(shù)據(jù)(輸入和輸出)對模型進行反饋。
3.學習算法將輸出最優(yōu)模型(即具有特定參數(shù)的模型,使訓練誤差最小化)。

每個模型都有自己的特點,在某些任務中表現(xiàn)很好,在其他方面也卻不盡人意。但一般來說,我們可以把它們分為低功耗(簡單)模型和大功率(復雜)模型。在不同的模型之間進行選擇是一個非常棘手的問題。傳統(tǒng)上,使用低功耗/簡單模型比使用高功率/復雜模型要好,原因如下:

·在我們擁有大量的處理能力之前,訓練高功率模型需要花費很長時間。
·直到我們有一個龐大的數(shù)據(jù)量,培養(yǎng)高功率模型會導致過擬合問題(由于高功率模型具有豐富的參數(shù),可以適應多種數(shù)據(jù)的形狀,我們可能最終會訓練出一個與當前訓練數(shù)據(jù)非常相關(guān)的模型,而不是對未來數(shù)據(jù)進行預測)。

然而,選擇低功耗模型存在著所謂的"欠擬合"問題,即模型結(jié)構(gòu)過于簡單,無法在較復雜的情況下適應訓練數(shù)據(jù)。(假設下面的數(shù)據(jù)有一個二次關(guān)系:y=5*X的平方;沒有方法可以擬合一個線性回歸:y=A,B,B,B,無論我們選擇什么樣的A和B。)

為了減輕"不適合的問題",數(shù)據(jù)科學家通常會應用他們的"領域知識"來產(chǎn)生"輸入特性",它與輸出有更直接的關(guān)系。(例如,返回到二次關(guān)系y=5*X的平方),然后通過選取a=5和b=0,擬合線性回歸。

機器學習的一個主要障礙是這個特征工程步驟,它要求領域?qū)<以谶M入培訓過程之前識別重要的信號。特征工程步驟非常手工,需要大量的領域?qū)iT知識,因此成為當今大多數(shù)機器學習任務的主要瓶頸。換句話說,如果我們沒有足夠的處理能力和足夠的數(shù)據(jù),那么我們必須使用低功耗/簡單的模型,這需要我們花大量的時間和精力來創(chuàng)建適當?shù)妮斎胩匦?。這是大多數(shù)數(shù)據(jù)科學家花時間做的事情。

神經(jīng)網(wǎng)絡的回歸

在2000年代早期,隨著大容量數(shù)據(jù)時代大量的細粒度事件數(shù)據(jù)的收集,隨著云計算和大規(guī)模并行處理基礎設施的進步,機器處理能力得到了極大的提高。我們不再局限于低功耗/簡單的模型。例如,當今最流行的兩種主流機器學習模型是隨機森林和梯度增強樹。然而,盡管它們都非常強大,并提供非線性模型擬合訓練數(shù)據(jù),數(shù)據(jù)科學家仍然需要仔細地創(chuàng)建功能,以達到良好的性能。

與此同時,計算機科學家重新使用了許多層的神經(jīng)網(wǎng)絡來完成這些人類模擬任務。這給新出生的DNN(深度神經(jīng)網(wǎng)絡)在圖像分類和語音識別的任務提供了一個重大的突破。

DNN的主要區(qū)別是,你可以發(fā)出原信號,(例如,RGB像素值)直接到DNN沒有創(chuàng)造任何特定于域的輸入特征。通過多層次的神經(jīng)元(這就是為什么它被稱為"深"的神經(jīng)網(wǎng)絡),能夠自動生成相應的功能,通過各層最后提供了一個很好的預測。這大大節(jié)省了"特征工程"的努力,也是數(shù)據(jù)科學家遇到的一個主要瓶頸。

DNN也演變成許多不同的網(wǎng)絡結(jié)構(gòu),所以我們美國有線電視新聞網(wǎng)(卷積神經(jīng)網(wǎng)絡),RNN(神經(jīng)網(wǎng)絡)、LSTM(長短期記憶)、GAN(生成對抗網(wǎng)絡),遷移學習,注意模型…整個光譜被稱為"深度學習",這是當今全機器學習界關(guān)注的焦點。

強化學習

另一個關(guān)鍵的部分是如何模仿一個人(或動物)學習。想象一下感知/行為/獎賞周期的非常自然的動物行為。一個人或動物首先會通過感知他或她處于什么狀態(tài)來理解環(huán)境?;谶@一點,他或她會選擇一個"動作"把他或她帶到另一個"狀態(tài)",然后他或她會得到一個"獎勵",如此循環(huán)重復。

這種學習方法(稱為強化學習)與傳統(tǒng)的有監(jiān)督機器學習的曲線擬合方法有很大的不同。特別是,強化學習的發(fā)生非常迅速,因為每一個新的反饋(如執(zhí)行一個動作和獲得一個獎勵)立即被發(fā)送來影響隨后的決定。強化學習已經(jīng)獲得了巨大的成功在自動駕駛汽車以及AlphaGO(下棋機器人)。

強化學習也提供了一個平滑的預測和優(yōu)化集成,因為它保持一個信念的當前狀態(tài)和可能的轉(zhuǎn)移概率時采取不同的行動,然后作出決定,哪些行動會帶來最好的結(jié)果。

深度學習+強化學習=人工智能

與經(jīng)典機器學習技術(shù)相比,深度學習提供了一個更強大的預測模型,通常能產(chǎn)生良好的預測。與經(jīng)典的優(yōu)化模型相比,強化學習提供了更快的學習機制,并且更適應環(huán)境的變化。

作者:RickyHo
原文鏈接:
https://dzone.com/articles/how-ai-differs-from-ml

劉妮娜譯

【51CTO譯稿,合作站點轉(zhuǎn)載請注明原文譯者和出處為51CTO.com】

責任編輯:劉妮娜 來源: 51CTO
相關(guān)推薦

2017-07-21 12:52:32

人工智能機器學習神經(jīng)網(wǎng)絡

2016-10-17 13:59:10

機器學習人工智能

2021-06-15 08:00:00

人工智能機器學習應用

2018-06-14 16:01:10

2018-12-12 18:20:01

人工智能機器人

2024-03-06 13:15:40

人工智能

2015-10-10 09:32:24

機器學習人工智能

2021-08-09 08:53:46

人工智能機器學習AI

2017-11-17 08:17:48

2017-05-27 14:55:41

人工智能軟件架構(gòu)

2023-06-05 16:39:30

2017-04-18 15:49:24

人工智能機器學習數(shù)據(jù)

2024-01-29 11:12:23

人工智能機器學習物聯(lián)網(wǎng)

2019-03-14 10:09:36

人工智能信息安全網(wǎng)絡安全

2021-03-30 13:45:00

人工智能

2018-02-23 13:31:36

人工智能 機器學習

2021-04-16 09:53:45

人工智能機器學習深度學習

2020-03-25 09:51:55

人工智能技術(shù)機器

2023-09-20 16:28:02

2020-09-07 11:28:09

人工智能機器學習AI
點贊
收藏

51CTO技術(shù)棧公眾號