自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

有哪些傳統(tǒng)數(shù)據(jù)科學(xué)技術(shù)被大眾媒體稱為人工智能(AI)?

大數(shù)據(jù)
這篇文章并不是一個(gè)深入的研究,而是進(jìn)行粗略的介紹,以便你了解這領(lǐng)域的研究進(jìn)展和發(fā)展趨勢。如果你是一位傳統(tǒng)數(shù)據(jù)科學(xué)家,讀過一些文章,但仍然沒有把這些拼圖拼起來建立全面的認(rèn)識,你可能會(huì)發(fā)現(xiàn)這是一種整合你當(dāng)前的知識,甚至發(fā)現(xiàn)你想關(guān)注哪個(gè)目標(biāo)并致力于此的方式。

Bill Vorhies是Data Science Central的編輯部主任,自2001年以來一直當(dāng)數(shù)據(jù)科學(xué)家和商業(yè)預(yù)測建模師。

Bill Vorhies不久前寫了一篇文章《AI背后的數(shù)據(jù)科學(xué)》,他分享的觀點(diǎn)很新穎,經(jīng)作者授權(quán),InfoQ翻譯并發(fā)布。點(diǎn)擊“閱讀原文”查看英文鏈接。

對于那些對AI感興趣但還沒有深入研究的傳統(tǒng)數(shù)據(jù)科學(xué)家,下面是對數(shù)據(jù)科學(xué)技術(shù)的簡要概述,這些數(shù)據(jù)科學(xué)技術(shù)在通俗報(bào)紙中被稱為人工智能(AI)。

Data Science Central與其他人已經(jīng)撰寫了相當(dāng)多的關(guān)于構(gòu)成AI的各種類型的數(shù)據(jù)科學(xué)的文章。但是Bill Vorhies仍然聽到很多人詢問關(guān)于AI的問題,好像它就是單一的實(shí)體。他表示,不是這樣的。AI是一個(gè)數(shù)據(jù)科學(xué)技術(shù)的集合,在這一點(diǎn)上,開發(fā)甚至都沒有特別好地集成,或易于使用。然而,在這些領(lǐng)域中,他們?nèi)匀蝗〉昧撕艽蟮倪M(jìn)步,并受到了大眾媒體的關(guān)注。

這篇文章并不是一個(gè)深入的研究,而是進(jìn)行粗略的介紹,以便你了解這領(lǐng)域的研究進(jìn)展和發(fā)展趨勢。如果你是一位傳統(tǒng)數(shù)據(jù)科學(xué)家,讀過一些文章,但仍然沒有把這些拼圖拼起來建立全面的認(rèn)識,你可能會(huì)發(fā)現(xiàn)這是一種整合你當(dāng)前的知識,甚至發(fā)現(xiàn)你想關(guān)注哪個(gè)目標(biāo)并致力于此的方式。

AI只是數(shù)據(jù)科學(xué)部件的總和

構(gòu)成AI的數(shù)據(jù)科學(xué)“部件”分為以下幾類。這里有所重疊,但都是詳細(xì)的主題,你會(huì)在媒體上看到。

  • 深度學(xué)習(xí)
  • 自然語言處理
  • 圖像識別
  • 強(qiáng)化學(xué)習(xí)
  • 問答機(jī)
  • 對抗性訓(xùn)練
  • 機(jī)器人

這些都是獨(dú)立的學(xué)科(好吧,深度學(xué)習(xí)的類別實(shí)際上還包含一些其他)。AI只是這些部件的總和。它們只是由一大批創(chuàng)業(yè)公司和主要參與者創(chuàng)造的一些真正奇妙的應(yīng)用非常松散地結(jié)合在一起。當(dāng)它們一起工作時(shí),例如Watson、或Echo/Alexa、或者在使用自駕車,那么它們應(yīng)該可以超過組成它們的部分的總和,然而情況并非如此。如何集成這些不同技術(shù)仍然是最大的挑戰(zhàn)之一。

我們的AI必須做什么?

當(dāng)向初學(xué)者解釋這一點(diǎn)時(shí),我總是認(rèn)為,從AI需要具備什么類似人類能力的擬人化描述開始的話,還是有所幫助的。

  • 觀看:這是定格畫面和視頻圖像的識別。
  • 聽?。和ㄟ^文本或口頭語言接收輸入。
  • 說話:以相同的語言或甚至外語有意義地響應(yīng)我們的輸入。
  • 像人類一樣做出決定:提供建議或新知識。
  • 學(xué)習(xí):根據(jù)其環(huán)境中的更改來改變其行為。
  • 移動(dòng):以及操作物理對象。

您可以立即開始看到,當(dāng)今新興的AI許多商業(yè)應(yīng)用,只有這些能力中的一部分。但我們期待的是,未來有更復(fù)雜的應(yīng)用能具備幾乎所有這些能力。

今天出現(xiàn)的許多AI的商業(yè)應(yīng)用程序只需要這些功能中的一部分。但是我們期待的更復(fù)雜的應(yīng)用程序?qū)⑿枰獛缀跛羞@些功能。

將人類能力轉(zhuǎn)換為數(shù)據(jù)科學(xué)

這里確實(shí)有點(diǎn)凌亂。這些能力中的,每個(gè)不一定與其基礎(chǔ)數(shù)據(jù)科學(xué)一一對應(yīng)。但是,要真正了解現(xiàn)今AI正在發(fā)生著什么,理解數(shù)據(jù)科學(xué)如何與這些要求相匹配是最重要的。作為一張圖解,它們的匹配或多或少像這樣的:

 

 

 

 

深度學(xué)習(xí)發(fā)生了什么?

您可能已經(jīng)注意到,我們的圖表中缺少“深度學(xué)習(xí)”。這是因?yàn)樗巧厦嬷v到的遞歸神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的匯總類別。人工神經(jīng)網(wǎng)絡(luò)(ANNs)是自80年代以來的最高水平,并且一直是用于解決標(biāo)準(zhǔn)分類和回歸問題的標(biāo)準(zhǔn)數(shù)據(jù)科學(xué)機(jī)器學(xué)習(xí)工具包的一部分。

 

 

 

 

最近發(fā)生的事情是,我們大量增加并行處理,使用GPU(圖形處理單元)而不是傳統(tǒng)的英特爾芯片,允許我們實(shí)驗(yàn)的ANN有幾十個(gè)甚至超過一百個(gè)隱藏層的版本。這些隱藏層就是我們?yōu)槭裁磳⑦@些類型成為“深度”的原因,因此也成了“深度學(xué)習(xí)”的說法。添加隱藏層意味著乘法計(jì)算的復(fù)雜性,這就是為何我們不得不等待硬件趕上我們的雄心。

至少有27種不同類型的ANN,但最重要的是卷積神經(jīng)網(wǎng)絡(luò)(CNN)和遞歸神經(jīng)網(wǎng)絡(luò)(RNN),沒有它們,圖像識別和自然語言處理將是不可能的任務(wù)。

數(shù)據(jù)科學(xué)的簡要討論

要公正對待這些基礎(chǔ)數(shù)據(jù)科學(xué)技術(shù),就需要閱讀多篇文章。在本文中,我們將給你最簡略描述,以及一些能查看更為完整信息的鏈接。

卷積神經(jīng)網(wǎng)絡(luò)(CNN):CNN是所有類型的圖像和視頻識別、面部識別、圖像標(biāo)記的核心,并可在幫助自動(dòng)駕駛在行人中識別停車標(biāo)志。它們非常復(fù)雜,難以訓(xùn)練,而你不需要指定具體的功能(像貓有毛皮、尾巴、四條腿等那樣),你需要在一個(gè)CNN上按字面意思展示數(shù)百萬貓科的示例就可以成功。海量的訓(xùn)練數(shù)據(jù)是一個(gè)巨大的障礙。

遞歸神經(jīng)網(wǎng)絡(luò)(遞歸): RNN是自然語言處理(NLP)的中心,也是游戲和類似的邏輯問題的中心。與CNN不同,它們將信息處理為時(shí)間序列,其中每個(gè)隨后的數(shù)據(jù)片段在某種程度上依賴于之前的片段。它可能不明顯,但語言屬于此類別,因?yàn)橄乱粋€(gè)字符或下一個(gè)字在邏輯上與前一個(gè)字符相關(guān)。RNN可以工作在字符、字或甚至長段級別,這使得它們能夠完美提供可預(yù)期的長篇回答您的客戶服務(wù)問題。RNN處理文本問題的理解以及形成復(fù)雜的響應(yīng),包括翻譯成外語。計(jì)算機(jī)能夠贏得國際象棋和圍棋,RNN功不可沒。

生成式對抗神經(jīng)網(wǎng)絡(luò)(GANN): CNN和RNN都受到同樣問題的困惑,即需要龐大的、繁重的數(shù)據(jù)量以便訓(xùn)練,要么識別停車標(biāo)志(圖像),要么了解如何回答您關(guān)于如何打開該帳戶(語音和文本)的問題。GANN能夠保證顯著減少訓(xùn)練數(shù)據(jù)并提高精度。他們通過互相較量。這里有一個(gè)好故事,關(guān)于訓(xùn)練卷積神經(jīng)網(wǎng)來識別假法國印象派的藝術(shù)贗品。簡而言之,一個(gè)CNN被真正的法國印象派畫作來訓(xùn)練,所以它應(yīng)該認(rèn)識真品。其他對抗性CNN,稱為生成式對抗神經(jīng)網(wǎng)絡(luò),實(shí)際上被賦予創(chuàng)造印象派繪畫贗品的任務(wù)。

CNN通過將像素值轉(zhuǎn)換為復(fù)雜的數(shù)值向量來執(zhí)行圖像識別的任務(wù)。如果你向后運(yùn)行它們,那就是從隨機(jī)數(shù)值向量開始,它們可以創(chuàng)建一個(gè)圖像。在這種情況下,NN生成贗品創(chuàng)造圖像,試圖欺騙嘗試學(xué)習(xí)如何檢測贗品的CNN。他們互相較量,直到生成器(贗品制造者)產(chǎn)生的圖像如此完美,以至于CNN無法將它們從原件和已經(jīng)扳平的兩個(gè)對抗網(wǎng)絡(luò)區(qū)分出來。同時(shí),設(shè)計(jì)用于確定來自贗品的原件的CNN已經(jīng)在檢測贗品方面進(jìn)行了極好的培訓(xùn),而沒有對數(shù)百萬偽造的法國印象派大師進(jìn)行訓(xùn)練這一不切實(shí)際的要求。總之,它們就是從其所在的環(huán)境中學(xué)習(xí)。

問答機(jī)(QAM): QAM,是我們?yōu)橄馡BM的Watson之類起的一個(gè)相當(dāng)不起眼的名字。這些都是海量知識庫,經(jīng)過訓(xùn)練,可以在其知識庫中找到獨(dú)特關(guān)聯(lián),并為它們以前從未見過的復(fù)雜問題提供答案。當(dāng)普通搜索返回您潛在答案的列表時(shí),QAM必須返回單一的最佳答案。

這是一個(gè)NLP和復(fù)雜搜索的混搭,其中QAM構(gòu)建關(guān)于問題的可能含義的多個(gè)假設(shè),并且基于加權(quán)證據(jù)算法返回最佳響應(yīng)。

QAM需要人類加載大量關(guān)于需要研究的主題的數(shù)據(jù),并且人類必須訓(xùn)練并維護(hù)知識庫。然而,一旦建立完成,它們已被證明是在癌癥檢測(與CNNs結(jié)合)領(lǐng)域的專家、醫(yī)學(xué)診斷、發(fā)現(xiàn)材料和化學(xué)品的獨(dú)特組合,甚至教高中學(xué)生如何編程。總之,無論有大量的知識需要專家解釋,QAM可以是大腦或至少是我們AI的關(guān)聯(lián)記憶。

強(qiáng)化學(xué)習(xí)系統(tǒng)(RLS)

RLS是一種訓(xùn)練系統(tǒng)以識別對其環(huán)境直接響應(yīng)的最佳結(jié)果的方法。這里沒有單一的算法,而是一組定制應(yīng)用程序。 RNN可以用作RLS中的一種類型的“代理”。RLS是自駕車和類似設(shè)備的核心技術(shù),不需要語言界面。本質(zhì)上,這是機(jī)器可以從中學(xué)習(xí)并記住在特定情況下采取的最佳行動(dòng)的方法。當(dāng)你的自駕車決定黃燈亮起時(shí)停車,而不是通過,一個(gè)RLS被用來創(chuàng)造學(xué)習(xí)的行為。

 

 

 

 

機(jī)器人

機(jī)器人領(lǐng)域?qū)τ贏I是重要的,因?yàn)樗茿I數(shù)據(jù)科學(xué)在現(xiàn)實(shí)世界中顯現(xiàn)的主要方式。大多數(shù)機(jī)器人是簡單和非常復(fù)雜的工程。機(jī)器人技術(shù)背后的AI主要是強(qiáng)化學(xué)習(xí)。

脈沖神經(jīng)網(wǎng)絡(luò)(又名神經(jīng)擬態(tài)計(jì)算)Spiking Neural Nets (aka Neuromorphic Computing)

通常,我們第二代AI主要是基于硬件進(jìn)步,使我們能夠使用算法,如在以前根本不可行的神經(jīng)網(wǎng)絡(luò)。但所有這一切都在迅速發(fā)展,我們正處于進(jìn)入第三代AI的前沿。

第三代AI將基于脈沖神經(jīng)網(wǎng)絡(luò),也稱為神經(jīng)擬態(tài)計(jì)算,因?yàn)樗噲D更密切地模仿人類大腦實(shí)際工作的方式。改變的核心是圍繞這樣的事實(shí):腦神經(jīng)元不經(jīng)常彼此通信,而是在信號的峰值。挑戰(zhàn)是找出一個(gè)消息在這個(gè)電子脈沖應(yīng)該如何編碼。

到目前為止,研究尚處于中期階段。我只知道它在商業(yè)應(yīng)用的兩個(gè)實(shí)例??赡苡懈嗟拿孛軕?yīng)用仍然不為人知。很多投資和科研工作者涌入這一新世界。它還需要一種全新類型的芯片,這將意味著另一場硬件革命。

 

 

 

[[183088]]

 

當(dāng)這一天來臨時(shí),我們有如下的期望:

  1. 它們可以從一個(gè)來源學(xué)習(xí),并應(yīng)用到另一個(gè)。它們可以對其所在的環(huán)境進(jìn)行概括。
  2. 它們可以記住。他們可以記住。任務(wù)一旦學(xué)會(huì),可以回憶并能應(yīng)用于其他數(shù)據(jù)。
  3. 它們更節(jié)能,開辟了一條小型化的道路。
  4. 它們從自己的環(huán)境中學(xué)習(xí),沒有監(jiān)督,只有很少的例子或觀察。這些使它們能夠進(jìn)行快速學(xué)習(xí)。
責(zé)任編輯:龐桂玉 來源: 大數(shù)據(jù)雜談
相關(guān)推薦

2020-12-31 06:18:08

人工智能物聯(lián)網(wǎng)大數(shù)據(jù)

2021-07-28 21:42:32

人工智能AI

2021-10-09 21:00:15

人工智能AI

2023-08-18 10:24:07

人工智能AI

2020-10-15 09:59:52

人工智能Go語言Python

2022-11-08 09:39:21

2017-05-04 20:45:07

人工智能數(shù)據(jù)科學(xué)機(jī)器學(xué)習(xí)

2018-07-20 16:19:45

2021-01-12 11:31:09

數(shù)據(jù)科學(xué)數(shù)據(jù)大數(shù)據(jù)

2024-03-04 13:02:46

數(shù)據(jù)中心人工智能

2024-05-20 09:42:11

人工智能科學(xué)

2021-05-09 22:53:04

人工智能數(shù)據(jù)技術(shù)

2017-07-21 12:52:32

人工智能機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

2018-07-25 11:19:02

AI工具谷歌

2017-07-19 13:08:27

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2023-05-19 16:45:15

人工智能AI

2021-11-03 09:47:14

人工智能動(dòng)物試驗(yàn)技術(shù)

2021-01-27 13:30:41

人工智能互聯(lián)網(wǎng)5G

2022-01-17 14:13:17

人工智能AI深度學(xué)習(xí)

2023-05-22 10:34:06

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號