自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

現(xiàn)階段需重點關注的人工智能六大領域

人工智能
人工智能的六大領域在未來可能對數字產品和數字服務產生重要的影響。作者一一列舉了這六個方向,解釋了它們的重要性,目前的應用場景,并列舉出正在使用的公司和研究機構。

現(xiàn)階段,有許多關于人工智能公認定義的爭論。有些人認為人工智能就是“認知計算”或是“機器智能”,而另一些人則把它與“機器學習”的概念混淆了。然而,人工智能并不是特指某種技術,它實際上是一個由多門學科組成的廣闊領域,包括機器人學和機器學習等。人工智能的***目標是讓機器替代人類去完成需要認知能力的任務。為了實現(xiàn)這一目標,機器必須自動學習掌握能力,而不僅僅是執(zhí)行程序員編寫的命令。

[[258363]]

人工智能在過去的十年里取得了令人嘆為觀止的進步,例如自動駕駛汽車、語音識別和語音合成。在此背景之下,人工智能這一話題越來越多地出現(xiàn)在同事和家人的閑談之間,人工智能技術已經滲透到他們生活的角角落落。與此同時,流行媒體幾乎每天也在報道人工智能和技術巨頭們,介紹他們在人工智能領域的長期戰(zhàn)略。一些投資者和企業(yè)家渴望了解如何從這個新領域挖掘價值,大多數人還是絞盡腦汁思考究竟人工智能會改變什么。此外,各國政府也正在努力應對自動化給社會帶來的影響(如奧巴馬總統(tǒng)的離職演講)。

其中,人工智能的六大領域在未來可能對數字產品和數字服務產生重要的影響。作者一一列舉了這六個方向,解釋了它們的重要性,目前的應用場景,并列舉出正在使用的公司和研究機構。

強化學習

強化學習是一種通過實驗和錯誤來學習的方法,它受人類學習新技能的過程啟發(fā)。在典型的強化學習案例中,代理者通過觀察當前所處的狀態(tài),進而采取行動使得長期獎勵的結果***化。每執(zhí)行一次動作,代理者都會收到來自環(huán)境的反饋信息,因此它能判斷這次動作帶來的效果是積極的還是消極的。在這個過程中,代理者需要平衡根據經驗尋找***策略和探索新策略兩方面,以期實現(xiàn)最終的目標。

Google的DeepMind團隊在Atari游戲和圍棋對抗中都運用了強化學習的技術。在真實場景中,強化學習有被用來提高Google數據中心的能源利用率。強化學習技術為這套冷卻系統(tǒng)節(jié)省了約40%的能耗。強化學習有一個非常重要的優(yōu)勢,它的代理者能以低廉的代價模擬生成大量的訓練數據。相比有監(jiān)督的深度學習任務,這個優(yōu)勢非常明顯,節(jié)省了一大筆人工標注數據的費用。

應用:包括城市道路的自動駕駛;三維環(huán)境的導航;多個代理者在同樣的環(huán)境中交互和學習等。

生成模型

不同于用來完成分類和回歸任務的判別模型,生成模型從訓練樣本中學到一個概率分布。通過從高維的分布中采樣,生成模型輸出與訓練樣本類似的新樣本。這也意味著,若生成模型的訓練數據是臉部的圖像集,那么訓練后得到的模型也能輸出類似于臉的合成圖片。細節(jié)內容可以參考Ian Goodfellow的文章。他提出的生成對抗模型(GAN)的結構當下在學術界非常的火熱,因為它給無監(jiān)督學習提供了一種新思路。GAN結構用到了兩個神經網絡:一個是生成器,它負責將隨機輸入的噪聲數據合成為新的內容(比如合成圖片),另一個是判別器,負責學習真實的圖片并判斷生成器生成的內容是否以假亂真。對抗訓練可以被認為是一類游戲,生成器必須反復學習用隨機噪音數據合成有意義的內容,直到判別器無法區(qū)分合成內容的真?zhèn)?。這套框架正在被擴展應用到許多數據模式和任務中。

記憶網絡

為了讓人工智能系統(tǒng)像人類一樣能夠適應各式各樣的環(huán)境,它們必須持續(xù)不斷地掌握新技能,并且記住如何在未來的場景中應用這些技能。傳統(tǒng)的神經網絡很難掌握一系列的學習任務。這項缺點被科學家們稱作是災難性遺忘。其中的難點在于當一個神經網絡針對A任務完成訓練之后,若是再訓練它解決B任務,則網絡模型的權重值不再適用于任務A。

目前,有一些網絡結構能夠讓模型具備不同程度的記憶能力。其中包括長短期記憶網絡(一種遞歸神經網絡)可以處理和預測時間序列;DeepMind團隊的微神經計算機,它結合了神經網絡和記憶系統(tǒng),以便于從復雜的數據結構中學習;漸進式神經網絡,它學習各個獨立模型之間的側向關聯(lián),從這些已有的網絡模型中提取有用的特征,用來完成新的任務。

微數據學習微模型

一直以來深度學習模型都是需要堆積大量的訓練數據才能達到***的效果。比如,某只參加ImageNet挑戰(zhàn)賽的團隊使用了120萬張分布于1000個類別的人工標注圖像訓練模型。離開大規(guī)模的訓練數據,深度學習模型就不會收斂到***值,也無法在語音識別、機器翻譯等復雜的任務上取得好效果。數據量需求的增長往往發(fā)生在用單個神經網絡模型處理端到端的情況下,比如輸入原始的語音片段,要求輸出轉換后的文字內容。這個過程與多個網絡協(xié)同工作各處理一步中間結果不同(比如,原始語音輸入→音素→詞→文本輸出)。如果我們想用人工智能系統(tǒng)解決訓練數據稀缺的任務時,希望模型訓練用到的樣本越少越好。當訓練數據集較小時,過擬合、異常值干擾、訓練集和測試集分布不一致等問題都會接踵而至。另一種方法是將在其它任務上訓練好的模型遷移到新的任務中,這種方法被稱為是遷移學習。

一個相關的問題是用更少的模型參數建立更小的深學習架構,而模型的效果卻保持***。這種技術的優(yōu)勢在于更高效的分布式訓練過程,因為訓練過程中需要傳輸的參數減少了,并且能夠方便地將模型部署在內存大小受限制的嵌入式硬件上。

學習/推理硬件

促進人工智能發(fā)展的催化劑之一就是圖形處理器(GPU)的升級,不同于CPU的順序執(zhí)行模式,GPU支持大規(guī)模的并行架構,可以同時處理多個任務。鑒于神經網絡必須用大規(guī)模(且高維度)數據集訓練,GPU的效率遠高于CPU。這就是為什么自從2012年***個GPU訓練的神經網絡模型——AlexNet公布之后,GPU已經成為名副其實的淘金鐵鍬。NVIDIA在2017年繼續(xù)領跑行業(yè),領先于Intel、Qualcomm、AMD和后起之秀Google。

然而,GPU并非專為模型訓練或預測而設計,它原本是用于視頻游戲的圖像渲染。GPU具有高精度計算的能力,卻遭遇內存帶寬和數據吞吐量的問題。這為Google之類的大公司和許多小型創(chuàng)業(yè)公司開辟了新領域,它們?yōu)楦呔S機器學習任務設計和制造處理芯片。芯片設計的改進點包括更大的內存帶寬,圖計算代替了向量計算(GPU)和矢量計算(CPU),更高的計算密度,更低的能源消耗。這些改進令人感到興奮,因為最終又反哺到使用者的身上:更快和更有效的模型訓練→更好的用戶體驗→用戶更多的使用產品→收集更大的數據集→通過優(yōu)化模型提高產品的性能。因此,那些訓練和部署模型更快的系統(tǒng)占據顯著的優(yōu)勢。

仿真環(huán)境

正如之前提到,為人工智能系統(tǒng)準備訓練數據很具有挑戰(zhàn)性。而且,若要將人工智能系統(tǒng)應用到實際生活中,它必須具有適用性。因此,開發(fā)數字環(huán)境來模擬真實的物理世界和行為將為我們提供測試人工智能系統(tǒng)適應性的機會。這些環(huán)境給人工智能系統(tǒng)呈現(xiàn)原始像素,然后根據設定的目標而采取某些行動。在這些模擬環(huán)境中的訓練可以幫助我們了解人工智能系統(tǒng)的學習原理,如何改進系統(tǒng),也為我們提供了可以應用于真實環(huán)境的模型。

責任編輯:趙寧寧 來源: 大數據資訊平臺
相關推薦

2018-04-14 08:15:32

2019-03-21 15:18:52

人工智能AI人工輔助

2021-12-22 11:15:03

人工智能技術云計算

2019-09-05 19:33:59

5G人工智能區(qū)塊鏈

2023-10-23 17:23:38

人工智能AI

2023-12-15 09:44:45

2021-01-27 08:00:00

人工智能機器人營銷

2018-01-22 11:15:48

人工智能數據科學家Java

2023-12-21 10:49:46

2021-04-08 10:49:42

人工智能制造網絡

2022-12-28 16:07:12

人工智能視頻

2022-08-31 07:23:33

人工智能AI

2021-02-26 11:12:22

人工智能AI機器學習

2015-02-26 09:20:26

SaaS云應用

2015-08-20 09:15:04

移動開發(fā)JS框架javascript

2016-01-27 13:54:21

2024-01-25 16:06:42

2021-04-12 11:14:22

人工智能

2021-10-19 10:56:33

人工智能AI深度學習

2019-08-07 11:27:24

人工智能大數據物聯(lián)網
點贊
收藏

51CTO技術棧公眾號