自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

在機器學(xué)習(xí)的工具箱里,藏著六種重要的算法

人工智能 機器學(xué)習(xí)
機器學(xué)習(xí)為解決各種問題提供了一個深入的工具箱,但是哪種工具最適合哪種任務(wù)呢?什么時候開口扳手比可調(diào)式扳手更好?到底是誰發(fā)明了這些東西?

1、線性回歸

法國數(shù)學(xué)家勒讓德 (Adrien-Marie Legendre) ,一直癡迷于預(yù)測彗星的未來位置,鑒于彗星以前的幾個位置,他準備創(chuàng)建一種計算其軌跡的方法。

在嘗試了幾種方法后,終于有了進展。

勒讓德從猜測彗星的未來位置開始,通過記錄數(shù)據(jù)、分析,最后通過數(shù)據(jù)驗證了自己的猜測,以減少平方誤差的總和。

這便是線性回歸的種子。

普及的兩個步驟:該算法立即幫助航海者追蹤星星,以及幫助后來的生物學(xué)家(尤其是查爾斯·達爾文的堂兄Francis Galton)識別植物和動物的可遺傳特征。這兩項深入發(fā)展釋放了線性回歸的廣泛潛力。1922 年,英國統(tǒng)計學(xué)家 Ronald Fisher 和 Karl Pearson 展示了線性回歸如何適應(yīng)相關(guān)性和分布的一般統(tǒng)計框架,使其在所有科學(xué)中都有用。而且,近一個世紀后,計算機的出現(xiàn)提供了數(shù)據(jù)和處理能力,可以更大程度地利用它。

應(yīng)對歧義:當(dāng)然,數(shù)據(jù)永遠不會被完美地衡量,有些變量比其他變量更重要。這些生活事實激發(fā)了更復(fù)雜的變體。例如,帶有正則化的線性回歸(也稱為「嶺回歸」,ridge regression)鼓勵線性回歸模型不要過多地依賴于任何一個變量,或者更確切地說,均勻地依賴于最重要的變量。如果為了簡單起見,另一種形式的正則化(L1 而不是 L2)會產(chǎn)生 lasso(壓縮估計),鼓勵盡可能多的系數(shù)為零。換句話說,它學(xué)會選擇具有高預(yù)測能力的變量并忽略其余的。彈性網(wǎng)絡(luò)結(jié)合了這兩種類型的正則化。當(dāng)數(shù)據(jù)稀疏或特征看起來相關(guān)時,它很有用。

在每個神經(jīng)元中:現(xiàn)在,簡單的版本仍然非常有用。神經(jīng)網(wǎng)絡(luò)中最常見的神經(jīng)元類型是線性回歸模型,隨后是非線性激活函數(shù),使線性回歸成為深度學(xué)習(xí)的基本組成部分。

2、邏輯回歸

曾經(jīng)有一段時間,邏輯回歸只用于對一件事進行分類:如果你喝了一瓶毒藥,你可能會被貼上的標(biāo)簽是“活著”還是“死去”呢?

而現(xiàn)在,不僅打電話給急救中心可以為這個問題提供更好的答案,而且邏輯回歸也成了深度學(xué)習(xí)的核心。

這個函數(shù)可以追溯到 1830 年代,當(dāng)時比利時統(tǒng)計學(xué)家 P.F. Verhulst 發(fā)明它來描述人口動態(tài):隨著時間的推移,指數(shù)增長的初始爆炸隨著它消耗可用資源而趨于平緩,從而產(chǎn)生特征邏輯曲線。

一個多世紀過去后,美國統(tǒng)計學(xué)家 E. B. Wilson 和他的學(xué)生 Jane Worcester 又設(shè)計了邏輯回歸來計算給定有害物質(zhì)有多少是致命的。

3、梯度下降法

想象一下,黃昏過后,在山上徒步旅行,發(fā)現(xiàn)除了腳外,你什么也看不見。

你的手機沒電了,所以你不能用 GPS 找到回家的路。

也許你會通過梯度下降法找到最快的路徑,但當(dāng)心,別掉下懸崖。

1847年,法國數(shù)學(xué)家Augustin-Louis Cauchy發(fā)明了近似恒星軌道的算法。

60 年后,他的同胞 Jacques Hadamard 獨立開發(fā)了它來描述薄而靈活的物體(如地毯)的變形,這可能會使膝蓋向下徒步更容易。

然而,在機器學(xué)習(xí)中,它最常見的用途是找到學(xué)習(xí)算法損失函數(shù)的最低點。

太糟糕了,你的手機沒電了,因為算法可能沒有把你推到凸山的底部。

你可能會陷入由多個山谷(局部最小值)、山峰(局部最大值)、鞍點(鞍點)和高原組成的非凸面景觀中。

事實上,圖像識別、文本生成和語音識別等任務(wù)都是非凸的,并且已經(jīng)出現(xiàn)了梯度下降的許多變體來處理這種情況。

例如,該算法可能具有幫助它放大小幅上漲和下跌的動量,從而使其更有可能到達底部。

研究人員設(shè)計了如此多的變體,以至于看起來優(yōu)化器的數(shù)量與局部最小值一樣多。

幸運的是,局部最小值和全局最小值往往大致相等。

梯度下降是尋找任一函數(shù)的最小值的明確選擇。在可以直接計算精確解的情況下,例如具有大量變量的線性回歸任務(wù)中——它可以逼近一個值,而且通常速度更快、成本更低。

但它確實在復(fù)雜的非線性任務(wù)中發(fā)揮了作用。

憑借梯度下降和冒險精神,你可能可以及時趕出山區(qū)吃晚飯。

4、神經(jīng)網(wǎng)絡(luò)

先弄清楚一個問題, 大腦不是一組圖形處理單元,如果它是的話,它運行的軟件會比典型的人工神經(jīng)網(wǎng)絡(luò)復(fù)雜得多。

然而,神經(jīng)網(wǎng)絡(luò)的靈感來自大腦的結(jié)構(gòu): 層層相互連接的神經(jīng)元,每個神經(jīng)元根據(jù)其鄰居的狀態(tài)計算自己的輸出。由此產(chǎn)生的一連串活動形成了一個想法ーー或者說認出了一張貓的照片。

從生物到人工:大腦通過神經(jīng)元之間相互作用來學(xué)習(xí)的想法可以追溯到 1873 年,但直到 1943 年,美國神經(jīng)科學(xué)家 Warren McCulloch 和 Walter Pitts 才利用簡單的數(shù)學(xué)規(guī)則建立了生物神經(jīng)網(wǎng)絡(luò)模型。

1958 年,美國心理學(xué)家Frank Rosenblatt開發(fā)出感測器——這是一種在打卡機上實現(xiàn)的單層視覺網(wǎng)絡(luò),旨在為美國海軍建立一個硬件版本。

Rosenblatt 的發(fā)明只能識別單線分類。

之后,烏克蘭數(shù)學(xué)家 Alexey Ivakhnenko 和 Valentin Lapa 通過在任意層數(shù)中堆疊神經(jīng)元網(wǎng)絡(luò),克服了這一限制。

1985 年,獨立工作的法國計算機科學(xué)家 Yann LeCun、David Parker 和美國心理學(xué)家 David Rumelhart 及其同事,描述了使用反向傳播來有效訓(xùn)練此類網(wǎng)絡(luò)。

在新千年的第一個十年中,包括 Kumar Chellapilla、Dave Steinkraus 和 Rajat Raina(與吳恩達合作)在內(nèi)的研究人員通過使用圖形處理單元進一步推動了神經(jīng)網(wǎng)絡(luò)的發(fā)展,這使得越來越大的神經(jīng)網(wǎng)絡(luò)能從互聯(lián)網(wǎng)生成的海量數(shù)據(jù)中得到學(xué)習(xí)。

在報道 Rosenblatt 于1958年發(fā)明的感測器時,《紐約時報》開辟了人工智能炒作的道路,報道中提到“美國海軍期望擁有一臺會走路、說話、看、寫、自我復(fù)制和意識到自己存在的電子計算機雛形?!?/p>

雖然當(dāng)時的感測器沒有達到這個要求,但它產(chǎn)生了許多令人印象深刻的模型:用于圖像的卷積神經(jīng)網(wǎng)絡(luò);文本的循環(huán)神經(jīng)網(wǎng)絡(luò);以及用于圖像、文本、語音、視頻、蛋白質(zhì)結(jié)構(gòu)等的transformers。

它們已經(jīng)做出了令人驚嘆的事情,像下圍棋時的表現(xiàn)超過了人類水平,在診斷X射線圖像等實際任務(wù)中也接近人類水平。

然而,它們在常識和邏輯推理方面的問題仍然較難應(yīng)對。

5、決策樹

亞里士多德是一個什么樣的「野獸」?這位哲學(xué)家的追隨者、第三世紀期間生活在敘利亞的 Porphyry 想出了一個合乎邏輯的方法來回答這個問題。

他將亞里士多德提出的“存在類別”從一般到具體組合起來,將亞里士多德依次歸入到每個分類中:

亞里士多德的存在是物質(zhì)的而不是概念或精神;他的身體是有生命的而不是無生命的;他的思想是理性的而不是非理性的。

因此,他的分類是人類。

中世紀的邏輯教師將這個序列繪制為垂直流程圖:一個早期的決策樹。

快進到 1963 年,密歇根大學(xué)社會學(xué)家John Sonquist和經(jīng)濟學(xué)家James Morgan在將調(diào)查的受訪者分組時,首次在計算機中實行了決策樹。

隨著自動訓(xùn)練算法軟件的出現(xiàn),這種工作變得很普遍,如今包括 scikit-learn 等在內(nèi)的各種機器學(xué)習(xí)庫也已經(jīng)使用決策樹。

這套代碼是由斯坦福大學(xué)和加州大學(xué)伯克利分校的四位統(tǒng)計學(xué)家花費了10 年時間開發(fā)的。到今天,從頭開始編寫決策樹已經(jīng)成為了《機器學(xué)習(xí) 101》中的一項家庭作業(yè)。

決策樹可以執(zhí)行分類或回歸。它向下生長,從根部到樹冠,將一個決策層次結(jié)構(gòu)的輸入示例分類為兩個(或更多)。

想到德國醫(yī)學(xué)家和人類學(xué)家Johann Blumenbach的課題:大約在 1776 年,他首先將猴子與猿(撇開人類除外)區(qū)分開來,在此之前,猴子和猿是被歸為一類的。

這種分類取決于各種標(biāo)準,例如是否有尾巴、胸部狹窄或?qū)掗煛⑹侵绷⑦€是蹲伏、還有智力的高低。使用經(jīng)訓(xùn)練的決策樹來為這類動物貼上標(biāo)簽,逐一考慮每個標(biāo)準,最終將這兩組動物分開。

鑒于 Blumenbach 的結(jié)論(后來被Charles Darwin推翻),即人類與猿的區(qū)別在于寬闊的骨盆、手和緊牙的牙齒,如果我們想擴展決策樹以不僅分類猿和猴子,而是對人類進行分類,那會怎么樣呢?

澳大利亞計算機科學(xué)家 John Ross Quinlan 在 1986 年通過 ID3 實現(xiàn)了這一可能,它擴展了決策樹,以支持非二元結(jié)果。

2008 年, 在IEEE國際數(shù)據(jù)挖掘會議策劃的數(shù)據(jù)挖掘十大算法名單中,一項命名為 C4.5 的擴展細化算法名列前茅。

美國統(tǒng)計學(xué)家 Leo Breiman 和新西蘭統(tǒng)計學(xué)家 Adele Cutler 將這一特征轉(zhuǎn)化為優(yōu)勢,于 2001 年開發(fā)了隨機森林(random forest)——這是一個決策樹的集合,每個決策樹會處理不同的、重疊的示例選擇,并對最終結(jié)果進行投票。

隨機森林和它的表親XGBoost不太容易過度擬合,這有助于使它們成為最受歡迎的機器學(xué)習(xí)算法之一。

這就像讓亞里士多德、Porphyry、Blumenbach、Darwin、 Jane Goodall、Dian Fossey和其他 1000 位動物學(xué)家一起在房間里,確保你的分類是最好的。

6、K 平均算法

如果你在聚會上與其他人站得很近,那么你們很可能有一些共同點,這就是使用 k 均值聚類將數(shù)據(jù)點分組的想法。

無論是通過人類機構(gòu)還是其他力量形成的群體,這個算法都會找到它們。

從爆炸到撥號音:美國物理學(xué)家 Stuart Lloyd 是貝爾實驗室標(biāo)志性創(chuàng)新工廠和發(fā)明原子彈的曼哈頓計劃的校友,他于 1957 年首次提出 k-means 聚類,以在數(shù)字信號中分配信息,但直到 1982 年才發(fā)表這個工作。

與此同時,美國統(tǒng)計學(xué)家 Edward Forgy 在 1965 年描述了一種類似的方法,導(dǎo)致了它的替代名稱為「Lloyd-Forgy 算法」。

尋找中心:考慮將聚類分成志同道合的工作組。給定房間中參與者的位置和要形成的組數(shù),k-means 聚類可以將參與者分成大小大致相等的組,每個組都聚集在一個中心點或質(zhì)心周圍。

在訓(xùn)練期間,算法最初通過隨機選擇 k 人來指定 k 個質(zhì)心。(K 必須手動選擇,找到一個最優(yōu)值有時非常重要。)然后它通過將每個人與最近的質(zhì)心相關(guān)聯(lián)來增長 k 個集群。

對于每個集群,它計算分配到該組的所有人的平均位置,并將該平均位置指定為新的質(zhì)心。每個新的質(zhì)心可能都沒有被一個人占據(jù),但那又如何呢?人們傾向于聚集在巧克力和火鍋周圍。

計算出新的質(zhì)心后,算法將個體重新分配到離他們最近的質(zhì)心。然后它計算新的質(zhì)心,調(diào)整集群,等等,直到質(zhì)心(以及它們周圍的組)不再移動。之后,將新成員分配到正確的集群就很容易。讓他們在房間里就位并尋找最近的質(zhì)心。

預(yù)先警告:鑒于最初的隨機質(zhì)心分配,你可能最終不會與你希望與之相處的以數(shù)據(jù)為中心的可愛 AI 專家在同一組中。該算法做得很好,但不能保證找到最佳解決方案。

不同的距離:當(dāng)然,聚類對象之間的距離不需要很大。兩個向量之間的任何度量都可以。例如,k-means 聚類可以根據(jù)他們的服裝、職業(yè)或其他屬性來劃分他們,而不是根據(jù)物理距離對參加派對的人進行分組。在線商店使用它根據(jù)客戶的喜好或行為來劃分客戶,天文學(xué)家也可以將相同類型的星星分在一組。

數(shù)據(jù)點的力量:這個想法產(chǎn)生了一些顯著的變化:

K-medoids 使用實際數(shù)據(jù)點作為質(zhì)心,而不是給定集群中的平均位置。中心點是可以將到集群中所有點的距離最小化的點。這種變化更容易解釋,因為質(zhì)心始終是數(shù)據(jù)點。

Fuzzy C-Means Clustering 使數(shù)據(jù)點能夠不同程度地參與多個集群。它根據(jù)與質(zhì)心的距離,用集群的度來代替硬簇分配。

n 維狂歡:盡管如此,原始形式的算法仍然廣泛有用——特別是因為作為一種無監(jiān)督算法,它不需要收集昂貴的標(biāo)記數(shù)據(jù)。它的使用速度也越來越快。例如,包括 scikit-learn 在內(nèi)的機器學(xué)習(xí)庫受益于 2002 年添加的 kd-trees,這些 kd-trees 可以非??焖俚貏澐指呔S數(shù)據(jù)。?

責(zé)任編輯:華軒 來源: 今日頭條
相關(guān)推薦

2023-12-06 18:21:12

編程語言AI開發(fā)AI

2023-11-28 15:32:30

負載均衡算法

2010-01-25 14:04:17

Android Wid

2021-07-29 09:00:00

Python工具機器學(xué)習(xí)

2011-05-11 10:00:57

2013-06-07 13:30:20

2023-08-15 15:44:55

React開發(fā)

2009-12-18 09:27:04

VS 2008 工具箱

2023-06-01 16:45:11

React開發(fā)JavaScript

2015-05-27 14:26:05

2009-10-10 13:09:45

2016-05-10 14:38:13

大數(shù)據(jù)企業(yè)

2023-04-26 08:41:16

Git撤消更改

2009-12-14 14:00:39

VS 關(guān)系圖

2017-02-14 10:17:08

軟件咨詢師工具箱

2018-09-04 10:24:35

網(wǎng)絡(luò)流量提取工具

2010-01-04 18:11:44

Silverlight

2021-01-18 08:10:35

安全工具病毒

2015-11-09 10:39:58

公有云 ssh 工具箱

2018-04-27 15:02:10

點贊
收藏

51CTO技術(shù)棧公眾號