自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

輕松入門(mén)機(jī)器學(xué)習(xí)排序LTR之:線性模型

人工智能 機(jī)器學(xué)習(xí)
LTR 的入門(mén)模型就是線性模型,本文以線性模型為例,針對(duì)搜索排序的場(chǎng)景,通俗地介紹了機(jī)器學(xué)習(xí)的基本思想和實(shí)現(xiàn)步驟。作為 LTR 系列的第三篇,相信通過(guò)本文你已經(jīng)可以輕松地入門(mén) LTR。

[[207297]]

LTR 的入門(mén)模型就是線性模型,本文以線性模型為例,針對(duì)搜索排序的場(chǎng)景,通俗地介紹了機(jī)器學(xué)習(xí)的基本思想和實(shí)現(xiàn)步驟。作為 LTR 系列的第三篇,相信通過(guò)本文你已經(jīng)可以輕松地入門(mén) LTR。

很多搜索達(dá)人都有這樣一種沖動(dòng),想要“通過(guò)機(jī)器學(xué)習(xí)獲得最優(yōu)權(quán)重”然后用于搜索查詢中。對(duì)于搜索這件事兒來(lái)說(shuō)有點(diǎn)像打地鼠游戲,正如通常人們所說(shuō)的“如果我能選擇優(yōu)化‘標(biāo)題匹配’的權(quán)重還是‘內(nèi)容匹配’的權(quán)重,那我肯定會(huì)做得更好”!

這種學(xué)習(xí)何種權(quán)重應(yīng)用于查詢的本能,就是最簡(jiǎn)化機(jī)器學(xué)習(xí)排序(learning to rank,LTR)模型的根本原理:線性模型。沒(méi)錯(cuò),就是傳說(shuō)中的線性回歸!線性回歸非常簡(jiǎn)單易用,甚至感覺(jué)一點(diǎn)兒都不像是機(jī)器學(xué)習(xí);更像是高中生的統(tǒng)計(jì)學(xué)一樣,理解該模型及其原理也非常地容易。

本系列文章中,我想先介紹成功實(shí)施 LTR 背后的關(guān)鍵算法,從線性回歸開(kāi)始,逐步到梯度 boosting(不同種類的 boosting 算法一起)、RankSVM 和隨機(jī)森林等算法。

LTR 首先是一個(gè)回歸問(wèn)題

對(duì)于本系列的文章,正如你在前一篇及文檔中了解到的,我想把 LTR 映射為一個(gè)更加通用的問(wèn)題:回歸。回歸問(wèn)題需要訓(xùn)練一個(gè)模型,從而把一組數(shù)值特征映射到一個(gè)預(yù)測(cè)數(shù)值。

舉個(gè)例子:你需要什么樣的數(shù)據(jù)才能預(yù)測(cè)一家公司的利潤(rùn)?可能會(huì)有,手邊的歷史公共財(cái)務(wù)數(shù)據(jù),包括雇員數(shù)量、股票價(jià)格、收益及現(xiàn)金流等。假設(shè)已知某些公司的數(shù)據(jù),你的模型經(jīng)過(guò)訓(xùn)練后用于預(yù)測(cè)這些變量(或其子集)的函數(shù)即利潤(rùn)。對(duì)于一家新公司,你可以使用這個(gè)函數(shù)來(lái)預(yù)測(cè)該公司的利潤(rùn)。

LTR 同樣是一個(gè)回歸問(wèn)題。你手頭上有一系列評(píng)價(jià)數(shù)據(jù),來(lái)衡量一個(gè)文檔與某個(gè)查詢的相關(guān)度等級(jí)。我們的相關(guān)度等級(jí)取值從 A 到 F,更常見(jiàn)的情況是取值從 0(完全不相關(guān))到 4(非常相關(guān))。如果我們先考慮一個(gè)關(guān)鍵詞搜索的查詢,如下示例:

  1. grade,movie,keywordquery  
  2. 4,Rocky,rocky  
  3. 0,Turner and Hootch,rocky  
  4. 3,Rocky II,rocky  
  5. 1,Rambo,rocky  
  6. ...  

當(dāng)構(gòu)建一個(gè)模型來(lái)預(yù)測(cè)作為一個(gè)時(shí)間信號(hào)排序函數(shù)的等級(jí)時(shí),LTR 就成為一個(gè)回歸問(wèn)題。 相關(guān)度搜索中的召回,即我們所說(shuō)的信號(hào),表示查詢和文檔間關(guān)系的任意度量;更通用的名稱叫做特征,但我個(gè)人更建議叫長(zhǎng)期信號(hào)。原因之一是,信號(hào)是典型的獨(dú)立于查詢的——即該結(jié)果是通過(guò)度量某個(gè)關(guān)鍵詞(或查詢的某個(gè)部分)與文檔的相關(guān)程度;某些是度量它們的關(guān)系。因此我們可以引入其他信號(hào),包括查詢特有的或者文檔特有的,比如一篇文章的發(fā)表日期,或者一些從查詢抽取出的實(shí)體(如“公司名稱”)。

來(lái)看看上面的電影示例。你可能懷疑有 2 個(gè)依賴查詢的信號(hào)能幫助預(yù)測(cè)相關(guān)度:

一個(gè)搜索關(guān)鍵詞在標(biāo)題屬性中出現(xiàn)過(guò)多少次一個(gè)搜索關(guān)鍵詞在摘要屬性中出現(xiàn)過(guò)多少次擴(kuò)展上面的評(píng)價(jià),可能會(huì)得到如下 CSV 文件所示的回歸訓(xùn)練集,把具體的信號(hào)值映射為等級(jí):

  1. grade,numTitleMatches,numOverviewMatches  
  2. 4,1,1  
  3. 0,0,0  
  4. 3,0,3  
  5. 1,0,1  

你可以像線性回歸一樣應(yīng)用回歸流程,從而通過(guò)其他列來(lái)預(yù)測(cè)第一列。也可以在已有的搜索引擎像 Solr 或 Elasticsearch 之上來(lái)構(gòu)建這樣一個(gè)系統(tǒng)。

我回避了一個(gè)復(fù)雜問(wèn)題,那就是:如何獲得這些評(píng)價(jià)?如何知道一個(gè)文檔對(duì)一個(gè)查詢來(lái)說(shuō)是好還是壞?理解用戶分析?專家人工分析?這通常是最難解決的——而且是跟特定領(lǐng)域非常相關(guān)的!提出假設(shè)數(shù)據(jù)來(lái)建立模型雖然挺好的,但純屬做無(wú)用功!

線性回歸 LTR

如果你學(xué)過(guò)一些統(tǒng)計(jì)學(xué),可能已經(jīng)很熟悉線性回歸了。線性回歸把回歸問(wèn)題定義為一個(gè)簡(jiǎn)單的線性函數(shù)。比如,在 LTR 中我們把上文的第一信號(hào)(一個(gè)搜索關(guān)鍵詞在標(biāo)題屬性中出現(xiàn)過(guò)多少次)叫做 t,第二信號(hào)(一個(gè)搜索關(guān)鍵詞在摘要屬性中出現(xiàn)過(guò)多少次)叫做 o,我們的模型能生成一個(gè)函數(shù) s,像下面這樣對(duì)相關(guān)度來(lái)打分:

  1. s(t, o) = c0 + c1 * t + c2 * o 

我們能評(píng)估出最佳擬合系數(shù) c0,c1,c2 等,并使用最小二乘擬合的方法來(lái)預(yù)測(cè)我們的訓(xùn)練數(shù)據(jù)。這里就不贅述了,重點(diǎn)是我們能找到 c0,c1,c2 等來(lái)最小化實(shí)際等級(jí) g 與預(yù)測(cè)值 s(t,o) 之間的誤差。如果溫習(xí)下線性代數(shù),會(huì)發(fā)現(xiàn)這就像簡(jiǎn)單的矩陣數(shù)學(xué)。

使用線性回歸你會(huì)更滿意,包括決策確實(shí)是又一個(gè)排序信號(hào),我們定義為 t*o?;蛘吡硪粋€(gè)信號(hào) t2,實(shí)踐中一般定義為 t^2 或者 log(t),或者其他你認(rèn)為有利于相關(guān)度預(yù)測(cè)的最佳公式。接下來(lái)只需要把這些值作為額外的列,用于線性回歸學(xué)習(xí)系數(shù)。

任何模型的設(shè)計(jì)、測(cè)試和評(píng)估是一個(gè)更深的藝術(shù),如果希望了解更多,強(qiáng)烈推薦統(tǒng)計(jì)學(xué)習(xí)概論。

使用 sklearn 實(shí)現(xiàn)線性回歸 LTR

為了更直觀地體驗(yàn),使用 Python 的 sklearn 類庫(kù)來(lái)實(shí)現(xiàn)回歸是一個(gè)便捷的方式。如果想使用上文數(shù)據(jù)通過(guò)線性回歸嘗試下簡(jiǎn)單的 LTR 訓(xùn)練集,可以把我們嘗試的相關(guān)度等級(jí)預(yù)測(cè)值記為 S,我們看到的信號(hào)將預(yù)測(cè)該得分并記為 X。

我們將使用一些電影相關(guān)度數(shù)據(jù)嘗試點(diǎn)有趣的事情。這里有一個(gè)搜索關(guān)鍵詞“Rocky”的相關(guān)度等級(jí)數(shù)據(jù)集。召回我們上面的評(píng)判表,轉(zhuǎn)換為一個(gè)訓(xùn)練集。一起來(lái)體驗(yàn)下真實(shí)的訓(xùn)練集(注釋會(huì)幫助我們了解具體過(guò)程)。我們將檢查的三個(gè)排序信號(hào),包括標(biāo)題的 TF

IDF 得分、簡(jiǎn)介的 TF

IDF 得分以及電影觀眾的評(píng)分。

 

所以接下來(lái)直接來(lái)到代碼的部分!下面的代碼從一個(gè) CSV 文件讀取數(shù)據(jù)到一個(gè) numpy 數(shù)組;該數(shù)組是二維的,第一維作為行,第二維作為列。在下面的注釋中可以看到很新潮的數(shù)組切片是如何進(jìn)行的:

 

不錯(cuò)!我們已準(zhǔn)備好進(jìn)行一個(gè)簡(jiǎn)單線性回歸了。這里我們使用一個(gè)經(jīng)典的判斷方法:方程比未知數(shù)多!因此我們需要使用常最小二乘法來(lái)估算特征 rockySignals 和等級(jí) rockyGrades 間的關(guān)系。很簡(jiǎn)單,這就是 numpy 線性回歸所做的:

 

漂亮!相關(guān)度解決了!(真的嗎?)我們可以使用這些來(lái)建立一個(gè)排序函數(shù)。我們已經(jīng)學(xué)習(xí)到了分別使用什么樣的權(quán)重到標(biāo)題和簡(jiǎn)介屬性。

截至目前,我忽略了一部分事項(xiàng),即我們需要考量如何評(píng)價(jià)模型和數(shù)據(jù)的匹配度。在本文的結(jié)尾,我們只是想看看一般情況下這些模型是如何工作。但不只是假設(shè)該模型非常適合訓(xùn)練集數(shù)據(jù)是個(gè)不錯(cuò)的想法,總是需要回退一些數(shù)據(jù)來(lái)測(cè)試的。接下來(lái)的博文會(huì)分別介紹這些話題。

使用模型對(duì)查詢打分

我們通過(guò)這些系數(shù)可以建立自己的排序函數(shù)。做這些只是為了描述目的,sk-learn 的線性回歸帶有預(yù)測(cè)方法,能評(píng)估作為輸入的模型,但是構(gòu)建我們自己的更有意思:

 

使用該函數(shù)我們可以獲得檢索“Rambo”時(shí),這兩部候選電影的相關(guān)度得分:

 

現(xiàn)在對(duì) Rambo 和 First Blood 打分,看看下哪一個(gè)跟查詢“Rambo”更相關(guān)!

 

結(jié)果得分分別是 Rambo 3.670 以及 First Blood 3.671。

非常接近!First Blood 稍微高于 Rambo 一點(diǎn)兒獲勝。原因是這樣——Rambo 是一個(gè)精確匹配,而 First Blood 是 Rambo 電影前傳!因此我們不應(yīng)該真的讓模型如此可信,并沒(méi)有那么多的例子達(dá)到那個(gè)水平。更有趣的是簡(jiǎn)介得分的系數(shù)比標(biāo)題得分的系數(shù)大。所以至少在這個(gè)例子中我們的模型顯示,簡(jiǎn)介中提到的關(guān)鍵字越多,最終的相關(guān)度往往越高。至此我們已經(jīng)學(xué)習(xí)到一個(gè)不錯(cuò)的處理策略,用來(lái)解決用戶眼里的相關(guān)度!

把這個(gè)模型加進(jìn)來(lái)會(huì)更有意思,這很好理解,并且產(chǎn)生了很合理的結(jié)果;但是特征的直接線性組合通常會(huì)因?yàn)橄嚓P(guān)度應(yīng)用而達(dá)不到預(yù)期。由于缺乏這樣的理由,正如 Flax 的同行所言,直接加權(quán) boosting 也達(dá)不到預(yù)期。

為什么?細(xì)節(jié)決定成敗!

從前述例子中可以發(fā)現(xiàn),一些非常相關(guān)的電影確實(shí)有很高的 TF*IDF 相關(guān)度得分,但是模型卻傾向于概要字段與相關(guān)度更加密切。實(shí)際上何時(shí)標(biāo)題匹配以及何時(shí)概要匹配還依賴于其他因素。

在很多問(wèn)題中,相關(guān)度等級(jí)與標(biāo)題和摘要屬性的得分并不是一個(gè)簡(jiǎn)單的線性關(guān)系,而是與上下文有關(guān)。如果就想直接搜索一個(gè)標(biāo)題,那么標(biāo)題肯定會(huì)更加匹配;但是對(duì)于并不太確定想要搜索標(biāo)題,還是類別,或者電影的演員,甚至其他屬性的情形,就不太好辦了。

換句話說(shuō),相關(guān)度問(wèn)題看起來(lái)并非是一個(gè)純粹的最優(yōu)化問(wèn)題: 

 

實(shí)踐中的相關(guān)度要更加復(fù)雜。并沒(méi)有一個(gè)神奇的最優(yōu)解,寧可說(shuō)很多局部最優(yōu)依賴于很多其他因子的! 為什么呢?換句話說(shuō),相關(guān)度看起來(lái)如圖所示: 

 

可以想象這些圖(吳恩達(dá)機(jī)器學(xué)習(xí)課程中的干貨)用于展示“相關(guān)度錯(cuò)誤” —— 離我們正在學(xué)習(xí)的分?jǐn)?shù)還有多遠(yuǎn)。兩個(gè)θ變量的映射表示標(biāo)題和摘要的相關(guān)度得分。第一張圖中有一個(gè)單一的最優(yōu)值,該處的“相關(guān)度錯(cuò)誤”最小 —— 一個(gè)理想的權(quán)重設(shè)置應(yīng)用這兩個(gè)查詢。第二個(gè)更加實(shí)際一些:波浪起伏、上下文相關(guān)的局部最小。有時(shí)與一個(gè)非常高的標(biāo)題權(quán)重值有關(guān),或者是一個(gè)非常低的標(biāo)題權(quán)重!

與上下文和細(xì)微差別密切相關(guān)!

本文到此為止。后續(xù)文章將會(huì)更多關(guān)注如何精確量化模型的適用程度。使用什么樣的度量方式來(lái)評(píng)價(jià)一個(gè)模型的好壞? 這將是很重要的一步,旨在檢驗(yàn)其他方法在捕捉細(xì)微差別方面能否做得更好。 

責(zé)任編輯:龐桂玉 來(lái)源: AI前線
相關(guān)推薦

2017-10-24 14:32:48

2017-03-10 12:16:46

機(jī)器學(xué)習(xí)

2020-07-01 08:48:01

Python機(jī)器學(xué)習(xí)工具

2019-10-23 08:00:00

Flask機(jī)器學(xué)習(xí)人工智能

2018-03-15 11:50:53

機(jī)器學(xué)習(xí)入門(mén)Tensorflow

2022-09-06 08:00:00

機(jī)器學(xué)習(xí)金融數(shù)據(jù)科學(xué)

2020-12-31 08:00:00

機(jī)器學(xué)習(xí)人工智能工程師

2022-11-04 11:52:36

機(jī)器學(xué)習(xí)

2017-10-09 12:55:29

機(jī)器學(xué)習(xí)KaggleStacking

2024-11-04 00:24:56

2024-11-26 09:33:44

2021-07-29 13:06:29

Python機(jī)器學(xué)習(xí)編程語(yǔ)言

2024-12-26 00:46:25

機(jī)器學(xué)習(xí)LoRA訓(xùn)練

2014-08-22 10:06:46

機(jī)器學(xué)習(xí)

2020-10-27 10:48:57

微軟機(jī)器學(xué)習(xí)應(yīng)用程序

2022-03-17 17:08:05

機(jī)器學(xué)習(xí)算法類型

2010-06-07 19:48:30

UML

2014-07-09 09:29:34

機(jī)器學(xué)習(xí)

2017-10-18 14:11:20

機(jī)器學(xué)習(xí)決策樹(shù)隨機(jī)森林

2017-01-06 13:33:35

初學(xué)實(shí)踐分類網(wǎng)絡(luò)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)