阿里SIGIR 2017論文:GAN在信息檢索領(lǐng)域的應(yīng)用
信息檢索領(lǐng)域的***會(huì)議 SIGIR 2017 即將開(kāi)幕。昨日,機(jī)器之心報(bào)道了阿里被 SIGIR 2017 接收的一篇論文,據(jù)了解阿里共有 3 篇論文被此大會(huì)接收。本文介紹了另一篇由英國(guó)倫敦大學(xué)、上海交大、阿里等合著的論文。
論文鏈接:https://arxiv.org/pdf/1705.10513.pdf
Information Retrieval(IR)的典型問(wèn)題是給出一些查詢?cè)~(query),返回一個(gè)排序的文檔列表(documents),但 IR 的應(yīng)用范圍可以擴(kuò)展到文檔檢索、網(wǎng)頁(yè)搜索、推薦系統(tǒng)、QA 問(wèn)答系統(tǒng)和個(gè)性化廣告等等。在 IR 的理論或模型領(lǐng)域,有兩種典型的思維方式(如圖所示):
- 生成式 IR 模型:***種思想認(rèn)為 documents 和 query 之間有一個(gè)隱含的隨機(jī)生成(generative)過(guò)程,可以表示成:q→d,其中 q 表示 query,d 表示 document,箭頭表示生成的方向,生成模型對(duì) p(d|q) 進(jìn)行建模。
- 判別式 IR 模型:第二種思想采用了機(jī)器學(xué)習(xí)的方法,將 IR 的問(wèn)題轉(zhuǎn)化成一個(gè)判別(discriminative)問(wèn)題;可以表示成:q+d →r,其中+表示 query 和 document 的特征的組合,r 表示相關(guān)性,如果 r 為 0 或 1,則問(wèn)題是一個(gè)分類問(wèn)題,如果 r 是一個(gè)相關(guān)分?jǐn)?shù),則問(wèn)題是一個(gè)回歸問(wèn)題;現(xiàn)在著名的方法就是排序?qū)W習(xí)(Learning to Rank)。排序?qū)W習(xí)可以分為 Pointwise、Pairwise 和 Listwise 三種模型。
雖然 IR 的生成模型在 Query 和 Document 的特征建模(例如文本統(tǒng)計(jì))的方面非常成功,但它在利用來(lái)自其他的相關(guān)性信息(如鏈接,點(diǎn)擊等等)方面遇到了很大的困難,而這些信息主要可以在現(xiàn)在互聯(lián)網(wǎng)的應(yīng)用中觀察得到。于此同時(shí),雖然諸如排序?qū)W習(xí)的 IR 判別模型能夠從大量的標(biāo)記和未標(biāo)記的數(shù)據(jù)中隱式地學(xué)習(xí)檢索排序函數(shù),但是它目前缺乏從大量未標(biāo)記數(shù)據(jù)中獲取有用特征或收集有用信號(hào)的原則性方法,特別是從文本統(tǒng)計(jì)(源自 Document 和 Query 兩方面)或從集合內(nèi)相關(guān)文檔的分布中。
應(yīng)用 GAN 的思想,IRGAN 引入博弈論中的 minmax 博弈,來(lái)將生成式 IR 模型和判別式 IR 模型進(jìn)行結(jié)合。具體來(lái)說(shuō),我們?yōu)閮蓚€(gè)模型定義一個(gè)共同的檢索函數(shù)(例如基于判別的目標(biāo)函數(shù))。一方面,判別模型旨在通過(guò)從標(biāo)記數(shù)據(jù)中學(xué)習(xí)來(lái)***化目標(biāo)函數(shù),并為生成模型提供訓(xùn)練的指導(dǎo)性信息。另一方面,生成模型
充當(dāng)挑戰(zhàn)者,不斷地將判別器的 decision boundary 推向其極限它為判別器迭代地提供最困難的情況,判別器通過(guò)對(duì)抗的最小化目標(biāo)函數(shù)來(lái)重新訓(xùn)練自身。
下面具體地介紹 IRGAN 的方法,會(huì)分別介紹 GAN 中對(duì)應(yīng)的 Discriminator(D)和 Generator(G)。
1. Discriminator:,其中,φ 是 D 的參數(shù)。D 的輸入時(shí) Query-Document 對(duì)數(shù)據(jù)(q,d),而輸出則是這對(duì)數(shù)據(jù)是否匹配。這相當(dāng)于一個(gè)二分類問(wèn)題,可以通過(guò) logistic regression 給出:
與原始的 GAN 相同,D 的,目標(biāo)是***化:
2. Generator:,其中,θ 是 G 的參數(shù)。G 的輸入時(shí) Query,輸出是與 Query 相關(guān)的 documents 的概率分布,相關(guān)性即由這個(gè)概率分布表示。
由 Softmax 函數(shù)給出:
G 的目標(biāo)是最小化:
對(duì) IRGAN 的 training 部分,G 和 D 交叉進(jìn)行更新。對(duì)于 D,可以采用梯度下降更新法;對(duì)于 G,由于 G 的輸出是離散 documents 的概率分布,沒(méi)辦法直接采用梯度下降的方法求 G 的梯度,針對(duì)這種使用 GAN 訓(xùn)練離散數(shù)據(jù)的問(wèn)題,可以采用強(qiáng)化學(xué)習(xí)中 Policy Gradient 的方法,reward 由 D 給出。整個(gè)訓(xùn)練過(guò)程如下圖算法所示:
在實(shí)驗(yàn)部分,做了三個(gè)不同的 IR 任務(wù):Web Search,Item Recommendation 和 Question Answering,實(shí)驗(yàn)結(jié)果表明,IRGAN 模型打敗了多種 strong baseline。開(kāi)源代碼在:https://github.com/geek-ai/irgan。
【本文是51CTO專欄機(jī)構(gòu)“機(jī)器之心”的原創(chuàng)文章,微信公眾號(hào)“機(jī)器之心( id: almosthuman2014)”】