自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

模型小,還高效!港大最新推薦系統(tǒng)EasyRec:零樣本文本推薦能力超越OpenAI、Bert

人工智能 新聞
EasyRec利用語言模型的語義理解能力和協(xié)同過濾技術(shù),提升了在零樣本學(xué)習(xí)場景下的推薦性能。通過整合用戶和物品的文本描述,EasyRec能夠生成高質(zhì)量的語義嵌入,實現(xiàn)個性化且適應(yīng)性強的推薦。

在推薦系統(tǒng)的領(lǐng)域中,深度神經(jīng)網(wǎng)絡(luò)(DNNs)已經(jīng)成為一種強大的工具,它們通過學(xué)習(xí)用戶和商品之間的復(fù)雜交互,為協(xié)同過濾(CF)提供了新的視角。

協(xié)同過濾是一種利用用戶之間的相似性或商品之間的相似性來推薦未交互過的商品的方法。

深度學(xué)習(xí)方法,特別是圖神經(jīng)網(wǎng)絡(luò),通過捕捉用戶-商品交互數(shù)據(jù)中的高階特征和模式,極大地提升了推薦質(zhì)量。

然而,盡管深度協(xié)同過濾模型在某些方面取得了顯著進展,它們在實際應(yīng)用中仍面臨著一些挑戰(zhàn)。

一個主要的問題是現(xiàn)有方法對用戶和商品的唯一標(biāo)識符(ID)的依賴。這種依賴限制了模型在處理新用戶或新商品時的性能,因為對于這些新的用戶和商品,沒有足夠的歷史數(shù)據(jù)來訓(xùn)練模型。

此外,當(dāng)用戶或商品發(fā)生變化時,如新商品的引入或用戶偏好的轉(zhuǎn)移,現(xiàn)有模型可能難以適應(yīng)這些變化,導(dǎo)致推薦效果下降。這種依賴性也導(dǎo)致了另一個問題,即所謂的「零樣本學(xué)習(xí)」場景,其中模型需要在沒有先前交互數(shù)據(jù)的情況下提供推薦。

在這些情況下,由于缺乏用戶或商品的標(biāo)識符,傳統(tǒng)的協(xié)同過濾方法往往難以生成準確的推薦。

為了解決這些問題,研究者們開始探索將語言模型(LMs)的泛化能力運用到推薦系統(tǒng)中。

語言模型,已經(jīng)在自然語言處理領(lǐng)域展現(xiàn)出了強大的語義理解能力,這一類模型通過將文本編碼成特征向量的方式,獲取了一個具有特定意義的統(tǒng)一特征分布空間,這類文本向量不但有利于下游任務(wù)的使用,同時面對新的文本數(shù)據(jù)也能過有效的編碼如該空間。

這一基本思想可以使得在沒有用戶和商品ID的情況下,提供更準確的推薦。

圖片

論文地址:http://arxiv.org/abs/2408.08821

開源代碼:https://github.com/HKUDS/EasyRec

EasyRec的提出正是基于這樣的背景和動機,旨在通過結(jié)合語言模型的語義理解能力和協(xié)同過濾的協(xié)同信號,來克服現(xiàn)有方法的局限性,訓(xùn)練一個簡單易用并且專門用于推薦系統(tǒng)的語言模型,提高其在零樣本學(xué)習(xí)場景下的推薦性能。

通過EasyRec,作者希望提供一個更加靈活、適應(yīng)性強的推薦系統(tǒng),它可以更好地理解和預(yù)測用戶的偏好,即使在面對新用戶或新商品時也能提供準確的推薦。

基本知識

在深入了解模型之前,我們需要掌握推薦系統(tǒng)中的一些基本概念和表示方法。這些基礎(chǔ)知識將幫助我們構(gòu)建對工作原理的理解。

在推薦系統(tǒng)中,定義用戶集合U和物品集合I。對于每個用戶圖片,定義Nu為該用戶交互過的物品集合。

類似地,對于每個物品圖片,Ni表示與該物品交互過的用戶集合。

用戶-物品的交互可以通過一個交互矩陣A來表示,其中Au,i為1表示用戶u與物品i有過交互,否則為0。

圖片

Text-based Zero-Shot Recommendation

零樣本推薦是解決新用戶或新物品缺乏交互數(shù)據(jù)的問題的關(guān)鍵技術(shù)。對于新用戶和新物品,由于缺乏足夠的交互訓(xùn)練數(shù)據(jù),系統(tǒng)很難提供精準的個性化推薦。

那么,如何解決這個問題呢?

這篇文章提出了一種基于文本的創(chuàng)新的方法:通過利用用戶和物品的文本畫像,借助強大的語言模型來構(gòu)建語義表示,從而實現(xiàn)基于文本的推薦。通過使用強大的語言模型,這種方法能夠在沒有任何先驗交互數(shù)據(jù)的情況下,仍然提供高質(zhì)量的推薦。

具體來說,定義用戶u和物品i的文本描述Pu和Pi,它們分別被編碼為向量圖片圖片

這里,圖片表示語言模型,用于將文本轉(zhuǎn)換為向量表示。

用戶u和物品i之間的交互概率p_u,i可以通過它們各自的文本嵌入e_u和e_i之間的余弦相似度來計算,即圖片。

然后,我們可以向用戶推薦相似度得分最高的前k個未交互的物品,從而生成個性化推薦集。

Text-enhanced Collaborative Filtering

協(xié)同過濾 (CF) 是一種廣泛使用的推薦系統(tǒng)方法,它利用用戶和物品之間的協(xié)同關(guān)系。

現(xiàn)有的CF范式可以通過整合編碼的語義表示來增強。通常,交互概率p_u,i是基于交互數(shù)據(jù)計算的,即圖片

基于文本增強的協(xié)同過濾在此基礎(chǔ)上,通過整合e_u/i由語言模型編碼的文本特征作為補充表示來構(gòu)建。此整合旨在進一步提高傳統(tǒng)基于ID的協(xié)同過濾框架的推薦性能。

EasyRec

什么樣的用戶/商品文本信息是好的?

在現(xiàn)實世界的推薦系統(tǒng)數(shù)據(jù)集中,大概率只有與商品相關(guān)的原始文本數(shù)據(jù)可用,例如商品標(biāo)題和類別。同時由于隱私問題,通常很難收集全面的用戶信息。

此外,直接利用這些原始的文本信息可能會忽略對準確用戶行為建模和偏好理解至關(guān)重要的協(xié)作關(guān)系。

為了解決這些限制,可以利用大型語言模型來基于協(xié)同信息,總結(jié)和生成用戶/商品的文本畫像作為語言模型可以利用文本數(shù)據(jù)。這樣,就可以在統(tǒng)一的文本畫像中捕獲物品的語義和協(xié)作方面。

具體來說,對于商品畫像而言,我們希望其能夠描述這一商品的基本信息以及它會吸引什么樣的用戶群體;而對于用戶畫像而言,我們希望其能夠基于該用戶的歷史交互數(shù)據(jù)以及它對不同商品的評價來總結(jié)出該用戶會喜歡什么樣類型的商品。

基于此作者利用了協(xié)同的畫像生成策略,通過采樣交互數(shù)據(jù)結(jié)合原始的文本信息構(gòu)建輸入,讓大語言模型實現(xiàn)畫像的生成。具體的細節(jié)歡迎閱讀論文和開源代碼進行了解。

利用描述用戶/商品交互偏好的文本畫像作為語言模型編碼的輸入文本具有以下優(yōu)勢:

(i)有效保留協(xié)同信息

協(xié)同畫像方法不僅限于原始文本內(nèi)容,還捕捉了用戶/物品特征及其交互模式的語義。

通過使用面向推薦的語言模型將這些豐富的畫像編碼到共享特征空間中,已交互的用戶和物品的嵌入被拉近。

這使得推薦系統(tǒng)能夠更好地識別相關(guān)匹配對象,即使是對「零樣本」用戶和物品(那些沒有先前交互的對象)也適用,而這些情況在實際場景中非常普遍。

系統(tǒng)可以利用文本畫像中編碼的協(xié)同信號來做出更好的推薦,彌合這些冷啟動情況的差距。

(ii)快速適應(yīng)動態(tài)場景

基于這類畫像訓(xùn)練的語言模型可以使推薦系統(tǒng)能夠有效應(yīng)對用戶偏好和交互模式的時間變化。

其主要優(yōu)勢在于,通過簡單地更新文本用戶畫像即可無縫反映用戶興趣和行為的變化。

這種靈活響應(yīng)能力使得新方法非常適合部署在用戶興趣隨時間演變的動態(tài)環(huán)境中的推薦系統(tǒng)。

模型設(shè)計和訓(xùn)練

作者采用多層雙向Transformer架構(gòu),例如BERT,作為EasyRec的核心模型。

這種架構(gòu)具有兩大顯著優(yōu)勢:

其一,高效編碼,由于它專注于生成有效的文本表示,僅包含編碼器的設(shè)計使得推薦系統(tǒng)的推理速度得到顯著提升;

其二,靈活適應(yīng),通過優(yōu)化學(xué)習(xí)來調(diào)整預(yù)訓(xùn)練的Transformer模型,以更好地適應(yīng)特定的推薦任務(wù)需求。

圖片

具體來說,作者將用戶或商品的文本描述視為由多個詞匯組成的文本段落。

在處理這些文本時,首先在詞序列的起始位置插入一個特殊標(biāo)記[CLS]。緊接著,分詞層會將這段輸入文本編碼為初始嵌入,并注入位置信息,這些嵌入隨后被送入Transformer層進行處理。

在此過程中,語言模型會對序列中的每個詞匯進行編碼,生成其最終的嵌入表示。而這一切的關(guān)鍵在于自注意力機制,它確保每個詞匯都能從整個序列中汲取信息,從而獲得全面的上下文理解。

最終,選取與[CLS]標(biāo)記對應(yīng)的首個嵌入,作為整個用戶資料的代表性嵌入。這個嵌入會經(jīng)過多層感知機的進一步處理,形成最終的編碼表示。

通過為用戶和商品生成這樣的文本嵌入,可以利用余弦相似度來衡量他們之間交互的可能性,并以此為基礎(chǔ)進行推薦。

在模型訓(xùn)練方面,作者比較了傳統(tǒng)的BPR Loss訓(xùn)練方法,因其受限于負樣本數(shù)量,難以全面優(yōu)化多個編碼特征向量。

相反,作者采用了對比學(xué)習(xí)方法,這種方法能夠更全面地優(yōu)化整個編碼特征空間。

也就是從用戶與商品的交互數(shù)據(jù)中抽樣,將有過交互的用戶和商品文本特征拉近,同時將同一抽樣數(shù)據(jù)中的其他用戶或商品特征作為負樣本進行排斥。

此外,作者還引入了文本掩碼-重構(gòu)損失,以提高模型對語義的理解能力及其泛化性能。

文本畫像的多樣性增強

為了進一步增強模型對于未知用戶和物品的泛化能力,作者采用了畫像多樣化增強的策略。

雖然使用單一的文本畫像來描述每個用戶和商品具有簡便性,但這種方式限制了表示的多樣性,可能會對模型的性能和泛化能力造成不利影響。

為了應(yīng)對這一問題,作者提出了一種創(chuàng)新的方法,通過對現(xiàn)有的用戶和商品畫像進行增強,讓每個實體都能通過多個畫像文本來展現(xiàn)其獨特的交互偏好。

這些經(jīng)過增強的畫像能夠深入捕捉到諸如用戶的個性化互動偏好或商品的多樣化特征等核心語義。

圖片

在實施增強時,作者借鑒了自我指導(dǎo)機制,并借助大型語言模型(LLMs)的力量,在保持原始意義的基礎(chǔ)上重新闡述用戶/商品的文本描述。這種策略能夠從一個輸入生成出多個語義相近但措辭各異的畫像。

通過反復(fù)進行這樣的重述過程,作者成功地創(chuàng)建了一系列多樣化的增強畫像,從而顯著擴充了可用的訓(xùn)練數(shù)據(jù)。

此方法不僅增加了模型的訓(xùn)練數(shù)據(jù)量,更重要的是確保了數(shù)據(jù)的豐富多樣性。這樣,當(dāng)模型面對未知的用戶和物品時,它能夠基于更加全面和多樣的數(shù)據(jù)做出更為準確的預(yù)測。

通過引入這些結(jié)構(gòu)化且語義豐富的多樣化資料,模型將在各類應(yīng)用場景中展現(xiàn)出更加卓越的性能。

實驗驗證

數(shù)據(jù)集

作者利用Amazon Review Data中不同類別的數(shù)據(jù)(例如藝術(shù)、體育等等)構(gòu)建了訓(xùn)練數(shù)據(jù)集以及部分數(shù)據(jù)集,同時引入了Steam和Yelp數(shù)據(jù)集作為跨平臺的測試數(shù)據(jù)集。

為了有效驗證模型在零樣本環(huán)境下的性能,作者將訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集進行劃分,使得他們是完全不同的數(shù)據(jù),沒有任何用戶和商品上的交集。

關(guān)于數(shù)據(jù)集的細節(jié)歡迎大家通過閱讀論文和開源代碼進行獲取和了解。

零樣本文本推薦能力

圖片

作者在三個不屬于訓(xùn)練數(shù)據(jù)的數(shù)據(jù)集(Sports,Steam和Yelp)上面,利用全排序的方法測試了模型實現(xiàn)基于文本的零樣本推薦能力。

為了有效的比較模型的性能,作者將不同的語言模型作為了baseline,其中包括了通用的語言模型(BERT,RoBERTa等),利用與深度檢索的語言模型(SimCSE,GTR,BGE等)以及推薦相關(guān)的語言模型(BLaIR),同時也與OpenAI提供的兩款語言模型(v3-Small和v3-Large)進行對比。

圖片

從結(jié)果中可以看出,EasyRec有效在零樣本推薦能力上超越了上述的所有語言模型,高效地實現(xiàn)了用戶畫像文本和商品畫像文本之間的對齊,從而實現(xiàn)精準的推薦。

同時作者訓(xùn)練了三個版本的模型(從Small到Large),模型的性能體現(xiàn)出了有效的Scaling Laws,這也側(cè)面說明了將含有用戶/商品交互偏好的文本畫像作為文本數(shù)據(jù),并且基于協(xié)同信號進行語言模型訓(xùn)練這一實踐路徑的有效性。

圖片

基于文本增強協(xié)同過濾算法

作者同樣測試了不同的語言模型對現(xiàn)有的ID-based的協(xié)同過濾算法增強的效果。

其中,選用了兩個廣泛使用的模型GCCF和LightGCN作為baseline,并且利用了當(dāng)前先進的文本增強框架RLMRec作為統(tǒng)一的框架進行實驗。

圖片

從實驗中可以看出,EasyRec相較于baseline實現(xiàn)了有效的提升,這得益于其能夠?qū)⑽谋局畜w現(xiàn)的協(xié)同信息有效的編碼入文本特征中,從而獲得了高質(zhì)量的協(xié)同文本特征并且有利于下游的文本增強框架使用,從而提高模型的推薦性能。

快速捕獲用戶的動態(tài)偏好

正如前文中提到的,EasyRec的一個關(guān)鍵優(yōu)勢在于其能夠有效適應(yīng)用戶偏好和行為動態(tài)隨時間的變化。

為了評估這一能力,作者在Amazon的體育用品數(shù)據(jù)集上創(chuàng)建了兩個反映偏好變化的用戶資料,并檢查了EasyRec推薦的物品。

如圖所示,原始用戶資料顯示該用戶喜歡打籃球。然而,用戶的偏好后來轉(zhuǎn)變?yōu)閷τ斡镜呐d趣。

作者使用t-SNE方法可視化了所有編碼的嵌入,結(jié)果顯示在特征空間中用戶嵌入發(fā)生了顯著變化。

相應(yīng)地,推薦的物品也從籃球相關(guān)產(chǎn)品轉(zhuǎn)變?yōu)橛斡狙b備,反映了用戶的偏好變化。

值得注意的是,這一調(diào)整僅通過修改用戶的資料就完成了,而不需要對模型進行進一步訓(xùn)練。

這突顯了新方法在適應(yīng)用戶偏好變化方面的高效性和靈活性。

結(jié)語

在瞬息萬變的數(shù)字時代,用戶的偏好和行為往往難以捉摸。

EasyRec框架通過巧妙地結(jié)合語言模型和對比學(xué)習(xí),提供了一種高效且靈活的解決方案,能夠準確捕捉用戶的細微變化。

無論是零樣本推薦還是增強協(xié)同過濾,EasyRec都展現(xiàn)了卓越的適應(yīng)能力和顯著的性能提升,體現(xiàn)出了優(yōu)秀的推薦能力。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2025-02-07 10:10:05

MusicMagus擴散模型音樂編輯

2024-08-28 08:43:58

2024-09-12 08:00:00

2025-02-06 11:25:50

2023-11-17 23:02:38

模型學(xué)習(xí)

2024-06-26 19:18:53

2024-02-28 08:20:25

推薦系統(tǒng)大模型ChatGPT

2024-09-02 07:50:00

模型預(yù)測

2024-07-31 14:06:00

2021-09-08 17:23:33

谷歌模型開發(fā)

2024-07-08 08:47:00

2023-10-11 07:20:17

2022-08-19 10:27:39

系統(tǒng)模型

2024-03-15 08:00:00

模型數(shù)據(jù)

2024-12-30 13:40:00

2023-04-13 15:40:59

模型論文

2024-11-28 10:35:47

2020-10-30 09:48:02

WideDeep系統(tǒng)

2025-02-08 11:12:34

ZAPS影像模型

2024-09-20 09:37:31

點贊
收藏

51CTO技術(shù)棧公眾號