京東健康基于大模型的生成式推薦在電商標(biāo)品推薦的應(yīng)用
一、大模型推薦技術(shù)發(fā)展回顧
1. 視角 1:對現(xiàn)有推薦的“改變”程度
目前,推薦系統(tǒng)關(guān)于“大模型”的結(jié)合存在三種主要技術(shù)思路:傳統(tǒng) CTR 模型不斷做大、利用大語言模型在現(xiàn)有推薦各階段進(jìn)行增強(qiáng),生成式大模型端到端解決推薦。
(1)傳統(tǒng) CTR 大模型
CTR 模型在推薦系統(tǒng)中逐漸向大規(guī)?;l(fā)展,模型復(fù)雜度方面,從簡單的邏輯回歸到復(fù)雜的深度學(xué)習(xí)模型,如 Wide & Deep、DeepFM、xDeepFM 等,提升了特征交互和非線性表示能力。數(shù)據(jù)規(guī)模上,利用大數(shù)據(jù)集進(jìn)行訓(xùn)練,增強(qiáng)模型的泛化能力。在早期受限于算力,但隨著技術(shù)進(jìn)步,采用分布式計(jì)算和 GPU 加速,提升訓(xùn)練效率。CTR 模型不斷變大的一個根本邏輯也是大家相信加深加寬的網(wǎng)絡(luò)表達(dá),海量的樣本會對 ctr 模型更好的建模,其實(shí)也是在遵循 scaling law,雖然這個術(shù)語這兩年才活起來,但其實(shí) ctr 模型在 16 年工業(yè)界從 LR 轉(zhuǎn)型 DNN 開始,就默認(rèn)在 scaling 的路上不斷發(fā)展。
(2)LLM 增強(qiáng)現(xiàn)有推薦技術(shù)
大語言模型憑借其豐富的 World Knowledge 和強(qiáng)大的理解能力,在數(shù)據(jù)樣本和特征增強(qiáng)、U&I embedding 理解等方面對推薦系統(tǒng)進(jìn)行了增強(qiáng)。在樣本方面,LLM 通過生成高質(zhì)量的商品描述和用戶畫像,有效緩解了冷啟動問題,豐富了訓(xùn)練數(shù)據(jù)。在特征工程方面,LLM 利用其強(qiáng)大的自然語言處理能力,增強(qiáng)了對用戶和商品文本信息的理解,生成更豐富、更精細(xì)的特征表示。在 embedding 表達(dá)方面,LLM 通過預(yù)訓(xùn)練和微調(diào),捕捉用戶的深層次興趣和偏好,實(shí)現(xiàn)更精準(zhǔn)的個性化推薦。
(3)生成式大模型
生成式大模型代表了一種顛覆性的變化,它從傳統(tǒng)的多級過濾判別模式轉(zhuǎn)變?yōu)槎说蕉说纳赡J?,為推薦系統(tǒng)提供了全新的數(shù)據(jù)處理和內(nèi)容生成能力,代表作就是 meta 最新的論文 Trillion-Parameter Sequential Transducers for Generative Recommendations.
2. 視角 2:大語言模型如何去解“推薦”曾經(jīng)的發(fā)展瓶頸
“推薦”在其發(fā)展的各階段曾遇到不同的瓶頸。
(1)階段 1:卷數(shù)據(jù)
在 2010 年左右,推薦系統(tǒng)面臨的主要瓶頸是數(shù)據(jù)量不足。當(dāng)時處于 PC 時代,數(shù)據(jù)的體積(volume)、側(cè)邊信息(side info)、標(biāo)簽(label)遠(yuǎn)不如今天豐富。受限于產(chǎn)品設(shè)計(jì),強(qiáng)賬號產(chǎn)品較少,導(dǎo)致用戶 ID、標(biāo)簽和特征都非常稀疏。直到 2013 年移動互聯(lián)網(wǎng)的爆發(fā),數(shù)據(jù)問題才得到緩解。在卷數(shù)據(jù)階段,一個顯著體驗(yàn)是,在論文發(fā)表和競賽中,重點(diǎn)轉(zhuǎn)向了尋找和清洗數(shù)據(jù)以及數(shù)據(jù)標(biāo)注,然后再配合“競賽神器”(各種樹模型,如 GBDT 到 XGBoost)來取得成績。
(2)階段 2:卷網(wǎng)絡(luò)表達(dá)
隨著神經(jīng)網(wǎng)絡(luò)(NN)時代的到來,推薦系統(tǒng)開始從邏輯回歸(LR)轉(zhuǎn)向深度神經(jīng)網(wǎng)絡(luò)(DNN),這一轉(zhuǎn)變標(biāo)志著特征交叉表達(dá)的自動化。百度的大規(guī)模離散邏輯回歸是淺層時代的代表作,奠定了后來發(fā)展的兩個方向:高效的計(jì)算框架和精細(xì)的特征工程。各種工作把模型表達(dá)做精做細(xì),如 Show+Click + MLP + UBM,以及主輔網(wǎng)絡(luò)的交替訓(xùn)練。在神經(jīng)網(wǎng)絡(luò)時代,特征工程的工作從人工交給了網(wǎng)絡(luò)結(jié)構(gòu),為了替代人工交叉,讓模型自動學(xué)習(xí)特征的復(fù)雜交互,開啟了一個模型不斷擴(kuò)展特征交叉表達(dá)的時代。
(3)階段 3:卷算力 & 卷 Infra
Transformer 結(jié)構(gòu)的出現(xiàn),其天然可并行的“疊羅漢”結(jié)構(gòu)為算力提供了擴(kuò)展的條件。推薦系統(tǒng)開始設(shè)計(jì)適用于并行計(jì)算的網(wǎng)絡(luò)結(jié)構(gòu),并在底層進(jìn)行計(jì)算優(yōu)化,以應(yīng)對行為序列的豐富(長寬高)和特征交互的復(fù)雜性,這些都對算力和基礎(chǔ)設(shè)施(Infra)提出了新的要求。與此同時,推薦場景對用戶響應(yīng)時間(RT)的容忍度遠(yuǎn)低于對話場景,這進(jìn)一步推動了對推薦系統(tǒng)算力的高要求。
回顧完推薦系統(tǒng)曾經(jīng)的發(fā)展瓶頸,我們再來看大模型的兩個主要核心能力:scaling law 質(zhì)變的涌現(xiàn)和 world knowledge 基礎(chǔ)理解,這兩個關(guān)鍵能力如何來解決推薦系統(tǒng)曾經(jīng)面臨的發(fā)展瓶頸。
(4)World Knowledge*數(shù)據(jù)瓶頸
①豐富樣本
大模型通過其顯性知識,例如在搜索相關(guān)性方面,可以通過生成相似的查詢(query)來豐富樣本行和列。這種方法可以擴(kuò)展到推薦系統(tǒng)中,通過生成硬樣本(hard/easy user-item pairs)來增強(qiáng)模型的訓(xùn)練數(shù)據(jù)集。
②數(shù)據(jù)預(yù)處理
通過構(gòu)造合適的 prompt,抽取和轉(zhuǎn)化原始信息,讓 model 更容易擬合其與 label 的關(guān)系。比如,在醫(yī)生推薦服務(wù)中,用戶會輸入一段患者主訴,但通常是口語化或非標(biāo)準(zhǔn)的,讓 LLM 可以將其轉(zhuǎn)化成更 medical level 的表述,以及抽取關(guān)鍵醫(yī)學(xué)詞匯,預(yù)處理后的輸入對醫(yī)生推薦的表現(xiàn)有極大提升。
(5)World Knowledge*NN 表達(dá)瓶頸
①LLM embedding 直接使用
大模型的 embedding 可以直接作為 i2i 或者作為新增的 feature slot 放入模型使用。
②Embedding pre-load for finetune
大模型的隱性知識可以作為輸入或預(yù)加載(preload)到推薦系統(tǒng)中,以更好地表達(dá)用戶和物品的知識。例如,在處理冷啟動問題時,可以使用大模型預(yù)訓(xùn)練的嵌入(Embedding)作為初始化,為新用戶或新物品提供較為準(zhǔn)確的特征表示。
(6)Scaling law*NN 表達(dá)瓶頸
①Scaling Law 對召回的啟示:
I2I 召回通常面臨做深和做寬的問題,做深是指對于 item1,不僅 top100 是準(zhǔn)的,top1w 也是準(zhǔn)的,這對多候選池場景通用一套 i2i 是非常重要的;做寬是指除了頭部 item 訓(xùn)練比較準(zhǔn),長尾的 item 也需要做到相對不錯的準(zhǔn)度;解決以上挑戰(zhàn)的手段本質(zhì)就是 scaling law 的各種方法,樣本規(guī)模的擴(kuò)大,i2i model 參數(shù)的增大,epoch 增多等,以上可以充分解決上述挑戰(zhàn)。
②Scaling law 對精排的啟示:
Scaling law 對精排的啟示在過去幾年傳統(tǒng)的 ctr 大模型也一直在踐行,從 ubm,多模態(tài),多目標(biāo),網(wǎng)絡(luò)結(jié)構(gòu)加深加寬,交叉結(jié)構(gòu)不斷豐富等都可以提高模型對用戶和物品理解的準(zhǔn)確性。大模型的 Scaling Law 能力允許模型在特征交叉方面進(jìn)行更深入的探索。通過增加模型的大小和復(fù)雜性,可以更好地捕捉用戶和物品之間的復(fù)雜關(guān)系。
(7)Scaling law*算力&infra 瓶頸
①與 Scaling Law 同步適配算力和基礎(chǔ)設(shè)施不斷提升
隨著大模型的 Scaling Law,算力和基礎(chǔ)設(shè)施也在不斷進(jìn)化。推薦系統(tǒng)可以設(shè)計(jì)為更適合并行計(jì)算的結(jié)構(gòu),同時利用底層計(jì)算優(yōu)化來提高效率。
②利用生成式建模和基礎(chǔ)設(shè)施優(yōu)化
通過生成式建模,可以在推薦系統(tǒng)中實(shí)現(xiàn)從同質(zhì)數(shù)據(jù)空間到異質(zhì)數(shù)據(jù)全空間的統(tǒng)一表示。此外,通過基礎(chǔ)設(shè)施的優(yōu)化,比如使用 Mixture of Experts(MoE)等技術(shù),可以在保持模型復(fù)雜性的同時加速推理過程。
通過上述方法,大模型技術(shù)能夠有效解決推薦系統(tǒng)在數(shù)據(jù)、網(wǎng)絡(luò)表達(dá)瓶頸,并且反向推動算力基礎(chǔ)設(shè)施提升,推動推薦系統(tǒng)向更高效、更準(zhǔn)確的方向發(fā)展。
二、健康電商推薦背景與挑戰(zhàn)
在當(dāng)前的電商環(huán)境中,消費(fèi)者幾乎每天都會使用各種購物應(yīng)用程序,如小紅書、京東、淘寶、天貓等。盡管這些平臺在用戶體驗(yàn)上有很多相似之處,但在健康產(chǎn)品這一細(xì)分市場中,推薦系統(tǒng)面臨著獨(dú)特的挑戰(zhàn)和特點(diǎn)。
1. 健康產(chǎn)品的剛需和知識驅(qū)動特性
泛健康商品,包括營養(yǎng)保健品、OTC、口罩、溫度計(jì)等,與傳統(tǒng)的零售商品相比,具有明顯的剛需和知識驅(qū)動特性。例如,消費(fèi)者購買維生素 C 時,其決策過程往往與其對維生素 C 的知識以及是否是其當(dāng)前需要,而不是基于多樣化的興趣選擇。這意味著健康商品的推薦應(yīng)當(dāng)更多地依賴于知識導(dǎo)向和剛需滿足。
2. 標(biāo)品的特性及其對推薦系統(tǒng)的影響
泛健康商品,存在很大一部分標(biāo)品。標(biāo)品指的是有明確標(biāo)準(zhǔn)和約束,比如限定成分、規(guī)格或明確功效等的商品。比如 N95 口罩是標(biāo)品,polo 衫是非標(biāo)品。標(biāo)品在 SKU(最小粒度商品)層面的差異性較小,消費(fèi)者選擇時的個性化需求并不顯著,其個性化主要是在標(biāo)品類別的選擇上。而 LLM 對標(biāo)品的理解是充分的,但無法對齊其對 skuid 的理解(一個標(biāo)品包含成百上千的 skuid)。因此,LLM 結(jié)合健康推薦系統(tǒng)可以采用 two-stage 策略:首先推薦符合剛需和知識導(dǎo)向的標(biāo)品,然后在標(biāo)品下為用戶推薦合適的 SKU。
3. 推薦系統(tǒng)的其他挑戰(zhàn)
除了上述特點(diǎn)外,健康產(chǎn)品推薦系統(tǒng)還面臨著其他挑戰(zhàn),如低頻購買、用戶稀疏行為、場景差異性大等。這些問題普遍存在于推薦系統(tǒng)中,需要通過精細(xì)化的算法和深入的用戶理解來解決。
健康產(chǎn)品推薦系統(tǒng)在電商領(lǐng)域中占有重要地位,其成功實(shí)施需要對剛需和知識驅(qū)動的深入理解,以及對標(biāo)品特性的有效利用。通過解決上述挑戰(zhàn),推薦系統(tǒng)能夠?yàn)橛脩籼峁└泳珳?zhǔn)和個性化的健康產(chǎn)品推薦。
三、大模型推薦在電商場的落地實(shí)踐
在電商推薦系統(tǒng)中,大模型技術(shù)的落地實(shí)踐主要聚焦于解決用戶個性化推薦的問題,尤其是在京東健康(JDH)這一特定領(lǐng)域。下面介紹大模型技術(shù)在電商推薦中的幾個關(guān)鍵落地實(shí)踐。
1. LLM4CB – 解決稀疏行為用戶召回
(1)問題背景
在電商推薦系統(tǒng)中,新用戶和低頻用戶由于行為數(shù)據(jù)不足,難以通過傳統(tǒng)算法實(shí)現(xiàn)有效召回。這部分用戶的推薦質(zhì)量直接影響了平臺的用戶體驗(yàn)和業(yè)務(wù)增長。
(2)解決思路
- 利用大語言模型的世界知識:大模型能夠根據(jù)用戶的基本信息,如年齡、居住地和健康記錄,推斷用戶可能的需求和興趣點(diǎn),這種能力有助于理解用戶潛在的剛需和知識驅(qū)動的購買行為。
- 結(jié)合領(lǐng)域樣本數(shù)據(jù):僅依靠大模型的通用知識是不夠的,必須結(jié)合特定領(lǐng)域的樣本數(shù)據(jù),以縮小世界知識與領(lǐng)域知識之間的差距,這要求對大模型進(jìn)行任務(wù)對齊,確保推薦系統(tǒng)能夠準(zhǔn)確地響應(yīng)用戶的具體需求。
- 推理性能優(yōu)化:在召回過程中,傳統(tǒng)的 Item-to-Item(I2I)推薦可能僅需十幾毫秒。然而,如果引入大模型進(jìn)行推理,可能會導(dǎo)致顯著的性能下降。為此,需要探索從離線到近線處理的升級方案,以減少覆蓋率的損失并保證系統(tǒng)的響應(yīng)速度。
(3)技術(shù)挑戰(zhàn)
- 物料表達(dá):大模型通常處理自然語言 token,而推薦系統(tǒng)中使用的是 ID。需要找到一種方法,使物料的表達(dá)既能夠保持語義信息,又具有足夠的區(qū)分度。
- 任務(wù)對齊:需要將特定領(lǐng)域的推薦樣本與大模型的任務(wù)進(jìn)行有效對齊,確保推薦結(jié)果的準(zhǔn)確性。
- 推理效率:面對大模型可能帶來的推理延遲,需要優(yōu)化推理過程,以滿足在線推薦系統(tǒng)對實(shí)時性的要求。
(4)實(shí)施策略
采用兩階段建模方法,首先利用大模型生成潛在感興趣的產(chǎn)品名稱,然后根據(jù)產(chǎn)品名推薦具體的 SKU。在生成產(chǎn)品名稱(PU)時,通過過濾機(jī)制確保推薦結(jié)果與現(xiàn)有庫存和用戶需求相匹配。通過 Prompt 工程技術(shù)優(yōu)化大模型的輸入,提高模型對特定領(lǐng)域任務(wù)的響應(yīng)能力。
(5)數(shù)學(xué)建模
\[ \text{SU} = \{ \text{sku} | \text{EE}(\text{pu}, \text{sku}) \geq \epsilon \} \]
\[ \text{pu} = G(\text{u, cxt}) | f(\text{P, G}) \geq \theta \]
其中,\( \text{SU} \) 表示給定標(biāo)品p,召回用戶 u 感興趣的 sku 列表;\( \text{EE} \) 是篩選得分高的 sku 的方式;\( \text{pu} \) 表示生成式的方式產(chǎn)出“可能”的標(biāo)品集合;\( f(\text{P, G}) \) 表示生成商品和真實(shí)商品的匹配度。
(6)系統(tǒng)實(shí)現(xiàn)
包括 Prompt Engineering、特征選擇、樣本選擇、模型調(diào)優(yōu)等步驟,以實(shí)現(xiàn)高效的個性化推薦。
LLM4CB 的建模采用兩階段方法:
- 第一階段:產(chǎn)品名生成(PU Generation)
利用 LLM 生成可能感興趣的產(chǎn)品名稱集合,通過任務(wù)對齊全量調(diào)參 LLM 提高生成質(zhì)量。首先,尋找到合適的 prompt,如下圖是我們的 prompt engineering 的系統(tǒng)界面,不斷的提示詞模板優(yōu)化得到最佳的模板;其次,用場域內(nèi)的推薦樣本構(gòu)造為自然語言表達(dá)的數(shù)據(jù),并填入 prompt 模板;接著,基于選定的大模型基模型,用轉(zhuǎn)化后的樣本做全量調(diào)參;訓(xùn)練好后的 model 經(jīng)離線評估 ok 后部署到線上,用去重后的樣本請求取得 pu 結(jié)果。 - 第二階段:SKU 召回(SKU Recall)
在確定產(chǎn)品名后,通過評分機(jī)制篩選出用戶可能感興趣的 SKU。這里主要是用 EE 的打分方式,具體策略如 UCB,湯普森采樣等都可以選擇,不展開贅述。
其它說明:
①LLM 全量調(diào)參還是換 softmax frozen LLM,不同場景值得大家探索,為了對世界知識的最大保留,該場景選擇了前者。
②性能優(yōu)化:通過異步推理和 KV 存儲,提高系統(tǒng)的實(shí)時性和覆蓋率。
③樣本多樣性:確保樣本選擇的多樣性,以引導(dǎo)模型學(xué)習(xí)。
④異步推理+KV 存儲:對用戶請求進(jìn)行異步處理,使用鍵值存儲方式,提高響應(yīng)速度。
(7)結(jié)果與展望
通過 LLM4CB 的實(shí)施,顯著提升了對稀疏行為用戶的召回效果,尤其是在長尾或低頻用戶群體中。微調(diào)策略的優(yōu)化不僅提高了推薦的相關(guān)性,也為模型在特定領(lǐng)域的應(yīng)用提供了靈活性和適應(yīng)性。我們期待通過持續(xù)的技術(shù)創(chuàng)新,進(jìn)一步提升推薦系統(tǒng)的性能和用戶體驗(yàn)。
2. DeepI2I – 擴(kuò)展 I2I 模型
為了解決長尾場景下的推薦問題,我們采用了 DeepI2I 模型,這是一種擴(kuò)展的 Item-to-Item(I2I)推薦模型。通過增加樣本數(shù)量、參數(shù)量和 epoch,我們利用圖神經(jīng)網(wǎng)絡(luò)(GNN)的隨機(jī)游走技術(shù)來構(gòu)造低頻商品的樣本,同時運(yùn)用大型語言模型(LLM)進(jìn)行數(shù)據(jù)增強(qiáng)。這種策略不僅提高了模型對低頻商品的捕捉能力,也增強(qiáng)了模型對用戶偏好的深入理解。
3. 大模型 CTR – 踐行 Scaling Law
在點(diǎn)擊率預(yù)測(CTR)模型中,我們通過增加模型的復(fù)雜度和計(jì)算規(guī)模,以適應(yīng)長序列、多模態(tài)、多目標(biāo)等復(fù)雜推薦任務(wù)的需求。這一策略體現(xiàn)了 Scaling Law 的應(yīng)用,即通過擴(kuò)大模型規(guī)模來提升性能。我們的 CTR 模型已經(jīng)從存儲密集型轉(zhuǎn)向計(jì)算密集型,以處理更大規(guī)模的數(shù)據(jù)和更復(fù)雜的特征交互。
4. 開放性問題
最后,我們提出了一個開放性問題:生成式推薦范式是否有可能取代傳統(tǒng)的多級過濾加判別式范式,并在電商推薦系統(tǒng)中大規(guī)模落地?電商推薦系統(tǒng)是一個復(fù)雜的系統(tǒng)性工程,涉及供給、分發(fā)、營銷等多個方面,不是單一技術(shù)問題。雖然大型語言模型在推薦系統(tǒng)中顯示出了潛力,但是否能完全替代現(xiàn)有的多階段判別式方法,還需要更多的研究和實(shí)踐來驗(yàn)證。
個人觀點(diǎn)
- AI 技術(shù)范式之爭:歷史上,數(shù)據(jù)驅(qū)動的方法取代了專家系統(tǒng),因?yàn)閷<蚁到y(tǒng)無法解決某些問題。當(dāng)前的推薦技術(shù)范式已經(jīng)達(dá)到了一個相對成熟的水平。
- 電商推薦系統(tǒng)的復(fù)雜性:電商推薦系統(tǒng)不僅僅是技術(shù)問題,還涉及業(yè)務(wù)配合、供應(yīng)鏈管理、分發(fā)策略和營銷、平臺生態(tài)等多個方面。
- 大模型的增益:大型語言模型對推薦系統(tǒng)有增益,但這并不意味著要完全摒棄現(xiàn)有的多級過濾的范式。未來的發(fā)展方向可能是結(jié)合 Scaling Law 和大型語言模型的優(yōu)勢,來解決推薦系統(tǒng)中的問題。
隨著技術(shù)的不斷進(jìn)步,我們預(yù)計(jì) Scaling Law 將在推薦系統(tǒng)中發(fā)揮更大的作用,推動個性化推薦技術(shù)向更深層次發(fā)展。
京東健康推薦團(tuán)隊(duì)通過大模型技術(shù)在電商領(lǐng)域的落地實(shí)踐,展示了如何結(jié)合世界知識和領(lǐng)域知識,解決稀疏行為用戶的召回問題,并通過技術(shù)創(chuàng)新不斷提升推薦系統(tǒng)的性能和用戶體驗(yàn)。