自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

如何利用零樣本全序列排序?qū)W習(xí)進(jìn)行推薦

譯文
人工智能
推薦系統(tǒng)領(lǐng)域是一個(gè)子領(lǐng)域繁多,覆蓋技術(shù)面廣博的技術(shù)領(lǐng)域。因?yàn)橥扑]系統(tǒng)能給網(wǎng)站帶來(lái)低成本流量從而極大的推動(dòng)網(wǎng)站的發(fā)展,因此被各大互聯(lián)網(wǎng)公司青睞。

作者 | 汪昊

審校 | 重樓

推薦系統(tǒng)領(lǐng)域是一個(gè)子領(lǐng)域繁多,覆蓋技術(shù)面廣博的技術(shù)領(lǐng)域。因?yàn)橥扑]系統(tǒng)能給網(wǎng)站帶來(lái)低成本流量從而極大的推動(dòng)網(wǎng)站的發(fā)展,因此被各大互聯(lián)網(wǎng)公司青睞。推薦系統(tǒng)團(tuán)隊(duì)和產(chǎn)品的維護(hù)費(fèi)用,與推薦系統(tǒng)帶來(lái)的經(jīng)濟(jì)收益相比,對(duì)大公司而言是微不足道的,因此幾乎所有的大型互聯(lián)網(wǎng)公司都給自己配備了推薦系統(tǒng)團(tuán)隊(duì)。

所有的推薦系統(tǒng)工程師在設(shè)計(jì)和搭建推薦系統(tǒng)的過(guò)程中,都會(huì)碰到冷啟動(dòng)問(wèn)題。也就是當(dāng)一個(gè)新用戶或者新物品進(jìn)入我們系統(tǒng)的時(shí)候,因?yàn)槿狈ο嚓P(guān)歷史數(shù)據(jù),所以沒(méi)有辦法給用戶進(jìn)行推薦。最簡(jiǎn)單的解決辦法是推薦熱門商品。近幾年來(lái)流行的遷移學(xué)習(xí)和元學(xué)習(xí)算法,也是常見(jiàn)的解決冷啟動(dòng)問(wèn)題的方式。

2021 年,ZeroMat 算法被中國(guó)科學(xué)家發(fā)明,這是人工智能歷史上第一個(gè)非啟發(fā)式,不利用遷移學(xué)習(xí)/元學(xué)習(xí)的零樣本學(xué)習(xí)算法。該算法可以很好的解決推薦系統(tǒng)冷啟動(dòng)問(wèn)題。隨后DotMat、PoissonMat、RankMat、PowerMat 和 LogitMat 等一系列不需要數(shù)據(jù)就能進(jìn)行推薦的零樣本算法被相繼提出。在 2024 年結(jié)束的國(guó)際學(xué)術(shù)會(huì)議 ICCAI 2024 上,中國(guó)科學(xué)家提出了零樣本全序列排序?qū)W習(xí)算法。本文將帶領(lǐng)讀者學(xué)習(xí)該算法的細(xì)節(jié),從而對(duì)該技術(shù)一探究竟。

作者首先回顧了全序列 Order Statistics 的公式。全序列的 Order Statistics 公式?jīng)]有大多數(shù)人想象的那么復(fù)雜,它其實(shí)就是全概率公式乘以變量數(shù)的階乘。而推薦系統(tǒng)的輸入數(shù)據(jù)中,評(píng)分越高的物品,打分人數(shù)就越多,因此作者在這里用評(píng)分本身來(lái)代替評(píng)分的分布。比如,我們認(rèn)為得分為 5 的電影的打分觀眾人數(shù)是得分為 1 的觀眾的 5 倍。而得分為 5 的電影,在評(píng)分?jǐn)?shù)據(jù)集合中出現(xiàn)的次數(shù)也是得分為 1 的電影的 5 倍。作者用矩陣分解的方式近似用戶物品評(píng)分。由此,我們得到下列損失函數(shù):

為了求解最大似然函數(shù)的參數(shù),作者采用了隨機(jī)梯度下降算法,因此得到了下列公式:

我們發(fā)現(xiàn)在上述公式中,沒(méi)有出現(xiàn)歷史數(shù)據(jù),因此該算法是真正意義上的零樣本學(xué)習(xí)算法。作者隨后在 MovieLens 1 Million Dataset 和 LDOS-CoMoDa Dataset 兩個(gè)數(shù)據(jù)集合上測(cè)試了算法的效果:

圖 1 和 圖 2 顯示在 MovieLens 數(shù)據(jù)集合上,該算法性能優(yōu)越,超過(guò)了經(jīng)典的矩陣分解算法和其他零樣本學(xué)習(xí)算法。

圖 3 和 圖 4 顯示在 LDOS-CoMoDa 數(shù)據(jù)集合上,該算法性能優(yōu)越,超過(guò)了經(jīng)典的矩陣分解算法和其他零樣本學(xué)習(xí)算法。

綜上所述,我們發(fā)現(xiàn)該算法不僅實(shí)現(xiàn)簡(jiǎn)單,并且性能優(yōu)越。值得每一個(gè)推薦系統(tǒng)從業(yè)者認(rèn)真學(xué)習(xí)和積極關(guān)注。

論文名稱:Zeroshot Listwise Learning to Rank Algorithm for Recommendation

論文下載地址:https://www.researchgate.net/publication/383585074_Zeroshot_Listwise_Learning_to_Rank_Algorithm_for_Recommendation

作者簡(jiǎn)介

汪昊,達(dá)評(píng)奇智董事長(zhǎng)兼創(chuàng)始人。前 Funplus 人工智能實(shí)驗(yàn)室負(fù)責(zé)人。在 ThoughtWorks、豆瓣、百度、新浪、網(wǎng)易等公司有超過(guò) 13 年的技術(shù)和技術(shù)管理經(jīng)驗(yàn)。精通推薦系統(tǒng)、風(fēng)控反欺詐、聊天機(jī)器人和爬蟲等領(lǐng)域。在國(guó)際學(xué)術(shù)會(huì)議和期刊發(fā)表論文 44 篇。5 次獲得最佳論文獎(jiǎng)/最佳論文報(bào)告獎(jiǎng)。2006 年 ACM/ICPC 北美落基山區(qū)域賽金牌。

責(zé)任編輯:華軒 來(lái)源: 51CTO
相關(guān)推薦

2025-02-06 11:25:50

2024-06-25 09:35:04

模型訓(xùn)練

2025-02-07 10:10:05

MusicMagus擴(kuò)散模型音樂(lè)編輯

2025-02-08 11:12:34

ZAPS影像模型

2023-02-24 10:22:15

2024-11-20 16:51:00

目標(biāo)檢測(cè)模型

2024-03-15 12:49:40

AI訓(xùn)練

2021-10-25 09:06:29

模型人工智能計(jì)算

2023-07-12 09:00:00

自動(dòng)語(yǔ)音識(shí)別機(jī)器學(xué)習(xí)

2024-02-07 12:13:19

AI數(shù)據(jù)

2020-12-25 15:24:24

人工智能

2024-08-28 14:20:00

數(shù)據(jù)模型

2021-06-17 10:27:03

人工智能AI機(jī)器學(xué)習(xí)

2024-03-15 15:15:31

模型訓(xùn)練

2024-03-25 09:00:00

人工智能深度學(xué)習(xí)對(duì)抗學(xué)習(xí)

2023-02-03 16:31:02

模型

2024-03-15 08:00:00

模型數(shù)據(jù)

2022-06-13 11:57:04

谷歌模型計(jì)算

2015-05-06 09:36:05

Java語(yǔ)言從零開始學(xué)習(xí)

2016-04-11 14:35:59

機(jī)器學(xué)習(xí)數(shù)據(jù)挖掘數(shù)據(jù)模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)