游戲背后的AI故事:小樣本學(xué)習(xí)與遷移學(xué)習(xí)
2019年,一場(chǎng)人與機(jī)器的游戲?qū)?zhàn)——Open AI Five以全面壓倒性的表現(xiàn)戰(zhàn)勝了Dota2世界冠軍戰(zhàn)隊(duì)OG。
棋類游戲一直被視為頂級(jí)人類智力及人工智能的試金石。
人工智能與人類棋手的對(duì)抗一直在不斷上演中,從三子棋、五子棋、跳棋、象棋、軍棋、國(guó)際象棋、再到最高水平的圍棋類游戲,計(jì)算機(jī)人工智能程序都已經(jīng)打敗了人類。
人工智能取得的成績(jī)讓人側(cè)目,至少在游戲領(lǐng)域,已經(jīng)全面壓倒人類。
然而在這令人側(cè)目驚嘆的表現(xiàn)背后,是人類遠(yuǎn)遠(yuǎn)無(wú)法企及的大數(shù)據(jù)訓(xùn)練的結(jié)果,以訓(xùn)練Open AI Five為例,看看它的學(xué)習(xí)過程消耗了多少資源:
12.8萬(wàn)個(gè)CPU;
256塊P100;
長(zhǎng)達(dá)數(shù)個(gè)月的訓(xùn)練……
如果轉(zhuǎn)化成更容易理解的數(shù)據(jù),就是相當(dāng)于一個(gè)游戲選手不分日夜的持續(xù)練習(xí)45000年的游戲,才能達(dá)到同樣的戰(zhàn)果。
按照人類目前的壽命和思維容量,顯然這是一個(gè)永遠(yuǎn)不可能完成的任務(wù)。
這就是目前人工智能行業(yè),尤其是深度學(xué)習(xí)領(lǐng)域,當(dāng)前面臨的最大問題與挑戰(zhàn)之一,具體主要包括包括:
大量的數(shù)據(jù)依賴;
長(zhǎng)時(shí)間的學(xué)習(xí)與訓(xùn)練;
高昂的軟硬件訓(xùn)練成本……
那么,解決方法是什么呢?
2020年,學(xué)術(shù)界提出了因果關(guān)系的小樣本學(xué)習(xí)的概念。
如何進(jìn)行小樣本學(xué)習(xí)呢?其實(shí)這個(gè)概念與幾年前楊強(qiáng)教授(現(xiàn)微眾銀行首席人工智能官)與戴文淵(現(xiàn)第四范式首席執(zhí)行官)提出的遷移學(xué)習(xí)概念比較類似。
小樣本學(xué)習(xí)與遷移學(xué)習(xí),都可以說是學(xué)習(xí)模仿人類,看看人類是如何快速學(xué)習(xí)各種知識(shí)的。
以玩游戲?yàn)槔?
星際爭(zhēng)霸系列游戲,涉及人族、神族、蟲族三個(gè)種族,數(shù)十個(gè)兵種,從戰(zhàn)略到戰(zhàn)術(shù),可以演化為成千上萬(wàn)種打法。這個(gè)游戲,不到最后一刻,往往很難猜出誰(shuí)勝誰(shuí)負(fù)。因此,也成為了人工智能重點(diǎn)“練手”的即時(shí)策略對(duì)戰(zhàn)游戲。

對(duì)于喜歡玩即時(shí)策略游戲的人而言,如果會(huì)玩星際爭(zhēng)霸系列游戲,那么其他的即時(shí)策略類游戲,比如:暴雪的魔獸爭(zhēng)霸,DOTA2系列;微軟的帝國(guó)時(shí)代系列等等,就很容易上手了。
因?yàn)榭梢赃\(yùn)用之前的游戲經(jīng)驗(yàn),玩同類型的游戲,其背后的思路方法是類似的,觸類旁通,舉一反三,就是這個(gè)意思。
同樣的,對(duì)于機(jī)器學(xué)習(xí)而言,在少量樣本上快速泛化的核心,就是借助先驗(yàn)知識(shí)(類似人類的經(jīng)驗(yàn))。
而小樣本學(xué)習(xí)就致力于通過極少的訓(xùn)練數(shù)據(jù)(1-5個(gè)樣本/類)來(lái)實(shí)現(xiàn)模型的泛化(機(jī)器學(xué)習(xí)算法對(duì)新鮮樣本的適應(yīng)能力)。
這里面,還要提出一個(gè)是指機(jī)器學(xué)習(xí)“預(yù)訓(xùn)練”的概念。
具體來(lái)說,就是在大型數(shù)據(jù)集上,學(xué)習(xí)一個(gè)強(qiáng)大的神經(jīng)網(wǎng)絡(luò)作為特征提取器,例如:
CV(計(jì)算機(jī)視覺)里面常見的在ImageNet上預(yù)訓(xùn)練的ResNet網(wǎng)絡(luò);
NLP(自然語(yǔ)言處理)里面在Wikipedia上預(yù)訓(xùn)練的BERT;
都是代表一種特征表達(dá)的先驗(yàn)知識(shí),也就是預(yù)訓(xùn)練。
遷移學(xué)習(xí)里面,依據(jù)的“庫(kù)伯學(xué)習(xí)圈”理論,也是類似的原理。
預(yù)訓(xùn)練相當(dāng)于給了小樣本學(xué)習(xí)一個(gè)好的起點(diǎn),就像一個(gè)人在上課前預(yù)習(xí)了大量的知識(shí)點(diǎn)。
當(dāng)然,如果想獲得更好的效果,還要了解一下元學(xué)習(xí)(meta learning)的概念,簡(jiǎn)單來(lái)說就是通過不斷學(xué)習(xí),找到更好效果的機(jī)器學(xué)習(xí)方法。
所以,人工智能與機(jī)器學(xué)習(xí),簡(jiǎn)單來(lái)說,就是不斷學(xué)習(xí)和模仿人類思維的過程。
關(guān)注東方林語(yǔ),一起了解更多人工智能小知識(shí)。
附:
NeurIPS 2020接收的小樣本學(xué)習(xí)論文
Interventional Few-Shot Learning,網(wǎng)址如下:
https://arxiv.org/abs/2009.13000
論文的代碼在Github上開源網(wǎng)址:
https://github.com/yue-zhongqi/ifsl