自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

谷歌開源“窮人版”摘要生成NLP模型:1000個樣本就能打敗人類

新聞 Android
BERT、GPT-2、XLNet等通用語言模型已經(jīng)展現(xiàn)了強大的威力,它們可以應(yīng)付各類任務(wù),比如文本生成、問答。當這些模型對各種語言任務(wù)進行微調(diào)時,可以達到SOTA性能。

 本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

BERT、GPT-2、XLNet等通用語言模型已經(jīng)展現(xiàn)了強大的威力,它們可以應(yīng)付各類任務(wù),比如文本生成、問答。當這些模型對各種語言任務(wù)進行微調(diào)時,可以達到SOTA性能。

谷歌開源“窮人版”摘要生成NLP模型:1000個樣本就能打敗人類

以上這些NLP模型都是“通才”,雖然全面,但在面向特定任務(wù)時需要微調(diào),訓(xùn)練數(shù)據(jù)集也十分龐大,非一般人所能承受。

如果開發(fā)一個非通用NLP模型,專門針對某項具體任務(wù),在降低訓(xùn)練成本的同時,性能會不會提高呢?

這就是谷歌發(fā)布的“天馬”(PEGASUS)模型,它專門為機器生成摘要而生,刷新了該領(lǐng)域的SOTA成績,并被ICML 2020收錄。

[[330133]]

“天馬”模型僅使用1000個樣本進行訓(xùn)練,就能接近人類摘要的水平,大大減少了對監(jiān)督數(shù)據(jù)的需求,創(chuàng)造了低成本使用的可能性。

從填空到生成摘要

PEGASUS的全稱是:利用提取的間隙句進行摘要概括的預(yù)訓(xùn)練模型(Pre-training with Extracted Gap-sentences for Abstractive Summarization)。就是設(shè)計一種間隙句生成的自監(jiān)督預(yù)訓(xùn)練目標,來改進生成摘要的微調(diào)性能。

在之前的NLP研究中,自監(jiān)督預(yù)訓(xùn)練對下游的目標并不清楚,可能是文本生成、也可能是摘要提取,模型傾向于通用性。

而來自谷歌的研究者認為,自監(jiān)督預(yù)訓(xùn)練目標越接近最終的下游任務(wù),微調(diào)性能越好。

那論文標題中的間隙句(Gap-sentences)又是什么意思?

在“天馬”模型的預(yù)訓(xùn)練中,研究者從一段文檔中刪掉一些句子,讓模型進行恢復(fù)任務(wù)。這些隔空刪掉的句子即為間隙句。

這樣一項具有挑戰(zhàn)性的任務(wù)促使模型學(xué)習(xí)發(fā)現(xiàn)一般事實的能力,以及學(xué)習(xí)如何提取從整個文檔中獲取的信息。

谷歌開源“窮人版”摘要生成NLP模型:1000個樣本就能打敗人類

谷歌發(fā)現(xiàn),選擇“重要”句子去遮擋效果最好,這會使自監(jiān)督樣本的輸出與摘要更加相似。

作者選擇了12個不同數(shù)據(jù)集,內(nèi)容豐富多樣,包括新聞、科學(xué)論文、專利文件、短篇小說、電子郵件、法律文件和使用說明,表明該模型框架適用于各種主題。

與谷歌之前提出的T5對比,參數(shù)數(shù)量僅為T5的5%。

谷歌根據(jù)ROUGE標準對輸出結(jié)果進行評判,通過查找與文檔其余部分最相似的句子來自動識別這些句子。

ROUGE使用n元語法重疊來計算兩個文本的相似度,分數(shù)從0到100。

1000個訓(xùn)練樣本即超過人類

盡管PEGASUS在大型數(shù)據(jù)集上表現(xiàn)出了卓越的性能,但令人驚訝的是,“天馬”模型并不需要大量的樣本來進行微調(diào),就可以達到近乎SOTA的性能。

下圖展示了在四個選定的摘要數(shù)據(jù)集中,ROUGE得分與監(jiān)督樣本數(shù)量的關(guān)系。虛線表示具有全監(jiān)督但沒有預(yù)訓(xùn)練的Transformer編碼器-解碼器的性能。

谷歌開源“窮人版”摘要生成NLP模型:1000個樣本就能打敗人類

與基線相比,即使僅用1000個微調(diào)樣本,“天馬”在大多數(shù)任務(wù)中的性能還是要好一些。要考慮到,在某些實際情況下,樣本數(shù)量還要多幾個數(shù)量級。

這種“樣本效率”極大地提高了文本摘要模型的實用性,因為它大大降低了監(jiān)督數(shù)據(jù)收集的規(guī)模和成本。

除了機器給出的ROUGE評分外,谷歌還進行了一項鑒別摘要的“圖靈測試”。

谷歌將模型生成的摘要和人類提取的摘要放在一起,給用戶進行評估。在3個不同數(shù)據(jù)集上進行的實驗表明,打分的人有時會更喜歡機器生成的摘要。

谷歌開源“窮人版”摘要生成NLP模型:1000個樣本就能打敗人類
谷歌開源“窮人版”摘要生成NLP模型:1000個樣本就能打敗人類

當然,“天馬”模型并非沒有缺點,谷歌就找到了一個bug。

作者從XSum數(shù)據(jù)集中尋找了一段話,其中提到了英國4艘護衛(wèi)艦的名字,通篇沒有提到4,“天馬”還是正確提取出了護衛(wèi)艦數(shù)量信息。

軍艦的數(shù)量從2~5的時候都沒有問題,當數(shù)量增加到6時,“天馬”錯誤地認為有7艘。這說明模型“符號推理”的數(shù)量有限。

最后,為了支持該持續(xù)研究并確??芍貜?fù)性,谷歌在GitHub上發(fā)布了“天馬”的代碼、模型checkpoint以及其他匯總數(shù)據(jù)集。

傳送門

博客地址:
https://ai.googleblog.com/2020/06/pegasus-state-of-art-model-for.html

論文地址:
https://arxiv.org/abs/1912.08777

代碼地址:
https://github.com/google-research/pegasus

 

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2025-02-06 08:45:22

2020-09-07 14:15:16

AI 數(shù)據(jù)人工智能

2021-09-01 00:02:42

人工智能機器學(xué)習(xí)技術(shù)

2021-12-10 15:46:18

谷歌模型人工智能

2020-03-17 09:42:00

谷歌開源機器學(xué)習(xí)

2020-08-26 11:50:25

谷歌開源工具

2021-09-14 10:11:46

谷歌3D舞蹈生成模型FACT

2023-02-25 21:45:55

模型AI

2022-03-25 14:24:18

谷歌自然語言算法

2019-09-10 13:48:12

NLP神經(jīng)網(wǎng)絡(luò)模型

2020-06-18 11:14:53

微軟谷歌開源

2025-03-06 10:18:32

谷歌AI搜索純AI版搜索引擎

2022-11-11 15:06:17

模型AI

2021-10-29 13:53:13

谷歌Chrome OS筆記本

2009-10-10 11:18:54

谷歌Android

2023-07-14 11:47:08

AI醫(yī)生

2021-11-19 10:13:01

模型人工智能計算

2019-10-25 10:25:19

開源技術(shù) 趨勢

2024-09-18 10:32:00

AI智能體模型

2009-03-04 09:27:25

谷歌Twitter電子郵件
點贊
收藏

51CTO技術(shù)棧公眾號