自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

比seq2seq模型快90倍!Google推出全新文本編輯模型FELIX

新聞 人工智能
近日,谷歌AI團隊新作帶來了全新模型FELIX,這是一個快速靈活的文本編輯系統(tǒng),與seq2seq方法相比,速度提高了90倍。

 [[397649]]

序列到序列(seq2seq)模型已經(jīng)成為處理自然語言生成任務的有效方法,其應用范圍從機器翻譯到單語言生成任務,如摘要、句子融合、文本簡化和機器翻譯的譯后編輯。

然而,對許多單語任務來說,這些模型是一個次優(yōu)選擇,因為所需的輸出文本往往代表一個輸入文本的輕微重寫。在完成這些任務時,seq2seq模型速度較慢,因為它們一次生成一個輸出單詞(即自回歸) ,而且浪費,因為大多數(shù)輸入標記只是復制到輸出中。

相反,文本編輯模型最近引起了極大的關注,因為它們提出預測編輯操作——如單詞刪除、插入或替換——這些操作應用于輸入以重構輸出。

以前的文本編輯方法存在局限性,要么是快速的(非自回歸的) ,但是不靈活,因為它們使用的編輯操作數(shù)量有限; 要么是靈活的,支持所有可能的編輯操作,但是速度很慢(自回歸的)。

在這兩種情況下,它們都沒有集中精力建立大型的結構(語法)轉換模型,例如從主動語態(tài)切換到被動語態(tài),從「They ate steak for dinner」(他們晚餐吃牛排)切換到「Steak was eaten for dinner」(晚餐吃牛排),相反,它們專注于局部變換,刪除或替換短語。

當需要進行大型結構轉換時,這些文本編輯模型要么不能生成該轉換,要么會插入大量新的文本,但是這樣會很慢。

在最新的論文《FELIX: 通過標簽和插入進行靈活的文本編輯》(FELIX: Flexible Text Editing Through Tagging and Insertion),Google團隊帶來了FELIX,這是一個快速而靈活的文本編輯系統(tǒng),它模擬了大的結構變化,與seq2seq方法相比,速度提高了90倍,同時在四種單語言編輯任務中的表現(xiàn)非常出色。

比seq2seq模型快90倍!Google推出全新文本編輯模型FELIX

與傳統(tǒng)的seq2seq方法相比,F(xiàn)ELIX 有以下三個關鍵優(yōu)勢:

樣本效率: 訓練一個高精度的文本生成模型通常需要大量高質量的監(jiān)督數(shù)據(jù)。FELIX 使用三種技術將所需的數(shù)據(jù)量最小化: (1)微調預訓練檢查點,(2)學習少量編輯操作的標記模型,(3)非常類似于預訓練任務的文本插入任務

快速推理時間:FELIX 是完全非自回歸的,避免了自回歸解碼器造成的慢推理時間

靈活的文本編輯: FELIX 在學習編輯操作的復雜性和它建模的轉換的靈活性之間達到了平衡

簡言之,F(xiàn)ELIX旨在從自監(jiān)督的預訓練中獲得最大利益,在資源少、訓練數(shù)據(jù)少的情況下實現(xiàn)高效訓練。

概述

為了實現(xiàn)上述目標,F(xiàn)ELIX將文本編輯任務分解為兩個子任務: 打標簽以確定輸入單詞的子集及其在輸出文本中的順序,以及插入輸入文本中不存在的單詞。

標注模型采用了一種新穎的指針機制,支持結構轉換,而插入模型則基于MLM(Masked Language Model)。這兩個模型都是非自回歸的,保證了模型的快速性。下面是 FELIX 的圖表。

比seq2seq模型快90倍!Google推出全新文本編輯模型FELIX

一個用于文本簡化任務的FELIX數(shù)據(jù)訓練示例。輸入詞首先標記為 KEEP (K)、 DELETE (D)或 KEEP 和 INSERT (I)。標記之后,輸入被重新排序。然后將這個重新排序的輸入反饋給一個MLM。

標記模型

FELIX的第一步是標記模型,它由兩個組件組成。

首先,標記器確定哪些詞應該保留或刪除,哪些地方應該插入新詞。當標記器預測插入時,將向輸出中添加一個特殊的MASK標記。

在標記之后,有一個重新排序的步驟,其中指針對輸入進行重新排序以形成輸出,通過這個步驟,它能夠重復使用輸入的部分內容,而不是插入新的文本。重新排序步驟支持任意重寫,從而支持對大型更改建模。

對指針網(wǎng)絡進行訓練,使得輸入中的每個單詞指向下一個單詞,因為它將出現(xiàn)在輸出中,如下所示。

比seq2seq模型快90倍!Google推出全新文本編輯模型FELIX

從「There are 3 layers in the walls of the heart」轉化為「the heart MASK 3 layers」實現(xiàn)了指向機制

插入模型

標記模型的輸出是重新排序的輸入文本,其中包含插入標簽預測的已刪除的單詞和MASK標記。

標記模型的輸出是重新排序的輸入文本,其中包含插入標簽預測的已刪除的單詞和MASK標記。插入模型必須預測MASK標記的內容。因為FELIX的插入模型與BERT的預訓練目標非常相似,所以它可以直接利用訓練前的優(yōu)勢,這在數(shù)據(jù)有限的情況下尤其有優(yōu)勢。

比seq2seq模型快90倍!Google推出全新文本編輯模型FELIX

插入模型的示例,其中標記器預測將插入兩個單詞,插入模型預測MASK標記的內容

結果

本文對FELIX在句子融合,文本簡化,抽象摘要和機器翻譯的譯后編輯方面進行了評估。這些任務所需的編輯類型和操作所依據(jù)的數(shù)據(jù)集大小有著很大的差異。

在一定的數(shù)據(jù)集大小范圍內,將FELIX與大型預訓練的seq2seq模型(BERT2BERT)和文本編輯模型(LaserTager)進行比較,從而得到關于句子融合任務(即將兩個句子合并為一個)的結果。

可以看出FELIX的性能要優(yōu)于LaserTagger,并且僅需幾百個樣本就可以進行訓練。對于完整的數(shù)據(jù)集,自回歸BERT2BERT的性能要優(yōu)于FELIX。但是,在推理過程中,此模型花費的時間明顯更長。

比seq2seq模型快90倍!Google推出全新文本編輯模型FELIX

FELIX(使用性能最佳的模型),BERT2BERT和LaserTagger在使用不同大小的DiscoFuse訓練數(shù)據(jù)集時的參考語句完全匹配百分比的比較。

比seq2seq模型快90倍!Google推出全新文本編輯模型FELIX

Nvidia Tesla P100上batch為32的延遲(以毫秒為單位)

結論

FELIX是完全非自回歸的,在實現(xiàn)了頂尖水準的結果的同時提供了更快的推理時間。

FELIX還通過三種技術將所需的訓練數(shù)據(jù)量降至最低:微調預訓練的檢查點,學習少量的編輯操作以及從預訓練中模仿MLM任務的插入任務。

最后,F(xiàn)ELIX在學習的編輯操作的復雜性和可處理的輸入輸出轉換的百分比之間取得了平衡。

 

責任編輯:張燕妮 來源: 新智元
相關推薦

2024-11-14 00:16:46

Seq2Seq算法RNN

2024-11-28 12:37:07

2023-12-19 17:41:38

AI模型

2022-05-13 15:32:11

GNOME文本編輯器

2023-12-18 14:05:39

Facebook評議

2018-05-03 16:27:29

RNN神經(jīng)網(wǎng)絡ResNet

2023-05-26 10:15:34

模型訓練

2023-01-08 13:22:03

模型

2023-11-22 11:40:00

Meta模型

2015-01-16 10:43:09

WiGigWiFi

2023-10-25 18:53:45

芯片AI芯片

2023-05-30 13:57:52

模型速度

2010-01-18 10:08:32

linux seqlinux

2023-01-05 13:11:20

模型

2021-09-30 11:27:58

模型人工智能神經(jīng)網(wǎng)絡

2022-10-27 08:31:31

架構

2020-12-23 22:25:11

Vi文本編輯器Unix

2024-03-26 10:13:54

日志引擎SigLens

2021-01-26 19:13:15

iOS開發(fā)文本編輯器Twitter

2021-01-07 11:00:59

Sed文本編輯器Linux
點贊
收藏

51CTO技術棧公眾號