自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

圖與代碼不一致,Transformer論文被發(fā)現(xiàn)錯(cuò)誤,網(wǎng)友:早該被指出1000次

人工智能 新聞
論文中的圖有時(shí)會(huì)出現(xiàn)與實(shí)現(xiàn)代碼不對(duì)應(yīng)的情況,這會(huì)讓讀者頭大,不知是有意還是無(wú)意為之。這次,沒(méi)想到大名鼎鼎的 Transformer 論文也「翻車」了。

2017 年,谷歌大腦團(tuán)隊(duì)在其論文《Attention Is All You Need》中創(chuàng)造性的提出 Transformer 這一架構(gòu),自此這一研究一路開(kāi)掛,成為當(dāng)今 NLP 領(lǐng)域最受歡迎的模型之一,被廣泛應(yīng)用于各種語(yǔ)言任務(wù),并取得了許多 SOTA 結(jié)果。

不僅如此,在 NLP 領(lǐng)域一路領(lǐng)先的 Transformer,迅速席卷計(jì)算機(jī)視覺(jué)(CV)、語(yǔ)音識(shí)別等領(lǐng)域,在圖像分類、目標(biāo)檢測(cè)、語(yǔ)音識(shí)別等任務(wù)上取得良好的效果。

圖片

論文地址:https://arxiv.org/pdf/1706.03762.pdf

從推出至今,Transformer 已經(jīng)成為眾多模型的核心模塊,比如大家熟悉的 BERT、T5 等都有 Transformer 的身影。就連近段時(shí)間爆火的 ChatGPT 也依賴 Transformer,而后者早已被谷歌申請(qǐng)了專利。

圖片

圖源:https://patentimages.storage.googleapis.com/05/e8/f1/cd8eed389b7687/US10452978.pdf

此外 OpenAI 發(fā)布的系列模型 GPT(Generative Pre-trained Transformer),名字中帶有 Transformer,可見(jiàn) Transformer 是 GPT 系列模型的核心。

與此同時(shí),最近 OpenAI 聯(lián)合創(chuàng)始人 Ilya Stutskever 在談到 Transformer 時(shí)表示,當(dāng) Transformer 剛發(fā)布之初,實(shí)際上是論文放出來(lái)的第二天,他們就迫不及待的將以前的研究切換到 Transformer ,后續(xù)才有了 GPT??梢?jiàn) Transformer 的重要性不言而喻。

6 年時(shí)間,基于 Transformer 構(gòu)建的模型不斷發(fā)展壯大。然而現(xiàn)在,有人發(fā)現(xiàn)了 Transformer 原始論文中的一處錯(cuò)誤。

Transformer 架構(gòu)圖與代碼「不一致」

發(fā)現(xiàn)錯(cuò)誤的是一位知名機(jī)器學(xué)習(xí)與 AI 研究者、初創(chuàng)公司 Lightning AI 的首席 AI 教育家 Sebastian Raschka。他指出,原始 Transformer 論文中的架構(gòu)圖有誤,將層歸一化(LN)放置在了殘差塊之間,而這與代碼不一致。

圖片

Transformer 架構(gòu)圖如下左,圖右為 Post-LN Transformer 層(出自論文《On Layer Normalization in the Transformer Architecture》[1])。

不一致的代碼部分如下,其中 82 行寫了執(zhí)行順序「layer_postprocess_sequence="dan"」,表示后處理依次執(zhí)行 dropout、residual_add 和 layer_norm。如果上圖左中的 add&norm 理解為:add 在 norm 上面,即先 norm 再 add,那確實(shí)代碼和圖不一致。

代碼地址:

https://github.com/tensorflow/tensor2tensor/commit/f5c9b17e617ea9179b7d84d36b1e8162cb369f25#diff-76e2b94ef16871bdbf46bf04dfe7f1477bafb884748f08197c9cf1b10a4dd78e…

接下來(lái),Sebastian 又表示,論文《On Layer Normalization in the Transformer Architecture》認(rèn)為 Pre-LN 表現(xiàn)更好,能夠解決梯度問(wèn)題。這是很多或者大多數(shù)架構(gòu)在實(shí)踐中所采用的,但它可能導(dǎo)致表示崩潰。

當(dāng)層歸一化在注意力和全連接層之前被放置于殘差連接之中時(shí),能夠?qū)崿F(xiàn)更好的梯度。

圖片

因此,雖然關(guān)于 Post-LN 或 Pre-LN 的爭(zhēng)論仍在繼續(xù),但另一篇論文結(jié)合了這兩點(diǎn),即《ResiDual: Transformer with Dual Residual Connections》[2]。

對(duì)于 Sebastian 的這一發(fā)現(xiàn),有人認(rèn)為,我們經(jīng)常會(huì)遇到與代碼或結(jié)果不一致的論文。大多數(shù)是無(wú)心之過(guò),但有時(shí)令人感到奇怪。考慮到 Transformer 論文的流行程度,這個(gè)不一致問(wèn)題早就應(yīng)該被提及 1000 次。

Sebastian 回答稱,公平地講,「最最原始」的代碼確實(shí)與架構(gòu)圖一致,但 2017 年提交的代碼版本進(jìn)行了修改,同時(shí)沒(méi)有更新架構(gòu)圖。所以,這實(shí)在令人困惑。

圖片

正如一位網(wǎng)友所說(shuō),「讀代碼最糟糕的是,你會(huì)經(jīng)常發(fā)現(xiàn)這樣的小變化,而你不知道是有意還是無(wú)意。你甚至無(wú)法測(cè)試它,因?yàn)槟銢](méi)有足夠的算力來(lái)訓(xùn)練模型?!?/span>

不知谷歌之后會(huì)更新代碼還是架構(gòu)圖,我們拭目以待!

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2023-05-10 09:42:39

代碼開(kāi)源

2018-07-15 08:18:44

緩存數(shù)據(jù)庫(kù)數(shù)據(jù)

2024-05-11 07:37:43

數(shù)據(jù)Redis策略

2025-04-03 09:51:37

2017-06-20 09:42:52

網(wǎng)絡(luò)安全法數(shù)據(jù)隱私法網(wǎng)絡(luò)安全

2017-08-25 17:59:41

浮點(diǎn)運(yùn)算C語(yǔ)言

2010-06-02 10:53:28

MySQL版本

2021-05-27 18:06:30

MySQL編碼數(shù)據(jù)

2024-04-07 09:00:00

MySQL

2018-07-08 07:38:28

數(shù)據(jù)庫(kù)緩存數(shù)據(jù)

2020-07-20 14:06:38

數(shù)據(jù)庫(kù)主從同步服務(wù)

2022-03-18 10:53:49

數(shù)據(jù)系統(tǒng)架構(gòu)

2021-12-26 14:32:11

緩存數(shù)據(jù)庫(kù)數(shù)據(jù)

2025-04-08 09:00:00

數(shù)據(jù)庫(kù)緩存架構(gòu)

2024-11-18 08:00:00

數(shù)據(jù)倉(cāng)庫(kù)通用語(yǔ)義層商業(yè)智能

2022-03-16 15:54:52

MySQL數(shù)據(jù)format

2021-04-18 15:01:56

緩存系統(tǒng)數(shù)據(jù)

2011-02-22 14:02:48

vsftpd

2013-03-29 11:16:17

2021-01-19 10:39:03

Redis緩存數(shù)據(jù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)