自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI論文“高引用轉(zhuǎn)化率”排名出爐:OpenAI第一,曠視第二,谷歌位居第九

人工智能
“當紅明星”O(jiān)penAI,在論文引用次數(shù)最多的機構(gòu)中名列第9。然而,在論文發(fā)表數(shù)量最多的機構(gòu)榜單上,根本找不到它的名字。

為了弄清這個問題,美國Zeta Alpha平臺統(tǒng)計了2020-2022三年之間全世界引用次數(shù)前100的AI論文,得出了一些很有意思的結(jié)果。

圖片

比如:

“當紅明星”O(jiān)penAI,在論文引用次數(shù)最多的機構(gòu)中名列第9。

然而,在論文發(fā)表數(shù)量最多的機構(gòu)榜單上,根本找不到它的名字。

再比如,來自工業(yè)界的谷歌Meta微軟總是在各項數(shù)據(jù)都名列前茅,然而總的看下來,學術(shù)界也并沒有落后工業(yè)界。

此外,此前關于“中國AI研究的產(chǎn)出數(shù)量和質(zhì)量可能超過美國”的觀點在這份報告中似乎也被破解——

更多以及具體的數(shù)據(jù),我們一個一個來看。

中國第二,OpenAI、DeepMind質(zhì)量取勝

在具體分析之前,Zeta Alpha先統(tǒng)計出了2020-2022每年引用次數(shù)最多的論文,它們分別是:

2022年:

1、AlphaFold Protein Structure Database: Massively expanding the structural coverage of protein-sequence space with high-accuracy models

引用次數(shù):1372
機構(gòu):DeepMind
主題:利用AlphaFold增加蛋白質(zhì)結(jié)構(gòu)數(shù)據(jù)庫的覆蓋范圍

2、ColabFold: making protein folding accessible to all

引用次數(shù):1162
機構(gòu):多家合作完成
主題:一種開源且高效的蛋白質(zhì)折疊模型

3、Hierarchical Text-Conditional Image Generation with CLIP Latents

引用次數(shù):718
機構(gòu):OpenAI
主題:DALL·E 2

4、A ConvNet for the 2020s

引用次數(shù):690
機構(gòu):Meta和UC伯克利大學
主題:在Transformer繁榮時期成功實現(xiàn)CNN現(xiàn)代化

5、PaLM: Scaling Language Modeling with Pathways

引用次數(shù):452
機構(gòu):谷歌
主題:谷歌的540B大型語言模型,一個新的MLOps范式,包含它的實現(xiàn)過程

2021年

1、Highly accurate protein structure prediction with AlphaFold

引用次數(shù):8965
機構(gòu):DeepMind
主題:AlphaFold,利用深度學習進行蛋白質(zhì)結(jié)構(gòu)預測的巨大突破

2、Swin Transformer: Hierarchical Vision Transformer using Shifted Windows

引用次數(shù):4810
機構(gòu):微軟
主題:ViT的強大變體

3、Learning Transferable Visual Models From Natural Language Supervision

引用次數(shù):3204
機構(gòu):OpenAI
主題:CLIP

4、On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?

引用次數(shù):1266
機構(gòu):美國華盛頓,Black in AI,The Aether
主題:著名的立場論文,對不斷增長的語言模型的趨勢持批評態(tài)度,強調(diào)了它們的局限性和危險

5、Emerging Properties in Self-Supervised Vision Transformers

引用次數(shù):1219
機構(gòu):Meta
主題:DINO,揭示了圖像的自監(jiān)督如何導致Transformers中出現(xiàn)某種原型對象分割

2020年:

1、An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale

引用次數(shù):11914
機構(gòu):谷歌
主題:第一個展示普通Transformer如何在計算機視覺領域中表現(xiàn)出色的作品

2、Language Models are Few-Shot Learners

引用次數(shù):8070
機構(gòu):OpenAI
主題:GPT-3

3、YOLOv4: Optimal Speed and Accuracy of Object Detection

引用次數(shù):8014
機構(gòu):中國臺灣“中研院”
主題:YOLOv4

4、Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer

引用次數(shù):5906
機構(gòu):谷歌
主題:對Transformer的遷移學習進行了嚴格的研究,產(chǎn)生了著名的T5

5、Bootstrap your own latent: A new approach to self-supervised Learning

引用次數(shù):2873
機構(gòu):DeepMind和帝國理工學院
主題:表明negative對于表征學習來說不是必需的

想必大家能從中找到不少“熟悉的面孔”。

接著,Zeta Alpha就對近三年的高引用論文背后的信息進行了一番分析。

首先是“每年論文引用次數(shù)進前100最多”的國家(地區(qū))。

圖片

可以看到美國強勢第一,中國與之的差距比較明顯。

因此Zeta Alpha也認為,此前關于“中國在AI方面的研究可能超過美國”的說法至少在這項數(shù)據(jù)上是不成立的。

除此之外,新加坡和澳大利亞的排名也比較出人意料,分別為第五和第六。

“為了正確評估美國的主導地位”,Zeta Alpha又換了一種統(tǒng)計方式,計算引用次數(shù)前100的百分比。

圖片

當然,美國仍然第一,但可以看到三年間的占比有所下降。

英國是中美以外最大的競爭對手,不過英國表現(xiàn)突出的2022年,其實主要都是由DeepMind貢獻的(占比69%)。

接下來是按組織或機構(gòu)評比論文引用次數(shù)進前100最多的個體。

圖片

不太意外,谷歌與Meta微軟分列前三,隨后是UC伯克利、DeepMind和斯坦福。

OpenAI也收獲了一個還不錯的名次,第九。第十是MIT,第十一是清華大學。

盡管前三名選手都來自工業(yè)界,但是如果只按照機構(gòu)類型來分,學術(shù)界和它的表現(xiàn)其實基本不相上下。

圖片

再接著,是過去三年各組織或機構(gòu)發(fā)表的論文總數(shù)排名。

圖片

老大還是谷歌。第二名比較亮眼,是清華大學,隨后是微軟、CMU、MIT、斯坦福、UC伯克利、北京大學(第八)、Meta……

可以看到,前十里隸屬于學術(shù)界的機構(gòu)或組織占據(jù)了大片江山。

而我們找了半天,也沒有看到OpenAI和DeepMind的名字——

顯然它們發(fā)表的論文數(shù)量較少,主要靠質(zhì)量取勝。

為了驗證這一猜測,Zeta Alpha也做了一個高引論文轉(zhuǎn)化率的排名。

圖片

果不其然,OpenAI摘得桂冠,DeepMind獲得第三。

當然,Meta也不錯,第四,引得LeCun都出來“現(xiàn)身說法”了一下:

我們Meta確實是更注重質(zhì)量而不是數(shù)量的。

圖片

相比之下,高引多但發(fā)得更多的谷歌才排第九,差點出前10。

除了這幾位,第二名也是亮點——它就是曠視。

以及國內(nèi)還有商湯也上榜了。

附2022引用Top100完整名單

ChatGPT的火著實盤活了AI產(chǎn)業(yè),最新前沿研究究竟會指往哪些方向?我們也需要更加敏銳地進行觀察。

為此,Zeta Alpha也給出了2022年引用進100的所有AI論文的名單,或許對大家有所啟發(fā)。

1-30:

圖片

31-60:

圖片

61-90:

圖片

91-100:

圖片

那么,Zeta Alpha這份報告的全部內(nèi)容就是這些。

原文可戳:???https://www.zeta-alpha.com/post/must-read-the-100-most-cited-ai-papers-in-2022??

責任編輯:武曉燕 來源: 量子位
相關推薦

2013-08-28 11:09:37

優(yōu)化網(wǎng)頁網(wǎng)頁轉(zhuǎn)化率設計

2023-03-06 10:15:31

論文谷歌

2023-03-08 14:44:49

谷歌論文

2009-07-16 08:52:07

500強微軟

2013-09-24 10:38:51

2013-08-28 09:56:46

網(wǎng)頁轉(zhuǎn)化率

2009-07-19 09:17:21

網(wǎng)絡品牌排行榜谷歌

2010-05-17 12:56:53

IBM惠普微軟

2009-08-18 09:29:45

2022-08-02 14:37:53

AI研究

2012-04-28 09:44:10

網(wǎng)速

2017-11-03 11:34:49

2015-12-15 17:36:00

dynatrace

2013-11-01 13:21:43

Testin手游用戶體驗

2016-11-14 10:07:19

Dynatrace

2018-07-03 10:43:55

營銷

2024-07-08 11:33:45

2017-08-15 10:53:34

網(wǎng)站設計UIUE

2019-05-09 09:32:08

曠視7.5億美元D輪融資
點贊
收藏

51CTO技術(shù)棧公眾號