AI論文“高引用轉(zhuǎn)化率”排名出爐:OpenAI第一,曠視第二,谷歌位居第九
為了弄清這個問題,美國Zeta Alpha平臺統(tǒng)計了2020-2022三年之間全世界引用次數(shù)前100的AI論文,得出了一些很有意思的結(jié)果。
比如:
“當紅明星”O(jiān)penAI,在論文引用次數(shù)最多的機構(gòu)中名列第9。
然而,在論文發(fā)表數(shù)量最多的機構(gòu)榜單上,根本找不到它的名字。
再比如,來自工業(yè)界的谷歌Meta微軟總是在各項數(shù)據(jù)都名列前茅,然而總的看下來,學術(shù)界也并沒有落后工業(yè)界。
此外,此前關于“中國AI研究的產(chǎn)出數(shù)量和質(zhì)量可能超過美國”的觀點在這份報告中似乎也被破解——
更多以及具體的數(shù)據(jù),我們一個一個來看。
中國第二,OpenAI、DeepMind質(zhì)量取勝
在具體分析之前,Zeta Alpha先統(tǒng)計出了2020-2022每年引用次數(shù)最多的論文,它們分別是:
2022年:
1、AlphaFold Protein Structure Database: Massively expanding the structural coverage of protein-sequence space with high-accuracy models
引用次數(shù):1372
機構(gòu):DeepMind
主題:利用AlphaFold增加蛋白質(zhì)結(jié)構(gòu)數(shù)據(jù)庫的覆蓋范圍
2、ColabFold: making protein folding accessible to all
引用次數(shù):1162
機構(gòu):多家合作完成
主題:一種開源且高效的蛋白質(zhì)折疊模型
3、Hierarchical Text-Conditional Image Generation with CLIP Latents
引用次數(shù):718
機構(gòu):OpenAI
主題:DALL·E 2
4、A ConvNet for the 2020s
引用次數(shù):690
機構(gòu):Meta和UC伯克利大學
主題:在Transformer繁榮時期成功實現(xiàn)CNN現(xiàn)代化
5、PaLM: Scaling Language Modeling with Pathways
引用次數(shù):452
機構(gòu):谷歌
主題:谷歌的540B大型語言模型,一個新的MLOps范式,包含它的實現(xiàn)過程
2021年
1、Highly accurate protein structure prediction with AlphaFold
引用次數(shù):8965
機構(gòu):DeepMind
主題:AlphaFold,利用深度學習進行蛋白質(zhì)結(jié)構(gòu)預測的巨大突破
2、Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
引用次數(shù):4810
機構(gòu):微軟
主題:ViT的強大變體
3、Learning Transferable Visual Models From Natural Language Supervision
引用次數(shù):3204
機構(gòu):OpenAI
主題:CLIP
4、On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?
引用次數(shù):1266
機構(gòu):美國華盛頓,Black in AI,The Aether
主題:著名的立場論文,對不斷增長的語言模型的趨勢持批評態(tài)度,強調(diào)了它們的局限性和危險
5、Emerging Properties in Self-Supervised Vision Transformers
引用次數(shù):1219
機構(gòu):Meta
主題:DINO,揭示了圖像的自監(jiān)督如何導致Transformers中出現(xiàn)某種原型對象分割
2020年:
1、An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
引用次數(shù):11914
機構(gòu):谷歌
主題:第一個展示普通Transformer如何在計算機視覺領域中表現(xiàn)出色的作品
2、Language Models are Few-Shot Learners
引用次數(shù):8070
機構(gòu):OpenAI
主題:GPT-3
3、YOLOv4: Optimal Speed and Accuracy of Object Detection
引用次數(shù):8014
機構(gòu):中國臺灣“中研院”
主題:YOLOv4
4、Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
引用次數(shù):5906
機構(gòu):谷歌
主題:對Transformer的遷移學習進行了嚴格的研究,產(chǎn)生了著名的T5
5、Bootstrap your own latent: A new approach to self-supervised Learning
引用次數(shù):2873
機構(gòu):DeepMind和帝國理工學院
主題:表明negative對于表征學習來說不是必需的
想必大家能從中找到不少“熟悉的面孔”。
接著,Zeta Alpha就對近三年的高引用論文背后的信息進行了一番分析。
首先是“每年論文引用次數(shù)進前100最多”的國家(地區(qū))。
可以看到美國強勢第一,中國與之的差距比較明顯。
因此Zeta Alpha也認為,此前關于“中國在AI方面的研究可能超過美國”的說法至少在這項數(shù)據(jù)上是不成立的。
除此之外,新加坡和澳大利亞的排名也比較出人意料,分別為第五和第六。
“為了正確評估美國的主導地位”,Zeta Alpha又換了一種統(tǒng)計方式,計算引用次數(shù)前100的百分比。
當然,美國仍然第一,但可以看到三年間的占比有所下降。
英國是中美以外最大的競爭對手,不過英國表現(xiàn)突出的2022年,其實主要都是由DeepMind貢獻的(占比69%)。
接下來是按組織或機構(gòu)評比論文引用次數(shù)進前100最多的個體。
不太意外,谷歌與Meta微軟分列前三,隨后是UC伯克利、DeepMind和斯坦福。
OpenAI也收獲了一個還不錯的名次,第九。第十是MIT,第十一是清華大學。
盡管前三名選手都來自工業(yè)界,但是如果只按照機構(gòu)類型來分,學術(shù)界和它的表現(xiàn)其實基本不相上下。
再接著,是過去三年各組織或機構(gòu)發(fā)表的論文總數(shù)排名。
老大還是谷歌。第二名比較亮眼,是清華大學,隨后是微軟、CMU、MIT、斯坦福、UC伯克利、北京大學(第八)、Meta……
可以看到,前十里隸屬于學術(shù)界的機構(gòu)或組織占據(jù)了大片江山。
而我們找了半天,也沒有看到OpenAI和DeepMind的名字——
顯然它們發(fā)表的論文數(shù)量較少,主要靠質(zhì)量取勝。
為了驗證這一猜測,Zeta Alpha也做了一個高引論文轉(zhuǎn)化率的排名。
果不其然,OpenAI摘得桂冠,DeepMind獲得第三。
當然,Meta也不錯,第四,引得LeCun都出來“現(xiàn)身說法”了一下:
我們Meta確實是更注重質(zhì)量而不是數(shù)量的。
相比之下,高引多但發(fā)得更多的谷歌才排第九,差點出前10。
除了這幾位,第二名也是亮點——它就是曠視。
以及國內(nèi)還有商湯也上榜了。
附2022引用Top100完整名單
ChatGPT的火著實盤活了AI產(chǎn)業(yè),最新前沿研究究竟會指往哪些方向?我們也需要更加敏銳地進行觀察。
為此,Zeta Alpha也給出了2022年引用進100的所有AI論文的名單,或許對大家有所啟發(fā)。
1-30:
31-60:
61-90:
91-100:
那么,Zeta Alpha這份報告的全部內(nèi)容就是這些。
原文可戳:???https://www.zeta-alpha.com/post/must-read-the-100-most-cited-ai-papers-in-2022??