ICLR 2024接收率31%,清華LCM論文作者:講個(gè)笑話,被拒了
ICLR 2024 國(guó)際學(xué)習(xí)表征會(huì)議已經(jīng)來(lái)到了第十二屆,將于今年 5 月 7 日 - 11 日在奧地利維也納會(huì)展中心舉行。
在機(jī)器學(xué)習(xí)社區(qū)中,ICLR 是較為「年輕」的學(xué)術(shù)頂會(huì),它由深度學(xué)習(xí)巨頭、圖靈獎(jiǎng)獲得者 Yoshua Bengio 和 Yann LeCun 牽頭舉辦,2013 年才舉辦了第一屆。不過(guò) ICLR 很快獲得學(xué)術(shù)研究者們的廣泛認(rèn)可,被認(rèn)為是深度學(xué)習(xí)頂會(huì)。在 Google Scholar 的學(xué)術(shù)會(huì)議 / 雜志排名中,ICLR 目前排名第十位,要高于 NeurIPS。
今日,ICLR 2024 將錄用結(jié)果陸續(xù)通知了論文提交者。本屆會(huì)議共收到了 7262 篇提交論文,整體接收率約為 31%,與去年持平(31.8%)。此外 Spotlights 論文比例為 5%,Oral 論文比例為 1.2%。
研究分析網(wǎng)站 Paper Copilot 對(duì) ICLR 2024 的接收論文做了非常詳細(xì)的統(tǒng)計(jì),并提供了與往年直觀的比較。
網(wǎng)站地址:https://papercopilot.com/statistics/iclr-statistics/iclr-2024-statistics/
結(jié)果出來(lái)后,依然是幾家歡喜幾家愁,論文被接收的學(xué)者紛紛「曬出」自己的喜悅。
機(jī)器之心報(bào)道過(guò)的蘋(píng)果文生圖大模型收到了被接收的喜訊。在這篇論文中,研究者提出了俄羅斯套娃式擴(kuò)散模型(Matryoshka Diffusion Models,MDM),用于端到端高分辨率圖像生成。
推特 @thoma_gu
知名 AI 學(xué)者、Meta AI 研究科學(xué)家田淵棟團(tuán)隊(duì)有 4 篇論文被接收,其中包括了一篇 Spotlight 論文。
推特 @tydsh
新加坡國(guó)立大學(xué)校長(zhǎng)青年教授尤洋團(tuán)隊(duì)的論文《InfoBatch: Lossless Training Speed Up by Unbiased Dynamic Data Pruning》被接收為了 Oral。
推特 @YangYou1991
不過(guò),有些論文似乎成了 ICLR 2024 的遺珠,比如清華大學(xué)交叉信息研究院的研究者推出的 LCM(Latent Consistency Models),它將主流文生圖模型的效率提高了 5 到 10 倍,甚至做到了實(shí)時(shí)連續(xù)生圖。該模型發(fā)布僅僅一個(gè)月后便瀏覽超百萬(wàn),在 Hugging Face 平臺(tái)的模型下載量超 20 萬(wàn)。
論文共同一作 Simian Luo 感嘆這是「這輩子最好笑的笑話」。
我們找到了一位審稿人的意見(jiàn),他指出論文的缺點(diǎn)有這些:沒(méi)說(shuō)清楚哪些貢獻(xiàn)對(duì)效率和質(zhì)量影響最大、沒(méi)給出求解增強(qiáng) PF-ODE 的計(jì)算復(fù)雜度、沒(méi)說(shuō)明與其他方法相比推理時(shí)間到底快了多少、 沒(méi)給到 LCM 除用于 Stable Diffusion 以外其他 LDMs 的性能如何?
圖源:https://openreview.net/forum?id=duBCwjb68o