2023放榜!接收率15%:中稿全憑運(yùn)氣?rebuttal沒用?審稿人只盯負(fù)面評價(jià)?
又到頂會放榜時,幾家歡喜幾家愁。
本次IJCAI 2023共收到4566份提交全文,接收率大約15%
問題鏈接:?https://www.zhihu.com/question/578082970?
從知乎上反饋的結(jié)果來看,整體審稿質(zhì)量依然不盡如人意(也可能是被拒稿的怨念...),甚至有的審稿人根本沒看rebuttal的內(nèi)容就給拒了。
也存在都是分?jǐn)?shù)相同,但結(jié)局不同的論文。
也有網(wǎng)友貼出meta review的拒絕理由,全是大缺點(diǎn)。
不過拒稿并不是終點(diǎn),更重要的是繼續(xù)出發(fā)。
網(wǎng)友Lower_Evening_4056認(rèn)為,即便是里程碑式的論文也會被多次拒稿,也有一些論文即便不夠出色,也能被錄用。
當(dāng)你繼續(xù)前行,再回過頭來看那些合理的審稿意見時,你會發(fā)現(xiàn)自己的工作還能再上一個層次。
審稿系統(tǒng)確實(shí)存在缺陷,更重要的是不要把reject看作是對你個人或作品價(jià)值的評估結(jié)果。如果你是一個學(xué)生,并且你的導(dǎo)師根據(jù)審稿結(jié)果而不是工作質(zhì)量來評價(jià)你的話,那你可能就要重新考慮和導(dǎo)師的合作關(guān)系了。
NeurIPS會議此前開展過一致性實(shí)驗(yàn),對于平均分在5到6.5之間的論文,錄用結(jié)果基本就是隨機(jī)的,取決于你碰到的審稿人。
比如說有個人的論文結(jié)果是9665,如果他沒碰到給他9分的審稿人,那結(jié)果必然是reject,只不過他剛好碰到了伯樂,并且扭轉(zhuǎn)了審稿結(jié)果。
最后,恭喜那些論文錄用的科研人,助力推動人工智能研究的發(fā)展!
下面是一些在社交媒體上分享已錄用的論文。
IJCAI 2023接收論文
端到端抗噪語音識別中多任務(wù)學(xué)習(xí)的梯度修正
在下游語音自動識別系統(tǒng)(ASR)中,語音增強(qiáng)學(xué)習(xí)策略(SE)被證明能夠有效地減少噪聲語音信號產(chǎn)生的噪聲,該系統(tǒng)采用多任務(wù)學(xué)習(xí)策略對這兩個任務(wù)進(jìn)行聯(lián)合優(yōu)化。
然而,通過 SE 目標(biāo)學(xué)習(xí)的增強(qiáng)語音并不總是產(chǎn)生良好的 ASR 結(jié)果。
從優(yōu)化的角度來看,自適應(yīng)任務(wù)和自適應(yīng)反應(yīng)任務(wù)的梯度之間有時會存在干擾,這會阻礙多任務(wù)學(xué)習(xí),最終導(dǎo)致自適應(yīng)反應(yīng)性能不理想。
論文鏈接:?https://arxiv.org/pdf/2302.11362.pdf?
這篇論文提出了一種簡單而有效的梯度補(bǔ)償(GR)方法來解決噪聲魯棒語音識別中任務(wù)梯度之間的干擾問題。
具體來說,首先將 SE 任務(wù)的梯度投影到一個與 ASR 梯度呈銳角的動態(tài)曲面上,以消除它們之間的沖突,協(xié)助 ASR 優(yōu)化。
此外,自適應(yīng)地調(diào)整兩個梯度的大小,以防止主導(dǎo) ASR 任務(wù)被 SE 梯度誤導(dǎo)。
實(shí)驗(yàn)結(jié)果表明,該方法較好地解決了梯度干擾問題,在多任務(wù)學(xué)習(xí)基線上,在 RATS 和 CHiME-4數(shù)據(jù)集上分別實(shí)現(xiàn)了9.3% 和11.1% 的相對詞錯誤率(WER)降低。
約束 Tsetlin 機(jī)器子句大小構(gòu)建簡明邏輯模式
Tsetlin 機(jī)器(TM)是一種基于邏輯的機(jī)器學(xué)習(xí)方法,具有透明和硬件友好的關(guān)鍵優(yōu)勢。
雖然 TM 在越來越多的應(yīng)用程序中匹配或超越了深度學(xué)習(xí)的準(zhǔn)確性,但是大子句池往往產(chǎn)生具有許多文字(長子句)的子句,使得它們變得不那么容易理解。
此外,較長的子句增加了硬件中子句邏輯的切換活動,具有更高的功耗。
論文鏈接:?https://arxiv.org/abs/2301.08190?
這篇論文介紹了一種新的 TM 學(xué)習(xí)方法,即子句大小受限的子句學(xué)習(xí)方法(CSC-TM) ,可以對子句大小設(shè)置軟約束。
一旦子句包含比約束允許的更多的字面值(literals),就開始排除字面值,因此只會短暫出現(xiàn)較大的子句。
為了評價(jià) CSC-TM,研究人員對表格數(shù)據(jù)、自然語言文本、圖像和棋盤游戲進(jìn)行了分類、聚類和回歸實(shí)驗(yàn)。
結(jié)果表明,CSC-TM 保持準(zhǔn)確性與多達(dá)80倍的文字減少,實(shí)際上,TREC、 IMDb 和 BBC Sports 的子句越短,準(zhǔn)確性就越高,在準(zhǔn)確性達(dá)到峰值之后,當(dāng)子句大小接近單個文字時,就會緩慢地下降。
文章最后分析了 CSC-TM 的功耗,得到了新的收斂性質(zhì)。
#DNN-Verification問題:計(jì)算深度神經(jīng)網(wǎng)絡(luò)的不安全輸入
深度神經(jīng)網(wǎng)絡(luò)越來越多地用于需要高安全級別的關(guān)鍵任務(wù),比如說自動駕駛,雖然可以采用最先進(jìn)的驗(yàn)證器來檢查DNN是否是不安全的:
給定一些屬性(即,是否存在至少一個不安全的輸入配置)后,模型的yes/no輸出對于其它目的(例如shielding、模型選擇或訓(xùn)練改進(jìn))而言信息量不足。
論文鏈接:?https://arxiv.org/abs/2301.07068?
這篇論文介紹了#DNN-Verification問題,該問題涉及計(jì)算導(dǎo)致違反特定安全屬性的DNN輸入配置的數(shù)量,研究人員分析了這個問題的復(fù)雜性,并提出了一種新的方法,返回確切的違規(guī)計(jì)數(shù)。
由于問題是P-完備性的,文中提出了一個隨機(jī)的近似方法,提供了一個可證明的概率界的正確計(jì)數(shù),同時顯著降低計(jì)算要求。
文中還提出了一組安全關(guān)鍵的基準(zhǔn),證明該近似方法的有效性和評估的約束的緊密性的實(shí)驗(yàn)結(jié)果。