AI已經(jīng)會刷LeetCode了
本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。
你在面試中會遇到的那種算法題,AI已經(jīng)能自己解決了,比如下面這道題:
對于一個記錄論文引用次數(shù)的數(shù)組,每個元素都是非負整數(shù)。請寫出函數(shù)h_index,輸出這些論文的h指數(shù),即至多有h篇文章被至少引用了h次。
例:
輸入: [3, 0, 6, 1, 4]
輸出: 3
AI給出的Python答案是這樣的:

除了排序沒用counts.sort(reverse = True)讓人看著血壓升高,算是順利通過測試:

來自UC伯克利的研究團隊,將上面這道題被歸為“面試級”難度(看來國外程序員面試題有點簡單)。
此外還有更簡單的“入門級”和更難的“競賽級”,總共5000道題的測試中,AI能做出15%。
另外有人聲稱,他專門用GPT-2訓練了個專門做LeetCode的AI,能完成80%。

在刷LeetCode的你,是否在顫抖?

GPT-Neo贏過GPT-3
本研究使用的題目形式是自然語言題干,不同于以往研究常用的偽代碼和代碼之間翻譯。

題目是從Codeforces、Kattis等刷題網(wǎng)站收集的10000道題,5000道用于訓練,另外5000道作為測試集。
題干的平均長度為293.2個單詞,在測試集中每道題平均有21.2個測試用例。

入門級難度的題不需要復(fù)雜算法,有1-2年經(jīng)驗的程序員都能回答的那種,有3639個。
面試級難度的題會涉及數(shù)據(jù)結(jié)構(gòu),比如樹或者圖,或需要修改常見的算法,有5000個。
剩下的是競賽級難度,達到USACO、IOI和ACM等競賽的水平。
研究人員分別訓練了GPT-2的1億參數(shù)版和15億參數(shù)版、GPT-3以及“高仿版”GPT-Neo。
參數(shù)規(guī)模“只有”27億的GPT-Neo和更低的GPT-2在測試用例通過率上,表現(xiàn)卻比1750億的GPT-3還要好。

在嚴格模式下,通過所有測試用例才算完全正確,成績最好的GPT-Neo只通過了1.12%,不過這也有56道題了(反正比我強)。

GPT-Neo來自EleutherAI團隊嘗試復(fù)現(xiàn)GPT的開源項目。
雖然參數(shù)規(guī)模比GPT-3小得多,但訓練數(shù)據(jù)包含了更多技術(shù)網(wǎng)站,比如Stack OverFlow和Stack Exchange等,這可能是它在代碼生成上勝出的原因之一。
至于GPT-3為什么表現(xiàn)還不如GPT-2,有人猜測可能是它見過的文本太多,雖然擅長生成自然語言,但在邏輯和解題方面過擬合了。

如何評價AI“做題家”
論文一發(fā)出來,吃瓜群眾腦洞大開。
如果我沒通過面試但我寫的算法通過了會怎么樣?

有人回答他:
沒關(guān)系,你還可以當你算法的助手。
還有很多人給出下一步建議,比如不用自回歸的GPT,改用自編碼語言模型會怎樣?比如CodeTrans。

或者,再用一個GPT專門生成自己回答不出來的問題。
△矛盾相爭是吧
樂觀的人認為這是解放了人的創(chuàng)造力,未來編程是關(guān)于寫更少的代碼,做更多的架構(gòu)、工程。

有人暢想,只需要描述需求就能生成代碼可太爽了。
嗨IDE,用我的數(shù)據(jù)庫做一個JavaScript的增查改刪,要帶測試。
△Ruby on Rails直呼內(nèi)行
悲觀的人卻認為,將來有一天,人類程序員只能做做維護工作和評審機器生成的代碼了。

面對AI“做題家”,你怕了嗎?
論文地址:
https://arxiv.org/abs/2105.09938
數(shù)據(jù)集地址:
https://github.com/hendrycks/apps
自動刷LeetCode項目:
https://github.com/gagan3012/project-code-py