自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

吳恩達(dá)加入圖靈三巨頭混戰(zhàn),炮轟Sam Altman:AI監(jiān)管「不會管不如不管」,LeCun轉(zhuǎn)贊

人工智能 新聞
針對「AI末日論」引發(fā)的大佬們關(guān)于AI監(jiān)管的口水戰(zhàn),吳恩達(dá)下場力挺LeCun:「不合格的監(jiān)管不如不要監(jiān)管」!

就在前幾天,Benjio等一批大佬針對人工智能可能危及人類命運(yùn)的議題,又一次公開簽署了一封聯(lián)名信。

Hinton,Benjio在信中繼續(xù)呼吁加強(qiáng)對于AI技術(shù)發(fā)展的監(jiān)管。

然而,以LeCun為首的「LLM成不了氣候」派公開表態(tài),AI監(jiān)管弊大于利!

他們認(rèn)為,相比于去擔(dān)心「AI將引發(fā)世界末日」這種虛無縹緲風(fēng)險(xiǎn),AI強(qiáng)監(jiān)管所帶來的「巨頭壟斷」,才是需要從業(yè)人員和政策制定者關(guān)心的緊迫問題。

LeCun直接在推上點(diǎn)名了Sam Altman和DeepMind的Hassabis等人,認(rèn)為他們試圖通過游說監(jiān)管來鞏固自己的行業(yè)地位,阻礙AI開源的推進(jìn)。

而且最近外媒爆出,吳恩達(dá)雖然在「LLM潛力」問題上,與LeCun有所分歧,但同樣認(rèn)為,不應(yīng)該對AI技術(shù)的發(fā)展進(jìn)行全面的嚴(yán)格監(jiān)管。

「當(dāng)你把這兩個糟糕的想法放在一起時,你會得到一個非常非常愚蠢的想法——試圖要求人工智能獲得許可的政策提案,」吳恩達(dá)在接受「Financial Review」采訪時表示。

而除了不斷有業(yè)界大佬下場開撕之外,各國的政策制定者也已經(jīng)開始行動。

美國政府已經(jīng)出臺行政命令,要求所有「前沿大模型」公司在訓(xùn)練模型時必須要通知政府。

而且還要求企業(yè)評估AI產(chǎn)品對于勞動力市場的影響情況。

吳恩達(dá)站隊(duì)LeCun:AI技術(shù)必須開放

LeCun是在與MIT教授,知名物理學(xué)家,AI學(xué)者Tegmark的討論中集中表達(dá)了自己對于最近聯(lián)名信的看法的。

他認(rèn)為「Sam Altman(OpenAI)、Hassabis(DeepMind)和Amodei(Anthropic)目前正在進(jìn)行大規(guī)模的企業(yè)游說活動。他們是那些試圖對人工智能行業(yè)進(jìn)行監(jiān)管的人。

Tegmark、Hinton和Benjio正在為那些游說禁止開放人工智能研發(fā)的人提供彈藥?!?/span>

而吳恩達(dá)在最近接受媒體采訪時表示,對AI技術(shù)發(fā)展進(jìn)行強(qiáng)監(jiān)管是一個「陰謀」。

「當(dāng)你把這兩個糟糕的想法放在一起時,你會得到一個非常非常愚蠢的想法,即試圖要求人工智能獲得許可的政策提案,」他在接受采訪表示。

「這會摧毀創(chuàng)新,」吳恩達(dá)強(qiáng)調(diào)?!缚隙ㄓ幸恍┐笮涂萍脊静辉敢馀c開源AI競爭,因此他們正在制造對AI導(dǎo)致人類滅絕的恐懼?!?/span>

「這一直是游說者尋求的立法武器,而這對開源社區(qū)來說是非常有害的,」他說。

「我不認(rèn)為沒有監(jiān)管是正確的答案,但隨著許多國家監(jiān)管的發(fā)展方向,我認(rèn)為沒有監(jiān)管會比現(xiàn)在的情況更好」

而對于Sam Altman,吳恩達(dá)也表示了不同的看法,「Sam是我在斯坦福大學(xué)的學(xué)生之一。他和我一起實(shí)習(xí)。我不想專門談?wù)撍驗(yàn)槲易x不懂他的想法,但是……我覺得有很多大公司會發(fā)現(xiàn)不必與開源LLM競爭會少很多麻煩。」

而很多網(wǎng)友擔(dān)心大佬們的關(guān)系會不會受到論戰(zhàn)的影響,不過LeCun前段時間發(fā)的一條推特很好地回應(yīng)了這個問題。

「君子和而不同」,觀點(diǎn)的差異不影響他們亦師亦友的親密關(guān)系。

監(jiān)管已經(jīng)開始層層加碼

前不久白宮公布了拜登總統(tǒng)期待已久的人工智能技術(shù)行政命令,以期最大限度地減少人工智能系統(tǒng)給公眾帶來的一些風(fēng)險(xiǎn)。

對于美國來說,人工智能已迅速深入從搜索引擎到華爾街等各個領(lǐng)域。專家們對這場人工智能軍備競賽,包括隨之而來的失業(yè)、金融崩潰,以及深度造假等問題提出了嚴(yán)重?fù)?dān)憂。

然而,該行政命令幾乎沒有為因人工智能系統(tǒng)而面臨失業(yè)或收入減少的工人提供具體保護(hù)。

到目前為止,人工智能帶來的罷工問題仍然使好萊塢等娛樂業(yè)陷入停滯,原因就在于AI的應(yīng)用減少了好萊塢作家和演員們的工作機(jī)會。

再往前一點(diǎn),今年三月,英國政府公布了一份白皮書來保護(hù)AI領(lǐng)域的創(chuàng)新,卻在短短兩個月后就開始討論對AI的發(fā)展進(jìn)行監(jiān)管和限制。

自去年OpenAI的ChatGPT問世以來,它所表現(xiàn)出的驚艷的能力使得眾多領(lǐng)域的目光都聚焦在它上面。

隨著人工智能在各行各業(yè)的應(yīng)用越來越廣泛、越來越深入,有關(guān)AI的安全性問題也同樣引起人們的思考,甚至于有一股「末世論」甚囂塵上。

「面對全球威脅,人類表現(xiàn)出了非凡的團(tuán)結(jié),核不擴(kuò)散方面的國際合作就證明了這一點(diǎn)。我們認(rèn)為,人工智能系統(tǒng)帶來的風(fēng)險(xiǎn)至少需要同樣的謹(jǐn)慎和協(xié)調(diào)?!?/span>

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-08-19 07:30:00

AI模型

2024-09-30 13:30:00

2024-01-02 13:17:00

模型訓(xùn)練

2023-06-05 09:58:52

AI無人機(jī)

2023-06-12 15:28:40

2017-07-27 09:38:54

AI人工智能吳恩達(dá)

2023-11-03 13:07:34

模型訓(xùn)練

2023-03-30 13:47:11

AI

2020-12-25 15:34:35

AI 數(shù)據(jù)人工智能

2022-02-13 17:27:59

吳恩達(dá)AI小數(shù)據(jù)

2018-12-14 10:35:54

AI數(shù)據(jù)科技

2023-12-27 13:46:00

2023-05-31 15:59:40

AI預(yù)警

2024-01-22 12:31:18

模型訓(xùn)練

2024-08-06 13:13:46

2023-11-01 14:11:00

模型數(shù)據(jù)

2023-09-07 13:22:00

AI訓(xùn)練

2025-02-10 09:35:06

2022-02-25 14:22:46

攻擊安全網(wǎng)絡(luò)

2023-11-02 13:40:45

AI智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號