自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

紐約時(shí)報(bào)重磅曝料:特朗普任期內(nèi)將實(shí)現(xiàn)AGI,美國政府早知AGI即將降臨!

人工智能 新聞
紐約時(shí)報(bào)專欄稱,美國政府已知道通用人工智能(AGI)正在逼近。前美國AI顧問Ben Buchanan表示AGI對國家安全、經(jīng)濟(jì)繁榮等非常重要,但美國并沒有為AGI做好準(zhǔn)備。

美國政府知道AGI即將到來,而且他們還要率先實(shí)現(xiàn)AGI。

就在最近,紐約時(shí)報(bào)刊登了一篇拜登政府AI顧問本·布坎南所接受的訪談,曝出了不少重磅信息。

圖片

比如:美國政府是如何為AGI做準(zhǔn)備的?目前仍然存在哪些難題?

沃頓商學(xué)院研究AI與經(jīng)濟(jì)的Ethan Mollick,憂心重重,認(rèn)為決策層要考慮AGI實(shí)現(xiàn)的可能性。

圖片

并非所有美國網(wǎng)友并吃這一套。甚至有教授在課堂上,表示兩年后實(shí)現(xiàn)AGI,被學(xué)生質(zhì)疑他精神不正常。

圖片

圖片

拜登政府:AGI真的來了

過去這段時(shí)間,紐約時(shí)報(bào)專欄作家Ezra Klein頻頻聽到這樣的觀點(diǎn)——

AGI,一種能做任何認(rèn)知任務(wù)上超越人類的AI系統(tǒng),將在特朗普的任期內(nèi)到來,而美國人還沒有準(zhǔn)備好。

就在最近,一位重量級人物——拜登政府的首席AI顧問本·布坎南登上了他的訪談。

圖片

左:專欄作家Ezra Klein;右:前白宮顧問Ben Buchanan

這個(gè)名為The Ezra Klein Show的訪談,長達(dá)1個(gè)多小時(shí),干貨滿滿,異常精彩。

圖片

多年來,本·布坎南和美國的AI實(shí)驗(yàn)室并沒有直接聯(lián)系,然而,他卻一直處于美國AI政策制定的核心。

他不會(huì)被大型AI實(shí)驗(yàn)室買通來宣傳AGI,因此,他的觀點(diǎn)就顯得尤其值得參考。

他看到了什么?是什么讓他夜不能寐?特朗普政府究竟需要做些什么,才能為近在咫尺的AGI做好準(zhǔn)備?

現(xiàn)在,無論是美國的AI實(shí)驗(yàn)室還是政府,都相信AGI在未來兩到三年內(nèi)一定會(huì)到來——正好落在特朗普的第二個(gè)任期內(nèi)。

無論是這些機(jī)構(gòu)正發(fā)布的產(chǎn)品,還是在工作場所的所見所聞,都讓他們堅(jiān)信這一點(diǎn)。

跟Web3不一樣,AGI絕不是空談,它已經(jīng)近在咫尺。

可以說,這是人類歷史上前所未有的時(shí)代。

然而,AGI會(huì)帶來怎樣的劇變?勞動(dòng)力市場會(huì)如何反應(yīng)?哪個(gè)國家會(huì)第一個(gè)到達(dá)AGI?它會(huì)怎樣影響戰(zhàn)爭與和平?

美國人還沒有做好準(zhǔn)備,也不知道該怎樣做準(zhǔn)備。

更何況,現(xiàn)在美國政府面臨著一個(gè)新情況:特朗普的幕僚中,馬斯克、馬克·安德森、大衛(wèi)·薩克斯和萬斯,對AI的態(tài)度都十分鮮明、十分激烈。

如今,美國正處于政策制定者的大轉(zhuǎn)型時(shí)刻,而以上這些人,很可能恰巧就在AGI影響全世界時(shí)掌權(quán)。

那么,他們將會(huì)做什么?需要做出什么樣的決定?

幾乎所有業(yè)內(nèi)人士都盡可能大聲地宣告:AGI要來了。

普通人為即將到來的事情做好了準(zhǔn)備?

AGI早已來了?

「通用人工智能」(AGI)是極其強(qiáng)大的AI系統(tǒng),典型定義是能夠執(zhí)行人類幾乎所有認(rèn)知任務(wù)的AI系統(tǒng)。

它的廣度令人矚目,同時(shí)它的深度,即在某些情況下超越人類能力的能力,也不容忽視。

無論如何定義認(rèn)知任務(wù),AGI能夠取代認(rèn)知要求高的工作,或者認(rèn)知工作的關(guān)鍵部分。

有一種觀點(diǎn)認(rèn)為,通用人工智能(AGI)一直是企業(yè)炒作或猜測的對象。

而Ben Buchanan在白宮時(shí),看到了非常清晰的趨勢:AGI并不是炒作,它正在來臨。

拜登試圖讓美國政府和社會(huì)為這些AI系統(tǒng)做好準(zhǔn)備。

即便很難在心理接受這一點(diǎn),人類正處在被AI取代的邊緣,這一點(diǎn)他們確信不疑。

幾個(gè)人合作需要幾天才能完成的報(bào)告,Deep Research在幾分鐘內(nèi)就能生成。

同時(shí)一些需要大量編碼的公司向Klein透露,預(yù)計(jì)大多數(shù)代碼將不再由人類編寫。

Klein表示:「我真的看不出這對勞動(dòng)力市場沒有影響?!?/span>

某種程度上,Ben認(rèn)為在某些領(lǐng)域AGI已經(jīng)來了:「未來已經(jīng)到來——只是分布不均。」

如果沒有親自接觸過,可能還意識(shí)不到這一點(diǎn)。

但現(xiàn)在還是AGI最差的階段,未來AGI更好。

所以美國政府以及國家也必須迅速跟進(jìn),適應(yīng)這一變化。

美國誓要先實(shí)現(xiàn)AGI

關(guān)于AI,幾乎所有美國人都普遍認(rèn)同的一點(diǎn),也是政策制定中最核心的優(yōu)先事項(xiàng),那就是:美國必須在中國之前,實(shí)現(xiàn)通用人工智能(AGI)。

這是因?yàn)槊绹舜_實(shí)相信:如果能夠率先實(shí)現(xiàn)通用人工智能(AGI)或變革性人工智能(Transformative AI),將極大地提升經(jīng)濟(jì)、軍事和情報(bào)能力。

同時(shí),保持在AI領(lǐng)域的領(lǐng)先地位對于美國國家安全至關(guān)重要。

Ben對肯尼迪著名的1962年萊斯大學(xué)演講思索良久:

我們選擇在這個(gè)十年內(nèi)登月并完成其他任務(wù),不是因?yàn)樗鼈內(nèi)菀?,而是因?yàn)樗鼈兝щy。

在肯尼迪談及太空探索的重要性時(shí),Ben認(rèn)為表達(dá)得更加深刻:

太空科學(xué),就像核科學(xué)和所有其他技術(shù)一樣,本身沒有道德觀念。它是福是禍,取決于人類。

而只有當(dāng)美國占據(jù)主導(dǎo)地位時(shí),我們才能決定這片新的海洋是成為和平之海,還是恐怖的戰(zhàn)爭舞臺(tái)。

圖片

1962年9月12日, 肯尼迪在萊斯大學(xué)發(fā)表《我們選擇登月》演講

Ben表示:「這同樣適用于AI。美國必須主導(dǎo)AI發(fā)展?!?/span>

此外,讓AGI自動(dòng)收集并分析息情報(bào),那將極大改變?nèi)虻膭萘ζ胶狻?/span>

拜登簽署了一項(xiàng)國家安全備忘錄,明確指出:衛(wèi)星情報(bào)數(shù)據(jù)是美國至關(guān)重要的戰(zhàn)略領(lǐng)域。

白宮官員甚至無法估算美國每天收集了多少衛(wèi)星圖像數(shù)據(jù),但可以肯定的是,這個(gè)數(shù)據(jù)量極其龐大。

而且美國已經(jīng)公開承認(rèn),根本沒有足夠的人手來分析所有這些數(shù)據(jù)。

因此,AI可以在這一領(lǐng)域發(fā)揮重要作用——它可以自動(dòng)分析全球熱點(diǎn)地區(qū)、航運(yùn)線路等相關(guān)圖像,并篩選出最重要的信息供人類分析師審閱。

有些人可能會(huì)說:「這不就是軟件應(yīng)該做的事情嗎?」

從某種程度上講,這確實(shí)沒錯(cuò)。

但另一方面,軟件越強(qiáng)大,分析的自動(dòng)化程度越高,提取的情報(bào)更多。最終,這在戰(zhàn)略上占據(jù)更有利的位置。

這一變化帶來的直接和間接影響同樣值得關(guān)注。在一個(gè)擁有強(qiáng)大AI的世界里,間諜活動(dòng)的動(dòng)力會(huì)大幅提升。

目前,美國收集的數(shù)據(jù)已經(jīng)遠(yuǎn)超其分析能力,因此每新增的一條數(shù)據(jù)邊際價(jià)值并不算高。

但如果AI能夠高效處理和分析數(shù)據(jù),那么獲取更多數(shù)據(jù)的價(jià)值就會(huì)顯著上升,間諜行為的誘因也會(huì)更強(qiáng)。

但同時(shí)要約束數(shù)據(jù)的濫用。至少,美國建立了一套監(jiān)督機(jī)制。

在AI極度強(qiáng)大的時(shí)代,這種監(jiān)督機(jī)制的重要性只會(huì)進(jìn)一步上升。

美國為了率先實(shí)現(xiàn)AGI,開始實(shí)行出口管制政策:識(shí)別出關(guān)鍵的「卡脖子」環(huán)節(jié)——GPU芯片,有效放慢了中國的AI進(jìn)展,從而為美國創(chuàng)造一定的技術(shù)領(lǐng)先窗口。

理想情況下,美國利用領(lǐng)先優(yōu)勢,可以推動(dòng)AI的安全性和國際協(xié)調(diào),而不是一味地盲目競爭。

這其中,甚至可以包括與中國的潛在合作——但前提是不讓這種合作加劇AI競賽的態(tài)勢。

白宮沒準(zhǔn)備好

但是美國朝野上下并沒有為AGI做好準(zhǔn)備。

比如說,在刑事司法中如何使用AI?

在某些情況下,它有優(yōu)勢——比如可以一視同仁地處理案件。

但也存在偏見和歧視等風(fēng)險(xiǎn),因?yàn)锳I系統(tǒng)存在缺陷

甚至在某些情況下,因?yàn)檫@些系統(tǒng)無處不在,危害性更大。

Ben認(rèn)為:「在司法系統(tǒng)中廣泛且不受控制地使用AI,存在侵犯權(quán)利的根本風(fēng)險(xiǎn),我們應(yīng)該對此保持高度警惕。而作為公民,我對此深感憂慮。」

在美國,所有認(rèn)真研究AI的公司和政府人員基本上都認(rèn)同:在不遠(yuǎn)的未來,隨著AI變得更加智能,決策速度和質(zhì)量都會(huì)大幅提升,甚至在許多方面會(huì)超越人類的傳統(tǒng)決策模式。

但問題是,美國正在全速奔向AGI,卻并沒有真正理解它是什么、意味著什么。

而且,AI安全等問題上,國際合作步履維艱。

但另一方面,中美之間確實(shí)建立了AI對話機(jī)制。

所以,在像AI這樣復(fù)雜的領(lǐng)域,多種情況可以同時(shí)成立。

DeepSeek闖出了另一條路

DeepSeek之所以讓美國感到震驚,主要是因?yàn)樵谟?jì)算資源遠(yuǎn)少于美國的情況下,完成了訓(xùn)練,成本更低,卻依然能與美國的頂尖系統(tǒng)競爭。

自2023年11月左右,也就是DeepSeek發(fā)布第一個(gè)AI模型時(shí),白宮官員就開始關(guān)注DeepSeek。

毫無疑問,DeepSeek的工程師們極具才華,在2024年不斷進(jìn)步。

DeepSeek表示,他們的最大瓶頸不是資金或人才,而是無法獲取高端芯片。對此,美國白宮官員表示松了一口氣。

2024年12月,DeepSeek推出了V3。

當(dāng)時(shí)沒有引起太大轟動(dòng),但展示了DeepSeek在算法優(yōu)化和計(jì)算效率方面取得了顯著提升。

2025年1月,DeepSeek-R1問世。

雖然得到了美國媒體的大量曝光與炒, 但沒有改變美國政府對形勢的基本分析:

DeepSeek仍然受到計(jì)算能力的限制。

他們很聰明,他們的算法在進(jìn)步。但美國公司的算法也在進(jìn)步。

DeepSeek與谷歌、Anthropic和OpenAI等公司,都在做相同的算法效率工作。

但DeepSeek的確展示了一種去中心化AI發(fā)展路徑。

而在某種意義上,谷歌、Anthropic和OpenAI「三巨頭」束縛了美國的體系和想象力。

DeepSeek證明了美國現(xiàn)行的AI發(fā)展范式不是唯一的:不需要巨量計(jì)算資源,不需巨型公司,在更少的能源、更少的芯片下,也能實(shí)現(xiàn)頂尖AI模型。

這兩種模式可能都行之有效。

首先,至少在可預(yù)見的未來,總會(huì)有一個(gè)頂尖模型。而這需要密集的算力和能源。

這些公司提升效率的動(dòng)力很強(qiáng),希望榨取每一滴算力。而且還在繼續(xù)不斷發(fā)展。

除此之外,還有一個(gè)滯后于前沿的較慢的技術(shù)擴(kuò)散過程。

在擴(kuò)散過程中,算法變得更加高效,所需的計(jì)算機(jī)芯片更少,能源消耗也更低。

美國需要在這兩個(gè)競爭中都取得勝利。

AI競爭力、安全與開源

拜登政府總體上也非常關(guān)注AI安全。

Marc Andreessen是一位著名的風(fēng)險(xiǎn)投資家,也是特朗普的高級顧問,講述了他與拜登政府就AI的對話,以及這些對話如何使他走向了另一個(gè)極端。

Ben和我在2024年5月去了華盛頓。我們沒能見到拜登,因?yàn)楫?dāng)時(shí)沒有人能見到拜登。但我們見到了高級幕僚。我們與白宮核心圈子的高層人士會(huì)面。

我們基本上表達(dá)了對AI的擔(dān)憂。

他們的回應(yīng)是:是的,我們將在拜登政府的第二任期內(nèi)實(shí)施的國家AI議程是:我們將確保AI只能由兩三家大公司來運(yùn)作。我們將直接監(jiān)管和控制這些公司。

不會(huì)有初創(chuàng)公司。你們認(rèn)為可以創(chuàng)辦公司、編寫代碼并將代碼發(fā)布到互聯(lián)網(wǎng)上的日子已經(jīng)結(jié)束了。這種情況不會(huì)再發(fā)生了。

但Ben表示美國在競爭力上優(yōu)勢明顯,市場充滿活力。

特朗普總統(tǒng)剛剛廢除的AI行政命令中有一個(gè)相當(dāng)長的部分是關(guān)于競爭力的。

《芯片與科學(xué)法案》中也有許多關(guān)于競爭的內(nèi)容。

但Scaling law等,迫使事情向大公司傾斜。

在許多方面,美國政府是在反對這種趨勢。

在AI安全領(lǐng)域,存在另一種說法:當(dāng)最強(qiáng)大的實(shí)驗(yàn)室的前沿模型變得足夠強(qiáng)大時(shí),需要對其進(jìn)行監(jiān)管。

為了做到這一點(diǎn),需要控制這些模型:不能讓模型以及其他相關(guān)的東西四處流傳,以至于每個(gè)人都可以在PC上運(yùn)行它。

這涉及到更高層次的緊張關(guān)系,即如何監(jiān)管這種極其強(qiáng)大且快速變化的技術(shù),一方面要確保其安全,另一方面又不過度減緩其發(fā)展速度,或使小型公司在使用越來越強(qiáng)大的系統(tǒng)時(shí)難以遵守這些新規(guī)定。

在行政命令中,美國實(shí)際上試圖解決這個(gè)問題,但在2023年10月簽署該命令時(shí),還沒有答案。

開放權(quán)重系統(tǒng)的關(guān)鍵好處是,它更容易作為未來系統(tǒng)的基礎(chǔ)進(jìn)行創(chuàng)新,因?yàn)榭梢栽L問原始模型。

但同時(shí)可能帶來風(fēng)險(xiǎn):任何內(nèi)置在該系統(tǒng)中的安全措施——比如拒絕用戶開發(fā)生物武器的要求——都很容易被移除。

經(jīng)過廣泛的征求意見和反饋后,白宮官員在2024年7月左右發(fā)布報(bào)告,得出的結(jié)論基本上是:目前沒有證據(jù)表明需要限制開放權(quán)重生態(tài)系統(tǒng)。

但隨著技術(shù)的進(jìn)步,應(yīng)該繼續(xù)監(jiān)控這一點(diǎn)。

特朗普新政

圍繞如何為AI做準(zhǔn)備,存在著不同的文化——AI安全派和AI加速派。

在巴黎AI行動(dòng)峰會(huì)上,副總統(tǒng)萬斯明顯屬于AI加速派,表示為了AI安全而對其監(jiān)管,是在扼殺創(chuàng)新。

也就是說,他認(rèn)為安全和機(jī)會(huì)之間存在根本性的矛盾。

只要看看技術(shù)發(fā)展史,證據(jù)非常清楚,適當(dāng)?shù)陌踩袆?dòng)會(huì)釋放機(jī)會(huì),實(shí)際上會(huì)加速發(fā)展。

比如,在鐵路的早期發(fā)展中,有很多意外事故、車禍等,結(jié)果人們不愿意使用鐵路。

隨后開始出現(xiàn)安全標(biāo)準(zhǔn)和安全技術(shù):閉塞信號系統(tǒng),使火車能夠知道它們是否在同一區(qū)域;空氣制動(dòng)器,使火車能夠更有效地剎車;軌道寬度和軌距的標(biāo)準(zhǔn)化等。

這在當(dāng)時(shí)并不總是受歡迎的,但事后看來,很明顯這些技術(shù),以及在某種程度上安全標(biāo)準(zhǔn)的政策發(fā)展,造就了19世紀(jì)末的美國鐵路系統(tǒng)。這是技術(shù)史上反復(fù)出現(xiàn)的模式。

非常明確的是,并非每一項(xiàng)技術(shù)上的安全監(jiān)管都是好的。當(dāng)然也有過度監(jiān)管、減緩發(fā)展速度甚至扼殺發(fā)展的情況。

但安全和機(jī)會(huì)之間存在根本性緊張關(guān)系的說法并不正確。

真正重要的是如何正確把握這個(gè)監(jiān)管的度。

拜登政府幾乎沒有實(shí)施任何接近監(jiān)管的措施。

唯一的例外是安全測試結(jié)果共享——這估計(jì)只要一個(gè)員工花費(fèi)一天的工作時(shí)間。

此外,拜登政府創(chuàng)建了美國AI安全研究所的機(jī)構(gòu),它完全專注于國家安全——網(wǎng)絡(luò)風(fēng)險(xiǎn)、生物風(fēng)險(xiǎn)、AI事故風(fēng)險(xiǎn)——并且完全是自愿的,與Anthropic、OpenAI,甚至與馬斯克的公司xAI都有諒解備忘錄的關(guān)系。

萬斯并不是特朗普政府中支持AI加速的特例。

特朗普政府的成員能夠理解特朗普、馬斯克和美國「政府效率部」DOGE在AI方面的所作所為,或者至少是這些行為最終將帶來的影響。

他們的基本觀點(diǎn)是:

美國聯(lián)邦政府過于龐大,無法有效利用AI技術(shù)。

如果AI的核心價(jià)值在于加速認(rèn)知工作,那么政府就需要進(jìn)行簡化并重構(gòu),以更好地利用AI——無論喜歡與否,這正是馬斯克和DOGE正在做的事情。

而且,政府的這種簡化過程,實(shí)際上是一種創(chuàng)造性的破壞,它為政府更好地利用AI鋪平了道路。

Ben無法理解,即便是為了更好利用AI,但這些如何幫助制定更好的AI政策?

而且為什么要從美國國際開發(fā)署開刀?畢竟,美國國際開發(fā)署是承擔(dān)美國民間對外援助與對發(fā)展中國家發(fā)展援助的聯(lián)邦政府獨(dú)立機(jī)構(gòu)。

所以他認(rèn)為馬斯克確實(shí)了解AI的潛力,但利用AI提升效率并不是DOGE的動(dòng)機(jī)。

美國當(dāng)局在技術(shù)現(xiàn)代化方面進(jìn)展緩慢,在跨部門協(xié)作方面效率低下。而且,在徹底改革工作方式并利用可能提高生產(chǎn)力的因素方面,它的行動(dòng)也顯得遲緩。

Ben表示事實(shí)的確如此,但需要謹(jǐn)慎行事,同時(shí)必須大幅加快進(jìn)度。

 美國打工人何以維生?

Ben認(rèn)為讓AI普惠至關(guān)重要。

美國上任政府的AI政策,有兩大原則體現(xiàn)了這一點(diǎn)。

首先是AI在職場的應(yīng)用,需要以尊重工人的方式進(jìn)行。

其次,應(yīng)該在整個(gè)經(jīng)濟(jì)中部署AI,以增強(qiáng)工人的能力和技能。

AI有可能會(huì)使工作環(huán)境變得更糟,這種惡化去人性化、貶低并最終破壞工人的利益。這是不容忽視的第一部分。

但在AI對未來就業(yè)市場的影響難以預(yù)料,眾說紛紜。Ben傾向于認(rèn)為變化會(huì)很大,盡管他不是勞動(dòng)經(jīng)濟(jì)學(xué)家。

在這個(gè)問題上,美國副總統(tǒng)萬斯與前總統(tǒng)拜登的話術(shù)一模一樣,即:在過渡期間,考慮工人的訴求。

歷史上,鋪設(shè)電力與鐵路耗時(shí)持久,但這次AI來勢洶洶,轉(zhuǎn)瞬即至。

因此,即便是勞動(dòng)經(jīng)濟(jì)學(xué)家也不知道如何處理AI。

Ben認(rèn)為:「AI對經(jīng)濟(jì)的影響不會(huì)是一次性、均勻地發(fā)生,而是先影響某些行業(yè)、某些企業(yè),然后逐步擴(kuò)展。它在整個(gè)社會(huì)中的分布是不均衡的。

而不均衡意味著不穩(wěn)定。

比如說,現(xiàn)在有很多19歲的大學(xué)生正在學(xué)習(xí)市場營銷。但AI可能讓市場營銷專業(yè)畢業(yè)生的失業(yè)率翻三倍。

而軟件工程師的情況又有很大不同:AI既會(huì)取代很多這類工作,也會(huì)創(chuàng)造很多這類工作,因?yàn)閷浖男枨髮?huì)大大增加。但也可能看到在某些地方發(fā)生這種情況。

但AI的優(yōu)勢,在某種程度上是一種平衡力量,它將增強(qiáng)個(gè)人的自主能力。

所以19歲或25歲的年輕人,能夠使用AI系統(tǒng)做一些以前做不到的事。

總的來說,這可能帶來充滿活力的經(jīng)濟(jì)。

然而,需要確保在這個(gè)過渡過程中,每個(gè)工人和工人階層都能得到保護(hù)。

Ben認(rèn)為:「我們應(yīng)該坦率地說:那將非常困難?!?/span>

在保護(hù)打工族利益上,美國一直做得不好。

而美國民眾如此沉迷于所謂的「美國夢」:每個(gè)人的成功掌握在自己手中。

在打工人因非自身原因(如全球經(jīng)濟(jì)衰退)而失業(yè)時(shí),美國大部分人既缺乏同情心,又很少考慮無業(yè)人員面臨的現(xiàn)實(shí)。

總有人天賦異稟、才思敏捷,工作高效而靈活。而這些人會(huì)對無業(yè)者說:「看看他們,為什么你不是他們?」

這種思維方式幾乎已經(jīng)刻進(jìn)了美國人的經(jīng)濟(jì)觀里:「你應(yīng)該接受再培訓(xùn),轉(zhuǎn)行到有需求的行業(yè)?!?/span>

可現(xiàn)實(shí)呢?難道所有被AI取代的人都要去當(dāng)護(hù)士?

確實(shí),有些工作是AI無法替代的,比如水管工,但真的需要那么多水管工嗎?

現(xiàn)在確實(shí)缺少一些技工,但不可能讓所有失業(yè)者都轉(zhuǎn)行去做這些工作。

Ben和Klein非常同情美國打工人的這種遭遇,感同身受,對對現(xiàn)有答案的深深不滿。

拜登在任期間,美國政府沒有解決了這個(gè)問題。

這不僅關(guān)乎國家安全,美國的經(jīng)濟(jì)實(shí)力和繁榮也與此息息相關(guān)。

接下來該怎么做?

在Klein和Ben的播客節(jié)目中,一開始討論的是,一項(xiàng)可能是人類歷史上最具變革性的技術(shù)將在兩到三年內(nèi)落地。

大家的第一反應(yīng)是:「哇,這件事真的很重大,我們該怎么辦?」

但接下來,討論就變得模糊起來了。也許是因?yàn)榇_實(shí)不知道答案。

但Ben多次提到的一個(gè)觀點(diǎn)是:

事實(shí)上,美國當(dāng)局幾乎沒有對AGI進(jìn)行任何限制,一切都是自愿的,唯一要求的只是共享安全數(shù)據(jù)。

然后,AI加速派登場了:Marc Andreessen就曾直接批評過拜登政府在AI上的做法。

Ben認(rèn)為在這個(gè)問題上應(yīng)該保持一定的知識(shí)上的謙遜。在采取政策行動(dòng)之前,首先要弄清楚自己在做什么,以及為什么這么做。

因此,面對一項(xiàng)變革性技術(shù),可以理性地分析趨勢,看到它即將到來,但這并不意味著必須立即制定一個(gè)針對2027 或2028年的行動(dòng)計(jì)劃。這兩者并不矛盾。

但與此同時(shí),美國建立了一些機(jī)構(gòu),比如AI安全研究所。它的作用是為將來提供一個(gè)更好的基礎(chǔ),以便下一屆政府能夠更成功地管理這項(xiàng)技術(shù)。

圖片

USAISI將促進(jìn)人工智能模型的安全、安保及測試標(biāo)準(zhǔn)的制定,制定人工智能生成內(nèi)容的驗(yàn)證標(biāo)準(zhǔn),并為研究人員提供測試環(huán)境,評估新的人工智能風(fēng)險(xiǎn),解決已知的影響

現(xiàn)在,管理AI技術(shù)的責(zé)任落到特朗普政府手上,隨著技術(shù)的發(fā)展,特朗普政府需要決定如何在監(jiān)管框架下進(jìn)行合理調(diào)整。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2025-02-25 17:05:44

2025-01-21 15:15:19

2022-02-06 12:04:34

美國零信任安全模型

2010-05-20 16:02:54

云計(jì)算美國

2019-10-14 09:04:24

華為禁令開發(fā)

2013-11-18 10:38:56

2009-04-25 23:25:32

2010-08-03 11:08:22

2020-10-13 14:49:39

Chrome 瀏覽器 谷歌

2015-08-04 10:22:45

網(wǎng)絡(luò)空間安全國家網(wǎng)絡(luò)安全

2016-11-10 07:22:22

科技新聞早報(bào)

2025-04-21 08:35:00

OpenAI智能體編程

2020-08-26 06:36:09

字節(jié)跳動(dòng)特朗普起訴

2012-12-21 10:45:42

大數(shù)據(jù)美國政府

2010-04-19 15:00:50

美國云計(jì)算

2023-09-22 11:25:38

2024-12-18 15:16:18

2020-10-15 12:29:49

禁令黑名單螞蟻金服

2013-09-03 09:41:24

微軟谷歌美國政府

2010-04-19 13:32:19

美國云計(jì)算
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號