ChatGPT之父舌戰(zhàn)國會(huì)山!OpenAI欲與政府聯(lián)手,權(quán)力通天
上次是周受資,這次,輪到了Sam Altman。
不過這一次,國會(huì)議員對(duì)他的態(tài)度截然不同——友好,耐心,做足了功課,虛心請教。
北京時(shí)間昨晚,OpenAI CEO Sam Altman在美國參議院就AI技術(shù)的潛在危險(xiǎn)作證,并敦促立法者對(duì)制造先進(jìn)AI的組織實(shí)施許可要求和其他法規(guī)。
Sam Altman不用接受刁鉆的問話,他坐在席位上游刃有余、侃侃而談,再次向世界證明:作為全世界最受矚目的初創(chuàng)公司CEO,他在書寫著科技世界的規(guī)則和未來。
面對(duì)美國國會(huì),Sam Altman再次斬釘截鐵地保證:在未來六個(gè)月內(nèi),OpenAI堅(jiān)決不會(huì)訓(xùn)練GPT-5。
同時(shí), 他也對(duì)全世界發(fā)出警告:AI有可能會(huì)對(duì)世界有害,為了應(yīng)對(duì)日益強(qiáng)大的AI風(fēng)險(xiǎn),我們需要加強(qiáng)監(jiān)管和立法,而政府的干預(yù)極為重要。
為啥Altman對(duì)政府監(jiān)管如此積極呢?
顯然,只要成為規(guī)則制定者,就能在競爭中贏者通吃。
而對(duì)于在硅谷靠著「社?!箤傩躁J出一片天地的Altman,和政府打交道,簡直輕松得如同探囊取物。
用AI生成的開場演講
作為科技界異軍突起的新力量,OpenAI在成立8年后,在今年以迅雷不及掩耳之勢攪動(dòng)了全世界,逼得所有科技公司都參與進(jìn)了一場以ChatGPT為起點(diǎn)的全球內(nèi)卷。
這場全球AI軍備競賽,讓不少專家警鈴大作。
不過這次聽證會(huì),參議院的議員們并沒有批評(píng)OpenAI的技術(shù)帶來的混亂,而是謙遜地就ChatGPT的潛在規(guī)則征求了證人們的意見,對(duì)Sam Atlman的態(tài)度是肉眼可見的友好和尊敬。
聽證會(huì)一開始,參議員Richard Blumenthal使用了聲音克隆軟件復(fù)制自己的音色,讓ChatGPT寫了一段開場白,使用數(shù)小時(shí)的演講訓(xùn)練了一個(gè)文本到語音生成器。
此舉證明,國會(huì)「擁抱AI」的態(tài)度旗幟鮮明。
AI危險(xiǎn),請監(jiān)管我們
這一場聽證會(huì)上,立法者明顯非常興奮,與他們曾經(jīng)對(duì)小扎和周受資步步緊逼的質(zhì)疑形成了鮮明對(duì)比。
參議員們沒有喋喋不休地談?wù)撨^去的錯(cuò)誤,而是對(duì)AI可能帶來的好處充滿渴望。
而Altman開門見山地告訴參議院:AI技術(shù)可能會(huì)出錯(cuò)。
他表示,自己很擔(dān)心人工智能行業(yè)對(duì)世界造成重大傷害(cause significant harm to the world)。
「如果AI技術(shù)出錯(cuò),造成的后果不堪設(shè)想。我們需要對(duì)此發(fā)聲:我們希望與政府合作,防止這種情況發(fā)生。」
「我們認(rèn)為,政府的監(jiān)管干預(yù)對(duì)于減輕日益強(qiáng)大的AI模型的風(fēng)險(xiǎn),至關(guān)重要。比如,美國政府可以考慮將許可和測試的要求結(jié)合起來,以開發(fā)和發(fā)布超過能力閾值的AI模型。」
Altman表示,自己非常擔(dān)心選舉會(huì)受到AI生成內(nèi)容的影響,因此在這方面需要有足夠的監(jiān)管。
對(duì)此,參議員Dick Durbin表示,大公司來到參議院「懇求我們的監(jiān)管」,是很了不起的行為。
Altman提出三點(diǎn)方案:
怎么監(jiān)管?Altman早就替政府想好了。
在聽證會(huì)上,他提出一個(gè)成體系的方案。
1. 成立一個(gè)新的政府機(jī)構(gòu),負(fù)責(zé)為大型 AI 模型頒發(fā)許可,撤銷不符合標(biāo)準(zhǔn)的模型的許可。
而對(duì)于能力遠(yuǎn)達(dá)不到最先進(jìn)的大模型的技術(shù),他認(rèn)為不需要使用這種許可監(jiān)管制度。國會(huì)可以「定義能力閾值」,免除小型公司和研究人員可能遇到的監(jiān)管負(fù)擔(dān),鼓勵(lì)創(chuàng)新。
2. 為 AI 模型創(chuàng)建一套安全標(biāo)準(zhǔn),包括對(duì)其危險(xiǎn)能力的評(píng)估。
例如,模型必須通過安全測試,比如它們是否可以「自我復(fù)制」和「流出到監(jiān)管之外」。
3. 要求獨(dú)立專家對(duì)模型在各種指標(biāo)上的表現(xiàn)進(jìn)行獨(dú)立審計(jì)。
當(dāng)參議員問他是否愿意擔(dān)任這個(gè)角色時(shí),Altman說:我對(duì)目前的工作感到滿意,不過他很愿意提供一個(gè)名單供國會(huì)挑選。
Altman說,因?yàn)锳I模型可以「說服、操縱、影響一個(gè)人的行為、信仰」,甚至「創(chuàng)造新的生物制劑」,因此,非常需要許可。
對(duì)所有超過一定計(jì)算能力閾值的系統(tǒng)進(jìn)行許可會(huì)更簡單,但Altman表示,自己更愿意根據(jù)特定能力劃定監(jiān)管線。
那OpenAI自己的模型安不安全呢?
Altman一再表示,大家可以放心。
他說,GPT-4模型比其他任何類似模型做出的回應(yīng)都會(huì)更有意、更真實(shí),并且一定會(huì)拒絕有害的請求,因?yàn)镚PT-4經(jīng)過了廣泛的預(yù)發(fā)布測試和審計(jì)。
「在發(fā)布任何新系統(tǒng)之前,OpenAI 會(huì)進(jìn)行廣泛的測試,聘請外部專家進(jìn)行詳細(xì)審查和獨(dú)立審計(jì),改進(jìn)模型的行為,并實(shí)施強(qiáng)大的安全和監(jiān)控系統(tǒng)?!?/span>
「在發(fā)布GPT-4之前,我們花了六個(gè)多月的時(shí)間進(jìn)行廣泛的評(píng)估、外部紅隊(duì)和危險(xiǎn)能力測試?!?/span>
并且在上個(gè)月,ChatGPT的用戶已經(jīng)可以關(guān)閉聊天記錄,防止自己的個(gè)人數(shù)據(jù)被用來訓(xùn)練AI模型了。
不過呢,也有眼尖的群眾發(fā)現(xiàn)了「華點(diǎn)」,Altman的提議中,并沒有涉及到公眾熱議的兩點(diǎn)——
1. 要求AI模型為其訓(xùn)練數(shù)據(jù)公開來源。
2. 禁止AI模型使用受到知識(shí)產(chǎn)權(quán)保護(hù)的作品進(jìn)行訓(xùn)練。
嗯,就是說,Altman非常巧妙地回避了這兩個(gè)爭議點(diǎn)。
Altman對(duì)于AI安全規(guī)則的提議,議員們大為贊許,并且偶爾會(huì)對(duì)他的證詞表示感謝。參議員R-LA甚至向Altman拋出了橄欖枝,問他是否有意在國會(huì)創(chuàng)建的監(jiān)管機(jī)構(gòu)工作。
國會(huì)決心監(jiān)管人工智能,早有前兆。本月初,Altman同谷歌、微軟和英偉達(dá)的CEO一同在白宮會(huì)見了副總統(tǒng)Kamala Harris,討論了負(fù)責(zé)任AI的發(fā)展。
而早在去年,白宮就曾提出「人工智能權(quán)利法案」,向業(yè)界提出各種要求,比如防止歧視。
類比原子彈,建議成立類似國際原子能機(jī)構(gòu)的國際組織
參議員提出,把AI比作原子彈的說法。
而Altman參考世界各國政府監(jiān)管核武器的做法,提出了組建一個(gè)類似于國際原子能機(jī)構(gòu)的機(jī)構(gòu),來為該行業(yè)制定全球規(guī)則的想法。
OpenAI在未來六個(gè)月內(nèi)不會(huì)訓(xùn)練GPT-5
在4月份Lex Fridman的第2輪訪談中,Sam Altman言之鑿鑿地說:「我們現(xiàn)在并沒有訓(xùn)練GPT-5,目前只是在GPT-4的基礎(chǔ)上進(jìn)行更多的工作而已?!?/span>
這次聽證會(huì)上,Altman更是直接承認(rèn),OpenAI在未來6個(gè)月內(nèi),沒有訓(xùn)練可能成為GPT-5的新模型的計(jì)劃。
而這應(yīng)該意味著,谷歌將在今年晚些時(shí)候擁有其迄今為止最強(qiáng)大的人工智能系統(tǒng)——Project Gemini。
據(jù)說,Gemini專為存儲(chǔ)和調(diào)度等未來創(chuàng)新而設(shè)計(jì),不僅從一開始就是多模態(tài)的,而且在集成工具和API方面效率很高。目前正由新成立的Google Deepmind團(tuán)隊(duì)研發(fā)。
馬庫斯:OpenAI自稱為了全人類,可數(shù)據(jù)不透明
紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)教授Gary Marcus也出現(xiàn)在了證人席上。
他的打擊性甚至比國會(huì)議員們還要強(qiáng)。
他對(duì)Sam Altman發(fā)出的提問,可謂「招招致命」。
OpenAI成立的宗旨不是造福全人類么,如今為什么跑去和微軟結(jié)盟?
OpenAI不Open,GPT-4的訓(xùn)練數(shù)據(jù)不透明,到底是幾個(gè)意思?
馬庫斯總結(jié)道:我們擁有前所未有的機(jī)會(huì),但我們也面臨著企業(yè)不負(fù)責(zé)任、廣泛部署、缺乏適當(dāng)監(jiān)管和不可靠的可怕風(fēng)險(xiǎn)
在馬庫斯看來,Open和微軟的行事都大有問題。
曾經(jīng)微軟的必應(yīng)AI悉尼,表現(xiàn)出了一系列令人震驚的行為。
「悉尼的問題很大,如果是我,會(huì)馬上把它從市場上撤下,但微軟并沒有?!?/span>
馬庫斯表示,這件事給自己敲響了警鐘——即使是像OpenAI這樣的非盈利組織,也可能被大公司買下,然后想做什么就做什么。
但現(xiàn)在,人們的觀點(diǎn)和生活都在潛移默化地被AI塑造和改變,如果有人故意利用AI技術(shù),用于不良的目的呢?
馬庫斯對(duì)此表示非常擔(dān)心。
「如果讓一種技術(shù)官僚和寡頭政治相結(jié)合,那少數(shù)公司就可以影響人們的信仰,這是真正的風(fēng)險(xiǎn)所在......讓少數(shù)玩家使用我們根本不知道的數(shù)據(jù)來做到這一點(diǎn),這讓我感到害怕」
Altman表示AI界并不存在壟斷
針對(duì)一些常見的法律監(jiān)管方面的問題,看得出來Altman早就成竹在胸,給各位參議員們安排得明明白白的。
參議員說,他對(duì)人工智能的「最大擔(dān)憂」之一是「這種大規(guī)模的企業(yè)壟斷」。
他舉了 OpenAI 與科技巨頭微軟的合作為例。
Altman表示,他認(rèn)為能夠制造大模型的企業(yè)數(shù)量相對(duì)較少,反而可能會(huì)更加方便監(jiān)管。
例如,大型的生成式 AI,只有少數(shù)公司能夠制造,但是競爭一直是存在的。
給大模型建立法律責(zé)任
美國國會(huì) 1996 年通過的第 230 條促進(jìn)了社交媒體的興起,該條款保護(hù)網(wǎng)站免于對(duì)用戶的帖子承擔(dān)責(zé)任。
Altman認(rèn)為:大模型現(xiàn)在沒有辦法受到230條的法律保護(hù)。應(yīng)該制定新的法律保護(hù)大模型不會(huì)因?yàn)檩敵鰞?nèi)容而承擔(dān)法律責(zé)任。
巧妙回避最致命的問題
奧特曼最初回避了參議員提出的「AI可能造成最嚴(yán)重的后果」。
但在馬庫斯友好地提醒 Altman 沒有回答問題后,這位參議員重復(fù)了他的問題。
Altman最終也沒有正面回答這個(gè)問題。
他說,OpenAI 曾試圖非常清楚人工智能的風(fēng)險(xiǎn),這可能會(huì)以「很多不同的方式」對(duì)「世界造成重大傷害」。
他再次闡明。應(yīng)對(duì)這個(gè)問題就是OpenAI成立的原因?!溉绻@項(xiàng)技術(shù)出了問題,它可能會(huì)大錯(cuò)特錯(cuò)。」
其實(shí),在今年早些時(shí)候接受「StrictlyVC」采訪時(shí),Altman稱人類滅絕是最壞的情況。
最終,就連馬庫斯似乎也對(duì)奧特曼軟化了。
在聽證會(huì)快結(jié)束時(shí),坐在Altman旁邊的馬庫斯說,「他在談?wù)摽謶謺r(shí)的誠意非常明顯,這種誠意在透過電視屏幕是沒法感受到的?!?/span>
老練的科技領(lǐng)袖
跟小扎相比,Altman此次聽證會(huì)的表現(xiàn)十分老練,想來他作為社牛,對(duì)與政客們打交道早已游刃有余。畢竟,Altman可是多年前就曾考慮過競選加州州長的人物。
而且對(duì)比去聽證會(huì)前因?yàn)閿?shù)據(jù)隱私和貨幣已經(jīng)「捅了大簍子"的小扎,Altman背后的OpenAI不但幾乎沒有受到任何公眾的指責(zé),還是目前AI領(lǐng)域「萬物竟發(fā)」局面的最主要開創(chuàng)者。
面對(duì)一上來就示好,呼吁對(duì)AI進(jìn)行監(jiān)管的Altman,這些幾乎都是「技術(shù)素人」的立法者自然在這位「權(quán)威」面前會(huì)顯得溫柔和藹很多。
所以同樣場合之下,Altman身上的壓力與小扎相比完全不是一個(gè)數(shù)量級(jí)。
大模型的商業(yè)模式
有參議院提出這種擔(dān)心,如果像互聯(lián)網(wǎng)社交平臺(tái)一樣,AI產(chǎn)品如果采用廣告為主的商業(yè)模式,會(huì)讓操縱性的產(chǎn)品設(shè)計(jì)和令人上癮的算法被濫用。
Altman說自己「非常喜歡」訂閱模式。
但是OpenAI 確實(shí)考慮過在 ChatGPT 免費(fèi)版中投放廣告來從其免費(fèi)用戶那里賺錢的可能性。