OpenAI擬將ChatGPT軍用?與五角大樓合作軍事禁令解除,谷歌前CEO:AI會變成核彈
AI武器化?
自大語言模型誕生以來,人們對其可能帶來的影響的討論就沒停過。不過,更多人還是從普通人的視角出發(fā),從LLM能對人們的日常工作生活帶來哪些變化來思考的問題。
然而從稍微宏觀一點的視角,我們就會發(fā)現(xiàn)LLM以及AI可能對整個社會甚至國家?guī)硪恍└淖儭?/span>
而具體如何,還是得看手握權(quán)力的大佬們決定如何去用,和普通人關(guān)系并不大了。
就在最近,世界上的LLM先驅(qū),ChatGPT的老家,OpenAI悄悄修改了他們有關(guān)AI武器化的政策措辭。
幾字之差?
在討論這個問題之前,我們先來看看OpenAI最近一次有關(guān)這個問題在表態(tài)上的變化是什么樣的。
之前,OpenAI的用詞是:禁止將其大型語言模型用于任何軍事或戰(zhàn)爭相關(guān)的應(yīng)用。
英文原文如下:Ban on using its large language models for any military or warfare-related applications.
現(xiàn)在的說法是:OpenAI products can’t be used to “harm yourself or others,” including through weapons development.
翻譯過來就是,OpenAI的產(chǎn)品不可以用來傷害自己或他人,包括通過武器的研發(fā)造成的傷害。
細心的讀者應(yīng)該已經(jīng)捕捉到了細微區(qū)別,前者把重點放在了對軍用、戰(zhàn)爭使用的禁止,而后者放在了傷害上。
換句話說,只要不造成傷害,那么所謂的軍用就是可以的。
實際上,這項政策上的變化并沒有被大多數(shù)人關(guān)注到,然而從重要性來講,這個變動完全不可忽視。
這意味著,OpenAI的模型開發(fā)人員可以進軍利潤豐厚的國防科技市場,軍方也可以把模型拿過來為己所用。
而這里就可以創(chuàng)意十足了。
軍方能用模型來干什么,不是咱普通人能想全面的。也許可以幫助分析人員解讀一些參數(shù)數(shù)據(jù),編寫一些相關(guān)的軟件代碼什么的。當(dāng)然,我們想不到的用途還會有很多。
要知道,美國國防部在去年8月10日曾經(jīng)成立過一個特別工作組,專門討論的就是生成式人工智能的各種花式用例。以及這項技術(shù)和別的技術(shù)有什么結(jié)合的辦法。
該工作組叫做Task Force Lima,由美國國防部副部長Kathleen Hicks,通過國防部首席數(shù)字與人工智能辦公室成立。
該工作組的宗旨就一句話,「開發(fā)、評估、推薦和監(jiān)控整個國防部的生成式人工智能能力的實施情況,以確保國防部做好采用生成式人工智能技術(shù)的準(zhǔn)備,并針對生成式人工智能技術(shù)提供適當(dāng)?shù)谋Wo?!?/span>
聽起來并不復(fù)雜,但美國一直就在生成式AI的路上沖在了前線。
Lima工作組的指揮官是海軍上尉Manuel Xavier Lugo,他在接受采訪時曾表示,國防部幾十年來一直在研究和開發(fā)AI系統(tǒng)。而生成式AI又和傳統(tǒng)的AI系統(tǒng)有所不同,他們風(fēng)靡和席卷的速度非常之快。
據(jù)悉,截止到去年,Lima工作組就已經(jīng)收到了160多個生成式AI的用例,不可謂效率不高。
不過,作為旁觀者擔(dān)心的還是,即便是按照OpenAI的新說法,「不傷害」,也可能會有不小的風(fēng)險。
首當(dāng)其沖的就是2023年的年度熱詞之一,「幻覺」。
試想一下,如果AI在與戰(zhàn)爭有關(guān)的高風(fēng)險應(yīng)用中產(chǎn)生了「幻覺」,這個后果沒人可以承擔(dān),哪怕并未直接傷害,也一定會造成間接的各類損失。
Project Haven
其實在領(lǐng)導(dǎo)層,一直以來也有大量有關(guān)科技公司該如何和軍方合作的討論。
早在2018年,4000多名谷歌員工就曾簽署了一封抗議信,抗議該公司參與一個名叫Project Maven的項目。
簡單來說,這是一個利用人工智能來處理無人機視頻和圖像并探測潛在目標(biāo)的軍事項目。
當(dāng)時有了解到項目內(nèi)容的員工集體選擇了辭職,并且在采訪中和人提到,「不推薦任何人來谷歌」。
參加請愿的員工在信中寫道,「我們不能將我們技術(shù)的道德責(zé)任外包給第三方?!?/span>
這封請愿書還得到了國際機器人軍備控制委員會(ICRAC)的支持。
而且,人們對這些離職抗議,還有簽署請愿書的員工致以了敬意。
還有不少人在當(dāng)時發(fā)推表示,「謝謝你谷歌。AI武器的危險絕對無法預(yù)料。」
后來,谷歌就禁止了之后再將其AI技術(shù)用于武器制造或是監(jiān)控的應(yīng)用。但是,用于網(wǎng)絡(luò)安全以及搜救相關(guān)的軍事應(yīng)用還是可以的。
也正因如此,谷歌的業(yè)務(wù)才又開始涉足國防科技領(lǐng)域。比如,谷歌曾向美國空軍提供過云計算服務(wù),用于飛機的維護,以及飛行員培訓(xùn)。
谷歌還曾向美國海軍提供過相關(guān)服務(wù),用AI來檢測船只的腐蝕情況。
有了谷歌的前車之鑒,說不定OpenAI能在此兩者之間找到一個中間地帶,求得平衡。既應(yīng)用了最新科技,又能保證不造成任何直接或間接的傷害。
OpenAI本周二曾表示,該公司正在與五角大樓合作開展軟件項目,其中包括與網(wǎng)絡(luò)安全有關(guān)的項目。要知道,這與OpenAI之前禁止向軍方提供人工智能技術(shù)的做法大相徑庭。
該公司負責(zé)全球事務(wù)的副總裁Anna Makanju在世界經(jīng)濟論壇上表示,ChatGPT的創(chuàng)造者也在與美國政府討論開發(fā)減少退伍軍人自殺的工具,但她補充說,該公司將保留不準(zhǔn)許進行開發(fā)武器的禁令。
一直以來,硅谷的科技巨頭們和美國軍方之間的關(guān)系都比較難以捉摸。OpenAI此次的措辭改變,證明了在立場問題上科技巨頭們可能出現(xiàn)了軟化。
上述提到的谷歌員工聯(lián)名反對AI軍用,也許是科技公司反抗政府的巔峰之作。在之后,谷歌和軍方的合作至少給他們掙了5億美元。
AI=核彈?
谷歌前首席執(zhí)行官Eric Schmidt現(xiàn)在是國防工業(yè)的知名人士,他做了一個非常大膽的比喻:他將人工智能的到來比作核武器的出現(xiàn)。
他表示,「我認為AI驅(qū)動的自主性,以及去中心化的分布式系統(tǒng)就是如此強大,足以產(chǎn)生和核武器一樣的作用?!?/span>
當(dāng)然,他也提到了幻覺的問題。
雖說OpenAI的新措辭還是給自己留了不少后路,排除了用AI開發(fā)武器的可能,但是分析數(shù)據(jù)或者寫代碼這種用途也難說會怎么樣。
也許,分析和利用數(shù)據(jù)這件事,在國防層面可能和戰(zhàn)爭相關(guān)的那些東西并沒有那么明確的界限劃分。
畢竟,安全問題無論何時都應(yīng)該是我們心中的第一要務(wù)。