自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OpenAI擬將ChatGPT軍用?與五角大樓合作軍事禁令解除,谷歌前CEO:AI會變成核彈

人工智能 新聞
AI有像核彈一樣的威力嗎?OpenAI近日更改了自身和軍方合作的政策,AI武器化要來了?

AI武器化?

自大語言模型誕生以來,人們對其可能帶來的影響的討論就沒停過。不過,更多人還是從普通人的視角出發(fā),從LLM能對人們的日常工作生活帶來哪些變化來思考的問題。

然而從稍微宏觀一點的視角,我們就會發(fā)現(xiàn)LLM以及AI可能對整個社會甚至國家?guī)硪恍└淖儭?/span>

而具體如何,還是得看手握權(quán)力的大佬們決定如何去用,和普通人關(guān)系并不大了。

就在最近,世界上的LLM先驅(qū),ChatGPT的老家,OpenAI悄悄修改了他們有關(guān)AI武器化的政策措辭。

幾字之差?

在討論這個問題之前,我們先來看看OpenAI最近一次有關(guān)這個問題在表態(tài)上的變化是什么樣的。

之前,OpenAI的用詞是:禁止將其大型語言模型用于任何軍事或戰(zhàn)爭相關(guān)的應(yīng)用。

英文原文如下:Ban on using its large language models for any military or warfare-related applications.

現(xiàn)在的說法是:OpenAI products can’t be used to “harm yourself or others,” including through weapons development.

翻譯過來就是,OpenAI的產(chǎn)品不可以用來傷害自己或他人,包括通過武器的研發(fā)造成的傷害。

細心的讀者應(yīng)該已經(jīng)捕捉到了細微區(qū)別,前者把重點放在了對軍用、戰(zhàn)爭使用的禁止,而后者放在了傷害上。

換句話說,只要不造成傷害,那么所謂的軍用就是可以的。

實際上,這項政策上的變化并沒有被大多數(shù)人關(guān)注到,然而從重要性來講,這個變動完全不可忽視。

這意味著,OpenAI的模型開發(fā)人員可以進軍利潤豐厚的國防科技市場,軍方也可以把模型拿過來為己所用。

而這里就可以創(chuàng)意十足了。

軍方能用模型來干什么,不是咱普通人能想全面的。也許可以幫助分析人員解讀一些參數(shù)數(shù)據(jù),編寫一些相關(guān)的軟件代碼什么的。當(dāng)然,我們想不到的用途還會有很多。

要知道,美國國防部在去年8月10日曾經(jīng)成立過一個特別工作組,專門討論的就是生成式人工智能的各種花式用例。以及這項技術(shù)和別的技術(shù)有什么結(jié)合的辦法。

該工作組叫做Task Force Lima,由美國國防部副部長Kathleen Hicks,通過國防部首席數(shù)字與人工智能辦公室成立。

該工作組的宗旨就一句話,「開發(fā)、評估、推薦和監(jiān)控整個國防部的生成式人工智能能力的實施情況,以確保國防部做好采用生成式人工智能技術(shù)的準(zhǔn)備,并針對生成式人工智能技術(shù)提供適當(dāng)?shù)谋Wo?!?/span>

聽起來并不復(fù)雜,但美國一直就在生成式AI的路上沖在了前線。

Lima工作組的指揮官是海軍上尉Manuel Xavier Lugo,他在接受采訪時曾表示,國防部幾十年來一直在研究和開發(fā)AI系統(tǒng)。而生成式AI又和傳統(tǒng)的AI系統(tǒng)有所不同,他們風(fēng)靡和席卷的速度非常之快。

據(jù)悉,截止到去年,Lima工作組就已經(jīng)收到了160多個生成式AI的用例,不可謂效率不高。

不過,作為旁觀者擔(dān)心的還是,即便是按照OpenAI的新說法,「不傷害」,也可能會有不小的風(fēng)險。

首當(dāng)其沖的就是2023年的年度熱詞之一,「幻覺」。

試想一下,如果AI在與戰(zhàn)爭有關(guān)的高風(fēng)險應(yīng)用中產(chǎn)生了「幻覺」,這個后果沒人可以承擔(dān),哪怕并未直接傷害,也一定會造成間接的各類損失。

Project Haven

其實在領(lǐng)導(dǎo)層,一直以來也有大量有關(guān)科技公司該如何和軍方合作的討論。

早在2018年,4000多名谷歌員工就曾簽署了一封抗議信,抗議該公司參與一個名叫Project Maven的項目。

簡單來說,這是一個利用人工智能來處理無人機視頻和圖像并探測潛在目標(biāo)的軍事項目。

當(dāng)時有了解到項目內(nèi)容的員工集體選擇了辭職,并且在采訪中和人提到,「不推薦任何人來谷歌」。

參加請愿的員工在信中寫道,「我們不能將我們技術(shù)的道德責(zé)任外包給第三方?!?/span>

這封請愿書還得到了國際機器人軍備控制委員會(ICRAC)的支持。

而且,人們對這些離職抗議,還有簽署請愿書的員工致以了敬意。

還有不少人在當(dāng)時發(fā)推表示,「謝謝你谷歌。AI武器的危險絕對無法預(yù)料。」

后來,谷歌就禁止了之后再將其AI技術(shù)用于武器制造或是監(jiān)控的應(yīng)用。但是,用于網(wǎng)絡(luò)安全以及搜救相關(guān)的軍事應(yīng)用還是可以的。

也正因如此,谷歌的業(yè)務(wù)才又開始涉足國防科技領(lǐng)域。比如,谷歌曾向美國空軍提供過云計算服務(wù),用于飛機的維護,以及飛行員培訓(xùn)。

谷歌還曾向美國海軍提供過相關(guān)服務(wù),用AI來檢測船只的腐蝕情況。

有了谷歌的前車之鑒,說不定OpenAI能在此兩者之間找到一個中間地帶,求得平衡。既應(yīng)用了最新科技,又能保證不造成任何直接或間接的傷害。

OpenAI本周二曾表示,該公司正在與五角大樓合作開展軟件項目,其中包括與網(wǎng)絡(luò)安全有關(guān)的項目。要知道,這與OpenAI之前禁止向軍方提供人工智能技術(shù)的做法大相徑庭。

該公司負責(zé)全球事務(wù)的副總裁Anna Makanju在世界經(jīng)濟論壇上表示,ChatGPT的創(chuàng)造者也在與美國政府討論開發(fā)減少退伍軍人自殺的工具,但她補充說,該公司將保留不準(zhǔn)許進行開發(fā)武器的禁令。

一直以來,硅谷的科技巨頭們和美國軍方之間的關(guān)系都比較難以捉摸。OpenAI此次的措辭改變,證明了在立場問題上科技巨頭們可能出現(xiàn)了軟化。

上述提到的谷歌員工聯(lián)名反對AI軍用,也許是科技公司反抗政府的巔峰之作。在之后,谷歌和軍方的合作至少給他們掙了5億美元。

AI=核彈?

谷歌前首席執(zhí)行官Eric Schmidt現(xiàn)在是國防工業(yè)的知名人士,他做了一個非常大膽的比喻:他將人工智能的到來比作核武器的出現(xiàn)。

圖片

他表示,「我認為AI驅(qū)動的自主性,以及去中心化的分布式系統(tǒng)就是如此強大,足以產(chǎn)生和核武器一樣的作用?!?/span>

當(dāng)然,他也提到了幻覺的問題。

雖說OpenAI的新措辭還是給自己留了不少后路,排除了用AI開發(fā)武器的可能,但是分析數(shù)據(jù)或者寫代碼這種用途也難說會怎么樣。

也許,分析和利用數(shù)據(jù)這件事,在國防層面可能和戰(zhàn)爭相關(guān)的那些東西并沒有那么明確的界限劃分。

畢竟,安全問題無論何時都應(yīng)該是我們心中的第一要務(wù)。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-01-15 17:21:20

人工智能OpenAI

2015-09-15 13:38:31

2010-01-28 09:44:44

2013-04-22 09:47:01

2023-05-23 18:04:09

2015-07-22 10:59:15

2021-11-15 12:14:49

零信任網(wǎng)絡(luò)安全網(wǎng)絡(luò)攻擊

2009-08-06 15:24:12

2009-08-20 09:52:45

2011-02-18 16:15:42

2009-01-25 11:43:33

2022-07-01 13:31:09

五角大樓區(qū)塊鏈云中心化

2021-09-17 16:05:19

首席信息官IT技術(shù)

2015-08-04 09:50:10

2012-05-04 15:56:40

2009-04-22 09:36:22

2011-07-05 16:09:05

2014-05-27 15:06:59

2022-12-09 17:23:48

五角大樓云計算微軟

2015-08-07 17:40:14

點贊
收藏

51CTO技術(shù)棧公眾號