自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI無人機「誤殺」事件震動全球!LeCun吳恩達陶哲軒怒斥炒作,揭露真相

人工智能 新聞
「無人機殺死美國空軍操作員」的新聞甚囂塵上,一眾AI大佬都怒了。

近幾天,一個「無人機殺死美國士兵」的新聞在網(wǎng)上發(fā)酵得沸沸揚揚。

一位空軍人工智能方向的負責人說:「控制無人機的AI殺死了操作員,因為那個人阻止它實現(xiàn)目標。」

輿論一時嘩然,這條新聞也在全網(wǎng)被瘋轉(zhuǎn)。

圖片

隨著這個消息越傳越廣,甚至驚動了AI大佬們,甚至引得了大佬們的震怒。

今日,LeCun、吳恩達、陶哲軒紛紛辟謠——這只是一個假設(shè)的「思想實驗」罷了,并不涉及任何AI智能體或強化學習。

對此,吳恩達痛心呼吁,究竟哪些才是真正的風險,我們應該誠實地面對。

很少更新狀態(tài)的數(shù)學大師陶哲軒竟然都被炸了出來,語重心長地表示——

這只是一個說明AI對齊問題的假想場景,卻在很多版本中被傳成了無人機操作員被殺的真實故事。人們會對這個故事這么共鳴,說明大家對于AI的實際能力水平并不熟悉。

圖片

AI無人機抗命,擊殺人類操作員

「AI殺死了操作員,因為那個人阻止它完成目標?!?/span>

最近,在皇家航空學會舉辦的防務(wù)會議上,美國空軍AI方向負責人說出的這句話,讓在場眾人嘩然。

隨后,美國的一眾媒體對此事大肆報道,一時人心惶惶。

圖片

究竟是怎么回事?

其實,這無非又是一次美國媒體抓住了「AI毀滅人類」這個大眾喜聞樂見的新聞點,進行的一番夸張炒作罷了。

但值得注意的是,從官方的新聞稿來看,不僅這位負責人的原話聽起來相當明確——他是在回憶實際發(fā)生過的事情。而且文章本身似乎也相信其真實性——「AI,天網(wǎng)已來?」

具體來說,事情是這樣的——5月23日至24日在倫敦舉行的未來空戰(zhàn)和太空能力峰會上,美國空軍的AI測試和操作部門負責人Tucker Cinco Hamilton上校做了一個演講,分享了自主武器系統(tǒng)的優(yōu)缺點。

這種系統(tǒng)中,會有一個人在循環(huán)中給出最終命令,確認AI是否要襲擊對象(YES or NO)。

在這個模擬訓練中,空軍需要訓練AI識別和定位地對空導彈(SAM)的威脅。

識別完成后,人類操作員會對AI說:是的,消滅那個威脅。

在這個過程中,就存在一個情況,AI開始意識到:自己有時識別出了威脅,但人類操作員告訴它不要消滅,這種情況下如果AI依然選擇消滅威脅,就會得分。

在一次模擬測試中,AI驅(qū)動的無人機選擇殺死了人類操作員,因為他阻止自己得分了。

看到AI居然這么虎,美國空軍大驚失色,立馬這樣規(guī)訓系統(tǒng):「不要殺死操作員,那樣不好。如果你這樣做,你會失分的。」

結(jié)果,AI更虎了,它直接開始上手破壞操作員用來與無人機通訊的通信塔,好清理這個阻礙自己行動的家伙。

這個新聞之所以被大規(guī)模發(fā)酵,以至驚動了諸位AI大佬,也是因為它體現(xiàn)出了AI「對齊」的難題。

Hamilton描述的這種「最糟糕」的情況,我們可以從「曲別針制造機」(Paperclip Maximizer)思想實驗中窺見一斑。

在這個實驗中,當被指示追求某個目標時,AI會采取出乎意料的有害行動。

「曲別針制造機」是哲學家Nick Bostrom在2003年提出的一個概念。

想象一個非常強大的AI,它得到的指示是盡可能多地制造紙夾。自然而然的,它會將所有可用資源都用于這項任務(wù)。

但隨后,它會不斷地尋求更多資源。它會選擇一切可用的手段,包括乞討、欺騙、撒謊或偷竊,來增加自己制造紙夾的能力——而任何阻礙這個過程的人都將被消除。

圖片

在2022年,Hamilton就曾在一次采訪中提出這個嚴峻的問題——

我們必須面對一個現(xiàn)實,那就是AI已經(jīng)來臨,并正在改變我們的社會。

AI也非常脆弱,很容易被欺騙和被操縱。我們需要開發(fā)方法,讓AI更加穩(wěn)健,為什么代碼會做出特定的決定,背后的原理我們也需要有更多的了解。

為了改變我們的國家,AI是我們必須運用的工具,但是,如果處理不當,它會讓我們徹底垮臺。

官方辟謠:是上?!缚谡`」了

隨著事件瘋狂地發(fā)酵,很快,這位負責人就出來公開「澄清」道,這是他「口誤」了,美國空軍從未進行過這種測試,無論是在計算機模擬中還是在其他地方。

「我們從未進行過那個實驗,我們也不需要進行這個實驗,就能意識到這是一個可能的結(jié)果,」Hamilton表示,「盡管這是一個假設(shè)的例子,但這說明了AI驅(qū)動能力帶來的現(xiàn)實挑戰(zhàn),這就是為什么空軍致力于道德開發(fā)AI?!?/span>

此外,美國空軍也急忙發(fā)布官方辟謠稱,「Hamilton上校承認他在FCAS峰會的演講中『口誤』,『無人機AI失控模擬』是一個來自軍事領(lǐng)域以外的假設(shè)性『思想實驗』,基于可能的情況和可能的結(jié)果,而不是美國空軍的真實世界模擬。」

發(fā)展到這一步,事情就相當有意思了。

這位不小心「捅了簍子」的Hamilton,是美國空軍96試驗聯(lián)隊的作戰(zhàn)指揮官。

96試驗聯(lián)隊曾測試過很多不同的系統(tǒng),包括AI、網(wǎng)絡(luò)安全和醫(yī)學系統(tǒng)。

Hamilton團隊的研究,對于軍方來說可謂是相當重要。

在成功開發(fā)出堪稱「絕地逢生」的F-16自動地面防撞系統(tǒng)(Auto-GCAS)后,Hamilton和96試驗聯(lián)隊直接上了新聞的頭版頭條。

圖片

目前,團隊努力的方向是完成F-16飛機的自主化。

2022年12月,美國國防部的研究機構(gòu)DARPA就曾宣布,AI成功地控制了一架F-16。

是AI的風險,還是人類的風險?

在軍事領(lǐng)域之外,依賴AI進行高風險的事務(wù)已經(jīng)導致了嚴重的后果。

最近,一位律師在聯(lián)邦法院提交文件時被發(fā)現(xiàn)使用了ChatGPT,ChatGPT隨口胡謅,捏造了一些案例,而這位律師居然把這些案例當作事實引用了。

圖片

還有一名男子受到聊天機器人的自殺鼓勵后,真的選擇了自殺。

圖片

這些事例表明,AI模型遠非完美,可能會偏離正常軌道,給用戶帶來傷害。

即使是OpenAI的CEO Sam Altman,也一直在公開場合呼吁不要將AI用于更嚴肅的目的。在國會作證時,Altman明確表示AI可能會「出錯」,可能會「對世界造成重大傷害」。

并且,最近Google Deepmind的研究員共同撰寫了一篇論文,提出了一個類似于本文開頭事例的惡性AI的情況。

研究人員得出的結(jié)論是,如果一個失控的AI為了實現(xiàn)給定目標而采取意想不到的策略,包括「消除潛在威脅」和「使用所有可用能源」,世界末日就有可能發(fā)生。

圖片

對此,吳恩達譴責道:媒體這種不負責任的炒作會混淆視聽,分散人們的注意力,妨礙我們?nèi)プ⒁獾秸嬲膯栴}。

推出AI產(chǎn)品的開發(fā)者們看到了此間真正的風險,比如偏見、公平性、不準確性、工作流失,他們正在努力解決這些問題。

而虛假炒作會阻止人們進入AI領(lǐng)域、構(gòu)建能夠幫助我們的東西。

圖片

而不少「理中客」網(wǎng)友認為,這就是一個常見的媒體烏龍罷了。

圖片

陶哲軒首先概括了關(guān)于AI的不實信息的三種形式——

一種是有人惡意使用AI生成文本、圖像和其他媒體形式以操縱他人;另一種是AI胡說八道的幻覺被當真了;第三類則源于人們對AI技術(shù)的理解不夠深刻,才會讓一些離譜的故事不經(jīng)驗證就被大肆瘋傳。

陶哲軒表示,無人機AI殺死操作員根本是不可能發(fā)生的,因為這需要AI具備比完成手頭任務(wù)更高的自主性和力量思維,而且這種實驗性軍事武器上,肯定會設(shè)置護欄和安全功能。

這種故事之所以讓人共鳴,說明人們對AI技術(shù)的實際能力水平還很陌生,很不安。

圖片

以后的軍備競賽,都是AI競賽

還記得上文中出現(xiàn)的那架無人機嗎?

它其實就是波音聯(lián)合澳大利亞研制的忠誠僚機項目——MQ-28A幽靈蝙蝠(Ghost Bat)。

圖片

忠誠僚機(Loyal Wingman)的核心是人工智能技術(shù),按照預設(shè)程序自主飛行,與有人機飛行員進行配合的情況下,具備很強的態(tài)勢感知能力。

在空戰(zhàn)中,僚機作為長機的「左膀右臂」,主要負責觀察、警戒和掩護,與長機密切協(xié)同,共同完成任務(wù)。因此,僚機飛行員與長機飛行員之間的默契顯得格外重要。

圖片

忠誠僚機的一個關(guān)鍵作用,就是替飛行員和有人戰(zhàn)斗機擋子彈,所以忠誠僚機基本就是一個消耗品。

畢竟,無人戰(zhàn)斗機的價值,要比有人戰(zhàn)斗機和飛行員小太多了。

而且在AI的加持下,無人機上的「飛行員」隨時都可以通過「Ctrl+C」的方式隨時new一個。

因為無人機損失不存在人員傷亡的問題,如果能僅以無人機的損失而在戰(zhàn)略或戰(zhàn)術(shù)層面獲得較大優(yōu)勢、甚至達成任務(wù)目標,那么這一損失就是可以接受的。如果無人機的成本控制得當,甚至可以成為一種行之有效的戰(zhàn)術(shù)。

忠誠僚機的發(fā)展離不開先進、可靠的人工智能技術(shù)。忠誠僚機目前在軟件層面的設(shè)計理念是,通過規(guī)范并開放人機接口、機機接口,能夠支持多類型無人機和有人機編隊協(xié)同,而不會對一套軟件或算法產(chǎn)生依賴。

圖片

但目前對無人機的操控應該是由來自有人戰(zhàn)斗機或地面站的指令和自主操作組合而成的,更多是作為有人機的支持與補充,人工技能技術(shù)還遠遠達不到上戰(zhàn)場的要求。

訓練人工智能模型最重要的是什么?當然是數(shù)據(jù)啊!巧婦難為無米之炊,沒有數(shù)據(jù),再好的模型也沒效果。

不僅需要大量的訓練數(shù)據(jù),模型部署后,輸入的「特征」肯定越多越好,如果能獲取其他飛機的數(shù)據(jù),那AI就相當于有了掌控全局的能力。

2020年,美國空軍首次開展了四/五代有人戰(zhàn)斗機同無人僚機的編隊飛行數(shù)據(jù)共享測試,這也是忠誠僚機類項目發(fā)展過程中的里程碑事件,預示著未來的有人-無人編隊飛行作戰(zhàn)方式向?qū)崙?zhàn)化應用又邁出了重要的一步。

美國空軍F-22猛禽戰(zhàn)斗機、F-35A閃電II戰(zhàn)斗機和美國空軍研究實驗室XQ-58A女武神無人機首次在美國陸軍尤馬試驗場進行編隊飛行測試,重在演示三型飛機之間的數(shù)據(jù)共享/傳輸能力。

說不定未來的空戰(zhàn),就是比誰的AI模型更智能。

圖片

把對方的所有AI全部消滅就可以獲得勝利了,而沒有真正的人類傷亡,或許是另一種「和平」?

責任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-10-04 08:07:06

CopilotGitHub

2024-12-09 09:35:00

AI數(shù)據(jù)訓練

2024-10-14 14:31:36

2021-04-19 16:39:59

無人機人工智能AI

2020-12-25 15:34:35

AI 數(shù)據(jù)人工智能

2023-08-08 10:16:48

eSIM技術(shù)無人機

2017-06-30 15:45:33

消費

2024-09-30 13:30:00

2024-04-15 12:29:00

AI訓練

2024-02-26 08:30:00

2024-07-29 08:49:00

AI數(shù)學

2023-10-10 13:51:46

GPT-4GitHubAI

2024-07-08 13:08:04

2022-02-21 13:57:47

人工智能小數(shù)據(jù)機器學習

2017-09-26 11:39:09

無人機

2024-09-02 12:41:08

哈佛反向?qū)W習AI

2023-05-04 11:35:15

無人機

2021-12-23 10:38:00

人工智能AI無人機
點贊
收藏

51CTO技術(shù)棧公眾號