AI戰(zhàn)爭迫近,ChatGPT解除軍用禁令
上周末,人工智能領(lǐng)頭羊企業(yè)OpenAI悄悄從ChatGPT使用政策中刪除了禁止應(yīng)用于軍事用途的條款,這標志著人工智能武器化的潘多拉盒子已經(jīng)打開。
值得注意的是,在OpenAI新政策曝光前不到一個月,美國國防部副部長希克斯在訪問加州期間曾宣稱,美國軍方與硅谷聯(lián)手是“擊敗”中國的關(guān)鍵。
過去多年,硅谷科技巨頭始終與軍方刻意保持距離,例如谷歌為了避免卷入軍火生意選擇出售軍方頗感興趣的機器人公司波士頓動力(Boston Dynamics)。而OpenAI在推出ChatGPT后,在其使用政策中也明確表明禁止用于軍事目的。
但是隨著近年硅谷新冷戰(zhàn)思維和“技術(shù)民族主義”的盛行,一些科技巨頭陸續(xù)放棄與美國政治/軍方保持距離的傳統(tǒng)立場,以此降低政治成本。
打開了AI武器化的潘多拉盒子
1月10日,媒體The Intercept發(fā)現(xiàn)OpenAI在“使用政策”頁面中刪除了包括“禁止用于高度人身傷害風險的活動”以及“軍事和戰(zhàn)爭”的內(nèi)容。
新版“使用政策”雖然保留了“不得使用我們的服務(wù)傷害自己或他人,例如開發(fā)或使用武器”的禁令,但這更像是針對個人行為的限制,而對“軍事和戰(zhàn)爭”的全面禁令已經(jīng)被OpenAI刪除。
OpenAI悄悄修改人工智能“使用政策”的做法引發(fā)了業(yè)界的廣泛猜測,OpenAI發(fā)言人Niko Felix在給The Intercept的電子郵件中含混地表示:“我們的目標是創(chuàng)建一套易于記憶和應(yīng)用的通用原則?!钡?,F(xiàn)elix拒絕透露模糊的“傷害”禁令是否涵蓋所有軍事用途。
事實上,決定一場戰(zhàn)爭走勢的,并非武器開發(fā)或使用,而是戰(zhàn)場情報處理能力。而這,正是OpenAI避而不談的人工智能最具毀滅性的軍事應(yīng)用。
網(wǎng)絡(luò)安全公司Trail of Bits的工程總監(jiān)、機器學習和自主系統(tǒng)安全專家Heidy Khlaaf指出:“OpenAI非常清楚在軍事應(yīng)用中使用ChatGPT技術(shù)和服務(wù)可能產(chǎn)生的風險和危害?!盞hlaaf在2022年與OpenAI的研發(fā)人員合著的一篇論文特別強調(diào)了AI技術(shù)在軍事領(lǐng)域的風險。
Khlaaf補充說,OpenAI的新政策更強調(diào)合法性而不是安全性:“新舊政策之間存在明顯區(qū)別,舊政策明確規(guī)定禁止武器開發(fā)、軍事和戰(zhàn)爭應(yīng)用,而新政策則強調(diào)靈活性和遵守法律?!薄靶抡邔θ斯ぶ悄馨踩臐撛谟绊懯蔷薮蟮模驗殚_發(fā)武器以及開展軍事和戰(zhàn)爭活動在不同程度上來說都是合法的。鑒于大語言模型(LLM)存在眾所周知的偏見和幻覺,并且總體上缺乏準確性,在軍事戰(zhàn)爭中的使用會導(dǎo)致不精確和有偏見的行動,可能會加劇傷害和平民傷亡。”
顯然,OpenAI新政策已經(jīng)“半推半就”地打開了大語言模型武器化的潘多拉盒子。去年,The Intercept曾報道五角大樓和美國情報界對ChatGPT的興趣日益濃厚,但當時OpenAI不愿透露是否會執(zhí)行明確的“軍事和戰(zhàn)爭”禁令。
AI Now董事總經(jīng)理,前美聯(lián)儲AI政策分析師莎拉·邁爾斯·韋斯特(Sarah Myers West)表示:“鑒于人工智能系統(tǒng)已經(jīng)在加沙沖突中被用于針對平民,OpenAI選擇在此時從使用政策中刪除‘軍事和戰(zhàn)爭’顯得尤為耐人尋味和影響重大。新政策的措辭含糊不清,引發(fā)了業(yè)界對OpenAI是否打算執(zhí)行軍事禁令的廣泛質(zhì)疑?!?/p>
不用直接殺人也能左右戰(zhàn)局
雖然目前OpenAI的人工智能產(chǎn)品還無法用于直接殺人,例如ChatGPT還無法操縱無人機或發(fā)射導(dǎo)彈。但是像ChatGPT這樣的大語言模型可以極大增強軍事殺戮機器的威力,例如快速編寫代碼、處理情報、增強指揮控制系統(tǒng)和生成軍事采購訂單。對OpenAI提供的ChatGPT定制機器人的審查報告表明,美國軍事人員已經(jīng)開始使用這項技術(shù)提高文書工作的效率。
此外,為美軍作戰(zhàn)提供地理空間情報的美國國家地理空間情報局(NGA)已公開討論使用ChatGPT來協(xié)助人類分析師的可能性。美軍各作戰(zhàn)單元高度依賴NGA的地理情報和數(shù)據(jù)執(zhí)行諸如尋找直升機著陸區(qū)、戰(zhàn)場監(jiān)視、目標定位、損害評估等任務(wù),而ChatGPT顯然可以大大加快軍事作戰(zhàn)單元獲取地理情報的速度。因此,即便OpenAI的工具被軍隊部署用于非直接暴力目的,仍然會大大提升軍隊的戰(zhàn)斗力和殺傷力。
蘭卡斯特大學科學技術(shù)人類學博士和名譽教授Lucy Suchman認為:“從‘軍事和戰(zhàn)爭’到‘武器’的概念切換為OpenAI打開了參與戰(zhàn)爭基礎(chǔ)設(shè)施的空間,只要不直接參與狹義的武器開發(fā),其余(例如指揮控制系統(tǒng))都是AI大展拳腳的領(lǐng)域”。Suchman是20世紀70年代以來的知名人工智能學者,也是國際機器人武器控制委員會成員,他補充道:“新政策片面強調(diào)武器,刻意回避了軍事承包和作戰(zhàn)行動問題,一切不言自明?!?/p>
Suchman和MyersWest還特別提及了OpenAI的投資者和合作者微軟公司是美國主要國防承包商之一。微軟迄今為止已向OpenAI投資了130億美元,并轉(zhuǎn)售該公司的軟件工具。
Intercept指出,OpenAI為AI武器化“開后門”的做法并不令人意外,因為全球各國的軍隊都渴望采用機器學習技術(shù)來獲得優(yōu)勢。五角大樓也在試探性地探索如何使用ChatGPT或其他大型語言模型,這些模型可接受大量書籍資料、手冊、文章和其他網(wǎng)絡(luò)數(shù)據(jù)的培訓(xùn),以便模擬人類對用戶提示的反應(yīng)。盡管像ChatGPT這樣的大語言模型的輸出結(jié)果通常非常令人信服,但它們是針對連貫性而不是對現(xiàn)實的準確把握而優(yōu)化的,因此經(jīng)常出現(xiàn)所謂的機器幻覺,導(dǎo)致準確性和真實性出現(xiàn)問題。
盡管如此,大語言模型快速攝取文本并快速輸出分析(或至少是分析的模擬)的能力非常適合數(shù)據(jù)密集型的國防部。
大語言模型的十大軍事用例
盡管美國軍方一些高級官員表達了對機器幻覺和錯誤的憂慮,以及使用ChatGPT分析機密或其他敏感數(shù)據(jù)可能帶來的安全風險,五角大樓仍然渴望大范圍采用人工智能工具。美國防部副部長凱瑟琳·??怂?Kathleen Hicks)在去年11月的講話中表示,開啟人工智能是“我和勞埃德·奧斯汀部長從第一天起就一直在推動的以作戰(zhàn)人員為中心的全面創(chuàng)新方法的關(guān)鍵任務(wù)”。
去年,五角大樓可信人工智能和自主事務(wù)首席主任金伯利·薩布隆(Kimberly Sablon)在夏威夷舉行的一次會議上也表示:“(ChatGPT)等大語言模型將為整個軍事領(lǐng)域帶來大量顛覆性的功能?!?/p>
美國軍方覬覦的大語言模型十大軍事用例如下:
- 情報分析與處理:LLMs能夠快速處理和分析大量文本數(shù)據(jù),如情報報告、通訊攔截和公開源信息,以提取關(guān)鍵信息和模式。自動生成軍事行動報告、情況簡報和其他官方文檔。
- 模擬、戰(zhàn)術(shù)規(guī)劃和演習:利用大語言模型進行戰(zhàn)術(shù)和戰(zhàn)略模擬,可以幫助軍事規(guī)劃者評估不同沖突情景的可能結(jié)果,并優(yōu)化戰(zhàn)術(shù)部署。
- 輿情分析與心理戰(zhàn):分析社交媒體和網(wǎng)絡(luò)上的公眾輿情,用于心理戰(zhàn)和宣傳戰(zhàn)略。在心理戰(zhàn)和信息操作領(lǐng)域,大語言模型可以用于創(chuàng)建針對性的宣傳材料,分析敵方的公共信息以判斷其意圖。
- 語言翻譯與交流:LLMs可以實時翻譯和解碼多種語言,包括少數(shù)民族和區(qū)域性語言,這在軍事情報收集和國際部隊協(xié)作中非常重要。
- 訓(xùn)練和培訓(xùn):大語言模型可以用于創(chuàng)建和管理在線軍事教育和培訓(xùn)課程,提供定制化學習體驗和自動評估。
- 威脅識別:利用先進的數(shù)據(jù)分析能力快速識別威脅并進行優(yōu)先級分類。
- 預(yù)測分析:通過分析歷史數(shù)據(jù)和當前情報,預(yù)測敵方行動或地緣政治事件。
- 無人系統(tǒng)指令與控制:用于指揮和控制無人機、無人地面車輛等無人系統(tǒng)。
- 戰(zhàn)術(shù)優(yōu)化與路徑規(guī)劃:利用模型分析戰(zhàn)場地形和敵方部署,為部隊行動提供最佳路徑和戰(zhàn)術(shù)建議。
- 衛(wèi)星圖像與空間數(shù)據(jù)分析:分析來自衛(wèi)星的圖像和空間數(shù)據(jù),以支持偵察和監(jiān)視任務(wù)。