未來戰(zhàn)爭(zhēng)里,AI才是最危險(xiǎn)的武器?
AI武器,只是隨著歷史的潮流,發(fā)展到如今的危險(xiǎn)一步。
AI會(huì)殺人嗎?
答案是肯定的。
本月,俄羅斯媒體衛(wèi)星通訊社揭露了第一例記錄在案的AI無人機(jī)殺人案例。
在利比亞首都郊外,一只國(guó)民軍武裝小隊(duì)正按照計(jì)劃撤退。
突然,一架無人機(jī)出現(xiàn)在小隊(duì)上空,在一陣機(jī)槍掃射過后,一名武裝人員倒在血泊中。
事后,聯(lián)合國(guó)安理會(huì)利比亞問題專家小組調(diào)查發(fā)現(xiàn),這臺(tái)由土耳其STM公司生產(chǎn)的“卡古-2”(kargu)型無人攻擊機(jī)并沒有后臺(tái)人員去操控,完全是憑著預(yù)先編程好的程序進(jìn)行跟蹤并攻擊。
也就是說,當(dāng)時(shí)這架“卡古-2”無人機(jī)是在沒有人為命令的情況下擅自作主將人殺死。
AI成戰(zhàn)場(chǎng)新寵
這一類與“卡古-2“無人機(jī)相似、具備自主攻擊能力的軍用設(shè)備都屬于致命性自主武器系統(tǒng)(LAWS),俗稱“殺人機(jī)器人”。
它們可以在自動(dòng)模式下完成許多操作:按照設(shè)定的參數(shù)發(fā)現(xiàn)和識(shí)別目標(biāo)、跟蹤目標(biāo)、武器引導(dǎo),在完成軍事任務(wù)的同時(shí),減少己方人員和平民的傷亡。
作為新型作戰(zhàn)力量的代表,致命性自主武器正受到越來越多國(guó)家的重視。
早在上世紀(jì)80年代,美國(guó)軍方就成立了人工智能中心,專門從事人工智能軍事應(yīng)用方面的研究,希望在未來用機(jī)器人士兵代替?zhèn)鹘y(tǒng)士兵。
截至目前,美國(guó)、法國(guó)、俄羅斯、日本、英國(guó)、土耳其、伊朗、韓國(guó)等國(guó)紛紛加大了對(duì)致命性自主武器系統(tǒng)的研發(fā)和采購(gòu)力度,已經(jīng)公開的自治武器和軍事機(jī)器人系統(tǒng)就多達(dá)近400種。
相比于人類士兵,機(jī)器人士兵的優(yōu)點(diǎn)很明顯:
- 隨著AI能力的提升,自主武器可以替代人類士兵執(zhí)行高難度和高風(fēng)險(xiǎn)任務(wù),最大限度地避免己方人員傷亡;
- 提高目標(biāo)判斷的準(zhǔn)確性和打擊精度,減少平民傷亡和其他附帶損傷;
- 通過自主識(shí)別和智能分析等技術(shù),可以避免由于控制者精神不集中、目標(biāo)誤判等人為失誤引起的誤傷。
在今年五月初的巴以沖突里,AI技術(shù)已經(jīng)在信息戰(zhàn)方面嶄露頭角。
據(jù)報(bào)道,以色列國(guó)防軍利用煉金術(shù)士(Alchemist)、福音(Gospel)以及深智(Depth of Wisdom)三大AI系統(tǒng),共計(jì)殺死了150多名哈馬斯特工,其中包括高級(jí)指揮官和導(dǎo)彈等軍事項(xiàng)目研發(fā)人員,并且大大降低了平民的誤傷率。
對(duì)于這一次戰(zhàn)斗,以色列定義為“世界上第一場(chǎng)人工智能參與的戰(zhàn)爭(zhēng)”。
圖 | 以色列防空系統(tǒng)
我們看到,以色列依靠著強(qiáng)大的AI實(shí)力牢牢占據(jù)著信息層面的主導(dǎo)方面,而哈馬斯只能任由以色列情報(bào)部門收集數(shù)據(jù)。
一名以色列國(guó)防軍(IDF)情報(bào)部門的高級(jí)官員對(duì)媒體表示:“這是AI第一次成為與敵人作戰(zhàn)的關(guān)鍵組成部分和戰(zhàn)力放大器,對(duì)于以色列軍方來說,這是史無前例的。”
馬斯克帶頭反對(duì)
凡是硬幣都有兩面,AI軍用化也不例外。
當(dāng)致命性自主武器智能化水平發(fā)展到一定程度,也會(huì)帶來相應(yīng)的風(fēng)險(xiǎn)。
對(duì)于AI的軍事運(yùn)用,美國(guó)新安全中心技術(shù)與國(guó)家安全項(xiàng)目某研究員曾認(rèn)為,AI可能會(huì)像核武器、計(jì)算機(jī)或飛機(jī)的發(fā)明一樣對(duì)軍事產(chǎn)生重大影響。
多年前,美國(guó)新安全中心在一份長(zhǎng)達(dá)132頁(yè)的報(bào)告里就談到AI軍用化的幾點(diǎn)危害,例如:隨著無人機(jī)成本下降,軍隊(duì)會(huì)制造出大量小型、廉價(jià)的軍用AI機(jī)器人;數(shù)百萬小型人工智能無人機(jī)的擴(kuò)散,將會(huì)威脅美國(guó)的國(guó)家安全。該報(bào)告還假設(shè)了一個(gè)場(chǎng)景,一個(gè)航空母艦戰(zhàn)斗群將如何應(yīng)對(duì)來自數(shù)百萬架神風(fēng)式自殺無人機(jī)的攻擊?
這個(gè)報(bào)告并非危言聳聽,這類武器極易被恐怖武裝或極端分子獲得,或被處于戰(zhàn)爭(zhēng)中的國(guó)家大規(guī)模裝備使用,從而引發(fā)新的沖突和軍備競(jìng)爭(zhēng)。
傳言包括極端組織“伊斯蘭國(guó)”在內(nèi)的多個(gè)武裝組織已經(jīng)裝備無人機(jī)。敘利亞恐怖分子也曾多次使用無人機(jī)襲擊敘利亞政府軍和俄羅斯駐敘軍事設(shè)施。
這一類AI武器已經(jīng)擴(kuò)散到越來越多的國(guó)家,并且價(jià)格更加低廉,種類更加繁多。
正因如此,科學(xué)家和企業(yè)家們相比于軍方,一直以來都對(duì)AI軍用化存在著反對(duì)意見。
譬如特斯拉創(chuàng)始人馬斯克,就特別反對(duì)武器AI化,并一直在公開場(chǎng)合發(fā)表“人工智能威脅論”。
馬斯克曾發(fā)推文稱,人工智能的大國(guó)競(jìng)爭(zhēng)“最有可能”成為第三次世界大戰(zhàn)的原因,甚至?xí)蔀闆_突的導(dǎo)火索。
潘多拉的盒子已經(jīng)打開?
“我們沒有太長(zhǎng)時(shí)間來采取行動(dòng)了。一旦這個(gè)潘多拉的盒子打開,將很難關(guān)閉。”
在2018年的日內(nèi)瓦首腦會(huì)議上,聯(lián)合國(guó)常規(guī)武器公約(CCW)的一個(gè)小組就自主武器問題展開正式談判,希望制定一個(gè)禁止自主武器的條約。
然而,參與國(guó)只是達(dá)成了一系列非約束性建議,對(duì)于政策的搭建卻避而不談,畢竟誰都不想在AI武器的建設(shè)道路上落后于其他國(guó)家。
在會(huì)議期間,美國(guó)、澳大利亞、俄羅斯、韓國(guó)、以色列等國(guó)家多次表達(dá)了他們繼續(xù)探索發(fā)展殺人機(jī)器人的優(yōu)勢(shì)和益處的意愿。
許多人表示,自主武器禁令可能會(huì)阻礙人工智能的發(fā)展。另一些人則擔(dān)心,若是一些國(guó)家允許一些國(guó)家禁止,會(huì)產(chǎn)生嚴(yán)重的安全隱患。
最終在美俄的堅(jiān)決反對(duì)下,這項(xiàng)全面禁止AI自主武器的談判無果而終。
不過相比于政府的模棱兩可,AI領(lǐng)域的科學(xué)家和企業(yè)家們的態(tài)度倒是堅(jiān)持得多:決不允許“殺人機(jī)器人”出現(xiàn)!
在這次日內(nèi)瓦首腦會(huì)議開幕前,有來自36個(gè)國(guó)家的多達(dá)160家人工智能相關(guān)公司、覆蓋90個(gè)國(guó)家的2400名個(gè)人聯(lián)名簽署宣言,誓言絕不將他們的技能用于開發(fā)“殺人機(jī)器人”。
這份協(xié)議全稱《致命性自主武器宣言》(lethal autonomous weapons pledge),在瑞典斯德哥爾摩舉辦的2018國(guó)際人工智能聯(lián)合會(huì)議上推出,核心內(nèi)容就是宣誓不參與致命性自主武器系統(tǒng)的開發(fā)、研制工作,而且“殺人機(jī)器人”的研發(fā)及使用應(yīng)當(dāng)被嚴(yán)格禁止。
宣誓人中就有我們的老熟人馬斯克。
但不得不說的是,雖然很多人都在抵制武器AI化,但武器的人工智能發(fā)展從未間斷,并且全球人工智能軍用物品數(shù)量正在成倍增長(zhǎng)。
波士頓咨詢集團(tuán)的數(shù)據(jù)顯示,2000年至2015年間,全球軍用機(jī)器人在無人駕駛工具上的支出增加了兩倍,從24億美元增至75億美元。預(yù)計(jì)到2025年將再翻一番,將達(dá)到165億美元。
道德是AI武器最后的屏障
2013年4月起,和平組織PAX創(chuàng)立了國(guó)際知名的停止殺手機(jī)器人運(yùn)動(dòng),一直在推進(jìn)禁止自主武器的開發(fā)、生產(chǎn)和部署,以及關(guān)注其中的法律、道德和安全問題。對(duì)于PAX而言,AI武器必須被禁止的最重要原因,就是其中的道德問題。
當(dāng)技術(shù)問題無法阻止AI武器的發(fā)展時(shí),道德就成了AI武器最后的屏障。
許多人認(rèn)為,致命性自主武器難以分辨?zhèn)麊T及戰(zhàn)俘,可能會(huì)導(dǎo)致“誤殺”。如果將決定生與死的權(quán)力交給機(jī)器,意味著“道義責(zé)任的缺失”。
由于戰(zhàn)場(chǎng)形勢(shì)過于復(fù)雜或程序出錯(cuò),致命性自主武器脫離人類控制后,很難完全避免誤傷已經(jīng)喪失戰(zhàn)斗力的傷員和準(zhǔn)備投降的士兵,遵守相關(guān)國(guó)際法變得越發(fā)困難。
這些問題的出現(xiàn),以及由之引發(fā)的道德和倫理問題,使得越來越多的人開始探討如何從道德、條約、法律等不同層面規(guī)制致命性自主武器的發(fā)展和使用。
同樣的,任何AI技術(shù)在戰(zhàn)場(chǎng)上都不能避免誤傷,據(jù)加沙衛(wèi)生官員報(bào)告稱,巴以沖突中,至少有243名巴勒斯坦平民在這場(chǎng)沖突中喪生,其中包括66名兒童,AI技術(shù)并沒有阻止這些慘案的發(fā)生。
結(jié)語
時(shí)間回到一個(gè)世紀(jì)之前,化學(xué)武器的出現(xiàn)同樣給無數(shù)生命帶來了痛苦。
但我們并不曾因?yàn)榛瘜W(xué)武器的危害性而停滯了化學(xué)的發(fā)展,只是禁止了使用化學(xué)武器。
同樣地,AI武器只是隨著歷史的潮流“走”到如今這一步,它本身沒有對(duì)錯(cuò)。任何技術(shù)都有正反面,既然AI用于軍事的趨勢(shì)是不可阻擋的,那就需要通過法律和政治去限制。
諸如人類士兵擁有日內(nèi)瓦公約等法律協(xié)議來指導(dǎo)他們,AI武器野蠻發(fā)展的原因之一就是受到的限制太少,目前僅涉及標(biāo)準(zhǔn)武器的武裝沖突法的保護(hù)。
從積極的方面來看,隨著政策的不斷完善,未來國(guó)際禁令的勢(shì)頭正在增長(zhǎng)。
目前,有超過30個(gè)國(guó)家明確支持禁止使用完全自主武器。此外,受AI武器威脅的發(fā)展中國(guó)家也已經(jīng)組團(tuán)呼吁禁止,相信在政策不斷完善之后,我們會(huì)看到AI在保護(hù)平民等方面做出更大的努力。