最新報告證實(shí)稱:如果不謹(jǐn)慎應(yīng)對,人工智能將成為現(xiàn)實(shí)版“黑鏡”
根據(jù)一份最新報告所言,目前我們正處于人工智能革命的懸崖邊緣。在這場革命當(dāng)中,我們創(chuàng)造的技術(shù)可能同時呈現(xiàn)出善意、惡意與丑陋的面貌。
這份題為《人工智能的惡意應(yīng)用:預(yù)測、預(yù)防與緩解》的報告長達(dá)100頁,于本周二正式發(fā)布,其中包含來自牛津大學(xué)、劍橋大學(xué)、OpenAI以及新美國安全中心等不同機(jī)構(gòu)的26位頂尖人工智能專家的真知灼見。
此份報告首先承認(rèn)了人工智能技術(shù)在某些領(lǐng)域取得的進(jìn)展,但其同時表示“從歷史角度看,人們對于人工智能惡意使用方式的關(guān)注程度仍然較低。”更具體地講,大家可以參考目前大熱的反烏托邦驚悚劇集《黑鏡》。
劍橋大學(xué)生存風(fēng)險研究中心執(zhí)行董事Seán Ó hÉigeartaigh博士正是該份報告的作者之一,其在另一份聲明中表示,現(xiàn)在確實(shí)應(yīng)該開始關(guān)注人工智能技術(shù)的惡意使用議題。
我們到底需要擔(dān)心什么?具體來說,目前與人工智能相關(guān)的部分問題確實(shí)呈現(xiàn)出惡化趨勢,例如機(jī)器人能夠理解我們的閱讀內(nèi)容、個人感受以及我們的投票對象。Ó hÉigeartaigh博士提到,無人機(jī)的濫用狀況要遠(yuǎn)比我們想象中的更為普遍,而人工智能支持下的聊天機(jī)器人也正通過在線方式大肆獲取用戶信息。他進(jìn)一步補(bǔ)充稱,人工智能還將提升黑客攻擊活動當(dāng)中對于人類聲音及視頻內(nèi)容的偽造能力,從而生成更多更難以識別的虛假新聞。
牛津大學(xué)未來人類研究所研究員兼報告作者M(jìn)iles Brundage解釋稱,“一般來講,人工智能系統(tǒng)不僅能夠達(dá)到人類的能力水平,甚至還將有所超越。雖然令人不安,但我們完全有必要充分考慮到人工智能在黑客攻擊、監(jiān)視、說服以及物理目標(biāo)識別領(lǐng)域的實(shí)際表現(xiàn),同時意識到人工智能與人類相比存在非人性且更具擴(kuò)展能力的特性。”
正如《黑鏡》劇集所描述,此份報告當(dāng)中還提到了人臉識別技術(shù),探討惡意人士如何利用這種技術(shù)來搜索并打擊目標(biāo)人物——包括使用裝備有爆炸物的無人機(jī)或機(jī)器人進(jìn)行暗殺。這聽起來似乎并不現(xiàn)實(shí),但報告作者們認(rèn)為其確實(shí)具備可行性。
援引最近剛剛離開OpenAI董事會的Elon Musk的觀點(diǎn),研究人員們認(rèn)為技術(shù)的創(chuàng)造者必須同時考慮到其可能帶來的所有惡意用途。因此,決策者需要充分了解正在開發(fā)的技術(shù)成果,并為其制定倫理框架。最重要的是,人工智能的發(fā)展必須始終保持充分的透明度,確保公眾能夠了解當(dāng)前的實(shí)際技術(shù)動態(tài)。