周鴻祎:人工智能有很多根安全軟肋
3月5日,全國政協(xié)委員、360集團董事長兼CEO周鴻祎公布了他今年的三份“兩會”提案,涉及國家網(wǎng)絡(luò)安全大腦建設(shè)、智能汽車網(wǎng)絡(luò)安全、人工智能安全風險等安全熱點話題。
建設(shè)國家級網(wǎng)絡(luò)安全大腦的提案中,周鴻祎建議:將國家級網(wǎng)絡(luò)安全大腦列為國家重大工程專項。建議成立國家網(wǎng)絡(luò)安全大腦項目總體工作組、專家組、工程推進組,分別負責頂層設(shè)計和總體籌劃、系統(tǒng)設(shè)計、工程建設(shè)。運用新型舉國體制,加快推進國家級網(wǎng)絡(luò)安全大腦建設(shè)。由國家相關(guān)部門牽頭,協(xié)調(diào)網(wǎng)信、工信、公安、科技等部門和單位,組織國企、民企、科研院所等廣泛參與。
周鴻祎稱:做了十來年的網(wǎng)絡(luò)安全,感覺我們的網(wǎng)絡(luò)安全防御有一個很大的問題,就是各個單位基本上各自為戰(zhàn),各守自己的“一畝三分地”、“自掃門前雪”,大家都只掌握自己的局部信息,無法及時發(fā)現(xiàn)高級攻擊。
他認為,面對這些威脅和挑戰(zhàn),當務(wù)之急是能夠及時發(fā)現(xiàn)網(wǎng)絡(luò)威脅,僅有的方法要靠安全大數(shù)據(jù)的聯(lián)合。構(gòu)建一個數(shù)據(jù)統(tǒng)一、國家級的網(wǎng)絡(luò)空間國土防御系統(tǒng)——國家級網(wǎng)絡(luò)安全大腦,在全球網(wǎng)絡(luò)安全形勢嚴峻的今天尤為重要。
在智能汽車網(wǎng)絡(luò)安全的提案中,周鴻祎建議:制定強制性生產(chǎn)標準,把網(wǎng)絡(luò)安全列為智能汽車標配,一是加裝安全聯(lián)網(wǎng)模塊,提高聯(lián)網(wǎng)防護能力,建立安全接口,加強汽車的控制安全保護,防止控制被劫持。二是強制安全測試。建立測試評價體系,在汽車上市前進行網(wǎng)絡(luò)安全測評。三是建立廠商安全運營平臺,提升安全運營能力,及時發(fā)現(xiàn)和阻斷黑客攻擊。
“我們的目標是讓智能汽車不‘裸奔’。今天大家的電腦誰也不敢裸奔,手機里也裝了安全殺毒軟件,智能汽車也應(yīng)加裝網(wǎng)絡(luò)安全防護系統(tǒng)。我們要把網(wǎng)絡(luò)安全系統(tǒng)像‘安全帶’一樣列為智能汽車標配,做到智能汽車的安全、可靠、可控。” 他說。
周鴻祎判斷,未來汽車發(fā)展將智能化、網(wǎng)聯(lián)化、電動化和共享化,其電子電氣架構(gòu)會發(fā)生翻天覆地的變化。汽車的智能駕駛系統(tǒng)、信息娛樂系統(tǒng)、底盤控制系統(tǒng)和動力控制系統(tǒng)都會與互聯(lián)網(wǎng)聯(lián)接,通過網(wǎng)絡(luò)進行數(shù)據(jù)傳輸和軟件升級。與互聯(lián)網(wǎng)連接就會有網(wǎng)絡(luò)安全風險,黑客可以通過網(wǎng)絡(luò)劫持汽車,造成人身傷害、群死群傷等安全事故,甚至被用于恐怖襲擊,威脅人身安全、社會安全和國家安全。
關(guān)于人工智能安全風險的提案中,周鴻祎建議:安全應(yīng)該成為人工智能發(fā)展的基礎(chǔ)與前提。但是,人工智能網(wǎng)絡(luò)安全問題非常復(fù)雜,迫切需要建立一個開放創(chuàng)新平臺,整合各種資源,協(xié)同推進和解決。國家對新一代人工智能開放創(chuàng)新平臺的建設(shè)高度重視。已分別在自動駕駛、城市大腦、醫(yī)療影像、智能語音、智能視覺5大領(lǐng)域批準建設(shè)人工智能開放創(chuàng)新平臺,但在人工智能網(wǎng)絡(luò)安全領(lǐng)域還是空白。建議國家支持盡快建設(shè)國家級網(wǎng)絡(luò)安全人工智能開放創(chuàng)新平臺,確保人工智能健康有序發(fā)展。
“現(xiàn)階段,我們關(guān)注的焦點是人工智能本身的安全問題。人工智能有很多根安全‘軟肋’,前端傳感器可以被干擾,訓(xùn)練數(shù)據(jù)可能被污染,內(nèi)部算法可以被欺騙,并且系統(tǒng)中可能存在大量未知漏洞。人工智能無疑是下一輪技術(shù)革命的焦點,在技術(shù)高速發(fā)展的同時,如何保持這個技術(shù)更安全是重中之重。”周鴻祎表示。
周鴻祎表示,人工智能正在加速與經(jīng)濟、社會、國防等深度融合,發(fā)揮越來越顯著的“頭雁”效應(yīng)。但與此同時,人工智能自身所面臨的網(wǎng)絡(luò)安全風險也越來越突出。“比如,人工智能的傳感器存在被干擾的風險;訓(xùn)練數(shù)據(jù)存在被污染的風險,可能“教壞”智能機器人;概率判斷系統(tǒng)不完善,可能導(dǎo)致車毀人亡;而且,人工智能是通過軟件實現(xiàn)的,是軟件就有漏洞,就很可能被黑客利用。”
“由此可知,如果人工智能自身存在安全問題,就易受攻擊并引發(fā)嚴重后果。一方面,人工智能系統(tǒng)可被劫持,造成大量重要訓(xùn)練數(shù)據(jù)泄露。另一方面,采用人工智能的無人值守系統(tǒng)失控,或?qū)е聡乐睾蠊?。舉個例子,現(xiàn)在武器系統(tǒng)的扳機都在戰(zhàn)士手里,由人來判斷和扣動扳機,未來如果引入人工智能形成智能武器系統(tǒng),就變成了扳機在電腦系統(tǒng)手里,一旦被黑客控制,就可以遠程控制武器射擊,濫殺無辜。”他說。