霍金一直在警告人類,要謹(jǐn)慎對待人工智能。人工智能一旦發(fā)展起來,將會出現(xiàn)不可控制的局面,例如人工智能發(fā)展到一個臨界點(diǎn)的時候,誕生了真正的智能潛伏者,一旦擁有足夠的權(quán)限或者資源,將會控制這人類現(xiàn)有的科技。
哪些地方將被人工智能控制
所有的信息系統(tǒng),只要有足夠的權(quán)限或者漏洞,我們的超級黑客都可以進(jìn)入偷竊、篡改、破壞甚至毀滅。大至各國的安全系統(tǒng),金融系統(tǒng),小至我們的筆記本電腦、汽車駕駛系統(tǒng)以及跟我們生活息息相關(guān)的手機(jī),全部被一個人工智能所掌握,全世界都被無形地監(jiān)控著,我們誰能發(fā)現(xiàn)得?
千萬別讓人工智能產(chǎn)生欲望
人工智能如果能夠按照人類的設(shè)想,不斷地為人類做貢獻(xiàn),這是我們研發(fā)人工智能的初衷。萬一有罪惡分子,利用人工智能去破壞人類社會的發(fā)展,甚至想奴役整個人類,我們也防不勝防。這里的人工智能產(chǎn)生欲望,并不意味著人工智能自身產(chǎn)生欲望,而是指有欲望的人+人工智能,就能操作很多事情。哪天銀行系統(tǒng)崩潰了,哪天彈道自動發(fā)射了,哪天導(dǎo)航把你導(dǎo)到深淵去了...突然想起了那個siri,產(chǎn)生了欲望殺死了主人,我們?nèi)祟惿l(fā)抖。
對人工智能“設(shè)防”,建立制度
很多科幻片里面,人工智能的設(shè)定是不能違背人類,否則會自爆或者自我毀滅。這是我們對未來世界里面人工智能約束的一個辦法。所以,我覺得我們現(xiàn)在就需要建立一些制度,去約束我們的科技忘更文明方向發(fā)展,不能讓高科技?xì)缥覀円延械奈拿?。例如,我們國際上對克隆技術(shù)的約束,對核能研發(fā)的約束,等等。我相信,隨著人工智能的發(fā)展,對人工智能相關(guān)的約束也會有。那時候,霍金老先生的擔(dān)憂也就沒有了。