海外專家關于人工智能發(fā)展前景的四大駭人預測
隨著人工智能技術日趨成熟,一些人擔心,人們對這項技術更廣泛的社會和道德影響未給予足夠的關注。專家對此進行了討論,探索了他們認為最駭人的五種人工智能發(fā)展前景。
當提到人工智能時,人們總會聯(lián)想到機器人殺手和計算機失控的場景?!躲y翼殺手》和《終結者》系列的好萊塢電影給我們灌輸了這樣一種恐懼感:人工智能會突破編程,把矛頭指向人類。對于一個今年有望創(chuàng)造超過1萬億美元商業(yè)價值,到2022年,將創(chuàng)造近4萬億美元價值的行業(yè)來說,任何對其倫理含義的重大疑慮都會產(chǎn)生巨大的影響。
人工智能是一個熱詞,并已經(jīng)對許多行業(yè)產(chǎn)生了明顯的影響——尤其是那些依賴大量體力勞動的行業(yè)。隨著人工智能技術日趨成熟,企業(yè)繼續(xù)加大對其投資,一些人擔心,人們對這項技術更廣泛的社會和道德影響未給予足夠的關注。美國全國廣播公司因此專門邀請了幾位專家,對此進行討論,探索了他們認為最駭人的五種人工智能發(fā)展前景。
一、全球性失業(yè)
分析人員和工人普遍擔心人工智能的廣泛應用將造成全球性的失業(yè),因為工作越來越自動化,不再需要大量人工勞動力。
英國愛丁堡大學信息學院教授Alan Bundy表示,“失業(yè)可能是人們最大的擔憂。人們需要精心策劃一系列非常有針對性的應用程序,并找出這些程序無法處理的邊緣案例,但這并不能取代預期的大規(guī)模失業(yè)——至少在很長一段時間內(nèi)都不會。”
人工智能的支持者說,這項技術將創(chuàng)造新的就業(yè)機會。新技術的復雜性需要合適的人才來開發(fā),因此,對工程師的需求將會增加。他們還表示,為了在日常工作中發(fā)揮新的作用,人類也必須使用人工智能。
高德納咨詢公司預測,到2020年,人工智能將創(chuàng)造230萬個工作崗位,同時減少180萬個崗位——凈增加50萬個崗位。但這并不能否認人工智能造成全球大規(guī)模裁員的可能性。
2013年,英國牛津大學一項研究指出,一些最可能被替代的工作包括經(jīng)濟業(yè)務人員、銀行出納員、保險承銷商以及稅務籌劃員——這些工作雖然技術性不強但很關鍵,能維持金融行業(yè)的運轉。
盡管可以通過提高技能和創(chuàng)造新的工作崗位——甚至可能引入一種普遍的基本收入來最大限度地減少人工智能對勞動力市場的損害,但很明顯,失業(yè)問題不會很快解決。
二、戰(zhàn)爭
隨著“殺手機器人”的出現(xiàn)以及人工智能在軍事領域中的運用,專家擔憂,這項技術可能最終會導致戰(zhàn)爭。特斯拉CEO埃隆馬斯克(Elon Musk)因其對人工智能直言不諱的觀點而聞名。去年,他警告,人工智能可能會導致第三次世界大戰(zhàn)。
雖然馬斯克以夸張言論著稱,但他的評論卻傳達了專家們的真實恐懼。一些分析人員和活動家認為,致命自主武器的研發(fā)和人工智能在軍事決策中的使用造成了大量的倫理困境,增加了爆發(fā)以人工智能為主導的戰(zhàn)爭的可能性。
甚至還有一些非政府組織致力于禁用此類機器。2013年成立的“禁止殺人機器人”團體呼吁政府阻止人工智能驅動的無人機和其他工具的研發(fā)。今年年初,美國國防智庫蘭德公司在一項研究中警告說,在軍事領域中應用人工智能可能會在2040年引發(fā)一場核戰(zhàn)爭。
阿姆斯特丹自由大學人工智能研究院Frank van Harmelen表示,“我認為‘駭人’這個詞唯一能使用的領域是自主武器系統(tǒng)…那些看起來像機器人,也可能不像機器人的系統(tǒng)。任何自動決定生死的電腦系統(tǒng),不管是人工智能還是非人工智能——例如發(fā)射導彈——都是非??膳碌南敕?。”這種大膽預測背后的真相是,如果軍事人工智能系統(tǒng)在分析形勢時出錯,會導致各國做出魯莽的,甚至是災難性的決策。
三、機器人醫(yī)生
雖然專家們大多同意人工智能在醫(yī)學領域的應用益處良多,例如盡早診斷疾病,加快整體醫(yī)療體驗,但一些醫(yī)生和學者擔心,我們可能會過快地朝著數(shù)據(jù)驅動的醫(yī)療實踐方向發(fā)展。學者們還擔心,人們對人工智能的期望過高,認為它可以形成人類的智力,從而解決各種各樣的任務。
愛丁堡大學的Bundy表示,“到目前為止,所有的人工智能應用都非常成功,但應用范圍很窄。”Bundy還表示,這些期望可能會給醫(yī)療保健等行業(yè)帶來可怕的后果。上周,一份引用了IBM內(nèi)部文件的健康刊物發(fā)布了一份報告。該報告顯示,IBM旗下的沃森超級電腦已經(jīng)提了許多“不安全且不正確的”癌癥治療建議,但該軟件被訓練成只處理假設場景下的少量病例。
另一個令人擔憂的問題是,計算機占用和共享的數(shù)據(jù),以及使用這些數(shù)據(jù)實現(xiàn)應用程序自動化的數(shù)據(jù)驅動算法可能會侵犯患者隱私。事實證明,數(shù)據(jù)的存儲以及分享是令人擔憂的。以“深度思考”(DeepMind)為例,2015年,這家谷歌旗下的人工智能公司與英國國家醫(yī)療服務體系(NHS)簽署了一項協(xié)議,獲得了160萬英國患者的健康數(shù)據(jù)。該協(xié)議意味著患者將他們的數(shù)據(jù)交給了公司,以提高其項目檢測疾病的能力。這也催生了一款名為Streams的應用程序,該程序旨在檢測腎病患者,并在患者病情惡化時提醒醫(yī)生。
然而去年,英國隱私監(jiān)督部門信息專員辦公室(ICO)裁定,NHS和DeepMind之間的協(xié)議違背了數(shù)據(jù)保護法。ICO表示,作為協(xié)議的一部分,倫敦皇家自由醫(yī)院在使用患者數(shù)據(jù)的方式上缺乏透明度。
四、歧視
有些讀者可能還會記得Tay,一款由微軟開發(fā)的人工智能聊天機器人,它在兩年前引起了轟動。
這個機器人有一個推特賬號,一些用戶用了不到一天時間訓練它發(fā)表攻擊性的推特,來支持阿道夫希特勒和白人至上的觀念。這個錯誤迫使微軟注銷了該賬號,這一事件也引發(fā)了激烈的討論,即人工智能有存在歧視的可能性。
Walsh表示,歧視是科技帶來的一系列“意想不到的后果”之一。他說:“我們在計算程序中看到了意想不到的偏見,尤其是機器學習,這種偏見有可能導致種族、性別歧視,而在過去的50多年里,我們一直試圖將這些偏見從我們的社會中消除。”
專家表示,這個問題涉及到把人工智能變成一個客觀、理性的思考者,不偏袒某一特定種族、性別。這是研究人員和開發(fā)人員一直在認真考慮的問題。
IBM甚至有研究人員致力于解決人工智能領域的歧視問題。今年早些時候,IBM表示將發(fā)布兩個數(shù)據(jù)集,包含不同膚色的面部和其他面部特征,以減少人工智能面部識別系統(tǒng)的偏見。