自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工智能最糟糕的真實(shí)應(yīng)用場(chǎng)景

人工智能
機(jī)器學(xué)會(huì)了類似人類的智能,具備了感知能力,免不了變成邪惡的霸主,并企圖摧毀人類。這種敘事技巧利用了我們對(duì)技術(shù)的先天恐懼,反映出時(shí)常伴隨新技術(shù)產(chǎn)生的深刻變化。

人工智能(AI)的最糟糕應(yīng)用場(chǎng)景在好萊塢電影大片中屢見不鮮:機(jī)器學(xué)會(huì)了類似人類的智能,具備了感知能力,免不了變成邪惡的霸主,并企圖摧毀人類。這種敘事技巧利用了我們對(duì)技術(shù)的先天恐懼,反映出時(shí)常伴隨新技術(shù)產(chǎn)生的深刻變化。

不過,就像機(jī)器學(xué)習(xí)工程師,同時(shí)也是小說《量子價(jià)格》(The Quantum Price,2019年)作者的馬爾科姆?默多克(Malcolm Murdock)所說的那樣:“人工智能要想殺死我們,不一定要有感情。在有感情的人工智能成為問題之前,就有很多可能消滅我們的場(chǎng)景?!?/p>

通過對(duì)人工智能專家的采訪,本刊揭示了真實(shí)世界中的6個(gè)最糟糕的人工智能場(chǎng)景,這些場(chǎng)景遠(yuǎn)比電影中描繪的平淡,但它們依然是反烏托邦的。大多數(shù)這些場(chǎng)景都不需要惡毒的獨(dú)裁者來實(shí)現(xiàn)。相反,如果不采取措施進(jìn)行阻止,這些可能會(huì)輕易成為默許場(chǎng)景并自然地呈現(xiàn)出來。為了防止這些最糟糕的場(chǎng)景發(fā)生,我們必須摒棄對(duì)人工智能的流行文化看法,謹(jǐn)慎對(duì)待其意外后果。

1.當(dāng)虛構(gòu)來定義我們的現(xiàn)實(shí)

如果讓虛構(gòu)來定義我們的現(xiàn)實(shí),那么就可能發(fā)生不必要的悲劇。然而,在數(shù)字世界中我們無法分辨真假,如何進(jìn)行選擇呢?

在可怕的場(chǎng)景中,不斷增多的深度偽造(高級(jí)機(jī)器學(xué)習(xí)工具產(chǎn)生的偽造圖像、視頻、音頻和文本等)有一天可能會(huì)導(dǎo)致國(guó)家安全決策者根據(jù)錯(cuò)誤信息在真實(shí)世界中采取行動(dòng),從而造成重大危機(jī),甚至更嚴(yán)重地引發(fā)戰(zhàn)爭(zhēng)。

喬治敦大學(xué)安全和新興技術(shù)中心(CSET)的高級(jí)研究員安德魯?洛恩(Andrew Lohn)說:“現(xiàn)在,采用人工智能的系統(tǒng)能夠(大規(guī)模)生成虛假信息?!蓖ㄟ^產(chǎn)生大量、多變的虛假信息,這些系統(tǒng)能夠混淆其本質(zhì),進(jìn)行優(yōu)化并獲取成功,隨著時(shí)間的推移,提高其預(yù)期影響。

在緊要關(guān)頭,如果無法及時(shí)地確認(rèn)信息的真實(shí)性,深度偽造的概念就足以導(dǎo)致領(lǐng)導(dǎo)者行動(dòng)時(shí)猶豫不決。

德國(guó)漢堡研究和安全政策研究所的研究員瑪麗娜?法瓦羅(Marina Favaro)指出:“深度偽造損害了我們對(duì)信息流的信任?!鄙疃葌卧鞂?dǎo)致的作為和不作為都可能會(huì)給世界帶來災(zāi)難性的后果。

2.逼近底線的危險(xiǎn)競(jìng)爭(zhēng)

涉及人工智能和國(guó)家安全時(shí),速度是重點(diǎn)也是難點(diǎn)。采用人工智能的系統(tǒng)能夠給用戶帶來更大的速度效益,發(fā)展軍事應(yīng)用領(lǐng)先的國(guó)家將具備戰(zhàn)略優(yōu)勢(shì)。不過,在這個(gè)過程中,可能會(huì)犧牲哪些設(shè)計(jì)原則呢?

系統(tǒng)的微小缺陷和被黑客利用會(huì)造成形勢(shì)崩潰。喬治敦大學(xué)安全和新興技術(shù)中心的戰(zhàn)略總監(jiān)海倫?托納(Helen Toner)表示,危機(jī)可能會(huì)“從一次無惡意的單點(diǎn)故障開始,故障導(dǎo)致所有通信中斷,引發(fā)人們的恐慌并造成經(jīng)濟(jì)活動(dòng)停滯。信息持續(xù)缺失,伴隨其他誤判,可能會(huì)造成事態(tài)急劇失控?!?/p>

瑞典斯德哥爾摩國(guó)際和平研究所(SIPRI)的高級(jí)研究員文森特?博拉寧(Vincent Boulanin)警告說,重大災(zāi)難可能會(huì)導(dǎo)致“大國(guó)為了搶占先機(jī)而搶先走上捷徑。如果一個(gè)國(guó)家將速度優(yōu)先于安全、檢測(cè)或人類監(jiān)督,那就會(huì)形成逼近底線的危險(xiǎn)競(jìng)爭(zhēng)?!?/p>

例如,為了獲得速度優(yōu)勢(shì),國(guó)家安全負(fù)責(zé)人可能會(huì)被誘惑下放指揮和控制權(quán),去除對(duì)我們并未充分了解的機(jī)器學(xué)習(xí)模型的人工監(jiān)督。在這種場(chǎng)景中,無需人類授權(quán)便可啟動(dòng)的導(dǎo)彈防御系統(tǒng),可能會(huì)導(dǎo)致事件意外升級(jí)并引發(fā)核戰(zhàn)爭(zhēng)。

3.隱私和自由意志的終結(jié)

每一次數(shù)字行為都會(huì)產(chǎn)生新的數(shù)據(jù),如電子郵件、文本、下載、采購、信息發(fā)布、自拍和GPS定位等。在允許企業(yè)和政府不受限制地訪問這些數(shù)據(jù)的過程中,我們拱手交出了監(jiān)督和控制的工具。

再加上面部識(shí)別、生物特征提取、基因組數(shù)據(jù),以及采用人工智能的預(yù)測(cè)分析,喬治敦大學(xué)安全和新興技術(shù)中心的洛恩很擔(dān)心:“隨著通過數(shù)據(jù)進(jìn)行監(jiān)管和跟蹤的增多,我們進(jìn)入了一個(gè)未知的危險(xiǎn)領(lǐng)域,我們對(duì)潛在影響幾乎一無所知。”

經(jīng)過收集和分析的數(shù)據(jù)力量遠(yuǎn)遠(yuǎn)不止檢查和監(jiān)督等預(yù)測(cè)性控制功能。如今,采用人工智能的系統(tǒng)能夠預(yù)測(cè)我們購買什么商品、觀看什么娛樂節(jié)目,以及會(huì)點(diǎn)擊哪些鏈接。如果這些平臺(tái)比我們更了解我們自己,我們可能無法注意到自己的自由意志逐漸被剝奪,并受到外部力量的控制。

4.人類行為實(shí)驗(yàn)

孩子延遲即時(shí)滿足的能力,等待第二塊棉花糖,曾被認(rèn)為是預(yù)測(cè)人生成功的重要指標(biāo)。很快,即便是獲得第二塊棉花糖的孩子也會(huì)屈服于撩人的參與算法。

社交媒體用戶已經(jīng)成為了實(shí)驗(yàn)室里的小白鼠,生活在人類的斯金納箱中,緊盯著智能手機(jī)屏幕,被迫犧牲珍貴的時(shí)間和精力,貢獻(xiàn)給從中贏利的平臺(tái)。

喬治敦大學(xué)安全和新興技術(shù)中心的海倫?托納說:“算法被優(yōu)化,盡可能讓用戶長(zhǎng)時(shí)間停留在平臺(tái)?!瘪R爾科姆?默多克解釋道,通過點(diǎn)贊、評(píng)論和關(guān)注等形式提供獎(jiǎng)勵(lì),“算法讓我們大腦的工作短路,讓我們無法抗拒地繼續(xù)參與。”

為了最大限度地追求廣告利潤(rùn),企業(yè)在我們的工作、家庭和朋友、責(zé)任,甚至業(yè)余愛好中,偷走我們的精力。更可怕的是,平臺(tái)的內(nèi)容讓我們感覺比以前更痛苦、更糟糕。托納警告道:“在這些平臺(tái)上花的時(shí)間越多,我們?cè)谧非蠓e極、豐富、有意義的生活上花的時(shí)間就越少?!?/p>

5.人工智能設(shè)計(jì)的專制

每天,我們把更多的日常生活交給采用人工智能的機(jī)器。這很成問題,正如霍洛維茨所說:“我們還沒有充分認(rèn)識(shí)到人工智能的偏見問題。即便是出于善意,采用人工智能的系統(tǒng)設(shè)計(jì)(包括訓(xùn)練數(shù)據(jù)和數(shù)學(xué)模型)也反映了設(shè)計(jì)者有偏見的狹隘經(jīng)驗(yàn)和利益。我們每個(gè)人都有偏見?!?/p>

因此,美國(guó)佛羅里達(dá)州克利爾沃特IT安全公司KnowBe4的新興技術(shù)分析高級(jí)副總裁莉迪亞?科斯托普洛斯(Lydia Kostopoulos)表示:“許多采用人工智能的系統(tǒng)未能考慮不同人的不同經(jīng)驗(yàn)和特征。”由于人工智能解決問題的根據(jù)是有偏見的觀點(diǎn)和數(shù)據(jù),而不是每一個(gè)個(gè)體的獨(dú)特需求,因此這種系統(tǒng)產(chǎn)生的某種程度的一致性,在人類社會(huì)是不存在的。

甚至在人工智能興起之前,我們?nèi)粘I钪谐R娢锲返脑O(shè)計(jì)也往往是迎合特定類型的人群而設(shè)計(jì)的。例如,研究表明,汽車、手機(jī)等手持型工具,甚至是辦公環(huán)境中的溫度設(shè)定都是針對(duì)中等身材的男性而設(shè)計(jì)的,這給身材和體型不同的人群(包括女性)帶來了諸多不便,有時(shí)甚至?xí)o他們的生活帶來很大風(fēng)險(xiǎn)。

當(dāng)處于偏見常態(tài)之外的個(gè)體被忽略、被邊緣化、被排斥時(shí),人工智能就成為了卡夫卡式的“看門人”,導(dǎo)致這些人無法享受客戶服務(wù)、獲得工作、享受醫(yī)療衛(wèi)生服務(wù),等等。人工智能設(shè)計(jì)的決策會(huì)限制人們,而不是將其從日常問題中解放出來。此外,這些選擇會(huì)將有些不好的人類偏見轉(zhuǎn)化成為種族和性別的歧視和風(fēng)險(xiǎn)實(shí)踐,以及有嚴(yán)重缺陷和偏見的判決結(jié)果。

6.對(duì)人工智能的恐懼使人類不再受益

隨著計(jì)算能力和運(yùn)行硬件復(fù)雜性的提高,人工智能的功能一定會(huì)增強(qiáng),社會(huì)對(duì)人工智能的恐懼似乎只會(huì)隨著時(shí)間而增強(qiáng)。“人工神經(jīng)網(wǎng)絡(luò)可以做出非常瘋狂的事?!蹦嗫苏f,“我們需要謹(jǐn)慎對(duì)待相關(guān)風(fēng)險(xiǎn)?!辈贿^,如果人們過于害怕人工智能,以至于政府對(duì)人工智能進(jìn)行嚴(yán)格管控,使得人類不再受益,那又會(huì)怎樣呢?例如,DeepMind的AlphaFold程序?qū)崿F(xiàn)重大突破,能夠預(yù)測(cè)氨基酸是如何折疊形成蛋白質(zhì)的,科學(xué)家因此有可能確定人類98.5%的蛋白質(zhì)結(jié)構(gòu)。這一里程碑將為生命科學(xué)的快速發(fā)展建立富有成效的基礎(chǔ)。再比如,人工智能通過各種人類語言組合的流暢翻譯,使推進(jìn)跨文化交流和理解成為可能;采用人工智能的系統(tǒng)可以識(shí)別新的疾病治療和護(hù)理方法等。為了防止發(fā)生人工智能的最壞結(jié)果,政府的本能性監(jiān)管行為也可能帶來事與愿違的效果,產(chǎn)生意外的負(fù)面影響,導(dǎo)致我們害怕這種強(qiáng)大技術(shù)的威力,抵制利用它真正為世界造福。

責(zé)任編輯:華軒 來源: 悅智網(wǎng)
相關(guān)推薦

2022-12-15 07:35:04

人工智能語音應(yīng)用場(chǎng)景

2021-08-09 14:44:07

人工智能無人駕駛技術(shù)

2021-10-14 09:38:34

人工智能AI深度學(xué)習(xí)

2021-01-07 22:46:43

人工智能農(nóng)業(yè)疫情

2023-08-16 08:07:36

2022-11-30 07:12:06

2024-01-16 10:50:42

2020-12-16 16:00:09

人工智能物聯(lián)網(wǎng)大數(shù)據(jù)

2020-12-16 13:07:47

人工智能人工智能技術(shù)

2021-09-10 17:47:01

人工智能深度學(xué)習(xí)云計(jì)算

2022-10-10 14:07:31

人工智能醫(yī)療領(lǐng)域

2021-02-20 10:31:54

人工智能人工智能應(yīng)用

2021-01-15 12:49:53

人工智能人工智能技術(shù)

2023-04-09 17:33:32

2018-08-23 16:10:36

區(qū)塊鏈人工智能醫(yī)療

2023-03-11 22:35:07

2023-06-29 15:12:29

2022-06-29 17:20:00

人工智能物聯(lián)網(wǎng)

2018-01-19 12:57:06

人工智能態(tài)牛電子雜志

2021-01-22 09:50:26

AI即服務(wù)人工智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)