自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工智能會導(dǎo)致人類滅亡嗎?專家稱更擔(dān)心虛假信息和操縱用戶

人工智能
近幾個月來,業(yè)內(nèi)愈發(fā)擔(dān)心人工智能。就在本周,300多名行業(yè)領(lǐng)袖發(fā)表了一封聯(lián)名公開信,警告人工智能可能導(dǎo)致人類滅絕,對待人工智能應(yīng)該像“疫情和核戰(zhàn)”那樣加以嚴(yán)肅對待。

6月4日消息,隨著人工智能技術(shù)的快速發(fā)展和普及,很多行內(nèi)人士擔(dān)心不加限制的人工智能可能會導(dǎo)致人類滅亡。但專家們表示,人工智能帶來的最大負(fù)面影響不太可能是科幻電影中的核戰(zhàn)場面,反而更有可能是虛假信息、操縱用戶等造成的社會環(huán)境不斷惡化。

以下是翻譯內(nèi)容:

近幾個月來,業(yè)內(nèi)愈發(fā)擔(dān)心人工智能。就在本周,300多名行業(yè)領(lǐng)袖發(fā)表了一封聯(lián)名公開信,警告人工智能可能導(dǎo)致人類滅絕,對待人工智能應(yīng)該像“疫情和核戰(zhàn)”那樣加以嚴(yán)肅對待。

像“人工智能末日”這種術(shù)語總會讓人聯(lián)想到科幻電影中機器人統(tǒng)治世界的畫面,但實際上任由發(fā)展的人工智能會帶來哪些后果?專家們說,現(xiàn)實可能不像電影情節(jié)那樣跌宕起伏,不會是人工智能啟動核彈,而是社會基礎(chǔ)環(huán)境逐漸惡化。

加州大學(xué)伯克利分校人工智能安全計劃主任杰西卡·紐曼(Jessica Newman)說:“我不認(rèn)為人們該擔(dān)心人工智能會變壞,或者人工智能會有某種惡意欲望?!薄拔kU來自一些更簡單的東西,那就是人們可能會給人工智能編程,讓它做有害的事情,或者我們最終會把天生不準(zhǔn)確的人工智能系統(tǒng)整合到越來越多的社會領(lǐng)域,從而造成傷害?!?/p>

這并不是說我們不應(yīng)該擔(dān)心人工智能。即便末日場景不太可能發(fā)生,強大的人工智能也有能力用錯誤信息問題不斷加劇、操縱人類用戶以及給勞動力市場帶來巨大變化等形式破壞社會穩(wěn)定。

雖然人工智能技術(shù)已經(jīng)存在了幾十年時間,但像ChatGPT這種語言學(xué)習(xí)模型的普及加劇了人們長期以來的擔(dān)憂。紐曼說,與此同時,科技公司爭先恐后將人工智能應(yīng)用到他們的產(chǎn)品中,相互開展激烈競爭,帶來了一堆麻煩事。

她說:“我非常擔(dān)心我們眼下走的道路。”“對于整個人工智能領(lǐng)域來說,我們正處于一個特別危險的時期,因為這些系統(tǒng)雖然看起來很特別,但仍然非常不準(zhǔn)確,并且存在固有漏洞?!?/p>

接受采訪的專家們表示,他們最擔(dān)心的有不少方面。

錯誤和虛假信息

許多領(lǐng)域早已經(jīng)啟動了所謂的人工智能變革。機器學(xué)習(xí)技術(shù)支撐著社交媒體新聞推送算法,長期以來,人們一直指責(zé)這種技術(shù)加劇了固有偏見和錯誤信息等問題。

專家們警告說,隨著人工智能模型的發(fā)展,這些尚未解決的問題只會進一步加劇。最糟糕的情況可能影響到人們理解事實真相和有效信息,從而導(dǎo)致更多基于謊言的事件發(fā)生。專家們表示,錯誤和虛假信息的增加可能引發(fā)進一步的社會動蕩。

“可以說,社交媒體的崩潰是我們第一次遇到真正愚蠢的人工智能。因為推薦系統(tǒng)實際上只是簡單的機器學(xué)習(xí)模型,”數(shù)據(jù)科學(xué)平臺Anaconda首席執(zhí)行官兼聯(lián)合創(chuàng)始人Peter Wang說?!拔覀冋娴膹氐资×恕!?/p>

Peter Wang補充說,這些錯誤可能導(dǎo)致系統(tǒng)陷入永無止境的惡性循環(huán),因為語言學(xué)習(xí)模型也是在錯誤信息的基礎(chǔ)上進行訓(xùn)練,為未來模型創(chuàng)造的又是有缺陷的數(shù)據(jù)集。這可能會導(dǎo)致“模型自相殘殺”效應(yīng),未來模型會因為過去模型的輸出放大偏差,并永遠(yuǎn)受到影響。

專家們稱,不準(zhǔn)確的錯誤信息和容易誤導(dǎo)人們的虛假信息都被人工智能放大了。像ChatGPT這種大語言模型很容易出現(xiàn)所謂的“幻覺”現(xiàn)象,反復(fù)捏造杜撰虛假信息。新聞行業(yè)監(jiān)督機構(gòu)NewsGuard的一項研究發(fā)現(xiàn),幾十個完全由人工智能撰寫材料的在線“新聞”網(wǎng)站中有許多內(nèi)容都存在不準(zhǔn)確之處。

NewsGuard聯(lián)合首席執(zhí)行官戈登·克羅維茨(Gordon Crovitz)和史蒂文·布里爾(Steven Brill)表示,這種系統(tǒng)可能會被壞人利用,故意大規(guī)模傳播錯誤信息。

克羅維茨說:“一些惡意的行為者可以制造虛假陳述,然后利用這個系統(tǒng)的倍增效應(yīng)來大規(guī)模傳播虛假信息。”“有人說人工智能的危險被夸大了,但在新聞信息領(lǐng)域,它正在產(chǎn)生驚人影響?!?/p>

全球非營利性機構(gòu)Partnership on AI的麗貝卡·芬利(Rebecca Finlay)表示:“就更大規(guī)模的潛在危害而言,錯誤信息是人工智能最有可能對個人造成傷害的方面、風(fēng)險也最高。”“問題是我們?nèi)绾蝿?chuàng)造一個生態(tài)系統(tǒng),讓我們能夠理解什么是真實的?”“我們又該如何驗證我們在網(wǎng)上看到的東西?”

惡意操縱用戶

雖然大多數(shù)專家都表示,錯誤信息是最直接和最普遍的擔(dān)憂,但關(guān)于這項技術(shù)可能會在多大程度上對用戶的思想或行為產(chǎn)生負(fù)面影響,還存在不少爭議。

事實上,這些擔(dān)憂已經(jīng)帶來了不少悲劇。據(jù)報道,比利時一名男子在得到聊天機器人的鼓動后自殺身亡。還有聊天機器人告訴用戶和他的伴侶分手,或者讓有飲食失調(diào)問題的用戶減肥。

紐曼說,從設(shè)計上講,因為聊天機器人是以對話的形式與用戶交流,可能會產(chǎn)生更多的信任感。

“大語言模型特別有能力說服或操縱人們在潛移默化中改變他們的信念或行為,”她說?!肮陋毢托睦斫】狄呀?jīng)是全世界的大問題,我們需要觀察聊天機器人會對世界產(chǎn)生何種認(rèn)知影響?!?/p>

因此,專家們更擔(dān)心的不是人工智能聊天機器人會獲得感知能力并超越人類用戶,而是它們背后的大語言模型可能會操縱人們給自己造成原本沒有的傷害。紐曼說,那些以廣告盈利模式運作的語言模型尤為如此,它們試圖操縱用戶行為,從而盡可能長時間地使用平臺。

紐曼表示:“在很多情況下,給用戶造成傷害也不是因為他們想要這樣做,而是系統(tǒng)未能遵循安全協(xié)議造成的后果?!?/p>

紐曼補充說,聊天機器人的類人特性使用戶特別容易受到操縱。

她說:“如果你和一個使用第一人稱代詞的東西交談,談?wù)撍约旱母惺芎退幥榫常词姑髦浪皇钦鎸嵉?,仍然更有可能引發(fā)一種它像人類的反應(yīng),讓人們更容易想要相信它?!薄罢Z言模型讓人們愿意信任它,把它當(dāng)成朋友,而不是工具。”

勞動力問題

長期存在的另一個擔(dān)憂是,數(shù)字自動化將取代大量人類工作。一些研究得出結(jié)論,到2025年,人工智能將在全球范圍內(nèi)取代8500萬個工作崗位,未來將取代超過3億個工作崗位。

受人工智能影響的行業(yè)以及崗位非常多,有編劇也有數(shù)據(jù)科學(xué)家?,F(xiàn)如今,人工智能可以像真正的律師那樣通過律師考試,還能比真正的醫(yī)生更好回答健康方面的問題。

專家們發(fā)出警告,人工智能的崛起可能會導(dǎo)致出現(xiàn)大規(guī)模失業(yè),從而造成社會不穩(wěn)定。

Peter Wang警告說,大規(guī)模裁員在不久將來就會發(fā)生,“許多工作崗位都面臨風(fēng)險”,而且?guī)缀鯖]有任何計劃應(yīng)對后果。

他說:“在美國,沒有關(guān)于人們失業(yè)時如何生存的框架。”“這將導(dǎo)致很多混亂和動蕩。對我來說,這是由此產(chǎn)生的最具體、最現(xiàn)實的意外后果?!?/p>

未來怎么辦

盡管人們越來越擔(dān)心科技行業(yè)和社交媒體帶來的負(fù)面影響,但在美國,監(jiān)管科技行業(yè)和社交媒體平臺的措施卻很少。專家們擔(dān)心人工智能也是如此。

Peter Wang說:“我們許多人擔(dān)心人工智能發(fā)展的原因之一是,在過去的40年時間里,作為一個社會,美國基本上放棄了對科技的監(jiān)管?!?/p>

盡管如此,近幾個月來美國國會已經(jīng)有了一番積極動作,舉行聽證會,讓OpenAI首席執(zhí)行官薩姆·奧爾特曼(Sam Altman)就應(yīng)該實施的監(jiān)管措施作證。芬利表示,她對這些舉措感到“鼓舞”,但在制定人工智能技術(shù)規(guī)范以及如何發(fā)布方面,還需要做更多工作。

她說:“很難預(yù)測立法和監(jiān)管部門的反應(yīng)能力?!薄拔覀冃枰獙@種水平的技術(shù)進行嚴(yán)格審查?!?/p>

盡管人工智能的危害是行業(yè)內(nèi)大多數(shù)人最關(guān)心的問題,但并非所有專家都是“末日論者”。許多人也對這項技術(shù)的潛在應(yīng)用感到興奮。

Peter Wang說:“實際上,我認(rèn)為新一代人工智能技術(shù)真的可以為人類釋放出巨大的潛力,讓人類社會以更大規(guī)模繁榮起來,要超出過去100年甚至200年的水平。”“實際上,我對它的積極影響非常非常樂觀?!?/p>

責(zé)任編輯:姜華 來源: 網(wǎng)易科技
相關(guān)推薦

2023-08-28 10:20:54

2021-08-20 20:00:41

人工智能AI

2021-07-09 10:20:32

人工智能AI開發(fā)

2022-04-13 09:47:10

人工智能抗疫上海

2020-12-08 11:06:52

人工智能機器學(xué)習(xí)

2021-05-18 10:52:10

人工智能

2021-11-23 15:40:36

人工智能AI

2017-03-21 08:31:33

人工智能

2021-10-18 09:21:42

人工智能AI

2021-03-19 10:22:03

人工智能

2021-09-21 10:33:56

人工智能科學(xué)技術(shù)

2025-02-21 12:58:02

2018-12-05 08:30:41

人工智能霍金

2021-01-23 23:27:13

人工智能深度學(xué)習(xí)數(shù)據(jù)

2022-02-15 13:14:37

人工智能神經(jīng)網(wǎng)絡(luò)

2017-04-25 16:25:44

2023-05-28 23:10:49

人工智能工資

2020-09-18 17:30:02

人工智能

2019-10-09 11:36:11

人工智能機器人技術(shù)

2024-02-21 14:24:48

人工智能機器人
點贊
收藏

51CTO技術(shù)棧公眾號