自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

如何解決人工智能的“常識(shí)”問題

譯文
人工智能
近年來,深度學(xué)習(xí)在人工智能的一些最具挑戰(zhàn)性的領(lǐng)域取得了長足的進(jìn)步,其中包括計(jì)算機(jī)視覺、語音識(shí)別和自然語言處理。

?譯者 | 李睿

審校 | 孫淑娟

近年來,深度學(xué)習(xí)在人工智能的一些最具挑戰(zhàn)性的領(lǐng)域取得了長足的進(jìn)步,其中包括計(jì)算機(jī)視覺、語音識(shí)別和自然語言處理。  

然而,深度學(xué)習(xí)系統(tǒng)仍然沒有解決一些問題。因?yàn)樯疃葘W(xué)習(xí)系統(tǒng)不擅長處理新情況,它們需要大量數(shù)據(jù)進(jìn)行訓(xùn)練,有時(shí)還會(huì)犯一些奇怪的錯(cuò)誤,甚至連它們的創(chuàng)造者都會(huì)感到困惑。

一些科學(xué)家認(rèn)為,這些問題要以通過創(chuàng)建越來越大的神經(jīng)網(wǎng)絡(luò)并在越來越大的數(shù)據(jù)集上進(jìn)行訓(xùn)練來解決。也有人認(rèn)為,人工智能領(lǐng)域需要的是人類的一些“常識(shí)”。  

計(jì)算機(jī)科學(xué)家Ronald J.Brachman和Hector J.Levesque在他們出版的新書《像我們這樣的機(jī)器》中,提出他們對(duì)人工智能難題這一缺失部分的看法和可能的解決方案,而“常識(shí)“這一難題已經(jīng)困擾了研究人員幾十年的時(shí)間。在接受行業(yè)媒體的采訪時(shí),Brachman討論了什么是常識(shí),什么不是常識(shí),為什么機(jī)器沒有常識(shí),以及“知識(shí)表示”這一概念是如何引導(dǎo)人工智能社區(qū)朝著正確的方向發(fā)展的?!爸R(shí)表示”這個(gè)概念已經(jīng)存在了幾十年,但在深度學(xué)習(xí)熱潮中被擱置了。

盡管仍停留在假設(shè)領(lǐng)域,但《像我們這樣的機(jī)器》這本書為潛在的研究領(lǐng)域提供了一個(gè)新的視角,這得益于這兩位自從上世紀(jì)70年代以來一直深入研究人工智能的科學(xué)家。

優(yōu)秀人工智能系統(tǒng)會(huì)犯奇怪錯(cuò)誤

Brachman說,“在過去的10到12年,隨著人們對(duì)深度學(xué)習(xí)表現(xiàn)出非凡的熱情,有很多關(guān)于基于深度學(xué)習(xí)的系統(tǒng)能夠完成我們最初希望人工智能系統(tǒng)所做的一切的討論?!?

在人工智能的發(fā)展早期,其愿景是創(chuàng)建一個(gè)自給自足的自主系統(tǒng),并且可能以機(jī)器人的形式出現(xiàn),它可以在幾乎不需要或根本不需要人工干預(yù)的情況下獨(dú)立做事。

Brachman說,“如今,由于許多人對(duì)深度學(xué)習(xí)所能取得的成就感到興奮,研究的范圍已經(jīng)縮小了很多。特別是在工業(yè)領(lǐng)域,大量資金和人才招聘推動(dòng)了對(duì)基于經(jīng)驗(yàn)或經(jīng)過實(shí)例訓(xùn)練的系統(tǒng)的高度關(guān)注,許多人聲稱已經(jīng)接近通用人工智能,或者說‘有效的老式人工智能’(GOFAI)或象征性方法完全過時(shí)或沒有必要?!?/p>

顯而易見的是,盡管令人印象深刻,但深度學(xué)習(xí)系統(tǒng)正面臨著尚未解決的令人困惑的問題。神經(jīng)網(wǎng)絡(luò)容易受到對(duì)抗性攻擊,其中對(duì)輸入值的特制修改會(huì)導(dǎo)致機(jī)器學(xué)習(xí)模型對(duì)其輸出進(jìn)行突然的錯(cuò)誤更改。深度學(xué)習(xí)也在努力理解簡單的因果關(guān)系,而且在構(gòu)思概念和將它們組合在一起方面的表現(xiàn)非常糟糕。大型語言模型最近成為了一個(gè)特別關(guān)注的領(lǐng)域,但有時(shí)會(huì)在生成連貫且令人印象深刻的文本時(shí)犯下非常愚蠢的錯(cuò)誤。

Brachman說,“人們對(duì)人工智能犯的這些錯(cuò)誤的看法是,它們看起來很愚蠢、很無知,人類很少犯這種錯(cuò)誤。但是重要的是,導(dǎo)致這些錯(cuò)誤的原因有些難以解釋。”

這些錯(cuò)誤導(dǎo)致Brachman和Levesque反思當(dāng)今人工智能技術(shù)中缺少什么,以及需要什么來補(bǔ)充或取代示例驅(qū)動(dòng)的訓(xùn)練神經(jīng)網(wǎng)絡(luò)系統(tǒng)。  

Brachman說,“如果仔細(xì)想想,這些系統(tǒng)顯然缺少的是人類所稱的常識(shí),即能夠看到對(duì)許多人來說顯而易見的事情,并快速得出簡單和明顯的結(jié)論,并能夠在決定做一些立即意識(shí)到是荒謬或錯(cuò)誤選擇的事情時(shí)阻止自己?!?/p>

什么是常識(shí)?

人工智能社區(qū)從早期開始就一直在談?wù)摮WR(shí)。事實(shí)上,John McCarthy于1958年撰寫的最早的人工智能論文之一的名稱為《具有常識(shí)的程序》。  

Brachman說,“這不是什么新鮮事,也不是我們發(fā)明的名稱,但這一領(lǐng)域已經(jīng)忽視了人工智能先驅(qū)者所說的核心意義。如果進(jìn)一步了解什么是常識(shí)以及擁有它的意義,對(duì)我們來說更重要的是,它是如何工作的以及將如何實(shí)施它,人們?cè)谛睦韺W(xué)文獻(xiàn)中幾乎找不到指導(dǎo)?!?/p>

在《像我們這樣的機(jī)器》一書中,Brachman和Levesque將常識(shí)描述為“有效利用普通、日常、經(jīng)驗(yàn)知識(shí)來實(shí)現(xiàn)普通、日常、實(shí)際目標(biāo)的能力”。  

常識(shí)對(duì)生存至關(guān)重要。人類和高等動(dòng)物已經(jīng)進(jìn)化到通過經(jīng)驗(yàn)學(xué)習(xí),發(fā)展常規(guī)和自動(dòng)駕駛技能,可以處理他們每天面臨的大多數(shù)情況。但日常生活不僅僅是人們反復(fù)看到的例行公事。人們經(jīng)常面臨從未見過的新情況。它們中的一些可能與正常情況有很大不同,但大多數(shù)時(shí)候,人們看到的事物與已經(jīng)習(xí)慣的有些不同。在人工智能討論中,這有時(shí)被稱為“長尾”。

Brachman說,“在我們看來,當(dāng)這些例行公事被打斷時(shí),常識(shí)實(shí)際是第一個(gè)被激活的事物,能讓人們快速了解新情況,記住之前所做的事情,快速調(diào)整記憶,并將其應(yīng)用于新情況,并繼續(xù)前進(jìn)?!? 

在某種程度上,常識(shí)與心理學(xué)家、諾貝爾獎(jiǎng)獲得者Daniel Kahneman推廣的雙系統(tǒng)思維范式有些不同。常識(shí)并不是快速、自動(dòng)駕駛的系統(tǒng)1思維,它執(zhí)行人們可以在沒有特意集中精力的情況下完成的大多數(shù)日常任務(wù)(例如,刷牙、系鞋帶、扣扣子、在熟悉的區(qū)域開車)。它需要積極思考來來打破目前的常規(guī)。

與此同時(shí),常識(shí)也不是系統(tǒng)2思維,系統(tǒng)2思維是一種緩慢的思維模式,是需要全神貫注、循序漸進(jìn)的思維(例如,規(guī)劃為期六周的旅行、設(shè)計(jì)軟件、解決復(fù)雜的數(shù)學(xué)方程)。  

Brachman說,“人們可以深思熟慮,以應(yīng)對(duì)挑戰(zhàn)。這種思考會(huì)讓人們的大腦感到疲乏,而且速度很慢。常識(shí)讓人們?cè)趲缀跞魏稳粘I钪卸寄鼙荛_這種情況,因?yàn)椴恍枰钊胨伎枷乱徊皆撟鍪裁?。?

Brachman和Levesque在他們出版的著作中強(qiáng)調(diào),常識(shí)是一種“膚淺的認(rèn)知現(xiàn)象”,與深思熟慮、有條不紊的分析相比,它運(yùn)行速度更快。  

他們寫道,“如果需要大量思考才能弄清楚,這不是常識(shí)。我們可以將其視為‘反思性思維’,‘反思性’與‘思考’一樣重要,”

沒有常識(shí)的人工智能面臨的危險(xiǎn)  

常識(shí)需要可預(yù)測(cè)性、信任、可解釋性和問責(zé)制。  

Brachman說,“大多數(shù)人并不會(huì)犯一些奇怪的錯(cuò)誤。雖然人們可能會(huì)做一些傻事,但在反思之后可能會(huì)避免這樣的錯(cuò)誤。雖然人類并不完美,但有些錯(cuò)誤在一定程度上是可以預(yù)測(cè)的?!? 

沒有常識(shí)的人工智能系統(tǒng)面臨的挑戰(zhàn)是,當(dāng)它們達(dá)到訓(xùn)練的極限時(shí)可能會(huì)犯錯(cuò)。Brachman說,這些錯(cuò)誤是完全不可預(yù)測(cè)和無法解釋的。  

Brachman說,“沒有常識(shí)的人工智能系統(tǒng)沒有這種觀點(diǎn),沒有阻止自己做奇怪事情的退路,而且會(huì)變得脆弱。當(dāng)它們犯錯(cuò)時(shí),錯(cuò)誤對(duì)它們來說根本沒有任何意義?!? 

這些錯(cuò)誤可能是無害的,例如給圖片貼錯(cuò)標(biāo)簽;也可能是極其有害的,例如導(dǎo)致自動(dòng)駕駛汽車駛?cè)脲e(cuò)誤的車道。  

Brachman和Levesque在書中寫道,“如果一個(gè)人工智能系統(tǒng)遇到的問題是下棋,而它所考慮就是贏得比賽,那么常識(shí)對(duì)它們來說不會(huì)發(fā)揮作用,而當(dāng)人們玩國際象棋游戲時(shí),常識(shí)將發(fā)揮作用。”  

因此,隨著人工智能系統(tǒng)進(jìn)入開放領(lǐng)域的敏感應(yīng)用,例如駕駛汽車或與人類合作,甚至參與開放式對(duì)話,常識(shí)將發(fā)揮非常關(guān)鍵的作用。這些領(lǐng)域總是會(huì)發(fā)生新奇的事情。

Brachman和Levesque在《像我們這樣的機(jī)器》書中寫道,“如果我們希望人工智能系統(tǒng)能夠以合理的方式處理現(xiàn)實(shí)世界中普遍發(fā)生的事情,我們需要的不僅僅是通過對(duì)已經(jīng)發(fā)生的事情進(jìn)行采樣而得出的專業(yè)知識(shí)。僅僅基于看到和內(nèi)化過去發(fā)生的事情來預(yù)測(cè)未來是行不通的。我們需要常識(shí)?!?/p>

重新審視符號(hào)人工智能  

大多數(shù)科學(xué)家都認(rèn)為當(dāng)前的人工智能系統(tǒng)缺乏常識(shí)。然而,涉及解決方案時(shí)通常出現(xiàn)一些分歧意見。一個(gè)流行的趨勢(shì)是繼續(xù)使神經(jīng)網(wǎng)絡(luò)的規(guī)模變得越來越大。有證據(jù)表明,更大的神經(jīng)網(wǎng)絡(luò)繼續(xù)進(jìn)行漸進(jìn)式改進(jìn)。在某些情況下,大型神經(jīng)網(wǎng)絡(luò)表現(xiàn)出零樣本學(xué)習(xí)技能,它們執(zhí)行未經(jīng)訓(xùn)練的任務(wù)。

然而,也有大量的研究和實(shí)驗(yàn)表明,更多的數(shù)據(jù)和計(jì)算并不能解決人工智能系統(tǒng)沒有常識(shí)的問題,而只是將它們隱藏在更大、更混亂的數(shù)字權(quán)重和矩陣運(yùn)算中。  

Brachman說,“這些系統(tǒng)注意并內(nèi)化相關(guān)性或模式。它們不會(huì)形成‘概念’。即使這些系統(tǒng)與語言互動(dòng),它們也只是模仿人類行為,而沒有人們認(rèn)為他們擁有的潛在心理和概念機(jī)制?!?/p>

Brachman和Levesque主張創(chuàng)造一種系統(tǒng),將常識(shí)性知識(shí)和對(duì)世界的常識(shí)性理解編碼。

他們?cè)跁袑懙溃骸俺WR(shí)知識(shí)是關(guān)于世界上的事物及其所具有的屬性,以我們所謂的概念結(jié)構(gòu)為中介,它是關(guān)于可能存在的各種事物以及它們可能擁有的各種屬性的一系列想法。知識(shí)將通過符號(hào)化表示和在這些符號(hào)結(jié)構(gòu)上執(zhí)行計(jì)算操作來使用。關(guān)于該做什么的常識(shí)性決策相當(dāng)于使用這些表征知識(shí)來考慮如何實(shí)現(xiàn)目標(biāo),以及如何對(duì)觀察到的情況做出反應(yīng)?!? 

Brachman和Levesque認(rèn)為,該領(lǐng)域需要回顧并重新審視早期關(guān)于符號(hào)人工智能的一些工作,以便為計(jì)算機(jī)帶來常識(shí)。他們稱之為“知識(shí)表示”假設(shè)。這本書詳細(xì)介紹了如何構(gòu)建知識(shí)表示(KR)系統(tǒng),以及如何將不同的知識(shí)片段結(jié)合起來,形成更復(fù)雜的知識(shí)和推理形式。

根據(jù)知識(shí)表示(KR)假設(shè),常識(shí)知識(shí)的表示將分為兩個(gè)部分:“一個(gè)表示世界狀態(tài)的世界模型,另一個(gè)是表示概念結(jié)構(gòu)的概念模型,而這是一個(gè)可用于對(duì)世界中的項(xiàng)目進(jìn)行分類的概括框架。”

Brachman表示“我們的觀點(diǎn)是回到早期關(guān)于人工智能的一些思考,其中某種符號(hào)和符號(hào)操作程序(人們過去稱之為推理引擎)可以用來編碼和使用人們稱之為常識(shí)的世界基礎(chǔ)知識(shí):直觀或幼稚的物理學(xué),對(duì)人類和其他主體的行為方式以及意圖和信念的基本了解,時(shí)間和事件如何運(yùn)作,因果關(guān)系等。這些都是我們?cè)诔跏家粌赡陜?nèi)獲得的所有知識(shí)。正式表示的世界知識(shí)實(shí)際上可以對(duì)機(jī)器的行為產(chǎn)生因果影響,并且還可以通過操縱符號(hào)來做所有事情,例如組合性。并將人們熟悉的事物以新的方式呈現(xiàn)出來。”

Brachman強(qiáng)調(diào),他們?cè)跁刑岢龅募僭O(shè)在未來可以被推翻。  

Brachman說,“從長遠(yuǎn)來看,到底是預(yù)構(gòu)建、預(yù)編碼所有這些知識(shí),還是讓人工智能系統(tǒng)以不同的方式學(xué)習(xí),我不知道。但作為一個(gè)假設(shè)和實(shí)驗(yàn),我認(rèn)為人工智能的下一步應(yīng)該是嘗試建立這些知識(shí)庫,并讓系統(tǒng)使用它們來處理日常生活中的意外事件,對(duì)如何處理熟悉和不熟悉的情況作出粗略的猜測(cè)?!?

Brachman和Levesque的假設(shè)建立在先前創(chuàng)建大型符號(hào)常識(shí)知識(shí)庫(例如Cyc)的基礎(chǔ)之上,該項(xiàng)目可以追溯到上世紀(jì)80年代,并收集了數(shù)百萬條關(guān)于世界的規(guī)則和概念。  

Brachman說,“我認(rèn)為我們需要走得更遠(yuǎn)。我們需要關(guān)注自主決策機(jī)器如何在日常的決策環(huán)境中使用這些事物。積累事實(shí)知識(shí)并能夠回答危險(xiǎn)類型的問題是一回事;但在這個(gè)紛繁嘈雜的世界里工作,并能夠理性、及時(shí)地應(yīng)對(duì)不可預(yù)見的意外,則完全是另一回事?!?/p>

機(jī)器學(xué)習(xí)在常識(shí)中有作用嗎?  

Brachman表示,基于機(jī)器學(xué)習(xí)的系統(tǒng)將繼續(xù)在人工智能的感知方面發(fā)揮關(guān)鍵作用。  

他說,“我不會(huì)推動(dòng)使用一階謂詞演算來處理人造視網(wǎng)膜上的像素或處理速度信號(hào)處理的符號(hào)操作系統(tǒng)。這些機(jī)器學(xué)習(xí)系統(tǒng)非常擅長低感官水平的識(shí)別任務(wù),目前尚不清楚這些事物在認(rèn)知鏈中有多高,但它們并沒有走到最后,因?yàn)樗鼈儾粫?huì)在人們?cè)趫?chǎng)景中看到的事物和自然語言之間形成概念和聯(lián)系?!?/p>

神經(jīng)網(wǎng)絡(luò)和符號(hào)系統(tǒng)的結(jié)合是近年來越來越突出的一個(gè)想法。Gary Marcus、Luis Lamb和Joshua Tenenbaum以及其他科學(xué)家正在提議開發(fā)“神經(jīng)符號(hào)”系統(tǒng),將最好的符號(hào)系統(tǒng)和基于學(xué)習(xí)的系統(tǒng)結(jié)合在一起,以解決人工智能當(dāng)前面臨的挑戰(zhàn)。  

盡管Brachman認(rèn)同該領(lǐng)域正在進(jìn)行的大部分工作,但他也表示,目前對(duì)混合人工智能的看法需要一些調(diào)整。

他說:“我認(rèn)為目前的任何神經(jīng)符號(hào)系統(tǒng)難以解釋常識(shí)與更有條理、更深入的符號(hào)推理之間的差異,而這些符號(hào)推理是數(shù)學(xué)、繁重的規(guī)劃和深度分析的基礎(chǔ)。我希望在這個(gè)混合人工智能世界中看到的是真正考慮常識(shí),讓機(jī)器像人類一樣利用常識(shí),讓它做與人類所做的相同的事情?!?/p>

原文標(biāo)題:??How to solve AI’s “common sense” problem???,作者:Ben Dickson?

責(zé)任編輯:華軒 來源: 51CTO
相關(guān)推薦

2023-03-27 11:33:37

人工智能物聯(lián)網(wǎng)

2021-03-17 14:42:04

人工智能AI

2021-12-07 11:14:03

人工智能行為科學(xué)疫苗

2018-07-22 15:38:18

人工智能AI商業(yè)化

2021-09-08 09:00:01

人工智能AI人臉識(shí)別

2021-03-04 13:55:51

人工智能偏見AI

2018-08-02 09:20:27

區(qū)塊鏈人工智能

2021-10-18 10:59:27

人工智能機(jī)器學(xué)習(xí)技術(shù)

2021-06-28 10:00:15

人工智能數(shù)據(jù)中心AI

2020-09-24 09:29:34

人工智能

2022-11-16 16:15:50

人工智能勞動(dòng)力短缺

2019-09-19 08:22:25

人工智能AI社會(huì)問題

2021-03-24 14:08:28

人工智能AI機(jī)器學(xué)習(xí)

2021-02-10 10:41:04

人工智能數(shù)據(jù)中心AI

2020-07-16 13:21:54

人工智能

2019-05-31 15:30:00

人工智能機(jī)器人互聯(lián)網(wǎng)

2022-07-29 15:47:25

人工智能AI

2022-05-31 18:43:36

區(qū)塊鏈AINFT

2021-01-13 10:53:48

人工智能費(fèi)用管理AI

2023-03-14 10:19:14

AIML數(shù)據(jù)管理
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)