為什么人工智能大多像“人工智障”似的?
誰還記得那些年大火的“互聯(lián)網(wǎng)+”嗎……“衣食住行加互聯(lián)網(wǎng)”,一夜之間誕生了許多現(xiàn)在的互聯(lián)網(wǎng)大廠,不過時過境遷塵埃落定之后,現(xiàn)在似乎已經(jīng)是人工智能的時代了。
但是但凡體驗過若干次人工智能不那么智能的時刻,總是不免從腦海深處發(fā)出靈魂之問:人工智能?就這?
在電影中,人工智能是這樣的,無所不能、追求進步、感情豐富、思考著我是誰我從哪里來我到哪里去的深刻命題……然而現(xiàn)實中呢?機械地接受指令還常常陰差陽錯,遇上一些突發(fā)情況立馬整不會,更別說跟你溝通交流情感往來這些場景了。
B站上的一些人工智障表現(xiàn),常常有數(shù)百上千萬人圍觀。例如,一篇長使英雄淚滿襟的《出師表》在谷歌翻譯看來,那就是縱橫古今三千年的跨學科大作文,充斥著偶爾點題的前言不搭后語,讓人哭笑不得。
正是因為現(xiàn)有的人工智能技術在大多情況下,都不能善解人意地解決實際需求,在互聯(lián)網(wǎng)上還誕生了一批反其道而行的大發(fā)明家,他們的產(chǎn)品生動地展現(xiàn)了,“什么叫做別人家的產(chǎn)品要錢,他們家的人工智能產(chǎn)品要命”。
所以說,你是否思考過這個問題,為什么現(xiàn)在的人工智能存在著那么多的詬?。空娴闹皇且驗榘l(fā)展時間短暫贊不成熟嗎?還是說從根本上就南轅北轍了呢?
01、主流人工智能為什么不“智能”?
一些人工智能之所以并不像想象起來那么智能,那是因為其實他們都只是專用人工智能,而非像人類那樣能夠勝任各種任務的通用人工智能系統(tǒng)(Artificial General Intelligence)。
目前主流AI研究所提供的產(chǎn)品都不屬于“AGI”的范疇,例如曾經(jīng)因為打敗李世石與柯潔而名震天下的谷歌公司的Alpha Go,其實就是一個專用的人工智能系統(tǒng)。
它除了用來下圍棋之外,甚至不能用來下中國象棋或是日本將棋,更別說進行醫(yī)療診斷,或是為家政機器人提供軟件支持了。
雖然驅(qū)動Alpha Go工作的“深度學習”技術本身,可以在進行某些變通之后被沿用到其他人工智能的工作領域中去,但進行這種變通的是人類程序員而不是程序本身。
不妨追溯人工智能的起源,它的誕生本來就是哲學思辨的產(chǎn)物,很多人或許看過《模仿游戲》,主角圖靈其實對于AI科學的興起起到了至關重要的作用。
在1950年,他的一篇論文中提出了著名的“圖靈測驗”,并認為 人造機器具備人工智能的條件,就是它的言語行為是否能夠成功模擬人類的言語行為。(也就是說我們和機器對話時會誤以為它是真人)。
其實從誕生時起,AI研究就要探討, 什么是“智能”?究竟是能解決具體問題,還是在行為層面和人類相似?而判斷AI系統(tǒng)好不好,也往往取決于它能否達到設計者最初的目標,這和物理實驗判斷假設合理性的路徑不同。
在目前AI研究進路多樣的階段中,沒有哪一種獲得了絕對優(yōu)勢,不過我們可以大致將它分為 符號主義和聯(lián)結(jié)主義兩個進路。
不要被這些晦澀術語所嚇到,所謂符號主義進路,其實就是用現(xiàn)代的形式邏輯進行推演,就比如在計算機編程的時候,輸入一些現(xiàn)實的數(shù)據(jù),然后通過邏輯進行推理達到結(jié)果。這種進路其實被廣泛應用,但是它存在一些根本問題,也造成了很多災難:
比如2019年的這場空難,它的事故源自飛機上的AI系統(tǒng),這個系統(tǒng)自動控制飛機頭和地面的角度,而且人很難找到手動控制的按鈕,只能依賴AI。
它的工作原理很簡單,機頭有個傳感器探測飛機和地面角度,之后把數(shù)據(jù)給系統(tǒng),系統(tǒng)就自動調(diào)整直到符合標準。
然而,一個根本問題是,如果傳感器本身壞了怎么辦?這種AI系統(tǒng)無法解決這個問題,因為 它的原理就是根據(jù)給定的經(jīng)驗數(shù)據(jù)進行機械的邏輯推演,它無法靈活根據(jù)現(xiàn)實環(huán)境的變化臨時判斷。
其實這種進路的AI系統(tǒng),都是運用了 現(xiàn)代的形式邏輯思維,雖然它也很難滿足另一派基于聯(lián)結(jié)主義的深度學習技術發(fā)展(想必大家在科技類新聞中常常會見到“深度學習”這一熱詞,盡管可能不清楚它的意思)。
但是,在真實的生活中,我們一般人經(jīng)常不會采用形式邏輯思維,而且 這種思維本身看似比我們的“直覺”、“想象”要更加理性、科學,但是也會造成很多問題:
比如說,形式邏輯無法檢查自己處理的經(jīng)驗性命題本身的真假,上述中那場空難就是例子,而為了克服這一點, 設計者通常預設了很多經(jīng)驗事實在推理中起到了真理的作用,進而將經(jīng)驗世界加以固化了。
人類可以輕松在變化的經(jīng)驗世界和不變的邏輯世界中進行切換,但是依賴形式邏輯的AI卻無法做到。
又比如說,形式邏輯的語義注重刻畫“邊界明確”的極端情況, 但是日常生活中很多表述都處于語義模糊的“灰色地帶”。
一個具體例子是“張三有錢”這句話,按照現(xiàn)代邏輯的表述,哪怕只有一分錢屬于張三,“張三有錢”這句話就是真的,但人們?nèi)粘5谋硎鲲@然意味著,張三的財富必須遠超一般人。
而一個現(xiàn)實的問題是,形式邏輯不考慮經(jīng)濟性和可行性,只關注有效性,這意味著在實際應用到AI編程時,它不在意所需的大量公理和推理步驟。但是實際的AI編程顯然要考慮成本問題和工程效率。
至于所謂的聯(lián)結(jié)主義AI研究,并不關注符號層面上對人類的信息處理過程進行邏輯重構(gòu),而是注重如何以數(shù)學方式模擬人類神經(jīng)網(wǎng)絡的運作方式,并通過對于此類神經(jīng)元網(wǎng)絡的“訓練”,以使其能夠給出用戶所期望的合格輸出。
02、深度學習對人類文明有隱藏威脅
時下流行的“深度學習”技術,其前身其實就是聯(lián)結(jié)主義,或者叫做 “人工神經(jīng)元網(wǎng)絡”技術。
關于這一技術,有個淺顯易懂的類比。假設有一個外國人跑到少林寺學武術,而且他和師父之間語言不通,那么他就先觀察師父的動作,再跟著學習。
師父則通過簡單的肢體交流告訴徒弟學的是否對,假如徒弟知道自己錯了,他也不能通過語言知道自己究竟哪里錯了,只有無限地猜測并模仿,直到師父肯定為止。
這種方式顯然效率很低,但是“胡猜”卻是聯(lián)結(jié)主義的實質(zhì), 因為這種AI系統(tǒng)不知道輸入的信息意味著什么,它是通過一次次猜測可能的結(jié)果,如果與人類預先給定的“理想解”符合,則加以保存“記憶”,并在此基礎上繼續(xù)“學習”。
而所謂“深度”學習,其實并不意味著AI可以深度理解學習內(nèi)容,它的原文“deep learning”翻譯為“深層學習”或許更不容易引發(fā)歧義。
它的意思是通過系統(tǒng)技術升級,增加隱藏的單元層、中間層數(shù)量,這種方式顯然依賴于硬件的提高和互聯(lián)網(wǎng)普及所帶來的大量數(shù)據(jù)。
那么,深度學習為何會對人類文明造成潛在威脅呢?
這里說的威脅,不是那種科幻式的想象,而是一種基于現(xiàn)實的考量。簡單說來,“深度學習系統(tǒng)的大量運用會在短期內(nèi)對特定領域內(nèi)的人類工作崗位構(gòu)成威脅,由此也會對人類專家的穩(wěn)定培養(yǎng)機制構(gòu)成威脅,并使得深度學習未來的智慧汲取對象變得枯竭”, 由此,人類文明在耗盡了深度學習的短期紅利后,可能走向衰落。
這段話究竟是什么含義?
我們從醫(yī)學中的腫瘤AI診斷說起,這種新興技術在設計深度學習框架時,必須依賴專家醫(yī)生進行數(shù)據(jù)的標注,但是專家醫(yī)生本人的讀圖能力卻是數(shù)十年的學習和實踐中積累的。
換言之,當這種AI技術得到推廣,醫(yī)學院的學生可能沒有精神動力再耗費多年心血進行相關學習,從長遠來看,這會造成人類醫(yī)生相關能力的衰弱。
而且,由于深度學習的統(tǒng)計學機制會剔除偶然數(shù)據(jù),很多罕見病例的腫瘤形態(tài)不會被標注,這種情況下,只能依賴人類醫(yī)生, 長遠來看,AI腫瘤診斷也會對人類醫(yī)生診斷罕見病例的能力產(chǎn)生負面影響。
徐英瑾老師認為, 深度學習技術對專業(yè)領域勞動力的剝削和取代,實際上對人類文明的人文資源產(chǎn)生了剝削和威脅。
所謂的人文資源,包括了穩(wěn)定而不僵化的知識培養(yǎng)體系,使得勞動力在專業(yè)技能和文化素質(zhì)等方面都能有所發(fā)展,而且 每個人的思想與技能水平的差異性,又使得人文資源充滿豐富性和多樣性,這是一個社會的人文資源能夠可持續(xù)發(fā)展的重要前提。
但是現(xiàn)有的AI系統(tǒng)不能像真人那樣對同一價值內(nèi)容產(chǎn)生多樣性的認識,深度學習機制實際上是收集了大量的一般性認識,并加以平均化, 它無形中排除了很多個性化的認知,但是卻無法產(chǎn)生新的歷史發(fā)展可能性。
這種僵化和平均化的一個后果,是人類提出新動議時被AI所限制。比如說,喜歡創(chuàng)新的影視制作者提出新的方案時,如果資本方依賴深度學習所提供的信息處理方式,就會以“缺乏數(shù)據(jù)支持”為由反對這種創(chuàng)新,那么有想法的導演和編劇就無法得到資本界的支持來從事創(chuàng)新性的文藝創(chuàng)作。
03、對眼下的主流的AI研究的批評
傳統(tǒng)的的AI系統(tǒng)需要對系統(tǒng)所面對的環(huán)境,或者是所要處理的任務類型給出非常清楚的界定,因此不具備那種針對開放式環(huán)境的適應性。
然而,現(xiàn)實生活中,即使是鳥類的自然智能,也都具有那種處理“全局性”性質(zhì)的能力。譬如說,烏鴉所面臨的原始環(huán)境肯定是不包含城市的,但是這并不妨礙日本東京的烏鴉成了一種高度適應城市環(huán)境的生物。
成精的日本烏鴉
相反,對于信息的過分榨取,已經(jīng)使得當下的人工智能陷入了所謂“探索-榨取兩難”,如果不去海量地剝削人類既有的知識,機器便無法表現(xiàn)出哪怕出于特定領域內(nèi)的智能。
然而,一旦機器剝削人類既有知識“上了癮”,就無法在任何一個領域內(nèi)進行新的探索。
與之相比較,相對高級的自然智能卻都具備在不過分剝削既有知識的前提下進行創(chuàng)新的能力(比如司馬光在“司馬光砸缸”這一案例中所體現(xiàn)的創(chuàng)新能力)。
因此,假使有一天一種超級AGI實現(xiàn)了,它的技術路徑也必然與現(xiàn)在主流的人工智能技術非常不同。
總體來看,目前被社會各界所熱炒的AI的概念,是需要一番冷靜的“祛魅”操作的,這需要一定的科學知識做支撐,也需要一定的哲學剖析能力做輔助。
我國目前AI發(fā)展的基本策略,就是 利用中國龐大的互聯(lián)網(wǎng)用戶所產(chǎn)生的數(shù)據(jù)紅利,拓展緣起于美國的深度學習技術的應用范圍,這就使得相關技術的發(fā)展更容易收到某些國家來自技術供應端的打壓。
要從這種局面中找到出路,創(chuàng)新性的哲學思維就顯得很重要。例如如果我們能夠開拓出一種基于小數(shù)據(jù)的(而非大數(shù)據(jù)的)、并由此在原則上就不需要大量獲取用戶個人信息的新AI發(fā)展思路,就完全可能由此規(guī)避美國目前針對我國的大多數(shù)政策限制。