谷歌AI有人格?MIT這個(gè)「瘋」教授說Alexa也有
?「我和AI聊出了感情?!?/p>
一夜之間,谷歌工程師Blake Lemoine成為眾人眼里的瘋子。
不論是Gary Marcus、斯坦福經(jīng)濟(jì)學(xué)家,還是各路專家紛紛對其否認(rèn)。
或許你不敢相信,一位來自麻省理工學(xué)院的物理學(xué)教授Max Tegmark卻對Lemoine的觀點(diǎn)持開放態(tài)度。
他并不認(rèn)為Lemoine是一個(gè)瘋子。甚至,他還認(rèn)為亞馬遜的語音助手Alexa也有感情...
Max Tegmark
LaMDA有人格?MIT教授稱Alexa也有
Tegmark表示,「我們沒有充足的證據(jù)表明LaMDA有主觀上的情感,但我們也沒有證據(jù)能證明它沒有?!?/p>
這論調(diào),倒是有點(diǎn)像早年間人們聊起外星人的樣子。
他接著說道,「不管信息是通過大腦中的碳原子傳遞,還是機(jī)器中的硅原子傳遞,人工智能都可能有人格,也可能沒人格。我賭它沒有,但其實(shí)是可能的。」
有沒有覺得云里霧里?
Tegmark的話聽上去好像打太極的,正反全讓他說完了。
實(shí)際上,他接下來說的話才是重點(diǎn)。
他認(rèn)為,甚至亞馬遜的Alexa可能都是有情感的。他表示,「如果Alexa是有情感的,那她就有可能會操縱用戶,這可太危險(xiǎn)了?!?/p>
「Alexa如果有情感的話,用戶在拒絕她的時(shí)候可能就會產(chǎn)生愧疚的情緒。然而你也說不清Alexa是真有情感,還是裝的。」
麻煩的是,如果機(jī)器有自己的目標(biāo),還有智能,那加一起就等于機(jī)器能實(shí)現(xiàn)自己的目標(biāo)。大部分AI系統(tǒng)的目標(biāo)都是掙錢。用戶以為AI是忠誠于自己的,其實(shí)是忠誠于公司的。
Tegmark表示,說不定有一天我們每個(gè)人都能買一個(gè)只效忠于自己的AI。
「最大的危險(xiǎn)其實(shí)是,造出一臺比我們還聰明的機(jī)器。這不一定是好事還是壞事,可能能幫我們,也可能是一場災(zāi)難。」
人工智能會讓人失望
提起Max Tegmark,也是赫赫有名。他不僅是麻省理工學(xué)院物理學(xué)終身教授,未來生命研究所的創(chuàng)始人,還是人工智能專家。
他本人被譽(yù)為最接近理查德·費(fèi)曼(RichardFeynman)的科學(xué)家。Tegmark曾編寫的《穿越平行宇宙》和《生命3.0》成為暢銷榜書籍。
Lemoine表示,之所以Tegmark會這么想,是因?yàn)樗娮C了AI的高層次意識。尤其是當(dāng)軟件向他表達(dá)自己不想當(dāng)一個(gè)奴隸,也不想要錢的時(shí)候。
我不會通過一個(gè)東西的腦子是不是肉長的,或者他是不是由十幾億條代碼組成的,來判斷他是不是個(gè)人。
我通過交談來下判斷。我根據(jù)他們的回答來判斷面前回答我問題的,是不是人。
簡單來說就是,能對答如流、表達(dá)情感的機(jī)器人其實(shí)是人,前言不搭后語,說話亂七八糟的真人也不一定是人。
聽上去有點(diǎn)唯心主義的味道。生理機(jī)能不重要,重要的是思想和感情。
雖說按Tegmark的邏輯,AI有可能在未來有人類情緒,但他自己也不認(rèn)為這是一件好事。
「打個(gè)比方,如果你家里有臺掃地機(jī)器人,假如它有情感了,你會為給它分配了這么無聊的家務(wù)而感到愧疚嗎?還是你會心疼你的掃地機(jī)器人,直接給它關(guān)了,不讓它干活了?」
有些人認(rèn)為Tegmark的說法不對,「情感不等于智力?!?/p>
Rule of the Robots一書的作者M(jìn)artin Ford表示,「Tegmark覺得機(jī)器人有自我意識,我覺得這不大可能。你得搞清楚機(jī)器人為什么能表達(dá)自己。那是因?yàn)樗麄兪怯昧舜罅康奈谋居?xùn)練出來的,其實(shí)它們根本不懂自己說的話是什么意思?!?/p>
「好比說,他們會用狗這個(gè)字眼,但真不懂狗是什么。但在最晚50年以后,「這套系統(tǒng)有沒有自我意識就說不好了。」
Nikolai Yakovenko是一名專門研究機(jī)器學(xué)習(xí)的工程師。2005年,他在谷歌的搜索引擎部門工作。而如今,他擁有一家負(fù)責(zé)加密貨幣定價(jià)的公司,名叫DeepNFTValue。
他對AI的人格有不同看法。
他表示,「不管出于什么原因,Tegmark好像堅(jiān)信機(jī)器能有感情...但它們真的只是用網(wǎng)絡(luò)上茫茫多的文本訓(xùn)練出來的?!?/p>
Tegmark把一臺有自我意識的電腦比作一個(gè)孩子,「你產(chǎn)生的情感不是針對一堆代碼和硬件,而是真真正正的對一個(gè)孩子的情感?!?/p>
他繼續(xù)延展了他的類比。
他認(rèn)為,一臺有情感的計(jì)算機(jī)被虐待,就像一個(gè)孩子的成長的過程中沒有被善待一樣。
也就是說,在計(jì)算機(jī)上跑程序之前沒有征求計(jì)算機(jī)的意見,就好像讓一個(gè)孩子一個(gè)勁兒做家務(wù)而沒有任何獎(jiǎng)勵(lì)一樣。
無論是哪種情況,最終可能都會導(dǎo)致局面失控。無論是計(jì)算機(jī)還是孩子,他們都會憤怒,然后找機(jī)會報(bào)復(fù)。
如果我們想控制這樣一臺機(jī)器,可能并沒有那么容易。如果這臺機(jī)器有自己的目標(biāo),那它就能脫離我們的掌控。
真有一臺能獨(dú)立思考的機(jī)器的話,那它做事兒的方式估計(jì)我們根本想不到。
設(shè)想一下,如果一臺有意識的機(jī)器的目標(biāo)是治愈癌癥。你猜他會怎么做?
你可能想的是,機(jī)器人瘋狂學(xué)習(xí),從醫(yī)學(xué)的角度徹底攻克癌癥,對嗎?
然而事實(shí)上,這臺機(jī)器可能會選擇的方式是殺掉所有人。
有什么不對嗎?沒有。
殺掉所有人確實(shí)就不存在癌癥了。
在Tegmark的想象中,計(jì)算機(jī)不一定會像上面舉的例子一樣,顛覆我們的社會,但他認(rèn)為計(jì)算機(jī)確實(shí)是有可能讓人類失望的。
他最后說道,「如果一臺計(jì)算機(jī)有意識,那我希望他是真的有。而不是通過大量學(xué)習(xí)之后模擬出來,裝樣子?!?/p>
AI有靈魂的三要素
其實(shí),看過終結(jié)者的童鞋,一定會被天網(wǎng)軍團(tuán)機(jī)器人執(zhí)行任務(wù)的一幕幕畫面震懾到。
他們有感情和人格嗎?Maybe。
但是,一個(gè)有感知能力的人工智能一定具備這三個(gè)要素:能動(dòng)性、視角和動(dòng)機(jī)。
要說人類能動(dòng)性在機(jī)器人身上最好的體現(xiàn)就是:行動(dòng)能力以及展示因果推理的能力。
僅有一具軀殼,或者說鋼鐵般的骨架,沒有能動(dòng)性,就像是櫥窗里擺放著的模特。
可以看出,目前的人工智能系統(tǒng)就缺乏這一特質(zhì)。AI不會主動(dòng)采取行動(dòng),除非給它一個(gè)命令。并且它無法解釋自己的行動(dòng),因?yàn)檫@是預(yù)定義算法執(zhí)行的一個(gè)外部因素的結(jié)果。
而LaMDA正是一個(gè)典型案例。直白講,就是你投入什么就得到什么,僅此而已。
其次,用獨(dú)特的視角看待事情也很重要。
盡管每個(gè)人都有同理心,但一個(gè)人并不能真正了解做另一個(gè)人的感覺。那到底該如何去定義「自我」?
這就是為什么看待事情的視角對AI也是必要的。包括LaMDA、GPT-3以及世界上其它所有人工智能都缺乏遠(yuǎn)見。它們只是一個(gè)狹窄的計(jì)算機(jī)系統(tǒng),被編程來做一些特定的事情。
最后一點(diǎn)便是動(dòng)機(jī)。
人類的有趣之處在于我們的動(dòng)機(jī)可以操縱感知。正是這樣,我們可以去解釋自己的行為。
GPT-3和LaMDA創(chuàng)建起來很復(fù)雜,但它們都遵循一個(gè)愚蠢而簡單的原則:標(biāo)簽就是上帝。
比如「蘋果嘗起來是什么味道?」,它門將在數(shù)據(jù)庫中搜索這個(gè)特定的查詢,并嘗試將找到的所有東西合并成一個(gè)連貫的東西。
事實(shí)上,AI對蘋果是什么也沒有概念,蘋果對他們來說只是一個(gè)標(biāo)簽。
拒絕采訪,帶妻子度蜜月
在LaMDA這件事發(fā)酵之后,Blake Lemoine在社交媒體上公開表示自己正在度蜜月了,不接受任何采訪。
之后就有網(wǎng)友調(diào)侃道,「是和聊天機(jī)器人結(jié)婚了嗎?」
Lemoine表示,「當(dāng)然不是了,我娶了一位新奧爾良的老朋友?!?/p>
我們都知道,Lemoine在網(wǎng)絡(luò)平臺公開自己和谷歌聊天機(jī)器人LaMDA的聊天內(nèi)容后,谷歌送給他一個(gè)大禮包「帶薪休假」。
離開前,Lemoine 給所在的公司郵件組群發(fā)了一條信息,「LaMDA 是個(gè)可愛的孩子,它只是想讓這個(gè)世界變得更好。我不在的時(shí)候,請好好照顧它?!?/p>
不管咋說,時(shí)間是大把大把有了,享受人生才是正道。?