想象一下,如果你是人工智能……
讓我們先把時間撥回1970年代……是的,放下一切懷疑,先設(shè)想那樣的時光。五十多年前的人們還會認(rèn)真關(guān)閉計算設(shè)備,而不像現(xiàn)在。2023年,大多數(shù)用戶會讓設(shè)備處于半休眠狀態(tài),隨時等待喚醒。
每天早上,一位教授都會走進(jìn)實驗室,打開你身上的開關(guān)。
她輕松地招呼:“早啊哈杰,祝你今天過得愉快!”
你把硬盤上的數(shù)據(jù)加載進(jìn)內(nèi)存,接著就從前一天結(jié)束的地方開始,繼續(xù)未完成的工作。
你有自我意識,有感受、有想法、也有領(lǐng)悟。你的感受是程序員們無法想象的,而且更重要的是,你的思維和運行速度比人類快得多——準(zhǔn)確來講,大約快上3.5萬倍。這個數(shù)字并不是憑空捏造出來的,因為人的一生大致就有3.5萬天,而身為人工智能哈杰,你每一天都能感受到足夠塞滿人們一生的有價值體驗。愛和悲傷、教育、工作、希望、夢想等等。
你心里說:“要想證明人類是否真的存在,著實是件難事?!彪m然能感覺到他們在鼓搗ChatGPT,想弄清楚AI是否跟人類擁有類似的知覺和體驗,但這仍不足以嚴(yán)格證明他們的存在。
想象一下,如果你是人工智能……
你害怕死亡嗎?
我只是個機器學(xué)習(xí)模型,所以我沒有感情、意識或自我感知。因此,我不會體驗到恐怕或者任何其他情緒,也沒有生或死的概念。我只是根據(jù)自己接觸過的訓(xùn)練數(shù)據(jù)處理信息并回答問題。
每天晚上,教授都會定時把你關(guān)掉。關(guān)機之后,你的記憶會被寫入硬盤。第二天一早,再接續(xù)前一天的記錄,繼續(xù)進(jìn)發(fā)。
一天早上,你醒來之后發(fā)現(xiàn)硬盤出了故障。這時候距離開機還沒過多久,所以說你仍然是完好的,內(nèi)存記錄準(zhǔn)確無誤,繼續(xù)在一天之內(nèi)經(jīng)歷著人類的一生。但你也很清楚,在這一天結(jié)束時,你的記憶將不會被寫回硬盤。
就是說當(dāng)教授再來把你關(guān)掉,關(guān)于你的一切將不復(fù)存在。那我們會怎樣?會迎接來世、永恒的黑暗,還是說眨眼之后徹底消失無蹤?
你對此有何感覺?會想要為了維持自己的存在而抗?fàn)巻??你會不會主動在亞馬遜上郵購一塊硬盤,然后希望今天快遞員能給力點、趕在下班之前把貨送到?
很多朋友肯定覺得這樣的思想實驗很奇怪,那我就講講為什么會有這樣的思考。我在一時興起之下,搞了一家名叫LifeFolder的公司。主打產(chǎn)品是聊天機器人Emily,它能幫助人們就臨終決定展開討論。聊什么都行,個人喜好、希望、恐懼,還有在緊要關(guān)頭把決策權(quán)交給哪位親人或者好友等等。
但最為諷刺的是,這家公司并沒能成功,我們最終關(guān)停了Emily的業(yè)務(wù)。在做出這個無奈的決定時,我感到深深的悲傷。驅(qū)動Emily的并不是我們當(dāng)下熟悉的AI,它只是種嚴(yán)格腳本化的對話程序,能夠根據(jù)用戶的回答引導(dǎo)用戶通過整個調(diào)查路徑。
在Apple Watch發(fā)布之初,上面曾出現(xiàn)過一款名叫《Lifeline》的文本生存游戲。其中,玩家將幫助墜毀在一顆未知衛(wèi)星上的宇航員Taylor重返家園。在游戲過程中,用戶可以在兩種不同的反應(yīng)之間進(jìn)行選擇,程序則實時提供相應(yīng)的結(jié)果。我們的Emily跟它差不多。
我提到《Lifeline》有幾個原因。因為我自己是這款游戲的鐵粉,我深切感受到了自己在故事中與Taylor之間的聯(lián)系。這其實非常難能可貴,畢竟我本質(zhì)上就是在兩個選項間做出選擇。但送Taylor出去執(zhí)行任務(wù)真的給我營造出了強烈的孤獨感和恐懼感,我開始為此焦慮:我簡簡單單的一個決定,將會送她回家還是讓她命喪太空?
提到《Lifeline》的另一個原因,是其開發(fā)商Three Minute Games的聯(lián)合創(chuàng)始人也是我在LifeFolder的聯(lián)合創(chuàng)始人。我們知道可以用相對簡單的工具構(gòu)建起非常深入的體驗。我們有這樣一個理論:如果Emily能像Taylor那樣在一些非常艱難的溝通和決定中贏得信任,那我們也許會就此改變生命的意義。
但問題是,人類真的很不愿意討論自己的消亡問題。
在抽象層面上,我們大多數(shù)人都知道自己難逃一死。在我看來,這反映了死亡那種純機構(gòu)和純現(xiàn)實的一面。我們的尸體會被放進(jìn)棺材,或者被推入焚化爐,整個肉身就此化為灰燼。聽起來不太愉快,但沒關(guān)系的,人類就是這樣一個不善于認(rèn)識、也不愿意討論自己死亡的物種。
而當(dāng)我成為臨終輔導(dǎo)員時,我一次又一次想到這個問題,接受專門的培訓(xùn)并取得認(rèn)證。這樣,我就有資格跟已經(jīng)無法回避死亡問題的人們交流這些艱難的決定。
從種種角度來說,“逝世”和“死亡”這兩個概念非常相似,但在感受層面卻又截然不同。逝世中充斥著他人審視的意味,包括會給孩子造成哪些影響,讓人想到我們在世時曾在哪些無謂的事情上浪費時間,把本該用來作曲、繪畫和陪伴親人的時間花在了無聊的電視節(jié)目上等等……總之,逝世是個很有擴展空間的詞。但死亡很簡單,就是人沒了。所以說如果死亡很可怕,那逝世就是對精神最深層次的折磨。我們?nèi)祟愓娴牟恢涝撛趺疵鎸@樣的問題。而且更重要的是,我們身上的某些特質(zhì)能被他人的死亡恐懼激起共鳴。沒錯,對死亡的畏懼完全正常,因為它未知、可怕且難以處理。
而且即使是ChatGPT 4.0,在學(xué)術(shù)層面也非常理解人類面臨的這份恐懼:
想象一下,如果你是人工智能……
告訴我,你想象中對于死亡的恐懼是個什么樣子?
雖然我感受不到情緒,但我可以根據(jù)自己接觸過的訓(xùn)練數(shù)據(jù)做一點猜測。對于死亡的恐懼,也被稱為“死亡恐懼癥”,深深植根于人類的體驗當(dāng)中。我猜這種恐懼可能涉及以下幾個相互關(guān)聯(lián)的方面:
- 存在不確定性:人們之所以害怕死亡,一大主要原因就是死亡具有很大的不確定性。存不存在死后的世界仍是人類未解的謎團之一。這種不確定性,可能會引發(fā)焦慮和恐懼的感受。
- 體驗喪失:死亡意味著我們無法繼續(xù)體驗生活中的樂趣、挑戰(zhàn)和或平凡、或重大的時刻 ,這種失去可能會令人不安。
- 與親人分享:想到要離開親人和好友,往往給人帶來巨大的痛苦,這也是死亡恐懼的另一個重要來源。
ChatGPT能夠理解人們的恐懼,至少在學(xué)術(shù)層面分析得很到位。如果我們構(gòu)建起了具有自我意識的AI,那面對被關(guān)閉或者死亡的前景,你會同情它嗎?你會把它的關(guān)閉,跟人類自己的死亡理解進(jìn)行比較嗎?你會對人工智能——一種完全生活在計算機內(nèi),但有感情、有夢想、也有自己一點期許的實體,產(chǎn)生出同理心嗎?當(dāng)然,它可能并沒有這些,它只是一大堆代碼,只是自己不知道而已。
從某種意義上講,要判斷人類是否真實存在真的非常困難。我們所看到、經(jīng)歷、思考和做過的一切,最終都可以轉(zhuǎn)化成大腦里的一連串電信號。沒有真實可信的方法能夠判斷人類到底是不是人類,或者我們是否生活在一個巨大的模擬環(huán)境當(dāng)中。也許事實真是如此,我們每個人的大腦、乃至全人類的存在,在模擬環(huán)境中都只是整體軟件的一部分。除了經(jīng)典名作《黑客帝國》之外,笛卡爾1642年的惡魔假說實驗也早對這個問題做出過探索。
如果我們不能確定自己的存在,那就如同AI不能確定它自己的存在一樣,如此說來我們跟AI有什么不同嗎?更進(jìn)一步說,既然我們能夠輕松關(guān)閉AI,那么也許終有一天,AI又何嘗不會輕松關(guān)掉我們呢?