只要模型夠大、樣本夠多,AI就可以變得更智能!
?AI模型與人腦在數(shù)學機制上并沒有什么區(qū)別。
只要模型夠大、樣本夠多,AI就可以變得更智能!
chatGPT的出現(xiàn),實際上已經(jīng)證明了這點。
1,AI和人腦的底層細節(jié)都是基于if else語句
邏輯運算,是產(chǎn)生智能的基礎(chǔ)運算。
編程語言的基本邏輯是if else,它會根據(jù)條件表達式把代碼分成兩個分支。
在這個基礎(chǔ)上,程序員可以寫出非常復雜的代碼,實現(xiàn)各種各樣的業(yè)務(wù)邏輯。
人腦的基本邏輯也是if else,if else這兩個詞就來自英語,對應(yīng)的中文詞匯是如果...否則...
人腦在思考問題時也是這么一個邏輯思路,這點上跟電腦沒有區(qū)別。
if else語句,邏輯的核心
AI模型的“if else語句”就是激活函數(shù)!
AI模型的一個運算節(jié)點,我們也可以叫它“神經(jīng)元”。
它有一個輸入向量X,一個權(quán)值矩陣W,一個偏置向量b,還有一個激活函數(shù)。
激活函數(shù)的作用實際就是if else語句,而WX + b這個線性運算就是條件表達式。
在激活之后,AI模型的代碼相當于運行在 if分支,而不激活時相當于運行在else分支。
多層神經(jīng)網(wǎng)絡(luò)的不同激活狀態(tài),實際上也是對樣本信息的二進制編碼。
深度學習也是對樣本信息的二進制編碼
AI模型對樣本信息的編碼是動態(tài)的、并行的,而不是和CPU代碼一樣是靜態(tài)的、串行的,但它們的底層基礎(chǔ)都是if else。
在電路層面要實現(xiàn)if else并不難,一個三極管就可以實現(xiàn)。
2,人腦比電腦聰明,是因為人類獲得的信息更多
人腦每時每刻都在獲取外界的信息,每時每刻都在更新自己的“樣本數(shù)據(jù)庫”,但程序代碼沒法自我更新,這是很多人能做到的事而電腦做不到的原因。
人腦的代碼是活的,電腦的代碼是死的。
“死代碼”當然不可能比“活代碼”更聰明,因為“活代碼”可以主動查找“死代碼”的BUG。
而根據(jù)實數(shù)的連續(xù)性,只要“死代碼”編碼的信息是可數(shù)的,那么它就總存在編碼不到的BUG點。
這在數(shù)學上可以用康托三分集來佐證。
不管我們用多少位的三進制小數(shù)去編碼[0, 1]區(qū)間上的實數(shù),總有至少1個點是沒法編碼進去的。
所以當兩個人抬杠的時候,總是能找到可抬杠的點?
但是電腦的代碼一旦寫好就沒法主動更新了,所以程序員可以想出各種辦法去欺騙CPU。
例如,intel的CPU本來要求在進程切換時要切換任務(wù)門的,但Linux就想出了一個辦法只切換頁目錄和RSP寄存器?
在intel CPU看來,Linux系統(tǒng)一直在運行同一個進程,但實際上不是。這就是所謂的進程軟切換。
所以,只要CPU的電路固定了,那么CPU編碼的信息也就固定了。
CPU編碼的信息固定了,那么它編碼不到的信息就是無限的,就是可以被程序員利用的。
而程序員之所以可以利用這種信息,是因為程序員的大腦是活的,可以動態(tài)的更新樣本。
3,神經(jīng)網(wǎng)絡(luò)的出現(xiàn)改變了這種情況
神經(jīng)網(wǎng)絡(luò)真是一個偉大的發(fā)明,它在固定的電路上實現(xiàn)了動態(tài)的信息更新。
所有寫好的程序能處理的信息都是固定的,包括CPU電路,也包括各種系統(tǒng)的代碼。
但神經(jīng)網(wǎng)絡(luò)不是這樣,它的代碼雖然是寫好的,但它只需要更新權(quán)值數(shù)據(jù),就可以改變模型的邏輯脈絡(luò)。
實際上只要不斷地輸入新樣本,AI模型就可以不斷地用BP算法(梯度下降算法)更新權(quán)值數(shù)據(jù),從而適應(yīng)新的業(yè)務(wù)場景。
AI模型的更新不需要修改代碼,而只需要修改數(shù)據(jù),所以同樣的CNN模型用不同的樣本訓練,它就可以識別不同的物體。
在這個過程中,不管是tensorflow框架的代碼,還是AI模型的網(wǎng)絡(luò)結(jié)構(gòu)都是不變的,變的是每個節(jié)點的權(quán)值數(shù)據(jù)。
理論上來說,只要AI模型可以通過網(wǎng)絡(luò)抓取數(shù)據(jù),它就可以變得更智能。
這跟人們通過瀏覽器看東西(從而變得更聰明),有本質(zhì)的區(qū)別嗎?好像也沒有。
4,只要模型夠大、樣本夠多,或許ChatGPT真可以挑戰(zhàn)人腦
人腦有150億個神經(jīng)元,而且人的眼睛和耳朵每時每刻都在給它提供新的數(shù)據(jù),AI模型當然也可以做到這點。
或許比起AI來,人類的優(yōu)勢在于“產(chǎn)業(yè)鏈”更短?
一個嬰兒的出生只需要Ta父母,但一個AI模型的誕生顯然不是一兩個程序員可以做到的。
僅僅是GPU的制造就不止幾萬人。
GPU上的CUDA程序并不難寫,但GPU制造的產(chǎn)業(yè)鏈太長了,遠不如人類的出生和成長。
這或許是AI相對于人的真正劣勢。