自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

只要模型夠大、樣本夠多,AI就可以變得更智能!

人工智能
編程語言的基本邏輯是if else,它會根據(jù)條件表達式把代碼分成兩個分支。在這個基礎(chǔ)上,程序員可以寫出非常復雜的代碼,實現(xiàn)各種各樣的業(yè)務(wù)邏輯。

?AI模型與人腦在數(shù)學機制上并沒有什么區(qū)別。

只要模型夠大、樣本夠多,AI就可以變得更智能!

chatGPT的出現(xiàn),實際上已經(jīng)證明了這點。

1,AI和人腦的底層細節(jié)都是基于if else語句

邏輯運算,是產(chǎn)生智能的基礎(chǔ)運算。

編程語言的基本邏輯是if else,它會根據(jù)條件表達式把代碼分成兩個分支。

在這個基礎(chǔ)上,程序員可以寫出非常復雜的代碼,實現(xiàn)各種各樣的業(yè)務(wù)邏輯。

人腦的基本邏輯也是if else,if else這兩個詞就來自英語,對應(yīng)的中文詞匯是如果...否則...

人腦在思考問題時也是這么一個邏輯思路,這點上跟電腦沒有區(qū)別。

if else語句,邏輯的核心

AI模型的“if else語句”就是激活函數(shù)!

AI模型的一個運算節(jié)點,我們也可以叫它“神經(jīng)元”。

它有一個輸入向量X,一個權(quán)值矩陣W,一個偏置向量b,還有一個激活函數(shù)。

激活函數(shù)的作用實際就是if else語句,而WX + b這個線性運算就是條件表達式。

在激活之后,AI模型的代碼相當于運行在 if分支,而不激活時相當于運行在else分支。

多層神經(jīng)網(wǎng)絡(luò)的不同激活狀態(tài),實際上也是對樣本信息的二進制編碼。

深度學習也是對樣本信息的二進制編碼

AI模型對樣本信息的編碼是動態(tài)的、并行的,而不是和CPU代碼一樣是靜態(tài)的、串行的,但它們的底層基礎(chǔ)都是if else。

在電路層面要實現(xiàn)if else并不難,一個三極管就可以實現(xiàn)。

2,人腦比電腦聰明,是因為人類獲得的信息更多

人腦每時每刻都在獲取外界的信息,每時每刻都在更新自己的“樣本數(shù)據(jù)庫”,但程序代碼沒法自我更新,這是很多人能做到的事而電腦做不到的原因。

人腦的代碼是活的,電腦的代碼是死的。

“死代碼”當然不可能比“活代碼”更聰明,因為“活代碼”可以主動查找“死代碼”的BUG。

而根據(jù)實數(shù)的連續(xù)性,只要“死代碼”編碼的信息是可數(shù)的,那么它就總存在編碼不到的BUG點。

這在數(shù)學上可以用康托三分集來佐證。

不管我們用多少位的三進制小數(shù)去編碼[0, 1]區(qū)間上的實數(shù),總有至少1個點是沒法編碼進去的。

所以當兩個人抬杠的時候,總是能找到可抬杠的點?

但是電腦的代碼一旦寫好就沒法主動更新了,所以程序員可以想出各種辦法去欺騙CPU。

例如,intel的CPU本來要求在進程切換時要切換任務(wù)門的,但Linux就想出了一個辦法只切換頁目錄和RSP寄存器?

在intel CPU看來,Linux系統(tǒng)一直在運行同一個進程,但實際上不是。這就是所謂的進程軟切換。

所以,只要CPU的電路固定了,那么CPU編碼的信息也就固定了。

CPU編碼的信息固定了,那么它編碼不到的信息就是無限的,就是可以被程序員利用的。

而程序員之所以可以利用這種信息,是因為程序員的大腦是活的,可以動態(tài)的更新樣本。

3,神經(jīng)網(wǎng)絡(luò)的出現(xiàn)改變了這種情況

神經(jīng)網(wǎng)絡(luò)真是一個偉大的發(fā)明,它在固定的電路上實現(xiàn)了動態(tài)的信息更新。

所有寫好的程序能處理的信息都是固定的,包括CPU電路,也包括各種系統(tǒng)的代碼。

但神經(jīng)網(wǎng)絡(luò)不是這樣,它的代碼雖然是寫好的,但它只需要更新權(quán)值數(shù)據(jù),就可以改變模型的邏輯脈絡(luò)。

實際上只要不斷地輸入新樣本,AI模型就可以不斷地用BP算法(梯度下降算法)更新權(quán)值數(shù)據(jù),從而適應(yīng)新的業(yè)務(wù)場景。

AI模型的更新不需要修改代碼,而只需要修改數(shù)據(jù),所以同樣的CNN模型用不同的樣本訓練,它就可以識別不同的物體。

在這個過程中,不管是tensorflow框架的代碼,還是AI模型的網(wǎng)絡(luò)結(jié)構(gòu)都是不變的,變的是每個節(jié)點的權(quán)值數(shù)據(jù)。

理論上來說,只要AI模型可以通過網(wǎng)絡(luò)抓取數(shù)據(jù),它就可以變得更智能。

這跟人們通過瀏覽器看東西(從而變得更聰明),有本質(zhì)的區(qū)別嗎?好像也沒有。

4,只要模型夠大、樣本夠多,或許ChatGPT真可以挑戰(zhàn)人腦

人腦有150億個神經(jīng)元,而且人的眼睛和耳朵每時每刻都在給它提供新的數(shù)據(jù),AI模型當然也可以做到這點。

或許比起AI來,人類的優(yōu)勢在于“產(chǎn)業(yè)鏈”更短?

一個嬰兒的出生只需要Ta父母,但一個AI模型的誕生顯然不是一兩個程序員可以做到的。

僅僅是GPU的制造就不止幾萬人。

GPU上的CUDA程序并不難寫,但GPU制造的產(chǎn)業(yè)鏈太長了,遠不如人類的出生和成長。

這或許是AI相對于人的真正劣勢。

責任編輯:武曉燕 來源: 今日頭條
相關(guān)推薦

2021-11-14 15:48:42

Windows 11Windows微軟

2022-10-17 07:16:08

SQL機器學習AI

2019-06-26 15:41:26

AI云原生云遷移

2014-12-18 09:58:23

2018-07-19 06:07:22

物聯(lián)網(wǎng)安全物聯(lián)網(wǎng)IOT

2021-12-24 09:52:59

代碼開發(fā)工具

2022-02-28 17:57:44

云遷移云計算

2018-11-27 09:21:41

負載均衡機器Session

2017-02-13 09:33:32

2022-02-28 22:58:04

云遷移IT開發(fā)

2015-07-10 11:18:19

2020-11-19 08:00:03

打工人離職工作

2018-03-01 15:00:15

Oracle數(shù)據(jù)中心云計算

2018-12-03 08:04:25

負載均衡機器流量

2020-06-16 13:22:22

AI創(chuàng)新深度學習

2020-09-17 15:59:37

Java技術(shù)開發(fā)

2020-07-06 10:55:38

CIO首席信息官IT

2009-03-17 08:46:57

Windows 7微軟發(fā)布

2009-10-21 09:46:13

VB使用ArrayLi

2021-02-23 07:01:24

js小游戲技術(shù)
點贊
收藏

51CTO技術(shù)棧公眾號