自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI百科:ChatGPT的工作原理

人工智能
ChatGPT迅速獲得了數(shù)百萬人的關(guān)注,但許多人都持謹(jǐn)慎態(tài)度,因?yàn)槎疾涣私馑墓ぷ髟?。而本文就是試圖將其分解,以便更容易理解。

ChatGPT迅速獲得了數(shù)百萬人的關(guān)注,但許多人都持謹(jǐn)慎態(tài)度,因?yàn)槎疾涣私馑墓ぷ髟怼6疚木褪窃噲D將其分解,以便更容易理解。

然而,就其核心而言,ChatGPT是一個(gè)非常復(fù)雜的系統(tǒng)。如果想要玩ChatGPT或者想弄懂它是什么,核心界面是一個(gè)聊天窗口,可以在其中提問或提供查詢,AI會(huì)做出回應(yīng)。要記住的一個(gè)重要細(xì)節(jié)是,在聊天中,上下文會(huì)被保留,這意味著消息可以引用先前的信息,而ChatGPT將能夠根據(jù)上下文地理解這一點(diǎn)。

當(dāng)在聊天框中輸入查詢時(shí)會(huì)發(fā)生什么?

神經(jīng)網(wǎng)絡(luò)

首先,在ChatGPT的框架下,有很多東西待發(fā)現(xiàn)。機(jī)器學(xué)習(xí)在過去10年里一直在迅速發(fā)展,ChatGPT利用了許多最先進(jìn)的技術(shù)來實(shí)現(xiàn)其結(jié)果。

AI百科:CHATGPT的工作原理

神經(jīng)網(wǎng)絡(luò)是相互連接的“神經(jīng)元”層,每個(gè)神經(jīng)元負(fù)責(zé)接收輸入、處理輸入,并將其傳遞給網(wǎng)絡(luò)中的下一個(gè)神經(jīng)元。神經(jīng)網(wǎng)絡(luò)構(gòu)成了當(dāng)今人工智能的支柱。輸入通常是一組稱為“特征”的數(shù)值,表示正在處理的數(shù)據(jù)的某些方面。例如,在語言處理的情況下,特征可能是表示句子中每個(gè)單詞的含義的詞嵌入。

詞嵌入只是一種文本的數(shù)字表示,神經(jīng)網(wǎng)絡(luò)將使用它來理解文本的語義,然后可以將其用于其他目的,比如以語義邏輯的方式進(jìn)行響應(yīng)!

因此,在ChatGPT中按回車鍵后,該文本首先被轉(zhuǎn)換為詞嵌入,這些詞嵌入是在整個(gè)互聯(lián)網(wǎng)上的文本上進(jìn)行訓(xùn)練的。然后有一個(gè)經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò),在給定輸入詞嵌入的情況下,輸出一組合適的響應(yīng)詞嵌入。然后,使用應(yīng)用于輸入查詢的逆操作將這些嵌入入翻譯成人類可讀的單詞。這個(gè)解碼后的輸出就是ChatGPT打印出來的內(nèi)容。

ChatGPT模型大小

轉(zhuǎn)換和輸出生成的計(jì)算成本非常高。ChatGPT位于GPT-3之上,GPT-3是一個(gè)擁有1750億個(gè)參數(shù)的大型語言模型。這意味著在OpenAI使用其大型數(shù)據(jù)集調(diào)整的廣泛神經(jīng)網(wǎng)絡(luò)中有1750億個(gè)權(quán)重。

因此,每個(gè)查詢至少需要兩次1750億次計(jì)算,這加起來很快。OpenAI可能已經(jīng)找到了一種方法來緩存這些計(jì)算以降低計(jì)算成本,但不知道這些信息是否已經(jīng)發(fā)布到任何地方。此外,預(yù)計(jì)將于今年年初發(fā)布的GPT-4,據(jù)稱參數(shù)增加了1000倍!

計(jì)算復(fù)雜性會(huì)導(dǎo)致實(shí)際成本!如果ChatGPT很快成為付費(fèi)產(chǎn)品,不必感到驚訝,因?yàn)镺penAI目前正在花費(fèi)數(shù)百萬美元免費(fèi)運(yùn)營(yíng)它。

編碼器、解碼器和RNN

自然語言處理中常用的一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是編碼器-解碼器網(wǎng)絡(luò)。這些網(wǎng)絡(luò)的設(shè)計(jì)目的是將輸入序列“編碼”為緊湊表示,然后將該表示“解碼”為輸出序列。

傳統(tǒng)上,編碼器-解碼器網(wǎng)絡(luò)已經(jīng)與循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)配對(duì),用于處理順序數(shù)據(jù)。編碼器處理輸入序列并產(chǎn)生固定長(zhǎng)度的向量表示,然后將其傳遞給解碼器。解碼器處理這個(gè)向量并產(chǎn)生輸出序列。

編碼器-解碼器網(wǎng)絡(luò)已廣泛應(yīng)用于機(jī)器翻譯等任務(wù),其中輸入是一種語言的句子,輸出是將該句子翻譯成另一種語言。它們也被應(yīng)用于摘要和圖像說明生成任務(wù)。

AI百科:CHATGPT的工作原理

變壓器與注意力

與編碼器-解碼器結(jié)構(gòu)類似,變壓器包括兩個(gè)組件;然而,轉(zhuǎn)換器的不同之處在于它使用一種自關(guān)注機(jī)制,允許輸入的每個(gè)元素關(guān)注所有其他元素,從而允許它捕獲元素之間的關(guān)系,而不管它們彼此之間的距離如何。

變壓器還使用多頭注意力,允許它同時(shí)關(guān)注輸入的多個(gè)部分。這使得它能夠捕獲輸入文本中的復(fù)雜關(guān)系并產(chǎn)生高度準(zhǔn)確的結(jié)果。

在2017年發(fā)表“Attention is All You Need”論文時(shí),變壓器取代了編碼器-解碼器架構(gòu),成為自然語言處理的最先進(jìn)模型,因?yàn)樗梢栽谳^長(zhǎng)的文本中實(shí)現(xiàn)更好的性能。

AI百科:CHATGPT的工作原理

變壓器架構(gòu),來自https://arxiv.org/pdf/1706.03762.pdf

生成式預(yù)訓(xùn)練

生成式預(yù)訓(xùn)練是一種在自然語言處理領(lǐng)域特別成功的技術(shù)。它涉及以無監(jiān)督的方式在海量數(shù)據(jù)集上訓(xùn)練廣泛的神經(jīng)網(wǎng)絡(luò),以學(xué)習(xí)數(shù)據(jù)的通用表示。這個(gè)預(yù)訓(xùn)練網(wǎng)絡(luò)可以針對(duì)特定任務(wù)進(jìn)行微調(diào),比如語言翻譯或問答,從而提高性能。

AI百科:CHATGPT的工作原理

生成式預(yù)訓(xùn)練架構(gòu),摘自《通過生成式預(yù)訓(xùn)練提高語言理解能力》

在ChatGPT的例子中,這意味著對(duì)GPT-3模型的最后一層進(jìn)行微調(diào),以適應(yīng)在聊天中回答問題的用例,這也利用了人工標(biāo)記。下圖可以更詳細(xì)地了解ChatGPT微調(diào):

AI百科:CHATGPT的工作原理

ChatGPT 微調(diào)步驟,來自https://arxiv.org/pdf/2203.02155.pdf

把一切結(jié)合在一起

因此,在ChatGPT的框架下有許多活動(dòng)部件,這些部件只會(huì)不斷增長(zhǎng)。看到它如何繼續(xù)發(fā)展將是非常有趣的,因?yàn)樵S多不同領(lǐng)域的進(jìn)步將幫助類似GPT的模型獲得進(jìn)一步的采用。

在接下來的一兩年里,我們可能會(huì)看到這種新的使能技術(shù)帶來的重大顛覆。

責(zé)任編輯:姜華 來源: 千家網(wǎng)
相關(guān)推薦

2015-04-17 15:23:10

互動(dòng)百科

2019-01-17 10:40:54

DHCP服務(wù)器網(wǎng)絡(luò)協(xié)議

2017-10-26 14:29:50

互動(dòng)百科

2017-01-19 17:41:30

百科

2018-06-29 17:05:51

互動(dòng)百科

2013-10-30 16:54:46

維基百科維基百科的衰落

2024-01-04 10:19:48

2022-12-30 13:05:05

云計(jì)算

2015-06-23 16:18:26

性能優(yōu)化

2017-06-20 10:51:15

芒果

2017-02-09 17:05:03

2016-04-06 11:27:42

2015-06-23 11:23:26

行業(yè)百科頻道

2022-12-01 13:10:13

SASE網(wǎng)絡(luò)

2017-06-27 14:36:03

移動(dòng) 互聯(lián)網(wǎng)

2016-12-06 14:43:00

互動(dòng)百科

2011-11-25 12:44:28

2011-06-28 17:34:35

外鏈

2011-09-28 09:33:36

Linux系統(tǒng)安全服務(wù)器
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)