GPT-3 Playground:可以為人們寫作的人工智能
譯文譯者 | 李睿
審校 | 重樓
人們?nèi)缃裨谡劦饺斯ぶ悄軙r(shí),主要有兩種觀點(diǎn):有些人認(rèn)為人工智能最終將超越人類智能,而另外一些人則認(rèn)為人工智能將永遠(yuǎn)為人類服務(wù)。然而,有一件事雙方都一致認(rèn)同:其發(fā)展速度越來越快。
雖然人工智能目前仍處于發(fā)展的早期階段,但它有可能徹底改變?nèi)祟惻c技術(shù)互動的方式。
而一個簡單而籠統(tǒng)的描述是,人工智能是一個對計(jì)算機(jī)進(jìn)行編程以自行做出決策的過程。這可以通過多種方式實(shí)現(xiàn),但最常見的是通過使用人工智能算法。算法是一組可以用來解決問題的規(guī)則或指令。在人工智能的例子中,算法被用來教會計(jì)算機(jī)如何做出決策。
在過去,人工智能主要用于完成簡單的任務(wù),例如下棋或解決數(shù)學(xué)問題。然而,人工智能現(xiàn)在被用于更復(fù)雜的任務(wù),例如面部識別、自然語言處理,甚至自動駕駛。隨著人工智能技術(shù)的不斷發(fā)展,沒有人知道它在未來會有什么能力。隨著人工智能能力的迅速擴(kuò)展,了解它是什么,它是如何工作的,以及它的潛在影響非常重要。
人工智能的好處是巨大的。憑借自主決策的能力,人工智能有潛力提高各行業(yè)的工作效率,并為人們提供更多的機(jī)會。本文將主要討論GPT-3。
GPT-3是什么?它從何而來?
GPT-3是由OpenAI公司創(chuàng)建的生成式人工智能。OpenAI公司是一家總部位于舊金山的開創(chuàng)性人工智能研究機(jī)構(gòu),該公司將其目標(biāo)定義為“確保人工智能造福全人類”。他們創(chuàng)造人工智能的愿景是明確的:GPT-3是一種不局限于特定任務(wù),而是像人類一樣執(zhí)行各種任務(wù)的人工智能。
幾個月前,OpenAI公司向所有用戶發(fā)布了GPT-3這一新的語言模型。GPT-3是“Generative Pretrained Transformer 3”的簡稱,由名稱為提示符的前提生成文本組成。簡單地說,它可以被稱為高級的“自動補(bǔ)全”。例如,人們可以就任何給定的主題提供兩到三個句子,GPT-3將完成其余的工作,還可以生成對話,將基于前面的問題和答案的語境提供答案。
需要強(qiáng)調(diào)的是,GPT-3提供的每個答案都只是一種可能,因此它不會是唯一的答案。此外,如果對同一個前提進(jìn)行多次測試,可能會得到不同的答案甚至相互矛盾的答案。因此,它是一個基于先前所說的內(nèi)容以返回答案的模型,并將其與人們所知道的一切聯(lián)系起來,以獲得最有意義的答案。這意味著它沒有義務(wù)采用真實(shí)的數(shù)據(jù)給出答案,這是人們必須考慮到的事情。這并不意味著人們不能向它提供所做的一些工作的數(shù)據(jù)并談?wù)撍?,但總是有必要對這些信息進(jìn)行對比。語境越好,得到的答案就越好,反之亦然。
OpenAI公司的GPT-3語言模型之前已經(jīng)進(jìn)行了訓(xùn)練,其訓(xùn)練包括學(xué)習(xí)互聯(lián)網(wǎng)上的大量信息。GPT-3得到了所有公共書籍、維基百科以及互聯(lián)網(wǎng)上數(shù)百萬網(wǎng)頁和科學(xué)論文的支持。簡而言之,它吸收了人類歷史上在Web上發(fā)布的最重要的人類知識。
在閱讀和分析這些信息之后,這個語言模型在一個768GB的模型中創(chuàng)建了連接,該模型采用48個16GB顯存的GPU。就像人們理解的那樣,之前的OpenAI模型GPT-2的顯存總和為40GB,并且分析了4500萬個網(wǎng)頁。但二者之間的差異是巨大的,因?yàn)镚PT-2有15億個參數(shù),GPT-3有1750億個參數(shù)。
以下做一個測試。要求GPT-3定義它自己,其結(jié)果如下:
如何在GPT-3 Playground上使用它
為了能夠使用GPT-3并進(jìn)行測試,用戶要做的唯一一件事就是訪問他們的網(wǎng)站,注冊并添加通常在注冊中使用的個人信息。在其中一部分,它會問用戶將使用這個GPT-3做什么,對于這些例子,選擇了個人使用選項(xiàng)。
專家為此指出的是,從使用經(jīng)驗(yàn)來看,使用英語的效果要好一些。這并不意味著它在其他語言中表現(xiàn)得很糟糕。事實(shí)上,在西班牙語中,GPT-3表現(xiàn)得很好,但有些人更喜歡它采用英語提供的結(jié)果,這就是為什么從現(xiàn)在開始展示的測試和結(jié)果是使用西班牙語的原因。
當(dāng)用戶第一次采用GPT-3時(shí),就會得到一份免費(fèi)的贈品。一旦用戶注冊了電子郵箱和電話號碼,將會獲得18美元免費(fèi)的消費(fèi)額。雖然看起來不多,但事實(shí)上18美元提供的服務(wù)并不少。例如采用人工智能測試5個小時(shí),而其費(fèi)用為1美元。稍后將會解釋價(jià)格以便更好地理解這個問題。
一旦進(jìn)入網(wǎng)站,通常會進(jìn)入GPT-3 Playground部分。所有的奇跡都將在這里發(fā)生。
提示+提交
首先,在網(wǎng)絡(luò)上最突出的是大文本框。這是可以開始向人工智能輸入提示(這些是請求或指令)的地方。這就像輸入一些內(nèi)容一樣簡單,在本例中是提出的一個問題,然后點(diǎn)擊下面的提交按鈕,讓GPT-3回答并寫下所要求的內(nèi)容。
預(yù)設(shè)
預(yù)設(shè)是針對不同任務(wù)的現(xiàn)成預(yù)置。它們可以在文本框的右上角找到。如果點(diǎn)擊其中的幾個,“更多示例”將打開一個新屏幕,在那里將獲得整個列表。當(dāng)選擇預(yù)設(shè)時(shí),文本區(qū)域的內(nèi)容將更新為默認(rèn)文本。右側(cè)邊欄中的設(shè)置也會更新。例如,如果要使用“語法糾正”預(yù)設(shè),應(yīng)該遵循以下結(jié)構(gòu),以獲得最好的結(jié)果。
模型
用于訓(xùn)練GPT-3的大量數(shù)據(jù)集是它如此強(qiáng)大的主要原因。然而,數(shù)據(jù)集更大并不總是意味著更好。出于這些原因,OpenAI提供了四種主要模型。雖然還有其他的模型,但建議使用最新的版本,現(xiàn)在就要討論這些模型。
這四個可用的模型稱為Davinci、Babbage、Curie和Ada。在這四個模型中,Davinci是最大和功能最強(qiáng)大的模型,因?yàn)樗梢詧?zhí)行其他智能引擎可以執(zhí)行的任務(wù)。
以下將概述每個模型以及可能最適合每個模型的任務(wù)類型。然而請記住,雖然較小的模型可能無法使用那么多的數(shù)據(jù)進(jìn)行訓(xùn)練,但它們?nèi)匀皇峭ㄓ媚P?,對于某些任?wù)來說,它們非??尚星页杀靖汀?/span>
(1)Davinci
如上所述,它是最有能力的模型,可以做任何其他模型可以做的所有事情,通常需要更少的指令。Davinci能夠解決邏輯問題,確定因果關(guān)系,理解文本意圖,產(chǎn)生創(chuàng)造性的內(nèi)容,解釋人物動機(jī),并處理復(fù)雜的總結(jié)性任務(wù)。
(2)Curie
這種模型試圖平衡智能引擎的動力和速度。它可以做到Ada或Babbage可以做的任何事情,但它也能夠處理更復(fù)雜的分類任務(wù)和更細(xì)致的任務(wù),例如總結(jié)、情感分析、聊天機(jī)器人應(yīng)用程序和問答。
(3)Babbage
Babbage的能力比Ada稍強(qiáng),但效率不如Ada。它可以執(zhí)行與Ada相同的所有任務(wù),但也可以處理稍微復(fù)雜一些的分類任務(wù),并且非常適合用于對文檔與搜索查詢匹配程度進(jìn)行分類的語義搜索任務(wù)。
(4)Ada
最后,Ada通常是最快和最便宜的模型。它最適合于細(xì)微差別較小的任務(wù),例如解析文本、重新格式化文本和更簡單的分類任務(wù)。為Ada提供的語境越多,它的性能就越好。
引擎
可以調(diào)整其他參數(shù)以獲得對提示的最佳響應(yīng),這些參數(shù)低于最重要的參數(shù)之下。沒錯,就是模型。以下來解釋一些看起來最有趣的事情。
控制GPT-3引擎輸出的最重要的設(shè)置之一是溫度。這個設(shè)置控制生成文本的隨機(jī)性。值為0使引擎具有確定性,這意味著它總是為給定的文本輸入生成相同的輸出。值為1會讓引擎承擔(dān)最大的風(fēng)險(xiǎn),并使用大量的創(chuàng)造力。
人們可能注意到,在能夠運(yùn)行的一些測試中,GPT-3停在句子的中間。要控制允許生成的文本的最大數(shù)量,可以使用代幣中指定的“最大長度”設(shè)置。稍后會解釋這個代幣是什么。
“Top P”參數(shù)是控制GPT-3生成文本的隨機(jī)性和創(chuàng)造性的另一種方法,但在這種情況下,它與概率范圍內(nèi)的標(biāo)記(單詞)有關(guān),這取決于將其放置在哪里(0.1將是10%)。OpenAI文檔建議在Temperature和Top P之間只使用一個函數(shù),因此在使用其中一個函數(shù)時(shí),請確保另一個函數(shù)設(shè)置為1。
另一方面,有兩個參數(shù)來懲罰GPT-3給出的答案。其中之一是“頻率懲罰”,它控制著模型重復(fù)預(yù)測的趨勢。它還降低了已經(jīng)生成的單詞的概率,這取決于一個單詞在預(yù)測中已經(jīng)出現(xiàn)了多少次。
第二種懲罰是“存在懲罰”。“存在懲罰”參數(shù)鼓勵模型做出新穎的預(yù)測。如果某個單詞已經(jīng)出現(xiàn)在預(yù)測文本中,則出現(xiàn)懲罰會降低該單詞出現(xiàn)的概率。與“頻率懲罰”不同,出現(xiàn)次數(shù)的懲罰并不取決于單詞在過去的預(yù)測中出現(xiàn)的頻率。
最后,有一個“Bestof”參數(shù),它為查詢生成幾個答案。然后Playground選擇最好的發(fā)送給用戶。GPT-3本身警告人們,這將對提示符生成多個補(bǔ)全,這可能導(dǎo)致花費(fèi)比人們想象還要多的代幣。
歷史
為了完成本節(jié),“提交”按鈕旁邊的第三個圖標(biāo)將展示對GPT-3的所有請求的歷史記錄。這樣,如果用戶不記得曾經(jīng)使用的提示符,將會得到非常好的響應(yīng),這讓它變得更容易。
成本和代幣
一旦免費(fèi)的服務(wù)結(jié)束,GPT-3為用戶提供了一種繼續(xù)使用其平臺的方式,它不是任何形式的每月訂閱或類似的事情。其價(jià)格與它的用途直接相關(guān)。換句話說,人們將通過代幣收費(fèi)。這是一個用于人工智能的術(shù)語,與產(chǎn)出的成本有關(guān)。標(biāo)記可以是任何事物,從字母到句子。因此,很難確切地知道每次使用人工智能服務(wù)的價(jià)格。但考慮到它們通常是幾美分,只需稍微嘗試一下,很快就會看到每次使用服務(wù)的價(jià)格。
雖然OpenAI公司只展示了十幾個GPT-3的使用示例,但可以看到每個GPT-3上使用的代幣,以更好地了解其工作原理。
以下是它們各自的版本和價(jià)格:
為了了解一定數(shù)量的單詞可能會花費(fèi)多少費(fèi)用,或者給一個代幣如何工作的示例,使用了以下名為Tokenizer的工具。
這表明GPT模型家族使用標(biāo)記處理文本,標(biāo)記是文本中常見的字符序列。模型理解這些代幣之間的統(tǒng)計(jì)關(guān)系,并在這些代幣序列中的下一個代幣的生產(chǎn)中被選擇。
最后,這是一個非常低的水平,所以可以用別的例子來看看同一個例子會花費(fèi)多少代幣。
結(jié)論
從專家的角度來看,它是用戶必須知道如何正確使用的一個工具。正如以上所提到的,GPT-3不必為用戶提供正確的數(shù)據(jù)。這意味著,如果想用它來開展工作、回答某些問題或做作業(yè),就必須給人工智能一個良好的語境(提示),這樣的結(jié)果才真正接近想要的結(jié)果。
有些人可能會擔(dān)心的一件事是,這是否會改變教育行業(yè),或者當(dāng)前存在的某些與寫作有關(guān)的工作是否會消失。這是有可能發(fā)生的,因?yàn)橛行┕ぷ鬟t早都會被人工智能取代。這個例子是關(guān)于與寫作相關(guān)的人工智能,但它們存在于編程、繪圖、音頻等領(lǐng)域。
另一方面,它為許多工作和項(xiàng)目提供了很多可能性,無論是個人的還是專業(yè)的。例如,你曾經(jīng)想過寫一個恐怖故事嗎?在找到語法檢查器的例子列表中,有一個專門的語法檢查器。
綜上所述,人工智能現(xiàn)在正處在早期版本,這個世界仍然有很多事物可以發(fā)展和提供。人們可以學(xué)習(xí)如何使用,并對其進(jìn)行訓(xùn)練,以提供最佳的響應(yīng)。
原文標(biāo)題:GPT-3 Playground: The AI That Can Write for You,作者:Isaac Alvarez