自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

我用ChatGPT寫神經(jīng)網(wǎng)絡(luò):一字不改,結(jié)果竟然很好用

人工智能 新聞
AI 寫 AI,來得比預(yù)料中更快一些。

自從去年底推出以來,對話式 AI 模型 ChatGPT 火遍了整個社區(qū)。

ChatGPT 的確是一個了不起的工具,就像一個「潘多拉魔盒」。一旦找到正確的打開方式,你或許會發(fā)現(xiàn),自己再也離不開它了。

作為一個全能選手,人們給 ChatGPT 提出的要求五花八門,有人用它寫論文,有人讓它陪聊,這些都是常見的玩法。腦洞再打開一點,既然 ChatGPT 是 AI 中的「王者」,那它會不會寫一個 AI?

近日,一位機器學(xué)習(xí)領(lǐng)域的博主突發(fā)奇想,他決定讓 ChatGPT 構(gòu)建一個神經(jīng)網(wǎng)絡(luò),使用 Keras 解決 MNIST 問題。

MNIST 算是機器學(xué)習(xí)領(lǐng)域的經(jīng)典問題。即使這個手寫數(shù)字?jǐn)?shù)據(jù)集逐漸淡出了計算機視覺領(lǐng)域,但它的紀(jì)念意義仍然不可忽視,很多人入門深度學(xué)習(xí)的第一個數(shù)據(jù)集、驗證算法的第一個實驗都是 MNIST。

圖片

話不多說,想到了就開工。作者直接讓 ChatGPT 寫了一段代碼,看上去完美無缺,甚至不需要更改任何內(nèi)容。

這是一個很好的開始。

ChatGPT 選擇了分類交叉熵作為損失函數(shù)。作者提出重寫分類交叉熵這部分代碼,ChatGPT 將其替換為稀疏分類交叉熵,更新之后的代碼仍能 Work??梢园l(fā)現(xiàn),新的損失函數(shù)放棄了標(biāo)簽的分類轉(zhuǎn)換。

圖片

ChatGPT 生成的代碼使用了全連接層,但作者想使用卷積層。因此,ChatGPT 按照指示修改了代碼,并添加了一個 Conv2D 和一個最大池化層(MaxPooling layer)。

圖片

然后來到了評估最終模型階段,作者讓 ChatGPT 使用測試集編寫代碼。

圖片

結(jié)果看起來很棒,而且 ChatGPT 的每一次回復(fù)都帶有完整的解釋。比如在這次評估中,它這樣解釋:

「評估」方法將測試數(shù)據(jù)和測試標(biāo)簽作為參數(shù),并返回模型編譯(此處為準(zhǔn)確率)期間指定的損失和度量。上面的代碼片段輸出了測試的準(zhǔn)確率,這應(yīng)該可以讓你了解到模型對新數(shù)據(jù)的概括性。

模型在訓(xùn)練期間使用了整個測試集作為驗證數(shù)據(jù)。然后,作者讓 ChatGPT 將其更改為訓(xùn)練數(shù)據(jù)的 20%。

圖片

此外,作者還想要更小的 batch 并運行更少 epoch 的代碼。雖然這一步未必要用到 ChatGPT,但他不想在不更新 ChatGPT 上下文的情況下更改代碼。

所以這項任務(wù)還是落在了 ChatGPT 頭上:

圖片

接下來,作者打算繪制訓(xùn)練過程中的訓(xùn)練和測試損失圖。ChatGPT 的建議是:需要更改適合模型的 line 以捕獲其結(jié)果值。

圖片

圖片

為了展示數(shù)據(jù)集中的一些示例,作者讓 ChatGPT 編寫代碼來輸出圖像和標(biāo)簽的組合。這些輸出的代碼也很完美,附有 20 張圖片的合集。

圖片

圖片

構(gòu)建模型時,查看其結(jié)構(gòu)也是必要的。如果用這個問題去問 ChatGPT ,回復(fù)是:

圖片

ChatGPT 給出的是關(guān)于模型的總結(jié):

圖片

模型的總結(jié)很有用,但作者更想看到顯示模型結(jié)構(gòu)的圖。所以繼續(xù)問:

圖片

圖片

結(jié)果是滿意的,最后就是準(zhǔn)備部署這個模型了,讓 ChatGPT 將模型保存到磁盤吧:

圖片

現(xiàn)在,作者想創(chuàng)建一個使用保存的模型進(jìn)行預(yù)測的類。這是 prompt 很有趣,解決方案也很完美。

圖片

現(xiàn)在編寫一個示例,使用預(yù)測器的類來預(yù)測 10 個隨機圖像的標(biāo)簽:

圖片

為了完成這個,作者讓 ChatGPT 展示了一個混淆矩陣:

圖片

該說不說,ChatGPT 使用的樣式還真挺好看。

圖片

完成所有試驗后,作者將所有 ChatGPT 生成的代碼公布了出來,你也可以上手試試:

地址:https://colab.research.google.com/drive/1JX1AVIfGtIlnLGqgHrK6WPylPhZvu9qe?usp=sharing

責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2025-02-25 14:13:31

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2019-11-19 08:00:00

神經(jīng)網(wǎng)絡(luò)AI人工智能

2018-01-24 10:48:34

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)前端

2023-04-10 14:20:47

ChatGPTRESTAPI

2018-07-29 06:46:07

神經(jīng)網(wǎng)絡(luò)RNN循環(huán)神經(jīng)網(wǎng)絡(luò)

2021-10-29 09:55:20

人工神經(jīng)網(wǎng)絡(luò)

2020-08-14 10:01:25

編程神經(jīng)網(wǎng)絡(luò)C語言

2020-12-19 11:05:57

循環(huán)神經(jīng)網(wǎng)絡(luò)PyTorch神經(jīng)網(wǎng)絡(luò)

2020-09-08 13:02:00

Python神經(jīng)網(wǎng)絡(luò)感知器

2021-09-24 09:45:27

Python神經(jīng)網(wǎng)絡(luò)人工智能

2020-05-27 11:10:54

KerasLSTM神經(jīng)網(wǎng)絡(luò)

2021-02-07 09:40:19

Python神經(jīng)網(wǎng)絡(luò)人工智能

2018-04-08 11:20:43

深度學(xué)習(xí)

2021-08-16 10:29:01

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)搜索

2023-03-01 20:18:05

ChatGPTPython

2017-09-10 07:07:32

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)集可視化

2018-09-17 15:12:25

人工智能神經(jīng)網(wǎng)絡(luò)編程語言

2024-08-22 08:21:10

算法神經(jīng)網(wǎng)絡(luò)參數(shù)

2023-09-17 23:09:24

Transforme深度學(xué)習(xí)
點贊
收藏

51CTO技術(shù)棧公眾號