自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

想不想把ChatGPT裝在自己電腦上?國產開源大語言模型 ChatGLM 幫你實現(xiàn)!

人工智能
ChatGLM-6B 是一個開源的、支持中英雙語的對話語言模型,基于 General Language Model (GLM) 架構,具有 62 億參數(shù)。結合模型量化技術,用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。

哈嘍,大家好。

今天給大家分享一個開源的大語言模型ChatGLM-6B。

圖片

十幾天的時間,就收獲了近 1w 個 star。

ChatGLM-6B 是一個開源的、支持中英雙語的對話語言模型,基于 General Language Model (GLM) 架構,具有 62 億參數(shù)。結合模型量化技術,用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。ChatGLM-6B 使用了和 ChatGPT 相似的技術,針對中文問答和對話進行了優(yōu)化。經過約 1T 標識符的中英雙語訓練,輔以監(jiān)督微調、反饋自助、人類反饋強化學習等技術的加持,62 億參數(shù)的 ChatGLM-6B 已經能生成相當符合人類偏好的回答。

大家都可以裝在自己的電腦上運行下試試。獨顯最小顯存6G,CPU電腦也可以跑,但很慢。

項目目前只開源了模型和推理代碼,并沒有開源模型的訓練。

運行項目,只需兩個

第一步,下載源碼

git clone https://github.com/THUDM/ChatGLM-6B.git

執(zhí)行pip install -r requirements.txt 安裝依賴

第二步,運行項目

python web_demo.py

執(zhí)行后,會自動下載模型文件,大概 4G 左右。

如果是GPU?運行,默認情況下, 模型運行顯存至少 13G,如果顯存不夠,可以修改下 web_demo.py

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()

將上述代碼的THUDM/chatglm-6b?改為THUDM/chatglm-6b-int4?,即:改用 int4 量化后的模型,只要是顯存大于6g就可以順利運行。

如果報 CPU 內存不足,把其他軟件關一關,尤其是瀏覽器。

運行成功后, 會自動跳轉瀏覽器頁面,這時候就可以像ChatGPT一樣使用了。

下面是我本地運行的結果,大家可以看看與ChatGPT的差異

圖片

自我認知

圖片

寫提綱

圖片

寫郵件

圖片

寫代碼

圖片

角色扮演

項目運行還是很簡單的,大家可以跑跑試試。

如果大家覺得本文對你有用就點個 在看 鼓勵一下吧,我會持續(xù)分享優(yōu)秀的 Python+AI 項目。

責任編輯:武曉燕 來源: 渡碼
相關推薦

2023-05-12 13:13:37

百度文心模型

2013-01-31 09:26:56

2024-10-28 09:47:53

2023-04-27 13:46:08

語言模型ChatGPT人工智能

2021-09-27 22:26:45

軟件C盤電腦

2023-05-26 13:22:49

2023-08-10 08:46:52

2023-06-08 11:06:17

OpenAITigerBot

2025-02-28 12:32:42

2023-08-21 10:36:23

2022-12-02 10:39:59

四天工作制技術開發(fā)工作效率

2023-03-15 09:36:14

模型

2023-10-12 17:27:21

算法AI

2023-09-06 12:11:21

ChatGPT語言模型

2024-01-18 15:10:47

開源模型開源InternLM2

2023-06-05 12:32:48

模型論文

2023-02-03 16:24:09

ChatGPT開源

2023-05-04 14:55:02

模型AI

2024-01-24 18:55:56

ChatGPT聊天機器人

2023-12-27 11:31:27

點贊
收藏

51CTO技術棧公眾號