想不想把ChatGPT裝在自己電腦上?國產開源大語言模型 ChatGLM 幫你實現(xiàn)!
哈嘍,大家好。
今天給大家分享一個開源的大語言模型ChatGLM-6B。
十幾天的時間,就收獲了近 1w 個 star。
ChatGLM-6B 是一個開源的、支持中英雙語的對話語言模型,基于 General Language Model (GLM) 架構,具有 62 億參數(shù)。結合模型量化技術,用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。ChatGLM-6B 使用了和 ChatGPT 相似的技術,針對中文問答和對話進行了優(yōu)化。經過約 1T 標識符的中英雙語訓練,輔以監(jiān)督微調、反饋自助、人類反饋強化學習等技術的加持,62 億參數(shù)的 ChatGLM-6B 已經能生成相當符合人類偏好的回答。
大家都可以裝在自己的電腦上運行下試試。獨顯最小顯存6G,CPU電腦也可以跑,但很慢。
項目目前只開源了模型和推理代碼,并沒有開源模型的訓練。
運行項目,只需兩個
第一步,下載源碼
執(zhí)行pip install -r requirements.txt 安裝依賴
第二步,運行項目
執(zhí)行后,會自動下載模型文件,大概 4G 左右。
如果是GPU?運行,默認情況下, 模型運行顯存至少 13G,如果顯存不夠,可以修改下 web_demo.py
將上述代碼的THUDM/chatglm-6b?改為THUDM/chatglm-6b-int4?,即:改用 int4 量化后的模型,只要是顯存大于6g就可以順利運行。
如果報 CPU 內存不足,把其他軟件關一關,尤其是瀏覽器。
運行成功后, 會自動跳轉瀏覽器頁面,這時候就可以像ChatGPT一樣使用了。
下面是我本地運行的結果,大家可以看看與ChatGPT的差異
自我認知
寫提綱
寫郵件
寫代碼
角色扮演
項目運行還是很簡單的,大家可以跑跑試試。
如果大家覺得本文對你有用就點個 在看 鼓勵一下吧,我會持續(xù)分享優(yōu)秀的 Python+AI 項目。