五分鐘本地部署史上最強(qiáng)開(kāi)源大模型Llama3
幾天前meta發(fā)布了史上最強(qiáng)開(kāi)源大模型Llama3,要想免費(fèi)使用Llama3,除了去官網(wǎng) https://llama.meta.com/llama3/ 在線使用外,還可以本地部署。
本地部署有多種方式,常見(jiàn)的有如下3種方式:
1. github倉(cāng)庫(kù)clone后,https://github.com/meta-llama/llama3 安裝python,pip相關(guān)的包,官網(wǎng)在線填寫個(gè)人信息申請(qǐng)模型下載鏈接
2. LL-studio
3. ollama
其中以ollama部署最為便捷和友好,部署時(shí)間可在5分鐘內(nèi)完成。本篇就介紹ollama本地部署llama3模型。
step1:ollama官網(wǎng)(https://ollama.com/download)下載ollama,有mac,windows,linux三個(gè)版本,選擇適合自己機(jī)器的版本下載并安裝。
圖片
step2:命令行執(zhí)行ollama run llama3 (默認(rèn)是下載8b的模型,若要下載40b的,執(zhí)行 ollama run llama3:70b)
圖片
Llama3的最小版本8B和70B已經(jīng)全面領(lǐng)先其他競(jìng)爭(zhēng)對(duì)手的開(kāi)源大模型。其中70B的模型相當(dāng)于GPT-4的水平,其中8B和70B都可以在個(gè)人PC上跑起來(lái),8B就是80億參數(shù)的模型只需要8G+的顯存就可以流暢跑起來(lái),70B就是700億參數(shù)的模型雖然宣稱需要40G+的顯存,經(jīng)測(cè)試在個(gè)人電腦的16G的顯存上也可以跑起來(lái),就是吐字速度慢些。
模型下載完成后就進(jìn)入命令行交互界面,這時(shí)候就可以和llama3聊天了。
step3(可選):命令行交互畢竟沒(méi)有圖形化界面友好,可以任選一個(gè)界面。目前市面上的界面多如牛毛,這里以開(kāi)源軟件chatbox為例,https://github.com/Bin-Huang/chatbox/releases
下載安裝后,進(jìn)入設(shè)置,配置使用本地ollama的llama3模型,之后就可以愉快的聊天了。
圖片
除了通過(guò)圖形化界面和Llama3聊天外,還可以自己編程調(diào)用Llama3 的rest api,自動(dòng)化讓AI完成很多本地工作。
調(diào)用llama3 rest api,參考官網(wǎng)說(shuō)明:https://github.com/ollama/ollama/blob/main/docs/api.md
curl http://localhost:11434/api/chat -d '{
"model": "llama3",
"messages": [
{
"role": "user",
"content": "why is the sky blue?"
}
],
"stream": false
}'