自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

如何借助Cortex運(yùn)行本地LLM

譯文 精選
人工智能
Cortex是一個(gè)動(dòng)態(tài)的本地AI API平臺(tái),旨在輕松高效地運(yùn)行和定制大語言模型(LLM)。它擁有一個(gè)簡單直觀的靈感來自O(shè)llama的命令行界面(CLI),完全用C++構(gòu)建而成。


譯者 | 布加迪

審校 | 重樓

AI行業(yè)正在經(jīng)歷一場轉(zhuǎn)變,轉(zhuǎn)向更小巧更高效的大語言模型(LLM),從而使用戶能夠在本地機(jī)器上運(yùn)行模型,無需功能強(qiáng)大的服務(wù)器。本教程將指導(dǎo)你借助Cortex運(yùn)行本地LLM,著重介紹其獨(dú)特的功能和易用性,使任何擁有標(biāo)準(zhǔn)硬件的人都可以享用AI。

注意:Cortex目前正在積極開發(fā)中,這可能會(huì)導(dǎo)致bug或某些功能無法正常運(yùn)行。你可以通過GitHubDiscord報(bào)告任何問題。

Cortex簡介

Cortex是一個(gè)動(dòng)態(tài)的本地AI API平臺(tái),旨在輕松高效地運(yùn)行和定制大語言模型(LLM)。它擁有一個(gè)簡單直觀的靈感來自O(shè)llama的命令行界面(CLI),完全用C++構(gòu)建而成。你可以下載適用于Windows、macOS和Linux的安裝軟件包。

用戶可以從Hugging Face中選擇模型,也可以使用Cortex的內(nèi)置模型,這些模型以通用文件格式存儲(chǔ),以增強(qiáng)兼容性。使用Cortex最棒的地方在于,它支持可切換的引擎,從llama.cpp開始,可計(jì)劃在將來添加ONNX Runtime和TensorRT-LLM。此外,你還可以獲得帶有儀表板的實(shí)用服務(wù)器,用于查看API命令并對(duì)其進(jìn)行測試。

開始上手Cortex

登錄官方網(wǎng)站https://cortex.so/,下載并安裝Cortex。

之后,打開終端或PowerShell,輸入如下命令以下載Llama 3.2 3B指令模型。

$ cortex pull llama3.2

它將提示你選擇模型的各種量化版本;只需選擇默認(rèn)選項(xiàng)llama3.2:3b-ggulf-q4-km。模型將被下載,下載時(shí)間取決于你的網(wǎng)速。

Available to download:
    1. llama3.2:3b-gguf-q2-k
    2. llama3.2:3b-gguf-q3-kl
    3. llama3.2:3b-gguf-q3-km
    4. llama3.2:3b-gguf-q3-ks
    5. llama3.2:3b-gguf-q4-km (default)
    6. llama3.2:3b-gguf-q4-ks
    7. llama3.2:3b-gguf-q5-km
    8. llama3.2:3b-gguf-q5-ks
    9. llama3.2:3b-gguf-q6-k
    10. llama3.2:3b-gguf-q8-0

Select a model (1-10): 5
Selected: llama3.2:3b-gguf-q4-km
Validating download items, please wait..
Start downloading: model.gguf
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100  1104  100  1104    0     0   3255      0 --:--:-- --:--:-- --:--:--  3266
100 1925M  100 1925M    0     0  2397k      0  0:13:42  0:13:42 --:--:-- 2430k
Start downloading: model.yml
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100  1522  100  1522    0     0   4042      0 --:--:-- --:--:-- --:--:--  4058
Model llama3.2:3b-gguf-q4-km downloaded successfully!

你還可以從Hugging Face Hub中提取模型,只要在‘pull’命令后輸入模型的存儲(chǔ)庫ID,它就會(huì)自動(dòng)下載。

$ cortex pull kingabzpro/Gemma-2-9b-it-chat-doctor

下載完成后,輸入帶有模型名稱的‘run’命令來啟動(dòng)服務(wù)器。

$ cortex run llama3.2

一旦一切設(shè)置完畢,你就可以開始從Llama 3.2提問了。

正如我們所見,模型準(zhǔn)確地回答了關(guān)于世界上最高建筑的問題。

Starting server ...
Host: 127.0.0.1 Port: 39281
Server started
API Documentation available at: http://127.0.0.1:39281
Inorder to exit, type `exit()`
> What is the tallest building in the world?
The Burj Khalifa, located in Dubai, United Arab Emirates, is currently the tallest building in the world, standing at a height of 828 meters (2,722 feet) with 163 floors.

我們甚至問了一些后續(xù)問題,它也能理解上下文。簡單又快速。

> tell me more about it.
The Burj Khalifa!

Here are some fascinating facts about the Burj Khalifa:

1. **Design and Construction**: The Burj Khalifa was designed by the American architectural firm Skidmore, Owings & Merrill, with Adrian Smith and John G. Buffman as the lead architects.
2. **Height and Floors**: The Burj Khalifa stands at a height of 828 meters (2,722 feet) with 163 ..........

當(dāng)你運(yùn)行服務(wù)器時(shí),還可以選擇通過Python API、CURL命令以及其他語言的API訪問模型。

在瀏覽器中輸入U(xiǎn)RL http://127.0.0.1:39281,開始探究你可以用服務(wù)器做些什么。

如果你想查看有多少模型在后臺(tái)運(yùn)行以及它們消耗了多少內(nèi)存,可以輸入‘ps’命令來查看。

$ cortex ps 
 +------------------------+-----------+-----------+---------+------------------------+
| Model                  | Engine    | RAM       | VRAM    | Up time                |
+------------------------+-----------+-----------+---------+------------------------+
| llama3.2:3b-gguf-q4-km | llama-cpp | 308.23 MB | 1.87 GB | 22 minutes, 31 seconds |
+------------------------+-----------+-----------+---------+--------------------

結(jié)論

Cortex是一個(gè)大有潛力的新平臺(tái),有望改變我們?cè)诒镜睾驮贫耸褂肔LM的方式。其強(qiáng)大的服務(wù)器功能提供了廣泛的功能特性,使訪問和管理模型既直觀又高效。與Ollama相似,Cortex允許用戶直接在終端上測試模型,從而簡化了過程,增強(qiáng)了用戶體驗(yàn)。

我們?cè)诒窘坛讨辛私饬薈ortex、如何安裝以及如何下載并在終端本地使用Llama 3.2,強(qiáng)烈建議你在本地嘗試一下。

原文標(biāo)題:Run Local LLMs with Cortex,作者:Abid Ali Awan

責(zé)任編輯:姜華 來源: 51CTO內(nèi)容精選
相關(guān)推薦

2024-03-12 10:05:47

大型語言模型

2024-06-04 12:59:41

2024-12-12 08:26:50

AI模型LLM大語言模型

2024-03-26 08:00:00

LLMVLMRaspberry

2023-12-19 16:12:40

GPT-4AI聊天機(jī)器人人工智能

2024-05-28 11:32:01

2016-02-16 09:36:37

CrossOverLinuxWindows

2024-11-07 08:03:10

2018-07-30 09:42:09

AndroidWineWindows App

2025-03-10 05:00:00

2025-01-08 08:00:00

2021-04-20 09:26:40

Cortex M架構(gòu)Cortex A架構(gòu)STM32系列

2024-04-17 10:08:20

LLM人工智能大型語言模型

2014-02-17 10:48:57

NagiosBGP會(huì)話

2018-12-14 09:00:00

MoleculeAnsible角色軟件測試

2013-12-23 10:36:57

Nagios監(jiān)控監(jiān)測

2020-11-25 20:44:21

安卓Windows 10微軟

2016-12-07 09:26:27

GlusterFS存儲(chǔ)池

2024-12-31 00:00:10

LangServeLLM應(yīng)用部署
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)