自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

基于PyTorch的大語言模型微調(diào)指南:Torchtune完整教程與代碼示例

人工智能
近年來,大型語言模型(Large Language Models, LLMs)在自然語言處理(Natural Language Processing, NLP)領(lǐng)域取得了顯著進(jìn)展。這些模型通過在大規(guī)模文本數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,能夠習(xí)得語言的基本特征和語義,從而在各種NLP任務(wù)上取得了突破性的表現(xiàn)。

近年來,大型語言模型(Large Language Models, LLMs)在自然語言處理(Natural Language Processing, NLP)領(lǐng)域取得了顯著進(jìn)展。這些模型通過在大規(guī)模文本數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,能夠習(xí)得語言的基本特征和語義,從而在各種NLP任務(wù)上取得了突破性的表現(xiàn)。為了將預(yù)訓(xùn)練的LLM應(yīng)用于特定領(lǐng)域或任務(wù),通常需要在領(lǐng)域特定的數(shù)據(jù)集上對模型進(jìn)行微調(diào)(Fine-tuning)。隨著LLM規(guī)模和復(fù)雜性的不斷增長,微調(diào)過程面臨著諸多挑戰(zhàn),如計算資源的限制、訓(xùn)練效率的瓶頸等。

Torchtune是由PyTorch團(tuán)隊開發(fā)的一個專門用于LLM微調(diào)的庫。它旨在簡化LLM的微調(diào)流程,提供了一系列高級API和預(yù)置的最佳實踐,使得研究人員和開發(fā)者能夠更加便捷地對LLM進(jìn)行調(diào)試、訓(xùn)練和部署。Torchtune基于PyTorch生態(tài)系統(tǒng)構(gòu)建,充分利用了PyTorch的靈活性和可擴(kuò)展性,同時針對LLM微調(diào)的特點進(jìn)行了優(yōu)化和改進(jìn)。

Torchtune的核心設(shè)計原則

Torchtune的設(shè)計遵循以下四個核心原則:

  1. 簡單性和可擴(kuò)展性:Torchtune采用原生PyTorch的設(shè)計風(fēng)格,提供模塊化的組件和接口。這使得用戶能夠根據(jù)自己的需求,輕松地對現(xiàn)有功能進(jìn)行修改和擴(kuò)展,構(gòu)建定制化的微調(diào)流程。同時,Torchtune也提供了一系列開箱即用的工具和模塊,降低了用戶的使用門檻。
  2. 正確性:LLM微調(diào)對訓(xùn)練數(shù)據(jù)和算法實現(xiàn)的正確性有著較高的要求。Torchtune中的各個組件和模塊都經(jīng)過了嚴(yán)格的單元測試和驗證,確保了其輸出結(jié)果的可靠性。Torchtune還提供了一系列調(diào)試和分析工具,幫助用戶快速定位和解決訓(xùn)練過程中遇到的問題。
  3. 穩(wěn)定性:Torchtune構(gòu)建在PyTorch的穩(wěn)定版本之上,并針對LLM微調(diào)場景進(jìn)行了充分的測試和優(yōu)化。用戶可以在各種硬件環(huán)境下穩(wěn)定地運行Torchtune,不必?fù)?dān)心兼容性和穩(wěn)定性問題。
  4. 可訪問性:Torchtune的一個重要目標(biāo)是讓更多的用戶能夠參與到LLM的開發(fā)和應(yīng)用中來。因此,Torchtune提供了詳細(xì)的文檔和教程,以及常見問題的解決方案。Torchtune還提供了一系列預(yù)訓(xùn)練模型和數(shù)據(jù)集,降低了用戶的入門成本。

Torchtune的主要特性

Torchtune提供了以下主要特性,以支持LLM的微調(diào)任務(wù):

  • 模塊化的PyTorch實現(xiàn):Torchtune實現(xiàn)了當(dāng)前主流的LLM架構(gòu),如Transformer、GPT、BERT等。用戶可以直接使用這些模塊,也可以基于它們構(gòu)建自己的模型。
  • 數(shù)據(jù)集和評測工具的集成:Torchtune與Hugging Face的Datasets庫和EleutherAI的Eval Harness無縫集成,提供了豐富的數(shù)據(jù)集資源和標(biāo)準(zhǔn)化的評測方案。用戶可以方便地訪問和使用這些資源,也可以將自己的數(shù)據(jù)集和評測方案集成到Torchtune中。
  • 高效的分布式訓(xùn)練:Torchtune支持多種并行訓(xùn)練方式,如數(shù)據(jù)并行、模型并行、流水線并行等。特別地,Torchtune針對LLM微調(diào)實現(xiàn)了Fully Sharded Data Parallel v2 (FSDP2),可以顯著地加速大規(guī)模模型的訓(xùn)練速度,并減少顯存占用。
  • 基于配置文件的任務(wù)管理:Torchtune使用YAML格式的配置文件來管理微調(diào)任務(wù)的參數(shù)和流程。用戶可以通過修改配置文件,靈活地控制訓(xùn)練過程,而無需修改代碼。Torchtune還提供了一系列預(yù)置的配置文件和腳本,進(jìn)一步簡化了任務(wù)的管理和執(zhí)行。

Torchtune是一個專為LLM微調(diào)設(shè)計的PyTorch庫,其目標(biāo)是讓LLM的開發(fā)和應(yīng)用變得更加簡單、高效、可靠。Torchtune提供了模塊化的組件、高級的API、豐富的數(shù)據(jù)資源、先進(jìn)的并行訓(xùn)練技術(shù),以及基于配置文件的任務(wù)管理方式。Torchtune在提高LLM微調(diào)效率的同時,也大大降低了用戶的使用門檻,使更多的研究人員和開發(fā)者能夠參與到LLM的開發(fā)和應(yīng)用中來。

在接下來的內(nèi)容中,我們將介紹Torchtune中的一些關(guān)鍵概念,并通過實例展示如何使用Torchtune進(jìn)行LLM微調(diào)。我們也會探討一些高階的主題,如LoRA和QLoRA等參數(shù)高效的微調(diào)方法。

Torchtune中的關(guān)鍵概念

Torchtune引入了兩個關(guān)鍵概念:配置(Config)方案(Recipe)。這兩個概念抽象了LLM微調(diào)任務(wù)的參數(shù)和流程,使得用戶能夠以更加靈活和高效的方式管理微調(diào)任務(wù)。

配置(Config)

在Torchtune中,配置以YAML文件的形式存在。每個配置文件定義了一個完整的微調(diào)任務(wù),包括:

  • 數(shù)據(jù)集的路徑和格式
  • 模型的架構(gòu)和參數(shù)
  • 優(yōu)化器的類型和超參數(shù)
  • 訓(xùn)練的批大小、學(xué)習(xí)率、迭代次數(shù)等
  • 評測和日志的設(shè)置

通過使用配置文件,用戶可以將微調(diào)任務(wù)的參數(shù)與代碼實現(xiàn)解耦。這樣,用戶可以通過修改配置文件來快速地試驗不同的設(shè)置,而無需修改代碼。同時,配置文件也提高了任務(wù)的可重復(fù)性和可移植性。

下面是一個簡單的配置文件示例:

dataset:
  path: /path/to/dataset
  format: json
  fields:
    - name: text
      type: string
    - name: label
      type: int
 
 model:
  type: transformer
  params:
    num_layers: 12
    hidden_size: 768
    num_attention_heads: 12
 
 optimizer:
  type: AdamW
  params:
    lr: 0.001
    weight_decay: 0.01
 
 train:
  batch_size: 32
  num_epochs: 10
  log_interval: 100
 
 evaluate:
  batch_size: 64
  metric:
    - accuracy
    - f1

方案(Recipe)

方案是Torchtune提供的一系列預(yù)置的微調(diào)流程。每個方案都針對特定的場景和任務(wù),提供了一套優(yōu)化的實現(xiàn)和最佳實踐。用戶可以直接使用這些方案,也可以基于它們進(jìn)行定制和擴(kuò)展。

Torchtune內(nèi)置了多個常用的方案,如:

  • lora_finetune_single_device:單設(shè)備上使用LoRA進(jìn)行微調(diào)
  • lora_finetune_distributed:多設(shè)備分布式環(huán)境下使用LoRA進(jìn)行微調(diào)
  • qlora_finetune:使用QLoRA進(jìn)行參數(shù)高效微調(diào)
  • distill_finetune:使用知識蒸餾技術(shù)進(jìn)行微調(diào)

每個方案都定義了一個完整的微調(diào)流程,包括數(shù)據(jù)處理、模型初始化、優(yōu)化器選擇、訓(xùn)練循環(huán)、評測和日志等。方案通過組合Torchtune提供的各種模塊和工具,實現(xiàn)了端到端的自動化微調(diào)。

下面是一個使用lora_finetune_single_device方案進(jìn)行微調(diào)的示例:

tune run lora_finetune_single_device \
    --config configs/llama2/7B_lora_single_device.yaml \
    --train.batch_size 128 \
    --optimizer.params.lr 0.0001

這個例子中,我們使用lora_finetune_single_device方案在單個設(shè)備上對LLaMA-2-7B模型進(jìn)行微調(diào)。我們指定了配置文件的路徑,并通過命令行參數(shù)覆蓋了原始配置中的train.batch_size和optimizer.params.lr參數(shù)。

Torchtune的配置和方案機(jī)制提供了一種靈活、高效、可復(fù)用的方式來管理LLM微調(diào)任務(wù)。通過使用配置文件和預(yù)置方案,用戶可以快速啟動微調(diào)任務(wù),并以極低的成本試驗不同的優(yōu)化策略。

小結(jié)

Torchtune中的配置和方案是管理LLM微調(diào)任務(wù)的兩個關(guān)鍵抽象。配置以YAML文件的形式存在,定義了微調(diào)任務(wù)的各種參數(shù);方案則提供了一系列預(yù)置的、經(jīng)過優(yōu)化的端到端微調(diào)流程。通過靈活地組合配置和方案,用戶可以以極低的成本開展LLM微調(diào)的實驗和優(yōu)化。

在接下來的內(nèi)容中,我們將通過一個完整的實例,展示如何使用Torchtune進(jìn)行LLM微調(diào)。我們也會介紹一些高階的微調(diào)技術(shù),如LoRA和QLoRA。

使用Torchtune微調(diào)LLM

在這一節(jié)中,我們將通過一個完整的實例,展示如何使用Torchtune微調(diào)LLM。我們會使用Torchtune提供的lora_finetune_single_device方案,在單個GPU設(shè)備上對LLaMA-2-7B模型進(jìn)行微調(diào)。

準(zhǔn)備工作

在開始之前,請確保你已經(jīng)正確安裝了Torchtune,并且可以訪問Hugging Face Hub。Hugging Face Hub中托管了許多常用的預(yù)訓(xùn)練語言模型,如LLaMA、GPT、BERT等。你需要先注冊一個Hugging Face賬號,并獲取訪問Tokens。

下載預(yù)訓(xùn)練模型

首先,我們需要下載一個預(yù)訓(xùn)練的語言模型。在這個例子中,我們使用Meta發(fā)布的LLaMA-2-7B模型,這是一個在Hugging Face Hub上的開源模型。我們可以使用以下命令下載這個模型:

tune download meta-llama/Llama-2-7b-hf \  
   --output-dir /tmp/Llama-2-7b-hf \  
   --hf-token <ACCESS TOKEN>

這個命令會將LLaMA-2-7B模型下載到/tmp/Llama-2-7b-hf目錄下,其中<ACCESS TOKEN>需要替換為你自己的Hugging Face訪問Token。除了模型的參數(shù),這個命令還會下載對應(yīng)的Tokenizer和一些其他的文件,如模型卡片、使用許可等。

選擇微調(diào)方案

Torchtune提供了多個預(yù)置的微調(diào)方案,適用于不同的場景和任務(wù)。你可以通過以下命令查看所有可用的方案:

tune ls

在這個例子中,我們選擇lora_finetune_single_device方案。這個方案使用LoRA(Low-Rank Adaptation)技術(shù)在單個GPU設(shè)備上對LLM進(jìn)行微調(diào)。LoRA通過引入低秩的適配器參數(shù),在不改變原始模型參數(shù)的情況下,實現(xiàn)對模型的微調(diào)。這種方法可以顯著減少微調(diào)過程中的內(nèi)存消耗和計算開銷,使得在單個GPU上微調(diào)大型LLM成為可能。

配置微調(diào)任務(wù)

每個微調(diào)方案都有一個對應(yīng)的配置文件,定義了微調(diào)任務(wù)的各種參數(shù)。lora_finetune_single_device方案的默認(rèn)配置文件路徑為llama2/7B_lora_single_device.yaml。我們可以直接使用這個配置文件,也可以在此基礎(chǔ)上進(jìn)行修改。

Torchtune支持兩種方式來修改配置文件:

  1. 通過命令行參數(shù)覆蓋配置文件中的參數(shù):
tune run lora_finetune_single_device \
   --config llama2/7B_lora_single_device.yaml \
  train.batch_size=128 \
  train.num_epochs=5
  1. 將配置文件復(fù)制到本地,然后直接修改配置文件:  
tune cp llama2/7B_lora_single_device.yaml custom_config.yaml

修改custom_config.yaml文件,然后運行:

tune run lora_finetune_single_device \
   --config custom_config.yaml

通過靈活地使用這兩種方式,我們可以方便地控制微調(diào)任務(wù)的各種參數(shù),如數(shù)據(jù)集、批大小、學(xué)習(xí)率、訓(xùn)練輪數(shù)等。

啟動微調(diào)任務(wù)

配置文件準(zhǔn)備好之后,我們就可以啟動微調(diào)任務(wù)了。使用以下命令啟動lora_finetune_single_device方案:

tune run lora_finetune_single_device \
   --config llama2/7B_lora_single_device.yaml

Torchtune會自動加載預(yù)訓(xùn)練模型、Tokenizer、數(shù)據(jù)集等,并開始微調(diào)過程。在微調(diào)過程中,Torchtune會實時記錄訓(xùn)練損失、評測指標(biāo)、GPU使用情況等信息,方便用戶監(jiān)控訓(xùn)練進(jìn)度和調(diào)試模型。

結(jié)果展示

下面是我用W&B做的示例結(jié)果,這張圖時訓(xùn)練的表現(xiàn)

下面是內(nèi)存的占用

圖片

保存和使用微調(diào)后的模型

微調(diào)完成后,我們可以使用以下命令將微調(diào)后的模型導(dǎo)出到指定路徑:

tune export lora_finetune_single_device \
  --output_dir /path/to/output

導(dǎo)出的模型可以直接用于下游任務(wù)的推理和服務(wù)。我們也可以將導(dǎo)出的模型上傳到Hugging Face Hub,方便其他用戶使用。 

小結(jié)

在這一節(jié)中,我們通過一個完整的實例,展示了如何使用Torchtune微調(diào)LLM。我們使用了lora_finetune_single_device方案在單個GPU上對LLaMA-2-7B模型進(jìn)行了微調(diào)。整個過程包括:

  1. 準(zhǔn)備工作:安裝Torchtune,注冊Hugging Face賬號。
  2. 下載預(yù)訓(xùn)練模型:從Hugging Face Hub下載LLaMA-2-7B模型。
  3. 選擇微調(diào)方案:選擇lora_finetune_single_device方案。 
  4. 配置微調(diào)任務(wù):修改lora_finetune_single_device方案的默認(rèn)配置文件。
  5. 啟動微調(diào)任務(wù):使用tune run命令啟動微調(diào)任務(wù)。
  6. 保存和使用微調(diào)后的模型:使用tune export命令導(dǎo)出微調(diào)后的模型。

可以看到,Torchtune大大簡化了LLM微調(diào)的流程,使得用戶可以通過簡單的命令行操作完成端到端的微調(diào)任務(wù)。同時,Torchtune提供了豐富的日志和可視化工具,方便用戶監(jiān)控和調(diào)試訓(xùn)練過程。

在接下來的內(nèi)容中,我們將詳細(xì)介紹兩種參數(shù)高效的微調(diào)方法:LoRA和QLoRA。我們也會討論如何使用Torchtune實現(xiàn)這兩種方法。

參數(shù)高效的微調(diào)方法:LoRA和QLoRA

在前面的內(nèi)容中,我們介紹了如何使用Torchtune微調(diào)LLM。然而,隨著LLM規(guī)模的不斷增長,傳統(tǒng)的微調(diào)方法面臨著越來越大的挑戰(zhàn)。以LLaMA-2-7B為例,這個模型有70億個參數(shù),即使在現(xiàn)代的GPU設(shè)備上,也難以支持對所有參數(shù)的微調(diào)。因此,我們需要探索一些參數(shù)高效的微調(diào)方法,在保證微調(diào)效果的同時,降低計算和存儲開銷。

LoRA:低秩適配

LoRA(Low-Rank Adaptation)是一種參數(shù)高效的微調(diào)方法,由微軟研究院在2021年提出。LoRA的核心思想是在預(yù)訓(xùn)練模型的基礎(chǔ)上,引入一組低秩的適配器參數(shù)。在微調(diào)過程中,我們只更新這些適配器參數(shù),而保持預(yù)訓(xùn)練模型的參數(shù)不變。這樣,我們就可以在不增加模型規(guī)模的情況下,實現(xiàn)對模型的微調(diào)。

具體來說,對于預(yù)訓(xùn)練模型中的每個線性層,LoRA引入兩個低秩矩陣A和B,將原始的線性變換y = Wx修改為:

其中

而r是一個遠(yuǎn)小于d的超參數(shù),稱為LoRA秩。在微調(diào)過程中,我們只訓(xùn)練和更新矩陣A和B,而保持W不變。由于r遠(yuǎn)小于d,因此LoRA引入的額外參數(shù)數(shù)量也遠(yuǎn)小于原始模型的參數(shù)數(shù)量。

下面是一個使用Torchtune實現(xiàn)LoRA微調(diào)的示例代碼:

import torch  
from torchtune.models.llama2 import llama2_7b, lora_llama2_7b  
from torchtune.modules.peft.peft_utils import get_adapter_params, set_trainable_params  
      
# 加載預(yù)訓(xùn)練的LLaMA-2-7B模型
base_model = llama2_7b(weights="/path/to/llama2_7b_weights", tokenizer="/path/to/llama2_tokenizer")

# 在LLaMA-2-7B模型上應(yīng)用LoRA
lora_model = lora_llama2_7b(  
    lora_attn_modules=['q_proj', 'v_proj'],  
    lora_rank=8,  
    lora_alpha=16
)  

# 將預(yù)訓(xùn)練權(quán)重加載到LoRA模型中     
lora_model.load_state_dict(base_model.state_dict(), strict=False)  

# 設(shè)置只有LoRA參數(shù)可訓(xùn)練
lora_params = get_adapter_params(lora_model) 
set_trainable_params(lora_model, lora_params)

# 使用torchtune的LoRA微調(diào)方案進(jìn)行訓(xùn)練
tune_command = """  
tune run --nnodes 1 --nproc_per_node 2 lora_finetune_distributed --config llama2/7B_lora \  
lora_attn_modules=['q_proj', 'k_proj', 'v_proj', 'output_proj'] \  
lora_rank=32 lora_alpha=64 output_dir=./lora_experiment_1  
"""

在這個例子中,我們首先加載了預(yù)訓(xùn)練的LLaMA-2-7B模型,然后在其上應(yīng)用了LoRA。我們在attention層的query和value投影矩陣上引入了LoRA適配器,適配器的秩為8。接著,我們使用load_state_dict函數(shù)將預(yù)訓(xùn)練權(quán)重加載到LoRA模型中,并通過set_trainable_params函數(shù)設(shè)置只有LoRA參數(shù)是可訓(xùn)練的。最后,我們使用torchtune的lora_finetune_distributed方案在多個GPU上對LoRA模型進(jìn)行微調(diào)。

通過引入LoRA,我們可以將微調(diào)過程中需要訓(xùn)練和更新的參數(shù)數(shù)量減少到原來的1%左右,大大降低了微調(diào)的計算和存儲開銷。同時,研究表明,LoRA微調(diào)的效果與全參數(shù)微調(diào)相當(dāng),在某些任務(wù)上甚至略有提升。

QLoRA:量化LoRA

QLoRA(Quantized Low-Rank Adaptation)是LoRA的一個擴(kuò)展,由華盛頓大學(xué)與英偉達(dá)合作提出。QLoRA在LoRA的基礎(chǔ)上,對預(yù)訓(xùn)練模型的權(quán)重進(jìn)行量化,進(jìn)一步減少了模型的存儲開銷。

具體來說,QLoRA使用4-bit NF4(4-bit Normalized Fixed-Point)格式對預(yù)訓(xùn)練模型的權(quán)重進(jìn)行量化。NF4格式使用一個比特表示符號,三個比特表示尾數(shù),動態(tài)范圍為[-8, 7]。量化后的權(quán)重只需要原來的1/8的存儲空間,但在實際使用時,需要將其解量化為全精度(FP16或FP32)格式。

下面是一個使用Torchtune實現(xiàn)QLoRA微調(diào)的示例代碼:

import torch
from torchtune.models.llama2 import qlora_llama2_7b
from torchtune.trainers import LoRAFinetuneTrainer

# 初始化QLoRA LLaMA-2-7B模型  
qlora_model = qlora_llama2_7b(lora_attn_modules=["q_proj", "v_proj"])

# 準(zhǔn)備QLoRA微調(diào)的Trainer
trainer = LoRAFinetuneTrainer(
    model=qlora_model,
    dataset_path="path_to_dataset", 
    output_dir="output_dir",
    batch_size=2,  
    max_steps=1000,
    logging_steps=100
)

# 開始微調(diào)
trainer.train()

# 保存微調(diào)后的模型
trainer.save_model("path_to_saved_model")

這個例子與前面的LoRA微調(diào)非常類似,主要的區(qū)別在于:

  1. 我們使用qlora_llama2_7b函數(shù)初始化了一個QLoRA LLaMA-2-7B模型,該模型的權(quán)重是4-bit量化的。 
  2. 我們使用LoRAFinetuneTrainer準(zhǔn)備了一個專門用于QLoRA微調(diào)的Trainer,設(shè)置了數(shù)據(jù)集路徑、輸出路徑、批大小等參數(shù)。
  3. 在微調(diào)過程中,QLoRA模型的權(quán)重始終保持量化狀態(tài),只有LoRA適配器的參數(shù)被更新。這進(jìn)一步減少了微調(diào)過程中的內(nèi)存消耗。
  4. 微調(diào)完成后,我們使用save_model函數(shù)將微調(diào)后的模型保存到指定路徑。保存的模型中包含了量化的預(yù)訓(xùn)練權(quán)重和LoRA適配器參數(shù)。在實際使用時,我們需要將量化的權(quán)重解量化為全精度格式。

通過結(jié)合LoRA和量化,QLoRA可以將微調(diào)過程中的內(nèi)存消耗降低到原來的1/8左右,使得在消費級GPU上微調(diào)十億規(guī)模的LLM成為可能。同時,研究表明,QLoRA微調(diào)的效果與LoRA微調(diào)相當(dāng),在某些任務(wù)上甚至略有提升。

總結(jié)

本文介紹了如何使用PyTorch的Torchtune庫進(jìn)行大型語言模型(LLM)的微調(diào)。Torchtune提供了一套簡單、靈活、高效的工具和框架,使得研究人員和開發(fā)者能夠輕松地對LLM進(jìn)行調(diào)試、訓(xùn)練和部署。文章詳細(xì)介紹了Torchtune的設(shè)計原則、核心概念和主要特性,并通過一個完整的實例演示了如何使用Torchtune微調(diào)LLaMA-2-7B模型。此外,文章還介紹了兩種參數(shù)高效的微調(diào)方法:LoRA和QLoRA。這兩種方法通過引入低秩適配器和量化技術(shù),大大減少了微調(diào)過程中的計算和存儲開銷,為LLM的應(yīng)用開辟了新的可能性。


責(zé)任編輯:華軒 來源: DeepHub IMBA
相關(guān)推薦

2025-01-14 10:56:14

2023-02-19 15:26:51

深度學(xué)習(xí)數(shù)據(jù)集

2025-04-10 07:59:51

2024-12-02 08:10:31

2024-05-07 08:00:00

自然語言處理機(jī)器學(xué)習(xí)

2023-06-07 08:22:59

LLM微調(diào)技術(shù)

2024-09-09 07:46:16

2024-04-26 00:04:00

LLMs調(diào)優(yōu)工具

2024-04-15 12:50:00

大型語言模型ReFT

2024-02-26 08:15:43

語言模型低代碼

2023-09-01 21:12:13

GPT3.5模型微調(diào)

2024-12-30 00:01:00

多模態(tài)大模型Python

2024-01-12 10:29:26

2024-09-24 13:11:18

2025-01-03 16:17:08

2023-12-18 13:37:44

天翼云天池大語言模型

2024-03-19 13:12:36

自動駕駛模型

2021-03-07 09:05:45

Pytorch機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

2024-06-11 00:00:01

用ReactGraphQLCRUD

2024-06-06 09:47:56

點贊
收藏

51CTO技術(shù)棧公眾號