自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

深度學(xué)習(xí)模型中的知識(shí)蒸餾是如何工作的?

譯文 精選
人工智能 深度學(xué)習(xí)
深度學(xué)習(xí)模型在多個(gè)領(lǐng)域,特別是計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理中,已經(jīng)取得了革命性的進(jìn)展。然而,隨著模型復(fù)雜性和資源需求的不斷攀升,如何將這些龐大模型的知識(shí)濃縮為更緊湊、更高效的形式,成為了當(dāng)前研究的熱點(diǎn)。

譯者 | 劉濤

審校 | 重樓

深度學(xué)習(xí)模型在多個(gè)領(lǐng)域,特別是計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理中,已經(jīng)取得了革命性的進(jìn)展。然而,隨著模型復(fù)雜性和資源需求的不斷攀升,如何將這些龐大模型的知識(shí)濃縮為更緊湊、更高效的形式,成為了當(dāng)前研究的熱點(diǎn)。

知識(shí)蒸餾,作為一種將知識(shí)從復(fù)雜模型轉(zhuǎn)移到更簡(jiǎn)單模型的策略,已經(jīng)成為實(shí)現(xiàn)這一目標(biāo)的有效工具。在本文中,我們將深入探究深度學(xué)習(xí)模型中知識(shí)蒸餾的概念、原理及其在各領(lǐng)域的應(yīng)用,以期為讀者提供一個(gè)全面而嚴(yán)謹(jǐn)?shù)囊暯恰?/span>

知識(shí)蒸餾的概念

知識(shí)蒸餾是一種深度學(xué)習(xí)的過(guò)程,旨在將一個(gè)復(fù)雜且訓(xùn)練精良的模型(通常稱為“導(dǎo)師模型”)中的知識(shí)轉(zhuǎn)移到另一個(gè)更簡(jiǎn)單、更輕量級(jí)的模型(通常稱為“學(xué)生模型”)中。

知識(shí)蒸餾的核心目標(biāo)在于創(chuàng)建一個(gè)更加高效且性能優(yōu)越的模型,該模型在保留“導(dǎo)師模型”關(guān)鍵信息和性能的同時(shí),顯著降低了計(jì)算資源的需求。

這個(gè)過(guò)程包括兩個(gè)步驟:

1.訓(xùn)練“導(dǎo)師模型”

  • 導(dǎo)師模型通過(guò)標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,以發(fā)現(xiàn)其中的模式和相關(guān)性。
  • 導(dǎo)師模型的大容量使其能夠捕捉細(xì)微的細(xì)節(jié),從而在指定任務(wù)上實(shí)現(xiàn)卓越的性能。
  • 導(dǎo)師模型對(duì)訓(xùn)練數(shù)據(jù)的預(yù)測(cè)提供了一種知識(shí)源,學(xué)生模型將嘗試模仿這種知識(shí)源。

2.將知識(shí)轉(zhuǎn)移到“學(xué)生模型”

  • 學(xué)生模型采用與導(dǎo)師模型相同的數(shù)據(jù)集進(jìn)行訓(xùn)練,然而其訓(xùn)練策略存在顯著差異。
  • 與典型的硬標(biāo)簽(數(shù)據(jù)點(diǎn)的最終類別分配)不同,學(xué)生模型使用軟標(biāo)簽進(jìn)行訓(xùn)練。軟標(biāo)簽由導(dǎo)師模型生成類別概率分布,提供了一種對(duì)數(shù)據(jù)更為豐富和細(xì)膩的表征。
  • 通過(guò)使用軟標(biāo)簽訓(xùn)練,學(xué)生模型不僅學(xué)習(xí)復(fù)制導(dǎo)師模型的最終分類決策,還能深入理解這些預(yù)測(cè)背后的不確定性和內(nèi)在邏輯。
  • 目標(biāo)是讓學(xué)生模型概括并近似導(dǎo)師模型編碼的豐富知識(shí),進(jìn)而形成對(duì)數(shù)據(jù)更為緊湊且高效的表示。

知識(shí)蒸餾利用導(dǎo)師模型的軟目標(biāo),不僅傳達(dá)了預(yù)期的類別信息,還涵蓋了所有可能類別的概率分布。這些軟目標(biāo)提供了精細(xì)的類別概率分部信息,揭示了學(xué)生模型需要協(xié)調(diào)的不僅是目標(biāo)類別,還包括整個(gè)決策空間。通過(guò)將這些線索融入訓(xùn)練過(guò)程,學(xué)生模型不僅學(xué)會(huì)復(fù)制導(dǎo)師模型的結(jié)果,還能識(shí)別隱藏在數(shù)據(jù)中更廣泛的模式和相關(guān)性。

在訓(xùn)練過(guò)程中,軟標(biāo)簽提供了更平滑的梯度,使學(xué)生模型能更好地承接導(dǎo)師模型的知識(shí)。這一機(jī)制有助于學(xué)生模型實(shí)現(xiàn)更好的泛化能力,通常能夠得到一個(gè)體積更小、性能卻與導(dǎo)師模型保持較高一致性的模型。

在知識(shí)蒸餾的過(guò)程中,softmax函數(shù)中使用的溫度參數(shù)對(duì)概率分布的銳利程度具有顯著影響。較高的溫度值會(huì)導(dǎo)致概率分布更加平滑,從而強(qiáng)化了信息傳遞的效果;相反,較低的溫度值則會(huì)產(chǎn)生更銳利的概率分布,傾向于實(shí)現(xiàn)更精確的預(yù)測(cè)。

總體而言,知識(shí)蒸餾是一種將知識(shí)從一個(gè)規(guī)模相對(duì)較大且復(fù)雜的模型轉(zhuǎn)移到一個(gè)較小規(guī)模模型的過(guò)程,旨在使其更適合在計(jì)算資源受限的環(huán)境中部署和應(yīng)用。

知識(shí)蒸餾在深度學(xué)習(xí)中的相關(guān)性

知識(shí)蒸餾在深度學(xué)習(xí)中具有重要意義,其應(yīng)用涵蓋多個(gè)領(lǐng)域。以下是一些凸顯知識(shí)蒸餾在深度學(xué)習(xí)領(lǐng)域重要性的主要因素:

1.模型壓縮:模型壓縮作為知識(shí)蒸餾的核心驅(qū)動(dòng)力,其目的在于應(yīng)對(duì)深度學(xué)習(xí)模型在計(jì)算資源上的高消耗問(wèn)題。尤其是那些參數(shù)量達(dá)到數(shù)百萬(wàn)級(jí)別的大模型,它們?cè)谟?jì)算成本和資源消耗上往往顯得尤為昂貴。知識(shí)蒸餾允許生成參數(shù)更少、體積更小、計(jì)算效率更高的輕量級(jí)模型,這些模型在保持原大型模型主要性能特征的同時(shí),顯著降低了資源消耗和計(jì)算負(fù)擔(dān)。

2.模型剪枝:知識(shí)蒸餾被廣泛應(yīng)用于識(shí)別并移除深度學(xué)習(xí)模型中的冗余或不相關(guān)的神經(jīng)元及連接。通過(guò)訓(xùn)練學(xué)生模型來(lái)模仿導(dǎo)師模型的行為,學(xué)生模型能夠?qū)W習(xí)并掌握導(dǎo)師模型中哪些特征和連接是至關(guān)重要的,以及哪些可以安全地去除。這種方法有助于優(yōu)化模型的復(fù)雜性,提高計(jì)算效率。

3.增強(qiáng)泛化能力:知識(shí)蒸餾往往能夠生成具有更強(qiáng)泛化能力的學(xué)生模型。學(xué)生模型不僅學(xué)習(xí)到導(dǎo)師模型的最終預(yù)測(cè)結(jié)果,還吸收了導(dǎo)師模型的邏輯和不確定性處理能力,這使得學(xué)生模型在面臨先前未見(jiàn)過(guò)的數(shù)據(jù)時(shí),能夠更好地適應(yīng)和泛化,從而成為提升模型韌性(Model Resilience)的有效策略。

4.學(xué)習(xí)遷移:知識(shí)蒸餾能夠有效地將預(yù)訓(xùn)練深度學(xué)習(xí)模型中所學(xué)習(xí)到的知識(shí),遷移到針對(duì)問(wèn)題不同但相關(guān)而訓(xùn)練的新模型中,通過(guò)讓學(xué)生模型模仿預(yù)訓(xùn)練導(dǎo)師模型的行為,學(xué)生模型可以學(xué)習(xí)兩個(gè)任務(wù)之間共有的通用特征和模式,使其能夠在新任務(wù)上利用更少的數(shù)據(jù)和計(jì)算資源,實(shí)現(xiàn)高效且準(zhǔn)確的執(zhí)行。

5.可擴(kuò)展性和可訪問(wèn)性:知識(shí)蒸餾的應(yīng)用顯著提升了復(fù)雜人工智能技術(shù)的可擴(kuò)展性和可訪問(wèn)性。相對(duì)更小的模型僅需更少的計(jì)算資源,就能使研究人員、開(kāi)發(fā)人員和企業(yè)更加容易地部署和集成深度學(xué)習(xí)技術(shù)到他們的應(yīng)用中,從而推動(dòng)了人工智能技術(shù)的普及和商業(yè)化。

6.性能提升:在特殊情況下,知識(shí)蒸餾甚至能夠提升特定任務(wù)的性能,尤其是在數(shù)據(jù)資源稀缺的情況下。學(xué)生模型通過(guò)吸收導(dǎo)師模型對(duì)數(shù)據(jù)分布的深入理解,展現(xiàn)出更強(qiáng)的泛化能力和魯棒性(Robustness),從而在任務(wù)執(zhí)行中取得更佳表現(xiàn)。

知識(shí)蒸餾的應(yīng)用

知識(shí)蒸餾可應(yīng)用于深度學(xué)習(xí)的多個(gè)領(lǐng)域,提供諸如模型壓縮、泛化能力增強(qiáng)和高效部署等優(yōu)勢(shì)。以下是知識(shí)蒸餾的一些主要應(yīng)用:

1. 計(jì)算機(jī)視覺(jué)領(lǐng)域:在目標(biāo)檢測(cè)任務(wù)中,知識(shí)蒸餾被用于壓縮大型復(fù)雜的物體識(shí)別模型,使這些模型更加適應(yīng)部署在計(jì)算資源受限的設(shè)備上,如安全攝像頭和無(wú)人機(jī)。

2. 自然語(yǔ)言處理(NLP)領(lǐng)域:知識(shí)蒸餾同樣在NLP領(lǐng)域發(fā)揮重要作用。它被用于生成緊湊型的文本分類、情感分析等NLP應(yīng)用。這些模型非常適合實(shí)時(shí)應(yīng)用,可部署于聊天機(jī)器人和移動(dòng)設(shè)備等平臺(tái)。NLP中的蒸餾模型還可應(yīng)用于語(yǔ)言翻譯,實(shí)現(xiàn)跨平臺(tái)的高效語(yǔ)言處理。

3. 推薦系統(tǒng)領(lǐng)域:在推薦系統(tǒng)領(lǐng)域,知識(shí)蒸餾被廣泛應(yīng)用于構(gòu)建高效模型,這類高效模型能夠基于用戶行為數(shù)據(jù)提供個(gè)性化的推薦服務(wù),更適合在多樣化的平臺(tái)上進(jìn)行分布式部署,從而實(shí)現(xiàn)靈活且高效的服務(wù)擴(kuò)展。

4. 邊緣計(jì)算領(lǐng)域:通過(guò)應(yīng)用知識(shí)蒸餾壓縮的深度學(xué)習(xí)模型,使其能夠在資源受限的邊緣設(shè)備上得以部署。這對(duì)于實(shí)時(shí)視頻分析、邊緣圖像處理以及物聯(lián)網(wǎng)設(shè)備等應(yīng)用至關(guān)重要。

5. 異常檢測(cè)領(lǐng)域:在網(wǎng)絡(luò)安全和異常檢測(cè)領(lǐng)域,知識(shí)蒸餾用于生成輕量級(jí)模型,專注于檢測(cè)網(wǎng)絡(luò)流量或用戶行為中的異常模式。這些輕量級(jí)模型有助于快速、高效地檢測(cè)潛在威脅。

6. 量子計(jì)算領(lǐng)域:在新興的量子計(jì)算領(lǐng)域,研究人員正在探索利用知識(shí)蒸餾創(chuàng)建更緊湊的量子模型,旨在優(yōu)化量子硬件上運(yùn)行效率,從而推動(dòng)量子計(jì)算在實(shí)際應(yīng)用中的發(fā)展和普及。

7. 學(xué)習(xí)遷移:知識(shí)蒸餾顯著增強(qiáng)了學(xué)習(xí)遷移的能力,使預(yù)訓(xùn)練模型能夠迅速將知識(shí)遷移到新任務(wù)中。這一特性在目標(biāo)任務(wù)的標(biāo)記數(shù)據(jù)有限時(shí)尤為有用。

知識(shí)蒸餾的技術(shù)與策略

為確保知識(shí)蒸餾過(guò)程的有效性,研究人員采用了多樣化的策略和技術(shù)。以下是一些重要的知識(shí)蒸餾策略技術(shù)

1.軟目標(biāo)標(biāo)簽知識(shí)蒸餾中,軟目標(biāo)標(biāo)簽策略包括訓(xùn)練學(xué)生模型時(shí)使用概率分布(即軟標(biāo)簽),而非標(biāo)準(zhǔn)硬標(biāo)簽。這些軟標(biāo)簽通過(guò)更高級(jí)的指導(dǎo)模型輸出logits應(yīng)用softmax函數(shù)生成。softmax函數(shù)中的溫度參數(shù)影響概率分布的平滑程度。

通過(guò)這種方式訓(xùn)練學(xué)生模型匹配軟目標(biāo)標(biāo)簽,可以使學(xué)生模型不僅學(xué)習(xí)到導(dǎo)師模型的最終預(yù)測(cè)結(jié)果,還能捕獲到每次預(yù)測(cè)中的置信度和不確定性。這種精細(xì)方法提高了學(xué)生模型的泛化能力,并使其能夠更有效地捕捉導(dǎo)師模型中的復(fù)雜知識(shí)結(jié)構(gòu)。因此,該策略有助于構(gòu)建出更高效、更緊湊的學(xué)生模型。

2.特征模仿:特征模仿是知識(shí)蒸餾的一項(xiàng)技術(shù),其核心在于訓(xùn)練一個(gè)相對(duì)簡(jiǎn)單的學(xué)生模型復(fù)制一個(gè)相對(duì)復(fù)雜的導(dǎo)師模型的中間特征。
學(xué)生模型不僅要復(fù)制導(dǎo)師模型的最終預(yù)測(cè)結(jié)果,還被指導(dǎo)在各層級(jí)上去匹配導(dǎo)師模型內(nèi)部特征圖。

這種方法旨在傳遞導(dǎo)師模型在預(yù)測(cè)過(guò)程體現(xiàn)的高層信息,以及整個(gè)網(wǎng)絡(luò)中學(xué)習(xí)的深層次特征分布。通過(guò)特征模仿,學(xué)生模型可以捕捉導(dǎo)師模型表達(dá)更深層信息以及內(nèi)在聯(lián)系,從而泛化能力和性能上實(shí)現(xiàn)顯著提升

3.自蒸餾:這是一種知識(shí)蒸餾技術(shù)。導(dǎo)師模型通過(guò)該技術(shù),將內(nèi)在知識(shí)轉(zhuǎn)化為一種更為精簡(jiǎn)且高效的表達(dá)形式,進(jìn)而構(gòu)建出與之結(jié)構(gòu)相同的學(xué)生模型。該過(guò)程具有迭代性,即在每一輪蒸餾后,所得到的學(xué)生模型可被升級(jí)為新的導(dǎo)師模型,用于后續(xù)的蒸餾輪次。

自蒸餾利用模型內(nèi)在的復(fù)雜性作為引導(dǎo),以促進(jìn)更緊湊版本的學(xué)習(xí)過(guò)程,進(jìn)而逐步精煉模型的理解能力。當(dāng)模型面臨適應(yīng)挑戰(zhàn),需要將豐富的信息壓縮至更小的形式時(shí),這種策略尤為有效。通過(guò)這種方式,自蒸餾能夠在保持模型性能的同時(shí),實(shí)現(xiàn)模型大小的優(yōu)化,從而在模型的體積與性能之間達(dá)成一種平衡。

4.多教師蒸餾該技術(shù)將多個(gè)導(dǎo)師模型各自所蘊(yùn)含的獨(dú)特知識(shí)和技能傳授給單個(gè)學(xué)生模型。每個(gè)導(dǎo)師模型為當(dāng)前任務(wù)帶來(lái)獨(dú)特的視角或技能。在這一過(guò)程中,每個(gè)導(dǎo)師模型都針對(duì)各自當(dāng)前任務(wù)貢獻(xiàn)其獨(dú)特的視角和專長(zhǎng),從而為學(xué)生模型提供了一個(gè)多元化的學(xué)習(xí)資源庫(kù)。

學(xué)生模型通過(guò)吸收并整合來(lái)自多樣化導(dǎo)師模型的綜合知識(shí),旨在形成一個(gè)更為全面和深入的事實(shí)理解體系。

多教師蒸餾技術(shù)過(guò)結(jié)合來(lái)自不同信息源的數(shù)據(jù),顯著增強(qiáng)學(xué)生模型的魯棒性和通用性。特別是在面對(duì)那些需要理解和掌握復(fù)雜、多樣化模式的任務(wù)時(shí),多教師蒸餾顯示出其獨(dú)特的優(yōu)勢(shì)。它能夠從多個(gè)視角和維度出發(fā),對(duì)學(xué)生模型進(jìn)行訓(xùn)練,從而實(shí)現(xiàn)對(duì)任務(wù)本質(zhì)的更深刻理解。

5.注意力轉(zhuǎn)移:注意力轉(zhuǎn)移是知識(shí)蒸餾領(lǐng)域的一種先進(jìn)技術(shù),其核心在于訓(xùn)練一個(gè)相對(duì)簡(jiǎn)單的學(xué)生模型,使其能夠模仿更復(fù)雜導(dǎo)師模型的注意力機(jī)制。

在注意力機(jī)制的框架下,模型能夠識(shí)別并凸顯輸入數(shù)據(jù)中的相關(guān)性部分,從而實(shí)現(xiàn)對(duì)關(guān)鍵信息的聚焦。在這種策略下,學(xué)生模型不僅學(xué)習(xí)復(fù)制導(dǎo)師模型的最終預(yù)測(cè),更重要的是,它還學(xué)習(xí)模仿導(dǎo)師模型在決策過(guò)程中的注意力分配模式。

通過(guò)這種方式,學(xué)生模型能夠捕獲并復(fù)制導(dǎo)師模型在決策過(guò)程中使用的選擇性關(guān)注和推理策略,這極大地提高了學(xué)生模型的可解釋性,并且在提升模型性能方面發(fā)揮了關(guān)鍵作用。

知識(shí)蒸餾的挑戰(zhàn)與局限性

知識(shí)蒸餾作為一種高效的知識(shí)遷移技術(shù),盡管具有強(qiáng)大且多方面的應(yīng)用優(yōu)勢(shì),但也存在一些固有的障礙和限制。對(duì)于期望有效利用知識(shí)蒸餾的專業(yè)人員而言,深入理解這些缺陷至關(guān)重要。以下是對(duì)知識(shí)蒸餾相關(guān)的一些障礙和約束的詳細(xì)闡述

1. 計(jì)算成本考量:知識(shí)蒸餾技術(shù)涉及導(dǎo)師模型和學(xué)生模型的同步訓(xùn)練,這無(wú)疑會(huì)增加整體的計(jì)算負(fù)擔(dān)。相較于單獨(dú)訓(xùn)練一個(gè)模型,知識(shí)蒸餾通常需要更多的訓(xùn)練步驟,因此在資源受限的應(yīng)用場(chǎng)景中,該技術(shù)可能并不適用

2.導(dǎo)師模型與學(xué)生模型的優(yōu)化匹配:在知識(shí)蒸餾過(guò)程中,選擇一個(gè)與學(xué)生模型特性相匹配的合適導(dǎo)師模型至關(guān)重要。若導(dǎo)師模型與學(xué)生模型之間存在不匹配,可能會(huì)導(dǎo)致性能下降或?qū)W生模型過(guò)度擬合導(dǎo)師模型的特定偏差。

3. 超參數(shù)調(diào)優(yōu):知識(shí)蒸餾的性能很大程度上取決于所使用的超參數(shù)設(shè)置,如軟標(biāo)簽生成中的溫度參數(shù)。確定這些超參數(shù)的理想平衡設(shè)置是一項(xiàng)挑戰(zhàn)性的任務(wù),并可能需要大量調(diào)整。

4. 過(guò)度擬合導(dǎo)師模型偏差的風(fēng)險(xiǎn):在知識(shí)蒸餾過(guò)程中,若導(dǎo)師模型本身存在偏差,或是在帶有偏的數(shù)據(jù)上進(jìn)行訓(xùn)練,則學(xué)生模型有可能在知識(shí)遷移過(guò)程中繼承這些偏差。因此,必須采取審慎的措施,去處理并減少導(dǎo)師模型的任何潛在偏差,確保知識(shí)傳遞的準(zhǔn)確性。

5. 對(duì)噪聲標(biāo)簽的敏感性:知識(shí)蒸餾過(guò)程中可能對(duì)訓(xùn)練數(shù)據(jù)中的噪聲標(biāo)簽具有較高敏感,可能導(dǎo)致導(dǎo)師模型向?qū)W生模型傳遞錯(cuò)誤或不準(zhǔn)確的信息。

盡管知識(shí)蒸餾面臨著諸多障礙與局限性,但該技術(shù)依舊被廣泛認(rèn)為是將大型復(fù)雜模型中的知識(shí)有效遷移至較小、更簡(jiǎn)潔模型的一種高效手段。

通過(guò)細(xì)致考量參數(shù)調(diào)優(yōu),知識(shí)蒸餾可以在多種應(yīng)用場(chǎng)景顯著提升機(jī)器學(xué)習(xí)模型的性能表現(xiàn)

結(jié)論

知識(shí)蒸餾作為深度學(xué)習(xí)領(lǐng)域的一種強(qiáng)大技術(shù),為實(shí)現(xiàn)模型的更高效率、更緊湊的結(jié)構(gòu)以及更強(qiáng)的靈活性提供了關(guān)鍵途徑。

知識(shí)蒸餾通過(guò)精細(xì)化的策略,將大型導(dǎo)師模型中的知識(shí)轉(zhuǎn)移至更為簡(jiǎn)潔的學(xué)生模型中,從而有效解決了模型規(guī)模、計(jì)算效率以及泛化能力等多方面的問(wèn)題。

經(jīng)過(guò)知識(shí)蒸餾的學(xué)生模型,不僅繼承了其導(dǎo)師模型精準(zhǔn)預(yù)測(cè)能力,往往還能展現(xiàn)出更佳的性能,具備更快的推理速度和更強(qiáng)的適應(yīng)性。

譯者介紹

劉濤,51CTO社區(qū)編輯,某大型央企系統(tǒng)上線檢測(cè)管控負(fù)責(zé)人。

原文標(biāo)題:How Does Knowledge Distillation Work in Deep Learning Models?,作者:Oyedele Tioluwani Taiwo

責(zé)任編輯:華軒 來(lái)源: 51CTO
相關(guān)推薦

2020-04-10 15:05:09

深度學(xué)習(xí)人工智能蒸餾

2025-03-07 08:00:00

LLM蒸餾和量化大模型

2009-03-27 18:27:48

2017-11-17 09:13:31

Java注解

2022-09-16 00:11:45

PyTorch神經(jīng)網(wǎng)絡(luò)存儲(chǔ)

2024-08-09 08:12:35

深度學(xué)習(xí)VAEsGANs

2022-05-18 08:00:00

JavaScriptFetch數(shù)據(jù)

2024-02-20 15:17:35

機(jī)器學(xué)習(xí)模型部署

2011-11-03 16:32:57

Dart

2022-04-14 09:01:39

React源碼Flow

2024-12-02 01:10:04

神經(jīng)網(wǎng)絡(luò)自然語(yǔ)言DNN

2025-04-22 08:08:37

2020-04-26 17:20:53

深度學(xué)習(xí)人工智能計(jì)算機(jī)視覺(jué)

2025-02-17 13:09:59

深度學(xué)習(xí)模型壓縮量化

2022-04-08 14:40:59

框架訓(xùn)練模型

2011-08-08 13:45:58

jQuery

2021-05-10 17:20:55

AIOps開(kāi)發(fā)人員人工智能

2022-12-19 15:16:46

機(jī)器學(xué)習(xí)模型

2025-02-27 10:41:53

2021-01-18 10:42:36

深度學(xué)習(xí)知識(shí)圖譜
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)