自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

芯片設(shè)計(jì)效率提升2.5倍,中科大華為諾亞聯(lián)合,用GNN+蒙特卡洛樹搜索優(yōu)化電路設(shè)計(jì) | ICLR2025

人工智能 新聞
中科大王杰教授團(tuán)隊(duì)(MIRALab)和華為諾亞方舟實(shí)驗(yàn)室(HuaweiNoah’sArkLab)聯(lián)合提出了基于神經(jīng)符號(hào)函數(shù)挖掘的高效邏輯優(yōu)化方法,顯著提升傳統(tǒng)關(guān)鍵邏輯優(yōu)化算子運(yùn)行效率最高達(dá)2.5倍。

芯片設(shè)計(jì)是現(xiàn)代科技的核心,邏輯優(yōu)化(Logic Optimization, LO)作為芯片設(shè)計(jì)流程中的關(guān)鍵環(huán)節(jié),其效率直接影響著芯片設(shè)計(jì)的整體性能。

然而,傳統(tǒng)邏輯優(yōu)化算子由于存在大量無效和冗余的變換,導(dǎo)致優(yōu)化過程耗時(shí)較長(zhǎng),成為制約芯片設(shè)計(jì)效率的主要瓶頸。

為解決這一挑戰(zhàn),中科大王杰教授團(tuán)隊(duì)(MIRALab)和華為諾亞方舟實(shí)驗(yàn)室(HuaweiNoah’sArkLab)聯(lián)合提出了基于神經(jīng)符號(hào)函數(shù)挖掘的高效邏輯優(yōu)化方法,顯著提升傳統(tǒng)關(guān)鍵邏輯優(yōu)化算子運(yùn)行效率最高達(dá)2.5倍

論文已被ICLR 2025接收。

圖片

研究團(tuán)隊(duì)提出了一種創(chuàng)新的數(shù)據(jù)驅(qū)動(dòng)的電路神經(jīng)符號(hào)學(xué)習(xí)框架——CMO。

通俗解釋,研究團(tuán)隊(duì)開發(fā)了一種聰明又高效的AI算法框架。這個(gè)系統(tǒng)通過“看圖識(shí)路”(圖神經(jīng)網(wǎng)絡(luò))加上“會(huì)下棋的策略”(蒙特卡洛樹搜索),能夠自動(dòng)學(xué)會(huì)如何更快、更智能地“剪枝”電路邏輯——就像幫電路減肥,讓它運(yùn)行得更快但不丟性能。

在實(shí)際測(cè)試中,CMO能讓關(guān)鍵算法運(yùn)行效率提升最多2.5倍,也就是說,原來跑10分鐘的任務(wù),現(xiàn)在4分鐘就搞定了。這個(gè)技術(shù)已經(jīng)被集成進(jìn)華為自研的EMU邏輯綜合工具中,有力地支持了EDA工具全鏈條國(guó)產(chǎn)化任務(wù)。

引言

芯片設(shè)計(jì)自動(dòng)化(EDA)被稱為“芯片之母”,是半導(dǎo)體行業(yè)的關(guān)鍵基石。邏輯優(yōu)化(LO)是前端設(shè)計(jì)流程中最重要的EDA工具之一,其核心任務(wù)是通過功能等效的轉(zhuǎn)換來優(yōu)化電路,減少電路的規(guī)模和深度,從而提升芯片的質(zhì)量。

LO任務(wù)是一個(gè)NP-hard問題。為了解決LO問題,現(xiàn)有的啟發(fā)式算子(如Mfs2[1]、Resub[2]、Rewrite[3]、Refactor[4]等)通過遍歷電路圖節(jié)點(diǎn)并進(jìn)行局部轉(zhuǎn)換而實(shí)現(xiàn)邏輯優(yōu)化。但由于現(xiàn)有算子存在大量無效和冗余的轉(zhuǎn)換,導(dǎo)致優(yōu)化過程非常耗時(shí),嚴(yán)重限制了芯片設(shè)計(jì)的效率。為了提高LO的效率,先前的研究提出使用打分函數(shù)來預(yù)測(cè)并剪枝無效的節(jié)點(diǎn)轉(zhuǎn)換。

現(xiàn)有的打分函數(shù)大致分為兩類,第一類是人工設(shè)計(jì)的啟發(fā)式方案[5],這些方法雖然具有可解釋性,但設(shè)計(jì)過程復(fù)雜,且泛化性能較差,難以保證算子優(yōu)化性能。第二類是基于圖神經(jīng)網(wǎng)絡(luò)(GNN)的深度學(xué)習(xí)方案[6],盡管GNN在LO任務(wù)中表現(xiàn)出色,但且推理嚴(yán)重依賴于GPU,難以在純CPU的工業(yè)環(huán)境中部署。此外,GNN的“黑箱”特性也引發(fā)了對(duì)其可靠性的擔(dān)憂。因此,如何找到兼具推理效率、可解釋性和泛化性能的打分函數(shù)是邏輯優(yōu)化領(lǐng)域亟待解決的難題。

為了解決上述難題,研究團(tuán)隊(duì)提出了首個(gè)數(shù)據(jù)驅(qū)動(dòng)的電路神經(jīng)符號(hào)學(xué)習(xí)框架(Circuit symbolic learning framework,CMO),該框架采用教師-學(xué)生范式,利用泛化性強(qiáng)的GNN模型作為教師,并指導(dǎo)作為學(xué)生的基于蒙特卡洛樹搜索的符號(hào)學(xué)習(xí)方案,從而有效生成兼具泛化能力與輕量化的符號(hào)打分函數(shù)。

在三個(gè)具有挑戰(zhàn)性的電路基準(zhǔn)測(cè)試中,離線實(shí)驗(yàn)結(jié)果表明,CMO學(xué)習(xí)到的可解釋符號(hào)函數(shù)在推理效率和泛化能力方面均顯著優(yōu)于此前基于GPU的最先進(jìn)方法以及人工設(shè)計(jì)的方案。此外,在線實(shí)驗(yàn)進(jìn)一步驗(yàn)證了CMO的實(shí)際應(yīng)用價(jià)值:CMO能夠在保持關(guān)鍵算子優(yōu)化性能的同時(shí)提升其運(yùn)行效率最高達(dá)2.5倍。該方案為芯片設(shè)計(jì)工具的高效化提供了新的解決方案,目前已成功應(yīng)用于華為自研EMU邏輯綜合工具中。

背景與問題介紹

1.邏輯優(yōu)化(Logic Optimization,LO)

邏輯優(yōu)化是電子設(shè)計(jì)自動(dòng)化(EDA)工具中的關(guān)鍵模塊,旨在通過優(yōu)化由有向無環(huán)圖表示的電路圖(即減少電路圖的面積與深度),提升芯片的性能、功耗和面積(PPA)。邏輯優(yōu)化通常分為兩個(gè)階段:

  • 映射前優(yōu)化(Pre-mapping Optimization):在電路映射到技術(shù)庫之前,使用啟發(fā)式算法(如Rewrite、 Resub、 Refactor等)對(duì)電路進(jìn)行優(yōu)化。
  • 映射后優(yōu)化(Post-mapping Optimization):在電路映射到技術(shù)庫(如標(biāo)準(zhǔn)單元網(wǎng)表或K輸入查找表)后,進(jìn)一步使用啟發(fā)式算法(如Mfs2)對(duì)電路進(jìn)行優(yōu)化。

邏輯優(yōu)化的核心任務(wù)是通過功能等效的轉(zhuǎn)換減少電路的規(guī)模和深度,從而提升芯片的質(zhì)量。然而,邏輯優(yōu)化是一個(gè)NP難問題,現(xiàn)有的啟發(fā)式算法雖然有效,但由于存在大量無效和冗余的轉(zhuǎn)換,導(dǎo)致優(yōu)化過程非常耗時(shí)。因此,如何提高邏輯優(yōu)化的效率成為芯片設(shè)計(jì)中的一個(gè)關(guān)鍵挑戰(zhàn)。

2.基于節(jié)點(diǎn)剪枝的高效邏輯優(yōu)化框架

為了提升邏輯優(yōu)化的效率,研究者提出了如圖1所示的預(yù)測(cè)與剪枝框架(Prediction and Prune Framework),該框架通過引入打分函數(shù)來預(yù)測(cè)并剪枝無效的節(jié)點(diǎn)轉(zhuǎn)換,從而減少不必要的計(jì)算開銷。具體來說:

  • 節(jié)點(diǎn)級(jí)轉(zhuǎn)換(Node-level Transformations):邏輯優(yōu)化啟發(fā)式算子(如Mfs2)通常會(huì)對(duì)電路中的每個(gè)節(jié)點(diǎn)依次應(yīng)用轉(zhuǎn)換。然而,許多轉(zhuǎn)換是無效的,即它們不會(huì)對(duì)電路的優(yōu)化結(jié)果產(chǎn)生實(shí)質(zhì)性影響。
  • 打分函數(shù)的作用:打分函數(shù)用于評(píng)估每個(gè)節(jié)點(diǎn)的轉(zhuǎn)換是否有效。通過預(yù)測(cè)并剪枝無效的節(jié)點(diǎn)轉(zhuǎn)換,可以顯著減少啟發(fā)式算法的計(jì)算量,從而提升優(yōu)化效率。

圖片

△圖1.邏輯優(yōu)化中的預(yù)測(cè)與剪枝框架

然而,現(xiàn)有的評(píng)分函數(shù)在以下幾個(gè)方面存在局限性:

1.推理效率:基于深度學(xué)習(xí)的評(píng)分函數(shù)(如GNN)雖然預(yù)測(cè)準(zhǔn)確率高,但其推理時(shí)間長(zhǎng),在純CPU環(huán)境的大規(guī)模工業(yè)電路上推理時(shí)間最高可占算子運(yùn)行時(shí)間的30%,因此難以滿足工業(yè)需求。2.可解釋性:深度學(xué)習(xí)模型(如GNN)的“黑箱”特性使得其在實(shí)際應(yīng)用中的可靠性受到質(zhì)疑。3.泛化性能:人工設(shè)計(jì)的評(píng)分函數(shù)雖然具有可解釋性,但其泛化性能較差,難以適應(yīng)不同電路的特性。為了解決這些問題,本文提出了CMO框架,通過學(xué)習(xí)輕量級(jí)、可解釋且泛化能力強(qiáng)的符號(hào)函數(shù)來優(yōu)化邏輯綜合算子。

方法

為了挖掘輕量化符號(hào)打分函數(shù),首先提出了數(shù)據(jù)驅(qū)動(dòng)的神經(jīng)符號(hào)學(xué)習(xí)框架(Circuit Symbolic Learning framework, CMO),在CMO中的核心技術(shù)貢獻(xiàn)是圖增強(qiáng)的蒙特卡洛樹搜索方案(Graph Enhanced Symbolic Discovery Framework, GESD),通過學(xué)習(xí)圖神經(jīng)網(wǎng)絡(luò)內(nèi)蘊(yùn)的知識(shí)以提升符號(hào)函數(shù)的泛化能力。

1.數(shù)據(jù)驅(qū)動(dòng)的神經(jīng)符號(hào)學(xué)習(xí)框架-CMO

如圖2所示,CMO描述了該研究整個(gè)符號(hào)函數(shù)學(xué)習(xí)與實(shí)際部署的pipeline。

圖片

△數(shù)據(jù)驅(qū)動(dòng)的神經(jīng)符號(hào)學(xué)習(xí)框架CMO

數(shù)據(jù)收集

通過應(yīng)用邏輯優(yōu)化啟發(fā)式算法(如Mfs2)對(duì)電路進(jìn)行優(yōu)化,生成數(shù)據(jù)集。對(duì)于電路中的每個(gè)節(jié)點(diǎn),生成一個(gè)數(shù)據(jù)對(duì)圖片,其中圖片是節(jié)點(diǎn)特征,圖片是標(biāo)簽(如果節(jié)點(diǎn)轉(zhuǎn)換有效則標(biāo)簽為1,否則為0)。

對(duì)于一個(gè)給定的電路圖,收集到的數(shù)據(jù)為圖片,目標(biāo)是從中學(xué)習(xí)輕量且可解釋的符號(hào)函數(shù)。

結(jié)構(gòu)-語義特征分解

對(duì)于節(jié)點(diǎn)特征圖片的設(shè)計(jì),研究團(tuán)隊(duì)參考了[5]的設(shè)計(jì),將節(jié)點(diǎn)特征設(shè)計(jì)為了包含圖結(jié)構(gòu)與圖語義信息的高維特征。其中,結(jié)構(gòu)特征包含電路的拓?fù)湫畔ⅲㄈ绻?jié)點(diǎn)的層級(jí)、扇入/扇出數(shù)等),而語義特征包含功能信息(如節(jié)點(diǎn)的真值表)。然而,高維特征會(huì)導(dǎo)致搜索空間急劇增加,為了解決這一問題,提出了結(jié)構(gòu)-語義特征分解策略。團(tuán)隊(duì)觀察到結(jié)構(gòu)特征是連續(xù)的,適合數(shù)學(xué)符號(hào)回歸;而語義特征是離散的,適合布爾符號(hào)學(xué)習(xí)。因此,將特征分離并分別使用不同的符號(hào)回歸方案學(xué)習(xí),顯著減少了符號(hào)搜索空間,并從結(jié)構(gòu)與語義兩個(gè)維度集成信息,有利于模型泛化性能的提升。

神經(jīng)符號(hào)函數(shù)學(xué)習(xí)

  • 結(jié)構(gòu)函數(shù)學(xué)習(xí):對(duì)于連續(xù)的結(jié)構(gòu)特征圖片,該函數(shù)將結(jié)構(gòu)特征映射為連續(xù)值。
  • 語義函數(shù)學(xué)習(xí):對(duì)于離散的語義特征圖片,該函數(shù)將語義特征映射為離散值。

特征信息融合

在測(cè)試階段,將訓(xùn)練得到的結(jié)構(gòu)函數(shù)與語義函數(shù)同時(shí)作為部署模型,并將結(jié)構(gòu)函數(shù)和語義函數(shù)的輸出融合,得到節(jié)點(diǎn)的最終分?jǐn)?shù)圖片

圖片

其中圖片是一個(gè)權(quán)重參數(shù),用于平衡兩種特征的重要性。

2.圖增強(qiáng)的蒙特卡洛樹符號(hào)搜索方案-GESD

在CMO中,如何從給定的電路數(shù)據(jù)中發(fā)現(xiàn)具有強(qiáng)泛化能力的符號(hào)函數(shù)是一個(gè)關(guān)鍵問題。為此,提出了首個(gè)圖增強(qiáng)的蒙特卡洛樹符號(hào)搜索方案——GESD(如圖3所示)。

該方案通過圖神經(jīng)網(wǎng)絡(luò)(GNN)指導(dǎo)蒙特卡洛樹的生成,巧妙結(jié)合了圖神經(jīng)網(wǎng)絡(luò)的高泛化能力與符號(hào)函數(shù)的輕量化優(yōu)勢(shì),從而顯著提升了符號(hào)函數(shù)的泛化性能。

圖片

△圖3. 圖增強(qiáng)的蒙特卡洛樹符號(hào)搜索方案GESD

符號(hào)樹生成

  • 符號(hào)操作符:在生成符號(hào)函數(shù)之前,需要定義搜索中使用的符號(hào)。用于生成結(jié)構(gòu)表達(dá)式樹的數(shù)學(xué)運(yùn)算符包括:{+, ?, ×, ÷, log, exp, sin, cos}。團(tuán)隊(duì)沒有使用占位符來生成常數(shù),因?yàn)橐雰?nèi)部常熟優(yōu)化循環(huán)通常會(huì)導(dǎo)致 更高的訓(xùn)練成本。此外,團(tuán)隊(duì)發(fā)現(xiàn)像exp、sin、cos等復(fù)雜操作符能夠有效提升符號(hào)函數(shù)的預(yù)測(cè)性能。對(duì)于生成語義表達(dá)式樹的布爾運(yùn)算符包括:{與,或,非},通過與或非的組合能夠擬合任意一個(gè)布爾表達(dá)式。
  • 蒙特卡洛樹搜索:受到蒙特卡洛樹搜索(MCTS)在有效探索大型復(fù)雜符號(hào)空間方面的優(yōu)勢(shì)啟發(fā)(Sun等,2023;Xu等,2024),使用符號(hào)表達(dá)式樹來表示符號(hào)函數(shù)通過表達(dá)式樹并利用MCTS生成符號(hào)樹。對(duì)于一棵符號(hào)樹,他的內(nèi)部節(jié)點(diǎn)是數(shù)學(xué)運(yùn)算符(如加、減、乘、除、對(duì)數(shù)、指數(shù)等),葉子節(jié)點(diǎn)是輸入變量或常數(shù)。定義狀態(tài)(s)為當(dāng)前表達(dá)式樹的先序遍歷,動(dòng)作(a)為添加到狀態(tài)中的符號(hào)操作符或變量。具體來說,此研究中的MCTS包括四個(gè)步驟:選擇、擴(kuò)展、模擬和反向傳播。

1.選擇:在選擇階段,MCTS代理遍歷當(dāng)前表達(dá)式樹,選擇具有最大UCT值的動(dòng)作。為了確保生成表達(dá)式的合法性,在當(dāng)前狀態(tài)下,MCTS代理會(huì)屏蔽掉當(dāng)前非終端節(jié)點(diǎn)的無效動(dòng)作,并在此基礎(chǔ)上選擇一個(gè)有效的動(dòng)作作為。2.擴(kuò)展:當(dāng)選擇階段達(dá)到一個(gè)可擴(kuò)展節(jié)點(diǎn)——即它的子節(jié)點(diǎn)并非全部已被訪問——MCTS代理會(huì)通過隨機(jī)選擇一個(gè)未訪問的有效子節(jié)點(diǎn)來擴(kuò)展該節(jié)點(diǎn)。3.模擬:在當(dāng)前狀態(tài)和擴(kuò)展節(jié)點(diǎn)的基礎(chǔ)上,通過隨機(jī)選擇下一個(gè)節(jié)點(diǎn)進(jìn)行仿真,直到表達(dá)式樹完成。具體來說,進(jìn)行10次仿真,并返回最大仿真獎(jiǎng)勵(lì),而不是傳統(tǒng)MCTS算法中的平均獎(jiǎng)勵(lì),以找到唯一的最優(yōu)符號(hào)解,這是一種與傳統(tǒng)MCTS算法不同的貪婪搜索啟發(fā)式方法。4.反向傳播:仿真結(jié)束后,更新路徑中從當(dāng)前節(jié)點(diǎn)到根節(jié)點(diǎn)的最大獎(jiǎng)勵(lì)Q和訪問次數(shù)N。該搜索算法會(huì)不斷重復(fù)上述步驟,直到滿足停止準(zhǔn)則。

圖增強(qiáng)符號(hào)函數(shù)

  • 教師-學(xué)生框架:

引入圖神經(jīng)網(wǎng)絡(luò)(GNN)作為教師模型,通過蒸餾GNN的“暗知識(shí)”來增強(qiáng)符號(hào)函數(shù)的泛化能力。具體來說,首先在訓(xùn)練數(shù)據(jù)集上訓(xùn)練一個(gè)GNN,該GNN能夠有效捕捉電路中的復(fù)雜結(jié)構(gòu)和語義信息,從而解決由于電路領(lǐng)域分布大幅度變化而導(dǎo)致的泛化能力差的問題。然后,利用GNN的預(yù)測(cè)輸出和真實(shí)標(biāo)簽來指導(dǎo)符號(hào)函數(shù)的學(xué)習(xí)過程。

這種教師-學(xué)生框架的核心思想是通過GNN的高泛化能力來引導(dǎo)符號(hào)函數(shù)的生成,從而彌補(bǔ)傳統(tǒng)符號(hào)方法在泛化性能上的不足。

  • 獎(jiǎng)勵(lì)函數(shù)設(shè)計(jì):

在MCTS的模擬階段,使用以下獎(jiǎng)勵(lì)函數(shù)評(píng)估符號(hào)函數(shù):圖片

其中圖片是基于標(biāo)簽的損失,用于確保符號(hào)函數(shù)的預(yù)測(cè)結(jié)果與真實(shí)標(biāo)簽一致;

圖片是基于GNN輸出的損失,用于將GNN的泛化能力遷移到符號(hào)函數(shù)中。通過調(diào)整權(quán)重圖片可以平衡標(biāo)簽信息和教師知識(shí)的重要性。此外,圖片是一個(gè)懲罰因子,用于控制符號(hào)函數(shù)的復(fù)雜度,確保生成的符號(hào)函數(shù)既簡(jiǎn)潔又高效。

  • 圖蒸餾

通過最小化符號(hào)函數(shù)輸出與GNN輸出之間的均方誤差(MSE),將GNN的泛化能力遷移到符號(hào)函數(shù)中。與以往使用KL散度的方法不同,MSE能夠直接學(xué)習(xí)GNN輸出的泛化信息,從而實(shí)現(xiàn)與GNN相當(dāng)?shù)姆夯阅?。具體來說,研究團(tuán)隊(duì)發(fā)現(xiàn)電路特征與GNN輸出之間存在簡(jiǎn)單的非線性映射關(guān)系,這使得符號(hào)函數(shù)能夠在不犧牲性能的情況下保持輕量化。

此外,針對(duì)電路數(shù)據(jù)中正負(fù)樣本嚴(yán)重不平衡的問題,采用焦點(diǎn)損失(Focal Loss)作為學(xué)生模型的損失函數(shù),進(jìn)一步提升符號(hào)函數(shù)的學(xué)習(xí)效果。焦點(diǎn)損失通過調(diào)整難易樣本的權(quán)重,有效緩解了樣本不平衡帶來的負(fù)面影響,從而提高了符號(hào)函數(shù)在稀疏數(shù)據(jù)上的表現(xiàn)。

實(shí)驗(yàn)結(jié)果

在實(shí)驗(yàn)部分,在兩個(gè)廣泛使用的開源電路數(shù)據(jù)集(EPFL和IWLS)以及一個(gè)工業(yè)電路數(shù)據(jù)集上進(jìn)行了全面測(cè)試。實(shí)驗(yàn)結(jié)果表明,該方法在多個(gè)方面表現(xiàn)出色:

1.效率提升:CMO框架顯著提升了傳統(tǒng)關(guān)鍵邏輯優(yōu)化算子(如Mfs2)的運(yùn)行效率,最高可達(dá)2.5倍加速。例如,在超大規(guī)模電路Sixteen上,CMO-Mfs2將運(yùn)行時(shí)間從78,784秒減少到32,001秒,提升了約59.4%

2.優(yōu)化質(zhì)量提升:通過在相同時(shí)間內(nèi)多次運(yùn)行CMO驅(qū)動(dòng)的新型算子(如2CMO-Mfs2),進(jìn)一步提升了電路的優(yōu)化質(zhì)量(QoR)。具體來說,電路的規(guī)模和深度得到了顯著改善,其中電路深度的最大優(yōu)化幅度達(dá)到30.23%。例如,在Hyp電路上,2CMO-Mfs2將電路深度從8,259層減少到5,762層,顯著降低了電路的延遲。

這些實(shí)驗(yàn)結(jié)果充分證明了CMO框架在提升邏輯優(yōu)化效率和質(zhì)量方面的雙重優(yōu)勢(shì),為芯片設(shè)計(jì)中的邏輯優(yōu)化任務(wù)提供了強(qiáng)有力的支持。

圖片

△表1.實(shí)驗(yàn)結(jié)果表明該方法不僅能夠提升算子效率,同時(shí)還能夠提升算子優(yōu)化質(zhì)量

本論文作者白寅岐是中國(guó)科學(xué)技術(shù)大學(xué)2024級(jí)碩士生,師從王杰教授,主要研究方向?yàn)槿斯ぶ悄茯?qū)動(dòng)的芯片設(shè)計(jì)、圖機(jī)器學(xué)習(xí)、大模型等。他曾在人工智能頂級(jí)會(huì)議ICML、Neurips等會(huì)議上發(fā)表論文兩篇,本科期間曾獲首批國(guó)家青年學(xué)生基礎(chǔ)研究項(xiàng)目資助(全國(guó)108人)。

論文地址:https://openreview.net/forum?id=EG9nDN3eGB
代碼地址:https://gitee.com/yinqi-bai/cmo

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-08-12 14:00:00

2025-04-08 09:00:00

AI模型數(shù)據(jù)

2024-09-18 11:00:00

AI工具數(shù)據(jù)

2025-04-01 09:20:00

模型預(yù)測(cè)AI

2023-03-17 07:59:57

AI數(shù)字化

2025-02-24 10:15:00

2025-02-13 09:34:13

2024-11-05 14:10:00

神經(jīng)網(wǎng)絡(luò)AI

2024-08-19 08:45:00

開源模型

2024-09-26 10:04:20

2021-08-20 10:12:35

Python蒙特卡洛股票

2024-05-09 08:33:33

2025-04-10 09:15:03

2025-04-26 09:25:00

模型推理AI

2024-07-10 09:37:57

2024-09-02 08:22:00

模型數(shù)據(jù)集

2024-12-11 08:12:24

2025-01-10 11:42:40

2024-01-15 13:11:22

模型數(shù)據(jù)

2023-09-19 10:31:09

算法數(shù)據(jù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)