三句話生成CPU!中科院ChipGPT攻克AI芯片設(shè)計(jì)?代碼量減少近10倍
自動(dòng)生成電路想法源自圖靈老師邱奇,被稱為編程語言圣杯。
而人工智能驅(qū)動(dòng)的芯片自動(dòng)設(shè)計(jì),更將是一場(chǎng)設(shè)計(jì)界的革命!
前段時(shí)間,紐約大學(xué) Chat-Chip 項(xiàng)目,引爆熱潮。與此同時(shí),中科院計(jì)算所在 arXiv 發(fā)布 ChipGPT 工作,兩隊(duì)人馬爭(zhēng)先后,只相差一日!
這場(chǎng)「人工智能芯片大戰(zhàn)」激戰(zhàn)正酣,各施法寶,令芯片業(yè)翻手為云,覆手為雨。
即便短期內(nèi)人工智能難完全取代人工,但人工與人工智能聯(lián)袂設(shè)計(jì),相得益彰,必將極大增強(qiáng)芯片設(shè)計(jì)生產(chǎn)力與創(chuàng)新力,關(guān)系到芯片設(shè)計(jì)之未來!
圖片
論文地址:https://arxiv.org/abs/2305.1401
杜克大學(xué)陳怡然老師在微博上表達(dá)了對(duì)芯片自動(dòng)生成領(lǐng)域的關(guān)注,認(rèn)為這個(gè)話題令人振奮,而中科院計(jì)算所 ChipGPT 也同樣引人矚目,但是想要真正做到自動(dòng)化芯片生成還有很長(zhǎng)的路要走。
ChipGPT 作者的指導(dǎo)老師王穎博士認(rèn)為,現(xiàn)有的工作只是初步評(píng)估了大語言模型交互式芯片設(shè)計(jì)的潛力,如何將其融入現(xiàn)有EDA流程實(shí)現(xiàn)無人值守芯片設(shè)計(jì)將成為下一個(gè)目標(biāo)。
圖片
陳教授這里提到的 ChipGPT,雖然同樣也是基于大語言模型的自動(dòng)設(shè)計(jì)芯片,但與 Chip-Chat 不同,中科院計(jì)算所提出的 ChipGPT 還探索針對(duì)芯片性能和面積的優(yōu)化方法。
不僅如此,ChipGPT 還在芯片設(shè)計(jì)上,比 ChatGPT 節(jié)省了多達(dá) 47% 面積。
大模型芯片設(shè)計(jì) PK 戰(zhàn):Chip-Chat vs ChipGPT?
雖說這兩篇工作都借大模型力量生成芯片,見識(shí)廣闊,一覽眾山小。但目前人工智能還處在發(fā)展初期,后續(xù)工作仍浩浩蕩蕩。
對(duì)此,ChipGPT 作者稱,要大模型玩轉(zhuǎn)芯片自動(dòng)設(shè)計(jì),三大難題迫在眉睫:
第一個(gè)問題是,我到底要往模型的對(duì)話里塞什么玩意兒?芯片設(shè)計(jì)涉及的知識(shí)太過廣博深?yuàn)W,要把所有內(nèi)容都嘟嘟嘟往模型的上下文里塞,下場(chǎng)恐怕和「狗熊掰苞米」一樣,統(tǒng)統(tǒng)忘光光。如何精選模型的「餐飲內(nèi)容」, 這可是個(gè)讓芯片設(shè)計(jì)師們頭發(fā)都白了的難題。
第二個(gè)問題是,如何通過「Prompt Engineering」讓這個(gè)大模型生成出來的芯片更好更強(qiáng)大?要知道,Prompt Engineering 本身就是一門高深莫測(cè)的玄學(xué),讓大模型一下子領(lǐng)會(huì),簡(jiǎn)直難上加難。
第三個(gè)問題是,如何控制大模型生成出來的 HDL,讓設(shè)計(jì)出來的芯片在性能、功耗和面積之間達(dá)到最佳的平衡?任何芯片都面臨這三者之間的博弈,要讓大模型自由自在地搞定,簡(jiǎn)直是癡人說夢(mèng)。
要是能爬得過這「三座大山」,芯片自動(dòng)設(shè)計(jì)的未來可就指日可待了。不過話又說回來,就算解決了這三個(gè)問題,真正產(chǎn)業(yè)化可還遙遙無期呢。
所以呢,芯片設(shè)計(jì)師們暫時(shí)還是放心吧,你們的飯碗短期內(nèi)應(yīng)該還是很穩(wěn)的!
芯片合成實(shí)力之源泉,大模型輸入有何高深玄機(jī)?
HDL = ChipGPT(Specification)
HDL = Chat-Chip(Prompt List)
Chip-Chat 純聊天輸入難定制所需,ChipGPT 研究從芯片規(guī)范說明抽絲剝繭入手!
Chip-Chat 聊天玩自由來去無蹤跡,ChipGPT 一絲不茍只信規(guī)范說明(Specification)指點(diǎn)迷津。雖聊天可研究發(fā)揮,生產(chǎn)更憑規(guī)范保證準(zhǔn)確。
故 ChipGPT 研究從規(guī)范說明著手,將其放入聊天、試圖直接應(yīng)用芯片規(guī)范說明,卻發(fā)現(xiàn)難題重重:
第一,從規(guī)范說明提取會(huì)得大量無用信息,如模塊運(yùn)行錯(cuò)誤模式與復(fù)雜時(shí)序等等。大模型收費(fèi)看 token 數(shù),所以更應(yīng)從規(guī)范說明中精煉有用信息。
第二,芯片規(guī)范說明混亂無序,GPT 自動(dòng)提取難保生成準(zhǔn)確。故 ChipGPT 選擇手工提取,建立規(guī)范說明表格,將輸入歸于表格信息。
基于芯片說明書與基于簡(jiǎn)單提示,ChipGPT 與 Chip-Chat 應(yīng)用場(chǎng)景天差地別!
ChipGPT 研究目標(biāo)與基于提示的 Chip-Chat 大相徑庭。
ChipGPT 旨在為研究者提供整體框架,指導(dǎo)大模型芯片硬件自動(dòng)生成。Chip-Chat 則在告訴研究者大模型給硬件自動(dòng)生成帶來何種新挑戰(zhàn)與機(jī)遇。
故 ChipGPT 可謂指南書,引導(dǎo)工程師與研究者遨游大模型芯片合成之道。
ChipGPT 為芯片自動(dòng)生成研究提供指南,想玩轉(zhuǎn)大模型芯片設(shè)計(jì)者可從中「取經(jīng)」。它從芯片規(guī)范說明提取入手,避免大模型直接處理規(guī)范說明種種負(fù)面影響。手工建立規(guī)范說明表格,將輸入信息歸類,較好解決大模型處理不規(guī)則信息難題。
相比之下,Chip-Chat 是大模型在硬件自動(dòng)生成領(lǐng)域新嘗試,更似讓研究者知悉大模型給該領(lǐng)域帶來機(jī)遇與挑戰(zhàn),屬測(cè)試探索應(yīng)用。故兩者雖同大模型自動(dòng)生成芯片研究,應(yīng)用場(chǎng)景與目的差異頗大。
圖片
終結(jié)玄學(xué)!ChipGPT 讓 Prompt Engineering 逐漸「可控」
基于規(guī)范說明的輸入也會(huì)分解為小的提示,但在芯片生成中,不規(guī)則的提示會(huì)帶來一些問題:
1) 大模型自動(dòng)設(shè)計(jì)芯片,輸出結(jié)果可重復(fù)性與穩(wěn)定性堪憂!
如圖 7 所示,大模型玩轉(zhuǎn)芯片設(shè)計(jì),生成的代碼穩(wěn)定性是一個(gè)大問題。就算給同樣的提示,它生成的 Verilog 代碼也常常會(huì)「前后不搭調(diào)」,影響生成結(jié)果的可重復(fù)性和穩(wěn)定性。
這可讓想用大模型自動(dòng)設(shè)計(jì)芯片的人又愛又恨,成了這一路上最大的絆腳石。
要解決這個(gè)難題,使用確定的 Module 接口是個(gè)不錯(cuò)的辦法。明確接口后,大模型處理輸入的不確定性就可以大幅減少,生成結(jié)果的穩(wěn)定性自然也會(huì)提高。
這就像家長(zhǎng)提前告知孩子作業(yè)要求一樣,大模型事先知道需遵守的「規(guī)矩」,自然也能高效穩(wěn)定地完成「作業(yè)」了。
2)芯片連接信號(hào),如何解開這段全局最難理清的「頭疼之鏈」?
大模型一口吃個(gè)胖子,不利于身體健康。同樣,使用一個(gè)提示同時(shí)處理多個(gè)限制,會(huì)讓大模型生成的代碼質(zhì)量大打折扣。
就像人吃飯一樣,一次吃太多會(huì)造成消化不良。大模型也一樣,一次處理太多限制,容易搞混導(dǎo)致輸出錯(cuò)誤。
圖 8 中,若把額外信號(hào)限制也放入同一個(gè)提示,大模型處理起來難免手忙腳亂,就會(huì)對(duì)芯片設(shè)計(jì)的正確性造成極大影響。
相比之下,如果把額外限制(如 Ready-Valid 信號(hào))提取出來,放到下一輪的提示中,大模型就能逐一輕松地「消化」,然后才能正確地合成接口。
這就好比人吃飯時(shí),分多次適量地吃,而不是一口氣吃太多,更有利于消化吸收。
所以,對(duì)大模型來說,盡量避免一次處理過多限制是一個(gè)簡(jiǎn)單高效的原則。要想讓它生成高質(zhì)量的代碼,最佳方法就是分步驟輸入,不要一次「塞」太多需考慮的因素。
對(duì)芯片自動(dòng)設(shè)計(jì)而言,提取額外限制,分步驟通過多輪提示輸入,可以較好地解決大模型處理多個(gè)限制帶來的難題,讓其有條不紊地完成設(shè)計(jì)任務(wù)。
圖片
3)大規(guī)模模塊生成,要實(shí)現(xiàn)自動(dòng)設(shè)計(jì)的「勝在規(guī)模」效應(yīng),仍需跨越幾道坎?
要讓大模型自動(dòng)生成大規(guī)模模塊,直接使用整個(gè)大模塊的描述輸入,效果可能會(huì)「一塌糊涂」。這就像讓孩子直接處理整本教科書一樣,勢(shì)必會(huì)被難度「嚇倒」,無從下手。
相比之下,從小功能模塊開始,逐步組合生成大模塊,可以避免難度過大帶來的問題。這就像教科書分章節(jié)講解一樣,讓讀者循序漸進(jìn),逐步掌握。
ChipGPT 使用的「從小到大」方法,先從小模塊功能入手,逐步使用一系列提示代替單個(gè)提示,組合生成大模塊,避免了直接處理大模塊描述帶來的問題。
所以,對(duì)大模型自動(dòng)化生成大規(guī)模模塊來說,使用「循序漸進(jìn)」的方法至關(guān)重要。直接處理整個(gè)大模塊的描述,難度和復(fù)雜性都太大,很難取得好結(jié)果。
而通過從小功能模塊開始,逐步組合和輸入,讓大模型逐步掌握并生成大模塊,可以較好地避開這一難題。
這其實(shí)也是人工智能發(fā)展的一般規(guī)律,通過避免一次處理過高難度的任務(wù),選擇循序漸進(jìn)的訓(xùn)練和生成方法,可以最大限度發(fā)揮人工智能的學(xué)習(xí)和生成能力。
對(duì)芯片自動(dòng)設(shè)計(jì)而言,要實(shí)現(xiàn)大規(guī)模模塊的自動(dòng)生成,采用 ChipGPT 的這種「從小到大」的方法,從小功能模塊開始組合輸入,逐漸生成大模塊,無疑是一條較為可行的路徑。
圖片
甩鍋大模型無濟(jì)于事,PPA 平衡終究需靠一己之力?
大模型雖然聰明,但生成代碼質(zhì)量不比人工,這也是研究工作面臨的最大難題。
一般來說,基于 GPT 的設(shè)計(jì)依靠反饋迭代,但現(xiàn)有反饋方式只關(guān)注功能,很難生成考慮性能、功耗和面積的芯片。
ChipGPT 的作者意識(shí)到這一短板,所以加入輸出管理器以管理反饋,及時(shí)優(yōu)化芯片的 PPA。
這就像老師不僅檢查作業(yè)的正確性,還關(guān)注字跡、表達(dá)等方面一樣,可以幫助學(xué)生在更廣泛的方面提高。輸出管理器就相當(dāng)于老師,不僅檢查功能性反饋,還關(guān)注 PPA 等方面,及時(shí)提醒大模型進(jìn)行改進(jìn)。
所以,對(duì)大模型自動(dòng)化設(shè)計(jì)芯片來說,僅靠功能反饋是不夠的,還需要考慮 PPA 等方面,以生成全面優(yōu)質(zhì)的設(shè)計(jì)。
單純依靠大模型自己完成這一任務(wù)難度較大,容易忽略某些方面。而加入輸出管理器可以有效彌補(bǔ)這一不足,及時(shí)檢查 PPA 等指標(biāo),讓大模型得到全面反饋,以生成更加優(yōu)質(zhì)的代碼。
圖片
大模型自動(dòng)設(shè)計(jì)不止局限于生成一種設(shè)計(jì)方案,它可以產(chǎn)生多種方案供選擇,這給研究工作帶來更大靈活性。
ChipGPT 通過加入后端組件,每輪可以生成不同代碼,然后使用枚舉法選擇最符合目標(biāo)的代碼,這種方法比 GPT 單純隨機(jī)輸出的效果要好很多。
就像 GPT 自動(dòng)生成的矩陣乘法電路,雖然實(shí)現(xiàn)同一功能,卻可以產(chǎn)生不同方案,在時(shí)間延遲和面積之間作出權(quán)衡。
利用這一優(yōu)勢(shì),可以產(chǎn)生不同版本的代碼,如表 3 所示 button-count 產(chǎn)生 5 個(gè)程序,通過檢查后,面積不同。
表 4 顯示如果按不同標(biāo)準(zhǔn)選擇,最終輸出也不同。
圖片
所以,ChipGPT 這種加入選擇機(jī)制的方法,可以根據(jù)不同目標(biāo)選擇最優(yōu)方案,顯著提高效果。
如作者提到,如果目標(biāo)是最優(yōu)面積,與不加入反饋方法相比,面積優(yōu)化率可以達(dá) 47%。
這表明,大模型自動(dòng)設(shè)計(jì)不應(yīng)局限于生成一種方案,加入選擇機(jī)制可以產(chǎn)生更優(yōu)設(shè)計(jì)。
圖片
ChipGPT 這種每輪生成不同代碼,然后選擇最符合目標(biāo)的方案的方法,可以發(fā)揮大模型產(chǎn)生多種方案的優(yōu)勢(shì),獲得更優(yōu)設(shè)計(jì)方案。
對(duì)研究人員來說,這不僅為大模型自動(dòng)化設(shè)計(jì)芯片提供了新思路,也說明選擇機(jī)制在發(fā)揮大模型潛能方面作用巨大。
自動(dòng)設(shè)計(jì)并不等同于盲目生成,加入選擇機(jī)制可以讓大模型在自動(dòng)設(shè)計(jì)的同時(shí)達(dá)到優(yōu)化目標(biāo),這是實(shí)現(xiàn)高質(zhì)量設(shè)計(jì)的關(guān)鍵因素之一。
芯片設(shè)計(jì)方法之爭(zhēng),ChipGPT 竟力壓群雄?
ChipGPT 的結(jié)論表明,與傳統(tǒng)敏捷方法相比,代碼量可以減少 5.32-9.25 倍。利用大語言模型,ChipGPT 可以顯著加速芯片開發(fā)。
在優(yōu)化面積模式下,ChipGPT 的面積減少最大可達(dá) 47%, 比原始 ChatGPT 模型減少更多。它還將大語言模型的正確性從概率正確提高到規(guī)則正確。
簡(jiǎn)而言之,ChipGPT 讓芯片開發(fā)速度飆升,效率大幅提高。與傳統(tǒng)方法相比,編碼量少了 5-9 倍,這意味著開發(fā)周期可以縮短很多。利用大語言模型,ChipGPT 讓芯片開發(fā)一下子就「升級(jí)」了。
圖片
在優(yōu)化面積方面,ChipGPT 也有亮眼表現(xiàn),最大可以減少 47% 的面積,比 ChatGPT 原始大模型減少更多。這說明在自動(dòng)化設(shè)計(jì)的同時(shí),ChipGPT 還可以實(shí)現(xiàn)較高的設(shè)計(jì)優(yōu)化。
另外,ChipGPT 還提高了大語言模型的正確性,從概率正確提高到規(guī)則正確。這意味著大語言模型的輸出結(jié)果更加準(zhǔn)確可靠,而不僅僅依靠概率。
所以,總體來說,ChipGPT 在三個(gè)方面取得重要進(jìn)展:
1) 大幅提高編程效率,編碼量減少 5-9 倍,芯片開發(fā)周期大幅縮短。
2) 實(shí)現(xiàn)較高設(shè)計(jì)優(yōu)化,面積減少最大 47%, 優(yōu)于 ChatGPT 模型。
3) 提高大語言模型的正確性,從概率正確到規(guī)則正確,輸出結(jié)果更加準(zhǔn)確。
這充分證明了大語言模型可以促進(jìn)芯片開發(fā)自動(dòng)化,并在自動(dòng)化的同時(shí)實(shí)現(xiàn)設(shè)計(jì)優(yōu)化。這為大語言模型應(yīng)用于更廣泛領(lǐng)域,特別是產(chǎn)業(yè)化應(yīng)用提供了理論基礎(chǔ)和實(shí)證依據(jù)。
芯片自動(dòng)生成難辨優(yōu)勝,評(píng)價(jià)標(biāo)準(zhǔn)來破迷局!
ChipGPT 從三個(gè)角度評(píng)價(jià)芯片自動(dòng)生成方案:
1) 正確性:生成的硬件描述是否正確。ChatGPT 和 ChipGPT 屬于概率正確。
2) 完備性:方法覆蓋的設(shè)計(jì)空間范圍。ChatGPT 和 ChipGPT 屬于通用硬件生成器,可以描述各種規(guī)模和類型的邏輯。
3) 表達(dá)能力:輸入語言的生產(chǎn)力。ChatGPT 和 ChipGPT 使用自然語言,屬于最高級(jí)。
圖片
所以,總體而言,ChatGPT 和 ChipGPT 在三個(gè)維度上屬于概率正確、通用硬件生成器和最高表達(dá)能力。這意味著它們可以概率生成正確的各類硬件描述,并且輸入方法屬于最高生產(chǎn)力的自然語言。
這為比較不同芯片自動(dòng)生成方法提供了較全面客觀的評(píng)價(jià)體系。對(duì)研究人員和相關(guān)企業(yè)來說,這有助于選擇最適合的方法,發(fā)揮最大效益。
圖片
總之,要實(shí)現(xiàn)芯片自動(dòng)生成的產(chǎn)業(yè)應(yīng)用,選擇最優(yōu)方法至關(guān)重要。
ChipGPT 提供的這套評(píng)價(jià)體系,為做出最佳選擇提供了較為客觀的判斷依據(jù),這無疑也有利于相關(guān)技術(shù)的產(chǎn)業(yè)推廣。
所以,這些成果在一定程度上也為大語言模型等新技術(shù)的產(chǎn)業(yè)化應(yīng)用奠定基礎(chǔ)。
下一步:無人值守的 AI 自動(dòng)化芯片設(shè)計(jì)是否可能?
Chat-Chip 和 ChipGPT 已經(jīng)證明了大語言模型在 RTL 設(shè)計(jì)方面所具備的巨大潛力,而考慮到大語言模型通常由包括代碼在內(nèi)的大量且豐富的文本語料訓(xùn)練而成,其知識(shí)儲(chǔ)備遠(yuǎn)不止可以用來實(shí)現(xiàn)RTL設(shè)計(jì),我們觀察發(fā)現(xiàn)其對(duì)芯片設(shè)計(jì)過程中的其他任務(wù)也有著一定的解決能力,例如根據(jù) EDA 工具的 report 給出優(yōu)化 PPA 的思路、甚至設(shè)計(jì) specification 等。
此外,已有的工作如 AutoGPT、ChatGPT Plugins 等進(jìn)一步證明了大語言模型具有任務(wù)分解、操作工具的能力,因此,一個(gè)自然的想法是能否讓大語言模型驅(qū)動(dòng)完整的芯片設(shè)計(jì)過程:即自主分解用戶給出的由自然語言描述的芯片 / IP 設(shè)計(jì)需求、設(shè)計(jì) specification、實(shí)現(xiàn) RTL,并進(jìn)一步通過與 EDA 工具交互實(shí)現(xiàn)調(diào)試和 PPA(性能 / 功耗 / 面積)優(yōu)化,最后得到物理版圖。
為此,基于 ChipGPT 的自動(dòng)化框架ChipGPT2.0已經(jīng)搭建了這樣的一個(gè)原型,相比需要設(shè)計(jì)人員持續(xù)交互并處理反饋(Human-in-the-loop )的 Chat-chip 方法,ChipGPT2.0 可以初步完全自主設(shè)計(jì) UART 控制器、8 位 CPU、RISC-V CPU 等常見的組件,所得到的設(shè)計(jì)具有一定的可用性,也就證明了無人值守的 AI 自動(dòng)化芯片設(shè)計(jì)是可能的。
當(dāng)然,正如前文所說,基于大語言模型的設(shè)計(jì)僅達(dá)到了概率正確,我們搭建的原型也并不是每次都能得到完全工程可用的實(shí)現(xiàn),但我們相信這樣一套自動(dòng)設(shè)計(jì)方法是對(duì)傳統(tǒng)的基于手動(dòng)設(shè)計(jì)方法的重要補(bǔ)充。
大語言模型完全自主設(shè)計(jì)的UART控制器版圖
圖片
大語言模型完全自主設(shè)計(jì)的8位MCU版圖
大語言模型完全自主設(shè)計(jì)的RISC-V CPU版圖
大語言模型是不是芯片自動(dòng)生成的華山之路?
相比采用自然語言與大模型輔助設(shè)計(jì)的方法,程序合成的方法可以提供更高的方法魯棒性和穩(wěn)定性。
這方面的代表性工作有中科院計(jì)算所智能處理器研究中心提出的自動(dòng)化CPU設(shè)計(jì)方法,該方法以程序合成為中心,利用輸入輸出對(duì)(IO Examples)可以直接生成網(wǎng)表級(jí)電路。
這種方法的準(zhǔn)確率高,該方法設(shè)計(jì)的 CPU 自動(dòng)生成準(zhǔn)確率近 100%,理論上通過擴(kuò)增測(cè)試用例可以達(dá) 100% 功能正確。
所以,總體來說,相比大語言模型,該方法在以下兩點(diǎn)上更具優(yōu)勢(shì):
1) 無需人工干預(yù)和反饋。
目前大模型更多還是基于現(xiàn)有的流程做輔助設(shè)計(jì),這個(gè)工作無需人工參與反復(fù)迭代的邏輯設(shè)計(jì)和驗(yàn)證環(huán)節(jié),從 IO 直接到電路,做的是全自動(dòng)設(shè)計(jì)。無需專家工程師提供形式化的代碼(C、Chisel、Verilog)或者非形式化的自然語言描述。
2) 符號(hào)方法的準(zhǔn)確率更高。
如基于輸入輸出對(duì)的符號(hào)方法理論上可以達(dá)到 100% 的準(zhǔn)確率,更適用于處理器等設(shè)計(jì)。但大語言模型也具有優(yōu)勢(shì),如更通用、生產(chǎn)力更高等。
所以,選擇何種方法更適合,還需要根據(jù)實(shí)際應(yīng)用場(chǎng)景和需求判斷。對(duì)研究人員和相關(guān)企業(yè)來說,理解不同方法的優(yōu)缺點(diǎn)至關(guān)重要。要實(shí)現(xiàn)產(chǎn)業(yè)化應(yīng)用,需選擇最適合的技術(shù)路徑。
ChipGPT 的技術(shù)雖較新穎,但傳統(tǒng)程序合成思路在某些方面仍占優(yōu)。所以,結(jié)合實(shí)際情況選擇最佳技術(shù),或?qū)⒉煌夹g(shù)有機(jī)結(jié)合,這是產(chǎn)業(yè)化的關(guān)鍵。
總之,要實(shí)現(xiàn)芯片自動(dòng)生成的廣泛應(yīng)用,必須在不斷探索新方法的同時(shí),理解每種方法的優(yōu)勢(shì)所在。將不同方法的優(yōu)點(diǎn)有效融合,這可能是取得最大效益的關(guān)鍵。
在一定程度上,產(chǎn)業(yè)化依賴于技術(shù)創(chuàng)新,但更需要對(duì)不同技術(shù)有 objective 的判斷和選擇。這也是促進(jìn)任何新技術(shù)廣泛應(yīng)用的基礎(chǔ)。
圖片
論文地址:https://arxiv.org/abs/2306.12456
結(jié)論出人意表?芯片自動(dòng)生成之路恰恰漫長(zhǎng)不過!
簡(jiǎn)而言之,大模型在芯片自動(dòng)設(shè)計(jì)中的應(yīng)用還面臨以下困難:
1) 隨機(jī)性和魯棒性較差,會(huì)影響研究人員復(fù)現(xiàn)結(jié)果和現(xiàn)有算法對(duì)特性的約束。雖然 ChipGPT 采取措施加強(qiáng)穩(wěn)定性,但大模型的魯棒性還需提高。
2) 仍缺乏芯片全流程優(yōu)化算法。現(xiàn)有方案只用于芯片邏輯設(shè)計(jì)的「小優(yōu)化」。如何大模型做前后端協(xié)同優(yōu)化,改變這種局限,值得探索。
3) 芯片數(shù)據(jù)庫短缺。雖然閉源大模型較完善,但大量資源掌握在生產(chǎn)商手中。如果從開源庫生成高質(zhì)量數(shù)據(jù)集或把閉源代碼庫當(dāng)作數(shù)據(jù)庫,可以給開源模型訓(xùn)練帶來優(yōu)勢(shì),此可逆轉(zhuǎn)這一劣勢(shì)。
所以,要實(shí)現(xiàn)大模型在芯片自動(dòng)設(shè)計(jì)中的深入應(yīng)用,還需努力解決這些難題。提高大模型的穩(wěn)定性和魯棒性,開發(fā)芯片全流程優(yōu)化算法,解決數(shù)據(jù)庫短缺問題,這些都是實(shí)現(xiàn)更深入應(yīng)用的關(guān)鍵所在。
對(duì)研究人員和企業(yè)來說,這些難題同時(shí)也代表新的研究方向和市場(chǎng)機(jī)會(huì)。能夠有效解決這些問題,巨大潛力等著發(fā)掘。
現(xiàn)有設(shè)計(jì)方法只是起步,距離工程師自主設(shè)計(jì)和理解電路還較遠(yuǎn)。
團(tuán)隊(duì)介紹&致謝
ChipGPT 的一作為中科院計(jì)算所博士生常開顏,指導(dǎo)老師為中科院計(jì)算所王穎博士;上??萍即髮W(xué)碩士生任海蒙,中科院計(jì)算所博士生王夢(mèng)迪參與工作;中科院計(jì)算所助理研究員梁勝文,中科院計(jì)算所韓銀和、李華偉、李曉維研究員提供支持。
感謝中科院計(jì)算所王穎老師,首都師范大學(xué)李冰老師對(duì)本文的建議和指導(dǎo),感謝中科院計(jì)算所碩士生林鋼亮對(duì)本文的審閱。