自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

三句話生成CPU!中科院ChipGPT攻克AI芯片設(shè)計(jì)?代碼量減少近10倍

人工智能 新聞
近日,紐約大學(xué)團(tuán)隊(duì)用 ChatGPT 自動(dòng)設(shè)計(jì)芯片,Chip-Chat 項(xiàng)目引發(fā)熱議,芯片自動(dòng)設(shè)計(jì)再掀高潮。

自動(dòng)生成電路想法源自圖靈老師邱奇,被稱為編程語言圣杯。

而人工智能驅(qū)動(dòng)的芯片自動(dòng)設(shè)計(jì),更將是一場(chǎng)設(shè)計(jì)界的革命!

前段時(shí)間,紐約大學(xué) Chat-Chip 項(xiàng)目,引爆熱潮。與此同時(shí),中科院計(jì)算所在 arXiv 發(fā)布 ChipGPT 工作,兩隊(duì)人馬爭(zhēng)先后,只相差一日!

這場(chǎng)「人工智能芯片大戰(zhàn)」激戰(zhàn)正酣,各施法寶,令芯片業(yè)翻手為云,覆手為雨。

即便短期內(nèi)人工智能難完全取代人工,但人工與人工智能聯(lián)袂設(shè)計(jì),相得益彰,必將極大增強(qiáng)芯片設(shè)計(jì)生產(chǎn)力與創(chuàng)新力,關(guān)系到芯片設(shè)計(jì)之未來!

圖片圖片

論文地址:https://arxiv.org/abs/2305.1401

杜克大學(xué)陳怡然老師在微博上表達(dá)了對(duì)芯片自動(dòng)生成領(lǐng)域的關(guān)注,認(rèn)為這個(gè)話題令人振奮,而中科院計(jì)算所 ChipGPT 也同樣引人矚目,但是想要真正做到自動(dòng)化芯片生成還有很長(zhǎng)的路要走。

ChipGPT 作者的指導(dǎo)老師王穎博士認(rèn)為,現(xiàn)有的工作只是初步評(píng)估了大語言模型交互式芯片設(shè)計(jì)的潛力,如何將其融入現(xiàn)有EDA流程實(shí)現(xiàn)無人值守芯片設(shè)計(jì)將成為下一個(gè)目標(biāo)。

圖片圖片

陳教授這里提到的 ChipGPT,雖然同樣也是基于大語言模型的自動(dòng)設(shè)計(jì)芯片,但與 Chip-Chat 不同,中科院計(jì)算所提出的 ChipGPT 還探索針對(duì)芯片性能和面積的優(yōu)化方法。

不僅如此,ChipGPT 還在芯片設(shè)計(jì)上,比 ChatGPT 節(jié)省了多達(dá) 47% 面積。

大模型芯片設(shè)計(jì) PK 戰(zhàn):Chip-Chat vs ChipGPT?

雖說這兩篇工作都借大模型力量生成芯片,見識(shí)廣闊,一覽眾山小。但目前人工智能還處在發(fā)展初期,后續(xù)工作仍浩浩蕩蕩。

對(duì)此,ChipGPT 作者稱,要大模型玩轉(zhuǎn)芯片自動(dòng)設(shè)計(jì),三大難題迫在眉睫:

第一個(gè)問題是,我到底要往模型的對(duì)話里塞什么玩意兒?芯片設(shè)計(jì)涉及的知識(shí)太過廣博深?yuàn)W,要把所有內(nèi)容都嘟嘟嘟往模型的上下文里塞,下場(chǎng)恐怕和「狗熊掰苞米」一樣,統(tǒng)統(tǒng)忘光光。如何精選模型的「餐飲內(nèi)容」, 這可是個(gè)讓芯片設(shè)計(jì)師們頭發(fā)都白了的難題。

第二個(gè)問題是,如何通過「Prompt Engineering」讓這個(gè)大模型生成出來的芯片更好更強(qiáng)大?要知道,Prompt Engineering 本身就是一門高深莫測(cè)的玄學(xué),讓大模型一下子領(lǐng)會(huì),簡(jiǎn)直難上加難。

第三個(gè)問題是,如何控制大模型生成出來的 HDL,讓設(shè)計(jì)出來的芯片在性能、功耗和面積之間達(dá)到最佳的平衡?任何芯片都面臨這三者之間的博弈,要讓大模型自由自在地搞定,簡(jiǎn)直是癡人說夢(mèng)。

要是能爬得過這「三座大山」,芯片自動(dòng)設(shè)計(jì)的未來可就指日可待了。不過話又說回來,就算解決了這三個(gè)問題,真正產(chǎn)業(yè)化可還遙遙無期呢。

所以呢,芯片設(shè)計(jì)師們暫時(shí)還是放心吧,你們的飯碗短期內(nèi)應(yīng)該還是很穩(wěn)的!

芯片合成實(shí)力之源泉,大模型輸入有何高深玄機(jī)?

HDL = ChipGPT(Specification)
HDL = Chat-Chip(Prompt List)

Chip-Chat 純聊天輸入難定制所需,ChipGPT 研究從芯片規(guī)范說明抽絲剝繭入手! 

Chip-Chat 聊天玩自由來去無蹤跡,ChipGPT 一絲不茍只信規(guī)范說明(Specification)指點(diǎn)迷津。雖聊天可研究發(fā)揮,生產(chǎn)更憑規(guī)范保證準(zhǔn)確。

故 ChipGPT 研究從規(guī)范說明著手,將其放入聊天、試圖直接應(yīng)用芯片規(guī)范說明,卻發(fā)現(xiàn)難題重重:

第一,從規(guī)范說明提取會(huì)得大量無用信息,如模塊運(yùn)行錯(cuò)誤模式與復(fù)雜時(shí)序等等。大模型收費(fèi)看 token 數(shù),所以更應(yīng)從規(guī)范說明中精煉有用信息。  

第二,芯片規(guī)范說明混亂無序,GPT 自動(dòng)提取難保生成準(zhǔn)確。故 ChipGPT 選擇手工提取,建立規(guī)范說明表格,將輸入歸于表格信息。

基于芯片說明書與基于簡(jiǎn)單提示,ChipGPT 與 Chip-Chat 應(yīng)用場(chǎng)景天差地別!

ChipGPT 研究目標(biāo)與基于提示的 Chip-Chat 大相徑庭。

ChipGPT 旨在為研究者提供整體框架,指導(dǎo)大模型芯片硬件自動(dòng)生成。Chip-Chat 則在告訴研究者大模型給硬件自動(dòng)生成帶來何種新挑戰(zhàn)與機(jī)遇。

故 ChipGPT 可謂指南書,引導(dǎo)工程師與研究者遨游大模型芯片合成之道。

ChipGPT 為芯片自動(dòng)生成研究提供指南,想玩轉(zhuǎn)大模型芯片設(shè)計(jì)者可從中「取經(jīng)」。它從芯片規(guī)范說明提取入手,避免大模型直接處理規(guī)范說明種種負(fù)面影響。手工建立規(guī)范說明表格,將輸入信息歸類,較好解決大模型處理不規(guī)則信息難題。

相比之下,Chip-Chat 是大模型在硬件自動(dòng)生成領(lǐng)域新嘗試,更似讓研究者知悉大模型給該領(lǐng)域帶來機(jī)遇與挑戰(zhàn),屬測(cè)試探索應(yīng)用。故兩者雖同大模型自動(dòng)生成芯片研究,應(yīng)用場(chǎng)景與目的差異頗大。 

圖片圖片

終結(jié)玄學(xué)!ChipGPT 讓 Prompt Engineering 逐漸「可控」

基于規(guī)范說明的輸入也會(huì)分解為小的提示,但在芯片生成中,不規(guī)則的提示會(huì)帶來一些問題:

1) 大模型自動(dòng)設(shè)計(jì)芯片,輸出結(jié)果可重復(fù)性與穩(wěn)定性堪憂! 

如圖 7 所示,大模型玩轉(zhuǎn)芯片設(shè)計(jì),生成的代碼穩(wěn)定性是一個(gè)大問題。就算給同樣的提示,它生成的 Verilog 代碼也常常會(huì)「前后不搭調(diào)」,影響生成結(jié)果的可重復(fù)性和穩(wěn)定性。

這可讓想用大模型自動(dòng)設(shè)計(jì)芯片的人又愛又恨,成了這一路上最大的絆腳石。

要解決這個(gè)難題,使用確定的 Module 接口是個(gè)不錯(cuò)的辦法。明確接口后,大模型處理輸入的不確定性就可以大幅減少,生成結(jié)果的穩(wěn)定性自然也會(huì)提高。

這就像家長(zhǎng)提前告知孩子作業(yè)要求一樣,大模型事先知道需遵守的「規(guī)矩」,自然也能高效穩(wěn)定地完成「作業(yè)」了。

2)芯片連接信號(hào),如何解開這段全局最難理清的「頭疼之鏈」?

大模型一口吃個(gè)胖子,不利于身體健康。同樣,使用一個(gè)提示同時(shí)處理多個(gè)限制,會(huì)讓大模型生成的代碼質(zhì)量大打折扣。

就像人吃飯一樣,一次吃太多會(huì)造成消化不良。大模型也一樣,一次處理太多限制,容易搞混導(dǎo)致輸出錯(cuò)誤。

圖 8 中,若把額外信號(hào)限制也放入同一個(gè)提示,大模型處理起來難免手忙腳亂,就會(huì)對(duì)芯片設(shè)計(jì)的正確性造成極大影響。

相比之下,如果把額外限制(如 Ready-Valid 信號(hào))提取出來,放到下一輪的提示中,大模型就能逐一輕松地「消化」,然后才能正確地合成接口。

這就好比人吃飯時(shí),分多次適量地吃,而不是一口氣吃太多,更有利于消化吸收。

所以,對(duì)大模型來說,盡量避免一次處理過多限制是一個(gè)簡(jiǎn)單高效的原則。要想讓它生成高質(zhì)量的代碼,最佳方法就是分步驟輸入,不要一次「塞」太多需考慮的因素。

對(duì)芯片自動(dòng)設(shè)計(jì)而言,提取額外限制,分步驟通過多輪提示輸入,可以較好地解決大模型處理多個(gè)限制帶來的難題,讓其有條不紊地完成設(shè)計(jì)任務(wù)。

圖片圖片

3)大規(guī)模模塊生成,要實(shí)現(xiàn)自動(dòng)設(shè)計(jì)的「勝在規(guī)模」效應(yīng),仍需跨越幾道坎? 

要讓大模型自動(dòng)生成大規(guī)模模塊,直接使用整個(gè)大模塊的描述輸入,效果可能會(huì)「一塌糊涂」。這就像讓孩子直接處理整本教科書一樣,勢(shì)必會(huì)被難度「嚇倒」,無從下手。

相比之下,從小功能模塊開始,逐步組合生成大模塊,可以避免難度過大帶來的問題。這就像教科書分章節(jié)講解一樣,讓讀者循序漸進(jìn),逐步掌握。

ChipGPT 使用的「從小到大」方法,先從小模塊功能入手,逐步使用一系列提示代替單個(gè)提示,組合生成大模塊,避免了直接處理大模塊描述帶來的問題。

所以,對(duì)大模型自動(dòng)化生成大規(guī)模模塊來說,使用「循序漸進(jìn)」的方法至關(guān)重要。直接處理整個(gè)大模塊的描述,難度和復(fù)雜性都太大,很難取得好結(jié)果。

而通過從小功能模塊開始,逐步組合和輸入,讓大模型逐步掌握并生成大模塊,可以較好地避開這一難題。

這其實(shí)也是人工智能發(fā)展的一般規(guī)律,通過避免一次處理過高難度的任務(wù),選擇循序漸進(jìn)的訓(xùn)練和生成方法,可以最大限度發(fā)揮人工智能的學(xué)習(xí)和生成能力。

對(duì)芯片自動(dòng)設(shè)計(jì)而言,要實(shí)現(xiàn)大規(guī)模模塊的自動(dòng)生成,采用 ChipGPT 的這種「從小到大」的方法,從小功能模塊開始組合輸入,逐漸生成大模塊,無疑是一條較為可行的路徑。

圖片圖片

甩鍋大模型無濟(jì)于事,PPA 平衡終究需靠一己之力?

大模型雖然聰明,但生成代碼質(zhì)量不比人工,這也是研究工作面臨的最大難題。

一般來說,基于 GPT 的設(shè)計(jì)依靠反饋迭代,但現(xiàn)有反饋方式只關(guān)注功能,很難生成考慮性能、功耗和面積的芯片。

ChipGPT 的作者意識(shí)到這一短板,所以加入輸出管理器以管理反饋,及時(shí)優(yōu)化芯片的 PPA。

這就像老師不僅檢查作業(yè)的正確性,還關(guān)注字跡、表達(dá)等方面一樣,可以幫助學(xué)生在更廣泛的方面提高。輸出管理器就相當(dāng)于老師,不僅檢查功能性反饋,還關(guān)注 PPA 等方面,及時(shí)提醒大模型進(jìn)行改進(jìn)。

所以,對(duì)大模型自動(dòng)化設(shè)計(jì)芯片來說,僅靠功能反饋是不夠的,還需要考慮 PPA 等方面,以生成全面優(yōu)質(zhì)的設(shè)計(jì)。

單純依靠大模型自己完成這一任務(wù)難度較大,容易忽略某些方面。而加入輸出管理器可以有效彌補(bǔ)這一不足,及時(shí)檢查 PPA 等指標(biāo),讓大模型得到全面反饋,以生成更加優(yōu)質(zhì)的代碼。

圖片圖片

大模型自動(dòng)設(shè)計(jì)不止局限于生成一種設(shè)計(jì)方案,它可以產(chǎn)生多種方案供選擇,這給研究工作帶來更大靈活性。

ChipGPT 通過加入后端組件,每輪可以生成不同代碼,然后使用枚舉法選擇最符合目標(biāo)的代碼,這種方法比 GPT 單純隨機(jī)輸出的效果要好很多。

就像 GPT 自動(dòng)生成的矩陣乘法電路,雖然實(shí)現(xiàn)同一功能,卻可以產(chǎn)生不同方案,在時(shí)間延遲和面積之間作出權(quán)衡。

利用這一優(yōu)勢(shì),可以產(chǎn)生不同版本的代碼,如表 3 所示 button-count 產(chǎn)生 5 個(gè)程序,通過檢查后,面積不同。

表 4 顯示如果按不同標(biāo)準(zhǔn)選擇,最終輸出也不同。

圖片圖片

所以,ChipGPT 這種加入選擇機(jī)制的方法,可以根據(jù)不同目標(biāo)選擇最優(yōu)方案,顯著提高效果。

如作者提到,如果目標(biāo)是最優(yōu)面積,與不加入反饋方法相比,面積優(yōu)化率可以達(dá) 47%。

這表明,大模型自動(dòng)設(shè)計(jì)不應(yīng)局限于生成一種方案,加入選擇機(jī)制可以產(chǎn)生更優(yōu)設(shè)計(jì)。

圖片圖片

ChipGPT 這種每輪生成不同代碼,然后選擇最符合目標(biāo)的方案的方法,可以發(fā)揮大模型產(chǎn)生多種方案的優(yōu)勢(shì),獲得更優(yōu)設(shè)計(jì)方案。

對(duì)研究人員來說,這不僅為大模型自動(dòng)化設(shè)計(jì)芯片提供了新思路,也說明選擇機(jī)制在發(fā)揮大模型潛能方面作用巨大。

自動(dòng)設(shè)計(jì)并不等同于盲目生成,加入選擇機(jī)制可以讓大模型在自動(dòng)設(shè)計(jì)的同時(shí)達(dá)到優(yōu)化目標(biāo),這是實(shí)現(xiàn)高質(zhì)量設(shè)計(jì)的關(guān)鍵因素之一。

芯片設(shè)計(jì)方法之爭(zhēng),ChipGPT 竟力壓群雄?

ChipGPT 的結(jié)論表明,與傳統(tǒng)敏捷方法相比,代碼量可以減少 5.32-9.25 倍。利用大語言模型,ChipGPT 可以顯著加速芯片開發(fā)。

在優(yōu)化面積模式下,ChipGPT 的面積減少最大可達(dá) 47%, 比原始 ChatGPT 模型減少更多。它還將大語言模型的正確性從概率正確提高到規(guī)則正確。

簡(jiǎn)而言之,ChipGPT 讓芯片開發(fā)速度飆升,效率大幅提高。與傳統(tǒng)方法相比,編碼量少了 5-9 倍,這意味著開發(fā)周期可以縮短很多。利用大語言模型,ChipGPT 讓芯片開發(fā)一下子就「升級(jí)」了。

圖片圖片

在優(yōu)化面積方面,ChipGPT 也有亮眼表現(xiàn),最大可以減少 47% 的面積,比 ChatGPT 原始大模型減少更多。這說明在自動(dòng)化設(shè)計(jì)的同時(shí),ChipGPT 還可以實(shí)現(xiàn)較高的設(shè)計(jì)優(yōu)化。

另外,ChipGPT 還提高了大語言模型的正確性,從概率正確提高到規(guī)則正確。這意味著大語言模型的輸出結(jié)果更加準(zhǔn)確可靠,而不僅僅依靠概率。

所以,總體來說,ChipGPT 在三個(gè)方面取得重要進(jìn)展:

1)  大幅提高編程效率,編碼量減少 5-9 倍,芯片開發(fā)周期大幅縮短。

2)  實(shí)現(xiàn)較高設(shè)計(jì)優(yōu)化,面積減少最大 47%, 優(yōu)于 ChatGPT 模型。

3)  提高大語言模型的正確性,從概率正確到規(guī)則正確,輸出結(jié)果更加準(zhǔn)確。

這充分證明了大語言模型可以促進(jìn)芯片開發(fā)自動(dòng)化,并在自動(dòng)化的同時(shí)實(shí)現(xiàn)設(shè)計(jì)優(yōu)化。這為大語言模型應(yīng)用于更廣泛領(lǐng)域,特別是產(chǎn)業(yè)化應(yīng)用提供了理論基礎(chǔ)和實(shí)證依據(jù)。

芯片自動(dòng)生成難辨優(yōu)勝,評(píng)價(jià)標(biāo)準(zhǔn)來破迷局!

ChipGPT 從三個(gè)角度評(píng)價(jià)芯片自動(dòng)生成方案:

1) 正確性:生成的硬件描述是否正確。ChatGPT 和 ChipGPT 屬于概率正確。

2) 完備性:方法覆蓋的設(shè)計(jì)空間范圍。ChatGPT 和 ChipGPT 屬于通用硬件生成器,可以描述各種規(guī)模和類型的邏輯。

3) 表達(dá)能力:輸入語言的生產(chǎn)力。ChatGPT 和 ChipGPT 使用自然語言,屬于最高級(jí)。

圖片圖片

所以,總體而言,ChatGPT 和 ChipGPT 在三個(gè)維度上屬于概率正確、通用硬件生成器和最高表達(dá)能力。這意味著它們可以概率生成正確的各類硬件描述,并且輸入方法屬于最高生產(chǎn)力的自然語言。

這為比較不同芯片自動(dòng)生成方法提供了較全面客觀的評(píng)價(jià)體系。對(duì)研究人員和相關(guān)企業(yè)來說,這有助于選擇最適合的方法,發(fā)揮最大效益。

圖片圖片

總之,要實(shí)現(xiàn)芯片自動(dòng)生成的產(chǎn)業(yè)應(yīng)用,選擇最優(yōu)方法至關(guān)重要。

ChipGPT 提供的這套評(píng)價(jià)體系,為做出最佳選擇提供了較為客觀的判斷依據(jù),這無疑也有利于相關(guān)技術(shù)的產(chǎn)業(yè)推廣。

所以,這些成果在一定程度上也為大語言模型等新技術(shù)的產(chǎn)業(yè)化應(yīng)用奠定基礎(chǔ)。

下一步:無人值守的 AI 自動(dòng)化芯片設(shè)計(jì)是否可能?

Chat-Chip 和 ChipGPT 已經(jīng)證明了大語言模型在 RTL 設(shè)計(jì)方面所具備的巨大潛力,而考慮到大語言模型通常由包括代碼在內(nèi)的大量且豐富的文本語料訓(xùn)練而成,其知識(shí)儲(chǔ)備遠(yuǎn)不止可以用來實(shí)現(xiàn)RTL設(shè)計(jì),我們觀察發(fā)現(xiàn)其對(duì)芯片設(shè)計(jì)過程中的其他任務(wù)也有著一定的解決能力,例如根據(jù) EDA 工具的 report 給出優(yōu)化 PPA 的思路、甚至設(shè)計(jì) specification 等。

此外,已有的工作如 AutoGPT、ChatGPT Plugins 等進(jìn)一步證明了大語言模型具有任務(wù)分解、操作工具的能力,因此,一個(gè)自然的想法是能否讓大語言模型驅(qū)動(dòng)完整的芯片設(shè)計(jì)過程:即自主分解用戶給出的由自然語言描述的芯片 / IP 設(shè)計(jì)需求、設(shè)計(jì) specification、實(shí)現(xiàn) RTL,并進(jìn)一步通過與 EDA 工具交互實(shí)現(xiàn)調(diào)試和 PPA(性能 / 功耗 / 面積)優(yōu)化,最后得到物理版圖。

為此,基于 ChipGPT 的自動(dòng)化框架ChipGPT2.0已經(jīng)搭建了這樣的一個(gè)原型,相比需要設(shè)計(jì)人員持續(xù)交互并處理反饋(Human-in-the-loop )的 Chat-chip 方法,ChipGPT2.0 可以初步完全自主設(shè)計(jì) UART 控制器、8 位 CPU、RISC-V CPU 等常見的組件,所得到的設(shè)計(jì)具有一定的可用性,也就證明了無人值守的 AI 自動(dòng)化芯片設(shè)計(jì)是可能的。

當(dāng)然,正如前文所說,基于大語言模型的設(shè)計(jì)僅達(dá)到了概率正確,我們搭建的原型也并不是每次都能得到完全工程可用的實(shí)現(xiàn),但我們相信這樣一套自動(dòng)設(shè)計(jì)方法是對(duì)傳統(tǒng)的基于手動(dòng)設(shè)計(jì)方法的重要補(bǔ)充。

大語言模型完全自主設(shè)計(jì)的UART控制器版圖大語言模型完全自主設(shè)計(jì)的UART控制器版圖

圖片圖片

大語言模型完全自主設(shè)計(jì)的8位MCU版圖

大語言模型完全自主設(shè)計(jì)的RISC-V CPU版圖大語言模型完全自主設(shè)計(jì)的RISC-V CPU版圖

大語言模型是不是芯片自動(dòng)生成的華山之路?

相比采用自然語言與大模型輔助設(shè)計(jì)的方法,程序合成的方法可以提供更高的方法魯棒性和穩(wěn)定性。

這方面的代表性工作有中科院計(jì)算所智能處理器研究中心提出的自動(dòng)化CPU設(shè)計(jì)方法,該方法以程序合成為中心,利用輸入輸出對(duì)(IO Examples)可以直接生成網(wǎng)表級(jí)電路。

這種方法的準(zhǔn)確率高,該方法設(shè)計(jì)的 CPU 自動(dòng)生成準(zhǔn)確率近 100%,理論上通過擴(kuò)增測(cè)試用例可以達(dá) 100% 功能正確。

所以,總體來說,相比大語言模型,該方法在以下兩點(diǎn)上更具優(yōu)勢(shì):

1) 無需人工干預(yù)和反饋。

目前大模型更多還是基于現(xiàn)有的流程做輔助設(shè)計(jì),這個(gè)工作無需人工參與反復(fù)迭代的邏輯設(shè)計(jì)和驗(yàn)證環(huán)節(jié),從 IO 直接到電路,做的是全自動(dòng)設(shè)計(jì)。無需專家工程師提供形式化的代碼(C、Chisel、Verilog)或者非形式化的自然語言描述。

2) 符號(hào)方法的準(zhǔn)確率更高。

如基于輸入輸出對(duì)的符號(hào)方法理論上可以達(dá)到 100% 的準(zhǔn)確率,更適用于處理器等設(shè)計(jì)。但大語言模型也具有優(yōu)勢(shì),如更通用、生產(chǎn)力更高等。

所以,選擇何種方法更適合,還需要根據(jù)實(shí)際應(yīng)用場(chǎng)景和需求判斷。對(duì)研究人員和相關(guān)企業(yè)來說,理解不同方法的優(yōu)缺點(diǎn)至關(guān)重要。要實(shí)現(xiàn)產(chǎn)業(yè)化應(yīng)用,需選擇最適合的技術(shù)路徑。

ChipGPT 的技術(shù)雖較新穎,但傳統(tǒng)程序合成思路在某些方面仍占優(yōu)。所以,結(jié)合實(shí)際情況選擇最佳技術(shù),或?qū)⒉煌夹g(shù)有機(jī)結(jié)合,這是產(chǎn)業(yè)化的關(guān)鍵。

總之,要實(shí)現(xiàn)芯片自動(dòng)生成的廣泛應(yīng)用,必須在不斷探索新方法的同時(shí),理解每種方法的優(yōu)勢(shì)所在。將不同方法的優(yōu)點(diǎn)有效融合,這可能是取得最大效益的關(guān)鍵。

在一定程度上,產(chǎn)業(yè)化依賴于技術(shù)創(chuàng)新,但更需要對(duì)不同技術(shù)有 objective 的判斷和選擇。這也是促進(jìn)任何新技術(shù)廣泛應(yīng)用的基礎(chǔ)。

圖片圖片

論文地址:https://arxiv.org/abs/2306.12456

結(jié)論出人意表?芯片自動(dòng)生成之路恰恰漫長(zhǎng)不過!

簡(jiǎn)而言之,大模型在芯片自動(dòng)設(shè)計(jì)中的應(yīng)用還面臨以下困難:

1)  隨機(jī)性和魯棒性較差,會(huì)影響研究人員復(fù)現(xiàn)結(jié)果和現(xiàn)有算法對(duì)特性的約束。雖然 ChipGPT 采取措施加強(qiáng)穩(wěn)定性,但大模型的魯棒性還需提高。

2)  仍缺乏芯片全流程優(yōu)化算法。現(xiàn)有方案只用于芯片邏輯設(shè)計(jì)的「小優(yōu)化」。如何大模型做前后端協(xié)同優(yōu)化,改變這種局限,值得探索。

3)  芯片數(shù)據(jù)庫短缺。雖然閉源大模型較完善,但大量資源掌握在生產(chǎn)商手中。如果從開源庫生成高質(zhì)量數(shù)據(jù)集或把閉源代碼庫當(dāng)作數(shù)據(jù)庫,可以給開源模型訓(xùn)練帶來優(yōu)勢(shì),此可逆轉(zhuǎn)這一劣勢(shì)。

所以,要實(shí)現(xiàn)大模型在芯片自動(dòng)設(shè)計(jì)中的深入應(yīng)用,還需努力解決這些難題。提高大模型的穩(wěn)定性和魯棒性,開發(fā)芯片全流程優(yōu)化算法,解決數(shù)據(jù)庫短缺問題,這些都是實(shí)現(xiàn)更深入應(yīng)用的關(guān)鍵所在。

對(duì)研究人員和企業(yè)來說,這些難題同時(shí)也代表新的研究方向和市場(chǎng)機(jī)會(huì)。能夠有效解決這些問題,巨大潛力等著發(fā)掘。

現(xiàn)有設(shè)計(jì)方法只是起步,距離工程師自主設(shè)計(jì)和理解電路還較遠(yuǎn)。

團(tuán)隊(duì)介紹&致謝

ChipGPT 的一作為中科院計(jì)算所博士生常開顏,指導(dǎo)老師為中科院計(jì)算所王穎博士;上??萍即髮W(xué)碩士生任海蒙,中科院計(jì)算所博士生王夢(mèng)迪參與工作;中科院計(jì)算所助理研究員梁勝文,中科院計(jì)算所韓銀和、李華偉、李曉維研究員提供支持。

感謝中科院計(jì)算所王穎老師,首都師范大學(xué)李冰老師對(duì)本文的建議和指導(dǎo),感謝中科院計(jì)算所碩士生林鋼亮對(duì)本文的審閱。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2011-01-18 10:55:05

上司

2022-01-28 18:49:10

微信紅包封面

2015-02-05 09:39:03

程序猿程序員

2023-07-01 08:24:02

AI

2023-06-30 14:04:00

芯片AI

2018-06-14 10:31:12

2018-06-14 09:31:13

2018-05-04 13:31:00

人工智能芯片云端

2021-08-26 10:40:12

芯片半導(dǎo)體技術(shù)

2024-04-09 12:22:18

算法芯片

2015-07-22 20:23:16

HTML5

2024-07-01 07:40:00

2015-08-03 10:21:04

設(shè)計(jì)模式表達(dá)

2022-12-12 13:45:46

模型修圖

2015-09-21 13:04:01

創(chuàng)業(yè)秘籍

2017-05-15 15:07:36

納米材料農(nóng)藥

2023-05-08 15:44:23

3D數(shù)字人

2013-07-19 16:08:41

Ubuntu

2010-07-14 14:46:21

2019-01-16 15:21:12

中科院大數(shù)據(jù)數(shù)據(jù)庫
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)