自研AI芯片之風(fēng)已起,擺脫技術(shù)依賴(lài)僅僅是開(kāi)始
在AI大模型熱潮的推動(dòng)下,屬于AI芯片領(lǐng)域的百家爭(zhēng)鳴時(shí)代終于來(lái)啦。微軟于近日透露,其計(jì)劃于下個(gè)月的年度開(kāi)發(fā)者大會(huì)上推出首款為人工智能設(shè)計(jì)的芯片,來(lái)降低成本并減輕對(duì)英偉達(dá)的依賴(lài)。算上之前的亞馬遜云科技、谷歌、OpenAI、Meta,一家獨(dú)大的英偉達(dá)還是將科技巨頭逼得親自下場(chǎng)造AI芯片,組團(tuán)拉開(kāi)一場(chǎng)關(guān)于AI芯片領(lǐng)域大戰(zhàn)的帷幕。
AI芯片領(lǐng)域,科技巨頭紛紛“揭竿而起”
1.亞馬遜云科技
在自研芯片領(lǐng)域,亞馬遜云科技充分占得了先機(jī),自2013年推出首顆Nitro1芯片至今,亞馬遜云科技已經(jīng)擁有網(wǎng)絡(luò)芯片、服務(wù)器芯片、人工智能機(jī)器學(xué)習(xí)芯片等3條產(chǎn)品線。?
亞馬遜云科技已于2018年開(kāi)始設(shè)計(jì)定制AI芯片,推出自研AI推理芯片Inferentia,并于2023年推出Inferentia的迭代版Inferentia?2,將計(jì)算性能提高了三倍此外,2020年底,亞馬遜云科技推出專(zhuān)用于訓(xùn)練機(jī)器學(xué)習(xí)模型的Trainium。
2.谷歌
在AI芯片領(lǐng)域的這場(chǎng)競(jìng)賽中,谷歌也不甘示弱。在2013年,谷歌便秘密研發(fā)一款專(zhuān)注于AI機(jī)器學(xué)習(xí)算法的芯片,并將其用在內(nèi)部的云計(jì)算數(shù)據(jù)中心中,這款自研芯片于2016年5月公諸于世。?
2020年,谷歌實(shí)際上已在其數(shù)據(jù)中心部署了人工智能芯片TPU?v4。目前,谷歌已將負(fù)責(zé)AI芯片的工程團(tuán)隊(duì)轉(zhuǎn)移到了谷歌云,旨在提高谷歌云出售AI芯片給租用其服務(wù)器的公司的能力。
3.)Meta
敢于在元宇宙火熱之時(shí)更名的Meta,在AI大潮之下,也同樣采用“激進(jìn)”的態(tài)度。Meta在今年5月份披露其正在構(gòu)建首款用于運(yùn)行AI模型的定制芯片——MTIA(Meta?Training?and?Inference?Accelerator)芯片,使用名為RISC-V的開(kāi)源芯片架構(gòu),預(yù)計(jì)于2025年問(wèn)世。?
4.微軟
早已將目光聚焦于AI芯片領(lǐng)域的微軟,也在步步為營(yíng),按照原定計(jì)劃繪制AI芯片版圖。今年5月,微軟發(fā)布了一系列芯片相關(guān)招聘信息,其中一則寫(xiě)道,“我們正在尋找一名首席設(shè)計(jì)工程師在充滿活力的微軟AISoC(人工智能芯片及解決方案)團(tuán)隊(duì)中工作。”?
不久前,微軟更是透露將于下個(gè)月推出其首款人工智能芯片。據(jù)悉,微軟的芯片也是專(zhuān)為數(shù)據(jù)中心服務(wù)器設(shè)計(jì),可用于訓(xùn)練和運(yùn)行諸如ChatGPT這類(lèi)的大語(yǔ)言模型。
5.OpenAI
OpenAI正在探索自研AI芯片,同時(shí)開(kāi)始評(píng)估潛在收購(gòu)目標(biāo)。其招聘網(wǎng)站上,最近也出現(xiàn)了AI硬件共同開(kāi)發(fā)、評(píng)估相關(guān)崗位。
是無(wú)奈,也是最具性價(jià)比之選
OpenAI公布的數(shù)據(jù)顯示,大模型訓(xùn)練所需算力的增速保持在3-4個(gè)月/倍速度增長(zhǎng),遠(yuǎn)超摩爾定律18-24個(gè)月/倍。這也意味著對(duì)更快的數(shù)據(jù)處理速度、更強(qiáng)大的大模型服務(wù)能力提出了新的需求。?
然而,正在越來(lái)越多的企業(yè)入局大模型領(lǐng)域,越來(lái)越多的大模型出爐,導(dǎo)致對(duì)A100和H100等高端GPU的需求直線增加。今年8月,百度、字節(jié)跳動(dòng)、騰訊和阿里巴巴向英偉達(dá)共訂購(gòu)了價(jià)值50億美元的芯片。據(jù)CoreWeave聯(lián)合創(chuàng)始人兼CTO?Brian?Venturo表示,最新英偉達(dá)GPU的交貨時(shí)間也要等到2024年Q1甚至Q2。
盡管英偉達(dá)及其制造伙伴臺(tái)積電都在努力供應(yīng),但仍難以滿足市場(chǎng)需求。OpenAI的CEO?Sam?Altman也曾多次抱怨算力短缺問(wèn)題,而這個(gè)市場(chǎng)主要由英偉達(dá)主導(dǎo)。調(diào)查數(shù)據(jù)顯示,英偉達(dá)獨(dú)立GPU市場(chǎng)份額達(dá)80%,在高端GPU市場(chǎng)份額高達(dá)90%,可以說(shuō),英偉達(dá)的GPU是全球應(yīng)用最為廣泛的AI芯片。
企業(yè)在苦AI芯片久矣的同時(shí),也在苦英偉達(dá)。根據(jù)伯恩斯坦分析師斯塔西拉斯剛(StacyRasgon)的分析,如果ChatGPT的查詢規(guī)模增長(zhǎng)到谷歌搜索的十分之一,那么它最初需要大約價(jià)值480億美元的GPU(圖形處理器),每年還需要約160億美元的芯片來(lái)維持運(yùn)營(yíng)。?
在高昂的成本與技術(shù)研發(fā)兩者之間,越來(lái)越多的企業(yè)開(kāi)始選擇后者,自研成為科技大廠的一致選擇。微軟打造的“雅典娜”會(huì)使用臺(tái)積電的5nm工藝打造,預(yù)計(jì)可以將每顆芯片的成本降低1/3。
隨著微軟繼續(xù)推動(dòng)在Bing、Office、GitHub和其他地方推出AI?驅(qū)動(dòng)的功能,自研芯片可能會(huì)大幅削減成本。分析師認(rèn)為,與英偉達(dá)的產(chǎn)品相比,雅典娜可以將每芯片的成本降低三分之一。
因此,在筆者看來(lái),自研AI芯片不僅可以大幅度降低成本,減少對(duì)英偉達(dá)的依賴(lài),還意味著可以瓜分這塊巨大的“蛋糕”。
挑戰(zhàn)依舊在,心理準(zhǔn)備尚需做足
“晶上世界”認(rèn)為,當(dāng)前AI芯片主要面臨以下三個(gè)技術(shù)挑戰(zhàn):性能功耗比控制、帶寬瓶頸、軟件開(kāi)發(fā)。
在性能功耗比控制方面,AI芯片的大量運(yùn)算會(huì)造成功耗大幅增加。很多AI應(yīng)用端對(duì)于功耗都有嚴(yán)格的限制,如何達(dá)到優(yōu)異的性能功耗比是AI芯片研發(fā)的一個(gè)重要目標(biāo)。
在帶寬瓶頸方面,深度學(xué)習(xí)算法中參與計(jì)算的數(shù)據(jù)和模型參數(shù)很多,數(shù)據(jù)量龐大,導(dǎo)致內(nèi)存帶寬成為了整個(gè)系統(tǒng)的一個(gè)瓶頸,“Memory?Wall”也是需要優(yōu)化和突破的主要問(wèn)題。?
在軟件開(kāi)發(fā)方面,除了芯片本身硬件的設(shè)計(jì)以外,軟件對(duì)于AI芯片性能的發(fā)揮也有著十分重要的作用,編譯器和工具鏈軟件的優(yōu)化能力、易用性現(xiàn)在也得到越來(lái)越多的重視。
在筆者看來(lái),英偉達(dá)圍繞其開(kāi)發(fā)的?CUDA架構(gòu)(統(tǒng)一計(jì)算設(shè)備架構(gòu))構(gòu)建了一個(gè)強(qiáng)大的生態(tài)系統(tǒng),包括龐大的開(kāi)發(fā)者社區(qū)、第三方軟件和硬件供應(yīng)商以及學(xué)術(shù)機(jī)構(gòu)。
可以說(shuō),英偉達(dá)擁有極其豐富的軟件系統(tǒng)和生態(tài),即便有其他芯片公司想要兼容英偉達(dá)的架構(gòu),但底層芯片架構(gòu)不同,從底層硬件到應(yīng)用層,中間有很多層,每一層的優(yōu)化都會(huì)極大影響效率,所以換一個(gè)芯片,軟件的運(yùn)行效率還是會(huì)下降。
寫(xiě)在最后
他強(qiáng)任他強(qiáng),清風(fēng)拂山崗。AI芯片領(lǐng)域從來(lái)不缺強(qiáng)者,在面對(duì)屬于藍(lán)海市場(chǎng)的AI芯片領(lǐng)域,越來(lái)越多的企業(yè)開(kāi)始走向自研之路,用長(zhǎng)期研發(fā)投入,來(lái)?yè)Q取高昂的使用成本。當(dāng)越來(lái)越多的企業(yè)意識(shí)到自研的重要性之后,AI芯片領(lǐng)域的百家爭(zhēng)鳴將開(kāi)啟,這將為行業(yè)帶來(lái)更具性價(jià)比的產(chǎn)品,推動(dòng)AI算力的發(fā)展。