自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

推理性能超H100十倍!21歲華裔小哥哈佛輟學(xué)開發(fā)AI加速芯片「Sohu」,2人公司估值3400萬刀

人工智能 新聞
最近,兩位哈佛輟學(xué)生共同創(chuàng)立的AI芯片公司,估值已達(dá)3400萬美元,并計(jì)劃明年交付一款名為「Sohu」的AI推理加速芯片——其LLM推理性能達(dá)到H100的10倍,而單價(jià)吞吐量更是高達(dá)140倍。

像Pika一樣的神級(jí)創(chuàng)業(yè)故事又要再次上演了?

兩位哈佛退學(xué)的年輕人,想要制造一款專用于大語言模型加速的AI加速器芯片,將于2024年第三季度交付,推理性能達(dá)H100的10倍。

圖片

在今年6月份,兩位創(chuàng)始人Gavin Uberti和Chris Zhu創(chuàng)立了Etched.ai,獲得了包括Ebay前CEO Devin Wenig在內(nèi)一眾風(fēng)投機(jī)構(gòu)的536萬美元的種子輪投資。

公司估值更是高達(dá)3400萬美元!

根據(jù)公司官網(wǎng)上放出的數(shù)據(jù),這款芯片將在硬件層面上集成Transformer構(gòu)架,將推理速度相比于英偉達(dá)H100提升了8-10倍!

圖片

他們將第一款LLM加速芯片命名為「Sohu」,號(hào)稱可以在毫秒級(jí)別的時(shí)間里處理數(shù)千個(gè)單詞。

圖片

芯片還支持通過樹搜索更好地編碼,能夠并行比較數(shù)百個(gè)響應(yīng)。

還支持多重推測解碼(Multicast speculative decoding),可以實(shí)時(shí)生成新的內(nèi)容。

根據(jù)官方公布的具體細(xì)節(jié),這款芯片只有一個(gè)核心,但是配備了144GB的HBM3e顯存:

- 完全開源的軟件棧,可擴(kuò)展至100T參數(shù)型號(hào)

- 支持波束搜索(Beam search)和MCTS解碼

- 支持MoE和Transformer的各種變體

兩個(gè)哈佛輟學(xué)本科生挑戰(zhàn)芯片行業(yè)最頂尖業(yè)務(wù)

兩人原本計(jì)劃從哈佛休學(xué)一年,在一家芯片公司找到了一份負(fù)責(zé)ApacheTVM開源編譯器和微內(nèi)核的工作。

但在工作中,他們發(fā)現(xiàn)Arm的指令集中的一些低效設(shè)計(jì)使得他們的工作效率很差。

當(dāng)他們思考如何系統(tǒng)性地解決這個(gè)問題時(shí),發(fā)現(xiàn)可以利用這個(gè)思路來設(shè)計(jì)一款針對當(dāng)下爆火的AI加速芯片。

在創(chuàng)始人之一的Uberti看來,通用設(shè)計(jì)無法獲得他們正在研發(fā)的專有加速芯片所能帶來的那種性能提升:

「必須在單一架構(gòu)上下大力氣,讓芯片處理AI任務(wù),目標(biāo)太大了,必須要針對更具體的任務(wù)來設(shè)計(jì)芯片......我們認(rèn)為英偉達(dá)最終會(huì)這么做?!?/span>

在他們兩人看來,這個(gè)市場機(jī)會(huì)太大了,一定不能錯(cuò)過。

「如果你回顧四年前的GPT-2,與Meta最近的 Llama模型相比,只有兩個(gè)區(qū)別——大小和激活函數(shù)。訓(xùn)練方式存在差異,但這對于推理來說并不重要?!?/span>

Transformer的基本組件是固定的,雖然存在細(xì)微差別,但他們并不擔(dān)心短期之內(nèi)就會(huì)出現(xiàn)新的構(gòu)架代替Transformer。

所以他們決定做一個(gè)Transformer構(gòu)架的專用集成電路(ASIC),在未來和英偉達(dá)等一系列芯片巨頭在大模型推理市場中競爭。

他們認(rèn)為,Etched.ai推出的第一款芯片,相比于H100,單位價(jià)格內(nèi)將獲得140倍的吞吐量性能!

二到底是什么樣的背景,能讓兩個(gè)本科還沒有畢業(yè)的學(xué)生,敢于挑戰(zhàn)芯片業(yè)目前最炙手可熱的賽道呢?

圖片

創(chuàng)始人兼公司CEO Gavin Uberti自從2020進(jìn)入哈佛之后,就一直在校外兼職,在2022年底,成立了Etched.ai。

在進(jìn)入大學(xué)之前,他參與了美國最著名的青少年科技創(chuàng)新大賽FIRST Tech Challenge,團(tuán)隊(duì)獲得了Top 10獎(jiǎng)項(xiàng)。團(tuán)隊(duì)開發(fā)的自動(dòng)駕駛軟件排在600個(gè)參賽團(tuán)隊(duì)第二名。

另一位創(chuàng)始人Chris Zhu,也是在哈佛就讀時(shí)就在校外瘋狂實(shí)習(xí),甚至還沒有從哈佛畢業(yè),就已經(jīng)成為兼職教員。

圖片

圖片


AMD MI300X決戰(zhàn)NVIDIA H100

而英偉達(dá)和AMD這邊,最近打得更是熱火朝天,甚至連官方都直接下場寫博客硬剛。

就在前段時(shí)間,AMD高調(diào)發(fā)布了自家最強(qiáng)的AI芯片MI300X。

PPT顯示,由8塊MI300X組成的服務(wù)器在大模型推理方面的表現(xiàn),要比同樣規(guī)模的H100速度最高提升1.6倍之多。

對于AMD來說,這種直接對標(biāo),實(shí)屬罕見。

對此,英偉達(dá)很快就發(fā)表了一篇博客文章,駁斥AMD的評(píng)測不客觀。

英偉達(dá)表示,如果H100 GPU使用了優(yōu)化過的軟件進(jìn)行正確的基準(zhǔn)測試,它的性能將大大超過MI300X。

作為回應(yīng),英偉達(dá)展示了采用TensorRT-LLM優(yōu)化設(shè)置后,兩款GPU在Llama 2 70B上的比較結(jié)果。

文章地址:https://developer.nvidia.com/blog/achieving-top-inference-performance-with-the-nvidia-h100-tensor-core-gpu-and-nvidia-tensorrt-llm/

可以看到,當(dāng)批處理大小設(shè)置為1時(shí),H100的性能達(dá)到了MI300X的2倍。

甚至,當(dāng)采用與AMD相同的2.5秒延遲時(shí),H100的性能可以達(dá)到MI300X的14倍之多。

英偉達(dá)表示,AMD采用的替代軟件不支持Hopper的Transformer Engine,并且忽略了TensorRT-LLM中的關(guān)鍵優(yōu)化功能。而這些都可以在GitHub上免費(fèi)獲取。

圖片

AMD毫不示弱

見狀,AMD也發(fā)文表示,既然要用優(yōu)化,那就大家都用。

而即便是在這種情況下,MI300X的性能依然比H100強(qiáng)了30%。

文章地址:https://community.amd.com/t5/instinct-accelerators/competitive-performance-claims-and-industry-leading-inference/ba-p/652304

具體來說:

1. 在同樣采用vLLM FP16的設(shè)置時(shí),相比于發(fā)布會(huì)上展示的1.4倍性能,AMD最新的優(yōu)化已經(jīng)讓這一優(yōu)勢擴(kuò)大到了2.1倍。

2. 與使用TensorRT-LLM優(yōu)化的H100相比,使用vLLM的MI300X實(shí)現(xiàn)了1.3倍的延遲改善。

3. 相比于采用低精度FP8和TensorRT-LLM的H100,使用vLLM和高精度FP16的MI300X在絕對延遲方面,表現(xiàn)更好。

AMD指出,英偉達(dá)在H100上進(jìn)行基準(zhǔn)測試時(shí)使用的是自家專有的技術(shù)TensorRT-LLM,而非更廣泛使用的vLLM。

此外,在延遲方面,英偉達(dá)只關(guān)注吞吐量的性能,卻忽視了實(shí)際工作中的延遲問題。

最后,AMD表示,之所以選擇使用FP16,是因?yàn)樗浅A餍?,而且目前vLLM還不支持FP8。

GPU大戰(zhàn)進(jìn)入白熱化

在人工智能加速器領(lǐng)域,一些公司擁有針對特定工作負(fù)載的專門架構(gòu)。

數(shù)據(jù)中心的專用架構(gòu)主要集中在DLRM(深度學(xué)習(xí)推薦模型),因?yàn)镚PU很難加速這類任務(wù)。

Meta最近宣布已經(jīng)構(gòu)建了自己的DLRM推理芯片,并且已經(jīng)得到廣泛部署。

而對于Transformer構(gòu)架的加速,英偉達(dá)是通過在H100 GPU中部署Transformer Engine的軟件功能來實(shí)現(xiàn)的。

Transformer Engine使得LLM推理無需進(jìn)一步量化即可進(jìn)行,大大加速了GPU推理LLM的效果。

而Etched.ai要做的就是更近一步,在硬件層面完成這個(gè)設(shè)計(jì),從而使得LLM的推理速度和能效都更上一層樓。

而投資人之所以愿意給兩位本科輟學(xué)生投入如此之大的一筆錢,更重要的是迄今為止,所有人都認(rèn)為現(xiàn)在LLM推理的成本過高,其中一定有創(chuàng)新的空間。

除了這樣的明星初創(chuàng)公司以外,傳統(tǒng)巨頭對于大模型推理市場同樣抱有很高的期待。

蘇媽在各種場合不斷表示,未來大模型推理市場的規(guī)模將遠(yuǎn)遠(yuǎn)大于模型訓(xùn)練市場。所以AMD也一直在強(qiáng)調(diào)自己的產(chǎn)品已經(jīng)對這個(gè)市場做好了充分地準(zhǔn)備。


從英偉達(dá)和AMD首次公開對比自家產(chǎn)品的性能這件事來看,GPU領(lǐng)域的競爭顯然正在加劇。

目前,英偉達(dá)除了要面對AMD的挑戰(zhàn)之外,還需要考慮英特爾和Cerebras取得的快速進(jìn)展。

就在12月14日,首席執(zhí)行官Pat Gelsinger展示了英特爾最新的AI芯片——采用5nm工藝制程,性能提升了1.5倍的Gaudi 3。

相比于上一代Gaudi 2,Gaudi 3的BFloat16性能提升了4倍,計(jì)算能力提升2倍,顯存容量提升50%達(dá)到144GB,并且采用的是HBM3或HBM3e。

同樣,英偉達(dá)也計(jì)劃在明年初推出GH200超級(jí)芯片。

鑒于競爭如此激烈,AMD可能會(huì)被諸如微軟、Meta和甲骨文這些已經(jīng)宣布將其技術(shù)集成到數(shù)據(jù)中心的公司,視為備選方案。

Gelsinger預(yù)測,到2027年,GPU市場規(guī)模將達(dá)到驚人的4000億美元,這無疑為激烈的競爭提供了廣闊的舞臺(tái)。

Cerebras Systems的CEO Andrew Feldman更是毫不遮掩自己的野心:「我們正在努力超越英偉達(dá),到明年,我們將構(gòu)建高達(dá)36 exaflops的AI算力?!?/span>

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-06-26 13:15:40

2023-09-10 12:37:38

模型英偉達(dá)

2025-04-07 09:00:00

數(shù)據(jù)測試工具

2024-06-26 12:13:05

2023-11-30 18:25:57

數(shù)據(jù)訓(xùn)練

2023-04-06 09:37:22

谷歌AI

2021-09-17 12:54:05

AI 數(shù)據(jù)人工智能

2020-05-29 15:40:40

NVIDIA

2023-09-14 13:23:00

AI芯片

2019-09-25 14:34:15

AI 數(shù)據(jù)人工智能

2025-04-21 09:07:00

2025-03-03 13:35:28

2024-08-29 12:58:35

2024-07-01 08:10:00

2024-08-28 13:34:13

2019-10-14 09:58:00

機(jī)器學(xué)習(xí)人工智能計(jì)算機(jī)

2023-08-09 17:19:54

服務(wù)器計(jì)算

2024-08-16 14:15:00

AI訓(xùn)練

2019-09-25 15:29:41

阿里云芯片

2024-04-10 09:10:27

Gaudi 3芯片英特爾
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)