黃仁勛親自給OpenAI送貨,全球首臺DGX H200開箱了
今天,黃仁勛又來送 AI 芯片了,還是超強悍的那種。
OpenAI 聯(lián)合創(chuàng)始人、總裁 Greg Brockman 發(fā)推,曬出了自己、OpenAI CEO 奧特曼與英偉達創(chuàng)始人兼 CEO 黃仁勛的合照。
他表示,老黃親自為 OpenAI 送來了全球第一臺 Nvidia DGX H200 超級計算機,此舉意在雙方共同推進 AI、計算和人類的發(fā)展。
不過,網(wǎng)友更關(guān)注的依然是 OpenAI 聯(lián)合創(chuàng)始人、首席科學家 Ilya Sutskever。自去年 12 月 15 日轉(zhuǎn)推了 OpenAI 的一個帖子以來,他已經(jīng)在 X 上「消失」了四個多月。
有網(wǎng)友調(diào)侃到,Ilya 是不是在邊上的箱子里呢?
還有人 P 了一張 Ilya 與奧特曼搭肩的合照。
把最強 AI 算力贈送給業(yè)界先進研究機構(gòu),這件事英偉達已不是第一次做了。
今年 2 月,馬斯克還在 X 上回憶了老黃向 OpenAI 捐贈 DGX-1 服務器的那張經(jīng)典照片。作為 OpenAI 的聯(lián)合創(chuàng)始人,彼時馬斯克還沒有因為「利益沖突」和開源等問題與 OpenAI 反目成仇。
2016 年,黃仁勛親自向 OpenAI 贈送了全球第一臺 DGX-1,馬斯克也在接收現(xiàn)場。
或許就是這個舉動,催生了 ChatGPT 的到來。
DGX-1 被英偉達稱作為「AI 超級計算機」,當時捐贈的版本價值 12.9 萬美元,集成了 8 塊 Tesla P100(Pascal 架構(gòu))GPU,整個系統(tǒng)的機器學習算力為 170 teraflops(FP16)。
在此之后,英偉達陸續(xù)推出了 DGX-2(Volta 架構(gòu))、DGX A100 服務器(Ampere 架構(gòu)),持續(xù)引領(lǐng)了 AI 算力的最高水平。
今天贈送給 OpenAI 的 DGX H200,是去年 11 月在全球超算大會上推出的最新產(chǎn)品。英偉達在官方博客中曾表示:H200 Tensor Core GPU 具有改變游戲規(guī)則的性能和內(nèi)存功能,可增強生成式 AI 和高性能計算 (HPC) 工作負載。單塊 H200 的 FP16 算力是 1979 TFLOPS。
作為首款采用 HBM3e 的 GPU,H200 借助更大更快的內(nèi)存可加速生成式 AI 和大型語言模型 (LLM) 的運行,同時推進 HPC 工作負載的科學計算。
老黃送顯卡,看來正在成為英偉達的慣例。不過還有一個不得不說的故事,就是神經(jīng)網(wǎng)絡(luò)剛剛興起的時候,英偉達曾經(jīng)「拒絕」過人工智能先驅(qū) Geoffrey Hinton。
2009 年 Hinton 的研究小組在使用英偉達的 CUDA 平臺訓練神經(jīng)網(wǎng)絡(luò)來識別人類語音。他對研究結(jié)果的質(zhì)量感到驚訝,并于當年晚些時候的一次會議上介紹了這些結(jié)果。Hinton 聯(lián)系了英偉達,「我發(fā)了一封電子郵件說,聽著,我剛剛告訴一千名機器學習研究人員,他們應該去購買英偉達 GPU。你能給我免費寄來一份嗎?」結(jié)果英偉達拒絕了。
盡管受到冷落,Hinton 仍然鼓勵他的學生使用 CUDA,其中包括傳奇學者 Alex Krizhevsky。2012 年,Krizhevsky 和他的研究伙伴 Ilya Sutskever 在預算緊張的情況下從亞馬遜購買了兩張 GeForce 顯卡,訓練視覺識別神經(jīng)網(wǎng)絡(luò),這才有了一代經(jīng)典 AlexNet。
不過在 2018 年 9 月,在一次慶祝英偉達多倫多 AI 實驗室(Toronto AI Lab)成立的會上,黃仁勛送給了 Hinton 一塊 TITAN V 顯卡。這也算是彌補了當初拒絕 Hinton 的遺憾。
圖源:https://twitter.com/PengDai_ca/status/1043496117244170240
除了交付 AI 算力,英偉達在投資領(lǐng)域也有新的動向。本周三據(jù)彭博社等媒體報道,英偉達正式宣布有意收購 AI 基礎(chǔ)設(shè)施管理平臺 Run:ai。該交易的價值并未透露,但估計約為 7 億美元。
Run:ai 由 Omri Geller(首席執(zhí)行官)和 Ronen Dar (首席技術(shù)官)于 2018 年創(chuàng)立。該公司開發(fā)了一個并行算力的編排和虛擬化軟件層,以滿足在 GPU 和類似芯片組上運行的人工智能工作負載的獨特需求。Run:ai 基于 Kubernetes 的 AI 云容器平臺通過自動分配必要的計算能力(從部分 GPU 到多個 GPU,再到多個 GPU 節(jié)點),能夠幫助用戶有效地池化和共享 GPU。
不斷擴充朋友圈,同時資助構(gòu)建 GPU 算力的公司,英偉達的 AI 版圖已越來越大。