清華特獎焦劍濤大模型創(chuàng)業(yè):突破GPT-4工具使用能力,搞開源種子輪融資七千萬
兩位清華校友打造,在GPT-4核心優(yōu)勢之一使用工具上實現(xiàn)超越。
連HuggingFace CEO都來幫它造勢:
它的名字叫“NexusRaven”,參數(shù)只有130億。
出色的函數(shù)調(diào)用能力連網(wǎng)友都忍不住稱贊,既可以并行也可以嵌套。
背后團隊則更令人矚目:
一共三位創(chuàng)始人,除了兩位清華校友(其中一位拿過清華特獎),還有一位在工業(yè)界干了15年的AI大牛。
他們創(chuàng)辦的公司(也就是該模型所屬的公司),在種子輪就已經(jīng)融資1060萬美元(約合人民幣7600萬)。
如此大有來頭的模型和團隊,我們?nèi)滩蛔“橇税恰?/p>
清華特獎得主聯(lián)合創(chuàng)辦
這家公司名叫Nexusflow,今年9月剛剛亮相,并當即宣布千萬美元級種子輪融資。
它在短短不到3個月的時間就發(fā)布了2代大模型NexusRaven,其中第二代直接單點突破GPT-4,引起開源社區(qū)大量關(guān)注。
NexusRaven的開源和商用,是完全不用擔(dān)心侵權(quán)的那種,因為它的訓(xùn)練不涉及任何由專有LLM(如GPT-4) 生成的數(shù)據(jù)。
當然,隱私數(shù)據(jù)就更不用擔(dān)心了,NexusRaven稱自己的安全性比GPT-4要高了21個百分點。
三位創(chuàng)始人中,CEO為焦劍濤。
他本科畢業(yè)于清華大學(xué)電子工程系,2018年從斯坦福博士畢業(yè),進入加州大學(xué)伯克利分校擔(dān)任助理教授。
在伯克利,作為BAIR的一員,焦劍濤與Michael Jordan、姚班校友朱晨光等均有合作。
值得一提的是,焦劍濤是2011年清華特獎得主,還與有“清華學(xué)神”之稱的學(xué)弟韓衍雋有過一段“傳承”故事:
韓衍雋曾表示,自己在美國交流期間,受到過焦劍濤很大的影響。
Nexusflow并非焦劍濤的第一次創(chuàng)業(yè)。在他攻讀博士期間,就曾與另一位清華電子系校友張文鑄聯(lián)合創(chuàng)立了“AI+教育”的清帆科技。
CTO Jian Zhang,同樣是清華電子系校友,2020年畢業(yè)于斯坦福大學(xué)計算機科學(xué)專業(yè)。
加入Nexusflow創(chuàng)業(yè)團隊之前,Jian Zhang曾任SambaNova Systems機器學(xué)習(xí)總監(jiān),該公司是一家人工智能芯片初創(chuàng)公司,估值超50億美元。
最后一位創(chuàng)始人Kurt Keutzert是加州大學(xué)伯克利分校教授,h指數(shù)為100,論文總引用量超5萬,研究重點包括用并行和分布式計算加速深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練、計算機視覺等AI方向。
他曾是貝爾實驗室的一員,后于1991-1998年任EDA公司新思科技CTO和高級副總裁。1997年,他拿到了加州大學(xué)伯克利分校的教職,進入學(xué)術(shù)界工作。
有意思的是,Keutzert事實上并未離開工業(yè)界——他一直以來還兼任著天使投資人和顧問的角色。
而他和博士生Forrest Iandola共同創(chuàng)立的DeepScale——一家研究自動駕駛汽車感知系統(tǒng)技術(shù)的公司,還在2019年被特斯拉收購了。
三位背景過硬的大佬,創(chuàng)辦的公司Nexusflow所瞄準的方向,則是大模型在網(wǎng)絡(luò)安全中的應(yīng)用。
用官方的話說,是要“利用生成式AI徹底改變網(wǎng)絡(luò)安全”,包括:
用統(tǒng)一對話界面簡化軟件配置、集成和使用,提供解決方案簡化網(wǎng)絡(luò)安全運營中檢測、調(diào)查、響應(yīng)和修復(fù)的各個環(huán)節(jié),以及在大模型時代保護用戶不受提示注入、數(shù)據(jù)泄露等新的安全問題的影響等等。
簡而言之,就是在流程上解放網(wǎng)絡(luò)安全從業(yè)人員。
公開兩個月,即發(fā)布NexusRaven-V2,也正是焦劍濤、Kurt Keutzer和Jian Zhang這三位創(chuàng)始人目標的初步體現(xiàn):
用一個更經(jīng)濟高效的模型,實現(xiàn)更強大的“工具”調(diào)用能力。
那么,它旗下的“明星出品”:NexusRaven-V2,究竟什么樣?
模型更小,函數(shù)調(diào)用能力更強
據(jù)介紹,NexusRaven-V2完全基于開放數(shù)據(jù)集打造,并在CodeLlama-13B-instruct上進行了指令微調(diào)。
它的主要功能就是將人類給出的自然語言指令轉(zhuǎn)換為可執(zhí)行代碼,然后利用代碼來自動使用工具完成任務(wù)。
聽起來和之前很火的AutoGPT很類似。
從官方給出的demo來看,它可以進行最簡單的“附近美食”查找:
只需問它“Get me good food nearby?”,它就能立刻編寫出幾行代碼,然后開始定位你的城市、將城市坐標轉(zhuǎn)換為經(jīng)緯度、領(lǐng)取目標任務(wù)(20個飯店建議)以及按距離從遠到近排序。
最終給出每一個飯店的谷歌地圖,還能點擊進行查看詳細評分等信息。
以及最最后還有一個文字版的總結(jié)。
稍微復(fù)雜一些的任務(wù)也行,比如找出舊金山市政廳20英里以內(nèi)、每晚價格200美元以上的酒店。
同樣的流程:代碼、執(zhí)行任務(wù)、出結(jié)果,包含地圖和最終列表總結(jié)。
當然,還可以進行深度對比,讓它評價幾家飯店各自的優(yōu)勢。
總的來說,不管什么任務(wù),都是靠它寫出來的代碼將人類指令轉(zhuǎn)化為精確的軟件工具操作來完成,整個過程也相當快,1分鐘左右。
事實證明,在人工生成的9項基準測試中,只有130億參數(shù)的NexusRaven-V2做到了58.2%的平均調(diào)用成功率,比GPT-4高出4個百分點(在零樣本情況下)。
其中,兩者在單個或并行函數(shù)調(diào)用這種簡單任務(wù)上的表現(xiàn)差不多。
但如果再單看復(fù)雜的嵌套函數(shù)調(diào)用任務(wù),NexusRaven-V2的成績比GPT-4表現(xiàn)得要更好,直接高出了7個百分點。
此外,能力測試還納入了9項操作現(xiàn)實世界軟件的任務(wù),結(jié)果是有6項NexusRaven-V2也都超過GPT-4。
除此之外,團隊還介紹,函數(shù)的變量在發(fā)生改變時,NexusRaven-V2還表現(xiàn)出比GPT-4更強的魯棒性。
值得一提的是,為了確保結(jié)果可重復(fù)以及標準化函數(shù)調(diào)用評估指標,以上測試基準現(xiàn)在也一并公開發(fā)布。
以下是三種函數(shù)類型示例,有單個的、并行的,也有需要嵌套操作的。
大家可在Huggingface上獲取(具體入口可從NexusRaven-V2的GitHub界面獲得)。
如果你對NexusRaven-V2模型本身感興趣,團隊也已經(jīng)發(fā)布了專門的Python包“nexusraven”,使用它就可以將模型與你已有的copilot或agent工具進行無縫集成(Colab上有教程)。
One More Thing
最后,不得不說,自Llama之后,開源大模型賽道越來越有群星匯聚之勢。
這邊130億參數(shù)模型跟GPT-4掰上了手腕,在歐洲,“歐版OpenAI”Mistral AI最新估值已經(jīng)沖破20億美元,在短短六個月中增長了7倍多。
而就在最近,Mistral AI還靠一個磁力鏈接轟動了整個大模型社區(qū):開源首個MoE大模型,也就是坊間傳聞中GPT-4采用的方案。
這不禁讓人好奇:開源模型,要崛起了嗎?