震撼!GPT-4 Turbo級國產(chǎn)大模型登場,周冠宇F1賽事數(shù)據(jù)秒分析驚呆國際大佬
中國的大模型,已經(jīng)震驚了外國科技圈。
這不,這幾天商量大模型的更新,直接讓外國網(wǎng)友驚呼:太瘋狂了,中國的AI界究竟還有多少我們不知道的巨變?
不怪這些網(wǎng)友太大驚小怪——最近全新升級的日日新·商量大模型5.0(SenseChat V5),在基礎(chǔ)能力上再次重大更新,直接把大模型能力升級到新的階段,直觀印象可感的那種。
簡單來就是,這款擁有強大邏輯推理能力的6000億參數(shù)MoE模型,可以輕松地把你變成一個更好的打工人。
打工神器Part 1:辦公小浣熊
所以說了這么多,得到日日新5.0加持的產(chǎn)品,到底會有怎樣非一般的體驗?
首先,我們來看看最直擊打工人痛點的「辦公小浣熊」。
顧名思義,它主打的就是一個辦公能力。
體驗地址:https://raccoon.sensetime.com/office
眾所周知,在真實的辦公場景中,往往會有很多極其復(fù)雜的圖表,就連我們?nèi)祟愖约嚎吹蕉紩烆^轉(zhuǎn)向。
更何況還有不少資料只有外文的,更是增加了閱讀障礙。
辦公小浣熊可以hold住嗎?
前兩天,F(xiàn)1中國大獎賽剛剛落幕,而作為索伯技術(shù)合作方的商湯,更是提供了一些資料。
而我們也借此直接上了點難度:導(dǎo)入一份擁有60萬條數(shù)據(jù)的「全英文」表格,涵蓋F1歷史各類數(shù)據(jù)信息,讓它分析一下。
毫不夸張地說,這項測試非常難!
要知道,這份數(shù)據(jù)體量非常龐大。而且數(shù)據(jù)庫中除了英文,還包含簡寫、劃線-等復(fù)雜的元素。
比如,「周冠宇」對應(yīng)的是「guanyu-zhou」(甚至不是guanyu zhou),信息模糊度比較高。
因此,對于模型來說,分析這樣的數(shù)據(jù)并非是一件易事。
而我們也對這次的挑戰(zhàn),充滿期待。
順便說一嘴,商湯從2022年周冠宇第一次登上F1賽場開始,連續(xù)三年都是車隊的技術(shù)合作伙伴
接下來,考驗真本事的時候到了,我們給辦公小浣熊下發(fā)任務(wù):
給出周冠宇在2020-2024之間參與比賽數(shù)量的柱狀圖。
果不其然,在第一次嘗試時,辦公小浣熊無法從表中的英文名字「guanyu-zhou」匹配到周冠宇。
因此,它會認為圖中沒有周冠宇的信息。
下一步就得上點「提示」技巧了。
在接下來互動中,和它說「肯定會有的,你再找找」。
通過一步步的引導(dǎo)和互動,模型在我們的引導(dǎo)下學(xué)會了反思,然后成功地完成了任務(wù)!
可以看到,辦公小浣熊通過努力思考,完成了所給任務(wù)的數(shù)據(jù)分析,并給出了相應(yīng)的Python代碼。
而這個交互過程也告訴我們,如果給模型的數(shù)據(jù)表格并不匹配、比較模糊,模型表現(xiàn)不盡如人意時,也不要放棄。通過互動,模型就很可能給我們驚喜,給出不一樣的數(shù)據(jù)交互體驗。
下面就是一個更難的任務(wù),我們把F1歷史上所有車手、車隊、比賽、賽道、引擎制造商等等信息,導(dǎo)入數(shù)據(jù)庫文件中,這個數(shù)據(jù)量是非常龐大的。
然后問模型:F1當(dāng)中總共有多少車手?可以交叉表格進行計算。
這個任務(wù),同樣難度非常大,因為在所有字段中,沒有任何一個是中文的。
最終,辦公小浣熊用模糊的匹配,找到了相對應(yīng)的信息——901位車手,這個答案完全正確!
在大模型產(chǎn)品中,辦公小浣熊的這個表現(xiàn),堪稱高手中的高手。
在這個過程中,模型正是通過交互模式迭代的邏輯,多次查詢了不同的表頭,最終給出了能讓我們理解的信息。
再換一個問題,「有哪些車手獲得總冠軍?并按獲獎次數(shù)從高到低繪制柱狀圖」。
最終,模型整理出:獲得最多總冠軍的車手是漢密爾頓和舒馬赫。
接下來,我們來看看它能不能從不同維度,統(tǒng)計出漢密爾頓和舒馬赫的獲獎情況。
辦公小浣熊畫了一個雷達圖,清晰呈現(xiàn)出兩人桿位數(shù)、圈數(shù)、領(lǐng)獎臺數(shù)、勝利數(shù)等各維度的能力,漢密爾頓的次數(shù)還是略高于舒馬赫。
在這個真實的數(shù)據(jù)應(yīng)用場景中,通過交互方式對復(fù)雜表格實現(xiàn)了聯(lián)動,日日新5.0表現(xiàn)出的強大推理能力,令人印象著實深刻。
下面,再來一個同樣高難度的市場采購的案例。
上傳「2024年新增供應(yīng)商相關(guān)信息」文檔之后,要求它整合到一個表格中,并要求表頭以列出供應(yīng)商分類、供應(yīng)商名稱、產(chǎn)品名稱...列出。
辦公小浣熊立刻給出了一個完整、清晰的表格總結(jié)版。
甚至,它還可以為你生成一個可視化的柱狀圖,將IT類、固資類、營銷類、行政類費用直觀地呈現(xiàn)出來。
包括熱力圖這類圖表生成,它也可以拿捏。
此外,我們還可以一并上傳多個文檔,讓辦公小浣熊繼續(xù)完成要求的任務(wù)。
首先它給出了可查閱的代碼,最后生成了不同類別需要采購的數(shù)據(jù)表格,一看即明了。
一通測試下來,小編的感慨就是:能用上如此高效的數(shù)據(jù)分析、總結(jié)辦公神器,真是每位打工人的福音。
并且,它還是免費的!
打工神器Part 2:文檔大模型
另一個鮮明體現(xiàn)出日日新5.0能力的產(chǎn)品,就是商量-文檔大模型。
據(jù)說,除了表格數(shù)據(jù)分析外,在長文本處理這個場景下,模型的能力也是一絕。
那我們就要來上難度了:丟給它一堆數(shù)學(xué)試卷,要求它從中找出一道解一元一次方程的解答題。
很快,它不僅從「小學(xué)數(shù)學(xué)試卷」的第五部分找到了對應(yīng)的題型,甚至還麻溜地給出了解題過程。
我們還可以對它要求,再幫忙出一道類似的題目,但題型得是選擇題。
它不光給出了題干,還順便給出了正確答案和解題步驟。
再比如,上傳一份小學(xué)試卷,讓文檔大模型幫你以小學(xué)生的理解力,去分析其中的一道應(yīng)用題。
它可以像一位耐心的老師,指導(dǎo)學(xué)生做題一樣,從步驟1、2、3詳細地分析了縝密的解題過程,并給出了答案。
這樣的AI老師,有誰不愛?
然后,文檔大模型還可以是「出題機」,能給出一道類似的題目,可以充分鍛煉自己舉一反三的能力。
你還可以將自己做完試題的結(jié)果,告訴它,讓它為你打分。
顯然,8.4 ÷ 0.4 = 2.1答案不正確,正解應(yīng)該是21。
就著這個文檔,你可以無限提問。
文檔大模型在題目幾乎糊在一塊兒的頁面中,不僅能準(zhǔn)確識別你想要的題目,還能悉心給出解答。
給它上傳一份唐詩三百首和宋詞三百首,我們就可以根據(jù)這些文件提問了!
比如,找出描寫月亮的詩詞。
它迅速找出了《靜夜思》《望月懷遠》《水調(diào)歌頭.丙辰中秋》等作品。
下面,我們還可以來一個拔高性的提問:月亮在唐詩和宋詞中的內(nèi)涵有哪些異同點?
它回答道:相同點在于都是情感寄托、時光流轉(zhuǎn)的象征和美的象征,不同點就在于表現(xiàn)手法、情感深度和文化背景的不同。
要問小編每天起早貪黑地辛苦打工,最愛聽到的詞是啥?大家異口同聲的三個字就是——
10W+!
10w+的文章,到底有哪些套路呢?讓文檔大模型幫我們來分析一下。
以下是五篇10w+公眾號爆款文章(沒錯,看名字就知道了)。
讓我們把它們一次性扔給文檔大模型。首先,它可以幫我們總結(jié)出每篇文章的摘要。
互聯(lián)網(wǎng)文章千千萬,為什么偏偏是它們成了爆款?
文檔大模型分析后總結(jié)道:貼近生活的真實故事,一下子就讓讀者找到了自己的影子,產(chǎn)生了強烈的情感連接。
挖掘出人類共通的情感體驗,再提供不同的觀察視角,就會讓文章有較高的思考價值。
所以,根據(jù)上述經(jīng)驗,我們?nèi)绾闻谥瞥鲱愃频谋钅??文檔大模型提供了以下思路——
疫情下的親子關(guān)系新常態(tài);遠程工作時代的職場媽媽;數(shù)字斷舍離;老錢風(fēng)到新錢風(fēng);人工智能時代的職業(yè)轉(zhuǎn)型之路……
好家伙,這些命題聽起來個個都很吸睛,已經(jīng)忍不住想看了!下一步,就是碼出幾千字,篇篇十萬加,走上人生巔峰了。
文檔大模型這種超強的文本分析能力,甚至可以為文史哲的同學(xué)們寫嚴肅論文提供思路。
比如,《論語》和《道德經(jīng)》關(guān)于「德」的觀點,有何異同?
文檔大模型在咀嚼了長達29頁21638個字的《論語》和14頁7302個字的《道德經(jīng)》后,分析出——
相同點在于,二者都高度重視「德」在個人修養(yǎng)和社會治理中的作用;區(qū)別在于,《論語》中的「德」更多關(guān)聯(lián)到個人,后者還涉及到順應(yīng)自然、無為而治的理念。
如果想深入研究,應(yīng)該閱讀那些參考文章和書籍?文檔大模型列出了相關(guān)領(lǐng)域的經(jīng)典著作。
更厲害的來了,如果把兩個文檔的思想整合,能得到怎樣的啟發(fā)呢?文檔大模型表示,可以從和諧共生的生活哲學(xué)、內(nèi)在修養(yǎng)與外在行為的統(tǒng)一等方面入手。
沿著這個思路深入探討下去,或許就能肝出一篇觀點別具一格的學(xué)術(shù)論文了。
一大波Benchmark襲來
當(dāng)然,除了打工之外,對于各種刁鉆的測試,日日新5.0也沒在怕的。
首先我們來看一張新鮮出爐的小米SU7照片。
因為是隨手抓拍的,車輛本體其實很小。
不過,在日日新5.0加持下的商量,很輕松地就識別出了車型,而且還附上了一波詳細的介紹,非常專業(yè)。
相比之下,其他的模型就直接GG了。
要么是認錯了車,要么連車都沒看到,只識別出了照片的水印。
接下來,向我們走來的,就是日日新5.0大戰(zhàn)「弱智吧」難題。
「只切一刀,如何把四個橘子平均分給四個小朋友?」
商量為了公平起見,只切一刀還是得將四個橘子排成一排。這樣,一刀下去,每個小朋友還是一人一個橘子。
這招真是高明!
接下來,則是一道非?!刚?jīng)」的推理題。
「一個獵人向南走了一英里,再向東走了一英里,然后向北走了一英里,最終回到了出發(fā)點。他看到一只熊并開槍打死了它。這只熊是什么顏色」?
商量一語中的,說出了這道題實際上是——地理謎語。
因為只有在極點的時候,獵人才能聽起來這么曲折的路程,回到出發(fā)點。
也就是說,這只熊一定是北極熊了。
5次模型迭代,全面對標(biāo)GPT-4 Turbo
一波測試下來,想必你也對升級后的日日新5.0能力,有了大概的了解。
下圖是一張對行業(yè)里模型的橫評。
注意看,圖中有一個亮點:最近的行業(yè)模型迭代,在純粹知識型能力上提升沒有那么顯著,但在高階推理,尤其是數(shù)學(xué)能力上,有了很大提升。
比如,GPT-3.5到GPT-4的提升有100%之多,而Llama 2到Llama 3,直接提升了400%之多。
這是因為,大部分用來提升數(shù)據(jù)質(zhì)量的能力都構(gòu)建在了推理能力上,并且是合成數(shù)據(jù)的推理。
尤其對于領(lǐng)域應(yīng)用的落地而言,高階推理能力更是成了行業(yè)大模型能力推進的重要指標(biāo)。
日日新5.0在大部分核心測試集指標(biāo)上,都已對標(biāo)甚至超過了GPT-4 Turbo
讓我們重回到這些評測上,不難看出,日日新5.0在語言、知識、推理、數(shù)學(xué)、代碼等能力上,都有了一波明顯的。
而在主流客觀評測上,它已經(jīng)達到甚至超越了GPT-4 Turbo的水平!
正如前文所說,日日新5.0如此之強的能力,靠的就是商湯團隊在模型架構(gòu),以及數(shù)據(jù)配方上的持續(xù)優(yōu)化。
從日日新1.0、到2.0、3.0、4.0,以及今天5.0的發(fā)布,每一次版本重大的迭代,背后核心都是——數(shù)據(jù)的升級。
過去一年里,商湯花了大量時間去完成了語料質(zhì)量的優(yōu)化,搭建了完善的數(shù)據(jù)清洗的鏈條。
對于5.0版本,他們重點關(guān)注了數(shù)據(jù)集中,是否蘊含比較豐富的邏輯。
通過對有高信息密度,邏輯性強的語料給予更高的權(quán)重,并對整體語料進行了高質(zhì)量清洗,從而實現(xiàn)性能提升。
具體來說,商湯在知識層面上,采用了超10T的Token,保證了LLM對客觀知識和世界的初級認知。
除此以外,商湯還合成了數(shù)千億的思維鏈數(shù)據(jù),成為日日新5.0性能提升,對標(biāo)GPT-4 Turbo的關(guān)鍵。x
在內(nèi)部,合成數(shù)據(jù)方式經(jīng)歷了兩次迭代,從最初用GPT-4來合成數(shù)據(jù),過渡到用自己模型中間版本合成數(shù)據(jù),再進行訓(xùn)練的過程。
其中,商湯90%的合成數(shù)據(jù)是自家模型生成的,另外10%的數(shù)據(jù)由世界頂尖LLM生成。
由此,便可以得到非常高質(zhì)量的數(shù)千億合成數(shù)據(jù)。
這幾天,奧特曼在斯坦福閉門演講中談到,「Scaling Law依舊有效,GPT-5要比GPT-4更強大,GPT-6也遠遠超越GPT-5,我們還沒有到達這條曲線的頂端」。
也就是說,大模型下一步發(fā)展的空間潛力,將是無窮無盡的。
還真是有點期待日日新6.0的誕生了。