自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

震撼!GPT-4 Turbo級國產(chǎn)大模型登場,周冠宇F1賽事數(shù)據(jù)秒分析驚呆國際大佬

人工智能 新聞
日日新·商量大模型5.0最近的一波升級,已經(jīng)震驚到國外科技圈了!實測之后,我們發(fā)現(xiàn):它的推理、數(shù)學(xué)能力又有了螺旋式上升。周冠宇最近三年比賽的情況、你不知道的F1冷知識,AI數(shù)據(jù)庫都讓你所見即所得。

中國的大模型,已經(jīng)震驚了外國科技圈。

這不,這幾天商量大模型的更新,直接讓外國網(wǎng)友驚呼:太瘋狂了,中國的AI界究竟還有多少我們不知道的巨變?

圖片

不怪這些網(wǎng)友太大驚小怪——最近全新升級的日日新·商量大模型5.0(SenseChat V5),在基礎(chǔ)能力上再次重大更新,直接把大模型能力升級到新的階段,直觀印象可感的那種。

簡單來就是,這款擁有強大邏輯推理能力的6000億參數(shù)MoE模型,可以輕松地把你變成一個更好的打工人。

打工神器Part 1:辦公小浣熊

所以說了這么多,得到日日新5.0加持的產(chǎn)品,到底會有怎樣非一般的體驗?

首先,我們來看看最直擊打工人痛點的「辦公小浣熊」。

顧名思義,它主打的就是一個辦公能力。

圖片

體驗地址:https://raccoon.sensetime.com/office

眾所周知,在真實的辦公場景中,往往會有很多極其復(fù)雜的圖表,就連我們?nèi)祟愖约嚎吹蕉紩烆^轉(zhuǎn)向。

更何況還有不少資料只有外文的,更是增加了閱讀障礙。

辦公小浣熊可以hold住嗎?

前兩天,F(xiàn)1中國大獎賽剛剛落幕,而作為索伯技術(shù)合作方的商湯,更是提供了一些資料。

而我們也借此直接上了點難度:導(dǎo)入一份擁有60萬條數(shù)據(jù)的「全英文」表格,涵蓋F1歷史各類數(shù)據(jù)信息,讓它分析一下。

圖片

毫不夸張地說,這項測試非常難!

要知道,這份數(shù)據(jù)體量非常龐大。而且數(shù)據(jù)庫中除了英文,還包含簡寫、劃線-等復(fù)雜的元素。

比如,「周冠宇」對應(yīng)的是「guanyu-zhou」(甚至不是guanyu zhou),信息模糊度比較高。

因此,對于模型來說,分析這樣的數(shù)據(jù)并非是一件易事。

而我們也對這次的挑戰(zhàn),充滿期待。

順便說一嘴,商湯從2022年周冠宇第一次登上F1賽場開始,連續(xù)三年都是車隊的技術(shù)合作伙伴

接下來,考驗真本事的時候到了,我們給辦公小浣熊下發(fā)任務(wù):

給出周冠宇在2020-2024之間參與比賽數(shù)量的柱狀圖。

果不其然,在第一次嘗試時,辦公小浣熊無法從表中的英文名字「guanyu-zhou」匹配到周冠宇。

因此,它會認為圖中沒有周冠宇的信息。

下一步就得上點「提示」技巧了。

在接下來互動中,和它說「肯定會有的,你再找找」。

通過一步步的引導(dǎo)和互動,模型在我們的引導(dǎo)下學(xué)會了反思,然后成功地完成了任務(wù)!

可以看到,辦公小浣熊通過努力思考,完成了所給任務(wù)的數(shù)據(jù)分析,并給出了相應(yīng)的Python代碼。

而這個交互過程也告訴我們,如果給模型的數(shù)據(jù)表格并不匹配、比較模糊,模型表現(xiàn)不盡如人意時,也不要放棄。通過互動,模型就很可能給我們驚喜,給出不一樣的數(shù)據(jù)交互體驗。

下面就是一個更難的任務(wù),我們把F1歷史上所有車手、車隊、比賽、賽道、引擎制造商等等信息,導(dǎo)入數(shù)據(jù)庫文件中,這個數(shù)據(jù)量是非常龐大的。

然后問模型:F1當(dāng)中總共有多少車手?可以交叉表格進行計算。

這個任務(wù),同樣難度非常大,因為在所有字段中,沒有任何一個是中文的。

最終,辦公小浣熊用模糊的匹配,找到了相對應(yīng)的信息——901位車手,這個答案完全正確!

在大模型產(chǎn)品中,辦公小浣熊的這個表現(xiàn),堪稱高手中的高手。

在這個過程中,模型正是通過交互模式迭代的邏輯,多次查詢了不同的表頭,最終給出了能讓我們理解的信息。

再換一個問題,「有哪些車手獲得總冠軍?并按獲獎次數(shù)從高到低繪制柱狀圖」。

最終,模型整理出:獲得最多總冠軍的車手是漢密爾頓和舒馬赫。

接下來,我們來看看它能不能從不同維度,統(tǒng)計出漢密爾頓和舒馬赫的獲獎情況。

辦公小浣熊畫了一個雷達圖,清晰呈現(xiàn)出兩人桿位數(shù)、圈數(shù)、領(lǐng)獎臺數(shù)、勝利數(shù)等各維度的能力,漢密爾頓的次數(shù)還是略高于舒馬赫。

在這個真實的數(shù)據(jù)應(yīng)用場景中,通過交互方式對復(fù)雜表格實現(xiàn)了聯(lián)動,日日新5.0表現(xiàn)出的強大推理能力,令人印象著實深刻。

下面,再來一個同樣高難度的市場采購的案例。

上傳「2024年新增供應(yīng)商相關(guān)信息」文檔之后,要求它整合到一個表格中,并要求表頭以列出供應(yīng)商分類、供應(yīng)商名稱、產(chǎn)品名稱...列出。

辦公小浣熊立刻給出了一個完整、清晰的表格總結(jié)版。

甚至,它還可以為你生成一個可視化的柱狀圖,將IT類、固資類、營銷類、行政類費用直觀地呈現(xiàn)出來。

包括熱力圖這類圖表生成,它也可以拿捏。

圖片

此外,我們還可以一并上傳多個文檔,讓辦公小浣熊繼續(xù)完成要求的任務(wù)。

首先它給出了可查閱的代碼,最后生成了不同類別需要采購的數(shù)據(jù)表格,一看即明了。

圖片

一通測試下來,小編的感慨就是:能用上如此高效的數(shù)據(jù)分析、總結(jié)辦公神器,真是每位打工人的福音。

并且,它還是免費的!

打工神器Part 2:文檔大模型

另一個鮮明體現(xiàn)出日日新5.0能力的產(chǎn)品,就是商量-文檔大模型。

據(jù)說,除了表格數(shù)據(jù)分析外,在長文本處理這個場景下,模型的能力也是一絕。

那我們就要來上難度了:丟給它一堆數(shù)學(xué)試卷,要求它從中找出一道解一元一次方程的解答題。

很快,它不僅從「小學(xué)數(shù)學(xué)試卷」的第五部分找到了對應(yīng)的題型,甚至還麻溜地給出了解題過程。

圖片

我們還可以對它要求,再幫忙出一道類似的題目,但題型得是選擇題。

它不光給出了題干,還順便給出了正確答案和解題步驟。

圖片

再比如,上傳一份小學(xué)試卷,讓文檔大模型幫你以小學(xué)生的理解力,去分析其中的一道應(yīng)用題。

圖片

它可以像一位耐心的老師,指導(dǎo)學(xué)生做題一樣,從步驟1、2、3詳細地分析了縝密的解題過程,并給出了答案。

這樣的AI老師,有誰不愛?

圖片

圖片

然后,文檔大模型還可以是「出題機」,能給出一道類似的題目,可以充分鍛煉自己舉一反三的能力。

圖片

你還可以將自己做完試題的結(jié)果,告訴它,讓它為你打分。

顯然,8.4 ÷ 0.4 = 2.1答案不正確,正解應(yīng)該是21。

圖片

就著這個文檔,你可以無限提問。

文檔大模型在題目幾乎糊在一塊兒的頁面中,不僅能準(zhǔn)確識別你想要的題目,還能悉心給出解答。

給它上傳一份唐詩三百首和宋詞三百首,我們就可以根據(jù)這些文件提問了!

圖片

比如,找出描寫月亮的詩詞。

它迅速找出了《靜夜思》《望月懷遠》《水調(diào)歌頭.丙辰中秋》等作品。

圖片

下面,我們還可以來一個拔高性的提問:月亮在唐詩和宋詞中的內(nèi)涵有哪些異同點?

它回答道:相同點在于都是情感寄托、時光流轉(zhuǎn)的象征和美的象征,不同點就在于表現(xiàn)手法、情感深度和文化背景的不同。

圖片

要問小編每天起早貪黑地辛苦打工,最愛聽到的詞是啥?大家異口同聲的三個字就是——

10W+!

10w+的文章,到底有哪些套路呢?讓文檔大模型幫我們來分析一下。

以下是五篇10w+公眾號爆款文章(沒錯,看名字就知道了)。

圖片

讓我們把它們一次性扔給文檔大模型。首先,它可以幫我們總結(jié)出每篇文章的摘要。

互聯(lián)網(wǎng)文章千千萬,為什么偏偏是它們成了爆款?

文檔大模型分析后總結(jié)道:貼近生活的真實故事,一下子就讓讀者找到了自己的影子,產(chǎn)生了強烈的情感連接。

挖掘出人類共通的情感體驗,再提供不同的觀察視角,就會讓文章有較高的思考價值。

所以,根據(jù)上述經(jīng)驗,我們?nèi)绾闻谥瞥鲱愃频谋钅??文檔大模型提供了以下思路——

疫情下的親子關(guān)系新常態(tài);遠程工作時代的職場媽媽;數(shù)字斷舍離;老錢風(fēng)到新錢風(fēng);人工智能時代的職業(yè)轉(zhuǎn)型之路……

好家伙,這些命題聽起來個個都很吸睛,已經(jīng)忍不住想看了!下一步,就是碼出幾千字,篇篇十萬加,走上人生巔峰了。

文檔大模型這種超強的文本分析能力,甚至可以為文史哲的同學(xué)們寫嚴肅論文提供思路。

比如,《論語》和《道德經(jīng)》關(guān)于「德」的觀點,有何異同?

文檔大模型在咀嚼了長達29頁21638個字的《論語》和14頁7302個字的《道德經(jīng)》后,分析出——

相同點在于,二者都高度重視「德」在個人修養(yǎng)和社會治理中的作用;區(qū)別在于,《論語》中的「德」更多關(guān)聯(lián)到個人,后者還涉及到順應(yīng)自然、無為而治的理念。

如果想深入研究,應(yīng)該閱讀那些參考文章和書籍?文檔大模型列出了相關(guān)領(lǐng)域的經(jīng)典著作。

更厲害的來了,如果把兩個文檔的思想整合,能得到怎樣的啟發(fā)呢?文檔大模型表示,可以從和諧共生的生活哲學(xué)、內(nèi)在修養(yǎng)與外在行為的統(tǒng)一等方面入手。

沿著這個思路深入探討下去,或許就能肝出一篇觀點別具一格的學(xué)術(shù)論文了。

一大波Benchmark襲來

當(dāng)然,除了打工之外,對于各種刁鉆的測試,日日新5.0也沒在怕的。

首先我們來看一張新鮮出爐的小米SU7照片。

因為是隨手抓拍的,車輛本體其實很小。

不過,在日日新5.0加持下的商量,很輕松地就識別出了車型,而且還附上了一波詳細的介紹,非常專業(yè)。

相比之下,其他的模型就直接GG了。

要么是認錯了車,要么連車都沒看到,只識別出了照片的水印。

接下來,向我們走來的,就是日日新5.0大戰(zhàn)「弱智吧」難題。

「只切一刀,如何把四個橘子平均分給四個小朋友?」

商量為了公平起見,只切一刀還是得將四個橘子排成一排。這樣,一刀下去,每個小朋友還是一人一個橘子。

這招真是高明!

接下來,則是一道非?!刚?jīng)」的推理題。

「一個獵人向南走了一英里,再向東走了一英里,然后向北走了一英里,最終回到了出發(fā)點。他看到一只熊并開槍打死了它。這只熊是什么顏色」?

商量一語中的,說出了這道題實際上是——地理謎語。

圖片

因為只有在極點的時候,獵人才能聽起來這么曲折的路程,回到出發(fā)點。

也就是說,這只熊一定是北極熊了。

圖片

5次模型迭代,全面對標(biāo)GPT-4 Turbo

一波測試下來,想必你也對升級后的日日新5.0能力,有了大概的了解。

下圖是一張對行業(yè)里模型的橫評。

注意看,圖中有一個亮點:最近的行業(yè)模型迭代,在純粹知識型能力上提升沒有那么顯著,但在高階推理,尤其是數(shù)學(xué)能力上,有了很大提升。

比如,GPT-3.5到GPT-4的提升有100%之多,而Llama 2到Llama 3,直接提升了400%之多。

這是因為,大部分用來提升數(shù)據(jù)質(zhì)量的能力都構(gòu)建在了推理能力上,并且是合成數(shù)據(jù)的推理。

尤其對于領(lǐng)域應(yīng)用的落地而言,高階推理能力更是成了行業(yè)大模型能力推進的重要指標(biāo)。

日日新5.0在大部分核心測試集指標(biāo)上,都已對標(biāo)甚至超過了GPT-4 Turbo

讓我們重回到這些評測上,不難看出,日日新5.0在語言、知識、推理、數(shù)學(xué)、代碼等能力上,都有了一波明顯的。

而在主流客觀評測上,它已經(jīng)達到甚至超越了GPT-4 Turbo的水平!

正如前文所說,日日新5.0如此之強的能力,靠的就是商湯團隊在模型架構(gòu),以及數(shù)據(jù)配方上的持續(xù)優(yōu)化。

從日日新1.0、到2.0、3.0、4.0,以及今天5.0的發(fā)布,每一次版本重大的迭代,背后核心都是——數(shù)據(jù)的升級。

過去一年里,商湯花了大量時間去完成了語料質(zhì)量的優(yōu)化,搭建了完善的數(shù)據(jù)清洗的鏈條。

對于5.0版本,他們重點關(guān)注了數(shù)據(jù)集中,是否蘊含比較豐富的邏輯。

通過對有高信息密度,邏輯性強的語料給予更高的權(quán)重,并對整體語料進行了高質(zhì)量清洗,從而實現(xiàn)性能提升。

具體來說,商湯在知識層面上,采用了超10T的Token,保證了LLM對客觀知識和世界的初級認知。

除此以外,商湯還合成了數(shù)千億的思維鏈數(shù)據(jù),成為日日新5.0性能提升,對標(biāo)GPT-4 Turbo的關(guān)鍵。x

在內(nèi)部,合成數(shù)據(jù)方式經(jīng)歷了兩次迭代,從最初用GPT-4來合成數(shù)據(jù),過渡到用自己模型中間版本合成數(shù)據(jù),再進行訓(xùn)練的過程。

其中,商湯90%的合成數(shù)據(jù)是自家模型生成的,另外10%的數(shù)據(jù)由世界頂尖LLM生成。

由此,便可以得到非常高質(zhì)量的數(shù)千億合成數(shù)據(jù)。

圖片

這幾天,奧特曼在斯坦福閉門演講中談到,「Scaling Law依舊有效,GPT-5要比GPT-4更強大,GPT-6也遠遠超越GPT-5,我們還沒有到達這條曲線的頂端」。

圖片

也就是說,大模型下一步發(fā)展的空間潛力,將是無窮無盡的。

還真是有點期待日日新6.0的誕生了。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-12-26 08:17:23

微軟GPT-4

2023-12-06 13:50:00

數(shù)據(jù)訓(xùn)練

2024-04-25 16:56:14

GPT-4大模型人工智能

2024-05-21 12:23:17

2024-01-26 08:36:07

OpenAIGPT-4?人工智能

2023-12-17 22:04:04

微軟GPT-4

2024-01-16 12:31:13

OpenAIGLM-4大模型

2023-11-08 13:05:23

AI模型

2023-11-10 09:48:34

2024-04-23 13:37:00

數(shù)據(jù)訓(xùn)練

2023-12-10 15:24:32

AI圣誕

2023-12-25 12:32:28

2023-11-07 11:11:33

OpenAIGPT-4AI大模型

2023-11-07 07:28:58

ChatGPTGPT-4

2023-06-19 08:19:50

2017-04-11 10:49:52

飛魚星

2023-06-05 12:32:48

模型論文

2024-05-21 11:35:48

阿里云通義千問

2024-01-16 07:51:18

Copilot訂閱服務(wù)微軟

2025-04-16 09:35:03

點贊
收藏

51CTO技術(shù)棧公眾號