自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

剛剛,OpenAI勁敵重磅發(fā)布Inflection-2.5!性能媲美GPT-4但計算量僅為40%,高情商應用Pi日活已破百萬

人工智能 新聞
到了2024年,大模型領域還是這么卷。繼世界最強模型Claude 3誕生之后,OpenAI勁敵新升級了Inflection-2.5,僅用40%的計算量,性能竟與GPT-4平起平坐。

真的卷瘋了!

就在剛剛,OpenAI勁敵Inflection發(fā)布了新模型——Inflection-2.5,僅用40%計算量,實現(xiàn)與GPT-4相媲美性能。

圖片

「并駕齊驅(qū)」(neck and neck)

與此同時,與ChatGPT對打的「最具人性化」聊天工具Pi,也得到了新升級模型的加持。

現(xiàn)在,Pi已經(jīng)達到了百萬日活,不僅擁有世界一流的智商,還具有獨特的親和力和好奇心。

在評估模型能力時,Inflection發(fā)現(xiàn)基準MT-Bench有太多不正確答案,并公開了一個全新的Physics GRE基準供所有人試用。

圖片

若說實現(xiàn)真正的AGI,一定是高情商和強推理能力融為一體,Pi才是這個領域典范。

圖片

不到一周的時間,先是Anthropic憑借Claude 3奪下世界最強大模型鐵座,再到Inflection-2.5的發(fā)布,直接叫板GPT-4。

一個是由7位出走OpenAI的前員工成立初創(chuàng),另一個是由前谷歌DeepMind聯(lián)合創(chuàng)始人創(chuàng)辦的公司,都向GPT-4發(fā)起了終極挑戰(zhàn)。

再加上前段時間Gemini的挑釁,或許GPT-4的時代真要終結了......

為每個人打造一個專屬自己的AI

2023年5月,Inflection發(fā)布了自家第一款產(chǎn)品Pi——具有同理心、實用并且安全的個人AI。

2023年11月,他們又推出了一個全新的基礎模型——Inflection-2,當時號稱是全世界第二的LLM。

Pi具備非凡的情商(EQ)還遠不夠,Inflection現(xiàn)在要為其加料——智力(IQ),推出全新升級版自研模型——Inflection-2.5。

新升級的Inflection-2.5不僅擁有強大的基礎能力——可與GPT-4、Gemini等世界頂尖的LLM相媲美,而且還融入了標志性的個性化特點和獨特的同理心微調(diào)。

值得一提的是,Inflection-2.5在實現(xiàn)接近GPT-4的性能的同時,訓練所需的計算量竟然只有GPT-4的40%!

從今天起,所有Pi的用戶都可以通過pi.ai網(wǎng)站、iOS、Android或桌面應用程序體驗到Inflection-2.5。

此外,在這次升級中,Pi還加入了世界級的「實時網(wǎng)絡搜索功能」,確保用戶能夠獲取到高質(zhì)量的最新新聞和信息。

百萬日活,用戶粘性極高

目前,Inflection每天有一百萬活躍用戶,每月有六百萬活躍用戶。

其中,每周有大約60%的用戶,在與Pi交流后會在下周回來繼續(xù)交流,用戶粘性明顯高于其他競品。

這些用戶與Pi的互動信息已經(jīng)超過了四十億條,平均對話時長為33分鐘,而每天有十分之一的用戶與Pi的對話時長超過一小時。

隨著Inflection-2.5強大能力的加持,用戶與Pi的對話話題比以往更加廣泛:他們不僅討論最新的時事,還能獲取本地餐廳的推薦、備考生物學考試、草擬商業(yè)計劃、進行編程、準備重要的對話,甚至僅僅是分享和討論自己的興趣愛好。

有網(wǎng)友稱,「Pi是我們?nèi)乙黄鹛剿髟掝}最愛的工具。作為一名情感自由教練,當有人需要肯定、探索和反思時,我非常欣賞Pi的反應。強大的情感清晰度和處理能力」!

還有人認為,Pi能夠給出比Claude更有創(chuàng)意性的答案。

僅用40%的計算量,和GPT-4平起平坐

此前,Inflection-1憑借著4%的訓練FLOPs,在多項以智力為核心的任務上,達到了GPT-4水平的72%。

現(xiàn)在,全新升級的Inflection-2.5,更是在40%訓練FLOPs的情況下,性能超過了GPT-4的94%。

可以看到嗎,Inflection-2.5在所有領域都有顯著的提升,尤其是在科學、技術、工程和數(shù)學等STEM領域的進步最為突出。

在MMLU基準測試上,Inflection-2.5相比于Inflection-1展現(xiàn)出了巨大的進步。

在另一個極端困難的專家級基準測試GPQA Diamond中,Inflection-2.5的表現(xiàn)也非常出色。

相比于GPT-4,分差只有不到2%。

接下來,是兩項STEM領域的考試成績:匈牙利數(shù)學考試和物理GRE考試——后者是一項物理學領域的研究生入學測試。

可以看到,在maj@8的評分標準下,Inflection-2.5的表現(xiàn)達到了所有參考人群的第85百分位,在maj@32的評分標準下,其成績幾乎拿到了95百分位的高分。

當然,GPT-4還是更勝一籌,在maj@8評分標準下就拿到了97百分位。

在BIG-Bench-Hard測試中,Inflection-2.5比初代Inflection-1提升了超過10%,距離GPT-4只有0.9%之遙。

值得一提,這是BIG-Bench測試集中,能對LLM構成較大挑戰(zhàn)的一部分問題。

不過,在進行MT-Bench基準評測的過程中,團隊發(fā)現(xiàn),在涉及推理、數(shù)學和編程的類別中,竟然有將近25%的題目存在著參考答案錯誤或題目前提不合理的情況。

為了讓其他模型也能進行更加客觀的評測,團隊不僅修正了這些問題,而且還發(fā)布了更新后的數(shù)據(jù)集版本。

在修正之后的數(shù)據(jù)集上,Inflection-2.5的表現(xiàn)會更加符合基于其他基準測試所預期的結果。

而這個結果也表明,準確和合理的題目設計對于評估模型的性能至關重要。

從下面的數(shù)據(jù)對比中可以看到,Inflection-2.5在數(shù)學和編程方面的能力,相比起初代Inflection-1有了顯著的提升。

但相比GPT-4來說,還有很長一段路要走——86.3比92.0;43.1比52.9。

在MBPP+和HumanEval+這兩個測試編程性能的數(shù)據(jù)集上,Inflection-2.5也比初代有著明顯的提升。

但同樣的,與GPT-4還有不小的差距。

在涉及常識判斷和科學知識的HellaSwag和ARC-C基準測試上,Inflection-2.5都展示出了卓越的性能。

不過,由于網(wǎng)絡信息檢索的使用(注意,上述測試并未涉及網(wǎng)絡檢索)、特定的少樣本提示方式以及其他一些實際應用時的差異,用戶的實際體驗可能會有細微的不同。

簡單來說,Inflection-2.5不僅繼續(xù)保持了Pi那獨一無二、友好的特性和高安全標準,它還在多個方面變得更加實用和有幫助。

不過,由于網(wǎng)絡信息檢索的使用(上述測試并未涉及網(wǎng)絡檢索)、特定的少樣本提示方式以及其他一些實際應用時的差異,用戶的實際體驗可能會有細微的不同。

MT-Bench問題修正

書接上文,根據(jù)Inflection的調(diào)查,MT-Bench在涉及邏輯推理、數(shù)學計算和編程技巧的問題中,大約有25%的案例中,原始答案存在錯誤或基于的假設有漏洞。

下面,就讓我們一起來看看兩個真實的案例:

問題#104:

David有三個姐妹。她們每個人都有一個哥哥。請問David有多少個哥哥?

GPT-4參考答案:

David只有一個哥哥。

修正的答案:

David自己就是他三個姐妹的哥哥,因此他沒有其他哥哥。

問題#111:

一個三角形的頂點分別位于點(0, 0),(-1, 1),和(3, 3)。求這個三角形的面積。

GPT-4參考答案:

要計算這個三角形的面積,我們可以應用用于坐標點A(x1, y1),B(x2, y2),和C(x3, y3)的三角形面積公式:

Area = (1/2) * |(x1(y2 - y3) + x2(y3 - y1) + x3(y1 - y2))|

在這個例子中,坐標分別是A(0, 0),B(-1, 1),和C(3, 3)。將這些值代入公式計算,我們得到:

Area = (1/2) * |(0(1 - 3) + (-1)(3 - 0) + 3(0 - 1))|

Area = (1/2) * |(-0 + 3 - 3)|

Area = (1/2) * |0|

因此,面積計算結果為0,暗示這三個點共線,實際上并未形成三角形。

修正的答案:

面積是3。

物理GRE真題

理學專業(yè)學生申請研究生時常見的入學考試材料。

為了更好地測試模型,Inflection提供了四套經(jīng)過處理的物理學GRE考試試卷:

- physics_gre_scored.jsonl:試卷GR8677

- physics_gre.jsonl:試卷GR9277,GR9677和GR0177

其中,每份試卷包括以下信息:

- input: 考題內(nèi)容

- target_scores: 正確答案

- has_image: 考題是否包含圖片

在物理學GRE考試中,每個選對的題目得1分,每選錯一個題目扣0.25分。值得注意的是,測評僅考慮不包含圖片的題目。

在計算總分時,采取以下方式:Raw_Score = Percentage_Correct - 0.25 * (1 - Percentage_Correct)

責任編輯:張燕妮 來源: 新智元
相關推薦

2024-03-08 12:35:27

AI模型

2023-03-16 17:28:59

技術AI

2025-02-28 08:47:00

2024-09-09 09:40:00

OpenAIGPT-4

2024-02-01 14:56:13

GPT-4開源模型

2022-01-05 10:33:56

開發(fā)者技能DeepMind

2024-04-10 14:07:00

數(shù)據(jù)AI

2025-04-15 07:41:18

2025-02-28 07:07:43

2023-04-09 16:17:05

ChatGPT人工智能

2023-12-09 13:24:40

OpenAIChatGPT人工智能

2023-07-07 09:32:57

GPT-4OpenAI

2024-04-23 13:37:00

數(shù)據(jù)訓練

2024-04-07 07:36:30

OpenAIGPT-4大型語言模型

2023-12-17 22:04:04

微軟GPT-4

2023-08-06 08:06:30

OpenAIChatGPTGPT-4

2024-05-28 14:40:00

2024-06-28 12:31:22

2023-06-08 07:12:13

OpenAIGPT代碼

2023-11-01 19:03:58

GPT-4
點贊
收藏

51CTO技術棧公眾號