自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

驚掉下巴:GPT-4o現(xiàn)場爆改代碼看圖導(dǎo)航!OpenAI曝光LLM路線圖,GPT Next年底發(fā)

人工智能 新聞
全世界的目標(biāo)再次聚焦在巴黎科技活動上的OpenAI。這次,開發(fā)者體驗負(fù)責(zé)人帶來了更多GPT-4o精彩演示,根據(jù)地圖導(dǎo)航,修改代碼驚艷了在場400+位觀眾。不僅如此,OpenAI GPT模型路線圖曝出,網(wǎng)友推算預(yù)計11月發(fā)布。

這幾天,在巴黎舉辦的最大科技活動VivaTech上,OpenAI再次帶來了許多驚喜。

從展示的模型智能進(jìn)化路線圖中,可以確定的是,今年OpenAI一定會發(fā)布新一代旗艦?zāi)P汀?/span>

而且,大概率不會以GPT-5命名,演示中將其稱之為「GPT Next」。

圖片

那么,OpenAI究竟會在2024年哪個月發(fā)布,爆料人Flowers掐指一算——可能在11月。

圖片

以GPT-3和GPT-4的發(fā)布時間等軸劃分

這是OpenAI開發(fā)者體驗負(fù)責(zé)人Romain Huet在長達(dá)38分鐘的演講中,向外界傳達(dá)的一個重要的信息。

圖片

演講現(xiàn)場,Huet主要講了三件事:

- OpenAI是如何走到今天的

- 旗艦?zāi)P虶PT-4o

- OpenAI的下一步和前景

圖片

若說整場演講中,最令人印象深刻的,依舊還是GPT-4o。

Huet現(xiàn)場用ChatGPT Mac版程序,讓GPT-4o向在場的400多位觀眾打招呼。

甚至還要求讓它用法語,更熱情地問好,通過呈現(xiàn)不同的語音語調(diào),展現(xiàn)出GPT-4o強(qiáng)大的語音能力。

即便在打招呼過程中,Huet也可以隨時打斷對話,與人類真正交流互動的方式幾乎無異。

另外,Huet還讓GPT-4o實時將英語翻譯成法語,引得臺下公眾一陣鼓掌歡呼。

更讓人驚掉下巴的是,Huet打開攝像頭,向GPT-4o展示了一張凱旋門和巴黎鐵塔的草圖,它準(zhǔn)確識別出巴黎的標(biāo)志性地標(biāo)。

圖片

接下來,他又向其展示了一張地圖,并詢問如何從凡爾賽門導(dǎo)航到草圖中的地方。

圖片

沒想到,ChatGPT不假思索地提供了詳細(xì)的火車路線,而且包括換乘和??空镜木唧w信息。


,時長01:23

有網(wǎng)友表示,「他們30分鐘的演示直接扼殺了數(shù)十家初創(chuàng)公司」。

圖片

除此以外,Romain Huet的精彩演講,還有哪些亮點?

「全能」GPT-4o驚艷全場

先來看看最新的第二趴,Huet主要強(qiáng)調(diào)了旗艦?zāi)P虶PT-4o的三個重點。

首先它是「多模態(tài)」的,幾乎沒有延遲,堪稱為一個真正的「全能模型」(omni model)。

圖片

其次,在大模型競技場中,經(jīng)過盲測后的GPT-4o,取得了最新的SOTA。

圖片

最后,GPT-4o的API價格還是GPT-4 Turbo的一半,而速率大大提升的2倍。

圖片

接下來,Huet顯示做了一個文章開篇介紹的GPT-4o演示。

作為ChatGPT的基操,讀代碼、debug這個環(huán)節(jié)也是必不可少的。Huet本人也做了現(xiàn)場直播演示,讓GPT-4o加持的ChatGPT Mac版去修復(fù)bug。

他將一段復(fù)制給ChatGPT,然后先讓其首先簡單地描述下代碼的內(nèi)容:

代碼是一個名為Discover的React組件,它渲染一個Discover卡片組件網(wǎng)格,每個卡片的數(shù)據(jù)從trips.json文件中獲取。

圖片

然后,Huet將自己的屏幕分享給ChatGPT,并詢問能否讓這個頁面更具響應(yīng)性。

圖片

接下來,就是ChatGPT放大招的時候了。

你可以使用Tailwind CSS的響應(yīng)式設(shè)計功能,根據(jù)屏幕大小調(diào)整網(wǎng)格中的列數(shù)。這是修改網(wǎng)格布局的快速方法。Div的顏色和布局方案,設(shè)置網(wǎng)格列數(shù)為1,從0到4列。

不過,Huet表示,其實我就是在使用Tailwind去處理,繼續(xù)問道,「那么你能告訴我屬性是什么嗎」?

ChatGPT答道,「對于Tailwind,你可以調(diào)整網(wǎng)格響應(yīng)列,以使網(wǎng)格響應(yīng)」。

以下是設(shè)置方法:網(wǎng)格列數(shù)將根據(jù)當(dāng)前屏幕大小進(jìn)行控制。所以你不需要太多列來填充網(wǎng)格,這是大多數(shù)響應(yīng)設(shè)計的經(jīng)驗法則。默認(rèn)情況下設(shè)置1列,小屏幕設(shè)置2列.

Huet表示,「我明白了。所以我應(yīng)該在小屏幕上設(shè)置一列,對嗎?然后隨著屏幕變大,增加列數(shù)」?

圖片

ChatGPT確認(rèn)道,「沒錯。你可以根據(jù)不同的屏幕尺寸調(diào)整列數(shù)。例如,默認(rèn)情況下設(shè)置一列,sm:-grid-cols-2設(shè)置小屏幕及更大屏幕為兩列,md:-grid-cols-3設(shè)置中等屏幕及更大屏幕為三列,等等」。

最后,Huet按著ChatGPT要求修改過后,再讓其看看是否正確。

ChatGPT給出了回答,「完美」!

這些演示,向所有人展示了GPT-4o相較于以往模型,展現(xiàn)出的強(qiáng)大能力,能夠在編碼問題上實時查看屏幕,幫你解決問題。

而且,GPT-4o生成文本的速度,完全碾壓了GPT-4 Turbo。

圖片

ChatGPT為Sora視頻配音,夢幻聯(lián)動

見識過GPT-4o的厲害之后,Huet還現(xiàn)場演示了一段ChatGPT和Sora夢幻聯(lián)動的例子。

首先是準(zhǔn)備工作——輸入Prompt,坐等Sora把視頻生成出來,再配上背景音,一段「巴黎之旅」的視頻就做好了。

接下來,再讓ChatGPT根據(jù)視頻中的關(guān)鍵幀,生成一段介紹。

其中,給到模型的系統(tǒng)提示是這樣的:

你是位歷史教授。你將看到一系列連續(xù)的圖片,它們是一部歷史紀(jì)錄片的一部分。你的任務(wù)是用一種引人入勝且富有信息性的方式描述畫面中的場景。

請為一位語速適中的解說員編寫一份腳本,講述時間不應(yīng)超過45秒。

請將腳本分為2-4個小段落。不要添加任何前綴或描述,僅包括要講述的文字。

圖片

如果想讓視頻更加生動,則可以進(jìn)一步利用OpenAI的「Voice Engine」模型(語音引擎)把之前的文字介紹變成真人配音。

接下來,首先需要向ChatGPT發(fā)送了一段錄制好的語音片段。

我非常高興自己站在VivaTech的舞臺上,并見到了一些非常棒的創(chuàng)始人和開發(fā)者。我很期待向他們展示一些現(xiàn)場demo,以及如何真正地將OpenAI的技術(shù)和模型應(yīng)用到他們自己的產(chǎn)品和業(yè)務(wù)中。

然后ChatGPT基于Huet的語音內(nèi)容,然后為Sora預(yù)先生成的一段巴黎歷史介紹視頻,進(jìn)行了「原聲」配音。

這時,不僅可以用音頻源語言,還可以選擇法語、西班牙語、日語等多種語言,而且音色保持不變。

配好音的視頻,可以針對目標(biāo)語群體進(jìn)行分享,而且,還能為其配上字幕。

網(wǎng)友稱,「OpenAI這個案例向我們展示了,將Sora視頻發(fā)送給ChatGPT獲取腳本,并利用「語音引擎」為其配音,最后將所有模態(tài)內(nèi)容整合到一起」。

圖片

押注GPT大模型,多模態(tài)智能體是重點

接下來,OpenAI下一步大動作會是什么?

Huet稱我們未來將大力投資這四個領(lǐng)域。

圖片

首先是文本智能。

目前,GPT-4、GPT-4o雖是全球最優(yōu)秀的模型,但它們更像是一到二年級的學(xué)生,時不時會犯錯誤。

「我認(rèn)為,也許一兩年后,這些模型將無法與今天的樣子辨認(rèn)」。

Huet繼續(xù)稱,今年OpenAI將計劃在下一代模型上更好地推動這一界限,并提供像逐步函數(shù)一樣的推理改進(jìn)。

也就是,如下這張傳遍全網(wǎng)的路線圖。

圖片

第二,OpenAI要確保模型始終更便宜、更快。

因為,在OpenAI看來,并非每個用例都需要最高水平的智能。

圖片

與此同時,OpenAI還希望確保當(dāng)開發(fā)者想要擴(kuò)展時,能夠提供不同的模型來滿足所有的需求。

在一些真實的工作流中,部分子流程,可能需要更小參數(shù)規(guī)模的模型,或者對延遲更敏感的模型。

圖片

第二個投資領(lǐng)域的最后一部分,OpenAI也是希望能夠幫助開發(fā)者,運(yùn)行異步工作負(fù)載。

比如,幾周前,推出的批處理API。這是一種非常便捷的方式,可以將你的所有請求批量發(fā)送到OpenAI。

這意味著,對于不需要立即響應(yīng)的任務(wù),還將能夠再享受50%的折扣。

圖片

第三,OpenAI還將投資自定義模型。

在未來,不同的組織可能有不同的工作方式,更需要一個可以深入了解自身業(yè)務(wù)的模型。因此,OpenAI未來將會提供一系列微調(diào)的產(chǎn)品,包括簡單微調(diào)API、提供團(tuán)隊幫助,以及讓OpenAI為其訓(xùn)練模型。

圖片

這里,Huet舉了兩個和OpenAI合作的公司,Harvey和SK telecom。

圖片

而對于第四個OpenAI投資的領(lǐng)域,那便是「多模態(tài)智能體」。

「我非常確信,在未來,智能體可能是軟件,以及我們與計算機(jī)交互方式發(fā)生的最大變化」。

圖片

現(xiàn)場,Huet還引用了美國著名程序員Paul Graham曾說過的話。

通常,28歲的程序員比22歲的程序員更具生產(chǎn)力,因為他們擁有更多的經(jīng)驗。但顯然,22歲的程序員現(xiàn)在和28歲的程序員一樣優(yōu)秀,因為他們使用Al時更得心應(yīng)手。

圖片

Huet通過舉例Devin在實際中幫助開發(fā)者解決代碼問題,以及其他案例,去說明智能體真的是當(dāng)今重要的應(yīng)用之一。

圖片

用例翻倍,GPT-4開創(chuàng)無限可能

演講開篇,Huet主要回顧了OpenAI至今已取得的成就。

一開始,他再次重申了,「我們是一家研究型公司,OpenAI的使命是打造有益于全人類的AGI」。

圖片

而目前,全球已經(jīng)有超300萬開發(fā)者使用OpenAI API正創(chuàng)造一些有趣的事情。

圖片

92%的財富500強(qiáng)讓ChatGPT加入工作流,而還有1億的活躍用戶,開發(fā)者們已經(jīng)打造了300萬GPTs。

總之,OpenAI在AI采用率上,是全球領(lǐng)先的。

圖片

ChatGPT發(fā)布之初是靜默的,卻沒想到,給世界帶來了翻天覆地的變化

其實,ChatGPT之前,OpenAI早在2020年打造了GPT-3模型,并為開發(fā)者提供了嘗試?yán)肔LM去構(gòu)建應(yīng)用的體驗。

可以看到,GPT-3的用例已經(jīng)非常廣泛,包括編程助手、代碼審查、搜索和信息檢索、內(nèi)容創(chuàng)造等等。

下圖中右邊展示的是,Huet的個人用例——角色扮演游戲。

圖片

直到2023年GPT-4誕生,開創(chuàng)了一個全新的紀(jì)元。

新模型可以開創(chuàng)盡可能多的無限想象,從GPT-3的8個用例到GPT-4的13個用例,幾乎實現(xiàn)了翻倍增長。

它不僅推理能力得到了大幅提升,還可以像人類一樣,利用「工具」完成多項任務(wù)。

如今,這些能力已經(jīng)得到許多公司的采用,比如下圖中右側(cè)Spotify為用戶創(chuàng)建的獨特的清晨播放列表。

圖片

OpenAI在上周推出的GPT-4o,就像一個魔法層,給GPT-4用例加滿buff。

得益于實時跨音頻、文本、視覺的能力,GPT-4o能夠讓我們以前所未有的方式進(jìn)行交互。

圖片

站在OpenAI巨人的肩膀上,眾多初創(chuàng)公司已經(jīng)在客戶服務(wù)、知識助手、語音服務(wù)、內(nèi)容生成、智能體領(lǐng)域挖掘出的應(yīng)用,遍地開花。

圖片

演講最后,Huet表示,我們的目標(biāo)不是讓你在OpenAI身上花更多的錢,而是用OpenAI建造更多。

圖片

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-05-21 12:23:17

2025-02-13 08:56:12

2024-06-05 08:29:35

2025-03-31 08:50:00

AI生成模型

2024-08-14 14:30:00

AI訓(xùn)練

2024-05-14 11:29:15

2024-08-08 14:27:29

2024-05-15 17:34:15

2024-06-26 09:00:00

2024-09-09 09:40:00

OpenAIGPT-4

2025-03-26 10:21:58

2012-02-22 16:44:44

Flash

2024-05-16 12:38:05

GPT-4o圖像方式

2025-02-03 14:25:40

2024-10-17 13:30:00

2024-07-22 15:13:24

2024-05-14 19:16:52

ChatGPTGPT-4oOpenAI

2025-04-15 08:01:12

2011-08-04 10:34:48

ASP.NET MVC

2025-04-07 00:00:00

OpenAIGPT-4o圖像
點贊
收藏

51CTO技術(shù)棧公眾號