自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

GPT-4o成全球網(wǎng)友新玩具,秒秒鐘紙質(zhì)原型轉(zhuǎn)錄初始HTML,網(wǎng)友:谷歌你是一點(diǎn)流量攤不上啊

人工智能
在一年一度的谷歌 I/O 開發(fā)者大會(huì)前24小時(shí),OpenAI突襲發(fā)布了GPT-4o?!皁”是Omni的縮寫,意為“全能”。敢起這么個(gè)名字,是因?yàn)镚PT-4o接受文字、音頻、圖像的任意組合作為輸入,并生成文字、音頻、圖像輸出。

好啊,不愧是OpenAI最新旗艦,打開各個(gè)社交軟件,GPT-4o的上手測試都唰唰唰往我首頁推。

請(qǐng)!看!

這,就是用上GPT-4o,花不到30s時(shí)間,通過單個(gè)prompt把一個(gè)電子表格中的內(nèi)容生成了完整的圖表和統(tǒng)計(jì)分析。

在過去,在Excel里做這玩意兒,不得花咱打工人好一陣子時(shí)間?

而下面這張圖,是網(wǎng)友花了不到20s,用GPT-4o創(chuàng)建出的一張四腿桌子的3D模型的STL文件。

圖片

牛哇牛哇!

畢竟GPT-4o能力橫跨聽、說、看,主要是,它還免費(fèi)??!

就跟網(wǎng)友總結(jié)的一樣,現(xiàn)在,每個(gè)用戶都可以通過AI和簡單的Prompt來生成非常了不起的東西。

不過,關(guān)于“如何生成復(fù)雜結(jié)構(gòu)的東西”,還需要再摸索摸索。

一起來看,網(wǎng)友們都在怎么忘我地狂玩兒GPT-4o吧——

狂玩GPT-4o

在一年一度的谷歌 I/O 開發(fā)者大會(huì)前24小時(shí),OpenAI突襲發(fā)布了GPT-4o。

“o”是Omni的縮寫,意為“全能”。

敢起這么個(gè)名字,是因?yàn)镚PT-4o接受文字、音頻、圖像的任意組合作為輸入,并生成文字、音頻、圖像輸出。

在5月14日的OpenAI官方演示中,用起來非常絲滑,甚至響應(yīng)音頻輸入的速度趕上了人類。

抱著“我不信除非我試試”的態(tài)度,網(wǎng)友已經(jīng)玩瘋了。

愛因斯坦謎題

先聲明,這個(gè)所謂的“愛因斯坦謎題”,很像咱小時(shí)候做的奧數(shù)題,是用來測試大模型邏輯能力的。

題目背景是這樣的:

在一條街上,有五座房子,噴了五種顏色。每座房子里住著不同國籍的人。每個(gè)人喝不同的飲料,抽不同品牌的香煙,養(yǎng)不同的寵物。

  • 提示:
    英國人住紅色房子。
  • 瑞典人養(yǎng)狗。
  • 丹麥人喝茶。
  • 綠色房子在白色房子左面隔壁。
  • 綠色房子主人喝咖啡。
  • 抽Pall Mall香煙的人養(yǎng)鳥。
  • 黃色房子主人抽Dun Hill香煙。
  • 住在中間房子的人喝牛奶。
  • 挪威人住第一間房。
  • 抽 Blends香煙的人住在養(yǎng)貓的人隔壁。
  • 養(yǎng)馬的人住抽Dun Hill香煙的人隔壁。
  • 抽 Blue Master的人喝啤酒。
  • 德國人抽 Prince香煙。
  • 挪威人住藍(lán)色房子隔壁。
  • 抽 Blends香煙的人有一個(gè)喝水的鄰居。

問題來了,誰養(yǎng)魚?誰住藍(lán)色房子?

前幾天,網(wǎng)友在lmsys測試i-am-gpt2-bot(就是在大模型競技場大殺特殺的神秘GPT-2)時(shí),還沒辦法解答愛因斯坦謎題——而且也沒有任何其他AI可以搞定這個(gè)問題。

但上手一試,GPT-4o光速回答對(duì)了。

大家可以自己動(dòng)手測一下(手動(dòng)狗頭)。

自動(dòng)選股器

前腳剛看到OpenAI說了,GPT不能用來選股,沒有啥參考意義。

后腳就有網(wǎng)友在推特上發(fā)布了實(shí)現(xiàn)的GPT-4o自動(dòng)選股器,并配文:強(qiáng)得可怕!

具體來說,他用GPT-4o實(shí)現(xiàn)了將兩百多行選股指標(biāo)自動(dòng)改寫成自動(dòng)選股器、輸出圖表和數(shù)據(jù)歸檔。

圖片

△AI生成內(nèi)容,不代表任何投資建議

而且只需1輪交互就能完成較為滿意的效果,效率暴打GPT-4(哦?我揍前代我自己)

據(jù)他說,用GPT-4搞這玩意,需要反反復(fù)復(fù)修改,而且處理100行以上的代碼非常低效。

對(duì)此,網(wǎng)友的評(píng)價(jià)非常精辟:

如果能100%預(yù)測那真的是完美!但如果預(yù)測不對(duì)那不如別預(yù)測……

圖片

紙質(zhì)原型轉(zhuǎn)錄初始HTML

也有網(wǎng)友嘗試?yán)肎PT-4o,把寫在紙上的原型轉(zhuǎn)錄為電腦內(nèi)的初始HTML。

他白紙黑字是這么寫的:

圖片

然后把這張圖喂給了GPT-4o。

然后GPT-4o說:

圖片

然后就得到了:

圖片

網(wǎng)友本人對(duì)吐出的這個(gè)結(jié)果非常滿意,他激動(dòng)地在推特寫下:

就像我們正在進(jìn)行一場超越世界的對(duì)話,這真是Soooooo Cool~

圖片

不止他一個(gè),另外有網(wǎng)友在Hacker News上表示,自己也能用GPT各個(gè)版本將原始動(dòng)態(tài)數(shù)據(jù)動(dòng)態(tài)轉(zhuǎn)換為漂亮的HTML布局。

這樣來制作低流量頁面,如更改/審核日志,能節(jié)省大量的開發(fā)時(shí)間,還能在數(shù)據(jù)結(jié)構(gòu)發(fā)生變化時(shí)保持HTML更新。

不過嘗試并不是回回奏效,因?yàn)镚PT-4-Turbo有時(shí)幾乎完全忽略了上下文和說明。

OCR

不過,有網(wǎng)友表示對(duì)GPT-4o的OCR能力也有點(diǎn)牛氣在身上的

事情是這樣的,他扔給了GPT-4o一張這個(gè)圖。

怎么說呢,確實(shí)密密麻麻,公司Logo又有圖像又有文字,人類肉眼看都有點(diǎn)吃力。

圖片

GPT-4o的結(jié)果把測試者本人驚到了,他說:“它不斷吐出連人類都難以識(shí)別的圖中的內(nèi)容?!?/p>

圍觀網(wǎng)友紛紛跟帖留言,不外乎是“將來,使用它的人和不使用它的人之間的工作似乎會(huì)有很大的區(qū)別”“如果您跟不上先進(jìn)技術(shù),您就會(huì)落后”之類的話。

拳打Google,但被馬斯克腳踢?

OpenAI出手再次驚艷世界,谷歌果然坐不住了。

在今日凌晨的發(fā)布會(huì)上,谷歌帶來了Project Astra,它家的最新大模型產(chǎn)品。

和GPT-4o一樣,Project Astra能寫會(huì)聽會(huì)看會(huì)說,也能幾乎沒有延遲地和人類暢快交流。

不過英偉達(dá)科學(xué)家Jim Fan老師率先出來點(diǎn)評(píng)了一番:

首先,谷歌看起來似乎是多模態(tài)輸入,但不是多模態(tài)輸出。

谷歌旗下的圖像生成模型Imagen-3以及音樂生成模型仍然作為獨(dú)立組件,沒有融合到當(dāng)中去。

他提到自己的觀點(diǎn),那就是融合所有模態(tài)于一體是不可避免的未來趨勢,當(dāng)然了,還有一些他認(rèn)為不可缺失的細(xì)節(jié),具體如下。

  • 啟用諸如“使用更機(jī)械化的聲音”“說話速度加快2倍”“迭代編輯此圖像”和“生成一致的漫畫”等任務(wù)選項(xiàng);
  • 不會(huì)丟失跨模式的信息,例如情感和背景聲音。
  • 開辟新的上下文功能,您可以教模型通過少量示例以新穎的方式組合不同的感官。

對(duì)比之下,GPT-4o做得不是完美,但大體上是正確的。

而谷歌呢?

Jim Fan老師不愧是老沖浪選手了,他說,谷歌做對(duì)的一件事是,“他們終于開始努力把AI集成到搜索框中”。

圖片

還有網(wǎng)友真上手了谷歌新鮮出爐的Project Astra,發(fā)了個(gè)橫向評(píng)測視頻:

內(nèi)容我們聽了,大體是說,他個(gè)人感覺谷歌發(fā)布會(huì)上的Demo展示環(huán)節(jié)不太好,他自己和另外三個(gè)人去攤位試玩了Project Astra,也只能玩兒2分鐘左右。

玩下來的感受,就是大寫的“谷歌打的是沒準(zhǔn)備好的仗”。

排在他前面的測試玩家讓Project Astra對(duì)著一個(gè)事物講一個(gè)故事,Astra信誓旦旦答應(yīng)說好,然后就沒有然后了……

不過讓Astra識(shí)別畫出來的帆船和笑臉,它還是能夠勝任的。

相比較而言,他認(rèn)為GPT-4o更絲滑,不過因?yàn)樗€沒自己上手過GPT-4o,所以不多妄作評(píng)價(jià)了。

大家的試玩狂歡中,還有一個(gè)戲劇性的事情。

那就是馬斯克旗下大模型公司xAI的Grok,正確回答了Ilya離開公司的問題。

而OpenAI自己的大模型未能提供正確響應(yīng)。

圖片

網(wǎng)友故意鄭重其事地宣布:

突發(fā)事件!xAI的Grok 1.0擊敗OpenAI新推出的GPT-4o。

當(dāng)然了,這必須歸功于xAI背后擁有推特(X)上的實(shí)時(shí)數(shù)據(jù)/帖子/新聞,沒有什么比這更快、更豐富、更真實(shí)了。

還有個(gè)有意思的是,Hacker News上大家發(fā)起了一個(gè)神奇的討論。

有人亮出了一個(gè)鏈接,跳轉(zhuǎn)的是一個(gè)2021年發(fā)布的打油詩數(shù)據(jù)集Needle in a Needlestack(只能說世界之大無奇不有),稱他堅(jiān)信GPT-4o訓(xùn)練時(shí),用了里面的數(shù)據(jù),

圖片

事情的起因是這樣的——

Needle in a Needlestack用于衡量大模型對(duì)上下文窗口中的信息的關(guān)注程度,包含數(shù)千首打油詩的提示,該提示詢問有關(guān)特定位置的一首打油詩的問題。

簡單來說就是一個(gè)有點(diǎn)意思版本的大海撈針。

不過目前而言,還沒有誰家的大模型在這個(gè)測試中表現(xiàn)驚艷。

圖片

然而,GPT-4o卻取得了突破!

圖片

這是一個(gè)接近完美的表現(xiàn)。

于是網(wǎng)友就開始激情討論,OpenAI做了啥,讓GPT-4o的表現(xiàn)從GPT-4-Turbo大幅躍升。

最主要的觀點(diǎn)就如貼主所說,絕對(duì)是OpenAI用了Needle in a Needlestack來訓(xùn)練自己,不然數(shù)據(jù)集背后團(tuán)隊(duì)出來解釋解釋,是怎么檢查并確保數(shù)據(jù)集沒有被任何大模型用來作訓(xùn)練呢?

當(dāng)然了,也有人發(fā)出了此前已經(jīng)有的聲音(我們?cè)?月參加月之暗面發(fā)布會(huì),以及采訪上海人工智能實(shí)驗(yàn)室的領(lǐng)軍科學(xué)家林達(dá)華都聽過類似的發(fā)言):

大海撈針測試對(duì)模型實(shí)際的長上下文功能的了解非常有限。

它之所以被廣泛使用,是因?yàn)樵缙诘哪P驮谶@方面表現(xiàn)很糟糕,而且很容易測試。

事實(shí)上,大多數(shù)最新模型現(xiàn)在在這一項(xiàng)任務(wù)上做得相當(dāng)不錯(cuò)。

不過這次多了一點(diǎn)信息增量,不少人認(rèn)為,大模型在執(zhí)行超過32k tokens的長上下文時(shí),進(jìn)行任何復(fù)雜操作的能力都會(huì)大幅下降。

圖片

最后話說回來,OpenAI真的是人干事?

在谷歌 I/O 開發(fā)者大會(huì)前貼臉輸出GPT新功能,等谷歌發(fā)布會(huì)結(jié)束立馬又帶來了重磅消息,沉寂半年之久的OpenAI首席科學(xué)家Ilya,真的如眾人猜測那樣官宣離職。

好消息:

Ilya還活著。

圖片

壞消息:

谷歌,你是一點(diǎn)流量都攤不上啊……

責(zé)任編輯:姜華 來源: 量子位
相關(guān)推薦

2025-03-31 08:50:00

AI生成模型

2025-03-31 09:27:03

2024-05-16 12:38:05

GPT-4o圖像方式

2024-03-05 11:17:40

AI模型

2024-05-16 13:51:00

AI

2025-04-29 16:07:53

GPT-4oAI模型

2024-08-09 12:50:02

2024-05-21 12:23:17

2024-06-21 09:51:17

2024-08-14 09:13:28

2024-08-14 12:54:46

2024-06-27 12:45:30

2024-11-06 15:20:00

2024-06-05 08:29:35

2024-07-19 14:08:02

2024-06-11 07:03:00

大模型開源Qwen2

2024-05-14 11:29:15

2024-08-02 14:58:00

2024-06-21 09:58:38

2024-05-14 19:16:52

ChatGPTGPT-4oOpenAI
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)