自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Meta AI的首席執(zhí)行官LeCun:不要從事LLM工作

人工智能
盡管LeCun反對一股腦全部研究LLM,但Transformer訓(xùn)練模型仍在不斷發(fā)展。AI/ML顧問Dan Hou談到了GPT-4o,并強調(diào)了其訓(xùn)練模型。

出品 | 51CTO技術(shù)棧(微信號:blog51cto)

在巴黎舉行的初創(chuàng)企業(yè)年度技術(shù)大會VivaTech上,Meta AI的首席執(zhí)行官Yann LeCun建議希望在AI生態(tài)系統(tǒng)中工作的學(xué)生不要從事LLM(大型語言模型)方面的工作。

“如果你是對構(gòu)建下一代AI系統(tǒng)感興趣的學(xué)生,請不要從事LLM方面的工作。這是大公司的事情,你們無法對此有所貢獻,”LeCun在會議上表示。

他還說,人們應(yīng)該開發(fā)能夠克服大型語言模型局限性的下一代AI系統(tǒng)。

1.遠離LLM

有趣的是,關(guān)于LLM(大型語言模型)替代品的討論已經(jīng)持續(xù)了一段時間。最近,Devika的年輕創(chuàng)始人Mufeed VH(Devika是Devin的替代品)談到了人們應(yīng)該如何遠離Transformer模型并開始構(gòu)建新的架構(gòu)。

“每個人都在做同樣的事情,但如果我們專注于不同的架構(gòu),比如RMKV(一種RNN架構(gòu)),那將是非常好的,”Mufeed說,他接著解釋了這種特定架構(gòu)的無限上下文窗口和推理能力。

他還認為,通過這種方法,甚至有可能構(gòu)建出與GPT-4一樣令人印象深刻的東西。

圖片圖片

2.但是,LLM 仍在不斷進步

盡管LeCun反對一股腦全部研究LLM,但Transformer訓(xùn)練模型仍在不斷發(fā)展。AI/ML顧問Dan Hou談到了GPT-4o,并強調(diào)了其訓(xùn)練模型。

當文本被認為是所有復(fù)雜模型的基礎(chǔ)時,GPT-4o被設(shè)計用來原生地理解視頻和音頻。這影響了未來版本可以訓(xùn)練的數(shù)據(jù)量。

“AI能變得多聰明?有了原生的多模態(tài)架構(gòu),我猜測答案是非常、非常好,”Hou說。

此外,Sam Altman在最近的一次采訪中也談到了數(shù)據(jù)將不再是問題,從而解決了訓(xùn)練LLM的擔憂??梢栽囅?,如果數(shù)據(jù)問題能夠得以解決,LLM的尺度定律將繼續(xù)存在。

想了解更多AIGC的內(nèi)容,請訪問:

51CTO AI.x社區(qū)

http://www.scjtxx.cn/aigc/

責任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2022-08-08 10:49:31

首席信息官數(shù)據(jù)經(jīng)濟軟件開發(fā)

2023-06-28 15:53:05

數(shù)字化轉(zhuǎn)型首席信息官

2010-12-22 12:23:30

CRN熊貓安全

2009-02-23 09:56:25

MySpace首席執(zhí)行官

2021-12-20 15:00:59

Veeam

2016-01-05 11:00:02

2022-06-01 10:21:04

首席執(zhí)行官數(shù)字化轉(zhuǎn)型

2013-10-15 15:50:44

紅帽

2023-10-08 11:26:41

AI微軟

2023-02-17 10:53:21

首席信息官數(shù)字風險

2024-09-19 10:54:04

2013-01-17 09:46:27

博科Lloyd CarneSDN

2013-10-15 09:37:56

微軟首席執(zhí)行官鮑爾默

2019-07-22 21:25:46

SUSE開源軟件

2011-07-29 08:56:21

iPadEA游戲

2020-11-11 14:01:09

首席信息官首席執(zhí)行官Gartner

2022-12-02 13:37:11

DevOps首席執(zhí)行官

2018-04-09 16:33:07

Riverbed

2021-09-28 09:45:38

AMD芯片短缺工廠

2022-08-17 10:04:01

首席執(zhí)行官業(yè)務(wù)
點贊
收藏

51CTO技術(shù)棧公眾號