自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

徹底拋棄Transformer,八金剛之一再創(chuàng)業(yè)!聯(lián)手前谷歌Brain大佬創(chuàng)建自然啟發(fā)智能模型

人工智能 新聞
谷歌Transformer八子之一的Llion Jones,同Stability AI主管David Ha一起官宣:成立新公司,拋棄Transformer架構,建立全新自然啟發(fā)智能模型。

今天,Transformer八位作者之一Llion Jones,聯(lián)手前谷歌大腦科學家、Stability AI研究主管David Ha官宣成立新公司——Sakana AI。

這家總部位于東京的初創(chuàng)公司,將要探索一種基于自然啟發(fā)智能的新型基礎模型。

圖片

官網(wǎng)地址:https://sakana.ai/

Sakana這一名字,來源于日語さかな,即為「魚」。

他們的理念是,「讓一群魚聚集在一起,從簡單的規(guī)則中形成一個連貫的實體」。

更進一步,便是進化和集體智慧。

目前來說,Sakana AI仍處于非常早期的階段:沒有構建AI模型,沒有辦公室,也并未透露融資的情況。

不過,無論是公司理念,還是創(chuàng)業(yè)地點的選擇,這家初創(chuàng)公司都透露出一絲另辟蹊徑的意味。

拋棄Transformer,專注新模型

現(xiàn)在各家巨頭的大語言模型都已經(jīng)進化到超強了,為什么兩位創(chuàng)始人還是要做自己的大模型?顯然,他們有自己獨特的想法。

在Johnes和Ha看來,當前大語言模型的局限性在于,它們被設計成了脆弱、不可改變的結構,比如橋梁或建筑物。

相比之下,在自然系統(tǒng)中,是集體智慧在發(fā)揮作用。這個系統(tǒng)對周圍世界的變化非常敏感,會適應環(huán)境,并成為環(huán)境的一部分。

他們希望的正是使用這些進化計算原理構建AI模型,來解決系統(tǒng)的成本和安全性的問題。

David Ha稱,他們在在開發(fā)一種新型的人工智能模型,可以讓機器學習工程師維護和監(jiān)控的工作時間大幅降低。

Sakana AI實驗室并沒有依賴于Jones對Transformer的突破性研究。

人盡皆知,Transformer是OpenAI等科技公司使用的一種機器學習模型,已經(jīng)在生成式AI上取得了巨大的效果。

對于Sakana AI,正如名字所示,聯(lián)合創(chuàng)始人希望創(chuàng)建一種基于「自然啟發(fā)智能」的新型基礎模型。

「自然啟發(fā)的智能」可能聽起來像是60年代斯托納電影中的內容,但這一概念在人工智能研究中有著悠久的歷史。

Jones表示,這個想法是創(chuàng)造能夠學習和搜索解決方案的軟件,而不是必須一步一步地設計的軟件。

像ChatGPT這樣的人工智能模型容易越獄。為了防止這種打擊,開發(fā)?員必須手動更新模型。

Llion Jones和David Ha設想讓他們的模型適應環(huán)境。

比如,Ha之前研究了「permutation-invariant神經(jīng)網(wǎng)絡」,即能夠在困難情況下執(zhí)行任務的人工智能模型。當部分視覺輸入丟失或混亂時,仍舊能在模擬中駕駛汽車。

根據(jù)個人介紹,自然啟發(fā)的智能一直是Ha職業(yè)生涯中的一個主題。

除了在permutation-invariant神經(jīng)網(wǎng)絡方面的工作,他還嘗試研究了世界模型,從周圍環(huán)境中收集數(shù)據(jù),建立?個類似于人類的環(huán)境心理模型。

踏入競爭激烈的戰(zhàn)場

因此,Sakana AI將構建自己的生成式AI模型,用于生成文本、圖像、代碼及其他軟件。

這個賽道上競爭激烈之程度毋庸置疑,包括谷歌、微軟這類巨頭,以及OpenAI、Cohere、Character.ai和Anthropic等初創(chuàng)企業(yè)。

不過,這個領域資金也非常充足。

微軟今年在OpenAI上投資了100億美元,Cohere和Character.ai在過去幾個月中也成功獲得融資,估值分別達到了20億美元和10億美元。

圖片

為什么選擇日本

不過,Sakana AI的總部設在日本,這個創(chuàng)業(yè)地點的選擇多少有些不同尋常。

創(chuàng)始人解釋說,自己已在日本工作多年,之所以選擇東京作為公司總部,部分原因也是因為構建生成式AI軟件的市場競爭太激烈了,尤其是在北美。

而東京擁有高質量的技術基礎設施和受過良好教育的勞動力,這為AI公司的發(fā)展提供了得天獨厚的條件。

「最重要的是,建立一個在非西方社會文化中表現(xiàn)良好的模型,圍繞它訓練數(shù)據(jù),這將成為下一次技術突破的催化劑。」

另外,谷歌和其他公司的人工智能研究人員,最近將注意力集中在將現(xiàn)有技術進行商業(yè)化,這意味著更多前沿研究的空間越來越小。

但為研究而研究是兩位聯(lián)合創(chuàng)始人在Sakana堅持的原則,也是他們決定將公司總部設在東京的原因之一。

兩位創(chuàng)始人

David Ha

David Ha將擔任Sakana AI的CEO。

2016年,David Ha加入谷歌大腦負責機器學習領域的工作。

度過漫長的6年零4個月之后,他于2022年10月加入Stability AI擔任研究主管。

在此之前,他獲得了東京大學的博士學位,以及多倫多大學的學士學位。

有趣的是,今年6月從Stability AI離職之后,David Ha本人還曾發(fā)推吐槽表示「終于有時間睡個好覺了」。

Llion Jones

Llion Jones將擔任CTO。

他最出名的代表作,那便是2017年和谷歌團隊發(fā)表的「Attention Is All You Need」。

Llion Jones是這八位作者中,最后一位離開谷歌的人。他的離去,標志著Transformer「變形金剛大解體」。

上個月,彭博最先爆料稱Transformer僅剩的一位作者Llion Jones宣布7月底要離職谷歌自創(chuàng)業(yè)。

當時,還未透露具體創(chuàng)業(yè)信息。不過,恰恰David Ha也轉發(fā)了這一消息。

Jones表示:

離開谷歌并不是一個容易的決定,我與他們度過了非常精彩的十年,但是現(xiàn)在是嘗試一些不同的事情的時候了。鑒于人工智能領域的勢頭和進展,現(xiàn)在是構建新事物的好時機。

Llion Jones于2015年6月加入了谷歌,至今已經(jīng)任職8年。此前他曾就職于YouTube、Delcam。

他曾在伯明翰大學取得了和計算機專業(yè)的學士和碩士學位。

到目前為止,Jones的谷歌學術主頁中, 引用最高的一篇文章當屬17年橫空出世的「Attention Is All You Need」,引用數(shù)81266。

責任編輯:張燕妮 來源: 新智元
相關推薦

2024-08-27 13:30:00

2023-07-12 14:36:57

AI谷歌

2024-03-25 12:39:00

AI數(shù)據(jù)

2024-03-08 14:18:04

谷歌GPT3.5Gemini Pro

2021-10-09 19:05:06

channelGo原理

2010-10-11 10:34:30

李開復

2023-04-21 07:59:46

2023-04-21 09:12:43

2024-12-25 12:04:34

2024-01-31 13:42:05

模型訓練

2021-09-26 10:44:20

谷歌Chrome 瀏覽器

2025-03-14 07:00:00

AI初創(chuàng)企業(yè)人工智能AI

2025-01-26 13:20:49

谷歌AI模型Titans

2023-04-10 08:00:00

2014-07-21 09:18:26

谷歌Google Brai

2023-12-23 23:23:37

2015-09-17 09:01:26

創(chuàng)業(yè)智能硬件

2016-01-20 09:57:58

SaaS云計算

2015-06-05 10:20:39

谷歌員工SpannerNoSQL

2023-04-21 15:49:13

谷歌DeepMind
點贊
收藏

51CTO技術棧公眾號