自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI實(shí)時(shí)解讀大腦信號(hào),7倍速還原圖像關(guān)鍵視覺(jué)特征,LeCun轉(zhuǎn)發(fā)

人工智能
訓(xùn)練上,研究人員用了一個(gè)名叫THINGS-MEG的數(shù)據(jù)集,包含了4個(gè)年輕人(2男2女,平均23.25歲)觀看圖像時(shí)記錄的MEG數(shù)據(jù)。這些年輕人一共觀看了22448張圖像(1854種類型),每張圖像顯示時(shí)間為0.5秒,間隔時(shí)間為0.8~1.2秒,其中有200張圖片被反復(fù)觀看。

現(xiàn)在,AI已經(jīng)能實(shí)時(shí)解讀大腦信號(hào)了!

這不是聳人聽(tīng)聞,而是Meta的一項(xiàng)新研究,能夠憑腦信號(hào)猜出你在0.5秒內(nèi)看的圖,并用AI實(shí)時(shí)還原出來(lái)。

在此之前,AI雖然已經(jīng)能從大腦信號(hào)中比較準(zhǔn)確地還原圖像,但還有個(gè)bug——不夠快。

為此,Meta研發(fā)了一個(gè)新解碼模型,讓AI光是圖像檢索的速度就提升了7倍,幾乎“瞬間”能讀出人在看什么,并猜出個(gè)大概。

像是一個(gè)站立的男人,AI數(shù)次還原后,竟然真的解讀出了一個(gè)“站立的人”出來(lái):

圖片圖片

LeCun轉(zhuǎn)發(fā)表示,從MEG腦信號(hào)中重建視覺(jué)等輸入的研究,確實(shí)很棒。

圖片圖片

那么,Meta究竟是怎么讓AI“快速讀腦”的?

大腦活動(dòng)解碼如何解讀?

目前,AI讀取大腦信號(hào)并還原圖像的方法,主要有兩種。

其中一種是fMRI(功能性磁共振成像),可以生成流向大腦特定部位的血流圖像;另一種是MEG(腦磁圖),可以測(cè)量腦內(nèi)神經(jīng)電流發(fā)出的極其微弱的生物磁場(chǎng)信號(hào)。

然而,fMRI神經(jīng)成像的速度往往非常慢,平均2秒才出一張圖(≈0.5 Hz),相比之下MEG甚至能在每秒內(nèi)記錄上千次大腦活動(dòng)圖像(≈5000 Hz)。

所以相比f(wàn)MRI,為什么不用MEG數(shù)據(jù)來(lái)試試還原出“人類看到的圖像”呢?

基于這一思路,作者們?cè)O(shè)計(jì)了一個(gè)MEG解碼模型,由三個(gè)部分組成。

第一部分預(yù)訓(xùn)練模型,負(fù)責(zé)從圖像中獲得embeddings;

第二部分是一個(gè)端到端訓(xùn)練模型,負(fù)責(zé)將MEG數(shù)據(jù)與圖像embeddings對(duì)齊;

第三部分是一個(gè)預(yù)訓(xùn)練圖像生成器,負(fù)責(zé)還原出最終的圖像。

圖片圖片

訓(xùn)練上,研究人員用了一個(gè)名叫THINGS-MEG的數(shù)據(jù)集,包含了4個(gè)年輕人(2男2女,平均23.25歲)觀看圖像時(shí)記錄的MEG數(shù)據(jù)。

這些年輕人一共觀看了22448張圖像(1854種類型),每張圖像顯示時(shí)間為0.5秒,間隔時(shí)間為0.8~1.2秒,其中有200張圖片被反復(fù)觀看。

除此之外,還有3659張圖像沒(méi)有展示給參與者,但也被用于圖像檢索中。

所以,這樣訓(xùn)練出來(lái)的AI,效果究竟如何?

圖像檢索速度提升7倍

整體來(lái)看,這項(xiàng)研究設(shè)計(jì)的MEG解碼模型,比線性解碼器的圖像檢索速度提升了7倍。

其中,相比CLIP等模型,又以Meta研發(fā)的視覺(jué)Transformer架構(gòu)DINOv2在提取圖像特征方面表現(xiàn)更好,更能將MEG數(shù)據(jù)和圖像embeddings對(duì)齊起來(lái)。

圖片圖片

作者們將整體生成的圖像分成了三大類,匹配度最高的、中等的和匹配度最差的:

圖片圖片

不過(guò),從生成示例中來(lái)看,這個(gè)AI還原出來(lái)的圖像效果,確實(shí)不算太好。

即使是還原度最高的圖像,仍然受到了一些網(wǎng)友的質(zhì)疑:為什么熊貓看起來(lái)完全不像熊貓?

圖片圖片

作者表示:至少像黑白熊。(熊貓震怒?。?/p>

圖片圖片

當(dāng)然,研究人員也承認(rèn),MEG數(shù)據(jù)復(fù)原出來(lái)的圖像效果,確實(shí)目前還不太行,主要優(yōu)勢(shì)還是在速度上。

例如之前來(lái)自明尼蘇達(dá)大學(xué)等機(jī)構(gòu)的一項(xiàng)名為7T fMRI的研究,就能以較高的復(fù)原度從fMRI數(shù)據(jù)中還原出人眼看到的圖像。

圖片圖片

無(wú)論是人類的沖浪動(dòng)作、飛機(jī)的形狀、斑馬的顏色、火車的背景,基于fMRI數(shù)據(jù)訓(xùn)練的AI都能更好地將圖像還原出來(lái):

圖片圖片

對(duì)此,作者們也給出了解釋,認(rèn)為這是因?yàn)锳I基于MEG還原出來(lái)的視覺(jué)特征偏高級(jí)。

但相比之下,7T fMRI可以提取并還原出圖像中更低級(jí)的視覺(jué)特征,這樣生成的圖像整體還原度更高。

你覺(jué)得這類研究可以被用在哪些地方?

論文地址:
https://ai.meta.com/static-resource/image-decoding

責(zé)任編輯:武曉燕 來(lái)源: 量子位
相關(guān)推薦

2022-12-05 10:01:41

代碼模型

2018-01-15 15:58:17

機(jī)器學(xué)習(xí)色彩還原k-means算法

2020-05-20 12:44:53

編程軟件開(kāi)發(fā)JavaScript

2015-05-06 10:22:39

802.11協(xié)議802.11ax

2023-11-23 13:24:38

2021-03-08 15:45:43

AI 數(shù)據(jù)人工智能

2023-05-23 14:06:53

微軟研究

2023-01-02 13:33:25

2024-03-05 11:18:14

模型訓(xùn)練

2020-06-19 14:58:13

騰訊云Serverless

2022-05-16 10:30:31

AIML存儲(chǔ)

2023-09-21 10:38:00

繪畫(huà)AI

2013-05-27 13:59:39

銅纜布線技術(shù)綜合布線技術(shù)網(wǎng)絡(luò)綜合布線

2024-06-03 07:55:00

2023-03-04 21:51:27

圖像研究

2019-10-11 23:05:49

5G5G手機(jī)無(wú)線

2021-09-02 09:13:55

數(shù)字化

2012-10-30 14:08:59

Titan超級(jí)計(jì)算機(jī)NVIDIA

2021-12-15 09:39:13

谷歌AI算法
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)