自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AlphaFold2原理:注意力機(jī)制取代卷積網(wǎng)絡(luò),預(yù)測準(zhǔn)確性提升超30%

新聞 人工智能
最近,DeepMind開源AlphaFold2,讓學(xué)術(shù)圈再一次沸騰了。

 [[412540]]

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

最近,DeepMind開源AlphaFold2,讓學(xué)術(shù)圈再一次沸騰了。

這意味著,對于普通研究人員而言曾需要花幾年時間才能破解的蛋白質(zhì)結(jié)構(gòu),現(xiàn)在用AlphaFold2幾小時就能算出來了!

那么,如此厲害的AlphaFold2究竟如何做到的呢?

DeepMind團(tuán)隊已經(jīng)將它的詳細(xì)信息在《Nature》上公開發(fā)表。

AlphaFold2原理:注意力機(jī)制取代卷積網(wǎng)絡(luò),預(yù)測準(zhǔn)確性提升超30%

現(xiàn)在,就讓我們來看看AlphaFold2的魔法是怎么實現(xiàn)的吧。

卷積消失了,Attention來了

論文中,研究人員強(qiáng)調(diào)AlphaFold2是一個完全不同于AlphaFold的新模型。

的確,它們使用的模型框架都不一樣,這也是AlphaFold2準(zhǔn)確性能夠突飛猛進(jìn)的主要原因。

此前AlphaFold中所有的卷積神經(jīng)網(wǎng)絡(luò),現(xiàn)在都被替換成了Attention。

為什么要這樣做呢?

我們首先要了解一下AlphaFold的工作原理:

它主要是通過預(yù)測蛋白質(zhì)中每對氨基酸之間的距離分布,以及連接它們的化學(xué)鍵之間的角度,然后將所有氨基酸對的測量結(jié)果匯總成2D的距離直方圖。

然后讓卷積神經(jīng)網(wǎng)絡(luò)對這些圖片進(jìn)行學(xué)習(xí),從而構(gòu)建出蛋白質(zhì)的3D結(jié)構(gòu)。

AlphaFold2原理:注意力機(jī)制取代卷積網(wǎng)絡(luò),預(yù)測準(zhǔn)確性提升超30%

△AlphaFold主要架構(gòu)

但這是一種從局部開始進(jìn)行預(yù)測的方式,很有可能會忽略蛋白質(zhì)結(jié)構(gòu)信息的長距離依賴性

而Attention的特點剛好可以彌補(bǔ)這一缺陷,它是一種模仿人類注意力的網(wǎng)絡(luò)架構(gòu),可以同時聚焦多個細(xì)節(jié)部分。

這樣可以使得框架預(yù)測的結(jié)果更加全面、準(zhǔn)確。

AlphaFold2原理:注意力機(jī)制取代卷積網(wǎng)絡(luò),預(yù)測準(zhǔn)確性提升超30%

在CASP13中,AlphaFold預(yù)測的準(zhǔn)確性還只有不到60分。

但是在CASP14中AlphaFold2就將準(zhǔn)確性直接拔高到了92.4/100。

圖網(wǎng)絡(luò)+Attention

具體來看,AlphaFold2主要利用多序列比對(MSA),把蛋白質(zhì)的結(jié)構(gòu)和生物信息整合到了深度學(xué)習(xí)算法中。

它主要包括兩個部分:神經(jīng)網(wǎng)絡(luò)EvoFormer結(jié)構(gòu)模塊(Structure module)。

AlphaFold2原理:注意力機(jī)制取代卷積網(wǎng)絡(luò),預(yù)測準(zhǔn)確性提升超30%

在EvoFormer中,主要是將圖網(wǎng)絡(luò) (Graph networks)和多序列比對 (MSA)結(jié)合完成結(jié)構(gòu)預(yù)測。

圖網(wǎng)絡(luò)可以很好表示事物之間的相關(guān)性,在這里,它可以將蛋白質(zhì)的相關(guān)信息構(gòu)建出一個圖表,以此表示不同氨基酸之間的距離。

研究人員用Attention機(jī)制構(gòu)建出一個特殊的“三重自注意力機(jī)制(Triangular self-attention)”,來處理計算氨基酸之間的關(guān)系圖。

AlphaFold2原理:注意力機(jī)制取代卷積網(wǎng)絡(luò),預(yù)測準(zhǔn)確性提升超30%

△三重自注意力機(jī)制(Triangular self-attention)

然后,他們將這一步得到的信息與多序列比對結(jié)合。

多序列比對主要是使相同殘基的位點位于同一列,暴露出不同序列之間的相似部分,從而推斷出不同蛋白質(zhì)在結(jié)構(gòu)和功能上的相似關(guān)系。

計算出的氨基酸關(guān)系與MSA進(jìn)行信息交換,能直接推理出空間和進(jìn)化關(guān)系的配對表征。

預(yù)測所有原子的3D結(jié)構(gòu)

架構(gòu)的第二部分是一個結(jié)構(gòu)模塊 (Structure Module),它的主要工作是將EvoFormer得到的信息轉(zhuǎn)換為蛋白質(zhì)的3D結(jié)構(gòu)。

AlphaFold2原理:注意力機(jī)制取代卷積網(wǎng)絡(luò),預(yù)測準(zhǔn)確性提升超30%

△結(jié)構(gòu)模塊(Structure module)

在這里,研究人員同樣使用了Attention機(jī)制,它可以單獨計算蛋白質(zhì)的各個部分,稱為“不變點注意力(invariant point attention)”機(jī)制。

它以某個原子為原點,構(gòu)建出一個3D參考場,根據(jù)預(yù)測信息進(jìn)行旋轉(zhuǎn)和平移,得到一個結(jié)構(gòu)框架。

AlphaFold2原理:注意力機(jī)制取代卷積網(wǎng)絡(luò),預(yù)測準(zhǔn)確性提升超30%

△不變點注意力(invariant point attention)

然后Attention機(jī)制會對所有原子都進(jìn)行預(yù)測,最終匯總得出一個高度準(zhǔn)確的蛋白質(zhì)結(jié)構(gòu)。

此外,研究人員還強(qiáng)調(diào)AlphaFold2是一個“端到端”的神經(jīng)網(wǎng)絡(luò)。

他們會反復(fù)把最終損失應(yīng)用于輸出結(jié)果,然后再對輸出結(jié)果進(jìn)行遞歸,不斷逼近正確結(jié)果。

這樣做既能減少額外的訓(xùn)練,還能大幅提高預(yù)測結(jié)構(gòu)的準(zhǔn)確性。

為破解蛋白質(zhì)折疊謎題帶來希望

Alphafold2的出現(xiàn),能更好地預(yù)判蛋白質(zhì)與分子結(jié)合的概率,從而極大地加速新藥研發(fā)的效率。

此次Alphafold2開源,將進(jìn)一步推動科學(xué)界前進(jìn)。

據(jù)了解,目前DeepMind已經(jīng)與瑞士的一些研究團(tuán)隊合作,通過預(yù)測蛋白質(zhì)結(jié)構(gòu)開展藥物方面的研究。

事實上,研究Alphafold2預(yù)測程序本身,也為探索蛋白質(zhì)結(jié)構(gòu)折疊原理帶來了希望。

芝加哥大學(xué)的計算生物學(xué)家Jinbo Xu就表示:

這些工具的開源,意味著科學(xué)界能夠在此基礎(chǔ)上開發(fā)出更加強(qiáng)大的軟件。

論文地址:
https://www.nature.com/articles/s41586-021-03819-2_reference.pdf

補(bǔ)充材料:
https://static-content.springer.com/esm/art%3A10.1038%2Fs41586-021-03819-2/MediaObjects/41586_2021_3819_MOESM1_ESM.pdf*

 

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2020-09-17 12:40:54

神經(jīng)網(wǎng)絡(luò)CNN機(jī)器學(xué)習(xí)

2018-08-26 22:25:36

自注意力機(jī)制神經(jīng)網(wǎng)絡(luò)算法

2024-08-06 08:43:17

2021-07-21 17:13:17

DeepMind開源AlphaFold 2

2024-09-14 10:00:00

AI機(jī)器人計算

2024-09-19 10:07:41

2009-08-12 09:27:31

Google搜索

2024-12-17 14:39:16

2023-05-05 13:11:16

2017-08-03 11:06:52

2022-02-14 00:04:24

AI蛋白質(zhì)結(jié)構(gòu)

2014-05-19 11:24:18

Teradata 大數(shù)據(jù)天睿

2024-10-31 10:00:39

注意力機(jī)制核心組件

2024-06-28 08:04:43

語言模型應(yīng)用

2024-12-09 09:20:00

MySQLNULL 值

2024-12-09 00:00:10

2023-07-30 15:42:45

圖神經(jīng)網(wǎng)絡(luò)PyTorch

2025-04-01 04:25:00

RAG數(shù)據(jù)檢索

2024-12-11 08:12:24

2023-11-28 13:37:43

語言模型LLM
點贊
收藏

51CTO技術(shù)棧公眾號