CoRL 2022優(yōu)秀論文;語言模型生成自然界沒有的蛋白質(zhì)
目錄?
- Language models generalize beyond natural proteins
- A high-level programming language for generative protein design
- DOC: Improving Long Story Coherence With Detailed Outline Contro
- Scalable Diffusion Models with Transformers
- Point-E: A System for Generating 3D Point Clouds from Complex Prompts
- Reprogramming to recover youthful epigenetic information and restore vision
- Training Robots to Evaluate Robots: Example-Based Interactive Reward Functions for Policy Learning
- ArXiv Weekly Radiostation:NLP、CV、ML 更多精選論文(附音頻)
論文 1:Language models generalize beyond natural proteins?
- 作者:Robert Verkuil 、 Ori Kabeli 等
- 論文地址:https://www.biorxiv.org/content/10.1101/2022.12.21.521521v1.full.pdf
摘要:研究者專注于兩個(gè)蛋白質(zhì)設(shè)計(jì)任務(wù):指定結(jié)構(gòu)的固定骨架設(shè)計(jì);從模型中采樣結(jié)構(gòu)的無約束生成。盡管語言模型僅針對(duì)序列進(jìn)行訓(xùn)練,但該研究發(fā)現(xiàn)它們能夠設(shè)計(jì)結(jié)構(gòu)。在該研究的實(shí)驗(yàn)結(jié)果中,一共生成了 228 種蛋白質(zhì),設(shè)計(jì)成功的比率是 152/228(67%)。
在 152 個(gè)實(shí)驗(yàn)成功的設(shè)計(jì)中,有 35 個(gè)與已知的天然蛋白質(zhì)沒有明顯的序列匹配。
對(duì)于固定主干設(shè)計(jì),語言模型成功為 8 個(gè)經(jīng)過實(shí)驗(yàn)評(píng)估的人工創(chuàng)建的固定主干目標(biāo)生成了蛋白質(zhì)設(shè)計(jì)。
對(duì)于不受約束生成的情況,采樣的蛋白質(zhì)涵蓋了不同的拓?fù)浣Y(jié)構(gòu)和二級(jí)結(jié)構(gòu)組成,結(jié)果具有很高的實(shí)驗(yàn)成功率 71/129(55%)。
下圖 1 是 ESM2 模型設(shè)計(jì)蛋白質(zhì)的總體流程:
推薦:該研究發(fā)現(xiàn) ESM2 語言模型通過學(xué)習(xí)深層語法,就能生成天然蛋白質(zhì)以外的新蛋白質(zhì)。
論文 2:A high-level programming language for generative protein design?
- 作者:Brian Hie 、 Salvatore Candido 等
- 論文地址:https://www.biorxiv.org/content/10.1101/2022.12.21.521526v1.full.pdf
摘要:FAIR 研究者從模塊化和可編程性入手,將兩者置于更高的抽象層次,蛋白質(zhì)設(shè)計(jì)者只需要重新組合高級(jí)指令,然后在生成模型上執(zhí)行指令即可。
他們提出的生成蛋白質(zhì)設(shè)計(jì)的編程語言,允許設(shè)計(jì)人員指定直觀、模塊化和分層的程序。該編程語言首先需要一個(gè)語法樹 (圖 1A),由末端符號(hào) (即樹的葉子) 和非末端符號(hào) (即樹的內(nèi)部節(jié)點(diǎn)) 組成,前者對(duì)應(yīng)一個(gè)獨(dú)特的蛋白質(zhì)序列 (在蛋白質(zhì)中可能重復(fù)),后者支持分層組織。
此外還需要一個(gè)基于能量的生成模型。首先,蛋白質(zhì)設(shè)計(jì)器指定一個(gè)高級(jí)程序,該程序由一組按層次組織的約束組成(圖 1A)。然后,該程序編譯為一個(gè)能量函數(shù),用于評(píng)估與約束的兼容性,約束是任意的且不可微的(圖 1B)。最后通過將原子級(jí)結(jié)構(gòu)預(yù)測(cè)(由語言模型支持)合并到能量函數(shù)中,可以生成大量復(fù)雜的蛋白質(zhì)設(shè)計(jì)(圖 1C)。
推薦:編程生成復(fù)雜和模塊化的蛋白質(zhì)結(jié)構(gòu)。
論文 3:DOC: Improving Long Story Coherence With Detailed Outline Contro
- 作者:Kevin Yang 、 Dan Klein 等
- 論文地址:https://arxiv.org/pdf/2212.10077.pdf
摘要:前段時(shí)間,模仿人類寫作過程的語言模型 Re^3 發(fā)布,該模型不需要微調(diào)大模型,而是通過設(shè)計(jì) prompt 來生成一致性強(qiáng)的故事。
現(xiàn)在,該研究團(tuán)隊(duì)又提出了一個(gè)生成故事的新模型 DOC。論文作者 Kevin Yang、田淵棟也在推特上發(fā)文宣傳了 DOC 模型,表示 DOC 比 Re^3 生成的故事更加連貫、有趣。
DOC 框架意指詳細(xì)大綱控制(Detailed Outline Control),用于在自動(dòng)生成數(shù)千字長(zhǎng)故事時(shí)提高情節(jié)的連貫性。DOC 由兩個(gè)互補(bǔ)的組件組成:詳細(xì)大綱組件(Detailed Outliner)、詳細(xì)控制器(Detailed Controller)。
Detailed Outliner 負(fù)責(zé)創(chuàng)建詳細(xì)的、分層結(jié)構(gòu)的大綱,將寫作創(chuàng)意從起草轉(zhuǎn)移到規(guī)劃階段。Detailed Controller 則通過控制故事段落與大綱細(xì)節(jié)對(duì)齊,確保生成結(jié)果遵循詳細(xì)的大綱。
該研究對(duì)模型自動(dòng)生成故事的功能進(jìn)行了人工評(píng)估,DOC 在多個(gè)指標(biāo)上獲得了大幅增益:情節(jié)連貫性(22.5%)、大綱相關(guān)性(28.2%)和趣味性(20.7%),大大優(yōu)于 Re^3 模型。此外,DOC 在交互式生成環(huán)境中更易于控制。
推薦:田淵棟等原班人馬又一新作:AI 生成長(zhǎng)篇故事,數(shù)千字長(zhǎng)文也能連貫、有趣。
論文 4:Scalable Diffusion Models with Transformers
- 作者:William Peebles 、謝賽寧
- 論文地址:https://arxiv.org/pdf/2212.09748.pdf
摘要:本文中來自 UC 伯克利的 William Peebles 以及紐約大學(xué)的謝賽寧撰文《 Scalable Diffusion Models with Transformers 》,目標(biāo)是揭開擴(kuò)散模型中架構(gòu)選擇的意義,并為未來的生成模型研究提供經(jīng)驗(yàn)基線。該研究表明,U-Net 歸納偏置對(duì)擴(kuò)散模型的性能不是至關(guān)重要的,并且可以很容易地用標(biāo)準(zhǔn)設(shè)計(jì)(如 transformer)取代。
該研究專注于一類新的基于 Transformer 的擴(kuò)散模型:Diffusion Transformers(簡(jiǎn)稱 DiTs)。DiTs 遵循 Vision Transformers (ViTs) 的最佳實(shí)踐,有一些小但重要的調(diào)整。DiT 已被證明比傳統(tǒng)的卷積網(wǎng)絡(luò)(例如 ResNet )具有更有效地?cái)U(kuò)展性。
具體而言,本文研究了 Transformer 在網(wǎng)絡(luò)復(fù)雜度與樣本質(zhì)量方面的擴(kuò)展行為。研究表明,通過在潛在擴(kuò)散模型 (LDM) 框架下構(gòu)建 DiT 設(shè)計(jì)空間并對(duì)其進(jìn)行基準(zhǔn)測(cè)試,其中擴(kuò)散模型在 VAE 的潛在空間內(nèi)進(jìn)行訓(xùn)練,可以成功地用 transformer 替換 U-Net 主干。本文進(jìn)一步表明 DiT 是擴(kuò)散模型的可擴(kuò)展架構(gòu):網(wǎng)絡(luò)復(fù)雜性(由 Gflops 測(cè)量)與樣本質(zhì)量(由 FID 測(cè)量)之間存在很強(qiáng)的相關(guān)性。通過簡(jiǎn)單地?cái)U(kuò)展 DiT 并訓(xùn)練具有高容量主干(118.6 Gflops)的 LDM,可以在類條件 256 × 256 ImageNet 生成基準(zhǔn)上實(shí)現(xiàn) 2.27 FID 的最新結(jié)果。
推薦:統(tǒng)治擴(kuò)散模型的 U-Net 要被取代了,謝賽寧等引入 Transformer 提出 DiT。
論文 5:Point-E: A System for Generating 3D Point Clouds from Complex Prompts?
- 作者:Alex Nichol、Heewoo Jun 等
- 論文地址:https://arxiv.org/abs/2212.08751
摘要:OpenAI 開源的 3D 模型生成器 Point-E 引發(fā)了 AI 圈的新一輪熱潮。根據(jù)與開源內(nèi)容一并發(fā)布的論文介紹,Point-E 可以在單塊 Nvidia V100 GPU 上在一到兩分鐘內(nèi)生成 3D 模型。相比之下,現(xiàn)有系統(tǒng)(如谷歌的 DreamFusion)通常需要數(shù)小時(shí)和多塊 GPU。
Point-E 不輸出傳統(tǒng)意義上的 3D 圖像,它會(huì)生成點(diǎn)云,或空間中代表 3D 形狀的離散數(shù)據(jù)點(diǎn)集。Point-E 中的 E 是「效率」的縮寫,表示其比以前的 3D 對(duì)象生成方法更快。不過從計(jì)算的角度來看,點(diǎn)云更容易合成,但它們無法捕獲對(duì)象的細(xì)粒度形狀或紋理 —— 這是目前 Point-E 的一個(gè)關(guān)鍵限制。
為了解決這一問題,OpenAI 團(tuán)隊(duì)訓(xùn)練了一個(gè)額外的人工智能系統(tǒng)來將 Point-E 的點(diǎn)云轉(zhuǎn)換為網(wǎng)格。
推薦:三次元的文本到圖像 AI 成了:?jiǎn)?GPU 不到一分鐘出貨,OpenAI 出品。
論文 6:Reprogramming to recover youthful epigenetic information and restore vision?
- 作者:Yuancheng Lu、Benedikt Brommer
- 論文地址:https://www.nature.com/articles/s41586-020-2975-4
摘要:2020 年 12 月 2 日,頂級(jí)科學(xué)期刊《Nature》的封面上,出現(xiàn)了幾個(gè)令人驚奇的詞匯:「Turning Back Time」(時(shí)光倒流)。
登上封面的研究來自于哈佛大學(xué)醫(yī)學(xué)院終身教授 David Sinclair 的團(tuán)隊(duì)。盡管文章只有寥寥數(shù)頁,卻展示了全新的前景 —— 利用基因治療誘導(dǎo)神經(jīng)節(jié)細(xì)胞重編程,恢復(fù)年輕的表觀遺傳信息,從而使得視神經(jīng)能在損傷后再生,并逆轉(zhuǎn)青光眼和衰老造成的視力下降。
David Sinclair 表示,團(tuán)隊(duì)的研究目標(biāo)始終是減緩和逆轉(zhuǎn)人體衰老,通過解決病因而不是癥狀來治療疾病。
在 2020 年這項(xiàng)研究的基礎(chǔ)上,David Sinclair 的團(tuán)隊(duì)正使用名為「REVIVER」的年齡逆轉(zhuǎn)技術(shù)在非人類靈長(zhǎng)類動(dòng)物身上進(jìn)行測(cè)試,以觀察看它是否安全并能像小鼠一樣治療失明。
最新的研究則來自 David Sinclair 及其領(lǐng)導(dǎo)的 60 人團(tuán)隊(duì),他表示,衰老就像 CD 上可以擦掉的劃痕,或者系統(tǒng)里損壞的軟件,只需重新安裝即可實(shí)現(xiàn)逆轉(zhuǎn),就像《Lifespan》書中所說的那樣。
在預(yù)印版論文中,作者表示所有生物都會(huì)隨時(shí)間推移丟失遺傳信息,逐漸喪失細(xì)胞功能。使用被稱為 ICE(用于表觀基因組的可誘導(dǎo)變化)的轉(zhuǎn)基因小鼠系統(tǒng),研究人員證明了修復(fù)非誘變 DNA 斷裂的過程加速了與年齡相關(guān)的生理、認(rèn)知和分子變化,包括表觀遺傳的侵蝕, 細(xì)胞能力喪失、細(xì)胞衰老等。
研究人員稱,通過異位表達(dá)進(jìn)行的表觀遺傳重編程可恢復(fù)年輕基因表達(dá)的模式。
推薦:逆轉(zhuǎn)衰老的研究。
論文 7:Training Robots to Evaluate Robots: Example-Based Interactive Reward Functions for Policy Learning?
- 作者:Kun Huang、Edward Hu、Dinesh Jayaraman
- 論文地址:https://openreview.net/pdf?id=sK2aWU7X9b8
摘要:通常來說,物理相互作用有助于揭示不太明顯的信息,例如我們可能會(huì)拉一下桌腿來評(píng)估它是否穩(wěn)固,或者把一個(gè)水瓶倒過來檢查它是否漏水,該研究建議可以通過訓(xùn)練機(jī)器人來自動(dòng)獲得這種交互行為,以評(píng)估機(jī)器人嘗試執(zhí)行技能的結(jié)果。這些評(píng)估反過來作為 IRF(interactive reward functions),用于訓(xùn)練強(qiáng)化學(xué)習(xí)策略以執(zhí)行目標(biāo)技能,例如擰緊桌腿。此外,即使完全訓(xùn)練完成之后,IRF 也可以作為改進(jìn)在線任務(wù)執(zhí)行的驗(yàn)證機(jī)制。對(duì)于任何給定的任務(wù), IRF 訓(xùn)練非常方便,并且不需要進(jìn)一步的規(guī)范。
評(píng)估結(jié)果表明,IRF 可以實(shí)現(xiàn)顯著的性能改進(jìn),甚至可以通過訪問演示或精心設(shè)計(jì)的獎(jiǎng)勵(lì)來超越基線。比如下圖中,機(jī)器人必須先關(guān)門,然后旋轉(zhuǎn)對(duì)稱的門把手才能完全鎖住門。