自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

大模型如何可靠?IBM等學者最新《基礎(chǔ)模型的基礎(chǔ)魯棒性》教程

人工智能 新聞
在第36屆NeurIPS上,來自IBM研究中心等學者講述關(guān)于大模型的魯棒性,非常值得關(guān)注!

作為當前全球最負盛名的 AI 學術(shù)會議之一,NeurIPS 是每年學界的重要事件,全稱是 Neural Information Processing Systems,神經(jīng)信息處理系統(tǒng)大會,通常在每年 12 月由 NeurIPS 基金會主辦。

大會討論的內(nèi)容包含深度學習、計算機視覺、大規(guī)模機器學習、學習理論、優(yōu)化、稀疏理論等眾多細分領(lǐng)域。

今年 NeurIPS 已是第 36 屆,于 11 月 28 日至 12 月 9 日舉行,為期兩周。

第一周將在美國新奧爾良 Ernest N. Morial 會議中心舉行現(xiàn)場會議,第二周改為線上會議。

來自IBM研究中心等學者講述關(guān)于大模型的魯棒性,非常值得關(guān)注!

圖片

基礎(chǔ)模型采用深度學習的方法,在大規(guī)模無標簽數(shù)據(jù)上進行預(yù)訓(xùn)練,并通過特定任務(wù)的監(jiān)督進行微調(diào),正成為機器學習的主流技術(shù)。

雖然基礎(chǔ)模型在學習一般表示和跨領(lǐng)域和數(shù)據(jù)模式的少次/零次泛化方面有很多希望,但同時由于使用了過多的數(shù)據(jù)量和復(fù)雜的神經(jīng)網(wǎng)絡(luò)架構(gòu),它們在魯棒性和隱私性方面提出了前所未有的挑戰(zhàn)和相當大的風險。

本教程旨在提供一個類似coursera的在線教程,包含全面的講座,一個實踐和交互式的Jupyter/Colab實時編碼演示,以及一個關(guān)于基礎(chǔ)模型中可信性的不同方面的小組討論。

https://sites.google.com/view/neurips2022-frfm-turotial

目錄內(nèi)容:

  1. Basics in foundation models and robustness
  2. Deep dive on foundation models for computer vision
  3. Deep dive on foundation models for code
  4. Hands-on code walkthrough
  5. Concluding Remarks
  6. Q&A
  7. Panel discussion

講者:

圖片

圖片

現(xiàn)實世界的機器學習系統(tǒng)需要對分布變化魯棒——它們應(yīng)當在與訓(xùn)練分布不同的測試分布上工作良好。

諸如資源不足國家的貧困地圖 [Xie et al. 2016; Jean et al. 2016]、自動駕駛汽車 [Yu et al. 2020a; Sun et al. 2020a]、醫(yī)學診斷 [AlBadawy et al. 2018; Dai and Gool 2018] 這樣的高風險應(yīng)用都需要模型良好的泛化到訓(xùn)練數(shù)據(jù)中沒有見過的環(huán)境中,例如,測試樣例來自不同的國家,處于不同的駕駛條件,或來自不同的醫(yī)院。

先前的工作已經(jīng)表明:即使是對目前最先進的模型,這些分布變化也會導(dǎo)致性能的大幅下降 [Blitzer et al. 2006; Daumé III 2007;Sugiyama et al. 2007; Ganin and Lempitsky 2015; Peng et al. 2019; Kumar et al. 2020a; Arjovskyet al. 2019; Szegedy et al. 2014; Hendrycks and Dietterich 2019; Sagawa et al. 2020a; Recht et al.2019; Abney 2007; Ruder and Plank 2018; Geirhos et al. 2018; Kumar et al. 2020b; Yu et al. 2020b;Geirhos et al. 2020; Xie et al. 2021a; Koh et al. 2021]。

一個基礎(chǔ)模型在采樣自分布圖片的大量不同的無標簽數(shù)據(jù)集上進行訓(xùn)練,然后可以被適配到許多的下游任務(wù)中。

對于每一個下游任務(wù)圖片,基礎(chǔ)模型在帶標簽的從訓(xùn)練分布圖片中采樣的分布內(nèi)(in-distribution, ID)訓(xùn)練數(shù)據(jù)上進行訓(xùn)練,然后在分布外(out-of-distribution, OOD)的測試分布圖片上進行評價。

例如,一個貧困地圖預(yù)測模型 [Xie et al. 2016; Jean et al. 2016] 可以在全世界的無標簽衛(wèi)星數(shù)據(jù)中學習所有國家的有用特征,然后在帶標簽的來自尼日利亞的樣例上進行微調(diào),最終在缺乏帶標簽樣例的馬拉維上進行評價。

我們認為:1)基礎(chǔ)模型在魯棒性方面是一個特別具有前途的方法?,F(xiàn)有工作表明了在無標簽數(shù)據(jù)上進行預(yù)訓(xùn)練是一種有效的、通用的提高在 OOD 測試分布上準確性的方法,這與限制于有限的分布變化的許多魯棒性干預(yù)措施相反。

然而,我們同樣討論了 2)為什么基礎(chǔ)模型可能無法總是應(yīng)對分布變化,例如某些由于偽相關(guān)性或隨時間改變的分布變化。

最后,3)我們概述了幾個利用和提高基礎(chǔ)模型魯棒性的研究方向。

我們注意到,基礎(chǔ)模型提高下游任務(wù)性能的一個方法是為適配模型提供歸納偏置(通過模型初始化),這些偏置是在下游訓(xùn)練數(shù)據(jù)之外的多種數(shù)據(jù)集上學習得到的。

然而,同樣的歸納偏置也可能從預(yù)訓(xùn)練數(shù)據(jù)中編碼有害關(guān)聯(lián),并在分布變化的情況下導(dǎo)致表示和分配危害。

圖片

圖片

圖片

圖片

圖片

圖片

圖片

圖片

圖片

圖片

圖片

責任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-06-18 09:43:26

2024-12-10 09:40:00

AI3D模型

2024-04-18 10:39:57

2023-10-27 07:49:33

AI大模型

2022-12-20 10:58:49

數(shù)據(jù)集工具

2025-02-28 08:00:00

大語言模型DeepSeek機器學習

2022-02-23 09:27:37

神經(jīng)網(wǎng)絡(luò)人工智能模型

2025-01-23 10:45:52

2025-02-17 10:09:54

2025-02-17 13:00:00

ChatGPT大模型AI

2024-10-15 13:07:38

2023-09-08 16:20:48

人工智能

2022-02-21 08:00:00

管理系統(tǒng)應(yīng)用程序模式

2024-01-26 10:02:51

自動駕駛3D

2023-08-09 12:27:13

2023-09-13 14:45:14

性能測試開發(fā)

2024-11-18 07:45:00

2021-09-18 15:35:00

模型人工智能深度學習

2022-05-02 18:45:33

Kubernetes網(wǎng)絡(luò)模型

2025-02-14 01:00:00

LLaMALLM模型
點贊
收藏

51CTO技術(shù)棧公眾號