斯坦福NLP課程XCS224U視頻全部放出,干貨滿滿,速來聽講
從對話智能體到搜索查詢,自然語言理解(NLP)是當(dāng)今許多最令人興奮的技術(shù)的基礎(chǔ)。如何建立這些模型來高效、可靠地理解語言?如果你還沒有那么清楚的話,是否會找個課程來聽呢?
但是有些課程不僅天價還很難報名,有些課程不僅質(zhì)量極高還免費公開。誰不想要這后者呢?
沒錯,今天機器之心為大家介紹的是斯坦福 XCS224U:自然語言理解 (2023)課程。它干貨滿滿,講師 Christopher Potts 讓這門課充滿魅力。更重要的是,這堂課已經(jīng)放出了全部視頻,50 個視頻任君學(xué)習(xí)。
視頻地址:https://www.youtube.com/playlist?list=PLoROMvodv4rOwvldxftJTmoR3kRcWkJBp
該課程借鑒了語言學(xué)、自然語言處理和機器學(xué)習(xí)的理論概念。在這門以項目為導(dǎo)向的課程中,你將開發(fā)使機器理解人類語言的系統(tǒng)和算法。
課程前半部分將探索自然語言理解的三個基本任務(wù):上下文語言表征、信息檢索和 NLU 模型的高級行為評估。每個任務(wù)主題都包含實踐部分,你將在其中建立基線模型。這些基線模型將幫助你開發(fā)自己的模型。
課程后半部分則將開展自然語言理解方面的原創(chuàng)項目,重點關(guān)注該領(lǐng)域的最佳實踐。額外的講座和材料將涵蓋重要的主題,以幫助擴展和改進你的系統(tǒng),包括評估和度量、語義解析和基礎(chǔ)語言理解。
在這些課中,你將:
- 開發(fā)對人類語言進行穩(wěn)健機器學(xué)習(xí)理解的系統(tǒng)和算法;
- 使用大型語言模型建立神經(jīng)信息檢索系統(tǒng);
- 利用上下文單詞表示模型(如 transformers、BERT、ELECTRA 和 GPT),理解單詞之間的語義和句法關(guān)系;
- 利用經(jīng)典和神經(jīng)信息檢索方法從文本中獲取所需信息;
- 設(shè)計并開展一個自己選擇的 NLU 研究項目。
學(xué)前準(zhǔn)備
劃重點,該課程并不是針對小白的,而是需要在課程開始之前有所積累。
具體來說,學(xué)習(xí)課程之前,你需要有一些技術(shù)、知識基礎(chǔ),才能更加順利地理解課程內(nèi)容,完成課程相關(guān)任務(wù)。
- 熟練掌握 Python:編碼作業(yè)將使用 Python。因為有些作業(yè)需要熟悉基本的 Linux 命令行工作流程。
- 熟悉微積分和線性代數(shù):需要能夠熟練應(yīng)用(多元)導(dǎo)數(shù),并理解矩陣 / 向量符號和運算。
- 掌握概率論:熟悉基本概率分布(連續(xù)、高斯、伯努利分布),能夠定義連續(xù)和離散隨機變量的概念:期望值、獨立性、概率分布函數(shù)和累積分布函數(shù)。
斯坦福還建議大家將自然語言處理 XCS224U 課程與深度學(xué)習(xí) XCS224N 課程結(jié)合起來,效果更好。此外還貼心地給大家準(zhǔn)備了一份復(fù)習(xí) NLP 相關(guān)知識的材料清單,你可按需取用。
清單鏈接:http://web.stanford.edu/class/cs224u/background.html
講師介紹
Christopher Potts 是斯坦福語言學(xué)教授,同時也是計算機科學(xué)教授和語言與信息研究中心(CSLI)主任。在研究中,他致力于使用計算方法探索情感如何在語言中表達,以及語言的產(chǎn)生和解釋如何受到語篇、語境的影響。
他于 2005 年出版了《The Logic of Conventional Implicatures》一書,并發(fā)表了大量計算語言學(xué)和理論語言學(xué)方面的學(xué)術(shù)論文。
課程視頻下面的評論中,網(wǎng)友們表達了對課程的喜愛。
更有推薦者直接表達了對 Christopher Potts 的贊美,認為他是一位才華橫溢的教育家,解釋復(fù)雜的 ML 和 NLP 概念時具有特殊的才能。「我從他的研究和講座中學(xué)到了很多東西。強烈建議觀看他的新課程?!?/span>