吳恩達的二八定律:80%的數(shù)據(jù)+20%的模型=更好的機器學習
機器學習的進步是模型帶來的還是數(shù)據(jù)帶來的,這可能是一個世紀辯題。
吳恩達對此的想法是,一個機器學習團隊80%的工作應(yīng)該放在數(shù)據(jù)準備上,確保數(shù)據(jù)質(zhì)量是最重要的工作,每個人都知道應(yīng)該如此做,但沒人在乎。如果更多地強調(diào)以數(shù)據(jù)為中心而不是以模型為中心,那么機器學習的發(fā)展會更快。
當去arxiv上查找機器學習相關(guān)的研究時,所有模型都在圍繞基準測試展示自己模型的能力,例如Google有BERT,OpenAI有GPT-3,這些模型僅解決了業(yè)務(wù)問題的20%,在業(yè)務(wù)場景中取得更好的效果需要更好的數(shù)據(jù)。
傳統(tǒng)軟件由代碼提供動力,而AI系統(tǒng)是同時使用代碼(模型+算法)和數(shù)據(jù)構(gòu)建的。以前的工作方式是,當模型效果不理想,我們就會去修改模型,而沒有想過可能是數(shù)據(jù)的問題。
機器學習的進步一直是由提高基準數(shù)據(jù)集性能的努力所推動的。研究人員的常見做法是在嘗試改進代碼的同時保持數(shù)據(jù)固定,以模型改進為中心對模型性能的提升實際上效率是很低的。但是,當數(shù)據(jù)集大小適中(<10,000個示例)時,則需要在代碼上進行嘗試改進。
根據(jù)劍橋研究人員所做的一項研究,最重要但仍經(jīng)常被忽略的問題是數(shù)據(jù)的格式不統(tǒng)一。當數(shù)據(jù)從不同的源流式傳輸時,這些源可能具有不同的架構(gòu),不同的約定及其存儲和訪問數(shù)據(jù)的方式。對于機器學習工程師來說,這是一個繁瑣的過程,需要將信息組合成適合機器學習的單個數(shù)據(jù)集。
小數(shù)據(jù)的劣勢在于少量的噪聲數(shù)據(jù)就會影響模型效果,而大數(shù)據(jù)量則會使標注工作變得很困難,高質(zhì)量的標簽也是機器學習模型的瓶頸所在。
這番話也引起機器學習界對MLOps的重新思索。
MLOps是什么?
MLOps,即Machine Learning和Operations的組合,是ModelOps的子集,是數(shù)據(jù)科學家與操作專業(yè)人員之間進行協(xié)作和交流以幫助管理機器學習任務(wù)生命周期的一種實踐。
與DevOps或DataOps方法類似,MLOps希望提高自動化程度并提高生產(chǎn)ML的質(zhì)量,同時還要關(guān)注業(yè)務(wù)和法規(guī)要求。
互聯(lián)網(wǎng)公司通常用有大量的數(shù)據(jù),而如果在缺少數(shù)據(jù)的應(yīng)用場景中進行部署AI時,例如農(nóng)業(yè)場景
,你不能指望自己有一百萬臺拖拉機為自己收集數(shù)據(jù)。
基于MLOps,吳恩達也提出幾點建議:
- MLOps的最重要任務(wù)是提供高質(zhì)量數(shù)據(jù)。
- 標簽的一致性也很重要。檢驗標簽是否有自己所管轄的明確界限,即使標簽的定義是好的,缺乏一致性也會導致模型效果不佳。
- 系統(tǒng)地改善baseline模型上的數(shù)據(jù)質(zhì)量要比追求具有低質(zhì)量數(shù)據(jù)的最新模型要好。
- 如果訓練期間出現(xiàn)錯誤,那么應(yīng)當采取以數(shù)據(jù)為中心的方法。
- 如果以數(shù)據(jù)為中心,對于較小的數(shù)據(jù)集(<10,000個樣本),則數(shù)據(jù)容量上存在很大的改進空間。
- 當使用較小的數(shù)據(jù)集時,提高數(shù)據(jù)質(zhì)量的工具和服務(wù)至關(guān)重要。
一致性的數(shù)據(jù)定義,涵蓋所有邊界情況,從生產(chǎn)數(shù)據(jù)中得到及時的反饋,數(shù)據(jù)集大小合適。
吳恩達同時建議不要指望工程師去嘗試改善數(shù)據(jù)集。相反,他希望ML社區(qū)開發(fā)更多MLOps工具,以幫助產(chǎn)生高質(zhì)量的數(shù)據(jù)集和AI系統(tǒng),并使他們具有可重復性。除此之外,MLOps是一個新生領(lǐng)域,MLOps團隊的最重要目標應(yīng)該是確保整個項目各個階段的高質(zhì)量和一致的數(shù)據(jù)流。
一些MLOps的工具已經(jīng)取得了不錯的成績。
Alteryx處于自助數(shù)據(jù)分析運動的最前沿。公司的平臺“ Designer”旨在快速發(fā)現(xiàn)、準備和分析客戶的詳細信息。該工具用于易于使用的界面,用戶可以連接和清除數(shù)據(jù)倉庫。Alteryx的工具還包括空間文件的數(shù)據(jù)混合,可以將其附加到其他第三方數(shù)據(jù)。
Paxata提供自適應(yīng)的信息平臺,它具有靈活的部署和自助操作。它使分析人員和數(shù)據(jù)科學家可以收集多個原始數(shù)據(jù)集,并將它們轉(zhuǎn)換成有價值的信息,這些信息可以立即轉(zhuǎn)換為執(zhí)行模型訓練所需要的格式。該平臺是基于所見即所得設(shè)計,具有電子表格風格的數(shù)據(jù)展示,因此用戶無需學習新工具。此外,該平臺能夠提供算法協(xié)助以推斷所收集數(shù)據(jù)的含義。
TIBCO軟件最近在這個快速發(fā)展的領(lǐng)域中嶄露頭角。它允許用戶連接、清理、合并和整理來自不同來源的數(shù)據(jù),其中還包括大數(shù)據(jù)存儲。該軟件使用戶可以通過簡單的在線數(shù)據(jù)整理進行數(shù)據(jù)分析,并且提供完整的API支持,可以根據(jù)自己的個性化需求進行更改。
網(wǎng)友表示,吳恩達老師說的太真實了!
也有網(wǎng)友表示,機器學習更像是數(shù)據(jù)分析,模型的搭建就是構(gòu)建pipelines。