谷歌提出用深度學(xué)習(xí)強(qiáng)化CPU:讓電腦越用越快
在不做任何升級的情況下,當(dāng)代的PC電腦難免會隨著時間的流逝越用越慢。
不過,據(jù)《麻省理工科技評論(MIT Technology Review)》報道,美國的科學(xué)家正探索出了一種新的方法來武裝現(xiàn)代處理器,使之可能達(dá)到越用越快的效果。
我們知道,當(dāng)代CPU都要使用一種稱之為“預(yù)?。╬refetching)”的操作,因?yàn)镃PU處理信息的速度比內(nèi)存快,為了調(diào)諧和避免瓶頸,CPU就要試圖預(yù)測哪些信息可能是需要的,并提前把其抓取出來,然而,隨著摩爾定律接近失效,計算機(jī)架構(gòu)多年不變,這種預(yù)取卻變得越來越困難。
***的論文中,谷歌團(tuán)隊提出使用深度學(xué)習(xí)模型來改進(jìn)CPU的預(yù)取功能,比如,數(shù)據(jù)庫可以自動學(xué)習(xí)如何處理與社交網(wǎng)絡(luò)數(shù)據(jù)相反的財務(wù)數(shù)據(jù)?;蛘?,應(yīng)用程序可以教會自己更有效地響應(yīng)特定用戶的習(xí)慣。
所以,CPU的AI化,會是PC電腦性能的春天嗎?