自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

內(nèi)存減少3%-7%!谷歌提出用于編譯器優(yōu)化的機器學(xué)習(xí)框架 MLGO

人工智能 新聞
MLGO 使用強化學(xué)習(xí)訓(xùn)練神經(jīng)網(wǎng)絡(luò)來作決策,是一種用機器學(xué)習(xí)策略取代復(fù)雜的啟發(fā)式方法。作為一個通用的工業(yè)級框架,它將更深入、更廣泛應(yīng)用于更多環(huán)境,不僅僅在內(nèi)聯(lián)和寄存器分配。

現(xiàn)代計算機誕生,如何編譯更快、更小的代碼問題隨之出現(xiàn)。

編譯優(yōu)化是成本收益比最高的優(yōu)化手段,更好的代碼優(yōu)化可以顯著降低大型數(shù)據(jù)中心應(yīng)用程序的操作成本。編譯代碼的大小對于部署在安全引導(dǎo)分區(qū)上的移動和嵌入式系統(tǒng)或軟件來說是至關(guān)重要的,因為編譯后的二進制文件必須符合嚴格的代碼大小預(yù)算。隨著這一領(lǐng)域的進步,越來越復(fù)雜的啟發(fā)式方法嚴重擠壓有限的系統(tǒng)空間,阻礙了維護和進一步的改進。

最近的研究表明,機器學(xué)習(xí)可以通過用機器學(xué)習(xí)策略取代復(fù)雜的啟發(fā)式方法,在編譯器優(yōu)化中釋放更多的機會。然而,在通用的、行業(yè)級編譯器中采用機器學(xué)習(xí)策略仍然是一個挑戰(zhàn)。

為了解決這個問題,谷歌兩位高級工程師錢云迪、Mircea Trofin 提出了“MLGO,一個機器學(xué)習(xí)指導(dǎo)的編譯器優(yōu)化框架”,這是第一個工業(yè)級的通用框架,用于將機器學(xué)習(xí)技術(shù)系統(tǒng)地集成到 LLVM(一個開源的工業(yè)編譯器基礎(chǔ)設(shè)施,在構(gòu)建關(guān)鍵任務(wù)、高性能軟件時無處不在)中。

圖片

論文地址:https://arxiv.org/pdf/2101.04808.pdf

MLGO 使用強化學(xué)習(xí)訓(xùn)練神經(jīng)網(wǎng)絡(luò)來做出決策,以取代 LLVM 中的啟發(fā)式算法。根據(jù)作者描述,LLVM 上有兩處 MLGO 優(yōu)化:

1)通過內(nèi)聯(lián)減少代碼量;

2)通過寄存器分配提高代碼性能。

這兩種優(yōu)化都可以在 LLVM 資源庫中獲得,并已在生產(chǎn)中部署。

1 MLGO是如何工作的?

內(nèi)聯(lián)(Inlining)有助于通過做出能夠刪除冗余代碼的決策來減少代碼大小。在下面的示例中,調(diào)用者函數(shù) ??foo()??調(diào)用被調(diào)用者函數(shù) ??bar()??,而 ??bar()??本身又調(diào)用了 ??baz()??。內(nèi)聯(lián)這兩個調(diào)用站點將返回一個簡單的 ??foo()??函數(shù),該函數(shù)將減小代碼大小。

圖片

圖注:內(nèi)聯(lián)通過刪除冗余代碼來減少代碼大小

在實際代碼中,有成千上萬的函數(shù)相互調(diào)用,因此構(gòu)成了一個調(diào)用圖(Call graph)。在內(nèi)聯(lián)階段,編譯器遍歷(traverses)所有調(diào)用者-被調(diào)用者對的調(diào)用圖,并決定是否內(nèi)聯(lián)一個調(diào)用者-被調(diào)用者對。這是一個連續(xù)的決策過程,因為以前的內(nèi)聯(lián)決策會改變調(diào)用圖,影響后面的決策和最終的結(jié)果。在上面的例子中,調(diào)用圖??foo()?? → ??bar()?? → ??baz()??需要在兩條邊上做出“yes”的決定,以使代碼大小減少。

在MLGO之前,內(nèi)聯(lián)/非內(nèi)聯(lián)的決定是由啟發(fā)式方法做出的,隨著時間的推移,這種方法越來越難以改進。MLGO用一個機器學(xué)習(xí)模型代替了啟發(fā)式方法。在調(diào)用圖的遍歷過程中,編譯器通過輸入圖中的相關(guān)特征(即輸入)來尋求神經(jīng)網(wǎng)絡(luò)對是否內(nèi)聯(lián)特定的調(diào)用者-被調(diào)用者對的建議,并按順序執(zhí)行決策,直到遍歷整個調(diào)用圖為止。

圖片

圖注:內(nèi)聯(lián)過程中MLGO的圖示,“ # bbs”、“ # users”和“ callsite height”是調(diào)用者-被調(diào)用者對特性的實例

MLGO 使用策略梯度和進化策略算法對決策網(wǎng)絡(luò)進行 RL 訓(xùn)練。雖然沒有關(guān)于最佳決策的基本事實,但在線 RL 使用經(jīng)過培訓(xùn)的策略在培訓(xùn)和運行匯編之間進行迭代,以收集數(shù)據(jù)并改進策略。特別是,考慮到當前訓(xùn)練中的模型,編譯器在內(nèi)聯(lián)階段咨詢模型,以做出內(nèi)聯(lián)/不內(nèi)聯(lián)的決策。編譯完成后,它產(chǎn)生一個順序決策過程的日志(狀態(tài)、行動、獎勵)。然后,該日志被傳遞給訓(xùn)練器以更新模型。這個過程不斷重復(fù),直到得到一個滿意的模型為止。

圖片

圖注:訓(xùn)練期間的編譯器行為——編譯器將源代碼foo.cpp編譯成對象文件foo.o,并進行了一系列的優(yōu)化,其中一個是內(nèi)聯(lián)通道。

訓(xùn)練后的策略被嵌入到編譯器中,在編譯過程中提供內(nèi)聯(lián)/非內(nèi)聯(lián)的決策。與訓(xùn)練場景不同的是,該策略不生成日志。TensorFlow 模型被嵌入 XLA AOT ,它將模型轉(zhuǎn)換為可執(zhí)行代碼。這避免了TensorFlow運行時的依賴性和開銷,最大限度地減少了在編譯時由ML模型推理引入的額外時間和內(nèi)存成本。

圖片

圖注:生產(chǎn)環(huán)境中的編譯器行為

我們在一個包含30k 模塊的大型內(nèi)部軟件包上培訓(xùn)了大小內(nèi)聯(lián)策略。訓(xùn)練后的策略在編譯其他軟件時可以推廣,并減少了3% ~ 7% 的時間和內(nèi)存開銷。除了跨軟件的通用性之外,跨時間的通用性也很重要,軟件和編譯器都在積極開發(fā)之中,因此訓(xùn)練有素的策略需要在合理的時間內(nèi)保持良好的性能。我們在三個月后評估了該模型在同一組軟件上的性能,發(fā)現(xiàn)只有輕微的退化。

圖片

圖注:內(nèi)聯(lián)大小策略大小減少百分比,x 軸表示不同的軟件,y 軸表示減小的百分比。“Training”是訓(xùn)練模型的軟件,“InfraX”是不同的內(nèi)部軟件包。

MLGO 的內(nèi)聯(lián)換大小訓(xùn)練已經(jīng)在 Fuchsia 上部署,F(xiàn)uchsia 是一個通用的開源操作系統(tǒng),旨在為不同的硬件和軟件生態(tài)系統(tǒng)提供動力,其中二進制大小是關(guān)鍵。在這里,MLGO 顯示 C++ 翻譯單元的大小減少了6.3%。

2 寄存器分配

作為一個通用框架,我們使用 MLGO 來改進寄存器分配(Register allocation)通道,從而提高 LLVM 中的代碼性能。寄存器分配解決了將物理寄存器分配給活動范圍(即變量)的問題。

隨著代碼的執(zhí)行,不同的活范圍在不同的時間完成,釋放出的寄存器供后續(xù)處理階段使用。在下面的例子中,每個 "加法 "和 "乘法 "指令要求所有操作數(shù)和結(jié)果都在物理寄存器中。實時范圍x被分配到綠色寄存器,并在藍色或黃色寄存器的實時范圍之前完成。x 完成后,綠色寄存器變得可用,并被分配給活范圍t。

在代碼執(zhí)行過程中,不同的活范圍在不同的時間完成,釋放出的寄存器供后續(xù)處理階段使用。在下面的例子中,每個“加法”和“乘法”指令要求所有操作數(shù)和結(jié)果都在物理寄存器中?;顒臃秶?x 被分配到綠色寄存器,并在藍色或黃色寄存器的實時范圍之前完成。x 完成后,綠色寄存器變得可用,并被分配給活范圍 t 。

圖片

圖注:寄存器分配示例

當分配活動范圍 q 時,沒有可用的寄存器,因此寄存器分配通道必須決定哪個活動范圍可以從其寄存器中“驅(qū)逐”,以便為 q 騰出空間。這被稱為“現(xiàn)場驅(qū)逐”問題,是我們訓(xùn)練模型來取代原始啟發(fā)式算法的決策。在這個例子中,它將 z 從黃色寄存器中驅(qū)逐出去,并將其賦給 q 和 z 的前半部分。

我們現(xiàn)在考慮實際范圍 z 的未分配的下半部分。我們又有一個沖突,這次活動范圍 t 被驅(qū)逐和分割,t 的前半部分和 z 的最后一部分最終使用綠色寄存器。Z 的中間部分對應(yīng)于指令 q = t * y,其中沒有使用 z,因此它沒有被分配給任何寄存器,它的值存儲在來自黃色寄存器的堆棧中,之后被重新加載到綠色寄存器中。同樣的情況也發(fā)生在 t 上。這給代碼增加了額外的加載/存儲指令,降低了性能。寄存器分配算法的目標是盡可能地減少這種低效率。這被用作指導(dǎo) RL 策略訓(xùn)練的獎勵。

與內(nèi)聯(lián)大小策略類似,寄存器分配(regalloc-for-Performance)策略在 Google 內(nèi)部一個大型軟件包上進行了培訓(xùn),并且可以在不同的軟件上通用,在一組內(nèi)部大型數(shù)據(jù)中心應(yīng)用程序上每秒查詢次數(shù)(QPS)提高了0.3% ~ 1.5% 。QPS 的改進在部署后持續(xù)了幾個月,顯示該模型的可推廣性。

3 總結(jié)

MLGO使用強化學(xué)習(xí)訓(xùn)練神經(jīng)網(wǎng)絡(luò)來作決策,是一種機器學(xué)習(xí)策略取代復(fù)雜的啟發(fā)式方法。作為一個通用的工業(yè)級框架它將更深入、更廣泛應(yīng)用于更多環(huán)境,不僅僅在內(nèi)聯(lián)和寄存器分配。

MLGO可以發(fā)展為:1)更深入,例如增加更多的功能,并應(yīng)用更好的 RL 算法;2)更廣泛,可應(yīng)用于內(nèi)聯(lián)和重新分配之外的更多優(yōu)化啟發(fā)式方法。

作者對 MLGO 能夠為編譯器優(yōu)化領(lǐng)域帶來的可能性充滿熱情,并期待著它的進一步采用和研究界未來的貢獻。

責任編輯:張燕妮 來源: AI科技評論
相關(guān)推薦

2021-10-09 12:08:23

Facebook編譯器機器學(xué)習(xí)

2020-03-26 08:00:00

機器學(xué)習(xí)人工智能AI

2010-09-16 15:57:25

Java編譯器

2011-05-18 11:06:25

java編譯器

2023-11-15 17:58:58

C++代碼

2022-02-23 13:31:26

RVO編譯器優(yōu)化

2009-05-05 09:55:10

Javastring對象

2022-12-28 08:52:15

編譯器自動內(nèi)存管理

2020-03-27 14:20:55

谷歌Android開發(fā)者

2023-04-14 10:40:45

工具編譯器優(yōu)化

2010-01-08 16:00:46

C++編譯器

2018-09-15 23:23:04

Web開發(fā)機器學(xué)習(xí)軟件開發(fā)

2010-01-13 17:12:26

C++編譯器

2023-03-26 20:39:01

2022-01-28 08:22:36

深度學(xué)習(xí)編譯器開源

2010-03-23 11:17:16

Python 動態(tài)編譯

2010-10-20 13:43:37

C++編譯器

2021-02-04 12:46:54

谷歌開源安全漏洞

2022-05-18 09:31:42

編譯器開源代碼生成
點贊
收藏

51CTO技術(shù)棧公眾號