自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

帶你從不同角度了解強化學習算法的分類

人工智能 機器學習 算法
本文將介紹強化學習算法的分類法,從多種不同角度學習幾種分類法。話不多說,大家深呼吸,一起來學習RL算法的分類吧!

本文轉(zhuǎn)載自公眾號“讀芯術(shù)”(ID:AI_Discovery)。

本文將介紹強化學習算法的分類法,從多種不同角度學習幾種分類法。話不多說,大家深呼吸,一起來學習RL算法的分類吧!

[[355287]]

無模型(Model-Free)VS基于模型(Model-Based)

帶你從不同角度了解強化學習算法的分類

無模型VS模型分類法 [圖源:作者,OpenAISpinning Up再創(chuàng)作]

RL算法的一種分類方法是詢問代理是否能訪問環(huán)境模型。換言之,詢問環(huán)境會否響應(yīng)代理的行為。基于這個觀點有兩個RL算法的分支:無模型和基于模型。

  • 模型RL算法根據(jù)環(huán)境的學習模型來選擇最佳策略。
  • 無模型RL算法通過代理反復(fù)測試選擇最佳策略。

兩種算法都各有優(yōu)缺點,如下表所示:

帶你從不同角度了解強化學習算法的分類

基于價值VS 基于政策

RL算法的另一種分類方法是考慮算法優(yōu)化了價值函數(shù)還是策略。在深入了解之前,我們先了解策略和價值功能。

(1) 策略

策略π是從狀態(tài)s到動作a的映射,其中π(a | s)是在狀態(tài)s時采取動作a的概率。策略可以是確定的,也可以是隨機的。

假設(shè)我們在玩剪刀石頭布這個非常簡單的游戲,兩個人通過同時執(zhí)行三個動作(石頭/剪刀/布)中的一個來比輸贏。規(guī)則很簡單:

  • 剪刀克布
  • 石頭克剪刀
  • 布克石頭

把策略看作是迭代的剪刀石頭布

  • 確定性策略容易被利用-如果我意識到你出“石頭”較多,那么我可以利用這一點,獲得更大贏面。
  • 統(tǒng)一的隨機策略(uniform random policy)最佳—如果你的選擇完全隨機,那我就不知道該采取什么行動才能取勝。

(2) 價值函數(shù)

價值函數(shù)是根據(jù)對未來回報(返回值)的預(yù)測來衡量狀態(tài)良好程度的函數(shù)。返回值(Gt)基本等于“折扣”回報的總和(自t時起)。

帶你從不同角度了解強化學習算法的分類

γ ∈ [0,1]是折扣因數(shù)。折扣因數(shù)旨在抵扣未來的回報,有以下幾個原因:

  • 方便數(shù)學計算
  • 打破狀態(tài)變化圖中的無限循環(huán)
  • 未來回報的高度不確定性(比如股價變化)
  • 未來回報不能立時受益(比如人們更愿意當下享樂而非十年后)

了解了返回值的概念后,接下來定義價值函數(shù)的數(shù)學形式吧!

價值函數(shù)的數(shù)學形式有二:

帶你從不同角度了解強化學習算法的分類

狀態(tài)-動作價值函數(shù)(Q值)是t時狀態(tài)動作組合下的期望返回值:

帶你從不同角度了解強化學習算法的分類

Q值和價值函數(shù)之間的區(qū)別是動作優(yōu)勢函數(shù)(通常稱為A值):

帶你從不同角度了解強化學習算法的分類

現(xiàn)在知道了什么是價值函數(shù)和動作-狀態(tài)價值函數(shù)。接下來學習有關(guān)RL算法另一個分支的更多信息,該分支主要關(guān)注算法優(yōu)化的組件。

帶你從不同角度了解強化學習算法的分類

價值算法與策略算法[圖源:作者,David Silver RL課程再創(chuàng)作]

  • 價值RL旨在學習價值/行動-價值函數(shù),以生成最佳策略(即,隱式生成最佳策略);
  • 策略RL旨在使用參數(shù)化函數(shù)直接學習策略。
  • Actor-Critic RL旨在學習價值函數(shù)和策略。

下表列出了價值和策略算法的優(yōu)缺點。

帶你從不同角度了解強化學習算法的分類
  • 價值算法必須選擇使動作-狀態(tài)價值函數(shù)最大的動作,如果動作空間非常高維或連續(xù),成本就會很高,而策略算法是通過直接調(diào)整策略的參數(shù)來運行的,不需要進行最大化計算。
  • 如果操作不當 (收斂性質(zhì)差/不穩(wěn)定),價值算法會出現(xiàn)一系列問題,而策略算法更穩(wěn)定,收斂性質(zhì)更好,因為它們只對策略梯度進行很少的增量更改。
  • 策略算法既可以學習確定性策略,也可以學習隨機策略,而價值算法只能學習確定性策略。
  • 與價值算法相比,原本的策略算法速度更慢,方差更大。價值算法試圖選擇使動作-狀態(tài)價值函數(shù)最大化的動作,這將優(yōu)化策略 (運算更快、方差更小),策略算法只需幾步,并且更新順暢、穩(wěn)定,但同時效率較低,有時會導(dǎo)致方差變大。
  • 策略算法通常收斂于局部最優(yōu)而不是全局最優(yōu)。

策略和非策略算法

還有一種RL算法分類方法是基于策略來源分類。

帶你從不同角度了解強化學習算法的分類

可以說策略算法是“邊做邊學”。也就是說該算法試著從π采樣的經(jīng)驗中了解策略π。而非策略算法是通過“監(jiān)視”的方式來工作。換句話說,該算法試圖從μ采樣的經(jīng)驗中了解策略π。例如,機器人通過觀察人類的行為來學習如何操作。

 

責任編輯:趙寧寧 來源: 今日頭條
相關(guān)推薦

2021-10-26 00:27:28

Python以太坊智能

2017-07-25 16:04:31

概念應(yīng)用強化學習

2021-07-27 05:21:34

邊緣計算數(shù)據(jù)網(wǎng)絡(luò)

2022-11-02 14:02:02

強化學習訓練

2019-02-01 14:45:41

前端

2020-08-14 11:00:44

機器學習人工智能機器人

2018-04-20 08:37:23

災(zāi)難恢復(fù)數(shù)據(jù)備份

2023-06-25 11:30:47

可視化

2024-10-12 17:14:12

2017-02-20 16:35:10

人工智能算法強化學習

2023-01-24 17:03:13

強化學習算法機器人人工智能

2017-02-20 09:02:31

Impala架構(gòu)設(shè)計

2023-03-09 08:00:00

強化學習機器學習圍棋

2020-08-10 06:36:21

強化學習代碼深度學習

2025-03-11 01:00:00

GRPO算法模型

2021-09-17 15:54:41

深度學習機器學習人工智能

2020-11-12 19:31:41

強化學習人工智能機器學習

2023-11-07 07:13:31

推薦系統(tǒng)多任務(wù)學習

2018-12-14 09:25:28

量化評估算法拓展強化學習

2023-12-25 14:34:27

點贊
收藏

51CTO技術(shù)棧公眾號