馬可夫決策過程
在數學中,馬可夫決策過程(英語:Markov decision process,MDP)是離散時間隨機控制過程。 它提供了一個數學框架,用於在結果部分隨機且部分受決策者控制的情況下對決策建模。 MDP對於研究通過動態規劃解決的最佳化問題很有用。 MDP至少早在1950年代就已為人所知;[1] 一個對馬可夫決策過程的核心研究是 羅納德·霍華德於1960年出版的《動態規劃和馬可夫過程》[2]。 它們被用於許多領域,包括機器人學,自動化,經濟學和製造業。 MDP的名稱來自俄羅斯數學家安德雷·馬可夫,因為它們是馬可夫鏈的推廣。
在每個時間步驟中,隨機過程都處於某種狀態,決策者可以選擇在狀態下可用的動作。 該隨機過程在下一時間步驟會隨機進入新狀態,並給予決策者相應的回饋。
隨機過程進入新狀態的機率受所選操作影響。 具體來說,它是由狀態轉換函數給出的。 因此,下一個狀態取決於當前狀態和決策者的動作。 但是給定和,它條件獨立於所有先前的狀態和動作; 換句話說,MDP的狀態轉換滿足馬可夫性質。
馬可夫決策過程是馬可夫鏈的推廣,不同之處在於添加了行動(允許選擇)和獎勵(給予動機)。反過來說,如果每個狀態只存在一個操作和所有的獎勵都是一樣的,一個馬可夫決策過程可以歸結為一個馬可夫鏈。
定義
馬可夫決策過程是一個4元組,其中:
- 是狀態空間的集合,
- 是動作的集合,也被稱為動作空間(比如說是狀態中可用的動作集合),
- 是時刻狀態下的動作導致時刻進入狀態的機率,
- 狀態經過動作轉換到狀態後收到的即時獎勵(或預期的即時獎勵)。
狀態和行動空間可能是有限的,也可能是無限的。一些具有可數無限狀態和行動空間的過程可以簡化為具有有限狀態和行動空間的過程。[3]
策略函數是從狀態空間()到動作空間()的(潛在機率)映射。
優化目標
馬可夫決策過程的目標是為決策者找到一個好的「策略」:一個函數,它指定決策者在狀態時將選擇的動作。一旦以這種方式將馬可夫決策過程與策略組合在一起,就可以確定在每個狀態的動作,並且生成的組合行為類似於馬可夫鏈(因為在狀態的動作都由決定,簡化為,成為一個馬可夫轉移矩陣)。
目標是選擇一個策略,使隨機獎勵的累積函數最大化,通常是在潛在的無限範圍內的預期貼現總和:
- (我們選擇也就是策略給出的動作)。並且期望值為。
其中是折現因子,滿足,通常接近於1(例如,對於貼現率r,存在)。較低的折扣率促使決策者傾向於儘早採取行動,而不是無限期地推遲行動。
使上述函數最大化的策略稱為最優策略,通常用表示。一個特定的MDP可能有多個不同的最佳策略。由於馬可夫決策過程的性質,可以證明最優策略是當前狀態的函數,就像上面所敘述的那樣。
模擬模型
在許多情況下,很難明確地表示轉移機率分布。在這種情況下,可以使用模擬器通過提供來自轉換發行版的示例來隱式地對MDP建模。隱式MDP模型的一種常見形式是情景環境模擬器,它可以從初始狀態啟動,生成後續狀態,並在每次接收到操作輸入時給予獎勵。通過這種方式,我們可以模擬出目標經過的狀態、採取的行動以及獲得的獎勵(統稱「軌跡」)。
另一種形式的模擬器是生成模型,即能夠生成下一個狀態的樣本並提供所有狀態和行動獎勵的單步驟模擬器。[4]在用偽代碼表示的算法中,通常用來表示生成模型。例如,表達式可以表示從生成模型中取樣的動作,其中和是當前狀態和動作,和是下一步的狀態和獎勵。與情景模擬器相比,生成模型的優勢在於它可以從任何狀態獲取數據,而不僅僅是在軌跡中遇到的狀態。
這些模型類形成了資訊內容的層次結構:顯式模型通過從分布中採樣簡單地生成生成模型,並且生成模型的重複應用生成軌跡模擬器。在相反的方向上,只能通過迴歸分析研究近似模型。可用於特定MDP的模型類型在確定哪種解決方案算法合適方面起著重要作用。例如,下一節中描述的動態規劃算法需要一個顯式模型,而蒙地卡羅樹搜尋需要一個生成模型(或可以在任何狀態下複製的情景模擬器),而大多數強化學習算法只需要一個軌跡模擬器 。
算法
可以通過各種方法(例如動態規劃)找到具有有限狀態和動作空間的MDP的解決方案。本節中的算法適用於具有有限狀態和動作空間並明確給出轉移機率和獎勵函數的MDP,但基本概念可以擴展到處理其他問題類別,例如使用函數趨近。
為有限狀態和動作MDP計算最優策略的標準算法系列需要存儲兩個按狀態索引的數列:第一個數列是,用來儲存實數,以及策略,用來存動作。在算法結束時,將存儲每一個狀態時的解決方案,而將存儲從狀態遵循該解決方案獲得的獎勵的折扣總和(平均)。
它們的順序取決於你所採用的算法的變體,可以一次或逐個狀態地對所有狀態執行它們,並且對某些狀態比其他狀態更頻繁。 只要沒有狀態被永久排除在任何一個步驟之外,算法最終將得出正確的解決方案。[5]
著名的變體
數值迭代
數值迭代也稱為反向歸納,不使用函數.相反,的值在需要時在內計算。 將的計算代入的計算得出組合步驟:
其中是迭代數,值迭代從和開始,作為價值函數的猜測。
參見
參考文獻
- ^ Bellman, R. A Markovian Decision Process. Journal of Mathematics and Mechanics. 1957, 6 (5): 679–684 [2021-04-30]. JSTOR 24900506. (原始內容存檔於2021-04-30). (頁面存檔備份,存於網際網路檔案館)
- ^ Howard, Ronald A. Dynamic Programming and Markov Processes (PDF). The M.I.T. Press. 1960 [2021-04-30]. (原始內容存檔 (PDF)於2011-10-09). (頁面存檔備份,存於網際網路檔案館)
- ^ Wrobel, A. On Markovian Decision Models with a Finite Skeleton. Mathematical Methods of Operations Research (ZOR). 1984, 28 (February): 17–27. S2CID 2545336. doi:10.1007/bf01919083.
- ^ Kearns, Michael; Mansour, Yishay; Ng, Andrew. A Sparse Sampling Algorithm for Near-Optimal Planning in Large Markov Decision Processes. Machine Learning. 2002, 49 (193–208): 193–208. doi:10.1023/A:1017932429737 .
- ^ Reinforcement Learning: Theory and Python Implementation. Beijing: China Machine Press. 2019: 44. ISBN 9787111631774.
- Yosida, K. 「Functional Analysis」, Ch XIII, § 3, Springer-Verlag, 1968. ISBN 3-540-58654-7
- Ribarič.M. and I.Vidav, 「An inequality for concave functions.」 Glasnik Matematički 8 (28), 183–186 (1973).