一、Q-learning算法
Q-learning算法是強化學習算法中的一種,該算法主要包含:Agent、狀態(tài)、動作、環(huán)境、回報和懲罰。Q-learning算法通過機器人與環(huán)境不斷地交換信息,來實現(xiàn)自我學習。Q-learning算法中的Q表是機器人與環(huán)境交互后的結果,因此在Q-learning算法中更新Q表就是機器人與環(huán)境的交互過程。機器人在當前狀態(tài)s(t)下,選擇動作a,通過環(huán)境的作用,形成新的狀態(tài)s(t+1),并產(chǎn)生回報或懲罰r(t+1),通過式(1)更新Q表后,若Q(s,a)值變小,則表明機器人處于當前位置時選擇該動作不是最優(yōu)的,當下次機器人再次處于該位置或狀態(tài)時,機器人能夠避免再次選擇該動作action. 重復相同的步驟,機器人與環(huán)境之間不停地交互,就會獲得到大量的數(shù)據(jù),直至Q表收斂。QL算法使用得到的數(shù)據(jù)去修正自己的動作策略,然后繼續(xù)同環(huán)境進行交互,進而獲得新的數(shù)據(jù)并且使用該數(shù)據(jù)再次改良它的策略,在多次迭代后,Agent最終會獲得最優(yōu)動作。在一個時間步結束后,根據(jù)上個時間步的信息和產(chǎn)生的新信息更新Q表格,Q(s,a)更新方式如式(1):
式中:st為當前狀態(tài);r(t+1)為狀態(tài)st的及時回報;a為狀態(tài)st的動作空間;α為學習速率,α∈[0,1];γ為折扣速率,γ∈[0,1]。當α=0時,表明機器人只向過去狀態(tài)學習,當α=1時,表明機器人只能學習接收到的信息。當γ=1時,機器人可以學習未來所有的獎勵,當γ=0時,機器人只能接受當前的及時回報。
每個狀態(tài)的最優(yōu)動作通過式(2)產(chǎn)生:
Q-learning算法的搜索方向為上下左右四個方向,如下圖所示:
Q-learning算法基本原理參考文獻:
[1]王付宇,張康,謝昊軒等.基于改進Q-learning算法的移動機器人路徑優(yōu)化[J].系統(tǒng)工程,2022,40(04):100-109.
二、Q-learning求解移動機器人路徑優(yōu)化動態(tài)顯示
基于強化學習(Reinforcement learning,RL)的移動機器人路徑優(yōu)化MATLAB
基于強化學習Qlearning的移動無人車路徑規(guī)劃MATLAB
基于MATLAB的移動掃地機器人路徑規(guī)劃之強化學習(Reinforcement learning,RL)
基于強化學習的移動無人車路徑規(guī)劃MATLAB文章來源:http://www.zghlxwxcb.cn/news/detail-506122.html
基于強化學習(Reinforcement learning,RL)的掃地機器人路徑規(guī)劃MATLAB文章來源地址http://www.zghlxwxcb.cn/news/detail-506122.html
到了這里,關于基于強化學習(Reinforcement learning,RL)的機器人路徑規(guī)劃MATLAB的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!