久久亚洲一区二区三区四区,亚洲熟妇av一区二区三区色堂,国产精品免费大片,精品无码久久久久久久久曰韩邻居

當前位置:首頁 > 最新資訊 > 行業(yè)資訊

深度強化學習:智能機器中的頭號玩家

Labs 導讀

你是否想象過機器人也可以成為游戲領域的超級高手?是時候讓你的幻想成為現(xiàn)實,深度強化學習這位頭號玩家來啦!這是一個令人興奮又神秘的領域,簡單來說,它就是讓計算機像人類一樣學習和玩游戲。深度強化學習的學習過程就像是一場盛大的冒險,只不過主角不再是你,而是一臺智能機器。在這個冒險的旅程中,機器會探索各種各樣的環(huán)境,在探索的過程中,機器需要學習如何在這個世界中生存,這個過程就像一段傳奇的武俠故事,從小小菜鳥開始,一路闖蕩,跌跌撞撞,最后成長為一代巨俠!那么深度強化學習的原理是怎樣的呢?讓我們來一起看看吧。

Part 01、深度學習

深度強化學習融合了深度學習和強化學習,深度學習讓機器可以處理復雜的問題。這就像是機器有了一個超級大腦,深度神經(jīng)網(wǎng)絡讓它可以處理更多的信息,并做出更聰明的決策。這樣一來,機器可以在各種各樣的游戲中展現(xiàn)出驚人的技能,從圍棋、超級馬里奧到復雜的電子游戲,通通難不倒它。我們先來介紹一下深度學習。

深度學習是一種基于神經(jīng)網(wǎng)絡的機器學習方法,其目的是通過多層神經(jīng)元的組合計算來挖掘樣本數(shù)據(jù)的潛在規(guī)律,實現(xiàn)高效的數(shù)據(jù)處理、數(shù)據(jù)識別、數(shù)據(jù)分類等任務。當前常見的深度學習應用領域有圖像識別、自然語言處理、深度強化學習等等。

深度神經(jīng)網(wǎng)絡是深度學習的核心組成部分,它由多個神經(jīng)元組成的神經(jīng)網(wǎng)絡層疊加而成,神經(jīng)網(wǎng)絡依據(jù)自身的狀態(tài)對外界輸入信息做出響應,實現(xiàn)對數(shù)據(jù)的智能處理。神經(jīng)元是深度神經(jīng)網(wǎng)絡中的基本單位,其設計模仿了自然界中的生物神經(jīng)元的工作機制:通過接收外界的刺激信號而興奮,內部對信號進行處理,之后將信號傳導到下一個神經(jīng)元。

圖1 神經(jīng)元模型圖

多個擁有輸入和輸出的神經(jīng)元組成一層神經(jīng)網(wǎng)絡,多層神經(jīng)網(wǎng)絡疊加則構成了深度神經(jīng)網(wǎng)絡,與淺層神經(jīng)網(wǎng)絡相比,深度神經(jīng)網(wǎng)絡能夠學習到更復雜的特征表示,并在許多任務上取得了更優(yōu)秀的性能。

圖2 深度神經(jīng)網(wǎng)絡模型圖

深度神經(jīng)網(wǎng)絡通常由多個層組成,在深度神經(jīng)網(wǎng)絡中,上一層網(wǎng)絡的輸出將作為下一層網(wǎng)絡的輸入,其中,接收外界輸入的網(wǎng)絡層被稱作輸入層,最終輸出結果的網(wǎng)絡層被稱作輸出層,剩余中間網(wǎng)絡層均被稱為隱含層。深度神經(jīng)網(wǎng)絡的層與層之間的連接形成了一張復雜的圖結構,稱為神經(jīng)網(wǎng)絡拓撲結構。神經(jīng)網(wǎng)絡的層數(shù)越深,包含的可訓練參數(shù)就越多,訓練時的計算量就越大。

Part 02、強化學習

接下來,我們介紹一下強化學習。

機器學習方法通常分為三類:有監(jiān)督學習、無監(jiān)督學習和強化學習。強化學習作為機器學習中的一種重要類型,常用于處理連續(xù)決策問題,不同于前兩種學習方式,強化學習更注重于從與環(huán)境的交互行為中學習并改進自身策略。強化學習涉及到智能體(agent)和環(huán)境(environment)兩個概念,其中,智能體代表強化學習算法的交互實體,環(huán)境代表與智能體交互的外部環(huán)境模型。

圖3 強化學習概念圖

智能體的學習模式如圖3所示,首先,智能體觀測環(huán)境,獲取當前的環(huán)境狀態(tài)State,然后通過自身當前的策略制定行為Action并將其執(zhí)行。智能體的動作會影響環(huán)境,環(huán)境會對該行為做出反饋,即給智能體一個即時獎勵信號Reward,同時環(huán)境狀態(tài)發(fā)生改變,到達下一新狀態(tài),智能體繼續(xù)觀測環(huán)境,獲取新的環(huán)境狀態(tài),繼而制定下一個行為。智能體反復迭代與環(huán)境之間的交互行為,根據(jù)層層反饋不斷改進策略,以達到最大化累積獎勵的探索目標。

舉個例子,在智能機器的探索過程中,機器并不會被告知應該怎么做,而是通過試錯來使它學習。當它嘗試一種行動,比如在超級馬里奧游戲中跳躍,它可能會得到積極的獎勵,比如得分增加;或者得到消極的獎勵,比如游戲角色受傷。通過不斷嘗試和反饋,機器逐漸學會了在不同情況下采取最優(yōu)的行動,就像我們在現(xiàn)實生活中學習避免犯同樣的錯誤一樣。

圖4 超級馬里奧游戲畫面

在強化學習中,為了避免過擬合和提高泛化能力,通常采用探索和利用的策略。探索策略是指在學習過程中,以一定的概率選擇未經(jīng)歷過的動作,以便學習更加全面和深入的策略。利用策略是指在學習過程中,以一定的概率選擇已經(jīng)證明有效的動作,以獲得更高的累積獎勵。

Part 03、深度強化學習

接下來,介紹我們的主角——深度強化學習。

深度強化學習是強化學習與深度學習的結合。借助于深度神經(jīng)網(wǎng)絡的計算優(yōu)勢和感知優(yōu)勢,深度強化學習算法對具有復雜的高維狀態(tài)空間和高維動作空間的環(huán)境的探索能力有了長足進步,對狀態(tài)價值和動作價值的求解能力也得到顯著提升。深度強化學習神經(jīng)網(wǎng)絡可以接收高維輸入,在與環(huán)境的交互中學習最優(yōu)控制策略并輸出動作,廣泛應用于實時決策、智能機器人、游戲博弈等多個領域。

Deep-Q-Network(DQN)是深度強化學習領域里程碑式的算法,該算法由DeepMind在2013年提出,首次將深度學習方法與強化學習方法融合,開辟了深度強化學習研究的先河。

DQN算法旨在解決傳統(tǒng)Q-learning算法在處理高維狀態(tài)空間時出現(xiàn)的問題。

傳統(tǒng)Q-learning算法維護一張S-A表來記錄在每個狀態(tài)下采取每個動作對應的價值Q,通過查詢S-A表,智能體在每一個狀態(tài)下都選取具有最大價值的動作,也就實現(xiàn)了智能體的最優(yōu)控制。

圖5 模擬S-A表示意圖

S-A表存在一定的局限性,其使用前提是S-A的組合為有限值,當S-A組合無法窮舉時,則無法通過查詢S-A表的方式選取最優(yōu)動作,同時,在S-A組合數(shù)量超出算力承受范圍時,查詢Q表的復雜度也是極高的。

深度神經(jīng)網(wǎng)絡具有強大的擬合能力,DQN繼承了Q-learning的思想,但采用了深度神經(jīng)網(wǎng)絡來替代S-A表。

圖6 Q-Net

通過訓練神經(jīng)網(wǎng)絡,使其能根據(jù)狀態(tài)輸出對應狀態(tài)下動作的價值。模型的損失函數(shù):

圖片

其中圖片為Q值的目標值,損失函數(shù)表示了當前估計Q值與目標Q值之間的差距。通過使用梯度下降方法最小化損失函數(shù),來進行對網(wǎng)絡的訓練。

需要注意到,Q-Net在更新時參數(shù)發(fā)生變化,則圖片的值發(fā)生變化,但同時圖片的值也發(fā)生了變化,即模型追求的目標Q值處于一種變化的狀態(tài),具有不穩(wěn)定性,以變動的目標值來訓練網(wǎng)絡則導致估計值也陷入不穩(wěn)定的狀態(tài),因此DQN算法引入了另一個網(wǎng)絡結構Target-Net。Target-Net的網(wǎng)絡結構與Q-Net完全相同,在訓練過程中,DQN算法使用Target-Net來生成目標Q值,而不是Q-Net。Target-Net保持穩(wěn)定的權重,使用Target-Net生成的目標Q值來計算損失函數(shù),這可以有效解決目標Q值的不穩(wěn)定性和發(fā)散問題。Target-Net處于慢更新狀態(tài),每隔一定的時間步,Target-Net使用Q-Net的參數(shù)來實現(xiàn)自身的更新:

圖片

其中圖片表示Target-Net的參數(shù),圖片表示Q-Net的參數(shù),圖片參數(shù)用來調整更新幅度。

DQN算法在Atari游戲中取得了優(yōu)異的表現(xiàn),它的成功也促進了更多深度學習與強化學習融合研究的發(fā)展。

Part 04、深度強化學習的經(jīng)驗回放機制

深度強化學習智能體的交互行為可以用四元組圖片來記錄,其中s為t時刻的環(huán)境狀態(tài),a為t時刻的智能體動作,r為t時刻的獎勵,圖片為t+1時刻的環(huán)境狀態(tài)。通過對該交互記錄進行計算,可以得到損失函數(shù)用于訓練網(wǎng)絡。

傳統(tǒng)的Q-learning算法使用的是在線更新方式,每次訓練都只使用當前的交互記錄,訓練結束后就會丟棄該條交互記錄,繼續(xù)采集新記錄,這種方式更新較慢。事實上,模型每次采集的記錄可以重復使用。通過使用一個經(jīng)驗回放池來存儲智能體交互產生的記錄樣本,然后從經(jīng)驗回放池批量采集經(jīng)驗進行網(wǎng)絡訓練,可以增加樣本的利用率,減少采樣壓力。在實際應用中,要當經(jīng)驗回放池中存儲了足夠數(shù)量的經(jīng)驗后才會開始采樣并更新網(wǎng)絡,當經(jīng)驗回放池的容量達到上限時,每存進一條新樣本,就會以先進先出的方式刪除最早進入經(jīng)驗池的一條樣本。

同時,在一些連續(xù)場景如游戲場景中,當前的畫面狀態(tài)與下一時刻的畫面狀態(tài)會比較接近,導致兩個相鄰的樣本間據(jù)有很強的相關性,如果對樣本進行順序采樣,則可能導致網(wǎng)絡更新過擬合。所以經(jīng)驗回放池在設計上采用了隨機抽樣的方式,降低采樣結果之間的關聯(lián),該隨機采樣方式可以提升模型訓練的效果。

Part 05、總結

近年來,深度強化學習像一顆新星冉冉升起,迎來了研究的熱潮,同時研究的成果也被各大主流媒體爭相報道,比如擊敗人類圍棋世界冠軍的AlphaGo、擊敗DOTA2世界冠軍戰(zhàn)隊的OpenAI Five、擊敗KPL頂尖戰(zhàn)隊的騰訊AI-絕悟等等,深度強化學習展現(xiàn)出了越來越令人驚奇的潛力。

當然,深度強化學習不僅僅局限于應用在游戲領域,它在許多領域都有著應用潛力,比如自動駕駛、金融交易和醫(yī)療保健等領域,就連當下大放異彩的ChatGPT也應用了深度強化學習。

深度強化學習不僅是讓機器變得更智能,更重要的是,它讓科技變得更加有趣和有益。讓我們期待未來,看看深度強化學習會帶給我們怎樣的驚喜吧!

猜你喜歡