您的位置:首頁 > 資訊 > 行業(yè)動態(tài) > 正文

谷歌和UC伯克利的新式Actor-Critic算法快速在真實世界訓(xùn)練機器人

2019-01-24 09:05 性質(zhì):轉(zhuǎn)載 作者:雷鋒網(wǎng) 來源:雷鋒網(wǎng)
免責(zé)聲明:中叉網(wǎng)(htyl001.com)尊重合法版權(quán),反對侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識產(chǎn)權(quán)均系原作者和機構(gòu)所有。文章內(nèi)容觀點,與本網(wǎng)無關(guān)。如有需要刪除,敬請來電商榷?。?/div>
雷鋒網(wǎng) AI 科技評論按:相比于傳統(tǒng)方式中需要工程人員手動設(shè)計機器人每一個動作的精確參數(shù),AI 時代的研究人員們有了一種全...


雷鋒網(wǎng) AI 科技評論按:相比于傳統(tǒng)方式中需要工程人員手動設(shè)計機器人每一個動作的精確參數(shù),AI 時代的研究人員們有了一種全自動化的、有著廣闊前景的新學(xué)習(xí)方式:深度強化學(xué)習(xí)可以讓機器人從經(jīng)驗、從與世界的互動中直接學(xué)習(xí)行為,因為它可以借助通用化的神經(jīng)網(wǎng)絡(luò)表示,處理復(fù)雜的傳感器輸入。然而,許多現(xiàn)有的強化學(xué)習(xí)算法都需要幾天、幾周甚至更久時長的真實世界數(shù)據(jù)才能收斂到比較理想的動作。更重要的是,這樣的系統(tǒng)很難在復(fù)雜的機器人系統(tǒng)上使用(比如多足機器人),在系統(tǒng)的探索學(xué)習(xí)過程中很容易就會損傷到機器人的機械部件,同時還難以調(diào)節(jié)超參數(shù),許多安全方面的考量也可能帶來更多的限制。

近期,谷歌 AI 與 UC 伯克利大學(xué)合作研發(fā)了一種新的強化學(xué)習(xí)算法 Soft Actor-Critic(SAC)。這是一種穩(wěn)定、高效的深度強化學(xué)習(xí)算法,它高度符合機器人實驗的需求,也就非常適合真實世界中的機器人技能學(xué)習(xí)。重點是,SAC 的學(xué)習(xí)效率足夠高,可以在數(shù)個小時內(nèi)學(xué)會解決真實世界的機器人問題,而且同一套超參數(shù)可以在多種不同的環(huán)境中工作。

谷歌 AI 撰寫博客介紹了 SAC 背后的一些研究工作,也介紹了相關(guān)的實驗結(jié)果。雷鋒網(wǎng) AI 科技評論編譯如下。另外可以參見 OpenAI 先在模擬環(huán)境中訓(xùn)練機器人,然后高效地遷移到真實機器人的研究。

在真實世界中學(xué)習(xí)機器人的要求

真實世界的機器人實驗有著一些重大的挑戰(zhàn),比如硬件失效和人工重置會導(dǎo)致數(shù)據(jù)流經(jīng)常中斷,以及需要讓探索學(xué)習(xí)過程平滑,避免快速的機械磨損或者撞擊破壞,這都對算法理論和算法的實現(xiàn)增加了額外的限制,包括以下(但不限于):

有較高的樣本效率,以便降低學(xué)習(xí)時間;需要調(diào)節(jié)的超參數(shù)的數(shù)量盡量??;能在不同的場景中重復(fù)使用已經(jīng)采集到的數(shù)據(jù)(也被稱作“無策略學(xué)習(xí)”);確保探索學(xué)習(xí)過程不損壞硬件;Soft Actor-Critic

Soft Actor-Critic 是基于最大熵強化學(xué)習(xí)開發(fā)的,這是一種嘗試讓預(yù)期回報最大化(標(biāo)準(zhǔn)的強化學(xué)習(xí)目標(biāo)),同時也讓策略的熵最大化的框架。熵更高的策略具有更高的隨機性,從直覺上看來,這意味著最大熵強化學(xué)習(xí)會學(xué)習(xí)出能取得高回報的策略中具有最高隨機性的那個策略。

為什么在機器人學(xué)習(xí)中這是一件好事呢?一個明顯的原因是,為最大熵優(yōu)化的策略會更為魯棒:如果策略在訓(xùn)練過程中能夠允許高度隨機的動作,那么它在測試時候也就更有可能可以順利地應(yīng)對預(yù)期不到的擾動。不過更穩(wěn)妥的理由是,最大熵訓(xùn)練不僅可以提高算法對超參數(shù)的魯棒性,也可以提高它的采樣效率。

Soft Actor-Critic 會學(xué)習(xí)一個隨機策略,這個策略會把狀態(tài)映射到動作以及一個 Q 函數(shù),這個 Q 函數(shù)會估計當(dāng)前策略的目標(biāo)價值,并通過逼近動態(tài)編程優(yōu)化它們。通過這樣的方式,Soft Actor-Critic 可以讓經(jīng)過熵強化的回報最大化。在這個過程中,SAC 會把目標(biāo)看作一個絕對真的方法來導(dǎo)出更好的強化學(xué)習(xí)算法,它們的表現(xiàn)穩(wěn)定,而且有足夠高的樣本效率,可以用在真實世界的機器人應(yīng)用中。

SAC 的表現(xiàn)

研究人員們在兩個任務(wù)中評估了算法的表現(xiàn):1,Ghost Robotics 環(huán)境中 Minitaur 四足機器人的行走;2,用一個三指動力爪轉(zhuǎn)動閥門。學(xué)習(xí)行走這件事當(dāng)然是一個不小的挑戰(zhàn)了,由于機器人是欠驅(qū)動的,所以機器人需要學(xué)會如何在四只腿之間平衡接觸力的大小,這樣才能持續(xù)往前走。未經(jīng)訓(xùn)練的策略會讓機器人失去平衡摔倒,而如果摔了太多次,最終是有可能把機器人摔壞的。樣本高效的學(xué)習(xí)在這時候也就非常關(guān)鍵。

雖然研究人員們是在平地上訓(xùn)練的機器人行走策略,但稍后的測試階段是在多種不同的地面狀況和障礙物上進行的。理論上來說,通過 SAC 學(xué)習(xí)到的策略在測試時遇到擾動的時候也應(yīng)當(dāng)是魯棒的。而實際上研究人員們也觀察到,通過他們的方法學(xué)習(xí)到的策略不需要任何額外的學(xué)習(xí)就可以應(yīng)對這些擾動。

訓(xùn)練

測試 1

測試 2

測試 3

下面這個操控任務(wù)需要機械手轉(zhuǎn)動一個類似閥門的物體,目標(biāo)是讓藍色的一面朝向右側(cè)。這個任務(wù)尤其有挑戰(zhàn)性,不僅任務(wù)的理解感知有難度,而且還需要控制這個具有 9 個自由度的機械手。為了能夠感知這個閥門,機器人必須要使用來自攝像頭的原始 RGB 圖像輸入(如圖右下角)。對于每一輪嘗試,閥門的位置都會重新設(shè)定到一個隨機角度,迫使策略學(xué)習(xí)如何根據(jù) RGB 圖像輸入感知當(dāng)前的閥門角度。

對于這兩個任務(wù),SAC 都能很快地解決:前一個四足機器人任務(wù)學(xué)了 2 個小時,后一個觀察圖像、轉(zhuǎn)動閥門的任務(wù)學(xué)習(xí)了 20 個小時。研究人員們也為轉(zhuǎn)動閥門任務(wù)學(xué)習(xí)了一個無需圖像輸入的策略,他們把其它方式采集到的閥門角度作為觀察結(jié)果輸入給策略,在這種簡單的設(shè)置下 SAC 只需要 3 個小時就可以學(xué)會解決這個任務(wù)。相比之下,更早的使用自然策略梯度的研究學(xué)習(xí)同一個無需圖像輸入的任務(wù)需要花 7.4 個小時。

結(jié)論

這項研究展示了基于熵最大化框架的深度強化學(xué)習(xí)可以用來在有挑戰(zhàn)性的真實世界環(huán)境中學(xué)習(xí)機器人技能。由于這些策略是直接在真實世界中學(xué)習(xí)到的,它們對環(huán)境中的變化表現(xiàn)出了魯棒性,這通過其他方式是很難獲得的。研究人員們也展示了他們可以直接從高維圖像觀察中學(xué)習(xí),這對經(jīng)典機器人控制來說也是一個很大的挑戰(zhàn)。研究人員們希望 SAC 的發(fā)表可以幫助其他的研究團隊一同更好地把深度強化學(xué)習(xí)應(yīng)用在未來更多的復(fù)雜真實世界任務(wù)中。


網(wǎng)友評論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關(guān)資訊

關(guān)注官方微信

手機掃碼看新聞