色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

什么是強化學習?純強化學習有意義嗎?強化學習有什么的致命缺陷?

MqC7_CAAI_1981 ? 來源:未知 ? 作者:易水寒 ? 2018-07-15 10:56 ? 次閱讀

Deepmind在Alphago上的成就把強化學習這一方法帶入了人工智能的主流學習領域,【從零開始學習】也似乎成為了拋棄人類先驗經驗、獲取新的技能并在各類游戲擊敗人類的“秘訣”。來自斯坦福的Andrey Kurenkov對強化學習的這一基礎提出了質疑。本文中,他從強化學習的基本原則及近期取得的成就說起,肯定了其成果,也指出了強化學習的基礎性局限。大數據文摘對本文進行了精華編譯。

玩過棋牌游戲么?

假設你不會玩,甚至從來沒有接觸過。

現在你的朋友邀請你和他對戰一局,并且愿意告訴你玩兒法。

你的朋友很耐心,他手把手教了你下棋的步驟,但是卻始終不告訴你他所走每一步的含義,只在最后告訴你這盤棋的輸贏結果。

對局開始。由于“沒經驗”,你一直輸。但在經歷了多次“失敗的經驗”后,你漸漸地發現了一些規律。

幾個禮拜過去了,在幾千把游戲實戰的“磨練”下,你終于可以在對戰中獲得勝利。

挺傻的對吧?為什么你不直接問為什么下這個棋以及怎么下棋呢?

但是,這種學下棋的方法其實是今天大部分的強化學習方法的縮影。

什么是強化學習?

強化學習是人工智能基本的子領域之一,在強化學習的框架中,智能體通過與環境互動,來學習采取何種動作能使其在給定環境中的長期獎勵最大化,就像在上述的棋盤游戲寓言中,你通過與棋盤的互動來學習。

在強化學習的典型模型中,智能體只知道哪些動作是可以做的,除此之外并不知道其他任何信息,僅僅依靠與環境的互動以及每次動作的獎勵來學習。

先驗知識的缺乏意味著角色要從零開始學習。我們將這種從零開始學習的方法稱作“純強化學習(Pure RL)”。

純強化學習在西洋雙陸棋和圍棋這類游戲中被廣泛應用,同時也應用于機器人技術等領域。

什么是強化學習?純強化學習有意義嗎?強化學習有什么的致命缺陷?

在傳統的強化學習中,只有在最終狀態才有非零獎勵。這一領域的研究最近因為深度學習而再次受到關注,但是其基本的模型卻并沒有什么改進。

畢竟這種從零開始的學習方法可以追溯到強化學習研究領域的最初創建時期,也在最初的基本公式中就被編碼了。

所以根本的問題是:如果純強化學習沒有什么意義,那么基于純強化學習來設計AI模型還合理嗎?

如果人類通過純強化學習來學習新的棋類游戲聽起來如此荒謬,那我們是不是應該考慮,這是不是一個本身就有缺陷的框架,那么AI角色又如何通過這一框架進行有效的學習呢?不依靠任何先前經驗或指導,僅僅靠獎勵信號來學習,是否真的有意義呢?

什么是強化學習?純強化學習有意義嗎?強化學習有什么的致命缺陷?

強化學習的基本公式

純強化學習是否真的有意義?

關于這個問題,強化學習專家們眾說紛紜:

有!純強化學習當然有意義,AI智能體不是真正的人類,不用像我們一樣學習。何況純強化學習已經可以解決很多復雜問題了。

沒有!從定義上看,AI研究包括讓機器也能做目前只有人類能做的事情,所以跟人類智能來比較很合理。至于那些純強化學習現在能解決的問題,人們總是忽視一點:那些問題其實沒有它們看起來那么復雜。

既然業內無法達成共識,那就讓我們來用事實說話。

基于純強化學習,以DeepMind為代表的業內玩家已經達成了很多“炫酷”的成就:

1)DQN (Deep Q-Learning)—— DeepMind的著名研究項目,結合了深度學習與純強化學習,并加入了一些別的創新,解決了很多以前解決不了的復雜問題。這個五年前的項目大大提高了人們對強化學習的研究興趣。

毫不夸張的說,DQN是憑借一己之力重燃了研究者對于強化學習的熱情。雖然DQN只有幾項簡單的創新,但是這幾項創新對于深度強化學習的實用性至關重要。

雖然這個游戲現在看起來非常簡單,僅僅是通過像素輸入來學習,但在十年前,玩這個游戲是難以想象的。

2)AlphaGo Zero和AlphaZero——純粹用于戰勝人類的圍棋、國際象棋及日本將棋的強化學習模型

首先來進行一個科普:AlphaGo Zero是谷歌DeepMinwd項目開發的最新的升級版AlphaGo。不同于原始的結合了監督學習和強化學習方式的AlphaGo,AlphaGo Zero單純依靠強化學習和自我對弈來進行算法學習。

因此,盡管該模型也利用了一個預先提供的算法規則,即棋類的游戲規則和自我對弈來進行更可靠而持續的迭代更新,AlphaGo Zero更遵循純強化學習的整體方法論:算法從零開始,通過學習結果的獎勵信號反饋進行迭代。

由于它不是從人類身上直接學習游戲規則的,AlphaGo Zero也因此被許多人認為是一個比AlphaGo更具顛覆性的算法。然后就誕生了AlphaZero:作為一個更通用的算法,它不僅可以學習如何下圍棋,還可以學習下國際象棋和日本將棋。

這是史上第一次出現用單一算法來破解象棋和圍棋的算法。并且,它并沒有像過去的深藍計算機或者AlphaGo那樣對任何一種游戲規則做特殊定制。

毫無疑問,AlphaGo Zero和AlphaZero是強化學習發展史上里程碑式的案例。

歷史性的時刻——李世乭輸給了AlphaGo

3)OpenAI的Dota機器人–由深度強化學習算法驅動的AI智能體,可以在流行的復雜多人對戰游戲Dota2上擊敗人類。OpenAI在2017年在變化有限的1v1游戲中戰勝了職業玩家的戰績已經足夠讓人驚嘆。最近,它更是在一局復雜得多的5v5比賽中戰勝了一整隊人類玩家。

這一算法也與AlphaGo Zero一脈相承,因為它不需要任何人類知識,純粹通過自我對弈對算法進行訓練。在下面的視頻里,OpenAI自己出色地解釋了它的成就。

毫無疑問,在這種以團隊合作為基礎的高度復雜的游戲中,算法取得的好成績,遠遠優于先前在Atari電子游戲和圍棋上取勝的戰績。

更重要的是,這種進化是在沒有任何重大算法進步的情況下完成的。

這一成就歸功于驚人的計算量、已經成熟的強化學習算法、以及深度學習。在人工智能業內,大家普遍的共識是Dota機器人的勝利是令人驚嘆的成就,也是強化學習一系列重要里程碑的下一個:

沒錯,純強化學習算法已經取得了很多成就。

但仔細一想,我們就會發現,這些成就其實也“不過爾爾”。

純強化學習的局限性

讓我們從DQN開始回顧,在剛剛提到的這些案例中,純強化學習到底存在哪些局限性。

它可以在很多Atari游戲中達到超人的水平,但一般來說,它只能在基于反射的游戲中做得很好。而在這種游戲中,你其實并不需要推理和記憶。

即使是5年后的今天,也沒有任何一種純強化學習算法能破解推理和記憶游戲;相反,在這方面做得很好的方法要么使用指令,要么使用演示,而這些在棋盤游戲中也行得通。

什么是強化學習?純強化學習有意義嗎?強化學習有什么的致命缺陷?

盡管DQN在諸如Breakout之類的游戲中表現出色,但它仍然無法完成像蒙特祖瑪的復仇這樣相對簡單的游戲。

而即使是在DQN表現得很好的游戲里,和人類相比,它還是需要大量的時間和經驗來學習。

同樣的局限性在AlphaGo Zero和AlphaZero中也存在。

也就是說,它的每一種性質都使學習任務變得容易:它是確定性的、離散的、靜態的、完全可觀察的、完全已知的、單智能體的、適用于情景的、廉價的、容易模擬的、容易得分的……

但在此前提下,對于圍棋游戲來說,唯一的挑戰是:它具有龐大的分支因子。

所以,盡管圍棋可能是easy模式下最難的一道題,但它仍然是easy模式。而大多數研究人員都認識到,現實世界的多數問題比圍棋這類簡單的游戲復雜得多。

盡管有很多卓越的成就,但AlphaGo的所有變體在本質上仍與“深藍”(Deep Blue)相似:它是一個經過多年設計的、投入高達數百萬美元的昂貴系統,卻純粹只是為了玩一款抽象的棋盤游戲——除此之外別無其他用途。

現在到Dota了。

是的,這是一個比圍棋復雜得多的游戲,缺乏很多使游戲變得簡單的特性:它不是離散的、靜態的、完全可觀察的、單智能體的或適用于情景的——這是一個極具挑戰性的問題。

但是,它仍然是一款很容易模擬的游戲,通過一個漂亮的API來控制——它完全消除了需要感知或運動控制。因此,與我們每天在真實世界中解決問題時所面臨的真正的復雜性相比,它依然是簡單的。

它仍然像AlphaGo一樣,需要大規模投資。許多工程師為了得到一個算法,使用長到離譜的時間來解決這個問題。這甚至需要數千年的游戲訓練并使用多達256個的GPU和128000個CPU核。

因此,僅僅因為強化學習的這些成果就認為純強化學習很強大,是不正確的。

我們必須要考慮的是,在強化學習領域,純強化學習可能只是最先使用的方法,但也許,它不一定是最好的?

純強化學習的根本缺陷——從零開始

是否有更好的方法讓AI智能體學習圍棋或Dota呢?

“AlphaGo Zero”這個名字的含義就是指模型從零開始學習圍棋。讓我們回憶一下開頭講的那個例子。既然試著從頭學起棋盤游戲而不作任何解釋是荒謬的,那么AI為什么還一定要從零開始學習呢?

讓我們想象一下,對于人類來說,你會如何開始學習圍棋呢?

首先,你會閱讀規則,學習一些高層次的策略,回想過去你是如何玩類似游戲的,然后從高手那里獲取一些建議。

因此,AlphaGo和OpenAI Dota機器人從零開始學習的限制,導致他們和人類學習相比,依靠的是許多數量級的游戲指令和使用更原始的、無人能及的計算能力。

AlphaGo Zero的進展。請注意,要達到ELO分數為0,它需要一整天的時間和成千上萬次的游戲(而即使是最弱的人也能輕松做到)。

公平地說,純強化學習可以合理地用于諸如持續控制之類的“狹義”任務,或者最近的復雜游戲,如Dota或星際爭霸。

然而,隨著深度學習的成功,AI研究社區現在正試圖解決越來越復雜的任務,這些任務必須面對現實世界中到復雜性。正是這些復雜性,我們可能需要一些超越純強化學習的東西。

那么,讓我們繼續討論我們的修正問題:純強化學習,以及總體上從零開始學習的想法,是完成復雜任務的正確方法嗎?

我們還應該堅持純強化學習嗎?

乍一看,這個問題的答案也許是:應該。為什么這么說呢?

從零開始的學習意味著它沒有任何先入為主的主觀因素,這樣的話,經過學習的人工智能會比我們更加優秀,就像AlphaGo Zero一樣。畢竟,如果人類的直接存在錯誤,那不就限制了機器的學習能力了么?

隨著深度學習方法的成功,這個觀點已經成為主流,雖然訓練模型的數據量驚人,但是我們依舊只給予少量的先驗知識。

以前的非傳統語音識別和端對端深度學習方法的圖例,后者有更好的表現,并成為了現代語音識別的基礎。

不過,讓我們重新審視這個問題:結合人類的先驗知識就一定會限制機器的學習能力么?

答案是否定的。也就是說,我們可以在深度學習的框架下(也就是只由數據出發),對手頭的任務下達一定的指示,而不至于限制機器的學習能力。

目前,這個方向已經出現了諸多研究,相信這樣的技術也能很快被應用到實際例子中。

比如像AlphaGo Zero這樣的算法,我們大可不必從零開始學習,而是在不限制其學習能力的前提下加入人類知識的指導。

即使你覺得這個方向不靠譜,堅持要從零學習,那純強化學習就是我們最佳的選擇嗎?

以前的話,答案是毋庸置疑的;在無梯度優化的領域中,純強化學習是理論最完備而方法最可靠的。

不過近期很多文章都質疑這個論斷,因為他們發現了相對簡單的方法(而且總體而言沒那么受到重視的)、基于進化策略的方法在一些典型的任務中似乎和純強化學習表現得一樣好:

Simple random search provides a competitive approach to reinforcement learning》

《Deep Neuroevolution: Genetic Algorithms Are a Competitive Alternative for Training Deep Neural Networks for Reinforcement Learning》

大數據文摘微信公眾號后臺回復“缺陷”下載這兩篇論文。

Ben Recht是最優化算法的理論與實踐研究的帶頭人,他總結說:

我們發現隨機搜索在簡單線性問題中比強化學習更加優秀,比如策略梯度。不過,當我們遇到更加困難的問題時,隨機搜索就會崩潰嗎?并沒有。

因此,并不能說強化學習是從零學習的最佳方法。

回到人類從零學習的問題上來,人類學習一個新的復雜技巧時就沒有任何先驗知識嗎(比如組裝一個家具或駕駛汽車)?其實并不是這樣子的,對不對?

也許對于一些非常基礎的問題來說(比如嬰兒要學習的),我們可以從零開始,使用純強化學習,但是對于AI領域中的很多重要問題,從零開始并沒有特別的優勢:我們必須清楚,我們想要AI學會什么,而且必須要提供這方面的演示和指導。

實際上,目前人們廣泛認為,從零開始學習是強化學習模型受到限制的主要原因:

目前的AI是“數據依賴”的——大多數情況下,AI需要海量的數據才能發揮它的作用。這對于純強化學習技術來說非常不利。回想一下,AlphaGo Zero需要上百萬的對局來達到ELO分數為0的水平,而人類用很少的時間就能達到這個水平。顯然,從零開始學習是效率最低的一種學習方法;

目前的AI是不透明的——在多數情況下,對于AI算法的學習,我們只有高層次的直覺。對于很多AI問題,我們希望算法是可預測和可解釋的。但是一個什么都從零開始學習的巨型神經網絡,其解釋性和預測性都是最差的,它只能給出一些低層次的獎勵信號或是一個環境模型。

目前AI是狹隘的——在很多情況下,AI模型只能夠在特定領域表現的非常好,而且非常不穩定。從零開始學習的模式限制了人工智能學習能力。

目前的AI是脆弱的——AI模型只能把海量數據作為無形的輸入進行泛化,但是結果非常不穩定。因此,我們只能知道我們要AI智能體學習的是什么。

如果是一個人,那么在開始學習前,應該能夠對任務進行解釋并提供一些建議。這對于AI來說,同樣適用。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1791

    文章

    47183

    瀏覽量

    238247
  • 大數據
    +關注

    關注

    64

    文章

    8882

    瀏覽量

    137396
  • 強化學習
    +關注

    關注

    4

    文章

    266

    瀏覽量

    11246

原文標題:非得從零開始學習?扒一扒強化學習的致命缺陷

文章出處:【微信號:CAAI-1981,微信公眾號:中國人工智能學會】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    什么是深度強化學習?深度強化學習算法應用分析

    什么是深度強化學習? 眾所周知,人類擅長解決各種挑戰性的問題,從低級的運動控制(如:步行、跑步、打網球)到高級的認知任務。
    發表于 07-01 10:29 ?1436次閱讀
    什么是深度<b class='flag-5'>強化學習</b>?深度<b class='flag-5'>強化學習</b>算法應用分析

    反向強化學習的思路

    強化學習的另一種策略(二)
    發表于 04-03 12:10

    深度強化學習實戰

    一:深度學習DeepLearning實戰時間地點:1 月 15日— 1 月18 日二:深度強化學習核心技術實戰時間地點: 1 月 27 日— 1 月30 日(第一天報到 授課三天;提前環境部署 電腦
    發表于 01-10 13:42

    將深度學習強化學習相結合的深度強化學習DRL

    深度強化學習DRL自提出以來, 已在理論和應用方面均取得了顯著的成果。尤其是谷歌DeepMind團隊基于深度強化學習DRL研發的AlphaGo,將深度強化學習DRL成推上新的熱點和高度,成為人工智能歷史上一個新的里程碑。因此,深
    發表于 06-29 18:36 ?2.8w次閱讀

    薩頓科普了強化學習、深度強化學習,并談到了這項技術的潛力和發展方向

    薩頓在專訪中(再次)科普了強化學習、深度強化學習,并談到了這項技術的潛力,以及接下來的發展方向:預測學習
    的頭像 發表于 12-27 09:07 ?1.1w次閱讀

    如何深度強化學習 人工智能和深度學習的進階

    傳統上,強化學習在人工智能領域占據著一個合適的地位。但強化學習在過去幾年已開始在很多人工智能計劃中發揮更大的作用。
    的頭像 發表于 03-03 14:16 ?4212次閱讀

    人工智能機器學習強化學習

    強化學習是智能系統從環境到行為映射的學習,以使獎勵信號(強化信號)函數值最大,強化學習不同于連接主義學習中的監督
    發表于 05-30 06:53 ?1409次閱讀

    基于強化學習的MADDPG算法原理及實現

    之前接觸的強化學習算法都是單個智能體的強化學習算法,但是也有很多重要的應用場景牽涉到多個智能體之間的交互。
    的頭像 發表于 11-02 16:18 ?2.2w次閱讀

    深度強化學習你知道是什么嗎

    強化學習非常適合實現自主決策,相比之下監督學習與無監督學習技術則無法獨立完成此項工作。
    發表于 12-10 14:34 ?1271次閱讀

    DeepMind發布強化學習庫RLax

    RLax(發音為“ relax”)是建立在JAX之上的庫,它公開了用于實施強化學習智能體的有用構建塊。。報道:深度強化學習實驗室作者:DeepRL ...
    的頭像 發表于 12-10 18:43 ?730次閱讀

    機器學習中的無模型強化學習算法及研究綜述

    強化學習( Reinforcement learning,RL)作為機器學習領域中與監督學習、無監督學習并列的第三種學習范式,通過與環境進行
    發表于 04-08 11:41 ?11次下載
    機器<b class='flag-5'>學習</b>中的無模型<b class='flag-5'>強化學習</b>算法及研究綜述

    《自動化學報》—多Agent深度強化學習綜述

    多Agent 深度強化學習綜述 來源:《自動化學報》,作者梁星星等 摘 要?近年來,深度強化學習(Deep reinforcement learning,DRL) 在諸多復雜序貫決策問題中取得巨大
    發表于 01-18 10:08 ?1617次閱讀
    《自動<b class='flag-5'>化學</b>報》—多Agent深度<b class='flag-5'>強化學習</b>綜述

    徹底改變算法交易:強化學習的力量

    強化學習(RL)是人工智能的一個子領域,專注于決策過程。與其他形式的機器學習相比,強化學習模型通過與環境交互并以獎勵或懲罰的形式接收反饋來學習
    發表于 06-09 09:23 ?529次閱讀

    什么是強化學習

    強化學習是機器學習的方式之一,它與監督學習、無監督學習并列,是三種機器學習訓練方法之一。 在圍棋上擊敗世界第一李世石的 AlphaGo、在《
    的頭像 發表于 10-30 11:36 ?4084次閱讀
    什么是<b class='flag-5'>強化學習</b>

    如何使用 PyTorch 進行強化學習

    強化學習(Reinforcement Learning, RL)是一種機器學習方法,它通過與環境的交互來學習如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機器學習庫,
    的頭像 發表于 11-05 17:34 ?280次閱讀
    主站蜘蛛池模板: 亚洲精品久久午夜麻豆| 久久理伦片琪琪电影院| FERRCHINA内入内射| 亚洲色欲啪啪久久WWW综合网| 日韩高清一区二区三区不卡| 91精品国产色综合久久不| 日本高清无卡码一区二区久久| 国产亚洲免费观看| 国产成人亚洲精品午夜国产馆 | 久久偷拍vs国产在线播放| 国内久经典AAAAA片| 國產麻豆AVMDXMDX| 果冻传媒在线完整免费播放| 国产人妻系列无码专区97SS| 国产精品一区二区免费| 国产精品久久久久久人妻精品流| 成人亚洲乱码在线| 91九色麻豆| 7m凹凸国产刺激在线视频| 早乙女由依在线观看| 在线观看中文字幕国产| 最近在线视频观看2018免费| 16女下面流水不遮图免费观看| 亚州三级视频| 肉动漫3D卡通无修在线播放| 日产国产欧美韩国在线| 色翁荡熄月月| 新新电影理论中文字幕| 亚洲AV怡红院影院怡春院| 亚洲男女羞羞无遮挡久久丫| 野花高清影视免费观看| 511麻豆视传媒精品AV| xxxx免费观看| 国产精品久AAAAA片| 黄色aa大片| 国产亚洲精品精品精品| 护士日本xx厕所| 老师扒开尿口男生摸尿口| 男人和女人全黄一级毛片| 秋霞电影网午夜鲁丝片无码| 男人到天堂a线牛叉在线|