色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

街機游戲《街頭霸王 3》中進行模擬來訓練改進強化學習算法的工具包

電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-11-13 09:30 ? 次閱讀

從世界矚目的圍棋游戲 AlphaGo,近年來,強化學習在游戲領域里不斷取得十分引人注目的成績。自此之后,棋牌游戲、射擊游戲、電子競技游戲,如 Atari、超級馬里奧、星際爭霸到 DOTA 都不斷取得了突破和進展,成為熱門的研究領域。

突然襲來的回憶殺~

今天為大家介紹一個在街機游戲《街頭霸王 3》中進行模擬來訓練改進強化學習算法的工具包。不僅在 MAME 游戲模擬器中可以使用,這個 Python庫可以在絕大多數的街機游戲中都可以訓練你的算法。

下面營長就從安裝、設置到測試分步為大家介紹一下。

目前這個工具包支持在Linux系統,作為MAME的包裝器來使用。通過這個工具包,你可以定制算法逐步完成游戲過程,同時接收每一幀的數據和內部存儲器的地址值來跟蹤游戲狀態,以及發送與游戲交互的動作。

首先你需要準備的是:

操作系統:Linux

Python 版本:3.6+

▌安裝

你可以使用 pip來安裝該庫,運行下面的代碼:

▌《街頭霸王3》示例

這個工具包目前已用于游戲《街頭霸王 3》(Street Fighter III Third Strike: Fight for the Future), 還可以用于MAME上的任何游戲。下面的代碼演示了如何在街頭霸王的環境下編寫一個隨機智能體。

此外,這個工具包還支持hogwild訓練:

▌游戲環境設置

游戲 ID

在創建一個模擬環境之前,大家需要先加載游戲的 ROM,并獲取 MAME所使用的游戲 ID。比如,這個版本街頭霸王的游戲 ID是“sfiii3n”,你可以通過運行以下代碼來查看游戲ID:

該命令會打開 MAME模擬器,你可以從游戲列表中選擇你所要的那款游戲。游戲的 ID通常位于標題后面的括號中。

內存地址

實際上該工具包與模擬器本身不需要太多的交互,只需要查找和內部狀態相關聯的內存地址,同時用所選取的環境對狀態進行跟蹤。你可以使用 MAME Cheat Debugger 來觀察隨著時間的變化,內存地址值發生了怎樣的改變。

可以使用以下命令運行Debugger:

更多關于該調試工具的使用說明請參考此教程

https://www.dorkbotpdx.org/blog/skinny/use_mames_debugger_to_reverse_engineer_and_extend_old_games

當你確定了所要跟蹤的內存地址后可以執行以下命令進行模擬:

該命令會啟動模擬器,并在工具包導入到模擬器進程時暫停。

分步模擬

在工具包導入完成后,你可以使用 step 函數分步進行模擬:

step 函數將以 Numpy 矩陣的形式返回 frame 和 data 的值,同時也會返回總時間步長的所有內存地址整數值。

發送輸入

如果要向仿真器輸入動作,你還需要確定游戲支持的輸入端口和字段。例如,在街頭霸王游戲中需要執行以下代碼進行投幣:

可以使用 list actions命令查看所支持的輸入端口,代碼如下:

以下返回的列表就包含了街頭霸王游戲環境中可用于向 step 函數發送動作的所有端口和字段:

模擬器還有一個 frame_ratio參數,可以用來調整你的算法幀率。在默認設置下,NAME每秒能生成 60幀。當然,如果你覺得這樣太多了,你也能通過以下代碼將其改為每秒 20幀:

▌性能基準測試

目前該工具包的開發和測試已經在8核AMD FX-8300 3.3GHz CPU以及3GB GeForce GTX 1060 GPU上完成。在使用單個隨機智能體的情況下,街頭霸王游戲環境可以以正常游戲速度的600%+運行。而如果用8個隨機智能體進行hogwild訓練的話,街頭霸王游戲環境能以正常游戲速度的300%+運行。

▌簡單的 ConvNet 智能

為了確保該工具包能夠訓練算法,我們還設置了一個包含 5 層 ConvNet 的架構,只需進行微調,你就能用它來進行測試。在街頭霸王的實驗中,這個算法能夠成功學習到游戲中的一些簡單技巧如:連招 (combo) 和 格擋 (blocking)。街頭霸王的游戲機制是由易到難設置了 10 個關卡,玩家在每個關卡都要與不同的對手對戰。剛開始時,智能體平均只能打到第二關,而當經過了 2200 次訓練后,它平均能打到第 5 關。學習率的設置是通過每一局中智能體所造成的凈傷害和所承受的傷害來計算的。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 存儲器
    +關注

    關注

    38

    文章

    7553

    瀏覽量

    164899
  • python
    +關注

    關注

    56

    文章

    4813

    瀏覽量

    85301
  • 強化學習
    +關注

    關注

    4

    文章

    269

    瀏覽量

    11366

原文標題:用這個Python庫,訓練你的模型成為下一個街頭霸王!

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    Facebook推出ReAgent AI強化學習工具包

    Facebook近日推出ReAgent強化學習(reinforcement learning)工具包,首次通過收集離線反饋(offline feedback)實現策略評估(policy evaluation)。
    發表于 10-19 09:38 ?1643次閱讀

    樹莓派街機

    ` 本帖最后由 goyuqinghua 于 2016-3-1 16:24 編輯 還記得小時候的街頭游戲機嗎?一毛錢一個游戲幣,投到機器里就可以操作搖桿玩的那種,《核金彈頭》、《
    發表于 02-22 15:30

    深度強化學習實戰

    內容2:課程一: TensoRFlow入門到熟練:課程二:圖像分類:課程三:物體檢測:課程四:人臉識別:課程五:算法實現:1、卷積神經網絡CNN2、循環神經網絡RNN3強化學習DRL4、對抗性生成
    發表于 01-10 13:42

    什么是強化學習?純強化學習有意義嗎?強化學習有什么的致命缺陷?

    強化學習是人工智能基本的子領域之一,在強化學習的框架中,智能體通過與環境互動,學習采取何種動作能使其在給定環境中的長期獎勵最大化,就像在上述的棋盤
    的頭像 發表于 07-15 10:56 ?1.8w次閱讀
    什么是<b class='flag-5'>強化學習</b>?純<b class='flag-5'>強化學習</b>有意義嗎?<b class='flag-5'>強化學習</b>有什么的致命缺陷?

    基于強化學習的MADDPG算法原理及實現

    之前接觸的強化學習算法都是單個智能體的強化學習算法,但是也有很多重要的應用場景牽涉到多個智能體之間的交互。
    的頭像 發表于 11-02 16:18 ?2.2w次閱讀

    如何構建強化學習模型訓練無人車算法

    本文作者通過簡單的方式構建了強化學習模型訓練無人車算法,可以為初學者提供快速入門的經驗。
    的頭像 發表于 11-12 14:47 ?4974次閱讀

    NVIDIA遷移學習工具包 :用于特定領域深度學習模型快速訓練的高級SDK

    對于設計和集成智能視頻分析(IVA)端應用程序(如停車管理、安全基礎設施、零售分析、物流管理和訪問控制等)的開發人員,NVIDIA 的遷移學習工具包提供了端到端的深度學習工作流,可以加速深度
    的頭像 發表于 12-07 14:45 ?3240次閱讀

    谷歌AI發布足球游戲強化學習訓練環境“足球引擎”

    強化學習環境的核心是一種先進的足球游戲模擬,稱為“足球引擎”,它基于一個足球游戲版本經大量修改而成。根據兩支對方球隊的輸入動作,模擬了足球
    的頭像 發表于 06-15 10:33 ?4273次閱讀

    基于PPO強化學習算法的AI應用案例

    Viet Nguyen就是其中一個。這位來自德國的程序員表示自己只玩到了第9個關卡。因此,他決定利用強化學習AI算法幫他完成未通關的遺憾。
    發表于 07-29 09:30 ?2892次閱讀

    機器學習中的無模型強化學習算法及研究綜述

    強化學習( Reinforcement learning,RL)作為機器學習領域中與監督學習、無監督學習并列的第三種學習范式,通過與環境
    發表于 04-08 11:41 ?11次下載
    機器<b class='flag-5'>學習</b>中的無模型<b class='flag-5'>強化學習</b><b class='flag-5'>算法</b>及研究綜述

    基于強化學習的虛擬場景角色乒乓球訓練

    基于強化學習的虛擬場景角色乒乓球訓練
    發表于 06-27 11:34 ?62次下載

    7個流行的強化學習算法及代碼實現

    作者:Siddhartha Pramanik 來源:DeepHub IMBA 目前流行的強化學習算法包括 Q-learning、SARSA、DDPG、A2C、PPO、DQN 和 TRPO。這些算法
    的頭像 發表于 02-03 20:15 ?1236次閱讀

    7個流行的強化學習算法及代碼實現

    作者:SiddharthaPramanik來源:DeepHubIMBA目前流行的強化學習算法包括Q-learning、SARSA、DDPG、A2C、PPO、DQN和TRPO。這些算法已被用于在
    的頭像 發表于 02-06 15:06 ?1740次閱讀
    7個流行的<b class='flag-5'>強化學習</b><b class='flag-5'>算法</b>及代碼實現

    模擬矩陣在深度強化學習智能控制系統中的應用

    訊維模擬矩陣在深度強化學習智能控制系統中的應用主要是通過構建一個包含多種環境信息和動作空間的模擬矩陣,模擬和預測深度
    的頭像 發表于 09-04 14:26 ?661次閱讀
    <b class='flag-5'>模擬</b>矩陣在深度<b class='flag-5'>強化學習</b>智能控制系統中的應用

    如何使用 PyTorch 進行強化學習

    強化學習(Reinforcement Learning, RL)是一種機器學習方法,它通過與環境的交互學習如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機器
    的頭像 發表于 11-05 17:34 ?563次閱讀
    主站蜘蛛池模板: 99视频精品国产免费观看 | 浪潮AV色综合久久天堂 | 国产精品一久久香蕉国产线看 | 1300部真实小Y女视频合集 | 男女做爽爽爽视频免费软件 | 伊人久久大香线蕉综合高清 | 揉抓捏打抽插射免费视频 | 国产亚洲精品久久久无码狼牙套 | 在线观看永久免费网址 | 亚洲欧美自拍明星换脸 | bl 纯肉 高Hbl被强文 | 激情丛林电影完整在线 | 日韩精品一区二区亚洲AV观看 | 日韩精品卡1卡2三卡四卡乱码 | 国产精品久久久久成人免费 | 中文字幕乱码亚洲无线三区 | 午夜福利小视频400 午夜福利网国产A | 麻豆一区二区免费播放网站 | 野花香HD免费高清版6高清版 | 李丽莎与土豪50分钟在线观看 | 亚洲AV无码乱码A片无码蜜桃 | 色即是空 BT | 乱淫67194| 亚洲欧美日韩国产手机在线 | 久久视频在线视频 | 97人人爽人人爽人人人片AV | 芒果视频看片在线观看 | 5566精品资源在线播放 | 日本粉嫩学生毛绒绒 | 黑吊大战白女出浆 | 午夜福利免费体检区 | 国产麻豆91网在线看 | 神马影院午夜理论二 | 菲律宾毛片 | 中文字幕久精品视频在线观看 | 狠狠色狠狠色综合曰曰 | 国产成人精品自线拍 | 调教玩弄奶头乳夹开乳震动器 | 亚洲色图p | 美女扒开腿让男人桶个爽 | 香蕉免费高清完整 |