今天和大家分享Reddit上的一個熱帖,樓主用PyTorch實現(xiàn)了基本的RL算法,而且每個算法都在一個文件夾中完成,即使沒有GPU,每個算法也可以在30秒內(nèi)完成訓(xùn)練。
近日,有開發(fā)人員用PyTorch實現(xiàn)了基本的RL算法,比如REINFORCE, vanilla actor-critic, DDPG, A3C, DQN 和PPO。這個帖子在Reddit論壇上獲得了195個贊并引發(fā)了熱議,一起來看一下吧。
特點如下:
每個算法都在一個文件中完成。
每個算法的長度可達100~150行代碼。
即使沒有GPU,每個算法也可以在30秒內(nèi)完成訓(xùn)練。
Envs固定在“CartPole-v1”上,你只需關(guān)注執(zhí)行。
minimalRL-pytorch算法:
1. REINFORCE(66行)
2. TD Actor-Critic(97行)
3. DQN(113行,包括重放內(nèi)存和目標(biāo)網(wǎng)絡(luò))
4. PPO(116行,包括GAE)
5. DDPG(149行,包括OU噪聲和軟目標(biāo)更新)
6. A3C(116行)
7. 有什么建議嗎?
依賴配置:
1. PyTorch
2. OpenAI GYM
使用:
# Works only with Python 3.#e.g.python3REINFORCE.pypython3actor_critic.pypython3dqn.pypython3ppo.pypython3ddpg.pypython3 a3c.py
評論中,不少朋友表示了對樓主的認(rèn)可和感謝:
Dump7留言:“可以!這是我見過的最美的東西之一。我不是一個能用框架編寫NN的人。但我正在努力。這將在很大程度上幫助到我。謝謝你做了這個。但是你能為基本的CNN和RNN制作這樣的單一文件代碼嗎?”
CodeReclaimers表示:“謝謝你分享這個——我知道把代碼簡化到最少是很費事的。特別好的是,你的代碼將依賴配置控制在最低限度。通常都是,我去尋找可以學(xué)習(xí)的例子,要花至少30多分鐘來收集所有依賴配置,結(jié)果發(fā)現(xiàn)我的平臺上少了一些關(guān)鍵的東西。”
Reddit上的討論:
https://www.reddit.com/r/MachineLearning/comments/bt8sap/p_implementations_of_basic_rl_algorithms_with/
Github資源:
https://github.com/seungeunrho/minimalRL
-
算法
+關(guān)注
關(guān)注
23文章
4615瀏覽量
92979 -
代碼
+關(guān)注
關(guān)注
30文章
4791瀏覽量
68686 -
pytorch
+關(guān)注
關(guān)注
2文章
808瀏覽量
13238
原文標(biāo)題:6行代碼搞定基本的RL算法,速度圍觀Reddit高贊帖
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論