完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>
標簽 > 智能體
智能體,顧名思義,就是具有智能的實體,英文名是Agent。以云為基礎,以AI為核心,構建一個立體感知、全域協(xié)同、精準判斷、持續(xù)進化、開放的智能系統(tǒng)。智能體是人工智能領域中一個很重要的概念。任何獨立的能夠思考并可以同環(huán)境交互的實體都可以抽象為智能體。
文章:158個 瀏覽:10600次 帖子:0個
Atari游戲史上最強通關算法來了——Go-Explore!
普通的強化學習算法通常無法從蒙特祖瑪?shù)牡谝粋€房間(得分400或更低)中跳出,在Pitfall中得分為0或更低。為了解決這類挑戰(zhàn),研究人員在智能體到達新狀...
如何讓AI符合人類的意圖?如何創(chuàng)建符合用戶意圖的智能體?
近年來,強化學習在許多復雜游戲環(huán)境中取得了令人矚目的成績,從Atari游戲、圍棋、象棋到Dota 2和星際爭霸II,AI智能體在越來越復雜的領域迅速超越...
智能體的連接問題,如何創(chuàng)建能符合人類目標的智能體?
長期來看,我們會擴大獎勵建模的規(guī)模,將其應用于人類難以評估的領域。為了做到這一點,我們需要增強用戶衡量輸出的能力。我們討論了如何循環(huán)應用獎勵建模:我們可...
另外,策略網(wǎng)絡表示強化學習智能體使用的隨機策略,用πθ(s, a) = p(a|s;θ)表示,其中θ是神經(jīng)網(wǎng)絡的參數(shù)列表,會用Adam優(yōu)化器進行更新。系...
2018-11-24 標簽:神經(jīng)網(wǎng)絡智能體強化學習 2525 0
伯克利的研究人員提出了一種通用的自適應感知方法AdaSearch
傳統(tǒng)上,機器人領域?qū)⒕呱硭阉鳎╡mbodied search)看作持續(xù)的運動計劃問題,其中機器人必須平衡環(huán)境探索和對高效軌跡的選擇。這就催生了既可以進行...
需要注意的是,這種方法只能應用于偶爾發(fā)生的馬爾科夫決策過程。原因是在計算任意返回之前,這一episode就要停止。我們并不在每次動作結束后就更新,而是在...
OpenAI的研究人員開發(fā)了一套基于能量的神經(jīng)網(wǎng)絡模型
訓練數(shù)據(jù)由(注意掩膜、狀態(tài))的軌跡組成,提前生成的軌跡用于確認我們希望模型學習的特定概念。我們?yōu)榻o定概念集提供一組演示(通常為5次)來訓練模型,然后將模...
2018-11-10 標簽:機器人神經(jīng)網(wǎng)絡智能體 3215 0
在開發(fā)RND之前,OpenAI的研究人員和加州大學伯克利分校的學者進行了合作,他們測試了在沒有環(huán)境特定回報的情況下,智能體的學習情況。因為從理論上來說,...
要為一個子任務生成成功策略需要數(shù)小時的模擬和優(yōu)化。高計算成本也有好處,這樣一來,最終結果就不是單一的動畫,而是智能體的控制策略,可以處理多種情況,比如不...
一種新型的基于情景記憶的模型,能夠讓智能體用“好奇心”探索環(huán)境
當你在超市中搜索時,心里可能會想:現(xiàn)在我在肉類區(qū)域,所以接下來可能到水產(chǎn)品區(qū)。這些都應該是相近的。如果你預測錯了,可能會驚訝:誒?怎么是蔬菜區(qū)?從而得到...
盡管在過去有許多嘗試來形成好奇心,但本文關注的是一種自然且非常流行的方法:基于“意外”的好奇心機制。最近一篇題為“Curiosity-driven Ex...
在深度強化學習中,智能體是由神經(jīng)網(wǎng)絡表示的。神經(jīng)網(wǎng)絡直接與環(huán)境相互作用。它觀察環(huán)境的當前狀態(tài),并根據(jù)當前狀態(tài)和過去的經(jīng)驗決定采取何種行動(例如向左、向右...
整個DeepMimic所需要的input分為三部分:一個被稱為Character的Agent模型;希望Agent學習的參考動作(reference mo...
TRFL庫包含實現(xiàn)經(jīng)典RL算法以及更前沿技術的許多函數(shù)。這里提供的損失函數(shù)和其他操作是在純TensorFlow中實現(xiàn)的。它們不是完整的算法,而是在構建功...
一種從視頻中學習技能的框架(skills from videos,SFV)
由于基于單幀圖像預測的位姿是不連續(xù)的,在上圖中可以看到明顯不連貫的動作。同時由于估計器某些錯誤估計的存在會產(chǎn)生一系列奇異結果造成估計的位姿出現(xiàn)跳變。這會...
UC Berkeley大學的研究人員們利用深度姿態(tài)估計和深度學習技術
給定一段視頻,我們用基于視覺的動作估計器預測每一幀演員的動作qt。該動作預測器是建立在人類網(wǎng)格復原這一工作之上的(akanazawa.github.io...
DeepMind開發(fā)了PopArt,解決了不同游戲獎勵機制規(guī)范化的問題
我們將PopArt應用于Importance-weighted Actor-Learner Architecture (IMPALA),這是DeepMi...
2018-09-16 標簽:神經(jīng)網(wǎng)絡智能體DeepMind 3185 0
按照以往的做法,如果研究人員要用強化學習算法對獎勵進行剪枝,以此克服獎勵范圍各不相同的問題,他們首先會把大的獎勵設為+1,小的獎勵為-1,然后對預期獎勵...
Gibson的主要目標是幫助在現(xiàn)實環(huán)境中訓練的模型完成遷移,這一過程分為兩步。首先,在現(xiàn)實環(huán)境中表現(xiàn)自己的語義復雜性,并根據(jù)掃描過的真是場景構造環(huán)境,而...
基于TensorFlow的開源強化學習框架 Dopamine
對于新的研究人員來說,能夠根據(jù)既定方法快速對其想法進行基準測試非常重要。因此,我們?yōu)?Arcade 學習環(huán)境支持的 60 個游戲提供四個智能體的完整培訓...
2018-08-31 標簽:智能體強化學習TensorFlow 4943 0
編輯推薦廠商產(chǎn)品技術軟件/工具OS/語言教程專題
電機控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機 | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機 | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進電機 | SPWM | 充電樁 | IPM | 機器視覺 | 無人機 | 三菱電機 | ST |
伺服電機 | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國民技術 | Microchip |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |