色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

約翰·卡馬克:學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)這一周

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:鄧佳佳 ? 2018-03-21 16:54 ? 次閱讀

熟悉電子游戲的讀者也許聽(tīng)說(shuō)過(guò)約翰·卡馬克(John Carmack),在游戲領(lǐng)域,這個(gè)名字稱得上是偶像級(jí)別的存在:3D引擎之父、第一人稱射擊游戲教父、電腦怪才……和那個(gè)時(shí)代的科技大牛一樣,他自學(xué)成才,考上名校,繼而輟學(xué)入職,投身游戲軟件開(kāi)發(fā)。他是個(gè)兼具數(shù)學(xué)家和哲學(xué)家氣質(zhì)的程序員,也是個(gè)只想寫(xiě)出好代碼的純粹的天才。那么,面對(duì)洶涌而來(lái)的人工智能浪潮,這位老一輩的程序員會(huì)有什么看法呢?

經(jīng)歷了一周努力學(xué)習(xí),近日,約翰·卡馬克在他的Facebook上發(fā)表了一篇名為1-week experience learning neural networks from scratch的學(xué)習(xí)心得,引起了網(wǎng)友的廣泛關(guān)注,以下是論智編譯的原文

隔了這么多年后,我終于找了一個(gè)遠(yuǎn)離工作事務(wù)紛擾的角落,撿起編程,以一個(gè)隱居者的心態(tài)學(xué)習(xí)了一周。在過(guò)去的幾年里,我的妻子一直慷慨地提供給我這樣的環(huán)境,但我始終無(wú)法從工作中脫身,連休假期間都不得安寧。

而現(xiàn)在,隨著我在Oculuss中工作進(jìn)展的變化,我想從頭開(kāi)始用C++編寫(xiě)一些神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)。我計(jì)劃挑選的操作系統(tǒng)是標(biāo)準(zhǔn)、準(zhǔn)確的OpenBSD,有人說(shuō)我的選擇太隨意了,可事實(shí)證明它確實(shí)沒(méi)問(wèn)題。

說(shuō)實(shí)在的,雖然我一直很欣賞OpenBSD的想法——這是一個(gè)相對(duì)簡(jiǎn)單同時(shí)又頗具見(jiàn)地的操作系統(tǒng),它目標(biāo)精準(zhǔn),重視程式碼的品質(zhì)和工藝,但之前我并沒(méi)有用過(guò)它。Linux什么都好,可惜的是這些優(yōu)點(diǎn)它都沒(méi)有。

這倒也不是說(shuō)我是個(gè)UNIX geek。我最喜歡的還是Windows的Visual Studio,所以其實(shí)我完全可以回避這些問(wèn)題。我只是單純覺(jué)得在老式UNIX風(fēng)格下進(jìn)行長(zhǎng)達(dá)一周的沉浸式工作會(huì)很有趣,即使進(jìn)度會(huì)慢一些。這是復(fù)古計(jì)算的一次冒險(xiǎn)——是fvwm & vi,而不是vim,是BSD vi。

而且我并沒(méi)有真正探索完整個(gè)系統(tǒng),因?yàn)槲野?5%的時(shí)間都花在基礎(chǔ)的 vi/make/gdb 操作上了。我很喜歡那些實(shí)用的幫助手冊(cè)頁(yè)面,雖然一直在摸索自己能在這個(gè)系統(tǒng)里做什么,但我實(shí)在不想上網(wǎng)直接搜。試想一下,我是在查閱30幾年前的老東西,如Tektronix terminal的手冊(cè),這簡(jiǎn)直不能更有趣。

有一點(diǎn)讓我比較驚訝,就是OpenBSD對(duì)C++的支持有點(diǎn)爛。G++不支持C++11,LLVM C++也不能很好地和gdb配合使用。我做gdb時(shí)系統(tǒng)崩了幾次,我懷疑是C++導(dǎo)致的。當(dāng)然,你不用跟我說(shuō)它可以升級(jí),我就想用最基礎(chǔ)的操作系統(tǒng)。

現(xiàn)在回過(guò)頭來(lái)看,我應(yīng)該是完全復(fù)古了,而且寫(xiě)的東西完全符合ANSI C標(biāo)準(zhǔn)。和許多老程序員一樣,有幾天我會(huì)忍不住反思:也許C++并沒(méi)有我們想得那么好……雖然我還喜歡很多其他的東西,但用普通的C語(yǔ)言寫(xiě)個(gè)小項(xiàng)目還難不倒我。當(dāng)然,如果還有下次的話,我會(huì)試試Emacs,這是另一個(gè)我沒(méi)怎么接觸過(guò)的領(lǐng)域。

在這之前,我其實(shí)已經(jīng)對(duì)大多數(shù)機(jī)器學(xué)習(xí)算法有了成熟的了解,而且也做過(guò)一些線性分類器和決策樹(shù)之類的工作。但出于某些原因,我還沒(méi)碰過(guò)神經(jīng)網(wǎng)絡(luò),這在某種程度上可能是因?yàn)?a target="_blank">深度學(xué)習(xí)太時(shí)髦了,導(dǎo)致我對(duì)它持保守意見(jiàn),或許也有一些反思性的偏見(jiàn)。我還不能接受“把所有東西丟進(jìn)神經(jīng)網(wǎng)絡(luò)里,然后讓它自己整理”這種套路。

而本著復(fù)古主義精神,我打印了幾篇Yann LeCun的舊論文,然后脫機(jī)工作,假裝自己正身處某地的山間小屋,但現(xiàn)實(shí)是——我還是偷偷在YouTube上看了不少斯坦福CS231N的視頻,并從中學(xué)到了很多東西。我一般很少看這種演講視頻,會(huì)覺(jué)得有點(diǎn)浪費(fèi)時(shí)間,但這樣“見(jiàn)風(fēng)使舵”的感覺(jué)也不賴。

我其實(shí)不認(rèn)為自己對(duì)神經(jīng)網(wǎng)絡(luò)有什么獨(dú)特的想法和建議,但就個(gè)人體驗(yàn)而言,這是高效的一周,因?yàn)槲野褧?shū)本上的知識(shí)固化成了真實(shí)經(jīng)驗(yàn)。我的實(shí)踐模式也很常規(guī):先用hacky代碼寫(xiě)一版,再根據(jù)視頻教程重寫(xiě)一個(gè)全新的、整潔的版本,所以兩者可以交叉檢查,不斷優(yōu)化。

我也曾在反向傳播上反復(fù)跌倒了好幾次,最后得出的經(jīng)驗(yàn)是比較數(shù)值差異非常重要!但很有趣的一點(diǎn)是,即使每個(gè)部分好像都錯(cuò)得離譜,神經(jīng)網(wǎng)絡(luò)似乎還是能正常訓(xùn)練的——甚至只要大多數(shù)時(shí)候符號(hào)是正確的,它就能不斷進(jìn)步。

對(duì)于最終得到的多層神經(jīng)網(wǎng)絡(luò)代碼,我是很滿意的,也產(chǎn)生了未來(lái)繼續(xù)完善的想法。是的,對(duì)于這類非常嚴(yán)肅的問(wèn)題,我一般會(huì)直接用已有的第三方庫(kù),但在過(guò)去的一周內(nèi),很多時(shí)候我會(huì)自己寫(xiě)單獨(dú)的.cpp文件和.h文件進(jìn)行編譯,這也很方便。

現(xiàn)在我的CNN代碼還需要優(yōu)化,我大概會(huì)花幾天時(shí)間做出一個(gè)干凈、靈活的實(shí)現(xiàn)。之前我把沒(méi)加進(jìn)卷積的初始神經(jīng)網(wǎng)絡(luò)放到MNIST上測(cè)試時(shí),發(fā)現(xiàn)它居然比LeCun論文里的結(jié)果更好——單個(gè)包含100個(gè)節(jié)點(diǎn)的隱藏層在測(cè)試集上的error是2%,論文里的網(wǎng)絡(luò)更廣更深,但它的error有3%。這個(gè)發(fā)現(xiàn)有點(diǎn)出乎我的意料,最后我總結(jié)的原因是激活函數(shù)——ReLU和Softmax。

如果要說(shuō)這一周的學(xué)習(xí)有什么最精彩的心得,那應(yīng)該就是神經(jīng)網(wǎng)絡(luò)非常簡(jiǎn)單,它只需寥寥幾行代碼就能實(shí)現(xiàn)突破性的進(jìn)步。我覺(jué)得這和圖形學(xué)中的光線追蹤有異曲同工之妙,只要我們有足夠的數(shù)據(jù)、時(shí)間和耐心,追蹤與光學(xué)表面發(fā)生交互作用的光線,得到光線經(jīng)過(guò)路徑的物理模型,我們就能生成最先進(jìn)的圖像。

同樣的,通過(guò)探索一系列訓(xùn)練參數(shù),我也對(duì) overtraining/generalization/regularization 有了更深的理解。回家的前一夜,我開(kāi)心地調(diào)起了超參數(shù)。為了保持專注,“訓(xùn)練”肯定比“編譯”更糟糕!

小結(jié)

讀了約翰·卡馬克的心得,不知各位讀者獲得了怎樣的體驗(yàn)。作為一名成功的資深程序員,卡馬克一直以來(lái)對(duì)編程的嚴(yán)苛要求是大家有目共睹的,而他這次抽出一周時(shí)間,以這么復(fù)古的形式學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),這樣的娛樂(lè)精神堪稱業(yè)界清流。這項(xiàng)“新技能”可能不會(huì)給他帶來(lái)世俗的快樂(lè),但在代碼中創(chuàng)造世界的樂(lè)趣使他感到幸福,卡馬克還是那個(gè)卡馬克。

除此之外,許多國(guó)外讀者又對(duì)深度學(xué)習(xí)的理論基礎(chǔ)產(chǎn)生了擔(dān)憂。正如文中所說(shuō)的:“即使每個(gè)部分好像都錯(cuò)得離譜,神經(jīng)網(wǎng)絡(luò)還是能正常訓(xùn)練——甚至只要大多數(shù)時(shí)候符號(hào)是正確的,它還能不斷進(jìn)步”。就梯度下降而言,理論上我們想要的是不斷走“下坡路”,走“上坡路”的結(jié)果注定是不理想的。但從長(zhǎng)遠(yuǎn)來(lái)看,如果兩者都能提高模型預(yù)測(cè)的結(jié)果,那走下坡的意義又在哪里?

這個(gè)領(lǐng)域內(nèi)的所有人都在追求各種進(jìn)步,擔(dān)當(dāng)他們被問(wèn)及為什么,大多數(shù)答案只是“just work”,如果只看結(jié)果,我們又該怎么判斷哪些是真正重要的東西?也許對(duì)于什么是“進(jìn)步”,我們也需要重新設(shè)定一個(gè)更嚴(yán)格的標(biāo)準(zhǔn)。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4774

    瀏覽量

    100894
  • 電子游戲
    +關(guān)注

    關(guān)注

    0

    文章

    39

    瀏覽量

    9938
  • 程序員
    +關(guān)注

    關(guān)注

    4

    文章

    953

    瀏覽量

    29819

原文標(biāo)題:約翰·卡馬克(John Carmack):學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)這一周

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工
    的頭像 發(fā)表于 01-09 10:24 ?106次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    神經(jīng)網(wǎng)絡(luò)辨識(shí)模型具有什么特點(diǎn)

    神經(jīng)網(wǎng)絡(luò)辨識(shí)模型是種基于人工神經(jīng)網(wǎng)絡(luò)的系統(tǒng)辨識(shí)方法,它具有以下特點(diǎn): 非線性映射能力 :神經(jīng)網(wǎng)絡(luò)能夠處理非線性問(wèn)題,可以很好地?cái)M合復(fù)雜的非線性系統(tǒng)。 泛化能力 :
    的頭像 發(fā)表于 07-11 11:12 ?483次閱讀

    BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)機(jī)制

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network),即反向傳播神經(jīng)網(wǎng)絡(luò),是種基于梯度下降算法的多層前饋神經(jīng)網(wǎng)絡(luò),其學(xué)習(xí)
    的頭像 發(fā)表于 07-10 15:49 ?651次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是兩種在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 07-10 15:24 ?1621次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡(jiǎn)稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中個(gè)基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及
    的頭像 發(fā)表于 07-10 15:20 ?1174次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能
    的頭像 發(fā)表于 07-05 09:52 ?595次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)實(shí)際上是同個(gè)概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?809次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?1350次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指?jìng)鹘y(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時(shí),我們需要從多個(gè)維度進(jìn)行深入分析。這些維度包括
    的頭像 發(fā)表于 07-04 13:20 ?971次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks, RNN)是兩種極其重要
    的頭像 發(fā)表于 07-03 16:12 ?3484次閱讀

    如何使用神經(jīng)網(wǎng)絡(luò)進(jìn)行建模和預(yù)測(cè)

    神經(jīng)網(wǎng)絡(luò)種強(qiáng)大的機(jī)器學(xué)習(xí)技術(shù),可以用于建模和預(yù)測(cè)變量之間的關(guān)系。 神經(jīng)網(wǎng)絡(luò)的基本概念 神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 10:23 ?780次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)是種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語(yǔ)言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 09:15 ?439次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    化能力。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為人工智能領(lǐng)域的重要技術(shù)之。卷積神經(jīng)網(wǎng)絡(luò)和BP神經(jīng)
    的頭像 發(fā)表于 07-02 14:24 ?4361次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    神經(jīng)網(wǎng)絡(luò)架構(gòu)是機(jī)器學(xué)習(xí)領(lǐng)域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡(luò)的運(yùn)作方式,通過(guò)復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)信息的處理、存儲(chǔ)和傳遞。隨著深度學(xué)習(xí)技術(shù)
    的頭像 發(fā)表于 07-01 14:16 ?743次閱讀

    詳解深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時(shí)代,錯(cuò)綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線,通過(guò)深度
    的頭像 發(fā)表于 01-11 10:51 ?2212次閱讀
    詳解深度<b class='flag-5'>學(xué)習(xí)</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用
    主站蜘蛛池模板: 欧洲电影巜肉欲丛林| 亚洲色图在线播放| 婷婷久久无码欧美人妻| 亚洲人成网站7777视频| 樱花草在线观看影院| 啊轻点啊再深点视频免费| 国产美女久久久久久久久久久| 久久免费精品一区二区| 奇米狠狠干| 无罩看奶禁18| 2020年国产精品午夜福利在线观看 | 精品国产国产精2020久久日| 免费人成在线观看网站视频| 熟女强奷系列中文字幕| 怡春院国产精品视频| 调教女M屁股撅虐调教| 精品 在线 视频 亚洲| 欧洲日韩av无线在码| 亚洲人成电影网站在线观看| xxnx18日本| 精品一二三区久久AAA片| 日本19xxxx撤尿| 一本道亚洲区免费观看| 高清欧美一区二区三区| 久久综合老色鬼网站| 天天爽夜夜爽| 91欧美秘密入口| 国内精品七七久久影院| 秋霞电影网午夜一级鲁丝片| 野花香在线观看免费高清播放视频| 超碰在线 视频| 久久婷五月综合色啪首页| 同桌别揉我奶了嗯啊| 99久久综合国产精品免费| 国产又黄又粗又爽又色的视频软件| 欧美亚洲精品一区二三区8V| 一个人看的HD免费高清视频| 国产精品久久久久影院| 欧美日韩1区| 在线欧美 精品 第1页| 国产人妻精品午夜福利免费不卡|