色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于PyTorch的深度學習入門教程之PyTorch重點綜合實踐

ss ? 來源:雁回晴空 ? 作者:雁回晴空 ? 2021-02-15 10:01 ? 次閱讀

前言

PyTorch提供了兩個主要特性:

(1) 一個n維的Tensor,與numpy相似但是支持GPU運算。

(2) 搭建和訓練神經網絡的自動微分功能。

我們將會使用一個全連接的ReLU網絡作為實例。該網絡有一個隱含層,使用梯度下降來訓練,目標是最小化網絡輸出和真實輸出之間的歐氏距離。

目錄

Tensors(張量)

Warm-up:numpy

PyTorch:Tensors

Autograd(自動梯度)

PyTorch:Variables and autograd (變量和自動梯度)

PyTorch : Defining new autograd functions(定義新的自動梯度函數)

TensorFlow: Static Graphs (靜態圖)

nn module

PyTorch: nn

PyTorch: optim

PyTorch: Custom nn Modules (定制nn模塊)

PyTorch: Control Flow + Weight Sharing (控制流+權重分享)

Tensors(張量)

Warm-up:numpy

在介紹PyTorch之前,我們先使用numpy來實現一個網絡。

Numpy提供了一個n維數組對象,以及操作這些數組的函數。Numpy是一個通用的科學計算框架。它不是專門為計算圖、深度學習或者梯度計算而生,但是我們能用它來把一個兩層的網絡擬合到隨機數據上,只要我們手動把numpy運算在網絡上前向和反向執行即可。

Numpy是一個了不起的框架,但是它很遺憾地不能支持GPU運算,無法對數值計算進行GPU加速。對于現在的深度神經網絡,GPU一般能提供50倍以上的加速,所以numpy由于對GPU缺少支持,不能滿足深度神經網絡的計算需求。

這里介紹一下最基本的PyTorch概念:Tensor。一個PyTorch Tensor在概念上等價于numpy array:Tensor是一個n維的array,PyTorch提供了很多函數來在Tensors上進行運算。像numpy arrays一樣,PyTorch Tensors也不是為深度學習、計算圖、梯度而生;他們是一個科學計算的通用工具。

PyTorch Tensors可以利用GPU來加速數值計算。為了能在GPU上跑Tensor,我們只需要將它轉到新的數據類型。

我們使用PyTorch Tensors來擬合2層的網絡。與上面的numpy例子一樣,我們需要手動執行網絡上的前向和反向過程。

Autograd(自動梯度)

PyTorch:Variables and autograd (變量和自動梯度)

在上面的例子中,我們必須手動執行網絡的前向和反向通道。對于一個兩層的小網絡來說,手動反向執行不是什么大事,但是對于大型網絡來說,就非常費勁了。

幸運的是,我們可以使用自動微分來自動計算神經網絡的反向通道。PyTorch的autograd 包就提供了此項功能。當使用autograd的時候,你的網絡的前向通道定義一個計算圖(computational graph),圖中的節點(node)是Tensors,邊(edge)將會是根據輸入Tensor來產生輸出Tensor的函數。這個圖的反向傳播將會允許你很輕松地去計算梯度。

這個聽起來復雜,但是實際操作非常簡單。我們把PyTorch Tensors打包到Variable 對象中,一個Variable代表一個計算圖中的節點。如果x是一個Variable,那么x. data 就是一個Tensor 。并且x.grad是另一個Variable,該Variable保持了x相對于某個標量值得梯度。

PyTorch的Variable具有與PyTorch Tensors相同的API。差不多所有適用于Tensor的運算都能適用于Variables。區別在于,使用Variables定義一個計算圖,令我們可以自動計算梯度。

下面我們使用PyTorch 的Variables和自動梯度來執行我們的兩層的神經網絡。我們不再需要手動執行網絡的反向通道了。

PyTorch : Defining new autograd functions(定義新的自動梯度函數)

在底層,每一個原始的自動梯度運算符實際上是兩個在Tensor上運行的函數。其中,forward函數計算從輸入Tensors獲得的輸出Tensors。而backward函數接收輸出Tensors相對于某個標量值的梯度,并且計算輸入Tensors相對于該相同標量值的梯度。

在PyTorch中,我們可以很容易地定義自己的自動梯度運算符。具體來講,就是先定義torch.autograd.Function的子類,然后實現forward和backward函數。之后我們就可以使用這個新的自動梯度運算符了。使用該運算符的方式是創建一個實例,并且像一個函數一樣去調用它,傳遞包含輸入數據的Variables。

在這個例子中,我們定義自己的定制自動梯度函數來執行ReLU非線性,然后使用它執行我們的兩層網絡。

TensorFlow: Static Graphs(靜態圖)

PyTorch自動梯度看起來非常像TensorFlow:在兩個框架中,我們都定義計算圖,使用自動微分來計算梯度。兩者最大的不同就是TensorFlow的計算圖是靜態的,而PyTorch使用動態的計算圖。

在TensorFlow中,我們定義計算圖一次,然后重復執行這個相同的圖,可能會提供不同的輸入數據。而在PyTorch中,每一個前向通道定義一個新的計算圖。

靜態圖的好處在于你可以預先對圖進行優化。例如,一個框架可能要融合一些圖運算來提升效率,或者產生一個策略來將圖分布到多個GPU或機器上。如果你重復使用相同的圖,前期優化的消耗就會被分攤開,因為相同的圖在多次重復運行。

靜態圖和動態圖的一個不同之處是控制流。對于一些模型,我們希望對每個數據點執行不同的計算。例如,一個遞歸神經網絡可能對于每個數據點執行不同的時間步數,這個展開(unrolling)可以作為一個循環來實現。對于一個靜態圖,循環結構要作為圖的一部分。因此,TensorFlow提供了運算符(例如tf .scan)來把循環嵌入到圖當中。對于動態圖來說,情況更加簡單:既然我們為每個例子即時創建圖,我們可以使用正常的解釋流控制來為每個輸入執行不同的計算。

為了與上面的PyTorch自動梯度實例做對比,我們使用TensorFlow來擬合一個簡單的2層網絡。

計算圖和自動梯度是非常強大的范式,可用于定義復雜的運算符和自動求導數。然而,對于一個大型的網絡來說,原始的自動梯度有點太低級別了。

在建立神經網絡的時候,我們經常把計算安排在層(layers)中。某些層有可學習的參數,將會在學習中進行優化。

在TensorFlow中,Keras,TensorFlow-Slim和TFLearn這些包提供了原始計算圖之上的高級抽象,這對于構建神經網絡大有裨益。

在PyTorch中, nn包服務于相同的目的。nn包定義了一系列Modules,大體上相當于神經網絡的層。一個Module接收輸入Variables,計算輸出Variables,但是也可以保持一個內部狀態,例如包含了可學習參數的Variables。nn 包還定義了一系列在訓練神經網絡時常用的損失函數。

在下面例子中,我們使用nn包來實現我們的兩層神經網絡。

目前,我們已經通過手動改變持有可學習參數的Variables的 .data成員來更新模型的權重。對于簡單的優化算法(例如隨機梯度下降)來說這不是一個大的負擔,但是實際上我們經常使用更加復雜的優化器來訓練神經網絡,例如AdaGrad, RMSProp, Adam等。

PyTorch的optim包將優化算法進行抽象,并提供了常用的優化算法的實現。

下面這個例子,我們將會使用 nn包來定義模型,使用optim包提供的Adam算法來優化這個模型。

有時候,需要設定比現有模塊序列更加復雜的模型。這時,你可以通過生成一個nn.Module的子類來定義一個forward。該forward可以使用其他的modules或者其他的自動梯度運算來接收輸入Variables,產生輸出Variables。

在這個例子中,我們實現兩層神經網絡作為一個定制的Module子類。

我們實現一個非常奇怪的模型來作為動態圖和權重分享的例子。這個模型是一個全連接的ReLU網絡。每一個前向通道選擇一個1至4之間的隨機數,在很多隱含層中使用。多次使用相同的權重來計算最內層的隱含層。

這個模型我們使用正常的Python流控制來實現循環。在定義前向通道時,通過多次重復使用相同的Module來實現權重分享。

我們實現這個模型作為一個Module的子類。

總結

本文介紹了PyTorch中的重點模塊和使用,對于開展之后的實戰練習非常重要。所以,我們需要認真練習一下本文的所有模塊。最好手敲代碼走一遍。

責任編輯:xj

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 深度學習
    +關注

    關注

    73

    文章

    5557

    瀏覽量

    122583
  • pytorch
    +關注

    關注

    2

    文章

    809

    瀏覽量

    13819
收藏 0人收藏

    評論

    相關推薦
    熱點推薦

    PyTorch 數據加載與處理方法

    PyTorch 是一個流行的開源機器學習庫,它提供了強大的工具來構建和訓練深度學習模型。在構建模型之前,一個重要的步驟是加載和處理數據。 1. Py
    的頭像 發表于 11-05 17:37 ?884次閱讀

    如何使用 PyTorch 進行強化學習

    強化學習(Reinforcement Learning, RL)是一種機器學習方法,它通過與環境的交互來學習如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機器
    的頭像 發表于 11-05 17:34 ?971次閱讀

    Pytorch深度學習訓練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學習訓練。
    的頭像 發表于 10-28 14:05 ?599次閱讀
    <b class='flag-5'>Pytorch</b><b class='flag-5'>深度</b><b class='flag-5'>學習</b>訓練的方法

    pytorch怎么在pycharm中運行

    第一部分:PyTorch和PyCharm的安裝 1.1 安裝PyTorch PyTorch是一個開源的機器學習庫,用于構建和訓練神經網絡。要在PyCharm中使用
    的頭像 發表于 08-01 16:22 ?2378次閱讀

    pytorch環境搭建詳細步驟

    PyTorch作為一個廣泛使用的深度學習框架,其環境搭建對于從事機器學習深度學習研究及開發的人
    的頭像 發表于 08-01 15:38 ?1743次閱讀

    pytorch和python的關系是什么

    ,PyTorch已經成為了一個非常受歡迎的框架。本文將介紹PyTorch和Python之間的關系,以及它們在深度學習領域的應用。 Python簡介 Python是一種高級、解釋型、通用
    的頭像 發表于 08-01 15:27 ?3139次閱讀

    PyTorch深度學習開發環境搭建指南

    PyTorch作為一種流行的深度學習框架,其開發環境的搭建對于深度學習研究者和開發者來說至關重要。在Windows操作系統上搭建
    的頭像 發表于 07-16 18:29 ?2358次閱讀

    基于PyTorch的卷積核實例應用

    深度學習和計算機視覺領域,卷積操作是一種至關重要的技術,尤其在圖像處理和特征提取方面發揮著核心作用。PyTorch作為當前最流行的深度學習
    的頭像 發表于 07-11 15:19 ?863次閱讀

    pytorch中有神經網絡模型嗎

    當然,PyTorch是一個廣泛使用的深度學習框架,它提供了許多預訓練的神經網絡模型。 PyTorch中的神經網絡模型 1. 引言 深度
    的頭像 發表于 07-11 09:59 ?1628次閱讀

    PyTorch的介紹與使用案例

    PyTorch是一個基于Python的開源機器學習庫,它主要面向深度學習和科學計算領域。PyTorch由Meta Platforms(原Fa
    的頭像 發表于 07-10 14:19 ?843次閱讀

    tensorflow和pytorch哪個更簡單?

    : TensorFlow和PyTorch都是用于深度學習和機器學習的開源框架。TensorFlow由Google Brain團隊開發,而PyTorc
    的頭像 發表于 07-05 09:45 ?1389次閱讀

    PyTorch如何訓練自己的數據集

    PyTorch是一個廣泛使用的深度學習框架,它以其靈活性、易用性和強大的動態圖特性而聞名。在訓練深度學習模型時,數據集是不可或缺的組成部分。
    的頭像 發表于 07-02 14:09 ?3407次閱讀

    如何使用PyTorch建立網絡模型

    PyTorch是一個基于Python的開源機器學習庫,因其易用性、靈活性和強大的動態圖特性,在深度學習領域得到了廣泛應用。本文將從PyTorch
    的頭像 發表于 07-02 14:08 ?808次閱讀

    TensorFlow與PyTorch深度學習框架的比較與選擇

    深度學習作為人工智能領域的一個重要分支,在過去十年中取得了顯著的進展。在構建和訓練深度學習模型的過程中,深度
    的頭像 發表于 07-02 14:04 ?1578次閱讀

    使用PyTorch構建神經網絡

    PyTorch是一個流行的深度學習框架,它以其簡潔的API和強大的靈活性在學術界和工業界得到了廣泛應用。在本文中,我們將深入探討如何使用PyTorch構建神經網絡,包括從基礎概念到高級
    的頭像 發表于 07-02 11:31 ?1027次閱讀
    主站蜘蛛池模板: 好男人视频免费高清在线观看www | 九九热国产视频 | 野花日本大全免费高清完整版 | 国产精品久久久久久人妻精品流 | 免费人妻AV无码专区五月 | 野花影院手机在线观看 | 老师系列高H文 | 欧美多人群p刺激交换电影 欧美多毛的大隂道 | 午夜爽喷水无码成人18禁三级 | 久久re热线视频国产 | 2021国产精品一卡2卡三卡4卡 | 色偷偷成人网免费视频男人的天堂 | 偷偷鲁青春草原视频分类 | 久久天天躁狠狠躁夜夜呲 | 麻豆久久国产亚洲精品超碰热 | 亚洲精品视频免费在线观看 | 赤兔CHINESE最新男18GUY | 欧美97色伦综合网 | av先锋影音资源男人站 | 日韩亚洲欧美中文在线 | 一个人的HD高清在线观看 | 久久精品国产久精国产果冻传媒 | 69ZXX少妇内射无码 | 耻辱の奴隷淑女中文字幕 | 亚洲AV无码乱码国产精品品麻豆 | 国产日韩精品一区二区三区在线 | 久久www99re在线播放 | 亚洲欧美日韩人成 | 在教室伦流澡到高潮H免费视频 | 久久亚洲精选 | 97久久精品视频 | SM脚奴调教丨踩踏贱奴 | 18禁止观看免费私人影院 | 成人中文字幕在线观看 | FREECHINESE东北女人真爽 free18sex性自拍裸舞 | 国产精品18久久久久久欧美 | yin荡体育课羞耻play双性 | 动漫成年美女黄漫网站 | 我半夜摸妺妺的奶C了她 | 两百磅美女 | 曰韩一本道高清无码av |

    電子發燒友

    中國電子工程師最喜歡的網站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品