色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

PyTorch教程-15.2. 近似訓練

jf_pJlTbmA9 ? 來源:PyTorch ? 作者:PyTorch ? 2023-06-05 15:44 ? 次閱讀

回憶一下我們在15.1 節中的討論。skip-gram模型的主要思想是使用softmax操作來計算生成上下文詞的條件概率wo基于給定的中心詞wc在(15.1.4)中,其對應的對數損失由(15.1.7)的相反數給出 。

由于 softmax 操作的性質,因為上下文詞可能是字典中的任何人V, (15.1.7)的反面 包含與詞匯表的整個大小一樣多的項目總和。因此, (15.1.8)中 skip-gram 模型的梯度計算和(15.1.15)中連續詞袋模型的 梯度計算都包含求和。不幸的是,這種在大型詞典(通常有數十萬或數百萬個單詞)上求和的梯度的計算成本是巨大的!

為了降低上述計算復雜度,本節將介紹兩種近似訓練方法:負采樣和分層softmax。由于skip-gram模型與連續詞袋模型的相似性,我們將僅以skip-gram模型為例來描述這兩種近似訓練方法。

15.2.1。負采樣

負采樣修改了原來的目標函數。給定中心詞的上下文窗口wc,任何(上下文)詞的事實wo來自這個上下文窗口被認為是一個事件,其概率建模為

(15.2.1)P(D=1∣wc,wo)=σ(uo?vc),

在哪里σ使用 sigmoid 激活函數的定義:

(15.2.2)σ(x)=11+exp?(?x).

讓我們首先最大化文本序列中所有此類事件的聯合概率來訓練詞嵌入。具體來說,給定長度的文本序列T, 表示為w(t)時間步長的單詞t并讓上下文窗口大小為m, 考慮最大化聯合概率

(15.2.3)∏t=1T∏?m≤j≤m,j≠0P(D=1∣w(t),w(t+j)).

然而,(15.2.3)只考慮那些涉及正例的事件。因此, 只有當所有詞向量都等于無窮大時,(15.2.3)中的聯合概率才最大化為 1。當然,這樣的結果是沒有意義的。為了使目標函數更有意義,負采樣添加了從預定義分布中采樣的負樣本。

表示為S上下文詞的事件wo來自中心詞的上下文窗口wc. 對于此次涉及的事件wo,來自預定義的分布P(w) 樣本K 不是來自這個上下文窗口的噪聲詞。表示為Nk干擾詞的事件wk (k=1,…,K) 不是來自上下文窗口 wc. 假設這些事件同時涉及正例和反例S,N1,…,NK是相互獨立的。負采樣將(15.2.3)中的聯合概率(僅涉及正例)重寫為

(15.2.4)∏t=1T∏?m≤j≤m,j≠0P(w(t+j)∣w(t)),

其中條件概率是通過事件來近似的 S,N1,…,NK:

(15.2.5)P(w(t+j)∣w(t))=P(D=1∣w(t),w(t+j))∏k=1,wk~P(w)KP(D=0∣w(t),wk).

表示為it和hk一個詞的索引 w(t)在時間步t文本序列和噪聲詞wk, 分別。關于 (15.2.5)中條件概率的對數損失是

(15.2.6)?log?P(w(t+j)∣w(t))=?log?P(D=1∣w(t),w(t+j))?∑k=1,wk~P(w)Klog?P(D=0∣w(t),wk)=?logσ(uit+j?vit)?∑k=1,wk~P(w)Klog?(1?σ(uhk?vit))=?logσ(uit+j?vit)?∑k=1,wk~P(w)Klog?σ(?uhk?vit).

我們可以看到現在每個訓練步驟的梯度計算成本與字典大小無關,而是線性取決于K. 設置超參數時K對于較小的值,負采樣的每個訓練步驟的梯度計算成本較小。

15.2.2。分層 Softmax

作為一種替代的近似訓練方法,hierarchical softmax 使用二叉樹,一種 如圖 15.2.1所示的數據結構,其中樹的每個葉節點代表字典中的一個詞V.

poYBAGR9PFyAQIa3AACXN8iJ_1k913.svg

圖 15.2.1用于近似訓練的分層 softmax,其中樹的每個葉節點代表字典中的一個詞。

表示為L(w)從根節點到表示單詞的葉節點的路徑上的節點數(包括兩端)w在二叉樹中。讓n(w,j)成為jth該路徑上的節點,其上下文詞向量為 un(w,j). 例如,L(w3)=4在 圖 15.2.1中。分層 softmax 將(15.1.4)中的條件概率近似為

(15.2.7)P(wo∣wc)=∏j=1L(wo)?1σ([[n(wo,j+1)=leftChild(n(wo,j))]]?un(wo,j)?vc),

哪里的功能σ在(15.2.2)中定義,并且 leftChild(n)是節點的左子節點n: 如果 x是真的,[[x]]=1; 否則 [[x]]=?1.

為了說明,讓我們計算生成單詞的條件概率w3給定的詞wc在圖 15.2.1中。這需要詞向量之間的點積vc 的wc以及從根到路徑(圖15.2.1中粗體路徑)上的非葉節點向量w3,向左、向右、然后向左遍歷:

(15.2.8)P(w3∣wc)=σ(un(w3,1)?vc)?σ(?un(w3,2)?vc)?σ(un(w3,3)?vc).

自從σ(x)+σ(?x)=1,它認為生成字典中所有單詞的條件概率 V基于任何詞wc總結為一個:

(15.2.9)∑w∈VP(w∣wc)=1.

幸運的是,因為L(wo)?1順序是 O(log2|V|)由于二叉樹結構,當字典大小時V是巨大的,與不使用近似訓練相比,使用分層 softmax 的每個訓練步驟的計算成本顯著降低。

15.2.3。概括

負采樣通過考慮涉及正例和負例的相互獨立的事件來構建損失函數。訓練的計算成本線性依賴于每一步的噪聲詞數量。

Hierarchical softmax利用二叉樹中從根節點到葉節點的路徑構造損失函數。訓練的計算成本取決于每一步字典大小的對數。

15.2.4。練習

我們如何在負采樣中對噪聲詞進行采樣?

驗證(15.2.9)成立。

如何分別使用負采樣和分層 softmax 來訓練連續詞袋模型?

Discussions

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • pytorch
    +關注

    關注

    2

    文章

    808

    瀏覽量

    13249
收藏 人收藏

    評論

    相關推薦

    請問電腦端Pytorch訓練的模型如何轉化為能在ESP32S3平臺運行的模型?

    由題目, 電腦端Pytorch訓練的模型如何轉化為能在ESP32S3平臺運行的模型? 如何把這個Pytorch模型燒錄到ESP32S3上去?
    發表于 06-27 06:06

    Pytorch模型訓練實用PDF教程【中文】

    ?模型部分?還是優化器?只有這樣不斷的通過可視化診斷你的模型,不斷的對癥下藥,才能訓練出一個較滿意的模型。本教程內容及結構:本教程內容主要為在 PyTorch訓練一個模型所可能涉及到的方法及函數,并且
    發表于 12-21 09:18

    PyTorch10的基礎教程

    PyTorch 10 基礎教程(4):訓練分類器
    發表于 06-05 17:42

    PyTorch 1.6即將原生支持自動混合精度訓練

    即將在 PyTorch 1.6上發布的 torch.cuda.amp 混合精度訓練模塊實現了它的承諾,只需增加幾行新代碼就可以提高大型模型訓練50-60% 的速度。
    的頭像 發表于 07-14 16:06 ?3159次閱讀
    <b class='flag-5'>PyTorch</b> 1.6即將原生支持自動混合精度<b class='flag-5'>訓練</b>

    pytorch實現斷電繼續訓練時需要注意的要點

    本文整理了pytorch實現斷電繼續訓練時需要注意的要點,附有代碼詳解。
    的頭像 發表于 08-22 09:50 ?1437次閱讀

    PyTorch教程11.9之使用Transformer進行大規模預訓練

    電子發燒友網站提供《PyTorch教程11.9之使用Transformer進行大規模預訓練.pdf》資料免費下載
    發表于 06-05 15:07 ?0次下載
    <b class='flag-5'>PyTorch</b>教程11.9之使用Transformer進行大規模預<b class='flag-5'>訓練</b>

    PyTorch教程13.5之在多個GPU上進行訓練

    電子發燒友網站提供《PyTorch教程13.5之在多個GPU上進行訓練.pdf》資料免費下載
    發表于 06-05 14:18 ?0次下載
    <b class='flag-5'>PyTorch</b>教程13.5之在多個GPU上進行<b class='flag-5'>訓練</b>

    PyTorch教程之15.2近似訓練

    電子發燒友網站提供《PyTorch教程之15.2近似訓練.pdf》資料免費下載
    發表于 06-05 11:07 ?1次下載
    <b class='flag-5'>PyTorch</b>教程之<b class='flag-5'>15.2</b><b class='flag-5'>近似</b><b class='flag-5'>訓練</b>

    PyTorch教程15.4之預訓練word2vec

    電子發燒友網站提供《PyTorch教程15.4之預訓練word2vec.pdf》資料免費下載
    發表于 06-05 10:58 ?0次下載
    <b class='flag-5'>PyTorch</b>教程15.4之預<b class='flag-5'>訓練</b>word2vec

    PyTorch教程15.9之預訓練BERT的數據集

    電子發燒友網站提供《PyTorch教程15.9之預訓練BERT的數據集.pdf》資料免費下載
    發表于 06-05 11:06 ?0次下載
    <b class='flag-5'>PyTorch</b>教程15.9之預<b class='flag-5'>訓練</b>BERT的數據集

    PyTorch教程15.10之預訓練BERT

    電子發燒友網站提供《PyTorch教程15.10之預訓練BERT.pdf》資料免費下載
    發表于 06-05 10:53 ?0次下載
    <b class='flag-5'>PyTorch</b>教程15.10之預<b class='flag-5'>訓練</b>BERT

    PyTorch如何訓練自己的數據集

    PyTorch是一個廣泛使用的深度學習框架,它以其靈活性、易用性和強大的動態圖特性而聞名。在訓練深度學習模型時,數據集是不可或缺的組成部分。然而,很多時候,我們可能需要使用自己的數據集而不是現成
    的頭像 發表于 07-02 14:09 ?1803次閱讀

    解讀PyTorch模型訓練過程

    PyTorch作為一個開源的機器學習庫,以其動態計算圖、易于使用的API和強大的靈活性,在深度學習領域得到了廣泛的應用。本文將深入解讀PyTorch模型訓練的全過程,包括數據準備、模型構建、
    的頭像 發表于 07-03 16:07 ?1099次閱讀

    pytorch如何訓練自己的數據

    本文將詳細介紹如何使用PyTorch框架來訓練自己的數據。我們將從數據準備、模型構建、訓練過程、評估和測試等方面進行講解。 環境搭建 首先,我們需要安裝PyTorch。可以通過訪問
    的頭像 發表于 07-11 10:04 ?556次閱讀

    Pytorch深度學習訓練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學習訓練
    的頭像 發表于 10-28 14:05 ?227次閱讀
    <b class='flag-5'>Pytorch</b>深度學習<b class='flag-5'>訓練</b>的方法
    主站蜘蛛池模板: 亚洲大片免费观看| 人人超碰97caoporen国产| 美女的让男人桶爽网站| 午夜伦理:伦理片| 成人影院午夜久久影院| 嗯啊…嗯np男男双性总受| 最新 国产 精品 精品 视频| 精品一区二区免费视频蜜桃网| 99在线精品免费视频| 九九在线精品亚洲国产| 亚洲视频在线观看网站| 国产乱人视频在线观看| 香蕉59tv视频| 国产99久久| 少妇无码吹潮久久精品AV网站| 亚洲国产精品自在自线观看 | 黄色天堂网站| 亚洲国产免费观看视频| 国产精品久久人妻无码网站一区无 | 日本女人下面毛茸茸| ppypp午夜限制不卡影院私人| 国产精品福利电影| 色综合欧美色综合七久久| 国产成人免费网站在线观看| 无码AV熟妇素人内射V在线| 国产亚洲欧美高清在线| 伊人久久大香线蕉观看| 美女胸网站| 芭乐草莓樱桃丝瓜18岁大全| 少妇系列之白嫩人妻| 国产在线精品一区二区网站免费| 男人天堂2018亚洲男人天堂| 99久久麻豆AV色婷婷综合| 日本激情在线| 国产三级在线观看免费| 伊人精品在线| 男人私gay挠脚心vk视频| 国产成人高清精品免费观看| 亚洲欧洲日产国码中学| 嫩草国产福利视频一区二区| u15女少天堂写真|