色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

神經網絡的基本知識,以及兩種更高級的算法:DeepWalk和GraphSage

DPVg_AI_era ? 來源:lq ? 2019-02-16 11:03 ? 次閱讀

神經網絡(GNN)在各個領域越來越受歡迎,本文介紹了圖神經網絡的基本知識,以及兩種更高級的算法:DeepWalk和GraphSage。

最近,圖神經網絡(GNN)在各個領域越來越受到歡迎,包括社交網絡、知識圖譜、推薦系統(tǒng),甚至生命科學。

GNN在對圖形中節(jié)點間的依賴關系進行建模方面能力強大,使得圖分析相關的研究領域取得了突破性進展。本文旨在介紹圖神經網絡的基本知識,以及兩種更高級的算法:DeepWalk和GraphSage。

圖(Graph)

在討論GNN之前,讓我們先了解一下什么是圖(Graph)。在計算機科學中,圖是由兩個部件組成的一種數據結構:頂點(vertices)和邊(edges)。一個圖G可以用它包含的頂點V和邊E的集合來描述。

邊可以是有向的或無向的,這取決于頂點之間是否存在方向依賴關系。

一個有向的圖(wiki)

頂點通常也被稱為節(jié)點(nodes)。在本文中,這兩個術語是可以互換的。

圖神經網絡

圖神經網絡是一種直接在圖結構上運行的神經網絡。GNN的一個典型應用是節(jié)點分類。本質上,圖中的每個節(jié)點都與一個標簽相關聯(lián),我們的目的是預測沒有ground-truth的節(jié)點的標簽。

本節(jié)將描述The graph neural network model(Scarselli, F., et al., 2009) [1]這篇論文中的算法,這是第一次提出GNN的論文,因此通常被認為是原始GNN。

在節(jié)點分類問題設置中,每個節(jié)點v的特征x_v與一個ground-truth標簽t_v相關聯(lián)。給定一個部分標記的graph G,目標是利用這些標記的節(jié)點來預測未標記的節(jié)點的標簽。它學習用包含鄰域信息的d維向量h_v表示每個節(jié)點。即:

其中x_co[v]表示與v相連的邊的特征,h_ne[v]表示v相鄰節(jié)點的嵌入,x_ne[v]表示v相鄰節(jié)點的特征。函數f是將這些輸入映射到d維空間上的過渡函數。由于我們要尋找h_v的唯一解,我們可以應用Banach不動點定理,將上面的方程重寫為一個迭代更新過程。

H和X分別表示所有h和x的串聯(lián)。

通過將狀態(tài)h_v和特性x_v傳遞給輸出函數g,從而計算GNN的輸出。

這里的f和g都可以解釋為前饋全連接神經網絡。L1 loss可以直接表述為:

可以通過梯度下降進行優(yōu)化。

然而,原始GNN存在三個主要局限性:

如果放寬“不動點” (fixed point)的假設,那么可以利用多層感知器學習更穩(wěn)定的表示,并刪除迭代更新過程。這是因為,在原始論文中,不同的迭代使用轉換函數f的相同參數,而MLP的不同層中的不同參數允許分層特征提取。

它不能處理邊緣信息(例如,知識圖中的不同邊緣可能表示節(jié)點之間的不同關系)

不動點會阻礙節(jié)點分布的多樣性,不適合學習表示節(jié)點。

為了解決上述問題,研究人員已經提出了幾個GNN的變體。不過,它們不是本文的重點。

DeepWalk:第一個無監(jiān)督學習節(jié)點嵌入的算法

DeepWalk [2]是第一個提出以無監(jiān)督的方式學習節(jié)點嵌入的算法。

它在訓練過程中非常類似于詞匯嵌入。其動機是graph中節(jié)點和語料庫中單詞的分布都遵循冪律,如下圖所示:

該算法包含兩個步驟:

在graph中的節(jié)點上執(zhí)行random walks,以生成節(jié)點序列

運行skip-gram,根據步驟1中生成的節(jié)點序列,學習每個節(jié)點的嵌入

在random walks的每個時間步驟中,下一個節(jié)點從上一個節(jié)點的鄰節(jié)點均勻采樣。然后將每個序列截斷為長度為2|w| + 1的子序列,其中w表示skip-gram中的窗口大小。

本文采用hierarchical softmax來解決由于節(jié)點數量龐大而導致的softmax計算成本高昂的問題。為了計算每個單獨輸出元素的softmax值,我們必須計算元素k的所有e ^ xk。

Softmax的定義

因此,原始softmax的計算時間為O(|V|),其中V表示圖中頂點的集合。

分層softmax利用二叉樹來處理這個問題。在這個二叉樹中,所有的葉子(下圖中的v1, v2,…v8)都表示graph中的頂點。在每個內部節(jié)點中,都有一個二元分類器來決定選擇哪條路徑。要計算給定頂點v_k的概率,只需計算從根節(jié)點到葉節(jié)點v_k路徑上每一個子路徑的概率。由于每個節(jié)點的子節(jié)點的概率之和為1,所以所有頂點的概率之和為1的特性在分層softmax中仍然保持不變。由于二叉樹的最長路徑是O(log(n)),其中n表示葉節(jié)點的數量,因此一個元素的計算時間現(xiàn)在減少到O(log|V|)。

Hierarchical Softmax

在訓練完DeepWalk GNN之后,模型已經學習了每個節(jié)點的良好表示,如下圖所示。不同的顏色表示輸入圖中的不同標簽。我們可以看到,在輸出圖(2維嵌入)中,具有相同標簽的節(jié)點被聚集在一起,而具有不同標簽的大多數節(jié)點都被正確地分開了。

然而,DeepWalk的主要問題是缺乏泛化能力。每當一個新節(jié)點出現(xiàn)時,它必須重新訓練模型以表示這個節(jié)點。因此,這種GNN不適用于圖中節(jié)點不斷變化的動態(tài)圖。

GraphSage:學習每個節(jié)點的嵌入

GraphSage提供了解決上述問題的辦法,以一種歸納的方式學習每個節(jié)點的嵌入。

具體地說,GraphSage每個節(jié)點由其鄰域的聚合(aggregation)表示。因此,即使圖中出現(xiàn)了在訓練過程中沒有看到的新節(jié)點,它仍然可以用它的鄰近節(jié)點來恰當地表示。

下面是GraphSage算法:

外層循環(huán)表示更新迭代的數量,而h ^ k_v表示更新迭代k時節(jié)點v的潛在向量。在每次更新迭代時,h ^ k_v的更新基于一個聚合函數、前一次迭代中v和v的鄰域的潛在向量,以及權重矩陣W ^ k。

論文中提出了三種聚合函數:

1. Mean aggregator:

mean aggregator取一個節(jié)點及其所有鄰域的潛在向量的平均值。

與原始方程相比,它刪除了上面?zhèn)未a中第5行中的連接運算。這種運算可以看作是一種“skip-connection”,在論文后面的部分中,證明了這在很大程度上可以提高模型的性能。

2. LSTM aggregator:

由于圖中的節(jié)點沒有任何順序,因此它們通過對這些節(jié)點進行排列來隨機分配順序。

3. Pooling aggregator:

這個運算符在相鄰集上執(zhí)行一個element-wise的pooling函數。下面是一個max-pooling的示例:

論文使用max-pooling作為默認的聚合函數。

損失函數定義如下:

其中u和v在固定長度的random walk中共存,而v_n是不與u共存的負樣本。這種損失函數鼓勵距離較近的節(jié)點具有相似的嵌入,而距離較遠的節(jié)點則在投影空間中被分離。通過這種方法,節(jié)點將獲得越來越多的關于其鄰域的信息。

GraphSage通過聚合其附近的節(jié)點,可以為看不見的節(jié)點生成可表示的嵌入。它允許將節(jié)點嵌入應用到涉及動態(tài)圖的域,其中圖的結構是不斷變化的。例如,Pinterest采用了GraphSage的擴展版本PinSage作為其內容發(fā)現(xiàn)系統(tǒng)的核心。

總結

本文中,我們學習了圖神經網絡、DeepWalk和GraphSage的基礎知識。GNN在復雜圖結構建模方面的強大功能確實令人驚嘆。鑒于其有效性,我相信在不久的將來,GNN將在AI的發(fā)展中發(fā)揮重要作用。

[1] Scarselli, Franco, et al. "The graph neural network model.”

http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.1015.7227&rep=rep1&type=pdf

[2] Perozzi, Bryan, Rami Al-Rfou, and Steven Skiena. "Deepwalk: Online learning of social representations.”

http://www.perozzi.net/publications/14_kdd_deepwalk.pdf

[3] Hamilton, Will, Zhitao Ying, and Jure Leskovec. "Inductive representation learning on large graphs.”

https://www-cs-faculty.stanford.edu/people/jure/pubs/graphsage-nips17.pdf

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4772

    瀏覽量

    100838
  • 計算機科學
    +關注

    關注

    1

    文章

    144

    瀏覽量

    11370
  • GNN
    GNN
    +關注

    關注

    1

    文章

    31

    瀏覽量

    6354

原文標題:掌握圖神經網絡GNN基本,看這篇文章就夠了

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    遺傳算法 神經網絡 解析

    關于遺傳算法神經網絡
    發(fā)表于 05-19 10:22

    【PYNQ-Z2試用體驗】神經網絡基礎知識

    學習和認知科學領域,是一模仿生物神經網絡(動物的中樞神經系統(tǒng),特別是大腦)的結構和功能的數學模型或計算模型,用于對函數進行估計或近似。神經網絡由大量的人工
    發(fā)表于 03-03 22:10

    【案例分享】基于BP算法的前饋神經網絡

    `BP神經網絡首先給出只包含一個隱層的BP神經網絡模型(神經網絡): BP神經網絡其實由
    發(fā)表于 07-21 04:00

    【案例分享】ART神經網絡與SOM神經網絡

    神經網絡在學習新知識的同時要保持對之前學習的知識的記憶,而不是狗熊掰棒子SOM神經網絡是一競爭學習型的無監(jiān)督
    發(fā)表于 07-21 04:30

    神經網絡和反向傳播算法

    03_深度學習入門_神經網絡和反向傳播算法
    發(fā)表于 09-12 07:08

    反饋神經網絡算法是什么

    反饋神經網絡算法
    發(fā)表于 04-28 08:36

    BP神經網絡的基礎數學知識分享

    一文看懂BP神經網絡的基礎數學知識
    發(fā)表于 06-16 07:14

    有關脈沖神經網絡基本知識

    譯者|VincentLee來源 |曉飛的算法工程筆記脈沖神經網絡(Spiking neural network, SNN)將脈沖神經元作為計算單...
    發(fā)表于 07-26 06:23

    基于高效采樣算法的時序圖神經網絡系統(tǒng)介紹

    成為了非常重要的問題。 基于以上問題,本文提出了一基于高效采樣算法的時序圖神經網絡系統(tǒng) 。首先我們介紹用于時序圖神經網絡采樣的高效采樣方法。采樣常常被用于深度學習中以降低模型的訓練時
    發(fā)表于 09-28 10:34

    圖形神經網絡的基礎知識兩種高級算法

    神經網絡是一直接在圖結構上運行的神經網絡。GNN的一個典型應用是節(jié)點分類。本質上,圖中的每個節(jié)點都與一個標簽相關聯(lián),我們希望預測未標記節(jié)點的標簽。本節(jié)將介紹論文中描述的算法,GNN
    的頭像 發(fā)表于 04-17 14:19 ?2694次閱讀
    圖形<b class='flag-5'>神經網絡</b>的基礎<b class='flag-5'>知識</b><b class='flag-5'>兩種</b>較<b class='flag-5'>高級</b>的<b class='flag-5'>算法</b>

    什么是神經網絡?什么是卷積神經網絡

    在介紹卷積神經網絡之前,我們先回顧一下神經網絡基本知識。就目前而言,神經網絡是深度學習算法的核心,我們所熟知的很多深度學習
    的頭像 發(fā)表于 02-23 09:14 ?3567次閱讀

    卷積神經網絡的介紹 什么是卷積神經網絡算法

    卷積神經網絡的介紹 什么是卷積神經網絡算法 卷積神經網絡涉及的關鍵技術 卷積神經網絡(Convolutional Neural Networ
    的頭像 發(fā)表于 08-21 16:49 ?1889次閱讀

    卷積神經網絡和bp神經網絡的區(qū)別

    卷積神經網絡(Convolutional Neural Networks,簡稱CNN)和BP神經網絡(Backpropagation Neural Networks,簡稱BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?4202次閱讀

    bp神經網絡和卷積神經網絡區(qū)別是什么

    結構、原理、應用場景等方面都存在一定的差異。以下是對這兩種神經網絡的比較: 基本結構 BP神經網絡是一多層前饋神經網絡,由輸入層、隱藏層和
    的頭像 發(fā)表于 07-03 10:12 ?1213次閱讀

    卷積神經網絡和bp神經網絡的區(qū)別在哪

    結構、原理、應用場景等方面都存在一定的差異。以下是對這兩種神經網絡的詳細比較: 基本結構 BP神經網絡是一多層前饋神經網絡,由輸入層、隱藏
    的頭像 發(fā)表于 07-04 09:49 ?9317次閱讀
    主站蜘蛛池模板: 亚洲中文在线偷拍| 亚洲另类国产综合在线| 黑人巨大交牲老太| 国产AV综合手机在线观看| JIZZ19学生第一次| 2020精品极品国产色在线| 一起碰一起噜一起草视频| 亚洲VA天堂VA欧美VA在线| 忘忧草研究所 麻豆| 十二月综合缴缴情| 色一伦一情一区二区三区| 日韩精品AV一区二区三区| 全黄H全肉禁乱公| 日本xxx片免费高清在线| 青草久久影院| 日本久久久久亚洲中字幕| 秋霞午夜一级理论片久久| 欧美一区二区高清| 日本另类xxxx| 日韩一区二区三区精品| 日日夜夜操操操| 视频成人永久免费看| 色综合欧美色综合七久久| 三级网站视频| 丝瓜视频在线免费| 羞羞影院男女爽爽影院尤物| 亚洲 无码 制服 日韩| 亚洲黄色在线观看| 亚洲深夜在线| 欲香欲色天天影视大全| 777琪琪午夜理论电影网| 99久久国产宗和精品1上映| Chineseman瘦老头77| 俄罗斯孩交精品| 国产精品久久久久久无码专区| 国产免费啪嗒啪嗒视频看看| 国精产品999一区二区三区有限| 护士的下面又湿又紧10P| 久久伊人久久| 强奷乱码中文字幕熟女免费| 神马电影院午 夜理论|