色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何利用多個上下文信息來做同義實體發現問題上進行了一些新的探索

深度學習自然語言處理 ? 來源:RUC AI Box ? 2020-08-28 10:08 ? 次閱讀

命名實體的同義發現在許多NLP任務中起到了重要的作用。同義發現任務中一個核心的問題是如何衡量一對實體之間的語義相似度。基于表示學習(representation learning)的同義實體發現致力于學習更好的詞表示(word embedding)或者字符表示(character-level embedding)。這些方法大都可以很好的處理表述相似的同義實體(例如airplane/aeroplane), 但在衡量語義相似的同義實體下表現不佳(例如clogged nose/nasal congestion)。近年來,基于上下文(context)的同義實體發現多基于分布式語義模型(Distributional Semantics Models)的假設 ,即“在相同的上下文中出現的詞匯在某種程度上有類似的含義“。在實際應用中,一個命名實體會通常出現在許多不同的上下文中。對于每個命名實體,現有基于分布式語義模型的方法大多將單個上下文的信息拿來做匹配。

IJCAI2020的一篇論文 (“Entity Synonym Discovery via Multipiece Bilateral Context Matching”) 在如何利用多個上下文信息來做同義實體發現問題上進行了一些新的探索。作者認為對于一對命名實體,若對每個實體能利用多個不同的上下文來做匹配不僅可以更全面的學習其上下文語意表示從而提高衡量實體之間語義相似度的準確性,還可以增加匹配的魯棒性,減少因采用某個低質量上下文而引入的噪聲。為了達到這一目標,作者在同義詞發現任務上將傳統的基于單個上下文的匹配(single-piece context matching)擴展至多個上下文(multi-piece context),并通過多個上下文之間的雙向匹配(bilateral context matching) 來學習實體間的相似度,從而用于海量文本中的同義實體發現。在公開/特定領域(醫療),英文/中文文本數據集上均取得了較佳的表現。

模型解析

SynonymNet核心idea是對于每個命名實體查找一組(多個)其出現的上下文句子,并通過對兩組上下文句子之間進行匹配得到最終命名實體間的相似度。那么這樣的匹配要如何實現呢?

作者采用了如下圖所示的模型結構:檢索器 (context retriever)通過檢索的方式從海量文本中選擇一組實體被提到的句子;編碼器(context encoder)將每一個上下文信息進行編碼; 雙向匹配(bilateral matching)+泄漏單元(leaky unit)則將兩個實體對應的兩組上下文信息進行雙向匹配;合成器(context aggregation)利用匹配的信息選擇具有代表性,且在匹配中較為informative的上下文信息進行多上下文的聚合。作者考慮了兩種不同的架構:一是針對二元實體組 的siamese 結構,根據同義實體是否匹配進行二分類;二是針對三元實體組 的triplet 結構,希望同義實體 的得分超過非同義實體 。

雙向匹配。

對于一組命名實體 , 上下文檢索+編碼將器將 轉化為了兩組上下文的向量:

對于每個提到實體 的上下文向量 , 作者用bi-linear項來計算和每一個提到實體 的上下文向量 的匹配分數:

同樣的,對于每一個提到實體 的上下文向量,作者也利用相同的方式計算匹配分數:

這樣的匹配看似需要進行 次,但在實際實現中可以通過矩陣乘法進行高效計算:,并通過按行/列取softmax得到兩個方向的匹配分數。

泄露單元。

當需要和多個上下文進行匹配的時候,可能會存在沒有高質量的上下文進行匹配,甚至上下文存在錯誤的情況。為了更好的解決這個問題,作者引入了泄漏單元(leaky unit)的概念。Leaky unit的想法是在雙向匹配時引入一個多余的上下文向量 。該向量可以隨模型學習,目的是為了在沒有高質量上下文匹配時承擔一些匹配的分數,從而減弱低質量上下文在匹配過程中帶來的噪聲和干擾。

在每個匹配方向上,Leaky unit會額外和/個上下文向量計算匹配分數:

當存在某個低質量的上下文,比如因為實體 在句子語義成分中不重要時,其對應的上下文向量 在和提到實體 的 個上下文向量進行匹配時:

分母中的泄漏單元會承擔匹配分數; 會減弱該 在上下文在匹配時的影響。橫向比較上方兩個公式的分子:當 > 時,泄漏單元會比低質量的上下文在匹配中更活躍,占用額外的匹配分數,從而減弱低質量上下文在匹配時的分數。

上下文信息聚合。

作者將多個上下文基于attention思想進行聚合。當已經獲得了 個上下文之間的匹配分數后,作者認為某一個上下文 在 個上下文聚合過程中的重要的程度取決于在與另一邊 個上下文匹配時最被需要的程度:

這里的動機是如果 個上下文和 匹配時最高的匹配分數已經很低,那么可以說明 在整個匹配過程中不夠informative,聚合時應當給較小的attention;反之,如果 在和 個上下文匹配時最高的匹配分數很高,那么可以說明 在匹配過程中非常被需要。作為informative的上下文 在聚合時應當得到更大的attention。基于這個思路,聚合時采用了基于最強匹配分數進行的attention聚合,得到聚合后的上下文向量:

泄漏單元雖然在匹配時分擔了匹配分數,但泄漏單元不參與聚合過程。因此泄漏單元不會在聚合過程中貢獻信息給聚合后的上下文向量。這樣是為了保證泄露的噪聲能被隔離開,不去影響最終聚合的質量。

siamese/triplet 結構。

作者嘗試了兩種不同的模型結構/損失函數。siamese 結構以二元實體組 作為輸入,損失函數利用聚合后的上下文向量刻畫兩個實體同義與否。triplet結構以三元實體組作為輸入,損失函數利用聚合后的上下文向量希望同義實體比非同義實體獲得更高的分數: 大于一個margin。

實體發現流程

作者利用SynonymNet衡量實體間語義相似度的能力將其用于文本中的實體發現。如圖所示,實體發現分為四步:1)根據文本訓練word embedding;2)對于一個query entity , 通過其在embedding space上的 最近鄰獲得candidate entity;3)對于 < query entity, candidate entity > 利用SynonymNet獲得相似度分數;4)最后根據SynonymNet分數獲得同義實體對。

實驗表現

作者在Wiki + Freebase, PubMed + UMLS, MedBook + MKG 三個數據集上進行了評估。實驗采用AUC和MAP評價采用相同的word embedding時不同模型結構對于衡量實體同義相似度的影響。

作者對上下文個數對性能的影響進行了評估。結果顯示采用多個上下文進行匹配可以降低單個上下文匹配時可能帶來的噪聲,從而顯著提高同義相似度的準確性。

作者還在真實的同義實體發現任務中進行了一些分析。word2vec采用了利用上下文來對實體語義進行建模的思想,用cosine similarity進行embedding最近鄰選取可以得到初篩后的candidate entity。對于query entity “UNGA”,獲得的candidates雖然大多出現在類似的上下文中,不相關的實體仍在前列。經過SynonymNet對于上下文更細粒度的刻畫,以及多上下文的雙向匹配后,同義實體的排名變得更靠前了。

總結

根據多個上下文進行雙向匹配來確定兩個實體同義程度,利用泄漏單元來處理多個上下文匹配時可能存在噪音的情況,思路直觀,實現的方式簡潔。實驗結果上驗證了采用多個上下文進行匹配來帶準確度和魯棒性上的提升。

該框架對于編碼器,檢索器的選擇比較靈活。目前文中采用的是bi-LSTM結構,和基于transformer的眾多預訓練語言模型碰撞之后說不定也能有一些新的發現。在需要用多個上下文進行匹配的時候,如何利用多個上下文帶來的多樣性,全面地學習實體表示也是一個很有意思的問題。在處理由之產生的噪聲方面,文中的泄漏單元給出了一個比較新穎的觀點。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3638

    瀏覽量

    134426
  • 模型
    +關注

    關注

    1

    文章

    3226

    瀏覽量

    48809
  • 數據集
    +關注

    關注

    4

    文章

    1208

    瀏覽量

    24689

原文標題:SynonymNet: 基于多個上下文雙向匹配的同義實體發現

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    編寫個任務調度程序,在上下文切換后遇到了一些問題求解

    大家好, 我正在編寫個任務調度程序,在上下文切換后遇到了一些問題。 為下個任務恢復上下文后: __builtin_tricore_mt
    發表于 05-22 07:50

    關于進程上下文、中斷上下文及原子上下文一些概念理解

    只是切換進程寄存器上下文的切換。 進程上下文主要是異常處理程序和內核線程。內核之所以進入進程上下文是因為進程自身的一些工作需要在內核中。例
    發表于 09-06 09:58

    進程上下文與中斷上下文的理解

    的切換1.進程上下文主要是異常處理程序和內核線程。內核之所以進入進程上下文是因為進程自身的一些工作需要在內核中。例如,系統調用是為當前進程服務的,異常通常是處理進程導致的錯誤狀態等。
    發表于 12-11 19:45

    進程上下文/中斷上下文及原子上下文的概念

    為什么會有上下文這種概念進程上下文/中斷上下文及原子上下文的概念
    發表于 01-13 07:17

    中斷中的上下文切換詳解

    -》 osRtxThreadSwitch)只是設置了一些內核標志而并沒有進行真正的上下文切換動作),RTX的內核接口都被設計成系統調用。換句話說,用戶程序想要獲取內核服務,想要使得任何其他任務由pend狀態進入ready
    發表于 03-23 17:18

    基于交互上下文的預測方法

    傳統的上下文預測是在單用戶的上下文基礎上進行的,忽視了實際普適計算環境中由于用戶交互活動導致的上下文變化因素。為了合理、有效地解決上述局限性問題,該文提出基
    發表于 10-04 14:08 ?7次下載

    終端業務上下文的定義方法及業務模型

    該文針對業務上下文僅關注業務質量較少考慮用戶終端環境的現狀,提出終端業務上下文的概念,為普適業務的開展提供必要的信息支撐。給出種終端業務上下文
    發表于 03-06 11:06 ?11次下載

    基于Pocket PC的上下文菜單實現

    介紹了基于 Pocket PC 中的點按操作概念, 論述了在Pocket PC 中上下文菜單的實現原理及方法, 并給出了基于MFC 下的Windows CE 應用程序實現上下文菜單的步驟和代碼實例。
    發表于 07-25 18:26 ?17次下載

    基于Pocket PC的上下文菜單實現

    本文介紹了基于 Pocket PC 中的“點按”操作概念 論述了在 Pocket PC 中上下文菜單的實現原理及方法 并給出了基于 MFC 下的 Windows CE 應用程序實現上下文菜單的步驟和代碼實例 。
    發表于 04-18 10:46 ?0次下載

    基于上下文相似度的分解推薦算法

    針對移動服務推薦中用戶上下文環境復雜多變和數據稀疏性問題,提出種基于移動用戶上下文相似度的張量分解推薦算法-UCS-TF。該算法組合用戶間的多維上下文相似度和
    發表于 11-27 17:42 ?0次下載

    基于低秩重檢測的多特征時空上下文的視覺跟蹤

    時空上下文跟蹤算法充分的利用空間上下文中包含的結構信息能夠有效的對目標進行跟蹤,實時性優良.但是該算法僅僅
    發表于 12-15 15:01 ?0次下載

    Web服務的上下文的訪問控制策略模型

    Web服務環境中,交互實體通常位于不同安全域,具有不可預見性。Web服務應該基于其他與領域無關的信息而非身份實施訪問控制,以實現對跨域未知用戶的訪問授權。為此,提出了適應于Web服務的基于
    發表于 01-05 16:32 ?0次下載

    初學OpenGL:什么是繪制上下文

    初學OpenGL,打開紅寶書,會告訴你OpenGL是個狀態機,OpenGL采用了客戶端-服務器模式,那時覺得好抽象,直到后來了解了繪制上下文才把這些聯系起來。我們可以認為每個硬件GPU是個服務器
    發表于 04-28 11:47 ?2455次閱讀

    如何用上下文注意力進行深度圖像修復

    今天,我們將深入探討深度圖像修復的個突破,上下文注意力。通過使用上下文注意力,我們可以有效地從遙遠的空間位置借用信息重建局部缺失的像素。
    的頭像 發表于 04-07 19:01 ?2828次閱讀
    如何用<b class='flag-5'>上下文</b>注意力<b class='flag-5'>來</b><b class='flag-5'>進行</b>深度圖像修復

    如何分析Linux CPU上下文切換問題

    在我的上篇文章:《探討 Linux CPU 的上下文切換》中,我談到了 CPU 上下文切換的工作原理。快速回顧下,CPU 上下文切換是保
    的頭像 發表于 05-05 20:11 ?1940次閱讀
    主站蜘蛛池模板: 男女无遮挡吃奶gift动态图| A国产一区二区免费入口| 在教室伦流澡到高潮H女攻视频 | 亚洲精品天堂在线观看| 一级做a爰片久久毛片苍井优| 99视频久久精品久久| 果冻传媒完整免费网站在线观看 | 6080yy亚洲久久无码| 国产精品久久久久久人妻精品流 | 亚洲爱视频| 亚州免费一级毛片| 在线 无码 中文 强 乱| 18videosex性欧美黑色| adc影院欢迎您大驾光临入口| 高清午夜福利电影在线| 精品国产品在线18年| 蜜芽丅v新网站在线观看| 日本熟妇乱妇熟色在线电影| 特级做A爰片毛片免费69| 在线高清视频不卡无码| 爱穿丝袜的麻麻3d漫画免费| 国产精一品亚洲二区在线播放| 久久日本片精品AAAAA国产| 欧美精品AV精品一区视频| 小小水蜜桃3视频在线观看| 538在线播放| 国产亚洲精品久久无码98 | 亚洲无AV在线中文字幕| 成人a毛片久久免费播放 | 国产精品黄色大片| 男人脱女人衣服吃奶视频| 性色欲情网站IWWW九文堂| A级韩国乱理伦片在线观看| 国模啪啪久久久久久久| 日韩精品一区二区中文| 2019久久视频这里有精品15| 国产三级影院| 无码人妻丰满熟妇区五十路久久| a级男女性高爱潮高清试看| 久久久久夜| 亚洲人成在线观看一区二区|