色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

識別文本蘊涵任務(wù)的小樣本學習

Tensorflowers ? 來源:蘇黎世語言團隊 ? 作者:Julian Eisenschlos, ? 2021-03-10 18:06 ? 次閱讀

識別文本蘊涵的任務(wù),也稱自然語言推理,是指確定一段文本(前提)是否可被另一段文本(假設(shè))所暗示或否認(或兩者都不能)。雖然這一問題通常被視為機器學習 (ML) 系統(tǒng)推理能力的重要測試,并且在純文本輸入方面已經(jīng)有過深入研究,但對于此類模型在結(jié)構(gòu)化數(shù)據(jù),如網(wǎng)站、表格、數(shù)據(jù)庫等方面的應(yīng)用,相關(guān)投入?yún)s要少得多。然而,每當需要將表格的內(nèi)容準確地歸納并呈現(xiàn)給用戶時,識別文本蘊涵就顯得尤為重要,這對于高保真的問答系統(tǒng)和虛擬助手來說更是必不可少。

在發(fā)表于 Findings of EMNLP 2020 的“通過中間預訓練以了解表格(Understanding tables with intermediate pre-training)”中,我們介紹了為表格解析定制的首批預訓練任務(wù),可使模型從更少的數(shù)據(jù)中更好、更快地學習。

我們在較早的 TAPAS模型基礎(chǔ)上進行了改進,該模型是 BERT雙向 Transformer 模型的擴展,采用特殊嵌入向量在表格中尋找答案。新的預訓練目標應(yīng)用于 TAPAS 后即在涉及表格的多個數(shù)據(jù)集上達成突破性進展。

例如,在 TabFact 上,它將模型和人類之間的表現(xiàn)差距縮小了約 50%。我們還系統(tǒng)地對選擇相關(guān)輸入的方法進行了基準測試以獲得更高效率,實現(xiàn)了速度和內(nèi)存的 4 倍提升,同時保留了 92% 的結(jié)果。適用于不同任務(wù)和規(guī)模的所有模型均已發(fā)布在 GitHub repo 中,您可以在 Colab Notebook 中試用它們。

文本蘊涵

當應(yīng)用于表格數(shù)據(jù)時,相比于純文本,文本蘊涵任務(wù)更具挑戰(zhàn)性。以一份 Wikipedia 的表格為例,其中有一些句子來自其關(guān)聯(lián)的表格內(nèi)容。評估表格內(nèi)容是包含還是與句子相矛盾,這可能需要查看多個列和行,還可能需要執(zhí)行簡單的數(shù)字計算,例如求平均值、求和、差分等。

0bdc95fe-7ee5-11eb-8b86-12bb97331649.png

表格,以及來自 TabFact 的一些語句:表格內(nèi)容可用于支持或反駁語句

按照 TAPAS 使用的方法,我們將語句和表格的內(nèi)容一起編碼,通過 Transformer 模型傳遞,得到一個單一數(shù)字,表示語句被表格蘊涵或反駁的概率。

TAPAS 模型架構(gòu)使用 BERT 模型對語句和展平的表格進行編碼,逐行讀取。特殊嵌入向量用于編碼表格結(jié)構(gòu)。第一個令牌的向量輸出用于預測蘊涵的概率

由于訓練樣本中唯一的信息是一個二元值(即“正確”或“不正確”),因此訓練模型來理解語句是否被蘊涵是具有挑戰(zhàn)性的。這也凸顯了在深度學習中泛化的困難,特別是當提供的訓練信號較為稀缺的時候。發(fā)現(xiàn)孤立的蘊涵或反駁樣本時,模型可以輕松地在數(shù)據(jù)中提取虛假模式進行預測,例如在“Greg Norman and Billy Mayfair tie in rank”中提取“tie”一詞,而不是比較排名,因此無法超越原始訓練數(shù)據(jù)成功應(yīng)用模型。

預訓練任務(wù)

預訓練任務(wù)可通過提供大量現(xiàn)成的未標記數(shù)據(jù)來“預熱”模型。然而,預訓練通常主要包括純文本而非表格數(shù)據(jù)。事實上,TAPAS 最初的預訓練使用的是簡單的掩碼語言建模目標,而這一目標并非為表格數(shù)據(jù)應(yīng)用而設(shè)計。為了提高模型在表格數(shù)據(jù)上的性能,我們引入了兩個新的預訓練二元分類任務(wù),稱其為反事實和合成任務(wù),可以用作預訓練的第二階段(通常稱為中間預訓練)。

在反事實任務(wù)中,我們從 Wikipedia 提取句子,該句子提到同時出現(xiàn)在給定表格中的實體(人、地點或事物)。然后,在 50% 的時間里,我們將實體替換為另一個替代實體來修改語句。為了確保語句的真實性,我們在表格中同一列的實體內(nèi)選擇一個替換。模型以識別語句是否被修改為目標接受訓練。這項預訓練任務(wù)包括數(shù)百萬個這樣的樣本,雖然它們的推理并不復雜,但通常還是會聽起來很自然。

對于合成任務(wù),我們采取類似于語義解析的方法,使用一組簡單的語法規(guī)則生成語句,要求模型理解基本的數(shù)學運算,比如求和與求平均值(例如“the sum of earnings”),或者理解如何使用條件過濾表格中的元素(例如“the country is Australia”)。雖然這些語句是人為的,但它們?nèi)匀挥兄谔岣吣P偷臄?shù)字和邏輯推理能力。

兩個新的預訓練任務(wù)的示例實例。反事實示例將輸入表格隨附的句子中提及的實體換為一個可信的替代實體。合成語句使用語法規(guī)則創(chuàng)建新句子,這些句子需要以復雜的方式組合表格的信息

結(jié)果

我們通過與基線 TAPAS 模型和先前兩個文本蘊涵領(lǐng)域的成功模型 LogicalFactChecker (LFC) 和 Structure Aware Transformer (SAT) 進行比較,評估了反事實和合成預訓練目標在 TabFact 數(shù)據(jù)集上的成功。基線 TAPAS 模型相對于 LFC 和 SAT 表現(xiàn)出更好的性能,但預訓練的模型 (TAPAS+CS) 的性能明顯更好,達到新的技術(shù)水平。

我們還將 TAPAS+CS 應(yīng)用于 SQA 數(shù)據(jù)集上的問答任務(wù),這要求模型在對話框環(huán)境下從表格內(nèi)容中找到答案。加入 CS 目標后,最佳性能相比于之前提高了 4 個百分點以上,這表明這種方法還可以將性能泛化到文本蘊涵之外。

TabFact(左)和 SQA(右)的結(jié)果。使用合成和反事實數(shù)據(jù)集,我們在這兩項任務(wù)中都以較大優(yōu)勢取得了新的最先進結(jié)果

數(shù)據(jù)和計算效率

反事實和合成預訓練任務(wù)的另一個方面是,由于模型已經(jīng)針對二元分類進行了調(diào)整,因此可以應(yīng)用而無需對 TabFact 進行任何微調(diào)。我們探索了只對數(shù)據(jù)的一個子集(甚至沒有數(shù)據(jù))進行訓練時,每個模型會發(fā)生什么。不查看單個樣本時,TAPAS+CS 模型與強基線 Table-Bert 不相上下,只包含 10% 的數(shù)據(jù)時,結(jié)果與先前的最先進水平相當。

TabFact 上的開發(fā)準確率相對于所用訓練數(shù)據(jù)的分數(shù)

試圖使用此類大型模型對表格進行操作時,一個普遍的擔憂是,高計算要求會使其難以解析非常大的表格。為了解決這個問題,我們研究了是否可以啟發(fā)式地選擇要通過模型的輸入子集,以優(yōu)化其計算效率。

我們對各種過濾輸入的方法進行了系統(tǒng)性研究,發(fā)現(xiàn)選擇整列和主題語句之間的單詞重疊的簡單方法可獲得最佳結(jié)果。通過動態(tài)選擇要包括的輸入令牌,我們可以使用更少的資源或以相同的成本處理更大的輸入。這樣做的挑戰(zhàn)是如何保留重要信息和準確率。

例如,上述模型全部使用 512 個令牌的序列,接近于 Transformer 模型的正常極限(盡管最近的效率方法,如 Reformer或 Performer被證明可以有效地縮放輸入大小)。我們在這里提出的列選擇方法可以讓訓練速度更快,同時還能在 TabFact 上實現(xiàn)高準確率。對于 256 個輸入令牌,我們的準確率下降非常小,但現(xiàn)在可以對模型進行預訓練、微調(diào),并使預測速度提高 2 倍。在 128 個令牌的情況下,模型仍然優(yōu)于之前的最先進模型,速度提升更為顯著,獲得 4 倍全面提升。

通過我們的列選擇方法縮短輸入,使用不同序列長度在 TabFact 上得出的準確率

使用我們提出的列選擇方法和新穎的預訓練任務(wù),可以創(chuàng)建出以更少數(shù)據(jù)和更少計算能力得出更好結(jié)果的表格解析模型。

我們已經(jīng)在 GitHub repo 中提供了新的模型和預訓練技術(shù),您可以在 Colab 中親自嘗試。為了使這種方法更易于使用,我們還共享了不同大小的模型,最小到“Tiny”。我們希望這些結(jié)果有助于在更廣泛的研究社區(qū)中推動表格推理的發(fā)展。

這項工作由蘇黎世語言團隊的 Julian Martin Eisenschlos、Syrine Krichene 和 Thomas Müller 完成。

原文標題:用于表格數(shù)據(jù)推理的小樣本學習

文章出處:【微信公眾號:TensorFlow】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7118

    瀏覽量

    89342
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8434

    瀏覽量

    132876
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    289

    瀏覽量

    13376

原文標題:用于表格數(shù)據(jù)推理的小樣本學習

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    語音識別技術(shù)的應(yīng)用與發(fā)展

    語音識別技術(shù)的發(fā)展可以追溯到20世紀50年代,但直到近年來,隨著計算能力的提升和機器學習技術(shù)的進步,這項技術(shù)才真正成熟并廣泛應(yīng)用于各個領(lǐng)域。語音識別技術(shù)的應(yīng)用不僅提高了工作效率,也極大地改善了用戶
    的頭像 發(fā)表于 11-26 09:20 ?631次閱讀

    【飛凌嵌入式OK3576-C開發(fā)板體驗】RKNPU圖像識別測試

    ,包括但不限于以下幾個方面: 計算機視覺 :用于圖像識別、目標檢測、人臉識別任務(wù),在安防監(jiān)控、自動駕駛、醫(yī)療影像分析等領(lǐng)域有著廣泛的應(yīng)用。 自然語言處理 :加速文本分類、情感分析、機
    發(fā)表于 10-10 09:27

    深度識別人臉識別在任務(wù)中為什么有很強大的建模能力

    深度學習人臉識別技術(shù)是人工智能領(lǐng)域中的一個重要分支,它利用深度學習算法來識別和驗證人臉。這項技術(shù)在近年來取得了顯著的進展,其強大的建模能力主要得益于以下幾個方面: 數(shù)據(jù)驅(qū)動的
    的頭像 發(fā)表于 09-10 14:53 ?460次閱讀

    NVIDIA文本嵌入模型NV-Embed的精度基準

    NVIDIA 的最新嵌入模型 NV-Embed —— 以 69.32 的分數(shù)創(chuàng)下了嵌入準確率的新紀錄海量文本嵌入基準測試(MTEB)涵蓋 56 項嵌入任務(wù)
    的頭像 發(fā)表于 08-23 16:54 ?2029次閱讀
    NVIDIA<b class='flag-5'>文本</b>嵌入模型NV-Embed的精度基準

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學習

    的信息,提供更全面的上下文理解。這使得模型能夠更準確地理解復雜問題中的多個層面和隱含意義。 2. 語義分析 模型通過訓練學習到語言的語義特征,能夠識別文本中的命名實體、句法結(jié)構(gòu)和語義關(guān)系等信息。這些
    發(fā)表于 08-02 11:03

    如何學習智能家居?8:Text文本實體使用方法

    沒來得及給大家寫使用教程! 不過在寫教程之前,有必要給大家看看上周的成果: Text 實體介紹 Text 實體,也就是文本實體,它支持在 HomeAssistant 輸入文字之后,通過 MQTT 下發(fā)
    的頭像 發(fā)表于 07-15 14:06 ?1633次閱讀
    如何<b class='flag-5'>學習</b>智能家居?8:Text<b class='flag-5'>文本</b>實體使用方法

    基于Python的深度學習人臉識別方法

    基于Python的深度學習人臉識別方法是一個涉及多個技術(shù)領(lǐng)域的復雜話題,包括計算機視覺、深度學習、以及圖像處理等。在這里,我將概述一個基本的流程,包括數(shù)據(jù)準備、模型選擇、訓練過程、以及測試與評估,并附上簡單的代碼示例。
    的頭像 發(fā)表于 07-14 11:52 ?1305次閱讀

    深度學習在視覺檢測中的應(yīng)用

    深度學習是機器學習領(lǐng)域中的一個重要分支,其核心在于通過構(gòu)建具有多層次的神經(jīng)網(wǎng)絡(luò)模型,使計算機能夠從大量數(shù)據(jù)中自動學習并提取特征,進而實現(xiàn)對復雜任務(wù)的處理和理解。這種
    的頭像 發(fā)表于 07-08 10:27 ?820次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在文本分類領(lǐng)域的應(yīng)用

    在自然語言處理(NLP)領(lǐng)域,文本分類一直是一個重要的研究方向。隨著深度學習技術(shù)的飛速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)在圖像識別領(lǐng)域取得了
    的頭像 發(fā)表于 07-01 16:25 ?785次閱讀

    基于深度學習的鳥類聲音識別系統(tǒng)

    具體的軟硬件實現(xiàn)點擊http://mcu-ai.com/MCU-AI技術(shù)網(wǎng)頁_MCU-AI 鳥叫聲識別在鳥類保護中具有重要意義。通過適當?shù)穆曇舴诸悾芯靠梢宰詣宇A測該地區(qū)的生活質(zhì)量。如今,深度學習
    發(fā)表于 05-30 20:30

    基于深度神經(jīng)網(wǎng)絡(luò)的嬰兒哭聲識別算法

    具體的軟硬件實現(xiàn)點擊 http://mcu-ai.com/ MCU-AI技術(shù)網(wǎng)頁_MCU-AI 嬰兒哭鬧識別是一項具有挑戰(zhàn)性的任務(wù),因為很難確定能夠讓研究人員清楚區(qū)分不同類型哭鬧的語音特征。然而
    發(fā)表于 05-20 19:20

    OpenVINO?協(xié)同Semantic Kernel:優(yōu)化大模型應(yīng)用性能新路徑

    作為主要面向 RAG 任務(wù)方向的框架,Semantic Kernel 可以簡化大模型應(yīng)用開發(fā)過程,而在 RAG 任務(wù)中最常用的深度學習模型就是 Embedding 和 Text completion,分別實現(xiàn)
    的頭像 發(fā)表于 03-08 10:41 ?763次閱讀
    OpenVINO?協(xié)同Semantic Kernel:優(yōu)化大模型應(yīng)用性能新路徑

    在全志V853平臺上成功部署深度學習步態(tài)識別算法

    偽裝等優(yōu)點。 本文所設(shè)計的步態(tài)識別系統(tǒng),搭建在全志V853開發(fā)板上,充分利用板載外設(shè)、CPU與NPU,實現(xiàn)了嵌入式系統(tǒng)上的實時步態(tài)識別系統(tǒng)。 具體來說,系統(tǒng)所采用的深度學習算法在PC端進行訓練,得到
    發(fā)表于 03-04 10:15

    科大訊飛發(fā)布星火認知大模型V3.5

    科大訊飛近日發(fā)布了星火認知大模型V3.5版本,該版本基于全國產(chǎn)化算力底座“飛星一號”平臺進行訓練。與訊飛星火V3.0相比,V3.5在邏輯推理、文本生成、數(shù)學答題及小樣本學習能力等方面均實現(xiàn)了顯著提升。
    的頭像 發(fā)表于 01-31 14:40 ?940次閱讀

    【技術(shù)科普】主流的深度學習模型有哪些?AI開發(fā)工程師必備!

    接近于人工智能。它通過學習樣本數(shù)據(jù)的內(nèi)在規(guī)律和表示層次,對文字、圖像和聲音等數(shù)據(jù)進行解釋。深度學習的目標是讓機器像人一樣具有分析學習能力,能夠識別
    的頭像 發(fā)表于 01-30 15:26 ?662次閱讀
    【技術(shù)科普】主流的深度<b class='flag-5'>學習</b>模型有哪些?AI開發(fā)工程師必備!
    主站蜘蛛池模板: 1234成人网| 脱jk裙的美女露小内内无遮挡| 亚洲精品国产自在现线最新| 黑人操白逼| 最近日本MV字幕免费观看视频| 麻豆婷婷狠狠色18禁久久| YY8090福利午夜理论片| 久久成人免费观看草草影院| 亚洲高清视频在线| 久久综合狠狠综合狠狠| 草莓视频在线观看完整高清免费| 小黄文污到你湿| 妹妹我要操| 国产女人喷潮视频免费| 99久久国产露脸精品竹菊传煤| 无码一区二区在线欧洲| 两个人的视频免费| 国产精品久久久久久久久免费下载 | 国语自产二区高清国语自产拍| 我半夜摸妺妺的奶C了她| 精品国产原创在线观看视频| 99久久99久久精品免费看子| 小柔的性放荡羞辱日记| 欧美国产精品久久久乱码| jlzz中国jizz日本老师水多| 亚洲国产精品99久久久久久| 欧美黑人经典片免费观看| 国语自产视频在线| 成年女人免费播放影院| 张津瑜的9分58秒7段免费| 伦理片天堂eeuss影院2o12| 国产ZZJJZZJJ视频全免费| 中国午夜伦理片| 亚洲第一页在线播放| 日本人的xxxxxxxxx69| 快乐激情网| 狠狠操天天操夜夜操| 国产www视频| 办公室里做好紧好爽H| 最新在线黄色网址| 亚洲无碼网站观看|