色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

DocumentAI的模型、任務和基準數據集

深度學習自然語言處理 ? 來源:夕小瑤的賣萌屋 ? 作者:夕小瑤的賣萌屋 ? 2022-08-22 09:55 ? 次閱讀

隨著最近幾年多模態大火的,越來越多的任務都被推陳出新為多模態版本。譬如,傳統對話任務,推出了考慮視覺信息的多模態數據集;事件抽取,也推出視頻形式的多模態版本;就連 grammar induction(語法歸納),也有了多模態版的(詳見 NAACL'2021 best paper)。

然而,多模態大火雖是最近的事情,但它并不是近兩年才有的什么新技術如果是想要對這一領域有比較深的研究,甚至想要做出工作、有所創新,那僅僅了解多模態最近兩年幾個大火的多模態模型顯然是不足夠的

事實上,有些任務已經天生就是多模態很多年了。早在多模態成為焦點之前,就已經默默被研究二十來年了。比如,智能文檔(Document AI)技術。所謂智能文檔技術,也就是自動理解、分析業務文檔技術文檔內容可包含文字、圖片、視頻等多種形式。由于理解多模態形式的多模態形式文的需求其實廣泛長期存在,所以智能文檔技術很多年來都是幾個大廠的研究重點之一。近年來,深度學習技術的普及也更好地推動了例如文檔布局分析、可視化信息提取、文檔可視化問答、文檔圖像分類等智能文檔算法的發展。近期,微軟亞研院發表了一篇綜述,簡要回顧了一些有代表性的DocumentAI的模型、任務和基準數據集。小編認為這篇概述的總結體系非常扎實,是值得細細閱讀的多模態相關綜述,故與各位分享。

Document AI 發展歷程

作者概述智能文檔的發展大致經歷了以下三個階段:

第一階段: 啟發式階段

20世紀90年代初,研究人員主要使用基于規則的啟發式(Heuristic rule-based document layout analysis)來理解和分析文檔,通過手動觀察文檔的布局信息,從而總結出一些啟發式規則。啟發式規則方法主要使用固定的布局信息來處理文檔.方法較為固定,定制的規則可擴展性較差,通用性較差。

基于啟發式規則的文檔的布局分析大致分為三種方式:
(1)自頂向下:文檔圖像逐步劃分到不同的區域,遞歸執行切割直到該區域被劃分為預定義的標準,通常是塊或列。例如projection profile,采用X-Y cut算法對文檔進行剪切,通常用于文本區域和行距固定的結構化文本,對特定格式的文檔進行更快、更有效的分析.但其對邊界噪聲敏感,對傾斜文本的處理效果不佳。
(2)自底向上:使用像素或組件作為基本單元,將其分組并合并成一個更大的同質區域,自底向上方法雖然需要更多的計算資源,但更通用,可以覆蓋更多具有不同布局類型的文檔。
(3)混合策略:將自上而下和自下而上相結合,例如Okamoto & Takahashi使用分隔符和空格來切割塊,并將內部組件進一步合并到每個塊中的文本行中,進而解析文檔的布局。

第二階段:機器學習階段

直到從2000年來 隨著機器學習技術的發展,以機器學習模型逐漸成為文檔處理的主流方法。研究者設計功能模板以了解不同功能的權重,進而理解和分析文檔的內容和布局。

基于機器學習的文檔分析過程通常分為兩個階段:
1)對文檔圖像進行分割,獲得多個候選區域;
2)對文檔區域進行分類和區分,如文本塊和圖像。

盡管帶注釋的數據被用于監督學習,并且以前的方法可以帶來一定程度的性能改進,但是由于缺乏定制規則和訓練樣本數量,通用性仍然不令人滿意。此外,不同類型文檔的遷移和適應成本相對較高,這使得以前的方法不適合廣泛的商業應用。

第三階段:深度學習階段

隨著深度學習的發展和大量未標注電子文檔的積累,可以通過工具HTML/XML提取、PDF解析器、OCR等提取不同類型的文檔中的內容,其文本內容、布局信息和基本圖像信息等基本組織良好,然后對大規模深度神經網絡進行預訓練和微調,以完成各種下游文檔AI任務.包括文檔布局分析、視覺信息提取、文檔視覺問答和文檔圖像分類等。現有的基于深度學習的智能文檔模型主要分為兩大類:

針對特定任務的深度學習模型

支持各種下游任務的通用預訓練模型

DocumentAI的主要任務

Document AI在我們現實的應用場景主要有以下四類任務:

904ff5dc-20d9-11ed-ba43-dac502259ad0.png

Document Layout Analysis

該任務主要是對文檔布局中的圖像、文本、表格、圖等位置關系進行自動分析、識別、理解的過程.主要分為兩個主任務:Visual analysis 與Semantic analysis.Visual analysis為視覺元素的分析,主要目的是檢測文檔的結構,確定相似區域的邊界,而Semantic analysis為語義分析檢測區域識別特定的文檔元素,例如標題、段落、表格等。

Visual Information Extraction

該任務從文檔中的大量非結構化內容中提取實體及關系.對于視覺豐富的文檔建模為計算機視覺問題,通過語義分割或文本框檢測來進行信息提取,將文檔圖像視為像素網格,將文本特征添加到視覺特征圖中。根據文本信息的粒度,該任務從字符級發展到單詞級,再發展到上下文級。

Document Visual Question Answering

該任務為通過判斷識別文本的內部邏輯來回答關于文檔的自然語言問題。文檔VQA中的文本信息在任務中起著至關重要的作用,現有的有代表性的方法都是以文檔圖像的OCR獲取的文本作為輸入。獲得文檔文本后,將VQA任務建模為不同的問題.主流方法將其建模為機器閱讀理解(MRC)問題,根據問題從給定文檔中提取文本片段作為相應的答案。

9076d6a2-20d9-11ed-ba43-dac502259ad0.png

Document Image Classi?cation

該任務是對文檔圖像進行分析和識別,并將其劃分為不同類別的過程,如科學論文、簡歷、發票、收據等。最早文檔圖像分類問題的方法與自然圖像分類方法基本一樣,例如基于CNN的文檔圖像分類方法使用經過ImageNet訓練的Alexnet作為初始化對文檔圖像進行模型適配。

下圖為作者整理的四大Task的Benchmark:

90a2ff70-20d9-11ed-ba43-dac502259ad0.png

Document AI 主流模型

Documents layout analysis with convolutional neural networks

文檔布局分析可以看作是對文檔圖像進行目標檢測的任務。將文檔中的標題、段落、表格、圖表等基本單元是需要檢測和識別的對象。Yang等人將文檔布局分析作為像素級的分割任務,利用卷積神經網絡進行像素分類,取得了較好的效果.

90dc093c-20d9-11ed-ba43-dac502259ad0.png

Visual information extraction with graph networks

對于視覺信息豐富的文檔的結構不僅僅由文本內容的結構決定,與布局、排版、格式、表/圖結構等視覺元素同樣相關.例如收據、證書、保險文件等.Liu等人提出的利用圖卷積神經網絡建模視覺元素豐富的文檔,首先通過OCR系統獲得一組Text Blocks,每一個Text Block包含其在圖像中與文本內容的坐標信息,將其構成一個完全連通的有向圖,即每個Text Blocks構成一個節點,通過Bi-LSTM獲取節點的初始特征,邊的初始特征是相鄰文本塊與當前文本塊之間的相對距離以及這兩個文本塊的長寬比。對“節點-邊緣-節點”三元特征集進行卷積,實驗表明,視覺信息發揮了主要作用,增加了文本識別相似語義的能力,對視覺信息也起到一定的輔助作用。

910f4464-20d9-11ed-ba43-dac502259ad0.png

General-purpose multimodal pre-training with the transformer

文本塊的空間關系通常包含豐富的語義信息。例如,在表格中本塊通常以網格布局排列,標題通常出現在第一列或第一行。不同文檔類型之間的布局不變性是通用預訓練的一個關鍵屬性。通過預訓練與文本自然對齊的位置信息可以為下游任務提供更豐富的語義信息。對于視覺信息豐富的文檔,其視覺信息如字體類型、大小、樣式等明顯的視覺差異,其可以通過視覺編碼器提取出來,結合到預訓練階段,從而有效地改善下游任務。為了利用布局和視覺信息,2020年Xu提出通用文檔預訓練模型LayoutLM,在已有預訓練模型的基礎上,增加了2-Dposition embedding 和image embedding.首先根據OCR得到的文本邊界框得到文本在文檔中的坐標。將對應的坐標轉換為虛坐標后,模型計算出x、y、w、h四個embedding sublayers對應的坐標表示,最終的二維位置嵌入是四個子層的embedding之和。在imageembedding 中,模型將每個文本對應的邊框作為Faster R-CNN,提取相應的局部特征。特別是,由于[CLS]符號用于表示整個文檔的語義,因此模型還使用整個文檔的image作為image embedding以保持多模態對齊,Layout模型在三個下游任務,表單理解,票據理解,文檔圖像分類,都取得了顯著的準確率提升。

LayoutLM的兩個自監督預訓練任務Masked Visual-Language :隨機mask除了2D postionembedding,以及其他文本的text embdedding,讓模型預測mask的 token.Task2:Multi-Label Document Classi?cation:在給定一組掃描文檔的情況下,利用文檔標簽對訓練前的過程進行監督,使模型能夠對來自不同領域的知識進行聚類,生成更好的文檔級表示.該模型的相關實驗表明,利用布局和視覺信息的預訓練可以有效地轉移到下游任務中。

9135e70e-20d9-11ed-ba43-dac502259ad0.png

小結

除了這篇文章介紹的之外LayoutLM等經典模型,最近DocumentAI的研究工作中幾個后起之秀也非常值得關注。例如LayouLM后出現的LayoutLMv2以及LayoutXML,將跨模態對齊的思路貫徹在模型訓練的過程中。不僅僅利用文本和布局信息,將圖像信息也融合到文檔多模態的框架內。除此之外,跨模態文檔理解模型ERINE-Layout,提出閱讀順序預測和細粒度圖文匹配兩個與訓練任務,除了跨模態予以對齊能力外,增加了布局理解能力。我們可以看到,在預訓練時代下,DocumentAI正在逐漸向“多模態文檔理解”方向前進,從模態之間的對齊到預測,DocumentAI將會怎樣找尋可以建模的更多元素,挖掘視覺與文本、布局之間的精細關系,變得更加值得期待了。

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3226

    瀏覽量

    48809
  • 機器學習
    +關注

    關注

    66

    文章

    8406

    瀏覽量

    132567
  • 數據集
    +關注

    關注

    4

    文章

    1208

    瀏覽量

    24689

原文標題:MSRA-萬字綜述 直擊多模態文檔理解

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    NVIDIA文本嵌入模型NV-Embed的精度基準

    NVIDIA 的最新嵌入模型 NV-Embed —— 以 69.32 的分數創下了嵌入準確率的新紀錄海量文本嵌入基準測試(MTEB)涵蓋 56 項嵌入任務
    的頭像 發表于 08-23 16:54 ?1978次閱讀
    NVIDIA文本嵌入<b class='flag-5'>模型</b>NV-Embed的精度<b class='flag-5'>基準</b>

    【大語言模型:原理與工程實踐】大語言模型的評測

    在知識獲取、邏輯推理、代碼生成等方面的能力。這些評測基準包括語言建模能力、綜合知識能力、數學計算能力、代碼能力和垂直領域等多個維度。對于微調模型,對話能力的評測關注模型在對話任務中的全
    發表于 05-07 17:12

    請問NanoEdge AI數據該如何構建?

    我想用NanoEdge來識別異常的聲音,但我目前沒有辦法生成模型,我感覺可能是數據的問題,請問我該怎么構建數據?或者生成
    發表于 05-28 07:27

    高階API構建模型數據使用

    了TensorFlow2.0Beta版本,同pytorch一樣支持動態執行(TensorFlow2.0默認eager模式,無需啟動會話執行計算圖),同時刪除了雜亂低階API,使用高階API簡單地構建復雜神經網絡模型,本文主要分享用高階API構建模型
    發表于 11-04 07:49

    一個深度學習模型能完成幾項NLP任務

    對于機器翻譯、文本摘要、Q&A、文本分類等自然語言處理任務來說,深度學習的出現一遍遍刷新了state-of-the-art的模型性能記錄,給研究帶來諸多驚喜。但這些任務一般都有各自的度量基準
    的頭像 發表于 06-26 15:19 ?4601次閱讀

    基于不均衡醫學數據的疾病預測模型

    基于不均衡醫學數據的疾病預測模型
    發表于 06-15 14:15 ?9次下載

    基準數據(CORR2CAUSE)如何測試大語言模型(LLM)的純因果推理能力

    ? 因果推理是人類智力的標志之一。因果關系NLP領域近年來引起了人們的極大興趣,但其主要依賴于從常識知識中發現因果關系。本研究提出了一個基準數據(CORR2CAUSE)來測試大語言模型
    的頭像 發表于 06-20 15:39 ?1825次閱讀
    <b class='flag-5'>基準</b><b class='flag-5'>數據</b><b class='flag-5'>集</b>(CORR2CAUSE)如何測試大語言<b class='flag-5'>模型</b>(LLM)的純因果推理能力

    模型如何快速構建指令遵循數據

    :instruction-tuned方法是指利用非常多的指令數據【人類instructions指令和respond回答數據】去finetuned LLM模型,讓模型能夠理解人類指令,訓
    的頭像 發表于 06-27 16:56 ?2916次閱讀
    大<b class='flag-5'>模型</b>如何快速構建指令遵循<b class='flag-5'>數據</b><b class='flag-5'>集</b>

    如何構建高質量的大語言模型數據

    構建高質量的大語言模型數據是訓練強大自然語言處理模型的關鍵一步。以下是一些關鍵步驟和考慮因素,有助于創建具有多樣性、準確性和時效性的數據
    的頭像 發表于 09-11 17:00 ?1579次閱讀

    模型數據:構建、挑戰與未來趨勢

    隨著深度學習技術的快速發展,大型預訓練模型如GPT-4、BERT等在各個領域取得了顯著的成功。這些大模型背后的關鍵之一是龐大的數據,為模型
    的頭像 發表于 12-06 15:28 ?1795次閱讀

    模型數據:突破邊界,探索未來

    隨著人工智能技術的快速發展,大型預訓練模型如GPT-4、BERT等在自然語言處理領域取得了顯著的成功。這些大模型背后的關鍵之一是龐大的數據,為模型
    的頭像 發表于 12-06 16:10 ?641次閱讀

    模型數據:力量的源泉,進步的階梯

    一、引言 在? ? 的繁榮發展中,大模型數據的作用日益凸顯。它們如龐大的知識庫,為AI提供了豐富的信息和理解能力。本文將用一種獨特的風格來探討大模型
    的頭像 發表于 12-07 17:18 ?677次閱讀

    模型數據:揭秘AI背后的魔法世界

    一、引言 在人工智能的奇幻世界中,大模型數據如同神秘的魔法書,蘊藏著無盡的智慧與力量。它們為AI注入了生命,使其具備了理解和改變世界的能力。今天,就讓我們一起揭開大模型
    的頭像 發表于 12-07 17:33 ?556次閱讀

    如何評估AI大模型的效果

    評估AI大模型的效果是一個復雜且多維度的過程,涉及多個方面的考量。以下是一些關鍵的評估方法和步驟: 一、基準測試(Benchmarking) 使用標準數據
    的頭像 發表于 10-23 15:21 ?821次閱讀

    AI大模型的訓練數據來源分析

    學術機構、政府組織或企業公開發布,涵蓋了各種類型的數據,如圖像、文本、音頻、視頻等。例如: ImageNet :一個廣泛用于圖像識別任務的大規模圖像數據。 Common Crawl
    的頭像 發表于 10-23 15:32 ?544次閱讀
    主站蜘蛛池模板: 青青青青草原国产免费| 国产精品无需播放器| 一区二区三区高清视频| 性xxxx18公交车| 四虎影视国产精品亚洲精品| 欧洲精品不卡1卡2卡三卡四卡| 麻豆AV久久无码精品九九| 精品无码国产自产在线观看| 国产亚洲精品久久综合阿香蕉 | 日本久久精品视频| 欧美精品熟妇乱| 欧美男女爱爱| 欧美日韩国产高清综合二区 | 国产AV精品一区二区三区漫画| CHINESE熟女老女人HD视频| 91热久久免费精品99| 999久久精品国产| 99热这里有精品| 被窝伦理电影午夜| 成在线人免费| 国产成人ae在线观看网站站| 国产精品久久人妻无码网站一区L 国产精品久久人妻无码蜜 | 国自产拍 高清精品| 国内精品久久久久影院网站| 寂寞护士中文字幕 mp4| 久久婷婷五月免费综合色啪| 麻豆一区二区免费播放网站| 女王羞辱丨vk| 日本熟妇乱妇熟色在线电影| 乌克兰14一18处交见血| 亚州中文字幕| 用快播看av的网站| 20岁中国男同志china1069| av视频在线免播放观看| 成人无码在线超碰视频 | 与邻居换娶妻子2在线观看| 97超碰97资源在线观看视频| 啊灬啊灬啊灬快高潮视频| 国产99久久久欧美黑人刘玥| 韩国精品无码少妇在线观看网站| 精子射到丝袜上图|