色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

PyTorch教程-16.4。自然語言推理和數據集

jf_pJlTbmA9 ? 來源:PyTorch ? 作者:PyTorch ? 2023-06-05 15:44 ? 次閱讀

在16.1 節中,我們討論了情感分析的問題。該任務旨在將單個文本序列分類為預定義的類別,例如一組情感極性。然而,當需要決定一個句子是否可以從另一個句子推斷出來,或者通過識別語義等同的句子來消除冗余時,知道如何對一個文本序列進行分類是不夠的。相反,我們需要能夠對成對的文本序列進行推理。

16.4.1。自然語言推理

自然語言推理研究是否可以從前提中推斷出假設,其中兩者都是文本序列。換句話說,自然語言推理決定了一對文本序列之間的邏輯關系。這種關系通常分為三種類型:

蘊涵:假設可以從前提中推導出來。

矛盾:可以從前提推導出假設的否定。

中性:所有其他情況。

自然語言推理也稱為識別文本蘊含任務。例如,下面的一對將被標記為 蘊涵,因為假設中的“示愛”可以從前提中的“互相擁抱”中推導出來。

前提:兩個女人互相擁抱。

假設:兩個女人正在秀恩愛。

下面是一個矛盾的例子,因為“running the coding example”表示“not sleeping”而不是“sleeping”。

前提:一個人正在運行來自 Dive into Deep Learning 的編碼示例。

假設:這個人正在睡覺。

第三個例子顯示了一種中立關系,因為“為我們表演”這一事實不能推斷出“著名”或“不著名”。

前提:音樂家正在為我們表演。

假設:音樂家很有名。

自然語言推理一直是理解自然語言的中心話題。它享有從信息檢索到開放域問答的廣泛應用。為了研究這個問題,我們將從調查一個流行的自然語言推理基準數據集開始。

16.4.2。斯坦福自然語言推理 (SNLI) 數據集

斯坦福自然語言推理 (SNLI) 語料庫是超過 500000 個帶標簽的英語句子對的集合 (Bowman等人,2015 年)。我們將提取的 SNLI 數據集下載并存儲在路徑中../data/snli_1.0。

import os
import re
import torch
from torch import nn
from d2l import torch as d2l

#@save
d2l.DATA_HUB['SNLI'] = (
  'https://nlp.stanford.edu/projects/snli/snli_1.0.zip',
  '9fcde07509c7e87ec61c640c1b2753d9041758e4')

data_dir = d2l.download_extract('SNLI')

Downloading ../data/snli_1.0.zip from https://nlp.stanford.edu/projects/snli/snli_1.0.zip...

import os
import re
from mxnet import gluon, np, npx
from d2l import mxnet as d2l

npx.set_np()

#@save
d2l.DATA_HUB['SNLI'] = (
  'https://nlp.stanford.edu/projects/snli/snli_1.0.zip',
  '9fcde07509c7e87ec61c640c1b2753d9041758e4')

data_dir = d2l.download_extract('SNLI')

16.4.2.1。讀取數據集

原始 SNLI 數據集包含的信息比我們在實驗中真正需要的信息豐富得多。因此,我們定義了一個函數read_snli 來僅提取部分數據集,然后返回前提、假設及其標簽的列表。

#@save
def read_snli(data_dir, is_train):
  """Read the SNLI dataset into premises, hypotheses, and labels."""
  def extract_text(s):
    # Remove information that will not be used by us
    s = re.sub('\(', '', s)
    s = re.sub('\)', '', s)
    # Substitute two or more consecutive whitespace with space
    s = re.sub('\s{2,}', ' ', s)
    return s.strip()
  label_set = {'entailment': 0, 'contradiction': 1, 'neutral': 2}
  file_name = os.path.join(data_dir, 'snli_1.0_train.txt'
               if is_train else 'snli_1.0_test.txt')
  with open(file_name, 'r') as f:
    rows = [row.split('t') for row in f.readlines()[1:]]
  premises = [extract_text(row[1]) for row in rows if row[0] in label_set]
  hypotheses = [extract_text(row[2]) for row in rows if row[0] in label_set]
  labels = [label_set[row[0]] for row in rows if row[0] in label_set]
  return premises, hypotheses, labels

#@save
def read_snli(data_dir, is_train):
  """Read the SNLI dataset into premises, hypotheses, and labels."""
  def extract_text(s):
    # Remove information that will not be used by us
    s = re.sub('\(', '', s)
    s = re.sub('\)', '', s)
    # Substitute two or more consecutive whitespace with space
    s = re.sub('\s{2,}', ' ', s)
    return s.strip()
  label_set = {'entailment': 0, 'contradiction': 1, 'neutral': 2}
  file_name = os.path.join(data_dir, 'snli_1.0_train.txt'
               if is_train else 'snli_1.0_test.txt')
  with open(file_name, 'r') as f:
    rows = [row.split('t') for row in f.readlines()[1:]]
  premises = [extract_text(row[1]) for row in rows if row[0] in label_set]
  hypotheses = [extract_text(row[2]) for row in rows if row[0] in label_set]
  labels = [label_set[row[0]] for row in rows if row[0] in label_set]
  return premises, hypotheses, labels

現在讓我們打印前 3 對前提和假設,以及它們的標簽(“0”、“1”和“2”分別對應“蘊含”、“矛盾”和“中性”)。

train_data = read_snli(data_dir, is_train=True)
for x0, x1, y in zip(train_data[0][:3], train_data[1][:3], train_data[2][:3]):
  print('premise:', x0)
  print('hypothesis:', x1)
  print('label:', y)

premise: A person on a horse jumps over a broken down airplane .
hypothesis: A person is training his horse for a competition .
label: 2
premise: A person on a horse jumps over a broken down airplane .
hypothesis: A person is at a diner , ordering an omelette .
label: 1
premise: A person on a horse jumps over a broken down airplane .
hypothesis: A person is outdoors , on a horse .
label: 0

train_data = read_snli(data_dir, is_train=True)
for x0, x1, y in zip(train_data[0][:3], train_data[1][:3], train_data[2][:3]):
  print('premise:', x0)
  print('hypothesis:', x1)
  print('label:', y)

premise: A person on a horse jumps over a broken down airplane .
hypothesis: A person is training his horse for a competition .
label: 2
premise: A person on a horse jumps over a broken down airplane .
hypothesis: A person is at a diner , ordering an omelette .
label: 1
premise: A person on a horse jumps over a broken down airplane .
hypothesis: A person is outdoors , on a horse .
label: 0

訓練集約550000對,測試集約10000對。下圖表明“蘊含”、“矛盾”、“中性”這三個標簽在訓練集和測試集上都是均衡的。

test_data = read_snli(data_dir, is_train=False)
for data in [train_data, test_data]:
  print([[row for row in data[2]].count(i) for i in range(3)])

[183416, 183187, 182764]
[3368, 3237, 3219]

test_data = read_snli(data_dir, is_train=False)
for data in [train_data, test_data]:
  print([[row for row in data[2]].count(i) for i in range(3)])

[183416, 183187, 182764]
[3368, 3237, 3219]

16.4.2.2。定義用于加載數據集的類

下面我們繼承DatasetGluon中的類定義一個加載SNLI數據集的類。類構造函數中的參數num_steps指定文本序列的長度,以便每個小批量序列具有相同的形狀。換句話說,num_steps較長序列中第一個之后的標記被修剪,而特殊標記“”將附加到較短的序列,直到它們的長度變為num_steps. 通過實現該__getitem__ 功能,我們可以任意訪問前提、假設和帶有索引的標簽idx。

#@save
class SNLIDataset(torch.utils.data.Dataset):
  """A customized dataset to load the SNLI dataset."""
  def __init__(self, dataset, num_steps, vocab=None):
    self.num_steps = num_steps
    all_premise_tokens = d2l.tokenize(dataset[0])
    all_hypothesis_tokens = d2l.tokenize(dataset[1])
    if vocab is None:
      self.vocab = d2l.Vocab(all_premise_tokens + all_hypothesis_tokens,
                  min_freq=5, reserved_tokens=[''])
    else:
      self.vocab = vocab
    self.premises = self._pad(all_premise_tokens)
    self.hypotheses = self._pad(all_hypothesis_tokens)
    self.labels = torch.tensor(dataset[2])
    print('read ' + str(len(self.premises)) + ' examples')

  def _pad(self, lines):
    return torch.tensor([d2l.truncate_pad(
      self.vocab[line], self.num_steps, self.vocab[''])
             for line in lines])

  def __getitem__(self, idx):
    return (self.premises[idx], self.hypotheses[idx]), self.labels[idx]

  def __len__(self):
    return len(self.premises)

#@save
class SNLIDataset(gluon.data.Dataset):
  """A customized dataset to load the SNLI dataset."""
  def __init__(self, dataset, num_steps, vocab=None):
    self.num_steps = num_steps
    all_premise_tokens = d2l.tokenize(dataset[0])
    all_hypothesis_tokens = d2l.tokenize(dataset[1])
    if vocab is None:
      self.vocab = d2l.Vocab(all_premise_tokens + all_hypothesis_tokens,
                  min_freq=5, reserved_tokens=[''])
    else:
      self.vocab = vocab
    self.premises = self._pad(all_premise_tokens)
    self.hypotheses = self._pad(all_hypothesis_tokens)
    self.labels = np.array(dataset[2])
    print('read ' + str(len(self.premises)) + ' examples')

  def _pad(self, lines):
    return np.array([d2l.truncate_pad(
      self.vocab[line], self.num_steps, self.vocab[''])
             for line in lines])

  def __getitem__(self, idx):
    return (self.premises[idx], self.hypotheses[idx]), self.labels[idx]

  def __len__(self):
    return len(self.premises)

16.4.2.3。把它們放在一起

現在我們可以調用read_snli函數和SNLIDataset 類來下載 SNLI 數據集并返回DataLoader訓練集和測試集的實例,以及訓練集的詞匯表。值得注意的是,我們必須使用從訓練集中構造的詞匯作為測試集的詞匯。因此,測試集中的任何新標記對于在訓練集上訓練的模型都是未知的。

#@save
def load_data_snli(batch_size, num_steps=50):
  """Download the SNLI dataset and return data iterators and vocabulary."""
  num_workers = d2l.get_dataloader_workers()
  data_dir = d2l.download_extract('SNLI')
  train_data = read_snli(data_dir, True)
  test_data = read_snli(data_dir, False)
  train_set = SNLIDataset(train_data, num_steps)
  test_set = SNLIDataset(test_data, num_steps, train_set.vocab)
  train_iter = torch.utils.data.DataLoader(train_set, batch_size,
                       shuffle=True,
                       num_workers=num_workers)
  test_iter = torch.utils.data.DataLoader(test_set, batch_size,
                      shuffle=False,
                      num_workers=num_workers)
  return train_iter, test_iter, train_set.vocab

#@save
def load_data_snli(batch_size, num_steps=50):
  """Download the SNLI dataset and return data iterators and vocabulary."""
  num_workers = d2l.get_dataloader_workers()
  data_dir = d2l.download_extract('SNLI')
  train_data = read_snli(data_dir, True)
  test_data = read_snli(data_dir, False)
  train_set = SNLIDataset(train_data, num_steps)
  test_set = SNLIDataset(test_data, num_steps, train_set.vocab)
  train_iter = gluon.data.DataLoader(train_set, batch_size, shuffle=True,
                    num_workers=num_workers)
  test_iter = gluon.data.DataLoader(test_set, batch_size, shuffle=False,
                   num_workers=num_workers)
  return train_iter, test_iter, train_set.vocab

這里我們將批量大小設置為 128,將序列長度設置為 50,并調用該load_data_snli函數來獲取數據迭代器和詞匯表。然后我們打印詞匯量。

train_iter, test_iter, vocab = load_data_snli(128, 50)
len(vocab)

read 549367 examples
read 9824 examples

18678

train_iter, test_iter, vocab = load_data_snli(128, 50)
len(vocab)

read 549367 examples
read 9824 examples

18678

現在我們打印第一個小批量的形狀。與情緒分析相反,我們有兩個輸入X[0],X[1]代表成對的前提和假設。

for X, Y in train_iter:
  print(X[0].shape)
  print(X[1].shape)
  print(Y.shape)
  break

torch.Size([128, 50])
torch.Size([128, 50])
torch.Size([128])

for X, Y in train_iter:
  print(X[0].shape)
  print(X[1].shape)
  print(Y.shape)
  break

(128, 50)
(128, 50)
(128,)

16.4.3。概括

自然語言推理研究是否可以從前提中推斷出假設,其中兩者都是文本序列。

在自然語言推理中,前提和假設之間的關系包括蘊涵、矛盾和中性。

斯坦福自然語言推理 (SNLI) 語料庫是一種流行的自然語言推理基準數據集。

16.4.4。練習

長期以來,機器翻譯的評估都是基于膚淺的 n- 輸出翻譯和真值翻譯之間的語法匹配。你能設計一個使用自然語言推理來評估機器翻譯結果的方法嗎?

我們如何改變超參數來減少詞匯量?

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據集
    +關注

    關注

    4

    文章

    1208

    瀏覽量

    24689
  • 自然語言
    +關注

    關注

    1

    文章

    287

    瀏覽量

    13346
  • pytorch
    +關注

    關注

    2

    文章

    807

    瀏覽量

    13200
收藏 人收藏

    評論

    相關推薦

    如何開始使用PyTorch進行自然語言處理

    隨著人工智能和深度學習程序在未來幾年的蓬勃發展,自然語言處理(NLP)將日益普及,而且必要性也與日俱增。PyTorch 自然語言處理是實現這些程序的不錯選擇。
    的頭像 發表于 07-07 10:01 ?2531次閱讀

    PyTorch教程-16.7。自然語言推理:微調 BERT

    實驗室在 SageMaker Studio Lab 中打開筆記本 在本章前面的部分中,我們為 SNLI 數據上的自然語言推理任務(如第 16.
    的頭像 發表于 06-05 15:44 ?1234次閱讀
    <b class='flag-5'>PyTorch</b>教程-16.7。<b class='flag-5'>自然語言</b><b class='flag-5'>推理</b>:微調 BERT

    python自然語言

    Toolkit,自然語言工具包,地址:http://www.nltk.org/安裝命令:pip install nltk安裝完成后測試:import nltk沒有報錯即表明安裝成功。NLTK包含大量的軟件、數據
    發表于 05-02 13:50

    【推薦體驗】騰訊云自然語言處理

    自然語言處理技術的功勞。可以說,只要有大量文本數據的應用場景,幾乎都涉及到NLP技術,也都可以使用相關自然語言處理產品的接口來做智能分析。比如:社交媒體上的用戶言論,可以使用騰訊云NLP的情感分析接口,來做
    發表于 10-09 15:28

    自然語言處理的語言模型

    自然語言處理——53 語言模型(數據平滑)
    發表于 04-16 11:11

    什么是自然語言處理

    什么是自然語言處理?自然語言處理任務有哪些?自然語言處理的方法是什么?
    發表于 09-08 06:51

    自然語言處理怎么最快入門_自然語言處理知識了解

    自然語言處理就是實現人機間自然語言通信,實現自然語言理解和自然語言生成是十分困難的,造成困難的根本原因是自然語言文本和對話的各個層次上廣泛存
    發表于 12-28 17:10 ?5308次閱讀

    自然語言推理數據“人工痕跡”嚴重,模型性能被高估

    自然語言推理是NLP領域被廣泛研究的領域之一,有了這一技術,許多復雜的語義任務如問題回答和文本總結都能得到解決。而用于自然語言推理的大規模數據
    的頭像 發表于 03-14 18:11 ?4583次閱讀
    <b class='flag-5'>自然語言</b><b class='flag-5'>推理</b><b class='flag-5'>數據</b><b class='flag-5'>集</b>“人工痕跡”嚴重,模型性能被高估

    一種注意力增強的自然語言推理模型aESIM

    自然語言處理任務中使用注意力機制可準確衡量單詞重要度。為此,提出一種注意力增強的自然語言推理模型aESM。將詞注意力層以及自適應方向權重層添加到ESIM模型的雙向LSTM網絡中,從而更有
    發表于 03-25 11:34 ?9次下載
    一種注意力增強的<b class='flag-5'>自然語言</b><b class='flag-5'>推理</b>模型aESIM

    自然語言入門之ESIM

    ESIM是ACL2017的一篇論文,在當時成為各個NLP比賽的殺器,直到現在仍是入門自然語言推理值得一讀的文章。 本文根據ESIM原文以及pytorch代碼實現對ESIM模型進行總結
    的頭像 發表于 02-22 11:34 ?1011次閱讀
    <b class='flag-5'>自然語言</b>入門之ESIM

    PyTorch教程16.4自然語言推理和數據

    電子發燒友網站提供《PyTorch教程16.4自然語言推理和數據.pdf》資料免費下載
    發表于 06-05 10:57 ?0次下載
    <b class='flag-5'>PyTorch</b>教程<b class='flag-5'>16.4</b>之<b class='flag-5'>自然語言</b><b class='flag-5'>推理</b><b class='flag-5'>和數據</b><b class='flag-5'>集</b>

    PyTorch教程16.5之自然語言推理:使用注意力

    電子發燒友網站提供《PyTorch教程16.5之自然語言推理:使用注意力.pdf》資料免費下載
    發表于 06-05 10:49 ?0次下載
    <b class='flag-5'>PyTorch</b>教程16.5之<b class='flag-5'>自然語言</b><b class='flag-5'>推理</b>:使用注意力

    PyTorch教程16.7之自然語言推理:微調BERT

    電子發燒友網站提供《PyTorch教程16.7之自然語言推理:微調BERT.pdf》資料免費下載
    發表于 06-05 10:52 ?0次下載
    <b class='flag-5'>PyTorch</b>教程16.7之<b class='flag-5'>自然語言</b><b class='flag-5'>推理</b>:微調BERT

    PyTorch教程-16.5。自然語言推理:使用注意力

    實驗室在 SageMaker Studio Lab 中打開筆記本 我們在16.4 節介紹了自然語言推理任務和 SNLI 數據。鑒于許多
    的頭像 發表于 06-05 15:44 ?564次閱讀
    <b class='flag-5'>PyTorch</b>教程-16.5。<b class='flag-5'>自然語言</b><b class='flag-5'>推理</b>:使用注意力

    自然語言處理的概念和應用 自然語言處理屬于人工智能嗎

      自然語言處理(Natural Language Processing)是一種人工智能技術,它是研究自然語言與計算機之間的交互和通信的一門學科。自然語言處理旨在研究機器如何理解人類語言
    發表于 08-23 17:31 ?1557次閱讀
    主站蜘蛛池模板: WWW国产色情在线观看APP| 亚洲天堂av2017| 免费三级网址| 九九热这里只有精品视频免费| 国产成人免费网站在线观看| 超碰在线线公开免费视频| www.一级毛片| 国产在线精品视频资源| 国产精品视频大全| 国产全部视频列表支持手机| 国产自拍视频在线一区| 国产私拍福利精品视频| 花蝴蝶在线直播观看| 久久re这里视频精品8| 久久国产精品自线拍免费| 青娱乐在线一区| 色欲天天天综合网免费| 色综合五月激情综合色一区| 伊人青青久| 在线观看免费小视频| 18岁男人女人插孔| mm625亚洲人成电影网| 黄色a一级视频| 日日夜夜天天操| 性色欲情网站IWWW九文堂| 亚洲欧美日韩在线码不卡 | 亚洲黄色在线| 一个人HD高清在线观看免费视频 | 99久久久久精品国产免费麻豆| FREE性丰满HD毛多多| 国产乱码精品AAAAAAAA| 欧美大jiji| 香蕉久久av一区二区三区| h片下载地址| 里番※琉璃全彩acg奈亚子| 欧美色图一区二区三区| 亚洲 天堂 欧美 日韩 国产| 一本道亚洲区免费观看| 超碰国产亚洲人人| 免费观看美女的网站| 性春院|