色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于預訓練語言模型的行業(yè)搜索的應用和研究

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-02-01 11:23 ? 次閱讀

導讀:本文將分享行業(yè)搜索的相關技術和應用,主要包括三大部分:

行業(yè)搜索的背景

相關技術研究

行業(yè)搜索應用

01

行業(yè)搜索的背景

1. 達摩院自然語言智能大圖

872707fc-a1d0-11ed-bfe3-dac502259ad0.png

上圖是達摩院自然語言處理智能的技術框圖,從下到上包含:

NLP 數(shù)據、NLP 基礎的詞法、句法語義,分析的技術,以及上層 NLP 技術

行業(yè)應用:達摩院除了做基礎研究之外,還賦能阿里集團,以及結合阿里云去賦能行業(yè)產業(yè)。賦能的很多行業(yè)場景都是搜索。

2. 行業(yè)搜索本質

87504b8a-a1d0-11ed-bfe3-dac502259ad0.png

面向產業(yè)和消費互聯(lián)網的搜索本質都是一樣的:用戶有信息獲取需求,同時有信息資源庫,通過搜索引擎把兩者橋接起來。 以電商場景來舉例說明。比如用戶在電商里面搜索 aj1 北卡藍新款球鞋。為了更好地理解這樣一個用戶的 query,需要進行一系列任務:

查詢理解的分析:NLP 糾錯、分詞類目預測、實體識別詞權重、 query 改寫等技術

(離線)文檔分析:NLP分析,質量效率的分析

檢索排序:通過對 query 的分析以及文檔的分析,來結合搜索引擎本身一些檢索排序的機制,就能實現(xiàn)把兩者橋接的目標。

3. 行業(yè)搜索鏈路

87829bee-a1d0-11ed-bfe3-dac502259ad0.png

如果按搜索的范式來分,一般分為 sparse retrieval 及 dense retrieval。

sparse retrieval:傳統(tǒng)的基于字或基于詞去建立倒排索引,同時基于此去構建很多查詢理解的一系列的能力,包括一些文本相關性排序等;

dense retrieval:隨著預訓練語言模型的興起,基于預訓練底座來實現(xiàn)單塔、雙塔模型,再結合向量引擎建立搜索機制。

878ff028-a1d0-11ed-bfe3-dac502259ad0.png

一般將搜索做這樣一個鏈路性的劃分:召回、排序(粗排、精排、重排)。

87a95db0-a1d0-11ed-bfe3-dac502259ad0.png

召回階段:

傳統(tǒng) sparse retrieval 的關鍵詞召回

dense retrieval 向量召回,個性化召回

粗排階段:使用文本相關性(靜態(tài))分數(shù)來做過濾

精排階段:相對復雜,會有相關性的模型,可能結合業(yè)務的效率模型(LTR)

87b50d86-a1d0-11ed-bfe3-dac502259ad0.png

從左到右,模型復雜度、效果精度變高。從右到左,處理 Doc 數(shù)變多。以淘寶電商為例,比如召回(幾十億),初排(幾十萬),到精排(幾百、上千),到重排(幾十)量級。 搜索生產鏈路是檢索效果跟工程效率 trade-off 的系統(tǒng)。隨著算力的增長,復雜模型開始往前置換。比如說精排的模型,現(xiàn)在慢慢會下沉到粗排、甚至召回這個階段。

87e14f54-a1d0-11ed-bfe3-dac502259ad0.png

搜索效果評估:

召回:recall 或無結果率

排序:相關性、轉化效率(貼近業(yè)務)

相關性:NDCG、MRR

轉化效率:點擊率、轉化率

4. 消費互聯(lián)網和產業(yè)互聯(lián)網的搜索

88091372-a1d0-11ed-bfe3-dac502259ad0.png

搜索在不同行業(yè)場景里區(qū)別是很大的,在此把它分為消費互聯(lián)網搜索與產業(yè)互聯(lián)網搜索

用戶群體和 UV:消費互聯(lián)網搜索 UV 非常大,產業(yè)互聯(lián)網面向政企內部的員工;

搜索追求指標:消費互聯(lián)網,除了追求搜得到、搜得準之外,還追求轉化率高。在產業(yè)互聯(lián)網,它更多是信息匹配的需求,所以關注召回跟相關性;

工程系統(tǒng)要求:消費互聯(lián)網 QPS 的要求會很高,沉淀大量的用戶行為,需要有實時日志分析、實時模型訓練。產業(yè)互聯(lián)網的要求會低一些;

算法方向:消費互聯(lián)網會從 offline、nearline、online 的海量用戶行為分析建模獲得更大收益。產業(yè)互聯(lián)網的用戶行為稀疏,所以會更注重內容理解,比如 NLP 或者視覺的理解,研究方向包括 low resource、transfer learning。

02

相關技術研究

882ca7a6-a1d0-11ed-bfe3-dac502259ad0.png

搜索是跟系統(tǒng)框架緊密耦合的:包括離線數(shù)據,搜索服務框架(綠色部分),搜索技術算法體系(藍色部分),其底座是 Alicemind 預訓練語言模型體系,同樣會匯聚做文檔分析、query 理解、相關性等。1. AliceMind 體系

889a724a-a1d0-11ed-bfe3-dac502259ad0.png

AliceMind 是達摩院構建的層次化預訓練語言模型體系。包含了通用預訓練模型,多語言、多模態(tài)、對話等,是 NLP 所有任務的底座。2. 分詞

88ffea94-a1d0-11ed-bfe3-dac502259ad0.png

搜索的分詞(原子能力),決定了檢索索引粒度,同時也與后續(xù)相關性、BM25 粒度有關。針對 task specific 任務,如果去定制一些預訓練,能比通用的預訓練效果更好。比如最近研究希望在原生 BERT 預訓練任務上增加無監(jiān)督的統(tǒng)計信息的任務,比如統(tǒng)計字詞、Gram 粒度、或者邊界熵,然后以 mse-loss 增加到預訓練。在 CWS/POS、NER上(右圖),的諸多任務都達到 SOTA。

895a3e9a-a1d0-11ed-bfe3-dac502259ad0.png

另一個研究是跨領域。每次需要標數(shù)據、構建監(jiān)督任務的成本很高,所以需構建跨領域無監(jiān)督分詞的機制。右下角的表格為例,電商分詞相比開源的分詞質量有明顯改善,這套方法也發(fā)布到 ACL2020。3. 命名實體識別

899ff7d2-a1d0-11ed-bfe3-dac502259ad0.png

搜索命名實體識別主要是對 query 、Doc 進行結構化的理解,識別出關鍵短語及類型。同時搜索知識圖譜的構建也依賴 NER 功能。 搜索 NER 也面臨一些挑戰(zhàn)。主要是比如 query 常常是比較短的,上下文不足。比如說電商里面 query 實體的歧義性很高,知識性很強。所以這幾年在 NER 核心的優(yōu)化思路,就是通過上下文或者引入知識的方式來增強 NER 的表征。

89c91428-a1d0-11ed-bfe3-dac502259ad0.png

在 2020年、2021年做了隱式增強的工作 combo embedding。把已有 word extractor 或者 GLUE 的表征動態(tài)融合,能搭載在很多業(yè)務任務上面達到 SOTA。 2021年,研發(fā)基于顯式的檢索增強,對一條文本會通過搜索引擎得到增強的上下文,融合到 transformer結構。這個工作發(fā)表在 ACL 2021 上了。 基于這個工作,我們參加了 SemEval 2022 多語言 NER評測拿了 10 項冠軍,以及 best system paper 。

89e88d30-a1d0-11ed-bfe3-dac502259ad0.png

檢索增強:輸入句子本身之外,檢索得到額外 context 并 concat 到輸入,結合 KL 的 loss 來幫助學習。在很多開源數(shù)據集拿到 SOTA。4. 自適應多任務訓練

8a0da2a0-a1d0-11ed-bfe3-dac502259ad0.png

BERT 本身效果是很好的,但實際生產很少有 GPU 集群,每個任務都要去做 inference性能代價很大。我們思考能否只做一次 inference,在 encoder 之后每個任務自己再做適配,就能得到比較好的效果。

8a407374-a1d0-11ed-bfe3-dac502259ad0.png

一個直觀的方法就是通過 meta-task 的框架納入 NLP query 分析任務。但傳統(tǒng)的 meta-task 是均勻采樣的分布。我們提出了 MOMETAS,一個自適應基于元學習的方法,來自適應不同任務的采樣。在多個任務去學習的過程中,我們會階段性用 validation data 做測試看不同任務學習的效果。reward 反過來指導前面訓練的采樣。(下方表格)在很多任務上結合這個機制,相比 UB(均勻分布)有不少提升。

8a4f7612-a1d0-11ed-bfe3-dac502259ad0.png

把上述機制應用在搜索很多行業(yè)的場景里去,帶來的收益是僅通過一次 BERT 的編碼并存儲,在很多的下游任務直接復用,能大幅提升性能。5. 搜索召回預訓練語言模型

8a7470de-a1d0-11ed-bfe3-dac502259ad0.png

深度檢索,無外乎是雙塔或單塔,通用的訓練范式是有監(jiān)督信號以及預訓練模型,進行 finetune 獲得 embedding,對 query 和 doc 進行表征。近期的優(yōu)化路線主要是數(shù)據增強或難樣本挖掘,另外是優(yōu)化預訓練語言模型。原生 BERT 不是特別適合搜索的文本表示,所以有針對搜索文本表示的預訓練語言模型。其他優(yōu)化是在于做 multi-view 文本表示,以及特別的 loss 設計。

8a9031f2-a1d0-11ed-bfe3-dac502259ad0.png

相比原生 BERT 的隨機采樣,我們結合搜索詞權重提升詞權重比較高的詞來提升采樣概率,學習到的表征更適合搜索召回。除此之外,增加 sentence level 對比學習。結合這兩個機制,提出了 ROM 的預訓練語言模型。

8ac618da-a1d0-11ed-bfe3-dac502259ad0.png

在 MS MARCO 做實驗,對比先前做法能夠達到最好的效果。在實際的場景搜索任務中,也能帶來較大的提升。同時該模型也參與了 MS 刷榜。6. HLATR 重排模型

8aedb674-a1d0-11ed-bfe3-dac502259ad0.png

除了 ROM 這個召回階段之外,在精排、重排階段,提出了一套 list aware 的 Transformer reranking,即將精排很多分類器的結果通過 Transformer 有機的融合在一起,有比較大的提升。

8b167ab4-a1d0-11ed-bfe3-dac502259ad0.png

結合 ROM 和 HLATR 兩個方案,3 月份至今(7 月份)仍舊是 SOTA 結果。

03

行業(yè)搜索應用

1. 地址分析產品

8b2567b8-a1d0-11ed-bfe3-dac502259ad0.png

達摩院研發(fā)的地址分析產品,背景是各行各業(yè)有很多通訊地址。中文的通訊地址有很多特點,比如口語化表達有很多缺省。同時地址本身是人事實物,是客觀世界很多實體橋接的一個重要實體單位。所以基于此建立了一套地址知識圖譜,提供解析、補齊、搜索、地址分析。

8b4a4538-a1d0-11ed-bfe3-dac502259ad0.png

這是產品的技術框圖。從下到上包含了地址知識圖譜的構建,以及地址預訓練語言模型,包括基于搜索引擎的框架串接整個鏈路。上述提到的基準能力,以 API 的方式提供出來包裝成行業(yè)方案。

8b6db4dc-a1d0-11ed-bfe3-dac502259ad0.png

這套技術里面比較重要的一個點是地理語義的預訓練語言模型。一個地址在文本表示會是字符串,其實在空間里面它往往是表征成經緯度,在地圖中還有對應的圖片。所以這三種模態(tài)的信息是把它有機融合成一個多模態(tài)的地理語義的語言模型,以此來支持在定址里的任務。

8b8e98c8-a1d0-11ed-bfe3-dac502259ad0.png

上述提到需要做地址相關的很多基礎能力,比如分詞、糾錯、結構化等分析。

8bc7b216-a1d0-11ed-bfe3-dac502259ad0.png

最核心的鏈路是將地理預訓練語言模型、地址基礎任務、引發(fā)搜索引擎的方式將它們橋接起來。比如說搜索浙一醫(yī)院,可能會對它去做結構化、同義詞糾錯、term weighting 做向量化、Geohash 的預測。基于分析結果做召回。這個鏈路是標準的搜索鏈路,進行文本召回、拼音召回、向量召回,還增加地理召回。召回之后是多階段的排序,包括多粒度的 feature 融合。

8bf3920a-a1d0-11ed-bfe3-dac502259ad0.png

地址搜索體系直觀的應用,就是填地址后 suggestion 場景,或者高德地圖里面去做搜索,需要把它映射到空間一個點位上。

8c024aac-a1d0-11ed-bfe3-dac502259ad0.png

接下來介紹兩個比較行業(yè)化的應用方案。第一個是新零售 Family ID,核心訴求是維護一套客戶的管理系統(tǒng),然而各個系統(tǒng)用戶信息沒有打通,無法實現(xiàn)有效的整合。

8c2d1804-a1d0-11ed-bfe3-dac502259ad0.png

比如品牌廠商賣了一個空調,家人由于購買、安裝、維修而登記了各種地址、手機號,但對應的實際上是同一個地址。建立的地址搜索歸一技術,把不同表示的地址進行歸一,生成指紋,將不同用戶 ID 聚合到 Family 概念中。

8c5330d4-a1d0-11ed-bfe3-dac502259ad0.png

8c602d98-a1d0-11ed-bfe3-dac502259ad0.png

通過家庭聚合的概念,可以做到更好的滲透分析、廣告投放觸達等新零售下的營銷活動。

8c80c0e4-a1d0-11ed-bfe3-dac502259ad0.png

另外一種應用場景,是 119、129、應急等智能接警應用。因為涉及到老百姓的人身財產安全,所以分秒必爭。希望結合語音識別、文本語義理解技術把這個效率提升。

8cb666fe-a1d0-11ed-bfe3-dac502259ad0.png

(左邊例子)場景有很多特點,比如 ASR 轉寫的錯別字、不流暢、口語化等問題。目標是希望基于自動語音轉寫分析推斷報警地點。

8cd5dd9a-a1d0-11ed-bfe3-dac502259ad0.png

8cf5f2f6-a1d0-11ed-bfe3-dac502259ad0.png

8d1815fc-a1d0-11ed-bfe3-dac502259ad0.png

我們提出了一整套系統(tǒng)方案,包括對話理解的口語順滑糾錯、意圖識別,以及結合一套搜索從召回粗排精排的機制來最終實現(xiàn)地址推薦。鏈路已經比較成熟,在中國上百個城市的消防系統(tǒng)落地;消防從報警對話識別出具體的地點,結合推薦、匹配、地址圍欄判斷具體地點,對應出警。2. 教育拍照搜題

8d267f2a-a1d0-11ed-bfe3-dac502259ad0.png

接下來介紹教育行業(yè)的拍照收集業(yè)務,在 To C、面向老師端也有不少需求。

8d460444-a1d0-11ed-bfe3-dac502259ad0.png

拍照搜題有幾個特點,本身有增量更新的題庫,用戶群體較大。另外,不同學科、年齡段對應的領域知識性很強。同時是一個多模態(tài)的算法,從 OCR 到后續(xù)語義理解、搜索等一套鏈路。

8d68cd8a-a1d0-11ed-bfe3-dac502259ad0.png

近幾年針對拍照收集構建了一整套從算法到系統(tǒng)的鏈路。

8d97803a-a1d0-11ed-bfe3-dac502259ad0.png

比如,在手機拍照以及 OCR 識別后,會進行拼寫糾錯、學科預測、分詞、詞權重等一系列工作,幫助做到檢索。

8dc3c08c-a1d0-11ed-bfe3-dac502259ad0.png

由于 OCR 對英文識別沒有空格,訓練了一套 K12 英文的預訓練算法模型,進行英文的切分。

8dfc420e-a1d0-11ed-bfe3-dac502259ad0.png

同時,學科、題目類型都是未知的,需要做一個提前預測。使用多模態(tài),結合圖片和文本進行意圖理解。

8e52a2f2-a1d0-11ed-bfe3-dac502259ad0.png

拍照搜題跟普通的用戶搜索不太一樣,用戶搜索往往 query 是比較短,拍照搜題往往是一道完整的題目。題目里面很多詞是不重要的,需要做詞權重分析,丟棄不重要的詞或者排序予以降權。

8e75df88-a1d0-11ed-bfe3-dac502259ad0.png

在拍照搜題場景中優(yōu)化效果最明顯的是向量召回。性能上的要求不太能用 OR 的召回機制,需要用 AND 邏輯,對應特點是召回比較少。去提升 recall 的話,需要做 term weighting、糾錯等較冗余的模塊。(右圖)通過文本加向量的多路召回效果,超過純 or 邏輯,在 latency 降低 10 倍。

8e9de9c4-a1d0-11ed-bfe3-dac502259ad0.png

拍照搜索的鏈路包括了圖像向量召回、公式召回、個性化召回。

8ebb4f32-a1d0-11ed-bfe3-dac502259ad0.png

提供兩個例子。第一個是純文本的 OCR 結果,(左列)舊結果是基于 ES,簡單的 OR 召回,加上 BM25 的結果,(右列)經過多路召回以及相關性召回的鏈路有較大提升。 第二個是拍照含有圖形,多路中是必須結合圖片召回。3. 電力知識庫統(tǒng)一搜索

8ec85560-a1d0-11ed-bfe3-dac502259ad0.png

8eff121c-a1d0-11ed-bfe3-dac502259ad0.png

在企業(yè)搜索中有很多半結構化和非結構化數(shù)據,提供統(tǒng)一搜索,幫助企業(yè)整合數(shù)據資源。不僅在電力,其他行業(yè)也有類似需求。這里的搜索不再是狹義的搜索,還包含了對文檔的預處理文檔的AI和知識圖譜的構建,還包括后續(xù)橋接問答的能力。以上是在電力知識庫里,去做一套制度標準文本,從結構化到檢索,到應用端的示意圖。 審核編輯 :李倩


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關注

    關注

    0

    文章

    527

    瀏覽量

    10285
  • 自然語言
    +關注

    關注

    1

    文章

    288

    瀏覽量

    13355
  • 知識圖譜
    +關注

    關注

    2

    文章

    132

    瀏覽量

    7711
收藏 人收藏

    評論

    相關推薦

    一文詳解知識增強的語言訓練模型

    ,在實際應用場景中效果不好。為了解決這個問題,將知識注入到PLMs中已經成為一個非常活躍的研究領域。本次分享將介紹三篇知識增強的訓練語言模型
    的頭像 發(fā)表于 04-02 17:21 ?9650次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    處理各種自然語言任務時都表現(xiàn)出了驚人的能力。這促使一個新的研究方向誕生——基于Transformer 的訓練語言
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實踐】大語言模型訓練

    語言模型的核心特點在于其龐大的參數(shù)量,這賦予了模型強大的學習容量,使其無需依賴微調即可適應各種下游任務,而更傾向于培養(yǎng)通用的處理能力。然而,隨著學習容量的增加,對
    發(fā)表于 05-07 17:10

    訓練語言模型設計的理論化認識

    在這篇文章中,我會介紹一篇最新的訓練語言模型的論文,出自MASS的同一作者。這篇文章的亮點是:將兩種經典的
    的頭像 發(fā)表于 11-02 15:09 ?2717次閱讀

    如何向大規(guī)模訓練語言模型中融入知識?

    本文關注于向大規(guī)模訓練語言模型(如RoBERTa、BERT等)中融入知識。
    的頭像 發(fā)表于 06-23 15:07 ?4255次閱讀
    如何向大規(guī)模<b class='flag-5'>預</b><b class='flag-5'>訓練</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>中融入知識?

    Multilingual多語言訓練語言模型的套路

    Facebook在Crosslingual language model pretraining(NIPS 2019)一文中提出XLM訓練語言模型,整體思路基于BERT,并提出了針
    的頭像 發(fā)表于 05-05 15:23 ?2992次閱讀

    一種基于亂序語言模型訓練模型-PERT

    由于亂序語言模型不使用[MASK]標記,減輕了訓練任務與微調任務之間的gap,并由于預測空間大小為輸入序列長度,使得計算效率高于掩碼語言
    的頭像 發(fā)表于 05-10 15:01 ?1553次閱讀

    利用視覺語言模型對檢測器進行訓練

    訓練通常被用于自然語言處理以及計算機視覺領域,以增強主干網絡的特征提取能力,達到加速訓練和提高模型泛化性能的目的。該方法亦可以用于場景文本
    的頭像 發(fā)表于 08-08 15:33 ?1413次閱讀

    訓練語言模型的字典描述

    今天給大家?guī)硪黄狪JCAI2022浙大和阿里聯(lián)合出品的采用對比學習的字典描述知識增強的訓練語言模型-DictBERT,全名為《Dictionary Description Know
    的頭像 發(fā)表于 08-11 10:37 ?1179次閱讀

    CogBERT:腦認知指導的訓練語言模型

    另一方面,從語言處理的角度來看,認知神經科學研究人類大腦中語言處理的生物和認知過程。研究人員專門設計了
    的頭像 發(fā)表于 11-03 15:07 ?1081次閱讀

    基于訓練語言模型行業(yè)搜索的應用和研究

    面向產業(yè)和消費互聯(lián)網的搜索本質都是一樣的:用戶有信息獲取需求,同時有信息資源庫,通過搜索引擎把兩者橋接起來。
    的頭像 發(fā)表于 02-01 11:23 ?1052次閱讀

    什么是訓練 AI 模型

    訓練 AI 模型是為了完成特定任務而在大型數(shù)據集上訓練的深度學習模型。這些模型既可以直接使用,
    的頭像 發(fā)表于 04-04 01:45 ?1458次閱讀

    什么是訓練AI模型

    訓練 AI 模型是為了完成特定任務而在大型數(shù)據集上訓練的深度學習模型。這些模型既可以直接使用,
    的頭像 發(fā)表于 05-25 17:10 ?1054次閱讀

    訓練模型的基本原理和應用

    訓練模型(Pre-trained Model)是深度學習和機器學習領域中的一個重要概念,尤其是在自然語言處理(NLP)和計算機視覺(CV)等領域中得到了廣泛應用。
    的頭像 發(fā)表于 07-03 18:20 ?2893次閱讀

    語言模型訓練

    能力,逐漸成為NLP領域的研究熱點。大語言模型訓練是這一技術發(fā)展的關鍵步驟,它通過在海量無標簽數(shù)據上進行
    的頭像 發(fā)表于 07-11 10:11 ?439次閱讀
    主站蜘蛛池模板: 老熟女毛茸茸浓毛| 曰韩一本道高清无码av| 国产精品成人无码免费视频| 亚洲人成网站7777视频| 欧美丰满熟妇无码XOXOXO| 国产传媒18精品免费观看| 2021久久99国产熟女人妻| 少女亚洲free| 内射少妇36P亚洲区| 亚洲精品高清在线观看| 一区二区中文字幕在线观看 | 国产中文字幕免费观看| 草民电影网午夜伦理电影网| 找老女人泻火对白自拍| 亚洲精品蜜桃AV久久久| 天美传媒在线完整免费观看网站| 女人高潮特级毛片| 久久久亚洲国产精品主播| 国内精品伊人久久久久| 国产精品99久久久久久动态图| 扒开美女的内衣亲吻漫画| 51久久夜色精品国产| 亚洲免费视频网站| 忘忧草日本在线WWW日本| 人妻换人妻AA视频| 女人高潮了拔出来了她什么感觉| 巨污全肉np一女多男| 久久AV无码AV高潮AV不卡| 国语精彩对白2021| 国产一区私人高清影院| 国产剧果冻传媒星空在线观看 | 绝色娇嫩美人妻老师| 精品久久久噜噜噜久久7| 国产在线观看www| 国产人妻人伦精品9| 国产午夜精品不卡视频| 国产精品日本无码久久一老A| 国产短视频精品区| 国产成人精品一区二区三区视频 | 美丽的姑娘BD在线观看| 妈妈的职业3完整版在线播放 |