色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SEDNet:視差和不確定性聯(lián)合評(píng)估的新方法

3D視覺(jué)工坊 ? 來(lái)源:3D視覺(jué)工坊 ? 2023-05-15 15:12 ? 次閱讀

本文提出了一種新的深度立體匹配中用于聯(lián)合視差和不確定性估計(jì)的損失函數(shù)。在神經(jīng)網(wǎng)絡(luò)中加入KL散度項(xiàng),要求不確定性分布匹配視差誤差分布,以實(shí)現(xiàn)精確的不確定性估計(jì)。使用可微的軟直方圖技術(shù)來(lái)近似分布,并在損失函數(shù)中使用。該方法在大型數(shù)據(jù)集上獲得了顯著的改進(jìn)。作為cvpr2023最新的文章,非常值得閱讀一下。

1 前言

本文提出了SEDNet,一種用于視差和基礎(chǔ)不確定性聯(lián)合估計(jì)的深度網(wǎng)絡(luò)。SEDNet包括一個(gè)新穎的、輕量級(jí)的不確定性估計(jì)子網(wǎng)絡(luò),將不確定度的分布與視差誤差的分布相匹配。為了生成這個(gè)新的損失函數(shù)的輸入,作者使用可微的軟直方圖技術(shù)以可微分的方式近似分布。在具有真實(shí)值的大型數(shù)據(jù)集上對(duì)SEDNet的視差估計(jì)和不確定度預(yù)測(cè)的性能進(jìn)行了廣泛的實(shí)驗(yàn)驗(yàn)證。SEDNet優(yōu)于具有相似架構(gòu)但沒(méi)有提出的損失函數(shù)的基線。

主要貢獻(xiàn)是:

一個(gè)新穎的不確定性估計(jì)子網(wǎng)絡(luò),從視差子網(wǎng)絡(luò)生成的中間多分辨率視差圖中提取信息

一種可微的軟直方圖技術(shù),用于近似視差誤差和估計(jì)不確定性的分布。

一種基于KL散度的損失,應(yīng)用于使用上述技術(shù)獲得的直方圖。

41553bb4-f2ce-11ed-90ce-dac502259ad0.png

2 相關(guān)背景

立體匹配網(wǎng)絡(luò)在一種稱為成本體積(cost volume)的體積上運(yùn)行,該體積在每個(gè)像素處匯聚每個(gè)可能視差處的二維特征,并可以通過(guò)相關(guān)或串聯(lián)來(lái)構(gòu)建。DispNetC、iResNet和SegStereo等基于相關(guān)的網(wǎng)絡(luò)生成兩個(gè)視圖中提取的特征的單通道相關(guān)地圖,在各視差層中,利用有效的計(jì)算流程犧牲結(jié)構(gòu)和語(yǔ)義信息在特征表示中。GCNet、PSMNet和GANet等基于串聯(lián)的網(wǎng)絡(luò)在成本體積的對(duì)應(yīng)元素所指定的視差處組裝兩個(gè)視圖的特征。這有助于學(xué)習(xí)上下文特征,但需要更多的參數(shù)以及一個(gè)后續(xù)的聚合網(wǎng)絡(luò)。在置信度估計(jì)方面,將置信度和不確定度區(qū)分開(kāi)來(lái),包括置信度CNN、PBCP、EFN、LFN和MMC等方法,以及ConfNet、LGC和LAF等利用圖像和視差圖作為輸入的方法。KL散度用于測(cè)量變分推斷估計(jì)的網(wǎng)絡(luò)參數(shù)分布的近似和精確后驗(yàn)分布之間的距離。(需要注意的是,在分配離散度誤差的分布上,作者使用了KL散度來(lái)實(shí)現(xiàn)完全不同的目的。)

3 方法

本文旨在聯(lián)合估計(jì)視差和不確定性,通過(guò)最小化預(yù)測(cè)不確定性和實(shí)際視差誤差之間的差異來(lái)訓(xùn)練網(wǎng)絡(luò)。其中,預(yù)測(cè)模型的損失函數(shù)為KL散度損失,用于匹配誤差分布和不確定性分布。立體匹配網(wǎng)絡(luò)通過(guò)學(xué)習(xí)聯(lián)合公式預(yù)測(cè)比單獨(dú)的視差估計(jì)器更準(zhǔn)確的視差。

3.1 Aleatoric Uncertainty Estimation - 隨機(jī)不確定性估計(jì)

為了預(yù)測(cè)不確定性并降低噪聲的影響,Kendall和Gal通過(guò)最小化模型輸出的負(fù)對(duì)數(shù)似然來(lái)實(shí)現(xiàn)像素級(jí)的預(yù)測(cè)。模型假設(shè)輸出服從高斯分布。Ilg等人的后續(xù)工作表明,預(yù)測(cè)的分布可以分別模擬為拉普拉斯分布或高斯分布,具體取決于是對(duì)視差估計(jì)采用L1損失還是L2損失。由于作者采用的是前者,因此可以將預(yù)測(cè)模型表示為:

416b47ce-f2ce-11ed-90ce-dac502259ad0.png

為了模擬算法不確定性,Kendall和Gal引入了像素特定的噪聲參數(shù)σ(i)。作者采用了Ilg等人在構(gòu)建拉普拉斯模型時(shí)使用的方法,并獲得了以下像素級(jí)損失函數(shù):

419350f2-f2ce-11ed-90ce-dac502259ad0.png

該式可以被視為魯棒損失函數(shù),其中像素的殘差損失受其不確定性的影響而減弱,而第二項(xiàng)則作為正則化項(xiàng)。訓(xùn)練網(wǎng)絡(luò)來(lái)預(yù)測(cè)觀測(cè)噪聲標(biāo)量的對(duì)數(shù)s,以保證數(shù)值穩(wěn)定性。

3.2 Matching the Distribution of Errors - 誤差分布的匹配

這部分作者討論了調(diào)整不確定性分布以匹配誤差分布的問(wèn)題。采用KL散度作為衡量二者之間差異的度量,但直接最小化KL散度需要兩個(gè)分布的歸納公式。為此作者使用直方圖來(lái)表示分布,同時(shí)采用軟直方圖使其可微分。對(duì)于每個(gè)批次訓(xùn)練,基于誤差值的統(tǒng)計(jì)量創(chuàng)建一個(gè)直方圖。作者對(duì)獨(dú)立的不確定性采用相同的直方圖參數(shù),并使用反比例權(quán)重的softmax函數(shù)來(lái)計(jì)算每個(gè)誤差值或不確定性貢獻(xiàn)的直方圖值。最后,該直方圖的KL損失用于網(wǎng)絡(luò)的訓(xùn)練。

3.3 SEDNet

SEDNet是一個(gè)包括視差估計(jì)和不確定性估計(jì)子網(wǎng)絡(luò)的網(wǎng)絡(luò)體系結(jié)構(gòu)。其中視差估計(jì)子網(wǎng)絡(luò)采用GwcNet,GwcNet子網(wǎng)絡(luò)使用類似ResNet的特征提取器從圖像中提取特征,生成代價(jià)體積,并使用soft-argmax運(yùn)算符為像素分配視差。視差預(yù)測(cè)器的輸出模塊在不同分辨率下生成K個(gè)視差圖。不確定性估計(jì)子網(wǎng)絡(luò)學(xué)習(xí)預(yù)測(cè)每個(gè)像素的觀測(cè)噪聲標(biāo)量的對(duì)數(shù)誤差。為了計(jì)算不確定性圖像,作者提出了使用像素對(duì)差分向量(PDV)的多分辨率視差預(yù)測(cè)的新方法。視差估計(jì)器輸出的視差圖首先進(jìn)行上采樣處理,然后進(jìn)行成對(duì)差分以形成PVD。其中,PVD表示像素對(duì)之間的視差差異。

41a616b0-f2ce-11ed-90ce-dac502259ad0.png

3.4 Loss Function - 損失函數(shù)

本文所使用的損失函數(shù)由兩部分組成:對(duì)數(shù)似然損失和KL散度損失。其中對(duì)數(shù)似然損失用于優(yōu)化誤差和不確定性,KL散度損失用于匹配不確定性分布和誤差??倱p失將所有視差和不確定性圖像考慮在內(nèi),上采樣到最高分辨率,并通過(guò)每個(gè)分辨率級(jí)別的系數(shù)對(duì)不同分辨率級(jí)別的對(duì)數(shù)似然損失和KL散度損失進(jìn)行加權(quán)計(jì)算。

420d0474-f2ce-11ed-90ce-dac502259ad0.png

4 實(shí)驗(yàn)

4.1 數(shù)據(jù)集和評(píng)估指標(biāo)

這部分作者介紹了多個(gè)用于立體圖像深度估計(jì)的數(shù)據(jù)集和評(píng)估指標(biāo)。其中SceneFlow、Virtual KITTI 2和DrivingStereo是當(dāng)前被廣泛使用的三個(gè)數(shù)據(jù)集。作者使用端點(diǎn)誤差(EPE)和異常值百分?jǐn)?shù)(D1)來(lái)評(píng)估視差估計(jì)的準(zhǔn)確度,并使用密度-EPE ROC曲線和曲線下的面積(AUC)來(lái)評(píng)估不確定性估計(jì)。本文還比較了SEDNet和三個(gè)基線:原始GwcNet、LAF-Net和僅使用對(duì)數(shù)似然損失的SEDNet。

4.2 實(shí)施細(xì)節(jié)

作者在PyTorch中實(shí)現(xiàn)了所有網(wǎng)絡(luò),并對(duì)所有實(shí)驗(yàn)使用了Adam優(yōu)化器,其中β1 = 0.9,β2 = 0.999。在所有模型過(guò)擬合之前停止訓(xùn)練。

在VK2數(shù)據(jù)集上的實(shí)驗(yàn)是在兩個(gè)NVIDIA RTX A6000 GPU上執(zhí)行的,每個(gè)GPU都帶有48GB的RAM。對(duì)于此數(shù)據(jù)集,使用初始學(xué)習(xí)率為0.0001從頭訓(xùn)練了所有模型,在每10個(gè)epoch后降低了5個(gè)。在訓(xùn)練過(guò)程中,從圖像中隨機(jī)裁剪了512×256的補(bǔ)丁。在測(cè)試期間,在VK2的完整分辨率上評(píng)估。

歡迎關(guān)注微信公眾號(hào)「3D視覺(jué)工坊」,加群/文章投稿/課程主講,請(qǐng)加微信:dddvisiona,添加時(shí)請(qǐng)備注:加群/投稿/主講申請(qǐng)

方向主要包括:3D視覺(jué)領(lǐng)域各細(xì)分方向,比如相機(jī)標(biāo)定|三維點(diǎn)云|三維重建|視覺(jué)/激光SLAM|感知|控制規(guī)劃|模型部署|3D目標(biāo)檢測(cè)|TOF|多傳感器融合|AR|VR|編程基礎(chǔ)等。

對(duì)于DrivingStereo數(shù)據(jù)集(DS),坐這兒也在兩個(gè)NVIDIA RTX A6000 GPU上進(jìn)行了實(shí)驗(yàn)。對(duì)于此數(shù)據(jù)集,使用在VK2上預(yù)訓(xùn)練的模型進(jìn)行了兩個(gè)實(shí)驗(yàn):(1)在DS訓(xùn)練集上進(jìn)行微調(diào),學(xué)習(xí)率從0.0001開(kāi)始,在第10個(gè)epoch后每3個(gè)epoch降低2次學(xué)習(xí)率,然后在DS測(cè)試集上進(jìn)行領(lǐng)域內(nèi)評(píng)估;(2)跳過(guò)微調(diào)步驟,并在DS-Weather子集上進(jìn)行跨域評(píng)估。在訓(xùn)練期間,作者隨機(jī)裁剪了與VK2實(shí)驗(yàn)相同大小的輸入。在測(cè)試期間,作者對(duì)測(cè)試樣本進(jìn)行了填充,使其分辨率與VK2相同。

在SceneFlow數(shù)據(jù)集上的實(shí)驗(yàn)是在一臺(tái)具有24 GB內(nèi)存的Nvidia TITAN RTX GPU上進(jìn)行的。作者從半分辨率圖像中裁剪了256×128的補(bǔ)丁來(lái)限制內(nèi)存消耗,并將初始學(xué)習(xí)率設(shè)置為0.001,在第10個(gè)epoch后每2個(gè)epoch降低2次學(xué)習(xí)率。

42399d22-f2ce-11ed-90ce-dac502259ad0.png

4.3 定性和定量結(jié)果

作者進(jìn)行了視差估計(jì)和不確定性估計(jì)的定量和定性分析,并展示了針對(duì)不同實(shí)驗(yàn)設(shè)置的SEDNet的性能優(yōu)于基線結(jié)果。使用自適應(yīng)閾值的內(nèi)點(diǎn)過(guò)濾器使模型在視差和不確定性估計(jì)方面表現(xiàn)更好。SEDNet還具有在極端天氣下預(yù)測(cè)視差的能力,不受糟糕照明和模糊影響。此外,作者還發(fā)現(xiàn)使用自適應(yīng)閾值進(jìn)行內(nèi)點(diǎn)過(guò)濾可以提高網(wǎng)絡(luò)的性能。

4258c314-f2ce-11ed-90ce-dac502259ad0.png

42b9d12c-f2ce-11ed-90ce-dac502259ad0.png

42eb63d6-f2ce-11ed-90ce-dac502259ad0.png

430e5620-f2ce-11ed-90ce-dac502259ad0.png

4.4 匹配誤差分布

作者提出的能夠更好匹配真實(shí)分布的視差估計(jì)和不確定性估計(jì)方法SEDNet,表明其在精度和魯棒性方面具有優(yōu)勢(shì)。在誤差分布匹配方面,通過(guò)比較APE的結(jié)果,驗(yàn)證了SEDNet的匹配能力。

4331434c-f2ce-11ed-90ce-dac502259ad0.png

4.5 從合成數(shù)據(jù)到真實(shí)數(shù)據(jù)的泛化

視差匹配網(wǎng)絡(luò)通常在合成數(shù)據(jù)上進(jìn)行訓(xùn)練,并在目標(biāo)域的少量真實(shí)數(shù)據(jù)上進(jìn)行微調(diào),因?yàn)楂@取帶有真實(shí)深度信息的真實(shí)數(shù)據(jù)成本高且難度大。在本節(jié)中,作者將VK2-S6和DS-Weather的實(shí)驗(yàn)擴(kuò)展到所有僅在合成數(shù)據(jù)上進(jìn)行訓(xùn)練的方法在看不見(jiàn)的真實(shí)域上的泛化性能進(jìn)行比較。

4350e03a-f2ce-11ed-90ce-dac502259ad0.png

5 總結(jié)

本文提出了一種新的視差和不確定性聯(lián)合評(píng)估的方法,其中關(guān)鍵思想是使用基于KLD散度的獨(dú)特?fù)p失函數(shù)來(lái)比較視差誤差和不確定性估計(jì)的分布情況,通過(guò)一種可微的直方圖方案實(shí)現(xiàn),同時(shí)引入了僅有190個(gè)參數(shù)的不確定性估計(jì)子網(wǎng)絡(luò)。實(shí)驗(yàn)表明,該方法在視差和不確定性預(yù)測(cè)方面都取得了比較有效的結(jié)果。和GwcNet相比,即使基本上具有相同的容量和幾乎相同的架構(gòu),SEDNet在視差估計(jì)方面表現(xiàn)更好,這歸因于微小的不確定性估計(jì)子網(wǎng)絡(luò)。未來(lái)研究計(jì)劃將該方法同樣應(yīng)用于其他逐像素回歸任務(wù)。

該篇論文介紹了一種視差和不確定性聯(lián)合評(píng)估的方法SEDNet,提出了一種可微的直方圖方案來(lái)實(shí)現(xiàn)KL散度損失函數(shù),通過(guò)匹配視差誤差和不確定性分布來(lái)實(shí)現(xiàn)精確的不確定性估計(jì)。實(shí)驗(yàn)表明,該方法在視差和不確定性預(yù)測(cè)方面都取得了有效的結(jié)果,并且在視差估計(jì)方面表現(xiàn)更好,相比于GwcNet,這歸因于微小的不確定性估計(jì)子網(wǎng)絡(luò)。該文章的主要貢獻(xiàn)是引入了一種新穎的不確定性估計(jì)子網(wǎng)絡(luò)和使用KL散度的損失函數(shù)來(lái)對(duì)比視差誤差和不確定性估計(jì)的分布情況。SEDNet的實(shí)現(xiàn)對(duì)于視覺(jué)和深度學(xué)習(xí)領(lǐng)域的研究也有一定的參考意義。

437ecb58-f2ce-11ed-90ce-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4333

    瀏覽量

    62687
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24719

原文標(biāo)題:CVPR2023|SEDNet:視差和不確定性聯(lián)合評(píng)估的新方法

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    去嵌入和不確定性是否使用了正確的設(shè)置

    大家好,所以我遇到的問(wèn)題是確定用于測(cè)試夾具糾錯(cuò)過(guò)程的適配器特征的不確定性。我們將使用適配器及其s2p文件對(duì)測(cè)試夾具中的所有信號(hào)路徑進(jìn)行路徑表征,然后移除以進(jìn)行性能測(cè)試。這個(gè)過(guò)程在不確定性計(jì)算器中被
    發(fā)表于 09-27 15:47

    是否可以使用全雙端口校準(zhǔn)中的S11不確定性來(lái)覆蓋單端口校準(zhǔn)的不確定性

    我們一直在使用Agilent VNA不確定度計(jì)算器電子表格,讓我們了解我們測(cè)量的設(shè)備的不確定性。有關(guān)單端口校準(zhǔn)的問(wèn)題:目前您必須從電子表格中選擇您的VNA(帶寬和平均值),然后選擇校準(zhǔn)類型(全雙端口
    發(fā)表于 12-29 16:32

    N5531S TRFL不確定性

    我正在嘗試使用N5531S(選擇550傳感器)測(cè)量接收器系統(tǒng)測(cè)量0到-130dBm的絕對(duì)功率水平,然后計(jì)算它的不確定性。安捷倫的應(yīng)用筆記已經(jīng)提到,不確定度可以使用公式+/-計(jì)算(功率計(jì)范圍2-4
    發(fā)表于 02-19 15:40

    435B-K05輸出不確定性

    以及將435B-K05的輸出結(jié)果與UUT功率計(jì)的參考輸出進(jìn)行比較來(lái)準(zhǔn)確測(cè)量輸出。我反對(duì)他們的方法的理由是,通過(guò)兩次測(cè)量,不匹配不確定度和儀表誤差不確定性將加倍,更不用說(shuō)必須包括435B-K05輸出
    發(fā)表于 08-02 14:33

    測(cè)試系統(tǒng)不確定性分析

    測(cè)試系統(tǒng)不確定性分析
    發(fā)表于 09-18 09:19

    傅里葉變換與不確定性看了就知道

    傅里葉變換與不確定性
    發(fā)表于 12-30 06:41

    基于RFID技術(shù)的供應(yīng)鏈管理項(xiàng)目存在哪些不確定性

    基于RFID技術(shù)的供應(yīng)鏈管理項(xiàng)目存在哪些不確定性?項(xiàng)目嵌入的實(shí)物期權(quán)類型有哪幾種?
    發(fā)表于 05-28 07:08

    運(yùn)算放大器的開(kāi)環(huán)電壓增益有哪些不確定性

    運(yùn)算放大器的開(kāi)環(huán)電壓增益的值有多大?運(yùn)算放大器的開(kāi)環(huán)電壓增益有哪些不確定性?如何去解決?
    發(fā)表于 07-19 09:11

    考慮模型參數(shù)不確定性的航天器姿態(tài)機(jī)動(dòng)控制

    考慮模型參數(shù)不確定性的航天器姿態(tài)機(jī)動(dòng)控制_李隆
    發(fā)表于 01-07 18:21 ?0次下載

    一種求解動(dòng)態(tài)及不確定性優(yōu)化問(wèn)題的新方法

    一種求解動(dòng)態(tài)及不確定性優(yōu)化問(wèn)題的新方法_劉曉
    發(fā)表于 01-07 18:56 ?0次下載

    如何用不確定性解決模型問(wèn)題

    再比如,你想搭建一個(gè)模型,要在一系列動(dòng)物圖片中預(yù)測(cè)哪種動(dòng)物會(huì)吃掉你。假設(shè)你在訓(xùn)練時(shí)給模型提供的都是獅子和長(zhǎng)頸鹿的照片,現(xiàn)在模型看到了一張僵尸照片。由于之前它沒(méi)有見(jiàn)過(guò)僵尸,所以這里的不確定性就非常高。如果在訓(xùn)練時(shí)能提供足夠的僵尸照片,那么模型的不確定性會(huì)隨之減少。
    的頭像 發(fā)表于 09-07 09:45 ?5279次閱讀

    針對(duì)自閉癥輔助的不確定性聯(lián)合組稀疏建模方法

    ,提出一種新型的不確定性聯(lián)合組稀疏建模方法JGSI-TSK,并將其用于自閉癥的輔助診斷。首先,對(duì)原始rs-MRI數(shù)據(jù)進(jìn)行預(yù)處理和特征提取,得到低維特征數(shù)據(jù);然后,基于TSK模糊系統(tǒng)框架,從特征之間的相關(guān)性出發(fā),在后件參數(shù)學(xué)習(xí)過(guò)程
    發(fā)表于 04-07 11:23 ?2次下載
    針對(duì)自閉癥輔助的<b class='flag-5'>不確定性</b><b class='flag-5'>聯(lián)合</b>組稀疏建模<b class='flag-5'>方法</b>

    深部目標(biāo)姿態(tài)估計(jì)的不確定性量化研究

      FastUQ 是一種新的用于深部目標(biāo)姿態(tài)估計(jì)的快速不確定性量化方法,具有高效、即插即用的特點(diǎn),支持一類通用的姿態(tài)估計(jì)任務(wù)。這項(xiàng)研究在自主駕駛和一般自主性方面具有潛在的重大影響,包括更穩(wěn)健和安全的感知,以及不確定性感知控制和規(guī)
    的頭像 發(fā)表于 04-26 16:18 ?1195次閱讀

    不確定性感知和姿態(tài)回歸結(jié)合用于自動(dòng)駕駛車輛定位

    提出了一種聯(lián)合訓(xùn)練姿態(tài)估計(jì)和不確定性方法,其具有可靠的不確定性估計(jì)和改進(jìn)的訓(xùn)練穩(wěn)定性
    的頭像 發(fā)表于 01-30 11:30 ?1520次閱讀

    科技云報(bào)到:數(shù)字化轉(zhuǎn)型,從不確定性確定性的關(guān)鍵路徑

    科技云報(bào)到:數(shù)字化轉(zhuǎn)型,從不確定性確定性的關(guān)鍵路徑
    的頭像 發(fā)表于 11-16 16:52 ?339次閱讀
    科技云報(bào)到:數(shù)字化轉(zhuǎn)型,從<b class='flag-5'>不確定性</b>到<b class='flag-5'>確定性</b>的關(guān)鍵路徑
    主站蜘蛛池模板: 国产AV亚洲国产AV麻豆| 玖玖爱在线播放| 国产一区二区在线免费观看| 九九这里有精品| 欧美内射AAAAAAXXXXX| 国产精片久久久久久婷婷| 狠狠色狠色综合曰曰| 暖暖 免费 高清 日本在线| 无码欧美毛片一区二区三在线视频 | 日本午夜视频在线| 亚洲久热无码中文字幕| 99热都是精品| 国产永久视频| 欧洲兽交另类AVXXX| 亚洲高清视频在线| CHINESE熟女老女人HD视频| 国产最新地址| 日本撒尿特写| 中文字幕无码亚洲视频| 国产成人女人在线视频观看| 老阿姨才是最有V味的直播| 无码乱人伦一区二区亚洲一| 99久热这里精品免费| 黑人强伦姧人妻日韩那庞大的 | 免费被靠视频动漫| 亚州三级视频| 超级碰碰青草久热国产| 看电影就来5566先锋av| 天堂在线亚洲精品专区| 亚洲精品久久久久69影院| proburn中文破解版下载| 精品三级久久久久电影网1| 日本一本道高清码v| 中文字幕高清在线中文字幕| 国产女人喷潮视频免费| 青柠在线电影高清免费观看| 伊人最新网址| 国产午夜精品一区理论片飘花| 轻轻cao| 52av我爱| 九九久久国产精品免费热6|