色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA Triton 系列文章(7):image_client 用戶端參數(shù)

NVIDIA英偉達企業(yè)解決方案 ? 來源:未知 ? 2022-12-06 19:55 ? 次閱讀

作為服務器的最重要任務,就是要接受來自不同終端所提出的各種請求,然后根據(jù)要求執(zhí)行對應的計算,再將計算結果返回給終端。

當 Triton 推理服務器運行起來之后,就進入等待請求的狀態(tài),因此我們所要提出的請求內容,就必須在用戶端軟件里透過參數(shù)去調整請求的內容,這部分在 Triton 相關使用文件中并沒有提供充分的說明,因此本文的重點就在于用Python 版的 image_client.py 來說明相關參數(shù)的內容,其他用戶端的參數(shù)基本上與這個端類似,可以類比使用。

本文的實驗內容,是將 Triton 服務器安裝在 IP 為 192.168.0.10 的 Jetson AGX Orin 上,將 Triton 用戶端裝在 IP 為 192.168.0.20 的樹莓派上,讀者可以根據(jù)已有的設備資源自行調配。

在開始進行實驗之前,請先確認以下兩個部分的環(huán)境:

  • 在服務器設備上啟動 Triton 服務器,并處于等待請求的狀態(tài):


如果還沒啟動的話,請直接執(zhí)行以下指令:

# 根據(jù)實際的模型倉根目錄位置設定TRITON_MODEL_REPO路徑
$ export TRITON_MODEL_REPO=${HOME}/triton/server/docs/examples/model_repository
執(zhí)行Triton服務器
$ dockerrun--rm--net=host-v${TRITON_MODEL_REPO}:/modelsnvcr.io/nvidia/tritonserver:22.09-py3tritonserver--model-repository=/models
  • 在用戶端設備下載 Python 的用戶端范例,并提供若干張要檢測的圖片:

先執(zhí)行以下指令,確認Triton服務器已經(jīng)正常啟動,并且從用戶端設備可以訪問:

$  curl -v 192.168.0.10:8000/v2/health/ready

只要后面出現(xiàn)的信息中有“HTTP/1.1 200 OK”部分,就表示一切正常。

如果還沒安裝 Triton 的 Python 用戶端環(huán)境,并且還未下載用戶端范例的話,請執(zhí)行以下指令:

$  cd ${HOME}/triton
$ git clone https://github.com/triton-inference-server/client
$ cd client/src/python/examples
# 安裝 Triton 的 Python用戶端環(huán)境
$ pip3installtritonclient[all]attrdict-ihttps://pypi.tuna.tsinghua.edu.cn/simple

最后記得在用戶端設備上提供幾張圖片,并且放置在指定文件夾(例如~/images)內,準備好整個實驗環(huán)境,就可以開始下面的說明。

現(xiàn)在執(zhí)行以下指令,看一下 image_client 這個終端的參數(shù)列表:

$  python3 image_client.py

會出現(xiàn)以下的信息:

接下來就來說明這些參數(shù)的用途與用法。

  1. 用“-u”參數(shù)對遠程服務器提出請求:


如果用戶端與服務器端并不在同一臺機器上的時候,就可以用這個參數(shù)對遠程 Triton 服務器提出推理請求,請執(zhí)行以下指令:

$  python3 image_client.py  -m  inception_graphdef  -u 192.168.0.10:8000  -s INCEPTION ${HOME}/images/mug.jpg

由于 Triton 的跨節(jié)點請求主要透過 HTTP/REST 協(xié)議處理,需要透過 8000 端口進行傳輸,因此在“-u”后面需要接上“IP:8000”就能正常使用。

請自行檢查回饋的計算結果是否正確!

2. 用“-m”參數(shù)去指推理模型:

從“python3 image_client.py”所產生信息的最后部分,可以看出用“-m”參數(shù)去指定推理模型是必須的選項,但是可以指定哪些推理模型呢?就得從 Triton 服務器的啟動信息中去尋找答案。

下圖是本范例是目前啟動的 Triton 推理服務器所支持的模型列表:

這里顯示有的 8 個推理模型,就是啟動服務器時使用“--model-repository=”參數(shù)指定的模型倉內容,因此客戶端使用“-m”參數(shù)指定的模型,必須是在這個表所列的內容之列,例如“-mdensenet_onnx”、“-m inception_graphdef”等等。

現(xiàn)在執(zhí)行以下兩道指令,分別看看使用不同模型所得到的結果有什么差異:

$  python3 image_client.py  -m densenet_onnx  -u 192.168.0.10:8000  -s INCEPTION ${HOME}/images/mug.jpg
$ python3image_client.py-minception_graphdef-u192.168.0.10:8000-sINCEPTION${HOME}/images/mug.jpg

使用 densenet_onnx 模型與 inception_graphdef 模型所返回的結果,分別如下:

雖然兩個模型所得到的檢測結果一致,但是二者所得到的置信度表達方式并不相同,而且標簽編號并不一樣(504 與 505)。

這個參數(shù)后面還可以使用“-x”去指定“版本號”,不過目前所使用的所有模型都只有一個版本,因此不需要使用這個參數(shù)。

3. 使用“-s”參數(shù)指定圖像縮放方式:

有些神經(jīng)網(wǎng)絡算法在執(zhí)行推理之前,需要對圖像進行特定形式的縮放(scaling)處理,因此需要先用這個參數(shù)指定縮放的方式,如果沒有指定正確的模式,會導致推理結果的錯誤。目前這個參數(shù)支持{NONE, INSPECTION, VGG}三個選項,預設值為“NONE”。

在本實驗 Triton 推理服務器所支持的 densenet_onnx 與 inception_graphdef 模型,都需要選擇 INSPECTION 縮放方式,因此執(zhí)行指令中需要用“-s INSPECTION”去指定,否則會得到錯誤的結果。

請嘗試以下指令,省略前面指定中的“-s INSPECTION”,或者指定為 VGG 模式,看看結果如何?

$  python3 image_client.py  -m inception_graphdef -u 192.168.0.10:8000  -s VGG ${HOME}/images/mug.jpg

4. 對文件夾所有圖片進行推理

如果有多個要進行推理計算的標的物(圖片),Triton 用戶端可用文件夾為單位來提交要推理的內容,例如以下指令就能一次對 ${HOME}/images 目錄下所有圖片進行推理:

$  python3 image_client.py  -m  inception_graphdef  -u 192.168.0.10:8000  -s INCEPTION ${HOME}/images

例如我們在文件夾中準備了 car.jpg、mug.jpg、vulture.jpg 三種圖片,如下:

執(zhí)行后反饋的結果如下:

顯示推理檢測的結果是正確的!

5. 用“-b”參數(shù)指定批量處理的值

執(zhí)行前面指令的結果可以看到“batch size 1”,表示用戶端每次提交一張圖片進行推理,所以出現(xiàn) Request1、Request 2 與 Request 3 總共提交三次請求。

現(xiàn)在既然有 3 張圖片,可否一次提交 3 張圖片進行推理呢?我們可以用“-b”參數(shù)來設定,如果將前面的指令中添加“-b3”這個參數(shù),如下:

$  python3 image_client.py  -m  inception_graphdef  -u 192.168.0.10:8000  -s INCEPTION ${HOME}/images  -b 3

現(xiàn)在顯示的結果如下:

現(xiàn)在看到只提交一次“batch size 3”的請求,就能對三張圖片進行推理。如果 batch 值比圖片數(shù)量大呢?例如改成“-b 5”的時候,看看結果如何?如下:

現(xiàn)在可以看到所推理的圖片數(shù)量是 5,其中 1/4、2/5 是同一張圖片,表示重復使用了。這樣就應該能清楚這個“batchsize”值的使用方式。

但如果這里將模型改成 densenet_onnx 的時候,執(zhí)行以下指令:

$  python3 image_client.py  -m  densenet_onnx  -u 192.168.0.10:8000  -s INCEPTION ${HOME}/images  -b 3

會得到“ERROR: This model doesn't support batching.”的錯誤信息,這時候就回頭檢查以下模型倉里 densenet_onnx 目錄下的 config.pbtxt 配置文件,會發(fā)現(xiàn)里面設置了“max_batch_size: 0”,并不支持批量處理。

而 inception_graphdef 模型的配置文件里設置“max_batch_size: 128”,如果指令給定“-b”參數(shù)大于這個數(shù)值,也會出現(xiàn)錯誤信息。

6. 其他:

另外還有指定通訊協(xié)議的“-i”參數(shù)、使用異步推理 API 的“-a”參數(shù)、使用流式推理 API 的“--streaming”參數(shù)等等,屬于較進階的用法,在這里先不用過度深入。

以上所提供的 5 個主要參數(shù),對初學者來說是非常足夠的,好好掌握這幾個參數(shù)就已經(jīng)能開始進行更多圖像方面的推理實驗。

推薦閱讀

NVIDIA Jetson Nano 2GB 系列文章(1):開箱介紹

NVIDIA Jetson Nano 2GB 系列文章(2):安裝系統(tǒng)

NVIDIA Jetson Nano 2GB 系列文章(3):網(wǎng)絡設置及添加 SWAPFile 虛擬內存

NVIDIA Jetson Nano 2GB 系列文章(4):體驗并行計算性能

NVIDIA Jetson Nano 2GB 系列文章(5):體驗視覺功能庫



NVIDIA Jetson Nano 2GB 系列文章(6):安裝與調用攝像頭


NVIDIA Jetson Nano 2GB 系列文章(7):通過 OpenCV 調用 CSI/USB 攝像頭

NVIDIA Jetson Nano 2GB 系列文章(8):執(zhí)行常見機器視覺應用


NVIDIA Jetson Nano 2GB 系列文章(9):調節(jié) CSI 圖像質量

NVIDIA Jetson Nano 2GB 系列文章(10):顏色空間動態(tài)調節(jié)技巧

NVIDIA Jetson Nano 2GB 系列文章(11):你應該了解的 OpenCV

NVIDIA Jetson Nano 2GB 系列文章(12):人臉定位


NVIDIA Jetson Nano 2GB 系列文章(13):身份識別


NVIDIA Jetson Nano 2GB 系列文章(14):Hello AI World

NVIDIA Jetson Nano 2GB 系列文章(15):Hello AI World 環(huán)境安裝


NVIDIA Jetson Nano 2GB 系列文章(16):10行代碼威力



NVIDIA Jetson Nano 2GB 系列文章(17):更換模型得到不同效果

NVIDIA Jetson Nano 2GB 系列文章(18):Utils 的 videoSource 工具

NVIDIA Jetson Nano 2GB 系列文章(19):Utils 的 videoOutput 工具

NVIDIA Jetson Nano 2GB 系列文章(20):“Hello AI World” 擴充參數(shù)解析功能

NVIDIA Jetson Nano 2GB 系列文章(21):身份識別

NVIDIA Jetson Nano 2GB 系列文章(22):“Hello AI World” 圖像分類代碼

NVIDIA Jetson Nano 2GB 系列文章(23):“Hello AI World 的物件識別應用

NVIDIAJetson Nano 2GB 系列文章(24): “Hello AI World” 的物件識別應用

NVIDIAJetson Nano 2GB 系列文章(25): “Hello AI World” 圖像分類的模型訓練

NVIDIAJetson Nano 2GB 系列文章(26): “Hello AI World” 物件檢測的模型訓練

NVIDIAJetson Nano 2GB 系列文章(27): DeepStream 簡介與啟用

NVIDIAJetson Nano 2GB 系列文章(28): DeepStream 初體驗

NVIDIAJetson Nano 2GB 系列文章(29): DeepStream 目標追蹤功能

NVIDIAJetson Nano 2GB 系列文章(30): DeepStream 攝像頭“實時性能”

NVIDIAJetson Nano 2GB 系列文章(31): DeepStream 多模型組合檢測-1

NVIDIAJetson Nano 2GB 系列文章(32): 架構說明與deepstream-test范例

NVIDIAJetsonNano 2GB 系列文章(33): DeepStream 車牌識別與私密信息遮蓋

NVIDIA Jetson Nano 2GB 系列文章(34): DeepStream 安裝Python開發(fā)環(huán)境

NVIDIAJetson Nano 2GB 系列文章(35): Python版test1實戰(zhàn)說明

NVIDIAJetson Nano 2GB 系列文章(36): 加入USB輸入與RTSP輸出

NVIDIAJetson Nano 2GB 系列文章(37): 多網(wǎng)路模型合成功能

NVIDIAJetson Nano 2GB 系列文章(38): nvdsanalytics視頻分析插件

NVIDIAJetson Nano 2GB 系列文章(39): 結合IoT信息傳輸

NVIDIAJetson Nano 2GB 系列文章(40): Jetbot系統(tǒng)介紹

NVIDIAJetson Nano 2GB 系列文章(41): 軟件環(huán)境安裝

NVIDIAJetson Nano 2GB 系列文章(42): 無線WIFI的安裝與調試

NVIDIAJetson Nano 2GB 系列文章(43): CSI攝像頭安裝與測試

NVIDIAJetson Nano 2GB 系列文章(44): Jetson的40針引腳

NVIDIAJetson Nano 2GB 系列文章(45): I2C總線與PiOLED

NVIDIAJetson Nano 2GB 系列文章(46): 機電控制設備的安裝

NVIDIAJetson Nano 2GB 系列文章(47): 組裝過程的注意細節(jié)

NVIDIAJetson Nano 2GB 系列文章(48): 用鍵盤與搖桿控制行動

NVIDIAJetson Nano 2GB 系列文章(49): 智能避撞之現(xiàn)場演示

NVIDIAJetson Nano 2GB 系列文章(50): 智能避障之模型訓練

NVIDIAJetson Nano 2GB 系列文章(51): 圖像分類法實現(xiàn)找路功能

NVIDIAJetson Nano 2GB 系列文章(52): 圖像分類法實現(xiàn)找路功能

NVIDIAJetson Nano 2GB 系列文章(53): 簡化模型訓練流程的TAO工具套件

NVIDIA Jetson Nano 2GB 系列文章(54):NGC的內容簡介與注冊密鑰

NVIDIA Jetson Nano 2GB 系列文章(55):安裝TAO模型訓練工具

NVIDIA Jetson Nano 2GB 系列文章(56):啟動器CLI指令集與配置文件

NVIDIA Jetson Nano 2GB 系列文章(57):視覺類腳本的環(huán)境配置與映射

NVIDIA Jetson Nano 2GB 系列文章(58):視覺類的數(shù)據(jù)格式

NVIDIA Jetson Nano 2GB 系列文章(59):視覺類的數(shù)據(jù)增強

NVIDIA Jetson Nano 2GB 系列文章(60):圖像分類的模型訓練與修剪

NVIDIA Jetson Nano 2GB 系列文章(61):物件檢測的模型訓練與優(yōu)化

NVIDIA Jetson Nano 2GB 系列文章(62):物件檢測的模型訓練與優(yōu)化-2

NVIDIA Jetson Nano 2GB 系列文章(63):物件檢測的模型訓練與優(yōu)化-3

NVIDIA Jetson Nano 2GB 系列文章(64):將模型部署到Jetson設備

NVIDIA Jetson Nano 2GB 系列文章(65):執(zhí)行部署的 TensorRT 加速引擎

NVIDIA Jetson 系列文章(1):硬件開箱

NVIDIA Jetson 系列文章(2):配置操作系統(tǒng)

NVIDIA Jetson 系列文章(3):安裝開發(fā)環(huán)境

NVIDIA Jetson 系列文章(4):安裝DeepStream

NVIDIA Jetson 系列文章(5):使用Docker容器的入門技巧

NVIDIA Jetson 系列文章(6):使用容器版DeepStream

NVIDIA Jetson 系列文章(7):配置DS容器Python開發(fā)環(huán)境

NVIDIA Jetson 系列文章(8):用DS容器執(zhí)行Python范例

NVIDIA Jetson 系列文章(9):為容器接入USB攝像頭

NVIDIA Jetson 系列文章(10):從頭創(chuàng)建Jetson的容器(1)

NVIDIA Jetson 系列文章(11):從頭創(chuàng)建Jetson的容器(2)

NVIDIA Jetson 系列文章(12):創(chuàng)建各種YOLO-l4t容器

NVIDIA Triton系列文章(1):應用概論

NVIDIA Triton系列文章(2):功能與架構簡介

NVIDIA Triton系列文章(3):開發(fā)資源說明

NVIDIA Triton系列文章(4):創(chuàng)建模型倉

NVIDIA Triton 系列文章(5):安裝服務器軟件

NVIDIA Triton 系列文章(6):安裝用戶端軟件


原文標題:NVIDIA Triton 系列文章(7):image_client 用戶端參數(shù)

文章出處:【微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3791

    瀏覽量

    91290

原文標題:NVIDIA Triton 系列文章(7):image_client 用戶端參數(shù)

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    電能管理系統(tǒng)-用戶端智能化用電管理安全、可靠

    云平臺簡介 18702107705 功能: 用戶端消耗著整個電網(wǎng)80%的電能,用戶端智能化用電管理對用戶可靠、安全、節(jié)約用電有十分重要的意義。構建智能用電服務體系,全面推廣用戶端智能儀
    的頭像 發(fā)表于 01-07 11:04 ?106次閱讀
    電能管理系統(tǒng)-<b class='flag-5'>用戶端</b>智能化用電管理安全、可靠

    Triton編譯器的優(yōu)化技巧

    在現(xiàn)代計算環(huán)境中,編譯器的性能對于軟件的運行效率至關重要。Triton 編譯器作為一個先進的編譯器框架,提供了一系列的優(yōu)化技術,以確保生成的代碼既高效又適應不同的硬件架構。 1. 指令選擇
    的頭像 發(fā)表于 12-25 09:09 ?236次閱讀

    Triton編譯器的優(yōu)勢與劣勢分析

    Triton編譯器作為一種新興的深度學習編譯器,具有一系列顯著的優(yōu)勢,同時也存在一些潛在的劣勢。以下是對Triton編譯器優(yōu)勢與劣勢的分析: 優(yōu)勢 高效性能優(yōu)化 : Triton編譯器
    的頭像 發(fā)表于 12-25 09:07 ?273次閱讀

    Triton編譯器在機器學習中的應用

    1. Triton編譯器概述 Triton編譯器是NVIDIA Triton推理服務平臺的一部分,它負責將深度學習模型轉換為優(yōu)化的格式,以便在NVI
    的頭像 發(fā)表于 12-24 18:13 ?403次閱讀

    Triton編譯器支持的編程語言

    Triton編譯器支持的編程語言主要包括以下幾種: 一、主要編程語言 Python :Triton編譯器通過Python接口提供了對Triton語言和編譯器的訪問,使得用戶可以在Pyt
    的頭像 發(fā)表于 12-24 17:33 ?374次閱讀

    Triton編譯器功能介紹 Triton編譯器使用教程

    Triton 是一個開源的編譯器前端,它支持多種編程語言,包括 C、C++、Fortran 和 Ada。Triton 旨在提供一個可擴展和可定制的編譯器框架,允許開發(fā)者添加新的編程語言特性和優(yōu)化技術
    的頭像 發(fā)表于 12-24 17:23 ?443次閱讀

    智能電表用戶端口的折返限流應用說明

    電子發(fā)燒友網(wǎng)站提供《智能電表用戶端口的折返限流應用說明.pdf》資料免費下載
    發(fā)表于 09-13 09:43 ?0次下載
    智能電表<b class='flag-5'>用戶端</b>口的折返限流應用說明

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開源生態(tài)的優(yōu)勢,為廣大 AI 創(chuàng)新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton 推理服務器產品,為
    的頭像 發(fā)表于 09-09 09:19 ?484次閱讀

    牽手NVIDIA 元戎啟行模型將搭載 DRIVE Thor芯片

    NVIDIA的DRIVE Thor芯片適配公司的智能駕駛模型。據(jù)悉,元戎啟行是業(yè)內首批能用 DRIVE Thor芯片適配模型的企
    發(fā)表于 03-25 11:49 ?340次閱讀
    牽手<b class='flag-5'>NVIDIA</b> 元戎啟行<b class='flag-5'>端</b>到<b class='flag-5'>端</b>模型將搭載 DRIVE Thor芯片

    適用于35kV及以下新建或改擴建的用戶端Acrel-2000Z電力監(jiān)控

    的組網(wǎng)方式。 應用場所: 適用于35kV及以下新建或改擴建的用戶端供配電自動化系統(tǒng)工程設計、施工和運行維護。 云平臺結構 云平臺功能 實時監(jiān)測 直觀顯示配電網(wǎng)的運行狀態(tài),實時監(jiān)測各回路電參數(shù)信息,動態(tài)監(jiān)視各配電回路有關故障、告警等信號。
    的頭像 發(fā)表于 03-08 16:56 ?311次閱讀
    適用于35kV及以下新建或改擴建的<b class='flag-5'>用戶端</b>Acrel-2000Z電力監(jiān)控

    使用NVIDIA Triton推理服務器來加速AI預測

    這家云計算巨頭的計算機視覺和數(shù)據(jù)科學服務使用 NVIDIA Triton 推理服務器來加速 AI 預測。
    的頭像 發(fā)表于 02-29 14:04 ?594次閱讀

    在AMD GPU上如何安裝和配置triton

    最近在整理python-based的benchmark代碼,反過來在NV的GPU上又把Triton裝了一遍,發(fā)現(xiàn)Triton的github repo已經(jīng)給出了對應的llvm的commit id以及對應的編譯細節(jié),然后跟著走了一遍,也順利的安裝成功,只需要按照如下方式即可完
    的頭像 發(fā)表于 02-22 17:04 ?2432次閱讀
    在AMD GPU上如何安裝和配置<b class='flag-5'>triton</b>?

    ACRELADL系列多功能電能表在迪拜大廈EMS中的應用

    in Dubai Building’s EMS 摘要:用戶端消耗著整個電網(wǎng)80%的電能,用戶端智能化用電管理對用戶可靠、安全、節(jié)約用電有十分重要的意義。構建智能用電服務體系,推廣用戶端
    的頭像 發(fā)表于 01-30 14:27 ?366次閱讀
    ACRELADL<b class='flag-5'>系列</b>多功能電能表在迪拜大廈EMS中的應用

    利用NVIDIA產品技術組合提升用戶體驗

    本案例通過利用NVIDIA TensorRT-LLM加速指令識別深度學習模型,并借助NVIDIA Triton推理服務器在NVIDIA V100 GPU上進行高效部署,幫助必優(yōu)科技的文
    的頭像 發(fā)表于 01-17 09:30 ?711次閱讀

    CMOS Image sensor的基礎知識

    攝像機用來成像的感光元件叫做Image Sensor或Imager。目前廣泛使用的2種Image Sensor是CCD和CMOS Image Sensor(CIS)。
    的頭像 發(fā)表于 01-15 11:07 ?5280次閱讀
    CMOS <b class='flag-5'>Image</b> sensor的基礎知識
    主站蜘蛛池模板: 清冷受被CAO的合不拢| 肉欲横流(NP高H)| 精品综合久久久久久8888| 国产在线高清视频| 激情内射亚洲一区二区三区| 红尘影院在线观看| 久久精品嫩草影院免费看| 伦理片秋霞免费影院| 女配穿书病娇被强啪h| 日本浴室日产在线系列| 少妇高潮久久久久7777| 小学生偷拍妈妈视频遭性教育| 亚洲AV午夜福利精品香蕉麻豆| 野花韩国高清完整版在线| 69xx欧美| 抽插嫩B乳无码漫| 国产香蕉视频| 快播电影网址| 日韩亚洲视频一区二区三区| 亚洲成年人在线观看| 总攻催眠受的高h巨肉np| YELLOW视频直播在线观看| 国产精品久久久久久久A片冻果| 护士日本xx厕所| 女bbbbxxx孕妇| 羞羞一区二区三区四区片| 在线播放免费人成视频| gayxxxxgay呻吟受日本| 国产精品久久久久久久伊一| 久久国产亚洲精品AV麻豆| 奇米网一区二区三区在线观看| 向日葵视频app下载18岁以下勿看| 一区视频免费观看| 拔萝卜在线高清观看视频| 国产亚洲欧洲日韩在线观看| 美目盼兮amy198281| 丝袜美女自摸| 中文字幕精品视频在线| 国产成人免费片在线视频观看| 久久视频精品38线视频在线观看| 日本19禁啪啪吃奶大尺度|