色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何簡化Kubernetes中的GPU管理

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Pramod Ramarao ? 2022-04-27 14:44 ? 次閱讀

在過去的幾年里, NVIDIA 以各種方式利用 GPU 容器來測試、開發(fā)和大規(guī)模運(yùn)行生產(chǎn)中的 AI 工作負(fù)載。為 NVIDIA GPUs 優(yōu)化的容器和 DGX 和 OEM NGC Ready 服務(wù)器等系統(tǒng)可作為 NGC 的一部分提供。

但是用 GPUs 可靠地提供服務(wù)器并擴(kuò)展人工智能應(yīng)用程序可能會很棘手。 Kubernetes 憑借其豐富的應(yīng)用程序可擴(kuò)展性和高性能特性迅速構(gòu)建在其平臺上。

Kubernetes 通過設(shè)備插件 框架 提供對特殊硬件資源的訪問,如 NVIDIA GPUs 、 NICs 、 Infiniband 適配器和其他設(shè)備。但是,使用這些硬件資源配置和管理節(jié)點(diǎn)需要配置多個軟件組件,例如驅(qū)動程序、容器運(yùn)行時或其他庫,這些組件很難并且容易出錯。

Kubernetes 中的 運(yùn)營商框架 采用操作業(yè)務(wù)邏輯,并允許使用標(biāo)準(zhǔn)的 Kubernetes API 和 kubectl 創(chuàng)建用于在 Kubernetes 內(nèi)部署應(yīng)用程序的自動化框架。這里介紹的 NVIDIA GPU 操作程序基于操作員框架,并自動管理所有 NVIDIA 軟件在 Kubernetes 中提供 GPUs 所需的組件。 NVIDIA 、 redhat 和社區(qū)中的其他人合作創(chuàng)建了 GPU 操作符。 GPU 運(yùn)營商是 NVIDIA EGX 軟件定義平臺的一個重要組成部分,該平臺旨在使大規(guī)模混合云和邊緣操作成為可能和高效。

NVIDIA GPU 操作員

要在 Kubernetes 集群中配置 GPU 個工作節(jié)點(diǎn),需要以下 NVIDIA 軟件組件 – 驅(qū)動程序、容器運(yùn)行時、設(shè)備插件和監(jiān)控。如圖 1 所示,這些組件需要在集群可用的 GPU 資源之前手動配置,并且在集群運(yùn)行期間也需要進(jìn)行管理。 GPU 運(yùn)營商通過將所有組件打包并使用標(biāo)準(zhǔn) Kubernetes api 自動化和管理這些組件(包括版本控制和升級),簡化了組件的初始部署和管理。 GPU 操作符是完全開源的,可以在我們的 GitHub 庫 上使用。

pYYBAGJo6O6Af7zrAABTvi4oosg452.png

圖 1 手動安裝(某些組件需要安裝在裸金屬上)與 GPU 操作員使用全集裝箱化組件進(jìn)行自動化的對比

操作員狀態(tài)機(jī)

GPU 運(yùn)算符基于 Kubernetes 中的 運(yùn)營商框架 。操作符被構(gòu)建為一個新的自定義資源定義( CRD ) API ,并帶有相應(yīng)的控制器。該操作符在自己的命名空間(稱為“ GPU -operator ”)中運(yùn)行,底層的 NVIDIA 組件在單獨(dú)的命名空間中編排(稱為“ GPU -operator resources ”)。與 Kubernetes 中的任何標(biāo)準(zhǔn)操作符一樣,控制器監(jiān)視名稱空間的更改,并使用協(xié)調(diào)循環(huán)(通過 reconcile ()函數(shù))來實(shí)現(xiàn)一個簡單的狀態(tài)機(jī)來啟動每個 NVIDIA 組件。狀態(tài)機(jī)在每個狀態(tài)下都包含一個驗(yàn)證步驟,如果失敗,協(xié)調(diào)循環(huán)將退出并返回錯誤。如圖 2 所示。

poYBAGJo6PSAdKLoAABfc5b3gPQ207.png

圖 2 GPU 操作員狀態(tài)機(jī)

GPU 運(yùn)算符應(yīng)該在配備了 GPUs 的節(jié)點(diǎn)上運(yùn)行。為了確定哪些節(jié)點(diǎn)具有 GPUs ,操作符依賴于 Kubernetes 中的 節(jié)點(diǎn)功能發(fā)現(xiàn) ( NFD )。 NFD worker 檢測節(jié)點(diǎn)上的各種硬件功能–例如, PCIe 設(shè)備標(biāo)識、內(nèi)核版本、內(nèi)存和其他屬性。然后它使用節(jié)點(diǎn)標(biāo)簽向 Kubernetes 發(fā)布這些特性。然后, GPU 操作員使用這些節(jié)點(diǎn)標(biāo)簽(通過檢查 PCIe 設(shè)備 id )來確定是否應(yīng)在節(jié)點(diǎn)上配置 NVIDIA 軟件組件。在這個初始版本中, GPU 操作員當(dāng)前部署了 NVIDIA 容器運(yùn)行時 、 NVIDIA 集裝箱驅(qū)動程序 和 NVIDIA 調(diào)速器設(shè)備插件 。未來,運(yùn)營商還將管理其他組件,如 基于 DCGM 監(jiān)控。

讓我們簡單地看一下不同的狀態(tài)。

狀態(tài)容器工具包

此狀態(tài)將部署一個守護(hù)進(jìn)程,該守護(hù)進(jìn)程通過 容器 在主機(jī)系統(tǒng)上安裝 NVIDIA 容器運(yùn)行時。守護(hù)進(jìn)程使用 NFD 標(biāo)簽中的 PCIe 設(shè)備 id ,僅在具有 GPU 資源的節(jié)點(diǎn)上安裝運(yùn)行時。 PCIe 設(shè)備 id 0x10DE 是 NVIDIA 的供應(yīng)商 id 。

nodeSelector: feature.node.kubernetes.io/pci-10de.present: “true”

狀態(tài)驅(qū)動程序

此狀態(tài)將部署一個帶有容器化的 NVIDIA 驅(qū)動程序的守護(hù)進(jìn)程。您可以閱讀有關(guān)驅(qū)動程序容器 在這里 的更多信息。在啟動時,驅(qū)動程序容器可以構(gòu)建最終的 NVIDIA 內(nèi)核模塊,并將它們加載到主機(jī)上的 Linux 內(nèi)核中,以準(zhǔn)備運(yùn)行 CUDA 應(yīng)用程序并在后臺運(yùn)行。驅(qū)動程序容器包括應(yīng)用程序所需的驅(qū)動程序的用戶模式組件。同樣,守護(hù)進(jìn)程使用 NFD 標(biāo)簽來選擇要在其上部署驅(qū)動程序容器的節(jié)點(diǎn)。

狀態(tài)驅(qū)動程序驗(yàn)證

如上所述,操作員狀態(tài)機(jī)包括驗(yàn)證步驟,以確保組件已成功啟動。操作員調(diào)度一個簡單的 CUDA 工作負(fù)載(在本例中是一個 vectorAdd 示例)。如果應(yīng)用程序運(yùn)行時沒有任何錯誤,則容器狀態(tài)為“成功”。

狀態(tài)設(shè)備插件

此狀態(tài)為 NVIDIA Kubernetes 設(shè)備插件部署守護(hù)進(jìn)程。它將節(jié)點(diǎn)上的 GPUs 列表注冊到 kubelet 中,這樣就可以將 GPUs 分配給 CUDA 個工作負(fù)載。

狀態(tài)設(shè)備插件驗(yàn)證

在這種狀態(tài)下,驗(yàn)證容器請求 Kubernetes 分配 GPU ,并運(yùn)行一個簡單的 CUDA 工作負(fù)載(如上所述),以檢查設(shè)備插件是否注冊了資源列表以及工作負(fù)載是否成功運(yùn)行(即容器狀態(tài)為“ Success ”)。

為了簡化 GPU 操作員本身的部署, NVIDIA 提供了一個舵圖。用戶可以使用驅(qū)動程序自定義的插件版本(值。 yaml )在舵圖上。然后,操作員使用模板值在節(jié)點(diǎn)上提供所需的軟件版本。這為用戶提供了一個參數(shù)化級別。

運(yùn)行 GPU 運(yùn)算符

讓我們快速了解一下如何部署 GPU 操作符并運(yùn)行 CUDA 工作負(fù)載。在這一點(diǎn)上,我們假設(shè)您有一個 Kubernetes 集群在運(yùn)行(即主控制平面可用,工作節(jié)點(diǎn)已經(jīng)加入集群)。為了讓這篇博文更簡單,我們將使用一個運(yùn)行 ubuntu18.04 。 3lts 的 NVIDIA Tesla T4GPU 的單節(jié)點(diǎn) Kubernetes 集群。

GPU 操作符本身并沒有解決 Kubernetes 集群的設(shè)置問題,目前有很多解決方案 可獲得的 可以用于此目的。 NVIDIA 正在與不同的合作伙伴合作,將 GPU 運(yùn)營商整合到他們管理 GPUs 的解決方案中。

讓我們驗(yàn)證一下我們的 Kubernetes 集群(以及帶有 Tiller 的 Helm 設(shè)置)是否可以運(yùn)行。請注意,雖然節(jié)點(diǎn)有一個 GPU ,但節(jié)點(diǎn)上沒有部署 NVIDIA 軟件組件–我們將使用 GPU 操作符來配置組件。

$ sudo kubectl get pods --all-namespaces NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system calico-kube-controllers-6fcc7d5fd6-n2dnt 1/1 Running 0 6m45s
kube-system calico-node-77hjv 1/1 Running 0 6m45s
kube-system coredns-5c98db65d4-cg6st 1/1 Running 0 7m10s
kube-system coredns-5c98db65d4-kfl6v 1/1 Running 0 7m10s
kube-system etcd-ip-172-31-5-174 1/1 Running 0 6m5s
kube-system kube-apiserver-ip-172-31-5-174 1/1 Running 0 6m11s
kube-system kube-controller-manager-ip-172-31-5-174 1/1 Running 0 6m26s
kube-system kube-proxy-mbnsg 1/1 Running 0 7m10s
kube-system kube-scheduler-ip-172-31-5-174 1/1 Running 0 6m18s
kube-system tiller-deploy-8557598fbc-hrrhd 1/1 Running 0 21s

一個單節(jié)點(diǎn) Kubernetes 集群(主節(jié)點(diǎn)未被污染,因此可以運(yùn)行工作負(fù)載)

$ kubectl get nodes
NAME STATUS ROLES AGE VERSION
ip-172-31-5-174 Ready master 3m2s v1.15.3

我們可以看到節(jié)點(diǎn)有一個 NVIDIA GPU ,但沒有安裝驅(qū)動程序或其他軟件工具。

$ lspci | grep -i nvidia
00:1e.0 3D controller: NVIDIA Corporation Device 1eb8 (rev a1) $ nvidia-smi
nvidia-smi: command not found

作為先決條件,讓我們確保在系統(tǒng)上設(shè)置了一些內(nèi)核模塊。這些模塊的 NVIDIA 依賴于某些驅(qū)動程序。

$ sudo modprobe -a i2c_core ipmi_msghandler

現(xiàn)在,讓我們繼續(xù)部署 GPU 操作符。為此,我們將使用 NGC 提供的舵面圖。首先,添加 Helm 回購:

$ helm repo add nvidia https://helm.ngc.nvidia.com/nvidia
"nvidia" has been added to your repositories $ helm repo update
Hang tight while we grab the latest from your chart repositories...
...Skip local chart repository
...Successfully got an update from the "nvidia" chart repository
...Successfully got an update from the "stable" chart repository
Update Complete.

然后用圖表部署操作員

$ helm install --devel nvidia/gpu-operator -n test-operator --wait
$ kubectl apply -f https://raw.githubusercontent.com/NVIDIA/gpu-operator/master/manifests/cr/sro_cr_sched_none.yaml
specialresource.sro.openshift.io/gpu created

我們可以驗(yàn)證 GPU 操作符是否在它自己的命名空間中運(yùn)行,并且正在監(jiān)視另一個命名空間中的組件。

$ kubectl get pods -n gpu-operator
NAME READY STATUS RESTARTS AGE
special-resource-operator-7654cd5d88-w5jbf 1/1 Running 0 98s

幾分鐘后, GPU 操作員將部署所有 NVIDIA 軟件組件。輸出還顯示了作為 GPU 操作符狀態(tài)機(jī)一部分運(yùn)行的驗(yàn)證容器。示例 CUDA 容器( vectorAdd )已作為狀態(tài)機(jī)的一部分成功完成。

$ kubectl get pods -n gpu-operator-resources
NAME READY STATUS RESTARTS AGE
nvidia-container-toolkit-daemonset-wwzfn 1/1 Running 0 3m36s
nvidia-device-plugin-daemonset-pwfq7 1/1 Running 0 101s
nvidia-device-plugin-validation 0/1 Completed 0 92s
nvidia-driver-daemonset-skpn7 1/1 Running 0 3m27s
nvidia-driver-validation 0/1 Completed 0 3m $ kubectl -n gpu-operator-resources logs -f nvidia-device-plugin-validation
[Vector addition of 50000 elements]
Copy input data from the host memory to the CUDA device
CUDA kernel launch with 196 blocks of 256 threads
Copy output data from the CUDA device to the host memory
Test PASSED
Done

我們還可以看到 NFD 用不同的屬性標(biāo)記了節(jié)點(diǎn)。已為 NVIDIA GPU 設(shè)置了具有 PCIe 設(shè)備 id 0x10DE 的節(jié)點(diǎn)標(biāo)簽。

$ kubectl -n node-feature-discovery logs -f nfd-worker-zsjsp
2019/10/21 00:46:25 cpu-cpuid.AVX512F = true
2019/10/21 00:46:25 cpu-hardware_multithreading = true
2019/10/21 00:46:25 cpu-cpuid.AVX = true
2019/10/21 00:46:25 cpu-cpuid.AVX512VL = true
2019/10/21 00:46:25 cpu-cpuid.AVX512CD = true
2019/10/21 00:46:25 cpu-cpuid.AVX2 = true
2019/10/21 00:46:25 cpu-cpuid.FMA3 = true
2019/10/21 00:46:25 cpu-cpuid.ADX = true
2019/10/21 00:46:25 cpu-cpuid.AVX512DQ = true
2019/10/21 00:46:25 cpu-cpuid.AESNI = true
2019/10/21 00:46:25 cpu-cpuid.AVX512BW = true
2019/10/21 00:46:25 cpu-cpuid.MPX = true
2019/10/21 00:46:25 kernel-config.NO_HZ = true
2019/10/21 00:46:25 kernel-config.NO_HZ_IDLE = true
2019/10/21 00:46:25 kernel-version.full = 4.15.0-1051-aws
2019/10/21 00:46:25 kernel-version.major = 4
2019/10/21 00:46:25 kernel-version.minor = 15
2019/10/21 00:46:25 kernel-version.revision = 0
2019/10/21 00:46:25 pci-10de.present = true
2019/10/21 00:46:25 pci-1d0f.present = true
2019/10/21 00:46:25 storage-nonrotationaldisk = true
2019/10/21 00:46:25 system-os_release.ID = ubuntu
2019/10/21 00:46:25 system-os_release.VERSION_ID = 18.04
2019/10/21 00:46:25 system-os_release.VERSION_ID.major = 18
2019/10/21 00:46:25 system-os_release.VERSION_ID.minor = 04

讓我們啟動一個 TensorFlow 筆記本。 GitHub repo 上有一個示例清單,讓我們使用它

$ kubectl apply -f https://nvidia.github.io/gpu-operator/notebook-example.yml

一旦 pod 被創(chuàng)建,我們就可以使用令牌在瀏覽器窗口中查看筆記本。

$ kubectl logs -f tf-notebook
[C 02:52:44.849 NotebookApp] Copy/paste this URL into your browser when you connect for the first time, to login with a token: http://localhost:8888/?token=b7881f90dfb6c8c5892cff7e8232684f201c846c48da81c9

我們可以使用端口轉(zhuǎn)發(fā)或使用節(jié)點(diǎn)端口 30001 到達(dá)容器。使用上面日志中的 URL 在瀏覽器中打開 Jupyter 筆記本。

$ kubectl port-forward tf-notebook 8888:8888

現(xiàn)在您可以看到 Jupyter 主頁并繼續(xù)您的工作流 – 所有這些都在 Kubernetes 中運(yùn)行,并通過 GPUs 加速!

結(jié)論

如果您有任何問題或意見,請在下面的評論部分留下。對于有關(guān)安裝和使用的技術(shù)問題,我們建議在 GitHub 上提交一個問題。

關(guān)于作者

Pramod Ramarao 是 NVIDIA 加速計算的產(chǎn)品經(jīng)理。他領(lǐng)導(dǎo) CUDA 平臺和數(shù)據(jù)中心軟件的產(chǎn)品管理,包括容器技術(shù)。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4994

    瀏覽量

    103195
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4743

    瀏覽量

    129008
  • CUDA
    +關(guān)注

    關(guān)注

    0

    文章

    121

    瀏覽量

    13641
收藏 人收藏

    評論

    相關(guān)推薦

    Kubernetes的CNI網(wǎng)絡(luò)插件之flannel

    Kubernetes設(shè)計了網(wǎng)絡(luò)模型,但卻將它的實(shí)現(xiàn)講給了網(wǎng)絡(luò)插件,CNI網(wǎng)絡(luò)插件最重要的功能就是實(shí)現(xiàn)Pod資源能夠跨主機(jī)通信。
    的頭像 發(fā)表于 01-02 09:43 ?124次閱讀

    艾體寶與Kubernetes原生數(shù)據(jù)平臺AppsCode達(dá)成合作

    虹科姐妹公司艾體寶宣布與Kubernetes 原生數(shù)據(jù)平臺 AppsCode達(dá)成正式合作,致力于將其核心產(chǎn)品KubeDB引入中國市場,為企業(yè)提供專業(yè)、高效的云原生數(shù)據(jù)庫管理解決方案。
    的頭像 發(fā)表于 12-16 15:07 ?251次閱讀

    《CST Studio Suite 2024 GPU加速計算指南》

    GPU不能在單個主機(jī)系統(tǒng)組合使用。 - AMD GPU:目前只有時域求解器(FIT)支持AMD GPU,如Instinct MI 210、Radeon VII等,并給出了相關(guān)規(guī)格
    發(fā)表于 12-16 14:25

    GPU在虛擬現(xiàn)實(shí)的表現(xiàn) 低功耗GPU的優(yōu)缺點(diǎn)

    GPU在虛擬現(xiàn)實(shí)的表現(xiàn) 虛擬現(xiàn)實(shí)(VR)技術(shù)的發(fā)展離不開高性能的圖形處理單元(GPU)。GPU在VR扮演著至關(guān)重要的角色,它負(fù)責(zé)渲染復(fù)雜
    的頭像 發(fā)表于 11-19 10:58 ?364次閱讀

    GPU在深度學(xué)習(xí)的應(yīng)用 GPUs在圖形設(shè)計的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動技術(shù)進(jìn)步的重要力量。GPU(圖形處理單元)在深度學(xué)習(xí)扮演著至關(guān)重要的角色,其強(qiáng)大的并行處理能力使得訓(xùn)練復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型成為可能
    的頭像 發(fā)表于 11-19 10:55 ?559次閱讀

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】--了解算力芯片GPU

    本篇閱讀學(xué)習(xí)第七、八章,了解GPU架構(gòu)演進(jìn)及CPGPU存儲體系與線程管理 █從圖形到計算的GPU架構(gòu)演進(jìn) GPU圖像計算發(fā)展 ●從三角形開始的幾何階段 在現(xiàn)代圖形渲染
    發(fā)表于 11-03 12:55

    GPU算力租用平臺怎么樣

    GPU算力租用平臺以其成本效益、靈活性與可擴(kuò)展性、簡化運(yùn)維以及即時訪問等優(yōu)勢,在深度學(xué)習(xí)、科學(xué)計算、圖形渲染等多個領(lǐng)域發(fā)揮著重要作用。
    的頭像 發(fā)表于 10-17 10:03 ?230次閱讀

    奧迪借助Microsoft Intune簡化終端管理平臺

    “奧迪向來關(guān)注技術(shù)創(chuàng)新帶給人的感受?!眾W迪IT供給部門負(fù)責(zé)人Stefan Lenz說,“因此,在推動IT設(shè)備管理平臺升級的過程,我們也始終將員工的用戶體驗(yàn)擺在第一位。我們需要一套更高效的設(shè)備管理
    的頭像 發(fā)表于 08-20 09:53 ?570次閱讀

    使用Velero備份Kubernetes集群

    Velero 是 heptio 團(tuán)隊(被 VMWare 收購)開源的 Kubernetes 集群備份、遷移工具。
    的頭像 發(fā)表于 08-05 15:43 ?372次閱讀
    使用Velero備份<b class='flag-5'>Kubernetes</b>集群

    如何使用Kubeadm命令在PetaExpress Ubuntu系統(tǒng)上安裝Kubernetes集群

    Kubernetes,通常縮寫為K8s,是一個開源的容器編排平臺,旨在自動化容器化應(yīng)用的部署、擴(kuò)展和管理。有了Kubernetes,您可以輕松地部署、更新和擴(kuò)展應(yīng)用,而無需擔(dān)心底層基礎(chǔ)設(shè)施。
    的頭像 發(fā)表于 07-15 13:31 ?878次閱讀
    如何使用Kubeadm命令在PetaExpress Ubuntu系統(tǒng)上安裝<b class='flag-5'>Kubernetes</b>集群

    基于DPU的云原生計算資源共池管理解決方案

    項目,它提供了部署和管理大規(guī)模計算、存儲、網(wǎng)絡(luò)等基礎(chǔ)設(shè)施的一整套軟件堆棧。在OpenStack技術(shù)棧,Nova服務(wù)主要負(fù)責(zé)管理虛擬化云主機(jī),而Ironic服務(wù)則專注于裸金屬資源的管理
    的頭像 發(fā)表于 07-09 11:52 ?1147次閱讀
    基于DPU的云原生計算資源共池<b class='flag-5'>管理</b>解決方案

    為什么GPU對AI如此重要?

    GPU在人工智能相當(dāng)于稀土金屬,甚至黃金,它們在當(dāng)今生成式人工智能時代的作用不可或缺。那么,為什么GPU在人工智能發(fā)展如此重要呢?什么
    的頭像 發(fā)表于 05-17 08:27 ?710次閱讀
    為什么<b class='flag-5'>GPU</b>對AI如此重要?

    FPGA在深度學(xué)習(xí)應(yīng)用或?qū)⑷〈?b class='flag-5'>GPU

    硬件公司供貨的不斷增加,GPU 在深度學(xué)習(xí)的市場需求還催生了大量公共云服務(wù),這些服務(wù)為深度學(xué)習(xí)項目提供強(qiáng)大的 GPU 虛擬機(jī)。 但是顯卡也受硬件和環(huán)境的限制。Larzul 解釋說:“神經(jīng)網(wǎng)絡(luò)訓(xùn)練
    發(fā)表于 03-21 15:19

    GPU計算在汽車的應(yīng)用

    CDC中進(jìn)行圖形處理的需求預(yù)計將增長。不過,GPU完全可以支持另一個新興的處理需求:ADAS。正如在其他行業(yè)(例如數(shù)據(jù)中心)顯而易見的那樣,GPU不僅僅適用于圖
    的頭像 發(fā)表于 01-17 08:27 ?471次閱讀
    <b class='flag-5'>GPU</b>計算在汽車<b class='flag-5'>中</b>的應(yīng)用

    Kubernetes Gateway API攻略教程

    Kubernetes Gateway API 剛剛 GA,旨在改進(jìn)將集群服務(wù)暴露給外部的過程。這其中包括一套更標(biāo)準(zhǔn)、更強(qiáng)大的 API資源,用于管理已暴露的服務(wù)。在這篇文章,我將介紹 Gateway
    的頭像 發(fā)表于 01-12 11:32 ?902次閱讀
    <b class='flag-5'>Kubernetes</b> Gateway API攻略教程
    主站蜘蛛池模板: 亚洲一区免费在线观看| 美女快播第一网| 内地同志男16china16| 一本道无码v亚洲| 国产免费高清mv视频在线观看| 强奸日本美女小游戏| 中文字幕伊人香蕉在线| 国语92电影网午夜福利| 天天躁日日躁狠狠躁中文字幕老牛 | 波多野结衣教师系列6| 麻豆成人久久精品二区三区网站 | 国产精品无码人妻99999| 色偷偷男人的天堂a v| 国产AV无码熟妇人妻麻豆| 色狠狠一区二区| 国产成人在线视频播放| 玩高中女同桌肉色短丝袜脚文| 国产 精品 亚洲 欧美 高清| 色久天| 动漫成人片| 翁公吮她的花蒂和奶水| 国产色婷婷精品人妻蜜桃成熟| 午夜影院视费x看| 火影忍者高清无码黄漫| 中文字幕亚洲男人的天堂网络| 美女脱光app| 成人免费精品视频| 我的奶头被客人吸的又肿又红| 国产手机在线精品| 亚洲欧美一区二区久久| 麻豆AV无码精品一区二区| black大战chinese周晓琳| 色丁香婷婷综合缴情综| 国产婷婷色综合AV蜜臀AV| 一本色道久久综合亚洲AV蜜桃| 快播成电影人网址| 成人性生交大片免费看中文| 亚洲精品国产精品精| 免费观看视频成人国产| 国产成人久久精品激情| 一个吃奶两个添下面H|