色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Horizontal Pod Autoscaler的工作原理

馬哥Linux運維 ? 來源:博客園 ? 作者:大數(shù)據(jù)老司機 ? 2022-09-21 10:57 ? 次閱讀

概述

Horizontal Pod Autoscaler(HPA,Pod水平自動伸縮),根據(jù)平均 CPU 利用率、平均內(nèi)存利用率或你指定的任何其他自定義指標自動調(diào)整 Deployment 、ReplicaSet 或 StatefulSet 或其他類似資源,實現(xiàn)部署的自動擴展和縮減,讓部署的規(guī)模接近于實際服務的負載。HPA不適用于無法縮放的對象,例如DaemonSet。

官方文檔:https://kubernetes.io/zh-cn/docs/tasks/run-application/horizontal-pod-autoscale/

實際生產(chǎn)中,一般使用這四類指標:

  • Resource metrics——CPU核 和 內(nèi)存利用率指標。
  • Pod metrics——例如網(wǎng)絡利用率和流量。
  • Object metrics——特定對象的指標,比如Ingress, 可以按每秒使用請求數(shù)來擴展容器。
  • Custom metrics——自定義監(jiān)控,比如通過定義服務響應時間,當響應時間達到一定指標時自動擴容。

安裝 metrics-server

HAP 前提條件

默認情況下,Horizontal Pod Autoscaler 控制器會從一系列的 API 中檢索度量值。集群管理員需要確保下述條件,以保證 HPA 控制器能夠訪問這些 API:

  • 對于資源指標,將使用 metrics.k8s.io API,一般由 metrics-server 提供。它可以作為集群插件啟動。
  • 對于自定義指標,將使用 custom.metrics.k8s.io API。它由其他度量指標方案廠商的“適配器(Adapter)” API 服務器提供。檢查你的指標管道以查看是否有可用的 Kubernetes 指標適配器。
  • 對于外部指標,將使用 external.metrics.k8s.io API。可能由上面的自定義指標適配器提供。
Kubernetes Metrics Server:
  • Kubernetes Metrics Server 是 Cluster 的核心監(jiān)控數(shù)據(jù)的聚合器,kubeadm 默認是不部署的。
  • Metrics Server 供 Dashboard 等其他組件使用,是一個擴展的 APIServer,依賴于 API Aggregator。所以,在安裝 Metrics Server 之前需要先在 kube-apiserver 中開啟 API Aggregator。
  • Metrics API 只可以查詢當前的度量數(shù)據(jù),并不保存歷史數(shù)據(jù)。
  • Metrics API URI 為 /apis/metrics.k8s.io/,在 k8s.io/metrics 下維護。
  • 必須部署 metrics-server 才能使用該 API,metrics-server 通過調(diào)用 kubelet Summary API 獲取數(shù)據(jù)。
開啟 API Aggregator
#添加這行
#--enable-aggregator-routing=true
###修改每個 API Server 的 kube-apiserver.yaml 配置開啟 Aggregator Routing:修改 manifests 配置后 API Server 會自動重啟生效。
cat/etc/kubernetes/manifests/kube-apiserver.yaml

843d6e50-3957-11ed-9e49-dac502259ad0.png

開始安裝 metrics-server

GitHub地址:https://github.com/kubernetes-sigs/metrics-server/releases

下載

wgethttps://github.com/kubernetes-sigs/metrics-server/releases/download/metrics-server-helm-chart-3.8.2/components.yaml

修改

...
template:
metadata:
labels:
k8s-app:metrics-server
spec:
containers:
-args:
---cert-dir=/tmp
---secure-port=4443
---kubelet-preferred-address-types=InternalIP,ExternalIP,Hostname
---kubelet-use-node-status-port
---kubelet-insecure-tls#加上該啟動參數(shù),不加可能會報錯
image:registry.aliyuncs.com/google_containers/metrics-server:v0.6.1#鏡像地址根據(jù)情況修改
imagePullPolicy:IfNotPresent
...
metrics-serverpod無法啟動,出現(xiàn)日志unabletofullycollectmetrics:...x509:cannotvalidatecertificateforbecause...itdoesn'tcontainanyIPSANs...

解決方法:在metrics-server中添加--kubelet-insecure-tls參數(shù)跳過證書校驗

84589e1e-3957-11ed-9e49-dac502259ad0.png

開始安裝
kubectlapply-fcomponents.yaml
kubectlgetpod-nkube-system|grepmetrics-server
#查看
kubectlgetpod-nkube-system|grepmetrics-server
#查看node和pod資源使用情況
kubectltopnodes
kubectltoppods

84726eb6-3957-11ed-9e49-dac502259ad0.png

Horizontal Pod Autoscaler 工作原理

原理架構(gòu)圖

85387098-3957-11ed-9e49-dac502259ad0.png

  • 自動檢測周期由 kube-controller-manager--horizontal-pod-autoscaler-sync-period 參數(shù)設置(默認間隔為 15 秒)。
  • metrics-server 提供 metrics.k8s.io API 為pod資源的使用提供支持。
  • 15s/周期 -> 查詢metrics.k8s.io API -> 算法計算 -> 調(diào)用scale 調(diào)度 -> 特定的擴縮容策略執(zhí)行。
HPA擴縮容算法

從最基本的角度來看,Pod 水平自動擴縮控制器根據(jù)當前指標和期望指標來計算擴縮比例。

期望副本數(shù)=ceil[當前副本數(shù)*(當前指標/期望指標)]
擴容

如果計算出的擴縮比例接近 1.0, 將會放棄本次擴縮, 度量指標 / 期望指標接近1.0。

縮容

冷卻/延遲: 如果延遲(冷卻)時間設置的太短,那么副本數(shù)量有可能跟以前一樣出現(xiàn)抖動。默認值是 5 分鐘(5m0s)--horizontal-pod-autoscaler-downscale-stabilization

特殊處理
  • 丟失度量值:縮小時假設這些 Pod 消耗了目標值的 100%, 在需要放大時假設這些 Pod 消耗了 0% 目標值。這可以在一定程度上抑制擴縮的幅度。
  • 存在未就緒的pod的時候:我們保守地假設尚未就緒的 Pod 消耗了期望指標的 0%,從而進一步降低了擴縮的幅度。
  • 未就緒的 Pod 和缺少指標的 Pod 考慮進來再次計算使用率。如果新的比率與擴縮方向相反,或者在容忍范圍內(nèi),則跳過擴縮。否則,我們使用新的擴縮比例。指定了多個指標, 那么會按照每個指標分別計算擴縮副本數(shù),取最大值進行擴縮。
HPA 對象定義
apiVersion:autoscaling/v2beta2
kind:HorizontalPodAutoscaler
metadata:
name:nginx
spec:
behavior:
scaleDown:
policies:
-type:Pods
value:4
periodSeconds:60
-type:Percent
value:10
periodSeconds:60
stabilizationWindowSeconds:300

scaleTargetRef:
apiVersion:apps/v1
kind:Deployment
name:nginx
minReplicas:1
maxReplicas:10
metrics:
-type:Resource
resource:
name:cpu
target:
type:Utilization
averageUtilization:50

HPA對象默認行為

behavior:
scaleDown:
stabilizationWindowSeconds:300
policies:
-type:Percent
value:100
periodSeconds:15
scaleUp:
stabilizationWindowSeconds:0
policies:
-type:Percent
value:100
periodSeconds:15
-type:Pods
value:4
periodSeconds:15
selectPolicy:Max

示例演示

編排yaml
apiVersion:autoscaling/v2
kind:HorizontalPodAutoscaler
metadata:
name:hap-nginx
spec:
maxReplicas:10#最大擴容到10個節(jié)點(pod)
minReplicas:1#最小擴容1個節(jié)點(pod)
metrics:
-resource:
name:cpu
target:
averageUtilization:40#CPU平局資源使用率達到40%就開始擴容,低于40%就是縮容
#設置內(nèi)存
# AverageValue:40
type:Utilization
type:Resource
scaleTargetRef:
apiVersion:apps/v1
kind:Deployment
name:hap-nginx
---
apiVersion:v1
kind:Service
metadata:
name:hap-nginx
spec:
type:NodePort
ports:
-name:"http"
port:80
targetPort:80
nodePort:30080
selector:
service:hap-nginx
---
apiVersion:apps/v1
kind:Deployment
metadata:
name:hap-nginx
spec:
replicas:1
selector:
matchLabels:
service:hap-nginx
template:
metadata:
labels:
service:hap-nginx
spec:
containers:
-name:hap-nginx
image:nginx:latest
resources:
requests:
cpu:100m
memory:100Mi
limits:
cpu:200m
memory:200Mi

主要參數(shù)解釋如下:

  • scaleTargetRef:目標作用對象,可以是Deployment、ReplicationController或ReplicaSet。
  • minReplicas和maxReplicas:Pod副本數(shù)量的最小值和最大值,系統(tǒng)將在這個范圍內(nèi)進行自動擴縮容操作,并維持每個Pod的內(nèi)存使用率為40%,這個值就是上面設置的閾值averageUtilization。
  • metrics:目標指標值。在metrics中通過參數(shù)type定義指標的類型;通過參數(shù)target定義相應的指標目標值,系統(tǒng)將在指標數(shù)據(jù)達到目標值時(考慮容忍度的區(qū)間,見前面算法部分的說明)觸發(fā)擴縮容操作。
  • 對于CPU使用率,在target參數(shù)中設置averageUtilization定義目標平均CPU使用率。
  • 對于內(nèi)存資源,在target參數(shù)中設置AverageValue定義目標平均內(nèi)存使用值。
執(zhí)行
kubectlapply-ftest.yaml
使用 ab 工具進行壓測

進入apache官網(wǎng) http://httpd.apache.org/ 下載apache即可,或者直接通過yum安裝apache都行,這里選擇最簡單的方式y(tǒng)um安裝

yuminstallhttpd-y

開始壓測

ab-n100000-c800http://local-168-182-112:30080/

#-c:并發(fā)數(shù)
#-n:總請求數(shù)

8586720c-3957-11ed-9e49-dac502259ad0.png

85b7537c-3957-11ed-9e49-dac502259ad0.png

從上圖發(fā)現(xiàn)已經(jīng)實現(xiàn)了根據(jù)CPU 動態(tài)擴容了,關(guān)于更多 HAP相關(guān)的知識點,可以先查看官方文檔。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10855

    瀏覽量

    211590
  • kubernetes
    +關(guān)注

    關(guān)注

    0

    文章

    224

    瀏覽量

    8712

原文標題:K8s pod 動態(tài)彈性擴縮容 HAP(metrics-server)

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    感光太陽能燈工作原理。#工作原理大揭秘

    太陽工作原理DIY
    jf_24750660
    發(fā)布于 :2022年11月07日 22:26:04

    從零開始入門 K8s| 詳解 Pod 及容器設計模式

    或者另外像 Sidecar 的方式去解決;當然還有一個典型例子就是我的日志收集,日志收集本身是一個進程,是一個小容器,那么就可以把它打包進 Pod 里面去做這個收集工作;還有一個非常重要的東西就是
    發(fā)表于 09-20 15:12

    Pod資源配置

    《Kubernetes進階實戰(zhàn)》第四章《管理Pod資源對象》
    發(fā)表于 10-22 14:39

    Land Pattern and POD

    Land Pattern and POD
    發(fā)表于 03-05 15:59 ?0次下載
    Land Pattern and <b class='flag-5'>POD</b>

    Kubernetes組件pod核心原理

    1. 核心組件原理 —— pod 核心原理 1.1 pod 是什么 pod 也可以理解是一個容器,裝的是 docker 創(chuàng)建的容器,也就是用來封裝容器的一個容器; pod 是一個虛擬化
    的頭像 發(fā)表于 09-02 09:27 ?1821次閱讀

    pod底層網(wǎng)絡和數(shù)據(jù)存儲是如何進行的

    1. 核心組件原理 —— pod 核心原理 1.1 pod 是什么 pod 也可以理解是一個容器,裝的是 docker 創(chuàng)建的容器,也就是用來封裝容器的一個容器; pod 是一個虛擬化
    的頭像 發(fā)表于 09-24 11:35 ?1681次閱讀

    如何利用Docker實現(xiàn)Pod

    Container 和 Pod 是相似的。在底層,它們主要依賴 Linux 命名空間和 cgroup。但是,Pod 不僅僅是一組容器。Pod 是一個自給自足的高級構(gòu)造。
    發(fā)表于 11-14 12:51 ?1395次閱讀

    Kubernetes中的Pod簡易理解

    Pod是Kubernetes中非常重要的概念,也是Kubernetes管理的基本單位。正如其名,Pod像一個豌豆莢,可以容納多個container,擁有相同的IP地址。
    的頭像 發(fā)表于 02-15 10:44 ?1271次閱讀

    什么是CNI,基于Calico的Pod網(wǎng)絡介紹

    每一個Node上都會有一個tunl0的虛擬網(wǎng)卡,這個網(wǎng)卡可以理解成網(wǎng)橋,所有Pod都要基于此網(wǎng)橋來和其它Pod通信。 ② 每生成一個新的Pod,那么在Node上都會生成一個calixxxx的虛擬網(wǎng)卡,這個網(wǎng)卡會對應到
    發(fā)表于 04-20 09:37 ?2339次閱讀

    k8s與pod之間是如何進行網(wǎng)絡隔離的?

    NetworkPolicy用來控制PodPod之間的網(wǎng)絡通信,它也支持針對Namespace進行限制。
    的頭像 發(fā)表于 05-11 09:35 ?1548次閱讀
    k8s與<b class='flag-5'>pod</b>之間是如何進行網(wǎng)絡隔離的?

    Kubernetes Pod如何獨立工作

    在學習 Kubernetes 網(wǎng)絡模型的過程中,了解各種網(wǎng)絡組件的作用以及如何交互非常重要。本文就介紹了各種網(wǎng)絡組件在 Kubernetes 集群中是如何交互的,以及如何幫助每個 Pod 都能獲取 IP 地址。
    的頭像 發(fā)表于 05-16 14:29 ?621次閱讀
    Kubernetes <b class='flag-5'>Pod</b>如何獨立<b class='flag-5'>工作</b>

    initContainer工作原理

    一、initContainer工作原理 初始化容器是在pod的主容器啟動之前要運行的容器,主要是做一些 主容器的前置工作 ,它具有兩大特征: 1、初始化容器必須運行完成直至結(jié)束,若某初始化容器運行
    的頭像 發(fā)表于 05-30 09:49 ?679次閱讀
    initContainer<b class='flag-5'>工作原理</b>

    POD到底是什么?聊聊POD

    POD,即Plain Old Data的縮寫,plain代表普通,Old代表舊,從字面意思看是老的、普通的數(shù)據(jù)類型。
    的頭像 發(fā)表于 06-19 15:24 ?5482次閱讀

    Pod是如何在底層實現(xiàn)的?如何使用Docker創(chuàng)建Pod

    剛開始接觸 Kubernetes 時,你學到的第一件事就是每個 Pod 都有一個唯一的 IP 和主機名,并且在同一個 Pod 中,容器可以通過 localhost 相互通信。所以,顯而易見,一個 Pod 就像一個微型的服務器。
    的頭像 發(fā)表于 08-14 10:33 ?1293次閱讀
    <b class='flag-5'>Pod</b>是如何在底層實現(xiàn)的?如何使用Docker創(chuàng)建<b class='flag-5'>Pod</b>?

    Pod一直處于Pending狀態(tài)?什么是Pod拓撲約束?

    起因: 今天在部署組件的時候,發(fā)現(xiàn)組件的pod一直處于Pending狀態(tài),報錯顯示的原因是:不滿足Pod拓撲分布約束,看了代碼發(fā)現(xiàn)是原來同事給組件新增了Pod拓撲約束。
    的頭像 發(fā)表于 12-18 11:46 ?1203次閱讀
    <b class='flag-5'>Pod</b>一直處于Pending狀態(tài)?什么是<b class='flag-5'>Pod</b>拓撲約束?
    主站蜘蛛池模板: 欧美日韩亚洲一区视频二区| 国产欧美日韩网站| 2022年国产精品久久久久 | 成人18视频在线观看| 最近中文字幕免费高清MV视频 | 久久香蕉国产线看观看首页| 国产午夜久久影院| 国产精品-区区久久久狼| 高H高肉强J短篇NP| 俄罗斯大白屁股| 冈本视频黄页正版| 国产成人ae在线观看网站站 | 一个人HD在线观看免费高清视频 | 欧美重口绿帽video| 欧美大jiji| 欧美性受xxxx狂喷水| 欧美尤物射精集锦| 日韩hd高清xxxⅹ| 色翁荡熄月月| 午夜亚洲WWW湿好爽| 我的好妈妈BD免费观看 | 老头狠狠挺进小莹体内视频| 快乐激情站| 蜜柚在线观看免费高清官网视频 | 教室眠催白丝美女校花| 果冻传媒视频在线观看完整版免费 | 日本午夜视频在线| 色橹| 亚洲AV福利天堂一区二区三| 亚洲成人免费在线| 亚洲色偷偷偷网站色偷一区人人藻 | 国语精彩对白2021| 精品国产在天天线在线麻豆| 久久香蕉国产线看观看| 欧美极品尿交| 天天综合网网欲色| 妖精视频免费看| 99国产精品| 国产超碰精久久久久久无码AV| 国产精品乱人无码伦AV在线A| 国产午夜亚洲精品一区|