色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

全面剖析HAProxy 負載均衡器

馬哥Linux運維 ? 來源:DevOps技術棧 ? 作者:DevOps技術棧 ? 2021-06-28 09:22 ? 次閱讀

HAProxy是什么

HAProxy 是一個免費的負載均衡軟件,可以運行于大部分主流的 Linux 操作系統上。

HAProxy 提供了L4(TCP)和L7(HTTP)兩種負載均衡能力,具備豐富的功能。

HAProxy 的社區非常活躍,版本更新快速(最新穩定版1.7.2于2017/01/13推出)。最關鍵的是,HAProxy 具備媲美商用負載均衡器的性能和穩定性。因為 HAProxy 的上述優點,它當前不僅僅是免費負載均衡軟件的首選,更幾乎成為了唯一選擇。

HAProxy 的核心功能

負載均衡:L4和L7兩種模式,支持RR/靜態RR/LC/IP Hash/URI Hash/URL_PARAM Hash/HTTP_HEADER Hash 等豐富的負載均衡算法

健康檢查:支持TCP和HTTP兩種健康檢查模式

會話保持:對于未實現會話共享的應用集群,可通過 Insert Cookie/Rewrite Cookie/Prefix Cookie,以及上述的多種 Hash 方式實現會話保持

SSL:HAProxy 可以解析 HTTPS 協議,并能夠將請求解密為 HTTP 后向后端傳輸

HTTP 請求重寫與重定向

監控與統計:HAProxy 提供了基于 Web 的統計信息頁面,展現健康狀態和流量數據。基于此功能,使用者可以開發監控程序來監控 HAProxy 的狀態

HAProxy的關鍵特性

性能

采用單線程、事件驅動、非阻塞模型,減少上下文切換的消耗,能在1ms內處理數百個請求。并且每個會話只占用數KB的內存。

大量精細的性能優化,如O(1)復雜度的事件檢查器、延遲更新技術、Single-buffereing、Zero-copy forwarding等等,這些技術使得HAProxy在中等負載下只占用極低的CPU資源。

HAProxy大量利用操作系統本身的功能特性,使得其在處理請求時能發揮極高的性能,通常情況下,HAProxy自身只占用15%的處理時間,剩余的85%都是在系統內核層完成的。

HAProxy作者在8年前(2009)年使用1.4版本進行了一次測試,單個HAProxy進程的處理能力突破了10萬請求/秒,并輕松占滿了10Gbps的網絡帶寬。

穩定性

作為建議以單進程模式運行的程序,HAProxy對穩定性的要求是十分嚴苛的。按照作者的說法,HAProxy在13年間從未出現過一個會導致其崩潰的BUG,HAProxy一旦成功啟動,除非操作系統或硬件故障,否則就不會崩潰(我覺得可能多少還是有夸大的成分)。

在上文中提到過,HAProxy的大部分工作都是在操作系統內核完成的,所以HAProxy的穩定性主要依賴于操作系統,作者建議使用2.6或3.x的Linux內核,對sysctls參數進行精細的優化,并且確保主機有足夠的內存。這樣HAProxy就能夠持續滿負載穩定運行數年之久。

個人的建議:

使用3.x內核的Linux操作系統運行HAProxy

運行HAProxy的主機上不要部署其他的應用,確保HAProxy獨占資源,同時避免其他應用引發操作系統或主機的故障

至少為HAProxy配備一臺備機,以應對主機硬件故障、斷電等突發情況(搭建雙活HAProxy的方法在后文中有描述)

sysctl的建議配置(并不是萬用配置,仍然需要針對具體情況進行更精細的調整,但可以作為首次使用HAProxy的初始配置使用):

net.ipv4.tcp_tw_reuse = 1net.ipv4.ip_local_port_range = 1024 65023net.ipv4.tcp_max_syn_backlog = 10240net.ipv4.tcp_max_tw_buckets = 400000net.ipv4.tcp_max_orphans = 60000net.ipv4.tcp_synack_retries = 3net.core.somaxconn = 10000

HAProxy的安裝和運行

下面介紹在CentOS7中安裝和運行HAProxy最新穩定版(1.7.2)的方法

安裝

為HAProxy 創建用戶和用戶組,此例中用戶和用戶組都是“ha”。注意,如果想要讓HAProxy監聽1024以下的端口,則需要以root用戶來啟動

下載并解壓

wget http://www.haproxy.org/download/1.7/src/haproxy-1.7.2.tar.gztar -xzf haproxy-1.7.2.tar.gz

編譯并安裝

make PREFIX=/home/ha/haproxy TARGET=linux2628make install PREFIX=/home/ha/haproxy

PREFIX為指定的安裝路徑,TARGET則根據當前操作系統內核版本指定:

- linux22 for Linux 2.2- linux24 for Linux 2.4 and above (default)- linux24e for Linux 2.4 with support for a working epoll (》 0.21)- linux26 for Linux 2.6 and above- linux2628 for Linux 2.6.28, 3.x, and above (enables splice and tproxy)

此例中,我們的操作系統內核版本為3.10.0,所以TARGET指定為linux2628

創建 HAProxy 配置文件

mkdir -p /home/ha/haproxy/confvi /home/ha/haproxy/conf/haproxy.cfg

我們先創建一個最簡單配置文件:

global #全局屬性 daemon #以daemon方式在后臺運行 maxconn 256 #最大同時256連接 pidfile /home/ha/haproxy/conf/haproxy.pid #指定保存HAProxy進程號的文件

defaults #默認參數 mode http #http模式 timeout connect 5000ms #連接server端超時5s timeout client 50000ms #客戶端響應超時50s timeout server 50000ms #server端響應超時50s

frontend http-in #前端服務http-in bind *:8080 #監聽8080端口 default_backend servers #請求轉發至名為“servers”的后端服務

backend servers #后端服務servers server server1 127.0.0.1:8000 maxconn 32 #backend servers中只有一個后端服務,名字叫server1,起在本機的8000端口,HAProxy同時最多向這個服務發起32個連接

注意:HAProxy 要求系統的 ulimit -n 參數大于[maxconn*2+18],在設置較大的 maxconn 時,注意檢查并修改 ulimit -n 參數

將 HAProxy 注冊為系統服務

在 /etc/init.d 目錄下添加 HAProxy 服務的啟停腳本:

vi /etc/init.d/haproxy

#! /bin/shset -e

PATH=/sbin:/bin:/usr/sbin:/usr/bin:/home/ha/haproxy/sbinPROGDIR=/home/ha/haproxyPROGNAME=haproxyDAEMON=$PROGDIR/sbin/$PROGNAMECONFIG=$PROGDIR/conf/$PROGNAME.cfgPIDFILE=$PROGDIR/conf/$PROGNAME.pidDESC=“HAProxy daemon”SCRIPTNAME=/etc/init.d/$PROGNAME

# Gracefully exit if the package has been removed.test -x $DAEMON || exit 0

start(){ echo -e “Starting $DESC: $PROGNAME

” $DAEMON -f $CONFIG echo “。”}

stop(){ echo -e “Stopping $DESC: $PROGNAME

” haproxy_pid=“$(cat $PIDFILE)” kill $haproxy_pid echo “。”}

restart(){ echo -e “Restarting $DESC: $PROGNAME

” $DAEMON -f $CONFIG -p $PIDFILE -sf $(cat $PIDFILE) echo “。”}

case “$1” in start) start ;; stop) stop ;; restart) restart ;; *) echo “Usage: $SCRIPTNAME {start|stop|restart}” 》&2 exit 1 ;;esac

exit 0

運行

啟動、停止和重啟

service haproxy startservice haproxy stopservice haproxy restart

添加日志

HAProxy 不會直接輸出文件日志,所以我們要借助 Linux 的 rsyslog 來讓 HAProxy 輸出日志

修改haproxy.cfg

在 global 域和 defaults 域中添加:

global 。。。 log 127.0.0.1 local0 info log 127.0.0.1 local1 warning 。。。

defaults 。。。 log global 。。。

意思是將 info級(及以上)的日志推送到rsyslog的local0接口,將warn級(及以上)的日志推送到rsyslog的local1接口,并且所有frontend都默認使用global中的日志配置。

注:info級的日志會打印HAProxy處理的每一條請求,會占用很大的磁盤空間,在生產環境中,建議將日志級別調整為notice

為 rsyslog 添加 haproxy 日志的配置

vi /etc/rsyslog.d/haproxy.conf$ModLoad imudp$UDPServerRun 514$FileCreateMode 0644 #日志文件的權限$FileOwner ha #日志文件的ownerlocal0.* /var/log/haproxy.log #local0接口對應的日志輸出文件local1.* /var/log/haproxy_warn.log #local1接口對應的日志輸出文件

修改 rsyslog 的啟動參數

vi /etc/sysconfig/rsyslog# Options for rsyslogd# Syslogd options are deprecated since rsyslog v3.# If you want to use them, switch to compatibility mode 2 by “-c 2”# See rsyslogd(8) for more detailsSYSLOGD_OPTIONS=“-c 2 -r -m 0”

重啟 rsyslog 和 HAProxy

service rsyslog restartservice haproxy restart

此時就應該能在/var/log目錄下看到haproxy的日志文件了

用 logrotate 進行日志切分

通過 rsyslog 輸出的日志是不會進行切分的,所以需要依靠 Linux 提供的 logrotate (Linux系統 Logrotate服務介紹)來進行切分工作

使用 root 用戶,創建 haproxy 日志切分配置文件:

mkdir /root/logrotatevi /root/logrotate/haproxy/var/log/haproxy.log /var/log/haproxy_warn.log { #切分的兩個文件名 daily #按天切分 rotate 7 #保留7份 create 0644 ha ha #創建新文件的權限、用戶、用戶組 compress #壓縮舊日志 delaycompress #延遲一天壓縮 missingok #忽略文件不存在的錯誤 dateext #舊日志加上日志后綴 sharedscripts #切分后的重啟腳本只運行一次 postrotate #切分后運行腳本重載rsyslog,讓rsyslog向新的日志文件中輸出日志 /bin/kill -HUP $(/bin/cat /var/run/syslogd.pid 2》/dev/null) &》/dev/null endscript}

并配置在 crontab 中運行:

0 0 * * * /usr/sbin/logrotate /root/logrotate/haproxy

HAProxy 搭建 L7 負載均衡器

總體方案

本節中,我們將使用 HAProxy 搭建一個 L7 負載均衡器,應用如下功能

負載均衡

會話保持

健康檢查

根據URI前綴向不同的后端集群轉發

監控頁面

架構如下:

433937e6-d79b-11eb-9e57-12bb97331649.jpg

架構中共有6個后端服務,劃分為3組,每組中2個服務:

ms1:服務URI前綴為ms1/的請求

ms2:服務URI前綴為ms2/的請求

def:服務其他請求

搭建后端服務

部署6個后端服務,可以使用任意的Web服務,如Nginx、Apache HTTPD、Tomcat、Jetty等,具體Web服務的安裝過程省略。

此例中,我們在192.168.8.111和192.168.8.112兩臺主機上分別安裝了3個Nginx:

ms1.srv1 - 192.168.8.111:8080ms1.srv2 - 192.168.8.112:8080ms2.srv1 - 192.168.8.111:8081ms2.srv2 - 192.168.8.112:8081def.srv1 - 192.168.8.111:8082def.srv2 - 192.168.8.112:8082

在這 6個 Nginx 服務分別部署健康檢查頁面 healthCheck.html,頁面內容任意。確保通過http://ip:port/healthCheck.html 可以訪問到這個頁面

接下來在6個 Nginx 服務中部署服務頁面:

在第一組中部署ms1/demo.html

在第二組中部署ms2/demo.html

在第三組中部署def/demo.html

demo.html的內容,以部署在192.168.8.111:8080上的為例:

Hello! This is ms1.srv1!

部署在 192.168.8.112:8080 上的就應該是

Hello! This is ms1.srv2!

以此類推

搭建 HAProxy

在 192.168.8.110 主機安裝 HAProxy,HAProxy 的安裝和配置步驟如上一章中描述,此處略去。

HAProxy 配置文件:

global daemon maxconn 30000 #ulimit -n至少為60018 user ha pidfile /home/ha/haproxy/conf/haproxy.pid log 127.0.0.1 local0 info log 127.0.0.1 local1 warning

defaults mode http log global option http-keep-alive #使用keepAlive連接 option forwardfor #記錄客戶端IP在X-Forwarded-For頭域中 option httplog #開啟httplog,HAProxy會記錄更豐富的請求信息 timeout connect 5000ms timeout client 10000ms timeout server 50000ms timeout http-request 20000ms #從連接創建開始到從客戶端讀取完整HTTP請求的超時時間,用于避免類DoS攻擊 option httpchk GET /healthCheck.html #定義默認的健康檢查策略

frontend http-in bind *:9001 maxconn 30000 #定義此端口上的maxconn acl url_ms1 path_beg -i /ms1/ #定義ACL,當uri以/ms1/開頭時,ACL[url_ms1]為true acl url_ms2 path_beg -i /ms2/ #同上,url_ms2 use_backend ms1 if url_ms1 #當[url_ms1]為true時,定向到后端服務群ms1中 use_backend ms2 if url_ms2 #當[url_ms2]為true時,定向到后端服務群ms2中 default_backend default_servers #其他情況時,定向到后端服務群default_servers中

backend ms1 #定義后端服務群ms1 balance roundrobin #使用RR負載均衡算法 cookie HA_STICKY_ms1 insert indirect nocache #會話保持策略,insert名為“HA_STICKY_ms1”的cookie #定義后端server[ms1.srv1],請求定向到該server時會在響應中寫入cookie值[ms1.srv1] #針對此server的maxconn設置為300 #應用默認健康檢查策略,健康檢查間隔和超時時間為2000ms,兩次成功視為節點UP,三次失敗視為節點DOWN server ms1.srv1 192.168.8.111:8080 cookie ms1.srv1 maxconn 300 check inter 2000ms rise 2 fall 3 #同上,inter 2000ms rise 2 fall 3是默認值,可以省略 server ms1.srv2 192.168.8.112:8080 cookie ms1.srv2 maxconn 300 check

backend ms2 #定義后端服務群ms2 balance roundrobin cookie HA_STICKY_ms2 insert indirect nocache server ms2.srv1 192.168.8.111:8081 cookie ms2.srv1 maxconn 300 check server ms2.srv2 192.168.8.112:8081 cookie ms2.srv2 maxconn 300 check

backend default_servers #定義后端服務群default_servers balance roundrobin cookie HA_STICKY_def insert indirect nocache server def.srv1 192.168.8.111:8082 cookie def.srv1 maxconn 300 check server def.srv2 192.168.8.112:8082 cookie def.srv2 maxconn 300 check

listen stats #定義監控頁面 bind *:1080 #綁定端口1080 stats refresh 30s #每30秒更新監控數據 stats uri /stats #訪問監控頁面的uri stats realm HAProxy Stats #監控頁面的認證提示 stats auth admin:admin #監控頁面的用戶名和密碼

修改完成后,啟動 HAProxy

service haproxy start

測試

首先,訪問一下監控頁面 http://192.168.8.110:1080/stats 并按提示輸入用戶名密碼

監控頁面中列出了我們配置的所有frontend和backend服務,以及它們的詳細指標。如連接數,隊列情況,session rate,流量,后端服務的健康狀態等等

接下來,我們一一測試在HAProxy中配置的功能

健康檢查

從監控頁面中就可以直接看出健康檢查配置的是否正確,上圖中可以看到,backend ms1、ms2、default_servers 下屬的 6 個后端服務的 Status 都是 20h28m UP,代表健康狀態已持續了 20 小時 28 分鐘,而 LastChk 顯示 L7OK/200 in 1ms 則代表在 1ms 前進行了 L7 的健康檢查(即HTTP請求方式的健康檢查),返回碼為200

此時我們將 ms1.srv1 中的 healthCheck.html 改名

mv healthCheck.html healthCheck.html.bak

ms1.srv1 的狀態變成了2s DOWN,LastChk 則是 L7STS/404 in 2ms,代表上次健康檢查返回了 404,再恢復 healthCheck.html,很快就能看到 ms1.srv1 重新恢復到 UP 狀態。

通過 URI 前綴轉發請求:訪問 http://192.168.8.110:9001/ms1/demo.html

可以看到成功定向到了 ms1.srv1上

訪問 http://192.168.8.110:9001/ms2/demo.html :

負載均衡和會話保持策略

在分別訪問過 ms1/demo.html,ms2/demo.html,m3/demo.html 后,查看一下瀏覽器的 Cookie

可以看到 HAProxy 已經回寫了三個用于會話保持的 cookie,此時反復刷新這三個頁面,會發現總是被定向到 *.srv1上接下來我們刪除 HA_STICKY_ms1 這條 cookie,然后再訪問 ms1/demo.html,會看到

同時也被新寫入了一條 Cookie

如果發現仍然被定位到 ms1.srv1,同時也沒有寫入新的 HA_STICKY_ms1 Cookie,那么可能是瀏覽器緩存了 ms1/demo.html 頁面,請求并沒有到達 HAProxy。F5刷新一下應該就可以了。

HAProxy 搭建 L4 負載均衡器

HAProxy 作為 L4 負載均衡器工作時,不會去解析任何與 HTTP 協議相關的內容,只在傳輸層對數據包進行處理。也就是說,以 L4 模式運行的 HAProxy,無法實現根據 URL向不同后端轉發、通過 cookie 實現會話保持等功能。

同時,在 L4 模式下工作的 HAProxy 也無法提供監控頁面。

但作為 L4 負載均衡器的 HAProxy 能夠提供更高的性能,適合于基于套接字的服務(如數據庫、消息隊列、RPC、郵件服務、Redis等),或不需要邏輯規則判斷,并已實現了會話共享的 HTTP 服務。

總體方案

本例中,我們使用 HAProxy 以 L4 方式來代理兩個 HTTP 服務,不提供會話保持。

global daemon maxconn 30000 #ulimit -n至少為60018 user ha pidfile /home/ha/haproxy/conf/haproxy.pid log 127.0.0.1 local0 info log 127.0.0.1 local1 warning

defaults mode tcp log global option tcplog #開啟tcplog timeout connect 5000ms timeout client 10000ms timeout server 10000ms #TCP模式下,應將timeout client和timeout server設置為一樣的值,以防止出現問題 option httpchk GET /healthCheck.html #定義默認的健康檢查策略

frontend http-in bind *:9002 maxconn 30000 #定義此端口上的maxconn default_backend default_servers #請求定向至后端服務群default_servers

backend default_servers #定義后端服務群default_servers balance roundrobin server def.srv1 192.168.8.111:8082 maxconn 300 check server def.srv2 192.168.8.112:8082 maxconn 300 check

L4模式下的會話保持

雖然 TCP 模式下的 HAProxy 無法通過 HTTP Cookie 實現會話保持,但可以很方便的實現基于客戶端IP的會話保持。只需將

balance roundrobin改為 balance source

此外,HAProxy 提供了強大的 stick-table 功能,HAProxy 可以從傳輸層的數據包中采樣出大量的屬性,并將這些屬性作為會話保持的策略寫入 stick-table 中。

HAProxy關鍵配置詳解

總覽

HAProxy 的配置文件共有5個域

global:用于配置全局參數default:用于配置所有frontend和backend的默認屬性frontend:用于配置前端服務(即HAProxy自身提供的服務)實例backend:用于配置后端服務(即HAProxy后面接的服務)實例組listen:frontend+backend的組合配置,可以理解成更簡潔的配置方法

global 域的關鍵配置

daemon:指定HAProxy以后臺模式運行,通常情況下都應該使用這一配置user [username] :指定HAProxy進程所屬的用戶group [groupname] :指定HAProxy進程所屬的用戶組log [address] [device] [maxlevel] [minlevel]:日志輸出配置,如log 127.0.0.1 local0 info warning,即向本機rsyslog或syslog的local0輸出info到warning級別的日志。其中[minlevel]可以省略。HAProxy的日志共有8個級別,從高到低為emerg/alert/crit/err/warning/notice/info/debugpidfile :指定記錄HAProxy進程號的文件絕對路徑。主要用于HAProxy進程的停止和重啟動作。maxconn :HAProxy進程同時處理的連接數,當連接數達到這一數值時,HAProxy將停止接收連接請求

frontend 域的關鍵配置

acl [name] [criterion] [flags] [operator] [value]:定義一條ACL,ACL是根據數據包的指定屬性以指定表達式計算出的true/false值。如“acl url_ms1 path_beg -i /ms1/”定義了名為url_ms1的ACL,該ACL在請求uri以/ms1/開頭(忽略大小寫)時為truebind [ip]:[port]:frontend服務監聽的端口default_backend [name]:frontend對應的默認backenddisabled:禁用此frontendhttp-request [operation] [condition]:對所有到達此frontend的HTTP請求應用的策略,例如可以拒絕、要求認證、添加header、替換header、定義ACL等等。http-response [operation] [condition]:對所有從此frontend返回的HTTP響應應用的策略,大體同上log:同global域的log配置,僅應用于此frontend。如果要沿用global域的log配置,則此處配置為log globalmaxconn:同global域的maxconn,僅應用于此frontendmode:此frontend的工作模式,主要有http和tcp兩種,對應L7和L4兩種負載均衡模式option forwardfor:在請求中添加X-Forwarded-For Header,記錄客戶端ipoption http-keep-alive:以KeepAlive模式提供服務option httpclose:與http-keep-alive對應,關閉KeepAlive模式,如果HAProxy主要提供的是接口類型的服務,可以考慮采用httpclose模式,以節省連接數資源。但如果這樣做了,接口的調用端將不能使用HTTP連接池option httplog:開啟httplog,HAProxy將會以類似Apache HTTP或Nginx的格式來記錄請求日志option tcplog:開啟tcplog,HAProxy將會在日志中記錄數據包在傳輸層的更多屬性stats uri [uri]:在此frontend上開啟監控頁面,通過[uri]訪問stats refresh [time]:監控數據刷新周期stats auth [user]:[password]:監控頁面的認證用戶名密碼timeout client [time]:指連接創建后,客戶端持續不發送數據的超時時間timeout http-request [time]:指連接創建后,客戶端沒能發送完整HTTP請求的超時時間,主要用于防止DoS類攻擊,即創建連接后,以非常緩慢的速度發送請求包,導致HAProxy連接被長時間占用use_backend [backend] if|unless [acl]:與ACL搭配使用,在滿足/不滿足ACL時轉發至指定的backend

backend 域的關鍵配置

acl:同frontend域balance [algorithm]:在此backend下所有server間的負載均衡算法,常用的有roundrobin和source,完整的算法說明見官方文檔configuration.html#4.2-balancecookie:在backend server間啟用基于cookie的會話保持策略,最常用的是insert方式,如cookie HA_STICKY_ms1 insert indirect nocache,指HAProxy將在響應中插入名為HA_STICKY_ms1的cookie,其值為對應的server定義中指定的值,并根據請求中此cookie的值決定轉發至哪個server。indirect代表如果請求中已經帶有合法的HA_STICK_ms1 cookie,則HAProxy不會在響應中再次插入此cookie,nocache則代表禁止鏈路上的所有網關和緩存服務器緩存帶有Set-Cookie頭的響應。default-server:用于指定此backend下所有server的默認設置。具體見下面的server配置。disabled:禁用此backendhttp-request/http-response:同frontend域log:同frontend域mode:同frontend域option forwardfor:同frontend域option http-keep-alive:同frontend域option httpclose:同frontend域option httpchk [METHOD] [URL] [VERSION]:定義以http方式進行的健康檢查策略。如option httpchk GET /healthCheck.html HTTP/1.1option httplog:同frontend域option tcplog:同frontend域server [name] [ip]:[port] [params]:定義backend中的一個后端server,[params]用于指定這個server的參數,常用的包括有:check:指定此參數時,HAProxy將會對此server執行健康檢查,檢查方法在option httpchk中配置。同時還可以在check后指定inter, rise, fall三個參數,分別代表健康檢查的周期、連續幾次成功認為server UP,連續幾次失敗認為server DOWN,默認值是inter 2000ms rise 2 fall 3cookie [value]:用于配合基于cookie的會話保持,如cookie ms1.srv1代表交由此server處理的請求會在響應中寫入值為ms1.srv1的cookie(具體的cookie名則在backend域中的cookie設置中指定)maxconn:指HAProxy最多同時向此server發起的連接數,當連接數到達maxconn后,向此server發起的新連接會進入等待隊列。默認為0,即無限maxqueue:等待隊列的長度,當隊列已滿后,后續請求將會發至此backend下的其他server,默認為0,即無限weight:server的權重,0-256,權重越大,分給這個server的請求就越多。weight為0的server將不會被分配任何新的連接。所有server默認weight為1

timeout connect [time]:指HAProxy嘗試與backend server創建連接的超時時間timeout check [time]:默認情況下,健康檢查的連接+響應超時時間為server命令中指定的inter值,如果配置了timeout check,HAProxy會以inter作為健康檢查請求的連接超時時間,并以timeout check的值作為健康檢查請求的響應超時時間timeout server [time]:指backend server響應HAProxy請求的超時時間

default 域

上文所屬的frontend和backend域關鍵配置中,除acl、bind、http-request、http-response、use_backend外,其余的均可以配置在default域中。default域中配置了的項目,如果在frontend或backend域中沒有配置,將會使用default域中的配置。

listen 域

listen域是frontend域和backend域的組合,frontend域和backend域中所有的配置都可以配置在listen域下

使用Keepalived實現HAProxy高可用

盡管 HAProxy 非常穩定,但仍然無法規避操作系統故障、主機硬件故障、網絡故障甚至斷電帶來的風險。所以必須對 HAProxy 實施高可用方案。下文將介紹利用 Keepalived 實現的 HAProxy 熱備方案。即兩臺主機上的兩個 HAProxy實例同時在線,其中權重較高的實例為 MASTER,MASTER 出現問題時,另一臺實例自動接管所有流量。

原理

在兩臺 HAProxy 的主機上分別運行著一個 Keepalived 實例,這兩個 Keepalived 爭搶同一個虛IP地址,兩個 HAProxy 也嘗試去綁定這同一個虛IP地址上的端口。

顯然,同時只能有一個 Keepalived 搶到這個虛 IP,搶到了這個虛 IP 的 Keepalived 主機上的 HAProxy 便是當前的 MASTER。

Keepalived 內部維護一個權重值,權重值最高的 Keepalived 實例能夠搶到虛IP。同時 Keepalived 會定期 check 本主機上的 HAProxy 狀態,狀態OK時權重值增加。

搭建 HAProxy 主備集群

環境準備

在兩臺物理機上安裝并配置 HAProxy,本例中,將在 192.168.8.110 和 192.168.8.111 兩臺主機上上安裝兩套完全一樣的 HAProxy,具體步驟省略,請參考“使用 HAProxy 搭建L7負載均衡器”一節。

安裝Keepalived

下載,解壓,編譯,安裝:

wget http://www.keepalived.org/software/keepalived-1.2.19.tar.gztar -xzf keepalived-1.2.19.tar.gz./configure --prefix=/usr/local/keepalivedmakemake install

注冊為系統服務:

cp /usr/local/keepalived/sbin/keepalived /usr/sbin/cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/cp /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/chmod +x /etc/init.d/keepalived

注意:Keepalived 需要使用 root 用戶進行安裝和配置

配置 Keepalived

創建并編輯配置文件

mkdir -p /etc/keepalived/cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/vi /etc/keepalived/keepalived.conf

配置文件內容:

global_defs { router_id LVS_DEVEL #虛擬路由名稱}

#HAProxy健康檢查配置vrrp_script chk_haproxy { script “killall -0 haproxy” #使用killall -0檢查haproxy實例是否存在,性能高于ps命令 interval 2 #腳本運行周期 weight 2 #每次檢查的加權權重值}

#虛擬路由配置vrrp_instance VI_1 { state MASTER #本機實例狀態,MASTER/BACKUP,備機配置文件中請寫BACKUP interface enp0s25 #本機網卡名稱,使用ifconfig命令查看 virtual_router_id 51 #虛擬路由編號,主備機保持一致 priority 101 #本機初始權重,備機請填寫小于主機的值(例如100) advert_int 1 #爭搶虛地址的周期,秒 virtual_ipaddress { 192.168.8.201 #虛地址IP,主備機保持一致 } track_script { chk_haproxy #對應的健康檢查配置 }}

如果主機沒有killall命令,則需要安裝psmisc包:

yum intall psmisc

分別啟動兩個Keepalived

service keepalived start

驗證

啟動后,先分別在兩臺主機查看虛IP 192.168.8.201由誰持有,執行命令:

ip addr sh enp0s25 (將enp0s25替換成主機的網卡名)

持有虛IP的主機輸出會是這樣的:

43a4afc6-d79b-11eb-9e57-12bb97331649.jpg

另一臺主機輸出則是這樣的:

43b02e0a-d79b-11eb-9e57-12bb97331649.jpg

如果你先啟動備機的 Keepalived,那么很有可能虛 IP 會被備機搶到,因為備機的權重配置只比主機低1,只要執行一次健康檢查就能把權重提高到 102,高于主機的 101。

此時訪問 http://192.168.8.201:9001/ms1/demo.html ,可以看到我們先前部署的網頁。

此時,檢查/var/log/haproxy.log,能看到此請求落在了搶到了虛IP的主機上。

接下來,我們停掉當前 MASTER 主機的 HAProxy 實例(或者Keepalive實例,效果一樣)

service haproxy stop

再次訪問 http://192.168.8.201:9001/ms1/demo.html ,并查看備機的 /var/log/haproxy.log,會看到此請求落在了備機上,主備自動切換成功。

也可以再次執行ip addr sh enp0s25命令,會看到虛IP被備機搶去了。

在/var/log/message中,也能夠看到keepalived輸出的切換日志:

43bb6162-d79b-11eb-9e57-12bb97331649.jpg

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • HTTP
    +關注

    關注

    0

    文章

    504

    瀏覽量

    31197
  • TCP
    TCP
    +關注

    關注

    8

    文章

    1353

    瀏覽量

    79055
  • SSL
    SSL
    +關注

    關注

    0

    文章

    125

    瀏覽量

    25737

原文標題:從零開始掌握 HAProxy 負載均衡器

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    AIC3254怎么才能做出支持20個頻率點的均衡器,并且能夠分別調節左右聲道?

    有一個問題,尋求一下你們的幫助: 在AIC3254 CS軟件里,有一個均衡器界面,左右聲道各20個頻率點,感覺很炫,也想做一個相同的均衡器。 我在PurePath Studio里做了寫了個簡單
    發表于 11-01 08:06

    鈺泰ETA3000電池均衡器IC

    導體獨有專利池內的新型電池均衡器,與傳統的無源平衡技術不同,ETA3000利用具有電感器的控制方案來在兩個電池之間source和sink電流,直到相鄰兩節電池電勢均等。在傳統的線性平衡技術中,會產生較大
    發表于 10-25 10:13

    tlv320aic3105如何才能實現高低音與均衡器功能?

    我這里有tlv320aic3105的芯片手冊,手冊介紹說這款芯片有高低音處理以及均衡器功能,總之功能很強勁。然而,整個手冊我看了兩遍了,實在不知道如何才能實現高低音與均衡器功能。我也找了其他
    發表于 10-25 07:40

    零基礎也可以搞懂負載均衡怎么配置!

    負載均衡怎么配置?在Linux中配置負載均衡器的步驟涉及多個環節,包括選擇負載均衡軟件、安裝
    的頭像 發表于 10-12 15:58 ?225次閱讀

    什么是均衡器

    均衡器是一種用于調整信號頻率響應的電子設備,廣泛應用于音頻處理、通信系統和信號處理等領域。它的主要功能是通過增強或衰減特定頻率范圍的信號,以改善整體音質或信號質量。本文將詳細介紹均衡器的基本概念、工作原理、類型、技術參數及其應用領域,幫助您更好地理解這一關鍵組件。
    的頭像 發表于 10-05 13:39 ?487次閱讀

    使用高速USB隔離器上的均衡器設置補償通道損耗

    電子發燒友網站提供《使用高速USB隔離器上的均衡器設置補償通道損耗.pdf》資料免費下載
    發表于 09-23 11:25 ?0次下載
    使用高速USB隔離器上的<b class='flag-5'>均衡器</b>設置補償通道損耗

    單電源NE5532搭建的音頻EQ均衡器底噪大怎么解決?

    最近做一個EQ均衡器電路,用NE5532搭建。電源為單電源,由220V轉18V開關電源適配器(成品)提供,接上EQ電路帶負載之后測得紋波Vrms約40mv左右,偶爾波動到60mv;示波器看峰峰值在
    發表于 08-29 08:22

    均衡器的工作原理和類型

    均衡器在電動汽車領域中,特別是電池管理系統中扮演著至關重要的角色。它主要負責調整電池組中各個電池單元的能量狀態,以確保電池組整體性能的優化和延長電池的使用壽命
    的頭像 發表于 08-06 18:08 ?1877次閱讀

    DS38EP100 1至5 Gbps省電均衡器數據表

    電子發燒友網站提供《DS38EP100 1至5 Gbps省電均衡器數據表.pdf》資料免費下載
    發表于 07-05 09:43 ?0次下載
    DS38EP100 1至5 Gbps省電<b class='flag-5'>均衡器</b>數據表

    DS80EP100 5至12.5 Gbps省電均衡器數據表

    電子發燒友網站提供《DS80EP100 5至12.5 Gbps省電均衡器數據表.pdf》資料免費下載
    發表于 07-05 09:36 ?0次下載
    DS80EP100 5至12.5 Gbps省電<b class='flag-5'>均衡器</b>數據表

    DS32EV400四通道均衡器數據表

    電子發燒友網站提供《DS32EV400四通道均衡器數據表.pdf》資料免費下載
    發表于 07-04 09:56 ?0次下載
    DS32EV400四通道<b class='flag-5'>均衡器</b>數據表

    圖形均衡器電路圖分享

    圖形均衡器是一種可以直觀地調整各個頻段增益的音頻處理設備。與參數均衡器不同,圖形均衡器采用固定的頻段和Q值(即頻段的寬度),用戶可以直接通過拖拽按鈕來調整每個頻段的增益,從而實現對音頻信號的頻率分布進行修飾和增強。
    的頭像 發表于 02-06 15:13 ?6492次閱讀
    圖形<b class='flag-5'>均衡器</b>電路圖分享

    音頻均衡器電路圖分享

    音頻均衡器是一種可以分別調節各種頻率成分電信號放大量的電子設備。它通過對各種不同頻率的電信號的調節來補償揚聲器和聲場的缺陷,修飾和增強各種聲源的效果,以及進行其他特殊作用。在音響器材中,音頻均衡器通常用于調節音頻信號的頻率分布,使得音頻在各種頻段上達到
    的頭像 發表于 02-06 14:58 ?7411次閱讀
    音頻<b class='flag-5'>均衡器</b>電路圖分享

    負載均衡器的誕生和工作機制

    今天我們來深度揭秘一下負載均衡器 LVS 的秘密,相信大家看了你管這破玩意兒叫負載均衡?這篇文章后,還是有不少疑問,比如 LVS 看起來只有類似路由器的轉發功能,為啥說它是四層(傳輸層
    的頭像 發表于 01-04 12:26 ?979次閱讀
    <b class='flag-5'>負載</b><b class='flag-5'>均衡器</b>的誕生和工作機制

    均衡器的基本原理是什么?

    均衡器是一種用于調節音頻頻譜的設備,它可以增強或削弱特定頻率范圍內的聲音。
    的頭像 發表于 12-29 18:06 ?1919次閱讀
    主站蜘蛛池模板: 久久99re66热这里只有精品| 特级做A爰片毛片免费69| 亚洲精品视频在线免费| YELLOW日本动漫免费动漫| 精品无码国产污污污免费网站2| 日韩少妇爆乳无码专区| 最新国产在线视频在线| 果冻传媒视频在线播放| 色就色综合| FREE17一18外女破| 久久在精品线影院精品国产| 亚洲AV无码专区国产乱码网站| 东京热影院| 女厕所边摸边吃奶边做爽视频| 伊人久久综在合线影院| 国产学生在线播放精品视频| 日日碰狠狠添天天爽| FREESEXVIDEO 性老少配| 看全色黄大色大片免费久黄久| 亚洲乱码高清午夜理论电影 | 嫩草影院久久99| 伊人草久久| 国内精品乱码卡一卡2卡三卡| 四虎永久在线精品国产| 超污视频带污疼免费视频| 男男免费看| 最新无码二区日本专区| 久久精品亚洲精品国产欧美| 亚洲精品久久区二区三区蜜桃臀| 国产成人女人视频在线观看| 青青草久久| FREE性丰满HD毛多多| 内射人妻骚骚骚| 22eee在线播放成人免费视频| 久久综合中文字幕佐佐木希| 尤物国产在线精品三区| 九九99热久久精品在线6| 亚洲乱码AV久久久久久久| 好男人WWW免费高清视频在线| 小小水蜜桃免费影院| 国产日韩精品一区二区三区在线|