色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

介紹eBPF針對可觀測場景的應用

Linux閱碼場 ? 來源:Linux閱碼場 ? 作者:Linux閱碼場 ? 2022-08-11 09:10 ? 次閱讀

前言 隨著eBPF推出,由于具有高性能、高擴展、安全性等優勢,目前已經在網絡、安全、可觀察等領域廣泛應用,同時也誕生了許多優秀的開源項目,如Cilium、Pixie等,而iLogtail作為阿里內外千萬實例可觀測數據的采集器,eBPF 網絡可觀測特性也預計會在未來8月發布。下文主要基于eBPF觀測HTTP 1、HTTP 1.1以及HTTP2的角度介紹eBPF的針對可觀測場景的應用,同時回顧HTTP 協議自身的發展。

eBPF基本介紹 eBPF 是近幾年 Linux Networkworking 方面比較火的技術之一,目前在安全、網絡以及可觀察性方面應用廣泛,比如CNCF 項目Cilium 完全是基于eBPF 技術實現,解決了傳統Kube-proxy在大集群規模下iptables 性能急劇下降的問題。從基本功能上來說eBPF 提供了一種兼具性能與靈活性來自定義交互內核態與用戶態的新方式,具體表現為eBPF 提供了友好的api,使得可以通過依賴libbpf、bcc等SDK,將自定義業務邏輯安全的嵌入內核態執行,同時通過BPF Map 機制(不需要多次拷貝)直接在內核態與用戶態傳遞所需數據。 7f8a479c-190a-11ed-ba43-dac502259ad0.png 當聚焦在可觀測性方面,我們可以將eBPF 類比為Javaagent進行介紹。Javaagent的基本功能是程序啟動時對于已存在的字節碼進行代理字節碼織入,從而在無需業務修改代碼的情況下,自動為用戶程序加入hook點,比如在某函數進入和返回時添加hook點可以計算此函數的耗時。而eBPF 類似,提供了一系列內核態執行的切入點函數,無需修改代碼,即可觀測應用的內部狀態,以下為常用于可觀測性的切入點類型:

kprobe:動態附加到內核調用點函數,比如在內核exec系統調用前檢查參數,可以BPF 程序設置 SEC("kprobe/sys_exec")頭部進行切入。

tracepoints:內核已經提供好的一些切入點,可以理解為靜態的kprobe,比如syscall 的connect函數。

uprobe:與krobe對應,動態附加到用戶態調用函數的切入點稱為uprobe,相比如kprobe 內核函數的穩定性,uprobe 的函數由開發者定義,當開發者修改函數簽名時,uprobe BPF 程序同樣需要修改函數切入點簽名。

perf_events:將BPF 代碼附加到Perf事件上,可以依據此進行性能分析。

7f983fe6-190a-11ed-ba43-dac502259ad0.png

TCP與eBPF 由于本文觀測協議HTTP 1、HTTP1.1以及HTTP2 都是基于TCP 模型,所以先回顧一下 TCP 建立連接的過程。首先Client 端通過3次握手建立通信,從TCP協議上來說,連接代表著狀態信息,比如包含seq、ack、窗口/buffer等,而tcp握手就是協商出來這些初始值;而從操作系統的角度來說,建立連接后,TCP 創建了INET域的 socket,同時也占用了FD 資源。對于四次揮手,從TCP協議上來說,可以理解為釋放終止信號,釋放所維持的狀態;而從操作系統的角度來說,四次揮手后也意味著Socket FD 資源的回收。 而對于應用層的角度來說,還有一個常用的概念,這就是長連接,但長連接對于TCP傳輸層來說,只是使用方式的區別:

應用層短連接:三次握手+單次傳輸數據+四次揮手,代表協議HTTP 1

應用層長連接:三次握手+多次傳輸數據+四次揮手,代表協議 HTTP 1.1、HTTP2

7fa86024-190a-11ed-ba43-dac502259ad0.png7fbf4488-190a-11ed-ba43-dac502259ad0.png 參考下圖TCP 建立連接過程內核函數的調用,對于eBPF 程序可以很容易的定義好tracepoints/kprobe 切入點。例如建立連接過程可以切入 accept 以及connect 函數,釋放鏈接過程可以切入close過程,而傳輸數據可以切入read 或write函數。 7fcdee7a-190a-11ed-ba43-dac502259ad0.png 基于TCP 大多數切入點已經被靜態化為tracepoints,因此BPF 程序定義如下切入點來覆蓋上述提到的TCP 核心函數(sys_enter 代表進入時切入,sys_exit 代表返回時切入)。 SEC("tracepoint/syscalls/sys_enter_connect") SEC("tracepoint/syscalls/sys_exit_connect") SEC("tracepoint/syscalls/sys_enter_accept") SEC("tracepoint/syscalls/sys_exit_accept") SEC("tracepoint/syscalls/sys_enter_accept4") SEC("tracepoint/syscalls/sys_exit_accept4") SEC("tracepoint/syscalls/sys_enter_close") SEC("tracepoint/syscalls/sys_exit_close") SEC("tracepoint/syscalls/sys_enter_write") SEC("tracepoint/syscalls/sys_exit_write") SEC("tracepoint/syscalls/sys_enter_read") SEC("tracepoint/syscalls/sys_exit_read") SEC("tracepoint/syscalls/sys_enter_sendmsg") SEC("tracepoint/syscalls/sys_exit_sendmsg") SEC("tracepoint/syscalls/sys_enter_recvmsg") SEC("tracepoint/syscalls/sys_exit_recvmsg") .... 結合上述概念,我們以iLogtail的eBPF 工作模型為例,介紹一個可觀測領域的eBPF 程序是如何真正工作的。更多詳細內容可以參考此分享:?基于eBPF的應用可觀測技術實踐。如下圖所示,iLogtaileBPF 程序的工作空間分為Kernel Space與User Space。 Kernel Space 主要負責數據的抓取與預處理:

抓取:Hook模塊會依據KProbe定義攔截網絡數據,虛線中為具體的KProbe 攔截的內核函數(使用上述描述的SEC進行定義),如connect、accept 以及write 等。

預處理:預處理模塊會根據用戶態配置進行數據的攔截丟棄以及數據協議的推斷,只有符合需求的數據才會傳遞給SendToUserSpace模塊,而其他數據將會被丟棄。其后SendToUserSpace 模塊通過eBPF Map 將過濾后的數據由內核態數據傳輸到用戶態。

User Space 的模塊主要負責數據分析、聚合以及管理:

分析:Process 模塊會不斷處理eBPF Map中存儲的網絡數據,首先由于Kernel 已經推斷協議類型,Process 模塊將根據此類型進行細粒度的協議分析,如分析MySQL 協議的SQL、分析HTTP 協議的狀態碼等。其次由于 Kernel 所傳遞的連接元數據信息只有Pid 與FD 等進程粒度元信息,而對于Kubernetes 可觀測場景來說,Pod、Container 等資源定義更有意義,所以Correlate Meta 模塊會為Process 處理后的數據綁定容器相關的元數據信息。

聚合:當綁定元數據信息后,Aggreate 模塊會對數據進行聚合操作以避免重復數據傳輸,比如聚合周期內某SQL 調用1000次,Aggreate 模塊會將最終數據抽象為 XSQL:1000 的形式進行上傳。

管理:整個eBPF 程序交互著大量著進程與連接數據,因此eBPF 程序中對象的生命周期需要與機器實際狀態相符,當進程或鏈接釋放,相應的對象也需要釋放,這也正對應著Connection Management 與Garbage Collection 的職責。

7fe0ffd8-190a-11ed-ba43-dac502259ad0.png

eBPF 數據解析 HTTP 1 、HTTP1.1以及HTTP2 數據協議都是基于TCP的,參考上文,一定有以下函數調用:

connect 函數:函數簽名為int connect(int sockfd, const struct sockaddr *addr, socklen_t addrlen), 從函數簽名入參可以獲取使用的socket 的fd,以及對端地址等信息。

accept 函數:函數簽名為int accept(int sockfd, struct sockaddr *addr, socklen_t *addrlen), 從函數簽名入參同樣可以獲取使用的socket 的fd,以及對端地址等信息。

sendmsg函數:函數簽名為ssize_t sendmsg(int sockfd, const struct msghdr *msg, int flags),從函數簽名可以看出,基于此函數可以拿到發送的數據包,以及使用的socket 的fd信息,但無法直接基于入參知曉對端地址。

recvmsg函數:函數簽名為ssize_t recvmsg(int sockfd, struct msghdr *msg, int flags),從函數簽名可以看出,基于此函數我們拿到接收的數據包,以及使用的socket 的fd信息,但無法直接基于入參知曉對端地址。

close 函數:函數簽名為int close(int fd),從函數簽名可以看出,基于此函數可以拿到即將關閉的fd信息。

HTTP 1 / HTTP 1.1 短連接模式

HTTP 于1996年推出,HTTP 1 在用戶層是短連接模型,也就意味著每一次發送數據,都會伴隨著connect、accept以及close 函數的調用,這就以為這eBPF程序可以很容易的尋找到connect 的起始點,將傳輸數據與地址進行綁定,進而構建服務的上下游調用關系。 7ffad25a-190a-11ed-ba43-dac502259ad0.png 可以看出HTTP 1 或者HTTP1.1 短連接模式是對于eBPF 是非常友好的協議,因為可以輕松的關聯地址信息與數據信息,但回到HTTP 1/HTTP1.1 短連接模式 本身來說,‘友好的代價’不僅意味著帶來每次TCP 連接與釋放連接的消耗,如果兩次傳輸數據的HTTP Header 頭相同,Header 頭也存在冗余傳輸問題,比如下列數據的頭Host、Accept 等字段。 800e41a0-190a-11ed-ba43-dac502259ad0.png

HTTP 1.1 長連接

HTTP 1.1 于HTTP 1.0 發布的一年后發布(1997年),提供了緩存處理、帶寬優化、錯誤通知管理、host頭處理以及長連接等特性。而長連接的引入也部分解決了上述HTTP1中每次發送數據都需要經過三次握手以及四次揮手的過程,提升了數據的發送效率。但對于使用eBPF 觀察HTTP數據來說,也帶來了新的問題,上文提到建立地址與數據的綁定依賴于在connect 時進行probe,通過connect 參數拿到數據地址,從而與后續的數據包綁定。但回到長連接情況,假如connect 于1小時之前建立,而此時才啟動eBPF程序,所以我們只能探測到數據包函數的調用,如send或recv函數。此時應該如何建立地址與數據的關系呢? 802df23e-190a-11ed-ba43-dac502259ad0.png 首先可以回到探測函數的定義,可以發現此時雖然沒有明確的地址信息,但是可以知道此TCP 報文使用的Socket 與FD 信息。因此可以使用 netlink 獲取此Socket 的元信息,進行對長連接補充對端地址,進而在HTTP 1.1 長連接協議構建服務拓撲與分析數據明細。 ssize_t?sendmsg(int?sockfd,?const?struct?msghdr?*msg,?int?flags) ssize_t?recvmsg(int?sockfd,?struct?msghdr?*msg,?int?flags) 80455ec4-190a-11ed-ba43-dac502259ad0.png

HTTP 2

在HTTP 1.1 發布后,由于冗余傳輸以及傳輸模型串行等問題,RPC 框架基本上都是進行了私有化協議定義,如Dubbo 等。而在2015年,HTTP2 的發布打破了以往對HTTP 協議的很多詬病,除解決在上述我們提到的Header 頭冗余傳輸問題,還解決TCP連接數限制、傳輸效率、隊頭擁塞等問題,而 gRPC正式基于HTTP2 構建了高性能RPC 框架,也讓HTTP 1 時代層出不窮的通信協議,也逐漸走向了歸一時代,比如Dubbo3 全面兼容gRPC/HTTP2 協議。

特性

以下內容首先介紹一些HTTP2 與eBPF 可觀察性相關的關鍵特性。

多路復用

HTTP 1 是一種同步、獨占的協議,客戶端發送消息,等待服務端響應后,才進行新的信息發送,這種模式浪費了TCP 全雙工模式的特性。因此HTTP2 允許在單個連接上執行多個請求,每個請求相應使用不同的流,通過二進制分幀層,為每個幀分配一個專屬的stream 標識符,而當接收方收到信息時,接收方可以將幀重組為完整消息,提升了數據的吞吐。此外可以看到由于Stream 的引入,Header 與Data 也進行了分離設計,每次傳輸數據Heaer 幀發送后為此后Data幀的統一頭部,進一步提示了傳輸效率。 80590b4a-190a-11ed-ba43-dac502259ad0.png

首部壓縮

HTTP 首部用于發送與請求和響應相關的額外信息,HTTP2引入首部壓縮概念,使用與正文壓縮不同的技術,支持跨請求壓縮首部,可以避免正文壓縮使用算法的安全問題。HTTP2采用了基于查詢表和Huffman編碼的壓縮方式,使用由預先定義的靜態表和會話過程中創建的動態表,沒有引用索引表的首部可以使用ASCII編碼或者Huffman編碼傳輸。 8064294e-190a-11ed-ba43-dac502259ad0.png 但隨著性能的提升,也意味著越來越多的數據避免傳輸,這也同時意味著對eBPF 程序可感知的數據會更少,因此HTTP2協議的可觀察性也帶來了新的問題,以下我們使用gRPC不同模式以及Wireshark 分析HTTP2協議對eBPF 程序可觀測性的挑戰。

GRPC

Simple RPC

Simple RPC 是GRPC 最簡單的通信模式,請求和響應都是一條二進制消息,如果保持連接可以類比為HTTP 1.1 的長連接模式,每次發送收到響應,之后再繼續發送數據。 807c514a-190a-11ed-ba43-dac502259ad0.png 但與HTTP 1 不同的是首部壓縮的引入,如果維持長連接狀態,后續發的數據包Header 信息將只存儲索引值,而不是原始值,我們可以看到下圖為Wirshark 抓取的數據包,首次發送是包含完整Header幀數據,而后續Heders 幀長度降低為15,減少了大量重復數據的傳輸。 808e14de-190a-11ed-ba43-dac502259ad0.png809dd892-190a-11ed-ba43-dac502259ad0.png

Stream 模式

Stream 模式是gRPC 常用的模式,包含Server-side streaming RPC,Client-side streaming RPC,Bidirectional streaming RPC,從傳輸編碼上來說與Simple RPC 模式沒有不同,都分為Header 幀、Data幀等。但不同的在于Data 幀的數量,Simple RPC 一次發送或響應只包含一個Data幀 模式,而Stream 模式可以包含多個。 1、Server-side streaming RPC:與Simple RPC 模式不同,在Server-side streaming RPC 中,當從客戶端接收到請求時,服務器會發回一系列響應。此響應消息序列在客戶端發起的同一 HTTP 流中發送。如下圖所示,服務器收到來自客戶端的消息,并以幀消息的形式發送多個響應消息。最后,服務器通過發送帶有呼叫狀態詳細信息的尾隨元數據來結束流。 80b27b26-190a-11ed-ba43-dac502259ad0.png 2、Client-side streaming RPC:?在客戶端流式 RPC 模式中,客戶端向服務器發送多條消息,而服務器只返回一條消息。 80c1d314-190a-11ed-ba43-dac502259ad0.png 3、Bidirectional streaming RPC:客戶端和服務器都向對方發送消息流。客戶端通過發送標頭幀來設置 HTTP 流。建立連接后,客戶端和服務器都可以同時發送消息,而無需等待對方完成。 80d16086-190a-11ed-ba43-dac502259ad0.png

tracepoint/kprobe的挑戰

從上述wirshark 報文以及協議模式可以看出,歷史針對HTTP1時代使用的tracepoint/kprobe 會存在以下挑戰:

Stream 模式: 比如在Server-side stream 下,假如tracepoint/kprobe 探測的點為Data幀,因Data 幀因為無法關聯Header 幀,都將變成無效Data 幀,但對于gRPC 使用場景來說還好,一般RPC 發送數據和接受數據都很快,所以很快就會有新的Header 幀收到,但這時會遇到更大的挑戰,長連接下的首部壓縮。

80e4ca86-190a-11ed-ba43-dac502259ad0.png

長連接+首部壓縮:當HTTP2 保持長連接,connect 后的第一個Stream 傳輸的Header 會為完整數據,而后續Header幀如與前置Header幀存在相同Header 字段,則數據傳輸的為地址信息,而真正的數據信息會交給Server 或Client 端的應用層SDK 進行維護,而如下圖eBPF tracepoints/kprobe 在stream 1 的尾部幀才進行probe,對于后續的Header2 幀大概率不會存在完整的Header 元數據,如下圖Wireshark 截圖,包含了很多Header 信息的Header 長度僅僅為15,可以看出eBPF tracepoints/kprobe 對于這種情況很難處理。

80f384a4-190a-11ed-ba43-dac502259ad0.png809dd892-190a-11ed-ba43-dac502259ad0.png 從上文可知,HTTP2 可以歸屬于有狀態的協議,而Tracepoint/Kprobe 對有狀態的協議數據很難處理完善,某些場景下只能做到退化處理,以下為使用Tracepoint/Kprobe 處理的基本流程。 81122b98-190a-11ed-ba43-dac502259ad0.png

Uprobe 可行嗎?

從上述tracepoint/kprobe 的挑戰可以看到,HTTP 2 是一種很難被觀測的協議,在HTTP2 的協議規范上,為減少Header 的傳輸,client 端以及server 端都需要維護Header 的數據,下圖是grpc 實現的HTTP2 客戶端維護Header 元信息的截圖,所以在應用層可以做到拿到完整Header數據,也就繞過來首部壓縮問題,而針對應用層協議,eBPF 提供的探測手段是Uprobe(用戶態),而Pixie 項目也正是基于Uprobe 實踐了gRPC HTTP2 流量的探測,詳細內容可以參考此文章[1]。 8127960e-190a-11ed-ba43-dac502259ad0.png 下圖展示了使用Uprobe 觀測Go gRPC 流量的基本流程,如其中writeHeader 的函數定義為 func (l *loopyWriter) writeHeader(streamID uint32, endStream bool, hf []hpack.HeaderField, onWrite func()), 可以看到明確的Header 文本。 813df85e-190a-11ed-ba43-dac502259ad0.png

Kprobe 與Uprobe 對比

從上文可以看出Uprobe 實現簡單,且不存在數據退化的問題,但Uprobe 真的完美嗎?

兼容性:上述方案僅僅是基于Golang gRPC 的 特定方法進行探測,也就意味著上述僅能覆蓋Golang gRPC 流量的觀察,對于Golang 其他HTTP2 庫無法支持。

多語言性:Uprobe 只能基于方法簽名進行探測,更適用于C/GO 這種純編譯型語言,而對于Java 這種JVM 語言,因為運行時動態生成符號表,雖然可以依靠一些javaagent 將java 程序用于Uprobe,但是相對于純編譯型語言,用戶使用成本或改造成本還是會更高一些。

穩定性:Uprobe 相對于tracepoint/kprobe 來說是不穩定的,假如探測的函數函數簽名有改變,這就意味著Uprobe 程序將無法工作,因為函數注冊表的改變將使得Uprobe 無法找到切入點。

綜合下來2種方案對比如下,可以看到2種方案對于HTTP2(有狀態)的觀測都存在部分取舍:

方式 穩定性 多語言性 兼容性 易于實現 數據完整性
Kprobe/tracepoint 復雜 存在數據退化
Uprobe 簡單 完整


總結 上述我們回顧了HTTP1到HTTP2 時代的協議變遷,也看到HTTP2 提升傳輸效率做的種種努力,而正是HTTP2的巨大效率提升,也讓gRPC選擇了直接基于HTTP2 協議構建,而也是這種選擇,讓gRPC 成為了RPC 百家爭鳴后是隱形事實協議。但我們也看到了協議的進步意味著更少的數據交互,也讓數據可觀察變得更加困難,比如HTTP2 使用eBPF目前尚無完美的解決方法,或使用Kprobe 觀察,選擇的多語言性、流量拓撲分析、但容許了失去流量細節的風險;或使用Uprobe 觀察,選擇了數據的細節,拓撲,但容許了多語言的兼容性問題。 iLogtail致力于打造覆蓋Trace、Metrics 以及Logging 的可觀測性的統一Agent,而eBPF 作為目前可觀測領域的熱門采集技術,提供了無侵入、安全、高效觀測流量的能力,預計8月份,我們將在iLogtail Cpp正式開源后發布此部分功能,歡迎大家關注和互相交流。

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 網絡
    +關注

    關注

    14

    文章

    7553

    瀏覽量

    88729
  • HTTP
    +關注

    關注

    0

    文章

    504

    瀏覽量

    31194
  • 函數
    +關注

    關注

    3

    文章

    4327

    瀏覽量

    62569

原文標題:一文詳解用eBPF觀測HTTP

文章出處:【微信號:LinuxDev,微信公眾號:Linux閱碼場】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于ebpf的性能工具-bpftrace腳本語法

    ,并且介紹了如何運行bpftrace腳本,這篇文章將介紹bpftrace腳本的語法。 基于ubuntu22.04-深入淺出 eBPF 基于ebpf的性能工具
    的頭像 發表于 09-04 16:04 ?1004次閱讀
    基于<b class='flag-5'>ebpf</b>的性能工具-bpftrace腳本語法

    關于 eBPF 安全可觀測性,你需要知道的那些事兒

    的問題進行分析處理。**可觀測性:**通過觀察系統并衡量系統的內部狀態,從其外部輸出的數據推斷出來系統此時處于某種程度的度量,特別是我們所關心的場景和事件。二、eBPF 安全可觀測性分
    發表于 09-08 15:31

    openEuler 倡議建立 eBPF 軟件發布標準

    eBPF 被廣泛應用在云原生、可觀測、性能調優、安全、硬件加速等領域,并且其應用場景還在快速擴展,各種場景基于 eBPF 技術的創新 id
    發表于 12-23 16:21

    基于拓撲分割的網絡可觀測性分析方法

    針對電力網絡可觀測性分析問題,對量測網絡建模、網絡拓撲可觀測性分析理論、不可觀測節點的影響范圍等方面進行了研究,提出了一種基于拓撲分割的網絡可觀測
    發表于 03-06 18:03 ?0次下載
    基于拓撲分割的網絡<b class='flag-5'>可觀測</b>性分析方法

    eBPF安全可觀測性的前景展望

    本次分享將從監控和可觀測性、eBPF安全可觀測性分析、內核安全可觀測性展望三個方面展開。
    的頭像 發表于 08-17 11:27 ?1551次閱讀

    六大頂級、開源的數據可觀測性工具

    企業有很多商業數據可觀測性工具可供選擇。商業工具在可伸縮性、自動化和支持方面具有一些關鍵優勢。然而,數據可觀測性的開源工具允許團隊在沒有前期購買(獲得使用許可)成本的情況下試驗數據可觀察性功能
    的頭像 發表于 12-16 11:29 ?2020次閱讀

    Linux內核觀測技術eBPF中文入門指南

    eBPF(extened Berkeley Packet Filter)是一種內核技術,它允許開發人員在不修改內核代碼的情況下運行特定的功能。eBPF 的概念源自于 Berkeley Packet Filter(BPF),后者是由貝爾實驗室開發的一種網絡過濾器,可以捕獲和
    的頭像 發表于 02-08 09:45 ?2194次閱讀

    eBPF,何以稱得上是革命性的內核技術?

    提供了一種通用執行引擎,可以基于系統或程序事件高效安全地執行特定代碼,就像在實時 (JIT) 編譯器和驗證引擎的幫助下進行本機編譯一樣。 如今,eBPF 被廣泛用于各種場景:在現代數據中心和云原生環境中提供高性能網絡和負載平衡,以低成本提取細粒度的安全
    的頭像 發表于 05-08 08:26 ?601次閱讀
    <b class='flag-5'>eBPF</b>,何以稱得上是革命性的內核技術?

    華為云應用運維管理平臺獲評中國信通院可觀測性評估先進級

    近日,華為云應用運維管理平臺參與了中國信息通信研究院(以下簡稱“中國信通院”)主辦的“穩保行動”的可觀測性平臺能力評估。經過中國信通院的檢驗,華為云應用運維管理平臺滿足云上軟件系統穩定-可觀測性平臺
    的頭像 發表于 07-01 21:16 ?504次閱讀
    華為云應用運維管理平臺獲評中國信通院<b class='flag-5'>可觀測</b>性評估先進級

    使用APM無法實現真正可觀測性的原因

    控制理論中的可觀測性是指:系統可以由其外部輸出確定其內部狀態的程度。在復雜 IT 系統中,具備可觀測性是為了讓系統能達到某個預定的穩定性、錯誤率目標。隨著微服務數量的急速膨脹和云原生基礎設施的快速演進,建設可觀測性已經成為了保障
    的頭像 發表于 09-18 10:23 ?929次閱讀
    使用APM無法實現真正<b class='flag-5'>可觀測</b>性的原因

    什么是多云? 為什么我們需要多云可觀測性 (Observability)?

    什么是多云? 為什么我們需要多云可觀測性 (Observability)?
    的頭像 發表于 10-12 17:12 ?631次閱讀
    什么是多云? 為什么我們需要多云<b class='flag-5'>可觀測</b>性 (Observability)?

    如何構建APISIX基于DeepFlow的統一可觀測性能力呢?

    隨著應用組件的可觀測性逐漸受到重視,Apache APISIX 引入插件機制豐富了可觀測數據源。
    的頭像 發表于 01-18 10:11 ?977次閱讀
    如何構建APISIX基于DeepFlow的統一<b class='flag-5'>可觀測</b>性能力呢?

    華為云發布全棧可觀測平臺 AOM,以 AI 賦能應用運維可觀測

    9 月 19 日,華為全聯接大會 2024 舉辦期間,在“ AI 賦能應用現代化,加速軟件生產力躍升”為主題的論壇上,華為云發布全棧 可觀測平臺AOM ,以 AI 賦能應用運維可觀測,提升企業
    的頭像 發表于 10-15 09:54 ?515次閱讀
    華為云發布全棧<b class='flag-5'>可觀測</b>平臺 AOM,以 AI 賦能應用運維<b class='flag-5'>可觀測</b>

    【質量視角】可觀測性背景下的質量保障思路

    目前質量團隊正在積極建設和完善應用監控能力,旨在能及時發現并解決問題,為線上服務穩定性保駕護航。隨著可觀測性概念的逐漸普及,監控的建設也有了新的挑戰和使命。本文將探討在可觀測性背景下,作為一個測試
    的頭像 發表于 10-25 17:21 ?250次閱讀
    【質量視角】<b class='flag-5'>可觀測</b>性背景下的質量保障思路

    eBPF技術實踐之virtio-net網卡隊列可觀測

    時,這一路徑難以進行觀測。一些復雜的網絡抖動問題很可能是由于網卡隊列不正常工作引起的。為了解決這類問題,我們基于eBPF技術擴展了網卡隊列的可觀測能力,使得virtio網卡前后端的定界問題不再困擾。 virtio-net 前后端
    的頭像 發表于 11-14 11:18 ?194次閱讀
    <b class='flag-5'>eBPF</b>技術實踐之virtio-net網卡隊列<b class='flag-5'>可觀測</b>
    主站蜘蛛池模板: 极品虎白在线观看| 国产AV精品白浆一区二| 99re久久热在线视频| 99久久久久精品国产免费麻豆| 97精品一区二区视频在线观看| 99久热这里精品免费| 成人精品视频网站| 黄色软件色多多| 久久精品美女| 男人国产AV天堂WWW麻豆| 日本边添边摸边做边爱边| 视频在线免费观看| 亚洲精品AV一区午夜福利| 国产在线精品一区二区在线看| 中文字幕网站在线观看| 99精品视频在线观看免费播放| 成人免费小视频| 国产在线自天天人人| 美女的隐私蜜桃传媒免费看| 日韩欧美中文字幕一区| 性色香蕉AV久久久天天网| 一边啪啪的一边呻吟声口述| 999zyz色资源站在线观看| 广播电台在线收听| 精精国产www视频在线观看免费| 伦理片 qvod| 爽爽影院线观看免费| 亚洲一二三产品区别在哪里| 2021国产在线视频| 东京热 百度影音| 九色PORNY丨视频入口| 秋霞电影网视频一区二区三区| 中文字幕无码亚洲字幕成A人蜜桃| 中文无码不卡的岛国片国产片| 达达兔欧美午夜国产亚洲| 黑人巨大交牲老太| 拍戏被CAO翻了H| 亚洲乱码中文字幕久久孕妇黑人| 99精品久久精品一区二区| 国产亚洲精品AAAAAAA片| 欧美123区|