色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Spark優化:小文件合并的步驟

如意 ? 來源:segmentfault.com ? 作者:華為云開發者社區 ? 2020-08-13 17:53 ? 次閱讀

我們知道,大部分Spark計算都是在內存中完成的,所以Spark的瓶頸一般來自于集群(standalone, yarn, mesos, k8s)的資源緊張,CPU網絡帶寬,內存。Spark的性能,想要它快,就得充分利用好系統資源,尤其是內存和CPU。有時候我們也需要做一些優化調整來減少內存占用,例如將小文件進行合并的操作。

一、問題現象

我們有一個15萬條總數據量133MB的表,使用SELECT * FROM bi.dwd_tbl_conf_info全表查詢耗時3min,另外一個500萬條總數據量6.3G的表ods_tbl_conf_detail,查詢耗時23秒。兩張表均為列式存儲的表。

大表查詢快,而小表反而查詢慢了,為什么會產生如此奇怪的現象呢?

二、問題探詢

數據量6.3G的表查詢耗時23秒,反而數據量133MB的小表查詢耗時3min,這非常奇怪。我們收集了對應的建表語句,發現兩者沒有太大的差異,大部分為String,兩表的列數也相差不大。

CREATE TABLE IF NOT EXISTS `bi`。`dwd_tbl_conf_info` ( `corp_id` STRING COMMENT ‘’, `dept_uuid` STRING COMMENT ‘’, `user_id` STRING COMMENT ‘’, `user_name` STRING COMMENT ‘’, `uuid` STRING COMMENT ‘’, `dtime` DATE COMMENT ‘’, `slice_number` INT COMMENT ‘’, `attendee_count` INT COMMENT ‘’, `mr_id` STRING COMMENT ‘’, `mr_pkg_id` STRING COMMENT ‘’, `mr_parties` INT COMMENT ‘’, `is_mr` TINYINT COMMENT ‘R’, `is_live_conf` TINYINT COMMENT ‘’ ) CREATE TABLE IF NOT EXISTS `bi`。`ods_tbl_conf_detail` ( `id` string, `conf_uuid` string, `conf_id` string, `name` string, `number` string, `device_type` string, `j_time` bigint, `l_time` bigint, `media_type` string, `dept_name` string, `UPDATETIME` bigint, `CREATETIME` bigint, `user_id` string, `USERAGENT` string, `corp_id` string, `account` string )

因為兩張表均為很簡單的SELECT查詢操作,無任何復雜的聚合join操作,也無UDF相關的操作,所以基本確認查詢慢的應該發生的讀表的時候,我們將懷疑的點放到了讀表操作上。通過查詢兩個查詢語句的DAG和任務分布,我們發現了不一樣的地方。

查詢快的表,查詢時總共有68個任務,任務分配比如均勻,平均7~9s左右,而查詢慢的表,查詢時總共1160個任務,平均也是9s左右。如下圖所示:

Spark優化:小文件合并的步驟

至此,我們基本發現了貓膩所在。大表6.3G但文件個數小,只有68個,所以很快跑完了。而小表雖然只有133MB,但文件個數特別多,導致產生的任務特別多,而由于單個任務本身比較快,大部分時間花費在任務調度上,導致任務耗時較長。

那如何才能解決小表查詢慢的問題呢?

三、業務調優

那現在擺在我們面前就存在現在問題:

為什么小表會產生這么小文件 已經產生的這么小文件如何合并

帶著這兩個問題,我們和業務的開發人員聊了一個發現小表是業務開發人員從原始數據表中,按照不同的時間切片查詢并做數據清洗后插入到小表中的,而由于時間切片切的比較小,導致這樣的插入次數特別多,從而產生了大量的小文件。

那么我們需要解決的問題就是2個,如何才能把這些歷史的小文件進行合并以及如何才能保證后續的業務流程中不再產生小文件,我們指導業務開發人員做了以下優化:

使用INSERT OVERWRITE bi.dwd_tbl_conf_info SELECT * FROM bi.dwd_tbl_conf_info合并下歷史的數據。由于DLI做了數據一致性保護,OVERWRITE期間不影響原有數據的讀取和查詢,OVERWRITE之后就會使用新的合并后的數據。合并后全表查詢由原來的3min縮短到9s內完成。 原有表修改為分區表,插入時不同時間放入到不同分區,查詢時只查詢需要的時間段內的分區數據,進一步減小讀取數據量。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • cpu
    cpu
    +關注

    關注

    68

    文章

    10856

    瀏覽量

    211622
  • 數據庫
    +關注

    關注

    7

    文章

    3796

    瀏覽量

    64367
  • SPARK
    +關注

    關注

    1

    文章

    105

    瀏覽量

    19897
收藏 人收藏

    評論

    相關推薦

    如何優化EPS文件以提高加載速度

    用于存儲矢量圖形和位圖圖像的文件格式,它包含了PostScript語言描述的圖形。由于EPS文件可以包含復雜的圖形和圖像數據,因此文件大小通常較大。 二、優化前的準備 在開始
    的頭像 發表于 10-30 14:32 ?302次閱讀

    spark為什么比mapreduce快?

    spark為什么比mapreduce快? 首先澄清幾個誤區: 1:兩者都是基于內存計算的,任何計算框架都肯定是基于內存的,所以網上說的spark是基于內存計算所以快,顯然是錯誤的 2;DAG計算模型
    的頭像 發表于 09-06 09:45 ?258次閱讀

    labview工程文件如何生成exe

    生成可執行文件(EXE)是LabVIEW程序開發過程中的一個重要步驟,它允許用戶在沒有安裝LabVIEW的計算機上運行程序。以下是步驟和注意事項: 1. 準備工作 在開始生成EXE文件
    的頭像 發表于 09-04 17:09 ?1639次閱讀

    ModusToolbox 3.2在c代碼中包含c++代碼的正確步驟是什么?

    文件,但要在 main.c 中 #include 它們時 會導致構建失敗。 將 main.c 重命名為 main.cpp 會導致標準 XMC 庫函數(如 XMC_GPIO_SetMode)中出現許多錯誤。 在 c 代碼中包含 c++ 代碼的正確步驟是什么?
    發表于 07-23 08:21

    spark運行的基本流程

    前言: 由于最近對spark的運行流程非常感興趣,所以閱讀了《Spark大數據處理:技術、應用與性能優化》一書。通過這本書的學習,了解了spark的核心技術、實際應用場景以及性能
    的頭像 發表于 07-02 10:31 ?402次閱讀
    <b class='flag-5'>spark</b>運行的基本流程

    Spark基于DPU的Native引擎算子卸載方案

    1.背景介紹 Apache Spark(以下簡稱Spark)是一個開源的分布式計算框架,由UC Berkeley AMP Lab開發,可用于批處理、交互式查詢(Spark SQL)、實時流處理
    的頭像 發表于 06-28 17:12 ?571次閱讀
    <b class='flag-5'>Spark</b>基于DPU的Native引擎算子卸載方案

    電路仿真設計步驟

    電路仿真設計是一個涉及多個步驟的過程,其主要目標是通過計算機模擬來預測和優化電路的性能。
    的頭像 發表于 03-29 14:31 ?1314次閱讀

    Spark基于DPU Snappy壓縮算法的異構加速方案

    Spark 在某些工作負載方面表現得更加優越。換句話說,Spark 啟用了內存分布數據集,除了能夠提供交互式查詢外,它還可以優化迭代工作負載。Spark SQL是
    的頭像 發表于 03-26 17:06 ?791次閱讀
    <b class='flag-5'>Spark</b>基于DPU Snappy壓縮算法的異構加速方案

    RDMA技術在Apache Spark中的應用

    背景介紹 在當今數據驅動的時代,Apache?Spark已經成為了處理大規模數據集的首選框架。作為一個開源的分布式計算系統,Spark因其高效的大數據處理能力而在各行各業中廣受歡迎。無論是金融服務
    的頭像 發表于 03-25 18:13 ?1536次閱讀
    RDMA技術在Apache <b class='flag-5'>Spark</b>中的應用

    基于DPU和HADOS-RACE加速Spark 3.x

    背景簡介 Apache Spark(下文簡稱Spark)是一種開源集群計算引擎,支持批/流計算、SQL分析、機器學習、圖計算等計算范式,以其強大的容錯能力、可擴展性、函數式API、多語言支持(SQL
    的頭像 發表于 03-25 18:12 ?1346次閱讀
    基于DPU和HADOS-RACE加速<b class='flag-5'>Spark</b> 3.x

    音視頻解碼器優化技巧:提升播放體驗的關鍵步驟

    隨著數字多媒體內容的爆炸式增長,音視頻解碼器在現代技術生活中扮演著至關重要的角色。從流暢的在線視頻流播放到高質量的本地文件解碼,解碼器的性能直接影響了我們的觀看體驗。那么,如何優化音視頻解碼器以提升
    的頭像 發表于 02-21 14:45 ?805次閱讀

    下載bin文件步驟是什么?

    下載bin文件步驟是什么?求大神指教
    發表于 02-04 08:58

    請問如何防止tasking將const變量合并?

    編譯中發現tasking將const變量值相同的變量合并了,先去掉一些優化選項還是不起作用,只能改變const變量的值,是不是有什么編譯選項可以去掉這個優化或者功能?
    發表于 02-02 08:07

    谷歌搜索引擎優化的各個方面和步驟

    谷歌搜索引擎是最受歡迎和廣泛使用的搜索引擎之一,為了使你的網站在谷歌上更好地排名并提高曝光度,你可以采取一些谷歌搜索引擎優化步驟。 使用關鍵字研究工具,如Google AdWords關鍵字規劃工具
    的頭像 發表于 01-25 10:29 ?875次閱讀

    KT148A語音芯片智能鎖擴展語音地址以及如何支持大量小文件的打包

    智能鎖的語音播放需求中,有很多需要多國語言合并在一起的需求 其中語音文件數多,并且每個語音文件小的特點 如果使用OTP的語音芯片,就很麻煩,因為用戶不可燒錄,調試也很繁瑣 同時大容量的又很貴
    的頭像 發表于 01-16 11:52 ?486次閱讀
    KT148A語音芯片智能鎖擴展語音地址以及如何支持大量<b class='flag-5'>小文件</b>的打包
    主站蜘蛛池模板: 一受n攻高h全肉np| xxxxxx日本处大片免费看| 久久国产影院| ankha成人| 天天干夜夜叭| 老牛天天晚上夜噜噜噜| 草比比过程图| 亚洲视频在线免费| 欧美日韩黄色| 婚后被调教当众高潮H喷水| 亚洲午夜精品aaa级久久久久| 久久精品国产色蜜蜜麻豆国语版| 91原创在线| 忘忧草在线影院WWW日本动漫| 久cao在线香蕉| 苍老师刺激的120分钟| 亚洲综合网国产精品一区| 欧美 亚洲 日韩 在线综合| 大胸美女洗澡扒奶衣挤奶| 亚洲精品成人久久久影院| 免费无码又爽又黄又刺激网站 | 国产精品一区二区四区| 一二三四在线高清中文版免费观看电影 | 琪琪热热色原日韩在线| 国产欧美国产综合第一区| 99久久国产综合精品国 | va亚洲va天堂va视频在线| 亚洲精品嫩草AV在线观看| 亚洲伊人情人综合网站| 热巴两次用约老师屁股发底线球| 久久久精品久久久久久| 黄页网站18以下勿看免费| 国产午夜一级淫片| 国产精品亚洲二线在线播放 | 久青草国产观看在线视频| 娇小老少配xxxxx| 国产永久免费视频| 国产亚洲欧美在线观看三区 | 免费可以看污动画软件| 久久这里只有精品视频e| 久久99精品AV99果冻|