華為雲 MRS 基於 Apache Hudi 極致查詢優化的探索實踐

2022-11-07 12:01:53

背景

湖倉一體(LakeHouse)是一種新的開放式架構,它結合了資料湖和資料倉儲的最佳元素,是當下巨量資料領域的重要發展方向。
華為雲早在2020年就開始著手相關技術的預研,並落地在華為雲 FusionInsight MRS智慧資料湖解決方案中。

目前主流的三巨量資料湖元件 Apache Hudi、Iceberg、Delta各有優點,業界也在不斷探索選擇適合自己的方案。

華為湖倉一體架構核心基座是 Apache Hudi,所有入湖資料通過 Apache Hudi 承載, 對外通過 HetuEngine(Presto增強版)引擎承擔一站式SQL分析角色,因此如何更好的結合 Presto 和 Hudi 使其查詢效率接近專業的分散式數倉意義重大。查詢效能優化是個很大的課題,包括索引、資料佈局、預聚合、統計資訊、引擎 Runtime優化等等。

本文主要介紹 Presto 如何更好的利用 Hudi 的資料佈局、索引資訊來加速點查效能。預聚合和統計資訊我們將在後續分享。

資料佈局優化

巨量資料分析的點查場景一般都會帶有過濾條件,對於這種型別查詢,如果目標結果集很小,理論上我們可以通過一定手段在讀取表資料時大量跳過不相干資料,唯讀取很小的資料集,進而顯著的提升查詢效率。我們可以把上述技術稱之為 DataSkipping
好的資料佈局可以使相關資料更加緊湊(當然小檔案問題也一併處理掉了)是實現 DataSkipping的關鍵一步。日常工作中合理設定分割區欄位、資料排序都屬於資料佈局優化。 當前主流的查詢引擎 Presto/Spark 都可以對Parquet檔案做 Rowgroup 級別過濾,最新版本甚至支援 Page 級別的過濾;選取合適的資料佈局方式可以使引擎在讀取上述檔案可以利用列的統計資訊輕易過濾掉大量 Rowgroup/Page,進而減少IO。
那麼是不是 DataSkipping僅僅依賴資料佈局就好了?其實不然。上述過濾還是要開啟表裡每一個檔案才能完成過濾,因此過濾效果有限,資料佈局優化配合 FileSkipping才能更好的發揮效果。
當我們完成資料佈局後,對每個檔案的相關列收集統計資訊,下圖給個簡單的範例,資料經過排序後寫入表中生成三個檔案,指定點查 where a < 10
下圖可以清楚的看出 a < 10的結果集只存在於 parquet1檔案中,parquet2/parquet3 中 a 的最小值都比10大,顯然不可能存在結果集,所以直接裁剪掉 parquet2parquet3即可。

File minValue_a maxValue_a
parquet1 0 999
parquet2 1000 2000
parquet3 2001 3000

這就是一個簡單 FileSkippingFileSkipping的目的在於盡最大可能裁剪掉不需要的檔案,減少掃描IO,實現 FileSkipping有很多種方式,例如 min-max統計資訊過濾、BloomFilter、Bitmap、二級索引等等,每種方式都各有優缺點,其中 min-max 統計資訊過濾最為常見,也是 Hudi/Iceberg/DeltaLake 預設提供的實現方式。

Apache Hudi核心能力

1. Clustering

Hudi早在 0.7.0 版本就已經提供了 Clustering 優化資料佈局,0.10.0 版本隨著 Z-Order/Hilbert高階聚類演演算法加入,Hudi的資料佈局優化日趨強大,Hudi 當前提供以下三種不同的聚類方式,針對不同的點查場景,可以根據具體的過濾條件選擇不同的策略

方式 使用場景 額外補充說明
Order 只有一個過濾列如:where a > 10 Clustering時只需按a排序即可 Order排序具有一定特殊性,當指定多列排序時,最終排序結果以第一列為準,其他列很難本有序。PS:主要這並不代表Order不能用於多列排序。以下場景可以直接用Order多列排序:1. 排序列都是低基欄位;2. 只有一個高基欄位,將該高基欄位放到排序列最後
Z-Order 多個過濾欄位,一般2到4個,超過4個效果要打折扣,Z-Order簡單來說是一種均勻排序的思想,經過該演演算法參與排序的所有列都會基本有序,不會出現Order那種只排第一列的情況 多列排序效果絕大數情況下比Order要好,但是構建速度相比Order較慢。PS: 對於2列低基欄位排序,選擇Order比較合適
Hilbert 和Z-Order一樣,不過排序效果更好,但構建速度更慢 同上

關於 Z-Order、Hilbert 具體原理可以查閱相關Wiki,https://en.wikipedia.org/wiki/Z-order 本文不再詳細贅述。

2. Metadata Table(MDT)

Metadata Table(MDT):Hudi的後設資料資訊表,是一個自管理的 Hudi MoR表,位於 Hudi 表的 .hoodie目錄,開啟後用戶無感知。同樣的 Hudi 很早就支援 MDT,經過不斷迭代 0.12版本 MDT 已經成熟,當前 MDT 表已經具備如下能力

Column_stats/Bloomfilter

上文我們介紹了資料佈局優化,接下來說說 Hudi 提供的 FileSkipping能力。
當前 Hudi 支援對指定列收集包括min-max value,null count,total count 在內的統計資訊,並且 Hudi 保證這些資訊收集是原子性,利用這些統計資訊結合查詢引擎可以很好的完成 FileSkipping大幅度減少IO。
BloomFilter是 Hudi 提供的另一種能力,當前只支援對主鍵構建 BloomFilter。BloomFilter判斷不存在就一定不存在的特性,可以很方便進行 FileSkipping,我們可以將查詢條件直接作用到每個檔案的 BloomFilter 上,進而過濾點無效的檔案,注意 BloomFilter 只適合等值過濾條件例如where a = 10,對於 a > 10這種就無能為力。

高效能FileList

在查詢超大規模資料集時,FileList是不可避免的操作,在 HDFS 上該操作耗時還可以接受,一旦涉及到物件儲存,大規模 FileList 效率極其低下,Hudi 引入 MDT 將檔案資訊直接儲存在下來,從而避免了大規模FileList

Presto 與 Hudi的整合

HetuEngine(Presto)作為資料湖對外出口引擎,其查詢 Hudi 能力至關重要。對接這塊我們主要針對點查和複雜查詢做了不同的優化,下文著重介紹點查場景。
在和 Hudi 整合之前首先要解決如下問題

  1. 如何整合 Hudi,在 Hive Connector 直接魔改,還是使用獨立的 Hudi Connector?
  2. 支援哪些索引做 DataSkipping?
  3. DataSkipping 在 Coordinator 側做還是在 Worker 端做?

問題1: 經過探討我們決定使用 Hudi Connector承載本次優化。當前社群的 Connector 還略優不足,缺失一些優化包括統計資訊、Runtime Filter、Filter不能下推等導致 TPC-DS 效能不是很理想,我們在本次優化中重點優化了這塊,後續相關優化會推給社群。

問題2: 內部 HetuEngine 其實已經支援 Bitmap 和二級索引,本次重點整合了 MDT 的 Column statistics和 BloomFilter 能力,利用 Presto下推的 Filter 直接裁剪檔案。

問題3: 關於這個問題我們做了測試,對於 column 統計資訊來說,總體資料量並不大,1w 個檔案統計資訊大約幾M,載入到 Coordinator 記憶體完全沒有問題,因此選擇在 Coordinator 側直接做過濾。

對於 BloomFilter、Bitmap 就完全不一樣了,測試結果表明 1.4T 資料產生了 1G 多的 BloomFilter 索引,把這些索引載入到 Coordinator 顯然不現實。我們知道 Hudi MDT 的 BloomFilter 實際是存在 HFile裡,HFile點查十分高效,因此我們將 DataSkipping 下壓到 Worker 端,每個 Task 點查 HFile 查出自己的 BloomFilter 資訊做過濾。

點查場景測試

測試資料

我們採用和 ClickHouse 一樣的SSB資料集進行測試,資料規模1.5T,120億條資料。

$ ./dbgen -s 2000 -T c
$ ./dbgen -s 2000 -T l
$ ./dbgen -s 2000 -T p
$ ./dbgen -s 2000 -T s

測試環境

1CN+3WN Container 170GB,136GB JVM heap, 95GB Max Query Memory,40vcore

資料處理

利用 Hudi 自帶的 Hilbert 演演算法直接預處理資料後寫入目標表,這裡 Hilbert 演演算法指定 S_CITY,C_CITY,P_BRAND, LO_DISCOUNT作為排序列。

SpaceCurveSortingHelper
.orderDataFrameBySamplingValues(df.withColumn("year", expr("year((LO_ORDERDATE))")), LayoutOptimizationStrategy.HILBERT, Seq("S_CITY", "C_CITY", "P_BRAND", "LO_DISCOUNT"), 9000)
.registerTempTable("hilbert")
spark.sql("insert into lineorder_flat_parquet_hilbert select * from hilbert")

測試結果

使用冷啟動方式,降低 Presto 快取對效能的影響。

SSB Query

檔案讀取量

  1. 對於所有 SQL 我們可以看到 2x - 11x 的效能提升, FileSkipping 效果更加明顯過濾掉的檔案有 2x - 200x 的提升。
  2. 即使沒有 MDT ,Presto 強大的 Rowgroup 級別過濾,配合 Hilbert 資料佈局優化也可以很好的提升查詢效能。
  3. SSB模型掃描的列資料都比較少, 實際場景中如果掃描多個列 Presto + MDT+ Hilbert 的效能可以達到 30x 以上。
  4. 測試中同樣發現了MDT的不足,120億資料產生的MDT表有接近50M,載入到記憶體裡面需要一定耗時,後續考慮給MDT設定快取盤加快讀取效率。

關於 BloomFilter 的測試,由於 Hudi 只支援對主鍵構建 BloomFilter,因此我們構造了1000w 資料集做測試

spark.sql(
  """
    |create table prestoc(
    |c1 int,
    |c11 int,
    |c12 int,
    |c2 string,
    |c3 decimal(38, 10),
    |c4 timestamp,
    |c5 int,
    |c6 date,
    |c7 binary,
    |c8 int
    |) using hudi
    |tblproperties (
    |primaryKey = 'c1',
    |preCombineField = 'c11',
    |hoodie.upsert.shuffle.parallelism = 8,
    |hoodie.table.keygenerator.class = 'org.apache.hudi.keygen.SimpleKeyGenerator',
    |hoodie.metadata.enable = "true",
    |hoodie.metadata.index.column.stats.enable = "true",
    |hoodie.metadata.index.column.stats.file.group.count = "2",
    |hoodie.metadata.index.column.stats.column.list = 'c1,c2',
    |hoodie.metadata.index.bloom.filter.enable = "true",
    |hoodie.metadata.index.bloom.filter.column.list = 'c1',
    |hoodie.enable.data.skipping = "true",
    |hoodie.cleaner.policy.failed.writes = "LAZY",
    |hoodie.clean.automatic = "false",
    |hoodie.metadata.compact.max.delta.commits = "1"
    |)
    |
    |""".stripMargin)

最終一共產生了8個檔案,結合 BloomFilter Skipping掉了7 個,效果非常明顯。

後續工作

後續關於點查這塊工作會重點關注 Bitmap 以及二級索引。最後總結一下 DataSkipping 中各種優化技術手段的選擇方式。

  1. Clustering中各種排序方式需要結合 Column statistics 才能達到更好的效果。
  2. BloomFilter 適合等值條件點查,不需要資料做排序, 但是要選擇高基欄位,低基欄位 BloomFIlter 用處不大;另外超高基也不要選 BloomFilter,產出的 BloomFilter 結果太大。