使用 dd 檢查儲存效能

2019-08-07 07:00:00

本文包含一些範例命令,向你展示如何使用 dd 命令粗略估計硬碟機和 RAID 陣列的效能。準確的測量必須考慮諸如寫入放大系統呼叫開銷之類的事情,本指南不會考慮這些。對於可能提供更準確結果的工具,你可能需要考慮使用 hdparm

為了分解與檔案系統相關的效能問題,這些範例顯示了如何通過直接讀取和寫入塊裝置來在塊級測試驅動器和陣列的效能。警告寫入測試將會銷毀用來執行測試的塊裝置上的所有資料。不要對包含你想要保留的資料的任何裝置執行這些測試!

四個測試

下面是四個範例 dd 命令,可用於測試塊裝置的效能:

1、 從 $MY_DISK 讀取的一個進程:

# dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache

2、寫入到 $MY_DISK 的一個進程:

# dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct

3、從 $MY_DISK 並行讀取的兩個進程:

# (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache &); (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache skip=200 &)

4、 並行寫入到 $MY_DISK 的兩個進程:

# (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct &); (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct skip=200 &)
  • 執行讀寫測試時,相應的 iflag=nocacheoflag=direct 引數非常重要,因為沒有它們,dd 命令有時會顯示從記憶體中傳輸資料的結果速度,而不是從硬碟。
  • bscount 引數的值有些隨意,我選擇的值應足夠大,以便在大多數情況下為當前硬體提供合適的平均值。
  • nullzero 裝置在讀寫測試中分別用於目標和源,因為它們足夠快,不會成為效能測試中的限制因素。
  • 並行讀寫測試中第二個 dd 命令的 skip=200 引數是為了確保 dd 的兩個副本在硬碟機的不同區域上執行。

16 個範例

下面是演示,顯示針對以下四個塊裝置中之一執行上述四個測試中的各個結果:

  1. MY_DISK=/dev/sda2(用在範例 1-X 中)
  2. MY_DISK=/dev/sdb2(用在範例 2-X 中)
  3. MY_DISK=/dev/md/stripped(用在範例 3-X 中)
  4. MY_DISK=/dev/md/mirrored(用在範例 4-X 中)

首先將計算機置於救援模式,以減少後台服務的磁碟 I/O 隨機影響測試結果的可能性。警告:這將關閉所有非必要的程式和服務。在執行這些命令之前,請務必儲存你的工作。你需要知道 root 密碼才能進入救援模式。passwd 命令以 root 使用者身份執行時,將提示你(重新)設定 root 帳戶密碼。

$ sudo -i# passwd# setenforce 0# systemctl rescue

你可能還想暫時禁止將紀錄檔記錄到磁碟:

# sed -r -i.bak 's/^#?Storage=.*/Storage=none/' /etc/systemd/journald.conf# systemctl restart systemd-journald.service

如果你有交換裝置,可以暫時禁用它並用於執行後面的測試:

# swapoff -a# MY_DEVS=$(mdadm --detail /dev/md/swap | grep active | grep -o "/dev/sd.*")# mdadm --stop /dev/md/swap# mdadm --zero-superblock $MY_DEVS

範例 1-1 (從 sda 讀取)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 1)# dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 1.7003 s, 123 MB/s

範例 1-2 (寫入到 sda)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 1)# dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 1.67117 s, 125 MB/s

範例 1-3 (從 sda 並行讀取)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 1)# (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache &); (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache skip=200 &)
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 3.42875 s, 61.2 MB/s200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 3.52614 s, 59.5 MB/s

範例 1-4 (並行寫入到 sda)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 1)# (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct &); (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct skip=200 &)
200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 3.2435 s, 64.7 MB/s200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 3.60872 s, 58.1 MB/s

範例 2-1 (從 sdb 讀取)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 2)# dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 1.67285 s, 125 MB/s

範例 2-2 (寫入到 sdb)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 2)# dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 1.67198 s, 125 MB/s

範例 2-3 (從 sdb 並行讀取)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 2)# (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache &); (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache skip=200 &)
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 3.52808 s, 59.4 MB/s200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 3.57736 s, 58.6 MB/s

範例 2-4 (並行寫入到 sdb)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 2)# (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct &); (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct skip=200 &)
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 3.7841 s, 55.4 MB/s200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 3.81475 s, 55.0 MB/s

範例 3-1 (從 RAID0 讀取)

# mdadm --create /dev/md/stripped --homehost=any --metadata=1.0 --level=0 --raid-devices=2 $MY_DEVS# MY_DISK=/dev/md/stripped# dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 0.837419 s, 250 MB/s

範例 3-2 (寫入到 RAID0)

# MY_DISK=/dev/md/stripped# dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 0.823648 s, 255 MB/s

範例 3-3 (從 RAID0 並行讀取)

# MY_DISK=/dev/md/stripped# (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache &); (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache skip=200 &)
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 1.31025 s, 160 MB/s200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 1.80016 s, 116 MB/s

範例 3-4 (並行寫入到 RAID0)

# MY_DISK=/dev/md/stripped# (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct &); (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct skip=200 &)
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 1.65026 s, 127 MB/s200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 1.81323 s, 116 MB/s

範例 4-1 (從 RAID1 讀取)

# mdadm --stop /dev/md/stripped# mdadm --create /dev/md/mirrored --homehost=any --metadata=1.0 --level=1 --raid-devices=2 --assume-clean $MY_DEVS# MY_DISK=/dev/md/mirrored# dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 1.74963 s, 120 MB/s

範例 4-2 (寫入到 RAID1)

# MY_DISK=/dev/md/mirrored# dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 1.74625 s, 120 MB/s

範例 4-3 (從 RAID1 並行讀取)

# MY_DISK=/dev/md/mirrored# (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache &); (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache skip=200 &)
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 1.67171 s, 125 MB/s200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 1.67685 s, 125 MB/s

範例 4-4 (並行寫入到 RAID1)

# MY_DISK=/dev/md/mirrored# (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct &); (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct skip=200 &)
200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 4.09666 s, 51.2 MB/s200+0 records in200+0 records out209715200 bytes (210 MB, 200 MiB) copied, 4.1067 s, 51.1 MB/s

恢復交換裝置和紀錄檔設定

# mdadm --stop /dev/md/stripped /dev/md/mirrored# mdadm --create /dev/md/swap --homehost=any --metadata=1.0 --level=1 --raid-devices=2 $MY_DEVS# mkswap /dev/md/swap# swapon -a# mv /etc/systemd/journald.conf.bak /etc/systemd/journald.conf# systemctl restart systemd-journald.service# reboot

結果解讀

範例 1-1、1-2、2-1 和 2-2 表明我的每個驅動器以大約 125 MB/s 的速度讀寫。

範例 1-3、1-4、2-3 和 2-4 表明,當在同一驅動器上併行完成兩次讀取或寫入時,每個進程的驅動器頻寬大約為一半(60 MB/s)。

3-X 範例顯示了將兩個驅動器放在 RAID0(資料條帶化)陣列中的效能優勢。在所有情況下,這些數位表明 RAID0 陣列的執行速度是任何一個驅動器能夠獨立提供的速度的兩倍。相應的是,丟失所有內容的可能性也是兩倍,因為每個驅動器只包含一半的資料。一個三個驅動器陣列的執行速度是單個驅動器的三倍(所有驅動器規格都相同),但遭受災難性故障的可能也是三倍。

4-X 範例顯示 RAID1(資料映象)陣列的效能類似於單個磁碟的效能,除了多個進程同時讀取的情況(範例4-3)。在多個進程讀取的情況下,RAID1 陣列的效能類似於 RAID0 陣列的效能。這意味著你將看到 RAID1 的效能優勢,但僅限於進程同時讀取時。例如,當你在前台使用 Web 瀏覽器或電子郵件用戶端時,進程會嘗試存取後台中的大量檔案。RAID1 的主要好處是,如果驅動器出現故障,你的資料不太可能丟失。

故障排除

如果上述測試未按預期執行,則可能是驅動器壞了或出現故障。大多數現代硬碟都內建了自我監控、分析和報告技術(SMART)。如果你的驅動器支援它,smartctl 命令可用於查詢你的硬碟機的內部統計資訊:

# smartctl --health /dev/sda# smartctl --log=error /dev/sda# smartctl -x /dev/sda

另一種可以調整 PC 以獲得更好效能的方法是更改 I/O 排程程式。Linux 系統支援多個 I/O 排程程式,Fedora 系統的當前預設值是 deadline 排程程式的 multiqueue 變體。預設情況下它的整體效能非常好,並且對於具有許多處理器和大型磁碟陣列的大型伺服器,其擴充套件性極為出色。但是,有一些更專業的排程程式在某些條件下可能表現更好。

要檢視驅動器正在使用的 I/O 排程程式,請執行以下命令:

$ for i in /sys/block/sd?/queue/scheduler; do echo "$i: $(<$i)"; done

你可以通過將所需排程程式的名稱寫入 /sys/block/<device name>/queue/scheduler 檔案來更改驅動器的排程程式:

# echo bfq > /sys/block/sda/queue/scheduler

你可以通過為驅動器建立 udev 規則來永久更改它。以下範例顯示了如何建立將所有的旋轉式驅動器設定為使用 BFQ I/O 排程程式的 udev 規則:

# cat << END > /etc/udev/rules.d/60-ioscheduler-rotational.rulesACTION=="add|change", KERNEL=="sd[a-z]", ATTR{queue/rotational}=="1", ATTR{queue/scheduler}="bfq"END

這是另一個設定所有的固態驅動器使用 NOOP I/O 排程程式的範例:

# cat << END > /etc/udev/rules.d/60-ioscheduler-solid-state.rulesACTION=="add|change", KERNEL=="sd[a-z]", ATTR{queue/rotational}=="0", ATTR{queue/scheduler}="none"END

更改 I/O 排程程式不會影響裝置的原始吞吐量,但通過優先考慮後台任務的頻寬或消除不必要的塊重新排序,可能會使你的 PC 看起來響應更快。