[測試] lvm SSD cache

ching有冇試過
https://rwmj.wordpress.com/2014/ ... -new-cache-feature/
http://blog.macronet.fi/2014/10/09/using-lvm-with-ssd-cache/

以前睇過哩類 block level caching 方案,最後決定用 ZFS on linux,行 mirroring 再加一隻 SSD split 做 log 同 L2ARC cache。

TOP

有4隻SAS行RAID6 , 1隻SSD諗住行LVM CACHE
可行嗎
THX

TOP

可以試吓起個 vm 玩吓先,
曾經用 vm 起過 bcache, 不過冇試 lvm
只係 virtual disk raid 5 --> bcache --> normal mount point
1. 如果冇記錯, 個 ssd 一死, 就一定要有另外一隻代替,
先可以起機, 或者抄返啲 files。
2. 後尾好似睇到有 uty, 可以直抄, 唔係好 sure。
3. bcache 只係 cache 啲細 files,
i/o 會快咗, 會 bypass 啲大 files。
4. 要用 initramfs 去 mount raid + bcache --> mount system --> boot
如果再加理 lvm, 就更加冇走雞。
嗰時仲要自己搞個 initramfs,
standard procedures gen 嗰個唔得

TOP

可以試吓起個 vm 玩吓先,
曾經用 vm 起過 bcache, 不過冇試 lvm
只係 virtual disk raid 5 --> bcache -->  ...
cal22cal 發表於 2015-10-13 07:41



    thx好似幾多風險
我試過一有問題BOOT唔起機囧
但又想用返個SSD

TOP

一係將個 rootfs 搬去 ssd with 好 backup, normal operations 會快啲,
lvm 嘅 data txaction 就唔會快咗,
一係直上 zfs, 不過嗰個 h/w config 都幾係嘢

TOP

八掛一問,你可唔可以 OS 同 data 分開碟放?
例如 system 碟一隻 (or 兩隻 raid1),data 就放 disk array。
咁樣去 maintain 個 disk array 會靈活得多。

講開 ZFS 可能有啲 off-topic (vs LVM cache) ,不過如果 ZFS 死咗 SSD cache,就咁打 "zpool remove cache <dev>" 就得,因為屬 read cache 所以冇咩後果。更重要係 add/remove 過程毋需涉及到 disk array 同 file system。

ZFS 可以用 SSD 嘅 cache  有兩種,除咗主要用於 read cache 嘅 L2ARC 之外,另一種叫 SLOG 。因為 SLOG 係用來快寫 transaction log (正名叫 ZFS intent log),同時又能夠做 <64kB sync writes 嘅 writeback cache,所以唔可以死。若果想玩大啲,SLOG 仲可以行 SSD mirror。

假如套 disk array 係 read 多 write 少,可以淨要 L2ARC 唔要 SLOG 就得。
我自己套 setup 係用來 serve 小型 ESXi datastore。當初又係好似你咁,想用 SSD cache,睇過晒啲咩 dm-cache/flashcache/iscsi 方法,亦唔想用 battery-backed hardware raid 又貴又煩。

所以最後揀咗 ZFS, 又平又快,易 main 又安全。萬一隻 OS 碟有事,起隻新 linux 再 compile 返兩個 SPL、ZFS 嘅 kernel modules,跟住就可以 import 返成個 ZFS pool。

TOP

多謝兩位CHING
我都試下係VM行ZFS先
識用完再重新整過D SERVER
SERVER怕IO慢冇用VM

TOP