- 主题:[求助]请问ZFS可以用2个硬盘建raidz1吗?
因为raid卡是实现逻辑磁盘的硬件手段,而ZFS它是个文件系统。
所以:
ZFS不用fsck(COW)
ZFS有snapshot,谁用谁知道有多好……
ZFS有256位的checksum,可以杜绝Silent Data Corruption,保证数据正确。
ZFS可以开启lz4压缩的情况节省空间且速度不受影响(某些场景可能更快)
ZFS rebuild可以只重建差异的部分(想想8T,16T硬盘raid rebuild的痛苦……)
ZFS支持多种大小数据块
还有很多特性,是因为它是一个文件系统,可以去实现这些。
【 在 leeyc (巡山小校) 的大作中提到: 】
: 现在的硬raid卡也才几十块钱,何必折腾软raid呢
--
FROM 210.162.8.*
经过进一个星期的摸索,没有搞成2个硬盘建raidz1之后再增加一个硬盘,放弃raidz1了。
【 在 Dazzy 的大作中提到: 】
: raidz1对标raid5,要求三个盘没毛病。2加到3盘,那是坏1盘rebuild才会有的。既然你说可以2盘,不妨继续练下去,遇到问题再搜,效率更高。
--
FROM 113.88.168.*
这样建成的raidz1容量很小,也不能加硬盘,放弃了。
【 在 myfreeware 的大作中提到: 】
: 如果zpool create ttt raidz1 /dev/sda /dev/sdb命令执行成功,并且zpool status命令显示pool状态正常,那这个raidz1就没问题。
: 2块盘的raidz1没有意义,增加磁盘会在线rebuild的raidz1。
--
FROM 113.88.168.*
早看到你的回复就少折腾几天。。。目前改用mirror了
【 在 stany 的大作中提到: 】
: zfs做好raid之后没法再新增的。只能置换。
:
--
FROM 113.88.168.*
我最开始折腾软raid,然后经过大拿们的科普,认识到raid不如zfs可靠,zfs有文件校验,可靠性更高。
【 在 leeyc 的大作中提到: 】
: 现在的硬raid卡也才几十块钱,何必折腾软raid呢
--
FROM 113.88.168.*
受教了,请问我开启lz4压缩,开了dedup,其他默认。用rsync将数据拷贝到zfs的同时,打开zfs系统里面的文件会卡顿很久,这种怎么解决呀。
【 在 hyoga 的大作中提到: 】
: 因为raid卡是实现逻辑磁盘的硬件手段,而ZFS它是个文件系统。
: 所以:
: ZFS不用fsck(COW)
: ...................
--
FROM 113.88.168.*
zfs的dedup对cpu及内存要求高,一般不开。
读写效率比硬盘空间重要多了。
zdb -S -U /data/zfs/zpool.cache tank
如果数据多运行时间很长。
bucket allocated referenced
______ ______________________________ ______________________________
refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE
------ ------ ----- ----- ----- ------ ----- ----- -----
1 70.1M 2.19T 1.20T 1.71T 70.1M 2.19T 1.20T 1.71T
2 25.9M 827G 513G 681G 61.1M 1.91T 1.13T 1.53T
4 4.67M 150G 74.1G 107G 21.5M 687G 345G 495G
8 1013K 31.6G 17.0G 23.6G 10.6M 340G 178G 250G
16 773K 24.1G 13.4G 18.1G 16.2M 517G 293G 394G
32 97.9K 3.06G 1.72G 2.27G 4.06M 130G 72.9G 96.3G
64 10.6K 340M 190M 257M 877K 27.5G 15.3G 20.7G
128 1.64K 53.1M 20.9M 34.6M 280K 8.83G 3.49G 5.77G
256 1.17K 37.6M 26.1M 33.0M 412K 12.9G 8.99G 11.3G
512 387 12.1M 7.80M 9.98M 247K 7.71G 4.89G 6.32G
1K 184 5.75M 3.46M 4.68M 268K 8.38G 5.32G 7.00G
2K 43 1.34M 704K 932K 111K 3.48G 1.81G 2.38G
4K 11 352K 191K 247K 54.9K 1.72G 905M 1.17G
8K 8 256K 4K 73.1K 108K 3.37G 53.9M 986M
16K 33 1.03M 1.02M 1.17M 728K 22.7G 22.5G 25.7G
64K 2 64K 1K 18.3K 205K 6.40G 102M 1.83G
Total 102M 3.20T 1.81T 2.52T 187M 5.83T 3.26T 4.52T
dedup = 1.80, compress = 1.79, copies = 1.39, dedup * compress / copies = 2.32
1.如果输出结果中的dedup值大于2,则可以考虑开启去重,小于2的话,说明数据重复率不高,没有必要开启。
2.内存需求:
每个核内重复数据删除表 (DDT) 项约为 320 字节。
将分配的块的数量乘以 320。
下面的示例使用清单中 zdb 信息中的数据:
核内 DDT 大小 (102M) x 320 = 需要 32G 内存
【 在 ttaudi (ttaudi) 的大作中提到: 】
: 受教了,请问我开启lz4压缩,开了dedup,其他默认。用rsync将数据拷贝到zfs的同时,打开zfs系统里面的文件会卡顿很久,这种怎么解决呀。
--
FROM 27.8.136.*
关了dedup
【 在 ttaudi (ttaudi) 的大作中提到: 】
: 受教了,请问我开启lz4压缩,开了dedup,其他默认。用rsync将数据拷贝到zfs的同时,打开zfs系统里面的文件会卡顿很久,这种怎么解决呀。
--
FROM 106.37.96.*
我这边跑DDT的到dedup = 1.50,是不是开dedup不起作用了。
再根据你给的公式,如果开dedup是不是要10.9M×320=3264M的内存。
Simulated DDT histogram:
bucket allocated referenced
______ ______________________________ ______________________________
refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE
------ ------ ----- ----- ----- ------ ----- ----- -----
1 7.81M 812G 652G 654G 7.81M 812G 652G 654G
2 2.53M 265G 226G 226G 5.56M 578G 490G 492G
4 422K 36.8G 28.2G 28.4G 2.13M 194G 153G 154G
8 92.6K 6.18G 4.49G 4.56G 919K 59.6G 41.9G 42.6G
16 20.2K 849M 382M 402M 429K 17.4G 7.60G 8.02G
32 9.90K 563M 180M 189M 422K 22.6G 7.29G 7.70G
64 3.76K 124M 71.0M 76.2M 337K 11.2G 6.64G 7.10G
128 1.62K 46.2M 29.0M 31.3M 271K 7.90G 4.89G 5.27G
256 304 10.3M 5.57M 6.07M 108K 3.61G 1.98G 2.16G
512 131 1.97M 912K 1.14M 83.6K 1.21G 555M 721M
1K 18 519K 111K 160K 27.1K 896M 192M 263M
2K 11 350K 41K 68K 32.1K 903M 96.6M 179M
4K 1 128K 4K 4K 5.18K 664M 20.7M 20.7M
16K 1 128K 4K 4K 21.4K 2.67G 85.6M 85.6M
Total 10.9M 1.09T 911G 914G 18.1M 1.67T 1.33T 1.34T
dedup = 1.50, compress = 1.25, copies = 1.01, dedup * compress / copies = 1.87
【 在 stany 的大作中提到: 】
: zfs的dedup对cpu及内存要求高,一般不开。
: 读写效率比硬盘空间重要多了。
:
: ...................
--
FROM 113.88.170.*
都说关dedup,是不是这个造成慢的原因。
zfs不会像btrfs那样越用越慢吧?
【 在 cppbuilder 的大作中提到: 】
: 关了dedup
:
--
FROM 113.88.170.*