我已经建立了一对相同的服务器,配备RAID阵列(8核,16GB RAM,12×2 TB RAID6),3个10GigE接口,以托管一些高可用性服务.
系统目前正在运行Debian 7.9 Wheezy oldstable(因为corosync / pacemaker在8.x稳定或测试时不可用).
>本地磁盘性能约为900 MB / s写入,1600 MB / s读取.
>机器之间的网络吞吐量超过700MB / s.
>通过iSCSI,每台机器可以以超过700 MB / s的速度写入另一台存储.
但是,无论我配置DRBD的方式如何,吞吐量都限制在100MB / s.它看起来像一些硬编码限制.我可以通过调整设置来可靠地降低性能,但它永远不会超过1Gbit(一次只能达到122MB / s几秒钟).我真的在这个上拉我的头发.
>普通香草仁3.18.24 amd64
> drbd 8.9.2~rc1-1~bpo70 1
配置分为两个文件:global-common.conf:
global { usage-count no; } common { handlers { } startup { } disk { on-io-error detach; # no-disk-flushes ; } net { max-epoch-size 8192; max-buffers 8192; sndbuf-size 2097152; } syncer { rate 4194304k; al-extents 6433; } }
和cluster.res:
resource rd0 { protocol C; on cl1 { device /dev/drbd0; disk /dev/sda4; address 192.168.42.1:7788; Meta-disk internal; } on cl2 { device /dev/drbd0; disk /dev/sda4; address 192.168.42.2:7788; Meta-disk internal; } }
来自cat / proc / drbdon slave的输出:
version: 8.4.5 (api:1/proto:86-101) srcversion: EDE19BAA3D4D4A0BEFD8CDE 0: cs:SyncTarget ro:Secondary/Secondary ds:Inconsistent/UpToDate C r----- ns:0 nr:4462592 dw:4462592 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:16489499884 [>....................] sync'ed: 0.1% (16103024/16107384)M finish: 49:20:03 speed: 92,828 (92,968) want: 102,400 K/sec
主服务器上vmstat 2的输出(两台机器几乎完全空闲):
procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu---- r b swpd free buff cache si so bi bo in cs us sy id wa 0 0 0 14952768 108712 446108 0 0 213 254 16 9 0 0 100 0 0 0 0 14952484 108712 446136 0 0 0 4 10063 1361 0 0 99 0 0 0 0 14952608 108712 446136 0 0 0 4 10057 1356 0 0 99 0 0 0 0 14952608 108720 446128 0 0 0 10 10063 1352 0 1 99 0 0 0 0 14951616 108720 446136 0 0 0 6 10175 1417 0 1 99 0 0 0 0 14951748 108720 446136 0 0 0 4 10172 1426 0 1 99 0
两台服务器之间的iperf输出:
------------------------------------------------------------ Client connecting to cl2,TCP port 5001 TCP window size: 325 KByte (default) ------------------------------------------------------------ [ 3] local 192.168.42.1 port 47900 connected with 192.168.42.2 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 6.87 GBytes 5.90 Gbits/sec
显然初始同步应该有点慢,但不是这么慢……此外它并没有真正对任何限制同步速率的尝试作出反应,如drbdadm disk-options –resync-rate = 800M all.
解决方法
在较新版本的DRBD(8.3.9及更新版本)中,有一个需要调整的动态重新同步控制器.在较早版本的DRBD设置中,syncer {rate;}就足够了;现在它被用作动态重新同步速度的一个轻微建议的起始位置.
动态同步控制器使用DRBD配置的磁盘部分中的“c-settings”进行调整(有关每个设置的详细信息,请参阅$man drbd.conf).
在这些节点之间使用10Gbe,并且假设使用协议C后的低延迟,以下配置应该让事情变得更快:
resource rd0 { protocol C; disk { c-fill-target 10M; c-max-rate 700M; c-plan-ahead 7; c-min-rate 4M; } on cl1 { device /dev/drbd0; disk /dev/sda4; address 192.168.42.1:7788; Meta-disk internal; } on cl2 { device /dev/drbd0; disk /dev/sda4; address 192.168.42.2:7788; Meta-disk internal; } }
如果您仍然不满意,请尝试将最大缓冲区调高至12k.如果您仍然不满意,可以尝试以2M为增量调高c-fill-target.