Hello everyone! <div dir="auto"><br></div><div dir="auto">I made a bunch of self-tests about EC branch performance so far. </div><div dir="auto"><br></div><div dir="auto">About my network config, I got:</div><div dir="auto"><br></div><div dir="auto">7 servers with Mellanox ConnectX-7 with 2x100G ports. </div><div dir="auto"><br></div><div dir="auto">Lustre topology: </div><div dir="auto">1 MGS/MDT server </div><div dir="auto">6 servers with 2 OSS </div><div dir="auto"><br></div><div dir="auto">At all 12 OSS’s and 1 MDT. All OSS sit on spdk raid0 of 8 nvme with big throughputput. </div><div dir="auto"><br></div><div dir="auto">Using EC 10+2 on cluster and 1M stripe pattern. </div><div dir="auto"><br></div><div dir="auto">ib_write/read work well between nodes, shows 100G per interface. All the packets send to prio3. </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">But at IOR benchmark I got only 65Gib/s on read and write both(—posix.odirect, no caching). </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Network utilization due tests is only about 20%. </div><div dir="auto"><br></div><div dir="auto">How can I tune my configuration more ? Any Ideas? </div><div dir="auto"><br></div><div dir="auto">And another question, is there any way in Erasure Coding branch to choose parity-block OSS’s manually? </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Thanks,</div><div dir="auto">Stepan </div>