<div dir="ltr">Hi Everyone,<div><br></div><div>This is more of a ZFS than a Lustre question, but our Lustre cluster MDT HA pair got into a split-brain condition with the ZFS zpool for the MDT. Upon examining the situation, both HA pairs (corosync and pacemaker) had the MDT zpool imported. A manual export from the node which was failing over appeared initially to resolve the issue, but the 2nd node still failed to mount the pool due to errors (despite having it imported).</div><div><br></div><div>Now corruption is reported on all the mirror VDEVs which make up the MDT pool (GPT pool is fine on the same two nodes).</div><div><br></div><div>If I have a node up without its hostid configured, the mirror devs are reported as healthy, but I'm unable to zfs import, even trying to override with the -o multihost=no.</div><div><br></div><div>I actually suspect that the data is intact and not corrupted, but the "last mounted" data is bad, and both systems believe the other still has it mounted due to the metadata. </div><div><br></div><div>I'm stumped with getting the MDT pool re-imported on any node, but I may be missing something.</div><font color="#888888"><div><br></div><div>Scott Ruffner</div></font></div>