<div dir="ltr"><div dir="ltr">Andrew,<div><br></div><div>ME4084 is a dual-controller active/active hardware RAID array. Disclosing some config data could be helpful. </div><div><ol><li>What underlying Lustre target filesystem? (assuming ldiskfs with a hardware RAID array)</li><li>What does your current multipath.conf look like?</li></ol></div><div>--Jeff</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Aug 20, 2019 at 11:47 PM Andrew Elwell <<a href="mailto:andrew.elwell@gmail.com">andrew.elwell@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi folks,<br>
<br>
we're seeing MMP reluctance to hand over the (umounted) OSTs to the<br>
partner pair on our shiny new ME4084 arrays,<br>
<br>
Does anyone have the device {} settings they'd be willing to share?<br>
My gut feel is we've not defined path failover properly and some<br>
timeouts need tweaking<br>
<br>
<br>
(4* ME4084's per 2 740 servers with SAS cabling, Lustre 2.10.8 and CentOS 7.x)<br>
<br>
Many thanks<br>
<br>
<br>
Andrew<br>
_______________________________________________<br>
lustre-discuss mailing list<br>
<a href="mailto:lustre-discuss@lists.lustre.org" target="_blank">lustre-discuss@lists.lustre.org</a><br>
<a href="http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org" rel="noreferrer" target="_blank">http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org</a><br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr">------------------------------<br>Jeff Johnson<br>Co-Founder<br>Aeon Computing<br><br>jeff.johnson at aeoncomputing dot com<br><a href="http://www.aeoncomputing.com" target="_blank">www.aeoncomputing.com</a><br>4170 Morena Boulevard, Suite C - San Diego, CA 92117<div>High-Performance Computing / Lustre Filesystems / Scale-out Storage</div></div></div></div></div></div>