<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body dir="auto">
<div>The first thing to try is just cancel the DLM locks on this client, to see if the problem is just a stale lock cached there:</div>
<div><br>
</div>
<div>    lctl set_param ldlm.namespaces.*.lru_size=clear</div>
<div><br>
</div>
<div>That likely won't help if this same problem is being hit on all of your clients. <br>
<br>
Next to try is running e2fsck on the MDT. It is recommended to use the most recent e2fsprogs-1.42.12-wc5, since this fixes a number of bugs in older versions. </div>
<div><br>
</div>
<div>It is also strongly recommended to make a "dd" backup of the whole MDT before the e2fsck run, and to do this on a regular basis. This is convenient in case of MDT corruption (now or in the future), and you can restore only the MDT instead of having to
 restore 400TB of data as well.  I was just updating the Lustre User Manual about this <a href="http://review.whamcloud.com/21726">http://review.whamcloud.com/21726</a> .</div>
<div><br>
</div>
<div>Running "e2fsck -fn" first can also give you an idea of what kind of corruption is present before Making the fix. </div>
<div><br>
<div>Cheers, Andreas</div>
</div>
<div><br>
On Aug 31, 2016, at 10:54, Vicker, Darby (JSC-EG311) <<a href="mailto:darby.vicker-1@nasa.gov">darby.vicker-1@nasa.gov</a>> wrote:<br>
<br>
</div>
<blockquote type="cite">
<div><span>Hello,</span><br>
<span></span><br>
<span>We’ve run into a problem where an entire directory on our lustre file system has become inaccessible.  </span><br>
<span></span><br>
<span># mount | grep lustre2</span><br>
<span>192.52.98.142@tcp:/hpfs2eg3 on /lustre2 type lustre (rw,flock)</span><br>
<span># ls -l /lustre2/mirrors/cpas</span><br>
<span>ls: cannot access /lustre2/mirrors/cpas: Stale file handle</span><br>
<span># ls -l /lustre2/mirrors/</span><br>
<span>ls: cannot access /lustre2/mirrors/cpas: Stale file handle</span><br>
<span>4 drwxr-s--- 5 root     g27122      4096 Dec 23  2014 cev-repo/</span><br>
<span>? d????????? ? ?        ?              ?            ? cpas/</span><br>
<span>4 drwxrwxr-x 5 root     eg3         4096 Aug 21  2014 sls/</span><br>
<span></span><br>
<span></span><br>
<span></span><br>
<span>Fortunately, we have a backup of this directory from about a week ago.  However, I would like to figure out how this happened to prevent any further damage.  I’m not sure if we’re dealing with corruption in the LFS, damage to the underlying RAID or something
 else and I’d appreciate some help figuring this out.  Here’s some info on our lustre servers:</span><br>
<span></span><br>
<span>CentOS 6.4 2.6.32-358.23.2.el6_lustre.x86_64</span><br>
<span>Lustre 2.4.3 (I know - we need to upgrade...)</span><br>
<span>Hardware RAID 10 MDT (Adaptec 6805Q – SSD’s)</span><br>
<span>(19x) OSS’s - Hardware RAID 6 OST’s (Adaptec 6445)</span><br>
<span>1 27TB OST per OSS, ldiskfs</span><br>
<span>Dual homed via Ethernet and IB</span><br>
<span></span><br>
<span>Most Ethernet clients (~50 total) are CentOS 7 using lustre-client-2.8.0-3.10.0_327.13.1.el7.x86_64.x86_64.  Our compute nodes (~400 total) connect over IB and are still CentOS 6 using lustre-client-2.7.0-2.6.32_358.14.1.el6.x86_64.x86_64.</span><br>
<span></span><br>
<span></span><br>
<span>The lustre server hardware is about 4 years old now.  All RAID arrays are reported as healthy.  Searched JIRA and the mailing lists and couldn’t find anything related.  This sounded close at first:</span><br>
<span></span><br>
<span><a href="https://jira.hpdd.intel.com/browse/LU-3550">https://jira.hpdd.intel.com/browse/LU-3550</a></span><br>
<span></span><br>
<span>But, as shown above, the issue shows up on a native lustre client, not an NFS export.  We are exporting this LFS via SMB but I don’t think that’s related.  </span><br>
<span></span><br>
<span>I think the next step is to run an e2fsck but we haven’t done that yet and would appreciate advise on stepping through this.  </span><br>
<span></span><br>
<span>Thanks,</span><br>
<span>Darby</span><br>
<span></span><br>
<span></span><br>
<span></span><br>
<span></span><br>
<span></span><br>
<span>_______________________________________________</span><br>
<span>lustre-discuss mailing list</span><br>
<span><a href="mailto:lustre-discuss@lists.lustre.org">lustre-discuss@lists.lustre.org</a></span><br>
<span><a href="http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org">http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org</a></span><br>
</div>
</blockquote>
</body>
</html>