<br><br><div class="gmail_quote">On Thu, Dec 31, 2009 at 4:52 PM, Andreas Dilger <span dir="ltr"><<a href="mailto:adilger@sun.com">adilger@sun.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div class="im">On 2009-12-30, at 08:44, Erik Froese wrote:<br>
</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">
I had an OST crash (actually it made the entire OSS unresponsive to the point where I had to shoot it).  There were messages in /var/log/messages complaining about slow journal performance (we have separate OSTs and journal disks).<br>

<br></div>
Dec 28 20:29:02 oss-0-0 kernel: LustreError:filter_commitrw_write()) scratch-OST000e: slow direct_io 85s<br>
Dec 28 20:29:02 oss-0-0 kernel: LustreError:filter_commitrw_write()) Skipped 58 previous similar messages<br>
Dec 28 21:50:13 oss-0-0 kernel: LustreError:fsfilt_commit_wait()) scratch-OST000e: slow journal start 51s<br>
Dec 28 21:50:13 oss-0-0 kernel: LustreError:fsfilt_commit_wait()) Skipped 66 previous similar messages<br>
</blockquote>
<br>
These are usually a sign that the back-end storage is overloaded, or somehow<br>
performing very slowly.  Maybe there was a RAID rebuild going on?</blockquote><div><br></div><div>I don't see any hw failures or rebuild messages on the RAID. I do see periodic media scans going on. </div><div> </div>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"><div class="im"><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Lustre and e2fsprogs versions:<br>
<br>
[root@oss-0-0 ~]# rpm -q kernel-lustre<br>
kernel-lustre-2.6.18-128.7.1.el5_lustre.1.8.1.1<br>
[root@oss-0-0 ~]# rpm -q e2fsprogs<br>
e2fsprogs-1.41.6.sun1-0redhat<br>
<br>
<br>
Then there's this interesting message:<br>
Dec 29 14:11:32 oss-0-0 kernel: LDISKFS-fs error (device sdz): ldiskfs_lookup: unlinked inode 5384166 in dir #145170469<br>
Dec 29 14:11:32 oss-0-0 kernel: Remounting filesystem read-only<br>
</blockquote>
<br></div>
This means the ldiskfs code found some corruption on disk, and remounted<br>
the filesystem read-only to avoid further corruptions on disk.<div class="im"><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Whenever I try to mount the ost (known as /dev/dsk/ost24) I get the following messages:<br>
Dec 29 19:25:35 oss-0-0 kernel: LDISKFS-fs error (device sdz): ldiskfs_check_descriptors: Checksum for group 16303 failed (64812!=44)<br>
Dec 29 19:25:35 oss-0-0 kernel: LDISKFS-fs: group descriptors corrupted!<br>
</blockquote>
<br>
</div><div class="im"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
So it looks like the "group descriptors" are corrupted. I'm not sure what those are but e2fsck -n sure enough complains about them. So I tried running it for real.<br>
<br>
I ran e2fsck -j /dev/$JOURNAL -v -fy -C 0 /dev/$DEVICE.<br>
<br>
The first time I ran to what looked like completion. It printed a summary and all but then didn't exit. I sent it a kill but that didn't stop it. So I let it run and went back to sleep for 3 hours. When I woke up the process was gone but I still get the same error messages.<br>

</blockquote>
<br></div>
Having a log of the e2fsck errors would be helpful.</blockquote><div><br></div><div>I don't have the log for the first fsck. First it logged a bunch of messages about the group descriptors and that it was repairing them. Then messages about inodes. I'm attaching the logs from the second e2fsck.</div>
<div><br></div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"><div class="im"><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
I found this discussion <a href="http://lists.lustre.org/pipermail/lustre-discuss/2009-March/009885.html" target="_blank">http://lists.lustre.org/pipermail/lustre-discuss/2009-March/009885.html</a><br>
and tried the tune2fs command followed by the e2fsck but it hasn't exited yet (its a 2.7 TB OST)<br>
</blockquote>
<br></div>
It might take an hour or two, depending on how fast your storage is.<div class="im"><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
The LUN comes from a Sun STK 6140/CSM200 device which isn't reporting any warning, events, or errors.<br>
<br>
I deactivated the OST with lctl but it still shows up as active on the clients. Also lfs find /scratch -O scratch-OST000e_UUID HANGS!<br>
</blockquote>
<br></div>
You also need to deactivate it on the clients, at which point they will<br>
get an IO error when accessing files on that OST.</blockquote><div><br></div><div> I didn't know that the you had to disable it on the clients as well. Thanks</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div class="im"><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Are we screwed here? Is there a way to run lfs find with the OST disabled? Shouldn't that just be a metadata operation?<br>
</blockquote>
<br>
<br></div>
The size of a file is stored on the OSTs, so it depends on what you are trying to do.  "lfs getstripe" can be run with a deactivated OST.<div><div></div><div class="h5"><br>
<br>
Cheers, Andreas<br>
--<br>
Andreas Dilger<br>
Sr. Staff Engineer, Lustre Group<br>
Sun Microsystems of Canada, Inc.<br>
<br>
</div></div></blockquote></div><br>