Did you also install the correct e2fsprogs?<div>cliffw</div><div><br><br><div class="gmail_quote">On Fri, Jul 1, 2011 at 5:45 PM, Mervini, Joseph A <span dir="ltr"><<a href="mailto:jamervi@sandia.gov">jamervi@sandia.gov</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">Hi,<br>
<br>
I just upgraded our servers from RHEL 5.4 -> RHEL 5.5 and went from lustre 1.8.3 to 1.8.5.<br>
<br>
Now when I try to mount the OSTs I'm getting:<br>
<br>
[root@aoss1 ~]# mount -t lustre /dev/disk/by-label/scratch2-OST0001 /mnt/lustre/local/scratch2-OST0001<br>
mount.lustre: mount /dev/disk/by-label/scratch2-OST0001 at /mnt/lustre/local/scratch2-OST0001 failed: No such file or directory<br>
Is the MGS specification correct?<br>
Is the filesystem name correct?<br>
If upgrading, is the copied client log valid? (see upgrade docs)<br>
<br>
tunefs.lustre looks okay on both the MDT (which is mounted) and the OSTs:<br>
<br>
[root@amds1 ~]# tunefs.lustre /dev/disk/by-label/scratch2-MDT0000<br>
checking for existing Lustre data: found CONFIGS/mountdata<br>
Reading CONFIGS/mountdata<br>
<br>
   Read previous values:<br>
Target:     scratch2-MDT0000<br>
Index:      0<br>
Lustre FS:  scratch2<br>
Mount type: ldiskfs<br>
Flags:      0x5<br>
              (MDT MGS )<br>
Persistent mount opts: errors=panic,iopen_nopriv,user_xattr,maxdirsize=20000000<br>
Parameters: lov.stripecount=4 failover.node=<failnode>@tcp1 failover.node=<failnode>@o2ib1 mdt.group_upcall=/usr/sbin/l_getgroups<br>
<br>
<br>
   Permanent disk data:<br>
Target:     scratch2-MDT0000<br>
Index:      0<br>
Lustre FS:  scratch2<br>
Mount type: ldiskfs<br>
Flags:      0x5<br>
              (MDT MGS )<br>
Persistent mount opts: errors=panic,iopen_nopriv,user_xattr,maxdirsize=20000000<br>
Parameters: lov.stripecount=4 failover.node=<failnode>@tcp1 failover.node=<failnode>@o2ib1 mdt.group_upcall=/usr/sbin/l_getgroups<br>
<br>
exiting before disk write.<br>
<br>
<br>
[root@aoss1 ~]# tunefs.lustre /dev/disk/by-label/scratch2-OST0001<br>
checking for existing Lustre data: found CONFIGS/mountdata<br>
Reading CONFIGS/mountdata<br>
<br>
   Read previous values:<br>
Target:     scratch2-OST0001<br>
Index:      1<br>
Lustre FS:  scratch2<br>
Mount type: ldiskfs<br>
Flags:      0x2<br>
              (OST )<br>
Persistent mount opts: errors=panic,extents,mballoc<br>
Parameters: mgsnode=<mds-server1>@tcp1 mgsnode=<mds-server1>@o2ib1 mgsnode=<mds-server2>@tcp1 mgsnode=<mds-server2>@o2ib1 failover.node=<failnode>@tcp1 failover.node=<failnode>@o2ib1<br>

<br>
<br>
   Permanent disk data:<br>
Target:     scratch2-OST0001<br>
Index:      1<br>
Lustre FS:  scratch2<br>
Mount type: ldiskfs<br>
Flags:      0x2<br>
              (OST )<br>
Persistent mount opts: errors=panic,extents,mballoc<br>
Parameters: mgsnode=<mds-server1>@tcp1 mgsnode=<mds-server1>@o2ib1 mgsnode=<mds-server2>@tcp1 mgsnode=<mds-server2>@o2ib1 failover.node=<falnode>@tcp1 failover.node=<failnode>@o2ib1<br>

<br>
exiting before disk write.<br>
<br>
<br>
I am really stuck and could really use some help.<br>
<br>
Thanks.<br>
<br>
==<br>
<br>
Joe Mervini<br>
Sandia National Laboratories<br>
Dept 09326<br>
PO Box 5800 MS-0823<br>
Albuquerque NM 87185-0823<br>
<br>
<br>
<br>
_______________________________________________<br>
Lustre-discuss mailing list<br>
<a href="mailto:Lustre-discuss@lists.lustre.org">Lustre-discuss@lists.lustre.org</a><br>
<a href="http://lists.lustre.org/mailman/listinfo/lustre-discuss" target="_blank">http://lists.lustre.org/mailman/listinfo/lustre-discuss</a><br>
</blockquote></div><br><br clear="all"><br>-- <br>cliffw<div>Support Guy</div><div>WhamCloud, Inc. </div><div><a href="http://www.whamcloud.com" target="_blank">www.whamcloud.com</a></div><div><br></div><br>
</div>