<div>hi all£¬</div>
<div> </div>
<div>I have lustre  corrupted when a OSS powered off by ipmi accidentally. I get followling messages after that OSS restart.</div>
<div>...</div>
<div>(fs/jbd/recovery.c, 256): journal_recover: JBD: recovery, exit status 0, recovered transactions 1875142 to 1885541<br>(fs/jbd/recovery.c, 258): journal_recover: JBD: Replayed 48361 and revoked 0/0 blocks<br>kjournald starting.  Commit interval 5 seconds<br>
LDISKFS-fs warning: maximal mount count reached, running e2fsck is recommended<br>LDISKFS FS on sda, internal journal<br>LDISKFS-fs: recovery complete.<br>LDISKFS-fs: mounted filesystem with ordered data mode.<br>LDISKFS-fs error (device sda): ldiskfs_check_descriptors: Block bitmap for group 43776 not in group (block 222298112)!<br>
Remounting filesystem read-only<br>LDISKFS-fs: group descriptors corrupted!<br>LustreError: 3901:0:(obd_mount.c:1320:server_kernel_mount()) ll_kern_mount failed: rc = -22<br>LustreError: 3901:0:(obd_mount.c:1590:server_fill_super()) Unable to mount device /dev/sda: -22<br>
LustreError: 3901:0:(obd_mount.c:1993:lustre_fill_super()) Unable to mount  (-22)</div>
<div> </div>
<div>Our OSS server is running lustre-1.8.0,equipped with areca RAID adapter with write cache enabled.I have a worry about data on lustre  maybe lost.</div>
<div>And waht's the cause of such a problem?How can I fixed it?</div>
<div> </div>
<div>Thanks in advance!</div>