Hi,<br><br>Just got a smaller Lustre system running with 1 mdt/mgs and 2 ost's. On the osts i've added 1x10GB disk and 1x20GB disk<br clear="all"> on each system and formatted and mounted them as /mnt/ost1-4 (ost1) and /mnt/ost2-3 (ost2). I've also mounted the lustre system on the mdt/mgs server with mount -t lustre x.y.n.p@tcp:/testfs /mnt/lustre. So far so good, however df -h only reports 9/60GB avail where lsf df -h reports 54.4G available. <br>
<br>172.16.x.y@tcp:/testfs<br>                       60G   50G  9.0G  85% /mnt/lustre<br><br>vs<br><br>filesystem summary:      59.1G      4.7G     54.4G    7% /mnt/lustre<br><br>--<br><br>lustre-client:/mnt/lustre# du -hcs<br>
4.0K    .<br>4.0K    total<br><br>I cant find anything on this in the lists or manual, but do  you have to have equal size disks to get all the usable space available to the system mounting lustre? Is this somehow connected to stripe-size or some automatic failover settings. My original intent was to create a large storage area using lustre for numerous clients to mount and use as diskspace.<br>
<br>-- <br>Timh Bergström<br>System Administrator<br>Diino AB - <a href="http://www.diino.com">www.diino.com</a><br>:wq