<div>Forgive my novice understanding of lustre. Here is my current config:</div>
<div>1 combined MGS/MDT, 4 OSS's attached to DDN controller/SAN.</div>
<div> </div>
<div>We have 32 1Tb OSTs (8 on each OSS) and because of the nature of our jobs, the files written to lustre vary greatly (5MB ~ 400GB size files). I'm not sure what algorithym lustre</div>
<div>uses to balance writes to the fs but we have very high inconsistencies in disk space usage. One OST maybe only 40% full while another 94% full. This is problematic because if one of our OST's fills up,</div>
<div>jobs begin to fail with out of disk space errors even though there are terabytes of space unused. If someone can suggest a solution I would be eteranally grateful. </div>
<div> </div>
<div>The only solution I see is increasing each OST from 1TB to maybe 2 or 3TB? So this lead me to my second question - what type of performance degradation (if any) </div>
<div>am I looking at if increase the size of the OSTs? and is there a limit to the size of OSTs? Any input is appreciated!</div>
<div> </div>
<div>Syed</div>