Hi Guys,<br><br>(P.S. My apologies if this is a duplicate - Sent this email earlier today with an attachment and did not see it populate in google groups so was not sure if attachments were allowed)<br><br>I have just deployed a new Lustre FS with 2 MDS servers, 2 active OSS servers (5x2TB OST's per OSS) and 16 compute nodes.  It looks like the iozone throughput tests have demonstrated almost linear scalability of Lustre except for when WRITING files that exceed 128MB in size.  When multiple clients create/write files larger than 128MB, Lustre throughput levels up to approximately ~1GB/s. This behavior has been observed with almost all tested block size ranges except for 4KB.  I don't have any explanation as to why Lustre performs poorly when writing large files.<br>
<br>Here is the iozone report:<br><a href="http://docs.google.com/fileview?id=0Bz8GxDEZOhnwYjQyMDlhMWMtODVlYi00MTgwLTllN2QtYzU2MWJlNTEwMjA1&hl=en">http://docs.google.com/fileview?id=0Bz8GxDEZOhnwYjQyMDlhMWMtODVlYi00MTgwLTllN2QtYzU2MWJlNTEwMjA1&hl=en</a><br>
<br>The only changes I have made to the defaults are:<br>stripe_count: 2 stripe_size: 1048576 stripe_offset: -1<br><br>I am using Lustre 1.8.1.1 and my MDS/OSS servers are running RHEL 5.3.  All the clients are SLES 11.<br>
<br>Has anyone experienced this behaviour?  Any comments on our findings?  <br><br>Thanks,<br>-J<br>