<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body>
Firat,<br>
<br>
I strongly suspect that careful remeasurement of flock on/off will show that removing the flock option had no effect at all.  It simply doesn’t DO anything like that - it controls a single flag that says, if you use flock operations, they work one way, or if
 it is not set, they work another way.  It does nothing else, and has no impact on any part of file system operation except when flocks are used, and dd does not use flocks. It is simply impossible for the setting of the flock option to affect dd or performance
 level or variation, unless something using flocks is running at the same time.  (And even then, it would be affecting it indirectly)<br>
<br>
I’m pushing back strongly because I’ve repeatedly seen people on the mailing speculate about turning flock off as a way to increase performance, and it simply isn’t.<br>
<br>
- Patrick<br>
<br>
<br>
<hr style="display:inline-block;width:98%" tabindex="-1">
<div id="divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" style="font-size:11pt" color="#000000"><b>From:</b> fırat yılmaz <firatyilmazz@gmail.com><br>
<b>Sent:</b> Friday, September 21, 2018 7:50:51 PM<br>
<b>To:</b> Patrick Farrell<br>
<b>Cc:</b> adilger@whamcloud.com; lustre-discuss@lists.lustre.org<br>
<b>Subject:</b> Re: [lustre-discuss] Second read or write performance</font>
<div> </div>
</div>
<meta content="text/html; charset=utf-8">
<div>
<div dir="ltr">The problem solved by adding lustre fine tuning parameter  to oss servers  <span style="color:rgb(0,0,0); font-family:"Times New Roman",serif; font-size:16px"> </span>
<div><span style="color:rgb(0,0,0); font-family:"Times New Roman",serif; font-size:16px">lctl set_param obdfilter.lı-lustrefolder-OST*.brw_size=16<br>
<br>
The flock is required by the application running in the filesystem so flock option is enabled</span></div>
<div><span style="color:rgb(0,0,0); font-family:"Times New Roman",serif; font-size:16px"><br>
</span>
<div><span style="color:rgb(0,0,0); font-family:"Times New Roman",serif; font-size:16px">removing flock decrased the divergence of the flactuations and about %5 performance gain from iml dashboard </span></div>
<div><span style="color:rgb(0,0,0); font-family:"Times New Roman",serif; font-size:16px"><br>
</span></div>
<div><font color="#000000" face="Times New Roman, serif"><span style="font-size:16px">Best Regards.</span></font></div>
</div>
</div>
<br>
<div class="x_gmail_quote">
<div dir="ltr">On Sat, Sep 22, 2018 at 12:56 AM Patrick Farrell <<a href="mailto:paf@cray.com">paf@cray.com</a>> wrote:<br>
</div>
<blockquote class="x_gmail_quote" style="margin:0 0 0 .8ex; border-left:1px #ccc solid; padding-left:1ex">
Just 300 GiB, actually.  But that's still rather large and could skew things depending on OST size.<br>
<br>
- Patrick<br>
<br>
On 9/21/18, 4:43 PM, "lustre-discuss on behalf of Andreas Dilger" <<a href="mailto:lustre-discuss-bounces@lists.lustre.org" target="_blank">lustre-discuss-bounces@lists.lustre.org</a> on behalf of
<a href="mailto:adilger@whamcloud.com" target="_blank">adilger@whamcloud.com</a>> wrote:<br>
<br>
    On Sep 21, 2018, at 00:43, fırat yılmaz <<a href="mailto:firatyilmazz@gmail.com" target="_blank">firatyilmazz@gmail.com</a>> wrote:<br>
    > <br>
    > Hi Andreas,<br>
    > Tests are made with dd, The test folder is created by the related application company, i will check that when i have connection. OST's has  %85-86 free space  and filesystem mounted with flock option, i will ask for it to remove and test again.<br>
<br>
    The "flock" option shouldn't make any difference, unless the application is actually doing userspace file locking in the code.  Definitely "dd" will not be using it.<br>
<br>
    What does "lfs getstripe" on the first and second file as well as the parent directory show, and "lfs df" for the filesystem?<br>
<br>
    > Read test dd if=/vol1/test_read/dd.test.`hostname` of=/dev/null bs=1M count=300000<br>
    > <br>
    > Write test dd if=/dev/zero of=/vol1/test_read/dd.test.2.`hostname` bs=1M count=300000<br>
<br>
    This is creating a single file of 300TB in size, so that is definitely going to skew the space allocation.<br>
<br>
    Cheers, Andreas<br>
<br>
    > <br>
    > On Thu, Sep 20, 2018 at 10:57 PM Andreas Dilger <<a href="mailto:adilger@whamcloud.com" target="_blank">adilger@whamcloud.com</a>> wrote:<br>
    > On Sep 20, 2018, at 03:07, fırat yılmaz <<a href="mailto:firatyilmazz@gmail.com" target="_blank">firatyilmazz@gmail.com</a>> wrote:<br>
    > ><br>
    > > Hi all,<br>
    > ><br>
    > > OS=Redhat 7.4<br>
    > > Lustre Version: Intel® Manager for Lustre* software 4.0.3.0<br>
    > > İnterconnect: Mellanox OFED, ConnectX-5<br>
    > > 72 OST over 6 OSS with HA<br>
    > > 1mdt and 1 mgt on 2 MDS with HA<br>
    > ><br>
    > > Lustre servers fine tuning parameters:<br>
    > > lctl set_param timeout=600<br>
    > > lctl set_param ldlm_timeout=200<br>
    > > lctl set_param at_min=250<br>
    > > lctl set_param at_max=600<br>
    > > lctl set_param obdfilter.*.read_cache_enable=1<br>
    > > lctl set_param obdfilter.*.writethrough_cache_enable=1<br>
    > > lctl set_param obdfilter.lfs3test-OST*.brw_size=16<br>
    > ><br>
    > > Lustre clients fine tuning parameters:<br>
    > > lctl set_param osc.*.checksums=0<br>
    > > lctl set_param timeout=600<br>
    > > lctl set_param at_min=250<br>
    > > lctl set_param at_max=600<br>
    > > lctl set_param ldlm.namespaces.*.lru_size=2000<br>
    > > lctl set_param osc.*OST*.max_rpcs_in_flight=256<br>
    > > lctl set_param osc.*OST*.max_dirty_mb=1024<br>
    > > lctl set_param osc.*.max_pages_per_rpc=1024<br>
    > > lctl set_param llite.*.max_read_ahead_mb=1024<br>
    > > lctl set_param llite.*.max_read_ahead_per_file_mb=1024<br>
    > ><br>
    > > Mountpoint stripe count:72 stripesize:1M<br>
    > ><br>
    > > I have a 2Pb lustre filesystem, In the benchmark tests i get the optimum values for read and write, but when i start a concurrent I/O operation, second job throughput stays around 100-200Mb/s. I have tried lovering the stripe count to 36 but since the
 concurrent operations will not occur in a way that keeps OST volume inbalance, i think that its not a good way to move on, secondly i saw some discussion about turning off flock which ended up unpromising.<br>
    > ><br>
    > > As i check the stripe behaviour,<br>
    > > first operation starts to use first 36 OST<br>
    > > when a second job starts during a first job, it uses second 36 OST<br>
    > ><br>
    > > But when second job starts after 1st job it uses first 36 OST's which causes OST unbalance.<br>
    > ><br>
    > > Is there a round robin setup that each 36 OST pair used in a round robin way?<br>
    > ><br>
    > > And any kind of suggestions are appreciated.<br>
    > <br>
    > Can you please describe what command you are using for testing.  Lustre is already using round-robin OST allocation by default, so the second job should use the next set of 36 OSTs, unless the file layout has been specified e.g. to start on OST0000 or
 the space usage of the OSTs is very imbalanced (more than 17% of the remaining free space).<br>
    > <br>
    > Cheers, Andreas<br>
    > ---<br>
    > Andreas Dilger<br>
    > Principal Lustre Architect<br>
    > Whamcloud<br>
    > <br>
    > <br>
    > <br>
    > <br>
    > <br>
    > <br>
    > <br>
<br>
    Cheers, Andreas<br>
    ---<br>
    Andreas Dilger<br>
    Principal Lustre Architect<br>
    Whamcloud<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
</blockquote>
</div>
</div>
</body>
</html>