<div>We are trying to uptake Lustre in one of our heavy read/write intensive infrastructure(daily writes - 8million files, 1TB ). Average size of files written is 1KB ( I know , Lustre can't scale well for small size files, but just wanted to analyze the possibility of uptaking ) </div>

<div> </div>
<div>Following are some of the tests conducted  to see the difference in large and small file size writting, </div>
<div> </div>
<div>MDT - 1 </div>
<div>OST  - 13 ( also act as nfsserver) </div>
<div>Clients access lustrefs via NFS ( not patchless clients) </div>
<div> </div>
<div>Test 1 : <br><br>Number of clients  - 10<br>Dataset size read/written - 971M (per client) <br>Number of files in the dataset- 14000 <br>Total data written - 10gb <br></div>
<div>Time taken - 1390s <br><br>Test2 : <br><br>Number of clients  - 10<br>Dataset size read/written -1001M (per client)<br>Number of files in the dataset - 4<br>Total data written - 10gb <br><br>Time taken - 215s <br><br>
<br>Test3 : <br><br>Number of clients  - 10<br>Dataset size read.written- 53MB (per client)<br>Number of files in the dataset- 14000<br>Total data written - 530MB<br>Time taken - 1027s<br></div>
<div>MDT was heavily loaded during  Test3 ( Load average > 25 ). Since the file size in Test 3 is small(1kb) and number of files written is too large(14000 x 10 clients ), obvisouly mdt gets loaded in allocating inodes, total data written in test3 is only 530MB. </div>

<div> </div>
<div>Question  : Is there any parameter that I can tune in MDT to increase the performance when writting large number of small files ? </div>
<div><br>Please help <br> </div>