<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
<meta name="Generator" content="Microsoft Exchange Server">
<!-- converted from text --><style><!-- .EmailQuote { margin-left: 1pt; padding-left: 4pt; border-left: #800000 2px solid; } --></style>
</head>
<body>
<meta content="text/html; charset=UTF-8">
<style type="text/css" style="">
<!--
p
        {margin-top:0;
        margin-bottom:0}
-->
</style>
<div dir="ltr">
<div id="x_divtagdefaultwrapper" dir="ltr" style="font-size:12pt; color:#000000; font-family:Calibri,Helvetica,sans-serif">
<p>Brian,</p>
<p><br>
</p>
<p>I'm not sure what you mean by "socket level".<br>
</p>
<br>
<p>A starter question:<br>
How fast are your OSTs?  Are you sure the limit isn't the OST?  (Easy way to test - Multiple files on that OST from multiple clients, see how that performs)</p>
<p></p>
<div>(lfs setstripe -i [index] to set the OST for a singly striped file)</div>
<p></p>
<br>
<p>In general, you can get ~1.3-1.8 GB/s from one process to one file with a recent-ish Xeon, if your OSTs and network can handle it.  There are a number of other factors that can get involved in limiting your bandwidth with multiple threads.</p>
<p><br>
</p>
<p>It sounds like you're always (in the numbers you report) using one client at a time.  Is that correct?<br>
</p>
<p><br>
</p>
<p>I suspect that you're limited in bandwidth to a specific OST, either by the OST or by the client settings.  What's your bandwidth limit from one client to multiple files on the same OST?  Is it that same 1.5 GB/s?</p>
<p><br>
</p>
<p>If so (or even if it's close), you may need to increase your clients RPC size (max_pages_per_rpc in /proc/fs/lustre/osc/[OST]/), or max_rpcs_in_flight (same place).  Note if you increase those you need to increase max_dirty_mb (again, same place).  The manual
 describes the relationship. </p>
<p><br>
</p>
<p>Also - What version of Lustre are you running?  Client & server.<br>
</p>
<p><br>
</p>
<p>- Patrick<br>
</p>
</div>
<hr tabindex="-1" style="display:inline-block; width:98%">
<div id="x_divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" color="#000000" style="font-size:11pt"><b>From:</b> lustre-discuss <lustre-discuss-bounces@lists.lustre.org> on behalf of Brian Andrus <toomuchit@gmail.com><br>
<b>Sent:</b> Wednesday, August 30, 2017 11:16:08 AM<br>
<b>To:</b> lustre-discuss@lists.lustre.org<br>
<b>Subject:</b> [lustre-discuss] Bandwidth bottleneck at socket?</font>
<div> </div>
</div>
</div>
<font size="2"><span style="font-size:10pt;">
<div class="PlainText">All,<br>
<br>
I've been doing some various performance tests on a small lustre <br>
filesystem and there seems to be a consistent bottleneck of ~700MB/s per <br>
socket involved.<br>
<br>
We have 6 servers with 2 Intel E5-2695 chips in each.<br>
<br>
3 servers are clients, 1 is MGS and 2 are OSSes with 1 OST each. <br>
Everything is connected with 40Gb Ethernet.<br>
<br>
When I write to a single stripe, the best throughput I see is about <br>
1.5GB/s. That doubles if I write to a file that has 2 stripes.<br>
<br>
If I do a parallel copy (using mpiio) I can get 1.5GB/s from a single <br>
machine, whether I use 28 cores or 2 cores. If I only use 1, it goes <br>
down to ~700MB/s<br>
<br>
Is there a bandwidth bottleneck that can occur at the socket level for a <br>
system? This really seems like it.<br>
<br>
<br>
Brian Andrus<br>
<br>
_______________________________________________<br>
lustre-discuss mailing list<br>
lustre-discuss@lists.lustre.org<br>
<a href="http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org">http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org</a><br>
</div>
</span></font>
</body>
</html>