<div dir="ltr">Jeff,<div>We intend to use 10 clients that will mount the file system. </div><div><br></div><div>Amjad</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Oct 31, 2017 at 3:02 AM, Jeff Johnson <span dir="ltr"><<a href="mailto:jeff.johnson@aeoncomputing.com" target="_blank">jeff.johnson@aeoncomputing.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Amjad,<div><br></div><div>You might ask your vendor to propose a single MDT comprised of (8 * 500GB) 2.5" disk drives or better, SSDs. With some bio applications you would benefit from spreading the MDT I/O across more drives. </div><div><br></div><div>How many clients to you expect to mount the file system? A standard filer (or ZFS/NFS server) will perform well compared to Lustre until you bottleneck somewhere in the server hardware (net, disk, cpu, etc), with Lustre you can add simply add one or more OSS/OSTs to the file system and performance potential increases by the number of additional OSS/OST servers.</div><div><br></div><div>High-availability is nice to have but it isn't necessary unless your environment cannot tolerate any interruption or downtime. If your vendor proposes quality hardware these cases are infrequent.</div><div><br></div><div>--Jeff</div></div><div class="gmail_extra"><div><div class="h5"><br><div class="gmail_quote">On Mon, Oct 30, 2017 at 12:04 PM, Amjad Syed <span dir="ltr"><<a href="mailto:amjadcsu@gmail.com" target="_blank">amjadcsu@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">The vendor has proposed a single MDT  ( 4 * 1.2 TB) in RAID 10 configuration.<div>The OST will be RAID 6  and proposed are 2 OST.</div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote"><div><div class="m_-6679926327561076100h5">On Mon, Oct 30, 2017 at 7:55 PM, Ben Evans <span dir="ltr"><<a href="mailto:bevans@cray.com" target="_blank">bevans@cray.com</a>></span> wrote:<br></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="m_-6679926327561076100h5">



<div style="word-wrap:break-word;color:rgb(0,0,0);font-size:14px;font-family:Calibri,sans-serif">
<div>How many OST's are behind that OSS?  How many MDT's behind the MDS?</div>
<div><br>
</div>
<span id="m_-6679926327561076100m_-803540751835653188m_-9082209549072038056OLK_SRC_BODY_SECTION">
<div style="font-family:Calibri;font-size:11pt;text-align:left;color:black;BORDER-BOTTOM:medium none;BORDER-LEFT:medium none;PADDING-BOTTOM:0in;PADDING-LEFT:0in;PADDING-RIGHT:0in;BORDER-TOP:#b5c4df 1pt solid;BORDER-RIGHT:medium none;PADDING-TOP:3pt">
<span style="font-weight:bold">From: </span>lustre-discuss <<a href="mailto:lustre-discuss-bounces@lists.lustre.org" target="_blank">lustre-discuss-bounces@lists.<wbr>lustre.org</a>> on behalf of Brian Andrus <<a href="mailto:toomuchit@gmail.com" target="_blank">toomuchit@gmail.com</a>><br>
<span style="font-weight:bold">Date: </span>Monday, October 30, 2017 at 12:24 PM<br>
<span style="font-weight:bold">To: </span>"<a href="mailto:lustre-discuss@lists.lustre.org" target="_blank">lustre-discuss@lists.lustre.o<wbr>rg</a>" <<a href="mailto:lustre-discuss@lists.lustre.org" target="_blank">lustre-discuss@lists.lustre.o<wbr>rg</a>><br>
<span style="font-weight:bold">Subject: </span>Re: [lustre-discuss] 1 MDS and 1 OSS<br>
</div><div><div class="m_-6679926327561076100m_-803540751835653188h5">
<div><br>
</div>
<div>
<div text="#000000" bgcolor="#FFFFFF">
<p>Hmm. That is an odd one from a quick thought...</p>
<p>However, IF you are planning on growing and adding OSSes/OSTs, this is not a bad way to get started and used to how everything works. It is basically a single stripe storage.</p>
<p>If you are not planning on growing, I would lean towards gluster on 2 boxes. I do that often, actually. A single MDS/OSS has zero redundancy, unless something is being done at harware level and that would help in availability.<br>
NFS is quite viable too, but you would be splitting the available storage on 2 boxes.</p>
<p>Brian Andrus<br>
</p>
<p><br>
</p>
<br>
<div class="m_-6679926327561076100m_-803540751835653188m_-9082209549072038056moz-cite-prefix">On 10/30/2017 12:47 AM, Amjad Syed wrote:<br>
</div>
<blockquote type="cite">
<div dir="ltr">Hello
<div>We are in process in procuring one small Lustre filesystem giving us 120 TB  of storage using Lustre 2.X.</div>
<div>The vendor has proposed only 1 MDS and 1 OSS as a solution.</div>
<div>The query we have is that is this configuration enough , or we need more OSS?</div>
<div>The MDS and OSS server are identical  with regards to RAM (64 GB) and  HDD (300GB)</div>
<div><br>
</div>
<div>Thanks</div>
<div>Majid</div>
</div>
<br>
<fieldset class="m_-6679926327561076100m_-803540751835653188m_-9082209549072038056mimeAttachmentHeader"></fieldset> <br>
<pre>______________________________<wbr>_________________
lustre-discuss mailing list
<a class="m_-6679926327561076100m_-803540751835653188m_-9082209549072038056moz-txt-link-abbreviated" href="mailto:lustre-discuss@lists.lustre.org" target="_blank">lustre-discuss@lists.lustre.or<wbr>g</a><a class="m_-6679926327561076100m_-803540751835653188m_-9082209549072038056moz-txt-link-freetext" href="http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org" target="_blank">http://lists.lustre.org/listi<wbr>nfo.cgi/lustre-discuss-lustre.<wbr>org</a></pre>
</blockquote>
<br>
</div>
</div>
</div></div></span>
</div>

<br></div></div><span>______________________________<wbr>_________________<br>
lustre-discuss mailing list<br>
<a href="mailto:lustre-discuss@lists.lustre.org" target="_blank">lustre-discuss@lists.lustre.or<wbr>g</a><br>
<a href="http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org" rel="noreferrer" target="_blank">http://lists.lustre.org/listin<wbr>fo.cgi/lustre-discuss-lustre.o<wbr>rg</a><br>
<br></span></blockquote></div><br></div>
<br>______________________________<wbr>_________________<br>
lustre-discuss mailing list<br>
<a href="mailto:lustre-discuss@lists.lustre.org" target="_blank">lustre-discuss@lists.lustre.or<wbr>g</a><br>
<a href="http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org" rel="noreferrer" target="_blank">http://lists.lustre.org/listin<wbr>fo.cgi/lustre-discuss-lustre.<wbr>org</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div></div></div>-- <br><div class="m_-6679926327561076100gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">------------------------------<br>Jeff Johnson<br>Co-Founder<br>Aeon Computing<br><br><a href="mailto:jeff.johnson@aeoncomputing.com" target="_blank">jeff.johnson@aeoncomputing.com</a><br><a href="http://www.aeoncomputing.com" target="_blank">www.aeoncomputing.com</a><br>t: <a href="tel:(858)%20412-3810" value="+18584123810" target="_blank">858-412-3810 x1001</a>   f: <a href="tel:(858)%20412-3845" value="+18584123845" target="_blank">858-412-3845</a><br>m: <a href="tel:(619)%20204-9061" value="+16192049061" target="_blank">619-204-9061</a><br><br><a href="https://maps.google.com/?q=4170+Morena+Boulevard,+Suite+D+-+San+Diego,+CA+92117&entry=gmail&source=g">4170 Morena Boulevard, Suite D - San Diego, CA 92117</a><div><br></div><div>High-Performance Computing / Lustre Filesystems / Scale-out Storage</div></div></div>
</div>
</blockquote></div><br></div>