<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Oct 7, 2016 at 9:16 AM, Xiong, Jinshan <span dir="ltr"><<a href="mailto:jinshan.xiong@intel.com" target="_blank">jinshan.xiong@intel.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class=""><br>
> On Oct 6, 2016, at 2:04 AM, Phill Harvey-Smith <<a href="mailto:p.harvey-smith@warwick.ac.uk">p.harvey-smith@warwick.ac.uk</a>> wrote:<br>
><br>
> Hi all,<br>
><br>
> Having tested a simple setup for lustre / zfs, I'd like to trey and replicate on the test system what we currently have on the production system, which uses a much older version of lustre (2.0 IIRC).<br>
><br>
> Currently we have a combined mgs / mds node and a single oss node. we have 3 filesystems : home, storage and scratch.<br>
><br>
> The MGS/MDS node currently has the mgs on a seperate block device and the 3 mds on a combined lvm volume.<br>
><br>
> The OSS has an ost each (on a separate disks) for scratch and home and two ost for storage.<br>
><br>
> If we migrate this setup to a ZFS based one, will I need to create a separate zpool for each mdt / mgt / oss  or will I be able to create a single zpool and split it up between the individual mdt / oss blocks, if so how do I tell each filesystem how big it should be?<br>
<br>
</span>We strongly recommend to create separate ZFS pools for OSTs, otherwise grant, which is a Lustre internal space reserve algorithm, won’t work properly.<br>
<br>
It’s possible to create a single zpool for MDTs and MGS, and you can use ‘zfs set reservation=<space> <target>’ to reserve spaces for different targets.<br></blockquote><div>I thought ZFS was only recommended for OSTs and not for MDTs/MGS?<br></div><div>Eli <br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<span class="HOEnZb"><font color="#888888"><br>
Jinshan<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
><br>
> Cheers.<br>
><br>
> Phill.<br>
> ______________________________<wbr>_________________<br>
> lustre-discuss mailing list<br>
> <a href="mailto:lustre-discuss@lists.lustre.org">lustre-discuss@lists.lustre.<wbr>org</a><br>
> <a href="http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org" rel="noreferrer" target="_blank">http://lists.lustre.org/<wbr>listinfo.cgi/lustre-discuss-<wbr>lustre.org</a><br>
<br>
______________________________<wbr>_________________<br>
lustre-discuss mailing list<br>
<a href="mailto:lustre-discuss@lists.lustre.org">lustre-discuss@lists.lustre.<wbr>org</a><br>
<a href="http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org" rel="noreferrer" target="_blank">http://lists.lustre.org/<wbr>listinfo.cgi/lustre-discuss-<wbr>lustre.org</a><br>
</div></div></blockquote></div><br></div></div>