--writeconf will erase parameters set via lctl conf_param, and will erase pools definitions.<div>It will also allow you to set rather silly parameters that can prevent your filesystem from starting, such</div><div>as incorrect server NIDs or incorrect failover NIDs. For this reason (and from a history of customer</div>
<div>support) we caveat it's use in the manual. </div><div><br></div><div>The --writeconf option never touches data, only server configs, so it will not mess up your data.</div><div><br></div><div>So, given sensible precautions as mentioned above, it's safe to do. </div>
<div>cliffw</div><div><br></div><div><br><div class="gmail_quote">On Thu, Jul 14, 2011 at 11:03 AM, Theodore Omtzigt <span dir="ltr"><<a href="mailto:theo@stillwater-sc.com">theo@stillwater-sc.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">Andreas:<br>
<br>
   Thanks for taking a look at this. Unfortunately, I don't quite<br>
understand the guidance you present: "If you are seeing 'this'<br>
problem....". I haven't seen 'any' problems pertaining to >8tb yet, so I<br>
cannot place your guidance in the context of the question I posted.<br>
<br>
My question was whether or not I need this parameter on the MDS and if<br>
so, how to apply it retroactively.  The Lustre environment I installed<br>
was the 1.8.5 set. Any insight in the issues would be appreciated.<br>
<br>
Theo<br>
<div><div></div><div class="h5"><br>
On 7/14/2011 1:41 PM, Andreas Dilger wrote:<br>
> If you are seeing this problem it means you are using the ext3-based ldiskfs. Go back to the download site and get the lustre-ldiskfs and lustre-modules RPMs with ext4 in the name.<br>
><br>
> That is the code that was tested with LUNs over 8TB. We kept these separate for some time to reduce risk for users that did not need larger LUN sizes.  This is the default for the recent Whamcloud 1.8.6 release.<br>

><br>
> Cheers, Andreas<br>
><br>
> On 2011-07-14, at 11:15 AM, Theodore Omtzigt<<a href="mailto:theo@stillwater-sc.com">theo@stillwater-sc.com</a>>  wrote:<br>
><br>
>> I configured a Lustre file system on a collection of storage servers<br>
>> that have 12TB raw devices. I configured a combined MGS/MDS with the<br>
>> default configuration. On the OSTs however I added the force_over_8tb to<br>
>> the mountfsoptions.<br>
>><br>
>> Two part question:<br>
>> 1- do I need to set that parameter on the MGS/MDS server as well<br>
>> 2- if yes, how do I properly add this parameter on this running Lustre<br>
>> file system (100TB on 9 storage servers)<br>
>><br>
>> I can't resolve the ambiguity in the documentation as I can't find a<br>
>> good explanation of the configuration log mechanism that is being<br>
>> referenced in the man pages. The fact that the doc for --writeconf<br>
>> states "This is very dangerous", I am hesitant to pull the trigger as<br>
>> there is 60TB of data on this file system that I rather not lose.<br>
>> _______________________________________________<br>
>> Lustre-discuss mailing list<br>
>> <a href="mailto:Lustre-discuss@lists.lustre.org">Lustre-discuss@lists.lustre.org</a><br>
>> <a href="http://lists.lustre.org/mailman/listinfo/lustre-discuss" target="_blank">http://lists.lustre.org/mailman/listinfo/lustre-discuss</a><br>
_______________________________________________<br>
Lustre-discuss mailing list<br>
<a href="mailto:Lustre-discuss@lists.lustre.org">Lustre-discuss@lists.lustre.org</a><br>
<a href="http://lists.lustre.org/mailman/listinfo/lustre-discuss" target="_blank">http://lists.lustre.org/mailman/listinfo/lustre-discuss</a><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>cliffw<div>Support Guy</div><div>WhamCloud, Inc. </div><div><a href="http://www.whamcloud.com" target="_blank">www.whamcloud.com</a></div><div><br></div><br>
</div>