Then it should be the same as the OST case. The only difference between the two<div>is that we never allow two active MDSs on the same filesystem, so MDT is always active/passive. </div><div>cliffw<br><br><div class="gmail_quote">
On Tue, Jun 14, 2011 at 12:18 PM, Jeff Johnson <span dir="ltr"><<a href="mailto:jeff.johnson@aeoncomputing.com">jeff.johnson@aeoncomputing.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">


  
    
  
  <div text="#000000" bgcolor="#ffffff">
    Apologies, I should have been more descriptive.<br>
    <br>
    I am running a dedicated MGS node and MGT device. The MDT is a
    standalone RAID-10 shared via SAS between two nodes, one being the
    current MDS and the second being the planned secondary MDS.
    Heartbeat and stonith w/ ipmi control is currently configured but
    not started between the two nodes.<div><div></div><div class="h5"><br>
    <br>
    <br>
    On 6/14/11 12:12 PM, Cliff White wrote:
    <blockquote type="cite">It depends - are you using a combined MGS/MDS? 
      <div>If so, you will have to update the mgsnid on all servers to
        reflect the failover node,</div>
      <div>plus change the client mount string to show the failover
        node. </div>
      <div>
        otherwise, it's the same procedure as with an OST.</div>
      <div>cliffw</div>
      <div><br>
        <br>
        <div class="gmail_quote">On Tue, Jun 14, 2011 at 12:06 PM, Jeff
          Johnson <span dir="ltr"><<a href="mailto:jeff.johnson@aeoncomputing.com" target="_blank">jeff.johnson@aeoncomputing.com</a>></span>
          wrote:<br>
          <blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204, 204, 204);padding-left:1ex">Greetings,<br>
            <br>
            I am attempting to add mds failover operation to an existing
            v1.8.4<br>
            filesystem. I have heartbeat/stonith configured on the mds
            nodes. What<br>
            is unclear is what to change in the lustre parameters. I
            have read over<br>
            the 1.8.x and 2.0 manuals and they are unclear as exactly
            how to enable<br>
            failover mds operation on an existing filesystem.<br>
            <br>
            Do I simply run the following on the primary mds node and
            specify the<br>
            NID of the secondary mds node?<br>
            <br>
            tunefs.lustre --param="failover.node=10.0.1.3@o2ib"
            /dev/<mdt device><br>
            <br>
            where: 10.0.1.2=primary mds, 10.0.1.3=secondary mds<br>
            <br>
            All of the examples for enabling failover via tunefs.lustre
            are for OSTs<br>
            and I want to be sure that there isn't a different procedure
            for the MDS<br>
            since it can only be active/passive.<br>
            <br>
            Thanks,<br>
            <br>
            --Jeff<br>
            <br>
            ------------------------------<br>
            Jeff Johnson<br>
            Aeon Computing<br>
            <br>
            <a href="http://www.aeoncomputing.com" target="_blank">www.aeoncomputing.com</a><br>
            4905 Morena Boulevard, Suite 1313 - San Diego, CA 92117<br>
            <br>
            _______________________________________________<br>
            Lustre-discuss mailing list<br>
            <a href="mailto:Lustre-discuss@lists.lustre.org" target="_blank">Lustre-discuss@lists.lustre.org</a><br>
            <a href="http://lists.lustre.org/mailman/listinfo/lustre-discuss" target="_blank">http://lists.lustre.org/mailman/listinfo/lustre-discuss</a><br>
          </blockquote>
        </div>
        <br>
        <br clear="all">
        <br>
        -- <br>
        cliffw
        <div>Support Guy</div>
        <div>WhamCloud, Inc. </div>
        <div><a href="http://www.whamcloud.com" target="_blank">www.whamcloud.com</a></div>
        <div><br>
        </div>
        <br>
      </div>
    </blockquote>
    <br>
    ------------------------------<br>
    <pre cols="72">Jeff Johnson
Aeon Computing

<a href="http://www.aeoncomputing.com" target="_blank">www.aeoncomputing.com</a>
4905 Morena Boulevard, Suite 1313 - San Diego, CA 92117
</pre>
  </div></div></div>

<br>_______________________________________________<br>
Lustre-discuss mailing list<br>
<a href="mailto:Lustre-discuss@lists.lustre.org">Lustre-discuss@lists.lustre.org</a><br>
<a href="http://lists.lustre.org/mailman/listinfo/lustre-discuss" target="_blank">http://lists.lustre.org/mailman/listinfo/lustre-discuss</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br>cliffw<div>Support Guy</div><div>WhamCloud, Inc. </div><div><a href="http://www.whamcloud.com" target="_blank">www.whamcloud.com</a></div><div><br></div><br>
</div>