<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<div style="overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<div style="overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<div style="overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
Shane,
<div>please consider also submitting a patch to the Lustre manual to</div>
<div>fix up the process for backup/restore of ZFS targets.</div>
<div><br>
</div>
<div>If you need help with the XML formatting, I could take a look, but</div>
<div>I can't generate the content myself.</div>
<div><br>
</div>
<div>Cheers, Andreas<br id="lineBreakAtBeginningOfMessage">
<div><br>
<blockquote type="cite">
<div>On Oct 23, 2025, at 10:15, Nehring, Shane R [ITS] <snehring@iastate.edu> wrote:</div>
<br class="Apple-interchange-newline">
<div>
<div>I've actually been working on fleshing out the process for this on the<br>
wiki https://wiki.lustre.org/ZFS_Snapshots_for_MDT_backup<br>
while the article is more about MDTs it should work for any zfs backed<br>
target.<br>
<br>
You should be able to take a snapshot and send the dataset using zfs<br>
send followed by the writeconf for the ip address change, but you need<br>
to make sure you use the -p argument with send so that the dataset<br>
properties (the most important being the lustre:version, lustre:svname,<br>
lustre:index, and lustre:flags properties). This should also hold true<br>
for the mdts.<br>
<br>
If you run into issues I'd fall back to the method defined in the<br>
manual.<br>
<br>
Shane<br>
<br>
<br>
On Thu, 2025-10-23 at 14:48 +0000, Andreas Dilger via lustre-discuss<br>
wrote:<br>
<blockquote type="cite">This should be covered under "backup restore MDT" in the Lustre<br>
manual.  Short answer is "tar --xattrs --include 'trusted.*' ...",<br>
and then run "writeconf" on all targets to regenerate the config with<br>
the new IP address.<br>
<br>
<blockquote type="cite">On Oct 22, 2025, at 18:33, Sid Young via lustre-discuss<br>
<lustre-discuss@lists.lustre.org> wrote:<br>
<br>
<br>
<br>
<br>
<br>
G'Day all,<br>
I'm researching how to best move an MGS/MGT on ZFS on a Centos 7.9<br>
platform (lustre 2.12.6) (old h/w and old storage) to a new server<br>
with Oracle linux 8.10 and different storage (lustre 2.15.5).<br>
<br>
The MGS box also has two MDS file systems, "mdt-home / fsname =<br>
home" and "mdt-lustre / fsname=lustre" also on ZFS. I will then<br>
plan to move (after a successful MGS migration), the MDS<br>
functionality to two new servers (one for /home and one for<br>
/lustre).<br>
<br>
The MGS IP 10.140.93.42 needs to change to 93.50 and then the MDS<br>
will need a change later.<br>
<br>
So far I can't work out the best way to achieve an MGS migration<br>
across platforms with an IP change. There are only 12 clients, so<br>
remounting filesystems is not an issue.<br>
<br>
Does the OSS also need a config change when the MGS changes? <br>
<br>
Some Info<br>
<br>
<br>
<br>
[root@hpc-mds-02 ~]# zfs list<br>
NAME               USED  AVAIL  REFER  MOUNTPOINT<br>
mdthome           81.5G  4.12T    96K  /mdthome<br>
mdthome/home      77.6G  4.12T  77.6G  /mdthome/home<br>
mdtlustre         40.9G  5.00T    96K  /mdtlustre<br>
mdtlustre/lustre  37.1G  5.00T  37.1G  /mdtlustre/lustre<br>
mgspool           9.06M   860G    96K  /mgspool<br>
mgspool/mgt       8.02M   860G  8.02M  /mgspool/mgt<br>
[root@hpc-mds-02 ~]#<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
[root@hpc-mds-02 ~]# lctl dl<br>
  0 UP osd-zfs MGS-osd MGS-osd_UUID 4<br>
  1 UP mgs MGS MGS 38<br>
  2 UP mgc MGC10.140.93.42@o2ib a4723a3a-dd8a-667f-0128-<br>
71caf5cc56be 4<br>
  3 UP osd-zfs home-MDT0000-osd home-MDT0000-osd_UUID 10<br>
  4 UP mgc MGC10.140.93.41@o2ib 68dff2a2-29d9-1468-6ff0-<br>
6d99fa57d383 4<br>
  5 UP mds MDS MDS_uuid 2<br>
  6 UP lod home-MDT0000-mdtlov home-MDT0000-mdtlov_UUID 3<br>
  7 UP mdt home-MDT0000 home-MDT0000_UUID 40<br>
  8 UP mdd home-MDD0000 home-MDD0000_UUID 3<br>
  9 UP qmt home-QMT0000 home-QMT0000_UUID 3<br>
 10 UP osp home-OST0000-osc-MDT0000 home-MDT0000-mdtlov_UUID 4<br>
 11 UP osp home-OST0001-osc-MDT0000 home-MDT0000-mdtlov_UUID 4<br>
 12 UP osp home-OST0002-osc-MDT0000 home-MDT0000-mdtlov_UUID 4<br>
 13 UP osp home-OST0003-osc-MDT0000 home-MDT0000-mdtlov_UUID 4<br>
 14 UP lwp home-MDT0000-lwp-MDT0000 home-MDT0000-lwp-MDT0000_UUID 4<br>
 15 UP osd-zfs lustre-MDT0000-osd lustre-MDT0000-osd_UUID 12<br>
 16 UP lod lustre-MDT0000-mdtlov lustre-MDT0000-mdtlov_UUID 3<br>
 17 UP mdt lustre-MDT0000 lustre-MDT0000_UUID 44<br>
 18 UP mdd lustre-MDD0000 lustre-MDD0000_UUID 3<br>
 19 UP qmt lustre-QMT0000 lustre-QMT0000_UUID 3<br>
 20 UP osp lustre-OST0000-osc-MDT0000 lustre-MDT0000-mdtlov_UUID 4<br>
 21 UP osp lustre-OST0001-osc-MDT0000 lustre-MDT0000-mdtlov_UUID 4<br>
 22 UP osp lustre-OST0002-osc-MDT0000 lustre-MDT0000-mdtlov_UUID 4<br>
 23 UP osp lustre-OST0003-osc-MDT0000 lustre-MDT0000-mdtlov_UUID 4<br>
 24 UP osp lustre-OST0004-osc-MDT0000 lustre-MDT0000-mdtlov_UUID 4<br>
 25 UP osp lustre-OST0005-osc-MDT0000 lustre-MDT0000-mdtlov_UUID 4<br>
 26 UP lwp lustre-MDT0000-lwp-MDT0000 lustre-MDT0000-lwp-<br>
MDT0000_UUID 4<br>
[root@hpc-mds-02 ~]#<br>
<br>
<br>
<br>
<br>
[root@hpc-mds-02 ~]# zpool list<br>
NAME        SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP <br>
HEALTH  ALTROOT<br>
mdthome    4.34T  81.5G  4.26T         -    49%     1%  1.00x <br>
ONLINE  -<br>
mdtlustre  5.20T  40.9G  5.16T         -    47%     0%  1.00x <br>
ONLINE  -<br>
mgspool     888G  9.12M   888G         -     0%     0%  1.00x <br>
ONLINE  -<br>
[root@hpc-mds-02 ~]#<br>
<br>
<br>
  pool: mgspool<br>
 state: ONLINE<br>
  scan: scrub repaired 0B in 0h0m with 0 errors on Mon Jun 17<br>
13:18:44 2024<br>
config:<br>
<br>
        NAME         STATE     READ WRITE CKSUM<br>
        mgspool      ONLINE       0     0     0<br>
          mirror-0   ONLINE       0     0     0<br>
            d3710M0  ONLINE       0     0     0<br>
            d3710M1  ONLINE       0     0     0<br>
<br>
errors: No known data errors<br>
[root@hpc-mds-02 ~]#<br>
<br>
Sid Young<br>
Brisbane, Australia<br>
<br>
_______________________________________________<br>
lustre-discuss mailing list<br>
lustre-discuss@lists.lustre.org<br>
http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org<br>
</blockquote>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
Cheers, Andreas<br>
—<br>
Andreas Dilger<br>
Lustre Principal Architect<br>
Whamcloud/DDN<br>
<br>
<br>
<br>
<br>
_______________________________________________<br>
lustre-discuss mailing list<br>
lustre-discuss@lists.lustre.org<br>
http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org<br>
</blockquote>
</div>
</div>
</blockquote>
</div>
<br>
<div>
<div dir="auto" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); letter-spacing: normal; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px; -webkit-text-stroke-width: 0px; text-decoration: none; overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<div dir="auto" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); letter-spacing: normal; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px; -webkit-text-stroke-width: 0px; text-decoration: none; overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<div>Cheers, Andreas</div>
<div>—</div>
<div>Andreas Dilger</div>
<div>Lustre Principal Architect</div>
<div>Whamcloud/DDN</div>
</div>
<br class="Apple-interchange-newline">
</div>
<br class="Apple-interchange-newline">
<br class="Apple-interchange-newline">
</div>
<br>
</div>
</div>
</div>
</div>
</body>
</html>