<html xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
span.EmailStyle19
        {mso-style-type:personal-reply;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:10.0pt;
        mso-ligatures:none;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style>
</head>
<body lang="EN-US" link="blue" vlink="purple" style="word-wrap:break-word">
<div class="WordSection1">
<p class="MsoNormal">The error message is stating that ‘-P’ is not valid option to the conf_param command. You may be thinking of lctl set_param -P …<br>
<br>
Did you follow the documented procedure for removing an OST from the filesystem when you “adjust[ed] the configuration”?<br>
<br>
<a href="https://build.whamcloud.com/job/lustre-manual/lastSuccessfulBuild/artifact/lustre_manual.xhtml#lustremaint.remove_ost">https://build.whamcloud.com/job/lustre-manual/lastSuccessfulBuild/artifact/lustre_manual.xhtml#lustremaint.remove_ost</a><br>
<br>
Chris Horn<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<div style="border:none;border-top:solid #B5C4DF 1.0pt;padding:3.0pt 0in 0in 0in">
<p class="MsoNormal" style="margin-bottom:12.0pt"><b><span style="font-size:12.0pt;color:black">From:
</span></b><span style="font-size:12.0pt;color:black">lustre-discuss <lustre-discuss-bounces@lists.lustre.org> on behalf of Alejandro Sierra via lustre-discuss <lustre-discuss@lists.lustre.org><br>
<b>Date: </b>Wednesday, August 9, 2023 at 11:55 AM<br>
<b>To: </b>Jeff Johnson <jeff.johnson@aeoncomputing.com><br>
<b>Cc: </b>lustre-discuss <lustre-discuss@lists.lustre.org><br>
<b>Subject: </b>Re: [lustre-discuss] How to eliminate zombie OSTs<o:p></o:p></span></p>
</div>
<div>
<p class="MsoNormal">Yes, it is.<br>
<br>
El mié, 9 ago 2023 a la(s) 10:49, Jeff Johnson<br>
(jeff.johnson@aeoncomputing.com) escribió:<br>
><br>
> Alejandro,<br>
><br>
> Is your MGS located on the same node as your primary MDT? (combined MGS/MDT node)<br>
><br>
> --Jeff<br>
><br>
> On Wed, Aug 9, 2023 at 9:46 AM Alejandro Sierra via lustre-discuss <lustre-discuss@lists.lustre.org> wrote:<br>
>><br>
>> Hello,<br>
>><br>
>> In 2018 we implemented a lustre system 2.10.5 with 20 OSTs in two OSS<br>
>> with 4 jboxes, each box with 24 disks of 12 TB each, for a total of<br>
>> nearly 1 PB. In all that time we had power failures and failed raid<br>
>> controller cards, all of which made us adjust the configuration. After<br>
>> the last failure, the system keeps sending error messages about OSTs<br>
>> that are no more in the system. In the MDS I do<br>
>><br>
>> # lctl dl<br>
>><br>
>> and I get the 20 currently active OSTs<br>
>><br>
>> oss01.lanot.unam.mx     -       OST00   /dev/disk/by-label/lustre-OST0000<br>
>> oss01.lanot.unam.mx     -       OST01   /dev/disk/by-label/lustre-OST0001<br>
>> oss01.lanot.unam.mx     -       OST02   /dev/disk/by-label/lustre-OST0002<br>
>> oss01.lanot.unam.mx     -       OST03   /dev/disk/by-label/lustre-OST0003<br>
>> oss01.lanot.unam.mx     -       OST04   /dev/disk/by-label/lustre-OST0004<br>
>> oss01.lanot.unam.mx     -       OST05   /dev/disk/by-label/lustre-OST0005<br>
>> oss01.lanot.unam.mx     -       OST06   /dev/disk/by-label/lustre-OST0006<br>
>> oss01.lanot.unam.mx     -       OST07   /dev/disk/by-label/lustre-OST0007<br>
>> oss01.lanot.unam.mx     -       OST08   /dev/disk/by-label/lustre-OST0008<br>
>> oss01.lanot.unam.mx     -       OST09   /dev/disk/by-label/lustre-OST0009<br>
>> oss02.lanot.unam.mx     -       OST15   /dev/disk/by-label/lustre-OST000f<br>
>> oss02.lanot.unam.mx     -       OST16   /dev/disk/by-label/lustre-OST0010<br>
>> oss02.lanot.unam.mx     -       OST17   /dev/disk/by-label/lustre-OST0011<br>
>> oss02.lanot.unam.mx     -       OST18   /dev/disk/by-label/lustre-OST0012<br>
>> oss02.lanot.unam.mx     -       OST19   /dev/disk/by-label/lustre-OST0013<br>
>> oss02.lanot.unam.mx     -       OST25   /dev/disk/by-label/lustre-OST0019<br>
>> oss02.lanot.unam.mx     -       OST26   /dev/disk/by-label/lustre-OST001a<br>
>> oss02.lanot.unam.mx     -       OST27   /dev/disk/by-label/lustre-OST001b<br>
>> oss02.lanot.unam.mx     -       OST28   /dev/disk/by-label/lustre-OST001c<br>
>> oss02.lanot.unam.mx     -       OST29   /dev/disk/by-label/lustre-OST001d<br>
>><br>
>> but I also get 5 that are not currently active, in fact doesn't exist<br>
>><br>
>>  28 IN osp lustre-OST0014-osc-MDT0000 lustre-MDT0000-mdtlov_UUID 4<br>
>>  29 UP osp lustre-OST0015-osc-MDT0000 lustre-MDT0000-mdtlov_UUID 4<br>
>>  30 UP osp lustre-OST0016-osc-MDT0000 lustre-MDT0000-mdtlov_UUID 4<br>
>>  31 UP osp lustre-OST0017-osc-MDT0000 lustre-MDT0000-mdtlov_UUID 4<br>
>>  32 UP osp lustre-OST0018-osc-MDT0000 lustre-MDT0000-mdtlov_UUID 4<br>
>><br>
>> When I try to eliminate them with<br>
>><br>
>> lctl conf_param -P osp.lustre-OST0015-osc-MDT0000.active=0<br>
>><br>
>> I get the error<br>
>><br>
>> conf_param: invalid option -- 'P'<br>
>> set a permanent config parameter.<br>
>> This command must be run on the MGS node<br>
>> usage: conf_param [-d] <target.keyword=val><br>
>>   -d  Remove the permanent setting.<br>
>><br>
>> If I do<br>
>><br>
>> lctl --device 28 deactivate<br>
>><br>
>> I don't get an error, but nothing changes<br>
>><br>
>> What can I do?<br>
>><br>
>> Thank you in advance for any help.<br>
>><br>
>> --<br>
>> Alejandro Aguilar Sierra<br>
>> LANOT, ICAyCC, UNAM<br>
>> _______________________________________________<br>
>> lustre-discuss mailing list<br>
>> lustre-discuss@lists.lustre.org<br>
>> <a href="http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org">http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org</a>
<br>
><br>
><br>
><br>
> --<br>
> ------------------------------<br>
> Jeff Johnson<br>
> Co-Founder<br>
> Aeon Computing<br>
><br>
> jeff.johnson@aeoncomputing.com<br>
> <a href="http://www.aeoncomputing.com">http://www.aeoncomputing.com</a>
<br>
> t: 858-412-3810 x1001   f: 858-412-3845<br>
> m: 619-204-9061<br>
><br>
> 4170 Morena Boulevard, Suite C - San Diego, CA 92117<br>
><br>
> High-Performance Computing / Lustre Filesystems / Scale-out Storage<br>
_______________________________________________<br>
lustre-discuss mailing list<br>
lustre-discuss@lists.lustre.org<br>
<a href="http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org">http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org</a>
<o:p></o:p></p>
</div>
</div>
</body>
</html>