<div dir="ltr">Hi,<div><br></div><div>I encountered a problem when using Lustre Client on k8s with kubenet. Very happy if you could help me.</div><div><br></div><div>My LNet configuration is:</div><div><br></div><div>net:<br>    - net type: lo<br>      local NI(s):<br>        - nid: 0@lo<br>          status: up<br>    - net type: tcp<br>      local NI(s):<br>        - nid: 10.224.0.5@tcp<br>          status: up<br>          interfaces:<br>              0: eth0</div><div><br></div><div>It works. But after I deploy or delete a pod on the node. The nid goes down like:</div><div><br></div><div>- nid: 10.224.0.5@tcp<br>          status: down<br>          interfaces:<br>              0: eth0<br></div><div><br></div><div>k8s uses veth pairs, so it will add or delete network interfaces when deploying or deleting pods. But it doesn't touch the eth0 NIC. I can fix it by deleting the tcp net by `lnetctl net del` and re-add it by `lnetctl net add`. But I need to do this every time after a pod is scheduled to this node.</div><div><br></div><div>My node OS is Ubuntu 18.04 5.4.0-1101-azure. The Lustre Client is built by myself from 2.15.1. Is this an expected LNet behavior or I got something wrong? I re-build and tested it several times and got the same problem.<br><div><br></div><div>Regards,</div><div>Chuanjun</div></div></div>