<div><div dir="auto">Kevin,</div></div><div dir="auto"><br></div><div dir="auto">There are files in /proc/fs/lustre/qmt/yourfsname-QMT0000/ that you can pull it all from based on UID and GID. Look for files like md-0x0/glb-usr  dt-0x0/glb-usr and files in /proc/fs/lustre/osd-zfs/yourfsname-MDT0000/quota_slave.</div><div dir="auto"><br></div><div dir="auto">I’m not in front of a keyboard, I’m cooking breakfast but I’ll follow up with the exact files. You can cat them and maybe find what you’re looking for. </div><div dir="auto"><br></div><div dir="auto">—Jeff</div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Sep 5, 2019 at 05:07 Kevin M. Hildebrand <<a href="mailto:kevin@umd.edu">kevin@umd.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_default" style="font-size:small">Is there any way to dump the Lustre quota data in its entirety, rather than having to call 'lfs quota' individually for each user, group, and project?</div><div class="gmail_default" style="font-size:small"><br></div><div class="gmail_default" style="font-size:small">I'm currently doing this on a regular basis so we can keep graphs of how users and groups behave over time, but it's problematic for two reasons:</div><div class="gmail_default" style="font-size:small">1.  Getting a comprehensive list of users and groups to iterate over is difficult- sure I can use the passwd/group files, but if a user has been deleted there may still be files owned by a now orphaned userid or groupid which I won't see.  We may also have thousands of users in the passwd file that don't have files on a particular Lustre filesystem, and doing lfs quota calls for those users wastes time.</div><div class="gmail_default" style="font-size:small">2.  Calling lfs quota hundreds of times for each of the users, groups, and projects takes a while.  This reduces my ability to collect the data at the frequency I want.  Ideally I'd like to be able to collect every minute or so.</div><div class="gmail_default" style="font-size:small"><br></div><div class="gmail_default" style="font-size:small">I have two different Lustre installations, one running 2.8.0 with ldiskfs, the other running 2.10.8 with ZFS.</div><div class="gmail_default" style="font-size:small"><br></div><div class="gmail_default" style="font-size:small">Thanks,</div><div class="gmail_default" style="font-size:small">Kevin</div><div class="gmail_default" style="font-size:small"><br></div><div class="gmail_default" style="font-size:small">--</div><div class="gmail_default" style="font-size:small">Kevin Hildebrand</div><div class="gmail_default" style="font-size:small">University of Maryland</div><div class="gmail_default" style="font-size:small">Division of IT<br></div><div class="gmail_default" style="font-size:small"><br></div></div>
_______________________________________________<br>
lustre-discuss mailing list<br>
<a href="mailto:lustre-discuss@lists.lustre.org" target="_blank">lustre-discuss@lists.lustre.org</a><br>
<a href="http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org" rel="noreferrer" target="_blank">http://lists.lustre.org/listinfo.cgi/lustre-discuss-lustre.org</a><br>
</blockquote></div></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr">------------------------------<br>Jeff Johnson<br>Co-Founder<br>Aeon Computing<br><br><a href="mailto:jeff.johnson@aeoncomputing.com" target="_blank">jeff.johnson@aeoncomputing.com</a><br><a href="http://www.aeoncomputing.com" target="_blank">www.aeoncomputing.com</a><br>t: 858-412-3810 x1001   f: 858-412-3845<br>m: 619-204-9061<br><br>4170 Morena Boulevard, Suite C - San Diego, CA 92117<div><br></div><div>High-Performance Computing / Lustre Filesystems / Scale-out Storage</div></div></div></div></div>