I have a QDR ib switch that should support up to 40Gbps.  After installing the kernel-ib and lustre client rpms on my SuSe nodes I see the following:<br><br>hpc102:~ # ibstatus mlx4_0:1<br>Infiniband device 'mlx4_0' port 1 status:<br>
    default gid:     fe80:0000:0000:0000:0002:c903:0006:de19<br>    base lid:     0x7<br>    sm lid:         0x1<br>    state:         4: ACTIVE<br>    phys state:     5: LinkUp<br>    rate:         20 Gb/sec (4X DDR)<br>
<br>Why is this only picking up 4X DDR at 20Gb/sec?  Do the lustre rpm's not support QDR?  Is there something that I need to do on my side to force 40Gb/sec on these ports?<br><br>Thanks in advance,<br>-J<br>