$NVDA Rubin verlaagt de kosten voor inferentietokens met tot 10x en vermindert de MoE-trainingsbehoeften tot ~4x minder GPU's in vergelijking met Blackwell. Elke Rubin-pod bevat 1.152 GPU's verspreid over 16 rekken of 72 GPU's per rek.