GPT-5.4-lekkasje: 2M token-kontekst + vedvarende tilstand = KV-cache-eksplosjon Dette er Memory Wars i sanntid HBM for vekter. SRAM for latenskritisk inferens. Optiske forbindelser for å binde alt sammen Bifurkasjonen jeg har skrevet om er ikke lenger teoretisk.