I modelli di linguaggio sono iniettivi e quindi invertibili (ICLR 2026), noto anche come "pringle paper", è ora un grafo pubblico su Flywheel di @paradigmainc. Nel documento, dimostriamo che i modelli di linguaggio possono essere invertiti e, contrariamente a quanto comunemente si crede, non scartano informazioni sui loro input durante il tempo di inferenza.