Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Una voce su GPT-5.4 era che il modello può mantenere lo stato.
Jeff Dean ha menzionato questo nella sua apparizione su @latentspacepod, quindi chiaramente è qualcosa a cui i laboratori di intelligenza artificiale stanno pensando.
Scommetterei che c'è una buona possibilità che abbiano scoperto come integrare efficacemente i Modelli di Spazio-Stato con i Trasformatori su larga scala.
Gli SSM sono progettati per portare avanti uno stato nascosto con ogni passo computazionale e scalare linearmente piuttosto che quadraticamente come i Trasformatori.
Supporta anche la voce che GPT-5.4 avrà una finestra di contesto di 2 milioni di token.
Uno stato persistente significherebbe essenzialmente che i modelli di intelligenza artificiale passano dal personaggio di Guy Pearce in "Memento" al personaggio di Dustin Hoffman in "Rain Man" da un giorno all'altro.
Darebbe ai modelli di intelligenza artificiale una vera memoria a lungo termine.
Sarebbe una svolta enorme per davvero.
Principali
Ranking
Preferiti
