Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NUOVE ricerche da Stanford.
Il dibattito sull'AGI è bloccato su una falsa dicotomia.
Posizione uno: scalare i LLM e l'intelligenza emerge.
Posizione due: i LLM sono abbinatori di schemi incapaci di ragionare, un vicolo cieco.
Questo documento sostiene una terza posizione: Substrato più Coordinazione.
I LLM sono il necessario repository di schemi di Sistema-1. Il componente mancante è uno strato di coordinazione di Sistema-2 che seleziona, vincola e lega questi schemi a obiettivi esterni.
L'autore sostiene che l'intuizione chiave proviene da una metafora di pesca. L'oceano è la vasta conoscenza latente del modello. Lanciare senza esca recupera il massimo prior di probabilità: output generici e comuni. I critici che osservano l'allucinazione non vedono un sistema rotto. Vedono un lancio senza esca.
Un comportamento intelligente richiede esca e filtraggio. Il documento formalizza questo tramite UCCT, una teoria in cui il ragionamento emerge come una transizione di fase. Tre fattori governano il cambiamento: supporto efficace (densità di esca che attrae concetti target), disallineamento rappresentativo (quanto il prior resiste) e un budget di ancoraggio adattivo (il costo del contesto).
Quando la forza di ancoraggio supera una soglia, il comportamento passa da allucinazione a controllo orientato agli obiettivi. Due esempi in contesto possono sovrascrivere l'aritmetica appresa da miliardi di token. La transizione è discreta, non graduale.
La coordinazione è un collo di bottiglia nei moderni sistemi di intelligenza artificiale.
MACI implementa questo strato di coordinazione: dibattito modulato dal comportamento tra agenti, giudizio socratico che filtra argomenti mal posti e memoria transazionale che mantiene lo stato attraverso episodi di ragionamento.
Leggi il documento sull'ingegneria del contesto agentico per idee sulla parte della memoria.
Il percorso verso l'AGI passa attraverso i LLM, non intorno a loro. La domanda non è se i repository di schemi siano sufficienti. È quali meccanismi di coordinazione possono trasformare la capacità di schemi in ragionamento affidabile e verificabile.
Documento:
Impara a costruire agenti AI efficaci nella nostra accademia:

Principali
Ranking
Preferiti
