Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 NOTIZIA DELL'ULTIMO MINUTO: i ricercatori hanno inserito un singolo attore malevolo all'interno di un gruppo di agenti LLM. l'intera rete non è riuscita a raggiungere un consenso.
questo è il Problema dei Generali Bizantini. un incubo dei sistemi distribuiti che dura da 40 anni.
e ora è anche un problema per il tuo pipeline di agenti.
in ambienti completamente benigni, senza attori malevoli, gli agenti LLM falliscono ancora nel convergere su valori condivisi. e la situazione peggiora man mano che aggiungi più agenti al gruppo.
la modalità di fallimento è rivelatrice. non si tratta di una sottile corruzione dei valori. non è un agente che introduce una risposta sbagliata. i modelli semplicemente... si bloccano. scadono. girano in tondo. la conversazione non arriva mai a un accordo.
questo è importante perché l'intero hype dell'AI multi-agente presume che il coordinamento funzioni. sciami di agenti autonomi, risoluzione collaborativa dei problemi, sistemi AI decentralizzati. tutto ciò presuppone che se metti più LLM in una stanza e dai loro un protocollo, convergeranno su una decisione condivisa.
il consenso bizantino è uno dei problemi più antichi e studiati nei sistemi distribuiti. gli algoritmi classici lo hanno risolto decenni fa con rigorose garanzie matematiche. la domanda era se gli agenti LLM potessero raggiungere la stessa cosa attraverso la comunicazione in linguaggio naturale invece di protocolli formali.
dal momento, la risposta è no. e il motivo merita di essere considerato.
gli algoritmi di consenso tradizionali funzionano perché ogni nodo segue un protocollo deterministico identico. gli LLM sono stocastici. lo stesso prompt produce output diversi tra le esecuzioni. un accordo che tiene nel turno 3 può dissolversi nel turno 4 mentre gli agenti rivedono il loro ragionamento dopo aver visto le risposte dei pari.
questo è il disallineamento fondamentale: i protocolli di consenso presumono macchine a stati deterministici. gli LLM sono l'opposto di questo.
significa anche che "più agenti = risposte migliori" ha un limite che nessuno sta misurando. a una certa dimensione del gruppo, il sovraccarico di coordinamento e i fallimenti di convergenza superano qualsiasi beneficio derivante da prospettive diverse.
l'implicazione pratica è scomoda per chiunque stia costruendo sistemi multi-agente per compiti ad alto rischio. un accordo affidabile non è una proprietà emergente del mettere agenti intelligenti in conversazione. deve essere ingegnerizzato esplicitamente, con garanzie formali, non sperato in esistenza.
stiamo implementando sistemi multi-agente in finanza, sanità, infrastrutture autonome. e il problema del consenso, il primitivo di coordinamento più basilare, non è ancora risolto.

Principali
Ranking
Preferiti
