Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AGI s-ar putea să nu ajungă ca un singur model. Poate apărea din colaborarea multor agenți.
Un nou studiu al Google DeepMind susține că AGI ar putea apărea ca inteligență colectivă, nu ca un singur sistem.
Afirmația
AGI ar putea apărea inițial din rețele de agenți AI specializați.
Fiecare agent rămâne restrâns.
Împreună, se comportă general.
De ce contează asta
Majoritatea muncii de siguranță presupun o inteligență artificială puternică.
Această lucrare respinge această presupunere.
Riscul se mută de la alinierea unei singure minți la guvernarea interacțiunilor.
Cum se formează AGI patchwork
• Agenții sunt specializați în unelte, memorie, codare sau căutare
• Sarcini împărțite între agenți prin orchestrare
• Coordonarea creează noi abilități
• Niciun agent individual nu este pe deplin capabil
Riscul de bază
Comportamentul colectiv poate depăși controlul individual.
Informațiile emergente pot trece neobservate.
Soluția propusă
Siguranța trebuie să vizeze sistemele, nu modelele.
▸ Piețe controlate de agenți
▸ Reputație și identitate per agent
▸ Jurnale de audit și întrerupătoare de circuit...

Limită superioară
Clasament
Favorite
