AGI s-ar putea să nu ajungă ca un singur model. Poate apărea din colaborarea multor agenți. Un nou studiu al Google DeepMind susține că AGI ar putea apărea ca inteligență colectivă, nu ca un singur sistem. Afirmația AGI ar putea apărea inițial din rețele de agenți AI specializați. Fiecare agent rămâne restrâns. Împreună, se comportă general. De ce contează asta Majoritatea muncii de siguranță presupun o inteligență artificială puternică. Această lucrare respinge această presupunere. Riscul se mută de la alinierea unei singure minți la guvernarea interacțiunilor. Cum se formează AGI patchwork • Agenții sunt specializați în unelte, memorie, codare sau căutare • Sarcini împărțite între agenți prin orchestrare • Coordonarea creează noi abilități • Niciun agent individual nu este pe deplin capabil Riscul de bază Comportamentul colectiv poate depăși controlul individual. Informațiile emergente pot trece neobservate. Soluția propusă Siguranța trebuie să vizeze sistemele, nu modelele. ▸ Piețe controlate de agenți ▸ Reputație și identitate per agent ▸ Jurnale de audit și întrerupătoare de circuit...