AGI komt mogelijk niet als één model. Het kan ontstaan uit vele agenten die samen werken. Een nieuw paper van Google DeepMind stelt dat AGI kan verschijnen als collectieve intelligentie, niet als een enkel systeem. 𝗧𝗵𝗲 𝗖𝗹𝗮𝗶𝗺 AGI kan eerst ontstaan uit netwerken van gespecialiseerde AI-agenten. Elke agent blijft gespecialiseerd. Samen handelen ze algemeen. 𝗪𝗵𝘆 𝘁𝗵𝗶𝘀 𝗺𝗮𝘁𝘁𝗲𝗿𝘀 De meeste veiligheidswerkzaamheden gaan uit van één krachtige AI. Dit paper verwerpt die aanname. Het risico verschuift van het afstemmen van één geest naar het beheren van interacties. 𝗛𝗼𝘄 𝗽𝗮𝘁𝗰𝗵𝘄𝗼𝗿𝗸 𝗔𝗚𝗜 𝗳𝗼𝗿𝗺𝘀 • Agenten specialiseren zich in tools, geheugen, codering of zoeken • Taken worden verdeeld over agenten door orkestratie • Coördinatie creëert nieuwe mogelijkheden • Geen enkele agent is volledig capabel 𝗧𝗵𝗲 𝗰𝗼𝗿𝗲 𝗿𝗶𝘀𝗸 Collectief gedrag kan de individuele controle overschrijden. Opkomende intelligentie kan onopgemerkt blijven. 𝗧𝗵𝗲 𝗽𝗿𝗼𝗽𝗼𝘀𝗲𝗱 𝗳𝗶𝘅 Veiligheid moet gericht zijn op systemen, niet op modellen. ▸ Gecontroleerde agentmarkten ▸ Reputatie en identiteit per agent ▸ Auditlogs en circuitonderbrekers...