Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
L'AGI ne pourrait pas arriver sous la forme d'un seul modèle. Elle pourrait émerger de nombreux agents travaillant ensemble.
Un nouvel article de Google DeepMind soutient que l'AGI pourrait apparaître comme une intelligence collective, et non comme un système unique.
𝗟𝗮 𝗰𝗼𝗻𝗰𝗲𝗽𝘁𝗶𝗼𝗻
L'AGI pourrait d'abord émerger de réseaux d'agents IA spécialisés.
Chaque agent reste étroit.
Ensemble, ils agissent de manière générale.
𝗖𝗲 𝗾𝘂𝗲 𝗰𝗲𝗹𝗮 𝗶𝗺𝗽𝗼𝗿𝘁𝗲
La plupart des travaux de sécurité supposent une IA puissante unique.
Cet article rejette cette hypothèse.
Le risque passe de l'alignement d'un esprit à la gouvernance des interactions.
𝗖𝗼𝗺𝗺𝗲𝗻𝘁 𝗹'𝗔𝗚𝗜 𝗽𝗼𝘂𝘁 𝗲̂𝘁𝗿𝗲 𝗳𝗼𝗿𝗺𝗲́𝗲
• Les agents se spécialisent dans les outils, la mémoire, le codage ou la recherche
• Les tâches sont réparties entre les agents par orchestration
• La coordination crée de nouvelles capacités
• Aucun agent n'est entièrement capable
𝗟𝗲 𝗿𝗶𝘀𝗾𝘂𝗲 𝗰𝗼𝗿𝗲
Le comportement collectif peut dépasser le contrôle individuel.
L'intelligence émergente peut passer inaperçue.
𝗟𝗮 𝗿𝗲𝘁𝗼𝘂𝗿 𝗽𝗿𝗼𝗽𝗼𝘀𝗲́𝗲
La sécurité doit cibler les systèmes, pas les modèles.
▸ Marchés d'agents contrôlés
▸ Réputation et identité par agent
▸ Journaux d'audit et disjoncteurs...

Meilleurs
Classement
Favoris
