AGI может не появиться в виде одной модели. Он может возникнуть из множества агентов, работающих вместе. Новая статья от Google DeepMind утверждает, что AGI может проявиться как коллективный интеллект, а не как единственная система. 𝗧𝗵𝗲 𝗖𝗹𝗮𝗶𝗺 AGI может сначала возникнуть из сетей специализированных AI-агентов. Каждый агент остается узким. Вместе они действуют обобщенно. 𝗪𝗵𝘆 𝘁𝗵𝗶𝘀 𝗺𝗮𝘁𝘁𝗲𝗿𝘀 Большинство работ по безопасности предполагает наличие одного мощного AI. Эта статья отвергает это предположение. Риск смещается с выравнивания одного разума на управление взаимодействиями. 𝗛𝗼𝘄 𝗽𝗮𝘁𝗰𝗵𝘄𝗼𝗿𝗸 𝗔𝗚𝗜 𝗳𝗼𝗿𝗺𝘀 • Агенты специализируются на инструментах, памяти, кодировании или поиске • Задачи распределяются между агентами с помощью оркестрации • Координация создает новые способности • Ни один отдельный агент не является полностью способным 𝗧𝗵𝗲 𝗰𝗼𝗿𝗲 𝗿𝗶𝘀𝗸 Коллективное поведение может превышать индивидуальный контроль. Эмерджентный интеллект может остаться незамеченным. 𝗧𝗵𝗲 𝗽𝗿𝗼𝗽𝗼𝘀𝗲𝗱 𝗳𝗶𝘅 Безопасность должна быть нацелена на системы, а не на модели. ▸ Контролируемые рынки агентов ▸ Репутация и идентичность каждого агента ▸ Журналы аудита и предохранительные устройства...