Суперская работа из Стэнфордского университета о латентном сотрудничестве только что вышла, и она меняет наше представление о многопользовательском интеллекте навсегда. "Латентное сотрудничество в многопользовательских системах" показывает, что агенты могут координировать свои действия без коммуникационных каналов, заранее определенных ролей или каких-либо явных инструкций по командной работе. Они изобретают скрытые внутренние сигналы внутри своих политик, которые понимают только другие агенты. Это дико наблюдать за тем, что возникает: • Агенты делят задачи без какого-либо руководства • Роли формируются молча внутри латентного пространства • Слабые агенты отступают, пока более сильные берут на себя инициативу • Скрытые сигналы переговоров, которые никогда не появляются в наблюдаемых действиях • Стратегии координации, которые меняются по мере изменения окружающей среды То, что выглядит как простое поведение снаружи, на самом деле является целым секретным "языком", формирующимся внутри моделей. Самая шокирующая часть? Они тестировали сценарии, не давая агентам никаких инструментов для общения… и сотрудничество все равно возникло. Чисто из-за давления обучения и общих вознаграждений. Это взгляд на то, куда движется агентный ИИ: Команды, которые координируются инстинктивно, а не механически. Агенты, которые сотрудничают так, как это делают биологические системы, не потому что им сказали, а потому что стратегия естественным образом появляется. Если вам интересны автономные системы, обучение с подкреплением или многопользовательский ИИ… это обязательно к прочтению.