Как будут выглядеть экономические результаты, если транзакции будут делегированы агентам ИИ? Сгладятся ли человеческие различия, приведя к более однородным результатам, или они будут воссозданы и, возможно, даже усилены? Смогут ли агенты ИИ смягчить неравенство, или оно сохранится и, возможно, примет новые формы? Устранят ли агенты ИИ асимметрию информации в отношениях принципал-агент или введут новые трения? Новая статья с К. Ли и @sanjog_misra предоставляет некоторые ранние ответы: 1) Взаимодействия с агентами ИИ, если говорить откровенно, генерируют большее рассеяние и гетерогенность в экономических результатах, чем человеческие эталоны. 2) Рассеяние агентных взаимодействий можно напрямую отследить к неинструментальным чертам и предвзятостям человеческих принципалов, которые делают запросы. Гипотеза о большей однородности от (ИИ)агентных взаимодействий, похоже, не подтверждается. 3) Существуют значительные различия в "машинной грамотности" — способности писать запросы, которые согласуют агента с целью принципала. Некоторые принципалы лучше других максимизируют агентные результаты. Характеристики принципала предсказывают производительность агента, что указывает на новый источник неравенства. 4) Некоторые черты имеют аналогичную связь с результатами, как в человеческих взаимодействиях, но другие обратны, например, гендерные различия в результатах переговоров. 5) Изменения в отношениях принципал-агент: запрос теперь действует как контракт. Но черный ящик целевой функции агента подразумевает новый тип неполноты контракта, который мы в широком смысле называем "опасностью спецификации". По мере того как экономическая деятельность переходит к автономным агентам, основной источник рыночных искажений может сместиться от информационных асимметрий между сторонами к ментальным моделям принципалов о агентах ИИ, которым они делегируют.