À quoi ressembleront les résultats économiques alors que les transactions seront déléguées à des agents IA ? Les différences humaines seront-elles atténuées, conduisant à des résultats plus homogènes, ou seront-elles recréées et potentiellement même amplifiées ? Les agents IA atténueront-ils l'inégalité, ou celle-ci persistera-t-elle et prendra-t-elle potentiellement de nouvelles formes ? Les agents IA élimineront-ils l'asymétrie d'information dans les relations principal-agent, ou introduiront-ils de nouvelles frictions ? Un nouvel article avec K. Lee et @sanjog_misra fournit quelques premières réponses : 1) Les interactions agentiques IA, si tant est qu'elles existent, génèrent plus de dispersion et d'hétérogénéité dans les résultats économiques que les références humaines-humaines. 2) La dispersion des interactions agentiques peut être directement retracée aux traits et biais non instrumentaux des principaux humains qui font les incitations. L'hypothèse d'une plus grande homogénéité des interactions (IA) agentiques ne semble pas se vérifier. 3) Il existe des différences substantielles dans la "fluidité machine" — la capacité à rédiger des incitations qui alignent l'agent avec l'objectif du principal. Certains principaux sont meilleurs pour maximiser les résultats agentiques que d'autres. Les caractéristiques du principal prédisent la performance de l'agent, suggérant une nouvelle source d'inégalité. 4) Certains traits ont une relation similaire avec les résultats que les interactions humaines-humaines, mais d'autres s'inversent, par exemple, la différence de genre dans les résultats négociés. 5) Les relations principal-agent changent : l'incitation agit désormais comme un contrat. Mais la fonction objective en boîte noire de l'agent implique un nouveau type d'incomplétude contractuelle, que nous appelons largement "risque de spécification". Alors que l'activité économique se déplace vers des agents autonomes, la principale source de distorsion du marché pourrait passer des asymétries d'information entre les parties aux modèles mentaux des principaux concernant les agents IA auxquels ils délèguent.