O artigo do @nytimes hoje, escrito por @ByrneEdsal13590, destaca uma preocupação que eu compartilho: "Se continuarmos no caminho atual, o risco de uma concentração extrema — tanto econômica quanto política — é muito real." No trabalho com @zhitzig, perguntamos por que a IA pode mudar o equilíbrio entre o conhecimento disperso e o controle centralizado.
A clássica percepção de Hayek era que muito do conhecimento economicamente relevante é disperso, local e muitas vezes tácito. Essa é uma das razões pelas quais os mercados descentralizados historicamente superaram o planejamento central. Mas a IA pode mudar essas "físicas do conhecimento" ao tornar mais desse conhecimento codificável, transferível e utilizável em grande escala.
O nosso argumento foca-se no potencial da IA transformativa (TAI) para codificar juízos, heurísticas e conhecimentos que antes estavam incorporados em pessoas, equipas e contextos locais. A TAI pode deslocar a tomada de decisões para quem controla os modelos, os dados e o poder computacional.
Isso cria um risco genuíno de maior concentração: empresas maiores, menos autonomia local. Além disso, a concentração de poder econômico muitas vezes se traduz em concentração de poder político.
É importante entender que uma maior concentração de poder NÃO é inevitável. E certamente não é isso que defendemos.
Uma questão política chave é se usamos a IA principalmente para substituir pessoas ou para aumentá-las. Como argumentei em The Turing Trap, podemos e devemos construir instituições e tecnologias que preservem a agência humana e o poder descentralizado.
Aqui está o artigo com Zoë Hitzig:
84