Artykuł @nytimes dzisiaj autorstwa @ByrneEdsal13590 podkreśla obawę, którą podzielam: „Jeśli pozostaniemy na obecnej ścieżce, ryzyko ekstremalnej koncentracji — zarówno ekonomicznej, jak i politycznej — jest bardzo realne.” W pracy z @zhitzig pytamy, dlaczego AI może zmienić równowagę między rozproszoną wiedzą a scentralizowaną kontrolą.
Klasyczna myśl Hayeka polegała na tym, że wiele istotnych ekonomicznie informacji jest rozproszonych, lokalnych i często ukrytych. To jeden z powodów, dla których rynki zdecentralizowane historycznie przewyższały centralne planowanie. Jednak AI może zmienić te "fizyki wiedzy", czyniąc więcej z tej wiedzy kodowalnej, przenośnej i użytecznej na dużą skalę.
Nasza argumentacja koncentruje się na potencjale transformacyjnej AI (TAI) do skodyfikowania osądów, heurystyk i wiedzy, które kiedyś były osadzone w ludziach, zespołach i lokalnych kontekstach. TAI może przesunąć podejmowanie decyzji w kierunku tych, którzy kontrolują modele, dane i obliczenia.
To stwarza rzeczywiste ryzyko większej koncentracji: większe firmy, mniejsza autonomia lokalna. Ponadto koncentracja władzy ekonomicznej często przekłada się na koncentrację władzy politycznej.
Ważne jest, aby zrozumieć, że większa koncentracja władzy NIE jest nieunikniona. I z pewnością nie jest to, co popieramy.
Kluczowym pytaniem politycznym jest to, czy używamy AI głównie do zastępowania ludzi, czy do ich wspierania. Jak argumentowałem w The Turing Trap, możemy i powinniśmy budować instytucje i technologie, które zachowują ludzką autonomię i zdecentralizowaną władzę.
Oto dokument z Zoë Hitzig:
85