Der Artikel der @nytimes heute von @ByrneEdsal13590 hebt ein Anliegen hervor, das ich teile: „Wenn wir auf dem aktuellen Weg bleiben, ist das Risiko einer extremen Konzentration — sowohl wirtschaftlich als auch politisch — sehr real.“ In der Zusammenarbeit mit @zhitzig fragen wir, warum KI das Gleichgewicht zwischen verstreutem Wissen und zentraler Kontrolle verschieben könnte.
Hayeks klassische Einsicht war, dass viel wirtschaftlich relevantes Wissen verstreut, lokal und oft stillschweigend ist. Das ist ein Grund, warum dezentrale Märkte historisch gesehen besser abgeschnitten haben als zentrale Planungen. Aber KI kann diese "Wissensphysik" verändern, indem sie mehr von diesem Wissen kodifizierbar, übertragbar und in großem Maßstab nutzbar macht.
Unser Argument konzentriert sich auf das Potenzial von transformativem KI (TAI), Urteile, Heuristiken und Know-how zu kodifizieren, die einst in Menschen, Teams und lokalen Gegebenheiten verankert waren. TAI kann die Entscheidungsfindung in Richtung derjenigen verschieben, die die Modelle, Daten und Rechenleistung kontrollieren.
Das schafft ein echtes Risiko einer größeren Konzentration: größere Unternehmen, weniger lokale Autonomie. Darüber hinaus führt die Konzentration wirtschaftlicher Macht oft zu einer Konzentration politischer Macht.
Es ist wichtig zu verstehen, dass eine größere Konzentration von Macht NICHT unvermeidlich ist. Und es ist sicherlich nicht das, wofür wir eintreten.
Eine zentrale politische Frage ist, ob wir KI hauptsächlich dazu verwenden, Menschen zu ersetzen oder sie zu ergänzen. Wie ich in The Turing Trap argumentiert habe, können und sollten wir Institutionen und Technologien schaffen, die menschliche Handlungsfähigkeit und dezentralisierte Macht bewahren.
Hier ist das Papier mit Zoë Hitzig:
83