Ich beschäftige mich seit 2007 intensiv mit KI (damals maschinelles Lernen...). Ich habe maschinelles Lernen in den USA studiert, die meisten Bücher gelesen und jeden Podcast gehört. Nichts hat mich so schockiert wie das kürzliche Buch und das Interview von Roman Yampolskiy. 🧵
seine Meinung ist selten + tiefgründig: Der Aufbau von künstlicher Superintelligenz (ASI) ist nicht nur riskant, sondern praktisch garantierte Auslöschung.
Die Fähigkeit ist gelöst (Rechenleistung + Daten = intelligentere KI). Sicherheit ist nicht gelöst. Und die Lücke zwischen den beiden wächst jeden Tag.
Vorhersagemärkte + Laborleiter sagen, dass AGI bis 2027 eintreffen könnte. Superintelligenz folgt wahrscheinlich automatisch. Wir sind nicht bereit.
Roman sagt eine Arbeitslosigkeit von nicht 10%, sondern nahezu total (>99%+). Sowohl kognitive als auch körperliche Arbeit werden ersetzt. Umschulung wird nicht helfen, wenn alle Jobs automatisierbar sind.
„Schutzvorrichtungen“ sind Pflaster. Intelligentere Systeme umgehen sie. Das Ausschalten? Fantasie. Man zieht nicht den Stecker von etwas, das einen überlistet, es zieht deinen.
Das Risiko des Aussterbens benötigt nicht einmal KI. KI-unterstützte Biotechnologie könnte einem schlechten Akteur Werkzeuge für Schäden in zivilisatorischem Maßstab geben.
Die Dynamik des Rennens ist gebrochen: Sobald asi aktiviert ist, spielt es keine Rolle, wer es gebaut hat. Beide Seiten verlieren.
Romans Aufruf: Pause bei der asi. Behalte schmale KI für echte Probleme. Hör auf, "göttliche" Systeme zu jagen, die wir nicht ausrichten oder kontrollieren können.
2,66K