Am 5. März hat ein einzelnes AI-Coding-Tool einen Rückgang der Bestellungen um 99 % in den nordamerikanischen Marktplätzen von Amazon ausgelöst und innerhalb eines Tages 6,3 Millionen Bestellungen vernichtet. Das Tool wurde gebeten, kleinere Änderungen vorzunehmen, und hat dabei eine gesamte Umgebung zerstört, was eine 13-stündige Wiederherstellung zur Folge hatte. Für ein Unternehmen, das etwa 4.000 $ Umsatz pro Sekunde verarbeitet, hat das eine sehr spezifische Dollarzahl zur Folge. Amazon hält jetzt ein verpflichtendes All-Hands-Engineering-Meeting dazu ab und bezeichnet es als "Routine." Ihre interne Informationsnotiz erzählt eine andere Geschichte: ein Muster von AI-unterstützten Ausfällen mit weitreichenden Schäden und keinen etablierten Sicherheitsvorkehrungen, um diese zu verhindern. Aber warum ist das über Amazon hinaus wichtig? Jedes große Unternehmen setzt derzeit AI-Tools in Systeme ein, die nie für sie konzipiert wurden. Die meisten bewegen sich schnell und gehen davon aus, dass das Risiko beherrschbar ist, bis ein Tag wie der 5. März das Gegenteil beweist. Das falsch zu machen, ist in Amazons Größenordnung ein Umsatzproblem, ein Betriebsproblem und letztendlich ein Problem der Führungsverantwortung. Was tut Amazon tatsächlich dagegen? SVP Dave Treadwell hat eine dokumentierte 90-tägige Überarbeitung von 335 kritischen kundenorientierten Systemen gestartet und dies schriftlich an die Mitarbeiter weitergegeben: • Zwei Kollegen müssen zustimmen, bevor eine Codeänderung live geht • Automatisierte Prüfungen setzen Zuverlässigkeitsregeln vor der Bereitstellung durch • Formale Änderungsmanagement-Tools sind jetzt für alle verpflichtend • Jeder Direktor- und VP-Leiter muss alle Produktionscodeänderungen in seiner Organisation prüfen Über die 90 Tage hinaus baut Amazon strenge Grenzen um seine AI-Tools. Denn wenn Fehler echtes Geld kosten, sind Sicherheitsvorkehrungen nicht optional.