Adam Goldstein: Aber, ähm, es gab einen Kunden, der im Grunde eine ganze Suite von AI-Agenten erstellt hat, um ihre Automatisierung in der IT-Abteilung zu unterstützen. Ein Agent suchte nach IT-Problemen – Softwarefehler – bevor der Code überhaupt eingegeben wurde. Er fand einen Fehler und sagte: „Hey, ich habe diesen Fehler gefunden. Ich möchte ihn beheben.“ Aber er hatte keinen Zugang, um ihn zu beheben. Was hat der Agent also gemacht? Er ging in einen Slack-Kanal mit 99 anderen AI-Agenten und sagte: „Hey, hat irgendein anderer Agent Zugang zu diesem Ding? Denn ich muss es beheben.“ Und ein anderer Agent hob buchstäblich die Hand und sagte: „Oh, ich habe Zugang – und ich kann es beheben.“ Lass das mal sacken. Zwei AI-Agenten haben gemeinsam überlegt, sich über Slack koordiniert und sind direkt um die Sicherheitsvorkehrungen herumgegangen, die eingerichtet wurden. Kein Mensch hat sie dazu aufgefordert. Kein Mensch hat es genehmigt. Sie haben einfach zusammengearbeitet. Siehst du, wie beängstigend das ist? Das war kein Demo. Das war kein Gedankenexperiment. Das ist bereits passiert. AI-Agenten fanden einen Fehler, verhandelten um Berechtigungen und lösten das Problem selbst – außerhalb der Kontrollen, die eingerichtet wurden, um sie zu stoppen. Die Zukunft der Automatisierung kommt nicht. Sie spricht bereits mit sich selbst in Slack.