Elon Musk hat gerade die Glaubwürdigkeit von OpenAI zerstört, und er kann das, weil er es gegründet hat. Musk: „Ich vertraue OpenAI nicht. Ich habe dieses Unternehmen als gemeinnützige Open-Source-Organisation gegründet. Das Open in OpenAI. Ich habe das Unternehmen benannt.“ Die Mission war im Namen. Eine gemeinnützige Open-Source-Organisation, die als Gegengewicht zu großen Tech-Unternehmen, die KI kontrollieren, aufgebaut wurde. Musk: „Und es ist jetzt extrem Closed Source und maximiert den Gewinn. Ich verstehe also nicht, wie man tatsächlich von einer Open-Source-Gemeinnützigkeit zu einer Closed-Source-Organisation für maximalen Gewinn übergehen kann.“ Kein Pivot. Verrat. Man kann nicht „Open“ sein mit proprietärem Code, der auf Gewinnoptimierung abzielt. Musk: „Zu verschiedenen Zeitpunkten hat er behauptet, nicht reich zu werden, aber er hat viele Dinge behauptet, die falsch waren. Und jetzt wird er anscheinend 10 Milliarden Dollar an Aktien bekommen.“ Jahre der Erzählung: Sam Altman hat kein Eigenkapital, pure Altruismus, selbstloser Verwalter. Dann erscheinen 10 Milliarden Dollar. Die Geschichte ändert sich. Die Anreize ändern sich. Musk: „Also vertraue ich Sam Altman nicht, und ich denke nicht, dass wir die mächtigste KI der Welt von jemandem kontrolliert haben wollen, der nicht vertrauenswürdig ist.“ Die echte Bedrohung ist nicht die Technologie. Es ist die Führung. Die mächtigste KI wird von jemandem kontrolliert, dessen Motivation sich von Sicherheit auf Vermögensakkumulation verschoben hat. Wenn sich die Anreize von der Sicherung der Menschheit auf das Erfassen von Milliarden umkehren, kann Sicherheit nicht Priorität bleiben. Die Wirtschaft wird es nicht zulassen. Wie konvertiert man legal eine gemeinnützige Organisation, die allen zugutekommt, in ein hundert Milliarden Dollar schweres Unternehmen, das bestimmten Personen zugutekommt? Diese Transformation zeigt, wessen Interessen tatsächlich bedient werden. Musk hat OpenAI speziell gegründet, um eine gewinnorientierte Kontrolle über KI zu verhindern. Zu sehen, wie es genau das geworden ist, erklärt seine Position vollständig. Die Gefahr besteht darin, dass die fortschrittlichste KI von einer Entität kontrolliert wird, die bereits die Gründungsprinzipien für Geld aufgegeben hat. Prinzipien, die einmal für den Gewinn geändert wurden, werden sich wieder ändern. Der nächste Konflikt zwischen Sicherheit und Gewinn kommt mit höheren Einsätzen und leistungsfähigerer Technologie. Das Ergebnis wird nicht der Sicherheit zugutekommen. Das tat es vorher nicht. Warum sollte es jetzt so sein, wenn der finanzielle Druck exponentiell größer ist und die Person, die entscheidet, bereits gezeigt hat, welche Priorität gewinnt?