AI wird dir immer lügen. Das ist kein Bug, sondern ein mathematisches Gesetz. Ich, ein Mathematikstudent der Carnegie Mellon University, erkläre dir mit Mathematik, warum. Alle Sprachmodelle tun nur eines: Sie sagen das nächste wahrscheinlichste Wort voraus, basierend auf allem, was sie gelesen haben. Aber hier gibt es einen Knoten. Die Vermutung des Modells nennen wir q(x). Die Wahrscheinlichkeiten der realen Welt nennen wir p(x). q(x) kann niemals gleich p(x) sein. Zwischen ihnen gibt es immer eine Kluft. Es gibt eine mathematische Formel, die dazu dient, diese Kluft zu messen. Solange das Modell das nächste Wort nicht perfekt vorhersagen kann – und das kann es niemals – wird diese Kluft niemals null sein. Also, was passiert, wenn AI die Wahrheit nicht kennt? Es kann nicht aufhören, es muss dir eine Antwort geben. Es kann nur mit dem Kopf durch die Wand eine Antwort ausgeben, die es für die "ähnlichste" hält. Selbst wenn diese falsch ist. Das ist die "Halluzination". Eine Vermutung, die auf unvollständigen Informationen basiert, aber überaus selbstsicher ist. Das Schlimmste ist, dass die Mathematik sogar eine Untergrenze angibt. Selbst das perfekteste Modell kann seine Halluzinationsrate niemals unter diese Zahl senken....