Wie der erschreckende neue PNAS-Artikel von @seanjwestwood zeigt, können LLMs jetzt fast jeden Aufmerksamkeitscheck bestehen, Personas spiegeln, über Seiten hinweg konsistent bleiben und systematisch Antworten im Aggregat verzerren. Hier ist also ein anderer Ansatz: Überprüfen Sie die physische Präsenz, nicht den Text.