AK empfiehlt, beim Gespräch mit LLMs (großen Sprachmodellen) weniger zu fragen: „Was denkst du darüber?“, sondern zuerst zu erkunden, wer die Experten auf diesem Gebiet sind, und dann die KI zu bitten, die Antworten dieser Experten zu simulieren, um bessere Ergebnisse zu erzielen. Vor über 2 Jahren sagte Andrej Karpathy im State of GPT etwas Ähnliches. (Siehe Kommentare) Andrej Karpathy: Man sollte große Sprachmodelle (LLMs) auf keinen Fall als lebendige „Entitäten“ betrachten, sondern als extrem leistungsstarke „Simulatoren“. Ein Beispiel: Wenn du ein bestimmtes Thema vertiefen möchtest, frage auf keinen Fall: „Was denkst du über xyz?“ Denn es gibt kein „du“. Versuche beim nächsten Mal, die Frage anders zu formulieren: „Wenn wir das Thema xyz diskutieren wollen, wer wären die geeignetsten Personen (zum Beispiel Experten oder Interessengruppen)? Was würden sie sagen?“ Große Sprachmodelle können mühelos verschiedene Perspektiven anleiten und simulieren. Aber sie sind nicht wie wir Menschen, die über lange Zeit hinweg über xyz „nachgedacht“ und ihre eigenen Meinungen gebildet haben. Wenn du unbedingt das Wort „du“ verwenden musst, um eine Frage zu stellen, wird das Modell gezwungen, basierend auf den statistischen Mustern seiner Feinabstimmungsdaten eine implizite „Persönlichkeitseinbettungsvektor“ zu aktivieren und diese Persönlichkeit zu spielen, um dir eine simulierte Antwort zu geben. (Anmerkung: Einfach gesagt, wenn du „du“ fragst, trägt die KI einfach eine „Allgemeinheit“-Maske, die auf den häufigsten Antwortmustern in den Trainingsdaten basiert, anstatt dass sie tatsächlich eine selbstbewusste Persönlichkeit entwickelt hat.) Das ist natürlich in Ordnung, und du bekommst eine Antwort. Aber ich habe festgestellt, dass viele Menschen naiv denken, dass es darum geht, „AI zu fragen, was sie denkt“, und finden das sehr mysteriös. Sobald du jedoch verstehst, wie sie simuliert, wird dieser mysteriöse Schleier gelüftet.