AK рекомендует вам, когда вы общаетесь с LLM (большими языковыми моделями), меньше использовать фразу "что ты думаешь", а сначала спросить, кто является экспертом в этой области, а затем позволить ИИ смоделировать ответы этих экспертов, чтобы получить лучший результат. Более двух лет назад Андрэй Карпаты также говорил нечто подобное на State of GPT. (См. комментарий) Андрэй Карпаты: Ни в коем случае не рассматривайте большие языковые модели (LLMs) как живые "сущности", воспринимайте их как супер мощные "симуляторы". Например, когда вы хотите глубже исследовать какую-то тему, ни в коем случае не спрашивайте: "Что ты думаешь о xyz?" Потому что на самом деле не существует никакого "тебя". В следующий раз попробуйте переформулировать вопрос: "Если мы хотим обсудить тему xyz, кто будет наиболее подходящей группой людей (например, экспертов или заинтересованных сторон)? Что они скажут?" Большие языковые модели могут легко направлять и моделировать различные точки зрения. Но они не такие, как мы, люди, которые формируют свои мнения после длительного "размышления" и осмысления xyz. Если вы настаиваете на использовании слова "ты" для принудительного вопроса, модель будет вынуждена опираться на статистические закономерности своих данных для дообучения (finetuning), вызывая некое скрытое "векторное представление личности (personality embedding vector)", а затем играть эту личность, чтобы смоделировать ответ для вас. (Примечание: проще говоря, когда вы спрашиваете "ты", ИИ просто надевает маску "массового лица", основываясь на наиболее распространенных шаблонах ответов в обучающих данных, а не создает действительно осознанную личность.) Это, конечно, не проблема, и вы получите ответ. Но я заметил, что многие люди наивно сводят это к "спросить у ИИ, что он думает", считая это чем-то загадочным. На самом деле, как только вы понимаете, как он моделирует, эта загадочная завеса снимается.