Если LLM работают, используя вероятность для предсказания следующего токена на основе распознавания шаблонов из обучающих данных могут ли они когда-либо производить что-то вне шаблона или они буквально не способны «думать вне рамок»? кто-нибудь работает с преднамеренными галлюцинациями, как это делал DeepMind? буду рад вашему мнению @karpathy, но, пожалуйста, укажите, где я могу узнать больше, если это глупый вопрос, и я неправильно понимаю, как работают LLM.