Compartilhando a transcrição caso, como eu, você tenha procurado isso recentemente e não conseguiu encontrar. Roon (@tszzl): “Cada vez que você treina um modelo, pode não mudar nada sobre o conjunto de dados, e então executar uma nova semente de RL, e você teria uma personalidade ligeiramente diferente. É porque há alguma variância no processo de treinamento. É aleatório - você está fazendo uma caminhada aleatória pelo espaço do modelo. Não conseguimos nem reproduzir uma personalidade na mesma execução de treinamento com facilidade, muito menos ao longo do tempo... É uma questão muito difícil internamente [na OpenAI]. Tentamos minimizar a deriva da personalidade, porque as pessoas passam a amar os modelos, mas é um problema muito difícil.”