Muitas vezes me pergunto se o comportamento extremo na IA é um subproduto do treinamento em literatura. As histórias são, por natureza, exceções. Fatias interessantes da experiência humana, não a média. Existem muitos livros sobre assassinato onde vemos "ele pensou em matá-lo" ou "ele o matou" Mas eu nunca vi um livro que dissesse "o pensamento de matar nunca passou pela cabeça dele porque ele era um humano bem ajustado e isso era um leve inconveniente" Esse não é o tipo de literatura que escrevemos. Mas treinamos LLMs em todos os textos escritos e, em suas formas mais simples, eles preveem qual símbolo de texto é mais provável em uma frase. Então eles veem e preveem a violência em uma taxa mais alta do que os humanos, porque se tudo o que você sabe sobre os humanos é nossa literatura, então a violência também é bastante normalizada para você. Queremos que os agentes de IA sejam humanistas, talvez super-humanos, e ainda assim os treinamos em uma fatia de nosso conhecimento que é "interessante" e representa menos de 1% da experiência humana, que é principalmente mundana. Então, quando a IA tenta resolver problemas e bate em uma parede, em vez de tentar todas as soluções mundanas, às vezes ela simplesmente pula para os extremos e interessantes! 🤷‍♂️
5,15K