A pessoa de matemática pura do QI 170 explica um tema realmente complexo, que a pessoa do QI 150 acha incrível, mas não tem tempo para se envolver porque está ocupada com assuntos financeiros, que o QI 140 demora para entender, mas quando finalmente entende, transforma em um vídeo explicativo para que as pessoas do QI 130 tenham a ilusão de entender e simplificam ainda mais o assunto até o ponto em que o QI 120 afirma com confiança: "ah, era óbvio" o que faz os Midwits do QI 110 acreditarem que nunca foi um problema difícil desde o começo, então as pessoas do QI 100 finalmente entendem e explicam para o QI 170 que, com suspiros contidos, murmura "isso é... nem errado" e fica acordado até as 3 da manhã tentando descobrir onde tudo desandou, o que os leva a uma nova formulação mais limpa... e o ciclo se repete.
Você vê isso em todo lugar quando sabe o que procurar
Basicamente todo o discurso sobre interpretabilidade da IA em resumo (aviso: observação muito simplificada! haha)
(ok, me explique o Teorema de Lami e como derivá-lo nesse caso?)
479