Como @cline experienciou a "lição amarga" na sua própria jornada. Quando o Sonnet 4 foi lançado, muitas coisas falharam. O modelo funcionava em ciclos. Tomava instruções de forma demasiado literal e fazia coisas estranhas. Ficámos confusos. O mesmo prompt do sistema tinha funcionado para 3.5, 3.7, tudo antes. Nesse ponto, percebemos: o nosso prompt estava sobrecarregando sensorialmente o modelo. Todas aquelas instruções cuidadosas que escrevemos? Estavam a interferir na forma como o modelo realmente pensa. A lição amarga para os agentes: Você pensa que pode ajustar prompts e melhorar modelos. E talvez isso funcione... por agora. Mas com mais capacidade de computação, os modelos apenas melhoram por conta própria. E quanto mais apoio você dá, mais está realmente a atrapalhar. O melhor prompt do sistema é aquele que aponta os agentes na direção certa, mas depois sai do caminho do modelo.