Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Como @cline experienciou a "lição amarga" na sua própria jornada.
Quando o Sonnet 4 foi lançado, muitas coisas falharam. O modelo funcionava em ciclos. Tomava instruções de forma demasiado literal e fazia coisas estranhas.
Ficámos confusos. O mesmo prompt do sistema tinha funcionado para 3.5, 3.7, tudo antes.
Nesse ponto, percebemos: o nosso prompt estava sobrecarregando sensorialmente o modelo. Todas aquelas instruções cuidadosas que escrevemos? Estavam a interferir na forma como o modelo realmente pensa.
A lição amarga para os agentes:
Você pensa que pode ajustar prompts e melhorar modelos. E talvez isso funcione... por agora. Mas com mais capacidade de computação, os modelos apenas melhoram por conta própria. E quanto mais apoio você dá, mais está realmente a atrapalhar.
O melhor prompt do sistema é aquele que aponta os agentes na direção certa, mas depois sai do caminho do modelo.
Top
Classificação
Favoritos
