Jak @cline zažil "hořkou lekci" na své vlastní cestě. Když vyšel Sonnet 4, hodně věcí se rozbilo. Model běžel v smyčkách. Bral jsem instrukce příliš doslovně a dělal divné věci. Byli jsme zmatení. Stejný systémový prompt fungoval pro 3.5, 3.7, všechno předtím. V tu chvíli jsme si uvědomili: naším zadáním bylo senzorické přetížení modelu. Všechny ty pečlivé instrukce, co jsme napsali? Zasahovali do toho, jak model skutečně přemýšlí. Hořká lekce pro agenty: Myslíte si, že můžete ladit prompty a vylepšovat modely. A možná to funguje... Prozatím. Ale s větším výpočetním výkonem se modely samy zlepšují. A čím víc se držíte za ruku, tím víc vlastně překážíte. Nejlepší systémový prompt je ten, který agenty nasměruje správným směrem, ale pak ustoupí modelu,