Hur @cline upplevde den "bittra läxan" på sin egen resa. När Sonnet 4 släpptes gick mycket sönder. Modellen kördes i loopar. Tog instruktionerna för bokstavligt och gjorde konstiga saker. Vi var förvirrade. Samma systemprompt hade fungerat för 3.5, 3.7, allt tidigare. Då insåg vi: vår prompt var sensorisk överbelastning av modellen. Alla de där noggranna instruktionerna vi skrivit? De störde hur modellen faktiskt tänker. Den bittra läxan för agenter: Du tror att du kan justera prompts och göra modellerna bättre. Och kanske funkar det... För tillfället. Men med mer beräkning blir modellerna bara bättre av sig själva. Och ju mer handhållning du har, desto mer är du faktiskt i vägen. Den bästa systemprompten är den som pekar agenter i rätt riktning men sedan flyttar sig ur modellens väg,