Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Als je een student niet zijn eigen examen laat beoordelen, moet je je AI-coderingsassistent ook niet zijn eigen code laten verifiëren.
Het systeem dat een oplossing voorstelt, zou niet degene moeten zijn die probeert zijn tekortkomingen te vinden.
Zelfde model, dezelfde trainingsbiases, dezelfde blinde vlekken.
Als Claude je vereisten verkeerd begrijpt bij het schrijven van de code, zal het ze ook verkeerd begrijpen bij het beoordelen ervan.
Je wilt een beoordelaar die de intentie van de generator uitdaagt.
Codegeneratie en codeverificatie zijn fundamenteel verschillende problemen.
Dit is een enkel punt van falen voor codekwaliteit.
Hier is een alternatief:
• Gebruik gespecialiseerde verificatietools om de code te beoordelen
• Laat de agent eerst tests schrijven, en schrijf dan de code om ze te laten slagen
• Beoordeel de code handmatig
• Vraag de agent om op te sommen wat er kapot kan gaan voordat je de code accepteert
• Gebruik een linter of statische analysetool als een deterministische controle
• Vraag een ander model om de code te bekritiseren
• Vraag de agent om zijn beslissingen uit te leggen
Ik werk al een tijdje met Qodo. Zij zijn gespecialiseerd in het waarborgen dat je code werkt. Hun agentische PR-beoordeling bereikt de hoogste precisie en recall in het vinden van problemen op de markt.
Zij sponsoren mijn werk en gaven me een kortingscode voor 1 volledige maand gratis van hun TEAMS-plan:
Kortingscode: UNBIASED (alle hoofdletters)
...
Boven
Positie
Favorieten
