Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Anthropic heeft zojuist een functie gelanceerd die codebeveiligingstools van $50.000 per jaar eruit laat zien als een oplichting.
Het heet Claude Code Review.
Wanneer een ontwikkelaar nieuwe code indient, zet Anthropic een team van AI-agenten in om deze te beoordelen.
En ze werken parallel, verifiëren elkaars bevindingen en rangschikken elke bug op ernst.
De kosten per beoordeling? Vijftien tot vijfentwintig dollar.
Enterprisebedrijven betalen $50K tot $100K per jaar voor tools die een slechtere versie hiervan doen.
Anthropic heeft het zojuist als een post op je API-rekening gezet.
Ze hebben het maandenlang intern getest en de cijfers zijn absurd.
Pull requests met echte, substantiële beoordelingscommentaren stegen van 16 procent naar 54 procent.
Bij grote codewijzigingen werd 84 procent gemarkeerd met bevindingen en minder dan één procent van die bevindingen was fout.
In één geval werd een enkele regel routinematige code gemarkeerd als kritiek en het zou de authenticatie in productie hebben verbroken.
De ingenieur gaf toe dat ze het zouden hebben gemist.
Dit is de tweede schot die Anthropic heeft afgevuurd op de AppSec-industrie in drie weken.
De eerste was Claude Code Security. De aandelen van cybersecurity daalden die dag met meer dan $15 miljard.
Maar hier is het ding dat de meeste mensen missen.
...
Boven
Positie
Favorieten
