Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Anthropic vient de lancer une fonctionnalité qui fait paraître les outils de sécurité de code à 50 000 $ par an comme une arnaque.
Cela s'appelle Claude Code Review.
Lorsqu'un développeur soumet un nouveau code, Anthropic déploie une équipe d'agents AI pour l'examiner.
Et ils travaillent en parallèle, vérifient les conclusions des autres et classent chaque bug par gravité.
Le coût par révision ? Quinze à vingt-cinq dollars.
Les entreprises payent entre 50K et 100K $ par an pour des outils qui font une version moins efficace de cela.
Anthropic vient de l'ajouter comme une ligne sur votre facture API.
Ils l'ont testé en interne pendant des mois et les chiffres sont absurdes.
Les demandes de tirage avec des commentaires de révision réels et substantiels sont passées de 16 % à 54 %.
Sur de grands changements de code, 84 % ont été signalés avec des résultats et moins d'un pour cent de ces résultats étaient erronés.
Dans un cas, une seule ligne de code de routine a été signalée comme critique et cela aurait rompu l'authentification en production.
L'ingénieur a admis qu'il l'aurait manquée.
C'est la deuxième attaque qu'Anthropic a lancée contre l'industrie de la sécurité des applications en trois semaines.
La première était Claude Code Security. Les actions de cybersécurité ont chuté de plus de 15 milliards de dollars ce jour-là.
Mais voici ce que la plupart des gens ne comprennent pas.
...
Meilleurs
Classement
Favoris
