Anthropic только что выпустила функцию, которая делает инструменты безопасности кода за $50,000 в год похожими на мошенничество. Она называется Claude Code Review. Когда разработчик отправляет новый код, Anthropic развертывает команду AI-агентов для его проверки. И они работают параллельно, проверяют выводы друг друга и ранжируют каждую ошибку по степени серьезности. Стоимость одной проверки? Пятнадцать-двадцать пять долларов. Корпорации платят от $50K до $100K в год за инструменты, которые делают худшую версию этого. Anthropic только что добавила это в ваш счет за API. Они тестировали это внутренне в течение нескольких месяцев, и цифры абсурдны. Запросы на изменение с реальными, содержательными комментариями по проверке увеличились с 16 процентов до 54 процентов. При крупных изменениях кода 84 процента были отмечены с выводами, и менее одного процента из этих выводов были неверными. В одном случае одна строка рутинного кода была отмечена как критическая, и она могла бы сломать аутентификацию в продакшене. Инженер признал, что он бы это пропустил. Это второй выстрел, который Anthropic сделала по индустрии AppSec за три недели. Первый был Claude Code Security. Акции кибербезопасности упали на более чем $15 миллиардов в тот день. Но вот в чем большинство людей ошибается. ...