Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Anthropic только что выпустила функцию, которая делает инструменты безопасности кода за $50,000 в год похожими на мошенничество.
Она называется Claude Code Review.
Когда разработчик отправляет новый код, Anthropic развертывает команду AI-агентов для его проверки.
И они работают параллельно, проверяют выводы друг друга и ранжируют каждую ошибку по степени серьезности.
Стоимость одной проверки? Пятнадцать-двадцать пять долларов.
Корпорации платят от $50K до $100K в год за инструменты, которые делают худшую версию этого.
Anthropic только что добавила это в ваш счет за API.
Они тестировали это внутренне в течение нескольких месяцев, и цифры абсурдны.
Запросы на изменение с реальными, содержательными комментариями по проверке увеличились с 16 процентов до 54 процентов.
При крупных изменениях кода 84 процента были отмечены с выводами, и менее одного процента из этих выводов были неверными.
В одном случае одна строка рутинного кода была отмечена как критическая, и она могла бы сломать аутентификацию в продакшене.
Инженер признал, что он бы это пропустил.
Это второй выстрел, который Anthropic сделала по индустрии AppSec за три недели.
Первый был Claude Code Security. Акции кибербезопасности упали на более чем $15 миллиардов в тот день.
Но вот в чем большинство людей ошибается.
...
Топ
Рейтинг
Избранное
