Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov | Nethermind
Создатель AuditAgent | Продукт AI x Crypto x | Построение агентской экономики
Почему OpenAI выпустила модели с открытыми весами? Чтобы убить свой собственный бизнес... (или нет?)
Да, @OpenAI только что выпустила две модели с открытыми весами, что означает, что разработчики могут использовать их, не платя OpenAI ничего. В частности, они выпущены под самой либеральной коммерческой лицензией Apache 2.0. Так почему же OpenAI это сделала? Есть несколько аспектов.
Но я хочу уточнить, что когда компания выпускает модель с открытыми весами, это не означает, что модель так же открыта, как открытый код, который вы можете запустить сами, как операционная система @Linux. Нет, с AI моделями это немного иначе. В частности, модель — это черный ящик, набор весов. И хотя вы можете протестировать ее на различных задачах и увидеть, как она работает, если вы не можете воспроизвести процесс обучения, вы никогда не узнаете, есть ли какие-либо бэкдоры или уязвимости безопасности, которые намеренно или случайно оказались внутри этой модели. Так что давайте сразу отделим это от открытого кода. К сожалению, модели с открытыми весами не могут быть полностью доверены (хотя они могут быть дешевыми).
Другой аспект, который я заметил, показан на картинке, это то, что качество моделей с открытым исходным кодом не очень отличается от флагманских моделей OpenAI, которые доступны только через API. Это здорово! Это неожиданно! Вы бы подумали, сколько денег OpenAI могла бы потерять, позволив разработчикам использовать свои модели? Однако это не все. Модели — это не все, что вы получаете, используя OpenAI через API. Например, когда вы используете ChatGPT через интерфейс и выбираете модель o3, на самом деле под капотом работает сложный агент, который, используя эти модели, имеет много логики, написанной сверху, чтобы действительно хорошо работать с вашими документами и инструментами. Вы не получаете к ним доступ через эти модели, которые OpenAI опубликовала.
Так почему же OpenAI выпустила модели с открытыми весами? Во-первых, их основные конкуренты, в частности @Meta, @MistralAI и @deepseek_ai (о, и @Google), уже выпустили конкурентоспособные модели с открытыми весами, которые люди используют. И популярность OpenAI среди людей, использующих открытые модели, не растет. Однако для разработчиков, которым нужны как модели с открытыми весами (для локальных/частных расчетов), так и модели, доступные через API (для более сложных задач), если им нужны обе, они просто не могут использовать OpenAI. Им проще использовать своих конкурентов, таких как Google или DeepSeek.
Во-вторых, существует значительное давление как со стороны пользователей, так и со стороны регуляторов, которые хотят большей открытости. Люди обеспокоены тем, что AI может выйти из-под контроля или попасть под контроль узкой группы компаний в Кремниевой долине, и люди хотят большей прозрачности. Хотя я осмелюсь сказать, что даже просто беспокоясь о конкуренции и падающих продажах, такой шаг к открытости, вероятно, сделает бизнес OpenAI еще больше.
И в-третьих, конечно, есть шутка о названии компании OpenAI. Судя по тому, как все развивалось, компания с названием OpenAI была самой закрытой AI-компанией среди лидеров. Это само по себе смешно, но теперь это изменилось. Что вы думаете?

253
Большинство людей совершенно не понимают, как замена людей ИИ работает (или как она НЕ работает). Даже десятикратное ускорение всего, что делает специалист, не стирает автоматически саму работу — оно просто переписывает экономику вокруг нее. Когда эффективная цена поставляемого продукта стремительно падает, скрытый спрос, который раньше оставался на полке, внезапно становится жизнеспособным. Я никогда не встречал владельца продукта, который считает, что его инженеры поставляют больше функций, чем нужно по дорожной карте; список желаемого всегда длиннее, чем позволяет численность персонала. Сделайте каждую функцию в десять раз дешевле в разработке, и вы не сокращаете команды в десять раз — вы активируете каждую "приятную опцию", которая когда-то казалась недоступной, плюс целые новые продукты, которые никто не удосужился оценить.
Недавнее исследование @Microsoft Research о реальном использовании Copilot подчеркивает ту же мысль. Пользователи приходят за помощью в написании кода или сборе фактов, но модель в конечном итоге становится коучем, советником и учителем — объединяя совершенно новые виды труда в одной сессии. Профессии не являются монолитами; это наборы подпроцессов, каждый из которых лишь частично (и несовершенно) охвачен сегодняшними моделями. По мере развития инструментов ИИ, сфера роли также развивается вместе с ними, часто расширяясь, а не сужаясь.
Даже в ИИ-аудиторе смарт-контрактов, который мы разработали в @NethermindEth, несмотря на его название, мы нацелены на очень узкую часть процесса: поиск потенциальных уязвимостей. Тем временем специалисты по безопасности используют это как инструмент и выполняют гораздо более сложную и многогранную работу — формулируя стратегии, проверяя результаты, корректируя ИИ, добавляя неявный контекст, общаясь с разработчиками, обнаруживая скрытые намерения и управляя ожиданиями.
Поэтому вместо того, чтобы подсчитывать, какие работы "исчезнут", более полезно задать вопрос, какие проблемы становятся стоящими для решения, когда предельная стоимость их решения падает до нуля. История подсказывает, что ответ — "гораздо больше, чем мы можем укомплектовать", и это говорит о будущем, где таланты перераспределяются и умножаются, а не становятся устаревшими.


288
Андрей Карпаты поддерживает введение нового термина, связанного с "инженерией контекста" в разработке программного обеспечения ИИ с использованием LLM.
И этот термин давно кажется очень необходимым. Каждый раз, когда я объясняю людям, как мы разрабатываем наш Nethermind AuditAgent, один из ключевых аспектов, помимо использования экспертных знаний (безопасность web3) и использования лучших доступных моделей ИИ (от OpenAI, Anthropic и Google), а также инструментов для LLM, именно "инженерия контекста".
Иногда есть выражение "контекст — это король", и это действительно правда. LLM, будь то огромные продвинутые модели или оптимизированные маленькие LLM, являются мощным инструментом, но, как и любой инструмент, если он попадает в неправильные руки, вы получите гораздо менее многообещающие результаты, чем могли бы, если будете работать с ними правильно. И управление (или инженерия) контекстом действительно является сложной и не очень хорошо описанной областью, которая постоянно развивается, и она действительно возникла как продолжение концепции инженерии подсказок, которая уже имеет некоторые негативные коннотации.
В целом, Андрей перечислил основные аспекты, связанные с инженерией контекста (на втором скриншоте), но в каждой конкретной задаче люди достигают отличных результатов в значительной степени через проб и ошибок, каждый раз монотонно пытаясь выбрать правильные элементы контекста, которые действительно необходимы на этом этапе решения проблемы, собирая эталонные данные для каждого этапа, смотря на метрики, разделяя наборы данных на тестовые, валидационные и так далее.
Что вы думаете об "инженерии контекста"?

Andrej Karpathy25 июн. 2025 г.
+1 за "инженерию контекста" вместо "инженерии подсказок".
Люди ассоциируют подсказки с короткими описаниями задач, которые вы даете LLM в повседневном использовании. Однако в каждом промышленном приложении LLM инженерия контекста — это тонкое искусство и наука заполнения окна контекста именно той информацией, которая нужна для следующего шага. Наука, потому что правильное выполнение этого включает описания задач и объяснения, примеры с несколькими образцами, RAG, связанные (возможно, мультимодальные) данные, инструменты, состояние и историю, сжатие... Слишком мало или неправильной формы, и LLM не имеет правильного контекста для оптимальной работы. Слишком много или слишком неуместно, и затраты LLM могут возрасти, а производительность может снизиться. Сделать это хорошо — это крайне нетривиально. И искусство, потому что это связано с интуицией о психологии LLM и духах людей.
Кроме самой инженерии контекста, приложение LLM должно:
- правильно разбивать проблемы на контрольные потоки
- правильно упаковывать окна контекста
- отправлять вызовы к LLM нужного типа и возможностей
- обрабатывать потоки UIUX генерации-проверки
- и многое другое - защитные меры, безопасность, оценки, параллелизм, предварительная выборка, ...
Таким образом, инженерия контекста — это всего лишь небольшая часть возникающего толстого слоя нетривиального программного обеспечения, которое координирует отдельные вызовы LLM (и многое другое) в полные приложения LLM. Термин "обертка ChatGPT" устарел и на самом деле очень, очень неверен.
343
Вчера мы запустили новый продукт в производство — I.R.I.S. (Сканер Интеллекта Целостности и Рисков), первый ИИ-агент на X (ранее Twitter), который:
• Принимает репозиторий смарт-контракта или адрес развернутого контракта
• Запускает код через нашу SaaS-платформу AuditAgent — уже ведущий на рынке продукт, используемый внешними аудиторами и командами разработчиков
• Публикует полный отчет о уязвимостях, не покидая социальную ленту
Почему?
• Безбарьерный канал. Разработчики получают аудит там, где уже обсуждают код — никаких форм, никаких цепочек писем.
• AuditAgent под капотом. Не просто "движок сканирования", а наш флагманский сервис, обеспечивающий реальные аудиты.
• Информация за ~30 минут. Идеальная сортировка перед глубоким ручным обзором.
• Ускорение выхода на рынок. Агент Twitter демонстрирует силу AuditAgent и направляет пользователей на полную платформу.
Первые 16 часов на ленте
✨ 2.7 М показов
🔥 49 К взаимодействий
📊 85 % положительных отзывов (214 твитов)
🛠️ ≈150 твитов, делящихся практическими примерами использования
🔍 33 экспресс-аудита
📋 38 454 строки кода отсканировано
⚠️ 377 уязвимостей обнаружено
Личное замечание
Ровно год назад я присоединился к Nethermind с тем, что звучало как рискованная гипотеза: "ИИ станет неотъемлемой частью безопасности смарт-контрактов, но только специализированные, ориентированные на рабочие процессы инструменты действительно помогут профессионалам."
Через двенадцать месяцев у нас есть два продукта в производстве — AuditAgent (и теперь I.R.I.S.(@UndercoverIRIS)) — и четкое влияние на безопасность Web3.
Огромное спасибо всей команде @NethermindEth AI и @virtuals_io. Упорство + солидная гипотеза + объединенная экспертиза = результаты, которые видит индустрия.
Мы продолжим создавать инструменты, которые в первую очередь обеспечивают безопасность разработчиков — чтобы Web3 становился безопаснее с каждым коммитом.

712
Только что вернулся с AI Summit в Лондоне — и ландшафт Enterprise-AI выглядит совсем иначе вблизи
3 вещи, которые меня поразили:
1️⃣ Переполненные полки с продуктами.
Каждый стенд обещал «AI платформу» с подключением и работой, которая волшебным образом подходит для любого стека. Но если пройтись по выставке достаточно долго, вы снова и снова слышите одну и ту же проблему: устаревшие системы без API, разбросанные данные, неясная бизнес-логика. Реальность будет жестокой для универсальных SaaS.
2️⃣ Магазины индивидуальной разработки тихо сияют.
Агентства, которые сочетают глубокое консультирование в области и быструю индивидуальную разработку, имеют явное преимущество. Они могут погрузиться в запутанную среду, соединить все вместе и выпустить что-то, что действительно работает внутри хрупкой инфраструктуры клиента.
3️⃣ Индивидуальная работа становится дешевле, а не дороже.
С моделями генерации кода, пишущими адаптеры, тесты и каркас, старшие разработчики теперь управляют процессом, а не вводят код вручную. Наш опыт постоянного использования AI инструментов внутри организации только подтверждает это.
Вывод
Победителями в Enterprise AI не будут самые яркие «готовые к использованию» агенты — это будут ловкие команды, которые могут совместно создавать решения в реальном времени, руководствуясь запутанными ограничениями устаревших технологий.

242
Топ
Рейтинг
Избранное
В тренде ончейн
В тренде в Х
Самые инвестируемые
Наиболее известные