Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov | Nethermind
Творець AuditAgent | AI x Crypto x Продукт | Побудова агентної економіки
Чому OpenAI випустила моделі з відкритими вагами? Щоб вбити власну справу... (чи ні?)
Так, @OpenAI щойно випустили дві моделі з відкритими вагами, а це означає, що розробники можуть використовувати їх, нічого не сплачуючи OpenAI. Зокрема, він випущений за найліберальнішою комерційною ліцензією Apache 2.0. То чому ж OpenAI це зробила? Є кілька аспектів.
Але я хочу уточнити, що коли компанія випускає модель з відкритими вагами, це не означає, що модель настільки ж відкрита, як код з відкритим вихідним кодом, який ви можете запустити самостійно, як операційна система @Linux. Ні, з моделями зі штучним інтелектом все трохи інакше. Зокрема, модель – це чорний ящик, набір обважнювачів. І хоча ви можете протестувати його на різних завданнях і подивитися, як він працює, якщо ви не можете відтворити процес навчання, ви ніколи не зможете дізнатися, чи є якісь бекдори або вразливості безпеки, які навмисно або випадково опинилися всередині цієї моделі. Тому давайте відразу відокремимо це від відкритого вихідного коду. На жаль, моделям з вагами з відкритим вихідним кодом не можна повністю довіряти (хоча їх можна обдурити).
Інший аспект, який я помітив і показаний на малюнку, полягає в тому, що якість моделей з відкритим вихідним кодом не дуже відрізняється від флагманських моделей OpenAI, які доступні лише через API. Це чудово! Це несподівано! Ви можете подумати, скільки грошей OpenAI може втратити, дозволивши розробникам використовувати свої моделі? Однак це ще не все. Моделі – це не все, що ви отримуєте, використовуючи OpenAI через API. Наприклад, коли ви використовуєте ChatGPT через інтерфейс користувача та вибираєте модель o3, насправді під капотом працює складний агент, який, використовуючи ці моделі, має багато логіки, написаної зверху, щоб дійсно добре працювати з вашими документами та інструментами. Ви не отримуєте доступ до них через ці моделі, опубліковані в OpenAI.
Так чому ж OpenAI випустила моделі з відкритими вагами? По-перше, їх основні конкуренти, зокрема @Meta, @MistralAI і @deepseek_ai (ох і @Google), вже випустили змагальні моделі з відкритими вагами, які використовують люди. І популярність OpenAI серед людей, які використовують відкриті моделі, не зростає. Однак для розробників, яким потрібні обидві моделі з відкритими вагами (для локальних/приватних розрахунків) разом із моделями, доступними API (для складніших речей), якщо їм потрібні обидві, вони просто не можуть використовувати OpenAI. Їм простіше використовувати своїх конкурентів на кшталт Google або DeepSeek.
По-друге, існує значний тиск як з боку користувачів, так і з боку регуляторів, які хочуть більшої відкритості. Люди стурбовані тим, що штучний інтелект може вийти з-під контролю або потрапити під контроль вузької групи компаній у Кремнієвій долині, і люди хочуть більшої прозорості. Хоча я наважуся сказати, що навіть просто занепокоєння про конкуренцію та зниження продажів, такий рух до відкритості, швидше за все, зробить бізнес OpenAI ще більшим.
І третє, звичайно, є жарт про назву компанії OpenAI. Судячи з того, як все розвивалося, компанія під назвою OpenAI була найбільш закритою AI-компанією серед лідерів. Це смішно саме по собі, але зараз це змінилося. Як ти гадаєш?

274
Більшість людей взагалі не розуміють, як працює заміна людей на ШІ (або як це НЕ ПРАЦЮЄ). Навіть десятикратне прискорення всього, що робить фахівець, не стирає автоматично саму роботу, а лише переписує економіку навколо неї. Коли ефективна ціна поставок різко падає, латентний попит, який раніше лежав на полиці, раптом стає життєздатним. Я ніколи не зустрічав власника продукту, який думає, що їхні інженери надають більше функцій, ніж потрібно дорожній карті; Список бажань завжди довший, ніж дозволяє чисельність персоналу. Зробіть створення кожної функції в десять разів дешевшим, і ви не скорочуєте команди в десять разів — ви висвітлюєте кожну «приємну річ», яка колись здавалася недоступною, а також цілі продукти з нуля, про які ніхто не спромігся охопити.
Нещодавнє дослідження @Microsoft Research щодо використання Copilot у реальному світі підкреслює ту саму думку. Користувачі звертаються за допомогою у складанні кодексу або зборі фактів, але модель закінчується коучингом, консультуванням і навчанням, об'єднуючи абсолютно нові види праці в одну сесію. Професії не є монолітами; Вони являють собою пучки підпроцесів, кожен з яких лише частково (і недосконало) покритий сучасними моделями. У міру того, як інструменти штучного інтелекту розвиваються, масштаб ролі змінюється разом з ними, часто розширюючись, а не звужуючись.
Навіть в аудиторі смарт-контрактів зі штучним інтелектом, який ми створили в @NethermindEth, незважаючи на його назву, ми націлені на дуже конкретну вузьку частину процесу: пошук потенційних вразливостей. Тим часом фахівці з безпеки використовують це як інструмент і виконують набагато складнішу та багатограннішу роботу — формулюють стратегії, перевіряють висновки, коригують ШІ, додають неявний контекст, спілкуються з розробниками, виявляють приховані наміри та керують очікуваннями.
Тому замість того, щоб підраховувати, які робочі місця «зникнуть», корисніше запитати, які проблеми варто вирішувати, як тільки граничні витрати на їх вирішення падають. Історія підказує, що відповідь на це питання полягає в тому, що «набагато більше, ніж ми можемо укомплектувати», і це свідчить про майбутнє, в якому таланти будуть перерозподілятися і примножуватися, а не застарівати.


307
Андрій Карпати підтримує введення нового терміну, пов'язаного з «контекстною інженерією», у розробку програмного забезпечення AI з використанням LLM.
І цей термін довгий час здавався дуже потрібним. Щоразу, коли я пояснюю людям, як ми розробляємо наш Nethermind AuditAgent, одним із ключових аспектів, окрім використання експертизи домену (безпека web3) та використання найкращих доступних моделей штучного інтелекту (від OpenAI, Anthropic та Google), а також інструментів для LLM, є саме «контекстна інженерія».
Іноді можна зустріти вислів «контекст – це король», і це дійсно так. LLM, будь то величезні просунуті або оптимізовані маленькі LLM, є потужним інструментом, але, як і будь-який інструмент, якщо він потрапить у чужі руки, ви отримаєте набагато менш перспективні результати, ніж могли б, якби працювали з ними правильно. А контекстний менеджмент (або інженерія) – це дійсно складна і не дуже добре описана сфера, яка постійно розвивається, і вона дійсно виникла як розширення концепції оперативного інжинірингу, яка вже має деякі негативні конотації.
В цілому Андрій перерахував основні аспекти, пов'язані з контекстною інженерією (на другому скріншоті), але в кожному конкретному завданні люди досягають відмінних результатів багато в чому шляхом проб і помилок, кожен раз монотонно намагаючись вибрати правильні елементи контексту, які дійсно потрібні на цьому етапі вирішення проблем, збираючи бенчмарки для кожного етапу, дивлячись на метрики, розділяючи набори даних на тести, валідації і так далі, і тому подібне.
Що ви думаєте про «контекстну інженерію»?

Andrej Karpathy25 черв. 2025 р.
+1 за "контекстний інжиніринг" замість "оперативний інжиніринг".
Люди асоціюють підказки з короткими описами завдань, які ви б дали LLM у повсякденному використанні. У кожному промисловому додатку LLM контекст-інжиніринг — це тонке мистецтво та наука наповнення контекстного вікна саме тією інформацією, яка потрібна для наступного кроку. Наука, тому що це правильне виконання включає описи та пояснення завдань, кілька прикладів пострілів, RAG, пов'язані (можливо, мультимодальні) дані, інструменти, стан та історію, компактування... Занадто мало або має неправильну форму, і LLM не має правильного контексту для оптимальної продуктивності. Занадто багато або занадто нерелевантно, і витрати на LLM можуть зрости, а продуктивність може знизитися. Зробити це добре вкрай нетривіально. А мистецтво через керівну інтуїцію навколо психології людей, духів.
Крім контекстної інженерії, додаток LLM повинен:
- Розбийте проблеми прямо на потоки контролю
- Правильно упакуйте контекстні вікна
- Диспетчеризація дзвінків до LLM відповідного типу та можливостей
- обробляти потоки UIUX з перевіркою генерації
- багато іншого - огородження, безпека, евали, паралелізм, попередня вибірка, ...
Таким чином, контекстна інженерія — це лише невеликий шматок нового товстого шару нетривіального програмного забезпечення, яке координує окремі виклики LLM (і багато інших) у повноцінні додатки LLM. Термін "обгортка ChatGPT" набрид і дуже-дуже неправильний.
364
Вчора ми запустили у виробництво новий продукт — I.R.I.S. (Integrity & Risk Intelligence Scanner), перший агент штучного інтелекту на X (раніше Twitter), який:
• Приймає репозиторій смарт-контракту або адресу розгорнутого контракту
• Запускає код через нашу SaaS-платформу AuditAgent — вже лідируюче на ринку рішення, яке використовується зовнішніми аудиторами та командами розробників
• Публікує повний звіт про вразливість, не виходячи з соціальної стрічки
Чому?
• Канал без тертя. Розробники проходять аудит, де вони вже говорять про код — ні форм, ні ланцюжків листів.
• Аудитор під капотом. Це не просто «механізм сканування», а наш флагманський сервіс, який забезпечує аудит у реальному світі.
• Осяяння за ~30 хвилин. Ідеальне сортування перед глибоким ручним оглядом.
• Стимулювання виходу на ринок. Агент Twitter демонструє сильні сторони AuditAgent і спрямовує користувачів на повну платформу.
Перші 16 годин на часовій шкалі
✨ 2,7 млн показів
🔥 49 тис.
📊 85 % позитивних настроїв (214 твітів)
🛠️ ≈150 твітів з практичними прикладами використання
🔍 33 експрес-аудити
📋 Відскановано 38 454 рядків коду
⚠️ Виявлено 377 вразливостей
Особиста примітка
Рівно рік тому я приєднався до Nethermind з тим, що звучало як ризикована гіпотеза: «Штучний інтелект стане невід'ємною частиною безпеки смарт-контрактів, але тільки спеціалізовані, нативні для робочого процесу інструменти дійсно допоможуть професіоналам».
Дванадцять місяців потому ми маємо два продукти на стадії виробництва — AuditAgent (а тепер і I.R.I.S. (@UndercoverIRIS) — і явний вплив на безпеку Web3.
Величезне спасибі всій команді @NethermindEth AI і @virtuals_io. Наполегливість + обґрунтована гіпотеза + комбінована експертиза = результати, які може побачити індустрія.
Ми продовжуватимемо створювати інструменти, які в першу чергу забезпечують безпеку розробників, щоб Web3 ставав безпечнішим з кожним комітом.

732
Щойно повернулися з AI Summit London — і ландшафт Enterprise-AI виглядає зовсім по-іншому зблизька
3 речі, які мене вразили:
1️⃣ Переповнені полиці товарів.
Кожен стенд обіцяв «платформу штучного інтелекту», яка за принципом plug-and-play, яка чарівним чином вписується в будь-який стек. Але ходите досить довго, і ви продовжуєте чути один і той же блокатор: застарілі системи без API, розрізнені дані, незрозуміла бізнес-логіка. Реальність буде жорстокою для універсальних SaaS.
2️⃣ Магазини, виготовлені на замовлення, тихо сяють.
Агентства, які поєднують глибокий доменний консалтинг зі швидкою кастомною розробкою, мають явну перевагу. Вони можуть опускатися в безладну середину, зшивати речі разом і відправляти щось, що насправді працює всередині крихкої інфраструктури клієнта.
3️⃣ Робота на замовлення стає дешевшою, а не дорожчою.
Завдяки моделям код-гену, які пишуть адаптери, тести та риштування, старші розробники тепер оркеструють, а не друкують вручну. Наш досвід постійного використання інструментів штучного інтелекту всередині організації лише підтверджує це.
Висновки
Переможцями в галузі корпоративного штучного інтелекту стануть не найяскравіші агенти «з коробки» — це будуть спритні команди, які можуть спільно створювати рішення в режимі реального часу, керуючись безладними обмеженнями застарілих технологій.

261
Найкращі
Рейтинг
Вибране
Актуальне ончейн
Популярні в X
Нещодавнє найкраще фінансування
Найбільш варте уваги