Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
Це було так весело, Маріо. Дякую, що запросили мене на шоу, щоб розповісти про все, що відбувається на ринку!

Mario Gabriele 🦊22 лип., 20:22
Наш останній епізод з Томашем Тунгузом у прямому ефірі!
Десятиліття даних
@ttunguz витратив майже два десятиліття на перетворення даних на інвестиційні ідеї. Після підтримки Looker, Expensify і Монте-Карло в Redpoint Ventures, він запустив @Theoryvc у 2022 році зі сміливим баченням: створити «інвестиційну корпорацію», де дослідники, інженери та оператори сидять поруч з інвесторами, створюючи ринкові карти в режимі реального часу та власні інструменти штучного інтелекту. Його дебютний фонд закрився на рівні $238 млн, а всього через 19 місяців з'явився другий фонд на $450 млн. Зосереджена на даних, штучному інтелекті та криптоінфраструктурі, Theory працює в основі найважливіших технологічних зрушень сьогодення. Ми досліджуємо, як дані змінюють венчурний капітал, чому руйнуються традиційні інвестиційні моделі та що потрібно для створення фірми, яка не просто передбачає майбутнє, а активно допомагає його створювати.
Слухайте зараз:
• Ютуб:
• Spotify:
•Яблуко:
Велика подяка неймовірним спонсорам, які роблять подкаст можливим:
✨ Brex — банківське рішення для стартапів:
✨ Generalist+ — необхідний інтелект для сучасних інвесторів і технологів:
Ми досліджуємо:
→ Як працює модель «інвестиційної корпорації» Theory
→ Чому криптобіржі можуть створити життєздатний шлях до публічних ринків для компаній, що займаються розробкою програмного забезпечення з невеликою капіталізацією
→ Криза електроенергії, що насувається: чому центри обробки даних можуть споживати 15% електроенергії в США протягом п'яти років
→ Стрімке зростання стейблкоїнів, оскільки великі банки переправляють через них 5-10% доларів США
→ Чому Ethereum стикається з екзистенційним викликом, подібним до того, як AWS поступається позиціями Azure в епоху штучного інтелекту
→ Чому Томаш вважає, що сьогоднішня жменька агентів стане 100+ цифровими співробітниками до кінця року
→ Чому Meta ставить мільярди на окуляри доповненої реальності, щоб змінити те, як ми взаємодіємо з машинами
→ Як Theory Ventures використовує штучний інтелект для прискорення дослідження ринку, аналізу угод та прийняття інвестиційних рішень
… І багато іншого!
7,63K
OpenAI отримує в середньому 1 запит на американця на день.
Google отримує близько 4 запитів на одного американця в день.
З тих пір 50% пошукових запитів Google мають AI Overviews, що означає, що принаймні 60% пошукових запитів у США тепер є штучним інтелектом.
Для цього знадобилося трохи більше часу, ніж я очікував. У 2024 році я прогнозував, що 50% пошукових запитів споживачів будуть на основі штучного інтелекту. (
Але ШІ прийшов у пошук.
Якщо шаблони пошуку Google є якимось показником, то в поведінці під час пошуку існує закон сили. Аналіз пошукової поведінки Google, проведений SparkToro, показує, що верхня третина американців, які займаються пошуком, виконують понад 80% усіх пошукових запитів – а це означає, що використання штучного інтелекту, швидше за все, не буде рівномірно розподілено – як і в майбутньому.
Веб-сайти та компанії починають відчувати наслідки цього. Стаття The Economist «Штучний інтелект вбиває Інтернет. Чи може щось його врятувати?» – фіксує дух часу в заголовку. (
Переважна більшість американців зараз шукають за допомогою штучного інтелекту. Ефекти другого порядку від зміни шаблонів пошуку з'являться в другій половині цього року, і більше людей будуть запитувати: «Що сталося з моїм трафіком?». (
Штучний інтелект – це новий канал збуту, і ті, хто ним скористається, отримають частку ринку.
- Вільям Гібсон бачив набагато далі в майбутнє!
- Він заснований на аналізі середньої точки діаграми SparkToro, є дуже простим аналізом, і в результаті має деяку похибку.

8,54K
Працюючи зі штучним інтелектом, я зупиняюся, перш ніж ввести щось у коробку, щоб поставити собі запитання: чого я очікую від штучного інтелекту?
2х2 на допомогу! В якій коробці я перебуваю?
З одного боку, скільки контексту я надаю: не дуже багато до зовсім трохи. З іншого боку, чи варто мені спостерігати за штучним інтелектом, чи дозволити йому працювати.
Якщо я надаю дуже мало інформації і даю системі працювати: «досліджую тенденції Forward Deployed Engineer», я отримую одноразові результати: загальні огляди без відповідних деталей.
Запуск одного і того ж проекту з серією коротких запитань виробляє ітеративну бесіду, яка досягає успіху - Дослідження.
«Які компанії впровадили Forward Deployed Engineers (FDEs)? Які типові передумови FDE? Які типи контрактних структур і бізнесів піддаються цій роботі?
Коли у мене дуже низька толерантність до помилок, я надаю широкий контекст і ітеративно працюю зі штучним інтелектом. Для публікацій у блозі або фінансового аналізу я ділюся всім (поточними чернетками, попередніми текстами, детальними вимогами), а потім продовжую речення за реченням.
Щоб дозволити агенту вільно працювати, потрібно визначити все заздалегідь. У мене тут рідко виходить успіх, тому що попередня робота вимагає величезної ясності - точні цілі, вичерпна інформація, детальні списки завдань з критеріями валідації - начерк.
Ці підказки в кінцевому підсумку виглядають як документи з вимогами до продукту, які я написав як менеджер з продукту.
Відповідь на запитання «чого я очікую?» стане простішою, оскільки системи штучного інтелекту отримують більше моєї інформації та вдосконалюються у виборі релевантних даних. У міру того, як я вчуся краще формулювати, чого я насправді хочу, співпраця покращується.
Я прагну перенести набагато більше своїх питань з верхнього лівого сегмента - як я навчався за допомогою пошуку Google - в інші три квадранти.
Я також очікую, що ця звичка допоможе мені краще працювати з людьми.

2,88K
Ця маленька чорна коробочка посередині – це код машинного навчання.
Я пам'ятаю, як читав статтю Google 2015 року «Прихований технічний борг у ML» і думав, наскільки мало програми для машинного навчання було справжнім машинним навчанням.
Переважна більшість стосувалася інфраструктури, управління даними та операційної складності.
З появою штучного інтелекту здавалося, що великі мовні моделі поглинуть ці коробки. Обіцянка полягала в простоті: вставте LLM і спостерігайте, як він справляється з усім, від обслуговування клієнтів до генерації коду. Більше ніяких складних пайплайнів або крихких інтеграцій.
Але при побудові внутрішніх додатків ми спостерігали аналогічну динаміку зі штучним інтелектом.
Агентам потрібно багато контексту, як людині: як побудована CRM, що ми вводимо в кожне поле - але введення коштує дорого модель Hungry, Hungry AI.
Зниження вартості означає написання детермінованого програмного забезпечення, яке замінить міркування про штучний інтелект.
Наприклад, автоматизація управління електронною поштою означає написання інструментів для створення завдань Asana та оновлення CRM.
У міру того, як кількість інструментів збільшується за межі десяти або п'ятнадцяти інструментів, виклик інструментів більше не працює. Настав час розкрутити класичну модель машинного навчання для підбору інструментів.
Потім можна спостерігати за системою, оцінити, чи вона ефективна, і спрямувати її до потрібної моделі. Крім того, існує ціла категорія програмного забезпечення, яке гарантує, що штучний інтелект робить те, що він повинен.
Огородження запобігають неадекватним реакціям. Обмеження швидкості запобігає виходу витрат з-під контролю, коли система виходить з ладу.
Інформаційний пошук (RAG - retrieval augmented generation) має важливе значення для будь-якої виробничої системи. У своєму поштовому додатку я використовую векторну базу даних LanceDB, щоб знайти всі листи від конкретного відправника та відповідати їхньому тону.
Існують і інші методи управління знаннями, пов'язані з графами, RAG і спеціалізованими векторними базами даних.
Останнім часом пам'ять стала набагато важливішою. Інтерфейси командного рядка для інструментів штучного інтелекту зберігають історію розмов у вигляді файлів Markdown.
Коли я публікую діаграми, я хочу, щоб у нижньому правому куті був підпис Theory Ventures, певний шрифт, кольори та стилі. Тепер всі вони зберігаються у файлах .gemini або .claude у серії каскадних каталогів.
Первісна простота великих мовних моделей була підпорядкована складності виробництва корпоративного рівня.
Це не ідентично попередньому поколінню систем машинного навчання, але йде чітка паралель. Те, що здавалося простою «магічною скринькою штучного інтелекту», виявляється айсбергом, більшість інженерної роботи якого прихована під поверхнею.


3,63K
Якщо 2025 рік – це рік агентів, то 2026 рік обов'язково належатиме менеджерам-агентам.
Менеджери агентів — це люди, які можуть керувати командами агентів зі штучним інтелектом. Скількома може успішно керувати одна людина?
Я ледве можу керувати одразу 4 AI-агентами. Вони просять роз'яснень, просять дозволу, проводять пошуки в Інтернеті — все це вимагає моєї уваги. Іноді виконання завдання займає 30 секунд. В інший час – 30 хвилин. Я втрачаю відчуття того, який агент що робить, і половина роботи викидається, тому що вони неправильно тлумачать інструкції.
Це не проблема навичок. Це проблема з інструментами.
Фізичні роботи дають підказки про продуктивність менеджера роботів. У 2020 році Массачусетський технологічний інститут опублікував аналіз, який показав, що середній робот замінив 3,3 людських робочих місць. У 2024 році Amazon повідомила, що роботи з пікпаками та кораблями замінили 24 працівники.
Але є суттєва відмінність: штучний інтелект не є детермінованим. Агенти штучного інтелекту тлумачать інструкції. Вони імпровізують. Іноді вони повністю ігнорують вказівки. Roomba може тільки мріяти про творчу свободу, щоб ігнорувати свою вітальню і вирішувати, що замість цього гараж потребує уваги.
Теорія менеджменту часто спрямовує команди до проміжку контролю з 7 осіб.
Розмовляючи з деякими кращими менеджерами-агентами, я дізнався, що вони використовують поштову скриньку агентів, інструмент управління проектами для запиту роботи штучного інтелекту та його оцінки. У програмній інженерії цій меті служать запити на злиття або Linear на Github.
Дуже продуктивні інженери-програмісти зі штучним інтелектом керують 10-15 агентами, детально вказуючи 10-15 завдань, відправляючи їх штучному інтелекту, чекаючи завершення, а потім переглядаючи роботу. Половина роботи викидається, а запускається заново з поліпшеною підказкою.
Поштова скринька агента поки що не популярна. Він не є широко доступним.
Але я підозрюю, що це стане важливою частиною стеку продуктивності для майбутніх менеджерів-агентів, тому що це єдиний спосіб відстежувати роботу, яка може надійти в будь-який час.
Якщо ARR на одного працівника є новим показником марнославства для стартапів, то агенти, керовані на людину, можуть стати показником продуктивності марнославства працівника.
Як ви думаєте, за 12 місяців ви могли б керувати скількома агентами? 10? 50? 100? Чи могли б ви керувати агентом, який керує іншими агентами?

7,83K
Протягом останнього десятиліття найбільшою статтею в R&D-бюджеті будь-якого стартапу був передбачуваний талант. Але штучний інтелект пробиває собі шлях до P&L.
Скільки стартап має витрачати на ШІ у відсотках від своїх витрат на дослідження та розробки?
10%? 30%? 60?
Є три фактори, які слід враховувати. По-перше, середня зарплата інженера-програміста в Кремнієвій долині. По-друге, це загальна вартість штучного інтелекту, використаного цим інженером. Cursor зараз коштує 200 доларів на місяць за їхній план Ultra, а відгуки про Девіна пропонують 500 доларів на місяць. По-третє, кількість агентів, якими може керувати інженер.
Перший прохід : (перше зображення)
Але вартість підписки, ймовірно, невисока. Протягом останніх кількох днів я багато грав з агентами з кодування штучного інтелекту і за п'ять днів зібрав рахунок у розмірі 1,000 доларів! 😳😅
Тож давайте оновимо таблицю і припустимо ще $1000 на місяць на одного інженера.
Таким чином, для типового стартапу оцінка від 10 до 15% від загальних витрат на дослідження та розробки сьогодні може бути використана для штучного інтелекту.
На практиці варіанти будуть набагато ширшими, оскільки ми всі вчимося краще використовувати штучний інтелект, і він проникає в більшу частину організації. Менші компанії, які з самого початку використовують штучний інтелект, ймовірно, матимуть значно вищі коефіцієнти.
Якщо ви зацікавлені взяти участь в анонімному опитуванні, я опублікую результати, якщо розмір вибірки буде достатньо великим, щоб отримати статистично значущий результат.
Опитування тут :
Це дуже спрощена модель, де ми переглядаємо лише зарплати, не враховуючи пільги, обладнання, інфраструктуру dev & test тощо.
Ця оцінка ґрунтується на дисконтованому кодуванні атмосфери особистого досвіду.


1,93K
Протягом останнього десятиліття найбільшою статтею в R&D-бюджеті будь-якого стартапу був передбачуваний талант. Але штучний інтелект пробиває собі шлях до P&L.
Скільки стартап має витрачати на ШІ у відсотках від своїх витрат на дослідження та розробки?
10%? 30%? 60?
Є три фактори, які слід враховувати. По-перше, середня зарплата інженера-програміста в Кремнієвій долині. По-друге, це загальна вартість штучного інтелекту, використаного цим інженером. Cursor зараз коштує 200 доларів на місяць за їхній план Ultra, а відгуки про Девіна пропонують 500 доларів на місяць. По-третє, кількість агентів, якими може керувати інженер.
Перший прохід : (перше зображення)
Але вартість підписки, ймовірно, невисока. Протягом останніх кількох днів я багато грав з агентами з кодування штучного інтелекту і за п'ять днів зібрав рахунок у розмірі 1,000 доларів! 😳😅
Тож давайте оновимо таблицю і припустимо ще $1000 на місяць на одного інженера.
Таким чином, для типового стартапу оцінка від 10 до 15% від загальних витрат на дослідження та розробки сьогодні може бути використана для штучного інтелекту.
На практиці варіанти будуть набагато ширшими, оскільки ми всі вчимося краще використовувати штучний інтелект, і він проникає в більшу частину організації. Менші компанії, які з самого початку використовують штучний інтелект, ймовірно, матимуть значно вищі коефіцієнти.
Якщо ви зацікавлені взяти участь в анонімному опитуванні, я опублікую результати, якщо розмір вибірки буде достатньо великим, щоб отримати статистично значущий результат.
Опитування тут :
Це дуже спрощена модель, де ми переглядаємо лише зарплати, не враховуючи пільги, обладнання, інфраструктуру dev & test тощо.
Ця оцінка ґрунтується на дисконтованому кодуванні атмосфери особистого досвіду.


195
Коли ви робите запит до штучного інтелекту, він збирає відповідну інформацію, щоб відповісти вам.
Але, скільки інформації потрібно моделі?
Бесіди з практикуючими виявили їхню інтуїцію: вхідні дані були в ~20 разів більшими за вихідні.
Але мої експерименти з інтерфейсом командного рядка інструменту Gemini, який виводить детальну статистику токенів, показали його набагато вище.
В середньому 300x і до 4000x.
Ось чому таке високе співвідношення входу та виводу має значення для тих, хто будує зі штучним інтелектом:
Управління витратами полягає в управлінні ресурсами. Оскільки виклики API оцінюються за токен, співвідношення 300:1 означає, що витрати диктуються контекстом, а не відповіддю. Така динаміка ціноутворення справедлива для всіх основних моделей.
На сторінці цін OpenAI вихідні токени для GPT-4.1 у 4 рази дорожчі, ніж вхідні токени. Але коли вхідні дані в 300 разів об'ємніші, вхідні витрати все одно становлять 98% від загального рахунку.
Затримка – це функція розміру контексту. Важливим фактором, що визначає, як довго користувач чекає на відповідь, є час, за який модель обробляє вхідні дані.
Він по-новому визначає інженерну проблему. Це спостереження доводить, що основна проблема створення за допомогою LLM полягає не лише в підказках. Це контекст-інжиніринг.
Критично важливим завданням є створення ефективного пошуку даних і контексту - створення конвеєрів, які можуть знаходити найкращу інформацію та перетворювати її на найменший можливий слід токена.
Кешування стає критично важливим. Якщо 99% токенів знаходяться на вході, створення надійного шару кешування для документів, що часто отримуються, або поширених контекстів запитів переходить від «приємного мати» до основної архітектурної вимоги для створення економічно ефективного та масштабованого продукту.
Для розробників це означає, що зосередження уваги на оптимізації введення є критично важливим важелем для контролю витрат, зменшення затримки та, зрештою, створення успішного продукту на основі штучного інтелекту.




4,17K
Вчора Figma представила свій красиво оформлений S-1.
Він демонструє зростання за рахунок продукту (PLG) з надзвичайною траєкторією. Платформа інструментів для спільного дизайну Figma підірвала ринок дизайну, на якому довгий час домінував Adobe.
Ось як ці дві компанії складають ключові показники за останній фінансовий рік [див. прикріплене зображення]:
Figma приблизно на 3% більша за Adobe, але зростає в 4 рази швидше. Валова маржа ідентична. Чисте утримання долара Figma на рівні 132% є найвищим показником.
Дані також показують, що витрати Figma на дослідження та розробки майже дорівнюють витратам на продажі та маркетинг.
Це модель PLG у найкращому вигляді. Продукт Figma є її основним маркетинговим двигуном. Його спільний характер сприяє поширенню вірусів знизу вгору, що призводить до найкращої у своєму класі ефективності продажів 1.0. На кожен долар, витрачений на продажі та маркетинг у 2023 році, Figma отримала долар нового валового прибутку у 2024 році. Модель Adobe зі змішаним принципом «знизу-вгору» та «знизу-вгору» дає більш типовий показник 0,39.
S-1 також підкреслює ризики. Найбільш значущою є конкуренція з боку продуктів штучного інтелекту. Хоча Figma інвестує значні кошти в штучний інтелект, ця технологія знижує бар'єр для нових учасників. Захистом Figma є її платформа, що розширюється — з такими продуктами, як FigJam, Dev Mode, а тепер і Slides, Sites і Make.
Ці нові категорії продуктів підштовхнули багато компаній, що займаються розробкою програмного забезпечення PLG AI, до десятків і сотень мільйонів в ARR в рекордно короткі терміни.
З огляду на її високі темпи зростання та унікальну бізнес-модель, як ринкова оцінка Figma? Ми можемо використовувати лінійну регресію на основі публічних SaaS-компаній, щоб спрогнозувати її форвардний мультиплікатор доходів. Модель демонструє помірну кореляцію між мультиплікаторами зростання виручки та оцінки (R² = 0,23).
Figma, зі своїм зростанням на 48%, буде найбільш швидкозростаючою компанією-розробником програмного забезпечення в цій когорті, не рахуючи NVIDIA. Можна навести переконливі аргументи на користь того, що Figma повинна мати вищу, ніж прогнозувалося, оцінку. Його поєднання гіпер-зростання, найкращої у своєму класі ефективності продажів та пристрасної бази користувачів, що саморозповсюджується, зустрічається рідко.
Застосовуючи прогнозований мультиплікатор нашої моделі в 19,9x для оцінки форвардного доходу, ми отримуємо орієнтовну оцінку IPO приблизно в 21 мільярд доларів США 2 – це премія до 20 мільярдів доларів США, запропонованих Adobe для компанії в 2022 році.
S-1 розповідає історію компанії, що визначає категорію, яка створила продукт для спільного дизайну, розробила феноменальний рух PLG і активно впроваджує штучний інтелект.
Збір за розірвання контракту в розмірі 1,0 мільярда доларів США від Adobe було отримано в грудні 2023 року та записано як «Інший чистий дохід» у 2024 фінансовому році (закінчується 31 січня 2024 року). Велика компенсаційна плата на основі акцій у розмірі майже 900 мільйонів доларів пов'язана з тендерною пропозицією для співробітників у травні 2024 року. Обидва ці фактори видаляються в даних, що не відповідають GAAP, наведених вище.
Беручи темпи зростання Figma за дванадцять місяців і дисконтуючи їх на 15% (щоб врахувати природне уповільнення зростання), модель дає прогнозну оцінку зростання на рівні 41,1%. Це означатиме форвардний дохід у розмірі близько $1,1 млрд.



6,32K
Найкращі
Рейтинг
Вибране
Актуальне ончейн
Популярні в X
Нещодавнє найкраще фінансування
Найбільш варте уваги