Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
C'était tellement amusant, Mario. Merci de m'avoir invité dans l'émission pour parler de tout ce qui se passe sur le marché !

Mario Gabriele 🦊22 juil., 20:22
Notre dernier épisode avec Tomasz Tunguz est en ligne !
La Décennie des Données
@ttunguz a passé presque deux décennies à transformer les données en insights d'investissement. Après avoir soutenu Looker, Expensify et Monte Carlo chez Redpoint Ventures, il a lancé @Theoryvc en 2022 avec une vision audacieuse : construire une "société d'investissement" où chercheurs, ingénieurs et opérateurs siègent aux côtés des investisseurs, créant des cartes de marché en temps réel et des outils d'IA internes. Son fonds inaugural a été clôturé à 238 millions de dollars, suivi seulement 19 mois plus tard par un deuxième fonds de 450 millions de dollars. Centrée sur les données, l'IA et l'infrastructure crypto, Theory opère au cœur des changements technologiques les plus conséquents d'aujourd'hui. Nous explorons comment les données redéfinissent le capital-risque, pourquoi les modèles d'investissement traditionnels sont perturbés, et ce qu'il faut pour construire une entreprise qui ne se contente pas de prédire l'avenir mais aide activement à le créer.
Écoutez maintenant :
• YouTube :
• Spotify :
• Apple :
Un grand merci aux incroyables sponsors qui rendent le podcast possible :
✨ Brex — La solution bancaire pour les startups :
✨ Generalist+ — Intelligence essentielle pour les investisseurs et technologists modernes :
Nous explorons :
→ Comment fonctionne le modèle de "société d'investissement" de Theory
→ Pourquoi les échanges de crypto pourraient créer un chemin viable vers les marchés publics pour les entreprises de logiciels à petite capitalisation
→ La crise énergétique imminente — pourquoi les centres de données pourraient consommer 15 % de l'électricité des États-Unis dans cinq ans
→ L'ascension rapide des stablecoins alors que les grandes banques acheminent 5 à 10 % des dollars américains à travers eux
→ Pourquoi Ethereum fait face à un défi existentiel similaire à celui d'AWS perdant du terrain face à Azure à l'ère de l'IA
→ Pourquoi Tomasz croit que la poignée d'agents d'aujourd'hui deviendra plus de 100 co‑travailleurs numériques d'ici la fin de l'année
→ Pourquoi Meta parie des milliards sur des lunettes AR pour changer notre interaction avec les machines
→ Comment Theory Ventures utilise l'IA pour accélérer la recherche de marché, l'analyse des transactions et les décisions d'investissement
…Et bien plus encore !
7,64K
OpenAI reçoit en moyenne 1 requête par Américain par jour.
Google reçoit environ 4 requêtes par Américain par jour.
Depuis lors, 50 % des requêtes de recherche Google ont des aperçus AI, ce qui signifie qu'au moins 60 % des recherches aux États-Unis sont désormais alimentées par l'IA.
Cela a pris un peu plus de temps que je ne l'avais prévu pour que cela se produise. En 2024, j'avais prédit que 50 % des recherches des consommateurs seraient activées par l'IA. (
Mais l'IA est arrivée dans la recherche.
Si les modèles de recherche Google sont un quelconque indice, il existe une loi de puissance dans le comportement de recherche. L'analyse de SparkToro sur le comportement de recherche Google montre que le tiers supérieur des Américains qui recherchent effectue plus de 80 % de toutes les recherches - ce qui signifie que l'utilisation de l'IA n'est probablement pas répartie de manière uniforme - comme l'avenir.
Les sites Web et les entreprises commencent à ressentir les impacts de cela. L'article de The Economist "L'IA tue le web. Quelque chose peut-elle le sauver ?" capture l'air du temps dans un titre. (
Une supermajorité d'Américains recherche désormais avec l'IA. Les effets de second ordre des changements de modèles de recherche arriveront dans la seconde moitié de cette année et beaucoup se demanderont : "Que s'est-il passé avec mon trafic ?" (
L'IA est un nouveau canal de distribution et ceux qui s'en emparent gagneront des parts de marché.
- William Gibson a vu beaucoup plus loin dans le futur !
- Ceci est basé sur une analyse intermédiaire du graphique SparkToro, c'est une analyse très simple, et comporte donc quelques erreurs.

8,54K
En travaillant avec l'IA, je m'arrête avant de taper quoi que ce soit dans la boîte pour me poser une question : qu'est-ce que j'attends de l'IA ?
2x2 à la rescousse ! Dans quelle boîte suis-je ?
Sur un axe, combien de contexte je fournis : pas beaucoup à pas mal. Sur l'autre, si je devrais surveiller l'IA ou la laisser fonctionner.
Si je fournis très peu d'informations et laisse le système fonctionner : ‘recherche sur les tendances des Ingénieurs Déployés en Avance,’ j'obtiens des résultats jetables : des aperçus larges sans détails pertinents.
Exécuter le même projet avec une série de courtes questions produit une conversation itérative qui réussit - une Exploration.
“Quelles entreprises ont mis en œuvre des Ingénieurs Déployés en Avance (FDE) ? Quels sont les parcours typiques des FDE ? Quels types de structures contractuelles et d'entreprises se prêtent à ce travail ?”
Lorsque j'ai une très faible tolérance aux erreurs, je fournis un contexte étendu et travaille de manière itérative avec l'IA. Pour les articles de blog ou l'analyse financière, je partage tout (brouillons actuels, écrits précédents, exigences détaillées) puis procède phrase par phrase.
Laisser un agent fonctionner librement nécessite de définir tout à l'avance. Je réussis rarement ici car le travail préalable exige une clarté énorme - des objectifs exacts, des informations complètes et des listes de tâches détaillées avec des critères de validation - un plan.
Ces invites finissent par ressembler aux documents de spécifications produit que j'ai rédigés en tant que chef de produit.
La réponse à ‘qu'est-ce que j'attends ?’ deviendra plus facile à mesure que les systèmes d'IA accéderont à plus de mes informations et s'amélioreront dans la sélection des données pertinentes. À mesure que je m'améliore à articuler ce que je veux réellement, la collaboration s'améliore.
Je vise à déplacer beaucoup plus de mes questions hors du premier quadrant - comment j'ai été formé avec la recherche Google - vers les trois autres quadrants.
Je m'attends également à ce que cette habitude m'aide à mieux travailler avec les gens.

2,89K
Cette petite boîte noire au milieu est du code d'apprentissage automatique.
Je me souviens avoir lu le document de Google de 2015 sur la dette technique cachée dans l'apprentissage automatique et avoir pensé à quel point peu d'une application d'apprentissage automatique était réellement de l'apprentissage automatique.
La grande majorité était de l'infrastructure, de la gestion des données et de la complexité opérationnelle.
Avec l'aube de l'IA, il semblait que les grands modèles de langage allaient englober ces boîtes. La promesse était la simplicité : intégrer un LLM et le voir gérer tout, du service client à la génération de code. Plus de pipelines complexes ou d'intégrations fragiles.
Mais en construisant des applications internes, nous avons observé une dynamique similaire avec l'IA.
Les agents ont besoin de beaucoup de contexte, comme un humain : comment le CRM est structuré, que devons-nous entrer dans chaque champ - mais l'entrée est coûteuse pour le modèle AI Affamé, Affamé.
Réduire les coûts signifie écrire des logiciels déterministes pour remplacer le raisonnement de l'IA.
Par exemple, automatiser la gestion des e-mails signifie écrire des outils pour créer des tâches Asana et mettre à jour le CRM.
À mesure que le nombre d'outils augmente au-delà de dix ou quinze outils, l'appel d'outils ne fonctionne plus. Il est temps de mettre en place un modèle d'apprentissage automatique classique pour sélectionner les outils.
Ensuite, il y a l'observation du système, l'évaluation de sa performance et le routage vers le bon modèle. De plus, il existe toute une catégorie de logiciels pour s'assurer que l'IA fait ce qu'elle est censée faire.
Des garde-fous empêchent les réponses inappropriées. La limitation de débit empêche les coûts de s'emballer lorsque le système devient fou.
La récupération d'informations (RAG - génération augmentée par récupération) est essentielle pour tout système de production. Dans mon application de messagerie, j'utilise une base de données vectorielle LanceDB pour trouver tous les e-mails d'un expéditeur particulier et faire correspondre leur ton.
Il existe d'autres techniques de gestion des connaissances autour de RAG graphique et de bases de données vectorielles spécialisées.
Plus récemment, la mémoire est devenue beaucoup plus importante. Les interfaces de ligne de commande pour les outils d'IA enregistrent l'historique des conversations sous forme de fichiers markdown.
Lorsque je publie des graphiques, je veux que la légende de Theory Ventures soit en bas à droite, une police particulière, des couleurs et des styles. Ceux-ci sont maintenant tous enregistrés dans des fichiers .gemini ou .claude dans une série de répertoires en cascade.
La simplicité originale des grands modèles de langage a été engloutie par la complexité de production de niveau entreprise.
Ce n'est pas identique à la génération précédente de systèmes d'apprentissage automatique, mais cela suit un parallèle clair. Ce qui semblait être une simple "boîte magique d'IA" s'avère être un iceberg, avec la plupart du travail d'ingénierie caché sous la surface.


3,63K
Si 2025 est l'année des agents, alors 2026 appartiendra sûrement aux gestionnaires d'agents.
Les gestionnaires d'agents sont des personnes capables de gérer des équipes d'agents IA. Combien une personne peut-elle gérer avec succès ?
Je peux à peine gérer 4 agents IA à la fois. Ils demandent des clarifications, demandent des permissions, effectuent des recherches sur le web, tout cela nécessitant mon attention. Parfois, une tâche prend 30 secondes. D'autres fois, 30 minutes. Je perds le fil de quel agent fait quoi et la moitié du travail est jetée parce qu'ils interprètent mal les instructions.
Ce n'est pas un problème de compétence. C'est un problème d'outillage.
Les robots physiques offrent des indices sur la productivité des gestionnaires de robots. Le MIT a publié une analyse en 2020 qui suggérait que le robot moyen remplaçait 3,3 emplois humains. En 2024, Amazon a rapporté que les robots de préparation de commandes remplaçaient 24 travailleurs.
Mais il y a une différence critique : l'IA est non déterministe. Les agents IA interprètent les instructions. Ils improvisent. Ils ignorent parfois complètement les directives. Un Roomba ne peut que rêver de la liberté créative d'ignorer votre salon et de décider que le garage a besoin d'attention à la place.
La théorie de la gestion guide souvent les équipes vers une portée de contrôle de 7 personnes.
En parlant avec quelques meilleurs gestionnaires d'agents, j'ai appris qu'ils utilisent une boîte de réception d'agents, un outil de gestion de projet pour demander du travail IA et l'évaluer. En ingénierie logicielle, les demandes de tirage de Github ou les tickets Linear servent cet objectif.
Des ingénieurs logiciels IA très productifs gèrent 10 à 15 agents en spécifiant 10 à 15 tâches en détail, en les envoyant à une IA, en attendant leur achèvement puis en révisant le travail. La moitié du travail est jetée et redémarrée avec un prompt amélioré.
La boîte de réception d'agents n'est pas populaire - encore. Elle n'est pas largement disponible.
Mais je soupçonne qu'elle deviendra une partie essentielle de la pile de productivité pour les futurs gestionnaires d'agents car c'est le seul moyen de suivre le travail qui peut arriver à tout moment.
Si le chiffre d'affaires récurrent par employé est la nouvelle métrique de vanité pour les startups, alors le nombre d'agents gérés par personne pourrait devenir la métrique de productivité de vanité d'un travailleur.
Dans 12 mois, combien d'agents pensez-vous pouvoir gérer ? 10 ? 50 ? 100 ? Pourriez-vous gérer un agent qui gère d'autres agents ?

7,84K
Au cours de la dernière décennie, le plus gros poste de dépenses dans le budget R&D de toute startup était le talent prévisible. Mais l'IA s'impose dans le compte de résultat.
Combien une startup devrait-elle dépenser en IA en pourcentage de ses dépenses de recherche et développement ?
10 % ? 30 % ? 60 ?
Il y a trois facteurs à considérer. Tout d'abord, le salaire moyen d'un ingénieur logiciel dans la Silicon Valley. Deuxièmement, le coût total de l'IA utilisée par cet ingénieur. Cursor est maintenant à 200 $ par mois pour leur plan Ultra et les avis sur Devin suggèrent 500 $ par mois. Troisièmement, le nombre d'agents qu'un ingénieur peut gérer.
Un premier essai : (première image)
Mais les coûts d'abonnement sont probablement bas. Au cours des derniers jours, j'ai beaucoup joué avec des agents de codage IA et j'ai accumulé une facture de 1 000 $ en l'espace de cinq jours ! 😳😅
Alors mettons à jour le tableau et supposons un autre 1 000 $ par mois par ingénieur.
Donc, pour une startup typique, une estimation de 10 à 15 % des dépenses totales de R&D aujourd'hui pourrait raisonnablement être utilisée pour l'IA.
Les variantes seront beaucoup plus larges en pratique alors que nous apprenons tous à mieux utiliser l'IA et qu'elle pénètre davantage l'organisation. Les petites entreprises qui sont natives de l'IA dès le départ auront probablement des ratios significativement plus élevés.
Si vous êtes intéressé à participer à une enquête anonyme, je publierai les résultats si la taille de l'échantillon est suffisamment grande pour avoir un résultat statistiquement significatif.
L'enquête est ici :
C'est un modèle grossièrement simplifié où nous ne passons en revue que les salaires, sans inclure les avantages, le matériel, l'infrastructure de développement et de test, etc.
C'est une estimation basée sur une expérience personnelle de codage.


1,94K
Au cours de la dernière décennie, le plus gros poste de dépenses dans le budget R&D de toute startup était le talent prévisible. Mais l'IA s'impose dans le compte de résultat.
Combien une startup devrait-elle dépenser en IA en pourcentage de ses dépenses de recherche et développement ?
10 % ? 30 % ? 60 ?
Il y a trois facteurs à considérer. Tout d'abord, le salaire moyen d'un ingénieur logiciel dans la Silicon Valley. Deuxièmement, le coût total de l'IA utilisée par cet ingénieur. Cursor est maintenant à 200 $ par mois pour leur plan Ultra et les avis sur Devin suggèrent 500 $ par mois. Troisièmement, le nombre d'agents qu'un ingénieur peut gérer.
Un premier essai : (première image)
Mais les coûts d'abonnement sont probablement bas. Au cours des derniers jours, j'ai beaucoup joué avec des agents de codage IA et j'ai accumulé une facture de 1 000 $ en l'espace de cinq jours ! 😳😅
Alors mettons à jour le tableau et supposons un autre 1 000 $ par mois par ingénieur.
Donc, pour une startup typique, une estimation de 10 à 15 % des dépenses totales de R&D aujourd'hui pourrait raisonnablement être utilisée pour l'IA.
Les variantes seront beaucoup plus larges en pratique alors que nous apprenons tous à mieux utiliser l'IA et qu'elle pénètre davantage l'organisation. Les petites entreprises qui sont natives de l'IA dès le départ auront probablement des ratios significativement plus élevés.
Si vous êtes intéressé à participer à une enquête anonyme, je publierai les résultats si la taille de l'échantillon est suffisamment grande pour avoir un résultat statistiquement significatif.
L'enquête est ici :
C'est un modèle grossièrement simplifié où nous ne passons en revue que les salaires, sans inclure les avantages, le matériel, l'infrastructure de développement et de test, etc.
C'est une estimation basée sur une expérience personnelle de codage.


201
Lorsque vous interrogez l'IA, elle rassemble des informations pertinentes pour vous répondre.
Mais, combien d'informations le modèle a-t-il besoin ?
Les conversations avec des praticiens ont révélé leur intuition : l'entrée était ~20x plus grande que la sortie.
Mais mes expériences avec l'interface de ligne de commande de l'outil Gemini, qui fournit des statistiques détaillées sur les tokens, ont révélé que c'était beaucoup plus élevé.
300x en moyenne et jusqu'à 4000x.
Voici pourquoi ce rapport élevé entrée-sortie est important pour quiconque construit avec l'IA :
La gestion des coûts dépend entièrement de l'entrée. Avec des appels API tarifés par token, un ratio de 300:1 signifie que les coûts sont dictés par le contexte, pas par la réponse. Cette dynamique de tarification est valable pour tous les principaux modèles.
Sur la page de tarification d'OpenAI, les tokens de sortie pour GPT-4.1 sont 4x plus chers que les tokens d'entrée. Mais lorsque l'entrée est 300x plus volumineuse, les coûts d'entrée représentent toujours 98% de la facture totale.
La latence est une fonction de la taille du contexte. Un facteur important déterminant combien de temps un utilisateur attend une réponse est le temps nécessaire au modèle pour traiter l'entrée.
Cela redéfinit le défi d'ingénierie. Cette observation prouve que le défi principal de la construction avec les LLM n'est pas seulement de donner des instructions. C'est l'ingénierie du contexte.
La tâche critique consiste à construire une récupération de données efficace et un contexte - créer des pipelines capables de trouver les meilleures informations et de les distiller dans l'empreinte de token la plus petite possible.
Le caching devient essentiel. Si 99% des tokens se trouvent dans l'entrée, construire une couche de caching robuste pour les documents fréquemment récupérés ou les contextes de requête courants passe d'un "nice-to-have" à une exigence architecturale fondamentale pour construire un produit rentable et évolutif.
Pour les développeurs, cela signifie que se concentrer sur l'optimisation de l'entrée est un levier critique pour contrôler les coûts, réduire la latence et, en fin de compte, construire un produit alimenté par l'IA réussi.




4,18K
Hier, Figma a déposé son S-1 magnifiquement conçu.
Il révèle une entreprise axée sur la croissance par le produit (PLG) avec une trajectoire remarquable. La plateforme d'outils de design collaboratif de Figma a perturbé le marché du design longtemps dominé par Adobe.
Voici comment les deux entreprises se comparent sur des indicateurs clés pour leur dernier exercice fiscal [voir l'image jointe] :
Figma représente environ 3 % de la taille d'Adobe mais croît 4 fois plus vite. Les marges brutes sont identiques. Le taux de rétention net des dollars de Figma de 132 % est dans le top décile.
Les données montrent également que les dépenses de recherche et développement de Figma égalent presque celles des ventes et du marketing.
C'est le modèle PLG à son meilleur. Le produit de Figma est son principal moteur marketing. Sa nature collaborative favorise une adoption virale, de bas en haut, conduisant à une efficacité commerciale de premier ordre de 1,0. Pour chaque dollar dépensé en ventes et marketing en 2023, Figma a généré un dollar de nouveau bénéfice brut en 2024. Le modèle mixte de bas en haut et axé sur les ventes d'Adobe produit un 0,39 plus typique.
Le S-1 met également en évidence des risques. Le plus significatif est la concurrence des produits d'IA. Bien que Figma investisse massivement dans l'IA, la technologie abaisse la barrière à l'entrée pour de nouveaux acteurs. La défense de Figma est sa plateforme en expansion — avec des produits comme FigJam, Dev Mode, et maintenant Slides, Sites, et Make.
Ces nouvelles catégories de produits ont propulsé de nombreuses entreprises de logiciels d'IA PLG à des dizaines et des centaines de millions en ARR en un temps record.
Étant donné sa forte croissance et son modèle commercial unique, comment le marché devrait-il évaluer Figma ? Nous pouvons utiliser une régression linéaire basée sur des entreprises SaaS publiques pour prédire son multiple de revenus futurs. Le modèle montre une corrélation modeste entre la croissance des revenus et les multiples de valorisation (R² = 0,23).
Figma, avec sa croissance de 48 %, serait l'entreprise de logiciels à la croissance la plus rapide dans ce groupe, à l'exception de NVIDIA. Un argument convaincant peut être fait pour que Figma commande une valorisation supérieure à celle prédite. Sa combinaison de hyper-croissance, d'efficacité commerciale de premier ordre, et d'une base d'utilisateurs passionnée et auto-propagante est rare.
En appliquant le multiple prédit de 19,9x de notre modèle pour estimer les revenus futurs, on obtient une valorisation d'IPO estimée à environ 21 milliards de dollars - une prime par rapport aux 20 milliards de dollars qu'Adobe a offerts pour l'entreprise en 2022.
Le S-1 raconte l'histoire d'une entreprise définissant une catégorie qui a construit un produit de design collaboratif, développé un mouvement PLG phénoménal, et s'engage activement dans l'IA.
Les frais de résiliation de 1,0 milliard de dollars d'Adobe ont été reçus en décembre 2023 et enregistrés comme "Autres revenus, nets" dans l'exercice fiscal 2024 (se terminant le 31 janvier 2024). La charge importante de compensation en actions de près de 900 millions de dollars est liée à une offre de rachat d'actions en mai 2024. Ces deux éléments sont exclus des données non-GAAP citées ci-dessus.
En prenant le taux de croissance des douze derniers mois de 48,3 % de Figma et en le réduisant de 15 % (pour tenir compte d'un ralentissement naturel de la croissance), le modèle produit une estimation de croissance future de 41,1 %. Cela impliquerait des revenus futurs d'environ 1,1 milliard de dollars.



6,33K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables