Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov | Nethermind
Créateur d’AuditAgent | AI x Crypto x Produit | Construire l’économie agentique
Pourquoi OpenAI a-t-il publié des modèles avec des poids ouverts ? Pour tuer leur propre entreprise... (ou pas ?)
Oui, @OpenAI vient de publier deux modèles avec des poids ouverts, ce qui signifie que les développeurs peuvent les utiliser sans rien payer à OpenAI. Plus précisément, ils sont publiés sous la licence commerciale la plus libérale, la licence Apache 2.0. Alors pourquoi OpenAI a-t-il fait cela ? Il y a plusieurs aspects.
Mais je veux clarifier que lorsqu'une entreprise publie un modèle avec des poids ouverts, cela ne signifie pas que le modèle est aussi open-source que le code open-source que vous pouvez exécuter vous-même, comme le système d'exploitation @Linux. Non, avec les modèles d'IA, c'est un peu différent. En particulier, un modèle est une boîte noire, un ensemble de poids. Et bien que vous puissiez le tester sur différentes tâches et voir comment il fonctionne, si vous ne pouvez pas reproduire le processus d'entraînement, vous ne saurez jamais s'il y a des portes dérobées ou des vulnérabilités de sécurité qui se sont retrouvées intentionnellement ou accidentellement dans ce modèle. Donc, séparons cela de l'open source tout de suite. Malheureusement, les modèles avec des poids open source ne peuvent pas être entièrement fiables (ils peuvent être bon marché cependant).
L'autre aspect que j'ai remarqué, montré sur l'image, est que la qualité des modèles open-source n'est pas très différente des modèles phares d'OpenAI qui ne sont disponibles que via l'API. C'est génial ! C'est inattendu ! Vous pourriez penser à combien d'argent OpenAI pourrait perdre en permettant aux développeurs d'utiliser leurs modèles ? Cependant, ce n'est pas tout. Les modèles ne sont pas tout ce que vous obtenez en utilisant OpenAI via l'API. Par exemple, lorsque vous utilisez ChatGPT via l'interface utilisateur et choisissez le modèle o3, il y a en fait un agent complexe qui fonctionne en arrière-plan et, tout en utilisant ces modèles, a beaucoup de logique écrite par-dessus pour vraiment bien fonctionner avec vos documents et outils. Vous n'y accédez pas via ces modèles publiés par OpenAI.
Alors pourquoi OpenAI a-t-il publié des modèles avec des poids ouverts ? Premièrement, leurs principaux concurrents, en particulier @Meta, @MistralAI et @deepseek_ai (oh, et @Google), ont déjà publié des modèles compétitifs avec des poids ouverts que les gens utilisent. Et la popularité d'OpenAI parmi les personnes qui utilisent des modèles ouverts ne croît pas. Cependant, pour les développeurs qui ont besoin à la fois de modèles avec des poids ouverts (pour des calculs locaux/privés) et de modèles accessibles via l'API (pour des tâches plus difficiles), s'ils ont besoin des deux, ils ne peuvent tout simplement pas utiliser OpenAI. Il leur est plus facile d'utiliser leurs concurrents comme Google ou DeepSeek.
Deuxièmement, il y a une pression significative de la part des utilisateurs et des régulateurs qui veulent plus d'ouverture. Les gens s'inquiètent que l'IA puisse devenir incontrôlable ou tomber sous le contrôle d'un groupe restreint d'entreprises de la Silicon Valley, et les gens veulent plus de transparence. Bien que j'ose dire que même en se souciant de la concurrence et de la baisse des ventes, un tel mouvement vers l'ouverture fera probablement croître encore plus l'entreprise d'OpenAI.
Et troisièmement, bien sûr, il y a la blague sur le nom de l'entreprise OpenAI. À en juger par l'évolution de la situation, l'entreprise nommée OpenAI était la plus fermée des entreprises d'IA parmi les leaders. C'est drôle en soi, mais maintenant cela a changé. Que pensez-vous ?

280
La plupart des gens ne comprennent pas du tout comment le remplacement des personnes par l'IA fonctionne (ou comment cela NE fonctionne PAS). Même une accélération par dix de tout ce qu'un spécialiste fait n'efface pas automatiquement le travail lui-même—cela réécrit simplement l'économie qui l'entoure. Lorsque le prix effectif d'un livrable s'effondre, la demande latente qui était restée en attente devient soudainement viable. Je n'ai jamais rencontré de propriétaire de produit qui pense que ses ingénieurs livrent plus de fonctionnalités que ce que la feuille de route nécessite ; la liste de souhaits est toujours plus longue que ce que le nombre d'employés permet. Rendez chaque fonctionnalité dix fois moins chère à construire et vous ne réduisez pas les équipes par un facteur de dix—vous activez chaque "nice-to-have" qui semblait autrefois inabordable, ainsi que des produits entièrement nouveaux que personne n'a pris la peine de définir.
Une récente étude de @Microsoft Research sur l'utilisation réelle de Copilot souligne le même point. Les utilisateurs viennent chercher de l'aide pour rédiger du code ou rassembler des faits, mais le modèle finit par coacher, conseiller et enseigner—intégrant de nouveaux types de travail dans une seule session. Les professions ne sont pas des monolithes ; ce sont des ensembles de sous-processus, chacun seulement partiellement (et imparfaitement) couvert par les modèles d'aujourd'hui. À mesure que les outils d'IA évoluent, le champ d'application du rôle évolue avec eux, s'étendant souvent plutôt que se réduisant.
Même dans un auditeur de contrat intelligent IA que nous avons construit chez @NethermindEth, malgré son nom, nous ciblons une partie très spécifique et étroite du processus : trouver des vulnérabilités potentielles. Pendant ce temps, les spécialistes de la sécurité utilisent cela comme un outil et effectuent un travail beaucoup plus complexe et multifacette—formulant des stratégies, validant des résultats, corrigeant l'IA, ajoutant un contexte implicite, communiquant avec les développeurs, découvrant des intentions cachées et gérant les attentes.
Donc, au lieu de comptabiliser quels emplois vont "disparaître", il est plus utile de se demander quels problèmes deviennent dignes d'être résolus une fois que le coût marginal de les résoudre chute. L'histoire suggère que la réponse est "bien plus que ce que nous pouvons recruter", et cela plaide pour un avenir où le talent est redéployé et multiplié, et non rendu obsolète.


313
Andrej Karpathy soutient l'introduction d'un nouveau terme lié à "l'ingénierie du contexte" dans le développement de logiciels d'IA utilisant des LLM.
Et ce terme a longtemps semblé très nécessaire. Chaque fois que j'explique aux gens comment nous développons notre Nethermind AuditAgent, l'un des aspects clés, en plus d'utiliser l'expertise de domaine (sécurité web3) et d'utiliser les meilleurs modèles d'IA disponibles (d'OpenAI, Anthropic et Google), et des outils pour LLM, est précisément "l'ingénierie du contexte".
Il y a parfois une expression "le contexte est roi", et c'est vraiment vrai. Les LLM, qu'ils soient énormes et avancés ou des LLM optimisés et petits, sont un outil puissant, mais comme tout outil, s'il est entre de mauvaises mains, vous obtiendrez des résultats beaucoup moins prometteurs que vous ne pourriez si vous travaillez avec eux correctement. Et la gestion (ou l'ingénierie) du contexte est en effet un domaine complexe et pas très bien décrit qui évolue constamment, et il a vraiment émergé comme une extension du concept d'ingénierie des prompts, qui a déjà quelques connotations négatives.
Dans l'ensemble, Andrej a énuméré les principaux aspects liés à l'ingénierie du contexte (sur la deuxième capture d'écran), mais dans chaque tâche spécifique, les gens obtiennent d'excellents résultats en grande partie grâce à des essais et des erreurs, essayant chaque fois de manière monotone de sélectionner les bons éléments de contexte qui sont vraiment nécessaires à ce stade de la résolution de problèmes, en collectant des benchmarks pour chaque étape, en regardant les métriques, en divisant les ensembles de données en test, validation, et ainsi de suite.
Que pensez-vous de "l'ingénierie du contexte"?

Andrej Karpathy25 juin 2025
+1 pour "l'ingénierie du contexte" plutôt que "l'ingénierie des invites".
Les gens associent les invites à de courtes descriptions de tâches que vous donneriez à un LLM dans votre utilisation quotidienne. Alors que dans chaque application LLM de qualité industrielle, l'ingénierie du contexte est l'art et la science délicats de remplir la fenêtre de contexte avec juste les bonnes informations pour l'étape suivante. Science, car bien faire cela implique des descriptions de tâches et des explications, quelques exemples, RAG, des données connexes (possiblement multimodales), des outils, l'état et l'historique, la compression... Trop peu ou sous une forme incorrecte et le LLM n'a pas le bon contexte pour une performance optimale. Trop ou trop peu pertinent et les coûts du LLM pourraient augmenter et la performance pourrait diminuer. Bien faire cela est hautement non trivial. Et art, à cause de l'intuition directrice autour de la psychologie des LLM et des esprits des gens.
En plus de l'ingénierie du contexte elle-même, une application LLM doit :
- décomposer les problèmes de manière appropriée en flux de contrôle
- remplir les fenêtres de contexte de manière appropriée
- dispatcher des appels aux LLM du bon type et de la bonne capacité
- gérer les flux UIUX de génération-vérification
- beaucoup plus - garde-fous, sécurité, évaluations, parallélisme, préchargement, ...
Ainsi, l'ingénierie du contexte n'est qu'un petit morceau d'une couche épaisse de logiciels non triviaux qui coordonne les appels individuels aux LLM (et bien plus) en applications LLM complètes. Le terme "wrapper ChatGPT" est fatigué et vraiment, vraiment faux.
370
Hier, nous avons lancé un nouveau produit en production : I.R.I.S. (Integrity & Risk Intelligence Scanner), le premier agent IA sur X (anciennement Twitter) qui :
• Accepte un dépôt de contrat intelligent ou l'adresse d'un contrat déployé
• Exécute le code via notre plateforme SaaS AuditAgent—déjà une solution leader sur le marché utilisée par des auditeurs externes et des équipes de développement
• Publie un rapport complet sur les vulnérabilités sans quitter le fil social
Pourquoi ?
• Un canal sans friction. Les développeurs obtiennent un audit là où ils parlent déjà de code—pas de formulaires, pas de fils d'email.
• AuditAgent sous le capot. Pas seulement un "moteur de scan", mais notre service phare alimentant des audits dans le monde réel.
• Un aperçu en ~30 minutes. Un tri parfait avant une revue manuelle approfondie.
• Un coup de pouce pour le marché. L'agent Twitter met en avant la force d'AuditAgent et dirige les utilisateurs vers la plateforme complète.
Premières 16 heures sur la timeline
✨ 2,7 M d'impressions
🔥 49 K d'engagements
📊 85 % de sentiment positif (214 tweets)
🛠️ ≈150 tweets partageant des cas d'utilisation pratiques
🔍 33 audits express
📋 38 454 lignes de code scannées
⚠️ 377 vulnérabilités détectées
Une note personnelle
Il y a exactement un an, j'ai rejoint Nethermind avec ce qui semblait être une hypothèse risquée : "L'IA deviendra une partie essentielle de la sécurité des contrats intelligents, mais seuls des outils spécialisés, natifs des flux de travail, aideront vraiment les professionnels."
Douze mois plus tard, nous avons deux produits en production—AuditAgent ( et maintenant I.R.I.S.(@UndercoverIRIS) —et un impact clair sur la sécurité de Web3.
Un grand merci à toute l'équipe IA de @NethermindEth et à @virtuals_io. Persistance + une hypothèse solide + expertise combinée = résultats que l'industrie peut voir.
Nous continuerons à construire des outils qui apportent la sécurité aux développeurs en premier—afin que Web3 devienne plus sûr à chaque engagement.

738
De retour du Sommet AI à Londres—le paysage de l'IA d'entreprise semble très différent de près
3 choses qui m'ont frappé :
1️⃣ Des étagères de produits surchargées.
Chaque stand promettait une "plateforme IA" prête à l'emploi qui s'adapte magiquement à n'importe quelle pile. Mais si vous parcourez le salon assez longtemps, vous entendez toujours le même obstacle : des systèmes hérités sans API, des données éparpillées, une logique commerciale floue. La réalité sera brutale pour les SaaS universels.
2️⃣ Les ateliers de construction sur mesure brillent discrètement.
Les agences qui combinent une consultation approfondie dans le domaine avec un développement personnalisé rapide ont un avantage clair. Elles peuvent plonger dans le milieu chaotique, assembler les choses et livrer quelque chose qui fonctionne réellement dans l'infrastructure fragile d'un client.
3️⃣ Le travail sur mesure devient moins cher, pas plus cher.
Avec des modèles de génération de code écrivant des adaptateurs, des tests et des échafaudages, les développeurs seniors orchestrent désormais plutôt que de taper à la main. Notre expérience d'utilisation continue des outils IA au sein de l'organisation ne fait que confirmer cela.
La conclusion
Les gagnants de l'IA d'entreprise ne seront pas les agents les plus flashy "prêts à l'emploi"—ce seront les équipes agiles qui peuvent co-créer des solutions en temps réel, guidées par les contraintes chaotiques de la technologie héritée.

267
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables