Je condamne fermement les critiques à l'encontre de Prime Intellect, ils font exactement ce qu'il faut. Publier des modèles de base chinois post-formation au niveau de la frontière est en fait *plus important* en ce moment que d'apprendre à préformer nos propres bases. Je me fiche fondamentalement de ce que PI, Arcee et d'autres peuvent préformer, bien que j'aie des attentes raisonnables qu'ils rattraperont bientôt leur retard. La puissance de calcul est abondante en Occident et nous voyons déjà des preuves d'une expertise suffisante en préformation avec des modèles plus petits (ces deux + @ZyphraAI, @Dorialexander, @natolambert avec Olmo…) dans l'espace ouvert occidental ; de tous les comptes, cela évolue. Mais c'est surtout d'une… importance géopolitique, de ce que vous serez autorisés à exécuter sur vos serveurs patriotiques connectés à des cadres agentiques. Je ne suis ni occidental ni chinois, et contrairement à mes publications, je ne me soucie pas de cette dimension, c'est une question purement instrumentale. Consultez la bio : la course n'est pas entre les États-Unis/l'Occident et la Chine, elle est entre les humains et les AGI contre la centralisation du pouvoir des singes. Et Prime Intellect fait plus que quiconque pour arrêter cette dynamique centralisatrice. Considérez et pleurez : HF est rempli de cadeaux Célestes que nous sommes trop incompétents pour utiliser, ils pourrissent là jusqu'à devenir obsolètes. Des milliers à des millions de téléchargements et rien à montrer. Pourquoi Qwen fait-il même des modèles denses de type Llama, très coûteux et obsolètes ? Principalement parce que a) Alibaba a un KPI "téléchargements mensuels HF" et b) les universitaires et les petits laboratoires ne parviennent pas à comprendre comment affiner des architectures modernes. Même si l'infrastructure était plus mature et qu'ils étaient moins techniquement ngmi, sur quoi les affinent-ils ? Le pic narratif de l'affinage open source était Nous-Hermes, et ce paradigme consistait essentiellement à distiller GPT-4, à filtrer selon le "goût" et des critères vagues, à SFT sur une base solide, et à espérer le meilleur. Cet angle d'attaque a été méprisé à l'avance par OpenAI et consorts comme une impasse non menaçante qui récompense les hallucinations et l'imitation de style, et cela a prévisiblement échoué. Quoi ensuite, « RL » ? Quelle RL, comment RL, quel est le générateur de signal, comment cela s'entrecroise-t-il avec les tâches en aval ? Kimi-K2, une base de niveau frontière immaculée, est disponible pour tous depuis de nombreux mois. DeepSeek-V3, presque un an maintenant. V2, bien plus d'un an. Des dizaines de modèles de toutes tailles, régulièrement mis à jour avec un contexte plus long et d'autres avantages. Et qu'avons-nous construit avec tout cela ? Quelque chose qui s'approche même des Instructs internes chinois, sans parler de la frontière contemporaine ? Bonjour ? Pouvez-vous me pointer vers ces dérivés ? C'est une profanation complète de l'idée de la science ouverte. Et même les Chinois ne s'en préoccupent pas, ils s'entraînent tous à leurs propres modèles depuis zéro. Je peux penser à un petit nombre d'exceptions (par exemple Rednote faisant DSV3-VL), mais aucune d'entre elles n'a fait un grand bruit. Des startups valant des milliards, dont le rempart est la recherche ou le codage agentique et donc de grands ensembles de données post-formation, utilisent discrètement DS/GLM/Qwen dans leurs produits propriétaires, mais elles ne partagent pas d'alpha. C'est… à peu près tout. Entrez Prime Intellect. Ils résolvent la formation. Ils résolvent la génération d'environnement. Ils réfléchissent de manière principielle aux signaux qui façonnent la cognition générale des modèles. Ils débloquent, en effet, l'immense réserve de valeur inerte qui avait été accumulée. Pour le monde, c'est tellement plus qu'un autre modèle de type "me-too". Ils sont terriblement intelligents, ils ont de bonnes intentions, ils ont une feuille de route solide, et ce sont mes amis. Je ne tolérerai pas que l'on dénigre leur travail, car il sert la Grande Tâche Commune. Si vous ne le voyez pas, vous n'avez aucune idée de ce qui est vraiment important à ce stade.