Grand moment pour les créateurs d'agents ! Il y a un schéma qui se répète dans le logiciel. D'abord, tout le monde se concentre sur le problème de la "construction". Des frameworks émergent, mûrissent et deviennent vraiment bons. Puis soudain, la contrainte se déplace vers le déploiement. Nous avons vu cela avec les réseaux neuronaux. PyTorch, TensorFlow et Caffe étaient tous excellents pour construire des modèles. Mais les déployer signifiait gérer différents formats et environnements d'exécution. ONNX a permis aux développeurs de construire dans n'importe quel framework, d'exporter vers un format standard et de déployer partout. Nous observons le même schéma se dérouler avec les Agents en ce moment. Des frameworks comme LangGraph, CrewAI, Agno et Strands sont suffisamment matures pour que construire un agent ne soit plus la partie la plus difficile. Au lieu de cela, c'est ce qui se passe après : déploiement, streaming, gestion de la mémoire, observabilité et mise à l'échelle automatique. Ce ne sont pas des problèmes d'agent mais plutôt des problèmes d'infrastructure. Et en ce moment, chaque équipe d'IA avec laquelle j'ai parlé les résout de zéro. xpander adopte l'approche ONNX pour ce problème, et je pense que c'est le bon modèle mental. L'idée principale est simple : amenez votre agent (construit dans n'importe quel framework), déployez-le via xpander et obtenez toute l'infrastructure de production. Cela inclut : - Déploiement sans serveur en ~2 minutes - Streaming SSE pour une expérience utilisateur de réflexion en temps réel...