🚨Breaking : Quelqu'un vient de rendre open source un interpréteur Python écrit en Rust et c'est incroyable. Il s'appelle Monty. Et ce n'est pas un bac à sable. C'est un runtime Python minimal et sécurisé construit spécifiquement pour les agents AI -- et il démarre en moins de 1 microseconde. Voici ce que fait cette chose : → Exécute du code Python écrit par des LLMs sans aucun surcoût de bac à sable → Bloque complètement le système de fichiers, les variables d'environnement et le réseau à moins que VOUS ne le permettiez → Démarre en 0,06 ms contre 195 ms pour Docker et 2 800 ms pour Pyodide → Prend des instantanés de l'état d'exécution en vol -- pause, sérialise, reprend plus tard → Effectue la vérification de type avec `ty` intégré dans un seul binaire → Appels depuis Python, Rust ou JavaScript -- pas de dépendance à CPython Voici la partie la plus folle : Docker prend 195 ms pour démarrer. Un service de bac à sable prend 1 033 ms. Monty prend 0,06 ms. Ce n'est pas une erreur d'arrondi. C'est une catégorie d'outil complètement différente. Chaque agent AI fonctionnant aujourd'hui a le même problème : soit vous exécutez le code LLM directement sur votre hôte (YOLO Python -- zéro sécurité) soit vous démarrez un conteneur et attendez 200 ms par appel. Monty comble cette lacune. Un import. Pas de démon. Pas de tirage d'image. Pas de risque d'évasion de conteneur. L'équipe de pydantic a construit cela pour alimenter le mode code dans PydanticAI -- où les LLMs écrivent du Python au lieu de faire des appels d'outils, et Monty l'exécute en toute sécurité. Cloudflare et Anthropic publient déjà sur ce paradigme exact....