8 architectures de modèles d'IA, expliquées visuellement : Tout le monde parle des LLM, mais il existe toute une famille de modèles spécialisés qui font des choses incroyables. Voici un rapide aperçu : 1. LLM (Modèles de Langage de Grande Taille) Le texte entre, est tokenisé en embeddings, traité par des transformateurs, et le texte sort. ↳ GPT, Claude, Gemini, Llama. 2. LCM (Modèles de Concept de Grande Taille) Fonctionne au niveau du concept, pas des tokens. L'entrée est segmentée en phrases, passée par des embeddings SONAR, puis utilise la diffusion avant la sortie. ↳ Le LCM de Meta est le pionnier. 3. LAM (Modèles d'Action de Grande Taille) Transforme l'intention en action. L'entrée passe par la perception, la reconnaissance d'intention, la décomposition des tâches, puis la planification d'action avec mémoire avant d'exécuter. ↳ Rabbit R1, Microsoft UFO, Claude Computer Use. 4. MoE (Mélange d'Experts) Un routeur décide quels "experts" spécialisés gèrent votre requête. Seuls les experts pertinents s'activent. Les résultats passent par la sélection et le traitement. ↳ Mixtral, GPT-4, DeepSeek. ...