Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Analyse indépendante des modèles d’IA et des fournisseurs d’hébergement - choisissez le meilleur modèle et le meilleur fournisseur d’API pour votre cas d’utilisation
Cerebras a démontré sa capacité à héberger de grands MoEs à des vitesses très élevées cette semaine, lançant les points de terminaison Qwen3 235B 2507 et Qwen3 Coder 480B à >1 500 tokens de sortie/s
➤ @CerebrasSystems propose désormais des points de terminaison pour Qwen3 235B 2507 Raisonnement & Non-raisonnement. Les deux modèles ont 235B de paramètres au total avec 22B actifs.
➤ Qwen 3 235B 2507 Raisonnement offre une intelligence comparable à o4-mini (élevé) & DeepSeek R1 0528. La variante Non-raisonnement offre une intelligence comparable à Kimi K2 et bien au-dessus de GPT-4.1 et Llama 4 Maverick.
➤ Qwen3 Coder 480B a 480B de paramètres au total avec 35B actifs. Ce modèle est particulièrement puissant pour le codage agentique et peut être utilisé dans une variété d'outils d'agent de codage, y compris le Qwen3-Coder CLI.
Les lancements de Cerebras représentent la première fois que ce niveau d'intelligence a été accessible à ces vitesses de sortie et ont le potentiel de débloquer de nouveaux cas d'utilisation - comme l'utilisation d'un modèle de raisonnement pour chaque étape d'un agent sans avoir à attendre des minutes.

23,6K
🇰🇷 LG a récemment lancé l'EXAONE 4.0 32B - il obtient un score de 62 sur l'Indice d'Analyse de l'Intelligence Artificielle, le score le plus élevé pour un modèle 32B à ce jour.
L'EXAONE 4.0 de @LG_AI_Research est disponible en deux variantes : le modèle hybride de raisonnement 32B dont nous rapportons ici les résultats de benchmark, et un modèle plus petit de 1,2B conçu pour des applications sur appareil que nous n'avons pas encore évalué.
Aux côtés de la récente sortie de Solar Pro 2 d'Upstage, il est excitant de voir les laboratoires d'IA coréens rejoindre les États-Unis et la Chine près du sommet des classements d'intelligence.
Résultats clés :
➤ 🧠 EXAONE 4.0 32B (Raisonnement) : En mode raisonnement, l'EXAONE 4.0 obtient un score de 62 sur l'Indice d'Analyse de l'Intelligence Artificielle. Cela correspond à Claude 4 Opus et au nouveau Llama Nemotron Super 49B v1.5 de NVIDIA, et se situe seulement à 1 point derrière Gemini 2.5 Flash.
➤ ⚡ EXAONE 4.0 32B (Non-Raisonnement) : En mode non-raisonnement, l'EXAONE 4.0 obtient un score de 51 sur l'Indice d'Analyse de l'Intelligence Artificielle. Il correspond à Llama 4 Maverick en intelligence malgré n'avoir qu'environ 1/4 des paramètres totaux (bien qu'il ait environ 2x les paramètres actifs).
➤ ⚙️ Tokens de sortie et verbosité : En mode raisonnement, l'EXAONE 4.0 a utilisé 100M de tokens de sortie pour l'Indice d'Analyse de l'Intelligence Artificielle. C'est plus élevé que certains autres modèles de pointe, mais cela s'aligne avec les tendances récentes des modèles de raisonnement utilisant plus de tokens de sortie pour 'penser plus' - similaire à Llama Nemotron Super 49B v1.5, Grok 4, et Qwen3 235B 2507 Raisonnement. En mode non-raisonnement, l'EXAONE 4.0 a utilisé 15M de tokens - élevé pour un non-raisonneur, mais pas aussi élevé que les 30M de Kimi K2.
Détails clés :
➤ Raisonnement hybride : Le modèle offre une option entre le mode 'raisonnement' et le mode 'non-raisonnement'.
➤ Disponibilité : Hébergé par @friendliai actuellement, et à un prix compétitif (surtout par rapport aux options propriétaires) par FriendliAI à 1 $ par 1M de tokens d'entrée et de sortie.
➤ Poids ouverts : L'EXAONE 4.0 est un modèle à poids ouverts disponible sous l'Accord de Licence du Modèle AI EXAONE 1.2. La licence limite l'utilisation commerciale.
➤ Multimodalité : Entrée et sortie uniquement textuelles.
➤ Fenêtre de contexte : 131k tokens.
➤ Paramètres : 32B de paramètres actifs et totaux, disponibles en précision 16 bits et 8 bits (ce qui signifie que le modèle peut être exécuté sur une seule puce H100 en pleine précision).

41,34K
Annonce du tableau des leaders de l'Arène d'Analyse Musicale Artificielle : avec plus de 5 000 votes, Suno v4.5 est le modèle de génération musicale leader, suivi par le FUZZ-1.1 Pro de Riffusion.
La Lyria 2 de Google se classe troisième dans notre tableau des leaders Instrumental, et l'Allegro v1.5 d'Udio se classe troisième dans notre tableau des leaders Vocals.
Le tableau des leaders Instrumental est le suivant :
🥇 @SunoMusic V4.5
🥈 @riffusionai FUZZ-1.1 Pro
🥉 @GoogleDeepMind Lyria 2
@udiomusic v1.5 Allegro
@StabilityAI Stable Audio 2.0
@metaai MusicGen
Les classements sont basés sur les votes de la communauté à travers une large gamme de genres et de prompts. Vous souhaitez voir votre prompt mis en avant ? Vous pouvez soumettre des prompts dans l'arène aujourd'hui.
👇 Voir ci-dessous pour le tableau des leaders Vocals et le lien pour participer !

21,95K
Changement de la demande modélisée de 2024 à 2025 : Google (+49pts), DeepSeek (+53pts) et xAI (+31pts) ont réalisé d'énormes gains en part de demande au cours de l'année passée.
@Google est passé d'un retard en IA à un leader en IA avec une augmentation d'environ 2,5 fois de la proportion de répondants utilisant ou considérant la série de modèles Gemini. Un facteur clé de cela a été les gains significatifs de Google en intelligence : Gemini 2.5 Pro se classe désormais au #3 de notre Indice d'Analyse de l'Intelligence Artificielle, comparé à un retard significatif derrière OpenAI et Anthropic au début de 2024.
@deepseek_ai au premier semestre 2024 n'avait sorti que DeepSeek 67B, un modèle qui a connu une adoption limitée et a sous-performé par rapport à Llama 3 70B. DeepSeek a d'abord connu une certaine adoption fin 2024 avec les sorties de leur modèle V2, puis a vu une adoption rapide au début de 2025 avec leurs modèles V3 et R1 qui les ont propulsés à la tête des modèles à poids ouverts.
@xai a lancé son premier modèle Grok-1 au milieu du premier semestre 2024 et a depuis rapidement gravi les échelons du leadership en intelligence à travers tous les modèles avec des sorties successives, culminant avec le lancement de Grok 4 la semaine dernière.
Source : Enquête sur l'Adoption de l'IA d'Analyse Artificielle H1 2025 (rapport disponible sur le site web d'Analyse Artificielle)

388,82K
Fournisseurs Kimi K2 : Groq sert Kimi K2 à >400 tokens/s, 40 fois plus rapide que l'API de première partie de Moonshot.
Félicitations à plusieurs fournisseurs pour avoir été rapides à lancer des API pour Kimi K2, y compris @GroqInc, @basetenco, @togethercompute, @FireworksAI_HQ, @parasail_io, @novita_labs, @DeepInfra, et bien sûr @Kimi_Moonshot. C'est impressionnant compte tenu de la taille du modèle avec 1 trillion de paramètres au total.
Groq se distingue par sa vitesse fulgurante. DeepInfra, Novita et Baseten se distinguent par leurs prix, étant les seuls fournisseurs à proposer des prix similaires ou moins chers que l'API de première partie de Moonshot.
Voir ci-dessous pour d'autres comparaisons entre les fournisseurs. Nous nous attendons à des augmentations rapides de la vitesse chez certains fournisseurs alors que les équipes s'optimisent pour le modèle K2 - nos chiffres ci-dessous montrent les vitesses médianes au cours des dernières 72 heures, mais nous voyons déjà DeepInfra atteindre 62 tokens/s dans les mesures d'aujourd'hui.

52,04K
Alors que Kimi k2 de Moonshot AI est le modèle non raisonneur à poids ouverts le plus performant dans l'Index d'Analyse Artificielle de l'Intelligence, il génère environ 3 fois plus de tokens que les autres modèles non raisonneurs, brouillant les frontières entre raisonnement et non raisonnement.
Kimi k2 est le plus grand modèle à poids ouverts majeur à ce jour - 1T de paramètres au total avec 32B actifs (cela nécessite une mémoire massive de 1 To en FP8 natif pour stocker les poids). Nous avons k2 à la 57e place dans l'Index d'Analyse Artificielle de l'Intelligence, un score impressionnant qui le place au-dessus de modèles comme GPT-4.1 et DeepSeek V3, mais derrière les modèles de raisonnement leaders.
Jusqu'à présent, il y avait une distinction claire entre les modèles de raisonnement et les modèles non raisonneurs dans nos évaluations - définie non seulement par le fait que le modèle utilise des balises <reasoning>, mais principalement par l'utilisation des tokens. Le nombre médian de tokens utilisés pour répondre à toutes les évaluations dans l'Index d'Analyse Artificielle de l'Intelligence est environ 10 fois plus élevé pour les modèles de raisonnement que pour les modèles non raisonneurs.
Le Kimi k2 de @Kimi_Moonshot utilise environ 3 fois le nombre de tokens que le modèle non raisonneur médian utilise. Son utilisation de tokens est seulement jusqu'à 30 % inférieure à celle de Claude 4 Sonnet et Opus lorsqu'ils sont exécutés en mode de réflexion étendu à budget maximum, et est presque triple de l'utilisation de tokens de Claude 4 Sonnet et Opus avec le raisonnement désactivé.
Nous recommandons donc que Kimi k2 soit comparé à Claude 4 Sonnet et Opus dans leurs modes de réflexion étendue à budget maximum, et non aux scores non raisonneurs pour les modèles Claude 4.
Kimi k2 est disponible sur l'API de première partie de @Kimi_Moonshot ainsi que sur @FireworksAI_HQ, @togethercompute, @novita_labs et @parasail_io.
Voir ci-dessous et sur l'Analyse Artificielle pour une analyse plus approfondie 👇



60,38K
L'API de recherche approfondie d'OpenAI coûte jusqu'à ~30 $ par appel API ! Ces nouveaux points de terminaison de l'API de recherche approfondie pourraient bien être le moyen le plus rapide de dépenser de l'argent.
Au cours de nos 10 requêtes de test de recherche approfondie, nous avons dépensé 100 $ sur o3 et 9,18 $ sur o4-mini. Comment les coûts peuvent-ils être si élevés ? Des prix élevés et des millions de jetons.
Ces points de terminaison sont des versions de o3 et o4-mini qui ont été RL'd pour des tâches de recherche approfondie. La disponibilité via l'API permet de les utiliser à la fois avec l'outil de recherche web d'OpenAI et des sources de données personnalisées via des serveurs MCP distants.
Le prix de o4-mini-deep-research est 5 fois inférieur à celui de o3-deep-research. Dans nos requêtes de test, o4-mini semble également utiliser moins de jetons - il est arrivé à coûter plus de 10 fois moins cher au total sur nos 10 requêtes de test.
Tarification :
➤ o3-deep-research est tarifé à 10 $ /M d'entrée (2,50 $ d'entrée mise en cache), 40 $ /M de sortie
➤ o4-mini-deep-research est tarifé à 2 $ /M d'entrée (0,5 $ d'entrée mise en cache), 8 $ /M de sortie
Ces points de terminaison sont tous deux considérablement plus chers que les points de terminaison standard o3 et o4-mini d'OpenAI - ceux-ci sont à :
➤ o3 : 2 $ /M (0,5 $ mis en cache) d'entrée, 8 $ /M de sortie pour o3
➤ o4-mini : 1,1 $ /M (0,275 mis en cache) d'entrée, 4,4 $ /M de sortie.

37,03K
Black Forest Labs va créer une multitude de nouvelles startups avec leur modèle d'édition d'image à poids ouverts publié aujourd'hui
- L'essayage virtuel va devenir 10 fois meilleur, mais ce n'est que le début. Nous verrons également de nouvelles expériences alors que les gens deviennent créatifs avec ces modèles (bien plus expansifs que les filtres de Snapchat et Instagram)
- Le modèle ne fait que 12B et peut être affiné sur du matériel grand public
- Des plateformes comme @FAL offrent un support complet pour l'entraînement LoRA
Crédit à @FAL pour l'image ci-dessous, ils ont un excellent article sur leur offre d'affinage (lien ci-dessous)

34,13K
L'édition d'images est maintenant open source ! Black Forest Labs vient de publier un modèle d'édition d'images avec des poids ouverts, comparable en performance aux modèles propriétaires.
@bfl_ml a lancé FLUX.1 Kontext [dev], un modèle d'édition d'images de 12 milliards de paramètres. Nous avons eu accès à la version préliminaire et avons testé ce modèle dans notre Arène d'Analyse d'Images Artificielle.
Nous avons vérifié de manière indépendante qu'il offre des performances comparables ou supérieures à un certain nombre de modèles propriétaires, y compris Gemini 2.0 Flash de Google et Bagel de ByteDance. FLUX.1 Kontext [dev] ne se classe qu'après les propres modèles propriétaires de Black Forest Labs et GPT-4o d'OpenAI.
Des API hébergées sont également disponibles sur @FAL, @replicate, @togethercompute.
Lien ci-dessous vers les poids sur HuggingFace 👐

24,57K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables