Mistral AI, l’entreprise française spécialisée dans l’intelligence artificielle, lance sa nouvelle famille de modèles de langage, Mistral 3. Cette génération comprend trois modèles compacts ainsi qu’une version majeure, Mistral Large 3. Cette annonce intervient peu après la présentation de GPT-5.1 d’OpenAI, Gemini 3 de Google, Claude Opus 4.5 d’Anthropic et DeepSeek-V3.2.
Mistral Large 3 se distingue par son architecture Mixture-of-Experts (MoE) clairsemée, la première depuis la famille Mixtral. Entraîné sur 3 000 GPU Nvidia H200, il totalise 675 milliards de paramètres, dont 41 milliards sont actifs lors de l’inférence.

Compétences avancées
Ce modèle rivalise avec les meilleures solutions open-weight actuelles, démontre des compétences avancées en compréhension d’images et excelle dans les conversations multilingues, particulièrement hors du couple anglais-chinois. Sur le classement LMArena, il se positionne à la deuxième place parmi les modèles open source sans raisonnement.
Les versions de base et d’instruction sont disponibles immédiatement pour permettre la personnalisation en entreprise, tandis qu’une variante axée sur le raisonnement est prévue prochainement. Pour garantir une accessibilité maximale, Mistral a collaboré avec Nvidia, Red Hat et vLLM. Cette co-conception logicielle et matérielle permet :
- un point de contrôle au format NVFP4 optimisé pour l’exécution via llm-compressor,
- une compatibilité serveur sur un nœud unique 8×A100 ou 8×H100 et sur les systèmes Blackwell NVL72,
- une intégration avancée avec TensorRT-LLM pour une inférence efficace sur toute la famille Mistral 3.
Ces optimisations permettent de gérer des charges de travail à haut débit et à long contexte, du data center jusqu’aux robots.
Pour les usages locaux et Edge, Mistral propose la famille Ministral 3, disponible en trois tailles de paramètres : 3B, 8B et 14B. Contrairement au modèle Large, ces versions denses sont proposées en trois variantes : base, instruction et raisonnement. Elles visent le meilleur rapport performance-coût du marché et offrent, dans des conditions réelles, des performances égales ou supérieures à leurs concurrents tout en générant moins de tokens, augmentant ainsi leur efficacité.
La variante de raisonnement de 14 milliards de paramètres atteint 85 % sur le benchmark AIME ’25 et intègre des capacités natives de compréhension d’image, fournissant une solution complète pour les besoins des développeurs.






Laisser un commentaire