| Prix entrée/sortie (par 1M tokens, 2026) | Large 2 : 2 $ / 6 $ — Small : 0,20 $ / 0,60 $ | Sonnet 4.5 : 3 $ / 15 $ — Haiku : 0,80 $ / 4 $ | GPT-4o : 2,50 $ / 10 $ — GPT-4o mini : 0,15 $ / 0,60 $ |
| Latence (première réponse) | ~300-500 ms (Large via API EU) | ~400-700 ms (Sonnet 4.5) | ~300-600 ms (GPT-4o) |
| Fenêtre de contexte | 128 k tokens (Large 2) | 200 k tokens (jusqu'à 1 M pour Sonnet en bêta) | 128 k tokens (GPT-4o) |
| Multilingue (français) | Excellent — modèle français natif, terminologie précise | Excellent — surpasse même GPT-4 sur les nuances métier FR | Très bon — quelques anglicismes parasites en sortie longue |
| Function calling / tool use | Bon — schema JSON, parallel calls supportés | Excellent — extended thinking + tool use combinés, robuste | Excellent — référence historique du function calling |
| Vision (images, PDF, OCR) | Pixtral Large — bon en OCR FR | Sonnet 4.5 — référence sur extraction de documents complexes | GPT-4o — très bon, parfois moins précis que Claude sur layout complexe |
| Fine-tuning | Oui (Mistral Large, Small) + open weights pour self-host | Pas de fine-tuning public en 2026 (priorité à l'in-context learning) | Oui (GPT-4o mini, GPT-4.1) via OpenAI Platform |
| Hébergement EU / souveraineté | API hébergée en UE (France) · open weights → self-host complet | AWS Bedrock EU disponible · pas d'open weights | Azure OpenAI Europe disponible · pas d'open weights |