Synthèse des offres
Etablir la synthèse
Je souhaitais proposer un tableau de synthèse au moins pour les offres des fournisseurs les plus en vue.
J’ai donc tenté de poser directement la question aux intéressés, les LLMs !
J’avoue avoir eu quelques difficultés pour obtenir un tableau suffisamment synthétique et contenant des informations exactes. En effet, malgré un prompt que j’ai essayé de rendre plutôt précis, les résultats provenant de ChatGPT, Mistral ou Gemini étaient bourrés d’imprécisions ou d’erreurs ! Les liens demandés n’étaint pas forcément à jour (obsolètes ou erronés) et les tarifs inexacts voire inventés.
Voilà un cas où les LLM m’ont fait perdre pas mal eu temps (tant que ce n’est pas de l’argent 😄) !
Crée un tableau complet en Markdown (.md) des principaux LLM et assistants IA en 2026, incluant ces colonnes :
- Produit
- Propriétaire / éditeur
- Outils finaux (web, IDE, Office…)
- Modèles proposés ou utilisés : Les plus récents seulement et un lien vers la page officielle
- Fournisseur du modèle
- Type de collaboration / partenariat
- Hébergement (cloud, local…)
- Modalité du mode gratuit si existe (quelle est la limite en nombre de requêtes ou de token ?)
- Page officielle concernant la tarification sous forme [tarif] (lien)
- Un point fort et un point faible
Inclue tous les grands acteurs : OpenAI (ChatGPT), Anthropic (Claude), Google (Gemini), Microsoft (Copilot), GitHub Copilot, Mistral (Le Chat), Meta (LLaMA), Perplexity, Grok/X, DeepSeek.
Face à ça, s’en est suivi le fameux ping-pong pour essayer d’obtenir ce que je souhaitais. Vous connaissez la programmation… J’ai déjà évoqué la notion de méta-programmation. Eh bien, avec les LLM, c’est un peu la même chose : on peut leur fournir le prompt mais on peut aussi leur demander de corriger le prompt qu’ils auraient bien voulu avoir pour éviter les erreurs et autres hallucinations, du meta-prompting. L’idée est de pourvoir réitérer la demande en une seule passe sans devoir rejouer au ping-pong et que le résultat soit relativement déterministe (un peu utopique quand on sait que les réponses reposent sur des probabilités).
Voici ce que j’ai obtenu :
# PROMPT COMPLET – Benchmark LLM 2026 en Markdown
## Objectif
Créer un **tableau comparatif exhaustif en Markdown (.md)** des principaux LLM et assistants IA mondiaux en 2026.
## Portée
Inclure :
- Acteurs USA, Europe et Chine
- Modèles open-weight significatifs
- Assistants grand public et B2B
- Fournisseurs API cloud
- Acteurs spécialisés code, recherche et multimodal
Ne pas limiter la liste aux noms donnés. Ajouter **tout acteur majeur mondial** si :
- Modèle classé SOTA
- Adoption massive en entreprise
- Forte présence géographique
- Impact stratégique (prix, open-weight, intégrations)
## Acteurs minimum à inclure
OpenAI (ChatGPT), Anthropic (Claude), Google (Gemini), Microsoft (Copilot), GitHub Copilot, AWS(Nova, Titan), Mistral (Le Chat), Meta (LLaMA), Perplexity, xAI (Grok), DeepSeek, Alibaba (Qwen)
## Colonnes du tableau (obligatoires)
- Produit
- Propriétaire / éditeur
- Pays d’origine
- Outils finaux (Web, IDE, Office, API…)
- Modèles les plus récents (avec lien officiel vers documentation)
- Fournisseur du modèle
- Type de collaboration / partenariat
- Hébergement (Cloud, local, hybride)
- Contexte maximal (tokens)
- Mode gratuit (limites précises)
- Mode abonnement (€/mois)
- Facturation token API (€/1M tokens input/output)
- Page officielle tarification
- Gouvernance des données et protection
- Point fort
- Point faible
## Règles strictes
1. Vérifier les modèles sur la **documentation officielle** de chaque fournisseur.
2. Indiquer uniquement les modèles **actifs et récents**.
3. Exclure les modèles dépréciés ou en fin de vie.
4. Fournir le **lien exact vers la documentation officielle**. Le lien doit être de type [page officielle](lien http).
5. Fournir le **lien exact vers la page de tarification officielle**. [tarif](lien http).
6. Ne pas inventer de prix ou de versions.
7. Si une donnée n’est pas confirmée officiellement, écrire **"Non confirmé officiellement"**.
8. Indiquer la date de dernière mise à jour si possible.
9. Si navigation web non disponible, indiquer explicitement que **l’information peut être obsolète**.
## Sortie
- **Format Markdown** uniquement
- Tableau prêt à copier-coller avec toutes les colonnes
- Priorité : exactitude et vérifiabilité
ChatGpt, en mode gratuit, n’a pas réussi vraiment à récupérer l’information de differentes sources Web :
Je n’ai pas accédé (via navigation) à chaque documentation officielle demandée pour tous les modèles et fournisseurs mentionnés. Certaines informations (contextes, prix, modes, limites gratuites, liens directs) proviennent de sources secondaires (comparateurs, blogs), ce qui peut être obsolète ou approximatif par rapport aux pages officielles. Les champs marqués Non confirmé officiellement doivent être validés avec la documentation officielle du fournisseur.
Par contre, Mistral s’en est bien sorti ! Cocorico!
De là à certifier que toutes les informations sont exactes…. en tout cas les liens fonctionnent, c’est déjà ça.
Synthèse du Chat de Mistral
| Produit | Propriétaire | Pays | Outils finaux | Modèles récents | Hébergement | Contexte max (tokens) | Gratuit (limites) | Abonnement (€/mois) | API (€/1M tokens in/out) | Tarification | Gouvernance/Protection | Point fort | Point faible |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| ChatGPT | OpenAI | USA | Web, API, VS Code, Office, Slack, Azure | GPT-5.2 Instant/Thinking | Cloud/Azure | 2M | 50 messages/jour (GPT-5.1) | Plus: 20$ ; Enterprise: sur devis | Input: 1.25€/1M, Output: 3.75€/1M | OpenAI Pricing | Opt-out entraînement, RGPD/CCPA | Meilleure intelligence générale | Coût élevé, latence occasionnelle |
| Claude | Anthropic | USA | Web, API, AWS Bedrock, Vertex AI, Slack | Opus 4.6, Sonnet 4.5 | Cloud/AWS/Vertex | 1M | 50 requêtes/jour (Opus 4.5) | Pro: 17$ ; Max: 100$ | Input: 5€/1M, Output: 25€/1M | Anthropic Pricing | Constitutional AI, prompt caching | Sécurité, faible hallucination | Prix outputs, latence mode "fast" |
| Gemini | USA | Web, API, Workspace, Android, Vertex AI | Gemini 3.1 Pro, Flash-Lite | Cloud/Vertex | 1M | Flash-Lite gratuit (limites RPM) | Pro: 19.99$ ; Enterprise: sur devis | Input: 1.25€/1M, Output: 10€/1M (Pro) | Gemini Pricing | RGPD, résidence données | Multimodal, recherche web native | Tarification complexe | |
| Microsoft Copilot | Microsoft | USA | Office 365, Windows, Teams, Azure | GPT-5.2 (via Azure OpenAI) | Cloud/Azure | 2M | Fonctionnalités limitées sans 365 | Business: 21$ ; Enterprise: 30$/user | Intégré aux abonnements 365 | Copilot Pricing | ISO 27001, chiffrement | Intégration Microsoft 365 | Dépendance écosystème Microsoft |
| Le Chat | Mistral AI | France | Web, API, Mistral Studio, NVIDIA | Mistral Large 3, Devstral 2 | Cloud/On-premise | 1M | Modèles Small/Medium gratuits | Pro: 14.99€ ; Team/Enterprise: sur devis | Input: 2€/1M, Output: 6€/1M | Mistral Pricing | Open-weight (Apache 2.0), hébergement EU | Latence faible, prix compétitifs | Écosystème partenaire en développement |
| AWS Bedrock (Nova/Titan) | Amazon Web Services | USA | API, AWS Console, SageMaker, Lambda, S3, outils partenaires (LangChain, LlamaIndex) | Nova Micro/Lite/Pro, Titan Text/Embeddings/Image | Cloud (AWS Bedrock) | 2M (Nova Pro), 32K (Titan Text) | 1 000 tokens/jour (Nova Micro), 5 000 tokens/jour (Titan Lite) | Pay-as-you-go (pas d'abonnement) | Nova Micro: 0,035€/1M in, 0,14€/1M out Nova Pro: 0,80€/1M in, 2,40€/1M out Titan Text Express: 0,80€/1M in, 1,60€/1M out Titan Image: 0,04–0,06€/image | AWS Bedrock Pricing | Chiffrement AES-256, conformité ISO 27001/SOC 2/RGPD, Pas d'utilisation des prompts pour l'entraînement, Guardrails et Knowledge Bases intégrés | Nova : Meilleur rapport performance/prix, contexte long (2M), Titan : Multimodal, embeddings précis, stable pour l'entreprise, Intégration native avec AWS (S3, Lambda, RAG) | Tarification complexe, courbe d'apprentissage AWS, Limites de quota en on-demand, moins de documentation que OpenAI/Google |
| Meta AI (Llama) | Meta | USA | meta.ai, Facebook, WhatsApp, API | Llama 4 Maverick, Llama 3.1 405B | Cloud/On-premise | 10M (Scout) | Open-weight gratuit (limites API) | API: pay-as-you-go (ex: 0.19€/1M blended) | Input: 0.02€/1M, Output: 0.05€/1M (Llama 3.1) | Meta Llama Pricing | Open-source, pas de rétention données | Contexte ultra-long, valeur open-source | Support entreprise limité |
| GitHub Copilot | GitHub/Microsoft | USA | VS Code, JetBrains, CLI, GitHub.com | GPT-5.2 Codex, Claude Opus 4.5 | Cloud/Azure | 2M | 50 requêtes premium/mois (Free) | Pro: 10$ ; Pro+: 39$ ; Business: 19$/user | Intégré aux abonnements GitHub | GitHub Copilot Pricing | SOC 2, pas d’entraînement sur le code | Intégration IDE optimale | Coût cumulé avec GitHub |
| Perplexity | Perplexity AI | USA | Web, API, Comet Browser | Sonar Pro, Sonar Reasoning Pro | Cloud | 1M | Recherche basique gratuite | Pro: 20$ ; Enterprise: 40$/user | API: 1€/1M input, 5€/1M output | Perplexity Pricing | Recherche web native, citations transparentes | Multi-modèles en parallèle | Moins adapté au coding avancé |
| Grok | xAI | USA | grok.com, X (Twitter), API | Grok 4.1 Fast, Grok 4 | Cloud/xAI | 2M | Accès limité sur X Premium+ | SuperGrok: 30$ ; API: 0.20€/1M input, 0.50€/1M output | xAI Pricing | Données temps réel via X | Prix agressifs, modèle "anti-woke" | Transparence limitée |