Synthèse des offres

Etablir la synthèse

Je souhaitais proposer un tableau de synthèse au moins pour les offres des fournisseurs les plus en vue.

J’ai donc tenté de poser directement la question aux intéressés, les LLMs !

J’avoue avoir eu quelques difficultés pour obtenir un tableau suffisamment synthétique et contenant des informations exactes. En effet, malgré un prompt que j’ai essayé de rendre plutôt précis, les résultats provenant de ChatGPT, Mistral ou Gemini étaient bourrés d’imprécisions ou d’erreurs ! Les liens demandés n’étaint pas forcément à jour (obsolètes ou erronés) et les tarifs inexacts voire inventés.

Voilà un cas où les LLM m’ont fait perdre pas mal eu temps (tant que ce n’est pas de l’argent 😄) !

Crée un tableau complet en Markdown (.md) des principaux LLM et assistants IA en 2026, incluant ces colonnes :

- Produit
- Propriétaire / éditeur
- Outils finaux (web, IDE, Office…)
- Modèles proposés ou utilisés : Les plus récents seulement et un lien vers la page officielle
- Fournisseur du modèle
- Type de collaboration / partenariat
- Hébergement (cloud, local…)
- Modalité du mode gratuit si existe (quelle est la limite en nombre de requêtes ou de token ?)
- Page officielle concernant la tarification sous forme [tarif] (lien)
- Un point fort et un point faible

Inclue tous les grands acteurs : OpenAI (ChatGPT), Anthropic (Claude), Google (Gemini), Microsoft (Copilot), GitHub Copilot, Mistral (Le Chat), Meta (LLaMA), Perplexity, Grok/X, DeepSeek.

Face à ça, s’en est suivi le fameux ping-pong pour essayer d’obtenir ce que je souhaitais. Vous connaissez la programmation… J’ai déjà évoqué la notion de méta-programmation. Eh bien, avec les LLM, c’est un peu la même chose : on peut leur fournir le prompt mais on peut aussi leur demander de corriger le prompt qu’ils auraient bien voulu avoir pour éviter les erreurs et autres hallucinations, du meta-prompting. L’idée est de pourvoir réitérer la demande en une seule passe sans devoir rejouer au ping-pong et que le résultat soit relativement déterministe (un peu utopique quand on sait que les réponses reposent sur des probabilités).

Voici ce que j’ai obtenu :

# PROMPT COMPLET – Benchmark LLM 2026 en Markdown

## Objectif
Créer un **tableau comparatif exhaustif en Markdown (.md)** des principaux LLM et assistants IA mondiaux en 2026.

## Portée
Inclure :
- Acteurs USA, Europe et Chine
- Modèles open-weight significatifs
- Assistants grand public et B2B
- Fournisseurs API cloud
- Acteurs spécialisés code, recherche et multimodal

Ne pas limiter la liste aux noms donnés. Ajouter **tout acteur majeur mondial** si :
- Modèle classé SOTA
- Adoption massive en entreprise
- Forte présence géographique
- Impact stratégique (prix, open-weight, intégrations)

## Acteurs minimum à inclure
OpenAI (ChatGPT), Anthropic (Claude), Google (Gemini), Microsoft (Copilot),  GitHub Copilot, AWS(Nova, Titan), Mistral (Le Chat), Meta (LLaMA), Perplexity, xAI (Grok), DeepSeek, Alibaba (Qwen)

## Colonnes du tableau (obligatoires)
- Produit  
- Propriétaire / éditeur  
- Pays d’origine  
- Outils finaux (Web, IDE, Office, API…)  
- Modèles les plus récents (avec lien officiel vers documentation)  
- Fournisseur du modèle  
- Type de collaboration / partenariat  
- Hébergement (Cloud, local, hybride)  
- Contexte maximal (tokens)  
- Mode gratuit (limites précises)  
- Mode abonnement (€/mois)  
- Facturation token API (€/1M tokens input/output)  
- Page officielle tarification  
- Gouvernance des données et protection
- Point fort  
- Point faible

## Règles strictes
1. Vérifier les modèles sur la **documentation officielle** de chaque fournisseur.
2. Indiquer uniquement les modèles **actifs et récents**.
3. Exclure les modèles dépréciés ou en fin de vie.
4. Fournir le **lien exact vers la documentation officielle**. Le lien doit être de type [page officielle](lien http).
5. Fournir le **lien exact vers la page de tarification officielle**. [tarif](lien http).
6. Ne pas inventer de prix ou de versions.
7. Si une donnée n’est pas confirmée officiellement, écrire **"Non confirmé officiellement"**.
8. Indiquer la date de dernière mise à jour si possible.
9. Si navigation web non disponible, indiquer explicitement que **l’information peut être obsolète**.

## Sortie
- **Format Markdown** uniquement
- Tableau prêt à copier-coller avec toutes les colonnes
- Priorité : exactitude et vérifiabilité

ChatGpt, en mode gratuit, n’a pas réussi vraiment à récupérer l’information de differentes sources Web :

Je n’ai pas accédé (via navigation) à chaque documentation officielle demandée pour tous les modèles et fournisseurs mentionnés. Certaines informations (contextes, prix, modes, limites gratuites, liens directs) proviennent de sources secondaires (comparateurs, blogs), ce qui peut être obsolète ou approximatif par rapport aux pages officielles. Les champs marqués Non confirmé officiellement doivent être validés avec la documentation officielle du fournisseur.

Par contre, Mistral s’en est bien sorti ! Cocorico!
De là à certifier que toutes les informations sont exactes…. en tout cas les liens fonctionnent, c’est déjà ça.

Synthèse du Chat de Mistral

Produit Propriétaire Pays Outils finaux Modèles récents Hébergement Contexte max (tokens) Gratuit (limites) Abonnement (€/mois) API (€/1M tokens in/out) Tarification Gouvernance/Protection Point fort Point faible
ChatGPT OpenAI USA Web, API, VS Code, Office, Slack, Azure GPT-5.2 Instant/Thinking Cloud/Azure 2M 50 messages/jour (GPT-5.1) Plus: 20$ ; Enterprise: sur devis Input: 1.25€/1M, Output: 3.75€/1M OpenAI Pricing Opt-out entraînement, RGPD/CCPA Meilleure intelligence générale Coût élevé, latence occasionnelle
Claude Anthropic USA Web, API, AWS Bedrock, Vertex AI, Slack Opus 4.6, Sonnet 4.5 Cloud/AWS/Vertex 1M 50 requêtes/jour (Opus 4.5) Pro: 17$ ; Max: 100$ Input: 5€/1M, Output: 25€/1M Anthropic Pricing Constitutional AI, prompt caching Sécurité, faible hallucination Prix outputs, latence mode "fast"
Gemini Google USA Web, API, Workspace, Android, Vertex AI Gemini 3.1 Pro, Flash-Lite Cloud/Vertex 1M Flash-Lite gratuit (limites RPM) Pro: 19.99$ ; Enterprise: sur devis Input: 1.25€/1M, Output: 10€/1M (Pro) Gemini Pricing RGPD, résidence données Multimodal, recherche web native Tarification complexe
Microsoft Copilot Microsoft USA Office 365, Windows, Teams, Azure GPT-5.2 (via Azure OpenAI) Cloud/Azure 2M Fonctionnalités limitées sans 365 Business: 21$ ; Enterprise: 30$/user Intégré aux abonnements 365 Copilot Pricing ISO 27001, chiffrement Intégration Microsoft 365 Dépendance écosystème Microsoft
Le Chat Mistral AI France Web, API, Mistral Studio, NVIDIA Mistral Large 3, Devstral 2 Cloud/On-premise 1M Modèles Small/Medium gratuits Pro: 14.99€ ; Team/Enterprise: sur devis Input: 2€/1M, Output: 6€/1M Mistral Pricing Open-weight (Apache 2.0), hébergement EU Latence faible, prix compétitifs Écosystème partenaire en développement
AWS Bedrock (Nova/Titan) Amazon Web Services USA API, AWS Console, SageMaker, Lambda, S3, outils partenaires (LangChain, LlamaIndex) Nova Micro/Lite/Pro, Titan Text/Embeddings/Image Cloud (AWS Bedrock) 2M (Nova Pro), 32K (Titan Text) 1 000 tokens/jour (Nova Micro), 5 000 tokens/jour (Titan Lite) Pay-as-you-go (pas d'abonnement) Nova Micro: 0,035€/1M in, 0,14€/1M out
Nova Pro: 0,80€/1M in, 2,40€/1M out
Titan Text Express: 0,80€/1M in, 1,60€/1M out
Titan Image: 0,04–0,06€/image
AWS Bedrock Pricing Chiffrement AES-256, conformité ISO 27001/SOC 2/RGPD,
Pas d'utilisation des prompts pour l'entraînement,
Guardrails et Knowledge Bases intégrés
Nova : Meilleur rapport performance/prix, contexte long (2M),
Titan : Multimodal, embeddings précis, stable pour l'entreprise,
Intégration native avec AWS (S3, Lambda, RAG)
Tarification complexe, courbe d'apprentissage AWS,
Limites de quota en on-demand, moins de documentation que OpenAI/Google
Meta AI (Llama) Meta USA meta.ai, Facebook, WhatsApp, API Llama 4 Maverick, Llama 3.1 405B Cloud/On-premise 10M (Scout) Open-weight gratuit (limites API) API: pay-as-you-go (ex: 0.19€/1M blended) Input: 0.02€/1M, Output: 0.05€/1M (Llama 3.1) Meta Llama Pricing Open-source, pas de rétention données Contexte ultra-long, valeur open-source Support entreprise limité
GitHub Copilot GitHub/Microsoft USA VS Code, JetBrains, CLI, GitHub.com GPT-5.2 Codex, Claude Opus 4.5 Cloud/Azure 2M 50 requêtes premium/mois (Free) Pro: 10$ ; Pro+: 39$ ; Business: 19$/user Intégré aux abonnements GitHub GitHub Copilot Pricing SOC 2, pas d’entraînement sur le code Intégration IDE optimale Coût cumulé avec GitHub
Perplexity Perplexity AI USA Web, API, Comet Browser Sonar Pro, Sonar Reasoning Pro Cloud 1M Recherche basique gratuite Pro: 20$ ; Enterprise: 40$/user API: 1€/1M input, 5€/1M output Perplexity Pricing Recherche web native, citations transparentes Multi-modèles en parallèle Moins adapté au coding avancé
Grok xAI USA grok.com, X (Twitter), API Grok 4.1 Fast, Grok 4 Cloud/xAI 2M Accès limité sur X Premium+ SuperGrok: 30$ ; API: 0.20€/1M input, 0.50€/1M output xAI Pricing Données temps réel via X Prix agressifs, modèle "anti-woke" Transparence limitée