[ PHASE_01 : QUOTA_DEPRECIATION ]

1. De "l’IA sous abonnement" à l’IA sous rationnement

En février, l’enjeu était déjà clair : nous ne "possédons" pas Claude, nous louons des tranches de raisonnement, limitées par un abonnement Pro ou Max. Depuis mars, ce n’est plus seulement le montant du forfait qui compte, mais la façon dont il se vide : le même abonnement achète moins d’usage réel, moins de temps de session, moins de tentatives de raisonnement.

Sur le web, les tarifs européens de Claude sont aujourd’hui les suivants :

  • Claude Pro : 18 €/mois + taxe (ou 180 €/an + taxe)
  • Claude Max 5× : 90 €/mois + taxe
  • Claude Max 20× : 180 €/mois + taxe

Autrement dit, le schéma 20 $/100 $/200 $ annoncé par Anthropic est globalement respecté une fois la conversion et la TVA intégrées. En revanche, sur mobile, les mêmes offres transitent par les stores Apple/Google, qui ajoutent leur commission par-dessus la TVA : c’est ce qui explique les écrans à plus de 130 € pour un plan annoncé à 100 $, que des utilisateurs européens décrivent comme des "bugs de pricing".

La mécanique est subtile : le prix facial ne bouge presque pas sur le web, mais la valeur réelle du forfait diminue (sessions plus courtes, quotas qui se vident plus vite), et dans certains canaux, la couche store vient encore renchérir la facture. Ce n’est plus seulement une IA sous abonnement : c’est une IA sous rationnement, où chaque minute de raisonnement devient une ressource à écouler plus vite.

[ MACRO_ECONOMY : COMPUTE_GAP ]

2. Anthropic pris en étau : pénurie de GPU et calendrier boursier

D’un côté, Anthropic est lancé dans une fuite en avant financière. En quelques mois, l’entreprise a levé 13 Md$ (Series F) pour une valorisation d’environ 183 Md$, puis 30 Md$ supplémentaires (Series G) la propulsant autour de 380 Md$. Dans le même temps, les rumeurs d'une IPO dès 2026 se précisent, avec des objectifs de levée de plusieurs dizaines de milliards de dollars.

De l’autre, Anthropic fait face à une pénurie structurelle de ressources de calcul. Des analyses évoquent un "déficit de puissance de calcul en 2027", où la demande projetée dépasse la capacité GPU disponible. Pour sécuriser son avenir, l’entreprise a verrouillé jusqu’à 3,5 GW de puissance de calcul auprès de Google/Broadcom et envisage désormais de développer ses propres puces IA pour réduire sa dépendance aux fondeurs actuels.

La tension est simple : trop de demande, pas assez de GPU, et l’obligation de prouver une trajectoire de marges compatible avec une valorisation à 400 Md$. Il est plus "subtil" de rationner et de vendre plus cher ce qui est rare (temps de calcul, accès prioritaire) que d’annoncer frontalement une hausse de prix sur la landing page.

[ PRODUCT_STRATEGY : SECURITY_THEATER ]

3. Mythos : la sécurité comme produit de luxe

3.1. Un modèle "trop dangereux" pour le public

Avec Mythos, Anthropic change de registre narratif : il ne s’agit plus seulement d’un modèle généraliste plus puissant, mais d’une IA explicitement présentée comme trop dangereuse pour être mise entre toutes les mains. Dans les interviews et billets officiels, Mythos est décrit comme une arme capable de :

  • Analyser des bases de code massives pour découvrir des vulnérabilités à grande échelle
  • Assembler des chaînes d’exploits et des scénarios d’attaque sophistiqués
  • Automatiser des tâches de Red Teaming d’élite jusque-là réservées à des experts humains

L’argument de la dangerosité devient la clé de voûte de la communication : l'ouvrir au public serait "irresponsable", justifiant ainsi un contrôle total sur sa distribution.

3.2. Glasswing : club fermé et crédits massifs

Dans la pratique, Mythos est inaccessible via Claude Pro ou Max. Il est uniquement disponible via Project Glasswing, un partenariat fermé ciblant quelques dizaines d’acteurs stratégiques : fournisseurs cloud, équipementiers et banques systémiques.

Pour peupler Mythos de cas d’usage sans ouvrir les vannes, Anthropic déploie 100 M$ de crédits d’usage destinés aux participants de Glasswing. Le modèle le plus gourmand en compute est ainsi subventionné pour un petit cercle de grands comptes, capables de transformer ces tests en contrats pluriannuels massifs après la phase de preview.

3.3. Mytho‑logie tarifaire : le prétexte à la montée en gamme

Ce narratif de l’IA "trop dangereuse" remplit trois fonctions critiques :

  • Justifier un gating extrême : Anthropic évite une explosion de trafic public qu’elle n’a pas la capacité GPU de servir aujourd'hui.
  • Préparer un segment "cyber-élite" : Un modèle capable de défendre ou d’attaquer des infrastructures critiques se prête à une tarification par licence stratégique, très au-delà des abonnements classiques.
  • Rassurer Wall Street : Pour l'IPO de 2026, Mythos prouve qu'Anthropic vend une capacité de défense mondiale, monétisable auprès de clients étatiques et industriels.

C’est ici que la shadow inflation apparaît : les prix "grand public" stagnent, mais la valeur réelle, la cybersécurité offensive à grande échelle, glisse vers un segment premium inaccessible. La dangerosité devient l'argument parfait pour justifier un prix d’exception et un rationnement politique de l’accès au raisonnement.

[ USER_IMPACT : SHADOW_INFLATION ]

4. Claude Pro/Max : le forfait qui se vide plus vite

Officiellement, rien n’a bougé : Claude Pro reste à 20 $/mois (≈18 € + taxe en Europe) et Claude Max s'étage entre 100 $ (5× Pro) et 200 $ (20× Pro). Mais côté utilisateur, le constat est tout autre : le même forfait permet d’en faire moins, moins de sessions, moins de temps de travail continu, moins d’expérimentations, alors même que le prix affiché reste de marbre.

De l’abonnement au compteur

Début avril 2026, Anthropic a coupé un cordon ombilical stratégique : la possibilité, pour des frameworks comme OpenClaw, d’utiliser les quotas Pro/Max pour piloter Claude. Résultat immédiat : plus de 135 000 agents qui vivaient sous le parapluie de l’abonnement ont dû basculer sur l’API facturée au token et sur des extra-usages payants.

Les calculs FinOps sont brutaux : pour des workflows continus, la facture passe d'un plafond à 200 $/mois à des milliers de dollars. Certains scénarios d’agents 24/7 atteignent désormais des ordres de grandeur de 1 000 à 5 000 $/jour. Pro/Max n’est plus un "tout compris", c'est un ticket d’entrée marketing : l'illimité s'arrête là où l'industrialisation commence.

Renchérir par la technique

Côté API, Anthropic n’a pas besoin d’augmenter le prix nominal pour renchérir l’usage réel :

  • Nouveau Tokenizer : Introduit en 2026, il génère jusqu’à 30–35 % de tokens en plus pour le même texte brut. La facture monte mécaniquement, même si le prix au million de tokens reste statique.
  • Multiplicateurs d'usage : Des options comme le fast mode, les contextes extra-longs ou les exigences de résidence des données imposent des surcoûts qui peuvent doubler le prix effectif de la requête.

L’IA suit ici la trajectoire des grands fournisseurs cloud : un prix facial simple et rassurant, et une réalité opérationnelle faite de surcharges, de quotas et de pénalités qui transforment progressivement le forfait en un compteur impitoyable.

[ INCIDENT_REPORT : QUOTA_EXHAUSTION ]

5. Claude Code : quotas fantômes et trompe‑l’œil

À partir du 23 mars 2026, les plaintes se multiplient sur GitHub : des utilisateurs Claude Max décrivent des situations où une charge de travail consommant auparavant 20–30 % d’une fenêtre de 5 heures en consomme désormais 80–100 %. En pratique, la même session se vide en 1 à 2 heures au lieu des 5 prévues.

Sous la pression, Anthropic a fini par reconnaître un throttling massif aux heures de pointe. Entre 13 h et 19 h GMT, les fenêtres de 5 h sont consommées plus rapidement pour absorber la charge mondiale. En clair : si vous codez aux heures de bureau, votre fenêtre de 5 h n’en fait plus vraiment 5.

[ LE BUG DU CACHE : L'INFLATION SILENCIEUSE ]

Un bug de prompt caching transforme actuellement le système en passoire. Normalement, Claude Code utilise un cache pour ne pas refacturer l'historique à chaque tour. Mais suite à des régressions de version, le cache cesse d'être relu : chaque nouveau tour reconstruit silencieusement toute la conversation.

  • Effet multiplicateur : Sur des sessions avec 300k tokens de contexte, chaque message est facturé comme un cold start complet, vidant un quota Max en 3 ou 4 tours.
  • Évaporation du TTL : Le Time-To-Live du cache est passé de 1 heure à 5 minutes, multipliant les cache misses et les reconstructions coûteuses.

L'erreur technique tombe systématiquement du côté qui coûte le plus cher à servir : elle frappe d'abord les clients Max les plus intensifs, renforçant l'idée d'un compteur à la sensibilité extrême.

[ MODEL_DEGRADATION : OPUS_4.6 ]

6. Opus 4.6 / 4.7 : optimiser le GPU, dégrader le raisonnement ?

Côté qualité, la situation se tend également. Sur les forums spécialisés, les retours convergent : Opus 4.6 semble halluciner davantage qu’Opus 4.5, avec une recrudescence de faits inventés et un non‑respect des consignes sur des tâches pourtant routinières.

Un benchmark indépendant sur BridgeBench vient confirmer ce ressenti par les chiffres : en quelques semaines seulement, le taux d’hallucination d’Opus 4.6 a doublé, passant de 16,7 % à 33,0 % sur un panel de tests standardisés.

En conséquence, le modèle a chuté à la 10ème place des classements de fiabilité. En cause : des techniques d'optimisation comme la quantization, la réduction de la précision numérique des poids du modèle pour servir plus d’utilisateurs sur le même hardware.

L’intuition est brutale mais cohérente avec la stratégie globale d'Anthropic : faire rentrer plus d’utilisateurs sur une infrastructure en tension a un coût direct en qualité. Ce coût se paye en erreurs silencieuses et en un raisonnement moins fiable pour l'utilisateur final.

[ TACTICAL_SUMMARY : STRATEGIC_ANALYSIS ]

7. Lecture d’ensemble : rationner sans le dire

En recollant tous les signaux faibles observés ces derniers mois, la stratégie d’Anthropic devient parfaitement lisible. Elle s'articule autour de trois piliers de survie économique :

  • Rationner la puissance de calcul : Limitation assumé aux heures de pointe (fenêtres de 5h s'épuisant en 90 minutes), quotas qui fondent anormalement vite, bugs de cache multipliant la consommation par 20 sur les gros contextes, et bascule forcée de 135 000 agents vers l’API payante.
  • Premiumiser le raisonnement : Mythos est gardé sous cloche (Glasswing) au nom de la "dangerosité", tandis qu'Opus 4.7 maintient son prix facial mais s’appuie sur un tokenizer 30 % plus verbeux et des options techniques (fast mode) qui renchérissent chaque requête réelle.
  • Préparer l’IPO : Avec une valorisation cible à 380 Md$ et des rumeurs d’introduction en 2026, Anthropic doit démontrer à Wall Street qu’elle sait facturer très cher des modèles présentés comme critiques, tout en gérant une infrastructure GPU sous-dimensionnée.

Dit autrement : la rareté du GPU et le calendrier boursier dictent désormais la forme de Claude et de Mythos bien plus que les besoins des utilisateurs. Tant que nous acceptons cette opacité, la souveraineté numérique reste un slogan ; dès qu’on la prend au sérieux, elle devient un choix de rupture à opérer contre ce modèle de rationnement.

[ FINAL_VERDICT : STRATEGIC_DEPENDENCY ]

8. Et maintenant ?

Nous sommes entrés dans l’ère du raisonnement sous rationnement, calibré pour une infrastructure en tension permanente et une introduction en bourse imminente. Le problème n’est plus seulement technique ou tarifaire : il est éminemment politique.

Trois questions s’imposent désormais :

  • Que signifie la souveraineté numérique quand notre capacité de défense cyber, audits de code, détection de vulnérabilités, simulations d’attaque, dépend de quotas opaques sur des GPU américains gérés par des intérêts privés ?
  • Jusqu’où accepterons‑nous que la "sécurité" serve de prétexte à un gating économique extrême, réservant les modèles d'élite comme Mythos à une poignée d’acteurs privilégiés pendant que le reste du monde subit des versions ralenties et quantisées ?
  • Quel espace laissons‑nous à des alternatives ouvertes qui ne soient pas alignées sur une logique de valorisation boursière, mais sur des objectifs de résilience, de transparence et d’intérêt général ?

Derrière le mythe de Mythos, c’est bien de notre dépendance stratégique à quelques API qu’il est question. Le vrai choix se joue ici : continuer à optimiser nos prompts pour ces boîtes noires, ou décider que la souveraineté des modèles, données, GPU, gouvernance, n’est plus une option de long terme, mais un chantier immédiat.

ANALYSE TERMINÉE // AI_ECONOMY_2026 // KACHOURI_STUDIO
[ WRAP_UP : SYSTEM_STATUS_FINAL ]

9. Conclusion : l'illusion de l'abondance

Anthropic raconte une histoire séduisante : des modèles toujours plus puissants, protégés par un vernis de "sécurité" et d’"alignement". Dans les faits, les signaux faibles racontent autre chose : rationnement de GPU, forfaits qui se vident plus vite, bugs qui frappent surtout les utilisateurs intensifs, et modèles les plus sensibles réservés à une élite sous couvert de dangerosité.

Nous sommes passés de l’IA "sous abonnement" à l’IA sous rationnement, pilotée par un calendrier boursier et des deals d’infrastructure multi‑gigawatts plus que par l’intérêt général. Tant que notre capacité de raisonnement, de création et de défense cyber dépend de quelques API américaines, la souveraineté n’est qu’un slogan.

La vraie question n’est plus “quels modèles utiliser ?” mais "qui contrôle les GPU, les modèles et les règles du jeu ?" et quelles alternatives nous sommes prêts à construire pour ne plus subir ces choix.

MISSION_ACCOMPLIE // AI_SOVEREIGNTY_2026 // KACHOURI_STUDIO
[ KNOWLEDGE_BASE : REFERENCES ]

10. Pour aller plus loin : Sources et références

Officiel Anthropic

Financement, Compute et IPO

Quotas, Rationnement et Qualité