Le 13 mars 2026, Anthropic a offert à tous les utilisateurs de Claude un cadeau : un usage doublé en dehors des heures de pointe. Pendant deux semaines, les limites semblaient généreuses. Le travail avançait. Vous avez adapté votre emploi du temps, déplacé les tâches lourdes aux heures creuses, et votre cerveau a silencieusement recalibré ce à quoi ressemblait la « normale ».

Le 28 mars, la promotion a pris fin.

Et tout s’est effondré.

Les chiffres ne mentent pas

En quelques jours, Reddit, X et GitHub ont été inondés de plaintes. Des abonnés Max 5x — qui paient 100 $ par mois — ont rapporté avoir épuisé toute leur session en une heure. Un utilisateur Max 20x a vu son usage bondir de 21 % à 100 % sur une seule requête. Une utilisatrice non technique a posé une seule question à Claude à propos de voitures d’occasion et a immédiatement atteint la limite de sa session.

La réponse officielle d’Anthropic ? Vos limites hebdomadaires n’ont pas changé. Nous avons simplement ajusté leur répartition pendant les heures de pointe.

Traduction : la même quantité de nourriture, servie dans une assiette plus petite, pendant les heures où vous avez le plus faim.

La métrique invisible

Voici ce qui rend tout cela possible : Anthropic ne vous dit pas combien de tokens votre forfait inclut. Ce que vous voyez, c’est une barre de pourcentage. 55 % utilisés. Mais 55 % de quoi ? Ce chiffre peut changer d’un jour à l’autre, et vous ne le sauriez jamais — parce qu’on ne vous a jamais communiqué la valeur de référence.

C’est de la shrinkflation, version logicielle. Le paquet de chips coûte pareil, mais pèse 20 grammes de moins. Sauf que dans le logiciel, il n’y a pas d’étiquette nutritionnelle au dos à consulter.

La promotion 2x avait un but précis

La promotion n’était pas un acte de générosité. C’était une remise à zéro comportementale.

Avant le 2x, vous aviez une intuition de ce que vous pouviez accomplir en une session. Après deux semaines d’usage doublé, cette calibration interne avait disparu. Le nouveau 1x — quoi qu’il représente réellement — semble pire que l’ancien 1x, même s’il était identique. Votre point de référence est passé de 1x à 2x, et tout ce qui est en dessous de 2x est désormais perçu comme une régression.

Ce n’est pas de la spéculation. C’est un cas d’école d’ancrage cognitif — l’un des biais les mieux documentés en économie comportementale.

L’anesthésie à 100 $

Dans les jours qui ont suivi le pic de plaintes, un email est arrivé d’Anthropic, proposant à chaque abonné un crédit unique de 100 $ en « usage supplémentaire ». Le timing était impeccable.

Ce crédit remplit plusieurs fonctions. Il adoucit le choc. Il introduit le concept de paiement au-delà de l’abonnement. Il normalise un modèle de facturation à l’usage qui n’existait pas auparavant. Et si vous l’utilisez et appréciez cette flexibilité, vous pourriez bien passer au forfait à 200 $ plutôt que de gérer des recharges répétées.

La première dose est toujours gratuite.

Ce que tout cela signifie

Anthropic n’est pas une entreprise malveillante. C’est une société qui brûle des milliards en coûts d’inférence avec une introduction en bourse ciblée pour octobre 2026. Elle doit passer d’une tarification forfaitaire subventionnée à quelque chose qui reflète les coûts réels de calcul. C’est rationnel.

Mais la manière dont elle s’y prend — via des limites opaques, de la manipulation comportementale et des promotions soigneusement minutées — traite les utilisateurs comme des variables à optimiser plutôt que comme des clients à servir.

Dans le jargon du secteur, ce qu’Anthropic construit s’appelle de l’« IA de frontier ». Ironique, alors, que la frontier de leur modèle économique ressemble beaucoup à celle de tous les câblo-opérateurs, compagnies aériennes et plateformes de streaming qui les ont précédés : commencer par être généreux, créer de la dépendance, puis serrer la vis progressivement.

La différence, c’est que quand Netflix a augmenté ses prix, vous ne pouviez pas basculer vers une alternative chinoise sept fois moins chère offrant 95 % de la qualité.

Mais avec l’IA, vous le pouvez. Et ça, c’est une histoire pour un prochain article.