Il 13 marzo 2026, Anthropic ha fatto un regalo a ogni utente di Claude: il doppio dell’utilizzo fuori dagli orari di punta. Per due settimane, i limiti sembravano generosi. Il lavoro scorreva. Hai adattato i tuoi orari, spostato le attività più pesanti nelle ore di minor traffico, e il tuo cervello ha silenziosamente ricalibrato il significato di “normale”.

Il 28 marzo, la promozione è finita.

E tutto si è rotto.

I numeri non mentono

Nel giro di pochi giorni, Reddit, X e GitHub si sono riempiti di lamentele. Gli abbonati Max 5x — che pagano $100 al mese — riferivano di esaurire l’intera sessione in un’ora. Un utente Max 20x ha visto il proprio utilizzo passare dal 21% al 100% con un singolo prompt. Un’utente non tecnica ha fatto a Claude una domanda sulle auto usate e ha raggiunto immediatamente il limite della sessione.

La risposta ufficiale di Anthropic? I tuoi limiti settimanali non sono cambiati. Abbiamo solo modificato come vengono distribuiti nelle ore di punta.

Traduzione: la stessa quantità di cibo, servita in un piatto più piccolo, nelle ore in cui hai più fame.

La metrica invisibile

Ecco il punto che rende tutto questo possibile: Anthropic non ti dice quanti token include il tuo piano. Ricevi una barra percentuale. 55% utilizzato. Ma il 55% di cosa? Quel numero può cambiare da un giorno all’altro, e non lo sapresti mai — perché non ti è mai stato detto il punto di partenza.

È shrinkflation, versione software. Il sacchetto di patatine costa uguale, ma pesa 20 grammi in meno. Con la differenza che nel software non c’è nessuna etichetta nutrizionale sul retro da consultare.

Il 2x aveva uno scopo

La promozione non era un regalo. Era un reset comportamentale.

Prima del 2x, avevi un’idea intuitiva di quanto potessi fare in una sessione. Dopo due settimane di utilizzo doppio, quella calibrazione interna era sparita. Il nuovo 1x — qualunque cosa sia concretamente — sembra peggio del vecchio 1x, anche se fosse identico. Il tuo punto di riferimento si è spostato da 1x a 2x, e tutto ciò che sta sotto il 2x ora viene percepito come un peggioramento.

Non è speculazione. È l’effetto ancoraggio nella sua forma più classica — uno dei bias cognitivi più documentati nell’economia comportamentale.

L’anestesia da $100

Puntuale come un orologio, pochi giorni dopo il picco delle lamentele, è arrivata un’email di Anthropic con un’offerta: un credito una tantum di $100 in “utilizzo extra” per ogni abbonato. Il tempismo era impeccabile.

Il credito serve a più scopi. Ammortizza il colpo. Introduce il concetto di pagare oltre la propria sottoscrizione. Normalizza un livello di fatturazione a consumo che prima non esisteva. E se lo usi e ti piace la flessibilità, potresti semplicemente passare al piano da $200 invece di fare i conti con le ricariche.

La prima dose è sempre gratis.

Cosa significa tutto questo

Anthropic non è malvagia. È un’azienda che brucia miliardi in inferenza con un obiettivo di IPO fissato per ottobre 2026. Ha bisogno di passare da prezzi sovvenzionati a tariffa fissa a qualcosa che rifletta i costi reali di calcolo. È una scelta razionale.

Ma il modo in cui lo sta facendo — attraverso limiti opachi, manipolazione comportamentale e promozioni sincronizzate con chirurgica precisione — tratta gli utenti come variabili da ottimizzare, non come clienti da servire.

Il termine del settore per ciò che Anthropic sta costruendo è “IA di frontiera”. Ironico, allora, che la frontiera del loro modello di business assomigli molto a quella di ogni compagnia via cavo, compagnia aerea e piattaforma streaming che è venuta prima: inizia generoso, crea dipendenza, poi strizza lentamente.

La differenza è che quando Netflix ha alzato i prezzi, non potevi passare a un’alternativa cinese che costa un settimo e offre il 95% della qualità.

Ma con l’IA, puoi. E questa è una storia per un altro articolo.