A Shrinkflation da IA
Como a Anthropic usou uma promoção de 2x de uso para redefinir suas expectativas — e depois reduziu silenciosamente o que você vinha recebendo o tempo todo.
Em 13 de março de 2026, a Anthropic deu um presente a todos os usuários do Claude: o dobro de uso fora dos horários de pico. Por duas semanas, os limites pareceram generosos. O trabalho fluiu. Você ajustou sua rotina, deslocou as tarefas mais pesadas para horários de menor demanda, e seu cérebro foi silenciosamente recalibrando o que significava “normal”.
Em 28 de março, a promoção acabou.
E tudo desandou.
Os números não mentem
Em questão de dias, Reddit, X e GitHub foram inundados de reclamações. Assinantes do Max 5x — pagando $100/mês — relataram esgotar toda a sessão em uma hora. Um usuário do Max 20x viu seu uso saltar de 21% para 100% em um único prompt. Uma usuária sem perfil técnico fez uma pergunta ao Claude sobre carros usados e imediatamente atingiu o limite da sessão.
A resposta oficial da Anthropic? Seus limites semanais não mudaram. Apenas ajustamos como eles são distribuídos durante os horários de pico.
Tradução: a mesma quantidade de comida, servida num prato menor, exatamente nas horas em que você está com mais fome.
A métrica invisível
Aqui está o que torna tudo isso possível: a Anthropic não te diz quantos tokens o seu plano inclui. Você recebe uma barra de porcentagem. 55% usado. Mas 55% de quê? Esse número pode mudar a qualquer dia, e você nunca saberia — porque nunca te disseram qual era a linha de base.
É shrinkflation no estilo software. O pacote de salgadinho custa o mesmo, mas pesa 20 gramas a menos. Só que no software não tem tabela nutricional no verso para você conferir.
O 2x cumpriu seu papel
A promoção não foi caridade. Foi uma reprogramação comportamental.
Antes do 2x, você tinha uma noção intuitiva de quanto conseguia fazer em uma sessão. Depois de duas semanas com o dobro de uso, essa calibração interna foi embora. O novo 1x — seja lá o que for de fato — parece pior do que o 1x antigo, mesmo que fossem idênticos. Seu ponto de referência passou de 1x para 2x, e tudo abaixo de 2x agora soa como um rebaixamento.
Isso não é especulação. É ancoragem clássica — um dos vieses cognitivos mais estudados na economia comportamental.
A anestesia de $100
Bem na hora certa, dias após o pico das reclamações, chegou um e-mail da Anthropic oferecendo a cada assinante um crédito único de $100 em “uso extra”. O timing foi impecável.
O crédito serve a vários propósitos. Amortece o golpe. Introduz o conceito de pagar além da assinatura. Normaliza uma camada de cobrança por uso que antes não existia. E se você usar e gostar da flexibilidade, talvez simplesmente migre para o plano de $200 em vez de ficar lidando com recargas.
A primeira dose sempre é de graça.
O que isso significa
A Anthropic não é o mal. É uma empresa queimando bilhões em inferência com uma meta de IPO para outubro de 2026. Ela precisa sair de um modelo de preço fixo subsidiado e caminhar para algo que reflita os custos reais de computação. Isso é racional.
Mas a forma como está fazendo isso — com limites opacos, manipulação comportamental e promoções cuidadosamente cronometradas — trata os usuários como variáveis a otimizar, não como clientes a servir.
O termo do setor para o que a Anthropic está construindo é “IA de fronteira”. Irônico, então, que a fronteira do modelo de negócios deles se pareça bastante com qualquer operadora de TV a cabo, companhia aérea ou plataforma de streaming que veio antes: comece generoso, crie dependência, depois aperte aos poucos.
A diferença é que quando o Netflix aumentou os preços, você não podia migrar para uma alternativa chinesa que custa um sétimo e entrega 95% da qualidade.
Mas com IA, você pode. E essa é uma história para outro post.