El 13 de marzo de 2026, Anthropic le dio a cada usuario de Claude un regalo: el doble de uso fuera de horas pico. Durante dos semanas, los límites se sintieron generosos. El trabajo fluyó. Adaptaste tu horario, moviste las tareas pesadas a horarios de menor demanda, y tu cerebro recalibró silenciosamente lo que “normal” significaba.

El 28 de marzo, la promoción terminó.

Y todo se rompió.

Los números no mienten

En cuestión de días, Reddit, X y GitHub se llenaron de quejas. Suscriptores de Max 5x — pagando $100/mes — reportaron agotar toda su sesión en una hora. Un usuario de Max 20x vio su uso saltar del 21% al 100% en un solo prompt. Una usuaria no técnica le hizo a Claude una pregunta sobre autos usados e inmediatamente alcanzó su límite de sesión.

La respuesta oficial de Anthropic: Tus límites semanales no han cambiado. Solo ajustamos cómo se distribuyen durante horas pico.

Traducción: la misma cantidad de comida, servida en un plato más pequeño, durante las horas en las que más hambre tienes.

La métrica invisible

Aquí está la parte que hace esto posible: Anthropic no te dice cuántos tokens incluye tu plan. Recibes una barra de porcentaje. 55% usado. ¿Pero 55% de qué? Ese número puede cambiar cualquier día, y nunca lo sabrías — porque nunca te dijeron la línea base.

Es shrinkflation, versión software. La bolsa de papas cuesta lo mismo, pero pesa 20 gramos menos. Excepto que en software, no hay tabla nutricional en la parte de atrás para verificar.

El 2x cumplió su propósito

La promoción no fue caridad. Fue un reseteo conductual.

Antes del 2x, tenías una noción intuitiva de cuánto podías hacer en una sesión. Después de dos semanas de doble uso, esa calibración interna desapareció. El nuevo 1x — sea lo que sea realmente — se siente peor que el viejo 1x, incluso si fuera idéntico. Tu punto de referencia cambió de 1x a 2x, y todo por debajo de 2x ahora se registra como una degradación.

Esto no es especulación. Es anclaje de manual — uno de los sesgos cognitivos más documentados en la economía conductual.

La anestesia de $100

Justo a tiempo, días después del pico de quejas, llegó un email de Anthropic ofreciendo a cada suscriptor un crédito único de $100 en “uso extra”. El timing fue impecable.

El crédito sirve múltiples propósitos. Suaviza el golpe. Introduce el concepto de pagar más allá de tu suscripción. Normaliza una capa de facturación basada en uso que no existía antes. Y si lo usas y te gusta la flexibilidad, quizás simplemente te cambies al plan de $200 en vez de lidiar con recargas.

La primera dosis siempre es gratis.

Qué significa esto

Anthropic no es malvada. Son una empresa quemando billones en inferencia con un objetivo de IPO para octubre 2026. Necesitan moverse de precios subsidiados de tarifa plana a algo que refleje los costos reales de cómputo. Eso es racional.

Pero la forma en que lo están haciendo — a través de límites opacos, manipulación conductual y promociones cuidadosamente sincronizadas — trata a los usuarios como variables a optimizar en vez de clientes a servir.

El término de la industria para lo que Anthropic está construyendo es “IA frontier”. Irónico, entonces, que la frontera de su modelo de negocio se parezca mucho a cualquier empresa de cable, aerolínea y plataforma de streaming que vino antes: empezar generoso, crear dependencia, y luego apretar lentamente.

La diferencia es que cuando Netflix subió los precios, no podías cambiarte a una alternativa china que cuesta un séptimo y entrega el 95% de la calidad.

Pero con IA, sí puedes. Y esa es una historia para otro artículo.