Anthropic

Anthropic no ha subido el precio de Claude. Ha inventado algo mejor: la inflación de tokens

Admin Por Admin 21 abr., 2026 9 min de lectura
Compartir:
Anthropic no ha subido el precio de Claude. Ha inventado algo mejor: la inflación de tokens
Fuente: Xataka.com

"No os preocupéis, que cuesta lo mismo". Ese fue el mensaje de Anthropic al anunciar el lanzamiento de su nuevo modelo de IA, Claude Opus 4.7. En ese comunicado dejaron claro que "el precio sigue siendo de 15 dólares por millón de tokens de entrada y 75 dólares por millón de tokens de salida", las mismas tarifas que Claude Opus 3.5. A primera vista, parece una excelente noticia: más capacidad al mismo precio. Pero la realidad es considerablemente más compleja, y revela una nueva estrategia de monetización que podría cambiar las reglas del juego en la industria de la inteligencia artificial.

Lo que Anthropic no destacó en sus titulares, pero sí enterró en la documentación técnica, es que Claude Opus 4.7 consume significativamente más tokens que su predecesor para realizar las mismas tareas. Según pruebas independientes realizadas por desarrolladores y empresas que han adoptado el modelo, el nuevo Claude puede utilizar entre 3 y 5 veces más tokens para generar respuestas comparables a las de la versión anterior. En la práctica, esto significa que aunque el precio por token permanece estable, el coste real por tarea se ha multiplicado exponencialmente.

Esta estrategia no es técnicamente un aumento de precios, pero funciona exactamente igual. Es el equivalente digital de la reducción del tamaño de un producto manteniendo su precio, una táctica conocida en economía como "shrinkflation" o reducción oculta. Solo que en este caso, en lugar de reducir el producto, se aumenta el consumo necesario para obtener el mismo resultado. Podríamos llamarlo "token inflation" o inflación de tokens: pagas lo mismo por unidad, pero necesitas muchas más unidades.

El fenómeno no ha pasado desapercibido en la comunidad de desarrolladores. En foros especializados como Hacker News y en grupos de Discord dedicados a la IA, múltiples usuarios han compartido capturas de pantalla de sus facturas antes y después de migrar a Claude Opus 4.7. Los números son reveladores: proyectos que anteriormente costaban 50 dólares mensuales ahora rondan los 200 dólares, sin cambios en el volumen de uso ni en la funcionalidad implementada.

La estrategia de Anthropic plantea preguntas fundamentales sobre la transparencia en el mercado de modelos de lenguaje. Mientras que los aumentos de precio directos son fáciles de identificar y comparar, los cambios en la eficiencia de tokens crean una opacidad que beneficia principalmente al proveedor. Los clientes empresariales, que suelen presupuestar basándose en el coste por token, se encuentran ahora con que sus proyecciones financieras son obsoletas, y sus presupuestos insuficientes.

La inflación de tokens representa un cambio paradigmático en cómo las empresas de IA pueden ajustar sus ingresos sin la fricción política y mediática de un aumento de precios tradicional.

Este enfoque contrasta marcadamente con el de OpenAI, que ha optado por subidas de precio más transparentes con sus modelos GPT-4 y GPT-4 Turbo, pero también ha trabajado activamente en reducir el consumo de tokens y ofrecer versiones más eficientes. Google, por su parte, ha mantenido precios competitivos con Gemini mientras optimiza agresivamente el rendimiento por token. La estrategia de Anthropic parece ubicarse en un punto intermedio: mejoras de capacidad reales, pero con un coste oculto significativo.

Para las startups y pequeñas empresas que han construido sus productos sobre Claude, las implicaciones son particularmente severas. Muchas de estas compañías diseñaron sus modelos de negocio asumiendo ciertos costes operativos basados en Claude Opus 3.5. La migración a la nueva versión, aunque técnicamente opcional, se vuelve prácticamente obligatoria a medida que Anthropic dirige sus esfuerzos de desarrollo y mejora hacia el modelo más reciente. Eventualmente, los modelos anteriores quedarán obsoletos o recibirán menos soporte, forzando una actualización que muchos no pueden permitirse.

La situación se complica aún más cuando consideramos que los tokens no son una unidad de medida intuitiva para la mayoría de los usuarios. A diferencia de métricas como "coste por consulta" o "coste por usuario activo", los tokens son abstracciones técnicas que varían según el idioma, la complejidad de la tarea y las decisiones de diseño del modelo. Un usuario promedio no tiene forma de predecir cuántos tokens consumirá una interacción específica, lo que hace casi imposible presupuestar con precisión.

Desde una perspectiva técnica, el aumento en el consumo de tokens podría explicarse por varias razones legítimas. Los modelos más avanzados a menudo generan razonamientos internos más complejos, utilizan cadenas de pensamiento más largas, o implementan mecanismos de verificación que, aunque invisibles para el usuario final, consumen tokens. Claude Opus 4.7 podría estar realizando más procesamiento interno para ofrecer respuestas de mayor calidad, lo que justificaría técnicamente el aumento en el consumo.

Sin embargo, la falta de transparencia sobre estos mecanismos es precisamente el problema. Anthropic no ha publicado análisis detallados que expliquen por qué el nuevo modelo requiere más tokens, ni ha ofrecido herramientas para que los desarrolladores optimicen su consumo. Esta opacidad contrasta con el posicionamiento de la empresa como líder en IA responsable y transparente, uno de sus principales diferenciadores frente a competidores como OpenAI.

La industria tecnológica ha visto estrategias similares en otros sectores. Los servicios en la nube han sido criticados durante años por estructuras de precios complejas que dificultan las comparaciones directas y ocultan el coste real hasta que llega la factura. Amazon Web Services, Microsoft Azure y Google Cloud han perfeccionado el arte de ofrecer "precios bajos" en servicios individuales mientras multiplican los cargos a través de transferencias de datos, almacenamiento, procesamiento y docenas de servicios auxiliares.

La diferencia es que en el caso de la IA generativa, estamos en las primeras etapas de establecer las normas del mercado. Las decisiones que tomen ahora empresas como Anthropic, OpenAI y Google definirán las expectativas de transparencia y las prácticas comerciales del sector durante años. Si la inflación de tokens se convierte en una práctica aceptada, podríamos ver un mercado donde comparar proveedores se vuelve extraordinariamente difícil, y donde los costes reales solo se descubren después de comprometerse con una plataforma.

Para los usuarios empresariales, la lección es clara: la evaluación de modelos de IA no puede basarse únicamente en el precio nominal por token. Es necesario realizar pruebas exhaustivas con casos de uso reales, medir el consumo efectivo de tokens, y calcular el coste total de operación antes de tomar decisiones de implementación. Las empresas más sofisticadas ya están desarrollando marcos de evaluación que incluyen métricas como "coste por tarea completada" o "coste por objetivo logrado", que proporcionan una imagen más precisa del valor real.

Mirando hacia el futuro, esta situación podría acelerar el desarrollo de estándares de la industria para la medición y comparación de modelos de IA. Organizaciones como MLCommons ya están trabajando en benchmarks que van más allá de la precisión técnica para incluir eficiencia y coste. La presión del mercado podría eventualmente forzar a los proveedores a adoptar métricas más transparentes y comparables.

Contexto clave

¿Qué son los tokens exactamente? En el contexto de los modelos de lenguaje, un token es la unidad básica de procesamiento de texto. No equivale exactamente a una palabra: puede ser una palabra completa, parte de una palabra, o incluso un signo de puntuación. En español, una palabra promedio equivale a aproximadamente 1.3-1.5 tokens. Los modelos de IA procesan el texto dividiéndolo en tokens, y tanto el coste como las limitaciones técnicas se miden en estas unidades. Cuando Anthropic cobra "por millón de tokens", está cobrando por la cantidad de estas unidades básicas que el modelo procesa, tanto en la entrada (lo que escribes) como en la salida (lo que genera).

Tokens de entrada vs. tokens de salida Los proveedores de IA distinguen entre tokens de entrada (input) y tokens de salida (output), cobrando diferentes tarifas por cada tipo. En el caso de Claude Opus 4.7, los tokens de entrada cuestan 15 dólares por millón, mientras que los de salida cuestan 75 dólares por millón, cinco veces más. Esta diferencia refleja que generar texto nuevo requiere mucho más poder computacional que simplemente procesarlo. El aumento en el consumo de tokens afecta a ambas categorías: el modelo puede requerir más contexto en la entrada y generar razonamientos más largos en la salida, multiplicando el coste en ambos extremos.

Eficiencia de tokens y optimización La eficiencia de tokens mide cuántos tokens necesita un modelo para completar una tarea específica. Un modelo más eficiente puede generar la misma respuesta útil con menos tokens, reduciendo el coste. La optimización de tokens se ha convertido en una disciplina especializada, donde los desarrolladores diseñan cuidadosamente sus prompts y estructuras de interacción para minimizar el consumo. Técnicas como el "prompt engineering" o la limitación de la longitud de respuestas son formas de controlar el uso de tokens. Sin embargo, cuando un modelo intrínsecamente consume más tokens por diseño, estas optimizaciones tienen un impacto limitado.

Para profundizar

  • La economía de los modelos de lenguaje — El coste de entrenar y operar modelos de IA a gran escala es astronómico, con estimaciones que sitúan el entrenamiento de modelos de última generación en decenas de millones de dólares. Las empresas deben recuperar estas inversiones mientras mantienen precios competitivos, creando una tensión constante entre accesibilidad y sostenibilidad financiera que impulsa estrategias de precios innovadoras como la inflación de tokens.
  • Benchmarking y comparación de modelos — Evaluar objetivamente diferentes modelos de IA requiere marcos de medición sofisticados que vayan más allá de pruebas académicas. Organizaciones independientes están desarrollando benchmarks que miden no solo la calidad de las respuestas, sino también la eficiencia, el coste por tarea, la consistencia y la confiabilidad, proporcionando a las empresas herramientas para tomar decisiones informadas sobre qué modelo adoptar.
  • El futuro de los precios en IA — A medida que la IA generativa madura como industria, los modelos de precios probablemente evolucionarán desde el actual sistema basado en tokens hacia estructuras más predecibles y comprensibles. Podríamos ver el surgimiento de precios por suscripción con uso ilimitado, tarifas por tarea completada, o modelos híbridos que combinen elementos de ambos, similar a la evolución que experimentó el cloud computing en su primera década.
¿Te gustó este artículo?
Recibí lo mejor de ConocIA cada semana en tu correo.
Sin spam · Cancelá cuando quieras

Comentarios

Deja tu comentario
Tu email no será publicado.

No hay comentarios todavía. ¡Sé el primero en comentar!

Artículos relacionados