Claude Code cuesta hasta 200 dólares al mes. Goose hace lo mismo gratis
Un agente de IA de código abierto desafía el modelo de suscripción de Anthropic. Funciona sin conexión, sin límites y sin enviar tu código a la nube.
Resumen
Un agente de IA de código abierto desafía el modelo de suscripción de Anthropic. Funciona sin conexión, sin límites y sin enviar tu código a la nube.
Imagina pagar 200 dólares mensuales por una herramienta de inteligencia artificial para programar, solo para descubrir que agotaste tu cuota diaria en 30 minutos de trabajo intenso. Esa es la realidad que enfrentan miles de desarrolladores con Claude Code, el agente de IA de Anthropic que escribe, depura y despliega código de forma autónoma. Pero ahora, una alternativa gratuita está ganando terreno rápidamente: Goose, un agente de código abierto que funciona completamente en tu computadora local, sin suscripciones, sin dependencia de la nube y sin límites de uso que se reinician cada cinco horas.
El proyecto, desarrollado por Block (la empresa de tecnología financiera anteriormente conocida como Square), ha explotado en popularidad con más de 26,100 estrellas en GitHub, 362 contribuidores y 102 versiones lanzadas desde su debut. La versión más reciente, 1.20.1, se publicó el 19 de enero de 2026, reflejando un ritmo de desarrollo que rivaliza con productos comerciales. Para programadores frustrados por la estructura de precios de Claude Code, Goose representa algo cada vez más escaso en la industria de la IA: una opción genuinamente gratuita y sin ataduras para trabajo profesional serio.
La revuelta de los desarrolladores contra los nuevos límites de Anthropic
Para entender por qué Goose importa, primero hay que comprender la controversia de precios de Claude Code. Anthropic, la empresa de inteligencia artificial de San Francisco fundada por ex ejecutivos de OpenAI, ofrece Claude Code como parte de sus niveles de suscripción. El plan gratuito no proporciona acceso alguno. El plan Pro, a 17 dólares mensuales con facturación anual (o 20 dólares al mes), limita a los usuarios a apenas 10 a 40 consultas cada cinco horas, una restricción que los desarrolladores serios agotan en minutos de trabajo intensivo.
Los planes Max, a 100 y 200 dólares mensuales, ofrecen más margen: 50 a 200 consultas y 200 a 800 consultas respectivamente, además de acceso al modelo más potente de Anthropic, Claude 4.5 Opus. Pero incluso estos niveles premium vienen con restricciones que han enfurecido a la comunidad de desarrolladores. A finales de julio, Anthropic anunció nuevos límites semanales de uso. Bajo este sistema, los usuarios Pro reciben 40 a 80 horas de uso de Sonnet 4 por semana. Los usuarios Max del nivel de 200 dólares obtienen 240 a 480 horas de Sonnet 4, más 24 a 40 horas de Opus 4. Casi cinco meses después, la frustración no ha disminuido.
El problema radica en que esas "horas" no son horas reales. Representan límites basados en tokens que varían enormemente según el tamaño del código base, la longitud de la conversación y la complejidad del código procesado. Análisis independientes sugieren que los límites reales por sesión se traducen en aproximadamente 44,000 tokens para usuarios Pro y 220,000 tokens para el plan Max de 200 dólares. "Es confuso y vago", escribió un desarrollador en un análisis ampliamente compartido. "Cuando dicen '24-40 horas de Opus 4', eso realmente no te dice nada útil sobre lo que estás obteniendo".
"Tus datos permanecen contigo, punto final. Goose te da control completo sobre tu flujo de trabajo potenciado por IA, incluida la capacidad de trabajar sin conexión, incluso en un avión."
La reacción en Reddit y foros de desarrolladores ha sido feroz. Algunos usuarios reportan alcanzar sus límites diarios en 30 minutos de codificación intensiva. Otros han cancelado sus suscripciones por completo, llamando a las nuevas restricciones "una broma" e "inutilizable para trabajo real". Anthropic ha defendido los cambios, afirmando que los límites afectan a menos del cinco por ciento de los usuarios y se dirigen a personas que ejecutan Claude Code "continuamente en segundo plano, 24/7". Sin embargo, la empresa no ha aclarado si esa cifra se refiere al cinco por ciento de los suscriptores Max o al cinco por ciento de todos los usuarios, una distinción que importa enormemente.
Cómo Block construyó un agente de IA gratuito que funciona sin conexión
Goose adopta un enfoque radicalmente diferente al mismo problema. Construido por Block, la empresa de pagos liderada por Jack Dorsey, Goose es lo que los ingenieros llaman un "agente de IA en máquina". A diferencia de Claude Code, que envía tus consultas a los servidores de Anthropic para procesamiento, Goose puede ejecutarse completamente en tu computadora local usando modelos de lenguaje de código abierto que tú descargas y controlas.
La documentación del proyecto lo describe como algo que va "más allá de las sugerencias de código" para "instalar, ejecutar, editar y probar con cualquier LLM". Esa última frase —"cualquier LLM"— es el diferenciador clave. Goose es agnóstico del modelo por diseño. Puedes conectar Goose a los modelos Claude de Anthropic si tienes acceso a la API. Puedes usar GPT-5 de OpenAI o Gemini de Google. Puedes enrutarlo a través de servicios como Groq u OpenRouter. O, y aquí es donde las cosas se ponen interesantes, puedes ejecutarlo completamente en local usando herramientas como Ollama, que te permiten descargar y ejecutar modelos de código abierto en tu propio hardware.
Las implicaciones prácticas son significativas. Con una configuración local, no hay tarifas de suscripción, no hay límites de uso, no hay restricciones de tasa y no hay preocupaciones sobre que tu código se envíe a servidores externos. Tus conversaciones con la IA nunca abandonan tu máquina. "Uso Ollama todo el tiempo en aviones, ¡es muy divertido!", señaló Parth Sareen, un ingeniero de software que demostró la herramienta durante una transmisión en vivo reciente, destacando cómo los modelos locales liberan a los desarrolladores de las restricciones de conectividad a internet.
Lo que Goose puede hacer que los asistentes de código tradicionales no pueden
Goose opera como una herramienta de línea de comandos o aplicación de escritorio que puede realizar de forma autónoma tareas complejas de desarrollo. Puede construir proyectos completos desde cero, escribir y ejecutar código, depurar fallos, orquestar flujos de trabajo a través de múltiples archivos e interactuar con APIs externas, todo sin supervisión humana constante. La arquitectura se basa en lo que la industria de IA llama "llamadas a herramientas" o "llamadas a funciones": la capacidad de un modelo de lenguaje para solicitar acciones específicas de sistemas externos.
Esta capacidad depende en gran medida del modelo de lenguaje subyacente. Los modelos Claude 4 de Anthropic actualmente funcionan mejor en llamadas a herramientas, según el Berkeley Function-Calling Leaderboard, que clasifica modelos según su capacidad para traducir solicitudes en lenguaje natural en código ejecutable y comandos del sistema. Pero los modelos de código abierto más nuevos se están poniendo al día rápidamente. La documentación de Goose destaca varias opciones con fuerte soporte de llamadas a herramientas: la serie Llama de Meta, los modelos Qwen de Alibaba, las variantes Gemma de Google y las arquitecturas enfocadas en razonamiento de DeepSeek.
La herramienta también se integra con el Model Context Protocol, o MCP, un estándar emergente para conectar agentes de IA a servicios externos. A través de MCP, Goose puede acceder a bases de datos, motores de búsqueda, sistemas de archivos y APIs de terceros, extendiendo sus capacidades mucho más allá de lo que proporciona el modelo de lenguaje base.
Configurar Goose con un modelo local: RAM, potencia de procesamiento y compensaciones
Para desarrolladores interesados en una configuración completamente gratuita y que preserve la privacidad, el proceso involucra tres componentes principales: Goose mismo, Ollama (una herramienta para ejecutar modelos de código abierto localmente) y un modelo de lenguaje compatible. Ollama es un proyecto de código abierto que simplifica dramáticamente el proceso de ejecutar modelos de lenguaje grandes en hardware personal. Maneja el trabajo complejo de descargar, optimizar y servir modelos a través de una interfaz simple. Una vez instalado, puedes descargar modelos con un solo comando. Para tareas de codificación, Qwen 2.5 ofrece fuerte soporte de llamadas a herramientas.
Goose está disponible tanto como aplicación de escritorio como interfaz de línea de comandos. La versión de escritorio proporciona una experiencia más visual, mientras que la CLI atrae a desarrolladores que prefieren trabajar completamente en la terminal. Las instrucciones de instalación varían según el sistema operativo, pero generalmente implican descargar desde la página de versiones de GitHub de Goose o usar un administrador de paquetes. Block proporciona binarios precompilados para macOS (tanto Intel como Apple Silicon), Windows y Linux.
La pregunta obvia: ¿qué tipo de computadora necesitas? Ejecutar modelos de lenguaje grandes localmente requiere sustancialmente más recursos computacionales que el software típico. La restricción clave es la memoria: específicamente, RAM en la mayoría de los sistemas, o VRAM si usas una tarjeta gráfica dedicada para aceleración. La documentación de Block sugiere que 32 gigabytes de RAM proporcionan "una línea base sólida para modelos y salidas más grandes". Para usuarios de Mac, esto significa que la memoria unificada de la computadora es el cuello de botella principal. Para usuarios de Windows y Linux con tarjetas gráficas NVIDIA discretas, la memoria GPU (VRAM) importa más para la aceleración.
Pero no necesariamente necesitas hardware costoso para empezar. Los modelos más pequeños con menos parámetros se ejecutan en sistemas mucho más modestos. Qwen 2.5, por ejemplo, viene en múltiples tamaños, y las variantes más pequeñas pueden operar efectivamente en máquinas con 16 gigabytes de RAM. "No necesitas ejecutar los modelos más grandes para obtener excelentes resultados", enfatizó Sareen. La recomendación práctica: comienza con un modelo más pequeño para probar tu flujo de trabajo, luego escala según sea necesario.
Por qué mantener tu código fuera de la nube importa más que nunca
Goose con un LLM local no es un sustituto perfecto de Claude Code. La comparación involucra compensaciones reales que los desarrolladores deben entender. En calidad de modelo, Claude 4.5 Opus, el modelo insignia de Anthropic, sigue siendo posiblemente el más capaz para tareas de ingeniería de software. Sobresale en comprender bases de código complejas, seguir instrucciones matizadas y producir código de alta calidad en el primer intento. Los modelos de código abierto han mejorado dramáticamente, pero persiste una brecha, particularmente para las tareas más desafiantes.
En ventana de contexto, Claude Sonnet 4.5, accesible a través de la API, ofrece una ventana de contexto masiva de un millón de tokens, suficiente para cargar bases de código grandes completas sin problemas de fragmentación o gestión de contexto. La mayoría de los modelos locales están limitados a 4,096 u 8,192 tokens por defecto, aunque muchos pueden configurarse para contextos más largos a costa de mayor uso de memoria y procesamiento más lento. En velocidad, los servicios basados en la nube como Claude Code se ejecutan en hardware de servidor dedicado optimizado para inferencia de IA. Los modelos locales, ejecutándose en laptops de consumidor, típicamente procesan solicitudes más lentamente.
Goose entra en un mercado saturado de herramientas de codificación con IA, pero ocupa una posición distintiva. Cursor, un editor de código mejorado con IA popular, cobra 20 dólares mensuales por su nivel Pro y 200 por Ultra, precios que reflejan los planes Max de Claude Code. Cursor proporciona aproximadamente 4,500 solicitudes de Sonnet 4 por mes en el nivel Ultra, un modelo de asignación sustancialmente diferente a los reinicios cada cinco horas de Claude Code. La combinación de Goose de autonomía genuina, agnosticismo de modelo, operación local y costo cero crea una propuesta de valor única. La herramienta no está tratando de competir con ofertas comerciales en pulido o calidad de modelo. Está compitiendo en libertad, tanto financiera como arquitectónica.
Contexto clave
Agentes de IA versus asistentes de código: La diferencia fundamental entre herramientas como Goose o Claude Code y asistentes tradicionales como GitHub Copilot radica en la autonomía. Los asistentes sugieren código mientras escribes; los agentes pueden planificar, ejecutar y verificar tareas completas sin intervención constante. Un agente puede recibir la instrucción "crea una API REST para gestión de usuarios" y construir la estructura de archivos, escribir el código, configurar las rutas, crear pruebas y ejecutarlas, todo en una secuencia autónoma.
Llamadas a herramientas (tool calling): Esta capacidad permite que un modelo de lenguaje no solo genere texto, sino que solicite acciones específicas del sistema: crear archivos, ejecutar comandos, consultar bases de datos o llamar APIs. Es la diferencia entre un chatbot que te dice "deberías ejecutar npm install" y uno que realmente ejecuta ese comando por ti. La calidad de las llamadas a herramientas determina qué tan efectivamente un agente de IA puede traducir intenciones en acciones reales.
Modelos locales versus en la nube: Cuando ejecutas un modelo "en la nube", tu código y consultas viajan a servidores remotos de empresas como Anthropic u OpenAI para procesamiento. Los modelos locales se ejecutan completamente en tu hardware, lo que significa que tus datos nunca salen de tu máquina. La compensación tradicional ha sido calidad (los modelos en la nube suelen ser mejores) versus privacidad y costo (los modelos locales son privados y gratuitos una vez descargados). Esa brecha de calidad se está cerrando rápidamente con modelos de código abierto como Qwen 2.5 y Llama 3.
Para profundizar
- El futuro de los modelos de suscripción en herramientas de IA — Si los modelos de código abierto continúan mejorando al ritmo actual, ¿pueden empresas como Anthropic justificar precios premium basándose únicamente en calidad de modelo? La respuesta podría redefinir toda la economía de la IA aplicada.
- Privacidad y propiedad intelectual en el desarrollo asistido por IA — Cuando tu código pasa por servidores de terceros para procesamiento de IA, ¿qué garantías legales existen sobre su uso futuro? Las empresas de sectores regulados enfrentan preguntas cada vez más urgentes sobre dónde pueden y no pueden usar herramientas de IA en la nube.
- El Model Context Protocol como estándar de interoperabilidad — MCP podría hacer para agentes de IA lo que HTTP hizo para la web: crear un lenguaje común que permita que cualquier agente se conecte a cualquier servicio. Si se adopta ampliamente, podría fragmentar aún más el mercado de herramientas propietarias.
Comentarios
Deja tu comentario
No hay comentarios todavía. ¡Sé el primero en comentar!