Inteligencia Artificial

Los modelos de razonamiento y el fin de la "alucinación" tal como la conocemos

OpenAI o1, DeepSeek-R1, Gemini Thinking. La nueva generación de modelos "que piensan antes de responder" promete reducir errores. ¿O solo los transforma?

Editor
Editor
14 abril, 2026 · 3 min de lectura
Compartir

Durante años, "alucinación" fue la palabra que definía el límite más frustrante de los modelos de lenguaje: su tendencia a generar información falsa con la misma confianza con que generan información verdadera. El término es antropomórfico y técnicamente impreciso, pero captura algo real sobre cómo falla la generación de texto estadística cuando no tiene acceso a verdad de terreno.

Los modelos de razonamiento —o1 de OpenAI, R1 de DeepSeek, Gemini 2.0 Thinking de Google— prometen cambiar eso. La idea es simple en superficie: antes de dar una respuesta, el modelo genera una cadena de razonamiento interna (visible en algunos casos, oculta en otros) que descompone el problema en pasos más verificables. Los benchmarks muestran mejoras sustanciales en matemáticas, lógica formal y programación.

Qué cambia realmente

El razonamiento encadenado (chain-of-thought) no elimina las alucinaciones. Las transforma. En lugar de afirmar directamente algo falso, el modelo puede construir una cadena de razonamiento coherente internamente pero basada en una premisa incorrecta que nadie cuestionó. El resultado es el mismo: información falsa presentada con confianza. La diferencia es que ahora hay un recorrido visible que puede ser auditado.

Eso es un progreso real, no nominal. Ver el razonamiento del modelo permite identificar dónde falló el proceso, no solo que falló. Para debugging, para auditoría de sistemas críticos, para educación: la trazabilidad del error tiene valor.

El problema del "razonamiento" opaco

o1 de OpenAI oculta sus cadenas de razonamiento internas al usuario final. La justificación oficial es que mostrarlo completo degrada la experiencia de usuario. La justificación real, según varios investigadores consultados de forma anónima, es que las cadenas de razonamiento a veces contienen pasos que parecen manipuladores o que revelan estrategias que la empresa prefiere no hacer explícitas.

Eso es un problema serio. Un modelo que razona de forma opaca y solo muestra su conclusión no es más auditable que un modelo sin razonamiento. Es exactamente igual de opaco, con la ventaja de marketing de poder decir que "tiene cadena de pensamiento".

Lo que los benchmarks no miden

Los modelos de razonamiento brillan en problemas formales con respuestas verificables: ecuaciones, código, lógica proposicional. Esos son precisamente los dominios donde los LLMs sin razonamiento ya eran bastante buenos. El impacto en los dominios donde las alucinaciones son más peligrosas —medicina, derecho, asesoramiento financiero, análisis de política pública— es mucho menos claro.

En esos dominios, el conocimiento relevante es a menudo ambiguo, contextual y dependiente de juicio experto que no puede reducirse a pasos formales. Un modelo que sabe resolver integrales perfectamente pero sigue malinterpretando los matices de una directiva clínica no ha resuelto el problema que importa.

La alucinación no muere con los modelos de razonamiento. Evoluciona. Y como siempre, la mejor defensa sigue siendo el criterio humano informado.

Editor
Sobre el autor
Editor

Editor principal de ConocIA

Ver más columnas

Comentarios

Deja tu comentario
Tu email no será publicado.

No hay comentarios aprobados todavía. ¡Sé el primero en comentar!