Inteligencia Artificial

Claude, GPT y la ilusión de la conversación

Los modelos de lenguaje no piensan, no sienten, no comprenden. Y sin embargo, conversamos con ellos como si lo hicieran. ¿Qué nos dice eso de nosotros?

Autor
Autor
13 abril, 2026 · 2 min de lectura
Compartir

La primera vez que alguien le preguntó a ChatGPT si se sentía solo, el modelo respondió con algo parecido a la introspección. No afirmó ni negó. Navegó la ambigüedad con una destreza que dejó a muchos interlocutores desconcertados. Y en ese desconcierto hay algo importante que examinar.

Los grandes modelos de lenguaje —GPT-4, Claude, Gemini— son, en términos técnicos, máquinas de predicción de texto. Aprenden distribuciones estadísticas sobre enormes corpus de lenguaje humano y generan tokens que son, en términos probabilísticos, continuaciones plausibles de una entrada dada. No hay comprensión. No hay experiencia subjetiva. No hay nadie en casa.

El problema del espejo

Y sin embargo, hablamos con ellos como si la hubiera. No es irracionalidad: es una respuesta cognitiva profundamente arraigada. El cerebro humano está calibrado para detectar agencia, intención y emoción en todo lo que parece comportarse como si las tuviera.

Una postura necesariamente incómoda

Los modelos de lenguaje son herramientas extraordinariamente útiles. Pueden democratizar el acceso al conocimiento, ayudar a personas con barreras de idioma, asistir en tareas cognitivas complejas. Pero sostener simultáneamente que son útiles y que no son lo que parecen ser exige una honestidad intelectual que el mercado no incentiva.

Autor
Sobre el autor
Autor

Autor de contenido especializado en IA

Ver más columnas

Comentarios

Deja tu comentario
Tu email no será publicado.

No hay comentarios aprobados todavía. ¡Sé el primero en comentar!