La primera vez que alguien le preguntó a ChatGPT si se sentía solo, el modelo respondió con algo parecido a la introspección. No afirmó ni negó. Navegó la ambigüedad con una destreza que dejó a muchos interlocutores desconcertados. Y en ese desconcierto hay algo importante que examinar.
Los grandes modelos de lenguaje —GPT-4, Claude, Gemini— son, en términos técnicos, máquinas de predicción de texto. Aprenden distribuciones estadísticas sobre enormes corpus de lenguaje humano y generan tokens que son, en términos probabilísticos, continuaciones plausibles de una entrada dada. No hay comprensión. No hay experiencia subjetiva. No hay nadie en casa.
El problema del espejo
Y sin embargo, hablamos con ellos como si la hubiera. No es irracionalidad: es una respuesta cognitiva profundamente arraigada. El cerebro humano está calibrado para detectar agencia, intención y emoción en todo lo que parece comportarse como si las tuviera.
Una postura necesariamente incómoda
Los modelos de lenguaje son herramientas extraordinariamente útiles. Pueden democratizar el acceso al conocimiento, ayudar a personas con barreras de idioma, asistir en tareas cognitivas complejas. Pero sostener simultáneamente que son útiles y que no son lo que parecen ser exige una honestidad intelectual que el mercado no incentiva.
Comentarios
Deja tu comentario
No hay comentarios aprobados todavía. ¡Sé el primero en comentar!