RIESGOS

Alucinacion en IA

4 min de lectura 0 lecturas 26 abr. 2026

Una alucinacion ocurre cuando un modelo genera informacion falsa, inventada o no respaldada por la evidencia disponible.

Que es Alucinacion en IA

Una alucinacion es una salida generada por un modelo que parece plausible pero no corresponde a hechos, fuentes o datos reales. Puede ser una cita inexistente, una explicacion equivocada, una fecha falsa o una conclusion sin soporte.

Por que importa

El problema es especialmente delicado porque los modelos de lenguaje son buenos produciendo texto coherente. La forma puede transmitir seguridad incluso cuando el contenido es incorrecto. Esto afecta periodismo, educacion, salud, derecho y cualquier flujo donde la precision importe.

Limites y riesgos

RAG, herramientas de busqueda y citacion ayudan, pero no eliminan el riesgo. Si el sistema recupera malas fuentes o el modelo interpreta mal la evidencia, la respuesta puede seguir fallando. Por eso se necesitan verificaciones, fuentes visibles y limites claros.

Ejemplo practico

Un ejemplo comun es pedir referencias academicas y recibir autores, titulos o DOI inventados. La respuesta puede parecer formal, pero al buscar las fuentes no existen.

Actores clave
Investigacion en NLP Equipos de seguridad de IA