Que es Alucinacion en IA
Una alucinacion es una salida generada por un modelo que parece plausible pero no corresponde a hechos, fuentes o datos reales. Puede ser una cita inexistente, una explicacion equivocada, una fecha falsa o una conclusion sin soporte.
Por que importa
El problema es especialmente delicado porque los modelos de lenguaje son buenos produciendo texto coherente. La forma puede transmitir seguridad incluso cuando el contenido es incorrecto. Esto afecta periodismo, educacion, salud, derecho y cualquier flujo donde la precision importe.
Limites y riesgos
RAG, herramientas de busqueda y citacion ayudan, pero no eliminan el riesgo. Si el sistema recupera malas fuentes o el modelo interpreta mal la evidencia, la respuesta puede seguir fallando. Por eso se necesitan verificaciones, fuentes visibles y limites claros.
Ejemplo practico
Un ejemplo comun es pedir referencias academicas y recibir autores, titulos o DOI inventados. La respuesta puede parecer formal, pero al buscar las fuentes no existen.