Alucinación

tag Inteligencia Artificial

En el contexto de la Inteligencia Artificial Generativa, una alucinación (hallucination) ocurre cuando un modelo produce una respuesta que es factualmente incorrecta, ilógica o que no tiene relación con la realidad, pero que está escrita con un tono de total seguridad y coherencia.

A diferencia de un error de software tradicional (donde el programa se «cuelga» o da un mensaje de error), la IA «alucina» porque su naturaleza no es la de una base de datos de verdades, sino la de un motor de predicción probabilística. Su objetivo es decir qué palabra viene después de otra basándose en patrones, no verificar si esa información es verídica.

¿Por qué ocurren las alucinaciones?

  1. Vacíos en el entrenamiento: Si el modelo no conoce un dato específico, intentará «rellenar» el hueco con la información más probable estadísticamente.
  2. Sobreajuste (Overfitting): El modelo se vuelve demasiado creativo al intentar complacer la petición del usuario (prompt).
  3. Confusión de contextos: Mezcla datos de dos temas distintos que guardan similitudes en su estructura lingüística.

Tipos de Alucinaciones y cómo combatirlas

TipoEjemploSolución
FactualInventar una fecha histórica o una ley física.RAG (Conectar la IA a fuentes de datos reales).
ReferencialCitar un libro o un enlace web que no existe.Verificación de enlaces mediante navegación en tiempo real.
LógicaDar un resultado matemático erróneo en un problema complejo.Chain of Thought (Pedirle a la IA que piense paso a paso).