Cuando la inteligencia artificial (IA) da respuestas que suenan coherentes pero, en realidad, son erróneas o inventadas, se habla de una “alucinación”. Este fenómeno ocurre cuando un modelo de lenguaje de gran tamaño (LLM, por sus siglas en inglés) percibe patrones u objetos que no existen, de forma similar a cómo los humanos vemos figuras en las nubes.
