Las llamadas “alucinaciones” en inteligencia artificial (IA) hacen referencia a cuando un sistema genera afirmaciones falsas o inventadas que presenta como ciertas. Este fenómeno es especialmente habitual en modelos de lenguaje como ChatGPT, DeepSeek, Grok, Queen o Gemini que producen texto en función de patrones estadísticos, sin verificar la veracidad del contenido. Como resultado, una IA puede ofrecer con total convicción datos incorrectos, citas jurisprudenciales ficticias o interpretaciones jurídicas erróneas.
Si bien en algunos contextos estas alucinaciones pueden parecer anecdóticas, su uso en entornos jurídicos, administrativos o técnicos puede acarrear consecuencias legales serias.
¿POR QUÉ OCURREN?
Los modelos de IA no razonan ni comprenden como los humanos. En lugar de “saber” algo, generan la respuesta más probable basada en los datos con los que fueron entrenados. Cuando la información disponible es insuficiente, ambigua o contradictoria, el sistema tiende a completar el vacío con contenido plausible, pero erróneo. Esta falta de verificación convierte a las alucinaciones en un riesgo estructural de la IA generativa.
RIESGOS JURÍDICOS ASOCIADOS
- Responsabilidad civil:
Cuando una IA ofrece información falsa que genera un perjuicio (por ejemplo, un diagnóstico erróneo, una inversión mal asesorada o una acción legal fallida), surgen dudas sobre quién debe asumir la responsabilidad: el desarrollador, el proveedor o el usuario. Aunque hoy la legislación aún está adaptándose, ya se discute si ciertas aplicaciones de IA podrían considerarse defectuosas desde el punto de vista del régimen de responsabilidad por productos.
- Uso en entornos jurídicos y administrativos:
Han salido a la luz casos de abogados sancionados por presentar escritos redactados con IA que contenían jurisprudencia inexistente. El uso de información alucinada en procedimientos judiciales o administrativos puede causar nulidad, errores procesales o incluso vulneraciones del derecho a una tutela judicial efectiva.
- Difamación y derecho al honor:
En algunos casos, la IA ha atribuido falsamente a personas delitos que nunca cometieron o hechos infamantes. Estas afirmaciones pueden constituir una intromisión ilegítima en el derecho al honor y dar lugar a responsabilidades civiles o incluso sanciones por protección de datos personales, si la información falsa afecta a personas identificables.
- Propiedad intelectual:
Una IA puede generar contenidos derivados o similares a obras protegidas por derechos de autor sin intención ni consciencia de ello. Si una creación generada infringe derechos de terceros, ¿quién responde? Aunque los marcos legales actuales aún no han dado una respuesta uniforme, muchos desarrolladores comienzan a ofrecer garantías legales a los usuarios ante posibles reclamaciones.

PRECAUCIÓN ANTE EL ASESORAMIENTO JURÍDICO AUTOMATIZADO
Es fundamental advertir que, en propiedad industrial, por convincente que parezca una respuesta generada por IA sobre cuestiones legales, no debe sustituirse nunca la consulta con un Agente de la Propiedad Industrial. La interpretación jurídica requiere análisis contextual, conocimiento normativo actualizado y criterio técnico que ningún modelo automático puede reproducir con fiabilidad.
