«Me estaba preguntando y estaba alimentado
Y estaba alucinando bien (super super)»
—Luis Alberto Spinetta, “No te alejes tanto de mí” (1983)
Los mejores modelos de Inteligencia artificial flashean, flipan: dan groseras respuestas erróneas. ¿La sublevación definitiva de las máquinas que tanto anticipó la ciencia-ficción?
En 1986, el músico argentino Luis Alberto Spinetta planteaba en la canción La pelícana y el androide: un amor entre un ser natural y uno artificial, una relación que de antemano rozaría lo imposible[1]. El tema -dirá el artista- habla de «la reacción frente a la cibernética» y de «aquello que ha logrado transformarse hasta dejar atrás su realidad originaria.» [2]
Siguiendo esta línea de pensamiento, 40 años más tarde, la creación de Spinetta adquiere el carácter de vaticinio. Un anticipo de cómo las máquinas «desobedecen» los fundamentos mismos que le han otorgado razón a su existencia.
Las inteligencias artificiales (IA) que hoy gozan de mayor reputación y cuyo uso es más masivo- ChatGPT, Gemini, Claude– sufren alucinaciones. Nunca dicen ´no sé´. Y antes de escribir que carecen de información o que no la verificaron: inventan la realidad. Estos modelos de lenguaje generativo producen información que nos parece coherente y hasta pueden convencernos de ello, pero que suele ser parcial o totalmente falsa. Sin embargo, no se trata de errores aleatorios, sino que son una consecuencia directa de cómo funcionan esos sistemas: los patrones estadísticos que aprendieron a partir de procesar inmensísimos volúmenes de datos predicen la palabra siguiente, aunque sin una comprensión real de la verdad o de los hechos de los que dan información.
Los resultados saltan a la vista y los navegantes experimentados (también los desconfiados tradicionales) se topan permanentemente con citas inexistentes, datos inventados, interpretaciones sesgadas e, incluso, afirmaciones sobre hechos que nunca ocurrieron.
Si bien el problema no es nuevo, en los últimos años se ha manifestado de forma mucho más evidente, porque el uso de la Inteligencia Artificial se fue integrando a ciertos ámbitos sensibles: la justicia, los medios de comunicación, la gestión pública, las finanzas, la medicina, la educación.
Estudios independientes que se publicaron durante 2024 y 2025 —entre los que se destacan El Artificial Intelligence Index Report 2025 de la Universidad de Stanford[3]— evidencian que «los incidentes de IA: contenido ultrafalso (deepfakes), sesgos y fallos de seguridad, aumentaron un 56,4 %.»
Durante 2024 se alcanzó «un récord de 233 incidentes documentados» que «mostraron que incluso los modelos más avanzados, pese a mejoras significativas en razonamiento y control, continúan alucinando en un porcentaje relevante de consultas complejas».
Los informes técnicos revelaron que estos errores se concentran especialmente en preguntas jurídicas, académicas y técnicas, donde la verosimilitud del lenguaje puede ocultar la falsedad del contenido. En esos escenarios específicos los niveles de error resultaron sorprendentemente altos.

Las consecuencias de confiar ciegamente en la IA
Uno de los sucesos más sonados que hizo correr ríos de tinta en los tabloides fue protagonizado en 2023 por el abogado neoyorquino Steven Schwartz. El jurista, con más de tres décadas de experiencia en la profesión, utilizó ChatGPT para redactar un escrito judicial en un caso contra la aerolínea Avianca. La demanda contra la compañía aérea la inició un hombre llamado Roberto Mata, quien alegaba que resultó herido cuando un carrito de servicio de metal golpeó su rodilla durante un vuelo hacia el Aeropuerto Internacional Kennedy en Nueva York.
Los abogados del Sr. Mata, pertenecientes al bufete Levidow, Levidow & Oberman, se opusieron al pedido de desestimación que había solicitado Avianca y presentaron un escrito de diez páginas que citaba más de media docena de decisiones judiciales relevantes.
Pero el documento presentado por los demandantes incluía seis precedentes legales inexistentes, que habían sido generados por Inteligencia Artificial. Tanto los abogados de la aerolínea, como el propio juez: notaron las inconsistencias, ya que las decisiones citadas en el escrito no fueron halladas dentro de la jurisprudencia. El ChatGPT lo había inventado todo.
Finalmente, el juez P. Kevin Castel sancionó con una multa de 5.000 dólares tanto al abogado creador del escrito Steven Schwartz, como al letrado a cargo de la defensa de Mata, Peter LoDuca.
En su resolución, el magistrado dejó en claro que el uso de inteligencia artificial en el ámbito legal no es inapropiado per se, siempre que se trate de una herramienta confiable y bajo supervisión humana. Sin embargo, sostuvo que los abogados incumplieron gravemente su deber profesional al presentar fallos inexistentes generados por la inteligencia artificial del ChatGPT y al sostenerlos incluso después de ser cuestionados por el tribunal, lo que justificó la sanción impuesta.
El caso Avianca expuso los agujeros que implica confiar ciegamente en las IA sin una supervisión humana. Sin embargo, el fenómeno no se limita al derecho: también alcanza a territorios aún más sensibles, como la investigación científica y la medicina.
En 2024, durante la presentación de un trabajo técnico vinculado al modelo Med-Gemini, una versión especializada de Gemini desarrollada por Google para usos clínicos y científicos, el sistema generó y describió con aparente solvencia una estructura cerebral inexistente, denominada «basilar ganglia». El término, verosímil para cualquier lector no especialista, no corresponde a ninguna entidad anatómica reconocida por la neurociencia.
El error fue detectado posteriormente por expertos humanos y atribuido a una alucinación del modelo, que combinó conceptos reales —como los ganglios basales— para producir una noción falsa pero lingüísticamente plausible. Aunque el episodio no derivó en consecuencias clínicas directas, el caso expuso con crudeza un problema estructural: incluso en contextos científicos y médicos, donde la precisión es crítica, los modelos más avanzados pueden inventar información con una coherencia suficiente como para atravesar instancias de revisión preliminar. En estos ámbitos sensibles, una alucinación no es solo un fallo técnico: puede convertirse en un riesgo potencial para la investigación, el diagnóstico y la toma de decisiones.
¿Por qué persisten las alucinaciones?
La Inteligencia Artificial prefiere inventar antes que quedarse en silencio. La raíz del problema es estructural, porque los modelos de lenguaje no verifican hechos, sólo generan texto probable. Así, cuando la información es ambigua, incompleta o inexistente, el sistema tiende a completar los vacíos con construcciones plausibles.
Para disminuir el comportamiento errático de las máquinas, el humano construyó algunas técnicas específicas como la llamada RAG: la generación aumentada por recuperación, que obliga al modelo a consultar bases de datos externas y citar fuentes verificables. Estas estrategias lograron disminuir significativamente las alucinaciones en contextos acotados y bien definidos. Sin embargo, en tareas complejas que requieren razonamiento encadenado, interpretación normativa o evaluación contextual, el problema persiste. Porque la alucinación no es un defecto accidental, sino una consecuencia directa de cómo estos sistemas producen lenguaje.
Tu deliras, ella alucina, nosotros padecemos
La alucinación humana y la de inteligencia artificial comparten el nombre, pero no el origen ni el sentido. Si bien ambas fabrican realidades que no existen y pueden resultar tan convincentes que engañan a quienes las experimentan: el humano se convence a sí mismo de un mundo paralelo; la máquina convence al usuario de un hecho inexistente.
Las alucinaciones humanas son síntomas asociados a estados emocionales extremos, consumo de sustancias, situaciones de estrés profundo o patologías neurológicas. Implica una ruptura con la percepción consensuada de la realidad y, en muchos casos, quien alucina es consciente —al menos parcialmente— de que algo no encaja. La duda, el miedo o el desconcierto forman parte de la experiencia.
Las alucinaciones de la Inteligencia Artificial, en cambio, no conllevan percepción, conciencia ni conflicto interno. Porque las máquinas no saben que no saben. No dudan, ni sospechan. Responden siempre con la misma seguridad tanto cuando aciertan como cuando están inventando.
Las alucinaciones de la IA no son desvíos patológicos, sino una manera normal del funcionamiento del sistema, respondiendo a los parámetros bajos los cuales fue programada.
Ahí estriba la diferencia más inquietante: mientras el humano puede callar, vacilar o corregirse, la IA tiende a llenar el vacío con una respuesta plausible. No imagina: completa. No delira: predice. Y precisamente por eso, su error puede resultar más convincente —y más peligroso— que el humano.
[1] Letra de la canción La pelícana y el androide. García-Spinetta https://www.letras.com/charly-garcia/la-pelicana-y-el-androide-part-luis-alberto-spinetta/
[2] Spinetta. Crónicas e iluminaciones. Eduardo Berti https://www.planetadelibros.com.ar/libro-spinetta-cronicas-e-iluminaciones/171376
[3] Artificial Intelligence Index Report 2025 de la Universidad de Stanford https://hai-production.s3.amazonaws.com/files/hai_ai_index_report_2025.pdf
