El temor de los docentes y otros alarmistas conservadores puede calmarse, pues la inteligencia artificial (IA), como otras tecnologías, también falla. Hace un tiempo, en el mundo de la informática y los medios, se ha discutido sobre un fenómeno detectado y nombrado como hallucination (alucinación).
Según la publicación “¿Qué son las alucinaciones de la IA?”, de IBM (2023): “La alucinación de IA es un fenómeno en el que un modelo de lenguaje grande (LLM), a menudo un chatbot de IA generativa o visión artificial, percibe patrones u objetos que son inexistentes o imperceptibles para los observadores humanos, creando resultados que no tienen sentido o son totalmente inexactos”, es decir, las respuestas de la IA suelen mostrar datos erróneos, entrecruzar información de distintas fuentes y otorgar el crédito a otras personas o afirmar datos imprecisos.
TE PUEDE INTERESAR: FAQ: ¿Qué es y para qué sirve un observatorio de medios?
En el mundo científico ha llamado la atención la elección del término, pues suele asociarse a un concepto que explica la mente humana, y no a una máquina, pero según IBM, la elección se ha dado “desde un punto de vista metafórico, la alucinación describe con precisión estos resultados, especialmente en el caso del reconocimiento de imágenes y patrones (donde los resultados pueden tener una apariencia verdaderamente surrealista)”.
Se ha justificado, además, el término por la semejanza con que “los humanos a veces ven figuras en las nubes o caras en la luna. En el caso de la IA, estas interpretaciones erróneas se producen debido a varios factores, como el sobreajuste, el sesgo de los datos de entrenamiento y la alta complejidad del modelo”. Si bien el término es impreciso y le otorga a la máquina un sentido humanizado, pues indica que también “alucina”, lo cierto es que es un problema actual y un desafío para quienes se informan mediante las IA.
Aunque los directivos de las organizaciones de las IA han mostrado preocupación por mejorar sus modelos de programación, el error persiste y es frecuente en las respuestas que ofrecen a sus usuarios. Algunos tipos comunes de alucinaciones son: 1) Emisión de datos falsos o imprecisos: citar autores, libros, fechas o cifras que no existen; 2) Referencias inventadas: se suelen inventar artículos académicos o enlaces que suenan reales, pero no existen o entrecruzan títulos, autores y fechas sin ningún respaldo; 3) Conclusiones sin fundamento: como generar interpretaciones o explicaciones que no corresponden a la información dada; 4) Imágenes o descripciones erróneas: objetos deformes, escenarios con contextos imposibles.
Hace unos días, en el periódico El País (2025) entrevistaron a Charles Fadel, fundador del Centro para el Rediseño Curricular de la escuela de posgrado de la Universidad de Harvard, quien expresó lo siguiente: “Las redes sociales compiten por tu atención; la IA va a competir por tus pensamientos”, argumentando que el sistema educativo debe promover “disciplinas críticas” con alfabetización mediática. En parte, para asegurar la adaptabilidad de los estudiantes a prácticas éticas y críticas, y también elevar el grado intelectual de las mismas.
TE PUEDE INTERESAR: Plagio y ChatGPT: Un gran reto para los docentes
Lo interesante de este fenómeno de alucinación es que el mundo gira la responsabilidad a una tecnología que, irónicamente, ha sido creada por humanos, usada por humanos y mitificada por los humanos. No obstante, la responsabilidad social, ética y educativa es de las personas que las utilizan y que las promueven. Las tecnologías, como muchas otras, son sólo medios, pero la educación, la empatía, la gestión de datos con sus aciertos y fallos, parece disminuir ante un mundo que humaniza lo tecnológico y deshumaniza a la sociedad.
Hacer parecer que la educación tiene un nuevo enemigo es asumir la debilidad y negligencia del sistema educativo actual, pues la IA, con sus alucinaciones, nos muestra que el error es de quien lee y de quien pregunta, un error que lleva más tiempo que internet. La formación de seres humanos inteligentes y con capacidad para confirmar información es un compromiso constante con la sociedad y los sistemas educativos. Es de suma importancia recordar que existe un principio de inteligencia: la duda. Entonces, dudemos y verifiquemos; aprendamos a seleccionar y validar datos: esa es y será la encomienda en esta era de la posverdad.
Facebook: Diálogos Digitales UAdeC