diciembre 13, 2025, Puebla, México

diciembre 13, 2025, Puebla, México

Alucinaciones; la gran falla de la Inteligencia Artificial / Carlos Humberto Rodríguez Giacintti

A la frase: “No creas todo lo que lees”, podríamos agregarle: …sobre todo, tratándose de respuestas de la Inteligencia Artificial

Desde hace pocos años una de las más grandes y atractivas novedades de las empresas tecnológicas es la Inteligencia Artificial (IA); esa tecnología que permite a las máquinas simular capacidades humanas como el aprendizaje, la resolución de problemas, la toma de decisiones y la creatividad. La Inteligencia Artificial es también una nueva forma de resolver problemas mediante sistemas expertos y procesadores; en otras palabras, es un sistema inteligente definido como una estructura de programación capaz de almacenar y utilizar conocimiento que se traduce en su propia capacidad de aprendizaje.

En 1956, John McCarthy acuñó la expresión «inteligencia artificial», y la definió como «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes». Pero no fue sino hasta 2015 que la IA comenzó a tener relevancia por sus aplicaciones y particularmente a fines de 2022 con el lanzamiento de ChatGPT, una inteligencia artificial generativa capaz de escribir textos y responder preguntas en muchos idiomas. Hoy existen muchos campos donde se ha desarrollado extraordinariamente la IA, como son: Automatización de tareas repetitivas y rutinarias en la entrada de datos o la gestión de inventarios; Atención al cliente: Los chatbots y asistentes virtuales que responden preguntas frecuentes, gestionan solicitudes y ofrecen soporte 24/7, mejorando la experiencia del usuario; Detección de fraude: Algoritmos analizan patrones de transacciones para identificar actividades sospechosas, ayudando a prevenir fraudes; Marketing personalizado: campañas adaptadas a las preferencias de los clientes, recomendando productos o servicios basados en su historial de compras y de navegación en Internet; Mantenimiento predictivo: En manufactura, la IA analiza datos para predecir fallos en equipos. La IA ofrece, también, ventajas como la reducción de errores humanos, la toma de decisiones basada en datos, la disponibilidad constante y la capacidad de operar en entornos peligrosos. Por ejemplo, en la medicina, la IA puede asistir en diagnósticos y procedimientos quirúrgicos con mayor precisión.

Alucinaciones

En la actualidad, la inteligencia artificial ha demostrado su poder para transformar industrias enteras y cambiar la forma en que se interactúa con la tecnología, sin embargo, surge un fenómeno que despierta bastantes dudas y preguntas: las alucinaciones de la IA. Estas son un fenómeno en el que un modelo de IA percibe patrones u objetos que no existen, generando resultados inexactos o sin sentido, respuestas incoherentes, completamente erróneas o falsas. Mas allá de especulaciones y consideraciones éticas que se han planteado sobre la IA, una de las revelaciones más inquietantes llegó desde OpenAI, la empresa estadounidense de inteligencia artificial y creadora de ChatGPT que señala en un estudio: “Las alucinaciones —esas respuestas falsas, fabricadas, pero expresadas con total seguridad por los modelos de inteligencia artificial — no son un error que pueda corregirse, sino una limitación estructural de la tecnología actual”.

Ejemplos de alucinaciones

McDonald’s pone fin a su experimento de IA tras errores en los pedidos de autoservicio, como el caso de un cliente al que le pretendían entregar 250 Mcnuggets, entre muchos casos de errores; El chatbot Grok (de Elon Musk) acusó erróneamente a un jugador de la NBA de vandalismo, porque en baloncesto es habitual la frase “lanzar ladrillos” para referirse a un tiro mal lanzado; Un abogado de Levidow, Levidow & Oberman en Nueva York, usó ChatGPT para encontrar antecedentes en un caso de un empleado de Avianca, pero seis de los antecedentes que presentó no existían, incluían nombres y números de expedientes falsos, con citas falsas, por lo que el abogado declaró que desconocía que el contenido de ChatGPT podía ser falso y lamentó haber utilizado IA en su investigación; Air Canada paga daños y perjuicios por mentiras de ofertas de su chatbot; El software de selección de personal de ITutor Group rechazaba aspirantes por su edad, relata la Comisión para la igualdad de Oportunidades de Empleo (EEOC), que el programa rechazó automáticamente más de 200 solicitudes de candidatos cualificados de 55 años o más; Zillow, el marketplace inmobiliario, perdió millones de dólares cuando el algoritmo para predecir el precio de mercado de viviendas erróneamente los llevó, involuntariamente, a comprar casas a precios más elevados; El chatbot MyCity, proporcionando información incorrecta, estaba animando a empresarios de Nueva York a infringir la ley; El uso de datos de Twitter para ML, el chatbot de Microsoft, llevó a éste a lanzar “tuits” racistas; Google Photos clasificó erróneamente a personas negras como “gorilas”; Un coche autónomo de Uber atropelló y mató a una peatona en Arizona; La científica de datos Teresa Kubacka inventó la frase “electromagnón invertido cicloidal” y preguntó a ChatGPT sobre este fenómeno (inexistente), a lo que la IA inventó una respuesta que parecía verosímil, con citas que parecían plausibles; Fast Company pidió a ChatGPT generar un artículo sobre el último trimestre financiero de Tesla y creó un artículo coherente, pero las cifras financieras eran inventadas; Otros errores de ChatGPT como el que inventó que Harold Coward escribió un libro titulado “Canonicidad dinámica: Un modelo para la interpretación bíblica y teológica” lo que es totalmente falso, también afirmó que había restos fósiles de herramientas de dinosaurios que construyeron una civilización, y afirmó que, según la revista Science, los “churros”, los deliciosos pasteles de masa frita, son herramientas ideales para la cirugía casera.  

El estudio señalado de OpenAI sugiere un camino que parece simple para solucionar las alucinaciones de la IA, reconocer y expresar incertidumbre. En lugar de forzar siempre a dar una respuesta, los sistemas podrían optar por señalar los límites de su conocimiento, devolver información verificada o rechazar preguntas cuya respuesta no pueden garantizar; enseñar a la IA a decir “no sé”.

Sin duda, la Inteligencia Artificial está revolucionando nuestro mundo moderno y las empresas tecnológicas, que son las de mayor valor en el mercado internacional, dan cuenta de ello pero, como sucedió entre 1995 y 2002, con la debacle de las empresas de Internet (también llamadas “dot-com”) donde hubo una “exuberancia irracional y un optimismo exagerado” sobre las posibilidades de Internet, hasta que en el mercado accionario colapsaron las empresas tecnológicas, con quiebras masivas, enormes pérdidas, recesión y despidos laborales, todo ello porque, en esos años, todavía no estaban maduros el mercado y los productos de Internet. Así también, hoy en día, más del 95% de los desarrollos de Inteligencia Artificial fracasan y, como señala OpenAI, las alucinaciones de la IA, hasta hoy, no se pueden resolver y, mientras no se resuelvan, su aplicación real será sumamente útil, pero claramente limitada y muy dependiente de la intervención humana. A la frase: “No creas todo lo que lees”, podríamos agregarle: …sobre todo, tratándose de respuestas de la Inteligencia Artificial. La IA plantea posibilidades extraordinariamente interesantes y atractivas hacia el futuro, pero también opciones escalofriantes como las de muchas novelas de ciencia ficción. Para reflexionar.