Las mentiras de la IA y el peligro de creer sus datos

H. L. M. / M. E.
-

El catedrático de la UCLM José Ángel Olivas recuerda que el peligro de la nueva Inteligencia Artificial radica en pensar que las máquinas no nos mentirán como ocurre con una búsqueda en Google o el GPS

Las mentiras de la IA y el peligro de creer sus datos - Foto: Rueda Villaverde

La inteligencia artificial (IA) ya es una realidad. Hasta hace unos años esta expresión estaba circunscrita a la ciencia ficción. Películas como Blade Runner, Una odisea en el espacio o Terminator basaron su hilo argumental en la capacidad de las computadoras de tomar conciencia y rebelarse ante sus creadores para fabricar un mundo propio. Es obvio que aún no se ha llegado a ese apocalipsis, pero la feroz carrera comercial por desarrollar y explotar esta tecnología está poniendo en peligro la correcta evolución de lo que debería ser un avance en beneficio de todos.

La reciente comercialización de ChatGPT ha sido el último paso al frente dado en la implantación de la IA, un software especializado en diálogo y optimizado con técnicas de aprendizaje que es capaz de mantener una conversación con sentido, como si de un humano se tratara. Es solo un ejemplo de las aplicaciones de IA que están rodeando nuestras vidas cada vez más, con imitaciones perfectas de voces de famosos, o la elaboración de imágenes con conocidos en situaciones simuladas pero aparentemente reales, como las fotografías del papa luciendo un gran plumas blanco, o del expresidente de EEUU Donald Trump detenido por agentes del orden.

En el Campus de Ciudad Real existe un grupo de investigadores que lleva años trabajando con la inteligencia artificial, desarrollando proyectos que se basan en su proceso y cuenta, además, con uno de los mayores expertos del mundo en este ámbito, el catedrático José Ángel Olivas, que, además, estudió con el creador de la estadística difusa, las matemáticas que están detrás de la IA. «La inteligencia artificial simula algún comportamiento humano, tanto en la forma de actuar como en la de comportarse, mediante medios computacionales».

El profesor Francisco Pascual Romero, uno de los investigadores de la UCLM en IA, junto a José Ángel OlivasEl profesor Francisco Pascual Romero, uno de los investigadores de la UCLM en IA, junto a José Ángel Olivas - Foto: Rueda Villaverde

Olivas señala que la inteligencia artificial lleva años con nosotros, más incluso que los ordenadores, pero ha habido un salto en los últimos tiempos, debido al marketing, por una parte, pero también a que ha aumentado «la potencia computacional», lo que ha permitido que ahora se puedan procesar modelos que antes no podían hacerse en los ordenadores. «Puedes tener en casa máquinas de varios teras de RAM y, yo, cuando estaba en Berkeley estudiando, tenía una de 20 megas de disco duro y cuatro megas de RAM». Eso premite los modelos computacionales, como Chat GPT, que toma muchos datos para desarrollar sus respuestas.

El problema es que los «datos son lo que son» y «no hay datos perfectos», ya que dependen de quién los toma o si son completos. ChatGPT es un ejemplo de esta situación. Se trata de una inteligencia artificial que «miente», al tomar de internet sus datos, aunque puedan ser falsos. «Entonces se inventa gente, se inventa su currículum» o «se inventa referencias bibliográficas». Lo cuenta, lo escribe o habla como si fuera un humano y «lo normal es que te lo creas, como ocurre con publicaciones que llegan por WhatsApp de gente que dice que es médico o con las cosas que se leen en Google». «Lo he leído en Google era un símbolo de que lo que se dice es verdad». Lo mismo ocurre con las IA dedicadas a producir imágenes, que acaban mostrando imágenes que no son reales.

Respondiendo a la pregunta inicial, ¿qué peligros tiene la IA?, Olivas responde que «ninguno, creo». Eso sí, pone el acento en el cuidado de los datos, al igual que ocurre con las imágenes, por la posibilidad de que surjan fakes. «Van a tener que cambiar los protocolos», ya que se pueden generar imágenes que simulen delitos o, por ejemplo, fotos falsas de una persona con un amante. «Tenemos que tener los ojos abiertos con la tecnología» advierte y señala que el ejemplo más claro es el que ya se vivió hace unos años, con la llegada del GPS y los conductores que se fiaban más de la ruta marcada que de sus ojos. Eso dejó camiones atascados en mitad de las ciudades o coches intentando bajar por escaleras. Hay que ser conscientes que la tecnología no es todo, y una parte la tiene que poner la mente humana. De hecho, tras cada conversación, ChatGPT recuerda que «puede producir información inexacta sobre personas, lugares o hechos».

Con todo, la IA está propiciando ya cambios en Informática y otras facultades al impartir sus clases, porque la tarea ya no se hace en casa sino en clase, por ejemplo. «Ahora hay que invertir los roles en la educación». Igualmente, en cuanto a las empresas, recuerda que «que quizá haya que ir especializando más los puestos», para que, por ejemplo, en vez de tener programadores y escribir un código, se revise el que genere la IA, que también tiene fallos como ocurre con sus citas.

Entre las investigaciones que desarrolla el grupo con Inteligencia Artificial en Ciudad Real se encuentra una iniciativa para pronosticar qué cantidad de energía hace falta en una comunidad. Ajustando las veces que se consumía poco con las que se generaba mucho, descubrieron que más allá de los datos hay intangibles, como que en un municipio turístico lleguen visitantes o la propia sequía, aspectos a estudiar para generar una IA.