Desarrollan detección de ataques a Inteligencia Artificial

EFE
-

La técnica, que ha sido desarrollada por el equipo de investigación 'Visilab', de la Escuela Técnica Superior de Ingeniería Industrial del campus universitario de Ciudad Real

Desarrollan detección de ataques a Inteligencia Artificial - Foto: TOMÁS FERNÁNDEZ DE MOYA

Un grupo de investigadores de la Universidad de Castilla-La Mancha (UCLM) ha desarrollado una técnica que es capaz de detectar imágenes alteradas por atacantes que quisieran manipular la inteligencia artificial con fines malintencionados.

La técnica, que ha sido desarrollada por el equipo de investigación 'Visilab', de la Escuela Técnica Superior de Ingeniería Industrial del campus universitario de Ciudad Real, ha sido descrita en el artículo 'Lyapunov stability for detecting adversarial image examples' publicado en la revista Chaos, Solitons and Fractals de la editorial Elsevier, que ha logrado uno de los índices de impacto más altos en su campo.

Desarrollan detección de ataques a Inteligencia ArtificialDesarrollan detección de ataques a Inteligencia Artificial - Foto: TOMÁS FERNÁNDEZ DE MOYA

El artículo revela cómo la inteligencia artificial está detrás de aspectos tan cotidianos como las recomendaciones de Netflix, la publicidad personalizada que nos aparece en internet o algunas de las funciones que proporcionan los teléfonos inteligentes (smartphone), como el reconocimiento facial, ha informado este martes en una nota de prensa la UCLM.

Sin embargo, como es posible su manipulación con fines malintencionados, los investigadores de grupo 'Visilab' han buscado una técnica para detectarla, ya que -como advierten en su artículo- cuando se depende de una máquina para controlar un sistema de vigilancia o dirigir un vehículo autónomo, se quiere que el entorno sea lo más seguro posible.

Sin embargo, en estos casos, se abre la posibilidad de que un ataque malintencionado altere la entrada del sistema con pequeñas perturbaciones inocuas al ojo humano, pero cambiando el comportamiento del sistema de forma sustancial.

Un ataque de este tipo podría provocar, por ejemplo, que el vehículo no detectase una señal de stop cuando se ha manipulado, colocando un pequeño adhesivo que contenga un patrón determinado.

Este fenómeno es conocido como ejemplos adversarios y se trata de imágenes a las que se les han modificado algunos pixeles, de forma que la inteligencia artificial no es capaz de funcionar con normalidad.

La técnica desarrollada se enmarca dentro de la tesis doctoral desarrollada por Aníbal Pedraza, junto a sus directores Óscar Déniz y María Gloria Bueno.

En ella se analizan las propiedades de las imágenes cuando son procesadas por una red neuronal, desde el punto de vista de la teoría del caos.

La intuición detrás de este trabajo, según el investigador, es que las alteraciones en píxeles puntuales de una imagen pueden suponer puntos caóticos en el sistema de la red neuronal.

Así, a diferencia de otros trabajos similares, en ése no solo se analizan las imágenes de entrada, sino cómo afectan al modelo de inteligencia artificial en sus componentes internos, mientras están siendo procesadas, lo cual aporta una información mucho más rica a la hora de determinar si se trata de una imagen alterada por un atacante o, por el contrario, no ha sido modificada.

Esta técnica ha sido validada en una serie de conjuntos de datos con muestras de distintos tipos, desde dígitos numéricos (útiles para la digitalización de texto escrito), hasta fotografías de objetos del mundo real.

Con la técnica propuesta, se consiguen tasas de detección del 60 por ciento en los escenarios más complejos, alcanzando valores cercanos al cien por cien en la mayoría de las pruebas realizadas, ha indicado la UCLM, que ha añadido que se puede afirmar que el método desarrollado tiene aplicación en una gran variedad de casos de uso, con imágenes de diversa naturaleza y frente a distintos tipos de ataques.