Medir la intensidad de los mensajes de odio

Hilario L. Muñoz
-

El egresado Andrés Montoro crea una iniciativa que puede dar con el 'límite' de los comentarios en la red

Medir la intensidad de los mensajes de odio - Foto: Pablo Lorente

Tras los ataques yihadistas que hubo en Europa, las redes recogieron mensajes de contenido xenófobo hacia el mundo árabe. En aquel momento el estudiante de Ingeniería Informática de la UCLM Andrés Montoro pensó en cómo se podría medir la intensidad de ese odio, para lo que creó un software que valorara los contenidos. Su labor le valió la matrícula como trabajo fin de grado, con el apoyo de los profesores de la UCLM Adán Nieto, de Derecho, y José Ángel Olivas, de Informática e integrante del grupo de investigación Smile, y puede convertirse en un proyecto de investigación a gran escala, para lo que se ha solicitado financiación al Gobierno regional. 
«Los delitos de odio son un tema bastante candente con el control que hay sobre lo que se publica en internet», explicó Montoro. Hasta ahora la revisión de mensajes se podría efectuar de forma humana, pero el número es cada vez mayor y ahí es donde es necesaria la inteligencia artificial para revisar el contenido, cribar y remarcar a los propietarios dónde puede haber un posible delito. Por ejemplo, en Alemania ya se dan 24 horas a medios, incluidas las redes sociales, para que eliminen contenidos que inciten al odio. 
El inicio de una aplicación de este tipo parte de su aprendizaje, que se hizo a través de un experimento lanzado a los alumnos de derecho de la facultad  del que a se extrajo la ontología del dominio, una serie de términos relacionados que tienen que ver en este caso con el odio. Se logró así una aplicación similar a las ya existentes y que se fundamentan en la sintaxis y la semántica. «Nosotros empleamos dichas técnicas de procesamiento de lenguaje natural para la detección del mensaje que luego posteriormente clasificamos según su intensidad haciendo uso de análisis de sentimientos y lógica borrosa». A este elemento se unió el uso del artículo 510 del Código Penal, el plan de acción del Rabat y el propio conocimiento del experto para construir una taxonomía, un mapa de conocimiento. 
«Se trata de un modelo para detectar la intensidad del discurso del odio con una serie de variables que afectan al mensaje», resume Montoro. En este sentido para cada escrito se analiza si además de al odio se incita a la violencia al pedir que se actúe contra un colectivo o si existe un clima en el que estos mensajes pueden tener mayor o menor calado. Además es clave el emisor y la difusión, los compartidos del mensaje. Al sumar el contenido con los metadatos se crea «un sistema de inteligencia artificial» que funciona con lógica borrosa, aquella en la que no hay absolutos, y que permite analizar una comunicación para saber «en qué grado un mensaje es potencialmente delictivo», explicó Olivas.
La labor del egresado y de los profesores puede convertirse, si se termina aprobando, en un proyecto de investigación de amplia envergadura con varios doctores implicados en crear una tecnología clave para el futuro de las redes sociales. Hay que tener en cuenta que un software de este tipo serviría tanto para monitorizar la web y hacer un cribado de mensajes de odio, como para hacer una valoración jurídica de esas comunicaciones y saber qué es y qué no es odio. Permitiría conocer los ‘límites’ del odio, porque al igual que con el humor, también hay frontera entre lo que es opinión y lo que es delito. «En derecho penal el discurso del odio es muy ambiguo por la libertad de expresión, a los juristas les cuesta ponerse de acuerdo pero hemos proporcionado una forma medible de identificar el odio».