Astronomía, divulgación, descubrimientos, ecología, innovación...
UN ESTUDIO LO REVELA
El proyecto relaciona las denuncias policiales por odio hacia extranjeros y la comunidad LGTB con detección automatizada de niveles de odio y toxicidad en redes sociales.
Un estudio de la Universidad de Salamanca demuestra que es posible anticipar el incremento de delitos de odio en España utilizando sólo datos de redes sociales como X y Facebook.
La investigación, publicada esta semana por la revista del grupo Nature Humanities and Social Sciences Communications, utilizó técnicas de inteligencia artificial para analizar de forma masiva y automatizada los mensajes.
Después, los incluyó en hasta 48 modelos matemáticos para pronosticar dos tipos de crímenes de odio: dirigidos hacia migrantes y hacia la comunidad LGTBI. El mejor modelo permitía explicar hasta en un 64% el número de denuncias agregadas cada día por motivos racistas o xenófobos.
La investigación modeló los datos de denuncias policiales de crímenes de odio reportados en España entre 2016 y 2018, con mensajes tóxicos y de odio publicados en las mismas fechas en X y en Facebook.
Los resultados muestran no sólo una correlación temporal entre ambos fenómenos, sino que ha podido generar una serie de modelos predictivos que permiten anticipar con cierta precisión cuándo aumentarán las denuncias.
"Aunque el estudio no establece una relación de causalidad directa, creemos que el lenguaje inflamatorio en redes sociales podrá ser un indicador clave para detectar potenciales actos de crímenes de odio", explica Carlos Arcila Calderón, profesor titular de la Universidad de Salamanca e investigador principal del trabajo.
En la investigación, financiada por la Unión Europea, participan profesores del Observatorio de los Contenidos Audiovisuales (OCA), miembros de la Oficina Nacional de Lucha Contra los Delitos de Odio (ONDOD) del Ministerio del Interior, así como investigadores de las universidades de Malmo, y de la Rey Juan Carlos y Autónoma de Madrid.
Los resultados de este estudio pionero en España también revelaron que los modelos funcionan mejor al utilizar datos nacionales y no locales, con agregaciones semanales y no diarias, y con datos relacionados con los delitos hacia migrantes en comparación con los dirigidos hacía la comunidad LGTBI.
Para sorpresa de los investigadores, los indicadores básicos del denominado lenguaje tóxico (amenazas, insultos, ataques, etc.) también dieron mejores resultados que los indicadores específicos de odio en los modelos.
Según Tomás Fernández Villazala, director de la ONDOD y firmante del estudio, la monitorización de los mensajes tóxicos y del discurso de odio en redes sociales podría jugar un papel crucial en la identificación de riesgos de violencia.
El autor explica que, aunque en este estudio los datos de Facebook aportaron más información que los de X, la monitorización de diferentes fuentes puede permitir tener un panorama más claro sobre el posible aumento de denuncias en las comisarías por personas vulnerables.
El estudio evita hablar de causalidad entre un fenómeno y otro, pero sí indica que, en la mayoría de los casos, los mensajes con lenguaje inflamatorio precedieron temporalmente a los de las denuncias policiales, lo que podría sugerir que los contenidos propagados por redes sociales serían el caldo de cultivo para la perpetración de actos violentos en entornos físicos.
Según Arcila Calderón, estos hallazgos coinciden con estudios similares en Estados Unidos y Alemania, pero son inéditos por la calidad de los datos procesados.
Específicamente, se refiere al acuerdo entre investigadores de la Universidad de Salamanca con la ONDOD para el acceso a datos localizados de los crímenes denunciados, así como al análisis computacional de los mensajes con grandes modelos del lenguaje y al uso de algoritmos avanzados para generar los modelos predictivos que se ejecutaron en el Centro de Supercomputación de Castilla y León (SCAYLE).