La Inteligencia Artificial podría prevenir casos de violencia de género

Un trabajo final del máster universitario de Ciencia de Datos de la UOC propone el uso de la inteligencia artificial para prevenir casos de violencia de género en España. El análisis de datos se utiliza para crear modelos de aprendizaje automático que permiten obtener poblaciones objetivo de posibles agresores y víctimas. «La IA puede detectar potenciales riesgos de violencia de género a partir de situaciones similares en casos pasados», afirma Laia Subirats, profesora colaboradora de los Estudios de Informática, Multimedia y Telecomunicación de la UOC. Además, se pueden tener en cuenta múltiples variables de datos provenientes de diferentes bases de datos para tomar decisiones de forma más informada.

La idea es recopilar datos de los casos de violencia de género que se produzcan para conformar los perfiles de agresores y víctimas que permiten crear los modelos de aprendizaje automático necesarios. El autor del trabajo, Javier Plo Moreno, define el concepto de perfil como un conjunto de atributos o características determinantes para que alguien pueda convertirse en agresor o en víctima en un momento dado, según investigaciones en sociología, psicología y psiquiatría. Entre los atributos se incluyen la exposición a abusos en la infancia, el nivel cultural, el tratamiento psicológico o psiquiátrico, las medidas de alejamiento, la custodia de hijos, los problemas económicos, la publicación de contenidos sexistas en las redes sociales, las adicciones y los atestados policiales.

El objetivo del sistema propuesto es detectar posibles agresores y víctimas para prevenir futuros casos de violencia de género y obtener información para definir estrategias de concienciación y vigilancia donde sea necesario. Esto podría ser posible, por ejemplo, promoviendo la concienciación en las zonas donde se encuentran más perfiles de posibles agresores, aumentando la vigilancia por parte de los cuerpos de seguridad o incrementando la atención psiquiátrica y psicológica en dichas zonas. Aunque el sistema presenta algunos desafíos, como evitar sesgos en los datos y en los algoritmos, podría ser un paso importante para combatir la violencia de género en España.

Lenguaje sexista en redes

El lenguaje sexista en las redes sociales puede jugar un papel importante en la prevención de la violencia de género, según Laia Subirats, miembro del grupo Applied Data Science Lab de la UOC. El procesamiento del lenguaje natural puede identificar y clasificar el sexismo y detectar discursos de odio utilizando técnicas de aprendizaje automático. También se pueden extraer temas de los textos publicados en las redes sociales para identificar los más predominantes, utilizando la técnica de Latent Dirichlet Allocation.

Además de prevenir la violencia de género, el sistema propuesto también tiene como objetivo aumentar el conocimiento sobre los procesos que llevan a una persona no violenta a serlo en diferentes ámbitos. Los atributos de estos procesos pueden ser sucesos que le podrían ocurrir a cualquiera de nosotros, según el autor del trabajo, Javier Plo Moreno. «Nadie nace siendo agresor o víctima», dice Moreno.

A pesar de los esfuerzos por combatir la violencia de género, el número de mujeres víctimas aumentó un 3,2 % en el año 2021, según los últimos datos del INE. La tasa de víctimas de violencia de género fue de 1,4 por cada 1.000 mujeres mayores de 14 años.

Ciencia útil

El análisis de datos y la inteligencia artificial se han utilizado en el pasado para combatir la violencia de género, pero el trabajo «Arquitectura de un sistema de ayuda a la prevención de casos de violencia de género en España» es el primero en utilizarlos para anticiparse a futuros casos. Según los autores del estudio, la mayoría de los enfoques anteriores se centraban en predicciones numéricas de la evolución de los casos en el tiempo, en el análisis de términos relacionados con la violencia de género en las redes sociales, o en mejoras en los sistemas predictivos existentes en ámbitos muy concretos. Sin embargo, hasta ahora no se había vinculado a posibles agresores y víctimas con antelación.

La profesora colaboradora de la UOC, Laia Subirats, afirma que la principal dificultad en el desarrollo del sistema es evitar sesgos en los datos y en los algoritmos. Además, el autor del estudio indica que sería necesario establecer una legislación para poder obtener información personal y que las redes sociales proporcionen datos que ayuden a las fuerzas de seguridad a identificar a posibles agresores y víctimas.

Basado en Nota de la UOC

Últimos artículos

Scroll al inicio