Buscador UdeSA

Filtrar búsqueda por categorías

Cómo monitorear la violencia de género en tiempo real

El abuso y la violencia virtual manifestados a través de plataformas digitales afectan gravemente a mujeres y otras identidades feminizadas. Tradicionalmente, los estudios que analizan la violencia digital de género suelen utilizar encuestas o entrevistas para comprender la profundidad del impacto en las víctimas. Paula Luvini, graduada de la Maestría en Ciencia de Datos de la Universidad de San Andrés, observa que las herramientas que recuperan testimonios en primera persona muchas veces no alcanzan para describir el panorama completo de la situación. Por ello, en su trabajo de graduación de la Maestría propone una herramienta desarrollada con inteligencia artificial que permite detectar y monitorear la violencia digital en tiempo real. El proyecto fue desarrollado en colaboración con el Programa de las Naciones Unidas para el Desarrollo Uruguay, el Instituto Nacional de las Mujeres del gobierno de Uruguay y la Embajada Británica de Montevideo. “Es importante que estas herramientas se desarrollen pensando en las sociedades y poblaciones que pretenden ayudar. Contar con modelos entrenados con datos propios y en idiomas distintos al inglés es muy valioso para contribuir a la formulación de políticas públicas locales”, sostiene Luvini. 

En la primera etapa de la investigación, un grupo de anotadores uruguayos construyeron un corpus de 9.000 publicaciones de la red social X (antes Twitter) en las que se mencionara, etiquetara o respondiera a 180 cuentas de mujeres uruguayas políticas, periodistas, comunicadoras, activistas y artistas con más de 3.000 seguidores. Los anotadores clasificaron si los mensajes estaban dirigidos directamente o indirectamente a las mujeres y si tenían un tono abusivo, crítico, positivo o neutral. Luego de cada nueva ronda de anotaciones manuales se volvía a entrenar al modelo para optimizar su capacidad de detección. Para su investigación, Luvini utilizó este corpus de mensajes para entrenar un modelo de aprendizaje automático capaz de identificar si un mensaje estaba dirigido o no hacia una usuaria y su categoría de intención.

En cuanto al target de los mensajes examinados, el 83% del total de las publicaciones tenía un destinatario específico. Las cuentas de X de figuras políticas fueron las que recibieron la mayor cantidad de mensajes y el mayor porcentaje de publicaciones abusivas, seguido por las periodistas. En relación con las categorías de intención, el tono del 44% de los mensajes fue catalogado como abusivo y el 39% como crítico; evidenciando la fuerte violencia en las publicaciones. El modelo de aprendizaje automático mostró una mayor precisión en la detección de mensajes positivos, mientras que la categoría crítica tuvo la menor precisión. Sin embargo, el modelo tendió a confundir mensajes críticos o sarcásticos con otros abusivos o denigrantes. “La tarea de anotación de tweets es subjetiva y depende del contexto, lo que dificulta la distinción entre crítica y abuso, incluso para los humanos. Para mejorar la detección es importante incluir contexto en los datos de entrenamiento, especialmente en los casos en donde el abuso puede estar implícito. De todos modos, el modelo de aprendizaje demostró poder captar las sutilezas del lenguaje e identificar mensajes abusivos más allá del uso concreto de palabras ofensivas”, explica Luvini. 

Este sitio utiliza Cookies