ESPEC FICAMENTE LAS POL TICAS Y PERIODISTAS

Las mujeres son agredidas cada 30 segundos en Twitter

Son conclusiones de un estudio en el que voluntarios leyeron 300.000 tuits de 2017 que mencionaron a alguna de las 778 mujeres de una lista previamente armada

Las mujeres políticas y periodistas fueron maltratadas por Twitter cada 30 segundos en 2017, según el mayor estudio hasta el momento sobre cómo las mujeres son blanco de discursos de odio online.

Investigadores de Amnistía Internacional y Element AI, una startup de software de inteligencia artificial utilizaron voluntarios para leer 300.000 tuits que mencionaron a alguna de las 778 mujeres de una lista en 2017 y marcaron los comentarios agresivos apuntados a cuestiones de género, raza y sexualidad.

Los hallazgos, cuando se extrapolan, sugieren que se enviaron 1,1 millones de tuits con insultos a las mujeres de su lista, en la que se incluyó a todas las miembros del parlamento británico, las legisladoras del Congreso de EE.UU. y una serie de periodistas que trabajan en medios de comunicación de todo el espectro político, desde Pink News y The Guardian hasta Daily Mail y Breitbart.

Las mujeres de color fueron más propensas a ser mencionadas en tuits agresivos. Las mujeres de raza negra tenían casi el doble de probabilidades de ser criticadas que sus pares blancas. Diane Abbott, la Secretaria del Interior de la oposición y política laborista, recibió la mayor cantidad de maltratos entre las mujeres británicas, y las estimaciones indican que el número total de improperios que la mencionaron en Twitter fue de 30.000 el año pasado.

"Este tipo de agresión realmente limita la libertad de expresión online de las mujeres. Las lleva a replegarse, restringir sus conversaciones e incluso retirarse por completo", dijo Milena Marin, asesora principal de Tactical Research de Amnistía Internacional, que estudia el tema hace tres años.

"Hablamos con Twitter durante mucho tiempo, pidiendo transparencia en torno a los datos de agresiones. No creo que sea tarea de Amnistía analizar el maltrato en Twitter, pero no tuvimos otra opción", aseguró.

Agregó que con la información recopilada por los investigadores, ahora "tenemos los datos que respaldan lo que las mujeres nos vienen diciendo hace mucho tiempo: Twitter es un lugar donde el racismo, la misoginia y la homofobia pueden prosperar básicamente sin control", señaló Marin.

Los investigadores trabajaron con 6.000 voluntarios de todo el mundo, a quienes se les mostraron tuits anónimos que mencionaban a alguna de las mujeres de la lista y se les pidió que calificaran si era maltrato y por qué.

Cada tuit fue analizado por varias personas. Los voluntarios recibieron un tutorial y definiciones y ejemplos de contenido agresivo y problemático antes de comenzar. Luego, Element AI extrapoló los datos según la magnitud del maltrato que enfrentaron las mujeres y desarrolló una aplicación que intenta detectar si un tuit es agresivo.

"Lo que descubrimos es que tenemos algoritmos que funcionaron, pero no correctamente el 100% de las veces, dijo Julien Cornebise, Director de Investigación de la Fundación AI For Good y director de la oficina de Element AI en Londres. "El criterio humano juega un papel clave, los algoritmos pueden empoderar a los moderadores humanos, pero funciona un poco como un sistema de clasificación. No es perfecto y no puede reemplazar totalmente a las personas".

Twitter, al igual que otras compañías similares de redes sociales, ha luchado contra la avalancha de agresiones que los usuarios, tanto hombres como mujeres, reciben mediante el discurso de odio, noticias falsas y terribles teorías de conspiración.

Recientemente, Jack Dorsey, director ejecutivo de Twitter, inició la búsqueda de una nueva forma de medir la "salud" de las conversaciones online. La compañía intenta reducir las agresiones, trolls y bots en su plataforma, y al mismo tiempo trata de mantener la libertad de expresión.

Twitter está invirtiendo fuertemente en el aprendizaje automático, para desarrollar herramientas automatizadas que puedan juzgar los reportes de maltrato, pero Marin de Amnistía dice que la compañía no ha compartido muchos detalles sobre cómo se capacitan sus algoritmos y cuántos moderadores humanos emplea.

Tags relacionados