Escándalo en Facebook: cuatro revelaciones sobre los memos filtrados de la empresa

Miles de páginas de documentos filtrados pintan una imagen perjudicial de la empresa que ha priorizado el crecimiento.

Facebook se enfrenta a su crisis más grave desde el escándalo de Cambridge Analytica, después de que una denunciante que acusa a la empresa de anteponer el "beneficio a la seguridad" arrojara luz sobre su funcionamiento interno a través de miles de páginas de memos filtrados.

Los documentos fueron revelados a los reguladores estadounidenses y proporcionados al Congreso por el asesor legal de Frances Haugen. Un consorcio de organizaciones de noticias, incluido el Financial Times, ha obtenido las versiones redactadas que recibió el Congreso.

A principios de este mes, Haugen declaró en el Congreso que la empresa de redes sociales no hace lo suficiente para garantizar la seguridad de sus 2900 millones de usuarios, le quita importancia al daño que puede causar en la sociedad y ha engañado repetidamente a los inversores y al público. El Wall Street Journal también publicó una serie de artículos llamados "Facebook Files" [los archivos de Facebook].

Aquí cuatro sorprendentes revelaciones que contienen los documentos:

Facebook tiene un enorme problema de lenguaje

Se suele acusar a Facebook de no moderar el discurso de odio en sus sitios en inglés, pero el problema es mucho peor en los países que hablan otros idiomas, incluso después de que prometiera invertir más tras ser culpado por su papel en facilitar el genocidio en Myanmar en 2017.

Escándalo en Facebook: la empresa engañó a los inversores sobre sus cifras de usuarios, le dijo exempleada a la SEC

Un documento de 2021 alertaba sobre su bajísimo número de moderadores de contenidos en los dialectos árabes que se hablan en Arabia Saudita, Yemen y Libia. Otro estudio sobre Afganistán, donde Facebook tiene 5 millones de usuarios, descubrió que incluso las páginas que explicaban cómo denunciar la incitación al odio estaban mal traducidas.

Los fallos se produjeron a pesar de que la propia investigación de Facebook marcó algunos de los países como de "alto riesgo" debido a su frágil panorama político y a la frecuencia de los discursos de odio.

Según un documento, la compañía destinó el 87% de su presupuesto para desarrollar sus algoritmos de detección de desinformación a Estados Unidos en 2020, frente al 13% que destinó al resto del mundo.

Haugen dijo que Facebook debería ser transparente sobre los recursos que tiene por país e idioma.

Facebook muchas veces no entiende cómo funcionan sus algoritmos

Varios documentos muestran a Facebook perplejo con sus propios algoritmos.

Un memorando de septiembre de 2019 descubrió que los hombres recibían un 64% más de publicaciones políticas que las mujeres en "casi todos los países", siendo el problema especialmente grave en los países africanos y asiáticos.

Aunque los hombres eran más propensos a seguir cuentas que producían contenido político, el memorándum decía que los algoritmos de clasificación del feed de Facebook también habían jugado un papel importante.

Un memorándum de junio de 2020 concluyó que estaba "prácticamente garantizado" que los "principales sistemas de Facebook muestran sesgos sistémicos basados en la raza del usuario afectado".

El autor sugirió que tal vez la clasificación del feed de noticias está más influenciada por las personas que comparten con frecuencia que por las que comparten y participan con menos frecuencia, lo que puede correlacionarse con la raza. Esto hace que se prioricen los contenidos de ciertas razas sobre otras.

Al fallar su IA, Facebook dificulta la denuncia de los discursos de odio.

Facebook lleva mucho tiempo diciendo que sus programas de inteligencia artificial pueden detectar y eliminar el discurso de odio y el abuso, pero los archivos muestran sus límites.

Según una nota de marzo de 2021 elaborada por un grupo de investigadores, la empresa sólo actúa en un 3 a 5% de los discursos de odio y en un 0,6% de los contenidos violentos. Otra nota sugiere que tal vez nunca consiga pasar del 10% al 20%, debido a que es "extraordinariamente difícil" para la IA entender el contexto en el que se utiliza el lenguaje.

No obstante, Facebook ya había decidido confiar más en la IA y recortar el dinero que estaba gastando en la moderación humana en 2019 cuando se trataba del discurso de odio. En particular, la compañía hizo más difícil denunciar y apelar las decisiones sobre el discurso de odio.

Facebook dijo "al combatir el discurso de odio en Facebook, nuestro objetivo es reducir su prevalencia, que es la cantidad que la gente realmente ve". Añadió que la incitación al odio sólo representa el 0,05% de lo que ven los usuarios, cifra que ha reducido en un 50% en los últimos tres trimestres.

Facebook daba vueltas mientras el Capitolio ardía

Los documentos revelan la lucha de Facebook por contener la explosión de la incitación al odio y la desinformación en su plataforma en torno a los disturbios del 6 de enero en Washington, lo que provocó una agitación interna.

Los memos muestran que la empresa desactivó ciertas protecciones de emergencia a raíz de las elecciones de noviembre de 2020, para luego volver a activarlas cuando estalló la violencia. Una evaluación interna descubrió que la rápida aplicación de las medidas se vio obstaculizada por la espera de la aprobación del equipo político.

Proyecto polémico: regalan criptomonedas a cambio de un escaneo ocular

Incluso las acciones proactivas no tuvieron el efecto deseado. En octubre de 2020, Facebook anunció públicamente que dejaría de recomendar "grupos cívicos", que discuten cuestiones sociales y políticas. Sin embargo, debido a las dificultades técnicas para aplicar el cambio, entre mediados de octubre de 2020 y mediados de enero de 2021 se siguió recomendando diariamente a 3 millones de usuarios estadounidenses al menos uno de los 700.000 grupos cívicos identificados, según una nota de investigación.

La respuesta de Facebook

Facebook se negó a comentar algunos de los detalles de las acusaciones, y en su lugar dijo que no anteponía los beneficios a la seguridad o el bienestar de las personas y que "la verdad es que hemos invertido u$s 13.000 millones y tenemos más de 40.000 personas para hacer un trabajo: mantener a la gente segura en Facebook".

Temas relacionados
Más noticias de Facebook

Las más leídas de Financial Times

Destacadas de hoy

Noticias de tu interés

Comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.
  • EM

    Ezequiel Mascuka

    26/10/21

    O sea que están de acuerdo en fomentar la censura? Porque decir que las elecciones en EEUU fueron robadas o que la vacuna COVID-19 está en etapa experimental y no debe ser mandatoria queda considerado como "discurso de odio". Como medio de comunicación periodístico no deberían estar a favor de la censura... salvo que ustedes sean un medio editorial alineado con ese tipo de políticas...

    2
    0
    Responder