Glocal
Cuatro claves para entender los “Facebook papers”
-
Cuéntale a tus contactos
-
Recomiéndalo en tu red profesional
-
Cuéntale a todos
-
Cuéntale a tus amigos
-
envíalo por email
Facebook está luchando contra su crisis más grave desde el escándalo de Cambridge Analytica. Esto, después de que una denunciante (Frances Haugen) acusara que la compañía puso durante años las “ganancias por sobre la seguridad”.
Los documentos fueron revelados a los reguladores estadounidenses y proporcionados al Congreso por el asesor legal de Frances Haugen. Un consorcio de organizaciones de noticias, incluido el Financial Times, ha obtenido las versiones redactadas recibidas por el Congreso.
A principios de este mes, Haugen testificó en el Congreso que Facebook no hace lo suficiente para garantizar la seguridad de sus 2.900 millones de usuarios, minimiza el daño que puede causar a la sociedad y ha engañado repetidamente a los inversores y al público.
Aquí, cuatro revelaciones sorprendentes que contienen los documentos.
1. Facebook tiene un gran problema de idioma
A menudo se acusa a Facebook de no moderar el discurso de odio en sus sitios en inglés, pero el problema es mucho peor en países que hablan otros idiomas.
Un documento de 2021 advirtió sobre su muy bajo número de moderadores de contenido en dialectos árabes hablados en Arabia Saudita, Yemen y Libia. Otro estudio de Afganistán, donde Facebook tiene 5 millones de usuarios, encontró que las páginas que explicaban cómo denunciar el discurso de odio estaban traducidas incorrectamente.
Según un documento, la compañía asignó el 87% de su presupuesto para desarrollar sus algoritmos de detección de información errónea en Estados Unidos.
2. Facebook no comprende cómo funcionan sus algoritmos
Un memorando de septiembre de 2019 descubrió que los usuarios hombres recibían un 64% más de contenido político que las mujeres en “casi todos los países”, y el problema era particularmente importante en los países africanos y asiáticos.
Si bien era más probable que los hombres siguieran cuentas que producían contenido político, el memorando decía que sus algoritmos de clasificación de feeds también habían jugado un papel importante.
Además, un memorando de junio de 2020 encontró que estaba “virtualmente garantizado” que los “principales sistemas de Facebook mostraran sesgos sistémicos basados en la raza del usuario afectado”.
3. Facebook hizo más difícil denunciar el discurso de odio
Facebook ha dicho durante mucho tiempo que sus programas de inteligencia artificial pueden detectar y eliminar el discurso de odio y el abuso, pero los archivos muestran sus límites.
Según un documento de marzo de 2021, la compañía toma medidas solo en un 3% a 5% de los discursos de odio y en un 0,6% de contenido violento. Otro memorando sugiere que es posible que nunca logre pasar del 10% al 20%, porque es “extraordinariamente desafiante” para la inteligencia artificial comprender el contexto en el que se usa el lenguaje.
Sin embargo, Facebook ya había decidido confiar más en la inteligencia artificial y recortar el dinero que gastaba en moderación humana en 2019. En particular, la empresa dificultó la denuncia y la apelación de decisiones sobre incitación al odio.
Facebook dijo que “al combatir el discurso de odio en Facebook, nuestro objetivo es reducir su prevalencia”. Agregó que el discurso de odio representa solo el 0,05% de lo que ven los usuarios, una cifra que se ha reducido en un 50% en los últimos tres trimestres.
4. Facebook jugueteó mientras el Capitolio ardía
Los documentos revelan la lucha de Facebook para contener la explosión de discursos de odio y desinformación en su plataforma en torno a los disturbios del 6 de enero en Washington, lo que provocó disturbios internos.
Los memorandos muestran que la compañía desactivó ciertas salvaguardas de emergencia a raíz de las elecciones de noviembre de 2020. Una evaluación interna encontró que la rápida implementación de las medidas se vio obstaculizada por la espera de la aprobación del equipo de políticas.
Incluso las acciones proactivas no lograron el efecto deseado. En octubre de 2020, Facebook anunció públicamente que dejaría de recomendar “grupos cívicos”, que discuten temas sociales y políticos.
Sin embargo, debido a las dificultades técnicas para implementar el cambio, a 3 millones de usuarios estadounidenses se les recomendaba al menos uno de los 700.000 grupos cívicos identificados diariamente entre mediados de octubre de 2020 y mediados de enero de 2021, según una nota de la investigación.
Facebook se negó a comentar sobre algunos de los detalles de las acusaciones, pero en cambio dijo que no anteponía las ganancias a la seguridad o el bienestar de las personas y que “la verdad es que hemos invertido US$ 13.000 millones y tenemos más de 40,000 personas para hacer un trabajo: mantener a las personas seguras en Facebook ”.