Click acá para ir directamente al contenido

Glocal

Cuatro claves para entender los “Facebook papers”

Cuatro claves para entender los “Facebook papers”

Justo en la semana donde la matriz de la red social cambió de nombre (Meta), la compañía ha tenido que enfrentar una batahola de críticas sobre las miles de páginas de documentos filtrados que dañaron su imagen.

Por: Financial Times | Publicado: Sábado 30 de octubre de 2021 a las 21:00
  • T+
  • T-

Facebook está luchando contra su crisis más grave desde el escándalo de Cambridge Analytica. Esto, después de que una denunciante (Frances Haugen) acusara que la compañía puso durante años las “ganancias por sobre la seguridad”.

Los documentos fueron revelados a los reguladores estadounidenses y proporcionados al Congreso por el asesor legal de Frances Haugen. Un consorcio de organizaciones de noticias, incluido el Financial Times, ha obtenido las versiones redactadas recibidas por el Congreso.

A principios de este mes, Haugen testificó en el Congreso que Facebook no hace lo suficiente para garantizar la seguridad de sus 2.900 millones de usuarios, minimiza el daño que puede causar a la sociedad y ha engañado repetidamente a los inversores y al público.

Aquí, cuatro revelaciones sorprendentes que contienen los documentos.

1. Facebook tiene un gran problema de idioma

A menudo se acusa a Facebook de no moderar el discurso de odio en sus sitios en inglés, pero el problema es mucho peor en países que hablan otros idiomas.

Un documento de 2021 advirtió sobre su muy bajo número de moderadores de contenido en dialectos árabes hablados en Arabia Saudita, Yemen y Libia. Otro estudio de Afganistán, donde Facebook tiene 5 millones de usuarios, encontró que las páginas que explicaban cómo denunciar el discurso de odio estaban traducidas incorrectamente.

Según un documento, la compañía asignó el 87% de su presupuesto para desarrollar sus algoritmos de detección de información errónea en Estados Unidos.

2. Facebook no comprende cómo funcionan sus algoritmos

Un memorando de septiembre de 2019 descubrió que los usuarios hombres recibían un 64% más de contenido político que las mujeres en “casi todos los países”, y el problema era particularmente importante en los países africanos y asiáticos.

Si bien era más probable que los hombres siguieran cuentas que producían contenido político, el memorando decía que sus algoritmos de clasificación de feeds también habían jugado un papel importante.

Además, un memorando de junio de 2020 encontró que estaba “virtualmente garantizado” que los “principales sistemas de Facebook mostraran sesgos sistémicos basados ​​en la raza del usuario afectado”.

3. Facebook hizo más difícil denunciar el discurso de odio

Facebook ha dicho durante mucho tiempo que sus programas de inteligencia artificial pueden detectar y eliminar el discurso de odio y el abuso, pero los archivos muestran sus límites.

Según un documento de marzo de 2021, la compañía toma medidas solo en un 3% a 5% de los discursos de odio y en un 0,6% de contenido violento. Otro memorando sugiere que es posible que nunca logre pasar del 10% al 20%, porque es “extraordinariamente desafiante” para la inteligencia artificial comprender el contexto en el que se usa el lenguaje.

Sin embargo, Facebook ya había decidido confiar más en la inteligencia artificial y recortar el dinero que gastaba en moderación humana en 2019. En particular, la empresa dificultó la denuncia y la apelación de decisiones sobre incitación al odio.

Facebook dijo que “al combatir el discurso de odio en Facebook, nuestro objetivo es reducir su prevalencia”. Agregó que el discurso de odio representa solo el 0,05% de lo que ven los usuarios, una cifra que se ha reducido en un 50% en los últimos tres trimestres.

4. Facebook jugueteó mientras el Capitolio ardía

Los documentos revelan la lucha de Facebook para contener la explosión de discursos de odio y desinformación en su plataforma en torno a los disturbios del 6 de enero en Washington, lo que provocó disturbios internos.

Los memorandos muestran que la compañía desactivó ciertas salvaguardas de emergencia a raíz de las elecciones de noviembre de 2020. Una evaluación interna encontró que la rápida implementación de las medidas se vio obstaculizada por la espera de la aprobación del equipo de políticas.

Incluso las acciones proactivas no lograron el efecto deseado. En octubre de 2020, Facebook anunció públicamente que dejaría de recomendar “grupos cívicos”, que discuten temas sociales y políticos.

Sin embargo, debido a las dificultades técnicas para implementar el cambio, a 3 millones de usuarios estadounidenses se les recomendaba al menos uno de los 700.000 grupos cívicos identificados diariamente entre mediados de octubre de 2020 y mediados de enero de 2021, según una nota de la investigación.

Facebook se negó a comentar sobre algunos de los detalles de las acusaciones, pero en cambio dijo que no anteponía las ganancias a la seguridad o el bienestar de las personas y que “la verdad es que hemos invertido US$ 13.000 millones y tenemos más de 40,000 personas para hacer un trabajo: mantener a las personas seguras en Facebook ”.

Las otras vidas de J.D. Vance, el vicepresidente de Trump

Dijo en 2016 que Trump era el Hitler estadounidense y que, incluso, su figura se podía comparar con los opiáceos. No votó ese año por él, pero sí lo apoyó en 2020. J. D. Vance ha pasado por un péndulo de sentimientos hacia el candidato republicano. Y esta semana se sumó un nuevo capítulo a su relación: el abogado de Yale se convirtió en su compañero de fórmula para las elecciones presidenciales de noviembre. ¿Cómo llegó a la cúpula del GOP? Desde los montes Apalaches en Ohio, tuvo que cruzar Kentucky y Silicon Valley. Ahora, busca instalarse en Washington DC.

Impactantes imágenes deja el atentado a Donald Trump

Las imágenes resultan cinematográficas. Tras escucharse sonidos de disparos en el mitin del candidato republicano, el expresidente hace una mueca y levanta su mano. Luego se aprecia un hilo de sangre. El autor del disparo fue abatido y murió.

SIGUIENTE »
« ANTERIOR