Revelaciones de los ‘Facebook Papers’ dejan a la agonizante red en apuros

Unas 10 mil páginas revelan los secretos de las publicaciones y descontroles. Una empresa disfuncional, con cero transparencia y que opera saltándose hasta sus propias reglas. Es el resumen que deja la nueva oleada de revelaciones de los ‘Facebook Papers’, miles de documentos filtrados por la exempleada Frances Haugen enviados al Congreso de EEUU y que ahora han sido publicados por un consorcio de medios internacionales, entre ellos ‘The New York Times’, ‘FT’, Bloomberg o la CNN.

Mientras Facebook sigue lidiando con la gran crisis de Cambridge Analytica, los principales medios de prensa estadounidenses, 17 en total, publican ahora los llamados Facebook Papers, que revelan los secretos de la red social de Mark Zuckerberg y muestras como se privilegian los ingresos económico por sobre los contenidos.
Los nuevos documentos, más de 10 mil páginas, ofrecen una idea de lo que está sucediendo dentro de la empresa y su proceso de toma de decisiones.

Los hallazgos incluyen las alarmas de los empleados ignoradas aviesamente, discurso de odio y desinformación, así como sus omisiones a la hora de evitar que los políticos y celebridades estadounidenses publiquen cualquier cosa que quieran en las redes sociales a pesar del incumplimiento de las políticas de edición.

Los documentos también revelan el llamamiento de los empleados para detener las publicaciones que incitan a la violencia en países de alto riesgo como Etiopía, pero también informes de trata de personas en 2018.
Los documentos revelan cómo se han utilizado los servicios de Facebook para difundir el odio religioso en India.

La investigación realizada dentro de la red social ha puesto de relieve cómo el material antiislámico en la plataforma está muy extendido y cómo se difundieron los contenidos que incitaban al «odio y la violencia», algo particularmente generalizado en febrero de 2020, coincidiendo con las tensiones que estallaron en Nueva Delhi durante las cuales murieron 53 personas.

Entre los hallazgos también se encuentran los reportados por el Washington Post que citan algunas fuentes y que se refieren directamente a Zuckerberg.

Discurso de odio en el mundo árabe

A fines de 2020, los investigadores de Facebook llegaron a una conclusión aleccionadora. Los esfuerzos de la empresa para frenar el discurso de odio en el mundo árabe no estaban funcionando.

En un memorando de 59 páginas que circuló internamente justo antes de la víspera de Año Nuevo, los ingenieros detallaron las cifras sombrías. Solo el 6% (seis por ciento) del contenido de odio en idioma árabe se detectó en Instagram antes de ingresar a la plataforma para compartir fotos propiedad de Facebook.
Eso en comparación con una tasa de eliminación del 40 por ciento en Facebook.

Los anuncios que atacaban a mujeres y a la comunidad LGBTQ rara vez se marcaban para su eliminación en Oriente Medio. En una encuesta relacionada, los usuarios egipcios le dijeron a la compañía que tenían miedo de publicar opiniones políticas en la plataforma por temor a ser arrestados o atacados en línea.
En Irak, donde los violentos enfrentamientos entre las milicias sunitas y chiítas estaban empeorando rápidamente un país ya políticamente frágil, los llamados «ejércitos cibernéticos» lo combatieron publicando material profano y prohibido, incluida la desnudez infantil, en las páginas de Facebook de los demás en un esfuerzo por eliminar rivales de la plataforma global.

Vía libre para la gente importante

Algo que tanto Facebook como el resto de redes sociales han defendido desde sus inicios es que son lugares neutrales. Tablones vacíos en los que cualquiera puede escribir y que tiene una normativa básica de funcionamiento en la que todos somos iguales. Pero los documentos filtrados también demuestran que nada de esto es cierto. Según los ‘Facebook Papers’, las altas esferas de la empresa intercedieron para que todo tipo de celebridades y políticos, con cierta tendencia hacia el lado conservador, pudiesen saltarse las normativas de la plataforma sin recibir ningún castigo. Es más, en su intento por mostrar una neutralidad irreprochable, estas injerencias habrían provocado el levantamiento de buena parte de los empleados.

Así lo demuestra una serie de documentos internos que forman parte de los papeles filtrados y que están firmados entre finales de 2019 y diciembre de 2020. En estos textos, cada uno por motivos diferentes, se pide a la dirección que ponga «cortafuegos» a las consideraciones políticas del proceso de moderación para evitar injerencias o se señalaba que Facebook bloqueó las decisiones de eliminar publicaciones «cuando veían que podían dañar a actores políticos poderosos«. «En varios casos, el juicio final sobre si una publicación destacada viola una determinada política escrita lo hacen los altos ejecutivos, a veces Mark Zuckerberg».

La presencia de Zuckerberg en estas decisiones es clara, según los documentos, y es que el líder de la red social es un ser omnipresente en su empresa. En 2019, según otro documento, se alega que Zuckerberg estuvo personalmente involucrado en la decisión de permitir un vídeo que hacía la falsa afirmación de que el aborto «nunca es médicamente necesario«. El vídeo fue borrado por un moderador, pero ese bloqueo se revocó tras las protestas de varios políticos republicanos en EEUU. Unas decisiones que chocan con la versión de Donald Trump y otros políticos conservadores que acusaban a estas empresas de acallar las voces de la derecha.

El informe publicado en diciembre de 2020 desmentía estas acciones y alegaba que muchas de las publicaciones censuradas a este lado del tablero políticamente luego se revocaban para evitar problemas y presiones. «En los Estados Unidos parece que las intervenciones han sido casi exclusivamente en nombre de los editores conservadores«, asegura el texto mencionando a sitios como Breitbart, Diamond and Silk, Charlie Kirk y PragerU como lugares que reciben un trato especial.

En una nota de despedida, otro empleado involucrado en los esfuerzos para frenar el discurso de odio en la plataforma acusó a Facebook de darle un trato especial a Breitbart, que desde 2018 se ha incluido en la pestaña de noticias de alta calidad de la compañía. «Hacemos excepciones especiales a nuestras políticas escritas para ellos e incluso los respaldamos explícitamente al incluirlos como socios confiables en nuestros productos principales», dijo el miembro del personal.

La exempleada de Facebook Frances Haugen

Según los documentos, se propusieron varias soluciones para acabar con estas intervenciones y rebajar la tensión con los empleados. Pero lo único que se logró fue la creación por parte de la propia cúpula de un equipo de supervisión interna que respondía a los mismos jefes que luego habían intervenido en la moderación dando manga ancha a las distintas celebridades. Hace solo unas semanas otra filtración mostró como la red contaba con listas blancas de usuarios que podían permitirse publicar todo tipo de contenido sin miedo a ser expulsados.

El asalto al Capitolio

Es otro de los frentes en el que se centran los miles de documentos filtrados: cómo Facebook dio alas al contenido que animaba a una revuelta como la que ocurrió el 6 de enero de 2021, cuando partidarios de Donald Trump irrumpieron en la sede del Congreso ocupando el edificio durante varias horas. Los documentos muestran cómo Facebook implementó cambios durante las elecciones de 2020 que limitaban la visibilidad del contenido de extrema derecha pro-Trump. Estos cambios fueron anulados el 3 de noviembre, justo tres días antes del asalto al Capitolio. Horas después de que este se produjera, Facebook volvió a instaurar de emergencia estas medidas de control de contenido de extrema derecha. Fue ya demasiado tarde.

Algoritmos e IA que no funcionan

Los documentos filtrados por Frances Haugen demuestran también que ni los investigadores e ingenieros de la compañía saben muy bien cómo funciona su propia tecnología. Ocurre con los algoritmos que controlan qué tipo de contenido ve cada tipo de usuario. Un informe fechado en septiembre de 2019 señala que los hombres recibían hasta un 64% más contenido político que las mujeres en «casi todos los países». El motivo no estaba en las preferencias de los hombres, sino en la forma en la que funcionaba el algoritmo que, por algún motivo que se les escapaba a los investigadores, acababa creando esta diferencia.

Otro documento fechado en junio de 2020 asegura que «está prácticamente garantizado» que los «principales ‘algoritmos’ de Facebook presentan influencias basadas en la raza de los usuarios«. Los ingenieros de la red social especulaban que podía ser debido a que usuarios de una raza compartían más contenido y eran más activos. Eso resultaba en que el sistema les favoreciera sobre los demás.

Otro de los puntos débiles de la red social que queda al descubierto por los documentos filtrados es la utilidad de sus sistemas de inteligencia artificial (IA) para detectar y retirar mensajes de odio. Varios documentos confirman que solo entre un 3% y un 5% del contenido de odio y un 0,6% de mensajes violentos son retirados de forma automática. Otro informe reconoce que su IA solo podría llegar a eliminar, como máximo, el 20% del contenido inapropiado dado lo «extremadamente complejo» que es para la IA entender el contexto en el que se usa el lenguaje. Es algo conocido y aceptado. La gran diferencia es que Mark Zuckerberg y los directivos de Facebook en público, de puertas hacia fuera, no solo ocultaban estos datos sino que, además, transmitían todo lo contrario, lo efectivo de la tecnología de la red social para controlar los discursos de odio.

FUENTES:

https://www.ansalatina.com/americalatina/noticia/tecnologia/2021/10/25/llegan-los-facebook-papers-empresa-en-apuros_359b47a5-2ce5-4504-b57f-67b6b118fc7d.html

https://www.elconfidencial.com/tecnologia/2021-10-25/facebook-papers-mark-zuckerberg-facebook_3312635/

Deja tu comentario

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.