Facebook ordena a sus moderadores tolerar ciertos contenidos violentos

El mes pasado, un duro informe de todos los partidos del Parlamento británico alertó de la pasividad de Google, Twitter y Facebook ante la publicación de contenidos de odio, violencia, apología del terrorismo y abusos a menores que circulan impunemente por sus plataformas. «Han hecho poco menos que nada», reprochaban los diputados. Ahora una filtración de las normas internas de Facebook destapa que sus moderadores son instruidos para dejar pasar mensajes con muertes violentas, autolesiones, escenas de abortos y maltrato no sexual a menores. El diario británico «The Guardian» ha accedido a la filtración de cien manuales con los que se instruye a moderadores que controlan los contenidos de Facebook. Su conclusión es que están «desbordados» y solo cuentan con unos segundos para decidir si un «post» es acto para aparecer en la red social o no. Algunos de los moderadores se quejan de que los criterios de la compañía son «inconsistentes», «peculiares» y confusos. La denuncia del diario pone de relieve una vez más el debate de fondo: Facebook es el mayor editor de información del mundo, pero su propietario, Mark Zuckerberg, se escuda en que es una mera plataforma para actuar de manera casi impune, sin observar las leyes contra el honor o la apología de la violencia y el terrorismo que sí obligan a la prensa tradicional. Además la red social se lucra con los contenidos de los periódicos, sin abonarles una información cuya producción es cara y compleja. Google y Facebook comienzan a ser vistos como los caballos de Troya que han puesto en jaque a la prensa. Para entender el descontrol de lo que circula por Facebook basta el dato de que cuenta con 1.940 millones de usuarios en todo el mundo, pero solo dispone de 4.500 empleados para controlar el aluvión de información que circula por su red y evitar la publicación del material más escabroso. Cada día se publican 300 millones de fotos, un caudal que desborda a los 4.500 censores. A finales del pasado abril, un tailandés ahorcó a su bebé de once meses y luego se suicidó. Subió a Facebook dos vídeos de su crimen, que la red social mantuvo colgados durante 24 horas, tiempo que en alcanzaron las 200.000 visualizaciones. También en abril, un hombre emitió en directo en Facebook el asesinato de un anciano en Cleveland. Previamente había anunciado su intención en el mismo medio. Los manuales de control que han sido filtrados señalan que algunas muertes violentas, abusos no sexuales a niños y autolesiones deben dejarse pasar. El argumento que da la compañía a sus empleados es que esos contenidos pueden servir de llamada de atención, poner la lupa sobre problemas de salud mental y ser una fuente informativa de valor. Sobre la publicación de autolesiones, señala que puede ser un modo de que los amigos de ese usuario descubran que tiene un problema y puedan ayudarlo. En los casos de apología del terrorismo, sí ordenan que se retiren los mensajes, fotos y vídeos que apoyan a líderes y organizaciones terroristas, pero se pueden dejar siempre que estén acompañados de algún comentario crítico. También se ordena que se borren amenazas contra personas concretas. Ante el desnudo, Facebook se muestra más restrictivo que contra la violencia. Solo se permite si existe una justificación artística. En su día fue polémica su absurda decisión de retirar una de las fotografias más icónicas del siglo XX, la niña quemada con napalm en Vietnam, con el argumento de que aparece semidesnuda. En respuesta a la polémica que ha levantado la filtración de sus laxas normas de publicación, Facebook ha contestado a través de una alta ejecutiva de la compañía ha anunciado que contratarán 3.000 moderadores más. Los controladores trabajan desde sus domicilios particulares. También han dicho que «mantener a la gente segura en Facebook es la cosa más importante que hacemos, trabajamos duro para que la red sea segura al tiempo que permitimos la libertad de expresión». 6 Reglas de los moderadores de Facebook Frases similares a «alguien disparar Trump», son suprimidas porque es jefe de estado y se encuentra en una categoría protegida. Sin embargo, sí se puede decir: «Para romper el cuello de una perra, asegúrese de aplicar toda la presión a la mitad de su garganta» o «la mierda y morir». La razón, no son amenazas creíbles. Los vídeos de muertes violentas están marcados como perturbadores pero no siempre son eliminados. Su difusión puede ayudar a concienzar sobre problemas mentales. Los vídeos de abortos se pueden publicar si no aparecen desnudos Cualquier persona con más de 100.000 seguidores se considera figura pública y se les niega las protecciones ofrecidas a los inviduos privados. Facebook permitirá la retrasmisión en directo de intentos de autolesión porque «no quiere censurar o castigar a las personas en peligro». Algunas fotografías de abuso físico no sexual y de intimidación de niños no tienen que ser eliminadas, al menos que haya un elemento sádico o de celebración

El mes pasado, un duro informe de todos los partidos del Parlamento británico alertó de la pasividad de Google, Twitter y Facebook ante la publicación de contenidos de odio, violencia, apología del terrorismo y abusos a menores que circulan impunemente por sus plataformas. «Han hecho poco menos que nada», reprochaban los diputados. Ahora una filtración de las normas internas de Facebook destapa que sus moderadores son instruidos para dejar pasar mensajes con muertes violentas, autolesiones, escenas de abortos y maltrato no sexual a menores.

Comments

comments