AddThis Social Bookmark Button

Las reglas secretas de Facebook sobre su política de contenidos

The Guardian revela cómo actúa la red social ante la vulneración de sus normas

 

¿Qué ocurre cuando Facebook detecta un contenido inapropiado en su plataforma social? The Guardian ha conseguido acceder a los documentos privados de la compañía de Mark Zuckerberg donde se explica cómo actúan los 4.500 moderadores de la red social, que en los próximos meses aumentarán a 7.500.
En primer lugar, Facebook tiene varias categorías para encajar los tipos de contenidos que violan sus normas. Estos pueden ser considerados legales, no legales, adecuados y no adecuados.
Los moderadores, según revela The Guardian, reciben miles de peticiones diarias de los casi 2.000 millones de usuarios que cuenta la red social. Cada contenido denunciado ha de ser revisado por cada supervisor, como comentó Facebook a Innova+ el pasado mes de diciembre.
Las mayores denuncian las acumulas las cuentas falsas que recopila hasta 6,5 millones de denuncias a la semana. Gran cantidad de reportes que "en la mayoría de casos, los moderadores solo tienen 10 segundos para decidir sobre el contenido", explica The Guardian.
"Mantener a la gente segura en Facebook es lo más importante que hacemos. Trabajamos duro para hacer que Facebook sea lo más seguro posible al tiempo que permite la libertad de expresión. Esto requiere mucha reflexión sobre interrogantes detalladas y, a menudo, difíciles, y hacerlo bien es algo que tomamos muy en serio", señala en un comunicado la jefa de política de productos de Facebook, Monica Bickert.
En el reglamento, la red social deja a la elección de su trabajador la decisión de reprobar el contenido o no. "No todos los contenidos desagradables o perturbadores" violan los "estándares de la comunidad".
Por ello, Facebook da una serie de recomendaciones. La compañía de Mark Zuckerberg apunta que "que alguien dispare a Trump" debería ser eliminado porque, como jefe de Estado, se encuentra en una categoría protegida. Sin embargo, es aceptabledecir "para partirle el cuello a una zorra, asegúrate de aplicar toda la presión en el centro de su garganta" o "vete a la mierda y muérete", porque no son considerados "amenazas creíbles".
En los dos últimos meses, Facebook ha vivido varios episodios controvertidos con su herramienta Live. El pasado mes de abril, un tailandés ahorcó a su bebé y se suicidó. El video se mantuvo en la plataforma 24 horas y alcanzó las 200.000 reproducciones. Días más tarde, un hombre retransmitió en directo el asesinato de una persona mayor en Cleveland (Estados Unidos).
En este caso, Facebook recomienda a sus moderadores revisar las imágenes y mientras "estén clasificadas como perturbadores, no siempre han de ser eliminados porque pueden ayudar a crear conciencia sobre temas como enfermedades mentales", revela el medio británico. La plataforma permite que la gente emita en directo intentos de autolesión porque, explica, "no quiere censurar o castigar a personas con ansiedad".
En el caso de imágenes con desnudos, la política de Facebook es más estricta. Uno de los casos más llamativos durante el pasado año fue la decisión de censurar la imagen más representativa del Siglo XX, la niña quemada con napalm en Vietnam, con el argumento de que aparece semidesnuda. En estos casos, Facebook solo se permite si existe una justificación artística.