¿Moderar Facebook puede producir estrés postraumático?

La Voz REDACCIÓN / LA VOZ

SOCIEDAD

REUTERS | Dado Ruvic

Una exempleada denuncia a la firma por exponerla a material violento

28 sep 2018 . Actualizado a las 05:00 h.

Los moderadores de Facebook tienen que enfrentarse a contenidos violentos. Unos 75.00 profesionales criban imágenes de todo tipo de agresiones... ¿Qué impacto tiene la exposición reiterada a este tipo de material? Esa es la cuestión. Una exempleada del gigante digital ha denunciado a la compañía en un juzgado de California por estrés postraumático y trauma psicológico. Selene Scola trabajó para la empresa desde junio del 2017 hasta marzo del 2018 y en su demanda asegura que durante ese tiempo fue «bombardeada» con imágenes de «abusos sexuales infantiles, violaciones, torturas, decapitaciones...».

Scola acusa a la compañía de haberla «expuesto a un contenido altamente tóxico, insalubre y abusivo» sin las precauciones necesarias, según consta en el escrito de la denuncia. El texto, además, insiste en que «Facebook no capacita a sus moderadores lo suficiente y no pone en marcha los estándares de seguridad que ha ayudado a desarrollar». Se suponía, aseguran, que la empresa tenía que haber empezado a aplicar la guía de buenas prácticas acordadas en la Coalición de Tecnología, un grupo de grandes compañías de Internet unidas contra la pornografía infantil en el 2015. «Otras compañías den la industria tecnológica han implementado estos estándares -aseguran-, ofreciendo a los moderadores un sólido soporte psicológico, alterando la resolución, el sonido, el tamaño o el color de las imágenes traumáticas» Facebook, aseguran, ignoró los estándares que ella misma ayudó a crear. «En cambio, la compañía multimillonaria requiere que sus moderadores trabajen en condiciones que causan y agravan las lesiones psicológicas».

En cuanto los perjuicios causados por el trabajo a la moderadora, su abogado asegura que esta ha «presenciado miles de actos de violencia extrema» y afirma que sus síntomas de estrés postraumático pueden «activarse cuando toca el ratón del ordenador, mira imágenes violentas en la televisión o escucha ruidos fuertes».

El portavoz de Facebook aseguró que la empresa se toma muy en serio el tema de los moderadores, «tanto su formación, como los beneficios que reciben, y el hecho de que cada persona que analiza el contenido de Facebook reciba apoyo psicológico y recursos». También afirma que la plataforma «exige» que las empresas que subcontratan apliquen los mismos estándares. La queja presentada por Selena Scola es en realidad una demanda colectiva, aunque de momento solo aparece su nombre. Un juez aún debe decidir si admite la queja antes de que la demanda siga su curso.

Desde la compañía californiana reconocen que el trabajo de moderador en esta red social «puede ser difícil». Los filtros de la plataforma desatan regularmente la polémica o bien por su manga ancha a la hora de permitir comentarios y símbolos que podrían incurrir en delitos de odio o por su censura de obras de arte, ya que ha llegado a vetar piezas maestras para evitar desnudos.