Un 20% de la plantilla, de baja
"Sois una bombilla: cuando se quema, se cambia": la reveladora frase de una empresa a sus moderadores de redes sociales
El abogado que representa a moderadores de contenido reprocha que las empresas no asuman su responsabilidad en las enfermedades mentales que acaban sufriendo sus trabajadores: "Meta les enferma y la Seguridad Social los trata", denuncia.
El abogado Francesc Feliu logró que la Justicia reconociera como accidente laboral la enfermedad mental que sufría un moderador de redes sociales por culpa del contenido al que estaba expuesto continuamente en su trabajo. La empresa para la que trabajaba, sin embargo, no reconoce su responsabilidad.
"Lo que vienen a decirte es que el contenido violento diario se corresponde al 5%, lo cual no es que sea falso, es que directamente estás mintiendo", reprocha en Salvados. La compañía, según explica, argumenta además que "la patología mental que tú tienes en todo caso te vendrá de otro lugar, pero no de lo que trabajas en la empresa". "La postura de la empresa hoy es negar la mayor y mi trabajo es que esa mayor desaparezca de la ecuación", sentencia el letrado.
De hecho, asegura, la propia empresa llegó a admitir en un documento interno que el 20% de su plantilla estaba de baja laboral, de un total de unos 2.200 trabajadores, unos niveles que no ha visto "en la vida" en ningún otro sector. De esos trabajadores de baja, asevera, "nadie está reconocido como accidente laboral". "La gente que coge la baja por tema de salud mental, nadie está por accidente laboral, todos van al sistema público de salud porque todos van por enfermedad común", denuncia.
"Telus, la subcontrata de Telus, y Meta, en definitiva, les enferma. Y la Seguridad Social los trata", asevera. "¿Cómo puede ser que el coste de lo que supone curar a estas personas o tratarlas lo tengamos que asumir nosotros? Tienen que asumirlo la empresa y la mutua", reivindica. En este sentido, el letrado cita la reveladora frase que un cargo de la empresa dijo a uno de sus clientes: "Vosotros, los moderadores de contenido, sois una bombilla que cuando se quema, se cambia".
Más Noticias
-
¿Gestionaba Juan Carlos I la agenda de Bárbara Rey? Juan Sanguino te lo cuenta -
Cristina Pedroche 'confiesa' qué tiene en común con Dulceida: "Fue lo primero que me comí después de dar a luz" -
Por qué el algoritmo de las redes sociales recomienda contenido perjudicial "aunque no sea ético" -
Wyoming, irónico sobre los centros de migrantes de Meloni que quiere copiar von der Leyen: "No es xenofobia, son ideas innovadoras" -
Zapeando estrena un nuevo y delicioso concurso: ¡El jamoncito millonario!
"No es normal que a gente sin formación no se la forme para el impacto que van a ver, no es normal que estén ocho horas trabajando con cinco minutos de descanso, no es normal que tengan que ver tanta cantidad de tickets, no es normal que un solo vídeo en muchísimas ocasiones lo tengan que ver hasta el final", incide el abogado, que insiste: "No hay ninguna necesidad para la mente humana".
Entrevista en Salvados
La confesión de una moderadora de contenido de Facebook e Instagram: "No creo que tenga eficacia real"
Ante ciertos contenidos, por ejemplo un potencial suicidio, los moderadores de redes sociales pueden 'escalarlo' a un departamento superior, pero nunca llegan a saber si se ha alertado a las autoridades: "No creo que sirva de mucho", reconoce una trabajadora.