La precarización de la responsabilidad

  • 16 julio, 2019
  • Por Jaume Ríos

En un contexto dónde la desinformación es una tendencia al alza, los discursos que incitan al odio o discriminan a minorías se hacen un hueco gracias a las redes sociales, y los ciclos electorales están sujetos a campañas de intoxicación informativa; la precarización de la responsabilidad entorno a la moderación y control de los contenidos es un riesgo global.

precarización de la responsabilidad
Moderadora de contenidos de Task Us en Manila, Filipinas. Task Us es una empresa americana que da servicios a diferentes tecnológicas. Fuente: Moises Saman/MAGNUM

Nadie quiere encontrarse contenido inapropiado en su timeline. La mayoría de usuarios espera que el contenido que consume en las redes sociales haya pasado un filtro previo que garantice su calidad, su fiabilidad y que, en todo caso, nos avise previamente si el contenido puede herir cualquier sensibilidad.

Muchas de las redes sociales cuentan con normativas internas que regulan aquello aceptado en sus plataformas. Estos principios de comportamiento pueden variar en el tiempo, a veces muy a menudo, hecho que dificulta establecer parámetros automatizados de censura. Por este motivo, la mayoría de plataformas no basan la totalidad de la moderación de contenidos en sistemas de Inteligencia Artificial (IA), sino en trabajadores que fiscalizan las publicaciones permanentemente.

En la actualidad, plataformas como Facebook cuentan con más de 15.000 moderadores en todo el mundo, que revisan una media de 400 publicaciones al día. Durante los últimos meses, algunos de estos moderadores han denunciando las condiciones a las que estuvieron sometidos: descansos cortos, falta de atención psicológica, poca higiene en las oficinas, altas exigencias de acierto en la moderación de contenidos y otros factores.

Además, muchos de estos trabajadores también señalan la dificultad de moderar contenido según los criterios cambiantes de las plataformas. Más allá de la fiscalización pública de estas normativas, aquellos que se dedican a aplicarlas tienen serios problemas para seguir el ritmo de sus modificaciones periódicas.

Facebook, como la mayoría de plataformas, externaliza los servicios de moderación de contenidos a terceras empresas. Aunque la misma plataforma ha elevado las condiciones mínimas para las compañías colaboradoras, diferentes informaciones indican que los moderadores aún sufren, en muchas ocasiones, un trato laboral inadecuado.

Entre múltiples trabajos periodísticos al respecto, destaca el reportaje de The Verge del pasado mes de junio. Consiguió reunir a diferentes testimonios que cuentan su experiencia moderando contenidos sensibles: violencia explícita, tortura animal, discursos incitando al odio, entre otros.

En un contexto donde la desinformación es una tendencia al alza, los discursos que incitan al odio o discriminan a minorías se hacen un hueco gracias a las redes sociales. Y los ciclos electorales también están sujetos a campañas de intoxicación informativa. La precarización de la responsabilidad entorno a la moderación y el control de los contenidos es un riesgo global.

Este riesgo no solo se debe a las condiciones laborales de los moderadores, sino, también, a las posibles consecuencias de esta situación. Sin un control saludable y responsable del contenido publicado en estas plataformas, nos enfrentamos a escenarios donde los discursos discriminatorios y las noticias falsas pueden predominar en nuestras redes.

Con este contexto, debemos plantearnos diferentes cuestiones: ¿Cómo podemos exigir a estas plataformas que se responsabilicen del contenido publicado y de su correcta moderación? ¿Qué grado de responsabilidad tienen los gobiernos en la moderación de contenidos en plataformas? ¿Hasta qué punto los gobiernos pueden penalizar a las plataformas si no cumplen con sus responsabilidades? ¿Con qué criterios debemos regular las normativas de censura de las plataformas?

Más allá del papel de las plataformas y su responsabilidad en las condiciones en que se moderan los contenidos publicados, la reflexión debería ampliarse a otros frentes. Los actores implicados en el proceso de validación y chequeo de aquello publicado en las redes sociales no solo concierne a gobiernos y plataformas, sino también a la sociedad civil, a los medios de comunicación y a los propios usuarios.

Encontrar un equilibrio en las exigencias a las plataformas y ponderar las responsabilidades entre los actores implicados será clave para evitar escenarios peligrosos para la calidad del debate público y la veracidad de la información publicada.

Compartir

Volver arriba