Ver lo que otros "no deben" ver: ¿cómo es el trauma de vivir siendo moderador de contenidos?
Martes 23 de
Octubre 2018
El trabajo de los moderadores de contenidos en redes sociales puede llevar a una persona a sufrir problemas en su salud mental. Violaciones, decapitaciones, violencia... ¿cómo se vive trabajando viendo lo que otros "no deben" ver?
Roz Bowden vivió una traumática experiencia cuando trabajó como moderadora de contenidos en MySpace. Su labor, consistía en ver las imágenes y videos que los usuarios "no deben mirar", tales como violaciones sexuales a niños, decapitaciones, torturas y asesinatos.
Eso que "denunciamos" por violento, por "contenido inapropiado", ese lado oscuro de Internet, es lo que Bowden y sus compañeros debían ver con detenimiento para discernir si se eliminaba el contenido del sitio o no.
Llámese MySpace, Facebook, Twitter, Instagram o cualquier otro sitio de Internet. El trabajo de los moderadores es una tortura.
En una entrevista con la BBC de Londres, Roz Bowden detalló su experiencia mientras trabajó para MySpace -entre el 2005 y el 2008- cuando era el auge de esta red social, antes del boom de Facebook.
El informe fue realizado por la corresponsal de Tecnología, Jane Wakefield.
Así de fuerte comienza Bowden, que relató lo agotador que fue para ella y debe ser en la actualidad, para los 7.500 moderadores que, por ejemplo, tiene la red social con más usuarios en el mundo: Facebook.
Para que Facebook sea un espacio agradable por donde navegar
La empresa de Mark Zuckerberg tiene 7.500 moderadores de contenido que trabajan en todo el mundo 24 horas al día.
Estas personas suelen ver imágenes y videos con contenido violento y perturbador, desde abusos sexuales a niños hasta decapitaciones, torturas, violaciones o asesinatos.
Una de esas personas acaba de demandar a la red social por el trauma psicológico que sufrió tras ver miles de horas de contenido tóxico y molesto.
Selena Scola dice que Facebook y Pro Unlimited, la firma que le contrató para trabajar en la red social, fallaron a la hora de garantizar su salud emocional.
La mujer asegura que tiene trastorno de estrés postraumático como resultado de las cosas que ha visto en línea.
Es probable que el caso arroje una luz sobre el oscuro mundo de la moderación de contenido en internet y plantee interrogantes sobre si la gente debería hacer ese tipo de trabajo.
Salud mental
Sarah Roberts, una profesora de la Universidad de California que estudió la moderación de contenido durante los últimos ocho años, cree que las redes sociales pueden desencadenar una crisis de salud mental.
"No hay informes publicados que observen las repercusiones a largo plazo de ese trabajo", le contó la profesional a la BBC.
"Estamos hablando de un gran número de personas -que está creciendo exponencialmente- y debería preocuparnos lo que pueda pasar en el futuro", agregó.
"No hay un plan de apoyo a largo plazo que ayude a esos moderadores de contenido cuando dejan el trabajo. Se espera que se reincorporen sin más al tejido social", dijo.
"No vomiten, desenfoquen la mirada"
Roz Bowden trabajó en finanzas antes de aceptar el empleo en MySpace entre 2005 y 2008. Le agradó volver a su anterior sector laboral cuando el trabajo en la red social se convirtió en una carga excesiva para ella.
"Ahora solo analizo números", dijo en una conferencia que brindó en el 2017.
Pero a menudo se pregunta qué pasó con el equipo al que ella ayudó a formar y supervisar durante los primeros días de la red social.
Y reveló: "Tuvimos que establecer unas normas. ¿Ver pornografía y preguntarle a una chica si usa un bikini de tiras de espagueti era adecuado? ¿Cuánto sexo era demasiado para una plataforma como MySpace? Nos hacíamos esas preguntas a medida que avanzábamos".
"¿Deberíamos permitir un video de una persona decapitando a otra? No. Pero, ¿y si se trata de dibujos animados? ¿Está bien si lo hacen Tom y Jerry?", reflexionó.
Bowden dijo en aquella ocasión que tampoco había nada de apoyo moral.
Por duro que parezca, ella le decía a su equipo: "Está bien que se vayan. Está bien que lloren. Pero no vomiten en el piso".
Al momento de mirar el contenido, les aconsejaba: "Desenfoquen la mirada para no verlo del todo".
Para Facebook, los moderadores son "héroes"
En un post publicado en su blog el año pasado, Facebook describió a sus moderadores de contenido como "los héroes no reconocidos que mantienen Facebook a salvo para el resto de nosotros".
Sin embargo, admitió que ese trabajo "no es para todo el mundo" y que solo contrata a gente "que sea capaz de manejar los retos inevitables que presenta ese rol".
¿Cómo capacitar a una persona para ejercer como moderador de contenidos?
En el caso de Facebook, la empresa les ofrece una capacitación previa en la que se les explica lo que se espera de ellos en el trabajo y pasan al menos 80 horas con un instructor antes de que se lancen al mundo real, explicó BBC en su informe.
También contrata a psicólogos clínicos: todos los que revisan contenido tienen acceso a recursos de salud mental.
Peter Friedman es el director de LiveWorld, una firma que ha proporcionado moderadores de contenido a empresas como AOL, eBay y Apple en los últimos 20 años.
Pero el especialista le dijo a BBC que sus empleados raramente -o tal vez nunca- han usado las terapias que les ofrecen.
"Es una condición del trabajo el que puedan manejar eso y no quieren que su jefe sepa que no pueden", reveló.
"Los trabajadores sienten que pueden ser estigmatizados si hacen uso de esos servicios".
Por su parte, Facebook reconoció que revisar el contenido a la escala que lo hace ahora es un "territorio inexplorado".
"Hasta cierto punto, tenemos que resolverlo a medida que avanzados", dijeron los responsables de la red social en su blog.
Eso que "denunciamos" por violento, por "contenido inapropiado", ese lado oscuro de Internet, es lo que Bowden y sus compañeros debían ver con detenimiento para discernir si se eliminaba el contenido del sitio o no.
Llámese MySpace, Facebook, Twitter, Instagram o cualquier otro sitio de Internet. El trabajo de los moderadores es una tortura.
En una entrevista con la BBC de Londres, Roz Bowden detalló su experiencia mientras trabajó para MySpace -entre el 2005 y el 2008- cuando era el auge de esta red social, antes del boom de Facebook.
El informe fue realizado por la corresponsal de Tecnología, Jane Wakefield.
"Cuando me fui, no estreché la mano a nadie durante tres años. Vi lo que la gente es capaz de hacer y lo repugnante que es. No quería tocar a nadie. Aborrecía a la humanidad".
Así de fuerte comienza Bowden, que relató lo agotador que fue para ella y debe ser en la actualidad, para los 7.500 moderadores que, por ejemplo, tiene la red social con más usuarios en el mundo: Facebook.
Para que Facebook sea un espacio agradable por donde navegar
La empresa de Mark Zuckerberg tiene 7.500 moderadores de contenido que trabajan en todo el mundo 24 horas al día.
Estas personas suelen ver imágenes y videos con contenido violento y perturbador, desde abusos sexuales a niños hasta decapitaciones, torturas, violaciones o asesinatos.
Una de esas personas acaba de demandar a la red social por el trauma psicológico que sufrió tras ver miles de horas de contenido tóxico y molesto.
Selena Scola dice que Facebook y Pro Unlimited, la firma que le contrató para trabajar en la red social, fallaron a la hora de garantizar su salud emocional.
La mujer asegura que tiene trastorno de estrés postraumático como resultado de las cosas que ha visto en línea.
Es probable que el caso arroje una luz sobre el oscuro mundo de la moderación de contenido en internet y plantee interrogantes sobre si la gente debería hacer ese tipo de trabajo.
Salud mental
Sarah Roberts, una profesora de la Universidad de California que estudió la moderación de contenido durante los últimos ocho años, cree que las redes sociales pueden desencadenar una crisis de salud mental.
"No hay informes publicados que observen las repercusiones a largo plazo de ese trabajo", le contó la profesional a la BBC.
"Estamos hablando de un gran número de personas -que está creciendo exponencialmente- y debería preocuparnos lo que pueda pasar en el futuro", agregó.
"No hay un plan de apoyo a largo plazo que ayude a esos moderadores de contenido cuando dejan el trabajo. Se espera que se reincorporen sin más al tejido social", dijo.
"No vomiten, desenfoquen la mirada"
Roz Bowden trabajó en finanzas antes de aceptar el empleo en MySpace entre 2005 y 2008. Le agradó volver a su anterior sector laboral cuando el trabajo en la red social se convirtió en una carga excesiva para ella.
"Ahora solo analizo números", dijo en una conferencia que brindó en el 2017.
Pero a menudo se pregunta qué pasó con el equipo al que ella ayudó a formar y supervisar durante los primeros días de la red social.
"¿Qué les sucedió a todas esas personas que miraban cabezas explotando en mitad de la noche? Es importante saberlo", dijo.
Y reveló: "Tuvimos que establecer unas normas. ¿Ver pornografía y preguntarle a una chica si usa un bikini de tiras de espagueti era adecuado? ¿Cuánto sexo era demasiado para una plataforma como MySpace? Nos hacíamos esas preguntas a medida que avanzábamos".
"¿Deberíamos permitir un video de una persona decapitando a otra? No. Pero, ¿y si se trata de dibujos animados? ¿Está bien si lo hacen Tom y Jerry?", reflexionó.
Bowden dijo en aquella ocasión que tampoco había nada de apoyo moral.
Por duro que parezca, ella le decía a su equipo: "Está bien que se vayan. Está bien que lloren. Pero no vomiten en el piso".
Al momento de mirar el contenido, les aconsejaba: "Desenfoquen la mirada para no verlo del todo".
Para Facebook, los moderadores son "héroes"
En un post publicado en su blog el año pasado, Facebook describió a sus moderadores de contenido como "los héroes no reconocidos que mantienen Facebook a salvo para el resto de nosotros".
Sin embargo, admitió que ese trabajo "no es para todo el mundo" y que solo contrata a gente "que sea capaz de manejar los retos inevitables que presenta ese rol".
¿Cómo capacitar a una persona para ejercer como moderador de contenidos?
En el caso de Facebook, la empresa les ofrece una capacitación previa en la que se les explica lo que se espera de ellos en el trabajo y pasan al menos 80 horas con un instructor antes de que se lancen al mundo real, explicó BBC en su informe.
También contrata a psicólogos clínicos: todos los que revisan contenido tienen acceso a recursos de salud mental.
Peter Friedman es el director de LiveWorld, una firma que ha proporcionado moderadores de contenido a empresas como AOL, eBay y Apple en los últimos 20 años.
Pero el especialista le dijo a BBC que sus empleados raramente -o tal vez nunca- han usado las terapias que les ofrecen.
"Es una condición del trabajo el que puedan manejar eso y no quieren que su jefe sepa que no pueden", reveló.
"Los trabajadores sienten que pueden ser estigmatizados si hacen uso de esos servicios".
Por su parte, Facebook reconoció que revisar el contenido a la escala que lo hace ahora es un "territorio inexplorado".
"Hasta cierto punto, tenemos que resolverlo a medida que avanzados", dijeron los responsables de la red social en su blog.
Con información de
ellitoral
YPF confirmó un nuevo aumento en los combustibles: de cuánto es y qué pasará con el congelamiento
El anuncio lo realizó Horacio Marín. Además, la suba rige a partir de este jueves.
Sorpresa: una encuesta midió a Victoria Villarruel como variante del PRO y el PJ para 2027
Lo hizo DC Consultores en su último estudio nacional. Es una firma que suele darle buenos números al Gobierno. Además, ranking de imágenes con 9 dirigentes y outsiders.
Hoy se conocerá la inflación de abril: el Gobierno anticipó una baja fuerte y busca consolidar la desaceleración
Las proyecciones privadas y del ministro de Economía, Luis Caputo, coinciden en que el Índice de Precios al Consumidor (IPC) mostrará una disminución respecto a marzo. Cómo viene mayo y las medidas con los servicios públicos

Suscribite!
Y recibí las noticias más importantes!
Y recibí las noticias más importantes!
Nota22.com
Crecen las críticas a la gestión del Intendente de Santa Fe, Juan Pablo Poletti
LO MÁS VISTO
La Justicia falló en contra de Asoem
El Juzgado de 1ra. Instancia en lo Civil y Comercial de la Octava Nominación falló a favor de la Municipalidad de Sauce Viejo en medio del conflicto que mantiene con la Asociación de Obreros y Empleados Municipales.
¿Que es el Bullying?
Lo anticipó el ministro Mario Lugones en una jornada sobre salud en la que se alertó sobre la creciente judicialización del sistema. El objetivo del Gobierno es que cualquier médico no pueda recetar cualquier tipo de medicamento y ajustan detalles de la norma.
El exministro de Economía le respondió al Presidente a través de una publicación en su blog personal; "Me limité a repetir lo que él mismo había dicho", manifestó




