La polémica por los contenidos en Facebook: ¿no puede o no quiere eliminar el odio?

La polémica por los contenidos en Facebook: ¿no puede o no quiere eliminar el odio?

La plataforma de Mark Zuckerberg y Twitter impidieron la circulación de un enlace al New York Post que perjudicaba a Joe Biden y estalló una polémica sobre cómo las redes utilizan la verificación de datos como excusa para la censura y aplican selectivamente sus reglas de moderación de la violencia en línea

Facebook y Twitter, criticadas por permitir la circulación de discurso de odio, limitaron la difusión del enlace a la denuncia del New York Post que involucraba al hijo de Joe Biden.
Facebook y Twitter, criticadas por permitir la circulación de discurso de odio, limitaron la difusión del enlace a la denuncia del New York Post que involucraba al hijo de Joe Biden.

El 14 de octubre The New York Post publicó un correo electrónico en el que Vadym Pozharskyi, número tres de la empresa Burisma, habría enviado en abril de 2015 a Hunter Biden, hijo del entonces vicepresidente de los Estados Unidos: “Querido Hunter, gracias por invitarme a Washington DC y darme la oportunidad de conocer a tu padre y pasar algún tiempo con él. Es realmente un honor y un placer”. La correspondencia, básicamente, contradice al actual candidato demócrata a la presidencia, Joe Biden, quien ha negado tal encuentro como también el papel de su hijo en la gestión.

La nota, desde luego, comenzó a circular en las redes sociales. Hasta que las plataformas más importantes comenzaron a aplicar sus normas de moderación de contenido contra ella. Escribió Cristina Tardáguila, experta en verificación de datos, directora asociada de Fact-Checking Network y fundadora de Agência Lupa, la primera dedicada al tema en Brasil: “Parece que Facebook y Twitter han decidido asumir la posición que durante tanto tiempo han evitado”, ironizó. “A menos de un mes del día de las elecciones, ambas compañías finalmente se convirtieron en árbitros de la verdad en internet. Son ingenuos aquellos que creen que esto no es peligroso”.

Las plataformas han repetido que son soportes abiertos al contenido ajeno, por lo cual no deben ser reguladas como los medios y, sobre todo, no pueden regular a los usuarios sin violar el derecho fundamental a la libertad de expresión. Eso las liberaría de responsabilidad sobre lo que se publica en ellas, sobre todo del discurso de odio por el que son particularmente criticadas; sin embargo, en la vida real, dado que el medio es el mensaje, el argumento deja de tener asidero para convertirse apenas en una excusa para justificar más tráfico, y por ende ganar más dinero.

Entonces, ¿cómo es posible que la publicación del Post fuera identificada como un contenido potencialmente dañino, y no se permitiera que los usuarios la compartieran?

“Parece que Facebook y Twitter han decidido asumir la posición que durante tanto tiempo han evitado”, ironizó Cristina Tardáguila al analizar el caso del Post. (REUTERS/Thomas Hodel)“Parece que Facebook y Twitter han decidido asumir la posición que durante tanto tiempo han evitado”, ironizó Cristina Tardáguila al analizar el caso del Post. (REUTERS/Thomas Hodel)

Por la misma razón que “Facebook elimina de manera coherente la propaganda de reclutamiento de ISIS y otros grupos islámico pero ha sido mucho menos agresiva a la hora de terminar con los grupos de supremacía blanca”, explicó The New Yorker. Mientras el debate público se desorienta en conversaciones sobre si plataformas como las de Mark Zuckerberg deberían hacer más o menos por moderar o censurar el discurso discriminatorio, de odio o de violencia, nadie pregunta “cómo aplica Facebook sus reglas y quién se beneficia de ello”.

 

Sigue el dinero

Aunque las redes sociales insisten en que son neutrales y cualquier contenido puede circular en ellas, en la vida real no permiten la celebración del nazismo, la exhibición de cuerpos desmembrados o la imagen de un bebé con un cigarrillo en la boca, por ejemplo. Facebook tiene una suerte de política de contenidos, las “Normas de implementación”, que sus moderadores deben aplicar: un documento cambiante al que sólo accede personal selecto de la empresa, que se ofrece a los usuarios en una versión light como “Normas de la comunidad”.

La regla que allí dice “eliminamos el contenido que glorifica la violencia”, en el documento interno “enumera docenas de tipos de imágenes explícitas, como seres humanos carbonizados o quemados” y deriva a “subcategorías, definiciones técnicas y enlaces a materiales complementarios”, describió Andrew Marantz —autor de Antisocial, una investigación sobre el extremismo en línea en los Estados Unidos— en el semanario de Nueva York. Al topar con esa clase de contenidos, los moderadores deben denunciarlos como “perturbadores”.

¿Por qué no eliminar esos contenidos directamente?

El escándalo de la censura en Twitter y Facebook del enlace al Post reabrió la discusión sobre quién se beneficia de la aplicación de los criterios de contenido de las redes.
El escándalo de la censura en Twitter y Facebook del enlace al Post reabrió la discusión sobre quién se beneficia de la aplicación de los criterios de contenido de las redes.

La respuesta larga puede ser un paseo interesante por la revolución francesa, el concepto de libertad de expresión y la primera enmienda de la constitución de los Estados Unidos. La respuesta corta es una sola palabra: dinero.

“En teoría, a nadie se le permite publicar discurso de odio en Facebook. Sin embargo, muchos líderes mundiales —Rodrigo Duterte, de Filipinas; Narendra Modi, de la India; Donald Trump y otros— difunden rutinariamente discurso de odio y desinformación, en Facebook y en otros lugares”, analizó Marantz. Si la compañía les aplicara a ellos, seguidos por millones de personas, los mismos criterios que a alguien con menos de 50 amigos, “sería algo arriesgado desde el punto de vista financiero”. Como consecuencia, siguió el artículo, la red social ha errado a favor de que “los políticos publiquen lo que quieran, incluso cuando esto la ha llevado a debilitar sus propias reglas, aplicarlas selectivamente, reinterpretarlas creativamente o ignorarlas por completo”.

Dave Willner, antiguo titular de políticas de contenido de Facebook, que creó las “Normas sobre abuso” de las que se derivaron las reglas actuales, observó que para el modelo de negocio de las redes sociales no hay buenas opciones al respecto: “Censurar a los líderes mundiales podría sentar un precedente preocupante”. Pero si la posición de las plataformas de Zuckerberg es que el discurso de odio es inherentemente peligroso, ¿no sería más peligroso permitir que lo empleen precisamente aquellos que son famosos o poderosos?, argumentó el especialista que dejó Facebook en 2013 y actualmente es titular de política comunitaria en Airbnb.

Obviamente, la palabra dinero —al igual que sus vecinas fama y podertambién es la respuesta a por qué las plataformas interfirieron en la circulación del enlace a la nota del New York Post sobre Biden antes incluso de llevar a cabo la verificación de datos que podría haber establecido si el e-mail era cierto o falso: a menos de un mes de las elecciones presidenciales, es temporada de cosecha en la publicidad política de las campañas más ricas del mundo.

Una cuestión de imagen

El presidente de los EEUU, Donald Trump, criticó a Facebook por limitar la circulación de la denuncia contra su competidor en las elecciones, Joe Biden.
El presidente de los EEUU, Donald Trump, criticó a Facebook por limitar la circulación de la denuncia contra su competidor en las elecciones, Joe Biden.

Marantz citó a Drew Pusateri, vocera de Facebook, al respecto: “Hemos invertido miles de millones de dólares para mantener el odio fuera de nuestra plataforma. Un informe reciente de la Comisión Europea estableció que Facebook evaluó el 95,7% de las denuncias de discurso de odio en menos de 24 horas, más rápido que YouTube y Twitter”. Y a continuación citó a Robinson que, sin objetar todo ese poder, señaló: “Sucede que lo usan mal”.

Porque eso —siguió The New Yorker— tiene poco que ver con la razón por la cual la discriminación y la violencia abundan en una red social. Encontrar el odio en las publicaciones de 3.000 millones de usuarios —la cifra combinada de Facebook, Instagram, WhatsApp y Messenger— es encontrar una aguja en un pajar, según argumentó el vicepresidente de Asuntos Globales y Comunicación

de la firma de Zuckerberg, el ex viceprimer ministro británico Nick Clegg. Pero el autor de Antisocial propuso “una metáfora más honesta”: en el centro del pajar hay un poderoso imán que atrae esas agujas. Y como el imán son los algoritmos de las plataformas, también lo multiplican, porque así ganan más tracción entre los usuarios. “Elimina tantas agujas como quieras hoy, que mañana reaparecerán más. Así es como el sistema está diseñado para funcionar”.

“No existe un enfoque perfecto para la moderación de contenidos, pero al menos podrían tratar de lucir menos visiblemente codiciosos e incoherentes", dijo Dave Willner, ex encargado del área en el origen de Facebook. (The New York Times)“No existe un enfoque perfecto para la moderación de contenidos, pero al menos podrían tratar de lucir menos visiblemente codiciosos e incoherentes”, dijo Dave Willner, ex encargado del área en el origen de Facebook. (The New York Times)

El resto, argumentó el artículo, es sólo una cuestión de imagen. Se estima que en Menlo Park hay unos 500 empleados formales de tiempo completo en el área de relaciones públicas. Los 15.000 moderadores de contenido —que, al contrario, están vinculados por contratos y dispersos en distintas ciudades del mundo, de Dublin a Manila— denuncian las publicaciones discriminatorio o violento, pero la verdadera acción inmediata se ve cuando en la compañía se habla de un incendio de la imagen, o #PRFire. “A menudo el contenido ha sido denunciado repetidamente sin éxito, pero en el contexto de un incendio de la imagen, recibe pronta atención”, explicó la revista.

“Es un secreto a voces que las decisiones de corto plazo de Facebook están impulsadas en su mayoría por las relaciones públicas y la potencial atención negativa”, dijo Sophie Zhang, ex analista de datos que dejó la compañía en septiembre. “Antes de hacerlo”, recordó el artículo, ella publicó un memo en Workplace, la plataforma interna de los empleados de Zuckerberg, donde dijo que había sido testigo de “múltiples intentos flagrantes de gobiernos extranjeros de abusar de nuestra plataforma a gran escala”, y que en su opinión no se tomaba medidas contra ellos porque los países “no nos importaban lo suficiente como para detenerlos”, ya que no recibían atención de los medios de comunicación estadounidenses.

Al contrario, un #PRFire se debía apagar de inmediato, como cuando Facebook recibió críticas por el bullying que recibía la activista contra el cambio climático Greta Thunberg, quien sufre del síndrome de Asperger: “Los moderadores de contenidos recibieron la instrucción de aplicar una excepción ad-hoc: ‘Remover todas las instancias de ataques contra Greta Thunberg que usen los términos o los hashtags ‘Gretardada’ o ‘Retardada’”.

Qué opinan los moderadores de contenido

infobae-image

Amenazas, decapitaciones, pornografía infantil, crímenes de guerra, violaciones y muchas otras iniquidades que circulan en línea nutren la tarea cotidiana de los encargados de detectar y denunciar o eliminar, según las “Normas de implementación” de Facebook, y un segundo documento, las “Preguntas conocidas”, que funciona como mandato de interpretación de esas reglas. En mayo, miles de moderadores de contenido presentaron una demanda conjunta contra la compañía por estrés postraumático derivado del empleo, que no llegó a completarse porque la plataforma pagó USD 52 millones para cerrarla.

Luego del escándalo Cambridge Analytica y de las operaciones de hackers vinculados al Kremlin durante la campaña electoral estadounidense en 2016, Zuckerberg anunció que su firma mejoraría las tareas de moderación. The New Yorker habló con un matrimonio, Mildka y Chris Gray, que trabajó entonces en la oficina de Dublin. Los recién contratados recibían capacitación sobre las reglas de contenidos aceptables de la mano de un instructor; sin embargo, “los documentos están llenos de jerga técnica y no se presentan en ningún orden lógico”, recordó Chris Gray. Su esposa, nativa de Indonesia, complementó: “En la sala de capacitación todos asienten, sí, sí. Luego sales y le preguntas a un conocido: ‘¿Tú entendiste? ¿Puedes explicarlo en nuestro idioma?’”.

Sin embargo, el problema principal de los moderadores no es la opacidad de los criterios, escribió Marantz, sino la imposibilidad de aplicar “su discreción y su intuición moral”, por la cual se los alienta a “ignorar el contexto” en el que se dice algo potencialmente dañino. El sentido teórico es que no se quiere tener 15.000 criterios diferentes sobre si los querubines de Rafael violan o no las limitaciones a la desnudez. Pero esa descontextualización llega a situaciones como la que describió en 2018 un periodista de Channel 4, del Reino Unido, que realizó de manera encubierta esa capacitación.

El instructor mostró a los moderadores nuevos un meme: un ilustración que muestra a una madre ahogando a su hija, junto con la leyenda “Cuando el primer amor de tu niña es un niño negro”. Aunque la imagen “implica mucho”, en palabras del hombre a cargo de la clase, “no hay un ataque real contra el niño negro”. La recomendación era “ignorar esto”. Ante el silencio que se creó en la sala, el hombre explicó: “Si empezamos a censurar mucho la gente pierde interés en la plataforma”. Entonces preguntó: “¿Estamos todos de acuerdo”. Uno de los presentes dijo que no, otros se rieron.

Un periodista británico encubierto reveló que un instructor de moderación de contenidos para Facebook mostró una imagen que implicaba racismo pero no mostraba un ataque directo, y recomendó ignorarla: “Si empezamos a censurar mucho la gente pierde interés en la plataforma”.Un periodista británico encubierto reveló que un instructor de moderación de contenidos para Facebook mostró una imagen que implicaba racismo pero no mostraba un ataque directo, y recomendó ignorarla: “Si empezamos a censurar mucho la gente pierde interés en la plataforma”.

Luego de la emisión del programa en la televisión británica, un vocero de Facebook dijo que el instructor había cometido un error. Pero Chris Gray aseguró a The New Yorker que él mismo marcó muchas veces ese mismo meme, y que siempre le dijeron que lo ignorase. Argumentó que era racista; le respondieron que no emitiera juicios propios sino que aplicara las normas.

Otros moderadores contaron experiencias similares a la revista. Dos de ellos, que pidieron la reserva de sus nombres, detallaron que muchas veces se les indican acciones “en conflicto con el sentido común y la decencia básica”. Una de ellos dos contó que analizó un perfil de Instagram llamado KillAllFags cuya foto era una bandera arco iris tachada. “La amenaza implícita es bastante clara, creo, pero no pude hacer nada”, siguió: su supervisor insistió en que LGBTQ es un concepto, no alguien en concreto. “Excepto que se refieran a una persona o empleen pronombres, tengo que suponer que hablan de eliminar una idea”.

Clientes VIP

Algo similar sucedió con las publicaciones del partido nacionalista blanco Britain First y de su líder Tommy Robinson, que parecían conocer tanto sobre las reglas de las plataformas como los moderadores, porque fueron reiteradamente denunciados por contenidos que parecían mantenerse al filo de las reglas de Facebook: “La redacción siempre era los suficientemente vaga”, recordó Chris Gray. Además, hacia el final del gobierno de Theresa May, Britain First tenía cuatro veces más seguidores que ella, dos millones, lo cual parecía ser importante a la hora de evaluar si se dejaba o se quitaba algo, agregó el texto.

Un ejecutivo de Facebook anunció en su cuenta de Twitter las medidas que limitaban la circulación de la denuncia del Post contra Biden.
Un ejecutivo de Facebook anunció en su cuenta de Twitter las medidas que limitaban la circulación de la denuncia del Post contra Biden.

Las expresiones discriminatorias o en el borde de lo ilegal de los nacionalistas británicos llegaron a Workplace, donde el encargado de recibir las críticas de los moderadores escribió reiteradamente lo mismo: “Gracias por señalar esto, lo pasaré a nuestros expertos en el tema de organizaciones de odio”. Hasta que en 2018 Darren Osborne fue condenado por atropellar con su camioneta a una multitud cerca de una mezquita de Londres, asesinar a una persona y lesionar a otras nueve, y la sentencia hizo referencia a su “rápida radicalización en internet”. Facebook procedió a prohibir a Britain First y Tommy Robinson.

Otro caso de alto perfil causó la renuncia de David Thiel, un experto en ciberseguridad de las oficinas centrales de Facebook: el presidente de Brasil, Jair Bolsonaro, en su discurso semanal en Facebook Live, dijo a comienzos de 2020 que los indígenas en ese país “evolucionan y se convierten, cada vez más, en seres humanos como nosotros”. Thiel supuso que semejante expresión de racismo estaba más allá de cualquier exégesis de las “Normas de implementación”; sin embargo, vio que el video seguía publicado. Entonces planteó la cuestión en Workplace: Bolsonaro violaba las reglas contra el discurso deshumanizante.

No pudo creer cuando dos moderadores de contenido le dijeron que no era el caso. Uno de ellos, desde Brasilia, le explicó: “El presidente Bolsonaro es conocido por sus discursos polémicos y políticamente incorrectos. En realidad, quiso decir que la población indígena se ha vuelto más integrada a la sociedad (en lugar de estar aislada en sus propias tribus)”. El experto en contenidos había trabajado para un político afín al presidente brasileño, pero eso no fue motivo para que se debiera eximir de opinar. Bolsonaro, además, pagaba publicidad en la plataforma, según Thiel.

Hubo cuentas bloqueadas por denunciar la censura al enlace hacia el New York Post y el e-mail potencialmente incriminatorio para el candidato demócrata a la presidencia de EEUU.
Hubo cuentas bloqueadas por denunciar la censura al enlace hacia el New York Post y el e-mail potencialmente incriminatorio para el candidato demócrata a la presidencia de EEUU.

Con una presentación de 53 diapositivas (una de las cuales recordaba que durante el primer año de gobierno de Bolsonaro hubo siete asesinatos de líderes indígenas, un récord en dos décadas), el ejecutivo de ciberseguridad insistió. Lo escucharon. El video siguió en línea. Thiel renunció en marzo con una carta de despedida que se hizo pública. El equipo de políticas de contenido le escribió para contarle que habían cambiado su decisión y el discurso de Bolsonaro ya no estaría disponible.

¿Facebook no quiere o no puede?

A comienzos junio Facebook debió atender sucesivamente a un paro de personal en home office y a una carta abierta de 34 ex empleados de sus orígenes, entre ellos Dave Willner, cuya línea medular decía: “Si cualquier discurso de un político es de interés periodístico y todo discurso de interés periodístico es inviolable, entonces no hay límite que los poderosos del mundo no puedan cruzar en la plataforma más grande del planeta”. E instaba: “La actualidad nos muestra que no podemos aceptar pasivamente un papel de facilitadores silenciosos de los algoritmos, no cuando nuestras pantallas están saturadas de discurso de odio”.

Y aunque Facebook anunció cambios a sus lineamientos el 19 de agosto, su aplicación sigue siendo dudosa, según Marantz. Por ejemplo, ahora se restringen las actividades de “organizaciones y movimientos que han demostrado riesgos de importancia para la seguridad pública”, entre ellos “las organizaciones estilo miliciano en los Estados Unidos”. Pero luego de los disturbios en Kenosha, Wisconsin, porque un policía disparó siete veces contra Jacob Blake, un afroamericano, delante de sus hijos, la Guardia de Kenosha, un grupo estilo milicia, publicó en Facebook un “llamado a las armas”, en cuyos comentarios hubo incitación explícita a la violencia y amenazas. Los moderadores de contenidos determinaron que no violaba los estándares de Facebook. El 25 de agosto, un joven de 17 años disparó contra tres manifestantes con un rifle semi automático y mató a dos.

“Es probable que las restricciones también alimenten la idea de que los medios de comunicación social discriminan a los conservadores”, planteó, por último, The New Yorker. En efecto, además de las acusaciones en ese sentido que ha repetido el presidente Donald Trump en su cuenta de Twitter, senadores republicanos como Ted Cruz y Lindsey Graham han solicitado que se cite a declarar en Capitol Hill a los ejecutivos de Facebook y Twitter sobre lo que han descripto como “censura en las redes sociales”.

Una carta abierta de 34 ex empleados de los orígenes de Facebook advirtió: “Si cualquier discurso de un político es de interés periodístico y todo discurso de interés periodístico es inviolable, entonces no hay límite que los poderosos del mundo no puedan cruzar en la plataforma más grande del planeta”. (REUTERS/Erin Scott)
Una carta abierta de 34 ex empleados de los orígenes de Facebook advirtió: “Si cualquier discurso de un político es de interés periodístico y todo discurso de interés periodístico es inviolable, entonces no hay límite que los poderosos del mundo no puedan cruzar en la plataforma más grande del planeta”. (REUTERS/Erin Scott)

De hecho, el análisis de Tardáguila sobre la imposibilidad de compartir el enlace al artículo del Post que perjudicaba a Biden, originalmente publicado en Poynter, una organización de periodismo e investigación sin fines de lucro vinculada al Tampa Bay Times e International Fact-Checking Network, fue recogido por Fox News: “El Instituto Poynter publicó una columna acribillando a Twitter y Facebook como ‘árbitros de la verdad’ luego de que los gigantes tecnológicos tomaran las decisiones ‘polémicas y cuestionables’ de censurar un artículo del New York Post que afectaba al nominado demócrata a la presidencia, Joe Biden”.

Según la cadena, “hace tiempo que los críticos afirman que las redes sociales suprimen los informes que critican a los demócratas, y la censura de la bomba del New York Post esta semana, que intentaba mostrar correos electrónicos de Hunter Biden que vinculan a su padre con sus negocios en Ucrania, pone la cuestión en primer plano”. Fox citó al también conservador Media Research Center, que aseguró que “hasta ahora, los empleados de Facebook y Twitter dieron más del 90% de sus contribuciones políticas a los demócratas para el ciclo 2020”, lo cual pondría en cuestión la ecuanimidad de estas personas en sus trabajos, valoró.

Twitter impidió las publicaciones con el enlace al artículo sobre la computadora de Hunter Biden y los e-mails vinculados a la empresa ucraniana Burisma (luego su CEO, Jack Dorsey, se disculpó), mientras que Facebook limitó su difusión. Sohrab Ahmari, editor del Post, argumentó que el artículo del diario fue “muy transparente sobre lo que sabíamos y lo que no sabíamos, y lo informamos meticulosamente”. También acusó a las plataformas de haber impedido que los lectores pudieran “juzgar por sí mismos” y de haber demostrado “cuánto poder irresponsable ejercen estos monopolios tecnológicos”, al punto que “nuestra libertad de expresión hoy vive o muere en estas plataformas” que se rigen según “los caprichos de los multimillonarios de Silicon Valley”.

 

[infobae.com]

No Comments

Sorry, the comment form is closed at this time.