¿Qué criterio sigue Facebook para eliminar un contenido?

¿Qué criterio sigue Facebook para eliminar un contenido?

Facebook-noticias

En Facebook no vale todo. Eso es algo que la compañía lleva aplicando desde su existencia, eliminando aquellas cosas que no se ajustan a sus políticas, que quedan detalladas en las normas de la comunidad.

Pero ahora, la empresa de Zuckerberg ha detallado cómo aplican esas normas de manera interna. Además, a partir de ahora, permiten apelar las decisiones sobre publicaciones individuales, otorgando la posibilidad de pedir una segunda opinión.

Muchas de las políticas de contenido de Facebook son sentido común, pero algunas son más fáciles de aplicar que otras

Para empezar, el equipo de política de contenidos de Facebook es el órgano encargado de crear las normas de la comunidad.  Este equipo, formado por personas distribuidas en 11 oficinas a lo largo de todo el mundo, incluye a todo tipo de expertos en termas sensibles: abogados sobre seguridad infantil, investigadores sobre organizaciones extremistas, expertos en terrorismo, etc.

Éstas personas son las encargadas de trazar las líneas sobre las que se asentarán las políticas de contenido de Facebook. Un equipo de más de 7.500 personas es el encargado de revisar que los contenidos se ajusten a dichas políticas.

En muchos casos, cuando las infracciones sean graves, por ejemplo en casos de delitos, violencia o abuso sexual, Facebook colaborará con las autoridades. Así mismo, en casos de bullying o suicidio, las acciones de la empresa pueden ir más allá de eliminar simplemente el contenido, pudiéndose poner en contacto con las víctimas o con servicios que puedan prestar ayuda.

¿Cómo aplica Facebook sus normas sobre los contenidos publicados?

1. Contenido inapropiado

Ser parte del “contenido inapropiado” es el motivo más extendido a la hora de eliminar una publicación. Dentro de esta categoría está cualquier tipo de contenido que muestre actividad sexual. La desnudez, en la mayoría de los casos, tampoco se tolera en Facebook. Hay excepciones como imágenes educativas, médicas o de protesta.

Por ejemplo, el tema de los pezones en Facebook siempre ha estado en primera línea de fuego. Una imagen de un pecho puede ser censurada si aparece el pezón, por lo que muchas modelos simplemente pixelan la zona. Los pezones están permitidos en fotos de actos de protesta, mujeres dando el pecho y fotos de intervenciones médicas. Pero Facebook matiza: “siempre y cuando quede clara esta intención”.

El contenido inapropiado también incluye cualquier tipo de discurso de odio. La red social considera delito de odio a todo el contenido que ataque (declaraciones violentas, de inferioridad, deshumanizadoras…) a las personas que figuren en la clasificación de “características protegidas” de la compañía. Esto incluye raza, etnia, gente inmigrante, nacionalidad, religión, orientación e identidad sexual, sexo y discapacidad.

El delito de odio es un asunto delicado con ciertas ambigüedades. Por ejemplo, si un colectivo utiliza insultos racistas hacia si mismo a modo de sátira o de educación, en principio, y siempre  y cuando la intención quede clara, el contenido no sería eliminado. En estos casos, desde Facebook valoran que las personas o entidades que crean este tipo de contenido muestren su verdadera identidad.

2.Spam, Fake News y falta de honestidad

El spam es el enemigo universal de Internet, y en Facebook tampoco lo quieren. Pasa lo mismo con la publicidad engañosa, ni siquiera cuando el objetivo no es directamente económico. Aquella publicidad destinada a ganar likes de manera deshonesta, será eliminada de Facebook.

Las Fake News han supuesto una revisión de la red, ya que su alcance puede ser potencialmente catastrófico. En la red social, sabiendo que se trata de un asunto delicado, no las elimina, sino que limitan su aparición el Feed. Esto es porque cualquier persona puede elegir donde informarse, y muchas veces la falsedad de una noticia es algo difícil de determinar. Además, la opinión, las noticias satíricas y las noticias falsas conviven en un espacio que se puede llegar a confundir.

Todo tipo de suplantación de identidad está prohibida. De hecho, el sistema de reconocimiento facial de la empresa avisa si alguien ha usurpado la foto de otro usuario, siempre y cuando se haya dado permiso a dicha tecnología.

Además, la propiedad intelectual es algo que en Facebook se toman muy en serio. Cualquier publicación que viole los derechos de autor y cualquier otra ley de propiedad intelectual, será perseguida.

3.Violencia y delitos

En Facebook saben que la mayoría de los comentarios violentos no tienen intenciones reales detrás. Pero filtrar los comentarios sin sentido de amenazas reales es algo vital. Para ello, los revisores de contenido tienen en cuenta el lenguaje, el contexto y ciertos detalles para determinar si una amenaza es real o simplemente palabrería. Cosas como que la persona receptora de las amenazas tenga una gran visibilidad o pertenezca a ciertos colectivos son importantes a la hora de determinar la veracidad de un comentario violento.

Por otra parte, cualquier tipo de apología a grupos violentos (terroristas, crimen organizado, etc) no estará permitido, y por supuesto, este tipo de organizaciones están vetadas de tener presencia en la red social.

La apología a ciertos crímenes, como robos o fraudes, se mueve en terrenos más grises. Facebook eliminará la publicidad o la incitación a cometer cualquier tipo de delito. Pero los debates sobre si ciertas actividades delictivas son legítimas o no, sí que está permitido. La sátira sobre delitos también es algo que no infringe las políticas de la empresa.

La compraventa de artículos ilegales (drogas, armas, munición, medicamentos no regulados, etc) está también vetada de la plataforma.

4.Seguridad personal

Facebook evita cualquier tipo de apología del suicidio y de las autolesiones. Ha habido casos -no pocos, por desgracia- de suicidios en directo en Facebook Live. Es difícil cortar este tipo de emisiones, ya que si no se conocen las intenciones de la persona, todo se basa en suposiciones.

Por supuesto, cualquier contenido inapropiado de menores, es eliminado de Facebook. De hecho, si alguien comparte fotos de sus hijos desnudos en una situación no sexual (playa, piscina, etc…) Facebook tiene a eliminar este tipo de imágenes, ya que afirman que terceras personas pueden hacer un mal uso de ellas.

La publicidad de servicios sexuales esta prohibida en Facebook. Por servicios sexuales, la compañía entiende prostitución, servicios de acompañantes, masajes sexuales y la pornografía. Parece que parte de esta política nace de un intento de eliminar la explotación y la violencia sexual en la plataforma, aunque no siente bien a los trabajadores sexuales.

Facebook hace una distinción entre acoso y bullying, evidentemente no permitiendo ninguno de los dos. El bullying englobaría cualquier contenido dirigido a un individuo con el objetivo de degradarlo o avergonzarlo. Sin embargo, no se considera bullying cuando este tipo de contenidos está dirigido a personajes públicos, donde la regulación es algo más laxa.

En materia de acoso, la compañía lucha contra los intentos repetidos de ponerse en contacto con alguien que no quiere dicho contacto, los insultos, amenazas y deseos de muerte o enfermedades, y en definitiva, cualquier situación de fijación violenta e intrusiva hacia una persona o grupo. En este apartado figuran las víctimas de tragedias, protegidas de cualquier insinuación de que su condición de víctima sea una farsa.

[trecebits.com]