Facebook deja en manos de una inteligencia artificial las prioridades de los moderadores humanos

Facebook deja en manos de una inteligencia artificial las prioridades de los moderadores humanos

Facebook deja en manos de una inteligencia artificial las prioridades de los moderadores humanos

Cuando un usuario marca en Facebook un contenido como sospechoso, por el motivo que sea, se desencadena un proceso de moderación. Dicha publicación es moderada automáticamente, cuando el sistema detecta una clara violación, o se acumulan en una cola de contenidos a ser moderados por humanos.

Un proceso, este último, que va a cambiar con el último movimiento de Facebook en su apuesta por la automatización: el aprendizaje automático se encargará de priorizar esa cola y colocar en los primeros puestos aquellos más importante. Una publicación denunciada por spam, por ejemplo, será de las menos prioritarias.

La inteligencia artificial como complemento a la moderación humana

Ilustración sobre Facebook

Lo avanza The Verge, explicando que en el futuro el uso de la inteligencia artificial irá más allá de priorizar los más importante. Un conjunto de algoritmos se encargarán de la priorización en base a la viralidad, la severidad y la probabilidad de violación de reglas de los contenidos que hayan sido reportados.

La idea es que los 15.000 moderadores humanos de Facebook se encarguen primeramente de los contenidos que requieren una atención más rápida por distintos motivos, pudiendo resultar potencialmente más dañinos, al tiempo que se deja para más tarde aquellas publicaciones que por sus características puedan esperar. El contenido que tenga un impacto en el mundo real, por ejemplo, como aquellos relacionados con terrorismo, se priorizará.

“Todas las violaciones de contenido seguirán recibiendo una revisión humana sustancial, pero usaremos este sistema para priorizar mejor”

Y aunque la inteligencia artificial continúe cobrando protagonismo y asumiendo tareas, los responsables se han afanado en subrayar que las violaciones de contenido “seguirán recibiendo una revisión humana sustancial”. Un enfoque acertado, teniendo en cuenta los hilarantes problemas que a veces provocan sus algortimos, que coincide con las conclusiones a las que han llegado otras plataformas como YouTube, que también han usado algoritmos para moderar.

Durante los primeros meses de la pandemia, la plataforma de vídeo de Google constató que la moderación automática estaba provocando problemas. Estaba siendo demasiado celosa y unos 160.000 vídeos fueron eliminados sin motivo. Por eso, volvieron los humanos para tomar decisiones con matices y dependiendo del caso concreto. La IA también tiene sus limitaciones.

[genbeta.com]

No Comments

Sorry, the comment form is closed at this time.