Nuevas medidas de seguridad para los grupos de Facebook

Facebook ha anunciado nuevas medidas para mantener la seguridad en los grupos dentro de la plataforma y reducir, entre otras cosas, el contenido dañino y la desinformación.

Durante el último año Facebook ha eliminado cerca de 1,5 millones de piezas de contenido en grupos por violar las políticas sobre odio organizado, el 91% de las cuales se detectaron de forma proactiva. La compañía también eliminó unos 12 millones de contenidos en grupos por violar las políticas de discurso de odio, un 87% de los cuales se detectaron proactivamente. En lo referente a grupos propiamente dichos, Facebook ha desactivado más de un millón por violar las políticas.

Algunas de las medidas que ha puesto en marcha la compañía son:
· Las personas que violen repetidamente las normas comunitarias no podrán crear ningún grupo nuevo durante un periodo de tiempo determinado
· Los grupos que giren alrededor de temáticas sobre salud no aparecerán en las “recomendaciones”, para priorizar el acceso a información proveniente de fuentes oficiales.
· Los grupos que lleven mucho tiempo sin un administrador activo, serán archivados
· Los grupos que incluyan contenidos sobre violencia serán aún más limitados: no aparecerán en las recomendaciones, tendrán restricciones en las búsquedas y se reducirá el contenido que publiquen. Si el contenido de un grupo es potencialmente peligroso, el grupo será eliminado.
· Para combatir la desinformación en los grupos, Facebook sigue estos tres pasos:

  • Eliminar aquellos grupos que compartan contenido que viole las normas comunitarias
  • Reducir la distribución de grupos que compartan desinformación, eliminándolos de las recomendaciones y limitando el alcance de sus contenidos
  • Informar a los administradores de los grupos cuando un contenido ha sido catalogado como falso por los verificadores independientes de Facebook

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.