Facebook publica por primera vez las cifras sobre cumplimiento de las normas comunitarias

cabeceraA menudo nos preguntan cómo decidimos lo que está permitido en Facebook – y cuánto contenido inapropiado hay. Durante años, hemos tenido Normas de la Comunidad que explican lo que se mantiene, y lo que se retira. Y hace tres semanas, por primera vez, hicimos públicas las pautas internas que utilizamos para hacer cumplir esas normas. Hoy publicamos las cifras en un Informe de Cumplimiento de las Normas Comunitarias para que vosotros mismos podáis juzgar los resultados.

Alex Schultz, nuestro Vicepresidente de Análisis de Datos, explica con más detalles cómo medimos exactamente lo que ocurre en Facebook en este Post y nuestra guía para Comprender el Informe de Cumplimiento de las Normas Comunitarias. Pero es importante destacar que se trata de un trabajo en progreso y es posible que cambiemos nuestra metodología según aprendemos más sobre qué es importante y qué es lo que funciona.

Este informe cubre nuestros esfuerzos de cumplimiento de las normas, entre Octubre de 2017 y Marzo de 2018, en seis áreas: violencia gráfica, desnudos adultos y actividad sexual, propaganda terrorista, incitación al odio, spam y cuentas falsas. Los números muestran:
· Cuánto contenido que incumple nuestras normas ha sido visto por las personas;
· Cuánto contenido hemos retirado; y
· Cuánto contenido hemos detectado proactivamente utilizando nuestra tecnología — antes de que la gente lo haya reportado.

La mayor parte de las acciones que tomamos para retirar contenido inapropiado gira en torno a las cuentas falsas y la gran cantidad de spam que generan. Por ejemplo:
· Hemos retirado 837 millones de piezas de spam en el primer trimestre de 2018 — casi el 100% de lo que hemos encontrado y marcado antes de que alguien lo reportara; y
· La clave para acabar con el spam es retirar las cuentas falsas que lo difunden. En el primer trimestre, hemos deshabilitado 583 millones de cuentas falsas — la mayoría de las cuales fueron deshabilitadas durante los minutos de registro. Esto se suma a los millones de intentos de cuentas falsas que prevenimos a diario, antes de que se registren en Facebook. Por encima de todo, estimamos que alrededor del tres o cuatro por ciento de las cuentas activas en Facebook durante este periodo de tiempo eran falsas.

En cuanto a otros tipos de violación de contenido:
· Hemos retirado 21 millones de piezas de desnudos de adultos o porno en el primer trimestre de 2018 — el 96% fue encontrado o marcado por nuestra tecnología antes de que fuera reportado. Estimamos que de 10.000 piezas de contenido vistas en Facebook, de siete a nueve piezas vistas eran contenido que no cumplía con nuestras normas de desnudos de adultos o pornografía.
· Para problemas serios como la violencia gráfica y la incitación al odio, nuestra tecnología aún no funciona tan bien y necesita ser revisada por nuestros equipos de revisión de contenido. Hemos retirado o aplicado etiquetas de aviso para casi tres millones y medio de piezas de contenido violento en el primer trimestre de 2018 — el 86% fue identificado por nuestra tecnología antes de que fuera reportado a Facebook. En comparación, hemos retirado 2 millones y medio de piezas de incitación al odio en el primer trimestre de 2018 — el 38% fue marcado por nuestra tecnología.

Tal y como dijo Mark en la Conferencia F8, aún tenemos mucho trabajo por hacer para prevenir el abuso. En parte porque una tecnología como la inteligencia artificial, es prometedora pero todavía quedan años para que sea efectiva en la mayor parte del contenido nocivo, ya que el contexto es muy importante. Por ejemplo, la inteligencia artificial no es lo suficientemente buena para determinar si alguien está promoviendo el odio o está describiendo algo que le ocurrió para concienciar sobre el tema. En general, tal y como explicaba la semana pasada, la tecnología necesita captar grandes cantidades de datos de entrenamiento para reconocer patrones de comportamiento significativos, que a menudo nos faltan en los idiomas menos utilizados o en los casos que no se reportan con frecuencia. Además, en muchas áreas —tanto si es spam, como porno o cuentas falsas —actuamos contra adversarios sofisticados que cambian sus tácticas continuamente para evitar nuestros controles, lo que significa que continuamente tenemos que desarrollar y adaptar nuestros esfuerzos. Por eso estamos invirtiendo mucho en más personas y mejor tecnología para hacer Facebook más seguro para todo el mundo.

Y también por esa razón hacemos pública esta información. Creemos que el aumento en la transparencia conlleva una mayor responsabilidad en el tiempo y el publicar esta información también nos impulsará a mejorar más rápidamente. Esta es la misma información que usamos para medir nuestro progreso internamente, y ahora tú puedes verla para juzgar nuestro progreso por ti mismo. Esperamos tus comentarios.

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

w

Conectando a %s