empresa matriz de Facebook metaEl informe de la junta de supervisión encontró que es probable que la plataforma de revisión de contenido con un camino privado para individuos y empresas cause daño al público y parece existir para satisfacer las preocupaciones de los metanegocios, en lugar de proteger el discurso seguro y justo.
Las recomendaciones del consejo llegan en un momento en que es una red rival. Gorjeo Está lidiando con sus propios problemas de moderación de contenido, a raíz de la adquisición de la plataforma de redes sociales por parte de Elon Musk. Y muestra que había preocupación por la forma en que los VIP de Facebook recibían un trato diferente, en términos de cómo se administraban sus publicaciones, en comparación con los usuarios regulares.
En 2020, Meta, entonces conocida como Facebook, estableció un consejo de supervisión bajo la dirección del director ejecutivo Mark Zuckerberg. Ella influyó en la prohibición del expresidente Donald Trump, después de la insurrección del 6 de enero.
The Wall Street Journal informó por primera vez sobre la existencia de un programa especial de revisión VIP llamado “verificación cruzada” o XCheck en septiembre de 2021, como parte de una exposición más amplia del Journal sobre las acusaciones de la denunciante Frances Hogan.
En un informe de 57 páginas, la junta criticó lo que descubrió que era un software que promovía un sistema desigual que ofrecía “a algunos usuarios más protección que a otros”. El programa retrasó la eliminación de contenido que probablemente infrinja las normas Meta y ni siquiera pudo cuantificar la eficacia del programa de seguimiento privado, en comparación con los procesos estándar de moderación de contenido.
El informe encontró que el contenido potencialmente ofensivo puede permanecer en el sitio durante horas, posiblemente incluso días, si el usuario es parte de un programa VIP especial.
Meta le dijo a la junta de supervisión que “tiene un sistema que bloquea ciertas acciones de cumplimiento fuera del sistema de escrutinio integral”.
Este sistema, llamado internamente “parches técnicos”, son excepciones automáticas a una lista predefinida de violaciones de políticas de contenido para un grupo determinado de usuarios. Meta procesa “alrededor de mil correcciones técnicas por día”.
Para la mayoría de los usuarios, moderar contenido en Facebook e Instagram históricamente ha sido sencillo. El contenido potencialmente problemático se marca, ya sea mediante procesos automatizados o cuando un ser humano marca el contenido cuestionable, y luego un contratista externo o un algoritmo automatizado toma una decisión sobre la naturaleza del contenido.
Pero para unos pocos privilegiados, el programa de detección masiva ha activado un proceso diferente, más humano.
Para esas “entidades autorizadas”, el primer paso fue una revisión por parte de un equipo selecto de personal de Meta y contratistas que tienen cierto grado de “pericia lingüística y regional” sobre el contenido que moderan. Sin embargo, esta no era una oportunidad para el público en general.
En Afganistán y Siria, por ejemplo, el tiempo promedio de revisión de contenido informado fue de 17 días, en parte porque Meta a veces ha tenido problemas para reclutar expertos en idiomas a nivel mundial.
Luego, el contenido fue revisado por un panel de “alto rango” de ejecutivos de Meta, que incluía líderes de los equipos de comunicaciones y legal.
En el nivel final, los “Meta CEO” pueden participar si la empresa enfrenta riesgos legales, de seguridad o regulatorios significativos.
Este nivel superior también se puede activar si existe un grado de urgencia, con el potencial de “consecuencias para la empresa”. No estaba claro quién tomó la decisión de acelerar el proceso de revisión de contenido al liderazgo global.
Meta revisó su proceso de revisión de contenido para el público en general en 2022 luego de los informes iniciales de la revista,
Ahora, después del descubrimiento y la revisión inicial, el contenido se divide en etapas mediante un proceso ‘automático’ para decidir si necesita o no una revisión adicional.
Si se requiere un examen más profundo, los empleados o contratistas de Meta participarán en un examen más profundo y pueden ascender al nivel más alto disponible para el público en general, un “equipo de respuesta temprana”, que tomará una decisión final sobre la acción de cumplimiento.
En el informe, la Junta de Supervisión de Meta hizo más de dos docenas de recomendaciones para reformas al programa integral de escaneo. La primera recomendación fue dividir el sistema de revisión de contenido de Meta en dos vías: una para cumplir con las “responsabilidades de derechos humanos” de Meta y otra para proteger a los usuarios que Meta considera una “prioridad comercial”.
Otras recomendaciones incluyeron un cortafuegos para los equipos de políticas públicas y relaciones gubernamentales desde la moderación del contenido, la creación de un conjunto claro de criterios públicos para la inclusión en listas de verificación cruzadas o posteriores, y la expansión del proceso de apelaciones a casi todo el contenido.
Un representante de Meta señaló a CNBC un comunicado en el sitio de prensa de Meta.
“Hemos creado un sistema de detección integral para evitar una posible ejecución excesiva (cuando tomamos medidas sobre el contenido o las cuentas que en realidad no infringen nuestras políticas) y para verificar dos veces dónde podría haber un mayor riesgo de que ocurra un error o cuando el impacto potencial de un error es severo.” En particular “.
“Para abordar completamente la cantidad de recomendaciones, hemos acordado con la Junta revisar y responder dentro de los 90 días”.