En octubre de 2020, tras la decapitación del profesor de secundaria francés Samuel Paty, un usuario sirio entró en Facebook para elogiar el brutal asesinato. Después de que el personal de Syria Justice and Accountability Centre (SJAC) denunciara el post, la tecnología de Facebook evaluó si «va en contra de nuestros estándares comunitarios» y nos informó que no. El post, y la violencia que buscaba incitar, sigue siendo visible hasta el día de hoy. Un año antes Facebook había decidido eliminar los posts que condenaban la decapitación de activistas de derechos humanos de Siria llevada a cabo por ISIS. Facebook (o más bien sus algoritmos) lo consideraba una violación de los estándares de la comunidad a pesar de que los posts tenían la clara intención de resaltar la difícil situación de las víctimas de estos asesinatos. A pesar del tono razonable y mesurado que emplearon los mensajes automatizados de Facebook, los posteriores intentos de apelar esta desconcertante decisión a los moderadores humanos cayeron en saco roto. (Traducimos este artículo del SJAC porque situaciones como éstas nos deberían empujar a analizar cómo Facebook fracasó en Siria)
Permitiendo sistemáticamente el discurso del odio y de la represión
A medida que el Congreso (estadounidense, nota de la traducción) contempla nuevas leyes que regulan las empresas de medios sociales y que la «Corte Suprema» de Facebook, su Junta de Supervisión integrada por 40 personas, ha comenzado a resolver las controversias, la experiencia de Siria debería ocupar un lugar destacado en el debate. Ilustra cómo la moderación del contenido de Facebook – el proceso por el cual decide mantener o descartar las publicaciones – es profundamente defectuosa. Facebook permite sistemáticamente el discurso del odio y de la represión sin dar suficiente crédito a especialistas humanos de confianza.
Facilitando vastas campañas de desinformación
Mientras que la tecnología alguna vez fue prometedora, el historial de Facebook en Siria se ha vuelto preocupante. Al comienzo del conflicto en 2011, ayudó a los organizadores de los movimientos de protesta de civiles a coordinar la acción y documentar la represión del gobierno. Facebook también ayudó a asegurar las cuentas de los manifestantes sirios cuando se les notificó que los activistas habían sido arrestados, para evitar que las autoridades locales accedieran por la fuerza a sus datos. En cambio, ha facilitado vastas campañas de desinformación coordinadas por los Gobiernos de Siria y Rusia para deslegitimar a la oposición política.
La respuesta de Facebook a esos abusos de su plataforma en Siria fue peligrosamente lenta y vacilante. Esto puede atribuirse a la renuencia general de las empresas de medios de comunicación estadounidenses como Facebook a regular el contenido en nombre de la «libertad de expresión», así como a un imperativo financiero de generar ingresos publicitarios mediante la promoción de contenido viral, a menudo extremista, que mantiene la atención de los usuarios.
Sin plan coherente a largo plazo
Después de que se hiciera público el papel de Facebook en el fomento del genocidio de l@s Rohingya en Myanmar y la difusión de desinformación relacionada con las elecciones presidenciales de EE.UU. de 2016, Facebook mostró un mayor interés en mitigar el daño. Por ejemplo, comenzó a eliminar preventivamente el contenido que incitaba a la violencia y la discriminación. Facebook ahora dedica importantes recursos a regular el contenido en lugares como Alemania, donde ha pagado más de mil moderadores de contenido.
Sin embargo, la atención de Facebook al contenido del Medio Oriente en general, y de Siria en particular, ha sido limitada e inconsistente. Facebook celebró una mesa redonda en Beirut en 2019 con representantes de organizaciones de la sociedad civil local, para organizar una red regional de los llamados Socios de Confianza.
En el marco del programa de Socios de Confianza, los activistas y las ONG pueden saltarse los protocolos ordinarios para informar sobre contenido peligroso y alertar inmediatamente a los administradores de Facebook. Lamentablemente, lo poco que se materializó de la reunión de 2019 y el apoyo financiero periódico de Facebook a los Socios de Confianza regionales carece de un plan coherente a largo plazo. Tampoco está claro que el contenido denunciado por los Socios de Confianza sea atendido sistemáticamente.
Sin interpretación humana proactiva
En Siria, la moderación de Facebook ha sido profundamente perjudicial, en gran medida porque da prioridad a las fórmulas algorítmicas sobre la interpretación humana proactiva. Como el personal de SJAC descubrió personalmente, los algoritmos de Facebook diseñados para bloquear el discurso de odio de los grupos militantes y simpatizantes han terminado por eliminar los mensajes de los Socios de Confianza sirios. Los intentos posteriores de apelar esas decisiones a menudo quedan sin respuesta mientras el contenido violento en cuestión sigue circulando a través de la plataforma y más allá de ella. Esos mismos algoritmos han promovido y autogenerado en cambio contenidos virales y extremistas en Siria y sobre Siria.
Evitando que se documenten los crímenes de guerra
El sistema para informar sobre el contenido ha permitido durante mucho tiempo a los usuarios favorables a Asad presionar con éxito para que se elimine el contenido publicado por los miembros de la oposición política. Esos usuarios informan del contenido como «gráfico» para evitar que se documenten los crímenes de guerra cometidos por el gobierno sirio. Esto ha llevado a que muchas cuentas de la oposición sean prohibidas por Facebook. Más recientemente, las fuerzas pro-gubernamentales han recurrido a la ley de derechos de autor como medio para suprimir el contenido antigubernamental. El verano pasado Facebook se vio obligado a eliminar las publicaciones que detallaban las protestas antigubernamentales en Sweida con el pretexto de que infringían los derechos de autor digital de una empresa de medios pro-Asad.
Es difícil concebir cómo la nueva Junta de Supervisión de Facebook beneficiará a los manifestantes de Sweida y otros lugares, muchos de los cuales no saben cómo pueden apelar la decisión de eliminar sus publicaciones. Su difícil situación no se verá favorecida por el hecho de que el único representante del Oriente Medio entre los miembros de la Junta no sea un experto en moderación de contenidos ni en derechos digitales.
Manteniendo información engañosa
Las leyes de derechos humanos y las consultas con especialistas en Siria deberían servir de base para la respuesta de Facebook a estos problemas. Según los expertos de las Naciones Unidas, la libertad de expresión y la obligación de no discriminación se refuerzan mutuamente y deben ser defendidas de manera equilibrada tanto por las empresas como por los Estados. Esto es especialmente cierto cuando se trata de una empresa como Facebook, que ha constituido efectivamente el principal espacio de debate público para las personas que viven bajo gobiernos hostiles a los medios de comunicación independientes, como en Siria.
Por lo tanto, Facebook tiene la obligación de proteger tanto la libertad de expresión de sus usuarios como la ausencia de información violenta y engañosa. Aunque el énfasis que pone la Junta de Supervisión en los derechos humanos ha recibido algunos elogios de los grupos de derechos civiles, los críticos en las Naciones Unidas y en otros lugares han señalado la concepción limitada que tiene la Junta de los discursos de incitación al odio y han señalado que la Junta sólo revisará las decisiones sobre el contenido que Facebook ha retirado. El contenido que es mantenido erróneamente en el sitio no será considerado por la Junta.
Conclusión: es crucial involucrar a organizaciones de DDHH y activistas
Por lo tanto, es crucial que Facebook involucre a las organizaciones de derechos humanos y a l@s activistas de los medios de comunicación en cada etapa de la moderación del contenido relativo a Siria. Son idóneas para aclarar el contexto social de los contenidos políticamente sensibles, identificar dónde ciertos actos de expresión amenazan a comunidades concretas y poner de relieve el contenido que es pertinente para los procesos de justicia en Siria y que debe preservarse. Los algoritmos de Facebook no sustituyen esta mezcla de conocimientos y preocupación por l@s más vulnerables. La adopción de un enfoque inclusivo de la moderación del contenido requerirá un esfuerzo organizativo concertado y compromisos financieros adicionales. Pero Facebook no puede eludir su responsabilidad de implementar un sistema de moderación que respete plenamente los derechos humanos delegando la responsabilidad a una Junta de Supervisión con poderes limitados.
Si Facebook no se compromete con las reformas, las llamadas a la regulación gubernamental, las sanciones financieras o las demandas civiles y penales se acentuarán.
Para más información o para dar su opinión, póngase en contacto con SJAC en info@syriaaccountability.org y síganos en Facebook y Twitter.
Fuente: How Facebook Failed in Syria
Imagen destacada: (c) Lens Young Homsi