Es habitual encontrar quejas sobre el funcionamiento de grandes plataformas y sitios como YouTube, Twitter o Instagram; sea por quitar imágenes o videos de sus usuarias por infracción de sus políticas y condiciones de uso, o bien por mantener en sus sistemas comentarios constitutivos de amenazas o discriminación. En otras palabras: por quitar demasiado sin suficiente justificación o mérito, mientras los nazis circulan sin molestias.
Se trata a menudo de decisiones difíciles, intentando sopesar tanto el interés por la expresión libre con el respeto a la ley o a las reglas de convivencia en la interacción entre usuarios en la plataforma. En una escala planetaria, con cientos o miles de millones de personas haciendo lo mismo a la vez, la tarea de moderación es de una magnitud difícil de medir. A ello se agrega la complejidad de responder a distintas normas legales y sociales existentes entre distintos países y comunidades.
De allí nace el anuncio de un Consejo Asesor de contenido de Facebook, con la misión de actuar como árbitro último en la decisión de cuándo corresponde un retiro de contenido o no. Hace pocos días -y tras un intenso período de consultas en persona y por escrito- se incluyó la respuesta de la coalición Al Sur (p. 126), de la cual Derechos Digitales forma parte, y se realizó el anuncio oficial del Acta constitutiva que despeja varias de incertidumbres; dejando abiertas algunas interrogantes levantadas por diversas organizaciones de la sociedad civil durante el periodo de consultas.
Un órgano diverso e independiente
Uno de los aspectos clave de la implementación de un Consejo como el planteado es la independencia funcional, esto es, que no se trate de un órgano que responda a Facebook. Por ello, el más reciente anuncio se anota un punto favorable al incluir la formación de un fideicomiso, que recibirá fondos de la compañía pero estará independientemente encargado de financiar la operación del Consejo, incluyendo la compensación por servir en el mismo. La forma de interacción entre los tres órganos está también contemplada en el Acta (art. 5).
El Consejo contará también con capacidad independiente para seleccionar los casos a los que se dedicará. Aunque resta conformar los estatutos para el funcionamiento del Consejo, será este mismo el que podrá modificarlos a futuro, idealmente asegurando así que la primera versión de ellos que producirá Facebook no afectará la forma en que se diseñe su proceso de toma de decisiones.
Por otra parte, la composición del Consejo (art. 1 del Acta) debe ser “diversa”, con entre 11 y 40 personas con un amplia gama de conocimientos, competencias, diversidad y pericia; evitando los conflictos de interés. Puesto que no hay un Consejo conformado todavía, aún no sabemos si en la práctica se cumplirán las aspiraciones de diversidad de voces y perspectivas anunciada, sin embargo ya está en marcha el proceso de selección de miembros iniciales. Aún no queda claro si los criterios para la remoción de miembros del Consejo (art. 1 s. 8), una vez establecidos, serán suficientes para garantizar que la permanencia sirva como modo de presión para la toma de decisiones en uno u otro sentido. Tampoco hay mecanismos establecidos para enfrentar las inevitables acusaciones de sesgo de quienes compongan el Consejo o alguno de sus paneles. Todos estos detalles pendientes resultan esenciales para una evaluación final de los requisitos que miran a la diversidad, independencia y legitimidad de la acción del Consejo Asesor.
La toma de decisiones sobre la expresión global
En principio, el Consejo estará llamado a responder a los casos que Facebook directamente someta a su decisión por su “importancia” y “dificultad”, para posteriormente recibir también solicitudes de las usuarias (art. 2). El Consejo, como hemos dicho, podrá decidir sobre la selección de casos. Las decisiones que se adopten por el Consejo en tales casos serán vinculantes y las medidas adoptadas en su cumplimiento deben ser informadas transparentemente por Facebook (art. 4).
Pero de manera mucho más crucial, las facultades del Consejo no estarán limitadas a lo que Facebook o sus usuarias indiquen sobre retiro de contenidos o comentarios, sino para interpretar las políticas de contenidos en general (art. 1 s. 2). Esto incluye no solo a las Normas Comunitarias, sino también otras cuestiones como el uso de herramientas automatizadas de moderación, o las políticas sobre avisos. Queda por ver si el Consejo extenderá su ámbito de acción, y si Facebook reconocerá esa ampliación.
El Acta admite que el Consejo entregue “guía” a Facebook para la modificación de sus políticas (art. 1 s. 4), sin hacer obligatorio un cambio de esas políticas para la compañía. Si bien es comprensible que un órgano externo como el Consejo no tenga influencia directa en las reglas de la plataforma, la decisión de formulación de esas reglas continuará exclusivamente en manos de la compañía. Llama la atención a este respecto el lenguaje ambiguo utilizado respecto del carácter vinculante -o no- de las recomendaciones en materia de modificación de políticas, versus el reconocimiento explícito del carácter vinculante de las decisiones referidas a casos específicos que les sean sometidos. Dicha ambigüedad atenta contra las recomendaciones formuladas por Derechos Digitales y otras organizaciones durante el periodo de consultas. El mínimo esperable en este caso, si no existe un efecto vinculante de las recomendaciones del Consejo, es que Facebook se comprometa a proveer explicaciones suficientes y razonadas al Consejo que justifiquen su negativa.
El Consejo podrá también recabar información adicional (art. 3 s. 3), incluyendo opiniones expertas, peticiones de investigación, o traducciones. Es de esperar que no haya una limitación de recursos que haga inviables esas expectativas de información que puede ser crucial para comprender el contexto en que una expresión cuestionada se produce. Además, el Consejo podrá recibir opiniones no solicitadas de personas o grupos afectados o representados en el contenido respectivo, a modo de amici curiae. Por otro lado, se mantiene la posibilidad de someter al Consejo una decisión expedita en casos especiales, con hasta dos semanas para responder, un plazo menos que ideal por ser muy extenso para responder a una situación urgente y muy breve para una decisión razonada. Por ello, esperamos que el Consejo desarrolle mecanismos propios para enfrentar casos urgentes.
El proceso para llegar a una decisión y a su implementación por Facebook está centrado en la determinación sobre si una decisión de retirar contenido es consistente con las políticas de contenido y los “valores” de la compañía. Es decir, se trata de vigilar la observancia de reglas de una empresa privada, y no de reglas legales nacionales o internacionales, en situaciones de expresión que alcanzan a todo el planeta. Aunque se incluyen por primera vez menciones explícitas a la atención necesaria a las “normas de derechos humanos que protegen la libertad de expresión” en el Acta (art. 5 s. 2) y al derecho internacional de los derechos humanos entre los valores que inspiran las Normas Comunitarias (al menos, desde hace unas semanas), es necesario que un compromiso real a futuro con los derechos fundamentales sea más explícito y más amplio; así como que se reconozca de una jerarquía superior a los valores internamente establecidos por la compañía. Tan solo relevar valores de libertad de expresión y no otros derechos humanos implicados en la moderación de contenidos -muy en línea con la perspectiva estadounidense- es insuficiente para reconocer los entramados de derecho internacional de los derechos humanos y las complejidades normativas que pueden variar alrededor del mundo.
También aparece en el Acta la función de marcar “precedentes” de las decisiones (art. 2 s. 2) intentando proveer al mecanismo consistencia en sus decisiones. Sin embargo, se compromete su implementación limitada a lo técnicamente posible y a lo que no esté legalmente prohibido (art. 4), planteando nuevas dudas sobre el real apego a reglas tales como las propias del derecho internacional de los derechos humanos.
El beneficio de la duda
Desde un inicio el anuncio del Consejo Asesor de contenido fue recibido ampliamente con un sano escepticismo, pero como una buena medida inicial para incrementar la transparencia, el debido proceso, la diversidad y la rendición de cuentas en la moderación de contenidos. Parece un piloto interesante para evaluar soluciones que abarquen más de una compañía o nuevos esfuerzos individuales, aún cuando falta una mayor recuperación del amplio legado del sistema internacional de derechos humanos. Es una preocupación que las decisiones difíciles y con impactos continúen siendo dejadas de este modo en manos privadas, sin primacía de procesos para ponderar la proporcionalidad de afectación a derechos propia del sistema internacional de derechos humanos; a pesar de contar con una larga historia de toma decisiones en casos complejos.
El escepticismo en torno a la intención de proteger usuarias en lugar de proteger su éxito económico es comprensible, ya que el historial de la compañía hace difícil entregar el beneficio de la duda en un ámbito con consecuencias sensibles. Pero a la vez, podría significar un paso inicial para el reconocimiento de la responsabilidad que -en el marco internacional de los derechos humanos- recae en quien aloja buena parte de la expresión a nivel mundial.
Dada la alta complejidad en torno a mantener espacios a la vez libres de acoso y de contenido dañino, propicios para la expresión libre y ausentes de censura ilegítima, es difícil entregar confianza sobre el control de la misma a un sistema diseñado por una empresa privada por genuino que resulte el esfuerzo. La solución ofrecida por este Consejo Asesor está lejos, por tanto, de ser la -ansiada por muchos- bala de plata de la moderación de contenido.