El rol de las redes sociales en la planificación de la invasión del Capitolio es evidente. Los extremistas de ultraderecha, fueron celebrados por el presidente Donald Trump en Twitter, y usaron esta red social, y otras como Facebook o Parler –cuyo principal atractivo era la falta de moderación, lo que atrajo a los baneados de otros lugares con reglas más estrictas— para organizar, promocionar, y transmitir en vivo los hechos del 6 de enero.
Este episodio fue la gota que rebalsó el vaso para las principales plataformas de internet, que hasta entonces habían tolerado contenido nocivo generado por el presidente de los Estados Unidos y sus seguidores, quienes constantemente ponían a prueba los límites de los términos de uso de las redes sociales.
Como sabemos, Trump fue baneado de una multitud de redes sociales, y Parler fue retirada de las tiendas de Apple y Google, y Amazon terminó el contrato de alojamiento en la nube, argumentando que inclumplieron los términos de uso de los servicios.
El caso de la app Parler es particularmente interesante, porque no se trata de una decisión sobre contenido generado por usuarios, sino que se trató de eliminar el acceso a una aplicación completa, a un nivel superior en la infraestructura de internet. Esto forma parte del fenómeno denominado como moderación apilada (del inglés “on the stack”), en el cual proveedores de servicios que no se ofrecen directamente a usuarios, como es el caso del alojamiento, procesamiento de pagos o las tiendas de aplicaciones, son quienes toman las decisiones sobre el retiro de contenido ilícito.
Este no es un fenómeno nuevo, sino que hay casos que ocurrieron hace más de una década, como pasó con el bloqueo de las transacciones en PayPal de Wikileaks en 2010, o casos como el del proveedor de alojamiento en la nube Cloudflare, quien decidió terminar su relación contractual con el medio de comunicación neonazi The Daily Stormer, luego de la marcha de supremacistas blancos en Charlottesville en 2017, y con 8chan en 2019, luego de la masacre de El Paso, asociada a la teoría de conspiración QAnon, difundidos en gran parte en este foro.
Ahora bien, ¿cómo afectan las decisiones de moderación on the stack a las normas sobre responsabilidad de intermediarios que se han generado en Latinoamérica?
En la región, tenemos países que han establecido normas en la materia, sea a través de leyes, como Chile (con la Ley 20.435 de 2010, en materia de derechos de autor), Brasil (con el Marco Civil de Internet de 2014) o México (con la reforma a la Ley federal de derecho de autor en 2020), o de decisiones judiciales, como es el caso de Argentina (en el caso Rodríguez contra Google de 2014), o Colombia (con la Sentencia de Unificación 420/19 de 2019).
Estas normas, más allá de sus virtudes o defectos particulares, ofrecen criterios claros y estables respecto de la responsabilidad de los proveedores de servicios por el contenido ilícito de sus usuarios, y de los casos en los que se justifica el retiro de contenidos de internet, lo cual suele ir asociado a un procedimiento claro y una orden judicial. Sin embargo, estas regulaciones dejan preguntas sin resolver: Por ejemplo, ¿Qué normas se aplican a los procesadores de pagos? O ¿qué pasa respecto de las decisiones de bloqueo de toda una aplicación?
En contraste a estas normas, las decisiones de moderación apilada suelen ser tomadas de manera contingente y en reacción a hechos concretos originados fuera de internet, y se basan en el criterio de cada plataforma, conforme a los incumplimientos de los contratos que tengan con las personas o aplicaciones que usan sus servicios. Además, las decisiones de las plataformas no suelen seguir procedimientos establecidos, y carecen de transparencia.
En esta ocasión, se eliminaron cuentas y servicios que no nos gustaban mucho por su generación de mensajes odiosos que portaban, pero en el futuro puede darse un caso en que bloqueen algo útil para la sociedad, como podrían ser las aplicaciones de mensajería encriptada. Es preciso tener reglas claras antes de que se eliminen plataformas que facilitan la libertad de expresión.
Con una internet cada vez más centralizada, las personas, organizaciones y gobiernos dependen cada vez más de las decisiones tomadas por los proveedores de servicios. Considerando que las decisiones tomadas por estas plataformas tienen alcance mundial, resulta necesario abrir el debate sobre qué rol van a tener las normas creadas por países distintos a los EE.UU. La Unión Europea ya propuso el proyecto de la Digital Services Act en diciembre. Todavía falta saber que podemos hacer desde América Latina.