En los últimos años, las discusiones sobre el rol de las plataformas de internet en la difusión de desinformación, la censura de discursos legítimos y la amplificación de expresiones de odio y violencia han aumentado notablemente. En este contexto, aunado a una fuerte tensión política, se han hecho llamados frecuentes a modificar parte de la legislación de Estados Unidos: país que rige a esas plataformas.
Particularmente, se ha buscado cambiar el esquema fijado por la sección 230 de la Communications Decency Act. Esta disposición sienta las bases para una regla general (aunque con excepciones) en que las plataformas de internet no tienen responsabilidad sobre el contenido provisto por terceros, el ánimo por reformas se suma a tendencias globales por provocar que empresas como Google, Facebook o Twitter sean más activas; filtrando o removiendo contenidos nocivos, y a la vez asumiendo responsabilidad por quitar espacio a contenidos legales.
Sin embargo, independientemente de que –a menudo– hay fines loables detrás de estas iniciativas, los posibles efectos sobre la libertad expresión y de información son significativos; ya que, en el particular caso del §230 CDA, tienen consecuencias a nivel global.
En términos simples, el §230(c) CDA distingue a las plataformas de internet de los editores de medios o proveedores de contenidos -cuando la información es provista por terceros- con el fin de eximirles de responsabilidad sobre esos contenidos. Además, les exime de responsabilidad por remover o bloquear de buena fe contenidos obscenos o violentos, aún si son legales: como ocurre con los términos y condiciones de uso. Es habitual que se considere a esta regla una de las piedras angulares (al menos desde el punto de vista normativo) del crecimiento de los gigantes de internet en los Estados Unidos.
La más concreta propuesta de reforma provino del Senado estadounidense en junio de 2019, en un proyecto de ley que busca quitar el “sesgo” de las grandes plataformas –en particular, redes sociales– que supuestamente afectaría a publicaciones afines a opiniones de la extrema derecha política de ese país, percepción compartida por otro troll desde la Casa Blanca. Aunque la reacción transversal negativa a la propuesta fue inmediata, las alertas sobre el riesgo que corre el §230 se encendieron de inmediato: la realidad de las malas propuestas sobre responsabilidad de intermediarios se trasladaron de manera tangible al país que alberga a las mayores empresas de tecnología.
¿Por qué esto debería importarnos, en contextos tan distintos al primer mundo? En primer lugar, por el efecto que podrían tener reglas extranjeras en nuestra propia regulación sobre lo que ocurre en internet, considerando que la reacción a la desinformación, la violencia en línea o la polarización en época electoral son también –con matices propios– problemas en nuestros países. Las malas experiencias en países como Venezuela u Honduras muestran el rol que se pretende desde las plataformas, de manera más que dañina para la libertad de expresión, mientras que otras iniciativas de regulación han terminado excluidas.
En segundo lugar, porque la ley sí tiene impacto sobre las reglas propias de las plataformas. Las normas impuestas por los gigantes de internet para sus usuarias, incluyendo aquellas que alteran la circulación de información y expresión, varían a su vez en razón de las normas a las que se sujetan esas plataformas en los países donde se erigen, o bien donde deciden domiciliarse para reducir su riesgo de responsabilidad. Si con el fin de cuidar sus ganancias cambian sus términos y condiciones de uso, ese impacto será también sufrido en otras latitudes; ya queel poder de las grandes plataformas es tal, que las condiciones de interacción varían a nivel global a partir de las decisiones que resulten lucrativas para reducidos grupos de personas en Silicon Valley.
La implementación de reglas que reflejen principios de justicia en el manejo de contenidos, incluyendo a su vez condiciones de transparencia y rendición de cuentas sobre el retiro -muy especialmente cuando median mecanismos automatizados de detección o bloqueo- son algunas medidas mínimas que deben adoptar esas plataformas. Pero quizás más importante, las reglas mismas requieren una revisión concienzuda, incluyendo la participación de actores de la sociedad civil global.
Es urgente terminar las malas iniciativas de criminalización excesiva de discurso y la radicación de la censura en plataformas. A nivel local es necesario poner al día nuestros anquilosados sistemas jurídicos y generar condiciones normativas para el discurso libre, donde se esclarezcan tanto las condiciones de exención de responsabilidad como los mecanismos y requisitos para forzar el retiro, el bloqueo, o la reposición de información. Más allá de aclarar cómo deberían ser las cosas en escenarios hipotéticos de las plataformas actuales, estas medidas permitirían fijar cómo pueden crecer las plataformas del futuro. Las normativas no deben plantearse para reaccionar a empresas específicas, respecto de las cuales persisten problemas más profundos y amplios que los relativos al contenido; ya que si bien quizás Facebook, Google o Twitter no son escenarios ideales para la discusión política o social que necesitamos, son espacios de intercambio vigente que evidencian la necesidad de establecer condiciones normativas para organizar nuestras propias alternativas.