El domingo pasado, el periódico The Guardian publicó las guías y lineamientos que Facebook usa para “moderar” (y eliminar) los contenidos de su plataforma a través de contratistas externos. La empresa ha estado en el ojo del huracán recientemente porque mientras censura pezones femeninos, permite videos en vivo de actos tan violentos como un señor matando a su hija de once años. Los términos de uso nunca son del todo claros, y antes era imposible saber realmente cómo seguían los criterios que declaraban. Con esta filtración, ahora tenemos una idea de lo que implican.
Sin embargo, a cada duda respondida le siguen nuevas interrogantes. No es un problema nuevo: sus cientos de millones de usuarias y usuarios estamos en desprotección, sin reglas claras ni mecanismos de apelación o rendición de cuentas para responsabilizar a una de las empresas más poderosas del mundo, que además de manejar nuestra información privada controla también buena parte de nuestra expresión pública.
¿Qué solución podemos imaginar que respete derechos humanos? ¿Cómo hacer que Facebook sea más responsable? ¿Qué mecanismo es el ideal?
Los lineamientos publicados reflejan un estándar moral muy afín al norteamericano, que en los hechos funciona por encima de la ley de muchos países y que opera incluso al margen del derecho internacional de los derechos humanos. O bien, que se inclina por seguir la ley local solamente cuando puede existir una consecuencia legal real. Facebook es uno de los “soberanos de internet”, una de las empresas que median nuestros dichos y expresiones bajo sus propias reglas. La tensión es evidente. Por un lado, su posición “supraestatal” parece facilitar o fomentar el disenso en países autoritarios, como fue relatado a propósito de la propia Primavera Árabe. Por otro, elimina contenido de su plataforma bajo criterios arbitrarios y opacos, dejando otros contenidos nocivos intactos.
Para Facebook, frases como “alguien dispárele a Trump” deberían ser eliminadas porque el presidente de Estados Unidos es alguien “vulnerable”. Algo así bien podría ser una broma. Una expresión de frustración o sarcasmo sin intención de llevarlo a cabo. En este contexto, los criterios internacionales sobre libertad de expresión lo considerarían discurso especialmente protegido por referirse a un funcionario público. Sin embargo, instrucciones del tipo “para romperle el cuello a una perra, asegúrate de aplicar presión en el cuello” son permitidas, sin importar el contexto en que se dice.
Las guías están hechas para orientar a más de 4.500 empleados subcontratados, que vienen principalmente de Filipinas y de Polonia (aunque algunas fuentes dicen que son más de 100 mil, no lo sabemos bien). Cada “moderador” tiene en promedio diez segundos para decidir si eliminan o no una imagen con base en las instrucciones escritas que Facebook les entrega, sin entrenamiento posterior. Les pagan aproximadamente un dólar la hora. Ven contenidos explícitos todo el día –decapitados, muertes, suicidios– y no reciben atención psicológica suficiente. ¿En qué mundo es este el mejor sistema para decidir qué contenido se queda y qué contenido se elimina de la plataforma?
Con todo, en la era del capitalismo digital, la premisa principal es rechazar cualquier intervención estatal. La autorregulación es la norma, y en este sentido los usuarios son el primer filtro. Cuando estos reportan o denuncian alguna imagen, video o contenido se va a uno de los distintos Comités (odio y acoso, contenido abusivo o seguridad) para ser revisado por uno de los “moderadores”. Esto en sí trae un problema adicional, pues los criterios mayoritarios ponen en riesgo el disenso y las expresiones controvertidas. En una sociedad machista, discursos de odio en contra de las mujeres no se denuncian y se normalizan, mientras insultos a grupos privilegiados se reportan rápidamente.
En los Estados, estas decisiones sobre límites discursivos son tomadas por jueces –idealmente después de cuidadosos ejercicios de ponderación de derechos-. Como en cualquier dicho, todo depende del contexto. No es lo mismo decir “te voy a matar, perra” a una ex novia, a una dirigente feminista o a un amigo gay. O incluso, algo como “fulanita parece embarazada” puede ser un cumplido, o un acto de bullying.
Es este mismo contexto el que no permite que las decisiones sean enteramente automatizadas. Los algoritmos y programas de computación no entienden grises, y además tienen fuertes sesgos culturales y de programación. Sin embargo, los moderadores –mal pagados y mal entrenados– tampoco lo hacen. Mucho menos en diez segundos.
No hay solución perfecta. Estamos atrapados en la naturaleza corporativa de Facebook.
Mark Zuckerberg insiste en que son una empresa de tecnología y no un medio de comunicación. Sin embargo –y como vemos en los lineamientos publicados por the Guardian- la compañía toma miles de decisiones editoriales todos los días al decidir qué contenido se queda y cuál se censura. ¿Acaso es hora de empezar a regularlos como un medio? ¿Bajo qué legislación? ¿Qué implicaciones tendría esto para internet?
Las respuestas no son claras. Lo más lógico –dado que Facebook gana dinero a costa de nuestros datos personales– es exigir como mínimo que la empresa dé muestras reales de su intención de mejorar, transparentando la forma en que toma decisiones que afectan a todo el mundo. Además, debería invertir parte de sus ingresos en investigar, prevenir y resolver este tipo de conflictos (en vez de gastar millones de dólares en desarrollo de inteligencia artificial para predecir las emociones de sus usuarios, por ejemplo). La libertad de expresión debe ser un tema prioritario; la integridad de los usuarios también.
Es inconcebible que nos enteramos de esto porque el documento de Facebook se filtró a medios de comunicación. Porque era privado. Como usuarias y usuarios debemos exigir más transparencia sobre este tipo de decisiones. Ahora que los lineamientos son (un poco más) conocidos por el público, podemos tener un debate amplio sobre el tema y evaluar si estamos de acuerdo con lo que la plataforma permite, y por consiguiente si elegimos seguir usando sus servicios al estar o no de acuerdo.