Nuevo escenario regional

Giro en la regulación de la IA

En una reciente columna analizamos el rol de las Big Tech en el auge del autoritarismo. Ahora, focalizamos en las primeras medidas del gobierno de Trump que expresan un giro de 180 grados en los pequeños avances regulatorios que se habían logrado con Biden. ¿Qué impactos tendrá esta nueva política tecnológica en América Latina?

CC:BY (Francisca Balbontín)

Una vez en la Casa Blanca, Donald Trump no esperó a barrer cientos de políticas del gobierno anterior, incluidas las decisiones que buscaban regular a la inteligencia artificial (IA) en ese país. En especial, fue revocada la Orden Ejecutiva N°14110 del 30 de octubre de 2023 sobre el “desarrollo y uso seguro, protegido y confiable de la inteligencia artificial” por, supuestamente, asfixiar a la innovación, imponer barreras innecesarias a la industria tecnológica y amenazar el liderazgo norteamericano en la materia. Así también, fueron eliminadas a través de una nueva Orden Ejecutiva todas las demás políticas, órdenes y directivas existentes en esa materia.

Breve contexto de la vieja Orden Ejecutiva de la IA

Hasta la emisión de esa Orden Ejecutiva, en Estados Unidos no existían a nivel nacional –aunque sí en los distintos estados del país– previsiones regulatorias sobre cómo debían responder las autoridades al despliegue de la IA, y qué aspectos deberían ser evaluados por éstas en la adopción de esta tecnología. Y esto es relevante porque se trata del país sede de las Big Tech, lo que da un peso, si se quiere mayor, a este tipo de iniciativas.

La Orden, que es muy extensa, le metía el diente a ciertos aspectos cruciales en las discusiones regulatorias sobre la IA, como el abordaje sobre el eventual uso dual de los sistemas de IA para aplicaciones civiles y militares, previsiones de transparencia que atravesaran su ciclo de vida, y la creación e implementación de protocolos de testeo rigurosos de los sistemas de IA adoptados por el Estado, entre otros.

Desde luego, la Orden tenía limitaciones serias. Se apoyaba en buena medida en los compromisos voluntarios de las empresas desarrolladoras de IA; y podía ser eliminada o modificada en cualquier momento por otro gobierno que expidiese otra Orden Ejecutiva que afectara su vigencia o alcance. No era perfecta, pero era una respuesta del Poder Ejecutivo de ese país ante la inacción del Congreso frente a una tecnología de alto impacto social que representa riesgos serios, actuales y presentes.

De hecho, en un año de vigencia, la emisión de esa Orden se tradujo en la práctica en:

  • La creación del Instituto de Seguridad de la IA (AISI, por sus siglas en inglés) que, por ejemplo, ha articulado, con colaboración de las empresas tecnológicas, pruebas de “red team” -o simulaciones de ataques de seguridad- para identificar y mitigar riesgos de los modelos de IA.
  • La creación, por el Departamento de Justicia, de una línea de ayuda 24/7 para prestar asistencia especializada a víctimas de la distribución no consentida de imágenes con contenido sexual que hubiese sido generada por sistemas de IA generativa–como los deepfakes-.
  • La creación, por el Departamento de Educación, de lineamientos para la introducción transparente y responsable de sistemas de IA en las escuelas y su uso por docentes.
  • La creación del deber de reporte a cargo de los desarrolladores de IA que ofrezcan sus tecnologías al sector defensa para que informen sobre la seguridad de sus modelos.

Desde luego, la Orden Ejecutiva hacía muy poco para abordar retos incluso más complejos como la creciente monopolización del desarrollo de esta tecnología por muy pocas empresas poderosas -dependientes de las subvenciones estatales-, que solo hasta hace unos días dominaban el panorama de la IA de manera exclusiva, hasta la llegada de la competidora china DeepSeek. O a su vez retos más allá de las fronteras internas, como su rendición de cuentas frente a los reguladores de otros países en donde estas empresas operan, pero no se domicilian. Y claro, se quedaba aún más corta en abordar la pregunta sobre las vías o mecanismos para la judicialización y reparación de derechos de las personas afectadas por la IA en ese país.

La nueva Orden Ejecutiva: avanzar a una IA sin “sesgos ideológicos”

Ahora bien, ¿por qué una regulación, condicionada en buena medida a la voluntad de los sujetos regulados, suponía en efecto una amenaza para el liderazgo de ese país en la carrera de la IA? El gobierno actual no justifica su decisión en evidencias de ningún tipo que permitan entender qué aspectos obstaculizaban la innovación.

Con todo y esto, Trump firmó una nueva Orden Ejecutiva que enfatiza en la necesidad de avanzar en el desarrollo de sistemas de IA sin “sesgo ideológico” o “agendas sociales manipuladas”, sin mayor contenido que declaraciones aspiracionales y vagas dirigidas a hacer de EE.UU. una potencia de la IA, sin ahondar en el cómo o a través de qué estrategias, más allá de la derogación de esta reglamentación del Poder Ejecutivo.

Como sea, lo que sí es claro es que en esa carrera donde Silicon Valley ya no compite sola, la guerra oficial y paralela contra las políticas de Diversidad, Equidad e Inclusión (DEI, en inglés), van a significar, en el marco del fraseo de esa nueva Orden Ejecutiva, la búsqueda por posicionar una tecnología que, pese a su alto impacto social, estará abiertamente desconectada de problemas estructurales como el racismo, la pobreza, la discriminación, la inequidad y un extenso listado de problemas fruto de la desigualdad social. Un problema que, de hecho, ya existía, pero que ahora se verá agravado.

¿Qué podemos esperar de los esfuerzos regulatorios de este nuevo gobierno? Parece, por declaraciones del nuevo Zar de las Criptomonedas y la IA, que la regulación de la IA girará en torno a dos premisas.

La primera, en la expedición de regulaciones minimalistas en el contenido de las obligaciones exigibles en materia de seguridad, transparencia o responsabilidad en el desarrollo de sistemas de IA; y maximalistas, que traigan grandes beneficios comerciales en materia internacional y subvenciones estatales para estas grandes empresas tecnológicas. que

Y la segunda, que cualquiera que sea el enfoque regulatorio del Poder Ejecutivo, es previsible un enfoque aislacionista diseñado para eliminar a posibles competidores y sancionar a sus aliados, una estrategia que sin duda ahonda la concentración del poder dominante de las empresas tecnológicas locales.

De hecho, ya hay voces del Congreso de ese país que piden avanzar en restricciones en la venta de Chips de IA, de manufactura local, a países como China, especialmente ahora que el lanzamiento reciente de DeepSeek probó que para competirle a ChatGPT no hace falta quemar miles de millones de dólares en el proceso.

¿Y qué pasará con América Latina frente a este panorama?

Ahora, la pregunta crítica para quienes vemos este panorama desde América Latina es ¿cómo va a impactar todo este contexto en los procesos regulatorios de la IA que avanzan en algunos países de la región? Al respecto, y con la precaución que exige toda futurología, surgen dos impresiones.

La primera impresión es que las empresas de Silicon Valley van a oponerse abiertamente a los esfuerzos de regulación por parte de nuestros países, amparados por el gobierno de su país que, además, graduó a los CEO de las Big Tech de asesores no oficiales durante su investidura. No hace falta ir muy lejos para ver cómo lucirá esto en la práctica. Recordemos el anuncio reciente de Meta sobre los cambio de sus políticas de verificación de noticias y moderación de contenidos, en donde el CEO de la compañía acusó a Europa de asfixiar la innovación a través de la regulación, y de ver en las supuestas “cortes secretas” de América Latina una amenaza. Todo un discurso coronado por el pedido a su gobierno de acentuar la defensa y protección de la industria tecnológica local.

Además, esta última premisa se encuentra apoyada en el discurso oficialista -enmarcado en un discurso ideológico de extrema derecha- inclinado a la protección y defensa de la innovación norteamericana como vehículo para el regreso a una época dorada, donde los “Estados Unidos está primero”; sino también en la más clara narrativa según la cual América Latina necesita a Estados Unidos, y no al contrario. Desde esta perspectiva, cualquier intento regulatorio de otros países puede que sea visto automáticamente como una amenaza.

La segunda, que persiste el reto de avanzar en la aplicación rigurosa de la ley sin que las autoridades sean “dejadas en visto” por esas empresas extranjeras, tal y como le pasó hace poco a las de Brasil, en el marco de una audiencia a la que fue invitada Meta para explicar los cambios recientes de sus políticas, pero no asistió. O como ha sucedido en otros casos, donde las empresas tecnológicas deciden amenazar abiertamente con el apagón de sus servicios en caso de que las autoridades apliquen la ley local.

Ahora, ¿es posible que nuestros países puedan posicionarse más allá de los dos extremos geopolíticos en la carrera por la IA? Más aún, ¿hay esperanza de que nuestros países puedan desarrollar soluciones basadas en IA que respondan a nuestros contextos sociopolíticos y sociotécnicos?

Una investigación reciente publicada por Derechos Digitales muestra cómo no solo es posible y viable, sino necesario especialmente ahora. De la mano de grupos sociales, y con enfoques que se interesan en el bienestar social, no solo es posible desmarcarse de las narrativas corporativistas de la innovación, sino del valor inestimable de la tecnología cuando mantiene a las personas en el centro.

En su desarrollo y promoción, desde luego, urge el apoyo de los Estados, aun cuando es cierto que enfrentamos tiempos difíciles en la relación que vincula a grupos sociales y las autoridades que las estigmatizan. Pero cualquiera que sea el rumbo de la región en la carrera regulatoria, conviene afirmar el valor del ejercicio de la soberanía tecnológica -como jurisdiccional-, y pensar y desarrollar la IA por y para la región.