¿Por qué, cómo supervisar y regular la Inteligencia Artificial (IA)?
En el último número de la revista Foreign Affairs de septiembre-octubre de 2023 se publicó un artículo titulado: La paradoja del poder de la IA. Los autores son Ian Bremmer y Mustafá Zuleyman. Su subtítulo es muy ilustrativo, ¿pueden los Estados aprender a gobernar la inteligencia artificial antes de que sea demasiado tarde?
Es hora de que nuestras autoridades nacionales, en alianza con las internacionales, científicos, especialistas en ética, sindicatos, organizaciones de la sociedad civil comiencen a discutir y estudiar profundamente este tema que avanza día a día.
Si bien la lista de sus beneficios potenciales es grande a través de nuevos productos, servicios e innovaciones; lo mismo es lo correspondiente a sus amenazas y peligros a medida que los terroristas encuentran nuevas formas de amenazar a las sociedades con armas cibernéticas inteligentes y los trabajadores administrativos pierden sus empleos en masa.
Avances acelerados
Bremmer y Zuleyman señalan que los sistemas de IA generativa ya pueden escribir de manera más clara y persuasiva que la mayoría de los humanos y pueden producir imágenes originales, arte e incluso códigos de computadora basados en indicaciones de lenguaje simple. Y la IA generativa es sólo la punta del iceberg. Su llegada marca una revolución tecnológica que cambiará el mundo y que rehacerá la política, las economías y las sociedades.
Al igual que las oleadas tecnológicas pasadas, la IA combinará un crecimiento y unas oportunidades extraordinarios con una disrupción y un riesgo inmensos. Pero a diferencia de oleadas anteriores, también iniciará un cambio dramático en la estructura y el equilibrio del poder global, al amenazar el estatus de los Estados-nación como principales actores geopolíticos del mundo.
Peligros
Los autores nos recuerdan que la IA podría utilizarse para generar y difundir información errónea tóxica, erosionando la confianza social y la democracia; vigilar, manipular y someter a los ciudadanos, socavando la libertad individual y colectiva; o para crear poderosas armas digitales o físicas que amenacen vidas humanas.
La IA también podría destruir millones de empleos, empeorar las desigualdades existentes y crear otras nuevas; afianzar patrones discriminatorios y distorsionar la toma de decisiones amplificando los circuitos de retroalimentación de información errónea; o provocar escaladas militares involuntarias e incontrolables que conduzcan a la guerra.
Más lejos, en el horizonte, acecha la amenaza que la IA supere el desempeño humano en cualquier tarea determinada y el peligro (ciertamente especulativo) de que pueda volverse autodirigida, autorreplicante y automejorable. más allá del control humano. Todos estos peligros deben tenerse en cuenta en la arquitectura de gobernanza desde el principio.
Nuevos poderes
Lo admitan o no, los creadores de la IA son ellos mismos actores geopolíticos, y su soberanía sobre la IA consolida aún más el orden “tecnopolar” emergente, en el que las empresas de tecnología ejercen en sus dominios el tipo de poder que antes estaba reservado a los Estados-nación.
Durante la última década, las grandes empresas tecnológicas se han convertido efectivamente en actores independientes y soberanos en sus ámbitos. La IA acelera esta tendencia y la extiende mucho más allá del mundo digital. La complejidad de la tecnología y la velocidad de su avance harán que sea casi imposible para los gobiernos establecer normas pertinentes a un ritmo razonable. Si los gobiernos no se ponen al día pronto, es posible que nunca lo hagan.
Primeros avances
Los formuladores de políticas de todo el mundo han comenzado a darse cuenta de los desafíos que plantea la IA y a discutir sobre cómo gobernarla. En mayo de 2023, el G-7 lanzó un foro dedicado a armonizar la gobernanza de la IA. En junio, el Parlamento Europeo aprobó un borrador de la Ley de IA de la UE, el primer intento integral de la Unión Europea de establecer salvaguardias en torno a la industria de la IA.
En julio, el secretario general de la ONU pidió el establecimiento de un organismo regulador global de la IA. Mientras tanto, en Estados Unidos, los políticos de ambos partidos están pidiendo medidas regulatorias, aunque hay algunos que no quieren regulación alguna.
Desafíos
Los autores señalan que los desafíos son claros. Hay que diseñar un nuevo marco de gobernanza adecuado para esta tecnología. El sistema internacional debe superar las concepciones tradicionales de soberanía y dar la bienvenida a las empresas de tecnología a la mesa. Sin ellas la gobernanza eficaz de la IA no tendrá ninguna posibilidad.
Antes de que los formuladores de políticas puedan comenzar a elaborar una estructura regulatoria adecuada, deberán acordar principios básicos sobre cómo gobernar la IA. Cualquier gobernanza deberá ser precautoria, ágil, inclusiva, e impermeable. Asimismo, la regulación no se puede hacer de manera fragmentada, debiendo ser global para no tener lagunas.
Sobre la base de estos principios, los formuladores de políticas deberían crear al menos tres regímenes de gobernanza superpuestos: uno para establecer hechos y asesorar a los gobiernos sobre los riesgos que plantea la IA; otro para prevenir una carrera armamentista total entre ellos y otro para gestionar las fuerzas disruptivas de una tecnología diferente a todo lo que el mundo haya visto.
Objetivo regulatorio
Bremmen y Zuleyman plantean que el objetivo general de cualquier arquitectura regulatoria global de IA debería ser identificar y mitigar los riesgos para la estabilidad global sin asfixiar la innovación en IA y las oportunidades que se derivan de ella. Un mandato bastante parecido al papel macroprudencial desempeñado por instituciones financieras globales como el Banco de Pagos Internacionales y el FMI.
Un mandato tecnprudencial necesitaría la creación de mecanismos institucionales para abordar los diversos aspectos de la IA que podrían amenazar la estabilidad geopolítica. Estos mecanismos, a su vez, se guiarían por principios comunes que se adaptan a las características únicas de la IA y reflejan el nuevo equilibrio de poder tecnológico.
Principios
El primer principio es la precaución. Restringir al máximo la IA significaría renunciar a sus ventajas que alteran la vida, pero liberarla al máximo significaría arriesgar todas sus desventajas potencialmente catastróficas. La gobernanza de la IA debe apuntar a prevenir los riesgos antes de que se materialicen, en lugar de mitigarlos después del hecho. Además, la carga de demostrar que un sistema de IA es seguro, por encima de un umbral razonable, debería recaer en el desarrollador y el propietario.
La gobernanza de la IA también debe ser ágil para que pueda adaptarse y corregir el rumbo a medida que la IA evoluciona y se mejora. Además, la gobernanza debe ser inclusiva e invitar a la participación de todos los actores necesarios para regularla (empresas sin voto y evitar captura regulatoria). A estos actores no se les deberían conceder los mismos derechos y privilegios que los Estados, pero deberían ser parte de cumbres internacionales y signatarios de cualquier acuerdo sobre IA.
Impermeabilidad
La gobernanza de la IA también debe ser lo más impermeable posible. Un único algoritmo de ruptura podría causar daños incalculables. Debe ser hermética en todas partes, con una entrada lo suficientemente fácil como para obligar a la participación y una salida lo suficientemente costosa como para disuadir el incumplimiento.
Además, según los autores, la gobernanza debe abarcar toda la cadena de suministro: desde la fabricación hasta el hardware, desde el software hasta los servicios y desde los proveedores hasta los usuarios. Esto significa regulación y supervisión tecnoprudencial a lo largo de cada nodo de la cadena de valor de la IA.
Objetivo específico
La gobernanza de la IA deberá tener un objetivo específico, en lugar de una solución única para todos. Dado que la IA es una tecnología de propósito general, plantea amenazas multidimensionales. Una única herramienta de gobernanza no es suficiente para abordar las diversas fuentes de riesgo. En la práctica, determinar qué herramientas son apropiadas para abordar qué riesgos requerirá desarrollar una taxonomía viva de todos los posibles efectos que la IA podría tener, y cómo se puede gobernar mejor cada uno de ellos.
Todo esto requiere una comprensión profunda y conocimiento actualizado de las tecnologías en cuestión. Los reguladores y otras autoridades necesitarán supervisión y acceso a modelos clave de IA. De hecho, necesitarán un sistema de auditoría que no sólo pueda rastrear las capacidades a distancia sino también acceder directamente a las tecnologías centrales, lo que a su vez requerirá el talento adecuado. Sólo estas medidas pueden garantizar que las nuevas aplicaciones de IA se evalúen de manera proactiva.
Regímenes de gobernanza
Sobre estos principios debería construirse un mínimo de tres regímenes de gobernanza de la IA, cada uno con diferentes mandatos, palancas y participantes. Todos deberán tener un diseño novedoso, pero cada uno podría buscar inspiración en los acuerdos existentes para abordar otros desafíos globales, a saber, el cambio climático, la proliferación de armas y la estabilidad financiera.
El primer régimen se centraría en la investigación de hechos y tomaría la forma de un organismo científico global para asesorar objetivamente a los gobiernos y organismos internacionales sobre cuestiones tan básicas como qué es la IA y qué tipos de desafíos políticos plantea. Se necesita un organismo para evaluar periódicamente su estado, evaluar imparcialmente sus riesgos e impactos potenciales, pronosticar escenarios y considerar soluciones de políticas técnicas para proteger el interés público global.
Gestionar tensiones
El mundo también necesita (segundo régimen) una forma de gestionar las tensiones entre las principales potencias de IA: especialmente China y EE.UU. y prevenir la proliferación de sistemas avanzados de IA peligrosos. Por otra parte, se requiere un tercer régimen de gobernanza que pueda reaccionar cuando se produzcan perturbaciones peligrosas.
Como modelos, las autoridades podrían recurrir al enfoque que han utilizado las autoridades financieras para mantener la estabilidad financiera global. Con el apoyo de autoridades reguladoras nacionales y organismos internacionales de normalización, reuniría experiencia y recursos para prevenir o responder a crisis relacionadas con la IA, reduciendo el riesgo de contagio.
Colofón
Bremmer y Zuleyman anotan que cada uno de estos regímenes tendría que operar universalmente, con la aceptación de todos los principales actores de la IA. Los regímenes tendrían que ser lo suficientemente especializados para hacer frente a sistemas de IA reales y lo suficientemente dinámicos para seguir actualizando sus conocimientos sobre la IA a medida que evoluciona.
Tampoco son las únicas instituciones que serán necesarias. En los próximos años se requerirá aplicar a la IA otros mecanismos regulatorios, como estándares de transparencia, requisitos de licencia, protocolos de pruebas de seguridad, procesos de registro y aprobación de productos. La clave de todas estas ideas será crear instituciones de gobernanza flexibles y multifacéticas que no estén limitadas por la tradición o la falta de imaginación.
Ninguna de estas soluciones será fácil de implementar. En este momento, pocos grupos poderosos están a favor de regular la IA, y todos los incentivos apuntan a la inacción, finalizan los autores.