Recomendación sobre Inteligencia Artificial (IA) del Consejo Ministerial de la OCDE
Desde mayo de 2019 la Organización para la Cooperación y Desarrollo Económico (OCDE) ha establecido una recomendación en torno a la IA. Esta tiene como objetivo fomentar la innovación y la confianza en la IA mediante la promoción de la gestión responsable de una IA confiable y al mismo tiempo garantizar el respeto de los derechos humanos y los valores democráticos. El Perú aún sin ser miembro oficial de esta organización suscribió este documento.
En junio de 2019, en la Cumbre de Osaka, los líderes del G20 acogieron los Principios de IA del G20, derivados de la recomendación. Luego esta fue revisada por el Consejo Ministerial de la OCDE en noviembre de 2023 para actualizar su definición de sistema de IA, a fin de garantizar que siga siendo técnicamente precisa y refleje los avances tecnológicos, incluso con respecto a la IA generativa. En 2024 se debe informar sobre los avances en la implantación de esta recomendación (https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449).
La recomendación tiene cuatro partes: 1) las definiciones; 2) los principios para una gestión responsable de una IA confiable; 3) las políticas nacionales y cooperación internacional para una IA confiable; y 4) encargos a la Comisión de Política de Economía Digital de la OCDE.
Justificación
La OCDE señala que la IA es una tecnología de propósito general que tiene el potencial de mejorar el bienestar de las personas, contribuir a una actividad económica global sostenible y positiva, aumentar la innovación y la productividad y ayudar a responder a desafíos globales clave. Se utiliza en muchos sectores, desde la producción, las finanzas y el transporte hasta la atención sanitaria y la seguridad.
Se señala que además de los beneficios, la IA también plantea desafíos para nuestras sociedades y economías, en particular en relación con los cambios y las desigualdades económicas, la competencia, las transiciones en el mercado laboral y las implicaciones para la democracia y los derechos humanos.
Principios
La OCDE señala que los Miembros y no Miembros adherentes de esta recomendación promuevan e implementen los siguientes cinco principios para la gestión responsable de una IA confiable, que sean relevantes para todas las partes interesadas (que abarcan todas las organizaciones e individuos involucrados o afectados por los sistemas de IA, directa o indirectamente).
El primer principio se refiere a que las partes interesadas deben participar de manera proactiva en una gestión responsable de la IA confiable en pro de resultados beneficiosos para las personas y el planeta, como aumentar las capacidades humanas y mejorar la creatividad, promover la inclusión de poblaciones subrepresentadas, reducir las desigualdades económicas, sociales, de género y de otro tipo, y proteger los entornos naturales, dinamizando así el crecimiento inclusivo, el desarrollo sostenible y el bienestar.
La recomendación propone que los actores de la IA deben respetar el estado de derecho, los derechos humanos y los valores democráticos durante todo el ciclo de vida del sistema de IA. Estos incluyen libertad, dignidad y autonomía, privacidad y protección de datos, no discriminación e igualdad, diversidad, equidad, justicia social y derechos laborales internacionalmente reconocidos. Para este fin, deben implementar mecanismos y salvaguardas, como la capacidad de determinación humana.
Transparencia
El segundo principio señala que los actores de la IA deben comprometerse con la transparencia y la divulgación responsable de información sobre los sistemas de IA. Para ello deberán proporcionar información significativa, adecuada al contexto y coherente con el estado de la técnica para: 1) fomentar una comprensión general de los sistemas de IA; 2) concientizar a las partes interesadas sobre sus interacciones con los sistemas de IA, incluso en el lugar de trabajo.
Luego, en tercer lugar, 3) para permitir que los afectados por un sistema de IA comprendan el resultado y; d) para consentir que aquellos afectados negativamente por un sistema de IA cuestionen su resultado basándose en información sencilla y fácil de entender sobre los factores y la lógica que sirvió de base para la predicción, recomendación o decisión.
Solidez, seguridad y responsabilidad
El tercer principio establece que los sistemas de IA deben ser sólidos, seguros y protegidos durante todo su ciclo de vida para que, en condiciones de uso normal, uso previsible o mal uso, u otras condiciones adversas, funcionen adecuadamente y no representen riesgos de seguridad irrazonables.
Con este objetivo, los actores de la IA deben garantizar la trazabilidad, incluso en relación con los conjuntos de datos, los procesos y las decisiones tomadas durante el ciclo de vida del sistema de IA, para permitir el análisis de los resultados del sistema de IA y las respuestas a las consultas, apropiado al contexto y consistente con el estado del arte.
En el cuarto principio se anota que los actores de la IA deben aplicar un enfoque sistemático de gestión de riesgos a cada fase del ciclo de vida del sistema de IA de forma continua para abordar los riesgos relacionados con los sistemas de IA, incluida la vulneración de la privacidad, la seguridad digital, seguridad y sesgo.
Por último, en el quinto principio los actores deben ser responsables del correcto funcionamiento de los sistemas de IA y del respeto de los principios antes mencionados, en función de sus funciones, el contexto y en consonancia con el estado del arte.
Políticas nacionales
En la recomendación se establece que los adherentes implementen cinco recomendaciones, de conformidad con los principios anotados en la sección anterior del documento, en sus políticas nacionales y en su cooperación internacional, con especial atención a las pequeñas y medianas empresas (Pymes).
Invertir el investigación y desarrollo en IA. Se anota que los gobiernos deberían considerar la inversión pública a largo plazo y alentar la inversión privada en investigación y desarrollo, incluidos los esfuerzos interdisciplinarios, para estimular la innovación en IA confiable que se centre en cuestiones técnicas desafiantes y en implicaciones sociales, legales y éticas relacionadas con la IA y cuestiones de políticas.
Asimismo, los gobiernos también deberían considerar la inversión pública y fomentar la inversión privada en conjuntos de datos abiertos que sean representativos y respeten la privacidad y la protección de datos para respaldar un entorno para la investigación y el desarrollo de la IA libre de sesgos inapropiados y para mejorar la interoperabilidad y el uso de estándares.
Ecosistema digital y entorno
Se recomienda que los gobiernos debieran fomentar el desarrollo y el acceso a un ecosistema digital para una IA confiable. Un ecosistema de este tipo incluye, en particular, tecnologías e infraestructuras digitales, y mecanismos para compartir conocimientos sobre IA. En este sentido, los gobiernos deberían considerar la promoción de mecanismos, como los fideicomisos de datos, para apoyar el intercambio seguro, justo, legal y ético de datos.
Asimismo, se establece que los gobiernos deben promover un entorno político que respalde una transición ágil desde la etapa de investigación y desarrollo a la etapa de implantación y operación de sistemas de IA confiables. A tal efecto, deberían considerar el uso de la experimentación para proporcionar un entorno controlado en el que los sistemas de IA puedan probarse y ampliarse, según corresponda.
Por otra parte, los gobiernos deben revisar y adaptar, según corresponda, sus marcos normativos y normativos y mecanismos de evaluación que se aplican a los sistemas de IA para fomentar la innovación y la competencia por una IA confiable.
Desarrollar capacidades
La recomendación establece que los gobiernos deberían trabajar estrechamente con las partes interesadas para prepararse para la transformación del mundo del trabajo y de la sociedad. Deben capacitar a las personas para que utilicen e interactúen eficazmente con los sistemas de IA en una amplia gama de aplicaciones, incluso dotándolas de las habilidades necesarias.
Asimismo, se propone que los gobiernos debieran tomar medidas, incluso a través del diálogo social, para garantizar una transición justa para los trabajadores a medida que se implementa la IA, por ejemplo, a través de programas de capacitación a lo largo de la vida laboral, apoyo a los afectados por el desplazamiento y acceso a nuevas oportunidades en el mercado laboral.
Complementariamente los gobiernos también deberían trabajar estrechamente con las partes interesadas para promover el uso responsable de la IA en el trabajo, mejorar la seguridad de los trabajadores y la calidad de los empleos, fomentar el espíritu empresarial y la productividad, y tratar de garantizar que los beneficios de la IA se compartan amplia y equitativamente.
Cooperación internacional
Se señala que los gobiernos, incluidos los países en desarrollo y las partes interesadas, deben cooperar activamente para promover estos principios y avanzar en la gestión responsable de una IA confiable. En segundo lugar, que los gobiernos deberían trabajar juntos en la OCDE y otros foros globales y regionales para fomentar el intercambio de conocimientos sobre IA. Deberían fomentar iniciativas internacionales, intersectoriales y abiertas de múltiples partes interesadas para adquirir experiencia a largo plazo en IA.
Por otra parte, los gobiernos deberían promover el desarrollo de estándares técnicos globales impulsados por consenso y de múltiples partes interesadas para una IA interoperable y confiable. Finalmente, se postula que los gobiernos también deberían fomentar el desarrollo, y su propio uso, de métricas internacionalmente comparables para medir la investigación, el desarrollo y la implementación de la IA, y recopilar la base de evidencia para evaluar el progreso en la implementación de los principios desarrollados por la OCDE.
Encargos finales
Los adherentes firmantes de esta recomendación encargan a la Comisión de Política de Economía Digital de la OCDE continuar su trabajo sobre IA basándose en esta recomendación y teniendo en cuenta el trabajo en otros foros internacionales, y seguir desarrollando el marco de medición para políticas de IA basadas en evidencia.
Asimismo, le asignan la tarea de desarrollar e iterar más orientaciones prácticas sobre la implementación de esta recomendación e informar al Consejo sobre los avances realizados. Por otra parte, proporcionar un foro para intercambiar información sobre políticas y actividades de IA, incluida la experiencia con la implementación de esta recomendación, y fomentar el diálogo interdisciplinario y de múltiples partes interesadas para promover la confianza y la adopción de la IA.
Finalmente, se le instruye supervisar, en consulta con otros comités pertinentes, la implementación de la recomendación e informar al respecto al Consejo de la OCDE a más tardar cinco años (2024) después de su adopción y periódicamente a partir de entonces.