Close

El Código de Conducta de la Inteligencia Artificial (CCIA) del G-7

El pasado 30 de octubre de 2023, la Comisión Europea hacía pública su satisfacción por el consenso alcanzado por los dirigentes del G-7 (recordemos que en él se integran Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido) sobre el establecimiento de unos Principios Rectores Internacionales de la Inteligencia Artificial (PRIIA) y sobre un Código de conducta voluntario para los desarrolladores de inteligencia artificial (CCIA) generados en el marco del denominado “Proceso de la inteligencia artificial de Hiroshima”.

La importancia del consenso alcanzado en el seno del G-7 y del anuncio de la Comisión Europea nos lleva a hacernos eco en este blog de tan relevante noticia para exponer ante sus lectores tanto el contenido de los PRIIA y del CCIA como de las consecuencias prácticas para los Estados miembros de la UE en el actual contexto regulatorio de la IA dentro de la UE. Todo ello con la síntesis que este medio requiere.

Para seguir un orden lógico y cronológico claro, debemos referirnos, primero y en esta entrada, a los Principios Rectores Internacionales de la Inteligencia Artificial (PRIIA) y al Código de conducta voluntario para los desarrolladores de inteligencia artificial (CCIA) generados en el marco del G-7; para, después, en la entrada que publicaremos mañana, tratar del impacto en la regulación de la IA dentro de la UE y, en particular, en sus Estados miembros.

A) Los Principios Rectores Internacionales de la Inteligencia Artificial (PRIIA) y el Código de conducta voluntario para los desarrolladores de inteligencia artificial (CCIA) generados en el marco del G-7

A.1) Contexto y origen

Debemos dar comienzo a este apartado recordando que los PRIIA y el CCIA son fruto del proceso en materia de inteligencia artificial de Hiroshima del G7 que se decidió en la Cumbre del G-7 celebrada el 19 de mayo de 2023 a fin de promover la fijación de balizas para los sistemas avanzados de inteligencia artificial a escala mundial. Esta iniciativa se inscribe en el seno de debates internacionales más amplios sobre la vigilancia de la inteligencia artificial, concretamente en la OCDE, la Asociación Mundial sobre Inteligencia Artificial, el Consejo UE-Estados Unidos de Comercio y Tecnología y las asociaciones digitales de la UE. En este sentido, el Comunicado de la Comisión Europea de 30 de octubre de 2023 deja constancia de que, desde que anunciara por primera vez su intención de trabajar en un código de conducta en la reunión ministerial del Consejo de Comercio y Tecnología del G-7 de 31 de mayo de 2023, “la Comisión Europea ha trabajado activamente con socios internacionales clave en el G-7 para formular los principios y el código de conducta sobre la inteligencia artificial” (el lector interesado puede encontrar una referencia más amplia a este proceso en la entrada que publicamos en este blog el pasado viernes día 3 de noviembre sobre la “Inteligencia Artificial Responsable. Dos documentos relevantes para su regulación: El Informe Hiroshima sobre la Inteligencia Artificial Generativa y el Proyecto internacional de principios rectores para las organizaciones que desarrollan sistemas avanzados de Inteligencia Artificial” que damos por reproducido para evitar reiteraciones innecesarias).

A.2) El Código de conducta voluntario para los desarrolladores de inteligencia artificial (CCIA)

En esta entrada centraremos nuestra atención en el Código de conducta voluntario para los desarrolladores de inteligencia artificial (CCIA) (denominado Código internacional de conducta derivado del Proceso de Hiroshima para organizaciones que desarrollan sistemas avanzados de IA / Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems). (Advertimos al lector que tanto las traducciones del inglés como las expresiones destacadas en negrita son de nuestra exclusiva autoría).

Vaya por delante que el CCIA es una disposición típica de la regulación sugestiva o persuasiva (“soft law”) que expresa sus mensajes -más que mandatos- en forma de “animar” o ”invitar” a las organizaciones destinatarias a adoptar las acciones que sugiere. Y esta nota general debe ser tomada en consideración como criterio general de aplicación e interpretación del CCIA.

A.3) Caracteres generales del CCIA

a) Presupuesto: El CCIA se basa en los Principios Rectores Internacionales para las Organizaciones que Desarrollan Sistemas Avanzados de IA (PIIA) que, según veremos, desarrolla en su contenido, ofreciendo ejemplos de su aplicación.

b) Objetivo: El CCIA tiene como objetivo “promover una IA segura y digna de confianza en todo el mundo y proporcionará una guía voluntaria para las acciones de las organizaciones que desarrollan los sistemas de IA más avanzados, incluidos los modelos de cimentación y los sistemas generativos de IA más avanzados (en adelante, «sistemas avanzados de IA»)”.

c) Método basado en el riesgo: El CCIA comienza advirtiendo que las organizaciones deben ejecutar las acciones derivadas “de acuerdo con un enfoque basado en el riesgo”. Este es un enfoque bien conocido en la regulación financiera a tres niveles: Primero, a nivel general, porque el mercado financiero se basa en procurar financiación al sistema productivo, que combina los factores básicos del tiempo y el dinero. Segundo, a nivel especial, porque la normativa aseguradora gestiona, como “materia prima”, el riesgo entendido como la posibilidad del siniestro o incidente, medida en grados de probabilidad que oscila entre el suceso imposible y el cierto. Tercero, a nivel específico, a la hora de valorar la Resiliencia Operativa Digital (ROD) de las entidades financieras conforme al DORA. Es por ello por lo que la toma en consideración de las técnicas regulatorias del DORA nos parece que será extremadamente fértil para aplicar el CCIA.

d) Aplicación: La aplicación del CCIA debe tomar en consideración su carácter omnicomprensivo desde dos perspectivas: Primera, desde el punto de vista subjetivo, porque pueden adoptar este CCIA todo tipo de organizaciones, incluyendo “entidades del mundo académico, la sociedad civil, el sector privado y/o el sector público”. En segundo lugar y desde el punto de vista objetivo, porque la aplicación del CCIA debe inspirarse en los  criterios de vitalidad, por referencia al ciclo vital de la IA, porque el CCIA establece que “las organizaciones deben aplicar estas acciones a todas las etapas del ciclo de vida para cubrir, cuando y como sea aplicable, el diseño, desarrollo, despliegue y uso de sistemas avanzados de IA”;  y flexibilidad, porque “las distintas jurisdicciones pueden adoptar sus propios enfoques para aplicar estas medidas de diferentes maneras”.

e) Supervisión: En este sentido, los países del G-7 se comprometen a “desarrollar propuestas, en consulta con la OCDE, el GPAI y otras partes interesadas, para introducir herramientas y mecanismos de seguimiento que ayuden a las organizaciones a rendir cuentas sobre la aplicación de estas acciones” y animan a las organizaciones a “apoyar el desarrollo de mecanismos de seguimiento eficaces, que podamos explorar para desarrollarlos, aportando las mejores prácticas” y (…) establecer “estructuras y políticas internas de gobernanza de la IA, incluidos mecanismos de autoevaluación, para facilitar un enfoque responsable en la aplicación de estas acciones y en el desarrollo de la IA”.

f) Provisionalidad: Esta provisionalidad deriva, a su vez, de la aplicación del método de análisis coste (riesgo) / beneficio puesto que el CCIA incluye “una lista no exhaustiva de acciones (que) se discute y elabora como un documento vivo para (…) ayudar a aprovechar los beneficios y hacer frente a los riesgos y desafíos que traen estas tecnologías” y, por lo tanto, “se revisará y actualizará cuando sea necesario, incluso mediante consultas inclusivas con las partes interesadas, para garantizar que sigue siendo adecuado y que responde a esta tecnología en rápida evolución”.

g) Límites: En la aplicación de este CCIA para el diseño, desarrollo y despliegue de los sistemas avanzados de IA,  las organizaciones “al tiempo que aprovechan las oportunidades de la innovación (…) deben respetar el Estado de Derecho, los derechos humanos, las garantías procesales, la diversidad, la equidad y la no discriminación, la democracia y la centralidad humana y, por lo tanto, “no deben desarrollar ni desplegar sistemas avanzados de IA de manera que socaven los valores democráticos, sean especialmente perjudiciales para las personas o las comunidades, faciliten el terrorismo, promuevan el uso indebido con fines delictivos o planteen riesgos sustanciales para la seguridad y los derechos humanos, por lo que no son aceptables”. En particular, “los Estados deben cumplir las obligaciones que les impone la legislación internacional sobre derechos humanos para garantizar su pleno respeto y protección, mientras que las actividades del sector privado deben ajustarse a marcos internacionales como los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos y las Líneas Directrices de la OCDE para Empresas Multinacionales”.

A.4) Contenido del CCIA

Si partimos de la base de que -como antes constatamos- el CCIA se asienta en un método basado en el riesgo porque las organizaciones que desarrollen y utilicen sistemas avanzados de IA deben adoptar las acciones que en él de contemplan en proporción a los riesgos que generan tales sistemas; ofrecemos a nuestros lectores reiteramos una clasificación secuencial de los principios que sirven de estructura del CCIA focalizada en el factor riesgo en tres fases, respetando su numeración de tal manera que:

A.4.1) En la fase de gestión de los riesgos generados por los sistemas avanzados de IA, aquellas organizaciones deberán:

A.4.1.1) Identificación de los riesgos

1. Tomar las medidas adecuadas durante el desarrollo de sistemas avanzados de IA, incluso antes y durante su despliegue y comercialización, para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA.

En el desarrollo de este Principio debemos destacar dos aspectos del CCI que son:

a) La tipificación de los riesgos más probables y peligrosos que son:

a,1) Los riesgos químicos, biológicos, radiológicos y nucleares, como las formas en que los sistemas avanzados de IA pueden reducir las barreras de entrada, incluso para agentes no estatales, para el desarrollo, la adquisición de diseños o el uso de armas.

a.2) Las capacidades cibernéticas ofensivas, como las formas en que los sistemas pueden permitir el descubrimiento, la explotación o el uso operativo de vulnerabilidades, teniendo en cuenta que dichas capacidades también podrían tener aplicaciones defensivas útiles y que podría ser apropiado incluirlas en un sistema.

a.3) Los riesgos para la salud y/o la seguridad, incluidos los efectos de la interacción del sistema y el uso de herramientas, incluida, por ejemplo, la capacidad de controlar sistemas físicos e interferir con infraestructuras críticas.

a.4) Los riesgos derivados de que los modelos hagan copias de sí mismos o se «autorrepliquen» o entrenen a otros modelos.

a.5) Los riesgos sociales, así como riesgos para las personas y las comunidades, como las formas en que los sistemas o modelos avanzados de IA pueden dar lugar a prejuicios y discriminaciones perjudiciales o conducir a la violación de los marcos jurídicos aplicables, incluidos los relativos a la privacidad y la protección de datos.

a..6) Las amenazas a los valores democráticos y los derechos humanos, incluida la facilitación de la desinformación o el perjuicio a la privacidad.

a.7) El riesgo de que un acontecimiento concreto provoque una reacción en cadena con efectos negativos considerables que puedan afectar hasta a toda una ciudad, toda una actividad de dominio o toda una comunidad.

b) La transversalidad de dichos riesgos y el consiguiente deber de las organizaciones para “evaluar y adoptar medidas de mitigación para hacer frente a estos riesgos, en particular los riesgos sistémicos”.

A.4.1.2) Transparencia

3.  Informar públicamente de las capacidades, limitaciones y ámbitos de uso apropiado e inapropiado de los sistemas avanzados de IA, para contribuir a garantizar la suficiente transparencia, contribuyendo así a aumentar la responsabilidad.

En el desarrollo de este Principio por el CCIA, debemos destacar el contenido de los informes de transparencia que deben publicar las organizaciones y deben abarcar, en general, toda la “información significativa para todas las nuevas versiones significativas de sistemas avanzados de IA”. Respecto a estos informes de transparencia nos parece pertinente distinguir dos perspectivas del CCI que son:

a) En cuanto al fondo o contenido, “estos informes, las instrucciones de uso y la documentación técnica pertinente, según proceda, deberían mantenerse actualizados e incluir, por ejemplo; (…) Detalles de las evaluaciones realizadas para detectar posibles riesgos para la seguridad, la protección y la sociedad, así como riesgos para los derechos humanos, (…) Capacidades de un modelo/sistema y limitaciones significativas en el rendimiento que tengan implicaciones para los ámbitos de uso apropiado, (…) Debate y evaluación de los efectos y riesgos del modelo o sistema para la seguridad y la sociedad, como sesgos perjudiciales, discriminación, amenazas a la protección de la intimidad o los datos personales y efectos sobre la equidad, y (…) Los resultados de la red-temporal realizada para evaluar la idoneidad del modelo/sistema para superar la fase de desarrollo”.

b) En cuanto a la forma o intelegibilidad “las organizaciones deben hacer que la información contenida en los informes de transparencia sea lo suficientemente clara y comprensible como para permitir a los responsables de la implantación y a los usuarios, según proceda y corresponda, interpretar los resultados del modelo/sistema y permitir a los usuarios utilizarlos adecuadamente; y que los informes de transparencia se apoyen y fundamenten en procesos de documentación sólidos, como la documentación técnica y las instrucciones de uso”.

A.4.1.3) Gobernanza

5. Elaborar, aplicar y divulgar políticas de gobernanza y gestión de riesgos de la IA, basadas en un enfoque basado en los riesgos, incluidas políticas de privacidad y medidas de mitigación.

En el desarrollo de este Principio, el CCIA ofrece ejemplos de las políticas de gobernanza y gestión de riesgos de la IA precisando que deben incluir “procesos de rendición de cuentas y gobernanza para identificar, evaluar, prevenir y abordar los riesgos, cuando sea factible a lo largo del ciclo de vida de la IA. Esto incluye la divulgación, cuando proceda, de las políticas de privacidad, incluidos los datos personales, las indicaciones a los usuarios y los resultados de los sistemas avanzados de IA. Se espera que las organizaciones establezcan y divulguen sus políticas de gobernanza de la IA y los mecanismos organizativos para aplicar estas políticas de acuerdo con un enfoque basado en el riesgo. Esto debe incluir la rendición de cuentas yprocesos de gobernanza para evaluar y mitigar los riesgos, cuando sea factible a lo largo del ciclo de vida de la IA”.

9. Dar prioridad al desarrollo de sistemas avanzados de IA para abordar los mayores retos del mundo, en particular, pero no exclusivamente, la crisis climática, la salud mundial y la educación.

En desarrollo de este Principio, el CCIA precisa que “las organizaciones deben dar prioridad a la administración responsable de una IA fiable y centrada en el ser humano, así como apoyar iniciativas de alfabetización digital que promuevan la educación y formación del público, incluidos estudiantes y trabajadores, para que puedan beneficiarse del uso de sistemas avanzados de IA, y para ayudar a las personas y las comunidades a comprender mejor la naturaleza, las capacidades, las limitaciones y el impacto de estas tecnologías. Las organizaciones deben trabajar con la sociedad civil y los grupos comunitarios para identificar los retos prioritarios y desarrollar soluciones innovadoras para abordar los mayores desafíos del mundo”.

10. Impulsar el desarrollo y, en su caso, la adopción de normas técnicas internacionales.

En desarrollo de este Principio, el CCIA precisa las organizaciones deberán contribuir al desarrollo y, cuando proceda, al uso de “normas técnicas y mejores prácticas internacionales, incluidas las relativas a las marcas de agua, y a colaborar con las organizaciones de desarrollo de normas (SDO), también a la hora de desarrollar las metodologías de ensayo de las organizaciones, los mecanismos de autenticación y procedencia de los contenidos, las políticas de ciberseguridad, la información pública y otras medidas. En particular, se anima a las organizaciones a trabajar para desarrollar normas y marcos técnicos internacionales interoperables que ayuden a los usuarios a distinguir los contenidos generados por IA de los no generados por IA”.

A.4.2) En la fase de prevención de los incidentes derivados del uso de los sistemas avanzados de IA, aquellas organizaciones deberán:

 2. Identificar y mitigar las vulnerabilidades y, en su caso, los incidentes y patrones de uso indebido, tras el despliegue, incluida la comercialización.

En desarrollo de este Principio, el CCIA ofrece un ejemplo de su aplicación cuando indica que “las organizaciones deben utilizar los sistemas de IA según lo previsto, cuando sea apropiado y proporcional al nivel de riesgo, y vigilar las vulnerabilidades, incidentes, riesgos emergentes y usos indebidos después de su despliegue, y tomar las medidas adecuadas para solucionarlos. Se anima a las organizaciones a considerar, por ejemplo, la posibilidad de facilitar a terceros y a los usuarios el descubrimiento y la notificación de problemas y vulnerabilidades después de la implantación, por ejemplo mediante sistemas de recompensas, concursos o premios para incentivar la revelación responsable de puntos débiles. Además, se anima a las organizaciones a mantener una documentación adecuada de los incidentes notificados y a mitigar los riesgos y vulnerabilidades identificados, en colaboración con otras partes interesadas. Los mecanismos para notificar vulnerabilidades, cuando proceda, deben ser accesibles a un conjunto diverso de partes interesadas”.

6. Invertir y aplicar controles de seguridad sólidos, incluida la seguridad física, la ciberseguridad y las salvaguardias contra amenazas internas en todo el ciclo de vida de la IA.

En desarrollo de este Principio, el CCIA precisa el eventual contenido de esos controles de seguridad con referencia a varios ejemplos:

a) “La seguridad de las ponderaciones de los modelos, los algoritmos, los servidores y los conjuntos de datos, por ejemplo, mediante medidas de seguridad operativa para la seguridad de la información y controles de acceso cibernético/físico adecuados”.

b) “La evaluación de los riesgos de ciberseguridad y la aplicación de políticas de ciberseguridad y soluciones técnicas e institucionales adecuadas para garantizar que la ciberseguridad de los sistemas avanzados de IA sea apropiada para las circunstancias pertinentes y los riesgos implicados”.

c) “El acceso limitado para reducir tanto el riesgo de divulgación no autorizada como el riesgo de acceso no autorizado. Esto incluye el compromiso de disponer de un proceso de gestión de la vulnerabilidad y de revisar periódicamente las medidas de seguridad para garantizar que se mantienen a un alto nivel y siguen siendo adecuadas para hacer frente a los riesgos”.

d) “La detección de amenazas internas coherente con las protecciones previstas para su propiedad intelectual y secretos comerciales más valiosos, por ejemplo, limitando el acceso a las ponderaciones de modelos patentados y no publicados”.

7. Desarrollar y desplegar mecanismos fiables de autenticación y procedencia de contenidos, como marcas de agua u otras técnicas que permitan a los usuarios identificar los contenidos generados por IA.

En desarrollo de este Principio, el CCIA precisa el eventual contenido de estos mecanismos de autenticación cuando señala que “Esto incluye, cuando sea apropiado y técnicamente factible, la autenticación de contenidos y mecanismos de procedencia de los contenidos creados con el sistema de IA avanzada de una organización. Los datos de procedencia deben incluir un identificador del servicio o modelo que creó el contenido, pero no es necesario que incluyan información sobre el usuario. Las organizaciones también deben esforzarse por desarrollar herramientas o API que permitan a los usuarios determinar si un contenido concreto ha sido creado con su sistema de IA avanzada, por ejemplo, mediante marcas de agua. Las organizaciones deben colaborar e invertir en investigación, según proceda, para avanzar en este campo. Además, se anima a las organizaciones a aplicar otros mecanismos, como el etiquetado o las cláusulas de exención de responsabilidad, para que los usuarios, cuando sea posible y apropiado, sepan cuándo están interactuando con un sistema de IA”.

8. Dar prioridad a la investigación para mitigar los riesgos sociales, de seguridad y de protección y priorizar la inversión en medidas de mitigación eficaces.

En desarrollo de este Principio, el CCIA precisa el eventual contenido de estas acciones de investigación e inversión en medidas de mitigación eficaces cuando dice “esto incluye llevar a cabo, colaborar e invertir en investigación que apoye el avance de la seguridad, la protección y la confianza en la IA, y abordar los riesgos clave, así como invertir en el desarrollo de herramientas de mitigación adecuadas. Las organizaciones se comprometen a llevar a cabo, colaborar e invertir en investigación que apoye el avance de la seguridad y la fiabilidad de la IA y a abordar los riesgos clave, como dar prioridad a la investigación sobre la defensa de los valores democráticos, el respeto de los derechos humanos, la protección de los niños y los grupos vulnerables, la salvaguarda de los derechos de propiedad intelectual y la privacidad, y la prevención de los sesgos perjudiciales, la desinformación y la manipulación de la información. Las organizaciones también se comprometen a invertir en el desarrollo de herramientas de mitigación adecuadas, y a trabajar para gestionar de forma proactiva los riesgos de los sistemas avanzados de IA, incluidos los impactos medioambientales y climáticos, para que se puedan aprovechar sus beneficios. Se anima a las organizaciones a compartir la investigación y las mejores prácticas sobre mitigación de riesgos”.

11. Aplicar controles y auditorías adecuados de la introducción de datos.

En desarrollo de este Principio, el CCIA precisa dos acciones:

a) “Tomar las medidas adecuadas para gestionar la calidad de los datos, incluidos los datos de formación y la recopilación de datos, para mitigar los sesgos perjudiciales. Las medidas apropiadas podrían incluir transparencia, técnicas de formación que preserven la privacidad, y/o pruebas y ajustes para garantizar que los sistemas no divulguen datos confidenciales o sensibles”.

b) “Aplicar las salvaguardias adecuadas para respetar los derechos relacionados con la privacidad y la propiedad intelectual, incluidos los contenidos protegidos por derechos de autor”.

A.4.3) En la fase de solución de los incidentes derivados del uso de los sistemas avanzados de IA, aquellas organizaciones deberán:

4. Trabajar para que las organizaciones que desarrollan sistemas avanzados de IA compartan información y notifiquen incidentes de forma responsable, incluso con la industria, los gobiernos, la sociedad civil y el mundo académico.

En el desarrollo de este Principio, el CCIA precisa el eventual contenido de las actuaciones derivadas:

a) “El intercambio responsable de información, según proceda, incluidos, entre otros, informes de evaluación, información sobre riesgos de seguridad y protección, capacidades peligrosas intencionadas o no, e intentos de los actores de la IA de eludir las salvaguardias a lo largo del ciclo de vida de la IA”.

b) “El desarrollar, promover y adoptar, cuando proceda, normas, herramientas, mecanismos y mejores prácticas compartidos para garantizar la seguridad y fiabilidad de los sistemas avanzados de IA”.

c)  La colaboración entre organizaciones para “compartir y comunicar al público la información pertinente con vistas a mejorar la seguridad y la fiabilidad de los sistemas avanzados de IA”.

d) La colaboración e intercambio de información con las autoridades públicas pertinentes que debe salvaguardar los derechos de propiedad intelectual.