Close

Inteligencia Artificial Responsable. Dos documentos relevantes para su regulación: El Informe Hiroshima sobre la Inteligencia Artificial Generativa y el Proyecto internacional de principios rectores para las organizaciones que desarrollan sistemas avanzados de Inteligencia Artificial

El pasado día 30 de octubre, las agencias de noticias anunciaban que el presidente estadounidense, Joe Biden, había firmado “una orden ejecutiva para controlar el desarrollo de sistemas de inteligencia artificial (IA) y su aplicación en todos los sectores de la sociedad ante los riesgos que esta nueva tecnología plantea”. Al tiempo, los medios daban cuenta de que el G7 -integrado por Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido–  había anunciado “la creación de un código de conducta internacional para minimizar los riesgos de la inteligencia artificial (IA)”.

Este panorama de hiperactividad regulatoria mundial sobre la IA nos invita a dar cuenta a los lectores de este blog del contenido de dos documentos que nos parecen particularmente relevantes para la regulación de una Inteligencia Artificial Responsable. Se trata del denominado Informe Hiroshima sobre la Inteligencia Artificial Generativa y del Proyecto internacional de principios rectores para las organizaciones que desarrollan sistemas avanzados de Inteligencia Artificial

Nos parece que la exposición -siempre sintética- de ambos documentos resulta particularmente oportuna dentro del mar de documentación ingente sobre la IA que nos inunda con la fuerza de un tsunami y que parece obedecer a un extraño síndrome que -cual nueva pandemia- recorre el orbe. Síndrome que nos parece un tanto irreflexivo y confuciano porque, en los últimos tiempos, padecemos tal inflación de estudios, artículos, noticias, tuits y otras zarandajas sobre la IA que nos tememos que “habla de IA quien no sabe y quien sabe no habla”.

Pues bien, dado que, en nuestra modestia, desde hace algún tiempo, tanto en este blog como fuera de él nos hemos venido ocupando de la regulación de la Inteligencia Artificial y, en particular, de la necesidad de garantizar una IA Responsable (remitimos al lector a la nota bibliográfica final y, en todo caso, le invitamos a que introduzca el termino en los potentes motores de búsqueda de esta plataforma); queremos ofrecer a nuestros lectores una breve síntesis de ambos documentos.

A) El Informe Hiroshima sobre la Inteligencia Artificial Generativa

a) El “sendero medio” o “tercera vía” de regulación de la IA

El 7 de septiembre de este año 2023, la Presidencia japonesa del G7 y el Grupo de trabajo en tecnología digital de la OCDE publicaron el Informe del Proceso Hiroshima sobre la Inteligencia Artificial Generativa (G7 Hiroshima Process On Generative Artificial Intelligence (AI). Towards a G7 Common Understanding On Generative AI. Report prepared for the 2023 Japanese G7 Presidency and the G7 Digital and Tech Working Group. 7 september 2023. OECD publishing. 2023).

Este Informe refleja la tercera vía de regulación de la IA propuesta por Japón conocida como el “Proceso de Hiroshima sobre IA”, que proyecta una regulación intermedia (un sendero medio” o “tercera vía”) de la IA equidistante de la regulación detallada e imperativa proyectada en la UE y la desregulación -y consiguiente riesgo de desprotección del consumidor o usuario de sistemas de IA- de China, en menor medida, o de los EEUU. En este sentido, el  “Proceso de Hiroshima sobre IA”,  aborda cuestiones como la protección de los datos personales o los derechos de autor.Este camino intermedio ha sido aceptado este lunes 30 de octubre por todos los miembros del G7.

b) Noción de IA generativa

El Informe define la IA generativa como “una forma de modelo de IA destinado específicamente a producir nuevo material digital como salida (incluido texto, imágenes, audio, vídeo, código de software), incluso cuando dichos modelos de IA se utilizan en aplicaciones y sus interfaces de usuario” y añade que normalmente se construyen como sistemas de aprendizaje automático que se han entrenado con cantidades masivas de datos y funcionan prediciendo palabras, píxeles, formas de onda, puntos de datos, etc. que se parecerían a los datos de entrenamiento de los modelos, a menudo en respuesta a indicaciones.

c) Génesis del Informe

A principios del pasado mes de septiembre, los representantes de Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido llegaron a un acuerdo para elaborar una normativa unificada de la IA. Tras semanas de debates y visiones antagónicas se impuso finalmente la perspectiva regulatoria impuesto nipona, como una tercera vía o -en expresión típicamente budista- “sendero medio” a medio camino entre el “laissez faire” estadounidense y la regulación europea. Para ello, el Informe deja constancia de que los líderes del G7 identificaron temas de debate en el proceso de Hiroshima y pidieron que se hiciera un primer balance de las oportunidades y retos relacionados con la IA generativa.

La cronología del proceso se inicia en abril de 2023, cuando Japón acogió en Takasaki la Reunión de Ministros de Tecnología Digital del G7 quienes aprobaron una Declaración que subrayó la importancia de los debates internacionales sobre la interoperabilidad entre los distintos marcos de gobernanza de la IA y de hacer balance de las oportunidades y retos que plantea la IA generativa. En concreto, en el apartado 47 de la Declaración Takasaki de abril de 2023, los Ministros de Tecnología y Asuntos Digitales del G7 reconocieron «la necesidad de hacer balance a corto plazo de las oportunidades y los retos de [las tecnologías de IA generativa] y de seguir promoviendo la seguridad y la confianza a medida que se desarrollan estas tecnologías» y, por lo tanto, se comprometieron a «convocar futuros debates del G7 sobre IA generativa que podrían incluir temas como la gobernanza, cómo salvaguardar los derechos de propiedad intelectual, incluidos los derechos de autor, promover la transparencia, abordar la desinformación, incluida la manipulación de información extranjera, y cómo utilizar de forma responsable estas tecnologías«.

Producto de este proceso es el Informe del que damos cuenta que presenta los resultados de un cuestionario elaborado para apoyar el inventario y ayudar a orientar los debates del G7 sobre las prioridades políticas comunes en relación con la IA generativa. Además, el Informe ofrece una breve panorámica del desarrollo de la IA generativa a lo largo del tiempo y en los distintos países. Es por ello por lo que el Informe advierte que los resultados del cuestionario deben entenderse como una instantánea en el tiempo puesto que indican las tendencias identificadas en el verano de 2023 en un ámbito tecnológico en rápida evolución. El informe contribuyó a informar y estructurar los debates del Proceso de IA de Hiroshima del G7.

d) Contenido del Informe: el método de análisis coste (riesgo) / beneficio

Podemos exponer el contenido de este informe en base al método clásico de análisis coste (riesgo)/beneficio:

d.1) Beneficios

El Informe comienza constatando que la IA generativa ha entrado en la conciencia pública, como lo demuestra el hecho de que el número de artículos de prensa y tuits relacionados con la «IA generativa» se multiplicó por ocho en tan solo seis meses.

A continuación, el Informe cuantifica el impacto económico de la IA generativa cuando se refiere a el conocimiento generalizado y la rápida adopción de la IA generativa han sido posibles gracias a un progreso constante y progresivo tanto en la investigación como en el desarrollo de código. En particular, innovaciones fundamentales como las arquitecturas «Transformers», las aportaciones de la comunidad de código abierto y la mejora de la potencia informática han allanado el camino para la proliferación de grandes modelos lingüísticos y otros tipos de modelos de IA generativa. Las publicaciones científicas y el desarrollo de código de fuente abierta sobre IA generativa han crecido notablemente desde 2017, tendencia que se aceleró en 2023. Todo ello se ha reflejado en que las inversiones de capital riesgo en IA generativa se han disparado y se estimaron en 12.000 millones USD a nivel mundial solo en el primer semestre de 2023.

El Informe, más tarde, constata que los rápidos avances de la IA generativa están impulsados por su potencial para aumentar la productividad y promover la innovación y el espíritu empresarial, así como para encontrar soluciones a los retos mundiales. En concreto, en sus respuestas a un cuestionario realizado en el tercer trimestre de 2023, los miembros del G7 consideraron unánimemente que “el aumento de la productividad, el fomento de la innovación y el espíritu empresarial y la búsqueda de soluciones a los retos mundiales eran algunas de las mayores oportunidades de las tecnologías de IA en todo el mundo, incluidas las economías emergentes y en desarrollo (…) también hicieron hincapié en el papel potencial de la IA generativa para ayudar a abordar retos sociales urgentes, como mejorar la atención sanitaria y ayudar a resolver la crisis climática, y para apoyar el progreso hacia la consecución de los Objetivos de Desarrollo Sostenible”.

d.2) Riesgos

Cuando transitamos hacia el otro plato de la balanza, vemos como el Informe constata que los miembros del G7 consideran que “la capacidad de la IA generativa para exacerbar los retos de la desinformación y la manipulación de opiniones es una de las principales amenazas derivadas de la IA generativa, junto con los riesgos de infracción de los derechos de propiedad intelectual y las violaciones de la privacidad. De tal manera que los primeros esfuerzos por rastrear los incidentes relacionados con la IA encontraron mil incidentes y peligros distintos relacionados con la IA generativa, basados en unos 5.600 artículos de noticias fechados entre enero y julio de 2023.

También destaca el Informe que, a medida que estos riesgos evolucionan rápidamente, su gestión y mitigación ocupan un lugar prioritario en la agenda de los gobiernos del G7. Es por ello por lo que el uso responsable de la IA generativa, la lucha contra la desinformación, la protección de los derechos de propiedad intelectual y la gobernanza de la IA generativa figuran entre las principales prioridades de los responsables políticos del G7 y requieren la cooperación internacional con socios de ideas afines.  El Informe añade otras cuestiones urgentes e importantes destacadas por los miembros del G7 son la privacidad y la gobernanza de los datos, la transparencia, la imparcialidad y la parcialidad, los derechos humanos y fundamentales, la seguridad y solidez de los sistemas de IA, y el impacto en el funcionamiento de la democracia.

El Informe añade que, a consecuencia de lo anterior, las jurisdicciones del G7 están evaluando sus respectivas respuestas a la IA generativa, así como las lagunas políticas. En este sentido, los países están aprovechando los marcos jurídicos y políticos existentes y futuros y elaborando directrices o reglamentos para abordar los riesgos relacionados con la IA generativa. También se están reforzando las iniciativas nacionales para aprovechar sus oportunidades. Los nuevos problemas planteados por la IA generativa parecen afectar a sectores específicos, como la educación, los medios de comunicación y el lugar de trabajo.

En Informe acaba constatando que los miembros del G7 coinciden en la necesidad de proporcionar herramientas eficaces para la seguridad, el control de calidad y la creación de capacidad y confianza para la IA generativa que se consideran las acciones internacionales más urgentes e importantes que podría emprender el G7. También se consideró, entre las acciones más importantes, el desarrollo de códigos de conducta voluntarios.

B) El Proyecto Internacional de Principios Rectores para las Organizaciones que desarrollan Sistemas Avanzados de Inteligencia Artificial

a) Aspectos generales

Damos cuenta, en segundo lugar, de la sumisión a pública consulta del Borrador de Proyecto Internacional de Principios Rectores para las Organizaciones que desarrollan Sistemas Avanzados de Inteligencia Artificial (“International Draft Guiding Principles for Organizations Developing Advanced AI Systems”) elaborado en el ámbito de la OCDE  que tiene como objetivo promover una IA segura y fiable en todo el mundo, ofreciendo orientación a las organizaciones -incluidas las entidades del mundo académico, la sociedad civil, el sector privado y el sector público- que desarrollen y utilicen sistemas avanzados de IA, como los modelos fundacionales y la IA generativa.  

Se trata de una lista no exhaustiva de principios rectores que se debatirá y elaborará como un documento vivo basado en los Principios de la IA de la OCDE existentes para dar respuesta a los recientes avances en los sistemas avanzados de IA. Por ello, este documento persigue ayudar a aprovechar los beneficios y abordar los riesgos y desafíos que plantean las tecnologías de IA. De ahí que estos principios deben aplicarse a todos los actores de la IA, cuando y como sea aplicable para cubrir el diseño, desarrollo, despliegue y uso de sistemas avanzados de IA.

b) Presupuestos

Estos principios se asientan sobre los presupuestos siguientes que afectan a los actores sociales:

a) Las organizaciones deben desarrollar sus sistemas de IA haciendo compatibles el aprovechamiento de las oportunidades de la innovación con el respeto al Estado de Derecho, los derechos humanos, las garantías procesales, la diversidad, la equidad y la no discriminación, la democracia y el protagonismo humano en el diseño, desarrollo y despliegue de sistemas avanzados de IA. Por lo tanto, las organizaciones no deben desarrollar ni desplegar sistemas avanzados de IA que violen los derechos humanos, socaven los valores democráticos, sean especialmente perjudiciales para las personas o las comunidades, faciliten el terrorismo, permitan el uso indebido con fines delictivos o planteen riesgos sustanciales para la seguridad y los derechos humanos.

b) Los Estados deben controlar los sistemas de IA cumpliendo sus obligaciones en virtud de la legislación internacional sobre derechos humanos para garantizar que se respetan y protegen plenamente tales derechos.

c) El sector privado debe desarrollar sus actividades en materia de IA en consonancia con marcos internacionales como los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos y las Líneas Directrices de la OCDE para Empresas Multinacionales.

Esos principios anteceden y servirán de base para que la OCDE cumpla su compromiso de elaborar un código de conducta internacional para las organizaciones que desarrollan sistemas avanzados de IA; sin perjuicio de reconocer que las distintas jurisdicciones pueden adoptar sus propios enfoques para aplicar estos principios rectores de diferentes maneras.

c) Los 11 principios

El documento solicita a las organizaciones que desarrollen y utilicen sistemas avanzados de IA (entidades del mundo académico, la sociedad civil, el sector privado y el sector público) se atengan a los 11 principios que menciona y explica, aplicados en proporción a los riesgos que generan tales sistemas.

Ofrecemos al lector una clasificación secuencial de dichos principios focalizada en el factor riesgo en tres fases, respetando su numeración en el documento (advertimos al lector que la traducción y las expresiones destacadas en negrita son nuestros) de tal manera que aquellas organizaciones deberán:

c.1) En la fase de gestión de los riesgos generados por los sistemas avanzados de IA:

1. Tomar las medidas adecuadas durante el desarrollo de sistemas avanzados de IA, incluso antes y durante su despliegue y comercialización, para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA.

3.  Informar públicamente de las capacidades, limitaciones y ámbitos de uso apropiado e inapropiado de los sistemas avanzados de IA, para contribuir a garantizar la suficiente transparencia.

5. Elaborar, aplicar y divulgar políticas de gobernanza y gestión de riesgos de la IA, basadas en un enfoque basado en los riesgos, incluidas políticas de privacidad y medidas de mitigación, en particular para las organizaciones que desarrollan sistemas avanzados de IA.

9. Dar prioridad al desarrollo de sistemas avanzados de IA para abordar los mayores retos del mundo, en particular, pero no exclusivamente, la crisis climática, la salud mundial y la educación.

10. Impulsar el desarrollo y, en su caso, la adopción de normas técnicas internacionales.

c.2) En la fase de prevención de los incidentes derivados del uso de los sistemas avanzados de IA:

 2. Identificar y mitigar las vulnerabilidades y, en su caso, los incidentes y patrones de uso indebido, tras el despliegue, incluida la comercialización.

6. Invertir y aplicar controles de seguridad sólidos, incluida la seguridad física, la ciberseguridad y las salvaguardias contra amenazas internas en todo el ciclo de vida de la IA.

7. Desarrollar y desplegar mecanismos fiables de autenticación y procedencia de contenidos, como marcas de agua u otras técnicas que permitan a los usuarios identificar los contenidos generados por IA.

8. Dar prioridad a la investigación para mitigar los riesgos sociales, de seguridad y de protección y priorizar la inversión en medidas de mitigación eficaces.

11. Aplicar controles y auditorías adecuados de la introducción de datos.

c.3) En la fase de solución de los incidentes derivados del uso de los sistemas avanzados de IA:

4. Trabajar para que las organizaciones que desarrollan sistemas avanzados de IA compartan información y notifiquen incidentes de forma responsable, incluso con la industria, los gobiernos, la sociedad civil y el mundo académico.