Desde hace algún tiempo, tanto en este blog como fuera de él nos hemos venido ocupando de la regulación más reciente de la Inteligencia artificial tanto en España como en Europa. En particular, hemos prestado una atención especial a los documentos de la UE sobre la inteligencia artificial ética y responsable (nos permitimos hacer referencia a nuestro estudio “Decálogo de la inteligencia artificial ética y responsable en la Unión Europea” publicado en el Diario La Ley del pasado viernes día 4 de diciembre de 2020 y remitimos al lector interesado a la nota bibliográfica que obra al final de esta entrada).
Por ello, no podíamos dejar pasar la ocasión para dar cuenta del documento denominado “Estrategia Española de I+D+I en Inteligencia Artificial» del que tuvimos conocimiento hace unos días publicado por el Ministerio de Ciencia, Innovación y Universidades y datado en 2019. En concreto, la autoría de esta publicación corresponde a la Secretaría General de Coordinación de Política Científica del Ministerio de Ciencia, Innovación y Universidades y al Grupo de Trabajo en Inteligencia Artificial GTIA (Edita: Secretaría General Técnica del Ministerio de Ciencia, Innovación y Universidades. Publicación incluida en el programa editorial del Ministerio de Ciencia, Innovación y Universidades. Catálogo general de publicaciones oficiales. https://cpage.mpr.gob.es)
Prólogo del documento
En el prólogo del documento, Pedro Duque, Ministro de Ciencia, Innovación y Universidades del Gobierno de España, comienza recordando la referencia pionera a la inteligencia artificial que hacía Alan Turing, en su artículo publicado en 1950, “Computing Machinery and Intelligence» («Ordenador e inteligencia»), en el que establecía el test que hoy lleva su nombre y donde decía que, “si una máquina se comportase en todos los aspectos como inteligente, entonces debe ser inteligente”. Afirmación esta de Alan Turing aparentemente tautológica que debe encerrar, sin duda, una reflexión cuya profundidad abisal impide que nuestro intelecto limitado tan siquiera llegue a vislumbrar.
Sigue constatando y anticipando en el prólogo nuestro Ministro de Ciencia, Innovación y Universidades datos del todo ciertos y previsiones asombrosas cuando nos dice que (advertimos al lector o lectora que todos los resaltes en negrita de transcripciones literales del documento son nuestros) “más de 60 años después, la Inteligencia Artificial es un conjunto de tecnologías cada vez más avanzadas que ya están cambiando nuestras vidas y que lo harán con mucha mayor incidencia en el futuro. Aún estamos lejos de conseguir que las máquinas se comporten en todos los aspectos como inteligentes, pero la disponibilidad de tecnologías basadas en la Inteligencia Artificial, sobre todo la creciente capacidad de las máquinas para almacenar y evaluar enormes cantidades de información y sacar de ellas conclusiones, nos anuncia que ha llegado el momento de estar preparados. Estas tecnologías son ya uno de los principales factores de crecimiento; sus productos, servicios y sistemas ya están en el hogar y en las calles y su impacto económico global se estima en 14 billones (millones de millones) de euros para el año 2030”.
El Grupo de Trabajo en IA (GTIA)
Tras el preceptivo agradecimiento del Secretario General de Coordinación de Política Científica; el documento informa sobre la transcendental labor que desarrolla el Ministerio de Ciencia, Innovación y Universidades, sobre la no menos decisiva función de la Secretaría General de Coordinación de Política Científica y, en particular, sobre el Grupo de Trabajo de I+D+I en Inteligencia Artificial. A este último respecto, nos informa el documento de que “el Ministerio, en consonancia con los estudios y trabajos iniciados por la Comisión Europea en materia de Inteligencia Artificial, ha creado un Grupo de Trabajo en IA (GTIA) cuya misión principal ha sido la de realizar un borrador que sirva como base para diseñar y aprobar una Estrategia de I+D+I en Inteligencia Artificial, y que será presentado en un acto oficial en el mes de marzo de 2019” y agradece las contribuciones de los integrantes del GTIA y de las siguientes personalidades: Ramón López de Mántaras (IIIA-CSIC), Josep Maria Martorell (BSC-CNS); Francisco Herrera y Oscar Cordón (UGR); Josep Lladós (CVC-UAB); Pedro Larrañaga y Asunción Gómez Pérez (UPM); Ulises Cortés (UPC); Amparo Alonso Betanzos (AEPIA); Joseba Laka y Javier del Ser (Tecnalia); Petra Fernández, Elisa Robles, David González, Francisco Salvador, y Gonzalo Remiro (MCIU).
Objetivos de la Estrategia en IA
El documento nos recuerda que la IA fue definida por J. McCarthy en 1956, como “la ciencia e ingeniería de hacer máquinas que se comporten de una forma que llamaríamos inteligente si el humano tuviese ese comportamiento”. Otra definición de un corte hipotético-tautológico que no deja de sorprendernos; sin duda por nuestras cortas entendederas o quizás por problemas de traducción.
Sigue el documento clasificando a la IA como “un área de la informática” que “comparte algunas técnicas con otras disciplinas, como las matemáticas y la estadística o la ciencia cognitiva”; advirtiéndonos al tiempo de la circunstancia consistente en que “debido a la creciente complejidad de sus aportaciones es cada vez más interdisciplinar, con sinergias con la biología, la filosofía, el mundo del derecho, la psicología, la sociología y la economía”. En definitiva, un conocimiento transversal y holístico.
Avanza el documento en las consecuencias socio-económicas de la IA para reseñar que “en este momento, la IA es una de las disciplinas que puede influir más en la rápida transición hacia una nueva sociedad y economía. Es una revolución tecnológica, por lo que España debe involucrarse en el desarrollo de una estrategia de investigación, desarrollo tecnológico e innovación que contribuya a la generación de beneficios económicos y sociales en nuestro país”. Lo anterior explica sobradamente que “el Ministerio de Ciencia, Innovación y Universidades (MCIU), en línea con la Comunicación de 2018 de la Comisión Europea al Parlamento Europeo, al Consejo Europeo, al Consejo y al Comité Económico y Social sobre IA para Europa, y el posterior Plan Coordinado sobre IA, ha trabajado en una Estrategia Española de I+D+I en Inteligencia Artificial. Este Ministerio creó en noviembre de 2018 el GTIA dedicado al diseño de dicha Estrategia”.
Prioridades
El documento nos explica que “la Estrategia para la IA en I+D+I de España establece una serie de Prioridades que serán enmarcadas en la nueva Estrategia Española de Ciencia, Tecnología e Innovación (EECTI) 2021-2028 y que deberán ser desarrolladas en iniciativas y actividades definidas y financiadas a través de los Planes Estatales de Ciencia, Tecnología e Innovación (PECTI)”.
En particular, el documento enmarca este movimiento imparable de una IA resiliente, sostenible e inclusiva em el eje de las dos coordenadas siguientes:
a) La movilización “de las sinergias entre los distintos niveles de la administración pública y mediante el codesarrollo del sector público y privado”.
b) La prevención del “sesgo negativo y los prejuicios de los que adolece nuestra sociedad, como el de género, raza u otras formas de discriminación, y de los que deberán librarse los sistemas de decisión de la IA”. Advertencia esta que, sin duda, h4enos de calificar de oportuna para evitar que la inteligencia, a pesar de ser nueva y artificial, incurra en los vicios nefandos del raciocinio natural arcaico e incluso heteropatriarcal.
Una vez marcado el rumbo de la IA, el documento identifica las 6 Prioridades de la Estrategia de la IA en España que son:
a) “Lograr una estructura organizativa que permita desarrollar un sistema de I+D+I en IA y medir su impacto”.
b) “Establecer áreas estratégicas en las que es necesario centrar los esfuerzos de las actividades de I+D+I”.
c) “Facilitar la transferencia del conocimiento y su retorno a la sociedad”.
d) “Planificar las acciones de formación y profesionalización en el ámbito de la IA”.
e) “Desarrollar un ecosistema digital de datos y valorizar las infraestructuras disponibles”.
f) “Analizar la ética de la IA desde la perspectiva de la I+D+I”.
Dado el perfil regulatorio de este blog, centraremos nuestra atención en esta última -pero no por ello, menos relevante- prioridad que comienza advirtiéndonos que “los desarrollos de las tecnologías de la IA deberán evitar el sesgo negativo y los prejuicios de género u otras formas de discriminación”. A estos efectos, el documento nos informa que “el Comité Español de Ética en la Investigación debe liderar las actividades de análisis y valoración de los aspectos éticos del uso e implantación de la IA en las actividades desarrolladas en los Planes Estatales de I+D+I.”. Señalando, en este punto, dos actitudes precisas para orientar dicho esfuerzo que son:
a) Por una parte, “enfocar, desde una visión multidisciplinar, el diseño general de los sistemas de AI desde un alineamiento de los aspectos éticos, legales y sociales”.
b) Por otra parte, “contribuir desde la I+D+I en la redacción de un Código Ético de la IA”. Y es en este punto donde el documento -siguiendo un método mayéutico- nos dice que “son muchas las preguntas éticas que rodean al papel que juega o ha de jugar la IA en la sociedad, en el empleo o su impacto en la economía”; para responder, de inmediato, a la pregunta retórica diciendo: “el éxito de la IA dependerá de cómo las personas y las máquinas colaboren para ofrecer mejores servicios –transparentes, razonables y éticos- a los usuarios potenciales, en un mundo donde cada vez seremos más exigentes con la calidad de los servicios prestados”. Para recalar, una vez más, en el eje cartesiano de que “es una condición en el desarrollo de las tecnologías y aplicaciones de la IA ligado a esta Estrategia de I+D+I evitar el sesgo negativo y los prejuicios de los que adolece nuestra sociedad, como el de género, raza, u otras formas de discriminación, y que deberán evitar los sistemas de soporte a la toma de decisiones”.
Conecta entonces el documento con Europa para decirnos que “desde el punto de vista europeo, y tal y como afirma el IA HLEG100, una IA confiable y ética, hecha en Europa, ha de construirse sobre la base de décadas de aplicación consensuada de los derechos fundamentales en la UE, de modo que proporcione claridad, legibilidad y prospectiva para los usuarios, inversores e innovadores. Esto requiere de un marco legal adaptado para que la IA se utilice de manera justa, transparente y responsable, y aborde la naturaleza multicultural de Europa; que combata los sesgos no intencionados y garantice que las inquietudes sociales y económicas relacionadas con la pérdida de empleos, la competencia desleal o el posible dominio de las máquinas se aborden de forma adecuada”.
Regresa el documento a España para constatar que “el interés por los usos éticos de la IA no es una discusión nueva, pero con frecuencia se ha visto circunscrita a los ámbitos académicos. En marzo de 2017 estas discusiones saltaron a la arena pública con la celebración de un simposio paneuropeo cuyo resultado más importante es un manifiesto conocido como la “Declaración de Barcelona sobre el desarrollo y uso apropiado de la IA”. La declaración considera ocho puntos –muchos de ellos comunes a manifiestos similares producidos en otras partes del mundo y que resumen la tradición ética europea y el pensamiento científico en el que se ha cimentado la investigación en la disciplina en Europa, ya sea la IA basada en el conocimiento o aquella basada en el procesamiento intensivo y extensivo de los datos en Europa. De entre esos puntos cabe destacar que las aplicaciones de la IA deben ser prudentes, confiables, responsables, identificables, con una autonomía regida por un conjunto de reglas que velen por el acervo humano”.
En definitiva, “la ética de la I+D+I aplicada a la IA es una prioridad transversal como hemos visto a lo largo de esta Estrategia de I+D+I. Por ello es necesario realizar un esfuerzo adicional a través de la investigación fundamental para determinar cómo diseñar mejores sistemas de IA que incorporen un razonamiento ético. España, a través de los distintos agentes del SECTI y, con el papel destacado del CEEI como órgano colegiado, independiente y de carácter consultivo sobre materias relacionadas con la ética profesional en la investigación científica y técnica, debe ser activa en estos aspectos de definición e identificación de la IA a nivel nacional y europeo incluyendo el análisis y propuesta de indicadores que ayuden a medir la eficacia de las medidas incluidas en los PECTI. El Comité deberá valorar y asesorar sobre el uso e implantación de la IA para ayudar a los agentes del SECTI, además de a la sociedad en general, y de forma que permita establecer una posición desde la ética en los avances de la IA en consonancia con los alineamientos europeos. La labor del CEEI puede venir acompañada de una cooperación internacional con el objeto de redactar un Código Ético de la IA alineado con los esfuerzos realizados por la Comisión Europea en este sentido”.
Y acaba el documento con esta sexta prioridad concluyendo que “el objetivo último de la comunidad científica española será enfocar, desde una visión multidisciplinar, el diseño general de los sistemas de IA desde un alineamiento de los aspectos éticos, legales y sociales”.
Recomendaciones
El documento pasa “de las musas al teatro” con una serie de Recomendaciones “que trascienden la I+D+I y reclaman la presencia de otros sectores y departamentos ministeriales debido a la naturaleza multidisciplinar y trasversal de la IA y la mencionada revolución tecnológica y social que implica. Dentro de éstas conviene remarcar el carácter de eje estratégico de la sociedad española del siglo XXI de la IA. Tras el acuerdo de la Comisión Delegada para Política Científica, Tecnológica y de Innovación para crear un Grupo de Trabajo Interministerial en IA en diciembre de 2018, las Administraciones competentes desarrollarán una Estrategia Nacional para la IA. Esta Estrategia Nacional incluirá ámbitos más allá de la I+D+I, que con toda certeza serán alterados por la entrada de la IA en la sociedad como son el mercado laboral, el modelo educativo, la legislación en vigor y las relaciones dentro de la propia sociedad con los nuevos servicios y sistemas desarrollados”.
Siete son las Recomendaciones que formula el documento de Estrategia:
a) “Lanzar una Estrategia Nacional para la IA que permita el desarrollo e implementación de medidas específicas dirigidas a los sectores estratégicos nacionales. La evaluación y seguimiento de dichas medidas podrá ser realizada a través de un Observatorio Español de la IA”.
b) “Aprovechar la IA para alcanzar los objetivos marcados en la Agenda 2030”.
c) “Diseñar e Implementar actuaciones específicas que impulsen la transferencia de conocimiento al entorno socioeconómico”.
d) “Lanzar o adaptar los programas de fomento de vocaciones, no limitado a la I+D, así como la atracción, retención y recuperación de talento dirigidas a la IA”.
e) “Usar la IA para garantizar un uso óptimo de los datos abiertos. Crear un Instituto Nacional de Datos que permita planificar y definir una gobernanza sobre los datos procedentes de los diferentes niveles de la Administración Pública”.
f) “Detectar las necesidades de adaptación y mejora de competencias en los distintos niveles de nuestro sistema educativo”.
g) “Velar porque todas las actividades e iniciativas derivadas de los marcos estratégicos enfocados al desarrollo de la IA, así como sus resultados cumplen con los compromisos éticos, legales y sociales de nuestro país y de nuestro entorno europeo”.
Nuevamente el perfil regulatorio de este blog nos obliga a prestar una atención especial a esta última Recomendación que se sintetiza diciendo: “Recomendación 7: velar por un uso ético de la IA en todos sus campos de aplicación”. Vuelve en este punto el documento a una perspectiva mayéutica que parte de la sorpresa que en nuestras mentes provocan las preguntas clave sobre la IA cuando nos dice: “En los últimos diez años, los logros de la IA han generado preguntas de calado sobre la dirección y las implicaciones de estas tecnologías en la sociedad y la economía. No solo los avances científicos y tecnológicos deben impactar en el desarrollo de las tecnologías de la IA. Velar por la economía y la sociedad se presenta como un desafío, por lo que el desarrollo de las nuevas aplicaciones deberá ser dirigido por los principios éticos, legales y sociales de España y Europa que serán incluidos en un Código Ético de la Inteligencia Artificial co-desarrollado a nivel interministerial”.
Nota bibliográfica: Tal y como anticipamos al inicio de este entrada, el lector o la lectora de este blog pueden complementar la valiosa información del documento gubernamental que hemos glosado con algunos de nuestros estudios que mencionamos a continuación: “Regulación de la inteligencia artificial en la Unión Europea. Ética y responsabilidad” que se publicará La Ley Unión Europea, número 87 de diciembre de 2020. Puede ver también las entradas de este blog financiero de 12 de noviembre de 2010 sobre “Digitalización financiera: Los 7 principios regulatorios de una Inteligencia Artificial Ética (IAE) en la UE. Resolución del Parlamento Europeo de 20 de octubre de 2020 sobre los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas”; de 13 de noviembre de 2020 sobre “Digitalización financiera: Los 3 principios regulatorios de una Inteligencia Artificial Responsable (IAR) en la UE. Resolución del Parlamento Europeo de 20 de octubre de 2020 sobre la responsabilidad civil en materia de inteligencia artificial”; de 18 de junio de 2019 sobre “Los siete requisitos esenciales para una inteligencia artificial fiable. Comunicación de la Comisión Europea de 8 de abril de 2019”; de 14 de enero de 2020 sobre “Responsabilidad derivada del uso de la inteligencia artificial. Informe del Grupo de Expertos de la Comisión Europea de 2019 (1). Características esenciales de los regímenes de responsabilidad derivada de la inteligencia artificial y el uso de otras tecnologías digitales”; y de 15 de enero de 2020 sobre “Responsabilidad derivada de la inteligencia artificial en los mercados financieros. Informe del Grupo de Expertos de la Comisión Europea de 2019 (2) Cobertura preventiva de responsabilidad mediante los seguros de responsabilidad civil y los fondos de compensación”. Por último, también puede ver las dos entradas de los pasados días 1 y 2 de diciembre sobre “Robots responsables: La responsabilidad civil derivada del uso de la inteligencia artificial y su seguro”.