Close

La creación de un ecosistema europeo de inteligencia artificial excelente y fiable: El Libro Blanco de la Comisión Europea sobre la inteligencia artificial

El “Libro Blanco sobre la inteligencia artificial – un enfoque europeo orientado a la excelencia y la confianza” publicado por la Comisión Europea en Bruselas el 19.2.2020, (COM(2020) 65 final) diseña la construcción de un ecosistema europeo de inteligencia artificial excelente y fiable. Procedemos a glosar su contenido en línea con las entradas que, en fechas recientes, hemos dedicado en este blog a los aspectos regulatorios de la Inteligencia Artificial (IA).

En particular, dos han sido los aspectos de la IA que han centrado nuestra atención: Por una parte, los usos de los sistemas de IE en el ámbito financiero que es propio de este blog mediante las tecnorfinanzas (Fintech). Por otro lado, la responsabilidad civil en forma de daños a terceros que puede derivar de tales usos por ser este el aspecto jurídicamente decisivo en la materia (el lector interesado puede ver la nota bibliográfica final)

Finalidad del Libro Blanco de la Comisión Europea sobre la inteligencia artificial: convertir a Europa en líder mundial de la innovación en la economía de los datos y sus aplicaciones

El Libro Blanco parte de la base de que “la inteligencia artificial es una combinación de tecnologías que agrupa datos, algoritmos y capacidad informática. Los avances en computación y la creciente disponibilidad de datos son, por tanto, un motor fundamental en el pronunciado crecimiento actual de la inteligencia artificial”. Y, a partir de ahí, manifiesta que “Europa puede aunar su potencial tecnológico e industrial con una infraestructura digital de gran calidad y un marco regulador basado en sus valores fundamentales para convertirse en líder mundial de la innovación en la economía de los datos y sus aplicaciones, tal como se establece en la Estrategia Europea de Datos”.

Este liderazgo europeo debe traducirse en el desarrollo de “un ecosistema de inteligencia artificial que acerque las ventajas de la tecnología a la sociedad y la economía europeas en su conjunto” beneficiando a dos colectivos fundamentales que son:

a) Los ciudadanos consumidores y usuarios, “para que obtengan nuevos beneficios, como una mejor atención sanitaria, una menor cantidad de averías de los aparatos domésticos, unos sistemas de transporte más seguros y limpios, o mejores servicios públicos”. Este doble beneficio ciudadano en forma de servicios públicos de asistencia sanitaria se ha convertido en necesidad vital a resultas de la pandemia del COVID 19.

b) Las empresas, ya que la IA es una herramienta idónea para el desarrollo empresarial, por ejemplo, “mediante una nueva generación de productos y de servicios en áreas en las que Europa es particularmente fuerte (maquinaria, transporte, ciberseguridad, agricultura, economía verde y circular, atención sanitaria y sectores de gran valor añadido, como la moda y el turismo)”.

Los beneficios mencionados surgirán del empleo de la IA en los servicios de interés público, por ejemplo, “mediante una reducción de los costes de la prestación de servicios (transporte, educación, energía y gestión de los residuos), una mayor sostenibilidad de los productos, o proporcionando a los servicios y fuerzas de seguridad las herramientas adecuadas para que aseguren la protección de los ciudadanos, garantizando correctamente el respeto de sus derechos y libertades”.

Y la consecución del liderazgo europeo en IA debe orientarse no solo desde una perspectiva individual, sino también desde la perspectiva de la sociedad en su conjunto. Así, el Libro Blanco dice que “el uso de sistemas de inteligencia artificial puede tener un papel importante en la consecución de los Objetivos de Desarrollo Sostenible y en el respaldo de los procesos democráticos y los derechos sociales. Con sus recientes propuestas sobre el Pacto Verde Europeo, Europa va a la vanguardia de la lucha contra el cambio climático y los retos medioambientales asociados. Las tecnologías digitales como la inteligencia artificial son motores clave para alcanzar los objetivos del Pacto Verde. Dada la importancia creciente de la inteligencia artificial, es necesario tomar en debida consideración las repercusiones medioambientales de sus sistemas a lo largo de su ciclo de vida y durante toda la cadena de suministro, por ejemplo, en lo que se refiere a la utilización de recursos para el entrenamiento de los algoritmos y el almacenamiento de datos”.

Por último, la consecución del liderazgo europeo en IA dentro de la economía global exige una “masa crítica” suficiente que únicamente puede alcanzarse evitando la fragmentación del mercado único, ya que introducir iniciativas nacionales aisladas en los Estados miembros de la UE presenta el riesgo de hacer peligrar la seguridad jurídica, reducir la confianza de los ciudadanos e impedir el surgimiento de una industria europea dinámica. Por todo ello, “se necesita un enfoque europeo común en torno a la inteligencia artificial”.

Ecosistema europeo de inteligencia artificial excelente

El Libro Blanco identifica dos pilares esenciales, el primero de los cuales reside en la construcción de un ecosistema europeo de inteligencia artificial excelente mediante la colaboración de los sectores público y privado para movilizar recursos y obtener un “ecosistema de excelencia a lo largo de toda la cadena de valor, partiendo de la investigación y la innovación, así como crear los incentivos adecuados para acelerar la adopción de soluciones basadas en la inteligencia artificial” por todo tipo de empresas y, muy especialmente, las PYMES. Por lo tanto, este ecosistema de excelencia en la IA implica tres sectores:

a) El sector público, señalando en este sentido el Libro Blanco el objetico de “promover la adopción de la IA por parte del sector público” diciendo: “resulta fundamental que las Administraciones Públicas, los hospitales, los servicios públicos y de transporte, los supervisores financieros y otras áreas de interés público empiecen a adoptar rápidamente productos y servicios que se basen en la inteligencia artificial en sus actividades. Se hará especial hincapié en los sectores de la atención sanitaria y el transporte, en los que la tecnología está suficientemente desarrollada para una adopción a gran escala”. Vuelve a ser particularmente oportuna esta alusión al empleo intensivo de la IA en los servicios públicos de asistencia a resultas de la pandemia del COVID 19.

b) El sector privado, de tal manera que el Libro Blanco se refiere a las “asociaciones con el sector privado” para destacar que “resulta fundamental asegurarse de que el sector privado participe plenamente en la elaboración de la agenda de investigación e innovación y ofrezca el nivel de coinversión necesario. Ello exige que se establezca una asociación público-privada con carácter amplio, y que se garantice el compromiso de los altos cargos de las empresas”.

En particular, se refiere al objetivo de “garantizar que las PYMES puedan acceder a la inteligencia artificial y que la utilicen. Para ello, los centros de innovación digital y la plataforma de «inteligencia artificial a la carta» deben seguir reforzándose y potenciar la cooperación entre pymes. El Programa Europa Digital será clave para alcanzar este objetivo. Si bien todos los centros de innovación digital deben apoyar a las pymes para que entiendan y adopten la inteligencia artificial, será importante que al menos un centro de innovación por Estado miembro cuente con un elevado nivel de especialización en inteligencia artificial. Las PYMES y empresas emergentes necesitarán tener acceso a la financiación para adaptar sus procedimientos o innovar usando la IA. Mediante el inminente fondo de inversión piloto de 100 millones EUR para la inteligencia artificial y la cadena de bloques, la Comisión prevé seguir incrementando el acceso a la financiación en la IA en el marco de InvestEU. La inteligencia artificial figura de manera explícita como uno de los sectores admisibles en InvestEU”.

c) El sector transversal de la investigación a la que se dedican gran parte de las seis actuaciones que anuncia la Comisión Europea en su Libro Blanco, a saber:

Acción 1: Teniendo en cuenta los resultados de la consulta pública sobre el Libro Blanco, la Comisión propondrá a los Estados miembros una revisión del Plan coordinado que debe adoptarse a finales de 2020.

Acción 2: La Comisión facilitará la creación de centros de excelencia y pruebas que puedan combinar las inversiones europeas, nacionales y privadas, probablemente con la introducción de un nuevo instrumento jurídico. La Comisión ha propuesto un importe ambicioso y dirigido a respaldar centros de ensayo de referencia mundial en Europa en el marco del Programa Europa Digital, completado, cuando así se requiera, por acciones de investigación e innovación de Horizonte Europa, como parte del marco financiero plurianual para el período 2021-2027.

Acción 3: Mediante el pilar de capacidades avanzadas del Programa Europa Digital, establecer y respaldar redes de universidades y centros de educación superior pioneros, a fin de atraer a los mejores académicos y científicos y de ofrecer programas de máster en IA que se sitúen a la vanguardia mundial.

Acción 4: La Comisión trabajará con los Estados miembros para garantizar que al menos un centro de innovación digital por Estado miembro cuente con un elevado nivel de especialización en inteligencia artificial. Los centros de innovación digital pueden contar con el respaldo del Programa Europa Digital. La Comisión y el Fondo Europeo de Inversiones pondrán en marcha un plan piloto de 100 millones EUR en el primer cuatrimestre de 2020 con el objetivo de ofrecer financiación mediante fondos propios para el desarrollo innovador de la inteligencia artificial. A la espera de un acuerdo definitivo sobre el marco financiero plurianual, la intención de la Comisión es incrementar significativamente estos importes de 2021 en adelante, a través de InvestEU.

Acción 5: En el marco de Horizonte Europa, la Comisión creará una nueva asociación público-privada en materia de inteligencia artificial, datos y robótica, a fin de aunar esfuerzos, garantizar la coordinación de la investigación y la innovación en inteligencia artificial, colaborar con otras asociaciones público-privadas de Horizonte Europa y trabajar conjuntamente con las instalaciones de ensayo y los centros de innovación digital ya mencionados.

Acción 6: La Comisión iniciará conversaciones por sector abiertas y transparentes, en las que dará prioridad a la atención sanitaria, las administraciones rurales y los operadores de servicios públicos, para presentar un plan de acción que facilite el desarrollo, la experimentación y la adopción de la inteligencia artificial. Las conversaciones por sector se emplearán para preparar un «Programa de adopción de la IA» específico que respaldará la contratación pública de sistemas de inteligencia artificial, y ayudará a transformar los propios procesos de esta contratación.

Ecosistema europeo de inteligencia artificial fiable

El segundo pilar esencial del ecosistema europeo de inteligencia artificial que señala el Libro Blanco es el de la inteligencia artificial fiable porque es necesario identificar “los elementos clave de un futuro marco normativo para la inteligencia artificial en Europa que generen un «ecosistema de confianza» exclusivo (…) Para hacerlo, este marco debe velar por el cumplimiento de las normas de la UE, especialmente las normas de protección de los derechos fundamentales y los derechos de los consumidores, y en concreto con relación a los sistemas de inteligencia artificial que operan en la UE y presentan un riesgo elevado”.

La construcción del ecosistema europeo de inteligencia artificial fiable debe programarse en tres grandes fases:

a) Primera fase: diagnóstico general de la nueva situación creada por la aplicación generalizada de sistemas de IA

Hay que partir de un diagnóstico de situación general que nos dice que “como sucede con toda nueva tecnología, el uso de la IA presenta tanto oportunidades como amenazas. Los ciudadanos temen quedarse indefensos a la hora de proteger sus derechos y su seguridad frente a los desequilibrios informativos de la toma de decisiones mediante algoritmos, y las empresas sienten inquietud debido a la inseguridad jurídica. Si bien la inteligencia artificial puede ayudar a proteger la seguridad de los ciudadanos y permitirles gozar de sus derechos fundamentales, a estos también les preocupa el hecho de que la IA pueda tener efectos imprevistos o incluso que pueda utilizarse con fines malintencionados. Es preciso tener en cuenta esos recelos. Además, a la falta de inversión y de habilidades, es preciso añadir la falta de confianza como uno de los principales obstáculos para una adopción más amplia de la IA.»

b) Segunda fase: identificación de los riegos típicos que genera la aplicación generalizada de sistemas de IA

La fase siguiente en el proceso de construcción del ecosistema europeo de inteligencia artificial fiable debe precisar los riegos típicos que genera la IA. Y en este punto, el Libro Blanco identifica dos tipos de riesgos que son:

b.1) Riesgos para los derechos fundamentales, especialmente la protección de los datos personales y de la privacidad y la no discriminación porque “el uso de la inteligencia artificial puede afectar a los valores sobre los que se fundamenta la UE y provocar la conculcación de derechos fundamentales, como la libertad de expresión, la libertad de reunión, la dignidad humana, la ausencia de discriminación por razón de sexo, raza u origen étnico, religión o credo, discapacidad, edad u orientación sexual, y, en su aplicación en determinados ámbitos, la protección de los datos personales y de la vida privada, el derecho a una tutela judicial efectiva y a un juicio justo, o la protección de los consumidores. Estos riesgos pueden ser resultado de defectos en el diseño general de los sistemas de IA (especialmente en lo que se refiere a la supervisión humana) o del uso de datos que puedan ser sesgados sin una corrección previa (por ejemplo, se entrena un sistema utilizando única o principalmente datos relativos a hombres, y ello se traduce en resultados peores con relación a las mujeres)”.

b.2) Riesgos para la seguridad y el funcionamiento eficaz del régimen de responsabilidad civil ya que “las tecnologías de IA pueden presentar nuevos riesgos de seguridad para los usuarios cuando estén integradas en productos y servicios. Por ejemplo, como resultado de un defecto en la tecnología de reconocimiento de objetos, un vehículo autónomo puede detectar erróneamente un objeto en la carretera y causar un accidente que provoque heridos y daños materiales. Como sucede con los riesgos para los derechos fundamentales, estos riesgos pueden proceder de defectos en el diseño de la tecnología de IA, estar relacionados con problemas de disponibilidad o calidad de los datos, u otros derivados del aprendizaje de las máquinas. Aunque algunos de estos riegos no se limitan a los productos o servicios que dependen de la IA, el uso de esta última puede aumentar o agravar los riesgos. Además de los riesgos a los que se enfrentan estas personas, la falta de disposiciones claras en materia de seguridad para abordarlos puede crear inseguridad jurídica entre las empresas que comercializan productos que utilicen IA en la UE. Las autoridades encargadas de supervisar el mercado o de ejecutar las normas pueden encontrarse en una situación en la que les resulte confuso cómo intervenir, puesto que tal vez no estén facultadas para tomar medidas o no cuenten con la capacidades técnicas adecuadas para examinar los sistemas. Por consiguiente, la inseguridad jurídica puede reducir los niveles globales de seguridad y minar la competitividad de las empresas europeas”.

c) Tercera fase: identificación de las soluciones adecuadas para la regulación y supervisión públicas de la aplicación generalizada de sistemas de IA

Esta tercera fase en el proceso de construcción del ecosistema europeo de inteligencia artificial fiable responde al hecho de que, “si los riesgos de seguridad se materializan, la falta de requisitos claros y las características de las tecnologías de IA mencionadas anteriormente pueden complicar la trazabilidad de las decisiones potencialmente problemáticas que se hayan tomado con ayuda de sistemas de IA. A su vez, esto puede dificultar a las personas damnificadas recibir compensaciones en el marco de la normativa en materia de responsabilidad civil en vigor en la UE y los distintos países”.

Por ello, el Libro Blando señala que “generar un ecosistema de confianza constituye un objetivo político en sí mismo, y debe ofrecer seguridad a los ciudadanos para que adopten las aplicaciones de la inteligencia artificial y seguridad jurídica a las empresas y organismos públicos para que innoven usando esta última”. Para ello, la Comisión considera que conviene mejorar el marco normativo para abordar los riesgos y situaciones siguientes:

c.1) La aplicación y ejecución efectivas de la legislación nacional y de la UE en vigor porque “las características fundamentales de la IA entrañan dificultades para garantizar la correcta aplicación y ejecución de la legislación nacional y de la UE. La falta de transparencia (opacidad de la IA) hace difícil detectar y demostrar los posibles incumplimientos de la legislación, especialmente las disposiciones legales que protegen los derechos fundamentales, imputan responsabilidades y permiten reclamar una indemnización”.

c.2) Limitaciones del ámbito de aplicación de la legislación existente de la UE porque “uno de los centros de interés fundamentales de la legislación sobre seguridad de los productos en la UE lo constituye la comercialización de los productos. Aunque, en la legislación de la UE en materia de seguridad de los productos, los programas informáticos que forman parte de un producto final deben respetar las normas de seguridad del producto pertinentes, existe la duda de si un programa autónomo se rige por la legislación de seguridad de los productos de la UE, salvo en aquellos sectores que cuentan con normas explícitas. La legislación general de la UE en materia de seguridad en vigor resulta de aplicación a los productos y no a los servicios, y, por consiguiente, a priori no se aplica tampoco a los servicios basados en las tecnologías de IA (como servicios sanitarios, financieros o de transporte)”.

c.3) Cambios en la funcionalidad de los sistemas de IA puesto que “la incorporación de programas informáticos, incluida la IA, en los productos puede modificar el funcionamiento de tales productos y sistemas a lo largo de su ciclo de vida. Ello resulta particularmente cierto en el caso de los sistemas que requieren actualizaciones informáticas frecuentes o que se basan en el aprendizaje automático. Estas características pueden dar lugar a nuevos riesgos que no existían en el momento en que se introdujo el sistema en el mercado. Estos riesgos no se abordan adecuadamente en la legislación en vigor, que se centra sobre todo en los riesgos de seguridad en el momento de la comercialización”.

c.4) Incertidumbre en lo que se refiere a la imputación de responsabilidades entre los distintos agentes económicos de la cadena de suministro ya que “en general, la legislación de la UE sobre la seguridad de los productos imputa la responsabilidad al productor del producto comercializado incluidos todos sus componentes, como los sistemas de IA. Sin embargo, estas normas pueden resultar poco claras cuando la IA es incorporada al producto, una vez que este se ha comercializado, por alguien que no es el productor. Además, la legislación de la UE sobre la responsabilidad civil por los productos regula la responsabilidad de los productores y deja que las normas nacionales en materia de responsabilidad civil se encarguen de los demás participantes en la cadena de suministro”.

c.5) Cambios en el concepto de seguridad puesto que “el uso de la IA en los productos y los servicios puede generar riesgos que la legislación de la UE no aborda de manera explícita en la actualidad. Estos riesgos pueden estar vinculados a ciberamenazas, a la seguridad personal (por ejemplo, con relación a nuevos usos de la IA, como en el caso de los aparatos domésticos), a la pérdida de conectividad, etc., y pueden existir en el momento de comercializar los productos o surgir como resultado de la actualización de los programas informáticos y del aprendizaje automático del producto cuando este último se está utilizando. La UE debe hacer un uso pleno de las herramientas que están a su disposición para reforzar su base empírica sobre los riesgos potenciales asociados a las aplicaciones de IA, y aprovechar especialmente la experiencia de la Agencia de Seguridad de las Redes y de la Información de la Unión Europea (ENISA) para evaluar el panorama de amenazas de la IA”.

Repercusiones específicas en materia de seguridad y responsabilidad civil de la inteligencia artificial

El “Informe sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica” adjunto al Libro Blanco analiza el marco jurídico pertinente y destacaba las incertidumbres sobre la aplicación de este marco con relación a los riesgos concretos que presentan los sistemas de IA y otras tecnologías digitales. En particular, este Informe -según refiere el Libro Blanco (pág.19) “llega a la conclusión de que la legislación vigente sobre seguridad de los productos ya recoge un concepto amplio de protección de la seguridad frente a todo tipo de riesgos derivados del producto en función de su uso. No obstante, cabe introducir disposiciones que aborden de manera explícita los nuevos riesgos derivados de las tecnologías digitales emergentes, a fin de ofrecer mayor seguridad jurídica” y señala: “las características de las tecnologías digitales emergentes, como la inteligencia artificial, el internet de las cosas y la robótica, pueden poner en cuestión algunos elementos de los marcos de responsabilidad civil y reducir su eficacia. Algunas de estas características podrían dificultar la trazabilidad de los daños sufridos por una persona, lo que resultaría necesario en el caso de una demanda de responsabilidad civil subjetiva según la mayoría de las normas nacionales. Ello podría aumentar significativamente los costes para las víctimas, y haría más difícil exigir o demostrar la responsabilidad civil de los agentes que no sean los productores.

Nota bibliográfica: Para ilustrar nuestras reflexiones sobre los aspectos regulatorios de la IA, hemos venido dando cuenta de las novedades de la regulación de la IA tanto en el marco de la UE, con las Resoluciones del Parlamento Europeo de 20 de octubre de 2020 sobre la inteligencia artificial y la responsabilidad asociada (ver las entradas de los días 12 y 13 de noviembre, respectivamente, sobre la “Digitalización financiera: Los 7 principios regulatorios de una Inteligencia Artificial Ética (IAE) en la UE. Resolución del Parlamento Europeo de 20 de octubre de 2020 sobre los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas” y sobre la “Digitalización financiera: Los 3 principios regulatorios de una Inteligencia Artificial Responsable (IAR) en la UE. Resolución del Parlamento Europeo de 20 de octubre de 2020 sobre la responsabilidad civil en materia de inteligencia artificial”) como en nuestro país, con el documento denominado “Estrategia Española de I+D+I en Inteligencia Artificial del que tuvimos conocimiento hace unos días publicado por el Ministerio de Ciencia, Innovación y Universidades y datado en 2019 (ver al respecto la entrada del 09.12.2020 sobre “El desarrollo de la Inteligencia artificial en España: La “Estrategia española de I+D+I en inteligencia artificial” del Gobierno de España”)