En el DOUE del 21.4.2023 (págs. C 140/28 a 33) se publicó el Dictamen del Comité Económico y Social Europeo sobre la «Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA)» [COM(2022) 496 final — 2022/0303 (COD)] (2023/C 140/05) Ponente general: Wautier Robyns de Schneidauer. 575º Pleno del Comité Económico y Social Europeo, 14.12.2022 – 15.12.2022). La lectura de este documento nos invita a ofrecer a los lectores de este blog tres reflexiones sobre la responsabilidad civil derivada de la Inteligencia Artificial (el lector interesado en esta Propuesta de Directiva puede ver las entradas de este blog de los días 14 y 15 de diciembre de 2022 sobre “Inteligencia Artificial Responsable (IAR): la Propuesta de Directiva sobre responsabilidad en materia de IA de 28 de septiembre de 2022”).
A) El principio rector: La humanización de la IA
Dado que la IA se inserta dentro del Sistema Europeo Digital (SED) que se puede deducir de la Declaración Europea de 23 de enero de 2023 sobre los Derechos y Principios Digitales para la Década Digital (2023/C 23/01) (DEPDD); dado que esta DEPDD establece los principios y compromisos para lograr una inteligencia artificial ética, transparente, equitativa, neutral (o no invasiva) y segura; y dado que el axioma del SED es el humanismo digital (el lector interesado puede ver al respecto nuestro “Decálogo del Sistema Europeo Digital sobre la base de la declaración de las instituciones de la UE de 23 de enero de 2023 sobre los derechos y principios digitales” publicado en el Diario La Ley, n.º 10230, Sección Tribuna, 16 de Febrero de 2023 y nuestro estudio “El Sistema Europeo Digital. La Declaración Europea de 23 de enero de 2023 sobre los Derechos y Principios Digitales”, publicado en La Ley Unión Europea, nº 112, marzo 2023), es razonable que el Dictamen del CESE sobre la Propuesta de Directiva sobre responsabilidad en materia de IA destaque, en su apartado 3, el objetivo de “garantizar la evolución tecnológica centrada en el ser humano” donde dice, entre otras cosas: “3.1. El CESE es consciente de los beneficios y los riesgos potenciales que entraña la IA. Su uso no debe limitarse a mejorar la productividad sustituyendo las tareas humanas y reduciendo los costes. Esta evolución exige que se preste atención a los riesgos relacionados con su impacto en la salud como consecuencia de la modificación de las condiciones de trabajo y los derechos, como la privacidad, y que se reconsidere el equilibrio entre la máquina y el hombre en el lugar de trabajo, ya que debe prevalecer el control humano, teniendo debidamente en cuenta la posible persistencia de prejuicios y sesgos humanos en el funcionamiento de las máquinas. La responsabilidad del diseño inicial y la responsabilidad última por sus posibles fallos deben seguir recayendo en los agentes humanos, tal como reconoce el grupo de expertos de alto nivel sobre inteligencia artificial en sus directrices éticas. Muchas otras evoluciones están menos documentadas en la actualidad, como el impacto medioambiental de las nanotecnologías. El CESE considera que tanto los operadores de IA como otras partes interesadas, por ejemplo, los consultores de gestión de riesgos y las aseguradoras, así como las autoridades públicas y los representantes de los trabajadores, deberían supervisar el impacto potencial a través de análisis de riesgos, auditorías y la ingeniería de seguridad mediante la realización de pruebas en un entorno similar al del mundo real. Como ya señaló en su Dictamen anterior (2), el CESE acogería favorablemente el establecimiento de procedimientos de certificación que garanticen la seguridad y la adecuación a los intereses de las personas”.
B) El objetivo: La protección de la víctima. El seguro de responsabilidad civil
El Dictamen del CESE sobre la Propuesta de Directiva sobre responsabilidad en materia de IA, en su apartado 1 de “conclusiones y recomendaciones” incide en este objetivo esencial de la protección de la víctima diciendo, entre otras cosas: “1.4.El CESE reconoce la interacción entre las normas de prevención y seguridad, por una parte, y las oportunidades de resarcimiento, por otra, además de la función supervisora de las autoridades públicas, con el fin de garantizar el cumplimiento de las normas nacionales y de la Unión sobre el desarrollo responsable de la IA. Pide la creación de una red de órganos alternativos de resolución de litigios para que sea más fácil para las víctimas ejercer sus derechos y recabar más pruebas acerca de los efectos de la Directiva”.
El Dictamen del CESE sobre la Propuesta de Directiva sobre responsabilidad en materia de IA, vuelve a incidir en este objetivo esencial de la protección de la víctima cuando, en su apartado 7 -titulado “Apoyar la competitividad de los avances europeos en materia de IA”– se refiere al principal mecanismo de tutela preventiva de las víctimas potenciales de los fallos de la IA, cual es el seguro de responsabilidad civil diciendo: “7.2.La propuesta de Directiva sobre responsabilidad civil en materia de IA no prevé en esta fase un seguro obligatorio para las aplicaciones de IA. Habida cuenta de que las aplicaciones de IA siguen en pleno desarrollo, en particular los sistemas más complejos, sería difícil, debido a la falta de experiencia adquirida con anterioridad, establecer métodos de calificación que fueran razonablemente fiables para ser representativos de futuros daños y demandas, sobre todo en lo que se refiere al hecho de que la aparición de daños y demandas podría estar interconectada y provocar la reproducción de fallos y, por consiguiente, un aumento de la gravedad de los incidentes y la acumulación de pérdidas, mientras que la capacidad de las empresas de seguros (o reaseguros) es actualmente limitada. Por consiguiente, el CESE entiende la decisión de la Comisión de no seguir planteándose la cuestión de saber para qué actividades y en qué medida deberían introducirse en esta fase un seguro obligatorio u otras garantías financieras, pero pide a la Comisión que siga de cerca la disponibilidad y el alcance de los seguros. Es necesario un mecanismo de seguimiento que proporcione información sobre incidentes relacionados con sistemas de IA para evaluar si se necesitan medidas adicionales, como la introducción de un régimen de responsabilidad objetiva o un seguro obligatorio. 7.3.El CESE observa que algunos riesgos están sujetos a un seguro obligatorio u otras garantías financieras en virtud de la legislación nacional o de la Unión. Tal es el caso, particularmente, de la utilización de vehículos de motor, ámbito en el que se están desarrollando vehículos autónomos. En estos casos, en los que el seguro obligatorio cubre no solo el comportamiento del conductor o de los pasajeros, sino también las averías de los equipos, más concretamente en el modo de piloto automático, en la mayoría de los casos se garantiza la indemnización a las víctimas en virtud de la legislación y los contratos vigentes. Las compañías de seguros pueden, en su caso, reclamar el reembolso de sus gastos a los fabricantes. Esto debería reducir los costes para los automovilistas y desplazar el centro de gravedad económico de las líneas de seguros correspondientes de un mercado de empresa a consumidor hacia un modelo de empresa a empresa. El CESE considera, por lo tanto, que no es necesario adoptar nuevas medidas legislativas de carácter significativo en aquellos ámbitos en los que el seguro obligatorio ya existe o en los que está prevista su introducción a escala de la Unión. Sin embargo, el CESE seguirá de cerca las decisiones éticas sobre cuestiones como la prevención de colisiones y las hipótesis de gestión de accidentes”.
C) Los criterios técnicos: presunción de causalidad y facilidad probatoria
El Dictamen del CESE sobre la Propuesta de Directiva sobre responsabilidad en materia de IA, cuando en su epígrafe 2 ofrece una “síntesis de la propuesta” que incide especialmente en los dos criterios técnicos del nuevo sistema de responsabilidad por IA diciendo: “2.4.Al tiempo que vela por no poner en peligro ni echar a perder el progreso tecnológico en Europa, la Directiva introduce un marco jurídico armonizado que tiene en cuenta la complejidad de los sistemas de IA desde el laboratorio hasta el mercado y simplifica el proceso jurídico para las víctimas de daños causados por sistemas de IA a través de dos innovaciones jurídicas principales que satisfacen las necesidades existentes: (…) en primer lugar, cuando se ha demostrado un incumplimiento pertinente de (un deber de diligencia con arreglo a) la normativa nacional o de la Unión y parece bastante probable que exista un nexo causal con (el resultado producido por) el sistema de IA, una «presunción de causalidad» refutable responderá a las dificultades a las que se enfrentan las víctimas para tener que explicar de forma detallada cómo se ha causado el daño por una falta u omisión específica, lo que puede resultar especialmente difícil a la hora de intentar comprender sistemas de IA complejos. Se aplican disposiciones específicas a los proveedores de sistemas de IA de alto riesgo (véase el punto 4.1), a las personas que actúan en su nombre y a los usuarios. La propuesta reduce la gravedad de la presunción cuando el sistema de IA es utilizado por un usuario no profesional que no ha interferido en el funcionamiento del sistema de IA; (…) en segundo lugar, mientras que en lo que respecta a la responsabilidad por los productos es más fácil identificar a quién demandar, el entorno de IA es más complejo. Con la propuesta de Directiva, las víctimas dispondrán de más herramientas para solicitar resarcimiento jurídico, a través del derecho de acceso a las pruebas de las empresas y los proveedores, en los casos en que intervenga la IA de alto riesgo y cuando sea necesario obtener dichas pruebas, y en una medida proporcionada. Las víctimas podrán obtener una orden del órgano jurisdiccional que dé acceso a la información necesaria para determinar qué ha provocado el daño sufrido y a qué persona física o jurídica pueden demandar por dicho daño. Cuando se puede acceder fácilmente a las pruebas, la presunción ya no es aplicable, lo que constituye un verdadero incentivo para facilitar esta información. (…) A través de estas dos medidas, la propuesta de Directiva ayuda a las víctimas a obtener resarcimiento, individual o colectivamente (si procede), sin abolir el concepto de causalidad” (el lector interesado en estos aspectos puede ver la entrada de este blog del 15 de diciembre de 2022 sobre “Inteligencia Artificial Responsable (IAR): la Propuesta de Directiva sobre responsabilidad en materia de IA de 28 de septiembre de 2022”(2)”).
Un breve apunte final sobre un futuro inquietante
No nos resistimos a poner punto final a esta entrada sin referirnos a una noticia ilustrativa de los riesgos y daños potenciales que puede ocasionar la IA y la consiguiente necesidad de regular la responsabilidad civil derivada. La noticia suscrita por Zoe Kleinman & Chris Vallance se publicó por la BBC en 2 de mayo de 2023 y se titula: “AI ‘godfather’ Geoffrey Hinton warns of dangers as he quits Google” (El ‘padrino’ de la IA, Geoffrey Hinton, advierte de los peligros cuando abandona Google”). En ella se da cuenta de que Geoffrey Hinton, a los 75 años de edad y una persona ampliamente reconocida como el padrino de la inteligencia artificial (IA) renunciaba a su trabajo en a Google advirtiendo, en un comunicado al New York Times, sobre los crecientes peligros de los desarrollos en el campo. En concreto indicó que había llegado a la conclusión de que el tipo de inteligencia artificial que estamos desarrollando es muy diferente de la inteligencia humana añadiendo: «Somos sistemas biológicos y estos son sistemas digitales. Y la gran diferencia es que con los sistemas digitales, tienes muchas copias del mismo conjunto de medidas, el mismo modelo del mundo. Y todas estas copias pueden aprender por separado pero compartir su conocimiento al instante. Así que es como si tuviera 10,000 personas y cada vez que una persona aprendiera algo, todos lo supieran automáticamente. Y así es como estos chatbots pueden saber mucho más que cualquier persona».
De lo anterior se deduce en la noticia referida -y aquí es donde entronca con la necesidad de regular específicamente la responsabilidad civil derivada de la IA- que resulta imprescindible un “enfoque responsable” de la IA porque “es importante recordar que los chatbots de IA son solo un aspecto de la inteligencia artificial, incluso si son los más populares en este momento. AI está detrás de los algoritmos que dictan qué plataformas de transmisión de video deciden que debe ver a continuación. Puede ser utilizado en el reclutamiento para filtrar solicitudes de empleo, por parte de las aseguradoras para calcular las primas, puede diagnosticar condiciones médicas (aunque los médicos humanos aún tienen la última palabra). Sin embargo, lo que estamos viendo ahora es el surgimiento de AGI (inteligencia general artificial), que puede ser entrenada para hacer una serie de cosas dentro de un mandato. Entonces, por ejemplo, ChatGPT solo puede ofrecer respuestas de texto a una consulta, pero las posibilidades dentro de eso, como estamos viendo, son infinitas. Pero el ritmo de aceleración de la IA ha sorprendido incluso a sus creadores. Ha evolucionado dramáticamente desde que el Dr. Hinton construyó una red neuronal de análisis de imágenes pionera en 2012. Incluso el jefe de Google, Sundar Pichai, dijo en una entrevista reciente que ni siquiera él entendía completamente todo lo que hacía Bard, su chatbot de IA. No se equivoquen, estamos en un tren de alta velocidad en este momento, y la preocupación es que algún día comenzará a construir sus propias vías”.