En la entrada de esta blog del día de ayer dimos cuenta de la finalidad, el alcance, el contexto normativo y los aspectos sustanciales de la responsabilidad en materia de IA que regulará la Directiva sobre responsabilidad en materia de IA publicada por la Comisión Europea en forma de Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial el día 28 de septiembre de 2022, (Directiva sobre responsabilidad en materia de IA) (Bruselas, 28.9.2022, COM(2022) 496 final, 2022/0303 (COD), Texto pertinente a efectos del EEE, SEC(2022) 344 final} – {SWD(2022) 318 final} – {SWD(2022) 319 final} -{SWD(2022) 320 final}. Ahora, según anunciamos, procede dar cuenta sintética de sus aspectos procesales.
D) Aspectos procesales
a) Legitimación activa
La Directiva (art.2.6), establece que las demandas por daños y perjuicios pueden ser interpuestas por tres tipos de demandantes:
a.1) Los perjudicados quienes serán las personas físicas o jurídicas que “se ha visto perjudicada por la información de salida de un sistema de IA o por la no producción por parte de dicho sistema de una información de salida que debería haber producido”.
a.2) Las personas que lo hayan sucedido o se hayan subrogado en sus derechos. Dado que la subrogación es la asunción por un tercero (como una compañía de seguros ex art.43 de nuestra LCS) del crédito de otra parte a cobrar una deuda o una indemnización por daños y perjuicios; se amplía la legitimación activa para permitir que una persona tiene derecho a hacer valer los derechos de otra en beneficio propio. La subrogación también abarcaría a los herederos de una víctima fallecida.
a.3) Las personas físicas o jurídicas que actúen en nombre de uno o varios perjudicados, de conformidad con el Derecho de la Unión o nacional. Esta posibilidad de que interponga una demanda por daños y perjuicios una persona que actúe en nombre de una o varias partes perjudicadas, tiene por objeto brindar más posibilidades a las personas perjudicadas por un sistema de IA de que un tribunal conozca de su demanda, incluido en aquellos casos en interponer una demanda individual pueda parecer demasiado costoso o engorroso, o cuando una demanda conjunta pueda conllevar beneficios de escala. Para que las víctimas de daños causados por sistemas de IA puedan hacer valer sus derechos en relación con la Directiva sobre RC por IA mediante acciones de representación, su artículo 6 modificará el anexo I de la Directiva (UE) 2020/1828.
b) Legitimación pasiva
La Directiva parte de una característica intrínseca de los sistemas de IA que podríamos denominar su “multipersonalidad” ya que -tal y como recoge el considerando (17) de la Directiva- “el gran número de personas que suele participar en el diseño, el desarrollo, la introducción generalizada y el funcionamiento de sistemas de IA de alto riesgo hace difícil que los perjudicados identifiquen a la persona potencialmente responsable de los daños causados y demuestren que se cumplen las condiciones para interponer una demanda por daños y perjuicios”.
Por lo anterior, la Directiva distingue -en su art.4- varias hipótesis de demandas aplicando de forma combinada los criterios del sujeto demandado (proveedor o usuario) y del tipo de sistema de IA que provea o use (sistema de IA de alto riesgo o sistema de IA de riesgo normal), siguiendo, en todo caso, las disposiciones respectivas y las condiciones pertinentes de la Ley de IA. De tal manera que encontramos reglas de prueba diferentes para los siguientes tipos de demandas:
b.1) Demandas interpuestas contra el proveedor de un sistema de IA de alto riesgo o contra una persona sujeta a las obligaciones del proveedor en virtud de la Ley de IA (art.4.2). En este caso, la Directiva (art.4.2) nos dice que el cumplimiento por parte de los demandados de sus obligaciones debe evaluarse a la luz del sistema de gestión de riesgos y sus resultados, es decir, las medidas de gestión de riesgos, con arreglo a la Ley de IA. En este sentido, es importante destacar que se establece una excepción a la presunción de causalidad cuando el demandado demuestre que el demandante puede acceder razonablemente a pruebas y conocimientos especializados suficientes para demostrar el nexo causal. Esta posibilidad se dirige a incentivar a los demandados a cumplir sus obligaciones de exhibición respecto de las medidas establecidas por la Ley de IA para garantizar un alto nivel de transparencia de la IA o los requisitos de documentación y registro.
b.2) Demandas interpuestas contra el usuario de un sistema de IA de alto riesgo. En este caso, la Directiva (art.4.3) el demandante deberá demostrar que dicho usuario “no cumplió con sus obligaciones de utilizar o supervisar el sistema de IA de conformidad con las instrucciones de uso adjuntas o, en su caso, de suspender o interrumpir su uso con arreglo al [artículo 29 de la Ley de IA]; o expuso al sistema de IA a datos de entrada bajo su control que no eran pertinentes habida cuenta de la finalidad prevista del sistema con arreglo al [artículo 29, apartado 3, de la Ley]”.
b.3) Demandas relacionadas con sistemas de IA de riesgo no elevado. En este caso, la Directiva (art.4.5) establece una condición para la aplicabilidad de la presunción de causalidad en virtud de la cual esta última está sujeta a que el órgano jurisdiccional determine que es excesivamente difícil para el demandante demostrar el nexo causal. Tales dificultades deben evaluarse a la luz de las características de determinados sistemas de IA, como la autonomía y la opacidad, que hacen muy difícil en la práctica la explicación del funcionamiento interno del sistema de IA, lo que afecta negativamente a la capacidad del demandante para demostrar el nexo causal entre la culpa del demandado y la información de salida de IA.
b.4) Demandas interpuestas contra el usuario de un sistema de IA en el transcurso de una actividad personal y no profesional, En este caso, la Directiva (art.4.6) establece que la presunción de causalidad solo debe aplicarse si el demandado ha interferido sustancialmente en las condiciones de funcionamiento del sistema de IA o si el demandado tenía la obligación y estaba en condiciones de determinar las condiciones de funcionamiento del sistema de IA y no lo hizo. Esta condición se justifica por la necesidad de ponderar los intereses de los perjudicados y de los usuarios no profesionales, eximiendo de la aplicación de la presunción de causalidad aquellos casos en que los usuarios no profesionales no incrementen el riesgo a través de su comportamiento.
c) Prueba: presunciones
A consecuencia de la señalada “multipersonalidad” habitual en el diseño, el desarrollo, la introducción generalizada y el funcionamiento de los sistemas de IA; “para que los perjudicados puedan determinar si una demanda por daños y perjuicios es fundada” -tal y como recoge el considerando (17) de la Directiva- “conviene conceder a los demandantes potenciales el derecho a solicitar a un órgano jurisdiccional que ordene la exhibición de las pruebas pertinentes antes de presentar una demanda por daños y perjuicios. Dicha exhibición solo debe ordenarse cuando el demandante potencial presente hechos e información suficientes para acreditar la viabilidad de una demanda por daños y perjuicios y haya presentado previamente una solicitud al proveedor, a la persona sujeta a las obligaciones de un proveedor o al usuario para que exhiba dichas pruebas que obran en su poder sobre sistemas de IA de alto riesgo específicos de los que se sospeche que han causado daños y perjuicios, y que esta solicitud haya sido denegada. La orden de exhibición debe llevar a una reducción de los litigios innecesarios y evitar costes a los posibles litigantes causados por demandas sin fundamento o con pocas posibilidades de prosperar. La negativa del proveedor, de la persona sujeta a las obligaciones de un proveedor o del usuario previa a la solicitud de exhibición de pruebas al órgano jurisdiccional no debe dar lugar a la presunción de incumplimiento de las obligaciones de diligencia pertinentes por parte de la persona que deniegue dicha exhibición”.
Por lo anterior y dado el alcance eminentemente procesal y, más en concreto, en materia de prueba de la Directiva; hay que comenzar recordando que la elección de instrumentos jurídicos adecuados es limitada, dada la combinación de dos factores que son: la naturaleza de la cuestión de la carga de la prueba y las características específicas de la IA. Ambos factores plantean un problema con respecto a las normas de responsabilidad existentes. A este respecto, la Directiva aligera la carga de la prueba de manera muy específica y proporcionada mediante el uso de la exhibición y las presunciones refutables (iuris tantum). Establece, para aquellos que soliciten una indemnización por daños y perjuicios, la posibilidad de obtener información sobre los sistemas de IA de alto riesgo que debe registrarse o documentarse de conformidad con la Ley de IA. Además, las presunciones refutables ofrecerán a quienes soliciten una indemnización por los daños causados por sistemas de IA una carga de la prueba más razonable y una oportunidad de que sus demandas de responsabilidad fundadas prosperen.
Por todo lo anterior, la Directiva pretende proporcionar a las personas que soliciten una indemnización por los daños causados por sistemas de IA de alto riesgo medios eficaces para determinar las personas potencialmente responsables y las pruebas pertinentes de cara a una demanda. Al mismo tiempo, estos medios sirven para excluir a posibles demandados determinados erróneamente, ahorrando tiempo y costes a las partes implicadas y reduciendo la carga de trabajo de los tribunales. A este respecto, la Directiva establece (art.3) que un órgano jurisdiccional puede ordenar la exhibición de pruebas pertinentes relativas a sistemas de IA de alto riesgo específicos de los que se sospeche que han causado daños.
Las solicitudes de pruebas se pueden dirigir al proveedor de un sistema de IA, a una persona sujeta a las obligaciones del proveedor establecidas en el artículo 24 o el artículo 28.1 de la Ley de IA, o a un usuario con arreglo a la Ley de IA. Pero no pueden dirigirse a partes que no estén sujetas a obligaciones en virtud de la Ley de IA y que, por tanto, no tengan acceso a las pruebas. En todo caso, dichas solicitudes deben estar respaldadas por hechos y pruebas suficientes para acreditar la viabilidad de la demanda por daños y perjuicios prevista y las pruebas solicitadas deben estar a disposición de los destinatarios. Además, el demandante solo puede solicitar la exhibición de pruebas a proveedores o usuarios que no sean demandados en caso de que se hayan realizado sin éxito todos los intentos proporcionados de obtener dichas pruebas del demandado.
El órgano jurisdiccional únicamente puede ordenar dicha exhibición en la medida necesaria para sustentar la demanda, dado que la información podría constituir una prueba fundamental para la demanda de la persona perjudicada en caso de daños en los que hayan mediado sistemas de IA. Al limitar la obligación de exhibición o conservación a las pruebas necesarias y proporcionadas, la Directiva (art.3.4) pretende garantizar la proporcionalidad en la exhibición de las pruebas, es decir, limitar la exhibición al mínimo necesario e impedir solicitudes genéricas. En este mismo sentido, la Directiva pretende lograr un equilibrio entre los derechos del demandante y la necesidad de garantizar que dicha exhibición esté sujeta a garantías que protejan los intereses legítimos de todas las partes interesadas, como los secretos comerciales o la información confidencial y garantizar que la persona sujeta a la orden de exhibición o conservación tenga remedios procesales a su disposición.
d) Referencia al impacto de la futura Directiva sobre responsabilidad en materia de IA sobre el Derecho español en materia de prueba y presunciones
Por último, tal y como anticipábamos en la entrada de ayer, la Comisión Europea advierte expresamente que las herramientas de “probática” que utiliza la Directiva y, especialmente, las presunciones de causalidad eficiente no son nuevas; sino que pueden encontrarse en los sistemas legislativos nacionales y, en consecuencia, estas herramientas nacionales constituyen puntos de referencia útiles sobre cómo abordar las cuestiones planteadas por la IA en relación con las normas de responsabilidad en vigor de manera que se interfiera lo menos posible en los diferentes regímenes jurídicos nacionales.
En este sentido, resulta recomendable -para no caer en el adanismo jurídico- contrastar las disposiciones de la futura Directiva con lo que establece el Derecho español respecto de las presunciones como medios de prueba en la Ley 1/2000, de 7 de enero, de Enjuiciamiento Civil.(LEC) cuando establece dos tipos de presunciones que con:
a) Las presunciones legales, diciendo en su artículo 385: “1. Las presunciones que la ley establece dispensan de la prueba del hecho presunto a la parte a la que este hecho favorezca. Tales presunciones sólo serán admisibles cuando la certeza del hecho indicio del que parte la presunción haya quedado establecida mediante admisión o prueba. 2. Cuando la ley establezca una presunción salvo prueba en contrario, ésta podrá dirigirse tanto a probar la inexistencia del hecho presunto como a demostrar que no existe, en el caso de que se trate, el enlace que ha de haber entre el hecho que se presume y el hecho probado o admitido que fundamenta la presunción. 3. Las presunciones establecidas por la ley admitirán la prueba en contrario, salvo en los casos en que aquélla expresamente lo prohíba”.
En este momento, debemos recordar que nuestro Código Civil esta plagado de presunciones sobre la buena fe en la posesión (art.434), la subrogación (art.1219), el fraude de acreedores en los contratos (art.1297), el mandato (art.1711), la culpa del depositario (art.1769.2ª), etc.
b) Las presunciones judiciales, diciendo en su artículo 386: “1. A partir de un hecho admitido o probado, el tribunal podrá presumir la certeza, a los efectos del proceso, de otro hecho, si entre el admitido o demostrado y el presunto existe un enlace preciso y directo según las reglas del criterio humano. La sentencia en la que se aplique el párrafo anterior deberá incluir el razonamiento en virtud del cual el tribunal ha establecido la presunción. 2. Frente a la posible formulación de una presunción judicial, el litigante perjudicado por ella siempre podrá practicar la prueba en contrario a que se refiere el apartado 2 del artículo anterior”.
Breve reflexión final sobre la “insoportable levedad del ser” de la inteligencia artificial: a propósito del anuncio de la Estrategia Nacional de Inteligencia Artificial y del Plan Nacional de Algoritmos Verdes
No queremos poner punto final a las reflexiones que hemos realizado sobre la inteligencia artificial responsable a propósito del comentario a la Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA) publicada el día 28 de septiembre de 2022 por la Comisión Europea sin llamar la atención sobre la posibilidad de que el entusiasmo indescriptible -regado generosamente con los fondos europeos destinados a una “nueva generación”- que esta despertando la Inteligencia artificial, sus herramientas básicas que son los algoritmos digitalizados y sus aplicaciones visibles que es, por ejemplo, el metaverso; nos conduzca a consecuencias indeseables socialmente en forma de daños en el universo real.
La mera lectura -por cualquier persona medianamente informada en materia de sostenibilidad e inteligencia artificial- de los términos del anuncio oficial de la Estrategia Nacional de Inteligencia Artificial y del Plan Nacional de Algoritmos Verdes aprobados por el Consejo de Ministros en su reunión del pasado martes, día 13 de diciembre (ver la referencia de la Secretaría de Estado de Comunicación al Consejo de Ministros de 13.12.2022, Asuntos Generales, Asuntos Económicos y Transformación Digital) nos debe poner en guardia sobre los riegos de este tipo de aproximaciones a la “insoportable levedad del ser” de la inteligencia artificial.
Nota bibliográfica: El lector interesado puede consultar las múltiples entradas de este blog relacionadas con la IA y, en particular, las de 17.05.2022 dedicada al “Congreso Internacional sobre “La inteligencia artificial en el Derecho de daños” organizado por el Departamento de Derecho Civil de la Universidad de Alicante los próximos días 23 y 24 de mayo de 2022. El seguro y la inteligencia artificial”. También puede consultar nuestros estudios sobre “La Responsabilidad Civil derivada del uso de la Inteligencia Artificial y su Aseguramiento” publicado en la Revista Ibero-Latinoamericana de Seguros, Vol. 30, Núm. 54, 2021, pp. 107-146; “La responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento” publicado en la Revista de la Asociación Española de Abogados Especializados en Responsabilidad Civil y Seguro n.º 76 (2020), pp. 79 a 104; “Decálogo de la inteligencia artificial ética y responsable en la Unión Europea”, publicado en La Ley Unión Europea n.º 87, Sección Doctrina, 23 pp…y en el Diario La Ley, 30 de diciembre de 2020; sobre “Digitalización financiera en la Unión Europea novedades regulatorias ciberresiliencia operativa, inteligencia artificial y criptoactivos”, publicado en La Ley Unión Europea, n.º 97, Sección Regulación, noviembre 2021 y en Diario La Ley de 30 de noviembre de 2021.Por último, recomendamos vivamente la lectura del número 100 correspondiente a los meses de septiembre y octubre de 2022 sobre “inteligencia Artificial y Derecho” de la revista El Cronista del Estado Social y Democrático de Derecho y, en particular, su prólogo, pp. 5 a 13, a cargo del Profesor Santiago Muñoz Machado).