En la entrada de este blog del pasado martes día 17 de los corrientes anunciábamos que, en la webinar de la Escuela de Práctica Jurídica del 18 de enero de 2023, desarrollaríamos la ponencia sobre “La responsabilidad civil derivada de la inteligencia artificial” planteando un caso paradigmático de demanda de reclamación de indemnización por la responsabilidad civil derivada del mal funcionamiento de un implante cerebral capaz de convertir los pensamientos en texto, con la ayuda de un algoritmo.
Anunciábamos también que se trataría de un supuesto de hecho verosímil ya que estaría compuesto por elementos sacados de la realidad más reciente y que plantearíamos su resolución sobre la base de las herramientas que nos brinda la Propuesta de Directiva sobre responsabilidad en materia de IA de 28 de septiembre de 2022 (a la que nos referimos en las entradas de este blog publicadas los pasados días 14 y 15 de diciembre de 2022 sobre la “Inteligencia Artificial Responsable (IAR): la Propuesta de Directiva sobre responsabilidad en materia de IA de 28 de septiembre de 2022”).
Pues bien, como afortunadamente sucede, porque la alternativa sería sumamente ingrata para quien les habla; el día llego y nosotros desarrollamos la ponencia. Por lo tanto, siguiendo nuestra costumbre de cumplir la palabra dada -hábito del todo pintoresco en los tiempos que corren- ofrecemos una síntesis de nuestra intervención, que estructuro en tres apartados.
A) EL CASO: los daños derivados del mal funcionamiento de un implante cerebral empleado por un banco para optimizar la gestión de las carteras de valores de sus clientes
La empresa XLINK, S.A., domiciliada en Madrid desarrolla un implante cerebral que, gracias a un interfaz cerebro-ordenador, convierte los pensamientos del sujeto en mensajes de texto gestionables por un sistema de inteligencia artificial con la ayuda de un algoritmo desarrollado por la empresa ALGORYTHYMS, con sede en un Estado exterior a la UE.
La empresa XLINK, S.A. vende 50 dispositivos a TECNO BANCO ZZZ, , entidad de crédito con domicilio en Luxemburgo; que lo implanta entre los 50 empleados que se ocupan de operaciones de banca privada para gestionar las carteras de clientes, especialmente integradas por seguros de vida vinculados a cestas de activos financieros (unit-link).
Un defecto de diseño del interfaz localizado en el algoritmo incorporado al un implante cerebral procesa de forma errónea las ordenes cerebrales de venta de valores primarios y de derivados (futuros y opciones) (órdenes de entrada en el sistema de IA) en órdenes de compra de esos mismos valores y derivados; insertando las órdenes erróneas inversas de los gestores, en cuestión de nanosegundos, en el sistema de contratos inteligentes o autoejecutables (“smart contracts”) diseñado para aprovechar de manera óptima la evolución de las cotizaciones en los mercados.
Los errores ocasionan daños en las carteras gestionadas por importe de 500 millones de euros que TECNO BANCO ZZZ se ve obligado a indemnizar a sus clientes da banca privada.
B) LA DEMANDA de reclamación de indemnización por la responsabilidad civil derivada del mal funcionamiento del sistema de IA
Por lo anterior, TECNO BANCO ZZZ interpone una demanda de reclamación de cantidad contra la empresa XLINK, S.A. ante un juzgado de primera instancia de Madrid por responsabilidad civil contractual ex art.1011 del Código Civil, reclamándole una indemnización de 500 millones de euros, más los intereses legales, así como las costas procesales.
En torno a este supuesto, planteamos las siguientes cuestiones:
B.1) Cuestiones PROCESALES
B.1.1) Legitimación activa
En el caso planteado, la legitimación activa correspondería a TECNO BANCO ZZZ que ejercitaría la acción indemnizatoria directa por daños en su patrimonio a resultas de la responsabilidad civil contractual ex art.1101 del Código.
En general, procede advertir que la Directiva (art.2.6), establece que las demandas por daños y perjuicios pueden ser interpuestas por tres tipos de demandantes:
a) Los perjudicados.
b) Las personas que lo hayan sucedido o se hayan subrogado en sus derechos.
c) Las personas físicas o jurídicas que actúen en nombre de uno o varios perjudicados, de conformidad con el Derecho de la Unión o nacional. Esta posibilidad abrirá oportunidades interesantes para reconocer la legitimación de asociaciones de consumidores o para plantear las denominadas “class actions” (v.art. 13 y ss. LEC).
B.1.2) Legitimación pasiva
En el caso planteado, la legitimación pasiva correspondería a la empresa XLINK, S.A. quien podría intentar oponer una excepción de litisconsorcio pasivo necesario para que fuera codemandada la empresa ALGORYTHYMS, como responsable última del fallo algorítmico que generó el daño reclamado.
En términos generales, procede advertir que la Directiva parte de una característica intrínseca de los sistemas de IA que podríamos denominar su “multipersonalidad” ya que -tal y como recoge el considerando (17) de la Directiva- “el gran número de personas que suele participar en el diseño, el desarrollo, la introducción generalizada y el funcionamiento de sistemas de IA de alto riesgo hace difícil que los perjudicados identifiquen a la persona potencialmente responsable de los daños causados y demuestren que se cumplen las condiciones para interponer una demanda por daños y perjuicios”.
Por lo anterior, la Directiva distingue -en su art.4- varias hipótesis de demandas aplicando de forma combinada los criterios del sujeto demandado (proveedor o usuario) y del tipo de sistema de IA que provea o use (sistema de IA de alto riesgo o sistema de IA de riesgo normal), siguiendo, en todo caso, las disposiciones respectivas y las condiciones pertinentes de la Ley de IA. De tal manera que encontramos reglas de prueba diferentes para los siguientes tipos de demandas:
a) Demandas interpuestas contra el proveedor de un sistema de IA de alto riesgo o contra una persona sujeta a las obligaciones del proveedor en virtud de la Ley de IA (art.4.2).
b) Demandas interpuestas contra el usuario de un sistema de IA de alto riesgo (art.4.3).
c) Demandas relacionadas con sistemas de IA de riesgo no elevado. En este caso, la Directiva (art.4.5.
d) Demandas interpuestas contra el usuario de un sistema de IA en el transcurso de una actividad personal y no profesional (art.4.6).
B.1.3) Prueba
En el caso planteado, los letrados de TECNO BANCO ZZZ previsiblemente articularían una prueba documental (contrato de compra de los dispositivos a XLINK, S.A. con sus respectivas garantías de funcionamiento); pruebas personales (interrogatorio del legal representante de XLINK, S.A y testificales de los clientes de banca privada perjudicados); y pruebas periciales (dictamen de un experto en IA que elaborara un informe sobre la inversión de las ordenes de compra en órdenes de venta y de un financiero que acreditara los daños sufridos a resultas de aquella inversiones de órdenes. Conviene añadir que XLINK, S.A. podría intentar oponer una excepción de litisconsorcio pasivo necesario para que fuera codemandada la empresa ALGORYTHYMS, como responsable última del fallo algorítmico que generó el daño reclamado.
En general, esta última posibilidad nos pone sobre la pista de un aspecto especialmente tomado en consideración por la Propuesta de Directiva, cual es la “multipersonalidad” habitual en el diseño, el desarrollo, la introducción generalizada y el funcionamiento de los sistemas de IA. Por ello y “para que los perjudicados puedan determinar si una demanda por daños y perjuicios es fundada” -tal y como recoge el considerando (17) de la Directiva- “conviene conceder a los demandantes potenciales el derecho a solicitar a un órgano jurisdiccional que ordene la exhibición de las pruebas pertinentes antes de presentar una demanda por daños y perjuicios”. En este punto, interesa recordar que nuestra LEC regula las diligencias preliminares preparatorias del eventual juicio en el art.256 y ss.
Dejamos al margen cuestiones del fuero competente, del procedimiento adecuado en función de la cuantía y otras cuestiones procesales semejantes.
B.2) Cuestiones MATERIALES
Comenzamos esta parte de nuestra exposiciónadvirtiendo que, dado que la acción indemnizatoria por daños en su patrimonio se ejercitaría por TECNO BANCO ZZZ contra la empresa XLINK, S.A., por incumplimiento culpable del contrato de venta de los 50 dispositivos basados en la IA, y por ello sería una acción de responsabilidad civil contractual ex art.1011 del Código Civil; quedaría al margen, en sentido estricto de la futura Directiva que se aplicará a las demandas civiles de responsabilidad extracontractual (es art.1902 de nuestro Código Civil) por daños y perjuicios causados por un sistema de IA.
En todo caso, interesa plantear, la viabilidad de la demanda de TECNO BANCO ZZZ contra XLINK, S.A. a la luz de la acreditación por la parte actora de la concurrencia de triángulo de requisitos clásicos: el acto negligente, el daño causado y la relación de causalidad eficiente entra ambos.
B.2.1) Acto negligente
En el caso planteado, TECNO BANCO ZZZ debería demostrar el incumplimiento por XLINK, S.A. de una obligación del contrato de venta de los 50 dispositivos basados en la IA que le fuera imputable a título de culpa. La conducta de la demandada entraría dentro de la noción de daño causado por una información de salida de un sistema de IA, que serían las órdenes erróneas de compra de valores primarios y de derivados (futuros y opciones) en vez de las ordenes correctas de venta en de esos mismos valores y derivados.
En este punto, conviene recordar que la Directiva pretende proporcionar un fundamento eficaz para reclamar una indemnización en relación con la culpa consistente en el incumplimiento de un deber de diligencia en virtud del Derecho de la Unión o nacional. Es por ello por lo que define (art.2.9) el «deber de diligencia» como el producto de una “norma de conducta exigida establecida por el Derecho nacional o de la Unión con el fin de evitar daños a bienes jurídicos reconocidos a nivel nacional o de la Unión, incluidos la vida, la integridad física, la propiedad y la protección de los derechos fundamentales”. En este sentido, TECNO BANCO ZZZ debería demostrar la culpa de XLINK, S.A. con arreglo a las normas nacionales (en este caso, el art.1089 y ss. del Código Civil) o de la Unión aplicables.
B.2.2) Daño Causado
Este es un requisito esencial de toda acción de reclamación de responsabilidad civil implícito en la Directiva que no entra a explicarlo o definirlo. De lo que podemos inferir que deja a los Derechos nacionales el determinar el alcance del daño resarcible, abarcando el daño emergente -que puede ser estrictamente económico o moral- y el lucro cesante. La Propuesta de Directiva (art.2.5) define la “demanda por daños y perjuicios” como “una demanda de responsabilidad civil extracontractual subjetiva (basada en la culpa) por la que se solicita una indemnización por los daños y perjuicios causados por una información de salida de un sistema de IA o por la no producción por parte de dicho sistema de una información de salida que debería haber producido”.
En el caso planteado, TECNO BANCO ZZZ estaría reclamando a XLINK, S.A. el daño emergente en su patrimonio derivado de las indemnizaciones a sus clientes para indemnizarles de las pérdidas sufridas en sus carteras causados por las informaciones de salida erróneas de un sistema de IA, que serían las órdenes erróneas de compra de valores primarios y de derivados (futuros y opciones) en vez de las ordenes correctas de venta en de esos mismos valores y derivados.
B.2.3) Relación de causalidad eficiente
Una de las “claves de arco” del nuevo sistema de RC por IA reside en la presunción de relación de causalidad en caso de culpa que establece el artículo 4 de la Directiva que toma en consideración la dificultad para los demandantes de la prueba de un nexo causal entre el incumplimiento y la información de salida producida por el sistema de IA -o la no producción de una información de salida- que haya dado lugar a los daños en cuestión. Para remediar esta dificultad probatoria, la Directiva (art.4.1) establece una presunción refutable (“iuris tantum”) de causalidad específica en relación con este nexo causal. Esta presunción es la medida menos gravosa para dar respuesta a la necesidad de una indemnización justa para la víctima. Conviene insistir en que -según hemos indicado- se trata, en todo caso, de una presunción “iuris tantum” que admite prueba en contrario porque la Directiva establece (art.4.7) que el demandado tiene derecho a refutar la presunción de causalidad.
C) BREVE REFLEXIÓN FINAL: sobre el equilibrio entre los beneficios y los riesgos de la inteligencia artificial y la necesaria articulación de la responsabilidad de sus operadores
En la turbamulta de la IA se produce, con frecuencia, que -como dicen que decía Confucio- el fenómeno frecuente de que “el que sabe, no habla y el que habla, no sabe”. Para evitar esta “confusión de confusiones” (Joseph de la Vega dixit) nos pareció oportuno ofrecer a los asistentes las tres reflexiones finales siguientes:
a) Es necesario precisar, en el lenguaje jurídico, la noción común de la inteligencia artificial que el DRAE define como “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”; por una noción más próxima a la cibernética de la información (recordemos que el mismo DRAE define como “ciencia que estudia las analogías entre los sistemas de control y comunicación de los seres vivos y los de las máquinas”) en línea con la definición de “sistema de inteligencia artificial (sistema de IA)” del art.3.1 de le Ley Europea de IA como “el software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa”. (Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (ley de inteligencia artificial) y se modifican determinados actos legislativos de la unión, Bruselas, 21.4.2021, COM(2021) 206 final, 2021/0106 (COD), {SEC(2021) 167 final} – {SWD(2021) 84 final} – {SWD(2021) 85 final}.
b) Es necesario evaluar de manera constante el equilibrio de los efectos sociológicos de la IA en forma de análisis conste/beneficio como así lo refleja desde un principio de Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA) cuando, en sus dos primeros considerandos contempla la bivalencia de la IA cuando se refiere a:
b.1) Sus indudables beneficios, diciendo: “(1) La inteligencia artificial («IA») es un conjunto de tecnologías facilitadoras que puede aportar una amplia gama de beneficios en todo el espectro de la economía y la sociedad. Alberga un gran potencial para el progreso tecnológico y permite nuevos modelos de negocio en muchos sectores de la economía digital”.
b.2) Sus inequívocos riesgos diciendo: “(2) Al mismo tiempo, dependiendo de las circunstancias de su aplicación y uso específicos, la IA puede generar riesgos y perjudicar intereses y derechos protegidos por el Derecho de la Unión o nacional. Por ejemplo, el uso de la IA puede incidir negativamente en una serie de derechos fundamentales, como la vida, la integridad física, la no discriminación y la igualdad de trato”.
c) Es necesario prevenir que la IA se convierta en un instrumento de manipulación de la opinión pública partiendo del hecho acreditado de que la opinión pública es -en términos psicológicos- una masa desestructurada que “no reacciona sino a estímulos muy intensos” y que “para influir sobre ella es inútil argumentar lógicamente” (Sigmund Freud, “Psicología de las masas”, Alianza Editorial, Madrid 2022, p.19). Esta última implicación tiene repercusiones jurídicas evidentes en materia de imputabilidad y culpabilidad, de las que no nos podemos ocupar con el necesario detenimiento por razones de espacio y de tiempo.
Por último, nos permitimos insistir en nuestra recomendación de la lectura del número 100 correspondiente a los meses de septiembre y octubre de 2022 sobre “inteligencia Artificial y Derecho” de la revista El Cronista del Estado Social y Democrático de Derecho y, en particular, su prólogo, pp. 5 a 13, a cargo del Profesor Santiago Muñoz Machado.