En los últimos días los medios de comunicación nacionales e internacionales vienen dando cuenta de los eventuales problemas derivados del mal uso de la aplicación ChatGPT en materia de datos personales y de sesgos ideológicos. Los titulares son elocuentes y nos incitan a ofrecer a nuestros lectores las reflexiones siguientes sobre los sesgos y las responsabilidades derivadas de determinadas aplicaciones de la inteligencia artificial (materia a la que venimos prestando una especial atención en este blog y fuera de él); como es el caso de los chatbots que se definen habitualmente como funciones adicionales a una página web que permiten a sus usuarios interactuar manteniendo conversaciones o chats textuales y expresar sus dudas, sugerencias o solicitar algún tipo de información.
A) LAS NOTICIAS
En la prensa internacional, nos ha parecido particularmente interesante el artículo de Alex Swoyer publicado en “The Washington Times” el pasado jueves 13 de abril titulado “la Inteligencia Artificial se podría enfrentar a demandas por difamación y responsabilidad por productos defectuosos, advierten los académicos” (“AI could face lawsuits over defamation, product liability, scholars warn”) y en el que expone, entre otras cosas, que “los expertos legales advierten que la inteligencia artificial es acusada de citar erróneamente y difamar a las personas en línea y podría enfrentarse a un litigio como resultado de la información falsa que genera. Pero los académicos se dividieron sobre si los bots deberían ser demandados bajo la ley de difamación o la ley de responsabilidad del producto, dado que es una máquina, no una persona, que difunde información falsa e hiriente sobre las personas. “Definitivamente son aguas desconocidas”, dijo Catherine Sharkey, profesora de la Facultad de Derecho de la Universidad de Nueva York. “Tienes personas interactuando con máquinas. Eso es muy nuevo. ¿Cómo funciona la publicación en ese marco?”. En concreto, el artículo señala el caso de “Brian Hood, alcalde de un área al noroeste de Melbourne, Australia, amenaza con demandar a ChatGPT de OpenAI, quien informa falsamente que es culpable de un escándalo de soborno en el extranjero. Las acusaciones falsas supuestamente ocurrieron a principios de la década de 2000 con el Banco de la Reserva de Australia. Los abogados de Hood escribieron una carta a OpenAI, que creó ChatGPT, exigiendo que la empresa corrija los errores en un plazo de 28 días, según la agencia de noticias Reuters. Si no, planea demandar por lo que podría ser el primer caso de difamación contra la inteligencia artificial. El Sr. Hood no es el único que tiene una acusación falsa generada en su contra por ChatGPT”.
En la prensa nacional, el Diario español ABC ha titulado su información sobre la más famosa de las aplicaciones de inteligencia artificial ChatGPT diciendo: “España no es la única preocupada con CHATGPT: los planes para regular la inteligencia artificial. En la UE hay dudas sobre cómo encajar la plataforma en la normativa sobre inteligencia artificial propuesta en 2021, que sigue pendiente de aprobación”.
B) LAS RESPONSABILIDADES
Estas noticias -y otras muchas más que por su abundancia no podemos tan siquiera citar- nos incitan a volver sobre el tema al que hemos dedicado una especial atención en este blog y fuera de él (el lector interesado en profundizar en la materia utilizando los magníficos motores de búsqueda de la plataforma WordPress en la que estamos alojados) de la responsabilidad -civil, administrativa y criminal- derivada de la aplicación de la inteligencia artificial. Fijaremos nuestra atención en las eventuales responsabilidades administrativas y civiles que si vislumbran en el horizonte derivadas de casos de uso negligente de la aplicación ChatGPT en materia de datos personales y de sesgos ideológicos.
B.1) Eventuales responsabilidades administrativas derivadas de casos de uso negligente de la aplicación ChatGPT en materia de datos personales
En este primer aspecto, la prensa nacional (ABC de 14.04.2023) señalaba: “La Agencia de Protección de Datos investigará a OpenAI, propietaria de ChatGPT. El organismo considera que los tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de acciones armonizadas y coordinadas a nivel europeos”.
A estos efectos, nos parece suficiente recordar que:
a) Loa apartados 4, 5 y 6 del art.83 del Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) tipifican como infracciones sancionables el incumplimiento de las obligaciones del responsable y del encargado a tenor de los artículos 8, 11, 25 a 39, 42 y 43; de los organismos de certificación a tenor de los artículos 42 y 43; de la autoridad de control a tenor del artículo 41, apartado 4; de los principios básicos para el tratamiento, incluidas las condiciones para el consentimiento a tenor de los artículos 5, 6, 7 y 9; de los derechos de los interesados a tenor de los artículos 12 a 22; las transferencias de datos personales a un destinatario en un tercer país o una organización internacional a tenor de los artículos 44 a 49; etc.
b) El título IX (art.70 y ss.) de nuestra Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales establece el régimen sancionador comenzando por señalar, en su artículo 70, a los sujetos responsables cuando dice: “Están sujetos al régimen sancionador establecido en el Reglamento (UE) 2016/679 y en la presente ley orgánica: a) Los responsables de los tratamientos. b) Los encargados de los tratamientos. c) Los representantes de los responsables o encargados de los tratamientos no establecidos en el territorio de la Unión Europea. d) Las entidades de certificación y e) Las entidades acreditadas de supervisión de los códigos de conducta”.
B.2) Eventuales responsabilidades civiles derivadas de casos de uso negligente de la aplicación ChatGPT con sesgos raciales, sociales, de género o ideológicos
En este primer aspecto, la prensa nacional (ABC de 09.04.2023) señalaba algunos ejemplos del trato discriminatorio que -en forma de canciones de rap- daba la aplicación a políticos de distinto signo. Nos parece particularmente preocupante este aspecto de los sesgos ideológicos que -en materia racial, social, política o de género– pueden tener los diseños de los algoritmos que sustentan las aplicaciones de IA. En este sentido, nos parece imprescindible traer a colación la séptima acepción estadística del término “sesgo” que nos ofrece el DRAE como “error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras”.
C) LA HIPÓTESIS VEROSÍMIL: RECLAMACIÓN DE RESPONSABILIDAD CIVIL CONTRA LA EMPRESA TITULAR DE UN CHATBOT
En la entrada de este blog de 19 de enero de 2023 -titulada “La responsabilidad civil derivada de la aplicación de la inteligencia artificial. Un caso paradigmático. Ponencia en la Webinar de la Escuela de Práctica Jurídica del 18 de enero de 2023”- planteábamos un caso paradigmático de demanda de reclamación de indemnización por la responsabilidad civil derivada del mal funcionamiento de un implante cerebral capaz de convertir los pensamientos en texto, con la ayuda de un algoritmo. Entonces advertíamos que era un supuesto de hecho de nuestra exclusiva autoría imaginaria aunque verosímil por estar compuesto por elementos sacados de la realidad más reciente. Además, en aquella ocasión planteamos su resolución sobre la base de las herramientas que nos brinda la Propuesta de Directiva sobre responsabilidad en materia de IA de 28 de septiembre de 2022 (a la que nos referimos en las entradas de este blog publicadas los pasados días 14 y 15 de diciembre de 2022 sobre la “Inteligencia Artificial Responsable (IAR): la Propuesta de Directiva sobre responsabilidad en materia de IA de 28 de septiembre de 2022”).
Ahora, aplicaremos la misma herramienta normativa proyectada en la UE para ofrecer un desarrollo hipotético y verosímil de una reclamación de responsabilidad civil contra la empresa titular de un chatbot:
a) La demanda de reclamación de indemnización por la responsabilidad civil derivada del mal funcionamiento del sistema de IA: el chatbot
En la hipótesis de una demanda de reclamación de cantidad contra la empresa titular de la aplicación que sustenta el chatbot ante un juzgado de primera instancia de Madrid por responsabilidad civil contractual ex art.1011 del Código Civil o extracontractual ex art.1902 del Código Civil reclamándole una indemnización, más los intereses legales, así como las costas procesales se plantearían dos tipos de cuestiones:
b) Cuestiones procesales
b.1) Legitimación activa
En el caso planteado, la legitimación activa para ejercitar la acción indemnizatoria directa por daños en su patrimonio correspondería -según la futura Diractiva (art.2.6), a tres tipos de potenciales demandantes que serían: a) Los perjudicados. b) Las personas que les hubieran sucedido o se hubieran subrogado en sus derechos. c) Las personas físicas o jurídicas que actuaran en nombre de uno o varios perjudicados, de conformidad con el Derecho de la Unión o nacional. Esta posibilidad abriría oportunidades interesantes para reconocer la legitimación de asociaciones de consumidores o para plantear las denominadas “class actions” (v.art. 13 y ss. LEC).
b.1.2) Legitimación pasiva
En el caso planteado, la legitimación pasiva correspondería a la empresa titular de la aplicación que sustenta el chatbot. En términos generales, procede advertir que la Directiva parte de una característica intrínseca de los sistemas de IA que podríamos denominar su “multipersonalidad” ya que -tal y como recoge el considerando (17) de la Directiva- “el gran número de personas que suele participar en el diseño, el desarrollo, la introducción generalizada y el funcionamiento de sistemas de IA de alto riesgo hace difícil que los perjudicados identifiquen a la persona potencialmente responsable de los daños causados y demuestren que se cumplen las condiciones para interponer una demanda por daños y perjuicios”.
Por lo anterior, recordamos que la Directiva distingue -en su art.4- varias hipótesis de demandas aplicando de forma combinada los criterios del sujeto demandado (proveedor o usuario) y del tipo de sistema de IA que provea o use (sistema de IA de alto riesgo o sistema de IA de riesgo normal), siguiendo, en todo caso, las disposiciones respectivas y las condiciones pertinentes de la Ley de IA. De tal manera que encontramos reglas de prueba diferentes para los siguientes tipos de demandas:
a) Demandas interpuestas contra el proveedor de un sistema de IA de alto riesgo o contra una persona sujeta a las obligaciones del proveedor en virtud de la Ley de IA (art.4.2).
b) Demandas interpuestas contra el usuario de un sistema de IA de alto riesgo (art.4.3).
c) Demandas relacionadas con sistemas de IA de riesgo no elevado. En este caso, la Directiva (art.4.5.
d) Demandas interpuestas contra el usuario de un sistema de IA en el transcurso de una actividad personal y no profesional (art.4.6).
b.1.3) Prueba
En el caso planteado, los letrados de los demandantes previsiblemente articularían una prueba documental (“pantallazos” o capturas de las imágenes proporcionadas por el chatbot); pruebas personales (interrogatorio del legal representante de la empresa titular de la aplicación que sustenta el chatbot y testificales de los perjudicados); y pruebas periciales (dictamen de un experto en IA y de un financiero que acreditara los daños sufridos a resultas de aquellas prácticas del chatbot). Interesa insistir en un aspecto especialmente tomado en consideración por la Propuesta de Directiva, cual es la “multipersonalidad” habitual en el diseño, el desarrollo, la introducción generalizada y el funcionamiento de los sistemas de IA. Por ello y “para que los perjudicados puedan determinar si una demanda por daños y perjuicios es fundada” -tal y como recoge el considerando (17) de la Directiva- “conviene conceder a los demandantes potenciales el derecho a solicitar a un órgano jurisdiccional que ordene la exhibición de las pruebas pertinentes antes de presentar una demanda por daños y perjuicios”. En este punto, interesa recordar que nuestra LEC regula las diligencias preliminares preparatorias del eventual juicio en el art.256 y ss.
Dejamos al margen cuestiones del fuero competente, del procedimiento adecuado en función de la cuantía y otras cuestiones procesales semejantes.
c) Cuestiones materiales
Debemos advertir que la futura Directiva se aplicará a las demandas civiles de responsabilidad extracontractual (ex art.1902 de nuestro Código Civil) por daños y perjuicios causados por un sistema de IA.
Por ello, la viabilidad de la demanda del perjudicado contra la empresa titular de la aplicación que sustenta el chatbot exigiría la acreditación por la parte actora de la concurrencia del triángulo de requisitos clásicos: el acto negligente, el daño causado y la relación de causalidad eficiente entre ambos.
c.1) El acto negligente
En el caso planteado, el perjudicado debería demostrar la comisión por la empresa titular de la aplicación que sustenta el chatbot. de un acto dañoso IA que le fuera imputable a título de dolo o culpa. La conducta de la demandada entraría dentro de la noción de daño causado por una información de salida del chatbot, como sistema de IA; por ejemplo, imágenes humillantes, canciones injuriosas, imputaciones delictivas falsas, etc. En este punto, conviene recordar que la Directiva pretende proporcionar un fundamento eficaz para reclamar una indemnización en relación con la culpa consistente en el incumplimiento de un deber de diligencia en virtud del Derecho de la Unión o nacional. Es por ello por lo que define (art.2.9) el «deber de diligencia» como el producto de una “norma de conducta exigida establecida por el Derecho nacional o de la Unión con el fin de evitar daños a bienes jurídicos reconocidos a nivel nacional o de la Unión, incluidos la vida, la integridad física, la propiedad y la protección de los derechos fundamentales”.
c.2) El daño causado
Este es un requisito esencial de toda acción de reclamación de responsabilidad civil implícito en la Directiva que no entra a explicarlo o definirlo. De lo que podemos inferir que deja a los Derechos nacionales el determinar el alcance del daño resarcible, abarcando el daño emergente -que puede ser estrictamente económico o moral- y el lucro cesante. La Propuesta de Directiva (art.2.5) define la “demanda por daños y perjuicios” como “una demanda de responsabilidad civil extracontractual subjetiva (basada en la culpa) por la que se solicita una indemnización por los daños y perjuicios causados por una información de salida de un sistema de IA o por la no producción por parte de dicho sistema de una información de salida que debería haber producido”.
En el caso planteado, el perjudicado podría reclamar a la empresa titular de la aplicación que sustenta el chatbot el daño emergente, incluido el daños moral y, en su caso, el lucro cesante derivado del coste reputacional.
C.3) Relación de causalidad eficiente
Como siempre sucede, la “clave de arco” del nuevo sistema de RC por IA reside en la presunción de relación de causalidad en caso de culpa que establece el artículo 4 de la Directiva que toma en consideración la dificultad para los demandantes de la prueba de un nexo causal entre el incumplimiento y la información de salida producida por el sistema de IA -o la no producción de una información de salida- que haya dado lugar a los daños en cuestión. Para remediar esta dificultad probatoria, la Directiva (art.4.1) establece una presunción refutable (“iuris tantum”) de causalidad específica en relación con este nexo causal. Esta presunción es la medida menos gravosa para dar respuesta a la necesidad de una indemnización justa para la víctima. Conviene insistir en que -según hemos indicado- se trata, en todo caso, de una presunción “iuris tantum” que admite prueba en contrario porque la Directiva establece (art.4.7) que el demandado tiene derecho a refutar la presunción de causalidad.
D) LA REFLEXIÓN FINAL: ¿POR QUÉ RESULTA IMPRESCINDIBLE REGULAR LA RESPONSABILIDAD -CIVIL, ADMINISTRATIVA Y CRIMINAL- DERIVADA DE LA APLICACIÓN DE LA INTELIGENCIA ARTIFICIAL?
Nos parece que este caso de los efectos eventualmente perversos de un chatbot sirve de ejemplo paradigmático de porqué desde hace mucho tiempo sostenemos que resulta imprescindible regular la responsabilidad -civil, administrativa y criminal- derivada de la aplicación de la inteligencia artificial.
Debemos comenzar haciendo una confesión personal a nuestros lectores: Con este asunto de la IA nos sucede -casi- siempre lo mismo. Algún amigo bienintencionado nos refiere con entusiasmo las maravillosas propiedades de alguna aplicación de IA, así nos ha sucedido con la aplicación de la Tecnología de Registros Distribuidos o blockchain en la postcontratación bursátil (por su trazabilidad y seguridad) o en las criptomonedas y recientemente nos ha sucedido con algún verdadero hooligan de la aplicación ChatGPT que nos ha aventurado la buena (¿?) nueva de que nos liberaría de la funesta costumbre de pensar para seguir ejerciendo el incómodo oficio de escribir.
Pues bien, desde hace ya muchos años nuestra respuesta ha sido cautelosa y ello nos ha valido la acusación de parecer un hombre primitivo (un auténtico antecessor de Atapuerca) o, en el caso de las criptomonedas, un Savonarola florentino. Y nuestra cautela siempre ha estado justificada porque hemos aplicado un silogismo elemental que dice: Si los algoritmos que sustentan los programas o aplicaciones en origen son obra -en primera o última instancia- de seres humanos; y si los seres humanos nos hemos dedicado, con mayor o menor éxito y frecuencia, a engañar a nuestros semejantes en busca del dinero, del poder o del placer; entonces los algoritmos y los programas o aplicaciones que generan pueden engañar y dañar.
Además, en el caso de la IA concurre dos factores agravantes de diferente naturaleza: Un factor sociológico y psicológico, que es la apariencia con frecuencia engañosa de objetividad y neutralidad; y un factor económico, que reside en el incentivo artificial de los fondos europeos a favor de la digitalización en general. Incentivo este que no criticamos porque ha sido imprescindible para combatir los efectos de la pandemia de la COVID 19; pero que cualquier economista serio admitirá que alteran el comportamiento normal de los actores en un mercado económico libre y no dopado por fuerzas exógenas.
Es por ello por lo que nos parece que los juristas debemos asumir el papel -siempre antipático por dificultativo- de advertir sobre los daños personales y patrimoniales que pueden ocasionar un uso negligente o malintencionado de la IA y sobre el derecho de los dañados a ser resarcidos. Para ello, el instrumento idóneo es la responsabilidad civil, sin perjuicio de la responsablidad penal o administrativa cuando el daño se causa al interés general.
Por último, que conste en acta que no discutimos en momento alguno los beneficios de la IA. Antes al contrario, saludamos con entusiasmo esos efectos benéficos y es por ello por lo que nos parece que es oportuno y prudente advertir sobre sus riesgos sin caer en la simplificación de comparar la revolución inducida por la IA con otras revoluciones industriales clásicas porque ello implica una simplificación grosera de la historia que ignora los factores diferenciales que muestra esta nueva revolución que penetra en la misma esencia del ser humano. En definitiva, no estamos ante nuevas máquinas manufactureras ni ante calculadoras humanoides; sino ante dispositivos pensantes. Y en esa capacidad radicalmente humana de pensar están concentrados sus enormes beneficios y sus riesgos evidentes.
Por último, nos permitimos insistir en nuestra recomendación de la lectura del número 100 correspondiente a los meses de septiembre y octubre de 2022 sobre “inteligencia Artificial y Derecho” de la revista El Cronista del Estado Social y Democrático de Derecho y, en particular, su prólogo, pp. 5 a 13, a cargo del Profesor Santiago Muñoz Machado