Si el ser humano puede mentir, manipular y ser manipulado y, de hecho, lo hace con frecuencia;
y si los algoritmos son obra del ser humano;
entonces, los algoritmos pueden mentir, engañar, manipular y ser manipulados y, de hecho, lo hacen con frecuencia.
Silogismo que empleamos para evidenciar el “falso mito de los algoritmos neutrales” y la “paradoja de la trasparencia digital” (sobre ambos se puede ver nuestro estudio “Las tecnofinanzas (FINTECH). Retos a la regulación y a la supervisión financieras” publicado en la Revista Iberoamericana del Mercados de Valores (RIMV) n.º 54, julio 2018, pp. 1 y ss.).
La responsabilidad civil derivada del uso de la inteligencia artificial
En fechas recientes, nos hemos ocupado, en este blog, de las iniciativas de la UE destinadas a procurar que el uso de la inteligencia artificial que inunda nuestras vidas con sus algoritmos se atenga a los principios de la ética y de la responsabilidad de los operadores profesionales por los daños que puedan causar sus sistemas de inteligencia artificial -especialmente, los calificados como de “alto riesgo”- a los ciudadanos que los utilizan en su condición de consumidores (el lector podrá encontrar una nota bibliográfica al final de la segunda entrada que publicaremos mañana sobre este mismo tema y que le puede resultar de utilidad).
En este sentido, las dos Resoluciones del Parlamento Europeo (PE) de 20 de octubre de 2020 -de las que dimos noticia en este blog- afectan, en parte y en todo, respectivamente, a la responsabilidad derivada del uso de la inteligencia artificial. En particular, la Resolución del Parlamento Europeo, de 20 de octubre de 2020 que lleva por título “Régimen de responsabilidad civil en materia de inteligencia artificial” (RIAR), contiene recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014(INL)).
Según expondremos con detalle en un estudio de inminente publicación (“Decálogo de la inteligencia artificial ética y responsable en la Unión Europea” que se publicará en el Diario La Ley del próximo 4 de diciembre de 2020) el principio de responsabilidad en el uso de los sistemas de inteligencia artificial -principio regulatorio especialmente sensible para la digitalización financiera se manifiesta en dos formas: en una forma genérica de responsabilidad social y en una forma específica de responsabilidad civil.
Además, existen dos principios regulatorios derivados del de responsabilidad en el uso de los sistemas de inteligencia artificial que son:
a) La imputabilidad, como principio regulatorio específico de una Inteligencia Artificial Responsable (IAR) -que guarda relación directa con el presupuesto regulatorio de la potencialidad dañina de los sistemas de IA- se establece en la RIAR con un doble alcance: En primer lugar, como imputabilidad general a un agente que prevenga la indefensión en la que se encuentran los consumidores que usan de ingenios basados en la IA y, en segundo término, como imputabilidad específica al operador de la inteligencia artificial, identificando al operador inicial y al operador final en función del criterio del grado de ejercicio de control sobre el sistema de IA.
b) La adaptabilidad, como adecuación del régimen de responsabilidad civil a los sistemas de IA de alto riesgo y de riesgo normal.
El seguro de la responsabilidad civil derivada del uso de la inteligencia artificial
Otro de los principios regulatorios derivados del de responsabilidad en el uso de los sistemas de inteligencia artificial es el de la su cobertura preventiva que tiene una particular relevancia para la digitalización financiera y se expresará, en un futuro cercano, dentro de la UE, mediante la exigencia de un seguro obligatorio de responsabilidad civil para los operadores de sistemas de IA de alto riesgo.
Además de la regulación de la UE sobre la inteligencia artificial; procede recordar también que en el Derecho español vigente, se acaba de regular el régimen de la responsabilidad civil de una aplicación de la IA, cual es la del promotor por los daños infligidos a los participantes como consecuencia de su participación en las pruebas que ha establecido la Ley 7/2020, de 13 de noviembre, para la transformación digital del sistema financiero al regular los espacios controlados de pruebas (“regulatory sandboxes”). En particular, este régimen específico de responsabilidad civil se completa -como es habitual- con una referencia genérica que establece el art.13 de la Ley 7/2020 a la cobertura preventiva del riesgo de esta eventual responsabilidad por los daños y perjuicios mediante la contratación por los promotores de garantías financieras suficientes en forma de seguros, avales bancarios o fianzas (sobre esta Ley, puede verse la entrada de este blog de 17.11.2020 sobre “FINTECH: Ley 7/2020 para la transformación digital del sistema financiero: Espacios controlados de pruebas (“regulatory sandbox”) y otras medidas de innovación en las tecnofinanzas”).
A la vista de lo anterior, conviene hacerse eco de los Informes recientes en la materia y así lo hacemos en esta entrada (ver Risk Management, The Case for AI Insurance by Ram Shankar Siva Kumar and Frank Nagle, April 29, 2020).
Los nuevos riesgos y siniestros de los gigantes de los sistemas de Inteligencia Artificial
La mayor parte de los gigantes tecnológicos, como Google, Amazon, Microsoft, Uber y Tesla, han visto como sus sistemas de inteligencia artificial (Artificial Intelligence AI) y aprendizaje automático (Machine Learning ML) se han viso engañados, evadidos o defraudados en los últimos tiempos. Sin embargo, a pesar de estos fallos de seguridad de alto riesgo, la mayoría de los líderes de estas organizaciones ignoran los propios riesgos en los que inciden al crear y utilizar tecnologías de IA y ML.
Lo anterior no es culpa exclusiva de las empresas ya que las herramientas técnicas para limitar y remediar daños no se han creado tan rápido como la tecnología ML en sí. En particular, el ciberseguro o seguro cibernético existente en la práctica no cubre, por regla general, los sistemas ML y los remedios legales (por ejemplo, derechos de autor, responsabilidad y leyes contra la piratería) pueden no cubrir tales situaciones.
Por lo tanto, esta emergiendo con fuerza la solución del seguro específico de AI / ML (AI/ML-specific insurance). Sin embargo, sigue existiendo una notable incertidumbre acerca de quién lo necesitará y exactamente qué cubrirá. Sin embargo, es urgente despejar estas incertidumbres porque los eventos recientes han demostrado que los sistemas de AI y ML son frágiles y sus fallos pueden conducir a desastres del mundo real.
Fallos intencionados o casuales de los sistemas de inteligencia artificial y aprendizaje automático
Las investigaciones sistemáticas en la materia han mostrado que los fallos de los sistemas de inteligencia artificial y aprendizaje automático pueden ser de dos tipos: intencionados o casuales.
a) En los fallos intencionados (“intentional failures”), un agente contrario intenta subvertir el sistema de IA para lograr sus objetivos de inferir datos de entrenamiento privados, robar el algoritmo subyacente u obtener cualquier resultado deseado del sistema de IA. Por ejemplo, cuando Tumblr anunció su decisión de dejar de alojar contenido pornográfico, los usuarios pasaron por alto el filtro coloreando las imágenes corpóreas de verde y agregando una imagen de un búho. Se trata de ejemplo de un «ataque de perturbación».
b) En los fallos casuales o no intencionados (“unintentional failures”), los sistemas de AI fallan por sí mismos, sin ningún tipo de manipulación adversa. Por ejemplo, OpenAI enseñó a un sistema de aprendizaje automático a jugar un juego de navegación recompensando sus acciones de obtener una puntuación más alta. Sin embargo, el sistema ML fue en un círculo alcanzando los mismos objetivos, acumulando más puntos, en lugar de terminar la carrera. De tal manera que una causa principal de fallos no intencionales son las suposiciones erróneas de los desarrolladores de ML que producen un resultado formalmente correcto, pero prácticamente inseguro.
En su informe sobre el ataque a los modelos de aprendizaje automático, Gartner emitió una grave advertencia a los ejecutivos: «Los líderes de aplicaciones deben anticipar y prepararse para mitigar los riesgos potenciales de corrupción de datos, robo de modelos y muestras adversas». Sin embargo, los estudios muestran que las organizaciones están lamentablemente mal preparadas. Así, los estudios en los EEUU recogen, por ejemplo, las declaraciones del jefe de seguridad de uno de los bancos más grandes de Estados Unidos diciendo: «Queremos proteger la información de los clientes que se utiliza en los modelos de AI, pero no sabemos cómo llegar» (““We want to protect client information used in ML models but we don’t know how to get there”).. Se trata de un riesgo generalizado, porque las entrevistas informales a 28 organizaciones que abarcaban Fortune 500, pequeñas y medianas empresas, organizaciones sin fines de lucro y organizaciones gubernamentales permitieron descubrir que 25 de ellas no tenían un plan para abordar los ataques a sus modelos de ML.
Estos fallos de seguridad obedecieron a dos razones:
a) Una técnica, debido a que los modos de fallos de la IA son todavía un área de investigación activa y en evolución, no es posible proporcionar mitigaciones tecnológicas prescriptivas. Por ejemplo, recientemente los investigadores demostraron cómo 13 ejemplos de defensas que se publicaron en las principales revistas académicas son ineficaces.
b) Una jurídica, ya que los estatutos vigentes de derechos de autor, responsabilidad del producto y «anti-piratería» (“anti-hacking”) no permiten cubrir todos los modos de ataques a los sistemas de AI y ML.