Close

Robots responsables (2): La responsabilidad civil derivada del uso de la inteligencia artificial y su seguro

Completamos con esta entrada la que publicamos ayer con el mismo título.

Las insuficiencias de cobertura del ciberseguro clásico y la necesidad de diseñar un nuevo seguro específico de inteligencia artificial y aprendizaje automático (AI / ML)

Los fallos intencionados (“intentional failures”) y casuales o no intencionados (“unintentional failures”) de los sistemas de inteligencia artificial y aprendizaje automático que hemos descrito -debidos tanto a razones técnicas (los modelos de fallos de la IA son todavía un área de investigación activa y en evolución por lo que no es posible proporcionar mitigaciones tecnológicas prescriptivas) como a razones regulatorias (los estatutos vigentes de derechos de autor, responsabilidad del producto y «anti-piratería», “anti-hacking” no permiten cubrir todos los modos de ataques a los sistemas de AI y ML)- nos conducen a buscar instrumentos de cobertura preventiva de la responsabilidad civil en la que puedan incurrir los operadores profesionales frente a los usuarios particulares de los sistemas de inteligencia artificial y aprendizaje automático.

En un principio detectamos el seguro cibernético clásico (“existing cyber insurance”) como la ubicación natural en la que buscar respuestas y soluciones de cobertura; dado que la modalidad principal a través de la cual los sistemas de ML y de AI manipulan los datos es el código y el software.

En términos generales, el seguro cibernético cubre la seguridad de la información, la responsabilidad de la privacidad y la interrupción del negocio. De tal modo que, por ejemplo, los fallos de los sistemas de AI y ML que resultan en la interrupción del negocio y la violación de información privada probablemente estén cubiertas por el seguro cibernético existente; pero los fallos que redunden en daños a la marca, daños corporales y daños a la propiedad probablemente no estarán cubiertos por el seguro cibernético vigente.

Llegados a este punto, vemos cómo algunos de los riesgos de la AI y la ML pueden ser cubiertos por el seguro cibernético clásico, pero otros no., por lo que debemos investigar en el diseño de un seguro específico de la responsabilidad civil derivada de los sistemas de inteligencia artificial y aprendizaje automático (AI y ML). En concreto,, si queremos avanzar en nuestra búsqueda, debemos establecer las diferencias entre las coberturas que ofrecen uno y otro tipo de seguro.

Veamos cinco tipos de daños digitales asociados a la AI/ML que podrían estar cubiertos por el seguro cibernético vigente y otros que no lo estarían, por lo precisarían de un seguro específico de AI y ML:

a) Ataques de robo de modelos (“Model Stealing Attacks”): por ejemplo, OpenAI creó recientemente un sistema de inteligencia artificial para generar texto automáticamente, pero en un primer momento no reveló por completo el modelo subyacente con el argumento de que podría utilizarse incorrectamente para difundir desinformación. Sin embargo, dos investigadores pudieron recrear el algoritmo y lanzarlo, antes de que OpenAI lanzara el modelo completo. Este tipo de ataques demuestran cómo las empresas podrían sufrir daños de marca y pérdidas de propiedad intelectual debido a sistemas de IA falibles y, en este caso, el seguro cibernético puede cubrir hipotéticamente el escenario ya que hubo una violación de información privada.

b) Fuga de datos (“Data Leakage”): por ejemplo, los investigadores pudieron reconstruir rostros con solo el nombre de una persona y el acceso a un sistema de reconocimiento facial de una forma tan efectiva que las personas pudieron usar la foto reconstruida para identificar a un individuo de una alineación con hasta un 87% de precisión. Si esto sucediera en la vida real, el ciberseguro podría ayudar, ya que podría ser una violación de la información privada, que en este caso son los datos de identidad privados. Sin embargo, en la práctica, el ciberseguro no suele cubrir estos fallos de AI / ML.

c) Daño corporal (“Bodily Harm”): un automóvil autónomo de Uber mató a un peatón en Arizona porque su sistema de aprendizaje automático no tuvo en cuenta el cruce imprudente. Es probable que este evento no esté cubierto por el seguro cibernético, ya que sus raíces financieras están en el seguro de responsabilidad civil clásico que históricamente ha excluido estas responsabilidades. De tal manera que, cuando se produce un daño corporal debido a un fallo del sistema de IA (por ejemplo, por impacto de un paquete que entrega un dron, en el caso de automóviles autónomos, de fallos de los sistemas de reconocimiento de imágenes, en condiciones de nieve, niebla o heladas) es probable que el seguro cibernético no cubra el daño (aunque puede cubrir las pérdidas por la interrupción del negocio que resulte de tales eventos). Ante la falta de cobertura de estos riesgos típicos de la AI/ML, Uber cesó sus pruebas de vehículos autónomos en Arizona, Pensilvania y California. El seguro cibernético, podría cubrir las pérdidas en las que haya incurrido Uber debido a la interrupción del negocio; pero difícilmente cubriría los daños corporales.

d) Daño a la marca (“Brand Damage“): imaginemos una situación en la que la empresa A utiliza un bot (aféresis de robot que es un programa informático que simula el comportamiento humano) conversacional inteligente diseñado por la empresa B para promover la marca de la empresa A en Internet. Si el bot funciona mal (como sucedió con ataque de envenenamiento en el tweetbot Tay de Microsoft) y provoca un daño masivo a la marca de la empresa A; no es probable que las fórmulas existentes de ciberseguros cubran las pérdidas de la empresa A. Encontramos otro ejemplo en el caso en que los investigadores engañaron al motor antivirus basado en inteligencia artificial de Cylance para que pensara que un ransomware malicioso era benigno. Si la empresa hubiera sufrido algún daño a la marca como parte de este ataque, es probable que el seguro cibernético no lo hubiera cubierto.

e) Daño a la propiedad física (“Damage to Physical Property”): un documento de investigadores de Google plantea el escenario en el que un robot de limpieza utiliza el aprendizaje reforzado para explorar su entorno y aprender el diseño. Como parte de este proceso de exploración, inserta un trifásico húmedo en una toma de corriente, lo que provoca un incendio. En la práctica, no es probable que el ciberseguro del fabricante del robot de limpieza cubra la pérdida.

La reacción adaptativa necesaria de las empresas y las aseguradoras

El escenario descrito, en el que algunos tipos de daños digitales asociados a la AI/ML podrían no estar cubiertos por los ciberseguros vigentes y exigirían su cobertura por un seguro específico de AI y ML, plantea la necesidad de actuar de forma urgente por las dos partes interesadas:

a) Las empresas que utilizan sistemas de AI/ML como elementos centrales de sus negocios deben introducir en sus sistemas de gobernanza la gestión riesgos de fallos que podrían conducir a una violación de datos, daños a la marca, daños a la propiedad, interrupción del negocio y, en algunos casos, daños corporales. Incluso en aquellos casos en los que las empresas tienen establecidos métodos de control de los fallos de la IA, deben admitir que conviene establecer coberturas preventivas de su responsabilidad mediante seguros, ya que es más difícil defenderse que el atacar, especialmente cuando este último es un consumidor. En este sentido, los gestores de la seguridad de uno de los cuatro grandes grupos de consultoría manifiestan que: «Los ataques de software tradicionales son una incógnita conocida mientras que los ataques a nuestros modelos de ML son incógnitas desconocidas».

b) Las compañías de seguros son conscientes de esta brecha y están tratando activamente de conciliar las diferencias entre los seguros tradicionales de estilo de software y el aprendizaje automático. Por lo anterior, en la actualidad, el ciberseguro es el mercado de seguros de más rápido crecimiento dirigido a las pequeñas y medianas empresas y las aseguradoras quieren mantener el impulso.

Un programa de implantación de una gestión eficiente de riesgos de fallos en la AI/ML y de su cobertura

El estudio examinado acaba ofreciendo una especie de “examen de conciencia” de las empresas que utilizan sistemas de AI/ML como elementos centrales de sus negocios para introducir en sus sistemas de gobernanza la gestión riesgos de fallos en la AI/ML programado en tres fases:

a) Para la primera semana, recomienda las actuaciones siguientes: Contactar con su asegurador o mediador sobre lo que estará cubierto y lo que no, de modo que se evite estar operando con suposiciones incorrectas. Dada la proliferación de sistemas de IA en las empresas, especialmente en las grandes organizaciones, es importante evaluar primero el impacto potencial de los fallos. En este sentido, es recomendable hacer un inventario de todos los sistemas de inteligencia artificial de la organización y agruparlos en función de una calificación de su grado de riesgo: alto, medio y bajo y, a continuación, implementar medidas de seguridad y protección en consecuencia.

b) Para el primer mes, recomienda asignar supervisión humana sobre las decisiones críticas para el negocio, en lugar de depender únicamente de sistemas automatizados, realizando ejercicios de simulación para tener en cuenta los fallos en los sistemas de IA y evaluar los resultados. A estos efectos, se recomienda evaluar la organización con respecto al borrador de las Directrices de IA confiables de la UE (“EU Trustworthy AI Guidelines»), especialmente la Sección 2 (Robustez técnica y seguridad) y la Sección 3 (Lista de verificación de privacidad y gobierno de datos).

c) Para el primer año, recomienda asignar un gerente de seguridad de IA (“safety officer to assess the safety and security of AI systems”) para evaluar la seguridad y protección de los sistemas de IA que actuaría en estrecha colaboración con el director de seguridad de la información y de los datos personales (“Chief Information Security Officer y “Chief Data Officer’s personnel”). Renovar las prácticas de seguridad para la era del aprendizaje automático adverso, actualizando los manuales de respuesta a incidentes y considerando la posibilidad de contratar un equipo para realizar pruebas de estrés en sus sistemas de aprendizaje automático. Ello porque, si bien es cierto que los sistemas de IA y ML pueden ayudar a crear grandes cantidades de valor para muchas organizaciones; también lo es que, como con cualquier nueva tecnología, los riesgos deben comprenderse y mitigarse antes de que la tecnología se integre completamente en el proceso de creación de valor de la organización.

Nota bibliográfica: Tal y como anticipamos en la primera de las dos entradas que hemos dedicado a la responsabilidad civil derivada del uso de la inteligencia artificial y su seguro, indicamos a continuación algunos estudios que pueden resultar de utilidad para el lector que quiera profundizar en la materia:

Nuestros estudios “Decálogo de la inteligencia artificial ética y responsable en la Unión Europea” que se publicará en el Diario La Ley del próximo 4 de diciembre de 2020 y “Regulación de la inteligencia artificial en la Unión Europea. Ética y responsabilidad” que se publicará La Ley Unión Europea, número 87 de diciembre de 2020.

Las entradas de este blog financiero de 12 de noviembre de 2010 sobre “Digitalización financiera: Los 7 principios regulatorios de una Inteligencia Artificial Ética (IAE) en la UE. Resolución del Parlamento Europeo de 20 de octubre de 2020 sobre los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas” y de 13 de noviembre de 2020 sobre “Digitalización financiera: Los 3 principios regulatorios de una Inteligencia Artificial Responsable (IAR) en la UE. Resolución del Parlamento Europeo de 20 de octubre de 2020 sobre la responsabilidad civil en materia de inteligencia artificial”.

Las entradas de este blog financiero de 18 de junio de 2019 sobre “Los siete requisitos esenciales para una inteligencia artificial fiable. Comunicación de la Comisión Europea de 8 de abril de 2019”; de 14 de enero de 2020 sobre “Responsabilidad derivada del uso de la inteligencia artificial. Informe del Grupo de Expertos de la Comisión Europea de 2019 (1). Características esenciales de los regímenes de responsabilidad derivada de la inteligencia artificial y el uso de otras tecnologías digitales”; y de 15 de enero de 2020 sobre “Responsabilidad derivada de la inteligencia artificial en los mercados financieros. Informe del Grupo de Expertos de la Comisión Europea de 2019 (2) Cobertura preventiva de responsabilidad mediante los seguros de responsabilidad civil y los fondos de compensación”.