Los siete requisitos esenciales para una inteligencia artificial fiable. Comunicación de la Comisión Europea de 8 de abril de 2019

 

 La importancia de la inteligencia artificial en el mercado financiero. La paradoja de la trasparencia digital y el mito de los algoritmos neutrales

 En las muchas entradas que hemos dedicado en este blog a hablar de las tecnofinanzas (fintech) en general y de los tecnoseguros (insurtech) en particular hemos hecho referencia frecuente al uso creciente de los instrumentos propios de la inteligencia artificial (fundamentalmente, algoritmos) en la gestión de carteras de valores, en el asesoramiento de inversión (los denominados “robo-advisors”), en la compensación y liquidación de operaciones bursátiles, en las ofertas de criptomonedas (los ICOs), etc., etc.

Es más, con ocasión de exponer esa multitud de usos de la inteligencia artificial en los mercados financieros hemos expuesto dos reflexiones generales en forma de sendas paradojas o mitos desde el punto de vista regulatorio o jurídico:

a) Primero, la “paradoja de la transparencia digital” derivada de dos fenómenos que parecen ir en direcciones contrapuestas:

a.1) Por un lado, en los mercados financieros, la normativa internacional, europea y española incrementan exponencialmente las exigencias de transparencia y asesoramiento al inversor no sólo en la cantidad de información a proporcionar, sino también en la calidad de la transmisión de la misma. Los test de idoneidad y de conveniencia regulados en los arts.213 y 214 del Texto Refundido de la Ley del Mercado de Valores española (aprobado por Real Decreto Legislativo 4/2015, de 23 de octubre) son una buena muestra de estos requisitos que se imponen a los intermediarios de más información al inversor y más personalizada

a.2) Por otro lado y en dirección contraria, vemos que las exigencias técnicas de la digitalización financiera requieren de una máxima estandarización de las informaciones y asesoramientos. Estos condicionamientos consustanciales a las nuevas tecnologías de fintech e insurtech quedan de manifiesto en el asesoramiento robótico, al que después nos referiremos.

a.3) Será, sin duda, extremadamente interesante verificar si, en un futuro próximo, los contratos financieros, bancarios y de seguros celebrados mediante el uso de técnicas de documentación e información digital y, en su caso, asesoramiento robótico cumplen las exigencias de transparencia que, para su validez, establece la Sala Primera de lo Civil del Tribunal Supremo cuando aplica la Directiva de cláusulas abusivas, la normativa MIFID II o, en un futuro inmediato (desde el 1 de octubre de 2018)  la  Directiva de distribución de seguros.

b) En segundo lugar, cabe referirse al “mito de los algoritmos neutrales”, expresión con la que queremos aludir al contraste entre:

b.1) La afirmación generalizada por parte de los técnicos de que el uso de algoritmos en las finanzas tiene un impacto neutral en el sentido de que no afecta a los riesgos que se generan para el consumidor porque generan registros interconectados imposibles de manipular (por ejemplo, en el caso del blockchain).

b.2) La realidad tozuda y constatable -por ejemplo. cuando se examina la jurisprudencia sobre delincuencia financiera digital – de que los algoritmos pueden mentir, engañar y manipular (y ser manipulados) mediante, por ejemplo, prácticas en el mercado de valores de multiplicación patológica de órdenes (“quote stuffing”), de indicios falsos (“spoofing”), de órdenes contradictorias prácticamente simultáneas (“churning”) y de anticipación parasitaria (“sniffers”). Y ello es así aplicando el siguiente silogismo elemental: si el ser humano puede mentir, manipular y ser manipulado; y si los algoritmos son obra del ser humano; entonces, los algoritmos pueden mentir, engañar, manipular y ser manipulados. b.3) Por ello, es precisa una labor regulatoria que identifique los responsables del uso de los algoritmos y prevenga y sancione este tipo de prácticas en defensa de los consumidores, sean estos clientes bancarios, inversores o asegurados.

Pues bien, a la vista de estas dos últimas reflexiones regulatorias generales sobre el uso creciente de la inteligencia artificial en los mercados financieros, nos parece oportuno dar cuenta de la Comunicación de la Comisión Europea de 8 de abril de 2019.

 

Comunicación de la Comisión Europea de 8 de abril de 2019

 El 8 de abril de 2019 se publicó la Comunicación de la Comisión Europea  al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones denominada “Generar confianza en la inteligencia artificial centrada en el ser humano” (Bruselas, 8.4.2019. COM(2019) 168 final).

 En su introducción, esta  Comunicación expone la “Estrategia europea de la inteligencia artificial (IA)”, partiendo de la base de su potencial para transformar nuestro mundo para mejor (mejorar la asistencia sanitaria, reducir el consumo de energía, hacer que los vehículos sean más seguros, mejorar la gestión del riesgo financiero, detectar el fraude y las amenazas de ciberseguridad, permitir a los organismos encargados de hacer cumplir la ley luchar contra la delincuencia con más eficacia, etc., etc.) y reconociendo, al mismo tiempo,  que la IA trae consigo nuevos retos para el futuro del trabajo y plantea cuestiones jurídicas y éticas.

Por lo anterior, en el año 2018, la Comisión Europea desarrolló dos actuaciones relevantes sobre la IA:

a) En abril de 2018, publicó una estrategia europea que coloca a la persona en el centro del desarrollo de la IA (una IA centrada en el ser humano).

b) En diciembre de 2018, la Comisión desarrolló junto con los Estados miembros un plan coordinado sobre la inteligencia artificial para crear sinergias, reunir datos —la materia prima de numerosas aplicaciones de IA— e incrementar las inversiones conjuntas. El objetivo es fomentar la cooperación transfronteriza y movilizar a todos los agentes con el fin de aumentar las inversiones públicas y privadas hasta un mínimo de 20 000 millones EUR anuales durante la próxima década.

Ahora, en el apartado 2 de esta Comunicación de 8 de abril de 2019, la Comisión Europea expone la tarea de generar confianza en la IA centrada en el ser humano” porque tanto la estrategia europea de IA como el plan coordinado dejan claro que la confianza es un requisito previo para garantizar un enfoque de la IA centrado en el ser humano: la IA no es un fin en sí mismo, sino un medio que debe servir a las personas con el objetivo último de aumentar su bienestar. Para ello, la fiabilidad de la IA debe estar garantizada.

 

El marco normativo vigente en la UE para regular la inteligencia artificial y los nuevos retos a esa regulación 

Esta Comunicación destaca que la UE se asienta sobre un sólido marco normativo, que constituirá la referencia mundial para la IA centrada en el ser humano y, en este sentido, cita:

a) El Reglamento general de protección de datos que garantiza un elevado nivel de protección de los datos personales y requiere la implementación de medidas que garanticen la protección de datos desde la fase de diseño y por defecto.

b) El Reglamento relativo a la libre circulación de datos no personales suprime barreras a la libre circulación de este tipo de datos y garantiza el tratamiento de todas las categorías de datos en cualquier lugar de Europa.

c) El Reglamento de Ciberseguridad que contribuirá a reforzar la confianza en el mundo digital.

d) El Reglamento sobre la privacidad y las comunicaciones electrónicas propuesto.

Sin perjuicio de lo anterior, la Comunicación advierte que la IA conlleva nuevos retos, ya que permite a las máquinas «aprender» y tomar decisiones y ejecutarlas sin intervención humana. No falta mucho para que este tipo de funcionalidad sea lo habitual en muchos tipos de bienes y servicios, desde los teléfonos inteligentes hasta los vehículos automatizados, los robots y las aplicaciones en línea. Ahora bien, las decisiones adoptadas mediante algoritmos pueden dar datos incompletos y, por tanto, no fiables, que pueden ser manipulados por ciberataques, pueden ser sesgados o simplemente estar equivocados. Aplicar de forma irreflexiva la tecnología a medida que se desarrolla produciría, por tanto, resultados problemáticos, así como la renuencia de los ciudadanos a aceptarla o utilizarla”.

 

Los siete requisitos esenciales para generar una inteligencia artificial fiable

El apartado 2.1 de esta Comunicación expone las “Directrices para una IA fiable elaboradas por el grupo de expertos de alto nivel sobre la IA” y, dentro de ellas, da cuenta de los siete requisitos esenciales para generar una inteligencia artificial fiable que se refieren a los aspectos siguientes:

1º.  Intervención y supervisión humanas, señalando, entre otras cosas,  que “los sistemas de IA deben ayudar a las personas a elegir mejor y con más conocimiento de causa en función de sus objetivos. Deben actuar como facilitadores de una sociedad floreciente y equitativa, apoyando la intervención humana y los derechos fundamentales, y no disminuir, limitar o desorientar la autonomía humana. El bienestar global del usuario debe ser primordial en la funcionalidad del sistema”.

2º.  Solidez y seguridad técnicas, señalando, entre otras cosas, que “la fiabilidad de la IA requiere que los algoritmos sean suficientemente seguros, fiables y sólidos para resolver errores o incoherencias durante todas las fases del ciclo vital del sistema de IA y hacer frente adecuadamente a los resultados erróneos. Los sistemas de IA deben ser fiables, lo bastante seguros para ser resilientes, tanto frente a los ataques abiertos como a tentativas más sutiles de manipular datos o los propios algoritmos, y deben garantizar un plan de contingencia en caso de problemas. Sus decisiones deben ser acertadas o, como mínimo, reflejar su nivel de acierto, y sus resultados, reproducibles”.

 3º. Privacidad y gestión de datos, señalando, entre otras cosas, que “deben garantizarse la privacidad y la protección de datos en todas las fases del ciclo vital del sistema de IA. Los registros digitales del comportamiento humano pueden permitir que los sistemas de IA infieran no solo las preferencias, la edad y el sexo de las personas, sino también su orientación sexual o sus opiniones religiosas o políticas. Para que las personas puedan confiar en el tratamiento de datos, debe garantizarse que tienen el pleno control sobre sus propios datos, y que los datos que les conciernen no se utilizarán para perjudicarles o discriminarles”.

 4ª. Transparencia, señalando, entre otras cosas, que “debe garantizarse la trazabilidad de los sistemas de IA; es importante registrar y documentar tanto las decisiones tomadas por los sistemas como la totalidad del proceso (incluida una descripción de la recogida y el etiquetado de datos, y una descripción del algoritmo utilizado) que dio lugar a las decisiones. A este respecto, en la medida de lo posible debe aportarse la explicabilidad del proceso de toma de decisiones algorítmico, adaptada a las personas afectadas. Debe proseguirse la investigación en curso para desarrollar mecanismos de explicabilidad. Además, deben estar disponibles las explicaciones sobre el grado en que un sistema de IA influye y configura el proceso organizativo de toma de decisiones, las opciones de diseño del sistema, así como la justificación de su despliegue (garantizando, por tanto, no solo la transparencia de los datos y del sistema, sino también la transparencia del modelo de negocio)”.

5º. Diversidad, no discriminación y equidad; señalando, entre otras cosas, que “los conjuntos de datos utilizados por los sistemas de IA (tanto para el entrenamiento como para el funcionamiento) pueden verse afectados por la inclusión de sesgos históricos involuntarios, por no estar completos o por modelos de gobernanza deficientes. La persistencia en estos sesgos podría dar lugar a una discriminación (in)directa. También pueden producirse daños por la explotación intencionada de sesgos (del consumidor) o por una competencia desleal. Por otra parte, la forma en la que se desarrollan los sistemas de IA (por ejemplo, la forma en que está escrito el código de programación de un algoritmo) también puede estar sesgada. Estos problemas deben abordarse desde el inicio del desarrollo del sistema”.

 6º. Bienestar social y medioambiental, señalando, entre otras cosas, que “para que la IA sea fiable, debe tomarse en cuenta su impacto sobre el medio ambiente y sobre otros seres sensibles. Idealmente, todos los seres humanos, incluso las generaciones futuras, deberían beneficiarse de la biodiversidad y de un entorno habitable. Debe, por tanto, fomentarse la sostenibilidad y la responsabilidad ecológica de los sistemas de IA. Lo mismo puede decirse de las soluciones de IA que abordan ámbitos de interés mundial, como por ejemplo los objetivos de desarrollo sostenible de las Naciones Unidas”.

7º: Rendición de cuentas, señalando, entre otras cosas, que “deben instaurarse mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas de IA y de sus resultados, tanto antes como después de su implementación. La posibilidad de auditar los sistemas de IA es fundamental, puesto que la evaluación de los sistemas de IA por parte de auditores internos y externos, y la disponibilidad de los informes de evaluación, contribuye en gran medida a la fiabilidad de la tecnología. La posibilidad de realizar auditorías externas debe garantizarse especialmente en aplicaciones que afecten a los derechos fundamentales, por ejemplo las aplicaciones críticas para la seguridad”.

 

Conclusiones y actuaciones futuras de la Comisión Europea en materia de inteligencia artificial

La Comunicación concluye exponiendo las siguientes líneas de acción para ser implementadas antes del tercer trimestre de 2019, con el fin de garantizar el desarrollo ético de la IA en Europa en su contexto más amplio:

a) Puesta en marcha de un conjunto de redes de centros de excelencia especializados en investigación sobre IA a través de Horizonte 2020. Seleccionará un máximo de cuatro redes, centrándose en retos científicos o tecnológicos importantes, como la explicabilidad y la interacción avanzada entre los seres humanos y las máquinas, que son elementos clave para una IA fiable.

b) Creación de redes de polos de innovación digital, centrándose en la IA en la fabricación y en los macrodatos.

c) Conversaciones preparatorias para desarrollar y aplicar un modelo para el intercambio de datos y para hacer el mejor uso de los espacios comunes de datos, haciendo hincapié en el transporte, la atención sanitaria y la fabricación industrial.

d) Elaboración de un informe sobre los retos que plantea la IA en relación con los marcos de seguridad y responsabilidad y un documento de orientación sobre la implementación de la Directiva sobre responsabilidad por los daños causados por productos defectuosos.