Close

Inteligencia Artificial Segura: Declaración Internacional de Bletchley de 1 de noviembre de 2023 sobre la Seguridad de la Inteligencia Artificial. Síntomas preocupantes de especulación y burbuja inversora

El pasado día 1 de noviembre de 2023 se publicó la Declaración de Bletchley de los países que asistieron a la Cumbre de seguridad de la IA, 1 y 2 de noviembre de 2023 (Documento normativo, Publicado el 1 de noviembre de 2023 por el Department for Science, Innovation & Technology; Foreign, Commonwealth & Development Office; Prime Minister’s Office, 10 Downing Street). La importancia de esta Declaración global, suscrita por 28 Estados de los cinco continentes, nos invita a ofrecer a los lectores de este blog una entrada explicativa de su contenido.

Antes que nada, debemos reparar en la simbología implícita en la ubicación de esta Declaración porque Bletchley Park es el nombre de una instalación militar localizada en Buckinghamshire, Inglaterra, en la que se realizaron los trabajos de descifrado de códigos alemanes durante la Segunda Guerra Mundial que alumbraron la famosa maquina “Enigma”.

A) Características generales

a) Globalidad

Es forzoso comenzar destacando el carácter global de esta Declaración cuando reparamos en el dato de que los 28 países firmantes están ubicados en los cinco continentes. En efecto:

En Europa están ubicados Alemania, España, Francia, Irlanda, Italia, Países Bajos, Reino Unido de la Gran Bretaña e Irlanda del Norte, Suiza y Ucrania.

En América están ubicados Brasil, Canadá, Chile y los Estados Unidos de América.

En Asia están ubicados China, Filipinas, India, Indonesia, Japón, República de Corea, Singapur y Turquía.

En África están ubicados Emiratos Árabes Unidos, Israel, Kenia, Nigeria, Reino de Arabia Saudita y Ruanda.

En Oceanía está ubicada Australia.

Junto a este relevante dato cuantitativo, desde el punto de vista cualitativo destacamos que, entre los firmantes, figuran España y la Unión Europea como organización internacional.

Conviene reparar en que el carácter global de de esta Declaración le da mayor amplitud a su radio de efectos, al tiempo que impone unos pronunciamientos genéricos de alcance eminentemente político; a diferencia del carácter más preciso de otros documentos internacionales redientes sobre la IA (el lector puede consultar, a modo de ejemplo, la entrada de este mismo blog del pasado día 6 del mes en curso sobre El Código de Conducta de la Inteligencia Artificial (CCIA) del G-7, en la que dábamos cuenta del consenso alcanzado por los dirigentes del G-7, Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido, sobre el establecimiento de unos Principios Rectores Internacionales de la Inteligencia Artificial (PRIIA) y sobre un Código de conducta voluntario para los desarrolladores de inteligencia artificial (CCIA) generados en el marco del denominado “Proceso de la inteligencia artificial de Hiroshima”).

b) Método riesgo/oportunidad

La Declaración sigue el método riesgo/oportunidad que es una proyección a futuro del método clásico coste/beneficio y que resulta común a la regulación internacional de la IA.

En este sentido, el párrafo 9º de este Declaración dice (advertimos al lector que las negritas son de nuestra exclusiva autoría): “En el contexto de nuestra cooperación, y para informar la acción a nivel nacional e internacional, nuestra agenda para abordar el riesgo fronterizo de la IA se centrará en: Identificar los riesgos de seguridad de la IA de interés compartido, construir una comprensión compartida científica y basada en evidencia de estos riesgos, y mantener esa comprensión a medida que las capacidades continúan aumentando, en el contexto de un enfoque global más amplio para comprender el impacto de la IA en nuestras sociedades. (…) Construir políticas respectivas basadas en riesgos en nuestros países para garantizar la seguridad a la luz de dichos riesgos, colaborando según corresponda y reconociendo que nuestros enfoques pueden diferir según las circunstancias nacionales y los marcos legales aplicables. Esto incluye, junto con una mayor transparencia por parte de los actores privados que desarrollan capacidades de IA de vanguardia, métricas de evaluación apropiadas, herramientas para pruebas de seguridad y el desarrollo de capacidades e investigaciones científicas relevantes del sector público. Para promover esta agenda, decidimos apoyar una red internacionalmente inclusiva de investigación científica sobre la seguridad de la IA en la frontera que abarque y complemente la colaboración multilateral, plurilateral y bilateral existente y nueva, incluso a través de foros internacionales existentes y otras iniciativas relevantes, para facilitar la provisión de la mejor ciencia disponible para la formulación de políticas y el bien público”.

c) Provisonalidad

La Declaración admite implícitamente la falta de sincronía a la que se enfrenta toda regulación de la IA porque el ritmo crecientemente acelerado de los avances tecnólogicos diarios de esta última impiden que la regulación los alcance en una especie de “maldición de inabarcabilidad

Es por ello por lo que la Declaración acaba reflejando el compromiso de los países firmantes de continuar la investigación sobre la seguridad de la IA en la vanguardia para garantizar que los beneficios de la tecnología puedan aprovecharse de manera responsable para bien y para todos. Esperamos volver a reunirnos en 2024”.

B) Una metáfora médica: diagnóstico y tratamiento

Una vez expuestas las características generales de la Declaración, expondremos su contenido valiéndonos de una metáfora médica (que no implica que consideremos la IA como una enferma)  en la que indicaremos el diagnóstico que hace la Declaración de la regulación actual de la seguridad de la IA para identificar, después, el tratamiento que recomienda para que lograr una IA Segura.

B,1) Diagnóstico

Se manifiesta de nuevo el método común a la regulación de la IA basado en la comparación de las oportunidades y los riesgos:

a) Oportunidades

Comienza la Declaración afirmando: “La Inteligencia Artificial (IA) presenta enormes oportunidades globales: tiene el potencial de transformar y mejorar el bienestar humano, la paz y la prosperidad. Para lograr esto, afirmamos que, por el bien de todas las personas, la IA debe diseñarse, desarrollarse, implementarse y utilizarse de manera segura, centrada en el ser humano, confiable y responsable. Acogemos con beneplácito los esfuerzos de la comunidad internacional hasta ahora para cooperar en materia de IA para promover el crecimiento económico inclusivo, el desarrollo sostenible y la innovación, proteger los derechos humanos y las libertades fundamentales y fomentar la confianza pública en los sistemas de IA para realizar plenamente su potencial. (…) Los sistemas de IA ya están implementados en muchos ámbitos de la vida diaria, incluidos la vivienda, el empleo, el transporte, la educación, la salud, la accesibilidad y la justicia, y es probable que su uso aumente. Reconocemos que este es, por lo tanto, un momento único para actuar y afirmar la necesidad de que el desarrollo seguro de la IA y de que las oportunidades transformadoras de la IA se utilicen para bien y para todos, de manera inclusiva en nuestros países y a nivel mundial. Esto incluye servicios públicos como salud y educación, seguridad alimentaria, ciencia, energía limpia, biodiversidad y clima, para hacer realidad el disfrute de los derechos humanos y fortalecerlos esfuerzos para lograr los Objetivos de Desarrollo Sostenible de las Naciones Unidas”.

b) Riesgos

Continua la Declaración diciendo: “Además de estas oportunidades, la IA también plantea riesgos importantes, incluso en esos ámbitos de la vida diaria. Con ese fin, acogemos con satisfacción los esfuerzos internacionales pertinentes para examinar y abordar el impacto potencial de los sistemas de IA en los foros existentes y otras iniciativas relevantes, y el reconocimiento de que la protección de los derechos humanos, transparencia y explicabilidad, equidad, rendición de cuentas, regulación, seguridad, adecuada supervisión humana, aspectos éticos, mitigación de prejuicios, privacidad y protección de datos. También observamos el potencial de riesgos imprevistos derivados de la capacidad de manipular contenido o generar contenido engañoso. Todas estas cuestiones son de importancia crítica y afirmamos la necesidad y urgencia de abordarlas. (…) Riesgos de seguridad particulares surgen en la “frontera” de la IA, entendida como aquellos modelos de IA de propósito general altamente capaces, incluidos los modelos básicos, que podrían realizar una amplia variedad de tareas, así como IA específicas y relevantes que podrían exhibir capacidades que causen daño, que igualan o superan las capacidades presentes en los modelos más avanzados de hoy. Pueden emerger riesgos sustanciales debido a un posible uso indebido intencional o problemas de control no deseados relacionados con la alineación con la intención humana. (…) Estos problemas se deben en parte a que esas capacidades no se comprenden completamente y, por lo tanto, son difíciles de predecir. Nos preocupan especialmente estos riesgos en ámbitos como la ciberseguridad y la biotecnología, así como donde los sistemas de inteligencia artificial de vanguardia pueden amplificar riesgos como la desinformación. Existe la posibilidad de que se produzcan daños graves, incluso catastróficos, ya sean deliberados o no, derivados de las capacidades más importantes de estos modelos de IA. Dado el rápido e incierto ritmo de cambio de la IA, y en el contexto de la aceleración de la inversión en tecnología, afirmamos que es especialmente urgente profundizar nuestra comprensión de estos riesgos potenciales y de las acciones para abordarlos”.

B.2) Tratamiento

Encontramos dispersas en la Declaración referencias a las medidas de tratamiento para lograr una IA segura que podemos sistematizar en torno a los siguientes principios:

a) Innovación

En este sentido, el párrafo 6º de la Declaración se refiere a la necesaria compatibilidad de la regulación segura con la innovación cuando dice: “los países deben considerar la importancia de un enfoque regulatorio y de gobernanza proporcionado y pro-innovación que maximice los beneficios y tenga en cuenta los riesgos asociados con la IA”.

b) Inclusión

En este sentido, el párrafo 7º de la Declaración dice: “Todos los actores tienen un papel que desempeñar para garantizar la seguridad de la IA: naciones, foros internacionales y otras iniciativas, empresas, sociedad civil y el mundo académico deberán trabajar juntos. Al señalar la importancia de una IA inclusiva y reducir la brecha digital, reafirmamos que la colaboración internacional debe esforzarse por involucrar a una amplia gama de socios, según corresponda, y acogemos con agrado los enfoques y políticas orientados al desarrollo que podrían ayudar a los países en desarrollo a fortalecer la creación de capacidades y el aprovechamiento dela IA. el papel facilitador de la IA para apoyar el crecimiento sostenible y abordar la brecha de desarrollo”.

c) Adecuación

En este sentido, el párrafo 8º de la Declaración dice: “Afirmamos que, si bien la seguridad debe considerarse en todo el ciclo de vida de la IA, los actores que desarrollan capacidades de IA de vanguardia, en particular aquellos sistemas de IA que son inusualmente poderosos y potencialmente dañinos, tienen una responsabilidad particularmente fuerte de garantizar la seguridad de estos sistemas de IA, incluso a través de sistemas para pruebas de seguridad, mediante evaluaciones y mediante otras medidas apropiadas. Alentamos a todos los actores relevantes a brindar transparencia y rendición de cuentas apropiadas al contexto en sus planes para medir, monitorear y mitigar capacidades potencialmente dañinas y los efectos asociados que puedan surgir, en particular para prevenir el uso indebido y problemas de control, y la amplificación de otros riesgos”.

d) Comprensión

En este sentido, hemos visto que el párrafo 5º de la Declaración se refiere a las dificultades de inteligibilidad cuando dice: “Estos problemas se deben en parte a que esas capacidades no se comprenden completamente y, por lo tanto, son difíciles de predecir”.

e) Cooperación (internacional)

En este sentido, el párrafo 6º de la Declaración dice: “Muchos riesgos que surgen de la IA son de naturaleza intrínsecamente internacional y, por lo tanto, la mejor manera de abordarlos es mediante la cooperación internacional. Resolvemos trabajar juntos de manera inclusiva para garantizar una IA centrada en las personas, confiable y responsable quesea segura y apoye el bien de todas y todos a través de los foros internacionales existentes y otras iniciativas relevantes, para promover la cooperación para abordar la amplia gama de riesgos que plantean”.

Addenda: Síntomas preocupantes de burbuja especulativa en el sector de la IA

Nos parece prudente y oportuno finalizar esta entrada señalando algunos síntomas preocupantes de especulación y burbuja inversora en el sector de la IA que detectamos en la prensa de estos días. Con ello, no es nuestra intención “poner agua al vino” del entusiasmo -con frecuencia irreflexivo e interesado- que despierta la IA por doquier. Antes al contrario, nos parece que la utilidad social de los juristas no es ser “aves de mal agüero” sino identificar los riesgos de especulación en el mercado de la IA para prevenirlos y colaborar a evitar que las crisis se produzcan y arruinen, una vez más, a miles de inversores llamados por una moderna “fiebre del oro de la IA”.

En las inversiones en “start-ups” del sector de la IA detectamos síntomas típicos que, por regla general,  “anuncian” la burbuja especulativa y la crisis inversora dañina para los ahorradores; como la experiencia tanto remota (p.ej. con la crisis de las “telecos”) como cercana (p.ej. con la crisis de los criptoactivos) demuestran. Nos referimos a dos síntomas:

a) La “fiebre inversora”  

La prensa de ayer, 21 de noviembre de 2023 (ABC, p.37), daba la noticia con el siguiente titular:  La inteligencia artificial alimenta unicornios. En un año, el número de startups con una valoración superior a los 1.000 millones de euros se dispara por la fiebre inversora”. Después, la noticia detallaba: “No todo es OpenAI ni toda la inteligencia artificial (IA) generativa es ChatGPT. El fervor por esta tecnología ha desatado la fiebre inversora por un ecosistema que en 2022 captó cerca de 1.400 millones de euros, lo que supone, según datos del sector, multiplicar por siete la cantidad que se recaudó el año anterior. Y alrededor de esta nueva tecnología han crecido infinidad de herramientas: desde asistentes conversacionales hasta potentes detectores precoces de cánceres o enfermedades. Aunque toda la atención la centra la compañía fundada por Sam Altman, a quien por cierto despidieron el pasado viernes y acaba de fichar por Microsoft. En pocos meses, esta empresa emergente ha pasado de ser una completa desconocida para el público en general a ser la compañía del momento gracias a su robot conversacional basado en el lenguaje natural. Con apenas ocho años de vida, OpenAI supera los 25.000 millones de valoración, aunque tardó sólo cuatro años en alcanzar el estatus de unicornio, firma emergente con una valoración superior a los 1.000 millones de euros. Hasta ahora, más de una docena de empresas de IA generativa han alcanzado una valoración de más de mil millones de euros y lo han hecho gracias a la herramienta de OpenAI, ya sea por la popularización de su herramienta o bien porque han salido de la plantilla de la compañía de Altman”.

b) La descomposición gestora

La prensa de ayer, 21 de noviembre de 2023 (ABC, p.40), daba una segunda noticia que también nos parece sintomática cuando informaba de que “el despido del gurú de la IA Sam Altman sume a la empresa de ChatGPT en el caos más absoluto” y seguía diciendo que el despedido “ha encontrado acomodo en Microsoft, donde dirigirá su propio laboratorio de inteligencia artificial” y que “500 trabajadores de la startup han amenazado con abandonar sus puestos para seguir a su antiguo jefe”.