La UE está perdiendo la carrera mundial por el liderazgo tecnológico. Necesita aumentar el ritmo de las inversiones en inteligencia artificial (IA), que deben llegar al entorno de los 20.000 millones de euros anuales (ahora está en unos 14.000) sumando desembolso público y privado. También hay que redoblar esfuerzos en formación, tanto en la enseñanza obligatoria como con cursos de digitalización para adultos. Solo con una regulación ágil, que establezca los contrapesos necesarios con los efectos negativos de la tecnología, pero sin cercenar su capacidad de innovación, se podrá conseguir que surjan empresas tecnológicas europeas.
Estas son las conclusiones principales del informe final de la comisión especial del Parlamento Europeo sobre Inteligencia Artificial, aprobado hoy en Estrasburgo y que fija la posición del órgano legislativo comunitario sobre el tema. El documento no tiene validez normativa; es más bien una declaración de intenciones que llega en un momento en el que la UE está en pleno desarrollo de su entramado legislativo en materia tecnológica. La Comisión Europea prepara el Reglamento de Inteligencia Artificial que, entre otras cosas, aplica restricciones a ciertos sistemas de reconocimiento facial o prohíbe los sistemas de crédito social. La Comisión deberá tener en cuenta lo que dice el informe que se ha aprobado hoy.
El espíritu del documento se podría resumir en una frase: es importante regular la inteligencia artificial, pero hay que encontrar la forma de que eso no impida el desarrollo de una industria europea potente. Un equilibrio difícil de establecer, pero del que Europa quiere hacer bandera. “Si no establecemos nosotros los estándares, otros lo harán. No sugerimos regular la tecnología, sino su uso”, ha destacado Margarethe Vestoger, vicepresidenta de la Comisión y máxima responsable de la Agenda Digital europea, invitada a la sesión plenaria.
Varios eurodiputados han incidido durante el debate en que la esencia de la UE es la protección de los derechos, y en que la tecnología no debe de verse como una cuestión técnica, sino política. “Cuando hablamos de policía predictiva hay que saber que impacta sobre presunción de inocencia, y cuando nos referimos a las tecnologías de reconocimiento biométrico tocamos el derecho a la no discriminación”, ha ilustrado Juan Fernando López Aguilar, del grupo Socialista.
“Nuestros estándares están basados en valores. Pero creo que no debemos quedarnos atrás, debemos ser ágiles”, ha señalado el eurodiputado alemán Axel Voss, del Partido Popular Europeo, que ha dirigido la elaboración del informe. “Personalmente, no soy partidario del reconocimiento facial, pero dejar totalmente de lado esa tecnología supondrá que otros tomen la iniciativa y la desarrollen de formas que a nosotros puede que no nos gusten”.
Otras propuestas incluidas en el informe son la creación de una Bolsa europea de valores tecnológicos (el equivalente continental al NASDAQ) que pueda captar capital para las empresas de la UE o el desarrollo de un espacio interconectado de datos.
Entre las quejas formuladas por los europarlamentarios durante la sesión plenaria destacan dos aspectos: que no se llame a prohibir taxativamente las armas autónomas (se indica que, en última instancia, la decisión última recaiga en un ser humano) ni los sistemas de identificación biométricos, como el reconocimiento facial (las autoridades pueden recurrir a estos sistemas en algunos supuestos en los que esté en peligro la seguridad ciudadana).
Un entramado normativo en construcción
La Comisión Especial sobre Inteligencia Artificial en la Era Digital (AIDA) comenzó sus trabajos en septiembre de 2020. Recibió el mandato de explorar el impacto de la IA en la economía de la UE y sus diferentes sectores. El objetivo del informe final, que no tiene validez normativa, es establecer una hoja de ruta para la IA dentro de la UE hasta el año 2030.
Estos esfuerzos se inscriben en un amplio entramado de normativas, algunas de ellas todavía en construcción, que están dando forma a la arquitectura jurídica comunitaria en materia tecnológica. Al Reglamento General de Protección de Datos (RGPD) de 2018, que establece el principio básico de que los datos de los ciudadanos europeos no se pueden recoger ni usar sin su consentimiento, se han sumado este año la Directiva de Mercados Digitales (DSA en sus siglas inglesas), que fija normas de transparencia a las empresas tecnológicas y multas por su incumplimiento, y la Directiva de Mercados Digitales (DMA), que establece mecanismos para que no se generen cuellos de botella en el mercado.
Para el año que viene se espera que la Comisión tenga listo el Reglamento Europeo de la Inteligencia Artificial, el documento que regulará qué uso se puede hacer de esta tecnología. El enfoque adoptado es el del riesgo: se clasifican las aplicaciones en función de las amenazas que suponen para la sociedad y el desarrollo de las personas y se limita el uso de las que se califiquen de alto riesgo. En el borrador de directiva, que todavía puede ser alterado, entran en esa categoría los sistemas de inteligencia artificial que actúan con datos médicos o los sistemas de reconocimiento facial que actúen en espacios públicos, entre otros.