Es noticia
Fracasa el 'sabotaje' francés a la ley de IA. Ahora Google y OpenAI tienen un problema
  1. Tecnología
Francia no logra tumbar el 'AI Act'

Fracasa el 'sabotaje' francés a la ley de IA. Ahora Google y OpenAI tienen un problema

Los 27 países miembros de la UE han ratificado en una votación clave este viernes la nueva ley europea de IA. Francia ha intentado sabotearla hasta el último minuto, pero ha fracasado. ¿Qué ha ocurrido?

Foto: Sam Altman, fundador y CEO de Open AI. (Reuters)
Sam Altman, fundador y CEO de Open AI. (Reuters)

A estas alturas, todos sabemos ya que Francia odia los tomates españoles. El país lleva días exigiendo a la UE una "excepción agrícola" para proteger sus productos. Lo que es menos conocido, pero igual de relevante, es que está ocurriendo exactamente lo mismo en un terreno más etéreo pero crucial para el futuro: la inteligencia artificial.

Desde la aprobación en diciembre de la ley europea de IA, conocida como AI Act, Francia se había propuesto tumbarla de la mano de Alemania e Italia. La excusa oficial es que obstaculizaba la innovación. "No es una buena idea regular [los modelos fundacionales de IA] más que otros países", aseguró Emmanuel Macron. En realidad, Francia estaba barriendo para casa, protegiendo a su OpenAI local, la startup Mistral (22 empleados y valorada en más de 2.000 millones de euros) y a sus propios intereses económicos y tecnológicos.

Este viernes, Francia tenía la última oportunidad de descarrilar el AI Act en la votación del comité de representantes de los diferentes estados miembros de la UE, el llamado Coreper (Committee of Permanent Representatives, en sus siglas en inglés). Una vez aprobado aquí, el texto ya no se podría modificar. Francia necesitaba una mayoría cualificada para detener el proceso legislativo. Es decir, le valía con el apoyo de Alemania e Italia (dado el peso de los tres en términos de población). El fracaso, sin embargo, ha sido total.

"Francia se ha quedado sola. En las votaciones del Coreper solo se permite un sí, un no, o una abstención. En Alemania, el ministro de asuntos digitales se oponía a la ley, pero al final cedió. Italia tiene este año la presidencia rotatoria del G7 y si vota en contra iba a ser un drama. En Francia, se oponía el ministro de economía, pero tanto el de interior como el de cultura, este último por temas de copyright, estaban a favor, así que al final ha tenido que capitular. Ya no hay marcha atrás", explica a El Confidencial Luca Bertuzzi, periodista del medio especializado Euractiv que logró hacerse con una copia de la ley y filtrarla online hace una semana (sus casi 900 páginas se pueden leer aquí). La opacidad sobre el AI Act era tal que la única forma de que el texto viera la luz más allá de los despachos de Bruselas ha sido a través de esta filtración.

placeholder El presidente francés, Emmanuel Macron. (Reuters)
El presidente francés, Emmanuel Macron. (Reuters)

La ley europea de IA tendrá ahora que seguir los siguientes pasos del largo proceso de aprobación, pero ya no corre peligro. En abril, tendrá que ser ratificada en el Pleno del Parlamento Europeo para luego entrar en vigor entre mayo y junio. Eso no significa que Francia haya dado su brazo a torcer por completo, seguirá tratando de influir en la regulación, pero por otras vías. Su puesta en marcha requerirá el desarrollo de documentación y guías que Francia intentará redactar a su favor. Y el establecimiento de la Oficina Europea de Inteligencia Artificial se nutrirá, en buena parte, de técnicos y directivos franceses.

Mejor con ley que sin ella

"La ley contempla ciertas obligaciones, como seguir unas reglas muy estrictas cuando se esté usando IA en escuelas, hospitales, vigilancia o en la contratación de gente, que son una mejora importante. Va a obligar a las tecnológicas a una transparencia que ahora no existe. En el frente de la IA generativa, por ejemplo, si un contenido está creado por IA generativa, van a tener que indicarlo con una especie de marca de agua. Todo es mejorable, pero si se aplica correctamente, esta ley va a cambiar muchas cosas", señala Bertuzzi.

Tras la votación de este viernes, Europa se apunta un tanto histórico, al crear la primera regulación de IA del mundo que, a buen seguro, EEUU intentará emular. Para OpenAI, Google y Facebook es una pésima noticia. Las reglas más estrictas del AI Act se centran justo en ellos, en los llamados modelos fundacionales, es decir, los grandes modelos del lenguaje (LLM), como GPT (OpenAI), PaLM 2 (Google) o LLaMA (Facebook). Son los cimientos sobre los que se asientan los millones de servicios y aplicaciones de IA que ya usamos en nuestro día a día.

placeholder El comisario europeo de Mercado Interior, Thierry Breton (izquierda). (Reuters)
El comisario europeo de Mercado Interior, Thierry Breton (izquierda). (Reuters)

Un estudio reciente de la Universidad de Stanford demostró que estos modelos incumplen la mayoría de requerimientos ahora reflejados en la ley de IA. En algunos casos, el nivel de cumplimiento no llega ni al 25% de las exigencias. "El coste de adaptación para OpenAI, Google y Facebook va a ser alto, aunque es pronto para cuantificarlo. Eso sí, van a tener tiempo, no tendrán que cumplir hasta dentro de 2 años desde la entrada en vigor del texto", señala Bertuzzi.

Uno de los frentes de la regulación europea de IA más alabados por especialistas es el de las exigencias a las compañías en el frente de la ética y la transparencia. Si estás interactuando con un chatbot de IA, te van a tener que avisar. Si estás viendo deepfakes u otro tipo de contenido generado por IA, te van a tener que avisar. Ahora mismo, todo esto es voluntario para las compañías.

"La ley no es perfecta. Pero vamos a estar mucho mejor con ella que con el 'statu quo' actual".

Hay usos de IA que quedan directamente prohibidos, como la categorización biométrica, el almacenaje online de imágenes de personas para crear bases de datos, como las de la empresa Clearview AI, o los sistemas de reconocimiento de emociones en entornos laborales y en escuelas. También se veta el uso de herramientas predictivas por las fuerzas de seguridad, para evitar la persecución criminal de personas señaladas por un algoritmo sujeto a sesgos.

Quedan abiertas, sin embargo, algunas brechas preocupantes. Los países de la UE no podrán usar reconocimiento facial en tiempo real en espacios públicos sin autorización judicial (y solo para una lista concreta de delitos, como terrorismo o tráfico de personas), pero sí podrán usarlo en "circunstancias excepcionales relativas a la seguridad pública". El redactado tan general y abierto deja demasiado espacio a la interpretación. Además, la ley no aplicará a sistemas de IA diseñados solo para usos militares, lo que no evita que se puedan usar de forma abusiva. "El AI Act no es perfecto", resume Bertuzzi. "Pero vamos a estar mucho mejor con él que con el statu quo actual".

A estas alturas, todos sabemos ya que Francia odia los tomates españoles. El país lleva días exigiendo a la UE una "excepción agrícola" para proteger sus productos. Lo que es menos conocido, pero igual de relevante, es que está ocurriendo exactamente lo mismo en un terreno más etéreo pero crucial para el futuro: la inteligencia artificial.

Inteligencia Artificial
El redactor recomienda