La Unión Europea acaricia la posibilidad de convertirse en la primera región del mundo en tener una ley completa para regular la inteligencia artificial (IA). Pero tras casi 24 horas de maratonianas negociaciones, todavía no se han logrado cerrar todos los puntos, y las reuniones a puerta cerrada en Bruselas se han suspendido hasta mañana viernes, a las 9 de la mañana. Sí se sabe que ya hay acuerdo (aunque no se han revelado los detalles) sobre uno de los temas más espinosos: cómo regular los modelos fundacionales en los que se basan sistemas como el ChatGPT y que, aunque son considerados fundamentales en la evolución de la tecnología, también generan serias dudas por su capacidad disruptiva. Aun así, todavía quedaría pendiente al menos otro aspecto espinoso de la ambiciosa normativa: cuestiones sobre la vigilancia biométrica en tiempo real que tantas dudas y recelos suscita entre los parlamentarios ante su posible uso abusivo por parte de gobiernos, como sucede ya en China.
“Muchos avances realizados en estas 22 horas. Mañana reanudamos el trabajo”, anunció el comisario de Mercado Interior y uno de los mayores impulsores de la ley de IA, Thierry Breton, pasado el mediodía y bastantes horas más tarde de lo que los negociadores habían calculado inicialmente que duraría esta reunión entre representantes de los Estados, de la Eurocámara y la Comisión Europea (los denominados trílogos). Las partes llevaban encerradas desde las 15.00 del miércoles en una sala de la sede del Consejo de la UE en la capital belga, en un intento de acordar un texto legal final que acomode las visiones de los Estados (más favorables a una autorregulación de los modelos fundacionales y un mayor uso de la vigilancia biométrica) y la de los eurodiputados, que exigen muchos más controles y obligaciones en aras de la defensa de los derechos fundamentales ante tecnologías con gran capacidad intrusiva. Aunque no es el paso final -el acuerdo, si llega a haberlo, tendrá todavía que ser ratificado por el Consejo y la Eurocámara, antes de que la ley pueda entrar en vigor, previsiblemente a finales de 2026 si no hay más retrasos- sí se considera un hito puesto que solo llegar hasta este punto ha llegado a parecer a veces imposible.
“Las negociaciones continúan”, indicaban de forma coincidente fuentes próximas a las negociaciones tras una madrugada “intensa y productiva”, como la definió también en las redes sociales la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, quien dirige la reunión, ya que España ostenta hasta finales de mes la presidencia rotatoria del Consejo de la UE. A punto no obstante de cumplirse 24 horas de “ultramaratón” negociadora -como la definió Breton-, las partes decidieron hacer una pausa y retomar las conversaciones este viernes.
La decisión es una muestra de que, aunque se ha avanzado mucho, como aseguran todas las partes, las diferencias son todavía lo suficientemente grandes como para no poder sellar un acuerdo. Y, siguiendo la máxima de la diplomacia de que nada está acordado hasta que todo está acordado, por muchos que sean los avances logrados, todavía no hay fumata blanca. Aun así, el hecho de que no se haya tirado la toalla -convocar a un nuevo trílogo habría supuesto un nuevo retraso que quizás desplazaría el tema a la presidencia belga a partir de enero- sino que se haya decidido hacer solo una pausa es una señal alentadora, aseveran también diversas fuentes. Pese a las diferencias, todavía hay esperanza de que este viernes se logre un acuerdo, si bien todavía queda bastante brecha por cerrar.
Según fuentes próximas a las negociaciones, el obstáculo fundamental final para que los negociadores lancen la esperada fumata blanca es otro de los principales escollos durante todo el proceso de discusión de la ley: la regulación de la vigilancia biométrica en tiempo real en espacios públicos mediante sistemas como el reconocimiento facial, una de las líneas rojas del Parlamento Europeo, preocupado por la posibilidad de abusos de los derechos fundamentales de los ciudadanos por parte de los Estados a la hora de usar estas tecnologías.
Del mandato negociador de la Eurocámara salió la decisión de prohibir o restringir al máximo los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas biométricos en tiempo real o en espacios públicos, salvo muy contadas excepciones por motivos de seguridad. Los Estados buscan ampliar estas excepciones, y ahí se iban a topar, según advirtió la víspera el eurodiputado Brando Benifei, participante en las negociaciones, con una línea roja clara: los legisladores pugnan por mantener la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos. “Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, resumió el eurodiputado italiano el miércoles. “Los gobiernos quieren una larga lista de excepciones a la aplicación que no vamos a aceptar”, aseguró en un encuentro con periodistas horas antes de encerrarse en las discusiones.
“Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, insistió Benifei, que se dijo dispuesto a encontrar un “compromiso” en la materia, como en “casos específicos” de vigilancia policial, pero subrayó que para ello se requerían “salvaguardas” muy robustas y un control de las mismas que, en cualquier caso, no pueden ser ejercidas por los propios Estados. “No vamos a permitir que los gobiernos controlen ellos mismos si respetan la ley, esto es muy, muy importante para nosotros (…) y nunca vamos a aceptar una desviación y no tener un control serio”, adelantó.
Aunque el acuerdo para continuar este viernes las negociaciones se basa en un acuerdo de mantener la discreción sobre el punto en el que se encuentran estas hasta la nueva cita, fuentes conocedoras de los tiras y aflojas confirman asimismo que otro de los puntos por ahora sin resolver es la cuestión de las “excepciones a la seguridad nacional” que países como Francia piden a la ley de IA para poder usar este tipo de tecnologías con fines de defensa, militares o de seguridad nacional como la lucha contra el terrorismo, un extremo en el que los Estados estarían mostrando poca voluntad de llegar a un camino intermedio con los eurodiputados, que buscan limitar estas excepciones al máximo.
Las largas discusiones, por las que se pasó a saludar incluso la vicepresidenta primera y ministra de Economía, Nadia Calviño -otra muestra de la gran prioridad que España ha querido dar al expediente de la IA, cuya ley quiere poder acordar bajo su mandato europeo– sí han permitido ya, según fuentes coincidentes, superar el otro gran obstáculo para un acuerdo provisional sobre la ley: la cuestión de la regulación de los modelos fundacionales, sobre todo aquellos más potentes.
Más que el “qué”, el pulso giraba en torno al “cómo”, explicaban fuentes próximas de la negociación en vísperas de la misma. Países como Alemania, Francia e Italia se habían opuesto en las últimas semanas a, como buscaba la Eurocámara, fijar las obligaciones por ley y abogaban por una mayor autorregulación —mediante códigos de conducta, eso sí, obligatorios— de los desarrolladores. El argumento usado era no trabar la innovación y competitividad en un sector en el que Europa no quiere quedarse atrás frente a sus grandes rivales, Estados Unidos y China.
Pero los eurodiputados, preocupados por la capacidad de estas nuevas tecnologías de afectar derechos fundamentales de los ciudadanos, habían puesto líneas rojas y advertido de su intención de abandonar las negociaciones —lo que habría postergado fuertemente toda la ley, que se espera pueda ser totalmente implementada a finales de 2026— si no se fijaban suficientes salvaguardas. Sobre todo para los modelos fundacionales más potentes, los considerados de “riesgo sistémico” porque tienen capacidades de alto impacto cuyos resultados pueden “no ser conocidos o comprendidos en el momento de su desarrollo y publicación, por lo que pueden provocar riesgos sistémicos a nivel de la UE”, según la definición aceptada por todas las partes.
El meollo, explicaba también Benifei en vísperas de las negociaciones, era la forma en que se “garantiza” para estos modelos más potentes “que lo que hagan los desarrolladores de esos modelos sea obligatorio y se pueda exigir su cumplimiento”. La Eurocámara, señaló, quería un texto lo suficientemente claro para asegurarse de que “no hay manera de escapar a esas obligaciones”, incluso aunque fueran incluidas en un código de conducta como pedían los Estados, pero que, en cualquier caso, “que no sea un compromiso voluntario de facto, sino que se pueda hacer cumplir”.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.
Suscríbete para seguir leyendo
Lee sin límites
_