La UE pone límites a la inteligencia artificial pero se olvida de las armas autónomas | Tecnología

La UE pone límites a la inteligencia artificial pero se olvida de las armas autónomas | Tecnología


Reconocimiento facial, conducción autónoma, escucha de redes, robótica, investigación de nuevos fármacos, mecanismos de cálculo de probabilidad de retorno de un crédito… La inteligencia artificial (IA) tiene muchas caras. La más temida es su versión orwelliana: este grupo de tecnologías –su crecimiento ha sido tal que ya no se puede hablar de una sola– ha demostrado ser muy útil para vigilar a los ciudadanos e influir en sus decisiones. Ya sucede en China y, según la matemática Cathy O’Neil, también en Occidente, aunque de forma velada. La Unión Europea no quiere dejar que florezca el lado oscuro de estos sistemas. La Comisión presenta hoy un reglamento, cuyo borrador se filtró la semana pasada, que sentará las bases del desarrollo de la inteligencia artificial en el continente.

El texto inicia ahora el proceso de tramitación en el Parlamento Europeo, y por tanto puede alterarse. La aproximación de Bruselas al asunto es la misma que se aplicó al Reglamento General de Protección de Datos (RGPD), en vigor desde 2018: evalúa el riesgo de las distintas aplicaciones de la inteligencia artificial y restringe o prohíbe las que considera más peligrosas. La redacción de la norma deja claro en el preámbulo que su objetivo es que la inteligencia artificial asuma en la UE un enfoque “centrado en el ser humano”. Traducción: en Europa no se va a dejar a las empresas que hagan lo que les plazca.

Restricciones y prohibiciones

Entra en la categoría de “alto riesgo”, y por tanto queda prohibida, la “vigilancia indiscriminada”. Se entiende por ello a los sistemas que rastrean a los ciudadanos en entornos físicos, situándolos en una ubicación exacta en un momento determinado, o que extraen datos agregados sobre estos.

También son de alto riesgo los llamados “sistemas de identificación biométrica remota”, término que alude al reconocimiento facial, una tecnología cuya aplicación ha levantado airadas quejas en la Academia. El reglamento establece excepciones legítimas a su prohibición: estos sistemas solo se permitirán si así lo autoriza la UE o los Estados miembros, si se usan con “fines de prevención, detención o investigación de crímenes graves o terrorismo” o si su aplicación está limitada a un tiempo determinado y luego se borra.

Imagen del superordenador Fugaku tomada el pasado 16 de junio.STR / AFP

Los sistemas de puntuaciones de crédito social, mediante los cuales se calcula la fiabilidad del individuo de acuerdo a una serie de variables, quedan también proscritos. Las autoridades chinas aplican uno, cuyo funcionamiento se desconoce, que puede tener graves consecuencias sobre quienes pierdan puntos.

Igual que el RGPD exige a quienes quieran manipular los datos de un individuo que este dé su consentimiento, el reglamento de inteligencia artificial establece que hay que notificar al aludido cuando interactúe con un sistema de IA. A menos, dice la normativa, que eso sea “obvio por las circunstancias y el contexto de uso”.

Vigilancia y sanciones

Asimismo, se especifica que se deberá supervisar los sistemas considerados de alto riesgo, una categoría que, aclara el texto, estará en constante proceso de actualización. Además de las aplicaciones ya mencionadas, entran ahora mismo en esta definición los sistemas de IA diseñados para decidir cómo y dónde asignar recursos en caso de emergencia, los usados para admitir o denegar solicitudes de acceso a instituciones educativas, para evaluar candidaturas en procesos de reclutamiento de personal, para calcular la solvencia crediticia de los individuos o para asistir a jueces, entre otros.

El reglamento establece también la creación de un “Consejo Europeo de la Inteligencia Artificial”, cuya principal atribución será decidir qué aplicaciones pasan a ser consideradas de alto riesgo.

Las empresas que no cumplan con la normativa se pueden enfrentar a multas de hasta 20 millones de euros o el 4% de su facturación, cifra que en el caso de las grandes tecnológicas puede ser muy abultada.

El principio del camino

La Secretaría de Estado de Digitalización e Inteligencia Artificial valora positivamente el reglamento. “Es un gran paso adelante para que desde la Unión Europea diseñemos la nueva realidad digital”, señalan fuentes del departamento que dirige Carme Artigas. “Es una propuesta equilibrada, que proporciona un entorno de confianza y de garantías a la ciudadanía, pero a su vez sin limitar la capacidad de innovación de una tecnología con tantas oportunidades como la IA”.

Borja Adsuara, consultor y experto en derecho digital, no está de acuerdo en este último punto. La intención de Bruselas de tratar de prever cuál puede ser el desarrollo del conjunto de tecnologías que llamamos IA, opina, encorsetará la innovación. “Europa, desde Justiniano pasando por Napoleón, siempre ha tenido un problema: es un sistema de código cerrado, todo lo que no está expresamente permitido está prohibido. Eso no es muy proclive a la innovación, porque innovar es precisamente hacer lo que no está previsto”, reflexiona. En Estados Unidos, en cambio, el método es el inverso: lo que no está expresamente prohibido está permitido. “Por eso las grandes startups se gestan allí”, añade.

Fachada del edificio 'Berlaymont' de la Comisión Europea en Bruselas.
Fachada del edificio ‘Berlaymont’ de la Comisión Europea en Bruselas.EFE

Para este jurista, el reglamento es un buen punto de partida, aunque se pregunta si no tendría más sentido modificar las leyes ya existentes, desde el Código Penal a Ley de Procedimiento Administrativo, que crear una nueva para una tecnología particular. “Lo que interesa de la tecnología son sus aplicaciones, en concreto los malos usos. El derecho está para prevenir estos últimos”, indica.

Una ausencia destacada

“Me ha decepcionado mucho que se hayan dejado fuera las armas letales autónomas”, destaca por su parte Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC. “El borrador habla de las aplicaciones de alto riesgo de la inteligencia artificial; no sé qué puede tener más riesgo que un arma que tome la decisión de matar de forma autónoma”, abunda. El documento dice textualmente que “esta regulación no aplica a los sistemas de IA usados exclusivamente para el manejo de armas u otros propósitos militares”.

El profesor López de Mantaras cree también que el reglamento es un buen punto de partida para regular la IA, algo que considera necesario. “Pero creo que será extremadamente difícil cumplir con esta regulación. En algunos casos por cuestiones técnicas, como conseguir una transparencia en los datos y algoritmos que cumpla las exigencias, y también por razones prácticas, como el coste derivado de hacerlo”.

Hay más elementos que van a hacer complicado que se cumpla la normativa. El borrador dice que los sistemas de alto riesgo tienen que asegurarse de usar datos que sean de alta calidad para que la inteligencia artificial haga lo que se supone que tiene que hacer, que no tenga sesgos. “Eso está muy bien, pero conseguir tener unas bases de datos de entrenamiento que sean relevantes, representativos y que no tenga errores es muy complejo”, explica López de Mántaras.

Luego están los sistemas que no son cerrados, los que están continuamente aprendiendo. Por ejemplo, los coches autónomos. “¿Cómo asegurar que un sistema que, en el momento de lanzarlo al mercado, tenía bases de datos sin sesgos, bien montadas y controladas, no se desmadre posteriormente a medida que vaya aprendiendo?”, se pregunta.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter.

Lo más vendido de tecnología informática

RebajasBestseller No. 1
HP 15s-eq1072ns - Ordenador portátil de 15.6" FullHD (Ryzen 3-4300U, 8GB de RAM, 512GB SSD, Amd Radeon Integrated Graphics, Sin sistema operativo ) Plata - teclado QWERTY Español
  • Pantalla de 15.6" FullHD
  • Procesador Ryzen 3-4300U
  • 8GB de memoria RAM
  • Almacenamiento de 512GB SSD
  • Tarjeta gráfica Integrada Amd Radeon Integrated Graphics
RebajasBestseller No. 2
Hp Elite 8300 SFF - Ordenador de sobremesa (Intel Core i5-3470, 3.2 GHz, 8GB de RAM, Disco SSD de 240GB + 500GB HDD, Lector, Windows 10 Pro ES 64) (Reacondicionado)
  • Procesador Intel Core i5-3470 caché de 6M, hasta 3,60 GHz
  • Memoria RAM de 8 GB, de tipo DDR3
  • Almacenamiento de SSD 240GB + 500GB HDD
  • Sistema operativo Windows 10 Professional
RebajasBestseller No. 3
Hp Elite 8300 SFF - Ordenador de sobremesa + Pantalla 22" (Intel Core i5-3470, 3.2 GHz, 8GB de RAM, Disco SSD de 240GB + 500GB HDD, Lector, Windows 10 Pro ES 64) (Reacondicionado)
  • Procesador Intel Core i5-3470 caché de 6M, hasta 3,60 GHz
  • Memoria RAM 8GB DDR3
  • Almacenamiento de 240 GB SSD + 500GB HDD
  • Monitor de 22'' marca, modelo y color según stock
  • Sistema Operativo: Windows 10 PRO
RebajasBestseller No. 4
Lenovo V14 - Ordenador portátil 14" HD (Athlon 3020E, 4GB RAM, 128GB SSD, UMA Graphics, Windows 10 Pro), Color gris - Teclado QWERTY español
  • Pantalla de 14" HD, 1280x720 píxeles, TN, 220nits, antirreflejo
  • Procesador Athlon 3020E (2C, 1.2 GHz)
  • Memoria RAM de 4GB DDR4-2400 SO-DIMM
  • Almacenamiento de 128GB SSD M.2 2242 NVMe
  • Sistema Operativo Windows 10 Pro
RebajasBestseller No. 5
Lenovo IdeaPad 1 - Ordenador portátil 11.6" HD (Intel Celeron N4020, 4GB RAM, 64GB eMMC, Intel UHD Graphics 600, Windows 10 Home en modo S), Color Azul - Teclado QWERTY Español
  • Pantalla de 11.6" HD 1366x768 píxeles, TN, 250nits, Anti-glare
  • Procesador Intel Celeron N4020 (2C / 2T, 1.1 / 2.8GHz, 4MB)
  • Memoria RAM de 4GB Soldered DDR4-2400
  • Almacenamiento de 64GB eMMC 5.1
  • Tarjeta gráfica Integrada Intel UHD Graphics 600

Fuente original