Por una amplia mayoría
La Eurocámara aprueba la primera ley de Inteligencia Artificial del mundo
Establece límites para la vigilancia biométrica y prohíbe aquellas herramientas que puedan manipular el comportamiento humano
El Parlamento Europeo ha aprobado este miércoles la primera ley integral de Inteligencia Artificial del mundo (IA) con una mayoría aplastante de 523 votos a favor, 46 en contra y 49 abstenciones. Esta normativa establece un modelo propio europeo, alejado tanto de la laxitud estadounidense como del uso por parte del Estado para el control social, tal y como sucede en China con la vigilancia biométrica indiscriminada y la persecución de los disidentes políticos.
La impresión es que la UE ha puesto la primera piedra de un mundo nuevo, pero que aún queda mucho trabajo por hacer ante una revolución tecnológica que entraña todo tipo de dilemas morales y legales. "La Inteligencia Artificial nos empujará a repensar el contrato social en el corazón de nuestras democracias, nuestros modelos educativos, los mercados laborales y la forma en que llevamos a cabo la guerra. La Ley de IA es un punto de partida para un nuevo modelo de gobernanza construido en torno a la tecnología. Ahora debemos centrarnos en la aplicación práctica de la legislación", ha explicado el componente de la comisión de Libertades Civiles, Dragos Tudorache.
Esta normativa establece ciertas categorías de productos generados por Inteligencia Artificial según su nivel de peligrosidad que quedan sujetos a diferentes tipos de legislación. Quedan totalmente prohibidos los sistemas de categorización biométrica que usen datos sensibles, como creencias religiosas y filosóficas, ideología, orientación sexual o raza; utilización de imágenes de internet para crear bases de datos de reconocimiento facial; herramientas de reconocimiento de emociones en lugares de trabajo e instituciones educativas; todos los sistemas de manipulación del comportamiento humano o características personales y la explotación de vulnerabilidades de las personas por edad, situación social o económica o algún tipo de discapacidad.
Uno de los aspectos más peliagudos de las conversaciones ha sido establecer límites a la vigilancia biométrica, basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. Aunque la ley establece una prohibición general de recurrir a esta herramienta en tiempo real y en lugares públicos, se podrá utilizar con autorización judicial o administrativa previa para una lista cerrada de delitos y durante un tiempo y espacio limitados. Estos delitos incluyen la búsqueda de víctimas de tráfico de personas o explotación sexual, la prevención de amenazas terroristas específicas y la localización e identificación de sospechosos en delitos graves: terrorismo, tráfico, explotación sexual, asesinato, secuestro, violación, robo armado, participación en una organización criminal o acciones contra el medio ambiente. En el caso de que este herramienta se utilice después para investigar un crimen, también deberá limitarse de manera estricta a localizar a personas sospechosas o condenadas por haber cometido un delito grave. Además, los datos obtenidos de este sistema deberán quedar protegidos aunque atañan a delincuentes.
La legislación también se refiere a los sistema de Inteligencia Generativa. Estos sistemas de conversación permiten crear ideas y contenidos nuevos, al igual que hace la inteligencia humana reutilizando los datos de entrenamiento para resolver nuevos problemas. Por ejemplo, no se limitan a aprender palabras en un nuevo idioma, sino que después puede componer un poema con ellas. Estas nuevas herramientas no quedan prohibidas, pero sí vigiladas. Los fabricantes deberán proveer de información técnica, avisar de los contenidos que han sido generados por Inteligencia Artificial, evitar que se generen contenidos ilegales y la publicación de resúmenes de los datos protegidos por derechos de autor utilizados durante la fase de entrenamiento. La aplicación de estos derechos de autor será realizada por una oficina europea encargada de este cometido que deberá establecer estándares comunes para todos estos requisitos.
Aquellos sistemas más peligrosos dentro de la Inteligencia Generativa deberán también cumplir requisitos adicionales, como establecer modelos de conducta, informes de análisis y mitigación de riesgos, obligación de informar a la Comisión sobre incidentes serios así como de cumplir con las normas de ciberseguridad y eficiencia energética. Hasta que se hayan armonizado estos estándares europeos, este tipo de herramientas podrán regularse por códigos de conducta propios. Además, las imágenes, contenidos de audio o de vídeo artificiales o manipulados deberán esta identificados.
Si las empresas no cumplen estos requisitos pueden enfrentarse a multas desde los 35 millones de euros y el 7% de sus beneficios globales hasta 7,5 millones de euros y el 1,5% de los beneficios dependiendo del tamaño de la empresa y la infracción.
Las empresas pequeñas podrán establecer regulaciones aisladas y test en el mundo real, según los criterios de las autoridades nacionales, para desarrollar este tipo de herramientas innovadoras antes de que estén disponibles en el mercado, como modo de no lastrar la innovación en la UE.
Ahora esta legislación debe recibir el visto bueno de las capitales europeas antes de su entrada en vigor. A partir de aquí será de plena aplicación veinticuatro meses después con excepción de: las prohibiciones de prácticas (seis meses); los códigos de buenas prácticas (nueve meses después); las normas sobre la IA de uso general, incluida la gobernanza (doce meses después), y las obligaciones para los sistemas de alto riesgo (treinta y seis meses después).
✕
Accede a tu cuenta para comentar