Los reguladores han aprobado un nuevo paquete de enmiendas más estrictas en materia de transparencia y gestión de riesgos para los sistemas de IA con el fin de garantizar su desarrollo ético y antropocentrista.
Un paso adelante hacia una normativa pionera sobre inteligencia artificial (IA) en el Viejo Continente. La Comisión de Mercado Interior y la Comisión de Libertades Civiles han aprobado, con holgada mayoría, un nuevo mandato de negociación sobre las primeras reglas de la historia para la IA. Los eurodiputados pretenden garantizar con este nuevo paquete de enmiendas que los sistemas de IA estén “supervisados por personas, sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medioambiente”. De igual forma aspiran a contar con una definición uniforme del concepto de IA diseñada para ser “tecnológicamente neutra”, de tal modo que pueda aplicarse a los sistemas de hoy y de mañana. Precisamente por esto han decidido acotar los límites de la IA generativa, definiendo nuevos requisitos para sistemas como ChatGPT, entre otras novedades.
Las enmiendas deberán ser ratificadas en el pleno de junio; a partir de entonces, darán comienzo las negociaciones entre la Eurocámara y el bloque de los Veintisiete para pactar una normativa definitiva. Un reglamento que, según se estima, debería estar previsto antes de las elecciones europeas de 2024.
Las normas, tal y como se determinó originalmente, seguirán un enfoque basado en el riesgo y establecen obligaciones para proveedores y usuarios en función del nivel de inseguridad que pueda generar la IA. Los sistemas de IA con un nivel inaceptable de riesgo para la seguridad de las personas estarían estrictamente prohibidos, incluidos los sistemas que despliegan técnicas subliminales o de manipulación intencionada que explotan las vulnerabilidades de las personas o se utilizan para el scoring social (clasificación de las personas en función de su comportamiento social, estatus socioeconómico o características personales). En este sentido, los eurodiputados modificaron sustancialmente la lista elaborada por la Comisión para incluir prohibiciones de usos intrusivos y discriminatorios de sistemas de IA. Entre ellos:
Asimismo, los reguladores ampliaron la clasificación de áreas de alto riesgo para incluir los daños a la salud, la seguridad, los derechos fundamentales de las personas o el medio ambiente. También añadieron a la lista de alto riesgo los sistemas de IA para influir en los votantes en las campañas políticas y en los sistemas de recomendación utilizados por las plataformas de medios sociales, con más de 45 millones de usuarios según la Ley de Servicios Digitales.
Siguiendo esta misma estela proteccionista, los eurodiputados incluyeron obligaciones para los proveedores de modelos de cimentación -un desarrollo nuevo y en rápida evolución en el campo de la IA-, que tendrían que garantizar una sólida protección de los derechos fundamentales, la salud, la seguridad, el medio ambiente, la Democracia y el Estado de Derecho. Deberán así evaluar y mitigar los riesgos, además de registrarse en una base de datos de la UE.
Por otra parte, apuntando a la actualidad más mediática, los reguladores han apostado por restringir las libertades de la IA generativa. De hecho, los modelos de base generativa, como ChatGPT, tendrán que cumplir requisitos adicionales de transparencia como revelar que los contenidos han sido generados por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.