España se adelanta a la obligación europea de establecer un entorno controlado de pruebas para ayudar a los proveedores de IA a cumplir la legislación.

El Gobierno ha dado luz verde al anteproyecto de ley de gobernanza de la Inteligencia Artificial (IA), que busca garantizar un uso de la tecnología que sea ético, inclusivo y beneficioso para las personas. Este instrumento normativo adaptará la legislación española al reglamento europeo de IA, ya en vigor, bajo un enfoque regulador que impulsa la innovación.
El anteproyecto de ley, que se tramitará por la vía de urgencia, seguirá ahora los trámites preceptivos antes de volver al Consejo de Ministros para su aprobación definitiva como proyecto de ley y envío a las Cortes para su aprobación.
Óscar López, ministro para la Transformación Digital y de la Función Pública, ha reconocido la necesidad de la gobernanza y de dar un buen uso a la IA. “Es una herramienta muy poderosa —ha declarado en rueda de prensa posterior al consejo de ministros—, que puede servir para mejorar nuestras vidas o atacar a la democracia; puede tener buenos usos o malos usos. La IA puede ser utilizada para investigar el cáncer o el Alzheimer, para prevenir catástrofes naturales, para descubrir nuevos medicamentos; o puede ser usada para difundir bulos y mentiras, esparcir odio y atacar a nuestra democracia”
Con el objetivo de que la Unión Europea disponga de un marco legal común para el desarrollo, comercialización y uso de sistemas de IA que eviten los riesgos para las personas, el reglamento prohíbe determinados usos maliciosos de la IA, introduce obligaciones más rigurosas para sistemas considerados de alto riesgo y establece unos requisitos mínimos de transparencia para el resto.
Además, incorpora un nuevo derecho digital de retirada provisional del mercado español de sistemas de IA por la autoridad de vigilancia competente cuando hayan provocado un incidente grave, como el fallecimiento de una persona.
Prácticas prohibidas de la IA
En cuanto a las prácticas prohibidas, que entraron en vigor el 2 de febrero de 2025, y que desde el próximo 2 de agosto permitirán sancionar mediante multas u otras medidas adicionales (requerir su adaptación al sistema para que sea conforme, impedir que se comercialice…) aplicando el régimen sancionador que incorpora el anteproyecto de ley, dentro de las horquillas que fija el reglamento europeo, se establecen las siguientes:
· El uso de técnicas subliminales (imágenes o sonidos imperceptibles) para manipular decisiones sin consentimiento, causando un perjuicio considerable a la persona (adicciones, violencia de género o menoscabo de su autonomía).
· Explotar vulnerabilidades relacionadas con la edad, la discapacidad o situación socioeconómica para alterar sustancialmente comportamientos de modo que les provoque o pueda provocar perjuicios considerables.
· La clasificación biométrica de las personas por raza u orientación política, religiosa o sexual.
· La puntuación de individuos o grupos basándose en comportamientos sociales o rasgos personales como método de selección para, por ejemplo, denegarles la concesión de subvenciones o préstamos.
· Valorar el riesgo de que una persona cometa un delito a partir de datos personales como su historial familiar, nivel educativo o lugar de residencia, con excepciones legales.
· Inferir emociones en centros de trabajo o educativos como método de evaluación para promoción o despido laboral, salvo por razones médicas o de seguridad.
Las sanciones oscilan entre los 7,5 y los 35 millones de euros, o entre el 2% y el 7% del volumen de negocio mundial del ejercicio anterior, si esta última cifra es superior, salvo en el caso de pymes, que podrá ser la menor de las dos cuantías.
Las autoridades encargadas de vigilar los sistemas prohibidos serán la Agencia Española de Protección de Datos (para sistemas biométricos y gestión de fronteras); el Consejo General del Poder Judicial (para sistemas de IA en el ámbito de la justicia), la Junta Electoral Central (para sistemas que IA que afecten a procesos democráticos) y la Agencia Española de Supervisión de la Inteligencia Artificial en el resto de los casos.
Sistemas de alto riesgo
Con respecto a los sistemas de IA de alto riesgo, el reglamento dispone los siguientes:
· Todos los que puedan añadirse como elementos de seguridad a productos industriales, juguetes, equipos radioeléctricos, productos sanitarios incluyendo diagnósticos in vitro y productos de transportes.
· Sistemas que formen parte de los siguientes ámbitos: biometría, infraestructuras críticas, educación y formación profesional, empleo, acceso a servicios privados esenciales (como servicios crediticios o de seguros) y a servicios y prestaciones públicos esenciales (como servicios de emergencias o triajes) y disfrute de estos servicios y prestaciones.
· Sistemas para la garantía del derecho, migración, asilo y gestión del control fronterizo
· Sistemas para su uso en la administración de justicia y en procesos democráticos.
Estos sistemas deberán cumplir una serie de obligaciones, tales como disponer de un sistema de gestión de riesgos y de supervisión humana, documentación técnica, una gobernanza de datos, conservación de registros, transparencia y comunicación de información a los responsables del despliegue, sistema de calidad, etc. En caso de incumplimiento, se exponen a sanciones en función de su gravedad.
Fuente: Computerworld

