El Gobierno ha aprobado el anteproyecto de ley que regula la gobernanza de la Inteligencia Artificial (IA) en España, con el fin de asegurar un uso ético, inclusivo y beneficioso para la sociedad. Esta iniciativa se alinea con el reglamento europeo de IA ya vigente y busca combinar un enfoque regulador con el fomento a la innovación.
Óscar López, ministro para la Transformación Digital y de la Función Pública, enfatizó en una rueda de prensa posterior al Consejo de Ministros que “la IA es una herramienta muy poderosa” que puede tener tanto aplicaciones positivas como negativas. “Puede ser utilizada para investigar enfermedades o prevenir catástrofes, pero también puede ser un medio para difundir desinformación y atacar la democracia”, subrayó.
Nuevas regulaciones y sanciones
Este anteproyecto se tramitará por vía urgente y deberá seguir los trámites necesarios antes de su aprobación definitiva por parte del Consejo de Ministros y su envío a las Cortes. El objetivo es establecer un marco legal común en la Unión Europea que regule el desarrollo y uso de sistemas de IA, evitando riesgos para las personas.
Entre sus disposiciones, se prohíben usos maliciosos de la IA y se introducen obligaciones más estrictas para sistemas considerados de alto riesgo. Además, se establece un nuevo derecho digital que permite retirar provisionalmente del mercado español aquellos sistemas que hayan causado incidentes graves.
Prácticas prohibidas
A partir del 2 de febrero de 2025, entraron en vigor las prácticas prohibidas en el uso de IA. Estas podrán ser sancionadas desde el 2 de agosto del mismo año mediante multas u otras medidas correctivas. Ejemplos de prácticas prohibidas incluyen:
- Uso de técnicas subliminales para manipular decisiones sin consentimiento.
- Explotación de vulnerabilidades relacionadas con edad o situación socioeconómica.
- Clasificación biométrica basada en raza u orientación política.
- Puntuación social que afecte a derechos como acceso a préstamos o subvenciones.
- Inferencias emocionales en entornos laborales o educativos sin justificación médica.
Las sanciones por incumplimiento pueden ascender entre 7,5 millones y 35 millones de euros o entre el 2% y el 7% del volumen global del negocio del ejercicio anterior, dependiendo del caso.
Sistemas considerados de alto riesgo
Los sistemas catalogados como de alto riesgo incluyen aquellos utilizados en productos industriales, juguetes, servicios esenciales y administración pública. Estos deberán cumplir con requisitos estrictos como gestión adecuada de riesgos, supervisión humana y transparencia en su funcionamiento.
Cualquier incidente grave no comunicado adecuadamente podría resultar en sanciones severas. Por ejemplo, no reportar daños significativos podría acarrear multas entre 7,5 millones y 15 millones de euros.
Fomento a la innovación
A partir del 2 de agosto de 2026, todos los países miembros deberán establecer al menos un sandbox (entorno controlado) para fomentar la innovación en IA. España ha tomado la delantera al lanzar una convocatoria para seleccionar hasta doce sistemas innovadores que participarán en este entorno durante un año.
La experiencia adquirida servirá para elaborar guías técnicas sobre los requisitos aplicables a estos sistemas, garantizando así un desarrollo responsable y seguro dentro del ámbito tecnológico.