Guia APL IA scaled

Debates | El Anteproyecto de Ley de inteligencia artificial: entre la arquitectura de control y sus límites materiales

En los últimos meses, se han elaborado tres textos que permiten entender cómo se está configurando en España la gobernanza jurídica de la inteligencia artificial en fase prelegislativa.

El primero es el Anteproyecto de Ley para el buen uso y la gobernanza de la inteligencia artificial, impulsado por el Ministerio para la Transformación Digital y de la Función Pública. Se trata de un texto en fase de elaboración normativa, que se somete a informes institucionales en el primer trimestre de 2026.

El segundo es el Dictamen 3/2026, de 25 de marzo, del Consejo Económico y Social, emitido en el marco de su función consultiva sobre el Anteproyecto.

El tercero es el Informe jurídico del Consejo General del Poder Judicial (Comisión de Estudios e Informes), solicitado el 23 de enero de 2026 sobre el mismo Anteproyecto, que analiza su adecuación desde la perspectiva institucional y de aplicación jurisdiccional.

El Anteproyecto de Ley para el buen uso y la gobernanza de la inteligencia artificial tiene como finalidad adaptar el ordenamiento jurídico español el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (Reglamento de Inteligencia Artificial) articulando los mecanismos nacionales de aplicación, supervisión y control. No se trata de una regulación autónoma de la inteligencia artificial, sino de una norma de desarrollo que organiza la gobernanza interna del sistema.

El texto se estructura en 37 artículos distribuidos en cuatro capítulos, dos disposiciones adicionales, disposiciones finales y un anexo. A través de ellos, define el ámbito de aplicación, configura el sistema de autoridades competentes —con la AESIA como punto de contacto único y la participación de autoridades sectoriales como la AEPD o el CGPJ—, regula supuestos especialmente sensibles como el uso de la identificación biométrica en espacios públicos y establece un régimen sancionador completo vinculado al modelo europeo.

El Anteproyecto no construye un régimen autónomo de la inteligencia artificial, sino que desarrolla en el ordenamiento español el Reglamento de Inteligencia Artificial, estableciendo los mecanismos nacionales de aplicación y control.

Desde este punto de vista, el texto se organiza en torno a tres ejes. Por un lado, la gobernanza, con un sistema complejo de autoridades de vigilancia sectoriales y un papel central de la Agencia Española de Supervisión de la Inteligencia Artificial. Por otro, el régimen sancionador, con una tipificación extensa de infracciones y sanciones vinculadas al modelo europeo. Y, finalmente, la regulación de determinados usos especialmente sensibles, como la identificación biométrica remota en espacios públicos, sometida a autorización judicial. La lógica del Anteproyecto es clara: construir una arquitectura institucional capaz de controlar el despliegue de la inteligencia artificial en el mercado y en el sector público.

El Dictamen del Consejo Económico y Social no cuestiona esa arquitectura, pero introduce matices que afectan a su calidad material. Su observación más relevante no es técnica, sino institucional: la ausencia de diálogo social en la elaboración del Anteproyecto. Este punto no es menor. El Consejo subraya que la norma incide directamente en ámbitos como el empleo y la gestión de personas trabajadoras, lo que habría justificado una participación más directa de los interlocutores sociales. Con ello, introduce una idea de fondo: la gobernanza de la inteligencia artificial no puede construirse únicamente como una cuestión administrativa, porque una parte esencial de sus efectos se produce en relaciones laborales.

A partir de ahí, el Dictamen incorpora otras precisiones que refuerzan esta misma lógica. En particular, introduce una exigencia más intensa en materia de derechos laborales, al señalar que la obligación de informar a la representación de las personas trabajadoras sobre el uso de sistemas de inteligencia artificial de alto riesgo debe producirse con carácter previo a su puesta en funcionamiento, como condición para que el derecho sea efectivo. Asimismo, advierte que el “buen uso” de la inteligencia artificial en el sector público no puede quedar reducido a exigencias formales de transparencia, sino que debe integrar de forma expresa la dimensión de igualdad y no discriminación, en conexión con la Ley 15/2022, lo que implica la evaluación de posibles sesgos algorítmicos.

Junto a ello, el CES insiste en la necesidad de reforzar la coordinación efectiva entre autoridades, más allá de su mera designación formal, advirtiendo del riesgo de fragmentación en un sistema con múltiples autoridades sectoriales si no se articulan mecanismos de coordinación más robustos y espacios de relación con la sociedad civil. El dictamen desplaza así el foco desde la estructura hacia el contenido: no basta con organizar el sistema, es necesario garantizar cómo afecta realmente a los derechos.

El Informe del Consejo General del Poder Judicial introduce un plano de análisis distinto, centrado en la adecuación competencial, la técnica normativa y las garantías propias del ámbito jurisdiccional. A diferencia del CES, que pone el acento en la dimensión social y material de los derechos, el CGPJ sitúa sus objeciones en la coherencia del sistema con el marco constitucional y con las exigencias de seguridad jurídica.

En primer lugar, plantea un problema de rango normativo en la propia configuración del sistema de gobernanza. El Anteproyecto designa a la Dirección de Supervisión y Control de Protección de Datos del CGPJ como autoridad de vigilancia mediante una ley ordinaria. El Consejo advierte que esta opción no resulta adecuada desde el punto de vista constitucional, en la medida en que la regulación de su organización y funciones está reservada a la Ley Orgánica del Poder Judicial, conforme al art. 122.2 CE. Desde esta perspectiva, considera necesario ajustar la técnica normativa, ya sea mediante una remisión expresa a la LOPJ o mediante la designación del propio CGPJ como institución, y no de uno de sus órganos internos.

En segundo lugar, el informe cuestiona la distribución de competencias en materia de supervisión. En particular, critica la atribución a la Agencia Española de Protección de Datos de funciones de vigilancia sobre determinados sistemas de inteligencia artificial vinculados a ámbitos como la predicción de riesgo criminal o el uso de biometría en contextos policiales. El CGPJ entiende que, en la medida en que estos sistemas se insertan en procesos que requieren autorización judicial o están conectados con la función jurisdiccional, su supervisión debería corresponder al propio poder judicial, evitando así posibles injerencias administrativas.

Junto a ello, el Consejo formula objeciones relevantes desde la perspectiva de la seguridad jurídica. Señala que determinadas formulaciones del régimen sancionador —como la referencia a “acciones no tipificadas como delito”— pueden generar ambigüedad en la delimitación de las infracciones. Asimismo, advierte que el criterio de cómputo de la prescripción vinculado al momento en que “se manifieste el efecto lesivo” introduce un grado de indeterminación que puede afectar a la previsibilidad del sistema sancionador.

En la misma línea, el informe detecta posibles desajustes en la configuración de los límites sancionadores, al considerar que algunos topes previstos para determinadas infracciones no se ajustan plenamente a los márgenes establecidos por el propio Reglamento europeo, lo que podría generar problemas de coherencia normativa.

Finalmente, el CGPJ introduce una advertencia de mayor alcance institucional. La posibilidad de someter sus decisiones sancionadoras a recursos administrativos ordinarios —como el recurso de alzada o reposición— podría, a su juicio, comprometer la independencia exigida a las autoridades de vigilancia en el marco europeo, especialmente cuando estas funciones se ejercen en el ámbito de la Administración de Justicia.

En conjunto, el Informe del CGPJ no cuestiona el modelo de gobernanza ni la necesidad de la norma, pero sí introduce una lectura más exigente desde el punto de vista constitucional y jurisdiccional, poniendo el foco en la correcta delimitación de competencias, la técnica legislativa y la preservación de la independencia judicial dentro del sistema de supervisión de la inteligencia artificial.

La lectura conjunta de los tres documentos permite identificar tres planos distintos de análisis de una misma norma en construcción.

El Anteproyecto define la arquitectura: quién supervisa, cómo se controla y qué ocurre cuando se incumple. El CES introduce la dimensión social y material: la necesidad de diálogo, de coordinación real y de protección efectiva frente a riesgos como la discriminación o el impacto en el empleo. El CGPJ incorpora la dimensión institucional y jurisdiccional: cómo se inserta esa arquitectura en el sistema de poderes públicos y cómo podrá ser aplicada por los tribunales.

El resultado es una imagen bastante completa del momento en el que se encuentra la regulación de la inteligencia artificial en España. No estamos todavía ante una norma cerrada, sino ante un proceso de construcción en el que distintos órganos están señalando, desde posiciones diferentes, los puntos donde esa arquitectura debe reforzarse para ser jurídicamente eficaz y materialmente adecuada.

Contenido protegido. No autorizado su uso para entrenamiento de sistemas de inteligencia artificial sin autorización expresa.

Suscríbete al boletín

Recibe nuevas publicaciones directamente en tu correo.

Publicaciones Similares

Aviso: Los comentarios están sujetos a moderación previa. Solo se publicarán aportaciones relevantes y respetuosas en relación con el contenido jurídico de la entrada. Los comentarios publicados no podrán ser reutilizados ni tratados mediante sistemas automatizados sin autorización.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *