IA USA

Apuntes | Inteligencia artificial: dos modelos de gobernanza en tensión

En marzo de 2026, la Casa Blanca ha hecho público un documento de recomendaciones legislativas que, aunque todavía poco conocido, resulta especialmente relevante para entender hacia dónde puede orientarse la política jurídica de la inteligencia artificial en Estados Unidos. El texto, titulado National Policy Framework for Artificial Intelligence: Legislative Recommendations, no es una norma ni un proyecto legislativo cerrado, pero sí fija con bastante claridad las prioridades estratégicas que se pretenden trasladar al Congreso de los Estados Unidos.

Su interés no reside tanto en el detalle de las medidas concretas como en la lógica que las articula. Y es precisamente en esa lógica donde el contraste con el enfoque de la Unión Europea se vuelve especialmente significativo.

El documento estadounidense parte de una idea fuerte: la inteligencia artificial es, ante todo, una infraestructura económica, tecnológica y geopolítica que debe desarrollarse sin obstáculos innecesarios. A partir de ahí, la intervención jurídica se diseña como un conjunto de ajustes puntuales sobre riesgos concretos. Se introducen medidas en ámbitos como la protección de menores, la prevención del fraude o la posible afectación a los derechos de propiedad intelectual, pero se evita deliberadamente construir un marco regulatorio denso o transversal.

Esta opción se proyecta también en la arquitectura institucional. El texto descarta la creación de una autoridad federal específica en materia de inteligencia artificial y apuesta por canalizar la regulación a través de organismos ya existentes y estándares impulsados por la propia industria. La idea de fondo es clara: la gobernanza debe ser flexible, sectorial y compatible con la velocidad del desarrollo tecnológico.

En este mismo sentido, el documento insiste en la necesidad de evitar la fragmentación normativa interna. Se propone limitar la capacidad de los estados para regular el desarrollo de la inteligencia artificial, con el objetivo de garantizar un entorno uniforme que no dificulte la competitividad. La homogeneidad se justifica aquí no en términos de seguridad jurídica, sino como condición para el liderazgo tecnológico.

Frente a este planteamiento, el modelo de la Unión Europea responde a una lógica distinta. El Reglamento de Inteligencia Artificial se construye sobre una concepción de la tecnología como fuente potencial de riesgos estructurales que deben ser abordados de forma anticipada. De ahí la introducción de un sistema de clasificación por niveles de riesgo, con obligaciones progresivas y, en determinados supuestos, prohibiciones expresas.

La diferencia no es únicamente de intensidad regulatoria, sino de enfoque. Mientras que en el modelo estadounidense la regulación aparece como un elemento correctivo que se añade al desarrollo tecnológico, en el modelo europeo la regulación forma parte de la propia arquitectura del sistema. La innovación no se produce al margen del Derecho, sino dentro de un marco previamente definido que establece condiciones, límites y garantías.

Esta divergencia se aprecia con especial claridad en el tratamiento de los derechos fundamentales. El documento estadounidense aborda cuestiones como la libertad de expresión, la privacidad o la protección de menores, pero lo hace de forma fragmentaria y, en algunos casos, remitiendo a soluciones judiciales futuras. En cambio, el enfoque europeo integra estos derechos como eje estructural del sistema, imponiendo obligaciones de transparencia, evaluación de riesgos o supervisión humana en función del impacto de cada sistema de IA.

También resulta revelador el tratamiento de la propiedad intelectual. El documento estadounidense evita posicionarse de manera definitiva sobre la licitud del uso de contenidos protegidos para el entrenamiento de modelos y deja la cuestión en manos de los tribunales. La Unión Europea, sin cerrar completamente el debate, tiende a integrar estos problemas dentro de marcos normativos ya existentes, reforzando la idea de continuidad del orden jurídico.

En el ámbito laboral y organizativo, la diferencia es igualmente significativa. El enfoque estadounidense se centra en la adaptación del trabajador a través de formación y capacitación, mientras que el europeo incorpora, al menos de forma incipiente, preocupaciones sobre transparencia algorítmica, condiciones de trabajo y posibles efectos en la estructura de la relación laboral.

Mientras que en el modelo estadounidense la regulación aparece como un elemento correctivo que se añade al desarrollo tecnológico, en el modelo europeo la regulación forma parte de la propia arquitectura del sistema. La innovación no se produce al margen del Derecho, sino dentro de un marco previamente definido que establece condiciones, límites y garantías

En conjunto, lo que se observa es la coexistencia de dos modelos que responden a concepciones distintas del papel del Derecho. El primero, orientado a facilitar el desarrollo tecnológico mediante una regulación mínima y funcional. El segundo, construido sobre una lógica de gobernanza jurídica estructurada, en la que la innovación queda integrada en un sistema de garantías.

Más que una divergencia coyuntural, la diferencia entre ambos enfoques obliga a plantear una cuestión de fondo sobre la propia función del Derecho ante la inteligencia artificial. No se trata únicamente de decidir cuánto regular, sino de determinar desde qué lógica se regula.

Si la inteligencia artificial se concibe como un sector económico, el Derecho actúa como un marco de acompañamiento. Su función principal es facilitar el desarrollo de la actividad, reducir incertidumbres y corregir externalidades negativas cuando estas se manifiestan. En este esquema, la regulación es necesariamente fragmentaria y reactiva: se interviene allí donde aparecen problemas concretos —protección de menores, fraude, propiedad intelectual—, pero sin alterar la estructura general del sistema. La tecnología se integra en el orden existente, y el Derecho se adapta a sus efectos sin cuestionar sus presupuestos.

Esta lógica tiene implicaciones relevantes. En primer lugar, desplaza el centro de gravedad hacia el mercado y la innovación, situando la intervención pública en una posición secundaria. En segundo lugar, favorece soluciones basadas en estándares, autorregulación o intervención judicial ex post, en lugar de marcos normativos exhaustivos. Y, en tercer lugar, tiende a considerar los riesgos como contingentes, es decir, como problemas que pueden gestionarse a medida que aparecen, sin necesidad de rediseñar previamente las reglas del juego.

El enfoque alternativo parte de una premisa distinta: la inteligencia artificial no es solo una tecnología aplicable a distintos sectores, sino una transformación que afecta a la propia forma en que se toman decisiones, se organizan los procesos y se distribuye el poder. Desde esta perspectiva, el problema no es únicamente qué efectos produce la IA, sino cómo reconfigura las estructuras sobre las que el Derecho tradicional ha construido sus categorías.

Esto obliga a un desplazamiento en la función del Derecho. Ya no basta con corregir efectos, sino que es necesario intervenir en la propia arquitectura del sistema. De ahí la importancia de instrumentos como la clasificación por niveles de riesgo, las obligaciones de transparencia, la supervisión humana o las evaluaciones de impacto. No se trata solo de evitar daños, sino de condicionar el diseño y el uso de la tecnología desde el inicio.

En este marco, los riesgos dejan de ser considerados episodios aislados y pasan a entenderse como fenómenos estructurales. La opacidad algorítmica, los sesgos en los datos, la automatización de decisiones o la concentración de poder en infraestructuras digitales no son problemas puntuales, sino características inherentes a determinados modelos de desarrollo tecnológico. Por eso, la respuesta jurídica no puede limitarse a intervenciones sectoriales, sino que requiere una lógica sistemática.

Además, este enfoque introduce una dimensión institucional más intensa. La gobernanza de la inteligencia artificial no se confía únicamente a la dinámica del mercado o a la resolución judicial de conflictos, sino que exige estructuras de supervisión, coordinación administrativa y mecanismos de control ex ante. El Derecho no se sitúa al final del proceso, sino que forma parte de su diseño.

En el fondo, la diferencia entre ambos modelos remite a una cuestión clásica, pero que adquiere una nueva intensidad en el contexto de la inteligencia artificial: si el Derecho debe limitarse a ordenar actividades ya dadas o si debe intervenir en la configuración de los sistemas que producen esas actividades. La IA, en la medida en que desplaza el centro de decisión desde sujetos identificables hacia sistemas complejos de datos y algoritmos, tensiona especialmente esta distinción.

Por lo tanto, el debate no es únicamente regulatorio, sino conceptual. Lo que está en juego es si las categorías jurídicas tradicionales —responsabilidad, decisión, control, sujeto— son suficientes para gobernar entornos en los que la acción se distribuye entre múltiples capas técnicas y organizativas. Y, en consecuencia, si la respuesta debe consistir en ajustar esas categorías o en reconstruirlas desde una lógica distinta.

Contenido protegido. No autorizado su uso para entrenamiento de sistemas de inteligencia artificial sin autorización expresa.

Suscríbete al boletín

Recibe nuevas publicaciones directamente en tu correo.

Publicaciones Similares

Aviso: Los comentarios están sujetos a moderación previa. Solo se publicarán aportaciones relevantes y respetuosas en relación con el contenido jurídico de la entrada. Los comentarios publicados no podrán ser reutilizados ni tratados mediante sistemas automatizados sin autorización.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *