La Unión Europea mantiene su calendario para las normas sobre IA generativa pese a la presión de la industria

Última actualización: 08/07/2025
Autor: Isaac
  • La Comisión Europea mantiene la fecha del 2 de agosto para aplicar las normas sobre modelos de IA generativa, rechazando un aplazamiento pese a peticiones del sector tecnológico y algunos países.
  • Desarrollo de un Código de Buenas Prácticas para los GPAI, aún pendiente de aprobación, con posible periodo transitorio para empresas en su adaptación al nuevo marco legal.
  • Las obligaciones regulatorias europeas buscan transparencia, seguridad y protección de datos, reforzando sanciones y requisitos en casos de incumplimiento, como ha ocurrido recientemente en Italia.
  • Comparativa internacional: la UE opta por un enfoque más estructurado que Estados Unidos (más laxo) o China (centralizado), apostando por soberanía digital y estándares abiertos.

Normas sobre IA generativa en la Unión Europea

La regulación de la inteligencia artificial generativa en Europa está entrando en una fase decisiva mientras sectores económicos y gobiernos ajustan su estrategia ante un calendario inamovible. Bruselas ha reiterado que no retrasará la entrada en vigor de las nuevas normas sobre IA, programadas para aplicarse el próximo mes de agosto, pese a la creciente presión de empresas tecnológicas y varios países miembros que temen no estar preparados para su cumplimiento.

En las últimas semanas, compañías líderes como Alphabet, Meta, Apple o Airbus, respaldadas por organizaciones como CCIA Europe, han elevado sus demandas a la Comisión Europea para solicitar una pausa en la implementación de la nueva Ley de Inteligencia Artificial. Su principal argumento radica en la ausencia de directrices técnicas y definiciones clave para las obligaciones exigidas, lo que podría comprometer tanto la innovación como la seguridad jurídica de las empresas que desarrollan y emplean modelos de IA generativa.

Normas específicas para modelos generativos y resistencia al aplazamiento

Implementación de normas en IA generativa

La aplicación de las normas para los denominados modelos GPAI (Inteligencia Artificial de Propósito General) como ChatGPT, LeChat, Gemini o Llama 4 sigue prevista para el 2 de agosto. Estas normas incluyen nuevas obligaciones de transparencia, evaluación de riesgos y responsabilidad para los proveedores y usuarios de sistemas de IA generativa. Aunque varios grupos de presión y algunos estados miembros argumentan que la falta de preparación podría generar inseguridad jurídica, la Comisión ha descartado oficialmente cualquier moratoria en sus plazos.

  Huawei lanza SuperPoD: computación de IA hacia el millón de chips

Como parte del proceso, casi un millar de expertos y organizaciones civiles han participado en la elaboración de un Código de Buenas Prácticas que pretende facilitar el cumplimiento de la futura norma. Sin embargo, la aprobación final de este Código va con retraso respecto al calendario inicial. Aun así, se ha confirmado que estará disponible antes de la fecha límite, y se estudia establecer un período de transición para su aplicación voluntaria, aunque esto no exonerará a las empresas del cumplimiento legal a partir de agosto.

Reacciones del sector y periodo transitorio

Adaptación de la industria a la regulación de IA generativa

La incertidumbre generada por la falta de directrices finales y los plazos ajustados para su cumplimiento ha provocado que dos tercios de las empresas europeas reconozcan no comprender aún plenamente las nuevas obligaciones. Además, varias multinacionales europeas y estadounidenses han alertado de que la entrada en vigor sin manual técnico podría poner en riesgo la competitividad europea frente a otras regiones, como Estados Unidos o China, que optan por enfoques regulatorios menos estrictos o centralizados.

Ante las dificultades para terminar a tiempo los trabajos en guía y estándares, el Consejo de IA sopesa fórmulas de «periodo de gracia» para el Código de Buenas Prácticas, aunque la Comisión insiste en que la ley en sí será exigible desde la fecha prevista. Por su parte, algunos países, como Alemania o Dinamarca, han solicitado oficialmente el retraso, mientras que España respalda el marco actual y apuesta por mecanismos de simplificación regulatoria a final de año.

Ética, protección de datos y ejemplo reciente en Italia

Ética y protección de datos en IA generativa

La realidad normativa ya está impactando en la práctica. La autoridad italiana de protección de datos impuso una sanción a Luka Inc., desarrolladora del chatbot Replika, por incumplir principios esenciales del RGPD al usar IA generativa sin mecanismos adecuados de transparencia, verificación de edad y límites en el tratamiento de datos, incluyendo menores. La sanción asciende a cinco millones de euros y requiere la corrección de deficiencias en el sistema, evidenciando la creciente presión para que el desarrollo de IA cumpla con la protección de derechos y la legislación europea.

  Nuevos modelos y retos en la gobernanza de la Inteligencia Artificial: marcos éticos, seguridad y participación

Casos como este anticipan que en Europa se exigirá que todo desarrollo de IA, especialmente el generativo, respete principios como la minimización de datos, la transparencia y la implementación de medidas técnicas y organizativas que garanticen el respeto a los derechos fundamentales, particularmente en relación con menores. La interacción entre el RGPD y el Reglamento de IA amplía el marco de aplicación y resalta la necesidad de reforzar la seguridad y la confianza en todas las fases del desarrollo y uso de IA generativa.

Comparativa internacional: Europa, EE.UU. y China

El modelo europeo contrasta con los marcos regulatorios de otras potencias tecnológicas. Frente a la autorregulación estadounidense basada en directrices voluntarias y la centralización china centrada en control estatal, la UE apuesta por un enfoque basado en gestión de riesgos, supervisión humana y transparencia. Esto implica revisar principios éticos universales, estableciendo obligaciones específicas sobre sesgos, derechos de información y responsabilidad de todos los actores en la cadena de valor de la IA generativa.

Europa busca evitar los modelos de «caja negra» y promover la explicabilidad para que usuarios y partes afectadas entiendan los procesos y puedan reclamar si una decisión automatizada resulta injusta. Además, refuerza su apuesta por la soberanía digital, tecnologías de código abierto y centros de datos alineados con su marco legal, minimizando riesgos en transferencias internacionales y fomentando un ecosistema innovador y seguro.

Pese a los desafíos, la determinación de la Comisión Europea respecto a la entrada en vigor en agosto deja claro que todas las empresas operando en la Unión deberán ajustarse a los nuevos estándares legales en IA generativa. La clave será equilibrar seguridad jurídica, innovación y protección de derechos en un entorno cada vez más competitivo y regulado a nivel mundial.

Normativas para coche eléctrico-1
Artículo relacionado:
Nuevas normativas para el coche eléctrico: lo que cambia en 2025 y cómo afecta a conductores y fabricantes