Europa impone reglas firmes a la IA generativa

La nueva fase de la Ley de IA ya está en vigor

La Ley de Inteligencia Artificial de la Unión Europea ha entrado en una nueva etapa. Desde el sábado 2 de agosto, entran en vigor medidas específicas que regulan el uso de modelos de propósito general como ChatGPT, Gemini o Grok. Las empresas desarrolladoras están ahora obligadas a cumplir con estrictos requisitos de transparencia y seguridad si desean operar sin exponerse a multas de hasta el 7% de su facturación global o 35 millones de euros.

Con esta ampliación normativa, la UE refuerza su apuesta por una inteligencia artificial responsable, colocando a los sistemas generativos bajo un marco regulatorio que busca equilibrar innovación con protección al consumidor y respeto a los derechos fundamentales.

Exigencias técnicas, seguridad y derechos de autor

A partir de ahora, cualquier herramienta capaz de generar texto, imágenes, audio o vídeo deberá ser acompañada de documentación técnica clara y actualizada. Esta información debe ser compartida tanto con las empresas que utilizan la tecnología como con la Oficina de IA europea. Los desarrolladores tendrán que detallar cómo fueron entrenados y evaluados sus modelos.

Los sistemas más avanzados estarán obligados a realizar evaluaciones de seguridad de forma continuada, notificar incidentes graves y reducir al mínimo las vulnerabilidades que comprometan los datos de los usuarios. Además, deberán respetar la normativa europea de derechos de autor, publicando resúmenes accesibles sobre los datos utilizados para entrenar sus modelos, e implementar mecanismos que permitan a los titulares de derechos excluir sus contenidos del uso en sistemas de IA.

Adhesiones voluntarias y tensiones con las grandes tecnológicas

La Comisión Europea ha difundido un código de buenas prácticas para ayudar a las empresas a adaptarse al nuevo marco legal. Firmas como Microsoft, OpenAI, Google, Anthropic y xAI han expresado su apoyo, aunque no sin expresar reservas. Según Google, ciertos aspectos de la legislación podrían ralentizar el desarrollo tecnológico europeo y crear obstáculos para la competencia en el sector.

La normativa afecta directamente a lanzamientos como GPT-5, previsto para este mes. Aunque muchos actores han mostrado disposición a cooperar, el cumplimiento es obligatorio para todas las compañías que operen en el mercado europeo, sin importar si suscriben el código voluntario o no.

Meta se desmarca y critica la regulación

Meta ha anunciado abiertamente que no firmará el código de buenas prácticas, aunque reconoce que deberá cumplir con las obligaciones legales impuestas por la UE. La empresa considera que la Ley de IA podría frenar la innovación y obstaculizar la competitividad de las empresas europeas. Según su director de asuntos globales, estas medidas dificultan la implementación de modelos avanzados y perjudican a quienes desean construir negocios sobre esta tecnología.

A pesar de las críticas, la normativa refleja la intención clara de Bruselas de establecer un estándar global sobre cómo deben desarrollarse y aplicarse los sistemas de inteligencia artificial en beneficio de los ciudadanos europeos.