En un momento en el que la inteligencia artificial avanza a pasos agigantados, Europa da un paso firme para equilibrar la innovación con la responsabilidad. La Comisión Europea ha publicado el tercer borrador del Código de Buenas Prácticas para modelos de IA de propósito general (General-Purpose AI, GPAI), una herramienta clave para apoyar la implementación de la Ley de IA (AI Act).
Este nuevo borrador marca la fase final de redacción, abierta a comentarios hasta el 30 de marzo de 2025, y se espera que el texto definitivo esté listo en mayo.
¿Qué es el Código de Buenas Prácticas?
El Código busca ser una guía práctica y flexible para que los proveedores de modelos de IA de propósito general puedan demostrar su cumplimiento con los requisitos del AI Act. No es legalmente vinculante, pero sí un instrumento valioso para mostrar responsabilidad y anticiparse a las exigencias regulatorias.
Accede directamente a los borradores de los 4 grupos de trabajo en la página oficial de la Comisión Europea
¿Qué novedades trae este tercer borrador?
La estructura del documento ha sido simplificada, con compromisos más claros y medidas detalladas. La gran novedad es que se distinguen dos niveles de compromiso:
1. Compromisos generales para todos los proveedores
Transparencia: obliga a documentar el modelo, su arquitectura, dependencias, consumo energético, limitaciones y riesgos. Para ello, se ha incluido un formulario de un Modelo de Transparencia, que estandariza y facilita esta tarea.
Derechos de autor: los proveedores deben demostrar que cumplen con las normas europeas de copyright, incluyendo mecanismos para evitar el uso de contenido protegido sin autorización durante el entrenamiento.
2. 16 compromisos adicionales para modelos con riesgo sistémico
Aplica únicamente a los modelos más avanzados, que podrían tener un impacto significativo y transversal en la sociedad. Estos compromisos están agrupados en tres áreas:
Evaluación de riesgos: análisis del riesgo sistémico durante todo el ciclo de vida del modelo.
Mitigación técnica: implementación de medidas para minimizar daños, asegurar el desarrollo seguro y planificar la retirada de modelos.
Gobernanza del riesgo: establece mecanismos de supervisión independiente, gestión de incidentes, comunicación de riesgos y colaboración con proveedores descendentes.
Participación, transparencia y próximos pasos
Junto con el nuevo borrador, se ha lanzado un sitio web interactivo para facilitar la participación de las partes interesadas. También se ha anunciado un resumen ejecutivo (próximamente disponible), que facilitará la comprensión del texto a un público más amplio.
Este enfoque colaborativo y transparente es un ejemplo de cómo la gobernanza de la IA puede construirse de forma abierta, técnica y adaptativa, sin frenar la innovación, pero anticipando sus riesgos.
¿Por qué es importante para quienes trabajamos con LLMs?
Porque este código afecta directamente a los proveedores de modelos como GPT, Claude, Mistral o LLaMA, y también a quienes los adaptan o los crean. Si trabajas con IA generativa, necesitas comprender cómo evoluciona este marco legal para anticiparte a lo que viene, tanto con la documentación de tu modelo hasta con la forma en que gestionas sus riesgos.
Abogada especializada en Inteligencia Artificial Generativa, LLMS y ética de la IA. Participa en la elaboración del Código de Buenas Prácticas de la Comisión Europea y la Oficina Europea de IA, que regulará el uso de modelos de IA de propósito general en la UE. Miembro de OdiseIA en el área robots-persona.