Con la creciente presencia de la Inteligencia Artificial en todos los aspectos de la vida cotidiana, la cuestión de los marcos legales se ha hecho urgente y necesaria para regular sus usos y proteger los datos. Durante años, la Comisión ha estado facilitando y mejorando la cooperación en materia de IA en toda la UE, impulsando su competitividad y garantizando la confianza basada en los valores de la UE. Tras la publicación de la Estrategia Europea sobre IA en 2018, el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (HLEG) desarrolló unas Directrices para una IA confiable en 2019 y una Lista de evaluación de una IA fiable en 2020. Paralelamente, El primer Plan Coordinado sobre IA se publicó en diciembre de 2018 como un compromiso conjunto con los Estados miembros.
El Libro Blanco de la Comisión sobre la IA, publicado en 2020, estableció una visión clara para la IA en Europa: un ecosistema de excelencia y confianza. Ahora, después de tres días de debate, Europa ha llegado a un acuerdo provisional sobre la Ley de Inteligencia Artificial, a primera de carácter general sobre IA que existe en el mundo, que describe un marco para el uso seguro y responsable de los sistemas de IA, respetando los derechos y valores fundamentales de la Unión Europea, al tiempo que deja espacio para las empresas europeas innovadoras en un mercado único en desarrollo para la IA. Esta Ley afectará a empresas como Google, OpenAI y otras que desarrollan sistemas de IA.
Se trata del final de un proceso legislativo que se inició en abril de 2021, cuando la Comisión Europea dio los primeros pasos para la que se ha convertido en la primera Ley que busca regular el uso de la Inteligencia Artificial, sobre la que Ursula von der Leyen, presidenta de la Comisión Europea, aseguró que está cambiando nuestra vida cotidiana, “si se utiliza de manera inteligente y amplia, la IA promete enormes beneficios para nuestra economía y sociedad”; “la Ley de IA de la UE es el primer marco jurídico integral sobre inteligencia artificial en todo el mundo”, decía von der Leyen, añadiendo que, al garantizar la seguridad y los derechos fundamentales de las personas y las empresas, la ley “apoyará el desarrollo, el despliegue y la adopción de una IA fiable en la UE”.
La idea principal de esta ley es poder regular la IA en función de su capacidad de causar daño a la sociedad siguiendo un enfoque basado en el riesgo: cuanto mayor es el riesgo, más estrictas son las reglas. El texto acordado aún no existe en su forma final ya que durante las negociaciones se hicieron varias sugerencias de último momento, pero la forma general no ha cambiado con respecto a la propuesta original de abril de 2021 de la Comisión Europea.
El enfoque europeo hacia una IA fiable
La Ley de Inteligencia Artificial incluye prohibiciones de los sistemas biométricos que identifican a las personas por características sensibles como la orientación sexual y la raza. También establece requisitos de transparencia para todos los modelos de IA de propósito general, como el GPT-4 de OpenAI, y normas más estrictas para los modelos “muy potentes”.
La normativa que debe cumplir la IA se basa en dos aspectos principales: el riesgo potencial asociado al uso de la tecnología y el impacto que conlleva. Si bien ambos criterios son importantes, no existe una forma única de determinar el riesgo y el impacto de la IA. Los organismos legislativos ya han identificado los sistemas de alto riesgo, que incluyen sistemas utilizados en los sectores bancario y de seguros, y sistemas que pueden influir en los resultados electorales. Estos sistemas deberán realizar una evaluación de riesgos, cuyo contenido aún no se ha compartido.
Por otro lado, los sistemas de IA de uso generalizado no dirigidos a un grupo específico de usuarios (IA de uso generalizado o GPAI) estarán sujetos a su propio conjunto de reglas. En este caso, los legisladores evaluarán cada tecnología en sí misma, ignorando los criterios propuestos anteriormente.
Enfoque basado en riesgo
Como hemos comentado, las nuevas normas se aplicarán directamente de la misma manera en todos los Estados miembros sobre la base de un enfoque basado en el riesgo:
Riesgo inaceptable: Se prohibirán los sistemas de IA que se consideren una clara amenaza para la seguridad, los medios de vida y los derechos de las personas. Esto incluye sistemas o aplicaciones de inteligencia artificial que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios (por ejemplo, juguetes que utilizan asistencia de voz para fomentar comportamientos peligrosos de menores) y sistemas que permiten la «puntuación social» por parte de los gobiernos.
Alto riesgo: los sistemas de IA identificados como de alto riesgo incluyen la tecnología de IA utilizada en Infraestructuras críticas, formación educativa o profesional, componentes de seguridad de los productos o gestión de la migración, el asilo y el control de fronteras. Además, los sistemas de IA de alto riesgo estarán sujetos a obligaciones estrictas antes de poder comercializarse.
En particular, todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. Su uso en espacios de acceso público con fines policiales está prohibido en principio. Las excepciones específicas están estrictamente definidas y reguladas (por ejemplo, cuando sea estrictamente necesario para buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente o detectar, localizar, identificar o procesar a un autor o sospechoso de un delito grave).
Riesgo limitado, es decir, sistemas de IA con obligaciones específicas de transparencia: al utilizar sistemas de IA como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada de continuar o dar un paso atrás.
Riesgo mínimo: La propuesta legal permite el uso gratuito de aplicaciones como videojuegos con IA o filtros de spam. La gran mayoría de los sistemas de IA entran en esta categoría. El proyecto de Reglamento no interviene aquí, ya que estos sistemas de IA representan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos.
En términos de gobernanza, la Comisión propone que las autoridades nacionales competentes de vigilancia del mercado supervisen las nuevas reglas, mientras que la creación de una Junta Europea de Inteligencia Artificial facilitará su implementación, además de impulsar el desarrollo de estándares para la IA.
Innovación y desarrollo
Para seguir siendo competitiva a nivel mundial, la Comisión Europea se compromete a fomentar la innovación en el desarrollo y el uso de la tecnología de IA en todas las industrias y en todos los Estados miembros a través del Plan Coordinado sobre IA que utilizará la financiación asignada a través de los programas Europa Digital y Horizonte Europa, así como el Mecanismo de Recuperación y Resiliencia que prevé un objetivo de gasto digital del 20 por ciento y los programas de la Política de Cohesión, para:
- Crear condiciones propicias para el desarrollo y la adopción de la IA mediante el intercambio de conocimientos sobre políticas, datos y la inversión en capacidades informáticas críticas.
- Fomentar la excelencia en IA estableciendo una asociación público-privada, creando y movilizando capacidades de investigación, desarrollo e innovación, y poniendo a disposición de las pymes y las administraciones públicas instalaciones de ensayo y experimentación, así como centros de innovación digital.
- Garantizar que la IA sea una fuerza positiva en la sociedad promoviendo la visión europea de una IA sostenible y fiable a nivel mundial.
- Desarrollar un liderazgo estratégico en sectores y tecnologías de alto impacto, incluido el medio ambiente, centrándose en la contribución de la IA a la producción sostenible, la salud ampliando el intercambio transfronterizo de información, así como el sector público, la movilidad, los asuntos internos y la agricultura, y la robótica.
El enfoque europeo hacia los nuevos productos
Los llamados productos de maquinaria cubren una amplia gama de productos profesionales y de consumo, desde robots hasta cortadoras de césped, impresoras 3D, máquinas de construcción y líneas de producción industrial.
La Machinery Regulation, un reglamento de la Unión Europea que regula la seguridad de las máquinas y entró en vigor en 2021, definió los requisitos de salud y seguridad para las máquinas. Si bien el Reglamento sobre IA abordará los riesgos de seguridad de los sistemas de IA, el nuevo Reglamento sobre máquinas garantizará la integración segura del sistema de IA en la maquinaria en general. Las empresas deberán realizar una única evaluación de la conformidad.
Además, el nuevo Reglamento sobre Maquinaria responderá a las necesidades del mercado aportando mayor claridad jurídica a las disposiciones actuales, simplificando la carga administrativa y los costes para las empresas al permitir formatos digitales para la documentación y adaptando las tasas de evaluación de la conformidad para las pymes, garantizando al mismo tiempo la coherencia con el marco legislativo para los productos de la UE.
La eficiencia energética es un factor importante a tener en cuenta en el desarrollo y uso de sistemas de IA. Los sistemas de IA pueden consumir mucha energía, por lo que es importante que se desarrollen de forma eficiente.
Transparencia
La nueva normativa europea sobre IA establece requisitos de transparencia para los sistemas de alto riesgo y los sistemas de propósito general con riesgo sistémico. Los creadores de estos sistemas deberán proporcionar documentación técnica, cumplir con las leyes de copyright europeas y redactar un resumen de los datos de entrenamiento. Sin embargo, aún no se ha especificado el grado de detalle o exhaustividad que deben tener estas obligaciones.
Además de estas medidas, los sistemas de propósito general con riesgo sistémico también deberán someterse a pruebas adicionales para evaluar los riesgos y tener la obligación de informar sobre «incidentes graves». Una novedad sorprendente es que estos modelos también deberán informar sobre su eficiencia energética.
En el caso de ChatGPT, el modelo de lenguaje creado por OpenAI, la nueva normativa significaría que la empresa tendría que declarar de forma transparente a la UE qué conjuntos de datos utilizó para entrenar el modelo y cuáles de ellos están protegidos por derechos de autor.
Incumplimiento
Las sanciones por incumplimiento de la Ley de IA son importantes y pueden tener un impacto grave en el negocio del proveedor o del imtegrador. Oscilan entre 10 y 40 millones de euros o entre el 2 % y el 7 % del volumen de negocios anual global, dependiendo de la gravedad de la infracción. Por lo tanto, es esencial que las partes interesadas se aseguren de comprender plenamente la Ley de IA y cumplir con sus disposiciones.
Entre los desafíos que se presentan destaca que la tecnología de la IA avanza rápidamente y plantea nuevos riesgos y oportunidades.