UNIR Revista
La ley europea de inteligencia artificial establece una serie de obligaciones para los proveedores de sistemas que integren este tipo de tecnología, con el objetivo de garantizar la seguridad y los derechos de sus ciudadanos.

El desarrollo tecnológico siempre camina un paso por delante del ser humano, que requiere algo más de tiempo para identificar los riesgos que el mismo puede representar para la sociedad. Por ello, no es de extrañar que, tras tomar conciencia de los beneficios y desafíos de la IA, la Unión Europea haya tomado la decisión de aprobar la primera ley de inteligencia artificial (IA).
Esta norma, que deberán conocer en profundidad los expertos en derechos digitales, busca establecer un espacio regulatorio sobre las prácticas que están permitidas al crear sistemas que implementen IA, así como aquellas que se consideran prohibidas. Al respecto, el Máster en Derecho Digital online de UNIR pretende dar respuesta a la acuciante demanda de profesionales especializados en el ámbito del derecho de las nuevas tecnologías.
Por supuesto, este texto legal también será importante para las personas que trabajan para las empresas tecnológicas que usen IA, profesionales con una especialización adquirida a través de titulaciones como el Máster en Inteligencia Artificial online de UNIR.
El origen de la ley de inteligencia artificial
Ante el uso creciente de la inteligencia artificial por parte de las empresas, así como por los retos y desafíos que la misma está planteando —desde cuestiones éticas en campos como la justicia hasta delimitar las profesiones en las que se puede utilizar—, la Unión Europea se ha visto con la necesidad de proponer una reglamento europeo sobre IA.
En concreto, el texto legal fue consensuado a mediados de 2024 a través del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial).
¿Qué dice la ley de inteligencia artificial?
El principal objetivo que persigue esta regulación aparece formulado en su artículo 1. En el mismo se afirma que su finalidad “es mejorar el funcionamiento del mercado interior y promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de IA (en lo sucesivo, «sistemas de IA») en la Unión así como prestar apoyo a la innovación”.
Dicho con otras palabras, el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, centra su interés en garantizar que los dispositivos tecnológicos presentes en el mercado europeo sean completamente seguros para sus ciudadanos, con una especial atención a la protección y defensa de sus derechos fundamentales.
Asimismo, persigue crear un marco jurídico conjunto y único para toda la Unión Europea en materia de IA que ofrezca seguridad a los actores que se desenvuelven en esta industria, impulse la innovación y, en consecuencia, favorezca la atracción de la inversión.
Por último, cabe mencionar que la nueva ley de inteligencia artificial se está aplicando de manera progresiva, tal y como puede verse aquí.
Los niveles de riesgo de la IA según la nueva ley
A la hora de redactar esta ley de inteligencia artificial, la Unión Europea ha optado por centrar toda la regulación en base al riesgo que dicha tecnología puede conllevar para la seguridad de los ciudadanos. En este sentido, en su artículo 3.2 define el riesgo como “la combinación de la probabilidad de que se produzca un perjuicio y la gravedad de dicho perjuicio”. Con este punto como referencia determina que:
- Tendrá la consideración de alto riesgo, según expone la Comisión Europea en su portal, cuando tenga “un impacto potencial negativo en la seguridad de las personas o en sus derechos fundamentales”. Un grupo en los que se engloban “los componentes de seguridad de los productos contemplados en la legislación sectorial de la Unión”. Además, “siempre se considerarán de alto riesgo cuando estén sujetos a una evaluación de la conformidad por terceros con arreglo a esa legislación sectorial”.
- Se clasificará como riesgo específico de transparencia cuando “exista un riesgo claro de manipulación (por ejemplo, mediante el uso de robots conversacionales) o ultrafalsificación”. En estos supuestos, será necesario que las compañías cumplan con una serie de obligaciones para garantizar que la ciudadanía comprenda las implicaciones de su utilización.
- El último nivel corresponde al riesgo mínimo, sobre el que la Comisión Europea recuerda que “la mayoría de los demás sistemas de inteligencia artificial pueden programarse y utilizarse con arreglo a la legislación vigente, sin obligaciones jurídicas adicionales”, lo que no elimina que sus desarrolladores puedan implementar medidas adicionales.
Ley de IA de la UE: prohibiciones
En su regulación, la Unión Europea también fija, en su artículo 5, aquellas prácticas que pasan a estar prohibidas. La razón es que la UE entiende que implican un nivel de riesgo inasumible e inadmisible para la sociedad dado que, según la Comisión, “se oponen a los valores de la UE porque vulneran los derechos fundamentales”. Entre las enumeradas en el reglamento destacan:
- Aquellas que puedan afectar a la capacidad de las personas para adoptar decisiones de manera libre o “interferir en sus emociones”.
- Las que se centren en clasificar a los ciudadanos en atención “a su comportamiento social o a características personales o de su personalidad”, de forma que el resultado obtenido pueda causarles “un trato perjudicial o desfavorable”.
- Las destinadas a “realizar evaluaciones de riesgos de personas físicas”.
- La recopilación masiva de imágenes para la generación de “bases de datos de reconocimiento facial”.
- El “uso de sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual”.
- Las que impliquen “el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho”, salvo en los supuestos excluidos en el reglamento.
En conclusión, la ley de inteligencia artificial europea es un texto fundamental que nace para convertirse en el marco regulatorio base de IA aplicable en todos los estados miembros de la Unión.
Un reglamento que busca garantizar que todos los operadores de dispositivos que quieran comercializar sus productos dentro de su mercado estén sujetos a unos requisitos únicos, con las correspondientes multas para aquellos que no cumplan con la legislación vigente. Al mismo tiempo, se espera que esta regulación permita salvaguardar la seguridad y derechos de sus ciudadanos.