El reciente paso dado por el Parlamento Europeo al aprobar el Reglamento de Inteligencia Artificial (“IA”) el 13 de marzo de 2024 marca un hito significativo en el ámbito jurídico y tecnológico. Este reglamento, diseñado para regular el desarrollo y uso de la inteligencia artificial en la Unión Europea (“UE”), presenta una serie de aspectos legales clave que deben ser considerados.
- Principales aspectos y objetivos legales:
- Protección de derechos fundamentales: El reglamento establece salvaguardias para garantizar que la inteligencia artificial respete los derechos humanos, incluidos la privacidad, la no discriminación y la igualdad.
- Responsabilidad legal: Se introduce la noción de operadores y proveedores de sistemas de inteligencia artificial, quienes serán responsables de garantizar el cumplimiento de las disposiciones del reglamento y enfrentarán sanciones en caso de incumplimiento.
- Evaluación de riesgos: Se establece un marco para evaluar y clasificar el riesgo asociado con los sistemas de inteligencia artificial, lo que determinará el nivel de cumplimiento y las obligaciones legales correspondientes.
- Transparencia y trazabilidad: Se requiere que los sistemas de inteligencia artificial sean transparentes en su funcionamiento y capaces de proporcionar explicaciones sobre las decisiones que toman.
- El Reglamento también hace hincapié en la voluntad de la Unión Europea de ponderar los derechos fundamentales con la compatibilidad y fomento de la innovación tecnología en la UE.
- Niveles de riesgo y requisitos legales:
- IA inaceptables: Serán los sistemas de IA que violen los derechos fundamentales de la UE y sean una amenaza directa para la seguridad pública y la privacidad. Su uso queda prohibido, salvo por las autoridades policiales en casos de seguridad nacional.
- Alto riesgo: Los sistemas de inteligencia artificial considerados de alto riesgo estarán sujetos a requisitos más estrictos, como evaluaciones de riesgo exhaustivas, certificaciones obligatorias y supervisión continua. Ejemplo: Sistemas de IA utilizados en sectores críticos: Esto incluye sistemas utilizados en la atención médica, el transporte, la educación y la seguridad pública, entre otros. Estos sistemas pueden afectar directamente la seguridad y el bienestar de las personas, por lo que se les asigna una mayor atención regulatoria.
- Sistemas de IA con fines de biometría: Los sistemas de reconocimiento facial y otras formas de identificación biométrica son considerados de alto riesgo debido a su capacidad para recopilar y procesar datos personales sensibles.
- Sistemas de IA que afectan a los derechos de los niños: Esto abarca sistemas que recopilan datos de menores de edad o que tienen un impacto significativo en su bienestar, educación o desarrollo.
- Sistemas de IA utilizados en procesos judiciales o administrativos: La aplicación de la ley y la administración de justicia son áreas sensibles donde la precisión y la imparcialidad de los sistemas de IA son críticas para garantizar la equidad y la justicia.
Estos son algunos ejemplos de los tipos de sistemas de inteligencia artificial que se consideran de alto riesgo según el Reglamento de Inteligencia Artificial de la Unión Europea. Es importante destacar que el reglamento puede incluir disposiciones adicionales o ajustes a medida que se implementa y se adapta a las cambiantes tecnologías y riesgos emergentes.
- Riesgo limitado: Los más comunes. Deben cumplir con ciertas obligaciones específicas de transparencia y advertencia del uso del IA y añadir un “Disclaimer” que advierta que el contenido ha sido generado con IA.
- Riesgo mínimo o sin riesgo: Se aplicarán medidas proporcionales para los sistemas de inteligencia artificial de riesgo bajo y mínimo, con un enfoque en la minimización de riesgos y la protección de los derechos de los individuos. No están regulado específicamente. Los ciudadanos pueden decidir de forma libre sobre su uso. Por ejemplo, un videojuego con IA o filtros de spam.
- Calendario de entrada en vigor e implicaciones legales.
El reglamento entrará en vigor a los 20 días de su publicación en el Diario oficial de la Unión Europea y será, como adelantábamos, plenamente aplicable dos años después, aunque existen algunas excepciones que entrarán en vigor con anterioridad a dicho plazo:
- Los títulos I y II, disposiciones generales y prácticas de IA prohibidas, entre ellas las IA consideradas inaceptables, entrarán en vigor 6 meses después.
- Las disposiciones del capítulo III, sección 4 (autoridades notificantes y organismos notificados), el capítulo V (modelos de IA de uso general), el capítulo VII (gobernanza) y el capítulo XII (sanciones) serán aplicables transcurridos doce meses después de la entrada en vigor, a excepción del artículo 101.
- El apartado 1 del artículo 6, sistemas de IA de alto riesgo, y las obligaciones correspondientes se aplicarán transcurridos 36 meses desde su entrada en vigor.
En Loyra Abogados, como despacho de abogados con una experiencia de 40 años asesorando en Nuevas Tecnologías, estamos comprometidos a ayudar a nuestros clientes a comprender y cumplir con las regulaciones de inteligencia artificial en evolución en la Unión Europea y en todo el mundo.
LOYRA ABOGADOS
Departamento de Nuevas Tecnologías