Los riesgos de la inteligencia artificial según la Agencia de la UE para los Derechos Fundamentales
Las regulaciones establecidas por Bruselas para controlar las herramientas de inteligencia artificial (IA) son insuficientes para garantizar el respeto a los derechos fundamentales. Esta es la conclusión de la Agencia de la UE para los Derechos Fundamentales (FRA), que ha evaluado el impacto de la IA en cinco áreas de alto riesgo: asilo, educación, empleo, aplicación de la ley y beneficios sociales.
Informe crítico para la Comisión Europea
El reciente informe de la FRA representa un revés significativo para la Comisión Europea. Hace apenas dos semanas, esta institución otorgó un período adicional de 16 meses a las empresas tecnológicas para adaptar sus herramientas de IA de «alto riesgo» a la normativa europea. La FRA considera que la legislación vigente no aborda adecuadamente el tratamiento de los sistemas de alto riesgo, y señala que incluso las empresas desarrolladoras no saben cómo prevenir violaciones de derechos fundamentales.
Ejemplos de uso de la inteligencia artificial
El análisis de la FRA incluye la aplicación de IA en procesos de contratación laboral, específicamente herramientas que filtran y evalúan currículos. También se examinan mecanismos automáticos que determinan la elegibilidad para recibir ayudas por discapacidad, además de tecnologías de vigilancia en exámenes y sistemas de evaluación de habilidades lectoras en niños. “Estos sistemas deben ser confiables, ya que influyen en decisiones cruciales para la vida diaria de las personas”, indica el informe.
Desafíos en la protección de derechos
A pesar de que los proveedores de sistemas de IA están al tanto de los riesgos en cuanto a protección de datos y discriminación de género, no consideran cómo sus herramientas pueden afectar otros derechos fundamentales. Por ejemplo, las herramientas que evalúan las habilidades lectoras de los niños no toman en cuenta el impacto que sus decisiones pueden tener en el derecho a la educación de estos menores.
Normativa europea sobre inteligencia artificial
El reglamento europeo sobre IA, que entrará en vigor en agosto de 2024, clasifica los sistemas de inteligencia artificial según el riesgo que representan para la ciudadanía, asignando diferentes obligaciones y requisitos. Las herramientas de “riesgo nulo”, como los detectores de spam, carecen de restricciones, mientras que las de “riesgo inaceptable” están prohibidas. Esta última categoría incluye sistemas que pueden manipular la conciencia de las personas o explotar sus vulnerabilidades.
Supervisión de aplicaciones de alto riesgo
Las aplicaciones de “alto riesgo” requieren supervisión constante e incluyen sistemas de identificación biométrica remota, categorización biométrica, así como los relacionados con la seguridad de infraestructuras críticas y servicios públicos esenciales, la aplicación de la ley y la gestión migratoria.
Incertidumbre en la industria tecnológica
El reciente retraso de 16 meses en la supervisión de estos sistemas, decidido por la Comisión, se fundamenta en la necesidad de establecer estándares claros sobre lo que es aceptable para estas herramientas antes de exigir su cumplimiento. El informe de la FRA, basado en entrevistas a proveedores, operadores y expertos, revela que muchos desarrolladores y operadores de sistemas de IA de alto riesgo no saben cómo evaluar o mitigar sistemáticamente los riesgos asociados a los derechos fundamentales.
La agencia enfatiza que, aunque la autorregulación es importante, este enfoque no tiene en cuenta de manera sistemática los derechos fundamentales.
