La Unión Europea ha dado un paso significativo con su nuevo Reglamento de Inteligencia Artificial, oficialmente conocido como el Reglamento (UE) 2024/1689, aprobado el 13 de junio de 2024. Este reglamento va mucho más allá de una simple declaración de principios y se adentra en cómo debe usarse la IA en la sociedad europea, estableciendo normas claras y categorizaciones de riesgo, prohibiciones de prácticas y fuertes protecciones de derechos para los ciudadanos.
-
Supervisión Humana: Los sistemas de IA, en especial aquellos usados en decisiones importantes (como en el empleo, la justicia o la sanidad), deben estar siempre bajo la supervisión de una persona. La idea es que la IA sea una herramienta, no un sustituto de las decisiones humanas.
-
Transparencia: Es obligatorio que las personas sean informadas cuando están interactuando con un sistema de IA. La información debe ser accesible y clara, permitiendo que el usuario comprenda qué decisiones toma la IA y cuáles son sus limitaciones.
-
Protección de Datos y Privacidad: La IA que use datos personales debe cumplir con el Reglamento General de Protección de Datos (RGPD), asegurando que la privacidad sea prioritaria. Esto también incluye la obligación de auditar y documentar cómo se manejan los datos dentro de los sistemas de IA.
Enfoque Basado en el Riesgo: Clasificación de la IA
Uno de los puntos fuertes del reglamento es su enfoque basado en el riesgo, que clasifica los sistemas de IA según su nivel de riesgo y les impone obligaciones de acuerdo a esa categoría. Los niveles de riesgo determinan los requisitos de seguridad y transparencia necesarios para cada tipo de sistema:
-
Sistemas de IA de Bajo Riesgo: Estos son sistemas que tienen un impacto mínimo o nulo en los derechos de las personas. Son los más libres de restricciones, aunque deben seguir siendo transparentes en cuanto a sus funcionalidades.
-
Sistemas de IA de Alto Riesgo: Aquí se incluyen sistemas que afectan sectores críticos como la sanidad, el transporte, la justicia, o el mercado laboral. Los sistemas de IA de alto riesgo deben pasar por una serie de evaluaciones de impacto para garantizar que no vulneren derechos fundamentales. Además, se les exige contar con sistemas de monitoreo continuo, auditorías de seguridad y documentación técnica exhaustiva.
Por ejemplo, una IA utilizada para el diagnóstico médico en hospitales estaría catalogada como de alto riesgo y tendría que cumplir con estándares rigurosos de calidad, transparencia y supervisión.
-
Manipulación Psicológica: Está prohibido el uso de IA que manipule a las personas en forma subliminal o explotando vulnerabilidades como la edad, discapacidad o situación económica. Esto incluye cualquier IA diseñada para influir en el comportamiento de una persona sin su conocimiento o consentimiento.
-
Puntuación Social: Inspirado en modelos de otros países, el reglamento prohíbe el uso de IA para clasificar a las personas en base a su comportamiento social o características personales. Esto significa que no puede haber un sistema de «puntuación social» que evalúe a los ciudadanos y les otorgue un estatus social o derechos en función de cómo se comportan.
-
Categorización Biológica Sensible: Los sistemas de IA no pueden categorizar a personas según datos biométricos en función de aspectos sensibles como raza, religión, orientación sexual o afiliación política. Este tipo de categorización es vista como discriminatoria y se busca evitar cualquier sesgo que pueda surgir de estas prácticas.
-
Reconocimiento Biométrico en Espacios Públicos: Se restringe fuertemente el uso de IA para identificación biométrica en tiempo real en espacios públicos, permitiéndose solo en casos de alta necesidad, como en investigaciones de personas desaparecidas o amenazas terroristas. Esto requiere una autorización judicial previa para garantizar que se respeten los derechos de privacidad.
El reglamento también se enfoca en el derecho de los ciudadanos a entender y saber cuándo están interactuando con un sistema de IA. En otras palabras, busca evitar la «caja negra» de decisiones inexplicables. Todo sistema de IA, especialmente aquellos de alto riesgo, debe informar claramente al usuario sobre cómo y por qué toma ciertas decisiones. Esto incluye explicar los datos que utiliza y las limitaciones que tiene, de modo que el ciudadano pueda tomar decisiones informadas sobre su interacción con el sistema.