Responsables políticos de la UE: ¡regulen la tecnología policial!
Dado que los sistemas de inteligencia artificial son cada vez más utilizados por las autoridades policiales, de control migratorio y de seguridad nacional, la Ley de Inteligencia Artificial de la UE (Ley IA) es una oportunidad urgente para prevenir daños, proteger a las personas de las violaciones de derechos y proporcionar límites legales para que las autoridades utilicen la inteligencia artificial dentro de los límites del Estado de Derecho.
Cada vez más, en Europa y en todo el mundo, se desarrollan y despliegan sistemas de IA en formas perjudiciales y discriminatorias de vigilancia estatal. Desde el uso de la identificación biométrica, el reconocimiento y la categorización, hasta los sistemas predictivos para diversas de tomas de decisión y asignación de recursos, la inteligencia artificial en la aplicación de la ley se dirige de manera desproporcionada a comunidades ya marginadas, socava los derechos legales y procesales y permite la vigilancia masiva.
Cuando los sistemas de IA se despliegan en contextos de aplicación de la ley, de seguridad y de control de la migración (incluida la vigilancia de la seguridad de la sociedad), el desequilibrio de poder entre las autoridades y las personas vigiladas es aún más profundo. Esto significa que existe un riesgo aún mayor de que se produzcan daños y violaciones de los derechos fundamentales y del Estado de Derecho.
Esta declaración subraya la urgente necesidad de regular el uso de sistemas de IA por parte de las autoridades policiales, de control de la inmigración y de seguridad nacional en toda Europa
Señalamos los peligros específicos hacia la libertad, el derecho de reunión, el de asilo, la privacidad y la protección de datos, el derecho a la protección de la sociedad y la no discriminación cuando dichas autoridades despliegan este tipo de tecnología.
Las organizaciones de la sociedad civil reclaman una Ley IA que impida formas incontroladas de vigilancia discriminatoria y masiva. Para defender los derechos humanos y evitar los perjuicios derivados del uso de la IA en la vigilancia policial, el control de la migración y la seguridad nacional, la Ley IA de la UE debe:
- Incluir límites legales que prohíban la IA en usos que supongan un riesgo inaceptable para los derechos fundamentales. Esto incluye la prohibición legal de diferentes formas de vigilancia biométrica, la vigilancia policial predictiva y los usos perjudiciales de la IA en el contexto de la migración.
- Proporcionar transparencia y supervisión pública cuando la policía y las agencias de migración y seguridad nacional utilicen IA de "alto riesgo", manteniendo la misma obligación de estas autoridades de registrar los usos de alto riesgo en la base de datos de IA de la UE.
- Garantizar que la Ley IA regula adecuadamente sus usos en el ámbito policial, migratorio y de seguridad nacional, que suponen un riesgo para los derechos humanos, en concreto la lista completa de IA en el control migratorio y garantizar que la seguridad nacional no queda excluida de su ámbito de aplicación.
Por qué la Ley de Inteligencia Artificial de la UE debe regular el uso de la IA en la aplicación de la ley, la migración y la seguridad nacional:
- El control del poder estatal y policial es esencial para el funcionamiento de una sociedad democrática basada en los derechos. La Ley IA pretende reconocer y regular los usos de alto riesgo de la IA y, en caso necesario, prohibirlos cuando la amenaza para los derechos fundamentales sea demasiado grande. Los usos de la IA por parte de las autoridades estatales en los ámbitos policial, de migración y de seguridad nacional se encuentran entre los casos de uso de mayor riesgo, porque afectan de forma más aguda a derechos fundamentales como la libertad de reunión y expresión, el derecho a un juicio justo, la presunción de inocencia, la no discriminación y el derecho a solicitar asilo. La labor de las autoridades policiales, migratorias y de seguridad rige el acceso al espacio público, los resultados en los sectores de la justicia penal y la migración, y otros ámbitos de la vida con mayor repercusión en los derechos fundamentales. Como tal, el uso de la IA por parte de estas autoridades exige el máximo escrutinio y transparencia, y requiere los límites más claros para defender los principios democráticos básicos.
- El uso de la IA en los ámbitos de la vigilancia policial, seguridad y migración amplifica la discriminación estructural contra comunidades ya marginadas y sobrevigiladas, como las personas racializadas, migrantes y muchos otros grupos discriminados. Cada vez hay más pruebas que demuestran que estos sistemas de IA refuerzan la sobrevigilancia policial y la vigilancia desproporcionada, detención y encarcelamiento de grupos estructuralmente discriminados. Los datos utilizados para crear y hacer funcionar estos sistemas reflejan una discriminación histórica, sistémica, institucional y social. Esta discriminación es tan fundamental y está tan arraigada que todos estos sistemas reforzarán tales resultados. Se necesitan prohibiciones, transparencia pública y marcos de rendición de cuentas para prevenir los daños y capacitar a las personas para hacerlos frente.
- El uso de la IA en el ámbito policial, de la seguridad y de la migración invita a la influencia del sector privado en aspectos fundamentales de la gobernanza pública, lo que requiere una supervisión aún mayor y límites legales para garantizar el respeto de los derechos de las personas. Dado que estos ámbitos son funciones gubernamentales, es crucial que la Ley IA garantice que el desarrollo de la IA por parte del sector privado en estos ámbitos sea públicamente transparente. Los sistemas de IA, cuando se despliegan en ámbitos policiales, migratorios y de seguridad nacional, deben responder ante todo a las normas de derechos fundamentales y al Estado de Derecho, y no a motivos lucrativos. Por ello, deben aplicarse salvaguardias, supervisión y límites legales.
En el anexo de esta declaración figuran recomendaciones detalladas sobre cómo debe modificarse la Ley IA de la UE en estos ámbitos.
Anexo: