EU #Protect Not Surveil
La UE debe poner fin al uso de tecnología de vigilancia contra las personas migrantes y las comunidades racializadas
LA REFORMA DE EUROPOL
En noviembre de 2023 la Comisión Europea propuso un nuevo paquete legislativo “para prevenir y combatir el tráfico ilícito de migrantes”, el cual incluye la reforma del Reglamento de Europol. Esta nueva propuesta prevé una gran ampliación de los poderes de la agencia, especialmente en lo que se refiere a sus competencias en el ámbito de la vigilancia digital.
La Comisión Europea parte de la falsa premisa de que este aumento de las competencias policiales, así como el tratamiento de datos a gran escala, protegerán de alguna manera a los migrantes, refugiados y solicitantes de asilo frente a los traficantes. Por el contrario, esto solo contribuirá a la creación de rutas más peligrosas, asi como a más persecución, discriminación y violencia por parte de las autoridades.
Pedimos al Parlamento Europeo que rechace en su totalidad la propuesta de reforma del Reglamento y a las instituciones de la UE que cambien las hostiles políticas fronterizas y migratorias de la Unión.
Contamos con el apoyo de todos para ampliar nuestro llamamiento para #ProtegerNoVigilar personas desplazadas. Si quieres apoyar, vuelve aquí – esta sección se actualiza regularmente.
LA LEY DE IA DE LA UE
La Ley de Inteligencia Artificial de la UE será la primera legislación vinculante sobre IA. La Comisión Europea la propuso en abril de 2021 y tiene como objetivo el de promover una « IA confiable » y, al mismo tiempo , proteger los derechos fundamentales. Sin embargo, la ley propuesta no fue suficiente para abordar y prevenir los daños provenientes del uso de IA en el contexto de la migración.
A no ser que las instituciones europeas tomen medidas, la Inteligencia Artificial (IA) permitirá tecnología peligrosa en el control de la migración y pondrá en riesgo los derechos de todos.
Desde el detector de mentiras hasta el escaneo de drones, la Unión Europea y sus aliados están construyendo una web vasta y poderosa de vigilancia y de rastreo en las fronteras europeas, en lo más profundo de Europa y más allá. Pero esto es mucho más que un control de fronteras.
Estas tecnologías se han comprobado en primer lugar en las personas desplazadas¹ y en las comunidades racializadas donde es más difícil que puedan defenderse y cuestionar. Una vez que la tecnología instalada, no hay vuelta atrás – y estos peligrosos experimentos determinarán nuestra forma de vida.
Si la Ley de Inteligencia Artificial de la UE no consigue prevenir daños irreversibles en la migración, pondrá en peligro su propio propósito, el de proteger los derechos fundamentales de las personas afectadas por el uso de la IA.
Así que pedimos a la Comisión Europea, el Parlamento, y el Consejo de la UE que prohíban el uso de tecnologías experimentales en contra de las personas que atraviesan las fronteras y regulan efectivamente para asegurar que la IA se usa de manera segura y responsable.
¹ Por personas desplazadas, queremos decir migrantes, demandantes de asilo, refugiados y personas indocumentadas. Reconocemos que es un término imperfecto y que no todas las personas afectadas por estos sistemas son “desplazadas”, y algunas hayan incluso vivido en la UE por mucho tiempo. Sin embargo, con este término, ponemos en el foco que los afectados por estos sistemas sean personas.
Somos negros y los guardas fronterizos nos odian. Sus ordenadores nos odian también.
La ley de la IA necesita ser actualizada de cuatro maneras:
1) Prohibir las prácticas nocivas de la IA en el contexto de la migración
Algunos sistemas de IA suponen un riesgo inaceptable para nuestros derechos fundamentales, y nunca se solucionarán con medios técnicos o garantías procesales. Los legisladores deben prohibir:
- Sistemas de análisis predictivo utilizados para prevenir migraciones que exacerbarán la violencia en las fronteras y provocarán retrocesos;
- Evaluaciones de riesgo automatizadas y sistemas de elaboración de perfiles que afianzan el racismo y los prejuicios y erosionan la dignidad humana y la libertad frente a la discriminación;
- Los "detectores de mentiras" y todas las tecnologías pseudocientíficas que pretenden clasificar a las personas e inferir emociones a partir de sus datos biométricos;
- Identificación biométrica a distancia en espacios accesibles al público, incluidos la frontera y los centros de detención y sus alrededores, que permiten la vigilancia masiva.
2) Regular todos los sistemas de alto riesgo de IA en migración
Los legisladores también deben garantizar que la Ley de IA regule cualquier tipo de sistema
de IA utilizado en la migración, especialmente la tecnología de vigilancia utilizada en el
contexto del control de fronteras y para los controles de identidad. La Ley de IA de la UE
sólo será un instrumento de protección si no deja a nadie atrás.
Todos los sistemas
de IA utilizados en la migración deben estar sujetos a medidas de supervisión y rendición de
cuentas, incluida la tecnología de vigilancia utilizada en el contexto del control
fronterizo y para los controles de identidad.
3) Garantizar que la Ley de IA se aplique a las enormes bases de datos de migración de la UE
El artículo 83 debe modificarse para garantizar que la IA como parte de las bases de datos informáticas a gran escala de la UE entre en el ámbito de aplicación de la Ley de IA y que se apliquen las salvaguardias necesarias para los usos de la IA en el contexto de la migración de la UE.
4) Hacer de la Ley de AI de la UE un instrumento de protección
Nunca habrá justicia sin un sistema de rendición de cuentas y transparencia. La violencia, los
empujones y las muertes causadas por los sistemas de IA seguirán sin conocerse si la Ley de IA
no garantiza a las personas el derecho a impugnar las violaciones que han sufrido y si se impide
la supervisión pública.
Los legisladores deben asegurarse de que la Ley de
Inteligencia Artificial de la UE permita a las personas recurrir a la justicia, garantice la
transparencia pública y evite los daños causados por sistemas de inteligencia artificial
peligrosos, y garantice la supervisión cuando los sistemas de inteligencia artificial se
utilicen en la migración y el control de fronteras. ¡Haz que la Ley de IA de la UE sea un
instrumento de protección!
ESTADO DE LAS NEGOCIACIONES
En junio del 2023, las instituciones europeas pasaron a la última fase de las negociaciones, lo que se llama “triálogos”.
Estas reuniones determinarán la legislación final y en qué medida esta se centra en los derechos humanos de cada individúo, independientemente de su estatus migratorio.
Pedimos a las instituciones europeas que prohíban el uso de tecnología peligrosa en contra de las personas desplazadas y comunidades racializadas y que regulen eficazmente los sistemas de IA empleados en el ámbito de la migración.
Lean nuestra declaracion conjunta en inglés : ‘EU Trilogues: The AI Act must protect people’s rights’
FUENTES DE LA COALICIÓN
Para obtener más información sobre la Ley de IA de la UE y sus novedades recientes: (artículos en inglés)
Digital Technology, Policing and Migration - What does it mean for undocumented migrants?
Regulating Migration Tech: How the EU’s AI Act can better protect people on the move
The EU AI Act: How to (truly) protect people on the move
Technological Testing Grounds: Migration Management Experiments and Reflections from the Ground Up
EU has spent over €340 million on border AI technology that new law fails to regulate
Black Book of Pushbacks
OHCHR: The Role of Technology in Illegal Pushbacks from Croatia to Bosnia-Herzegovina and Serbia
Automating Immigration and Asylum: The Uses of New Technologies in Migration and Asylum Governance in Europe
Protecting migrants at borders and beyond
Digital Criminalisation: How Big Data & Technology Police Irregular Migration
The EU AI Act proposal: a timeline
EU Trilogues: The AI Act must protect people’s rights
Artificial Intelligence: the new frontier of the EU’s border externalisation strategy (EuroMed Rights)
Europe’s Techno-Borders (Statewatch and EuroMed Rights)
Factsheet “How do the new EU regulations on interoperability lead to discriminatory policing?” (PICUM)
Historic vote in the European Parliament: dangerous AI surveillance banned, but not for migrant people at the borders
VIDEO - Nowhere to turn: How surveillance tech at the EU borders is endangering lives
AI Act: European Parliament endorses protections against AI in migration
WEBINAR - Will the AI Act #ProtectNotSurveil people on the move?
Civil society calls for the EU AI act to better protect people on the move
EU Member States’ Use of New Technologies in Enforced Disappearances
Automating Immigration and Asylum: The Uses of New Technologies in Migration and Asylum Governance in Europe
Submission to the European Commission Consultation: Security-Related Information Sharing
Migration and Tech Monitor
A clear and present danger: Missing safeguards on migration and asylum in the EU’s AI Act (Statewatch)
Digital technology, policing and migration – What does it mean for undocumented migrants? Briefing paper (PICUM)
10 threats to migrants and refugees (Privacy International)
Interactive storyboard on EU interoperable migration systems (PICUM)
TECNOLOGÍA FRONTERIZA EN LAS NOTICIAS
Sobre nosotros
La coalición #ProtegerNoVigilar es un grupo de activistas, organizaciones, investigadores y otros que trabajan para asegurar que la Ley de IA de la UE protege las personas desplazadas de daños provenientes de los sistemas del IA.
Nuestra misión es el de cuestionar el uso de las tecnologías digitales a diferentes niveles de las políticas europeas y defender la capacidad de las personas para desplazarse y para buscar seguridad y oportunidades sin riesgo a ser dañados, ser vigilados o ser discriminados.
Nuestra defensa tiene como objetivo el de responsabilizar los Estados Miembro y las compañías privadas que se benefician de los derechos humanos, las violaciones en y dentro de las fronteras de la UE. Lo hacemos uniendo los derechos digitales, las organizaciones defensoras de los derechos de los migrantes para cuestionar perspectivas tecno-solucionistas en las políticas migratorias.
Liderazgo de la coalición:
Individúos:
Dr. Derya Ozkul
Dr. Jan Tobias Muehlberg
Dr. Niovi Vavoula
La coalición incluye también más de 300 partidarios,
que se informan a
través de
nuestra newsletter,
apoyan nuestras iniciativas conjuntas a nivel de la UE y nivel
nacional
y participante en nuestros eventos.
Para más información acerca de la campaña y el trabajo de la coalición,
pueden
enviarnos un email a info[at]protectnotsurveil.eu
Inscribirse para más información y actualizaciones regulares: