La loi européenne sur l'intelligence artificielle (IA) sera la première législation contraignante sur l'IA. Proposée par la Commission européenne en avril 2021, elle vise à promouvoir une "IA digne de confiance" tout en protégeant les droits fondamentaux. Cependant, la loi proposée n'est pas suffisante pour traiter et prévenir les préjudices découlant de l'utilisation de l'IA dans le contexte migratoire.
Des détecteurs de mensonges aux drones scanners, l'Union européenne et ses partenaires construisent un vaste et puissant réseau de surveillance et de suivi aux frontières européennes, à l'intérieur de l'Europe et au-delà. Mais il ne s'agit pas seulement de contrôler les frontières.
Ces technologies sont d'abord testées sur les personnes en déplacement¹ et les communautés racialisées, pour qui il est plus difficile de se défendre et de les contester. Une fois que la technologie est installée, il n'y a pas de retour en arrière possible - et ces expériences dangereuses façonneront notre mode de vie à tous.
Si la loi européenne sur l'IA ne parvient pas à prévenir les dommages irréversibles liés à la migration, elle compromettra son objectif même, à savoir la protection des droits fondamentaux de toutes les personnes concernées par l'utilisation de l'IA.
¹ Par personnes en déplacement, nous entendons les migrants, les demandeurs d'asile, les réfugiés et les personnes sans papiers. Nous reconnaissons qu'il s'agit d'un terme imparfait et que toutes les personnes concernées par ces systèmes ne sont pas "en déplacement" ; certaines peuvent même vivre dans l'UE depuis longtemps. Cependant, avec ce terme, nous considérons que les sujets principaux concernées par ces systèmes sont des personnes.
Certains systèmes d'IA représentent un risque inacceptable pour nos droits fondamentaux, et ils ne pourront jamais être corrigés par des moyens techniques ou des garanties procédurales. Les législateurs doivent interdire :
Les législateurs doivent également veiller à ce que la loi sur l'IA réglemente tous les types de systèmes d'IA utilisés dans le cadre de la migration, notamment les technologies de surveillance utilisées dans le contexte du contrôle des frontières et pour les contrôles d'identité. La loi européenne sur l'IA ne sera un instrument de protection que si elle ne laisse personne de côté.
Tous les systèmes d'IA utilisés dans le cadre des migrations devraient être soumis à des mesures de surveillance et de responsabilisation, y compris les technologies de surveillance utilisées dans le contexte du contrôle des frontières et pour les contrôles d'identité.
L'article 83 doit être modifié pour garantir que l'IA faisant partie de bases de données informatiques européennes à grande échelle entre dans le champ d'application de la loi sur l'IA et que les garanties nécessaires s'appliquent aux utilisations de l'IA dans le contexte de la migration européenne.
Il n'y aura jamais de justice sans un système de responsabilité et de transparence. La violence, les repoussoirs et les décès causés par les systèmes d'IA resteront inconnus si la loi sur l'IA ne garantit pas aux gens le droit de contester les violations qu'ils ont subies et si la surveillance publique est entravée.
Les législateurs doivent veiller à ce que la loi européenne sur l'IA permette aux personnes de demander justice, à ce qu'elle garantisse la transparence publique, à ce qu'elle prévienne les dommages causés par les systèmes d'IA dangereux et à ce qu'elle assure une surveillance lorsque les systèmes d'IA sont utilisés dans le cadre de la migration et du contrôle des frontières. Faites de la loi européenne sur l'IA un instrument de protection !
Nous demandons instamment aux institutions de l'UE d'interdire l'utilisation de technologies préjudiciables aux personnes en déplacement et aux communautés racialisées, et de réglementer efficacement tous les systèmes d'intelligence artificielle utilisés dans le cadre des migrations.
Lire notre declaration commune en anglais
‘EU Trilogues: The AI Act must protect people’s rights’
Pour en apprendre d’avantage sur la Loi de l’UE sur l’IA et les développements récents : (Articles anglophones)
Digital Technology, Policing and Migration - What does it mean for undocumented migrants?
Regulating Migration Tech: How the EU’s AI Act can better protect people on the move
The EU AI Act: How to (truly) protect people on the move
Technological Testing Grounds: Migration Management Experiments and Reflections from the Ground Up
EU has spent over €340 million on border AI technology that new law fails to regulate
Black Book of Pushbacks
OHCHR: The Role of Technology in Illegal Pushbacks from Croatia to Bosnia-Herzegovina and Serbia
Automating Immigration and Asylum: The Uses of New Technologies in Migration and Asylum Governance in Europe
Protecting migrants at borders and beyond
Digital Criminalisation: How Big Data & Technology Police Irregular Migration
The EU AI Act proposal: a timeline
EU Trilogues: The AI Act must protect people’s rights
Artificial Intelligence: the new frontier of the EU’s border externalisation strategy (EuroMed Rights)
Europe’s Techno-Borders (Statewatch and EuroMed Rights)
Historic vote in the European Parliament: dangerous AI surveillance banned, but not for migrant people at the borders
VIDEO - Nowhere to turn: How surveillance tech at the EU borders is endangering lives
AI Act: European Parliament endorses protections against AI in migration
WEBINAR - Will the AI Act #ProtectNotSurveil people on the move?
Civil society calls for the EU AI act to better protect people on the move
EU Member States’ Use of New Technologies in Enforced Disappearances
Automating Immigration and Asylum: The Uses of New Technologies in Migration and Asylum Governance in Europe
Submission to the European Commission Consultation: Security-Related Information Sharing
Migration and Tech Monitor
A clear and present danger: Missing safeguards on migration and asylum in the EU’s AI Act (Statewatch)
Digital technology, policing and migration – What does it mean for undocumented migrants? Briefing paper (PICUM)
10 threats to migrants and refugees (Privacy International)
Interactive storyboard on EU interoperable migration systems (PICUM)
Factsheet “How do the new EU regulations on interoperability lead to discriminatory policing?” (PICUM)
La coalition #Protèger est un groupe d'activistes, d'organisations, de chercheurs et d'autres personnes qui travaillent pour s'assurer que la loi européenne sur l'IA protège les personnes en déplacement des préjudices émanant des systèmes d'IA.
Notre mission est de remettre en question l'utilisation des technologies numériques à différents niveaux des politiques européennes et de défendre la capacité des personnes à se déplacer et à rechercher la sécurité et des opportunités sans risquer d'être blessées, surveillées ou discriminées.
Notre plaidoyer vise à demander des comptes à l'UE, aux États membres et aux entreprises privées qui profitent des violations des droits de l'homme aux frontières de l'UE et à l'intérieur de celles-ci. Nous le faisons en connectant les droits numériques, les organisations de défense des droits des migrants et les mouvements de justice raciale pour remettre en question les approches techno-solutionnistes des politiques migratoires.
La coalition compte également plus de 300 sympathisants,
qui se tiennent informés grâce à notre lettre d'information (Newsletter),
soutiennent des initiatives communes sur les plans européen et national
et participent à nos événements.
Pour plus d’information sur notre campagne et les activités de la coalition,
contactez-nous au info[at]protectnotsurveil.eu
Abonnez-vous pour de plus amples renseignements et pour des mises à jour régulières!: