UE Protéger pas surveiller

Votez pour protéger les droits humains des personnes en déplacement et des migrants dans la loi sur l'intelligence artificielle

L'ACT AI

Si nous n'agissons pas maintenant, la loi européenne sur l'intelligence artificielle permettra l'utilisation de technologies dangereuses dans le domaine de la migration et menacera les droits de chacun.

Des détecteurs de mensonges aux drones de détection, l'Union européenne et ses partenaires mettent en place un vaste et puissant réseau de surveillance et de suivi aux frontières européennes, au cœur de l'Europe et au-delà. Mais il s'agit de bien plus qu'un simple contrôle des frontières.

Ces technologies sont d'abord testées sur les personnes en déplacement et les communautés racialisées, où il est plus difficile de se défendre et de contester leur utilisation et leur impact.

Une fois que la technologie est en place, il n'y a pas de retour en arrière possible - et ces expériences dangereuses vont façonner notre mode de vie à tous.

La loi sur l'IA ne parvient pas à prévenir les préjudices irréversibles en matière de migration et, ce faisant, elle porte atteinte à son objectif même - la protection des droits fondamentaux de toutes les personnes concernées par l'utilisation de l'IA.

Nous demandons donc aux législateurs d'interdire l'utilisation de technologies expérimentales contre les personnes qui traversent les frontières et celles qui se trouvent déjà en Europe et qui font l'objet d'une surveillance excessive, et de réglementer efficacement pour garantir que l'IA est utilisée de manière sûre et responsable.

*Par personnes en déplacement, nous entendons les migrants, les demandeurs d'asile, les réfugiés et les sans-papiers. Nous reconnaissons qu'il s'agit d'un terme imparfait et que toutes les personnes concernées par de tels systèmes ne sont pas « en mouvement ». Cependant, avec ce terme, nous nous concentrons sur le fait que les personnes affectées par de tels systèmes sont des personnes.

« Nous sommes noirs et les gardes-frontières nous détestent. Leurs ordinateurs nous détestent aussi.

Adissu, vivant sans statut d'immigration à Bruxelles, Belgique*, cité dans le rapport EDRI « Technological Testing Grounds »

NOS MODIFICATIONS

Une coalition de partenaires de la société civile a élaboré recommandations d'amendement à la loi sur l'AI afin de mieux protéger contre ces préjudices dans le contexte de la migration.

L'ACT AI doit être mis à jour de quatre manières principales :

1) Interdire les pratiques nuisibles de l'IA dans le contexte de la migration

Certains systèmes d'IA représentent un risque inacceptable pour nos droits fondamentaux, et ils ne pourront jamais être corrigés par des moyens techniques ou des garanties procédurales. Les législateurs doivent interdire :

  • Systèmes d'analyse prédictive utilisés pour prévenir les migrations qui exacerberont la violence aux frontières et entraîneront des refoulements ;

  • Les évaluations de risques automatisées et les systèmes de profilage qui consacrent le racisme et les préjugés et portent atteinte à la dignité humaine et au droit à la non-discrimination ;

  • Les "détecteurs de mensonge" et toutes les technologies pseudo-scientifiques qui prétendent catégoriser les personnes et déduire leurs émotions sur la base de leurs données biométriques ;

  • L'identification biométrique à distance dans les espaces accessibles au public, y compris à la frontière et à l'intérieur et autour des centres de détention qui permettent une surveillance de masse.

2) Réglementer tous les systèmes à haut risque d'IA en migration

    Les législateurs doivent également veiller à ce que la loi sur l'IA réglemente tous les types de systèmes d'IA utilisés dans le cadre de la migration, notamment les technologies de surveillance utilisées dans le contexte du contrôle des frontières et pour les contrôles d'identité. La loi européenne sur l'IA ne sera un instrument de protection que si elle ne laisse personne de côté.

    Tous les systèmes d'IA utilisés dans le cadre des migrations devraient être soumis à des mesures de surveillance et de responsabilisation, y compris les technologies de surveillance utilisées dans le contexte du contrôle des frontières et pour les contrôles d'identité.

3) Veiller à ce que la loi sur l'IA s'applique aux énormes bases de données migratoires de l'UE

L'article 83 doit être modifié pour garantir que l'IA faisant partie de bases de données informatiques européennes à grande échelle entre dans le champ d'application de la loi sur l'IA et que les garanties nécessaires s'appliquent aux utilisations de l'IA dans le contexte de la migration européenne.

4) Faire de la loi sur l'IA de l'UE un instrument de protection

Il n'y aura jamais de justice sans un système de responsabilité et de transparence. La violence, les repoussoirs et les décès causés par les systèmes d'IA resteront inconnus si la loi sur l'IA ne garantit pas aux gens le droit de contester les violations qu'ils ont subies et si la surveillance publique est entravée.

Les législateurs doivent veiller à ce que la loi européenne sur l'IA permette aux personnes de demander justice, à ce qu'elle garantisse la transparence publique, à ce qu'elle prévienne les dommages causés par les systèmes d'IA dangereux et à ce qu'elle assure une surveillance lorsque les systèmes d'IA sont utilisés dans le cadre de la migration et du contrôle des frontières. Faites de la loi européenne sur l'IA un instrument de protection !

COMMENT POUVONS-NOUS FAIRE LA DIFFÉRENCE ?

LIBE et IMCO les libertés civiles de l'Union européenne et commissions marchés intérieurs
votera prochainement sur les propositions de modification de la loi IA

Nous les exhortons à interdire l'utilisation de technologie nocive utilisée contre les personnes en mouvement et communautés racisées et réglementer efficacement tous les systèmes d'IA utilisés dans la migration.

Lisez notre déclaration conjointe
"La loi européenne sur l'IA doit protéger les personnes en déplacement"

RESSOURCES DE LA COALITION

BORDER TECH DANS L'ACTUALITÉ

La coalition est dirigée par :

Avec le soutien de :

Personnes:

Dr. Derya Ozkul

Dr. Jan Tobias Muehlberg

Dr. Niovi Vavoula