UE #Proteger, no vigilar

Las instituciones Votan para Proteger los Derechos Humanos de personas desplazadas y migrantes en la Ley de Inteligencia Artificial de la UE.

Contamos con el apoyo de todos para ampliar nuestro
llamamiento para #ProtegerNoVigilar personas desplazadas.

Si quieres apoyar, vuelve aquí – esta sección se actualiza regularmente.

LA LEY DE IA DE LA UE

La Ley de Inteligencia Artificial de la UE será la primera legislación vinculante sobre IA. La Comisión Europea la propuso en abril de 2021 y tiene como objetivo el de promover una « IA confiable » y, al mismo tiempo , proteger los derechos fundamentales. Sin embargo, la ley propuesta no fue suficiente para abordar y prevenir los daños provenientes del uso de IA en el contexto de la migración.

A no ser que las instituciones europeas tomen medidas, la Inteligencia Artificial (IA) permitirá tecnología peligrosa en el control de la migración y pondrá en riesgo los derechos de todos.

Desde el detector de mentiras hasta el escaneo de drones, la Unión Europea y sus aliados están construyendo una web vasta y poderosa de vigilancia y de rastreo en las fronteras europeas, en lo más profundo de Europa y más allá. Pero esto es mucho más que un control de fronteras.

Estas tecnologías se han comprobado en primer lugar en las personas desplazadas¹ y en las comunidades racializadas donde es más difícil que puedan defenderse y cuestionar. Una vez que la tecnología instalada, no hay vuelta atrás – y estos peligrosos experimentos determinarán nuestra forma de vida.

Si la Ley de Inteligencia Artificial de la UE no consigue prevenir daños irreversibles en la migración, pondrá en peligro su propio propósito, el de proteger los derechos fundamentales de las personas afectadas por el uso de la IA.

Así que pedimos a la Comisión Europea, el Parlamento, y el Consejo de la UE que prohíban el uso de tecnologías experimentales en contra de las personas que atraviesan las fronteras y regulan efectivamente para asegurar que la IA se usa de manera segura y responsable.

¹ Por personas desplazadas, queremos decir migrantes, demandantes de asilo, refugiados y personas indocumentadas. Reconocemos que es un término imperfecto y que no todas las personas afectadas por estos sistemas son “desplazadas”, y algunas hayan incluso vivido en la UE por mucho tiempo. Sin embargo, con este término, ponemos en el foco que los afectados por estos sistemas sean personas.

“Somos negros y los guardas fronterizos nos odian. Sus ordenadores nos odian también.”

Adissu, viviendo sin estatus migratorio en Bruselas, Bélgica*, citado en el reporte EDRI en inglés "Technological Testing Grounds”

NUESTRAS ENMIENDAS

Una coalición de socios redactó recomendaciones de enmiendas para la ley de la IA con el objetivo de proteger de los perjuicios en el contexto de la migración.

Pueden leer nuestras enmiendas en inglés aquí:

La ley de la IA necesita ser actualizada de cuatro maneras:

1) Prohibir las prácticas nocivas de la IA en el contexto de la migración

Algunos sistemas de IA suponen un riesgo inaceptable para nuestros derechos fundamentales, y nunca se solucionarán con medios técnicos o garantías procesales. Los legisladores deben prohibir:

  • Sistemas de análisis predictivo utilizados para prevenir migraciones que exacerbarán la violencia en las fronteras y provocarán retrocesos;

  • Evaluaciones de riesgo automatizadas y sistemas de elaboración de perfiles que afianzan el racismo y los prejuicios y erosionan la dignidad humana y la libertad frente a la discriminación;

  • Los "detectores de mentiras" y todas las tecnologías pseudocientíficas que pretenden clasificar a las personas e inferir emociones a partir de sus datos biométricos;

  • Identificación biométrica a distancia en espacios accesibles al público, incluidos la frontera y los centros de detención y sus alrededores, que permiten la vigilancia masiva.

2) Regular todos los sistemas de alto riesgo de IA en migración

    Los legisladores también deben garantizar que la Ley de IA regule cualquier tipo de sistema de IA utilizado en la migración, especialmente la tecnología de vigilancia utilizada en el contexto del control de fronteras y para los controles de identidad. La Ley de IA de la UE sólo será un instrumento de protección si no deja a nadie atrás.

    Todos los sistemas de IA utilizados en la migración deben estar sujetos a medidas de supervisión y rendición de cuentas, incluida la tecnología de vigilancia utilizada en el contexto del control fronterizo y para los controles de identidad.

3) Garantizar que la Ley de IA se aplique a las enormes bases de datos de migración de la UE

El artículo 83 debe modificarse para garantizar que la IA como parte de las bases de datos informáticas a gran escala de la UE entre en el ámbito de aplicación de la Ley de IA y que se apliquen las salvaguardias necesarias para los usos de la IA en el contexto de la migración de la UE.

4) Hacer de la Ley de AI de la UE un instrumento de protección

Nunca habrá justicia sin un sistema de rendición de cuentas y transparencia. La violencia, los empujones y las muertes causadas por los sistemas de IA seguirán sin conocerse si la Ley de IA no garantiza a las personas el derecho a impugnar las violaciones que han sufrido y si se impide la supervisión pública.

Los legisladores deben asegurarse de que la Ley de Inteligencia Artificial de la UE permita a las personas recurrir a la justicia, garantice la transparencia pública y evite los daños causados por sistemas de inteligencia artificial peligrosos, y garantice la supervisión cuando los sistemas de inteligencia artificial se utilicen en la migración y el control de fronteras. ¡Haz que la Ley de IA de la UE sea un instrumento de protección!

ESTADO DE LAS NEGOCIACIONES

En junio del 2023, las instituciones europeas pasaron a la última fase de las negociaciones, lo que se llama “triálogos”.
Estas reuniones determinarán la legislación final y en qué medida esta se centra en los derechos humanos de cada individúo, independientemente de su estatus migratorio.

Pedimos a las instituciones europeas que prohíban el uso de tecnología peligrosa en contra de las personas desplazadas y comunidades racializadas y que regulen eficazmente los sistemas de IA empleados en el ámbito de la migración.

Lean nuestra declaracion conjunta en inglés :
‘EU Trilogues: The AI Act must protect people’s rights’

FUENTES DE LA COALICIÓN

Para obtener más información sobre la Ley de IA de la UE y sus novedades recientes: (artículos en inglés)

TECNOLOGÍA FRONTERIZA EN LAS NOTICIAS

Sobre nosotros

La coalición #ProtegerNoVigilar es un grupo de activistas, organizaciones, investigadores y otros que trabajan para asegurar que la Ley de IA de la UE protege las personas desplazadas de daños provenientes de los sistemas del IA.

Nuestra misión es el de cuestionar el uso de las tecnologías digitales a diferentes niveles de las políticas europeas y defender la capacidad de las personas para desplazarse y para buscar seguridad y oportunidades sin riesgo a ser dañados, ser vigilados o ser discriminados.

Nuestra defensa tiene como objetivo el de responsabilizar los Estados Miembro y las compañías privadas que se benefician de los derechos humanos, las violaciones en y dentro de las fronteras de la UE. Lo hacemos uniendo los derechos digitales, las organizaciones defensoras de los derechos de los migrantes para cuestionar perspectivas tecno-solucionistas en las políticas migratorias.

Liderazgo de la coalición:

Miembros fundamentales de la coalición:

Individúos:

Dr. Derya Ozkul

Dr. Jan Tobias Muehlberg

Dr. Niovi Vavoula

La coalición incluye también más de 300 partidarios,
que se informan a través de nuestra newsletter,
apoyan nuestras iniciativas conjuntas a nivel de la UE y nivel nacional
y participante en nuestros eventos.

Para más información acerca de la campaña y el trabajo de la coalición,
pueden enviarnos un email a info[at]protectnotsurveil.eu

Inscribirse para más información y actualizaciones regulares: