Cinq millions d’euros d’argent public européen ont servi à développer le projet Itflows, un outil d’intelligence artificielle (IA) visant à anticiper les mouvements migratoires. Prévu pour un déploiement à partir d’août 2023, cet outil pensé par la société privée Terracom et des instituts de recherches est encore en phase de test.
Mais le projet est jugé « préoccupant » par plusieurs experts, dont Petra Molnar, directrice associée du laboratoire Droit des réfugiés à l’Université de York (Canada), interrogée par InfoMigrants. Membre de l’observatoire Migration Tech, qui suit de près ce type de projets, cette avocate et chercheuse considère qu’Itflows « normalise le recours à des technologies à haut risque comme des logiciels d’analyse prédictive pour anticiper les mouvements des personnes traversant les frontières ».
> À (re)lire : Les nouvelles technologies au service de l’identification des migrants morts en mer
De fait, alors que l’outil est encore en phase de test, une enquête publiée par Disclose révèle déjà des alertes internes sur ses dérives potentielles. Il y a « un risque important que des informations se retrouvent entre les mains d’États ou de gouvernements qui les utiliseront pour implanter davantage de barbelés le long des frontières », estime Alexander Kjærum, analyste pour le Conseil danois pour les réfugiés et membre du conseil de surveillance, joint par les journalistes de Disclose.
« Stigmatiser, discriminer, harceler les migrants »
Des membres du comité éthique d’Itflows déplorent un manque d’écoute de leurs alertes. Dans des documents internes obtenus par les journalistes d’investigation, ce comité estime que les informations fournies par Itflows pourraient servir, si elles devaient être utilisées « à mauvais escient », à « stigmatiser, discriminer, harceler ou intimider des personnes, en particulier celles qui sont vulnérables comme les migrants, les réfugiés et les demandeurs d’asile ».
Dans un de ces rapports, le comité éthique détaille ces dérives. Entre autres : « Les États membres pourraient utiliser les données fournies pour créer des ghettos de migrants ». Le comité pointe également le « risque d’identification physique des migrants », ainsi que de « discrimination sur la base de la race, du genre, de la religion, de l’orientation sexuelle, d’un handicap ou de l’âge ».
> À (re)lire : Pour les migrants, la biométrie tout au long du chemin
Le recours à l’intelligence artificielle « expose les migrants à des violations de leurs droits, y compris le droit à la vie privée, le droit de ne pas être discriminé et le droit de demander l’asile », résume Margarida Silva, chercheuse au Centre de recherche sur les entreprises multinationales (SOMO), contactée par Infomigrants. « En investissant de plus en plus dans la surveillance et la technologie de l’IA, les agences frontalières et les décideurs politiques font également le choix de ne pas investir ces ressources dans les opérations de sauvetage et la création de voies de passage sûres », rappelle-t-elle.
Itflows témoigne de « l’appétit croissant de l’Union européenne (UE) pour l’utilisation de technologies non réglementées et à haut risque » pour les droits humains, déplore Petra Molnar. Parmi ces technologies, on compte aussi les drones de surveillance autonome, ou les logiciels d’extraction de données cellulaires.
Frontex intéressée par l’intelligence artificielle
Dans son enquête, Disclose relève l’intérêt de Frontex pour Itflows. L’agence européenne de surveillance des frontières « suit étroitement les avancées du programme. Jusqu’à y contribuer activement via la fourniture de données récoltées dans le cadre de ses missions », décrivent les journalistes.
Or, plusieurs récentes enquêtes démontrent que Frontex couvre des actes hors de tout cadre légal, en particulier les refoulements de migrants de la Grèce vers la Turquie. Ces pratiques sont « renforcées par diverses solutions technologiques », met en garde Petra Molnar.
> À (re)lire : Le patron de Frontex Fabrice Leggeri démissionne face au scandale des renvois illégaux de migrants en mer Egée
L’agence ne compte pas s’arrêter à Itflows. Elle assume son souhait de s’appuyer sur d’autres outils d’intelligence artificielle, et communique sur les travaux de recherche et développement en cours. Un autre projet sur lequel misait Frontex, et qui avait fait également polémique, s’appelait IborderCtrl. Cet outil, assimilable à un détecteur de mensonges, avait été financé à hauteur de 4,5 millions d’euros par l’UE. Il visait à décoder les émotions qui traversent les personnes interrogées aux frontières, en analysant les micro-mouvements de leurs visages.
IborderCtrl, tout comme Itflows, ont été financés dans le cadre d’Horizon 2020. Ce programme de recherche et développement représente « 50 % du financement public total pour la recherche en sécurité de l’UE », précise le site spécialisé Technopolice.
Nécessité de réguler les nouvelles technologies
En dehors des travaux de chercheurs spécialisés et des enquêtes journalistiques, le développement des technologies comme Itflows par l’UE se fait souvent dans une grande opacité. De nombreuses ONG réclament davantage de transparence.
« Nous avons besoin de lois et de politiques plus fortes qui protègent solidement le droit international de migrer et de demander l’asile », insiste Petra Molnar, L’une des premières étapes consisterait, selon elle, à « impliquer les communautés affectées dans le débat » autour de ces technologies.
Au sein de l’UE, un plan de régulation de l’usage de l’intelligence artificielle est en cours de discussion. Il s’agit de l’AI Act. Les parlementaires européens ont jusqu’à la fin de l’année, au moins, pour amender le texte initial. Petra Molnar, qui a proposé une série d’amendements avec d’autres experts de la société civile, espère que ces négociations aboutiront à « l’interdiction totale des technologies d’analyse prédictive » comme Itflows, avant que celles-ci ne soient mises en œuvre.