Doc. XII-bis, n. 236

ASSEMBLEA PARLAMENTARE
DEL CONSIGLIO D'EUROPA

Risoluzione n. 2628

_____________

Intelligenza artificiale e migrazione

Trasmessa il 7 ottobre 2025

Pag. 2

PARLIAMENTARY ASSEMBLY OF THE COUNCIL OF EUROPE

RESOLUTION 2628 (2025)(1)

_____________

Artificial intelligence and migration

Parliamentary Assembly

  1. The Parliamentary Assembly acknowledges the transformative potential of artificial intelligence (AI) across a range of sectors, including migration management. AI systems – capable of autonomous decision making and complex data analysis – are increasingly used in border surveillance, visa processing, biometric identification, natural language processing and integration support. These applications promise enhanced efficiency and service accessibility for migrants, refugees and asylum seekers.

  2. The Assembly also underlines the opportunities created by the responsible and ethical use of AI. AI can contribute to saving lives through enhanced search and rescue operations, provide migrants and refugees with multilingual and accessible information, and support their integration by facilitating language learning, education and access to labour markets. When designed with transparency, human oversight and strong human rights safeguards, AI can foster innovation, reduce administrative burdens and strengthen trust in institutions. In this way, AI can make migration management not only more efficient but also more humane and inclusive.

  3. The Assembly emphasises, however, that technological innovation must not come at the expense of fundamental rights. If wrongly used, AI can reinforce structural inequalities, infringe on privacy and undermine asylum protection. The Assembly therefore reiterates its call for all Council of Europe member States to sign and ratify the Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law (CETS No. 225, hereinafter the «Framework Convention on AI»), which aims to ensure the development and deployment of AI in line with human rights standards and explicitly prohibits AI applications that violate the right to seek asylum, as stated in Article 5.

  4. AI-driven modernisation must be carried out in a way that minimises dangerous effects and risks for migrants, refugees and asylum seekers, such as discrimination and bias, and that does not unintentionally reinforce existing stereotypes or prejudice. States should rather harness the potential of AI to foster a more inclusive, secure and humane migration system.

  5. Recognising the profound impact that AI can have on individual rights and Pag. 3liberties, the Assembly stresses that AI should support – not replace – human decision making in migration and asylum processes, even if in some cases, AI may offer greater security and effectiveness than human decision making alone, by reducing the scope for human error. All AI tools must be transparent, accountable and subject to oversight, and be deployed in alignment with key international instruments, including the European Convention on Human Rights (ETS No. 5, hereinafter the «Convention»), the 1951 United Nations (UN) Convention relating to the Status of Refugees as amended by the 1967 Protocol («Refugee Convention») and the Charter of Fundamental Rights of the European Union (EU).

  6. Noting that the EU Artificial Intelligence Act classifies migration-related AI as high-risk technology, the Assembly underscores the need for additional safeguards. The use of AI in migration, asylum and border control management must not allow for the bypassing of international obligations, in particular under the Refugee Convention. Nor should they be used to in any way infringe on the principle of non-refoulement, or to deny safe and effective legal avenues into States’ territory, including the right to international protection.

  7. It is important therefore that AI systems in migration and asylum procedures undergo human rights, democracy, and rule of law impact assessments before their deployment. The Assembly recommends the use of the Council of Europe HUDERIA methodology to identify and mitigate risks, including algorithmic bias and privacy violations. Oversight must be embedded throughout the life cycle of AI systems with independent evaluations and mandatory human review.

  8. The Assembly calls for a prohibition on the use of AI tools such as automated credibility assessments, emotion recognition and risk profiling based on nationality or ethnicity. These technologies lack scientific validity and are incompatible with Articles 3 and 14 of the Convention.

  9. Noting the critical importance of data protection, privacy and security in the use of AI for asylum procedures, the Assembly emphasises that sensitive data, including biometrics, interview transcripts and country-of-origin information, must be end-to-end encrypted and must not be shared with the country of origin in case of risk of persecution, in accordance with the Data Protection Policy of the Office of the United Nations High Commissioner for Refugees (UNHCR).

  10. Artificial intelligence applications in migration management must thus balance efficiency gains with rigorous protection of human rights at all stages of the migration journey. The specific issues related to the use of AI in the field of migration must be addressed for each distinct stage of the process, from pre-departure activities to transit, arrival, stay, circulation, temporary or permanent return and sustainable (re)integration. Priority should be given to safeguards against bias and human oversight and to ensure the dignity of migrants, refugees and asylum seekers, as follows.

  11. At the pre-departure stage, AI tools used in visa and asylum screening should undergo human rights impact assessments before deployment. Systems like the European Travel Information and Authorisation System (ETIAS) should provide for manual review in cases flagged as high risk. All screening tools must be transparent and free from discriminatory outcomes. AI-powered chatbots can provide real-time multilingual information to migrants, refugees and asylum seekers, provided they disclose their automated nature and comply with ethical standards to avoid spreading misinformation.

  12. As regards labour migration via the appropriate channels, AI tools may be used to streamline, in a fair and accessible manner, the application process for employment and residence permits. AI Pag. 4may further support the detection of exploitative recruitment practices by identifying predatory employers and alerting the relevant authorities. AI tools such as visa checkers should be bias-audited and provide transparent outcomes that can be contested.

  13. The Assembly encourages the ethical use of AI in climate migration forecasting through the analysis of environmental and socio-economic data to improve humanitarian planning in accordance with its Resolution 2401 (2021) «Climate and migration». AI tools such as those developed by the International Organization for Migration (IOM) can provide policy makers with a clearer predictive picture of climate-driven displacement patterns. Such predictive models can inform proactive support measures.

  14. AI may also be used to identify and disrupt smuggling networks through responsible data analysis.

  15. During the transit stage, the Assembly stresses the need for strict regulation of AI surveillance technologies. Predictive policing and biometric identification must be limited to strictly necessary and proportionate use, and all biometric data must be encrypted and restricted to authorised personnel. The Council of Europe Framework Convention on AI limits biometric categorisation to strictly necessary and proportionate cases. AI systems like the European Union's European Border Surveillance System (EUROSUR) that monitor border movements must comply with the IOM's 2023 Data Protection Principles.

  16. Surveillance technologies for migrants, refugees and asylum seekers in transit must be regulated with a view to protecting their rights, and AI-driven mass surveillance, such as drones and facial recognition, should be prohibited. AI may be used in a positive sense to support humanitarian corridors by using conflict mapping to identify safer transit routes.

  17. The Assembly recognises the essential role of eu-LISA (the European Union Agency for the Operational Management of Large-Scale IT Systems in the Area of Freedom, Security and Justice) and other EU bodies in managing migration-related databases such as the Schengen Information System (SIS), the Visa Information System (VIS), and Eurodac (the European Union's centralised biometric database). Cooperation between EU and non-EU Council of Europe member States is important to ensure consistent data protection standards and respect for humanitarian obligations.

  18. The Assembly expresses once more its deep concern and sorrow over the deaths at sea of migrants, refugees and asylum seekers. It calls on member States to employ AI technologies to enhance search and rescue capabilities, and to uphold the dignity of deceased individuals, in accordance with the principles laid down in its Resolution 2569 (2024) «Missing migrants, refugees and asylum seekers – A call to clarify their fate» and Resolution 2612 (2025) «Saving the lives of migrants at sea and protecting their human rights».

  19. At the arrival stage, AI can be used to support individualised, fair and rights-compliant asylum procedures, while never replacing the role of human caseworkers in interactions and decision making. AIgenerated documents should be accessible in applicants’ languages and in plain language formats.ù

  20. Biometric systems and language recognition tools should be subject to routine bias audits to ensure equitable treatment, while facial recognition tools, such as those used in smart border tunnels, should undergo demographic testing to ensure compliance with non-discrimination requirements and adhere to EU-wide audit standards.

  21. AI systems in asylum processing should be verified and corrected for skewed datasets to avoid discriminatory proxies, Pag. 5and AI-generated evidence must be verified by humans, with access to judicial review. The use of tools such as emotion recognition or lie detectors should not be included, and predictive tools assessing the likelihood of absconding must not be used to justify detention, especially of minors. Impact assessments such as HUDERIA should be carried out prior to any roll-out of new systems.

  22. During the stay period, inclusive integration policies, in accordance with Assembly Resolution 2502 (2023) «Integration of migrants and refugees: benefits for all parties involved», can be supported by the ethical use of AI, which can play a key role in accelerating the self-reliance of migrants, refugees and asylum seekers and boosting the resilience of host communities. Tools may be co-developed with refugee communities and NGOs and made accessible offline (telephone hotlines without internet access for example) and through voice interfaces to bridge digital divides.

  23. AI labour-matching tools should prioritise ethical criteria such as family unity and cultural fit. Gendersensitive design is essential to avoid reinforcing labour market segregation that directs women into low-wage sectors. Continuous feedback loops should help address misplacements. Annual audits of AI systems used in welfare and housing are essential to detect and correct bias. Predictive analytics can support equitable urban planning, helping to prevent segregation and foster innovation and safety in diverse communities.

  24. The Assembly calls for the creation of independent oversight bodies such as the EU Artificial Intelligence Board, which should include civil society and legal and technological experts and should monitor the implementation of AI-powered systems in migration, asylum and border control management based on the guidelines of the Office of the United Nations High Commissioner for Refugees (UNHCR), on the Council of Europe Framework Convention on AI and on relevant EU regulations.

  25. Robust redress and compensation mechanisms must also be available to allow for the contesting of AIgenerated evidence through expedited legal channels. Legal aid should be expanded to cover algorithmic disputes.

  26. For circular migration and return stages, AI chatbots used in return support programmes should comply with fairness standards, avoid nudging techniques and provide unbiased information. Migrants, refugees and asylum seekers should retain control over their data, with the ability to delete or transfer information upon exiting programmes and a guarantee against the sharing of biometric information with the country of origin. The sharing of biometric data with countries of origin must be banned if there is any risk of persecution. AIbased assessments of environmental conditions may assist in determining the safety of return destinations.

  27. Sustainable reintegration requires robust post-return monitoring. States should implement communityinformed impact assessments and ethical AI tools to track outcomes related to employment, housing, and well-being. Offline-accessible AI assistants must support migrants to navigate reintegration services.

  28. In line with its Resolution 2343 (2020) «Preventing discrimination caused by the use of artificial intelligence», the Assembly underscores the importance of specific action to prevent discrimination and disproportionate negative impact on groups such as women, minorities and the most vulnerable and marginalised individuals, including migrants, refugees and asylum seekers.

  29. Such potential discrimination in AI should be addressed at the design phase, which can usefully benefit from the participation of civil society organisations representing migrants, refugees and asylum Pag. 6seekers to increase trust and reliability. Awareness raising and training for asylum officers, NGOs and AI developers will strengthen ethical AI deployment.

  30. Member States must safeguard against the misuse of AI for disinformation, manipulation or cyberattacks that exploit migration vulnerabilities. Geopolitical threats, including those linked to the Russian Federation's aggression against Ukraine, demand increased vigilance and resilience in migration policy frameworks to avoid a negative impact on the protection offered.

  31. As regards the general climate of opinion around migration issues, States should ensure that AIpowered chatbots are used ethically to provide accessible, accurate and multilingual migration information, and ensure that these tools are not used to manipulate narratives or asylum decisions. Here too, participatory design in chatbot development is to be favoured.

  32. To support the above measures, awareness raising and capacity building among all public and private stakeholders – particularly public authorities and officials, developers, small and medium-sized enterprises and start-up AI enterprises – on the use of AI in migration management is essential, based on the relevant regulatory frameworks and practical implementation.

Pag. 7

ASSEMBLÉE PARLEMENTAIRE DU CONSEIL DE L'EUROPE

RÉSOLUTION 2628 (2025)(1)

_____________

L'intelligence artificielle et la migration

Assemblée parlementaire

  1. L'Assemblée parlementaire reconnaît le potentiel de transformation de l'intelligence artificielle (IA) dans toute une série de secteurs, y compris la gestion des migrations. Les systèmes d'IA – capables de prendre des décisions autonomes et d'analyser des données complexes – sont de plus en plus utilisés pour la surveillance des frontières, le traitement des visas, l'identification biométrique, le traitement automatique du langage naturel et l'aide à l'intégration. Ces applications promettent d'améliorer l'efficacité et l'accessibilité des services pour les personnes migrantes, réfugiées et demandeuses d'asile.

  2. L'Assemblée souligne également les opportunités qu'offre une utilisation responsable et éthique de l'IA. L'IA peut contribuer à sauver des vies, car elle permet d'améliorer les opérations de recherche et de sauvetage, fournir aux personnes migrantes et réfugiées des informations multilingues et accessibles, et soutenir leur intégration en facilitant l'apprentissage des langues, l'éducation et l'accès au marché du travail. Lorsqu'elle est conçue dans un souci de transparence et avec une obligation de contrôle humain et des garanties solides en matière de droits humains, l'IA peut favoriser l'innovation, réduire les charges administratives et renforcer la confiance dans les institutions. De cette manière, l'IA peut rendre la gestion des migrations non seulement plus efficace, mais aussi plus humaine et plus inclusive.

  3. L'Assemblée souligne, toutefois, que l'innovation technologique ne doit pas se faire au détriment des droits fondamentaux. Utilisée à mauvais escient, l'IA peut renforcer les inégalités structurelles, porter atteinte à la vie privée et compromettre la protection des personnes demandeuses d'asile. Par conséquent, l'Assemblée réitère son appel lancé à tous les États membres du Conseil de l'Europe afin qu'ils signent et ratifient la Convention-cadre du Conseil de l'Europe sur l'intelligence artificielle et les droits de l'homme, la démocratie et l'État de droit (STCE n° 225, ci-après la «Convention-cadre sur l'IA»), qui vise à garantir le développement et le déploiement de l'IA dans le respect des normes en matière de droits humains et interdit explicitement les applications de l'IA qui violent le droit de demander l'asile, comme indiqué à l'article 5.

  4. La modernisation au moyen de l'IA doit être mise en œuvre de manière à limiter les risques et les effets néfastes pour les personnes migrantes, réfugiées et demandeuses d'asile, notamment en matière de discrimination et de reproduction de Pag. 8préjugés, et à ne pas renforcer involontairement les stéréotypes ou les préjugés existants. Les États devraient plutôt exploiter le potentiel de l'IA afin de promouvoir un système de gestion des migrations inclusif, sûr et humain.

  5. Reconnaissant l'impact profond que l'IA peut avoir sur les droits et libertés individuels, l'Assemblée souligne que l'IA devrait soutenir – et non remplacer – la prise de décision humaine dans les processus de migration et d'asile, même si, dans certains cas, l'IA peut offrir plus de sécurité et d'efficacité que la seule prise de décision humaine, en réduisant le risque d'erreur humaine. Tous les outils d'IA doivent être transparents, responsables et soumis à contrôle. Ils doivent également être déployés conformément aux principaux instruments internationaux, notamment la Convention européenne des droits de l'homme (STE n° 5, ci-après la «Convention»), la Convention des Nations Unies (ONU) relative au statut des réfugiés telle que modifiée par le protocole de 1967 («Convention relative au statut des réfugiés») et la Charte des droits fondamentaux de l'Union européenne (UE).

  6. Observant que le règlement européen sur l'intelligence artificielle classe les systèmes d'IA liés aux migrations parmi les technologies à haut risque, l'Assemblée souligne la nécessité de garanties supplémentaires. L'utilisation de l'IA dans la gestion des migrations, de l'asile et du contrôle des frontières ne doit pas permettre de contourner les obligations internationales, en particulier celles découlant de la Convention relative au statut des réfugiés. Elle ne devrait pas non plus être utilisée pour enfreindre de quelque manière que ce soit le principe de non-refoulement ou pour refuser des voies d'accès légales sûres et effectives, y compris le droit à la protection internationale.

  7. Il est donc important que les systèmes d'IA utilisés dans les procédures de migration et d'asile fassent l'objet d'évaluations d'impact sur les droits humains, la démocratie et l'État de droit avant d'être déployés. L'Assemblée recommande d'utiliser la méthodologie HUDERIA du Conseil de l'Europe pour identifier et atténuer les risques, notamment les biais algorithmiques et les violations de la vie privée. Le contrôle doit être intégré tout au long du cycle de vie des systèmes d'IA, avec des évaluations indépendantes et une évaluation par l'humain obligatoire.

  8. L'Assemblée demande l'interdiction d'outils d'intelligence artificielle tels que l'évaluation automatisée de la crédibilité, la reconnaissance des émotions et le profilage des risques sur la base de la nationalité ou de l'appartenance ethnique. Ces technologies, qui ne reposent sur aucune base scientifique fiable, sont incompatibles avec les articles 3 et 14 de la Convention.

  9. Notant l'importance cruciale de la protection des données, de la vie privée et de la sécurité dans l'utilisation de l'IA pour les procédures d'asile, l'Assemblée souligne que les données sensibles, y compris les données biométriques, les transcriptions d'entretien et les informations sur le pays d'origine, doivent être cryptées de bout en bout et ne doivent pas être partagées avec le pays d'origine en cas de risque de persécution, conformément à la politique du Haut-Commissariat des Nations Unies pour les réfugiés (HCR) en matière de protection des données.

  10. Les applications de l'intelligence artificielle dans la gestion des migrations doivent donc trouver un équilibre entre les gains d'efficacité et la protection rigoureuse des droits humains à toutes les étapes du parcours migratoire. L'utilisation de l'IA dans le domaine des migrations soulève des questions spécifiques qui doivent être abordées pour chaque étape de la procédure, depuis les activités préparatoires au départ jusqu'au transit, à l'arrivée, au séjour, à la circulation, au retour, qu'il soit temporaire ou définitif, et à la (ré)intégration durable. Il convient en priorité d'instaurer des garanties contre les biais, d'assurer une supervision humaine et de préserver la dignité des personnes migrantes, réfugiées et demandeuses d'asile, comme suit.

Pag. 9

  11. Avant le départ, les outils d'IA utilisés pour l'examen des demandes de visas et d'asile devraient faire l'objet d'une étude d'impact sur les droits humains avant d'être déployés. Les systèmes tels que le dispositif système européen d'information et d'autorisation de voyage (ETIAS) devraient permettre d'évaluer manuellement les cas signalés comme présentant un risque élevé. Tous les outils de filtrage doivent être transparents et ne pas produire d'effet discriminatoire. Les agents conversationnels (chatbots) alimentés par l'IA peuvent fournir des informations multilingues en temps réel aux personnes migrantes, réfugiées et demandeuses d'asile, à condition d'indiquer leur nature automatisée et de respecter les normes éthiques pour éviter de diffuser de fausses informations.

  12. En ce qui concerne les migrations économiques par les voies appropriées, les outils d'IA peuvent être utilisés pour rationaliser, de manière équitable et accessible, la procédure de demande de permis de travail et de séjour. L'IA peut également aider à détecter les pratiques de recrutement abusives en identifiant les employeurs prédateurs et en alertant les autorités compétentes. Les outils d'IA qui permettent de vérifier les visas devraient faire l'objet d'un audit des biais et fournir des résultats transparents pouvant être contestés.

  13. L'Assemblée encourage l'utilisation éthique de l'IA dans la prévision des migrations climatiques par l'analyse des données environnementales et socio-économiques afin d'améliorer la planification humanitaire conformément à sa Résolution 2401 (2021) «Climat et migrations». Les outils pilotés par l'IA, notamment ceux qui sont développés par l'Organisation internationale pour les migrations (OIM), peuvent fournir aux responsables politiques une image prédictive plus claire des déplacements liés aux changements climatiques. Ces modèles prédictifs peuvent servir de base à des mesures de soutien proactives.

  14. L'IA peut également être utilisée pour identifier et déstabiliser les réseaux de trafic illicite de personnes migrantes grâce à une analyse responsable des données.

  15. Pendant le transit, l'Assemblée souligne la nécessité d'une réglementation stricte des technologies de surveillance pilotées par l'IA. La prévision policière et l'identification biométrique doivent être limitées à un usage strictement nécessaire et proportionné, et toutes les données biométriques doivent être cryptées et réservées au personnel autorisé. La Convention-cadre du Conseil de l'Europe sur l'IA encadre la catégorisation biométrique en la réservant aux situations où elle est strictement nécessaire et proportionnée. Les systèmes d'IA, tels que le Système européen de surveillance des frontières (EUROSUR), qui surveillent les mouvements aux frontières doivent se conformer à la politique de protection des données élaborée par l'OIM en 2023.

  16. Les technologies de surveillance des personnes migrantes, réfugiées et demandeuses d'asile en transit doivent être réglementées en vue de protéger leurs droits, et la surveillance de masse par l'IA, comme les drones et la reconnaissance faciale, devrait être interdite. L'IA peut être utilisée de manière positive afin de favoriser la mise en place des couloirs humanitaires en utilisant la cartographie des conflits pour identifier des itinéraires de transit plus sûrs.

  17. L'Assemblée reconnaît le rôle essentiel de l'eu-LISA (l'Agence de l'Union européenne pour la gestion opérationnelle des systèmes d'information à grande échelle au sein de l'espace de liberté, de sécurité et de justice) et d'autres organes de l'Union européenne dans la gestion des bases de données relatives aux migrations, telles que le Système d'information Schengen (SIS), le Système d'information sur les visas (VIS) et Eurodac (la base de données biométriques centralisée de l'Union européenne). La coopération entre les États membres de l'Union européenne et les États membres du Conseil de l'Europe qui n'en font pas partie est importante pour garantir des normes cohérentes en matière de protection des Pag. 10données et le respect des obligations humanitaires.

  18. L'Assemblée exprime une nouvelle fois sa profonde préoccupation et sa tristesse face aux décès de personnes migrantes, réfugiées et demandeuses d'asile en mer. Elle appelle les États membres à utiliser les technologies de l'IA pour renforcer les capacités de recherche et de sauvetage, et à respecter la dignité des personnes décédées, conformément aux principes énoncés dans sa Résolution 2569 (2024) «Personnes migrantes, réfugiées et demandeuses d'asile disparues – Un appel à clarifier leur sort» et sa Résolution 2612 (2025) «Sauver la vie des personnes migrantes en mer et protéger leurs droits humains».

  19. À l'arrivée, l'IA peut être utilisée pour soutenir des procédures d'asile individualisées, équitables et conformes aux droits, sans jamais remplacer le rôle des travailleuses et travailleurs sociaux dans les échanges et la prise de décisions. Les documents générés par l'IA devraient être accessibles dans les langues des personnes demandeuses et en langage clair.

  20. Les systèmes biométriques et les outils de reconnaissance linguistique devraient faire l'objet d'audits de biais réguliers afin de garantir un traitement équitable, tandis que les outils de reconnaissance faciale, tels que ceux utilisés dans les tunnels frontaliers intelligents, devraient faire l'objet de tests démographiques afin d'assurer le respect des exigences en matière de non-discrimination et respecter les normes d'audit de l'Union européenne.

  21. Les systèmes d'IA utilisés dans le traitement des demandes d'asile devraient être vérifiés et corrigés en ce qui concerne les ensembles de données biaisées afin d'éliminer les variables discriminatoires, et les éléments de preuve générés par l'IA doivent être vérifiés par des humains, avec possibilité de contrôle judiciaire. L'utilisation d'outils tels que la reconnaissance des émotions ou les «détecteurs de mensonges» ne devrait pas être incluse, et les outils prédictifs évaluant la probabilité de fuite ne doivent pas être utilisés pour justifier la détention, en particulier celle des mineurs. Des évaluations d'impact telles que la méthodologie HUDERIA devraient être réalisées avant le déploiement de nouveaux systèmes.

  22. Pendant le séjour, conformément à la Résolution 2502 (2023) «Intégration des migrants et des réfugiés: des avantages pour toutes les parties prenantes» de l'Assemblée, les politiques d'intégration inclusives peuvent être soutenues par une utilisation éthique de l'IA, qui peut jouer un rôle majeur en accélérant l'autonomie des personnes migrantes, réfugiées et demandeuses d'asile et en renforçant la résilience des communautés hôtes. Des outils peuvent être développés en collaboration avec les communautés de personnes réfugiées et les ONG et mis à disposition hors ligne (par exemple, les lignes d'assistance téléphonique sans accès à internet) et par le biais d'interfaces vocales afin de réduire les fractures numériques.

  23. Les outils de recherche d'emploi pilotés par l'IA devraient donner la priorité à des critères éthiques tels que l'unité familiale et l'adéquation culturelle. Il est essentiel que leur conception tienne compte de la dimension de genre afin d'éviter de renforcer la ségrégation sur le marché du travail qui oriente les femmes vers les secteurs à bas salaires. Des mécanismes de retour d'information continus devraient permettre de remédier aux erreurs de placement. Les audits annuels des systèmes d'IA utilisés pour l'attribution de prestations sociales ou d'un logement sont primordiaux pour détecter et corriger les biais. L'analyse prédictive peut soutenir une planification urbaine équitable, en aidant à prévenir la ségrégation et à favoriser l'innovation et la sécurité dans les différentes communautés.

  24. L'Assemblée appelle à créer des organes de contrôle indépendants tels que le Conseil de l'intelligence artificielle de l'Union Européenne, qui seraient composés de représentant·es de la société civile et d'expert·es juridiques et technologiques, et seraient chargés de suivre la mise en œuvre Pag. 11des systèmes d'IA dans la gestion des migrations, de l'asile et des contrôles aux frontières, sur la base des lignes directrices du HCR, de la Convention-cadre du Conseil de l'Europe sur l'IA et des règlements pertinents de l'Union européenne.

  25. De solides mécanismes de réparation et d'indemnisation doivent également être mis en place afin de permettre la contestation des éléments générés par l'IA par des voies juridiques rapides. L'aide juridique devrait être étendue aux recours liés aux systèmes algorithmiques.

  26. Pour les étapes de la migration circulaire et du retour, les chatbots pilotés par l'IA utilisés dans les programmes d'aide au retour devraient respecter les normes d'équité, éviter les techniques d'incitation et fournir des informations impartiales. Les personnes migrantes, réfugiées et demandeuses d'asile devraient conserver le contrôle de leurs données, pouvoir supprimer ou transférer des informations lorsqu'elles quittent les programmes et bénéficier d'une garantie contre le partage d'informations biométriques avec le pays d'origine. Le partage des données biométriques avec les pays d'origine doit être interdit s'il existe un risque de persécution. Les évaluations des conditions environnementales fondées sur l'IA peuvent aider à déterminer la sécurité des destinations de retour.

  27. La réintégration durable nécessite un suivi rigoureux après le retour. Les États devraient mettre en œuvre des évaluations d'impact fondées sur la communauté et des outils d'intelligence artificielle éthiques pour suivre les résultats en matière d'emploi, de logement et de bien-être. Les assistants IA accessibles hors ligne doivent aider les personnes migrantes à s'orienter dans les services de réintégration.

  28. Conformément à sa Résolution 2343 (2020) «Prévenir les discriminations résultant de l'utilisation de l'intelligence artificielle», l'Assemblée souligne l'importance d'adopter des mesures spécifiques visant à prévenir la discrimination et les effets négatifs qui touchent de manière disproportionnée certains groupes tels que les femmes, les personnes appartenant à des minorités, ainsi que les personnes les plus vulnérables et marginalisées, notamment les personnes migrantes, réfugiées et demandeuses d'asile.

  29. Ce risque de discrimination provoquée par l'IA devrait être pris en compte dès la phase de conception, qui pourrait bénéficier de la participation des organisations de la société civile représentant les personnes migrantes, réfugiées et demandeuses d'asile pour accroître la confiance et la fiabilité. La sensibilisation et la formation des agent·es des services d'asile, des ONG et des développeurs et développeuses d'IA renforceront le déploiement éthique de l'IA.

  30. Les États membres doivent prévoir des garanties contre l'utilisation abusive de l'IA à des fins de désinformation, de manipulation ou de cyberattaques exploitant les vulnérabilités en matière de migration. Les menaces géopolitiques, y compris celles liées à l'agression menée par la Fédération de Russie contre l'Ukraine, exigent une vigilance et une résilience accrues dans les cadres de politique migratoire afin d'éviter toute répercussion négative sur la protection offerte.

  31. En ce qui concerne le climat général dans l'opinion autour des questions migratoires, les États devraient veiller à ce que les chatbots alimentés par l'IA soient utilisés de manière éthique pour fournir des informations accessibles, précises et multilingues sur la migration, et à ce que ces outils ne soient pas utilisés pour manipuler les discours ou les décisions en matière d'asile. Là encore, il convient de privilégier la conception participative dans le développement de ces chatbots.

  32. Pour soutenir les mesures susmentionnées, il est essentiel de sensibiliser et de renforcer les capacités de toutes les parties prenantes publiques et privées – en particulier les autorités et les responsables publics, les développeurs, les petites et moyennes entreprises et les jeunes entreprises d'IA – en matière d'utilisation de l'IA dans la gestion des migrations, conformément aux cadres réglementaires pertinents et à leur mise en œuvre pratique.

Pag. 12

ASSEMBLEA PARLAMENTARE DEL CONSIGLIO D'EUROPA

RISOLUZIONE 2628 (2025)(1)

_____________

Intelligenza artificiale e migrazione

Assemblea parlamentare

  1. L'Assemblea parlamentare riconosce il potenziale trasformativo dell'intelligenza artificiale (IA) in una serie di settori, compresa la gestione delle migrazioni. I sistemi di IA, in grado di prendere decisioni in modo autonomo e di analizzare dati complessi, sono adoperati in misura sempre maggiore nella sorveglianza delle frontiere, nell'elaborazione dei visti, nell'identificazione biometrica, nell'elaborazione del linguaggio naturale e nel sostegno all'integrazione. Queste applicazioni promettono maggiore efficienza e accessibilità dei servizi per i migranti, i rifugiati e i richiedenti asilo.

  2. L'Assemblea evidenzia inoltre le opportunità offerte da un utilizzo responsabile ed etico dell'IA. L'IA può aiutare a salvare vite umane migliorando le operazioni di ricerca e soccorso, può fornire a migranti e rifugiati informazioni multilingue e accessibili e può favorire la loro integrazione facilitando l'apprendimento delle lingue, l'istruzione e l'accesso al mercato del lavoro. Se progettata all'insegna della trasparenza, della supervisione umana e di solide garanzie in materia di diritti umani, l'IA può promuovere l'innovazione, ridurre gli oneri amministrativi e rafforzare la fiducia nelle istituzioni. In tal modo, l'IA può rendere la gestione della migrazione non solo più efficiente, ma anche più umana e inclusiva.

  3. L'Assemblea sottolinea tuttavia che l'innovazione tecnologica non deve andare a scapito dei diritti fondamentali. Se utilizzata in modo improprio, l'IA può rafforzare le disuguaglianze strutturali, violare la privacy e compromettere la protezione dell'asilo. L'Assemblea ribadisce pertanto il suo invito a tutti gli Stati membri del Consiglio d'Europa a firmare e ratificare la Convenzione quadro del Consiglio d'Europa sull'intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto (STCE n. 225, di seguito «Convenzione quadro sull'IA»), che mira a garantire lo sviluppo e l'implementazione dell'IA in linea con gli standard dei diritti umani e che vieta esplicitamente le applicazioni di IA che violano il diritto a richiedere asilo, come affermato nell'articolo 5.

  4. La modernizzazione basata sull'intelligenza artificiale deve essere attuata per ridurre al minimo gli effetti e i rischi pericolosi per i migranti, i rifugiati e i richiedenti asilo, ad esempio la discriminazione e i pregiudizi, e per non rafforzare involontariamente gli stereotipi o i pregiudizi esistenti. Gli Stati dovrebbero piuttosto sfruttare il potenziale dell'intelligenza artificiale per promuovere un sistema migratorio più inclusivo, sicuro e umano.

  5. Riconoscendo il profondo impatto che l'IA può avere sui diritti e sulle libertà individuali,Pag. 13 l'Assemblea sottolinea che l'IA dovrebbe sostenere, e non sostituire, il processo decisionale umano nelle procedure di asilo e migrazione, anche se in alcuni casi l'IA può offrire maggiore sicurezza ed efficacia rispetto al solo processo decisionale umano, riducendo il margine di errore umano. Tutti gli strumenti di IA devono essere trasparenti, responsabili e soggetti a supervisione, ed essere utilizzati in conformità con i principali strumenti internazionali, tra cui la Convenzione europea dei diritti dell'uomo (STE n. 5, di seguito «la Convenzione»), la Convenzione delle Nazioni Unite del 1951 (ONU) del 1951 relativa allo status dei rifugiati, modificata dal Protocollo del 1967 («Convenzione sui rifugiati») e la Carta dei diritti fondamentali dell'Unione europea (UE).

  6. Rilevando che la legge UE sull'IA classifica l'IA relativa alla migrazione come tecnologia ad alto rischio, l'Assemblea sottolinea la necessità di ulteriori garanzie. L'uso dell'IA nella gestione della migrazione, dell'asilo e del controllo delle frontiere non deve consentire di eludere gli obblighi internazionali, in particolare quelli previsti dalla Convenzione sui rifugiati. Né vi si dovrebbe far ricorso in alcun modo per violare il principio di non respingimento o per negare vie legali sicure ed efficaci per accedere al territorio degli Stati, compreso il diritto alla protezione internazionale.

  7. È quindi importante che i sistemi di IA utilizzati nelle procedure di migrazione e asilo siano sottoposti a valutazioni d'impatto sui diritti umani, sulla democrazia e sullo stato di diritto prima della loro implementazione. L'Assemblea raccomanda l'uso della metodologia HUDERIA del Consiglio d'Europa per identificare e mitigare i rischi, compresi i pregiudizi algoritmici e le violazioni della privacy. La supervisione deve essere integrata in tutto il ciclo di vita dei sistemi di IA, con valutazioni indipendenti e revisioni umane obbligatorie.

  8. L'Assemblea chiede il divieto dell'uso di strumenti di intelligenza artificiale per effettuare valutazioni automatizzate della credibilità, riconoscimento delle emozioni e profilazione del rischio basata sulla nazionalità o sull'etnia. Queste tecnologie mancano di validità scientifica e sono incompatibili con gli articoli 3 e 14 della Convenzione.

  9. Rilevando l'importanza fondamentale della protezione dei dati, della privacy e della sicurezza nell'uso dell'IA per le procedure di asilo, l'Assemblea sottolinea che i dati sensibili, compresi quelli biometrici, le trascrizioni dei colloqui e le informazioni sul paese di origine devono essere crittografati end-to-end e non devono essere condivisi con il paese di origine in caso di rischio di persecuzione, in conformità con la politica di protezione dei dati dell'Alto Commissariato delle Nazioni Unite per i rifugiati (ACNUR).

  10. Le applicazioni dell'intelligenza artificiale nel campo della gestione della migrazione devono quindi trovare un equilibrio tra i guadagni in termini di efficienza e la rigorosa tutela dei diritti umani in tutte le fasi del percorso migratorio. Le questioni specifiche relative all'uso dell'IA nel campo della migrazione devono essere affrontate per ogni distinta fase del processo, dalle attività precedenti alla partenza al transito, all'arrivo, passando per il soggiorno, la circolazione, il ritorno temporaneo o permanente e la (re)integrazione sostenibile. Sarebbe opportuno dare priorità alle misure di salvaguardia contro i pregiudizi e la supervisione umana e garantire la dignità dei migranti, dei rifugiati e dei richiedenti asilo, come indicato di seguito.

  11. Nella fase precedente alla partenza, prima di essere implementati, gli strumenti di intelligenza artificiale utilizzati per il controllo dei visti e delle richieste di asilo dovrebbero essere sottoposti a valutazioni di impatto sui diritti umani. Sistemi come il Sistema europeo di informazione e autorizzazione ai viaggi (European Travel Information and Authorisation System, ETIAS) dovrebbero prevedere una revisione manuale nei casi segnalati come ad alto rischio. Tutti gli strumenti di screening devono essere trasparenti e privi di risultati discriminatori. Le chatbot basate sull'intelligenza artificiale possono fornire informazioni multilingue in tempo reale a migranti, rifugiati e richiedentiPag. 14 asilo, a condizione che rivelino la loro natura automatizzata e che rispettino gli standard etici per evitare la diffusione di informazioni errate.

  12. Per quanto concerne la migrazione di manodopera attraverso i canali appropriati, gli strumenti di IA possono essere utilizzati per semplificare, in modo equo e accessibile, il processo di richiesta dei permessi di lavoro e di soggiorno. L'IA può inoltre contribuire all'individuazione di pratiche di reclutamento abusive, identificando i datori di lavoro predatori e allertando le autorità competenti. Gli strumenti di IA, ad esempio i sistemi di controllo dei visti, dovrebbero essere sottoposti a verifiche di imparzialità e fornire risultati trasparenti che possano essere contestati.

  13. L'Assemblea incoraggia l'uso etico dell'IA nelle previsioni relative alla migrazione climatica, attraverso l'analisi dei dati ambientali e socioeconomici, al fine di migliorare la pianificazione umanitaria, in conformità con la sua risoluzione 2401 (2021) «Clima e migrazione». Gli strumenti di IA, come quelli sviluppati dall'Organizzazione internazionale per le migrazioni (OIM), possono fornire ai responsabili politici un quadro predittivo più chiaro dei modelli di sfollamento causati dal clima. Tali modelli predittivi possono portare alla creazione di misure di sostegno proattive.

  14. L'intelligenza artificiale può anche essere utilizzata per identificare e smantellare le reti di contrabbando attraverso un'analisi responsabile dei dati.

  15. Durante la fase di transito, l'Assemblea mette in rilievo la necessità di una regolamentazione rigorosa delle tecnologie di sorveglianza basate sull'intelligenza artificiale. La vigilanza predittiva e l'identificazione biometrica devono essere limitate a un uso strettamente necessario e proporzionato e tutti i dati biometrici devono essere crittografati e limitati al personale autorizzato. La Convenzione quadro del Consiglio d'Europa sull'IA limita la categorizzazione biometrica ai casi strettamente necessari e proporzionati. I sistemi di IA che monitorano i movimenti alle frontiere, ad esempio il Sistema europeo di sorveglianza delle frontiere dell'Unione europea (EUROSUR), devono essere conformi ai Principi di protezione dei dati 2023 dell'OIM.

  16. Le tecnologie di sorveglianza dei migranti, dei rifugiati e dei richiedenti asilo in transito devono essere regolamentate con l'obiettivo di proteggerne i diritti; la sorveglianza di massa basata sull'IA (ad esempio i droni e il riconoscimento facciale) dovrebbe essere vietata. L'IA può essere utilizzata in senso positivo per sostenere i corridoi umanitari, utilizzando la mappatura dei conflitti per identificare rotte di transito più sicure.

  17. L'Assemblea riconosce il ruolo essenziale di eu-LISA (Agenzia dell'Unione europea per la gestione operativa dei sistemi informatici su larga scala nello spazio di libertà, sicurezza e giustizia) e degli altri organismi dell'UE nella gestione delle banche dati relative alla migrazione, quali il Sistema d'informazione Schengen (Schengen Information System, SIS), il Sistema d'informazione visti (Visa Information System, VIS) ed Eurodac (la banca dati biometrica centralizzata dell'Unione europea). La cooperazione tra gli Stati membri del Consiglio d'Europa appartenenti all'UE e quelli del Consiglio d'Europa non appartenenti all'UE è importante per garantire standard coerenti di protezione dei dati e il rispetto degli obblighi umanitari.

  18. L'Assemblea esprime ancora una volta profonda preoccupazione e rammarico per la morte in mare di migranti, rifugiati e richiedenti asilo. Invita gli Stati membri a utilizzare le tecnologie di intelligenza artificiale per migliorare le capacità di ricerca e soccorso, nonché a tutelare la dignità delle persone decedute, in conformità con i principi stabiliti nella sua risoluzione 2569 (2024) «Migranti, rifugiati e richiedenti asilo dispersi: un appello per chiarirne la sorte» e nella risoluzione 2612 (2025) «Salvare la vita dei migranti in mare e proteggere i loro diritti umani».

  19. Nella fase di arrivo, l'IA può essere utilizzata per supportare procedure di asilo personalizzate, eque e conformi ai diritti, Pag. 15senza mai sostituire il ruolo degli assistenti sociali nelle interazioni e nel processo decisionale. I documenti generati dall'IA dovrebbero essere accessibili nelle lingue dei richiedenti e in formati di linguaggio semplici.

  20. I sistemi biometrici e gli strumenti di riconoscimento linguistico dovrebbero essere sottoposti a controlli periodici per verificarne l'assenza di pregiudizi, al fine di garantire un trattamento equo. Gli strumenti di riconoscimento facciale, come quelli utilizzati nei tunnel di frontiera intelligenti, dovrebbero essere sottoposti a test demografici per garantirne il rispetto dei requisiti di non discriminazione e l'adesione agli standard di controllo a livello dell'UE.

  21. I sistemi di intelligenza artificiale utilizzati nell'elaborazione delle richieste di asilo dovrebbero essere verificati e corretti in caso di insiemi di dati distorti, al fine di evitare proxy discriminatori; le prove generate dall'intelligenza artificiale devono essere verificate da esseri umani, con accesso al controllo giurisdizionale. Non dovrebbe essere previsto l'uso di strumenti quali il riconoscimento delle emozioni o i rilevatori di bugie; gli strumenti predittivi che valutano la probabilità di fuga non devono essere utilizzati per giustificare la detenzione, soprattutto dei minori. Prima di qualsiasi introduzione di nuovi sistemi, dovrebbero essere effettuate valutazioni d'impatto come HUDERIA.

  22. Durante il periodo di permanenza, le politiche di integrazione inclusiva, in conformità con la risoluzione 2502 (2023) dell'Assemblea «Integrazione dei migranti e dei rifugiati: vantaggi per tutte le parti coinvolte», possono essere sostenute dall'uso etico dell'IA, la quale può ricoprire un ruolo fondamentale nell'accelerare l'autosufficienza dei migranti, dei rifugiati e dei richiedenti asilo, rafforzando a un tempo la resilienza delle comunità ospitanti. È possibile sviluppare strumenti in collaborazione con le comunità di rifugiati e le ONG e resi accessibili offline (ad esempio tramite linee telefoniche dedicate senza accesso a Internet) e tramite interfacce vocali per colmare il divario digitale.

  23. Gli strumenti di matching del lavoro basati sull'intelligenza artificiale dovrebbero dare priorità a criteri etici quali l'unità familiare e l'adeguatezza culturale. Una progettazione sensibile alle questioni di genere è essenziale per evitare di rafforzare la segregazione del mercato del lavoro che indirizza le donne verso settori a basso reddito. Cicli di feedback continui dovrebbero contribuire a risolvere i casi di errato collocamento. Gli audit annuali dei sistemi di intelligenza artificiale utilizzati nel settore del welfare e dell'edilizia abitativa sono essenziali per individuare e correggere eventuali pregiudizi. L'analisi predittiva può sostenere una pianificazione urbana equa, contribuendo a prevenire la segregazione e a promuovere l'innovazione e la sicurezza nelle varie comunità.

  24. L'Assemblea chiede la creazione di organismi di controllo indipendenti (come il Comitato europeo per l'intelligenza artificiale) che includano la società civile nonché giuristi ed esperti di tecnologie e che monitorino l'attuazione dei sistemi basati sull'intelligenza artificiale nella gestione della migrazione, dell'asilo e del controllo delle frontiere sulla base delle linee guida dell'Alto Commissariato delle Nazioni Unite per i rifugiati (ACNUR), della Convenzione quadro del Consiglio d'Europa sull'intelligenza artificiale e delle normative UE pertinenti.

  25. Devono inoltre essere resi disponibili meccanismi di ricorso e risarcimento efficaci, che consentano di contestare le prove generate dall'IA attraverso canali legali accelerati. L'assistenza legale dovrebbe essere estesa alle controversie derivanti dagli algoritmi.

  26. Per quanto concerne le fasi di migrazione circolare e di rimpatrio, le chatbot basate sull'intelligenza artificiale utilizzate nei programmi di sostegno al rimpatrio dovrebbero essere conformi agli standard di equità, evitare tecniche di manipolazione e fornire informazioni imparziali. I migranti, i rifugiati e i richiedenti asilo dovrebbero mantenere il controllo sui propri dati, con la possibilità di cancellare o trasferire le informazioni al momento dell'uscita dai programmi e con la garanzia che le informazioni biometrichePag. 16 non vengano condivise con il paese di origine. La condivisione dei dati biometrici con i paesi di origine deve essere vietata se sussiste il rischio di persecuzione. Le valutazioni delle condizioni ambientali basate sull'intelligenza artificiale possono aiutare a determinare la sicurezza delle destinazioni di rimpatrio.

  27. Una reintegrazione sostenibile richiede un monitoraggio rigoroso nella fase post-rimpatrio. Gli Stati dovrebbero attuare valutazioni d'impatto basate sulle informazioni fornite dalla comunità e strumenti di IA etici per monitorare i risultati relativi all'occupazione, all'alloggio e al benessere. Gli assistenti di IA accessibili offline devono aiutare i migranti a orientarsi tra i servizi di reintegrazione.

  28. In linea con la sua risoluzione 2343 (2020) «Prevenire la discriminazione causata dall'uso dell'intelligenza artificiale», l'Assemblea sottolinea l'importanza di azioni specifiche che prevengano la discriminazione e l'impatto negativo sproporzionato su gruppi quali le donne, le minoranze e le persone più vulnerabili ed emarginate, compresi i migranti, i rifugiati e i richiedenti asilo.

  29. Tale potenziale discriminazione nell'IA dovrebbe essere affrontata nella fase di progettazione, che può trarre utile beneficio dalla partecipazione delle organizzazioni della società civile che rappresentano i migranti, i rifugiati e i richiedenti asilo per aumentare la fiducia e l'affidabilità. La sensibilizzazione e la formazione dei funzionari preposti all'asilo, delle ONG e degli sviluppatori di IA rafforzeranno l'implementazione etica dell'IA stessa.

  30. Gli Stati membri devono proteggersi dall'uso improprio dell'IA con il fine di disinformare, manipolare o perpetrare attacchi informatici che sfruttano le vulnerabilità dei migranti. Le minacce geopolitiche, comprese quelle legate all'aggressione della Federazione russa contro l'Ucraina, richiedono una maggiore vigilanza e resilienza nei quadri politici in materia di migrazione per evitare un impatto negativo sulla protezione offerta.

  31. Per quanto concerne l'opinione generale rispetto ai problemi migratori, gli Stati dovrebbero garantire che le chatbot alimentate dall'intelligenza artificiale siano utilizzate in modo etico, al fine di fornire informazioni sulla migrazione che siano accessibili, accurate e multilingui. Gli Stati devono inoltre garantire che tali strumenti non siano utilizzati per manipolare narrative o decisioni riguardanti l'asilo. Anche in questo caso, la progettazione partecipativa allo sviluppo delle chatbot è da prediligere.

  32. Al fine di sostenere le misure succitate, la sensibilizzazione e il rafforzamento delle capacità tra tutte le parti coinvolte, provenienti dai settori pubblico e privato (soprattutto le autorità e i funzionari pubblici, gli sviluppatori, le piccole e medie imprese e le start-up del mondo dell'IA), rispetto all'uso dell'IA nella gestione della migrazione è fondamentale; si basa sui quadri normativi pertinenti e sulla loro implementazione pratica.

  (1) Assembly debate on 3 October 2025 (36th sitting) (see Doc. 16240, report of the Committee on Migration, Refugees and Displaced Persons, rapporteur: Mr Petri Honkonen). Text adopted by the Assembly on 3 October 2025 (36th sitting). See also Recommendation 2300 (2025).
  Provisional version subject to editorial review.

  (1) Discussion par l'Assemblée le 3 octobre 2025 (36e séance) (voir Doc. 16240, rapport de la commission des migrations, des réfugiés et des personnes déplacées, rapporteur: M. Petri Honkonen). Texte adopté par l'Assemblée le 3 octobre 2025 (36e séance).Voir également la Recommandation 2300 (2025).Version provisoire sous réserve de révision éditoriale.

  (1) Dibattito dell'Assemblea del 3 ottobre 2025 (36ª seduta) (cfr. Doc. 16240, relazione della Commissione per le migrazioni, i rifugiati e gli sfollati, relatore: Petri Honkonen). Testo adottato dall'Assemblea il 3 ottobre 2025 (36ª seduta). Cfr. anche Raccomandazione 2300 (2025).
  Versione provvisoria soggetta a revisione editoriale.