Doc. XII-bis, N. 219

doc. xii-bis n. 219

ASSEMBLEA PARLAMENTARE DEL CONSIGLIO D'EUROPA

Risoluzione n. 2343

Prevenire le discriminazioni derivanti dall'utilizzo dell'intelligenza artificiale

Trasmessa il 10 novembre 2020

Pag. 2

PARLIAMENTARY ASSEMBLY OF THE COUNCIL OF EUROPE

RESOLUTION 2343 (2020) (1)
Provisional version

Preventing discrimination caused by the use of artificial intelligence

  Parliamentary Assembly,

  1. Artificial intelligence (AI) is transforming the way we live. It enables massive upscaling of processes and is already used by a wide range of private and public entities, across fields as diverse as selection procedures that determine access to employment and education, the evaluation of individual entitlements to welfare payments or to credit, or the targeting of advertising and news.
  2. Many uses of AI can have a direct impact on equality of access to fundamental rights, including the right to private life and the protection of personal data; access to justice and the right to a fair trial, in particular as regards the presumption of innocence and the burden of proof; access to employment, education, housing and health; and access to public services and welfare. The use of AI has been found to cause or exacerbate discrimination in these fields, leading to denials of access to rights that disproportionately affect certain groups - often women, minorities, and
  1. Text adopted by the Standing Committee, acting on behalf of the Assembly, on 22 October 2020 (see Doc. 15151, report of the Committee on Equality and Non-Discrimination, rapporteur: Mr Christophe Lacroix).
  See also Recommendation 2183 (2020).
those who are already the most vulnerable and marginalised. Its use in information flows has also been linked to the spread of online hate that spills over into all other social interactions.
  3. Machine learning used to build AI-based systems relies on vast datasets (big data), much of which is personal data. Effective guarantees of the protection of personal data remain essential in this context. At the same time, data are by nature biased, as they reflect discrimination already present in society as well as the bias of those who collect and analyse them. Choices about which data to use and which to ignore in AI-based systems, as well as a lack of data on key issues, the use of proxies and the difficulties inherent in quantifying abstract concepts, can also lead to discriminatory results. Biased datasets are at the heart of many cases of discrimination caused by the use of AI, and remain a major issue to be resolved in this field.
  4. The design and purpose of AI-based systems are also crucial. Algorithms optimised for efficiency, profitability or other objectives, without taking due account of the need to guarantee equality and non- discrimination, may cause direct or indirect discrimination, including discrimination by association, on a wide variety of grounds, including sex, gender, age, national or ethnic origin, colour, language, religious convictions, sexual orientation, Pag. 3gender identity, sex characteristics, social origin, civil status, disability, or health status. This makes it especially important, wherever their use may have an impact on access to fundamental rights, for AI-based systems to incorporate full respect for equality and non-discrimination in their design, from the outset, and to be rigorously tested before they are deployed, as well as regularly after their deployment, in order to ensure that these rights are guaranteed.
  5. The complexity of AI systems, and the fact that they are frequently developed by private companies and treated as their intellectual property, can lead to serious issues of transparency and accountability regarding decisions made using these systems. This can make discrimination extremely difficult to prove and can hinder access to justice, in particular where the burden of proof is placed on the victim and/or where the machine is assumed by default to have made the correct decision, violating the presumption of innocence.
  6. The lack of diversity in many tech companies and professions heightens the risk that AI systems will be developed without due regard to their potentially discriminatory impacts on some individuals and groups in society. Women and minorities access to science, technology, engineering and mathematics (STEM) professions needs to be improved, and a true culture of respect for diversity urgently needs to be developed within these professional milieus. Using interdisciplinary and intercultural approaches throughout all stages of the design of AI systems would also contribute to strengthening them from the standpoint of equality and non discrimination.
  7. Finally, strong, clear and universally accepted and applicable ethical principles must underpin the development and deployment of all AI-based systems. The Parliamentary Assembly considers that these principles can be grouped under the following broad headings: transparency, including accessibility and explicability; justice and fairness, including non-discrimination; human responsibility for decisions, including liability and the availability of remedies, safety and security; and privacy and the protection of personal data.
  8. The Assembly welcomes the fact that both public and private actors have begun to examine and develop ethical and human rights standards applicable to the use of AI. It welcomes in particular the Committee of Ministers Recommendation Rec/CM(2020)1 on the human rights impact of algorithmic systems, along with its accompanying guidelines on addressing the human rights impacts of algorithmic systems, and the recommendation of the Council of Europe Commissioner for Human Rights on «Unboxing Artificial Intelligence: 10 steps to protect Human Rights». It endorses the general proposals made in these texts for application also in the area of equality and non-discrimination.
  9. The Assembly stresses that legislators must not hide behind the complexities of AI to prevent them from introducing regulations designed to protect and promote equality and non-discrimination in this field: the human rights issues at stake are clear and require action. In addition to ethical principles, procedures, tools and methods for regulating and auditing AI-based systems in order to ensure their compliance with international human rights standards, and in particular with the rights to equality and non-discrimination, are needed. Given the strong transnational and international dimensions of AI-based technologies, international standards also appear to be needed in this field.
  10. In the light of these considerations, the Assembly calls on member States to:
   10.1. review their antidiscrimination legislation, and amend it as necessary, so as to ensure that it covers all cases where direct or indirect discrimination, including discrimination by association, may be caused by the use of AI, and that complainants have full access to justice; in the latter respect, pay particular attention to guaranteeing the presumption of innocence and ensuring that victims of discrimination do not face a disproportionate burden of proof;
   10.2. draw up clear national legislation, standards and procedures to ensure that AI-based systems comply with the rights to equality and non-discrimination Pag. 4wherever the enjoyment of these rights may be affected by the use of such systems;
   10.3. ensure that equality bodies are fully empowered to address issues of equality and non- discrimination that arise due to the use of AI, and to support individuals bringing cases in this field, and that they have all the necessary resources to carry out these tasks.

  11. In order to ensure that the use of AI-based technologies by public authorities is subject to adequate parliamentary oversight and public scrutiny, the Assembly calls on national parliaments to:
   11.1. make the use of such technologies a part of regular parliamentary debates, and ensure that an adequate structure for such debates exists;
   11.2. require the government to notify the parliament before such technology is deployed;
   11.3. require the use of such technologies by the authorities to be systematically recorded in a public register.

  12. In order to address underlying issues of diversity and inclusion in the field of AI, the Assembly further calls on member States to:
   12.1. promote the inclusion of women, girls and minorities in STEM education paths, from the earliest ages and to the highest levels, and work together with industry to ensure that diversity and inclusion are fostered throughout career paths;
   12.2. support research into data bias and the means by which its impact can be effectively countered in AI-based systems;
   12.3. promote digital literacy and access to digital tools by all members of society.

  13. The Assembly invites all entities, both public and private, working on and with AI-based systems, to ensure that respect for equality and non-discrimination is integrated from the outset in the design of such systems, and adequately tested before their deployment, wherever these systems may have an impact on the exercise of or access to fundamental rights. To this end, it invites these entities to consider building capacity for a Human Rights Impact Assessment framework for the development and deployment of AI-systems by both private and public entities. In addition, it encourages the use of interdisciplinary and diverse teams at all stages in the development and deployment of AI-based systems.
  14. Finally, the Assembly calls on national parliaments to support work being carried out at international level, in particular through the Council of Europe's Ad hoc Committee on artificial intelligence (CAHAI), to ensure that human rights standards are effectively applied in the field of AI, and that respect for the principles of equality and non-discrimination is guaranteed in this field.

Pag. 5

ASSEMBLÉE PARLEMENTAIRE DU CONSEIL DE L'EUROPE

RÉSOLUTION 2343 (2020) (1)
Version provisoire

Prévenir les discriminations résultant de l'utilisation de l'intelligence artificielle

  Assemblée parlementaire,

  1. L'intelligence artificielle (IA) est en train de transformer nos modes de vie. Permettant une généralisation massive des processus, elle est déjà utilisée par un large éventail d'entités privées et publiques, dans des domaines aussi divers que des procédures de sélection déterminant l'accès à l'emploi et à l’éducation, l’évaluation des droits d'un individu à des prestations sociales ou à un crédit, ou le ciblage des messages publicitaires et d'information.
  2. Bon nombre d'utilisations de l'IA peuvent avoir un impact direct sur l’égalité d'accès aux droits fondamentaux, notamment le droit à la vie privée et la protection des données à caractère personnel; l'accès à la justice et le droit à un procès équitable, particulièrement en ce qui concerne la présomption d'innocence et la charge de la preuve ?; l'accès à l'emploi, à
  (1) Texte adopté par la Commission permanente, agissant au nom de l'Assemblée, le 22 octobre 2020 (voir Doc. 15151, rapport de la Commission sur l’égalité et la non-discrimination, rapporteur: M. Christophe Lacroix).
  Voir également la Recommandation 2183 (2020).
l’éducation, au logement et à la santé; et l'accès aux services publics et à la protection sociale. Il s'avère que l'utilisation de l'IA est susceptible de provoquer ou exacerber la discrimination dans ces domaines, entraînant des refus d'accès aux droits qui touchent de manière disproportionnée certains groupes – souvent les femmes, les personnes appartenant aux minorités, ainsi que les personnes les plus vulnérables et les plus marginalisées. Son utilisation dans les flux d'informations a également été liée à la propagation de la haine en ligne qui a des retombées sur toutes les autres interactions sociales.
3. Le processus d'apprentissage par la machine utilisé pour produire des systèmes d'IA repose sur le recours à de vastes ensembles de données (big data) qui sont pour une grande part à caractère personnel. Des garanties effectives de la protection des données à caractère personnel revêtent donc une importance essentielle dans ce contexte. Parallèlement, les données sont biaisées par nature dans la mesure où elles reflètent les discriminations déjà présentes dans la société, ainsi que les préjugés des personnes chargées de leur collecte et de leur analyse. Le choix des données à utiliser et à ignorer dans un système basé sur l'IA, ainsi que l'absence de données sur des questions clés, l'utilisation de variables Pag. 6indirectes et les difficultés inhérentes à la quantification de concepts abstraits, peuvent également aboutir à des résultats discriminatoires. Les ensembles de données biaisés sont au cour de nombreux cas de discrimination du fait de l'utilisation de l'IA et demeurent un problème majeur à résoudre dans ce domaine.
  4. La conception et la finalité d'un système basé sur l'IA sont également cruciales. Les algorithmes optimisés en vue de l'efficacité, de la rentabilité ou d'autres objectifs, sans tenir dûment compte de la nécessité de garantir l’égalité et la non-discrimination, peuvent entraîner une discrimination directe ou indirecte (y compris une discrimination par association) fondée sur toute une série de motifs, dont le sexe, le genre, l’âge, l'origine nationale ou ethnique, la couleur, la langue, les convictions religieuses, l'orientation sexuelle, l'identité de genre, les caractéristiques sexuelles, l'origine sociale, l’état civil, le handicap ou l’état de santé. Il est donc particulièrement important, lorsque leur utilisation risque d'avoir une incidence sur l'accès à des droits fondamentaux, que les systèmes basés sur l'IA intègrent d'emblée le plein respect de l’égalité et de la non-discrimination dans leur conception et soient rigoureusement testés avant d’être déployés, mais aussi de fa on régulière après leur déploiement, afin de s'assurer que ces droits soient garantis.
  5. La complexité des systèmes d'IA et le fait qu'ils soient fréquemment développés par des entreprises privées et traités comme des éléments relevant de leur propriété intellectuelle peuvent conduire à de sérieux problèmes de transparence et de responsabilité concernant les décisions prises en utilisant ces systèmes. Ces caractéristiques peuvent rendre la discrimination extrêmement difficile à prouver et entraver l'accès à la justice, en particulier lorsque la charge de la preuve incombe à la victime et/ou lorsque la machine est supposée par défaut avoir pris la bonne décision, ce qui viole la présomption d'innocence.
  6. Le manque de diversité au sein de nombreuses entreprises et professions technologiques augmente le risque que des systèmes d'IA soient développés sans tenir compte de leurs impacts potentiellement discriminatoires sur certains individus et groupes de la société. L'accès des femmes et des minorités aux professions scientifiques, technologiques, d'ingénierie et de mathématiques (STIM) doit être amélioré, et une véritable culture de respect de la diversité développée de toute urgence au sein de ces milieux professionnels. Le recours à des approches interdisciplinaires et interculturelles à tous les stades de la conception des systèmes d'IA contribuerait également à leur amélioration du point de vue du respect des principes d’égalité et de non-discrimination.
  7. Enfin, des principes éthiques solides, clairs et universellement acceptés et applicables devraient sous- tendre le développement et le déploiement de tous les systèmes basés sur l'IA. L'Assemblée parlementaire considère que ces principes peuvent être regroupés dans les grandes catégories suivantes: la transparence, y compris l'accessibilité et l'explicabilité; la justice et l’équité, y compris la non-discrimination; la capacité d'imputer la responsabilité des décisions à une personne, y compris l'engagement de la responsabilité de l'intéressé et l'existence de voies de recours; la sûreté et la sécurité; et le respect de la vie privée et la protection des données à caractère personnel.
  8. L'Assemblée se félicite de ce que les acteurs publics et privés aient commencé à examiner et à élaborer des normes éthiques ainsi que des normes en matière de droits humains applicables à l'utilisation de l'IA. L'Assemblée se félicite en particulier de la Recommandation Rec/CM(2020)1 du Comité des Ministres sur les impacts des systèmes algorithmiques sur les droits de l'homme, complétée par ses lignes directrices sur le traitement des impacts sur les droits de l'homme des systèmes algorithmiques, ainsi que de la recommandation de la Commissaire aux droits de l'homme du Conseil de l'Europe intitulée «Décoder l'intelligence artificielle: 10 mesures pour protéger les droits de l'homme». L'Assemblée approuve les propositions générales énoncées dans ces textes qui s'appliquent également dans le domaine de l’égalité et de la non-discrimination.
  9. L'Assemblée souligne que le législateur ne devrait pas invoquer la complexité de l'IA pour s'abstenir d'introduire des réglementations destinées à protéger et à promouvoir l’égalité et la non-discrimination Pag. 7dans ce domaine: les enjeux en matière de droits humains sont clairs et requièrent une action. Outre les principes éthiques, il faudrait élaborer des procédures, des outils et des méthodes de réglementation et d'audit des systèmes basés sur l'IA afin de garantir leur conformité aux normes internationales en matière de droits humains, et notamment aux droits à l’égalité et à la non-discrimination. Compte tenu de la forte dimension transnationale et internationale des technologies basées sur l'IA, des normes internationales apparaissent également nécessaires dans ce domaine.
  10. Au vu de ces considérations, l'Assemblée invite les États membres:
   10.1. à revoir leur législation anti-discrimination et à la modifier si nécessaire, de manière à ce qu'elle couvre tous les cas où une discrimination directe ou indirecte, y compris par association, pourrait être causée par l'utilisation de l'IA, et à ce que les plaignants aient pleinement accès à la justice; à cet égard, à veiller tout particulièrement à garantir la présomption d'innocence et à éviter d'imposer aux victimes de discrimination une charge de la preuve disproportionnée;
   10.2. à élaborer une législation, des normes et des procédures nationales claires visant à garantir que tout système fondé sur l'IA respecte les droits à l’égalité et à la non-discrimination partout où son utilisation risquerait d'affecter la jouissance de ces droits;
   10.3. à veiller à ce que les organismes de promotion de l’égalité soient pleinement habilités à traiter les problèmes concernant les principes d’égalité et de non-discrimination résultant d'une utilisation de l'IA et soutenir les personnes qui portent plainte dans ce domaine, et à s'assurer qu'ils disposent de toutes les ressources nécessaires pour s'acquitter de ces tâches.

  11. Afin que l'utilisation par les autorités publiques de technologies fondées sur l'IA soit soumise à un contrôle parlementaire et à un examen public adéquats, l'Assemblée invite les parlements nationaux:
   11.1. à veiller à ce que l'utilisation de ces technologies fasse l'objet de débats parlementaires réguliers, et à ce qu'un cadre propice à ces débats soit mis en place;
   11.2. à exiger du gouvernement d'informer à l'avance le parlement de l'utilisation de ces technologies;
   11.3. à rendre obligatoire l'inscription systématique dans un registre public de chaque utilisation par les autorités de ces technologies.

  12. Afin d'aborder les questions sous-jacentes de la diversité et de l'inclusion dans le domaine de l'IA, l'Assemblée invite en outre les États membres:
   12.1. à promouvoir l'intégration des femmes, des jeunes filles et des personnes appartenant aux minorités dans les filières d'enseignement des STIM dès le plus jeune âge et jusqu'aux plus hauts niveaux, ainsi qu’à collaborer avec le secteur industriel pour faire en sorte que la diversité et l'intégration soient favorisées tout au long des parcours professionnels;
   12.2. à soutenir la recherche sur les biais concernant les données et les moyens de contrer efficacement leur impact dans les systèmes basés sur l'IA;
   12.3. à promouvoir la culture numérique et l'accès aux outils numériques par tous les membres de la société.

  13. L'Assemblée invite toutes les entités, tant publiques que privées, travaillant sur et avec des systèmes basés sur l'IA, à veiller à ce que le respect de l’égalité et de la non-discrimination soit intégré dès le départ dans la conception des systèmes en cause et testé de manière adéquate avant leur déploiement, dès lors que ces systèmes pourraient avoir un impact sur l'exercice ou l'accès à des droits fondamentaux. À cette fin, elle invite ces entités à envisager de renforcer les capacités afin de mettre en place un cadre d’évaluation de l'impact sur les droits humains pour le Pag. 8développement et le déploiement de systèmes basés sur l'IA, tant par les entités privées que par les entités publiques. Elle encourage en outre le recours à des équipes interdisciplinaires et diversifiées à tous les stades du développement et du déploiement des systèmes basés sur l'IA.
  14. Enfin, l'Assemblée invite les parlements nationaux à soutenir les travaux menés au niveau international, notamment par le biais du Comité ad hoc du Conseil de l'Europe sur l'intelligence artificielle (CAHAI), à veiller à ce que les normes en matière de protection des droits humains soient effectivement appliquées dans le domaine de l'IA, et à garantir le respect des principes d’égalité et de non-discrimination dans ce domaine.

Pag. 9

ASSEMBLEA PARLAMENTARE DEL CONSIGLIO D'EUROPA

RISOLUZIONE 2343 (2020)
Versione provvisoria

Prevenire le discriminazioni derivanti dall'utilizzo dell'intelligenza artificiale

  Assemblea parlamentare,

  1. L'intelligenza artificiale (IA) sta trasformando i nostri modi di vivere. Poiché consente un notevole miglioramento dei processi, è già utilizzata da un'ampia gamma di organismi privati e pubblici, in settori diversi come le procedure di selezione per l'accesso al lavoro, l'istruzione, la valutazione del diritto di un individuo a prestazioni sociali e a un credito o il targeting di messaggi pubblicitari e informativi.
  2. Molti utilizzi dell'IA possono avere un impatto diretto sulla parità di accesso ai diritti fondamentali, segnatamente il diritto alla privacy e alla protezione dei dati personali; l'accesso alla giustizia e il diritto ad un equo processo, in particolare rispetto alla presunzione di innocenza e all'onere della prova; l'accesso al lavoro, all'istruzione, all'alloggio e alla salute; e l'accesso ai servizi pubblici e alla protezione sociale. È stato rilevato che l'uso dell'IA è in grado di provocare o esacerbare la discriminazione in questi settori, poiché può implicare il diniego di accesso a diritti che riguardano in maniera sproporzionata alcuni gruppi – spesso donne, persone che appartengono alle minoranze e persone più vulnerabili e più emarginate. Il suo utilizzo nei flussi di informazione è spesso stato correlato alla diffusione dell'odio online che ha ricadute su tutte le altre interazioni sociali.
  3. Il processo di apprendimento automatico utilizzato per produrre sistemi di IA si basa sul ricorso a ampi insieme di dati (big data) che sono in gran parte di natura personale. Garanzie efficaci di protezione dei dati personali rivestono quindi un'importanza essenziale in questo contesto. Parallelamente, i dati sono distorti per natura, nella misura in cui riflettono le discriminazioni già presenti nella società, nonché i pregiudizi delle persone incaricate di raccoglierli e analizzarli. Anche la scelta dei dati da utilizzare e da ignorare in un sistema basato sull'IA, nonché l'assenza di dati su questioni centrali, l'utilizzo di variabili indirette e le difficoltà inerenti alla quantificazione di concetti astratti, possono portare a risultati discriminatori. Gli insiemi di dati sono al centro di numerosi casi di discriminazione provocati dall'utilizzo dell'IA e restano un grave problema da risolvere in questo campo.
  4. Anche la progettazione e la finalità di un sistema basato sull'IA sono cruciali. Gli algoritmi ottimizzati in vista dell'efficacia, della reddività o di altri obiettivi, senza tenere debitamente conto della necessità Pag. 10di garantire l'uguaglianza e la non-discriminazione, possono determinare una discriminazione diretta o indiretta (compresa una discriminazione per associazione) fondata su tutta una serie di motivi, tra cui il sesso, il genere, l'età, l'origine nazionale o etnica, il colore, la lingua, le convinzioni religiose, l'orientamento sessuale, l'identità di genere, le caratteristiche sessuali, l'origine sociale, lo stato civile, le disabilità o lo stato di salute. È quindi particolarmente importante, quando il loro utilizzo rischia di avere un'incidenza sull'accesso a diritti fondamentali, che i sistemi basati sull'IA integrino sin dall'inizio nella progettazione il pieno rispetto dell'uguaglianza e della non-discriminazione e siano rigorosamente testati prima di essere realizzati, ma anche, in modo regolare, dopo l'introduzione, così da assicurare che questi diritti siano garantiti.
  5. La complessità dei sistemi di IA e il fatto che sono frequentemente sviluppati da imprese private e trattati come elementi soggetti alla proprietà intellettuale possono portare a seri problemi di trasparenza e responsabilità rispetto alle decisioni prese utilizzando questi sistemi. Queste caratteristiche possono rendere la discriminazione estremamente difficile da dimostrare e ostacolare l'accesso alla giustizia, in particolare quando l'onere della prova spetta alla vittima e/o quando si suppone automaticamente che la macchina prenda la decisione giusta, violando così la presunzione di innocenza.
  6. L'assenza di diversità all'interno delle varie imprese e professioni tecnologiche aumenta il rischio di sviluppare sistemi di IA senza tener conto del loro impatto potenzialmente discriminatorio su alcuni individui e gruppi della società. Deve essere potenziato l'accesso da parte di donne e minoranze alle professioni scientifiche, tecnologiche, ingegneristiche e matematiche (STIM) e deve essere sviluppata urgentemente una vera cultura del rispetto della diversità all'interno questi ambiti professionali. Il ricorso a strategie interdisciplinari e interculturali in tutte le fasi di progettazione dei sistemi di IA contribuirebbe anche al rafforzamento del rispetto dei principi di uguaglianza e di non discriminazione.
  7. Infine, principi etici solidi, chiari e universalmente accettati e applicabili dovrebbero essere alla base dello sviluppo e dell'introduzione di tutti i sistemi fondati sull'IA. L'Assemblea parlamentare considera che questi principi possano essere raggruppati nelle seguenti grandi categorie: la trasparenza, compresa l'accessibilità e la spiegabilità; la giustizia e l'equità, compresa la non- discriminazione; la possibilità di attribuire la responsabilità delle decisioni a una persona, compresa la possibile incriminazione dell'interessato e l'esistenza di vie di ricorso; la sicurezza; e il rispetto della privacy e la protezione dei dati personali.
  8. L'Assemblea esprime soddisfazione per il fatto che gli attori pubblici e privati abbiano cominciato ad esaminare ed elaborare norme etiche e norme in materia di diritti umani applicabili all'utilizzo dell'IA. L'Assemblea plaude, in particolare, alla Raccomandazione Rec/CM(2020)1 del Comitato dei Ministri sull'impatto dei sistemi algoritmici sui diritti umani, integrata dalle linee guida sul trattamento delle incidenze sui diritti umani dei sistemi algoritmici, nonché alla Raccomandazione della Commissaria ai diritti umani del Consiglio d'Europa dal titolo: «Decodificare l'intelligenza artificiale: 10 misure per proteggere i diritti umani». L'Assemblea sostiene le proposte generali enunciate in questi testi, applicabili anche nell'ambito della parità e della non-discriminazione.
  9. L'Assemblea sottolinea che il legislatore non dovrebbe evocare la complessità dell'IA per astenersi dall'introdurre regolamentazioni destinate a proteggere e promuovere l'uguaglianza e la non-discriminazione in questo campo: le sfide in materia di diritti umani sono chiare e richiedono un'azione. Oltre ai principi etici, bisognerà elaborare procedure, strumenti e metodi di regolamentazione e verifica dei sistemi basati sull'IA per garantirne la conformità alle norme internazionali in materia di diritti umani e, in particolare, Pag. 11ai diritti all'uguaglianza e alla non-discriminazione. Tenuto conto della forte dimensione transnazionale e internazionale delle tecnologie basate sull'IA, appaiono ugualmente necessarie norme internazionali in questa materia.
  10. Alla luce di queste considerazioni, l'Assemblea invita gli Stati membri:
   10.1. a rivedere la propria legislazione anti-discriminazione e a modificarla, se necessario, in modo da contemplare tutti i casi in cui una discriminazione diretta o indiretta, anche per associazione, potrebbe essere causata dall'utilizzo dell'IA, e affinché tutti i ricorrenti abbiano pienamente accesso alla giustizia; in proposito, a vigilare, in particolare, sulla garanzia della presunzione di innocenza e a evitare di imporre alle vittime di discriminazione un onere della prova sproporzionato;
   10.2. a elaborare una legislazione, delle norme e delle procedure nazionali chiare, tese a garantire che qualsiasi sistema fondato sull'IA rispetti i diritti all'uguaglianza e alla non-discriminazione laddove il suo utilizzo possa rischiare di compromettere l'esercizio di questi diritti;
   10.3. a garantire che gli organismi per la promozione della parità siano pienamente in grado di affrontare i problemi riguardanti i principi di uguaglianza e non-discriminazione derivanti dall'utilizzo dell'IA e di sostenere le persone che promuovono azioni legali in questo campo e ad assicurare che dispongano di tutte le risorse necessarie per svolgere la loro funzione.

  11. Affinché l'utilizzo da parte delle autorità pubbliche di tecnologie fondate sull'IA sia sottoposto a un controllo parlamentare e a un esame pubblico adeguato, l'Assemblea invita i parlamenti nazionali:
   11.1. a garantire che l'utilizzo di queste tecnologie sia oggetto di dibattiti parlamentari regolari e che sia istituito un quadro propizio a tali dibattiti;
   11.2. ad esigere dal governo che informi il parlamento prima dell'utilizzo di queste tecnologie;
   11.3. a rendere obbligatoria l'iscrizione sistematica in un registro pubblico di qualsiasi utilizzo di queste tecnologie da parte delle autorità.

  12. Per affrontare le sottostanti questioni della diversità e dell'inclusione nel campo dell'IA, l'Assemblea invita inoltre gli Stati membri:
   12.1. a promuovere l'integrazione di donne, ragazze e persone appartenenti alle minoranze nell'apprendimento delle discipline STIM sin dalla giovane età e fino ai livelli più alti, nonché a collaborare con il settore industriale per fare in modo che la diversità e l'integrazione siano promosse lungo ogni percorso professionale;
   12.2. a sostenere la ricerca sul bias dei dati e i mezzi per contrastare efficacemente il loro impatto nei sistemi basati sull'IA;
   12.3. a promuovere la cultura digitale e l'accesso agli strumenti digitali da parte di tutti i componenti della società.

  13. L'Assemblea invita tutti gli organismi, sia pubblici che privati, che lavorano sui sistemi e con i sistemi basati sull'IA, a garantire che il rispetto dell'uguaglianza e della non-discriminazione sia integrato nella progettazione dei sistemi in questione e testato in maniera adeguata prima della loro introduzione, in quanto tali sistemi potrebbero avere un impatto sull'esercizio o l'accesso a diritti fondamentali. A tal fine, invita questi organismi a prevedere un rafforzamento delle capacità, al fine di introdurre un quadro di valutazione dell'impatto sui diritti umani determinato dallo sviluppo e dall'introduzione di sistemi basati sull'IA, sia da parte di organismi privati che pubblici. Incoraggia inoltre il ricorso a équipe interdisciplinari e diversificate in tutte le fasi dello sviluppo e della realizzazione dei sistemi basati sull'IA.Pag. 12
  14. Infine, l'Assemblea invita i parlamenti nazionali a sostenere i lavori svolti a livello internazionale, in particolare attraverso il Comitato ad hoc del Consiglio d'Europa sull'intelligenza artificiale (CAHAI), a vigilare affinché le norme in materia di protezione dei diritti umani siano effettivamente applicate nel campo dell'IA e a garantire il rispetto dei principi di uguaglianza e non- discriminazione in questo campo.