Doc. XII-bis, n. 41


Risoluzione n. 2485


I sistemi d'arma autonomi letali (LAWS) e il loro necessario inquadramento nel diritto europeo dei diritti umani

Trasmessa il 31 gennaio 2023

Pag. 2


RESOLUTION 2485 (2023)(1)

Provisional version


Emergence of lethal autonomous weapons systems (LAWS) and their necessary apprehension through European human rights law

Parliamentary Assembly

  1. The Parliamentary Assembly notes that rapid technological progress in the field of artificial intelligence is paving the way for the emergence, in the near future, of lethal autonomous weapons systems (LAWS).
  2. According to the definition of the International Committee of the Red Cross (ICRC), the term LAWS encompasses «Any weapon system with autonomy in its critical functions. That is, a weapon system that can select (i.e. search for or detect, identify, track, select) and attack (i.e. use force against, neutralize, damage or destroy) targets without human intervention.» LAWS, therefore, are neither remote-controlled systems in which a human retains control throughout, nor automatic systems in which a particular process has been programmed in advance so that their action is totally predictable.
  3. The emergence of LAWS has prompted concern on the part of numerous States as well as civil society. 54 non-governmental organisations have launched a campaign in favour of a preventive prohibition of research and development of these emerging technologies and, even more so, of the use of what they call «Killer Robots». This position of principle was adopted by the European Parliament in a resolution dated 12 September 2018.
  4. The «arms race» logic implied in this field prompts some to see LAWS as the third military revolution in the history of international relations, after the invention of gunpowder and that of nuclear weapons. Global military powers which fail to invest in this technology would therefore risk being left behind.
  5. LAWS carry the risk of lowering the threshold for engaging in conflict, by lowering the risk of a country's own troop losses. LAWS also raise a fundamental issue of human dignity – allowing machines to «decide» to kill a human being.
  6. The conformity of LAWS with international humanitarian law hinges above all on the possibility, or not, of complying with the principles of distinction, proportionality and precautions in attack:

   6.1. The principle of distinction between civilian and military targets could be complied with by LAWS that are well designed and programmed to execute surgical strikes aimed solely at military targets;

Pag. 3

   6.2. Judgement calls as to whether an attack satisfies the principle of proportionality are made on the basis of values and interpretations of the particular situation rather than on numbers or technical indicators. Making such judgements, which reflect ethical considerations, requires human judgement which is unique. It is for this reason that at least a minimum degree of human control is indispensable;

   6.3. To comply with the principle of precaution, the course of action taken by LAWS must be predictable. Users must be capable of adjusting or nullifying the effects of the weapons systems if necessary, something that is possible only if they can reasonably foresee how a weapons system will react;

   6.4. The conformity of LAWS with international human rights law, and notably with the European Convention on Human Rights (ETS No. 5), depends on clear regulation of their use. Article 2 of the Convention requires that the right to life be protected by law. This means that the State must introduce a legal framework defining the limited circumstances in which the use of these weapons is authorised. The case law of the European Court of Human Rights relates to other types of weapons. But the use of LAWS should not be subject to standards that are any less strict.

  7. From the viewpoint of international humanitarian law and human rights, regulation of the development and above all of the use of LAWS is therefore indispensable. The crucial point is human control. Respect for the rules of international humanitarian and human rights law can only be guaranteed by maintaining human control, to degrees that vary according to the stances taken by States and other actors of the international community. Several levels of human control may be envisaged: significant control, effective control or appropriate levels of human judgement. Human control must be maintained over lethal weapons systems at all stages of their life cycle:

   7.1. Human control can be exercised at the development stage, including through technical design and programming of the weapon system (ethics by design): decisions taken during the development stage must ensure that the weapon system can be used in the intended or expected circumstances of use, in accordance with international humanitarian law and other applicable international norms, in particular the European Convention on Human Rights;

   7.2. Human control may also be exerted at the point of activation, which involves the decision of the commander or operator to use a particular weapon system for a particular purpose. This decision must be based on sufficient knowledge and understanding of the weapon's functioning in the given circumstances to ensure that it will operate as intended and in accordance with international humanitarian law and other applicable international norms. This knowledge must include adequate situational awareness of the operational environment, especially in relation to the potential risks to civilians and civilian property;

   7.3. In order to ensure compliance with international humanitarian law and other applicable international norms, it may be thought necessary to exert additional human control during the operation stage, when the weapon autonomously selects and attacks targets. Human intervention may be necessary in order to comply with the law and remedy shortcomings at the development stage and at the point of activation.

  8. Unlike humans, machines do not have feelings and are not moral agents. If a person commits a war crime with an autonomous weapon, it is the human who commits the crime, using the autonomous weapon as the tool. Humans must be not only legally accountable but also morally responsible for the actions of LAWS. Some decisions pertaining to the use of weapons require legal and moral judgments, such as weighing likely civilian casualties against military advantages from conducting attacks. These judgments must be endorsed by humans since they are also moral judgments and have legal scope.Pag. 4
  9. The relevant provisions of international humanitarian law imply that such weapons systems must not be used if they are likely to cause superfluous injury or unnecessary suffering, or if they are inherently indiscriminate, or if they are incapable of being used in accordance with law.
  10. On the assumption that future LAWS meet all the legal requirements of the laws of war when they operate normally, malfunctions of the system could cause an erroneous attack and thereby raise accountability issues. It must be possible to establish legal responsibility in the event of a malfunctioning lethal autonomous weapons system by analysing compliance with the requirement of adequate human control. It should be possible to link unlawful actions committed by a lethal autonomous weapons system resulting in violations of international humanitarian law and other international norms alternatively to the individual or groups of individuals at the origin of its design, manufacturing or programming or its deployment and ultimately to the user State. In this regard, the user State has a particular responsibility to test and verify in advance the weapons it intends to use to ensure that they are predictable and reliable and not likely to commit violations of international humanitarian law through error, malfunction or poor design, and to verify the contexts in which their use is possible in accordance with law.
  11. The Assembly notes that the questions of the compatibility of LAWS with IHL and human rights are being discussed by States Parties to the Convention on Certain Conventional Weapons (CCW), which have set up a Group of Governmental Experts (GGE). Working on the basis of the «11 Guiding Principles on LAWS» adopted in 2019 and the Final Declaration of the 6th Review Conference of the States Parties to the CCW in December 2021, that Group continues to seek a consensus on the future regulation of this emerging technology.
  12. At its July 2022 session, the GGE adopted a statement to the effect that it had reached agreement that the right of parties to an armed conflict to choose the methods and means of warfare was not unlimited and that international humanitarian law was also applicable to LAWS. Any violation of international law, including a violation involving a lethal autonomous weapons system, incurred the responsibility under international law of the State concerned. The Group further proposed extending its work into 2023.
  13. The Assembly notes that a group of European States has proposed a two-tier approach to the GGE:

   13.1. Firstly, the States Parties to the CCW should recognise that LAWS which cannot be used in conformity with international law, including international humanitarian law, are de facto banned; and that, consequently, LAWS operating completely outside any human control and a responsible chain of command are unlawful;

   13.2. Secondly, agreement should be reached on the international regulation of other weapons systems presenting elements of autonomy in order to guarantee conformity with international humanitarian law by:

    13.2.1. ensuring appropriate human control throughout the life cycle of the system in question;

    13.2.2. maintaining human responsibility and the obligation of accountability at any time, in all circumstances and throughout the life cycle, as the basis of the responsibility of the State and that of the individual, which may never be transferred to machines;

    13.2.3. implementing suitable measures to mitigate the risks and appropriate guarantees regarding security and safety.

  14. The Assembly supports this two-tier approach and considers that the emergence of LAWS requires clear regulation of this technology to ensure respect for international humanitarian law and human rights and that the appropriate forum to agree on the future regulation of LAWS is the Conference of States Parties to the CCW and its GGE.
  15. As to the legal form of such regulation, the goal should be a binding text in Pag. 5the form of a protocol to the CCW or even a specific international convention.
  16. Pending the emergence of the broad consensus needed to draw up such an instrument, a non-binding instrument should be prepared in the form of a code of conduct. This instrument, which might be updated on a regular basis, could codify the guiding principles that are already broadly recognised and highlight the good practices adopted by given States Parties to the CCW.
  17. The Assembly therefore calls on Council of Europe member States as well as observer States and States whose parliaments enjoy observer or partner for democracy status with the Assembly to take a constructive role in the discussions in progress within the CCW and its GGE with a view to regulating the emergence of LAWS and to support the two-tier approach mentioned above.
  18. Should no consensus emerge within a reasonable period of time for the elaboration of a code of conduct and subsequently for the preparation and negotiation of an international agreement within the meaning of paragraphs 14 and 15, or should such steps appear to have no chance of success, the Assembly invites Council of Europe member States as well as observer States and States whose parliaments enjoy observer or partner for democracy status with the Assembly to consider initiating such work at Council of Europe level.

Pag. 6


RÉSOLUTION 2485 (2023)(1)

Version provisoire


Émergence des systèmes d'armes létales autonomes (SALA) et leur nécessaire appréhension par le droit européen des droits humains

Assemblée parlementaire

  1. L'Assemblée parlementaire note que les progrès technologiques rapides en matière d'intelligence artificielle permettent l'émergence, dans un avenir proche, de systèmes d'armes létales autonomes (SALA).
  2. Selon la définition du Comité International de la Croix Rouge (CICR), le terme SALA inclut tout système d'armes autonome dans ses fonctions critiques. Il s'agit d'un système d'armes capable de sélectionner (c'est-à-dire de rechercher ou détecter, identifier, traquer, sélectionner) et d'attaquer (c'est-à-dire utiliser la force contre, neutraliser, endommager ou détruire) des cibles sans intervention humaine. Il ne s'agit donc ni de systèmes télécommandés dans lesquels l'être humain garde entièrement le contrôle, ni de systèmes automatiques dans lesquels un certain processus a été programmé à l'avance de sorte que leur action est totalement prévisible.
  3. L'émergence des SALA suscite l'inquiétude de nombreux États ainsi que de la société civile. 54 organisations non gouvernementales ont lancé une campagne pour obtenir l'interdiction préventive de la recherche et du développement de ces technologies émergentes et donc, a fortiori de leur utilisation, qu'ils nomment «les robots tueurs». Cette position de principe a été adoptée par le Parlement européen dans une résolution du 12 septembre 2018.
  4. La logique de la «course aux armements» dans ce domaine amène certains à considérer que les SALA représentent la troisième révolution militaire dans l'histoire des relations internationales, après l'invention de la poudre à canon et celle de l'arme atomique. Les puissances militaires qui n'investiraient pas dans le développement de cette technologie risqueraient alors d'être distancées.
  5. Les SALA risquent d'abaisser le seuil de déclenchement d'une guerre, en réduisant le risque pour un pays de pertes de ses propres troupes. Les SALA soulèvent aussi un problème fondamental de dignité humaine – le fait de permettre à des machines de «décider» de tuer un humain.
  6. La conformité des SALA avec le droit international humanitaire dépend surtout de la possibilité, ou non, de respecter les principes de la distinction, de la proportionnalitéPag. 7 et des précautions à prendre en cas d'attaque:

   6.1. Le principe de distinction entre objectifs militaires et civils pourrait être respecté par des SALA bien conçus et programmés pour exécuter des frappes précises visant uniquement des objectifs militaires;

   6.2. La question de savoir si une attaque est conforme au principe de proportionnalité se fonde sur des valeurs et des interprétations de la situation plutôt que sur des chiffres et des indicateurs techniques. Ces jugements, qui reflètent des considérations éthiques, requièrent le jugement humain qui est unique. C'est à ce titre qu'un minimum de contrôle humain est indispensable;

   6.3. Pour être conforme au principe de précaution, l'action des SALA doit être prévisible. Les utilisatrices et les utilisateurs doivent pouvoir ajuster ou annuler les effets des systèmes d'armes si nécessaire, ce qui n'est possible que s'ils peuvent raisonnablement prévoir la réaction d'un système d'arme;

   6.4. La conformité des SALA avec le droit international des droits humains, et notamment avec la Convention européenne des droits de l'homme (STE no 5) dépend d'une réglementation claire de leur usage. L'article 2 de la Convention exige la protection du droit à la vie par la loi. Cela signifie que l'État doit mettre en place un cadre juridique qui définit les circonstances limitées dans lesquelles l'usage de ces armes est autorisé. La jurisprudence de la Cour européenne des droits de l'homme concerne d'autres types d'armes. Mais l'utilisation des SALA ne devrait pas être soumise à des normes moins strictes.

  7. Dans la perspective du droit international humanitaire et des droits humains, une réglementation du développement et surtout de l'usage des SALA est donc indispensable. Le point crucial est celui du contrôle humain. Le respect des règles du droit international humanitaire et des droits humains ne peut être garanti qu'en maintenant un contrôle humain dont l'intensité varie selon les positions adoptées par les États et autres acteurs de la communauté internationale. Plusieurs niveaux de contrôle humain peuvent être envisagés: le contrôle significatif, le contrôle effectif ou encore un jugement humain approprié. Un tel contrôle humain doit être maintenu sur les systèmes d'armes létales à tous les stades de leur cycle de vie:

   7.1. Le contrôle humain peut être exercé au stade du développement, notamment par la conception technique et la programmation du système d'armes (ethics by design): les décisions prises au cours de la phase de développement doivent garantir que le système d'armes peut être utilisé dans les circonstances d'utilisation prévues ou attendues, conformément au droit international humanitaire et aux autres normes internationales applicables, notamment la Convention européenne des droits de l'homme;

   7.2. Le contrôle humain peut également être exercé au point d'activation, ce qui implique la décision de la personne en charge du commandement et de celle en charge des opérations d'utiliser un système d'arme particulier dans un but particulier, décision qui doit être fondée sur une connaissance et une compréhension suffisante du fonctionnement de l'arme dans les circonstances données pour garantir qu'elle fonctionnera comme prévu et conformément au droit international humanitaire et aux normes internationales applicables. Cette connaissance doit comprendre une connaissance adéquate de la situation de l'environnement opérationnel, notamment en ce qui concerne les risques potentiels pour les civils et les biens civils;

   7.3. Afin de garantir le respect du droit international humanitaire et des normes internationales applicables, il peut être considéré nécessaire de pouvoir exercer un contrôle humain supplémentaire pendant la phase d'opération, lorsque l'arme sélectionne et attaque des cibles de manière autonome. Une intervention humaine peut être nécessaire pour assurer le respect du droit, pour combler des lacunes éventuelles Pag. 8au stade du développement et au point d'activation.

  8. Contrairement aux humains, les machines n'ont pas de sentiments et ne sont pas des agents moraux. Si une personne commet un crime de guerre avec une arme autonome, c'est l'humain qui commet le crime, en utilisant l'arme autonome comme outil. Les humains doivent non seulement être juridiquement responsables, mais aussi moralement responsables des actions des SALA. Certaines décisions relatives à l'utilisation d'armes nécessitent des jugements juridiques et moraux, comme par exemple la mise en balance des pertes civiles probables et des avantages militaires liés à la conduite d'attaques. Ces jugements doivent être endossés par des humains puisqu'il s'agit également de jugements moraux et qu'ils ont une portée juridique.
  9. Les dispositions pertinentes du droit international humanitaire impliquent que de tels systèmes d'armes ne doivent pas être utilisés s'ils sont de nature à causer des blessures superflues ou des souffrances inutiles, ou s'ils sont intrinsèquement aveugles, ou s'ils sont incapables d'être utilisés conformément au droit.
  10. À supposer que les futurs SALA soient conformes au droit de la guerre dans leur fonctionnement normal, un dysfonctionnement de la machine pourrait provoquer une attaque erronée et donc soulever des difficultés d'imputabilité de la responsabilité. La responsabilité juridique en cas de défaillance du système d'armes létales autonome doit pouvoir être établie en analysant le respect de la condition d'un contrôle humain suffisant. Les actions illicites commises par un système d'armes létales autonome dont résulteraient des violations du droit international humanitaire et d'autres normes internationales doivent pouvoir être rattachées alternativement à l'individu ou aux groupes d'individus à l'origine de sa conception, fabrication ou programmation ou encore de son déploiement et in fine à l'État utilisateur. A cet égard l'État utilisateur a une responsabilité particulière de tester et vérifier au préalable les armes qu'il entend utiliser afin de s'assurer de leur prévisibilité et de leur fiabilité et du fait qu'elles ne risquent pas de commettre des violations du droit international humanitaire par erreur, dysfonctionnement ou mauvaise conception et de vérifier les contextes dans lesquels leur utilisation est possible conformément au droit.
  11. L'Assemblée note que les questions de compatibilité des SALA avec le droit international humanitaire et les droits humains sont en discussion parmi les États parties à la Convention sur certaines armes classiques (CCAC), qui ont établi un Groupe d'experts gouvernementaux (GEG). Celui-ci, sur la base des «11 principes directeurs sur les SALA» adoptés en 2019 et de la Déclaration Finale de la 6ème Conférence des États parties à la CCAC en décembre 2021 continue à rechercher un consensus sur la réglementation future de cette technologie émergente.
  12. Lors de sa session de juillet 2022, le GEG a adopté une déclaration convenant que le droit des parties d'un conflit armé de choisir les méthodes et les moyens de faire la guerre n'est pas sans limite et que le droit international humanitaire s'applique aussi aux SALA. Toute violation du droit international, y compris une violation impliquant un système d'armes létales autonome, engage la responsabilité internationale de l'État concerné. Le Groupe a par ailleurs proposé la prolongation de ses travaux en 2023.
  13. L'Assemblée note qu'un groupe d'États européens a proposé au GEG une approche en deux volets:

   13.1. Premièrement, les États parties à la CCAC devraient reconnaître que les SALA qui ne peuvent être utilisés conformément au droit international, y compris le droit international humanitaire, sont de facto interdits; et que par conséquent les SALA fonctionnant complètement en dehors du contrôle humain et d'une chaîne de commandement responsable sont illégaux;

   13.2. Deuxièmement, il convient de se mettre d'accord sur une réglementation internationale d'autres systèmes d'armes présentant des éléments d'autonomie pour Pag. 9garantir le respect du droit international humanitaire:

    13.2.1. en assurant un contrôle humain approprié pendant tout le cycle de vie du système considéré;

    13.2.2. en préservant la responsabilité humaine et l'obligation de rendre des comptes à tout moment, en toutes circonstances et tout au long du cycle de vie, en tant que base de la responsabilité de l'État et de celle de l'individu, qui ne peuvent jamais être transférées à des machines;

    13.2.3. en mettant en oeuvre des mesures d'atténuation des risques adaptées et des garanties appropriées en matière de sûreté et de sécurité.

  14. L'Assemblée soutient cette approche en deux volets et considère que l'émergence des SALA requiert une réglementation claire de cette technologie visant à assurer le respect du droit international humanitaire et des droits humains et que le forum approprié pour convenir de la future réglementation des SALA est la Conférence des États parties à la CCAC et son GEG.
  15. Pour ce qui est de la forme juridique de cette réglementation, l'objectif devrait être un texte contraignant sous forme d'un protocole à la CCAC ou même une convention internationale spécifique.
  16. En attendant l'émergence du large consensus nécessaire pour élaborer un tel instrument, il convient de préparer un instrument non contraignant sous forme d'un code de conduite. Cet instrument, susceptible d'être mis à jour régulièrement, pourrait codifier les principes directeurs déjà largement reconnus et mettre en valeur les bonnes pratiques adoptées par l'un ou l'autre État partie à la CCAC.
  17. L'Assemblée appelle donc les États membres du Conseil de l'Europe, ainsi que les États observateurs et les États dont les parlements bénéficient du statut d'observateur ou de partenaire pour la démocratie auprès de l'Assemblée, à participer, de manière constructive, aux travaux en cours au sein de la CCAC et de son GEG visant à encadrer l'émergence des SALA et à soutenir l'approche en deux volets évoquée ci-dessus.
  18. Si aucun consensus ne devait émerger dans un délai raisonnable pour l'élaboration d'un code de conduite, puis pour la préparation et la négociation d'un accord international au sens des paragraphes 14 et 15, ou que de telles démarches semblent dépourvues de chance de succès, l'Assemblée invite les États membres du Conseil de l'Europe, ainsi que les États observateurs et les États dont les parlements bénéficient du statut d'observateur ou de partenaire pour la démocratie auprès de l'Assemblée, à envisager d'initier de tels travaux au niveau du Conseil de l'Europe.

Pag. 10


RISOLUZIONE 2485 (2023)(1)


I sistemi d'arma autonomi letali (LAWS) e il loro necessario inquadramento nel diritto europeo dei diritti umani

Assemblea parlamentare

  1. L'Assemblea parlamentare osserva che i rapidi progressi tecnologici in materia di intelligenza artificiale consentiranno l'emergere, in un prossimo futuro, di sistemi d'arma autonomi letali (LAWS).
  2. Secondo la definizione del Comitato Internazionale della Croce Rossa (CICR), l'acronimo LAWS include qualsiasi sistema d'arma autonomo nelle sue funzioni critiche. Si tratta di un sistema d'arma in grado di selezionare (ovvero ricercare e individuare, rintracciare, selezionare) e attaccare (ovvero utilizzare la forza contro, neutralizzare, danneggiare o distruggere) dei bersagli senza intervento umano. Non si tratta quindi né di sistemi telecomandati nei quali l'essere umano mantiene interamente il controllo, né di sistemi automatici in cui un certo processo è stato programmato in anticipo in modo che la relativa azione sia totalmente prevedibile.
  3. L'emergere dei LAWS suscita preoccupazione in numerosi Stati e nella società civile. 54 organizzazioni non governative hanno lanciato una campagna per ottenere il divieto preventivo della ricerca e sviluppo di queste tecnologie emergenti - e quindi, a più forte ragione, del loro utilizzo – che definiscono «robot assassini». Questa posizione di principio è stata adottata dal Parlamento europeo in una risoluzione del 12 settembre 2018.
  4. La logica della «corsa agli armamenti» in questo campo induce alcuni a ritenere che i LAWS rappresentino la terza rivoluzione militare nella storia delle relazioni internazionali, dopo l'invenzione della polvere da sparo e dell'arma atomica. Le potenze militari che non investiranno in questa tecnologia rischierebbero quindi di restare indietro rispetto alle altre.
  5. I LAWS rischiano di abbassare la soglia di scoppio di una guerra, riducendo il rischio per un paese di perdite di truppe. I LAWS sollevano anche un problema fondamentale di dignità umana, permettendo a delle macchine di «decidere» di uccidere un essere umano.
  6. La conformità dei LAWS al diritto internazionale umanitario dipende soprattutto dalla possibilità, o meno, di rispettare i principi di distinzione, proporzionalità e precauzione in caso di attacco:

   6.1 Il principio di distinzione tra obiettivi militari e civili potrebbe essere rispettato da LAWS ben progettati e programmati per realizzare attacchi precisi che mirano unicamente obiettivi militari;

   6.2 La questione se un attacco è conforme al principio di proporzionalità si basa su valori e sull'interpretazione della Pag. 11situazione piuttosto che su cifre e indicatori tecnici. Questi giudizi, che riflettono considerazioni etiche, richiedono il giudizio umano che è unico. Per questa ragione è indispensabile un minimo di controllo;

   6.3 Per essere conformi al principio di precauzione, l'azione dei LAWS deve essere prevedibile. Le utilizzatrici e gli utilizzatori devono poter regolare o annullare gli effetti dei sistemi d'arma se necessario, il che è possibile solo se possono ragionevolmente prevedere la reazione di un sistema d'arma;

   6.4 La conformità dei LAWS al diritto internazionale dei diritti umani, e in particolare alla Convenzione europea dei diritti dell'uomo (STE n° 5), dipende da una regolamentazione chiara del loro uso. L'articolo 2 della Convenzione esige la protezione del diritto alla vita attraverso la legge. Ciò significa che lo Stato deve introdurre un quadro giuridico che definisca le circostanze limitate in cui è autorizzato l'uso di queste armi. La giurisprudenza della Corte europea dei diritti dell'uomo riguarda anche altri tipi di armamenti, ma l'utilizzo dei LAWS non dovrebbe essere sottoposta a norme meno severe.

  7. Nella prospettiva del diritto internazionale umanitario e dei diritti umani, è quindi indispensabile una regolamentazione dello sviluppo e soprattutto dell'uso dei LAWS. Il punto cruciale è quello del controllo umano. Il rispetto delle norme del diritto internazionale umanitario e dei diritti umani può essere garantito soltanto mantenendo un controllo umano la cui intensità varia a seconda delle posizioni adottate dagli Stati e dagli altri attori della comunità internazionale. Possono essere previsti diversi livelli di controllo umano: controllo significativo, controllo effettivo oppure un adeguato giudizio umano. Un simile controllo umano deve essere mantenuto sui sistemi d'arma letali in tutte le fasi del loro ciclo di vita:

   7.1 Il controllo umano può essere esercitato allo stadio dello sviluppo, in particolare della progettazione tecnica e programmazione del sistema d'arma (ethics by design): le decisioni prese nel corso della fase di sviluppo devono garantire che il sistema d'arma possa essere utilizzato nelle circostanze di utilizzo previste o attese, conformemente al diritto internazionale umanitario e alle altre norme internazionali applicabili, in particolare alla Convenzione europea dei diritti dell'uomo;

   7.2 Il controllo umano può anche essere esercitato nel momento dell'attivazione, il che implica la decisione dell'incaricato del comando e del responsabile delle operazioni di utilizzare un particolare sistema d'arma con un obiettivo specifico, decisione che deve essere fondata su una conoscenza e una comprensione sufficiente del funzionamento dell'arma in circostanze date al fine di garantire che funzionerà come previsto e conformemente al diritto internazionale umanitario e alle norme internazionali applicabili. Questa conoscenza deve comprendere un'adeguata conoscenza della situazione dell'ambiente operativo, in particolare rispetto ai rischi potenziali per i civili e i beni civili;

   7.3 Per garantire il rispetto del diritto internazionale umanitario e delle norme internazionali applicabili, si può ritenere necessario poter esercitare un controllo umano supplementare durante le fase operativa, quando l'arma seleziona e attacca degli obiettivi in modo autonomo. Un intervento umano può essere necessario per assicurare il rispetto del diritto, per colmare eventuali lacune nella fase di sviluppo e al momento dell'attivazione.

  8. Contrariamente agli umani, le macchine non hanno sentimenti e non sono agenti morali. Se una persona commette un crimine di guerra con un'arma autonoma, è l'essere umano a commettere il crimine, utilizzando l'arma autonoma come strumento. Gli umani devono essere responsabili non soltanto legalmente, ma anche moralmente delle azioni dei LAWS. Alcune decisioni sull'utilizzo di armamenti richiedono giudizi legali e morali, come ad esempio la ponderazione tra le probabili perdite civili e i vantaggi militari legati allo svolgimento di attacchi. Questi giudizi devono essere ratificati dagli umani perché si tratta Pag. 12anche di giudizi morali con una portata giuridica.
  9. Le disposizioni in materia del diritto internazionale umanitario prevedono che questo tipo di sistemi d'arma non siano utilizzati se sono in grado di provocare danni superflui o sofferenze inutili o se sono intrinsecamente indiscriminati o ancora se non possono essere utilizzati conformemente al diritto.
  10. Pur supponendo che i futuri LAWS nel normale funzionamento siano conformi al diritto di guerra, un malfunzionamento della macchina potrebbe provocare un attacco errato e quindi sollevare difficoltà nell'attribuzione della responsabilità. In caso di avaria di un sistema d'arma autonomo letale deve essere possibile accertare la responsabilità giuridica, valutando il rispetto della condizione di un controllo umano sufficiente. Le azioni illecite commesse da un sistema d'arma autonomo letale, da cui risulterebbero violazioni del diritto internazionale umanitario e di altre norme internazionali, devono poter essere attribuibili all'individuo o, in alternativa, ai gruppi di individui all'origine della sua progettazione, fabbricazione o programmazione oppure dispiegamento e, in ultima analisi, allo Stato utilizzatore. In proposito, lo Stato utilizzatore ha la responsabilità specifica di testare e verificare previamente gli armamenti che intende utilizzare per garantirne la prevedibilità e l'affidabilità e assicurare che non rischino di commettere violazioni del diritto internazionale umanitario per errore, malfunzionamento o cattiva progettazione e verificare i contesti in cui il loro utilizzo sia possibile conformemente al diritto.
  11. L'Assemblea osserva che le questioni inerenti alla compatibilità dei LAWS con il diritto internazionale umanitario e i diritti umani sono in discussione tra gli Stati parte alla Convenzione sulle armi convenzionali (CCW), che hanno istituito un Gruppo di esperti governativi (GEG). Quest'ultimo, sulla base degli «11 principi direttivi sui LAWS» adottati nel 2019 e della Dichiarazione Finale della 6a Conferenza degli Stati parte alla CCW di dicembre 2021, continua a cercare un consenso sulla futura regolamentazione di questa tecnologia emergente.
  12. In occasione della sessione di luglio 2022, il GEG ha adottato una dichiarazione che riconosceva che il diritto delle parti in un conflitto armato di scegliere i metodi e i mezzi di fare la guerra non è illimitato e che il diritto internazionale umanitario si applica anche ai LAWS. Qualsiasi violazione del diritto internazionale, compresa una violazione che coinvolge un sistema d'arma letale autonoma, implica la responsabilità internazionale dello Stato coinvolto. Il Gruppo ha inoltre proposto di proseguire i propri lavori nel 2023.
  13. L'Assemblea osserva che un gruppo di Stati europei ha proposto al GEG una strategia su due livelli:

   13.1 primo, gli Stati parte alla CCW dovrebbero riconoscere che i LAWS che non possono essere utilizzati conformemente al diritto internazionale, compreso il diritto internazionale umanitario, sono di fatto vietati; di conseguenza i LAWS che funzionano completamente al di fuori del controllo umano e di una catena di comando responsabile sono illegali;

   13.2 secondo, è opportuno accordarsi su una regolamentazione internazionale di altri sistemi d'arma che presentano elementi di autonomia, così da garantire il rispetto del diritto internazionale umanitario:

    13.2.1 assicurando un adeguato controllo umano in tutto il ciclo di vita del sistema in questione;

    13.2.2 mantenendo la responsabilità umana e l'obbligo di riferire in qualsiasi momento, in tutte le circostanze e per tutto il ciclo di vita, come base della responsabilità dello Stato e dell'individuo, che non può mai essere trasferita a delle macchine;

    13.2.3 introducendo adeguate misure di attenuazione dei rischi e opportune garanzie in materia di sicurezza.

  14. L'Assemblea sostiene questa duplice strategia e ritiene che l'emergere dei LAWS richieda una regolamentazione chiara di questa tecnologia tesa ad assicurare il rispettoPag. 13 del diritto internazionale umanitario e dei diritti umani e che l'istanza opportuna per arrivare ad un accordo sulla futura regolamentazione dei LAWS è la Conferenza degli Stati parte alla CCW e il suo GEG.
  15. Per quanto riguarda la forma giuridica di questa regolamentazione, l'obiettivo a lungo termine dovrebbe essere un testo vincolante sotto forma di un protocollo alla CCW o anche una convenzione internazionale specifica.
  16. In attesa che emerga un ampio consenso necessario per l'elaborazione di un tale strumento, è opportuno preparare uno strumento non vincolante sotto forma di codice di condotta. Questo strumento, suscettibile di essere aggiornato regolarmente, potrebbe codificare i principi direttivi già ampiamente riconosciuti e valorizzare le buone prassi adottate da alcuni Stati parte alla CCW.
  17. L'Assemblea chiede quindi agli Stati membri del Consiglio d'Europa, nonché agli Stati osservatori e agli Stati il cui parlamento gode dello status di osservatore o partner per la democrazia presso l'Assemblea, di partecipare, in maniera costruttiva, ai lavori in corso nella CCW e nel suo GEG tesi a inquadrare l'emergere dei LAWS e a sostenere la duplice strategia già menzionata.
  18. Se, in un tempo ragionale, non dovesse emergere alcun consenso per l'elaborazione di un codice di condotta e, poi, per la preparazione e negoziazione di un accordo internazionale ai sensi dei paragrafi 14 e 15, o se questi approcci fossero privi di possibilità di successo, l'Assemblea invita gli Stati membri del Consiglio d'Europa, nonché gli Stati osservatori e gli Stati i cui parlamenti godono dello status di osservatore o partner per la democrazia presso l'Assemblea, a prevedere di avviare questi lavori a livello del Consiglio d'Europa.

  (1) Assembly debate on 27 January 2023 (9th sitting) (see Doc. 15683, report of the Committee on Legal Affairs and Human Rights, rapporteur: Mr Damien Cottier). Text adopted by the Assembly on 27 January 2023 (9th sitting).

  (1) Discussion par l'Assemblée le 27 janvier 2023 (9e séance) (voir Doc. 15683, rapport de la commission des questions juridiques et des droits de l'homme, rapporteur: M. Damien Cottier). Texte adopté par l'Assemblée le 27 janvier 2023 (9e séance).

  (1) Dibattito in Assemblea del 27 gennaio 2023 (9a seduta) (V. Doc. 15683, relazione della Commissione affari giuridici e diritti umani, relatore: On. Damien Cottier). Testo adottato dall'Assemblea il 27 gennaio 2023 (9a seduta).