Lectures : IA, relations internationales et droits humains

Les coresponsables de l’axe « Relations internationales, action humanitaire et droits humains » ont relevé de récentes publications en lien avec les travaux et réflexions de l’axe. Bonne lecture !

Recommendations for a Fundamental Rights-based Artificial Intelligence Regulation: Addressing Collective Harms, Democratic Oversight and Impermissable Use

Dans son article, Recommendations for a Fundamental Rights-based Artificial Intelligence Regulation: Addressing Collective Harms, Democratic Oversight and Impermissable Use, Sarah Chander affirme que les impacts de l’intelligence artificielle sur les droits fondamentaux doivent être pris en compte dans les règlements relatifs à l’AI. Pour répondre à ces défis, il y a lieu d’intégrer une approche fondée les droits humains dans la réponse règlementaire de l’Union européenne. Celle-ci doit comprendre, entre autres, une analyse des limites juridiques et éthiques de l’AI, et des garanties en matière de droits fondamentaux afin de guider le développement et le déploiement de l’IA.

Sarah Chander, “Recommendations for a Fundamental Rights-based Artificial Intelligence Regulation: Addressing Collective Harms, Democratic Oversight and Impermissable Use” European Digital Rights, 2020, p. 1–16.

Lire l’article

Artificial Intelligence in International Development: A Discussion Paper

Ce document, intitulé Artificial Intelligence in International Development: A Discussion Paper, explore l’évolution des connaissances et techniques de l’intelligence artificielle, et fournis une analyse de ses capacités, faiblesses et progrès récent, notamment dans le contexte du développement international et des objectifs de développement durable. Plus particulièrement, il décrit les défis et risques potentiels associés au développement et à l’usage de cette nouvelle technologie, et présente les débats des parties prenantes autour du recours à l’IA dans le développement. Finalement, il offre des lignes directrices et des principes pour faire progresser les pratiques dans ce domaine.

Thomas Feeny and Olivia Elson, ‘Artificial Intelligence in International Development: A Discussion Paper’, The International Development Innovation Alliance, 2019, p. 1–24.

Lire l’article

Mapping the challenges and opportunities of artificial intelligence for the conduct of diplomacy

Ce rapport, intitulé “Mapping the challenges and opportunities of artificial intelligence for the conduct of diplomacy”, offre un aperçu de l’évolution de la diplomatie dans le contexte de l’intelligence artificielle (IA). Il analyse l’interaction entre l’IA et la diplomatie et propose une typologie en trois parties qui inclut : l’IA comme sujet de la diplomatie ; l’IA comme outil de la diplomatie ; et les changements liés à l’IA dans l’environnement dans lequel la diplomatie est pratiquée. En outre, il présente certaines stratégies nationales d’AI qui mettent l’accent sur l’importance de la coopération internationale, tant au niveau de l’UE que des Nations unies, et aborde les effets de l’IA sur les droits humains. Enfin, il propose des recommandations aux ministères des Affaires étrangères et aux diplomates dans l’élaboration de stratégie et politique nationale en matière d’IA.

E. Höne, K Anđelković, N. Perućica, V. Saveska ; L. Hibbard, M. Maciel, “Mapping the Challenges and Opportunities of Artificial Intelligence for the Conduct of Diplomacy” DiploFoundation, 2020, p. 1-44.

Lire l’article

A legal perspective : Autonomous weapon systems under international humanitarian law

Dans son article A legal perspective : Autonomous weapon systems under international humanitarian law, Neil Davidson étudie les questions relatives aux technologies émergentes liées aux systèmes d’armes autonomes, dans le contexte du droit international humanitaire. Les armes autonomes létales soulèvent un grand nombre de préoccupations pour le droit international, tant sur le plan juridique qu’éthique, celles-ci pouvant sélectionner et attaquer des cibles sans intervention humaine. Afin d’être licites, lesdites armes doivent être développées et utilisées dans le respect des principes découlant des Conventions de Genève : les principes de distinction, de proportionnalité, de précaution et la clause de Martens. Un certain degré de contrôle humain est nécessaire au stade de la conception et du déploiement de l’arme, et ce pour assurer sa prévisibilité et sa fiabilité. Il est également question des règles relatives à l’imputabilité.

Neil Davison, ‘A Legal Perspective: Autonomous Weapon Systems under International Humanitarian law’, UNODA Occasional Papers No. 30, 2017, p. 5.

En savoir plus : quelques définitions

Principe de distinction :

Le principe de distinction traite des mesures de précautions à prendre afin d’épargner la population civile, notamment les obligations d’identifications de la cible (art. 48 et 57 du Protocol additionnel I, ci-après “PAI”) et les avertissements (art. 57 (2)c) du PAI). Pour être effectif, l’avertissement doit être clair et laisser le temps aux civils de sortir de la zone où une attaque pourrait se dérouler.

Principe de proportionnalité :

Le principe de la proportionnalité est considéré comme un test de raisonnabilité de l’usage de la force face à la menace. Il convient de mettre en balance le degré de force utilisé et les dommages collatéraux pour évaluer si toutes les précautions requises furent prises quant au choix des moyens et méthodes d’attaques (art. 57 (2)a) ii) du PAI). Les attaques possibles de l’arme doivent être sans discrimination et être considérées excessives par rapport à l’avantage militaire attendu (art. 51 (5)b) PAI).

Principe de précaution :

Le principe de précaution prend en compte des considérations élémentaires d’humanité et impose que l’on prenne toutes les précautions raisonnables afin d’éviter que la population civile se voie affectée par des pratiques inhumaines découlant d’une imprudence.

Clause de Martens :

Une nouvelle arme de guerre doit être conforme aux principes de l’humanité et aux exigences de la conscience publique, soit avec la clause de Martens (art. 1 (2) PAI et préambule Protocol additionnel II). Les principes de l’humanité interdisent d’utiliser des moyens et méthodes de guerre qui ne seraient pas nécessaires pour obtenir un avantage militaire précis. Les exigences de la conscience publique visent à prendre en compte des considérations éthiques quant au rôle et à la responsabilité humaine dans la conduite des hostilités. Une arme autonome doit être sujette à des instructions contrôlées et données par des humains.

Lire l’article

Articles récents

Nous joindre

On reste en contact?

Vous souhaitez être au courant des dernières activités de l’Observatoire? Inscrivez-vous à notre infolettre.

L'Observatoire international sur les impacts sociétaux de l'IA et du numérique est rendu possible grâce au soutien des Fonds de recherche du Québec.