Les robots tueurs

Les robots tueurs

Les robots tueurs ne sont plus réservés aux films de science-fiction.

Les systèmes d’armes létales autonomes se développent rapidement, sans aucun cadre juridique.

Ainsi, par exemple BOEING a présenté au festival aérien de Melbourne un avion de chasse sans pilote, conçu pour voler de façon autonome, aux côtés d’appareils avec équipage.

Il présente l’avantage de n’avoir aucun sentiment et d’être donc plus « efficace » dans le cadre d’un combat aérien.

La ministre des armées, Madame Florence PARLY, a présenté le 5 avril 2019, la stratégie de la France sur l’intelligence artificielle en matière de défense.

Elle a indiqué très clairement la position de la France : « La France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain. »

La France a introduit en 2013 aux Nations Unies la question de l’interdiction ou de la limitation de l’emploi de certaines armes classiques. Depuis lors, les choses n’ont pas beaucoup avancé.

Ces nouvelles armes posent pourtant des problèmes juridiques importants.

1/ Problème de responsabilité

En cas de décès provenant de l’utilisation de cette arme, qui est responsable ? Est-ce le concepteur du robot ou l’Etat qui en a décidé l’usage ou l’officier qui pris la décision d’utiliser l’arme ?

Le problème est d’autant plus important si ces robots tueurs sont utilisés par des entités non étatiques.

2/ Ces armes ne respectent pas les lois de la guerre

La distinction entre civils et militaires, le principe de proportionnalité et le principe de précaution sont les trois piliers du droit de la guerre.

Les dommages causés aux civils ne doivent pas être excessifs par rapport aux résultats attendus.

Tout cela implique un jugement humain.

La décision ne peut pas être laissée à une machine, incapable d’analyser les données concernant la proportionnalité de la riposte à une attaque.

3/ Les robots tueurs ne sont pas conformes aux normes internationales relatives aux droits humains et au maintien de l’ordre

Le droit international relatif au maintien de l’ordre interdit l’usage d’armes à feu, sauf en cas de risque imminent de mort ou de blessure grave.

Il précise que la force doit être utilisée dans les limites du minimum nécessaire.

Une machine programmée pour tuer ne pourra apprécier cette proportion et risque de multiplier les atteintes à la vie.

***

Confier le droit de vie ou de mort à des robots constitue la violation d’une règle éthique fondamentale qui malheureusement a déjà été franchie.

Souhaitons qu’un traité international intervienne rapidement pour interdire ces nouvelles armes.

 

Jérôme CAYOL

CAYOL CAHEN TREMBLAY & Associés

Avocat associé