droits de l'Homme, robot tueur, système d'arme létale autonome, DIH droit international humanitaire, clause de Martens, Armement, guerre, arme de guerre, protection des citoyens, technologie militaire, armes autonomes, pressions psychologiques, infrastructure, interaction humaine, principe de culpabilité, robotique
L'intelligence artificielle et la robotique progressent rapidement, attirant l'attention des communautés scientifiques, juridiques et militaires vers les systèmes autonomes. Alors que certaines ONG les qualifient de « robots tueurs », les experts préfèrent l'acronyme SALA : « système d'arme létale autonome ». En effet, le terme « robot » peut être trompeur, car il n'implique pas nécessairement l'autonomie, ce qui pourrait prêter à confusion avec d'autres systèmes, tels que les drones. Bien qu'une définition unanime de SALA n'ait pas encore été convenue, il est généralement considéré comme un système d'arme qui permet la sélection et le traitement de cibles sans intervention humaine une fois activés. Les implications éthiques des individus tués par des machines ou vice-versa sont une préoccupation urgente pour les ONG. Le développement d'armes entièrement autonomes suscite à la fois la fascination et la peur, posant des questions cruciales quant à leur potentiel à remplacer les êtres humains. En d'autres termes, vont-ils remplacer l'être humain ? Ne serait-il pas judicieux de les réguler que de les interdire ?
[...] Faut-il interdire les robots tueurs ou les réguler ? L'intelligence artificielle et la robotique progressent rapidement, attirant l'attention des communautés scientifiques, juridiques et militaires vers les systèmes autonomes. Alors que certaines ONG les qualifient de « robots tueurs », les experts préfèrent l'acronyme SALA : « système d'arme létale autonome ». En effet, le terme « robot » peut être trompeur, car il n'implique pas nécessairement l'autonomie, ce qui pourrait prêter à confusion avec d'autres systèmes, tels que les drones. Bien qu'une définition unanime de SALA n'ait pas encore été convenue, il est généralement considéré comme un système d'arme qui permet la sélection et le traitement de cibles sans intervention humaine une fois activés. [...]
[...] Ces résultats devraient éclairer le développement et l'approche des armes autonomes. L'importance d'incorporer un contrôle humain significatif sur les systèmes d'armes ne peut être sous-estimée. Le développement d'armes entièrement autonomes pourrait infliger des souffrances à d'innombrables personnes dans le monde, violant leurs droits humains en facilitant l'oppression, le mal et la mort. Giacomo Persi Paoli, un expert réputé, soutient qu'aucune nation ne souhaite des armes incontrôlables et imprévisibles. La nécessité d'une implication ou d'une interaction humaine avec les ordinateurs est devenue universellement comprise. [...]
[...] La qualité de l'évaluation du but humain sous-tend cette différenciation, reposant sur la capacité à déchiffrer des indices subtils, notamment le ton de la voix, les expressions faciales et le langage corporel, dans des contextes spécifiques. Contrairement aux machines, les humains possèdent une perception innée les uns des autres, ce qui leur donne le pouvoir d'interpréter un comportement inattendu de manière nuancée. Pourtant, lorsqu'il s'agit de marques d'identification, imiter le jugement humain peut poser un défi, en particulier sur les champs de bataille modernes où les ennemis cherchent à dissimuler leur identité. Présumer que de tels problèmes peuvent être facilement résolus est vraiment stupéfiant. [...]
[...] Afin de respecter la clause Martens, les nations doivent anticiper l'interdiction de l'élaboration, la production et l'emploi de ces armes. Références : « The Martens Clause: Half a Loaf or Simply Pie in the Sky? », European Journal of International Law, vol no 1 (2000), p. 193-195; Theodor Meron, « The Martens Clause, Principles of Humanity, and Dictates of Public Conscience», American Journal of International Law, vol no 1 (2000), p https://protect-lawyers.org/wp-content/uploads/clause_de_martens.pdf Denis JACQMIN, « Robots tueurs » : encadrement ou interdiction ? [...]
[...] Les êtres humains sont naturellement poussés à traiter leurs semblables avec humanité, car ils ressentent de la compassion et de l'empathie à leur égard. Le jugement juridique et éthique offre, quant à lui, les moyens de limiter les maux infligés ; il permet de prendre des décisions réfléchies, fondées sur la compréhension d'un contexte particulier. En tant que machines, les armes entièrement autonomes ne seraient pas des êtres sensibles capables de ressentir de la compassion. Au lieu d'exercer un jugement, ces systèmes d'armes fonderaient leur action sur des algorithmes préprogrammés, qui ne fonctionnent pas bien dans des situations complexes et imprévisibles. ». [...]
Bibliographie, normes APA
Citez le doc consultéLecture en ligne
et sans publicité !Contenu vérifié
par notre comité de lecture