robot-militaire

ROBOTS TUEURS, INTELLIGENCE ARTIFICIELLE & CIE : OUI IL Y AURA DES RESPONSABILITES

Posté le 23 novembre, 2017 dans actu / news

La perspective de robots tueurs épouvante. Dans l’imagerie militaire traditionnelle, cela permettrait d’aller tuer l’ennemi sans risquer la vie de ses soldats. Mais pour quoi faire ? Envahir le territoire dont les soldats auront été tués ? Neutraliser à distance les ennemis humains qui veulent nous envahir ? Ce qui ramène aux guerres d’envahissement ? Les robots-tueurs effraient par le danger qu’ils créent – mais aussi par la croyance d’une impunité juridique. Comme pour tout robot mû par l’intelligence artificielle – la voiture autonome qui choisira entre un piéton et un camion. Or il n’en est rien. Un robot, tueur ou non, est programmé puis mis en oeuvre par des actes et décisions humains. Plusieurs principes juridiques appréhendent la responsabilité qui en résulte – et nul besoin de chercher bien loin. Le robot a commis « seul » un acte dommageable ? Comme une vache ou un chien, et donc l’animal qui engage la responsabilité de son propriétaire. L’a-t-il vraiment commis seul ? Pas tant – puisqu’il a été programmé, que des algorithmes ont été conçus pour qu’il prenne ses décisions, bonnes ou mauvaises. Ce dont des humains répondent. La création d’un état de fait dangereux ou la responsabilité du fait des produits entreront aussi en ligne de compte. Mais l’intelligence artificielle promet un avenir radieux à un autre principe.

L’ingénieur ayant conçu le robot militaire, ou le général ayant décidé de l’engager, n’ont pas voulu les morts de civils (ou les morts tout court) dans une situation particulière. Et avec la difficulté, ou l’excuse, que la conception d’un robot, ou la prise d’une décision militaire, ressortissent souvent de plusieurs personnes, parfois nombreuses comme dans le cas de la conception d’un logiciel. Or le droit pénal nécessite par définition une intention et celle-ci ne peut pas non plus être « répartie » entre plusieurs personnes – les éléments constitutifs doivent exister dans le chef de chaque auteur. Cela exclura-t-il toute responsabilité pénale pour les actes de robots ? La réponse réside dans le dol éventuel. Tel général ou ingénieur n’aura pas voulu que le robot tue des civils ? Mais il ne l’aura par définition pas exclu. Il se sera accommodé du résultat. Et pour certaines infractions, la négligence jouera également son rôle. Agir par un robot ou par intelligence artificielle interposée n’empêchera donc certainement pas les vilains de répondre de leurs actes, y compris pénalement. Le dol éventuel est promis à un avenir radieux.

laisser une réponse