Un robot a-t-il le droit de tuer ?

Robots

Par Pierre le

Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.

Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.

Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

Isaac Asimov
Isaac Asimov

Les trois lois de la robotique d’Asimov ont d’abord été imaginées pour des oeuvres de fiction, mais dans notre monde qui tend de plus en plus à se tourner vers les robots, elles prennent tous leur sens. La question des robots et des intelligences artificielles intéressent énormément les spécialistes qui veulent établir des règles strictes concernant leur comportement. L’ONU va d’ailleurs se pencher sur la question lors d’un débat qui aura lieu à partir de demain.

Se tenant du 13 au 16 mai, ce débat de l’ONU portera sur les armes létales autonomes. En clair, sur les drones qui se dirigent sans une aide humaine. Bien entendu, nous sommes encore là dans le domaine de l’anticipation, mais tout de même, nous y arrivons petit à petit. Et justement, un drone intelligent a-t-il le droit de tuer ? Est-il en mesure de prendre une décision impliquant la mort d’êtres humains ? Et si cette décision est prise, qui est responsable ? Le robot, son concepteur ou son propriétaire ?

En clair, l’ONU va devoir déterminer si oui ou non ces futurs robots auront le droit de tuer lors de conflits armées. Il est vrai qu’envoyer des robots réduit le risque pour les soldats qui les dirigent. Mais un robot est par définition logique, sans âme et ne prend que des décisions statistiques. S’il considère qu’il est logique de tuer sans penser aux conséquences ni à l’impact humain de son geste, est-il dans son bon droit ?

L’ONU rendra son rapport après le débat. Bien entendu, il y a les pour et les contre. Le professeur Sharkey, fervent opposant aux robots tueurs, indique par exemple que laisser les machines prendre des décisions peut représenter un risque pour l’humanité toute entière qui perdrait ainsi sa capacité à compatir. Il est probable qu’à la fin du débat, l’ONU prenne une décision pour légiférer les robots tueurs et donner ainsi des limites aux créateurs.

Source: Source