Passer au contenu

Un robot a-t-il le droit de tuer ?

Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger. Un robot doit obéir…

Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.

Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.

Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

Isaac Asimov
Isaac Asimov

Les trois lois de la robotique d’Asimov ont d’abord été imaginées pour des oeuvres de fiction, mais dans notre monde qui tend de plus en plus à se tourner vers les robots, elles prennent tous leur sens. La question des robots et des intelligences artificielles intéressent énormément les spécialistes qui veulent établir des règles strictes concernant leur comportement. L’ONU va d’ailleurs se pencher sur la question lors d’un débat qui aura lieu à partir de demain.

Se tenant du 13 au 16 mai, ce débat de l’ONU portera sur les armes létales autonomes. En clair, sur les drones qui se dirigent sans une aide humaine. Bien entendu, nous sommes encore là dans le domaine de l’anticipation, mais tout de même, nous y arrivons petit à petit. Et justement, un drone intelligent a-t-il le droit de tuer ? Est-il en mesure de prendre une décision impliquant la mort d’êtres humains ? Et si cette décision est prise, qui est responsable ? Le robot, son concepteur ou son propriétaire ?

En clair, l’ONU va devoir déterminer si oui ou non ces futurs robots auront le droit de tuer lors de conflits armées. Il est vrai qu’envoyer des robots réduit le risque pour les soldats qui les dirigent. Mais un robot est par définition logique, sans âme et ne prend que des décisions statistiques. S’il considère qu’il est logique de tuer sans penser aux conséquences ni à l’impact humain de son geste, est-il dans son bon droit ?

L’ONU rendra son rapport après le débat. Bien entendu, il y a les pour et les contre. Le professeur Sharkey, fervent opposant aux robots tueurs, indique par exemple que laisser les machines prendre des décisions peut représenter un risque pour l’humanité toute entière qui perdrait ainsi sa capacité à compatir. Il est probable qu’à la fin du débat, l’ONU prenne une décision pour légiférer les robots tueurs et donner ainsi des limites aux créateurs.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

38 commentaires
  1. C’est cool, on pourra faire la guerre sans s’entre-tuer en envoyant des robots de se battre.

    La 3 ème guerre mondial s’annonce passionnante.

  2. Les américains auraient peur d’un robot qui n’a aucune âme pour faire la loi dans les rues. Surtout si ils doivent juger ou non bon de tuer. Les sondages le prouvent. L’idée serait de crée un humain dans un robot. Dixit Robocop 2014

  3. “S’il considère qu’il est logique de tuer sans penser aux conséquences ni à l’impact humain de son geste”

    C’est qu’il n’a pas été programmé assez en profondeur.
    Vous me faites rire c’est comme ci le robot aller tirer au sort.

    Lorsqu’un soldat décide de tuer un être humain vous croyez vraiment qu’il a eu le temps de penser aux conséquences et à l’impact.
    Et même si il l’a fait son raisonnement suit un algorithme, et cet algorithme peut être retranscrit aussi finement que possible dans un automate …

  4. De toute façon, le débat ne va rien donner d’intéressant. Les armées du monde entier ne vont pas accepter de se séparer de leurs armes et véhicules dotés d’un système de visée et de tir automatique, donc la machine qui tue toute seule, on l’a déjà, et on la conservera.
    Alors peut-être qu’on arrivera à dire qu’il est interdit d’avoir des appareils à déplacement autonome capables d’engager un combat mortel, mais je suis persuadé qu’une partie de la planète fera quand même des recherches sur le sujet : de tels drones confèrent un avantage tactique indéniable tout en améliorant la popularité du chef d’état qui n’essuie aucune perte humaine… Bref, comme d’habitude, ceux qui sont du bon côté de l’arme trouvent ça formidable.

  5. Si on utilise l’argent pour aider la technologie pour apporter ce qui le mieux pour l’être humain dans sa vie pratique quotidienne ,et que il se trouve en fin de compte la technologie qu’il a supporte va lui réserver une belle surprise celle de l’exterminer de cette planète ,alors vivement la vie a l’état simple .enjoy life.

  6. Les trois lois de la robotique sont nécessaires pour permettre de contrôler les IA en développement, et: 1°) permettre à un automate de tirer sur un soldat reviendrait à peu de choses près à permettre à cet automate de tuer quiconque possède une arme et une volonté agressive quelconque. Dériver cette application (légale donc, si elle est votée) sur, par exemple, un peuple qui descend dans les rues, provoquerait semble-t-il la meilleure dictature du monde. Peut-être même les robots pourraient-ils prendre le pouvoir en tuant le chef s’il est armé, et continuer à opérer le massacre tant qu’aucun ordre contraire n’est donné.

    2°) l’ajout de la loi zero comme cité dans les commentaires n’a pas sa place, parce qu’elle permettrait à un robot de faire du mal à un humain s’il considère que c’est pour le bien de l’humanité. ça permettrait en gros aux robots de décider ce qui est bien pour nous ou pas, et sans compréhension totale de pourquoi l’humanité existe et vit, ce serait une grave erreur (on se retrouverait en otage pour notre “propre bien”)

  7. faut attendre 2-3 siècle pour que les robots soit assez évoluer pour prendre des décisions soit même , 100% autonome.

    En 30 ans , la technologie n’as pas beaucoup évoluer de 1985 à 2015.

  8. “On y arrive petit à petit” ahahah je pensait que l’histoire avec la NSA avait donné une leçon au journaliste un peu trop crédule mais non.
    Faut pas se leurrer, ça existe déjà, nos technologies le permettent depuis un moment, on fait juste croire que aucun projet n’est fonctionnelle comme on faisait croire qu’il n’y avait pas de surveillance globale du net alors que tout les spécialistes en était certain, sans avoir de preuve.
    La c’est pareil et je pense que justement on en parle pas car ces machines sont sûrement encore limité dans la reconnaissance de leur cible et du coup trop dangereuse mais je n’ai aucun doute que lorsque l’on sera sûre que ces machines tueront (ou tazeront pour maintenir l’ordre) les bonnes personnes sans se tromper, certain essairont sûrement de faire passer ces machines pour les armes conventionnelles.
    Il est donc bon de légiférer en amont avant que ces machines soit vraiment efficace mais penser qu’on va légiférer “dans le domaine de l’anticipation” est à mon avis d’une naïveté sans nom.

  9. En 2182 – Breaking news, un robot a été piraté par des terroristes, selon nos informations tout les voyageurs de la gare de Lyon ont été tués…

  10. @Edo “parce qu’elle permettrait à un robot de faire du mal à un humain s’il considère que c’est pour le bien de l’humanité.”

    Étant donné que l’homme détruit son habitat naturel ou vis au dépend de sa propre espèce, ça me parait effectivement dangereux comme loi.
    Déjà que l’homme ne mets pas en pratique ce qui est bien pour lui, j’imagine mal qu’on laisse des machines le faire à notre place.

  11. L’Intelligence Artificiel n’est pas encore au point donc la question ne se pose pas encore, sinon des drones qui canardent des civils c’est malheureusement déjà une réalité.

  12. Je pense que le choix est déjà fait…
    Nous citoyen, on va tomber d’accord sur le fait qu’on veut éviter le scénario Terminator.

    Et le gouvernement lui, à la première occaz, va buter des gens avec des drones et des humanoïdes…

  13. iRobot n’est pas le bon exemple à suivre. On pourra programmer un Robot autant à la perfection que possible, ça ne remplacera jamais un humain. A mon avis les armes autonomes seront interdites, ou du moins je l’espère, car qui dit programmation dit failles. Tant qu’il y’aura des armes létales autonomes il y’aura des pirates pour les re-programmer. Le contrôle d’une arme létales, aussi autonome qu’elle soit, doit rester attribué à l’être humain

    Les drones actuels qui nous survolent sont contrôlés en permanence par des humains, ils sont “autonomes” par leur capacité à voler sans pilote, mais ils ne prennent en aucun cas de décision de tirer ou non.

    A mon avis, la question qu’ils vont se poser sera plus de l’ordre de savoir à quel degré devra être “autonome” une arme létale, et quel sera son pouvoir de décision.

  14. Au sujet de la loi zero, il faut voir cela comme totalement inapproprié.
    Dans les cycles liés de Asimov des romans de Elija jusqu’au final de fondation, il n’y a qu’un robot qui applique la loi Zero, il est télépathe et il sauve la galaxie de maniérè permanente et ce de façon très peu orthodoxe.

    Vu nos connaissances plus que sommaire en IA, imaginer une loi Zero releve de la métaphysique pure/

    Sinon étant bercé par l’œuvre de Asimov, je suis personnellement totalement opposé aux robots tueurs.
    Mais Asimov etait un fervent pacifiste, sans le dire explicitement, la société de l’age d’or issu des robots n’est plus capitaliste et est dirigé par la Raison. Hors comment imposé ce genre de règles anti meurtres a des capitalistes sans scrupule (CF industrie du tabac, agro alimentaire, petrole, etc)

  15. Pour info, I robot le film est un condensé de plusieurs nouvelles de Asimov (Elijah le flic, Calvin la robopsy, le robot qui rêvait, et multivac pour l IA) mais d’une part par le mélange des périodes des cycles de Asimov, il y a de nombreuses incohérences et Surtout Asimov n’a jamais écrit une nouvelle a se point si violente au sujet de la révolte des machines.

  16. c’est marrant je viens de regarder le remake de ROBOCOP, et contrairement à la catastrophe annoncée, c’est plutôt une bonne surprise cinématographique. Scénario très bien écrit, où l’on retrouve justement ce débat entre Humain et Robot et le droit de tuer, débat entre la sécurité à tout prix/sentiments humains. et une grande interrogation (critique) de l’omnipotent impérialisme américain ou impérialisme technologique.
    Film très intéressant à voir, en espérant peut être une suite.

    Bref, Ridley Scott et son Promotheus et son Blade Runner 2 de merde, il peut aller se rhabiller.

  17. « S’il considère qu’il est logique de tuer sans penser aux conséquences ni à l’impact humain de son geste »

    Comme le dit pokkke, s’il ne pense pas aux conséquences, ni à l’impact humain c’est qu’il a tout simplement été mal conçu. Le processus intellectuel qui amène un soldat à tuer ou non quelqu’un est tout à fait faisable de nos jours par une machine et ferait sûrement moins d’erreur qu’un être humain.
    Les algorithmes de classification (random forest, deep learning, SVM, …) en sont tout à fait capables si le modèle de classification est construit sur des variables et ensemble d’apprentissage pertinents. Un des intérêts de la machine est qu’elle peut traiter bien plus de variables et plus rapidement que l’humain pour réduire la probabilité d’une erreur de classification (tuer ou ne pas tuer).
    En tout cas, je ne vois aucune raison pour que la machine fasse moins bien que l’humain si elle est bien conçue, et c’est envisageable dés maintenant ce n’est pas de la science fiction.

  18. l’Idiocracy est déjà en place avec des Snowden, Assange portés en Héros de la démocratie.

  19. Et si on enlève juste “ni, en restant passif, permettre qu’un être humain soit exposé au danger” ça suffit pas à faire des robots 100% safes ? En admettant qu’on se passe des robots flics/chirurgiens ^^

  20. “l’Idiocracy est déjà en place avec des Snowden, Assange portés en Héros de la démocratie.”

    Je dirais plutôt que l’idiocracie est déjà en place, si j’en juge, par le nombre de gens incapables d’écrire une ligne sans faute, et d’autre part part ce genre de commentaire idiot.

    Simple constat :

    Snowden à du quitter sa petite vie bien tranquille, et son pays, suite à ses révélations, et Assange idem… Ils ne pourraient risquer plus sans mettre leur propre vie dans la balance. Si ce ne sont pas des héros, je ne vois pas trop ce qu’ils sont. Par contre, toi je sais ce que tu es : un imbécile.

  21. Un robot n’a pas de droit, celui qui a des obligations juridiques a tenir est celui qui utilise l’objet.
    C’est donc l’autorité en charge du robot qui a des droits à respecter et non l’instrument.
    (c’est comme faire un procès au fusil mais pas à l’individu qui a appuyé sur la détente).

  22. @Fishdrake: “Je dirais plutôt que l’idiocracie est déjà en place, si j’en juge, par le nombre de gens incapables d’écrire une ligne sans faute”
    —> “Snowden à du quitter sa petite vie bien tranquille”

    Le gars qui se la ramène et qui fait 2 belles fautes dans la même phrase, du high level, bien joué 😉

  23. ”Étant donné que l’homme détruit son habitat naturel ou vis au dépend de sa propre espèce, ça me parait effectivement dangereux comme loi.”

    Si TUER est le seul moyen d’empêcher une action, oui c’est dangereux. Mais comment dire, il existe, je crois, quelques autres solutions plus nuancées avant de TUER quelqu’un en train de faire une connerie. Enfin il me semble, je peux me tromper.

  24. Des lois écrites peuvent devenir un non sens si celles ci sont absolues.
    Exemple de non-sens absolu ::
    – ” Cette phrase est fausse ”
    Le danger est dans l’interprétation des énoncés comme absolus, tel un “robot”… ou tel un humain, car qui avant tout, a tendence à penser de manière binaire ?… un indice par un autre mot : “manichéen” ( 0 / 1 – Oui / Non – les gentils / les méchants – ami / ennemi )
    .
    il faut du temps, de la culture et de la sagesse pour arriver à nuancer ses idées, faire la part des choses dans un conflit, ne pas congeler l’eau du bain avec le bébé…
    .
    il est fort possible que les “robots” sauront avec le temps aquérir la notion de “logique flou”, et donc de nuance. Ainsi, si une personne représente une menace, la conséquence pourrait être que celle ci se sente fatiguée, ait besoin d’aller se reposer, ce qui l’incitera à réfléchir et avec le temps, prendre de la hauteur, réviser son mode de pensée, ses positions…

  25. “il est fort possible que les « robots » sauront avec le temps aquérir la notion de « logique flou »”
    Vous êtes amusants les gens ! Comme si des machines ne savaient pas déjà travailler sur des heuristiques et des concept plus poussés que “C’est bien, c’est pas bien” !
    Vous croyez que le trading se fait à la main aujourd’hui ? Que ce sont des gens qui gèrent à la main les réseaux de communication, de transport, de distribution ? Qu’on ne sait pas faire des IA qui savent apprendre et évaluer ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *