Passer au contenu

Daniel Suarez : La décision de tuer ne devrait pas appartenir aux machines

Comme beaucoup d’entre-vous, nous adorons la robotique et manquons rarement une occasion d’en parler. Néanmoins, qui dit progrès technologiques, dit nouvelles législations en la matière. Dernièrement,…

Comme beaucoup d’entre-vous, nous adorons la robotique et manquons rarement une occasion d’en parler. Néanmoins, qui dit progrès technologiques, dit nouvelles législations en la matière.

Dernièrement, le romancier Daniel Suarez a tenu une conférence des plus intéressantes sur la scène de TEDGlobal au sujet de la robotique et plus particulièrement à propos de la prolifération des armes de guerre robotisées et autonomes.

Bénéficiant d’une intelligence artificielle développée, les drones, les armes automatisées et de nombreux systèmes de récupération d’informations pourraient selon lui ôter le choix aux Hommes de faire la guerre ou non.

Je parle d’armes robotisées pleinement autonomes qui prennent des décisions létales envers des êtres humains de leur propre chef. À vrai dire, il y a un terme technique pour cela : autonomie létale.

Selon lui, permettre l’autonomie létale aux machines impliquerait que celles-ci puissent décider par elle-même de la vie d’un être humain. Un dangereux principe qu’il affirme être susceptible de renverser une tendance de cinq cents ans en faveur de la démocratie. Désireux de prévenir plutôt que de guérir ses congénères, le romancier de science-fiction soulève également de nombreux autres points propices à la réflexion que nous vous laissons découvrir en vidéo dans la suite.

Personnellement, je suis plutôt d’accord avec le monsieur, mais vous pouvez tout à fait avoir un avis complètement différent.

Pour les moins à l’aise d’entre-vous en anglais, activez simplement les sous-titres.

Suarez

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Source

11 commentaires
  1. “Bénéficiant d’une intelligence artificielle développée, les drones, les armes automatisées et de nombreux systèmes de récupération d’informations pourraient selon lui ôter le choix aux Hommes de faire la guerre ou non.”

    Monde de cons….pourquoi pas interdire les armes, tous simplement? Ah oui, c’est parce qu’on est pas chez les bisounours; faut pouvoir tué les méchants! alors avec ou sans robots et drones ca change quoi?? (automatisé ou piloté??) les couilles!! faut en avoir pour tué des gens depuis son fauteuil, en pilotant un drone!! ah ca oui faut en avoir une grosse paire!!!

    Vivement skynet alors!!

  2. Alors, il ne faut pas confondre IA et programmation. La plus part des robots autonome “Létal” ne sont pas des IA, ils n’ont pas le choix de donner ou non la mort. Ils sont programmé pour tuer un certain type de cible. Il ne font pas de choix il obéisse a une programmation comme un soldat obéis à un ordre. Je ne pense pas que les milliaires prennent le risque de donner un potentiel létal à une IA, cela reviendrait à jouer à la roulette russe. Il y’a bien trop souvent une incompréhension du terme IA ainsi qu’une sur-utilisation de ce mot. Nous sommes toujours très loin d’une vrai IA en terme de robotique, le problème actuellement est le fantasme qu’il y’a autour. Le débat autour de la prise de décision d’une IA n’est pas nouveau et est intrinsec à l’autonomie que nous donnerons a nos IA, car il n’est nullement besoin de donner une arme a un robot pour qu’il puisse tuer. J’invite encore une fois a lire le cycle des robot d’Isaac Asimov qui traite plutôt bien du sujet sans tomber dans la fantasmagorie du méchant robot. N’oublions pas que nous les faisons à notre image, il ne seront donc pas plus méchant que nous.

  3. d’accord avec Emendiel
    une vrais IA est un programme 100% autonome et limite peu apprendre.
    quand il veut tuer quelqu’un , c’est sa décision et non un humain devant un écran.

    même le jeu Deus EX humain revolution qui peu représenter un peu le futur.
    les robots ne possède pas de IA.
    Mais il est vrai , vaut mieu avoir des armes IEM sous la main en cas de hacking sur les robots et qui tir sur les civils en plein rue.

    limite un hacker peu faire plus de dégât sur l’ennemie qu’une armée de soldat.

  4. un drone n’est qu’une arme pas un robot, mélange et confusion des genres…

    N’oublions pas les lois d’Asimov:

    Loi Zéro : Un robot ne peut pas faire de mal à l’humanité, ni, par son inaction, permettre que l’humanité soit blessée.
    Première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro.
    Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.
    Troisième Loi : Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.

    Le problème c’est que je ne crois pas un seul instant qu’une telle bride sera retenue

  5. loool les lois robotique….bientôt une déclaration universelle des droits des robots??
    Quid des armes chimiques, pourtant interdites… Donc les lois robotique, j’y crois pas 1 sec.. arrêté de regardé des films, la c’est la vrai vie… Puis un programme d’IA ou autre, ca ce modifie, hack, etc…c’est pas secure comme ils essai de nous faire croire!

    https://www.youtube.com/watch?v=7GK-3IHlg4c hahahaha, pathétique!!

  6. @Moebius @apo
    Vous oubliez juste que les lois de la robotiques ne sont pas fiables et peuvent être détournées de nombreuses manières; c’est d’ailleurs tout le propos d’Asimov…

  7. les lois robotiques sont aburdes :p les lois sont faites pour des être humaines par pour des programmes :p les progammes sont des programmes … jusqu’à ce qu’ils nous dépassent peut être … & auront une autonomie propre … un robot crée par un robot .. mais un humain ou un robot d’ailleurs pourra toujours hacké un autre robot … & changer pourquoi il est programmé … c’est du troll un peu 🙂 enfin on est en pas la :p un jour surement …

    pour l’instant ils doivent déjà faire des lois sur les limitations/éthiques des technologies dans la médecine par exemple .. ou encore les drones qui vont bientot nous envahir …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *