Dilemme des vies à sauver : quel algorithme utiliser pour les véhicules autonomes ?

Automobile

Par Djenuwine le

Le cas est dramatique, mais bien réel : si vous aviez le choix entre faire un écart risquant de vous coûter la vie ou ne pas le faire et percuter une ou plusieurs personnes, que choisiriez-vous ? Et la voiture autonome, que ferait-elle ?

Moralmachine.mit.edu
Moralmachine.mit.edu

C’est Philippa Ruth Foot, philosophe britanno-américaine, qui créa le dilemme du tramway en 1967. Un dilemme très simple : un tramway hors de contrôle se dirige vers un groupe de 5 personnes. Vous êtes sur le pont sous lequel il s’apprête à passer. Pour le stopper, il vous faut un objet lourd. Par chance, une personne énorme passe à ce moment-là. Vous avez le choix entre sacrifier cette personne et sauver les 5 autres, ou ne rien faire et laisser les 5 personnes mourir.

Retranscrit aux voitures autonomes, ce dilemme donne : la voiture choisira-t-elle de mettre en danger la vie de son ou ses occupants pour sauver plus de vies directement menacées par la situation ?

meme self driving

Evidemment, on pense immédiatement aux 3 lois de la robotique d’Asimov :

• première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger
• deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi
• troisième Loi : Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi

Selon ces lois, la voiture devrait quoi qu’il arrive, protéger ses occupants. Sauf qu’Asimov ajouta une quatrième loi, nommée Loi Zéro, qui dit qu’un robot ne peut pas porter atteinte à l’humanité, ni, par son inaction, permettre que l’humanité soit exposée au danger. Elle se place en amont des trois autres lois et pose un sacré dilemme et une série de questions puisqu’il est impossible de déterminer si les vies sauvées valent plus le coup que celle(s) épargnée(s).

b77d4ac35fc5c44bb2e40e9c670b16ab

Cette question fait l’objet d’un débat depuis l’arrivée des voitures autonomes sur nos routes.

fa180c74717535bcdaa7cfc3fada3b50_large

Trois chercheurs du MIT (Institut de technologie du Massachusetts), de l’université de l’Oregon et de l’Ecole d’économie de Toulouse ont tenté de trouver une réponse. Pour réaliser leur étude, ils ont confronté 1928 personnes pour réaliser 6 tests les mettant devant des situations variées. Résultat : 75% pensent que la voiture doit sacrifier son occupant. Mais forcément, dès que la personne à sacrifier leur est liée ou proche, la donne change totalement.

Ceci a engendré une réticence envers l’acquisition de véhicules autonomes qui seraient doté d’un algorithme privilégiant le groupe à l’occupant. Et pour cause, les voitures d’aujourd’hui sont vendues comme des cocons ultra sécurisants. Les acheteurs envisagent mal d’acheter une voiture qui pourrait choisir de les sacrifier.

10629

Selon Chris Urmson, responsable des véhicules autonomes chez Google, ces études sont amusantes sur papier, mais trop éloignées de la réalité. De plus, un tel algorithme lance un tas de questions : âges des victimes, situation, droit de présence ou non, engendrant un débat sans fin.

A l’heure actuelle, les voitures évitent d’abord les collisions avec les piétons et cyclistes, puis les autres usagers puis, enfin, les objets inanimés. Mais il n’est pas impossible qu’à l’avenir, une option nous permette de choisir d’activer ou non l’algorithme de notre véhicule autonome. Puis une accessible rapidement, histoire d’avoir le choix jusqu’au dernier moment.

Reste que Jean François Bonnefon, chercheur à l’Ecole d’économie de Toulouse a évoqué qu’une telle étude permet d’estimer plus précisément les coûts et bénéfices de ces véhicules. Du coup, l’équipe a mis au point un site internet (que vous pouvez essayer) permettant de répondre aux situations : moralmachine.mit.edu

Source: Source