[MWC 2019] BMW présente le futur de la voiture autonome et intelligente avec Natural Interaction et iNext

Automobile

Par Camille Suard le

À l’occasion du Mobile World Congress, le groupe et constructeur automobile BMW a dévoilé BMW Natural Interaction, un système qui combine trois technologies : la reconnaissance du regard, le contrôle gestuel étendu ainsi que la commande vocale.

La haute technologie et l’avenir de l’automobile

Cela fait maintenant quelques années que nous nous étonnons plus de voir dans les allées d’un salon dédié à la tech des stands de constructeurs de voitures. Et pour cause, l’industrie automobile incorpore de plus en plus de technologies de pointe dans leurs produits. Certains modèles sont de plus en plus autonomes et le concept, car nommé Vision iNext présent sur le stand de BMW incarne l’aboutissement de nombreuses années de recherches et de conceptions. Prévue pour 2021 avec notamment un espace pensé comme un lounge à l’arrière pour divertir les passagers. De ce côté-ci, un rétroprojecteur permet d’afficher sur n’importe quelle surface blanche votre film. Et mieux encore, il est en mesure grâce à ses capteurs de suivre le support choisi… plutôt pratique !

L’idée au coeur du projet de BMW pour le futur c’est de repenser l’interaction homme-machine en favorisant une prise en main directe avec la technologie, tout en profitant du design et de l’ergonomie pour qu’elle soit à la fois présente, mais invisible. Par exemple, il serait possible de dessiner du bout de son doigt une note de musique sur son siège ou sur son tableau de bord à l’avant pour lancer une playlist.

Il faut montrer encore un peu de patience pour voir ces rêves futuristes se concrétiser. En attendant, intéressons-nous à la principale annonce de BMW pour cette édition 2019 du MWC : Natural Interaction, une importante mise à jour de sa solution de conduite intelligente.

Natural Interaction

Nous avons répondu présents pour assister à une démonstration spéciale de ce que BMW appelle, et à juste titre, le Natural Interaction. Incorporé dans le cockpit de la voiture, il mêle différents capteurs sensoriels et l’intelligence artificielle pour se rapprocher au maximum d’une conversation que pourrait entretenir deux humains. En plus de la commande vocale, des caméras et capteurs ont été placés pour détecter les mouvements des mains et des doigts, mais aussi pour traquer le regard. Tout ceci fonctionne à l’unisson pour prendre en compte véritablement tout l’environnement du conducteur et de ses passagers. Mais techniquement comment cela fonctionne-t-il ? Pour les gestes, des technologies d’analyse couplées à des signaux lumineux infrarouges viennent capturer les mouvements en trois dimensions de l’espace dans son ensemble afin de déterminer un vecteur directionnel le plus précis possible. La direction de la tête et du regard sont enregistrés grâce à l’intégration d’une caméra HD placée derrière le volant. L’intelligence artificielle et ses algorithmes font ensuite le reste du travail et grâce au machine learning, la technologie deviendra avec le temps et l’usage de plus en plus précise.

Pour présenter une telle solution dans un salon dédié à la tech… quoi de mieux qu’une simulation en réalité virtuelle ? Casque sur la tête, l’expérience débute dans un hôtel et plus précisément l’ascenseur de celui-ci. Entièrement vitré, il nous offre alors une splendide vue sur une ville à la fois futuriste et onirique. Arrivée en bas du building, une voiture sur la chaussée s’approche doucement de moi. La porte côté conducteur s’ouvre et une fois assise, je découvre un cockpit virtuel et… bien réel. En effet, la simulation se calque sur un véritable intérieur de voiture. Je suis invitée par l’assistant vocal à lui répondre pour calibrer ma vue et choisir ma direction. Je me mets ensuite en route, car pour commencer, c’est bien moi qui conduis : mains sur le volant, un pied sur l’accélérateur et l’autre près de la pédale de frein. Après quelques mètres seulement, on passe à de la conduite autonome.

J’ai accepté de lâcher mes mains du volant, mais je maintiens mon regard sur le tracé des routes pour lui indiquer les directions que je souhaite prendre pour mon itinéraire. Et c’est là que ça devient intéressant : outre les habituelles interactions avec l’intérieur du véhicule comme le réglage de la température, le changement de piste audio, l’ouverture d’une vitre, etc., vous allez pouvoir aussi réagir à votre environnement extérieur et obtenir des informations pratiques. Pendant le voyage, je pouvais choisir d’appuyer mon regard sur un bâtiment pour verrouiller ce dernier en tant que cible et demander « More informations ». C’est ainsi que l’on peut obtenir les horaires d’un restaurant, la disponibilité d’un parking ou la présentation d’un lieu culturel. Bien entendu, il sera possible de poser des questions plus complexes du type « Puis-je me garer dans ce parking et combien ça coûte ? ».

J’ai pu m’amuser à répéter cet exercice pendant tout le trajet. Cela répond à toutes les situations et les commandes viennent naturellement : on ne réfléchit plus à comment on va interagir avec l’assistant. Par exemple si vous discutez avec vos passagers ou que vous êtes en conduite autonome, vous allez plutôt pointer du doigt un élément. Si vous êtes en train de rouler en pilote manuel, la commande vocale et le regard seront plus utiles et pratiques. L’expérience laisse rêveuse, mais promet un véritable bond en avant côté automobile, qui nous fera repenser l’utilisation de notre voiture. Toutes les données récoltées sont ensuite transmises et stockées dans des data center sécurisés et localisés en France.

Maintenant, on a hâte d’essayer ces nouveautés dans une vraie voiture… Mais il faudra se montrer patient, car lancer une telle technologie et services, c’est offrir la certitude que tout soit parfaitement sécurisé et optimisé. Nombreux sont ceux encore que la technologie et plus particulièrement l’IA incorporée dans notre vie de tous les jours effraie. La voiture autonome doit elle aussi se populariser. D’abord prévue avec la Vision iNext de 2021, cette technologie devrait aussi atteindre les modèles qui ne sont pas totalement autonomes.