Passer au contenu

Comment cet homme a-t-il gagné une centaine de repas gratuits chez McDonald’s grâce à ChatGPT ?

Dans une ère où l’intelligence artificielle (IA) façonne de nouvelles frontières technologiques, un récent événement atypique souligne son potentiel.

Un jeune entrepreneur britannique a exploité ChatGPT afin d’obtenir une centaine de repas gratuits chez McDonald’s. L’exploit, qui combine astucieusement la récupération de reçus abandonnés et l’utilisation de ChatGPT pour générer des plaintes crédibles, révèle une faille dans le système de feedback client de la chaîne de restauration rapide.

Une pluie d’avis négatifs

L’individu, qui anime l’émission All Thing The Podcast et qui est propriétaire du groupe de revente All Things Arbitrage, a “volé” les reçus de commande sur les tables des restaurants pour ensuite utiliser les codes uniques afin de participer à des enquêtes de satisfaction client. En se faisant passer pour un client très insatisfait, et en rédigeant de fausses plaintes de 1200 caractères avec l’aide de ChatGPT envoyées à McDonald’s, celui-ci a reçu des coupons de réduction en dédommagement sous forme de repas gratuit ! Après neuf mois d’utilisation de cette méthode, et 100 repas plus tard, il a finalement été découvert par un restaurant qui s’est rendu compte du subterfuge.

McDonald’s n’a pas réagit à cet incident, mais l’histoire a suscité un débat public sur l’impact de l’IA sur les entreprises et la société. Certains experts en cybersécurité préviennent que cet événement pourrait n’être qu’un avant-goût des défis à venir, à mesure que les outils d’IA deviennent plus accessibles et sophistiqués. De telles pratiques peuvent nuire à plusieurs personnes, car ici McDonald’s utilise les avis des clients pour évaluer si ses franchises doivent rester ouvertes.

Il est important de noter que ChatGPT est de plus en plus détourné par des individus malintentionnés pour créer des e-mails de phishing convaincants. L’intelligence artificielle, sans le vouloir, parvient à imiter fidèlement le ton et le style de certaines communications, ce qui peut facilement tromper les destinataires. Devant cette menace croissante, il est important de faire attention en prenant le temps de confirmer l’authenticité de son interlocuteur, soit en vérifiant directement ses informations, soit en visitant le site officiel de l’entreprise concernée.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

2 commentaires
  1. Faut arrêter, le recours à l’IA est ici (comme très souvent) celui d’une machine à écrire intelligente… Ce gars aurait pu faire la même chose tout seul et arriver au même résultat, la seule différence est que ChatGPT a facilité la chose. Et c’est ce que promet ce service, que tu l’utilises pour le bien ou le mal est de la responsabilité de l’humain qui l’utilise, pas de l’outil.

    “L’intelligence artificielle, sans le vouloir, parvient à imiter fidèlement le ton et le style de certaines communications, ce qui peut facilement tromper les destinataires”. Parce qu’elle a accès aux communications en question, donc avec un peu de travail, l’humain pourrait aussi facilement le faire.
    Je n’apprécie pas tout dans l’IA, mais je vois pas de procès à lui faire là dedans.

    “Oui mais ça représente un danger pour le futur”. Non, ce qui représente le vrai danger, c’est l’utilisation de plus en plus omniprésente d’internet pour tout et rien, car c’est “plus rapide et moins cher”, genre faire une enquête de satisfaction en ligne plutôt que direct dans les magasins.
    Sauf que si tu mets ton travail à la disposition de tout le monde, faut malheureusement pas s’étonner que certains essayent de le casser et/ou d’en profiter. L’IA accélère juste le nombre “d’attaques” qu’on peut y faire en un instant T, mais un humain pourrait le faire sans IA.

  2. Comme d’habitude, le réel problème n’est pas Chat GPT, mais les personnes qui l’utilisent a des fins fallacieuse.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *