Passer au contenu

Ces employés Samsung ont commis une grave erreur sur ChatGPT

C’est bien connu, ChatGPT a du mal à garder un secret et des ingénieurs de Samsung l’ont appris à leurs dépens.

Le robot conversationnel d’OpenAI est un outil étonnamment puissant et fascinant. Il est d’ailleurs en constante évolution grâce au « deep learning » pour comprendre et générer du texte. Une technique « très efficace » selon GPT-3.5 lui-même, mais qui soulève des interrogations. En effet, ChatGPT se nourrit des informations qu’il collecte et conserve tout ce que vous partagez pour se perfectionner. Depuis que l’outil est à disposition du grand public, il est conseillé de ne pas trop lui confier de données personnelles. OpenAI précise même dans une FAQ qu’il ne faut pas « partager d’informations sensibles dans vos conversations ».

Un conseil que des employés de Samsung n’ont manifestement pas suivi, rapporte The Economist Korea. La firme sud-coréenne a découvert que des ingénieurs ont partagé des informations confidentielles par erreur. En effet, Samsung avait autorisé sa division semi-conducteurs à utiliser le célèbre outil pour vérifier le code source. Le modèle d’intelligence artificielle générative est en effet capable de repérer d’éventuelles erreurs et d’aider à les corriger. Cependant, plusieurs employés ont partagé des éléments top secret avec l’outil d’OpenAI.

Samsung a recensé au moins trois cas de partages d’informations sensibles sur ChatGPT. L’un d’eux a collé un code source confidentiel pour vérifier s’il y avait des erreurs tandis qu’un autre a partagé du code dans le but de l’optimiser. Enfin, un dernier cas a partagé l’enregistrement audio d’une réunion pour le transformer en notes pour une présentation. Des informations qui sont désormais dans la « mémoire » de ChatGPT.

Samsung prend des mesures et veut son propre ChatGPT

L’entreprise a immédiatement pris des mesures pour éviter que ce genre d’erreur ne se répète. Elle a décidé de limiter les requêtes soumises à ChatGPT à 1 024 octets et enquête sur les employés impliqués dans la fuite. D’autres sociétés ont d’ores et déjà bloqué l’accès à ChatGPT à leurs salariés. Dans l’Hexagone, la ville de Montpellier l’interdit aussi à ses employés. Plus intéressant encore, Samsung envisage de développer son propre chatbot IA pour un usage interne.

Cette affaire arrive alors que ChatGPT est au cœur des préoccupations. L’Italie a fait le choix de bloquer le robot conversationnel, arguant qu’il ne respecte pas la protection des données personnelles. En France, la CNIL vient d’enregistrer les premières plaintes pour une raison similaire et la publication d’informations personnelles, qui plus est erronées. En attendant, il vaut mieux tourner sa langue sept fois dans sa bouche avant d’échanger avec ChatGPT.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

4 commentaires
    1. Bonjour,

      Par ChatGPT, non ! Par moi oui, mais ce n’est pas la version corrigée qui est partie…

      J’ai fait les modifications, merci pour le signalement 🙂

    1. Très bon conseil 🙂

      Et il faut aussi vérifier ses onglets, j’ai apparemment envoyé la mauvaise version.
      Normalement, tout est rentré dans l’ordre.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode