Passer au contenu

OpenAI vient de rappeler pourquoi vous ne devez jamais confier vos secrets à ChatGPT

OpenAI a récemment exposé les procédures en place pour empêcher les utilisations dangereuses (pour l’utilisateur ou pour les autres) de son IA. L’entreprise surveille les discussions en utilisant un système automatisé, puis demande à des évaluateurs humains de confirmer les signalements de ses algorithmes.

Contrairement à une conversation que vous avez avec une autre personne sur une messagerie chiffrée comme WhatsApp, vos discussions avec ChatGPT (et c’est valable pour d’autres chatbots IA) sont lisibles lorsqu’elles sont stockées sur les serveurs d’OpenAI. Et c’est la raison pour laquelle vous ne devriez jamais partager un secret ou une information très sensible avec cette IA. Et contrairement à une conversation que vous auriez avec un médecin ou un psy, celles que vous avez avec ChatGPT ne sont pas protégées par le secret professionnel.

“Donc, si vous parlez à ChatGPT de vos affaires les plus sensibles et qu’il y a ensuite un procès ou autre, nous pourrions être obligés de produire ces informations. Je pense que c’est une erreur. Je pense que nous devrions avoir le même concept de confidentialité pour nos conversations avec l’IA qu’avec un thérapeute ou autre”, avait, d’ailleurs, expliqué Sam Altman, en 2025.

Un nouveau rappel

Fin avril, OpenAI a, une fois de plus, rappelé que les conversations qu’on a avec ChatGPT ne bénéficient pas du même niveau de confidentialité que nos discussions privées et chiffrées sur les apps comme WhatsApp. Alors que ChatGPT a récemment été cité dans une affaire de fusillade, OpenAI a récemment présenté les mesures qu’il prend déjà contre les usages interdits de son IA.

Tout d’abord, OpenAI intervient au niveau des modèles, pour que ceux-ci n’encouragent pas la violence ou les comportements suicidaires. Mais, ce n’est pas tout. ChatGPT utilise aussi un système de détection automatisé qui, à grande échelle, recherche les “activités potentiellement préoccupantes”. Et si une discussion est détectée par ce système, celle-ci est analysée par un employé.

“Ces évaluateurs humains ont été formés à nos politiques et protocoles, et travaillent dans le respect des mesures de protection de la vie privée et de sécurité mises en place ; cela signifie que leur accès aux informations des utilisateurs est limité, s’effectue au sein de systèmes sécurisés et est soumis à des exigences en matière de confidentialité et de protection des données”, indique néanmoins OpenAI.

OpenAI peut signaler la police dans des cas graves

Le rôle des évaluateurs humains est de confirmer, ou pas, le signalement des systèmes automatisés. Ensuite, OpenAI peut passer à l’action. D’après celui-ci, dans la plupart des cas, les mesures sont prises uniquement au niveau de l’entreprise, qui peut, par exemple bannir l’utilisateur de ses services. Cependant, dans des cas plus rares, OpenAI peut aussi contacter des personnes “mieux placées pour aider”.

Et il est possible qu’OpenAI fasse un signalement à la police. “Lorsque les conversations indiquent un risque imminent et crédible de préjudice envers autrui, nous en informons les forces de l’ordre”, indique OpenAI. L’entreprise peut également travailler avec des experts en santé mentale et en comportement pour traiter les cas les plus difficiles.

En tout cas, la politique d’OpenAI est actuellement de donnée de la liberté à ses utilisateurs, tout en protégeant les mineurs, et tout en essayant de détecter les utilisations potentiellement dangereuses pour l’utilisateur ou pour les autres.

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Source : OpenAI

Mode