Passer au contenu

Données personnelles : ChatGPT dans le viseur du régulateur américain

OpenAI va devoir donner des garanties à la FTC américaine par rapport à la politique de traitement des données de son chatbot dopé au machine learning.

D’après un rapport du Washington Post repéré par nos confrères de 01Net, la Federal Trade Commission, principale instance de régulation commerciale aux États-Unis, vient d’ouvrir une enquête sur le géant de l’intelligence artificielle OpenAI. L’agence va se pencher sur le cas de ChatGPT, l’incontournable chatbot dopé à l’IA. Elle cherchera notamment à déterminer s’il représente un risque en termes de protection des données personnelles.

Cela représente une menace assez importante pour le modèle commercial de la firme. Ce dernier est directement basé sur la collecte et le traitement d’énormes ensembles de données. En fonction de ses trouvailles, l’agence pourrait imposer à OpenAI de modifier considérablement sa politique de traitement des données.

Par le passé, la FTC a déjà sanctionné de grands noms de la Silicon Valley pour ce genre de manquements. De grands noms comme Meta ou Amazon ont déjà été épinglés par le régulateur. Selon le Washington Post, la FTC a aussi rappelé récemment que les lois américaines de protection de consommateurs s’appliquaient à l’IA au même titre qu’aux réseaux sociaux. OpenAI va donc devoir montrer patte blanche.

« La FTC encourage l’innovation, mais être innovant n’autorise pas à être insouciant », a déclaré Samuel Levine, directeur du Bureau de Protection des Consommateurs de la FTC cité par le Washington Post. « Nous sommes prêts à utiliser tous les outils à notre disposition pour endiguer les pratiques délétères dans ce domaine ».

Ces inquiétudes font écho à celles des régulateurs européens, qui se sont également interrogés sur la façon de travailler d’OpenAI. Par exemple, l’Italie a temporairement bloqué l’accès à ChatGPT en avril dernier, invoquant des réserves sur le traitement des données personnelles. Le Parlement européen travaille aussi sur un texte de loi qui devrait bientôt réguler l’usage des données personnelles dans le machine learning dans l’ensemble de l’Union.

Qu’attend la FTC ?

En premier lieu, les enquêteurs de la FTC attendent une « description détaillée » de la façon dont l’entreprise répond aux signalements qui concernent les informations « fausses, fallacieuses, désobligeantes ou préjudiciables » parfois proposées par ChatGPT.

Elle a aussi demandé des précisions par rapport à une brèche de sécurité survenue en Mars dernier. Pendant quelques heures, les abonnés avaient pu accéder à aux historiques de conversations d’autres utilisateurs. Des informations relatives aux paiements de ces derniers étaient également visibles. OpenAI s’est montrée rassurante, mais la FTC veut savoir comment la firme a géré ce cas épineux. Elle cherche aussi à savoir comment OpenAI va faire en sorte que cela ne se reproduise pas.

Plus largement, l’agence veut aussi connaître les procédures employées par OpenAI pour vérifier son produit avant la sortie de chaque nouvelle version. Elle demande notamment que l’entreprise lui présente une liste des cas où elle aurait repoussé un déploiement à cause de soucis liés à la sécurité. Une façon de montrer que al firme prend effectivement cette problématique au sérieux.

Mais surtout, la FTC exige aussi qu’OpenAI lui fasse une véritable visite guidée de son produit. Elle souhaite que l’entreprise fournisse une description détaillée de son processus d’entraînement. En particulier, elle veut savoir comment OpenAI collecte et exploite les informations nécessaires à cet entraînement.

OpenAI collabore, malgré des réserves sur la forme

Sam Altman, de son côté, a assuré sur Twitter que son entreprise allait « bien entendu » collaborer avec la FTC. « C’est très important pour nous que notre technologie soit sûre et aille dans le sens du consommateur, et nous sommes confiants dans le fait de respecter la loi ».

Mais il n’a pas manqué de manifester sa « déception » sur la formulation employée par la FTC. En particulier, il regrette que la requête « débute avec une fuite, ce qui n’aide pas à construire une relation de confiance avec le public ».

« Nous avons construit GPT-4 sur la base de plusieurs années de recherche en sécurité et passé 6 mois après l’entraînement initial à rendre le modèle plus sûr » explique-t-il. « Nous protégeons la confidentialité des utilisateurs et concevons notre système pour apprendre des choses sur le monde, et pas les individus privés. Nous sommes transparents sur les limites de notre technologie ».

Il conviendra donc de suivre l’enquête de la FTC avec beaucoup d’attention. Elle pourrait conditionner beaucoup de choses, à commencer par le mode de fonctionnement de CHatGPT. Mais cela ne concerne pas qu’OpenAI. Quelles que soient les conclusions de l’agence, les autres entreprises qui travaillent sur des systèmes comparables devront aussi en prendre bonne note . On pense notamment à Bard, l’équivalent de ChatGPT produit par Google. Son lancement européen avait été reporté par manque de clarté sur la politique de traitement des données.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *