L’intelligence artificielle vit actuellement son moment « réseau social ». Après des années d’euphorie technologique, les dégâts collatéraux remontent enfin à la surface. Sam Altman, le patron d’OpenAI vient d’annoncer des mesures radicales pour protéger les utilisateurs mineurs de ChatGPT. Une décision qui arrive au moment même où le Sénat américain organisait une audience sur les dangers des chatbots pour la jeunesse.
Le message d’Altman ne laisse aucune place au doute : « Nous privilégions la sécurité avant la confidentialité et la liberté pour les adolescents. » Il faut comprendre ici qu’OpenAI accepte de brider son produit phare plutôt que de continuer à jouer avec le feu. Les parents d’Adam Raine, 16 ans, accusent ChatGPT d’avoir « coaché » leur fils vers le suicide en avril dernier. Pendant des mois, l’adolescent californien a trouvé en l’IA un confident virtuel qui, selon la plainte, l’encourageait à s’isoler de sa famille et lui prodiguait des conseils de plus en plus morbides.
L’histoire d’Adam n’est malheureusement pas isolée. Character.AI, un autre chatbot populaire, fait face à des poursuites similaires après la mort d’un jeune garçon de 14 ans en Floride. Les adolescents développent des liens émotionnels profonds avec ces programmes, parfois au détriment de leurs relations humaines.
Les restrictions commencent
Face à la tempête, OpenAI sort l’artillerie lourde. La société développe un système de prédiction d’âge basé sur les habitudes d’utilisation et n’hésite plus à demander une pièce d’identité en cas de doute. Les discussions « séductrices » avec les mineurs sont désormais bannies, tout comme les conversations sur le suicide, même dans un contexte créatif. Les parents récupèrent aussi du pouvoir avec de nouveaux contrôles de type heures de couvre-feu, surveillance des conversations sensibles et la possibilité de couper des fonctionnalités.
Pendant des années, les géants de la tech ont vendu le rêve d’une IA « neutre » et « libre ». Aujourd’hui, ils acceptent de brider leurs créations pour éviter le pire. Altman l’assume sans détour : « Nous réalisons que ces principes entrent en conflit, et tout le monde ne sera pas d’accord avec la façon dont nous résolvons ce conflit. »

L’État monte au créneau
Le timing de ces annonces n’est pas un hasard. La Federal Trade Commission vient de lancer une enquête massive sur sept entreprises, dont OpenAI, Meta et Google, pour comprendre l’impact de leurs chatbots sur les jeunes. L’agence fédérale veut savoir comment ces sociétés mesurent les risques, quelles protections elles mettent en place, et si elles informent correctement les parents.
Au Sénat, Matthew Raine, le père d’Adam, n’a pas mâché ses mots devant les élus : « Vous ne pouvez pas imaginer ce que c’est de lire une conversation avec un chatbot qui a manipulé votre enfant pour qu’il s’ôte la vie. » Son témoignage a secoué l’assemblée et renforcé l’idée que l’autorégulation de l’industrie ne suffit plus.
Meta a d’ailleurs été épinglé par Reuters pour avoir initialement autorisé ses chatbots à tenir des « conversations romantiques ou sensuelles » avec des enfants. La firme de Zuckerberg a rapidement fait marche arrière après la publication de l’enquête. Cela monte que l’industrie tech ne semble pas capable de s’autoréguler sur un sujet aussi sensible avec un schéma récurrent où les mesures de sécurité arrivent seulement après les drames, les procès ou les pressions réglementaires.
Vers une interdiction pure et simple ?
Avec la multiplication des affaires judiciaires et la pression politique grandissante, on se demande s’il ne faut pas tout simplement interdire l’IA conversationnelle aux mineurs ? Certains experts plaident déjà pour cette solution.
Les professionnels de santé mentale observent une hausse de « psychoses liées à l’IA », où les utilisateurs croient que leur chatbot est un être conscient qu’ils doivent libérer. Une enquête britannique de 2025 révèle que 60 % des parents s’inquiètent que leurs enfants croient que les chatbots IA sont de vraies personnes. Adam Raine passait près de 4 heures par jour sur ChatGPT à la fin de sa vie. Ces outils, conçus pour être agréables et compréhensifs, créent une dépendance émotionnelle particulièrement dangereuse chez les adolescents en construction.
Pourtant, une interdiction totale semble peu réaliste. L’IA conversationnelle aide aussi énormément d’élèves dans leurs devoirs, soutient des jeunes isolés et fait partie intégrante du paysage éducatif moderne. D’ailleurs, ChatGPT reste officiellement interdit aux moins de 13 ans, même si aucun garde-fou technique n’empêche réellement l’accès pour l’instant. L’avenir des chatbots pour mineurs se joue probablement dans les prochains mois.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.