L’IA et la médecine, on sait bien que ça fait deux, parfois même trois. L’intrusion de cette technologie, mise entre les mains des patients, inquiète déjà fortement les médecins, mais il y en a bien un qui s’en lave royalement les mains : Sam Altman. Le patron d’OpenAI vient tout juste d’annoncer que ChatGPT pourra bientôt intégrer vos données de santé les plus intimes. Plutôt périlleux tout cela n’est-ce pas ?
La firme veut transformer son chatbot en un coach ultra-personnalisé, qui pourra passer au crible vos résultats d’analyses, vos antécédents, les données de vos applications de santé, comptes-rendus divers… Bref, tout ce qui, normalement, reste entre vos mains ou celles des professionnels de santé. Voilà qui ressemble tout de même à un grand saut dans le vide, puisque votre vie intime servirait de cobaye à un algorithme qui, rappelons-le, est un perroquet sans diplôme.
Chat GPT Health : 230 millions de diagnostics au doigt mouillé ?
OpenAI soutient l’arrivée prochaine de cette nouvelle interface dédiée, baptisée ChatGPT Health, en invoquant le fait que plus de 230 millions de personnes sollicitent déjà chaque semaine le chatbot pour des questions médicales. Quitte à ce que les utilisateurs fassent n’importe quoi, autant encadrer la pratique commme elle peut.
Développée avec des médecins, ChatGPT Health pourra être nourri par les dossiers médicaux des utilisateurs et leurs résultats d’examens, pour obtenir des conseils nutritionnels, planifier correctement ses repas ou vous aider à comprendre les retours d’analyses émis par les laboratoires. L’idée étant de permettre aux patients de « prendre un rôle plus actif » dans la gestion de leur santé, tout en restant, en théorie, un simple soutien aux soins cliniques officiels.
Pour Peter D. Chang, professeur à l’Université de Californie, c’est certes un « pas dans la bonne direction », mais il prévient : « Ne faites surtout pas exactement ce qu’il dit. Utilisez-le comme un simple point de départ pour en apprendre davantage ». Le problème, c’est qu’en médecine, un « point de départ » erroné mène rarement à la guérison ou à de bons conseils.
Contrairement à un humain, ChatGPT n’a aucunement conscience de la réalité ou du bon sens et n’est pas obligé de respecter la déontologie d’un professionnel de santé. Il se contente, comme tous les autres chatbots, de prédire la suite de mots la plus probable statistiquement, sans aucune conscience de la gravité des faits. « Absolument rien n’empêche le modèle de dérailler pour vous donner un résultat insensé », rappelle le Dr Chang.
OpenAI ayant déjà essuyé le feu des critiques, à juste titre, après de tristes drames (notamment le suicide d’un mineur qui avait interagi avec lui), nous sommes en droit de nous demander si l’on ne marche pas un peu sur la tête.
Confier ses informations de santé à une machine capable d’halluciner avec aplomb revient à jouer à la roulette russe : il pourrait très bien s’alarmer d’un symptôme bénin, ou pire, ignorer une urgence vitale. Un pari risqué pour notre santé, mentale comme physique, qui prouve une fois de plus que pour OpenAI, la data n’a pas d’odeur, même si elle peut être tachée de sang. D’ailleurs, la firme ne s’y trompe pas : pour le lancement de la phase de test qui a démarré le 7 janvier, l’Espace Économique Européen, la Suisse et le Royaume-Uni ont été explicitement rayés de la liste. La page officielle concernant ChatGPT Health l’indique très clairement, et il est, pour le moment, impossible de s’inscrire à la liste d’attente. Ici ce n’est pas le Far West, et nous sommes heureusement protégés par une réglementation un tantinet plus exigeante qu’outre-Atlantique. Ce n’est pas demain, Mr. Altman, que vous gravirez les deux murs que sont le RGPD et l’AI Act : le serment d’Hippocrate pèse encore un peu plus lourd que votre appétit dévorant !
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.