Depuis plusieurs années maintenant, l’intelligence artificielle s’est installée dans les bureaux de nombreux salariés. En quelques secondes, un outil comme ChatGPT peut reformuler un mail, résumer un document ou structurer une présentation. Dans un contexte où les outils d’IA se multiplient, souvent intégrés directement dans les logiciels de bureautique, leur usage devient de plus en plus banal. Pourtant, dans de nombreuses entreprises cette pratique reste tabou. Beaucoup de salariés utilisent ces outils sans en parler à leur hiérarchie, et cela peut parfois causer des problèmes.
Les chiffres illustrent bien le phénomène car selon plusieurs enquêtes récentes, plus de la moitié des actifs français auraient déjà utilisé une IA générative dans leur travail, et près d’un salarié sur trois le ferait régulièrement. Le problème, c’est que l’usage de ces outils se développe souvent plus vite que les règles internes des entreprises.
Que dit la loi ?
Sur le plan strictement juridique, utiliser une IA comme ChatGPT n’est pas interdit. Aucune loi française n’interdit l’utilisation d’une intelligence artificielle dans le cadre professionnel. En revanche, le droit du travail repose sur plusieurs principes importants tels que la loyauté envers l’employeur, la confidentialité des informations et la protection des données. Autrement dit, l’outil n’est pas illégal, mais certains usages peuvent l’être.
Le principal risque concerne la transmission d’informations sensibles. Copier dans un chatbot un document confidentiel ou encore une base de données clients peut exposer l’entreprise. Selon les juristes, ces données peuvent parfois être stockées ou utilisées pour entraîner les modèles d’IA, ce qui soulève des questions liées au secret des affaires ou au RGPD lorsqu’il s’agit de données personnelles.
L’autre inquiétude fréquente pour les salariés concerne le fait que l’employeur puisse savoir ou non si vous utilisez une IA au travail. Techniquement, c’est possible, mais dans certaines conditions. Si vous utilisez un ordinateur ou un réseau professionnel, des traces informatiques existent. Les connexions internet, les logiciels utilisés ou certaines activités peuvent apparaître dans des logs informatiques.
Cependant, la surveillance est encadrée. L’article L1222-4 du Code du travail impose qu’un salarié soit informé à l’avance de toute collecte d’informations le concernant. Un employeur ne peut donc pas mettre en place une surveillance cachée. Ce principe a été confirmé par la jurisprudence européenne donc les salariés français sont protégés.
Est-ce éthique pour autant ?
Dans la pratique, le vrai sujet est donc moins la légalité de l’outil que la gestion des données et des règles internes. De nombreuses entreprises commencent à publier des chartes d’utilisation de l’IA ou à proposer des versions internes sécurisées d’outils similaires. Une fois mises en place, ces mesures internes prévalent et guident votre comportement professionnel vis à vis des IA.
Cette évolution reflète une transformation plus large. À l’ère du numérique, les outils d’IA deviennent aussi invisibles que les moteurs de recherche ou les correcteurs automatiques. Demain, ils seront probablement intégrés partout, dans les messageries, les logiciels bureautiques ou les plateformes de gestion de projet. La question n’est donc plus vraiment de savoir si les salariés utilisent l’IA. Elle est de savoir comment les entreprises vont encadrer un usage devenu quasiment inévitable. On rappelle aussi que dans les métiers créatifs, le droit d’auteur, le droit à l’image et le copyright doivent être observés pour éviter tout souci de plagiat.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.