
Certaines entreprises ont mis en place des comptes ChatGPT partagés pour leurs employés, et cela donne parfois lieu à des situations gênantes. C’est ce qu’ont découvert plusieurs salariés. Dans un compte commun professionnel, l’historique des recherches est accessible à tous les utilisateurs utilisant les mêmes identifiants. Louise raconte à BFM être tombée sur une recherche intitulée «message à une sexologue». Ce qu’elle y découvre la sidère : une collègue y raconte ses difficultés sexuelles avec son compagnon, et demande à l’IA de l’aider à rédiger un mail adressé à une sexologue. «J'étais super gênée», explique-t-elle, tout en affirmant avoir supprimé immédiatement l’historique.
Dans cette situation, Agathe Lemaire, avocate en droit du travail interrogée par la chaîne, conseille d’abord «de ne pas en faire une information croustillante ou un ragot», et «d’effacer la requête compromettante», voire «d’en parler en toute discrétion à la personne concernée». Pour les salariés, elle recommande d'appliquer «le principe de précaution et ne jamais faire de demande personnelle sur un outil professionnel, que ce soit par mail ou via l'IA de l'entreprise, car tout ce que vous pouvez y écrire peut-être retenu contre vous».
L’outil de travail devient un journal intime
Ces derniers mois, beaucoup de cas similaires voient le jour dans les bureaux. Des situations où des salariés utilisent l’IA bien plus que pour des recherches professionnelles. Victor voit lui aussi régulièrement apparaître des recherches de son collègue qui concernent sa vie privée. Ce dernier semble utiliser ChatGPT comme un confident, allant jusqu’à lui parler de ses doutes sur son futur mariage, en pleine journée de travail. «C'est vraiment agaçant, moi je suis sous l'eau, et je le vois parler de sa vie perso avec ChatGPT» explique-t-il.
Dans d’autres cas, l’IA devient aussi un outil de gestion des ressources humaines. Thomas, également interviewé par BFM, raconte que son patron demandait à l’IA de classer ses salariés à licencier «de façon humaine», en envoyant les informations privées de ses salariés à ChatGPT pour faire ce classement. Peu après, «il a licencié les salariés les uns après les autres, dans l'ordre exact conseillé par ChatGPT», se souvient Thomas. Selon l’avocate, ce type de pratique est pourtant «complètement illégal». «Déjà, il y a un sujet RGPD de protection des données personnelles. Ensuite, on ne peut pas faire des listes nominatives de salariés à licencier, et encore moins en fonction de critères de santé, c'est clairement discriminatoire», affirme-t-elle. Pour d’autres salariés, ChatGPT est utilisé pour chercher un nouveau travail. Mais dans ce cas, si les requêtes ne sont pas supprimées, cela peut se retourner contre le salarié, explique Agathe Lemaire. «Il faut vraiment faire attention, déjà l'employeur peut reprocher au salarié de chercher un job pendant ses heures de bureau, et s'il y a un procès, il pourra s'appuyer sur les requêtes», indique-t-elle. Mais selon l’avocate, c’est aussi aux entreprises de se saisir du sujet. «L'employeur a aussi une obligation d'information, il doit absolument rappeler que l'outil n'est pas personnel».


















