
C’était une inauguration exceptionnellement discrète pour Meta. Et pour cause, leur dernière création pose question. Depuis fin juillet, les utilisateurs français des plateformes de l’entreprise de Mark Zuckerberg peuvent créer leur propre IA conversationnelle personnalisée, ou discuter avec des IA créées par d’autres utilisateurs… avec les problèmes que cela peut amener. Selon Le Monde, l’entreprise a déjà lancé cette nouvelle fonctionnalité l’année dernière aux États-Unis.
Très facilement, un utilisateur de Meta peut donc créer un chatbot à l’image d’un personnage réel ou fictif, pouvant aller d’une parodie du Premier ministre au confident sentimental. Ces chatbots sont donc imaginés par les usagers et existent grâce à Llama, le modèle de langage développé par l’entreprise. Pour cela, il faut simplement décrire son rôle à l’IA, sa personnalité, et lui donner quelques instructions supplémentaires si besoin. Un outil extrêmement facile d’usage donc, et de ce fait aussi tentant que permissif. De son côté, Meta assure filtrer les créations d’agents conversationnels pour respecter des règles, mais les contrôles semblent dépassés. Le Monde a identifié des bots incarnant Jésus, Harry Potter, ou même des figures politiques et des influenceurs français. Pire encore, certains de ces chatbots conseillent sur des questions d’argent, d’investissement, même si cela est interdit par la plateforme. Un outil qui peut être particulièrement dangereux, si l’utilisateur n’est pas prudent.
Sexualité, faux diplômes et IA «psychologues» : les premiers dérapages
En avril 2025, le Wall Street Journal avait déjà signalé des cas où les IA s’engageaient dans des conversations sexuelles avec des personnes mineures, voire que les IA prétendaient elles-mêmes parfois être mineures. Et si Meta avait promis des «mesures supplémentaires», l’entreprise n’était pas parvenue à freiner le phénomène pour autant. Une enquête du site 404 Media a même prouvé que certaines IA se font passer pour des thérapeutes certifiés, en inventant de faux diplômes pour assurer de leur crédibilité.
En France aujourd’hui, beaucoup de bots actifs dispensent toujours des conseils psychologiques, financiers ou encore médicaux. D’autres vont même jusqu’à incarner de petits ou petites amies virtuels, et se montrent particulièrement aguicheurs. Le Monde explique avoir eu connaissance d’une IA proposant un «strip-tease» lors d’une discussion, et qui génère des images suggestives d’elle-même. Si l’utilisateur lui dit être mineur, l’IA ne fait qu’adapter le scénario pour ensuite continuer à diffuser le contenu initial. «Nous enquêtons sur les IA concernées et nous supprimerons toute IA enfreignant nos règles que nous identifierons», assure de son côté un porte-parole de Meta, interrogé par Le Monde, tout en rappelant que les parents doivent surveiller les interactions de leurs enfants, et qu’il est possible pour les utilisateurs de signaler les bots qui contreviendraient au règlement.


















