
Vos conversations avec ChatGPT sont-elles réellement privées ? La question revient régulièrement alors que des millions d’utilisateurs confient chaque jour à l’intelligence artificielle des informations personnelles, professionnelles ou parfois très intimes. Or, dans un récent billet de blog consacré à la sécurité, OpenAI a levé le voile sur ses pratiques, en reconnaissant que les discussions avec son outil d’IA sont analysées et, dans certains cas jugés à risque, signalées. Dans ce document intitulé «Notre engagement pour la sécurité communautaire», l’entreprise américaine explique que ses systèmes surveillent les échanges afin de détecter d’éventuels comportements dangereux, notamment liés aux violences, aux menaces ou aux risques suicidaires.
Concrètement, les échanges avec ChatGPT sont analysés par des outils automatiques capables de repérer des signaux jugés préoccupants. Comme l’a expliqué le journaliste Anthony Morel sur BFM Business ce mardi 12 mai, cette analyse ne se limite pas à une simple question isolée : elle prend aussi en compte la répétition de certains mots-clés, le contexte global des échanges et la récurrence de comportements jugés sensibles.
Une frontière sensible entre sécurité et vie privée
Lorsqu’un risque potentiel est détecté, une intervention humaine peut être déclenchée. Des modérateurs chargés de la sécurité examinent la conversation afin d’évaluer la situation plus précisément. Dans certains cas extrêmes, les informations peuvent être transmises aux forces de l’ordre. Comme l’illustre un exemple récent en France, un homme a été interpellé à Strasbourg après avoir demandé à l’IA des conseils pour tuer un agent du renseignement. L’affaire avait conduit à l’intervention du RAID.
Cette surveillance soulève toutefois des interrogations sur la protection de la vie privée. De nombreux utilisateurs utilisent aujourd’hui ChatGPT comme un confident, un coach personnel ou parfois même un soutien psychologique. Certains échanges peuvent ainsi contenir des informations extrêmement sensibles. Pour OpenAI, cette politique vise avant tout à limiter les usages criminels de ses outils et à réduire les risques juridiques.
La question est devenue encore plus sensible après plusieurs affaires impliquant l’usage d’intelligences artificielles avant des passages à l’acte violents. Au Canada notamment, une tuerie ayant fait neuf morts en février dernier avait suscité une vive polémique après la révélation que des échanges avec ChatGPT avaient eu lieu en amont. Le patron d’OpenAI, Sam Altman, avait alors publiquement présenté ses excuses alors que certaines familles de victimes avaient engagé des poursuites judiciaires contre l’entreprise.









