Cette phrase a été écrite par une intelligence artificielle (IA). Vraiment ? Le nouveau chatbot (ou agent conversationnel) d'OpenAI, baptisé ChatGPT, nous met face à une problématique : comment savoir si ce que nous lisons sur Internet a été écrit par un humain ou par une machine ?

Depuis sa sortie publique fin novembre, ChatGPT a été utilisé par plus d'un million de personnes. La communauté de l'IA s'est enthousiasmée pour ce nouvel outil et il est évident que, de nos jours, on retrouve de plus en plus de textes sur la toile qui ont été générés par l'IA. Les gens s'en servent pour inventer des blagues, écrire des histoires pour enfants et rédiger de meilleurs e-mails.

ChatGPT est un dérivé de GPT-3, le grand modèle de langage d'OpenAI, qui génère des réponses, dans un langage quasi-identique à celui d'un humain, aux questions qui lui sont posées. La magie - et le danger - de ces grands modèles de langage réside dans l'illusion d'exactitude qu'ils donnent. Les phrases qu'ils produisent semblent correctes avec le bon type de mots placés dans le bon ordre. Toutefois, l'IA ne sait pas ce que cela signifie. Ces modèles fonctionnent en prédisant le mot suivant le plus probable d'être utilisé dans une phrase. Ils n'ont pas la moindre idée de ce qui est correct ou faux. Pourtant, ils présentent leurs réponses, avec assurance, comme des vérités absolues, et ce, même quand ce n'est pas le cas.

Dans un monde numérique déjà polarisé et politiquement tendu, ces outils d'intelligence artificielle pourraient amplifier ce phénomène en déformant encore plus les informations que nous consommons. S'ils sont déployés dans le monde réel, à travers des produits physiques, les conséquences pourraient être dévastatrices.

La suite est réservée aux abonnés
Abonnez-vous à Capital à partir de 1€ le premier mois
  • Accès à tous les articles réservés aux abonnés, sur le site et l'appli
  • Le magazine en version numérique
  • Navigation sans publicité
  • Sans engagement