Les grands modèles de langage (LLM) ont un secret bien gardé : leur développement et leur fonctionnement nécessitent de grandes quantités d'énergie. En outre, l'ampleur réelle de l'empreinte carbone de ces modèles reste un mystère. La start-up Hugging Face pense avoir trouvé un moyen de calculer cette empreinte avec plus de précision en estimant les émissions produites pendant l'ensemble du cycle de vie du modèle et non plus seulement pendant leur développement.

Cette tentative pourrait constituer une avancée vers l'obtention de données plus réalistes de la part des entreprises technologiques concernant l'empreinte carbone de leurs produits d'intelligence artificielle (IA) à un moment où les experts appellent le secteur à mieux évaluer l'impact environnemental de l'IA. Les travaux de Hugging Face sont publiés dans un article qui n'a pas encore été révisé par des pairs.

Afin de tester sa nouvelle approche, Hugging Face a évalué les émissions globales de son propre modèle de langage baptisé BLOOM. Ce dernier a été lancé au début de l'année. Ce processus a nécessité l'addition de nombreux chiffres : la quantité d'énergie utilisée pour former le modèle sur un superordinateur, l'énergie nécessaire à la fabrication du matériel du superordinateur et à la maintenance de son infrastructure informatique ainsi que l'énergie utilisée pour faire fonctionner BLOOM une fois qu'il a été déployé. Les chercheurs ont calculé cette dernière partie à l'aide d'un outil logiciel appelé CodeCarbon. Celui-ci a surveillé les émissions de carbone produites par BLOOM en temps réel sur une période de 18 jours.

La suite est réservée aux abonnés
Abonnez-vous à Capital à partir de 1€ le premier mois
  • Accès à tous les articles réservés aux abonnés, sur le site et l'appli
  • Le magazine en version numérique
  • Navigation sans publicité
  • Sans engagement