Margaret Mitchell travaillait chez Google depuis deux ans lorsqu'elle a réalisé qu'elle avait besoin de faire une pause. "J'ai commencé à avoir des crises de panique de manière régulière", confie celle qui a fondé et co-dirigé l'équipe intelligence artificielle (IA) éthique au sein de l'entreprise technologique. "C'est quelque chose que je n'avais jamais vécu auparavant". Ce n'est qu'après avoir parlé à un thérapeute qu'elle a compris le problème : elle avait fait un burn-out. On a fini par lui prescrire un arrêt maladie à cause de son stress.

Margaret Mitchell, qui travaille désormais en tant que chercheuse en IA et responsable de l'éthique au sein de la start-up Hugging Face, est loin d'être un cas isolé. L'épuisement professionnel est de plus en plus fréquent dans les équipes d'IA responsable, affirme Abhishek Gupta, fondateur de l'Institut d'éthique de l'IA de Montréal et consultant en IA responsable au Boston Consulting Group.

Meta a été poursuivi en justice

Les entreprises subissent une pression croissante de la part des régulateurs et des activistes pour s'assurer que leurs produits d'intelligence artificielle soient développés de manière à atténuer tout préjudice potentiel avant même qu'ils soient mis sur le marché. En réponse, elles ont investi dans des équipes qui évaluent comment nos vies, nos sociétés et nos systèmes politiques sont impactés par la façon dont ces systèmes sont conçus, développés et déployés.

Les entreprises technologiques comme Meta, par exemple, ont été poursuivies en justice et ont été contraintes de verser des dommages et intérêts ainsi que de fournir un suivi plus appuyé en matière de santé mentale à certains de leurs employés. Il s'agit notamment des modérateurs de contenu qui doivent passer au crible des contenus explicites et violents qui peuvent être traumatisants.

Cependant, les équipes qui travaillent sur l'IA responsable sont souvent livrées à elles-mêmes, et ce même si ce travail peut être tout aussi épuisant psychologiquement que la modération de contenu. C'est ce qu'indiquent des employés à la MIT Technology Review. En fin de compte, les membres de ces équipes peuvent se sentir sous-estimés et cela peut affecter leur santé mentale voire mener au burn-out.

"Une situation désespérée"

Rumman Chowdhury, qui dirige l'équipe d'éthique, de transparence et de responsabilité de machine learning au sein de Twitter et qui est un pionnier de l'éthique appliquée à l'IA, a été confronté à ce problème dans une vie antérieure.

"À un moment donné, j'ai fait un burn-out qui a été très violent. Et [la situation] m'a semblé désespérée", révèle-t-elle.

La suite est réservée aux abonnés
Abonnez-vous à Capital à partir de 1€ le premier mois
  • Accès à tous les articles réservés aux abonnés, sur le site et l'appli
  • Le magazine en version numérique
  • Navigation sans publicité
  • Sans engagement