Les systèmes d'intelligence artificielle (IA) sont omniprésents et ils fonctionnent en permanence mais il faut parfois des mois, voire des années, avant de comprendre en quoi ils sont biaisés et discriminants. Pourtant, les enjeux sont souvent élevés : Les systèmes d'IA déloyaux peuvent mener à l'arrestation de personnes innocentes et priver des gens d'un accès à un logement, d'un emploi ou de services élémentaires.

Ce jeudi 20 octobre 2022, un groupe d'experts en IA et en apprentissage automatique a lancé nouveau concours avec un système de primes qui, espèrent-ils, accélérera le processus de découverte des préjugés et erreurs intégrés à l'intérieur de ces systèmes. Le concours, qui s'inspire des primes aux bugs dans le domaine de la cybersécurité, invite les participants à créer des outils permettant d'identifier et d'atténuer les biais algorithmiques des modèles d'IA.

La suite est réservée aux abonnés
Offre spéciale -30% avec le code HIVER26
  • Accès à tous nos articles pour comprendre l’économie
  • Des conseils pratiques et solutions concrètes pour gérer vos finances
  • Lecture immersive, publicité limitée
  • Sans engagement