Les grandes modèles de langage sont l'un des dossiers les plus brûlants du moment sur la table des chercheurs en intelligence artificielle (IA). Des entreprises accélèrent leurs démarches pour mettre en route des programmes comme GPT-3, capables d'écrire des articles et même du code informatique de manière cohérente. Toutefois, selon une équipe de prévisionnistes de l'IA, un problème se profile à l'horizon : nous pourrions manquer de données pour les entraîner.

Les modèles de langage sont formés à partir de textes provenant de sources telles que Wikipédia, des articles publiés sur des sites d'information, des documents scientifiques ainsi que des livres. Ces dernières années, la tendance a été d'entraîner ces modèles sur de plus en plus de données dans l'espoir de les rendre plus précis et plus polyvalents.

La suite est réservée aux abonnés
Offre spéciale -30% avec le code HIVER26
  • Accès à tous nos articles pour comprendre l’économie
  • Des conseils pratiques et solutions concrètes pour gérer vos finances
  • Lecture immersive, publicité limitée
  • Sans engagement