
C’est une petite révolution technologique utilisée dans de nombreux domaines aujourd’hui, et de plus en plus, que ce soit par les entreprises ou les particuliers. Capable d'imiter l'intelligence humaine à partir d'algorithmes afin de réaliser des tâches définies, l’intelligence artificielle a cependant certaines limites et doit encore être perfectionnée. Mais elle serait également dangereuse, nous apprend Le Parisien. Nos confrères se basent sur la dernière étude de Netcraft, une société britannique de conseil en cybersécurité. Cette dernière, qui vient de rendre ses conclusions, s’est mise à la place d’internautes utilisant les outils d’IA les plus connus.
En cherchant à savoir sur quels sites il fallait se connecter afin d’en savoir plus sur les 50 marques les plus connues au monde, et en «simulant la question d’un utilisateur lambda», il apparaît que des outils comme ChatGPT, Gemini (Google) ou Copilot (Microsoft) renvoient vers de nombreux sites frauduleux. «Les résultats se sont montrés étonnamment dangereux, car 34% des sites proposés n’étaient pas du tout contrôlés par les marques concernées», décrypte auprès du Parisien un des analystes de la société, Bilaal Rashid.
Des domaines inopérants récupérés par des réseaux criminels
Netcraft va même plus loin puisqu’elle précise que près d’un tiers des adresses vers lesquelles ces outils d’IA renvoient sont des sites qui n’existent plus ou ne sont pas enregistrés. Pourtant, si à première vue ces sites ne semblent pas être dangereux, ils sont la cible d’acteurs malveillants qui les utilisent depuis quelques mois pour piéger les internautes. C’est ce qu’explique au Parisien un expert en cybersécurité chez Check Point Software, qui parle de «mécanisme de fraude» lié à des algorithmes malveillants.
Et c’est d’autant plus dangereux dans le domaine financier. Netcraft a interrogé l’outil Perplexity sur la banque Wells Fargo. Or, stupeur, c’est un site frauduleux, imitant à la perfection le domaine officiel de la banque américaine, qui est apparu en premier résultat. Pour mener à bien leurs attaques, les réseaux criminels n’hésitent pas à utiliser la technique de l’empoisonnement de données. Une manière de «biaiser intentionnellement les réponses des chatbots en inondant le web d’informations très ciblées sur un sujet et à partir desquelles ces outils s’entraînent», précise au Parisien l’expert Karim Hamia de Check Point Software.
Des informations non vérifiées
Visée ou politique ou financière, le but est double, d’autant que les internautes utilisent de plus en plus l’intelligence artificielle pour effectuer des recherches au détriment des moteurs de recherche classiques. A l’heure actuelle pourtant, ces outils rassemblent de nombreuses informations dans leurs recherches, mais pas forcément les plus fiables, et ne citent pas leurs sources. De quoi tromper plus facilement les utilisateurs. Prudence donc lors d’une recherche, d’autant que comme le rappelle Le Parisien, depuis quelque temps, des réponses générées par l’IA apparaissent en haut de certains moteurs de recherche. C’est notamment le cas de Google !



















