L’exploitation de l’Intelligence Artificielle par les hackers sur le Dark Web
Les hackers ont de plus en plus recours à l’Intelligence Artificielle (IA) générative pour mener leurs activités criminelles. Une récente enquête menée par Kaspersky sur le Dark Web a révélé que l’utilisation de l’IA, notamment des outils d’IA générative, est devenue courante et préoccupante.
Des milliers de discussions sur l’utilisation illégale de l’IA
Kaspersky Digital Footprint Intelligence, une entreprise russe spécialisée en cybersécurité, a analysé le Dark Web pour identifier les discussions concernant l’utilisation de l’IA par les hackers. Les chercheurs ont découvert des milliers de conversations portant sur l’utilisation illégale et malveillante de l’IA.
En 2023, pas moins de 3 000 discussions ont été recensées, avec un pic en mars. Bien que ces discussions aient tendance à diminuer au fil de l’année, elles restent actives sur le Dark Web.
L’IA au service des cybercriminels
Ces discussions se concentrent principalement sur le développement de logiciels malveillants et l’utilisation illégale de modèles de langage. Les hackers explorent différentes pistes, comme le traitement de données volées et l’analyse de fichiers provenant d’appareils infectés.
Ces échanges démontrent l’intérêt croissant des hackers pour l’IA et leur volonté d’exploiter ses capacités techniques afin de mener des activités criminelles de manière plus efficace.
La vente de comptes ChatGPT volés et de jailbreaks sur le Dark Web
En plus des discussions sur l’utilisation de l’IA, le Dark Web est également un marché prospère pour la vente de comptes ChatGPT volés. Kaspersky a identifié plus de 3 000 annonces de vente de comptes ChatGPT payants.
Les hackers proposent également des services d’enregistrement automatique pour créer massivement des comptes sur demande. Ces services sont distribués sur des canaux sécurisés tels que Telegram.
Par ailleurs, les chercheurs ont constaté une augmentation de la vente de chatbots jailbreakés tels que WormGPT, FraudGPT, XXXGPT, WolfGPT et EvilGPT. Ces versions malveillantes de ChatGPT sont exemptes de limites, non censurées et dotées de fonctionnalités supplémentaires.
Une menace grandissante pour la cybersécurité
L’utilisation de l’IA par les hackers représente une menace croissante pour la cybersécurité. Les modèles de langage peuvent être exploités de manière malveillante, ce qui augmente le nombre potentiel d’attaques cybernétiques.
Il est donc essentiel de renforcer les mesures de cybersécurité pour contrer ces nouvelles formes d’attaques basées sur l’IA. Les experts doivent rester vigilants face à ces évolutions constantes et travailler à l’élaboration de stratégies efficaces pour contrer les cybercriminels.