Les hackers utilisent ChatGPT pour diffuser des logiciels malveillants sur Facebook, Instagram et WhatsApp

Des hackers utilisent ChatGPT pour propager des malwares sur Facebook, Instagram et WhatsApp. Les craintes sont de plus en plus grandes quant à l’avenir des chatbots à intelligence artificielle générative, comme ChatGPT, qui pourraient être utilisés pour écrire des malwares. Cependant, le problème principal est actuellement la popularité de ChatGPT. Les fraudeurs ont de plus en plus tendance à imiter des sites web et des applications ChatGPT pour voler des informations à des victimes inconscientes.
Des chercheurs de Meta, la société mère de Facebook, ont averti que des groupes malveillants, tels que Ducktail et NodeStealer, se font maintenant passer pour ChatGPT et d’autres outils similaires, ciblant les gens par le biais d’extensions de navigateur malveillantes, d’annonces, et même de différentes plateformes de médias sociaux pour lancer des publicités non autorisées à partir de comptes professionnels compromis sur Internet.
Meta a détecté et perturbé ces opérations de malwares, y compris des familles de malwares non signalées auparavant. L’entreprise a déjà constaté une adaptation rapide des adversaires en réponse à sa détection.
Depuis mars, Meta a identifié environ dix familles de malwares utilisant ChatGPT et d’autres thèmes similaires pour compromettre des comptes sur Internet. Le groupe de malwares basé au Vietnam, Ducktail, utilise ChatGPT pour voler des cookies de navigateur et accéder aux informations du compte de Facebook de la victime, notamment les informations de compte, les données de localisation et les codes d’authentification à deux facteurs.
En janvier, les chercheurs de Facebook ont découvert le malware NodeStealer, qui permet aux acteurs de la menace de voler des cookies de navigateur pour pirater des comptes sur la plateforme de médias sociaux, ainsi que des comptes Gmail et Outlook.
Les chercheurs de Meta ont déclaré qu’ils n’ont observé aucun nouvel échantillon de malware dans la famille NodeStealer depuis le 27 février de cette année, mais continuent à surveiller toute activité potentielle à l’avenir.
Les chercheurs de la firme de cybersécurité Blackfog avaient également averti de la menace que représentait ChatGPT, y compris de sa capacité à développer du code pouvant être utilisé à des fins malveillantes.
Darren Williams, PDG et fondateur de BlackFog, a expliqué que les outils de l’IA générative, comme ChatGPT, peuvent être utilisés efficacement pour l’exfiltration de données, notamment pour écrire le logiciel réel pour le faire. Il a également averti que les menaces de ChatGPT sont susceptibles d’augmenter, et que les efforts de cybersécurité devront donc suivre cette technologie émergente.
Les approches de défense traditionnelles, de détection et de réponse des terminaux, et les outils antivirus se sont révélés très inefficaces contre ces variantes modernes de ransomwares. Williams a ajouté que la seule véritable façon de garantir la protection de ses données est de se concentrer sur les nouvelles technologies pour empêcher l’exfiltration de données en premier lieu.