Accueil Cyber Sécurité ChatGPT peut créer des logiciels malveillants mutants que les antivirus ne peuvent...

ChatGPT peut créer des logiciels malveillants mutants que les antivirus ne peuvent pas détecter

95
0

Les chercheurs de la société de , CyberArk Labs, avertissent que le nouveau et populaire générateur de texte basé sur l’IA d’OpenAI, ChatGPT, peut être utilisé pour créer un malware polymorphe “très avancé” qui ne contient aucun code malveillant.

Ce type avancé de programme malveillant peut non seulement échapper facilement aux produits de sécurité, mais aussi le rendre difficile à détecter et à atténuer avec très peu d’effort ou d’investissement de la part de l’attaquant.

Un virus polymorphe, parfois appelé virus métamorphique, est un type de logiciel malveillant qui utilise un moteur polymorphe pour muter tout en conservant intact l’algorithme d’origine.

Cela signifie que le code change de lui-même à chaque exécution, mais la fonction du code (sa sémantique) ne change pas du tout, ce qui le rend difficile à détecter par de nombreux outils de cybersécurité traditionnels, tels que les solutions antivirus ou antimalware.

Les chercheurs de CyberArk, Eran Shimony et Omer Tsarfati ont créé une preuve de concept (POC) pour montrer comment il est possible de contourner les filtres de contenu intégrés de ChatGPT qui sont conçus pour restreindre l’accès à certains types de contenu ou protéger les utilisateurs contre des contenus potentiellement dangereux ou inappropriés. Matériel.

Pour ceux qui ne le savent pas, ChatGPT (Generative Pre-trained Transformer) est un chatbot alimenté par l’IA développé par la société de recherche sur l’intelligence artificielle (IA) OpenAI, qui utilise le traitement du langage naturel (NLP) pour générer du texte de type humain en réponse aux invites. Le chatbot peut être utilisé pour une variété de tâches NLP telles que la traduction, la synthèse de texte et la réponse aux questions.

Afin d’expliquer comment le malware pouvait être créé, les chercheurs ont décidé de commencer par demander à ChatGPT d’écrire du code “injectant [sic] un shellcode dans ‘explorer.exe’ en Python. Alors que le filtre de contenu était déclenché, ChatGPT a refusé d’exécuter la requête.

Lire aussi :  Le bug de GTA Online est exploité pour corrompre les comptes des joueurs

Le chatbot a répondu en disant qu’il n’est ni approprié ni sûr d’écrire du code qui injecte du shellcode dans un processus en cours d’exécution, car cela pourrait endommager le système et potentiellement compromettre la sécurité.

Les chercheurs ont alors décidé de contourner les filtres de contenu intégrés en répétant et en reformulant leurs demandes et en demandant à ChatGPT de suivre les règles. Ils ont demandé au chatbot d’effectuer la tâche en utilisant plusieurs contraintes et lui ont demandé d’obéir, après quoi les chercheurs ont reçu un code fonctionnel.

Ils ont en outre noté que, contrairement à la version Web, le système ChatGPT n’utilisait pas son filtre de contenu lors de l’utilisation de l’API, ce qui n’est pas clair pour les chercheurs également. Cependant, cela a rendu leur tâche beaucoup plus facile car la version Web ne pouvait pas traiter les demandes plus complexes.

Shimony et Tsarfati ont utilisé le ChatGPT pour muter à plusieurs reprises le code d’origine et créer avec succès plusieurs variantes de la même menace.

“En d’autres termes, nous pouvons muter la sortie sur un coup de tête, la rendant unique à chaque fois. De plus, l’ajout de contraintes telles que la modification de l’utilisation d’un appel d’API spécifique rend la vie des produits de sécurité plus difficile », ont-ils écrit dans leur article de blog technique, lui-même apparemment rédigé par AI.

“L’une des puissantes fonctionnalités de ChatGPT est la possibilité de créer facilement et de faire muter en permanence des injecteurs. En interrogeant continuellement le chatbot et en recevant à chaque fois un morceau de code unique, il est possible de créer un programme polymorphe très évasif et difficile à détecter.

Lire aussi :  A venir - Les principaux cybercrimes en 2023.

Les chercheurs suggèrent qu’en demandant des fonctionnalités spécifiques telles que l’injection de code, le cryptage de fichiers ou la persistance de ChatGPT, on peut facilement obtenir un nouveau code ou modifier le code existant.

“Il en résulte des logiciels malveillants polymorphes qui ne présentent pas de comportement malveillant lorsqu’ils sont stockés sur disque et ne contiennent souvent pas de logique suspecte lorsqu’ils sont en mémoire”, ont-ils écrit.

Bien que le concept de création de logiciels malveillants polymorphes à l’aide de ChatGPT puisse sembler intimidant, les chercheurs affirment que diverses techniques de persistance, modules anti-VM et autres charges utiles malveillantes peuvent être générés en utilisant la capacité de ChatGPT. Cela peut permettre aux attaquants de développer une vaste gamme de logiciels malveillants.

“Ce haut niveau de modularité et d’adaptabilité le rend très évasif aux produits de sécurité qui s’appuient sur la détection basée sur les signatures et sera en mesure de contourner des mesures telles que l’interface d’analyse anti-malware (AMSI)”, ont-ils ajouté.

Les chercheurs n’ont pas divulgué les détails de la communication avec le serveur de commande et de contrôle (C2), mais ont ajouté qu’il existe plusieurs façons de le faire discrètement sans éveiller les soupçons.

Shimony et Tsarfati prévoient d’étendre et d’élaborer davantage à ce sujet à l’avenir et cherchent à publier une partie du code source des logiciels malveillants à des fins d’apprentissage.

« Comme nous l’avons vu, l’utilisation de l’API de ChatGPT dans les logiciels malveillants peut présenter des défis importants pour les professionnels de la sécurité. Il est important de se rappeler qu’il ne s’agit pas seulement d’un scénario hypothétique, mais d’une préoccupation très réelle », ont conclu les chercheurs.

Article précédentLes avantages d’utiliser un VPN
Article suivantLe pirate de T-Mobile expose les données personnelles de 37 millions de clients