FraudGPT, WormGPT : la version malveillante du ChatGPT est déjà là
Il semble qu'un outil suspectément inspiré par ChatGPT a été identifié comme une source potentielle de création de contenu nuisible. Cet outil fait surface dans les discussions sur des plateformes de pirates informatiques, donnant une indicatio pour son utilisation préférée: les attaques de hameçonnage.

Les chatbots malveillants émergent
Les chatbots ont trouvé leur chemin dans le dark web et le marché noir, ajoute un niveau inquiétant aux applications de cette technologie. Deux rapports de recherches publiés récemment par Neten Rich et Slash Next, des entreprises spécialisées en cybersécurité, ont mis en lumière deux nouveaux chatbots frauduleux: FraudGPT et WormGPT, spécifiquement sur les forums des pirates informatiques. Ces outils semblent offrir des capacités similaires à ChatGPT, un outil de génération de discours, mais sans se conformer aux considérations légales et éthiques.
Une identité douteuse en arrière-plan
Il semble qu'il y a une possibilité que WormGPT et FraudGPT pourraient être le même outil, proposé par un seul et unique acteur néfaste, l'auteur qui se cache derrière le pseudo de 'CanadianKingpin' sur les forums de hackers.
FraudeGPT: un outil à la portée des pirates
Il est intéressant de noter que, même si les restrictions mises en place par OpenAI peuvent être contournées assez aisément, ce clone malveillant offre une totale liberté à ses utilisateurs. En détails, FraudGPT a une large gamme de services, dont la capacité de rédiger des messages de hameçonnage, de construire des codes malveillants, de générer des malwares, d'effectuer des recherches sur le marché noir, de déceler des vtitdres vulnérabilités, de trouver des fuites sécuritaires et même de fournir des guides de piratage. FraudGPT est disponible à l'achat, avec des prix commençant à 200 dollars par mois, atteignant 1 700 dollars pour une souscription annuelle.
Détournement de la recherche en intelligence artificielle
Cette utilisation détournée de ChatGPT a été rendue possible grâce à l'ouverture des travaux de recherches en intelligence artificielle. Malgré les bonnes intentions des chercheurs d'OpenAI, cette démarche a également ouvert une porte aux cybercriminels pour explorer ces programmes. Entre autres, Ilya Sutskever, l'un des co-fondateurs d'OpenAI, a déclaré à The Verge: "C'est une mauvaise idée...Je m'attends à ce que, dans quelques années, il devienne évident pour tout le monde qu'il n'est pas judicieux de mettre l'IA en libre accès". OpenAI s'est ainsi vu contrainte de limiter l'accès à ses recherches pour se prémunir contre ces abus.
Plus d'articles à lire
La fameuse IA ChatGPT s'infiltre dans le logiciel le plus po...
Le 3 novembre 2023
Microsoft lance un générateur d’images IA gratuit : verdict ...
Le 3 novembre 2023
L'Est Républicain suspend son projet audacieux d'intelligenc...
Le 2 novembre 2023
Newsletter
Recevez les prochains articles par email
1 email / semaine maximum, aucun spamou abonnez-vous sur Google Actualités
Partager :