Les bots ainsi détournés utilisent l’API d’OpenAI pour permettre la création d’e-mails ou de codes malveillants. Les éditeurs de bots autorisent actuellement jusqu’à 20 demandes gratuites, mais facturent ensuite 5,50 dollars par série de 100 demandes. CPR met en garde contre les tentatives continues des cybercriminels de contourner les restrictions de ChatGPT pour pouvoir utiliser OpenAI à des fins malveillantes.
CPR partage des exemples de publicités de bots Telegram
CPR partage l’exemple d’un e-mail de phishing créé dans un bots Telegram sans aucune limitation.
CPR partage un exemple de code malware créé dans un bots Telegram sans aucune limitation
Dans le cadre de sa politique de contenu, OpenAI a créé des barrières et des restrictions pour bloquer la création de contenu malveillant sur sa plate-forme au fur et à mesure de son utilisation en version beta. Ces restrictions désormais en place au sein de l’interface utilisateur de ChatGPT empêchent l’utilisation abusive des modèles. Par exemple, si vous demandez à ChatGPT d’écrire un e-mail de phishing pour se faire passer pour une banque ou de créer un malware, il ne le fera plus. Check Point Research (CPR) constate en effet l’existence de discussions actives sur les forums clandestins expliquant comment utiliser l’API OpenAI pour contourner les barrières et les limitations de ChatGPT. La plupart du temps, cela se fait en mettant en place des bots ou scripts Telegram qui utilisent l’API. Ce sont ces bots qui font l’objet d’une publicité sur les forums de piratage pour plus de visibilité.
En effet, CPR a trouvé des messages publicitaires de bots Telegram sur des forums illégaux. Les bots utilisent l’API d’OpenAI pour permettre la création d’e-mails ou de codes malveillants. Les fabricants de bots autorisent actuellement jusqu’à 20 demandes gratuites, mais facturent ensuite 5,50 dollars par série de 100 demandes.
Citation : Sergey Shykevich, Responsable du groupe Threat chez Check Point Software : « Dans le cadre de sa politique de contenu, OpenAI a créé des barrières et des restrictions pour bloquer la création de contenu malveillant sur sa plate-forme. Cependant, nous constatons que les cybercriminels parviennent à contourner les restrictions de ChatGPT, et des discussions actives sur les forums clandestins expliquent comment utiliser l’API OpenAI pour contourner les barrières et les restrictions de ChatGPT. Pour y parvenir, il suffit de créer des bots Telegram qui utilisent l’API. Ces bots sont ensuite diffusés sur les forums de piratage pour être plus visibles. La version actuelle de l’API d’OpenAI est utilisée par des applications externes et possède très peu de dispositifs anti-abus. Cela permet donc de créer du contenu malveillant, comme des e-mails de phishing et du code de malware, sans les limitations ou les barrières que ChatGPT a fixées sur son interface utilisateur. À l’heure actuelle, on observe une volonté constante des cybercriminels de trouver des moyens de contourner les restrictions de ChatGPT. »
Scripts pour contourner les restrictions de ChatGPT.
CPR constate également que les cybercriminels créent des scripts de base qui utilisent l’API d’OpenAIs pour contourner les restrictions anti-abus.