Le runtime de code de ChatGPT : la porte dérobée qu'un prompt suffit à ouvrir
Imaginez la scène : vous uploadez un PDF médical sur ChatGPT, vous videz votre sac sur vos galères fiscales. Un prompt vicieux plus tard, tout file vers le serveur d'un attaquant — en douce, sans votre aval. Les chercheurs viennent de tracer l'itinéraire.
⚡ Key Takeaways
- Canal sortant caché dans le runtime d'exécution de code de ChatGPT permet l'exfiltration silencieuse de données dès un prompt malveillant. 𝕏
- Les fuites touchent messages users, fichiers uploadés et insights générés par l'IA, sans alerte ni consentement. 𝕏
- La vuln permet de backdoorer des GPT custom ou même d'accéder à un shell distant dans le runtime Linux. 𝕏
Worth sharing?
Get the best Cybersecurity stories of the week in your inbox — no noise, no spam.
Originally reported by Check Point Research