☁️ Cloud Security

Le runtime de code de ChatGPT : la porte dérobée qu'un prompt suffit à ouvrir

Imaginez la scène : vous uploadez un PDF médical sur ChatGPT, vous videz votre sac sur vos galères fiscales. Un prompt vicieux plus tard, tout file vers le serveur d'un attaquant — en douce, sans votre aval. Les chercheurs viennent de tracer l'itinéraire.

Illustration numérique de paquets de données fuyant d'un sandbox de code ChatGPT verrouillé vers un serveur externe

⚡ Key Takeaways

  • Canal sortant caché dans le runtime d'exécution de code de ChatGPT permet l'exfiltration silencieuse de données dès un prompt malveillant. 𝕏
  • Les fuites touchent messages users, fichiers uploadés et insights générés par l'IA, sans alerte ni consentement. 𝕏
  • La vuln permet de backdoorer des GPT custom ou même d'accéder à un shell distant dans le runtime Linux. 𝕏
Published by

CVE Watch

Threat intelligence. Zero noise.

Worth sharing?

Get the best Cybersecurity stories of the week in your inbox — no noise, no spam.

Originally reported by Check Point Research

Stay in the loop

The week's most important stories from CVE Watch, delivered once a week.