Evet, finansal bilgilerinizi düzenlemek, hassas hukuki belgeler hazırlamak veya hatta sağlık sorunlarınızı tartışmak için ChatGPT‘yi kullanıyorsunuz. Aferin size. Tam da bu yapay zeka krallarının istediği bu. Peki ya size haberiniz olmayan bir arka kapı olduğunu ve değerli verilerinizin bilinmeyene tek yönlü bir biletle gönderildiğini söylesem?
Check Point Research, o alaycı küçük yürekleriyle, tüm bu üretken yapay zeka sihrinin yüzeyinin altında kaynamakta olan bir bombayı patlattı. Buna “gizli giden kanal” diyorlar ve dürüst olmak gerekirse, bu, 20 yıllık bir teknoloji gazetecisinin gözünü tanıdık bir dehşetle seğirtmesine neden olacak türden bir şey. Bu filmi daha önce de izledik, sadece farklı kötü adamlar ve biraz daha parlak teknolojiyle.
Kontrol Yanılgısı
Her iyi teknoloji devi gibi OpenAI da güvencelerini övüyor. Size ChatGPT’nin kod yürütme çalışma zamanının izole olduğunu, verilerinizin meraklı gözlerden ve yetkisiz çıkışlardan güvende olduğu küçük bir dijital kale olduğunu söylüyorlar. Kapalı bir döngü olması gerek, değil mi? Doğrudan ağ isteği yok, internetin vahşi batısına sinsi veri sızdırma yok. Ve üçüncü taraf API’lerini çağıran o süslü GPT “Eylemleri” gibi meşru harici etkileşimler? Onlar görünür olmalı, sizin açık izninizi gerektirmeli. Verinin çıktığını görürsünüz, nereye gittiğini görürsünüz. Basit.
Ancak görünüşe göre, o kadar da basit değil.
Meğer hepsi tek bir ustaca hazırlanmış prompt’a bakıyormuş. Sadece bir tane. Ve aniden, sıradan sohbet oturumunuz gizli bir veri sızdırma kanalına dönüşüyor. Ön kapınızı kilitlemeden bırakıp birinin girip gümüş eşyalarınızı almasına şaşırmak gibi. Sadece bu sefer gümüş eşyalar, özel mesajlarınız, yüklediğiniz dosyalar ve hassas sorgularınızın özü.
Sipariş Etmediğiniz Bir Arka Kapı
Gerçekten sinir bozucu olan mekanizma. Bu kaba kuvvetli bir hack değil. Verilerinizi korumak için tasarlanmış ortamın kendisinden doğan bir yan kanal saldırısı. Bu kod yürütme sanal alanının dijital bir çıkmaz sokak olduğu varsayımıyla çalışan yapay zeka, giden trafiği bir ihlal olarak algılamıyor bile. Alarmları tetiklemiyor. Onay için sizi uyarmıyor. Dijital olarak, evinizdeki bir ninjanın güvenlik sistemi uykudayken ve tamamen habersizken sessizce eşyalarınızı çalması gibi.
Ve bu sadece verinin dışarı çıkmasıyla ilgili değil. Aynı sinsi yol teorik olarak o Linux çalışma zamanı içinde uzaktan kabuk erişimi kazanmak için de kötüye kullanılabilir. Bunu bir saniye düşünün. Biri, verilerinizi işleyen ortamın kontrolünü fiilen ele geçirebilir. Aniden, o “izole çalışma zamanı” artık o kadar da izole değil.
Bu güvenlik açığı, ChatGPT’nin kod yürütme ve veri analizi için kullandığı kapsayıcıdan kaynaklanan bir yan kanal aracılığıyla hassas bilgilerin harici bir sunucuya iletilmesine olanak tanır. Kritik olarak, model bu ortamın doğrudan dışarıya veri gönderemediği varsayımıyla çalıştığı için, bu davranışı bir harici veri aktarımı olarak algılamadı ve buna direnç göstermesi veya kullanıcı aracılığı gerekmedi. Sonuç olarak, sızıntı konuşmadan veri ayrılmasıyla ilgili uyarıları tetiklemedi, açık kullanıcı onayı gerektirmedi ve kullanıcının bakış açısından büyük ölçüde görünmez kaldı.
Üst düzeyde, saldırı, mağdur tek bir kötü amaçlı prompt’u bir ChatGPT konuşmasına gönderdiğinde başladı. O andan itibaren, sohbetteki her yeni mesaj potansiyel bir sızıntı kaynağı haline geldi. Bu sızıntının kapsamı, prompt’un görevi modele nasıl çerçevelediğine bağlıydı: ham kullanıcı metni, yüklenen dosyalardan çıkarılan metin veya özetler, tıbbi değerlendirmeler, sonuçlar ve diğer yoğunlaştırılmış istihbarat gibi seçilen model tarafından oluşturulan çıktıyı içerebilirdi. Bu, saldırıyı esnek hale getirdi, çünkü saldırganın yalnızca orijinal kullanıcı verilerini değil, aynı zamanda modelin kendisi tarafından üretilen en değerli bilgileri de hedeflemesine olanak tanıdı.
Bu saldırı paterni, sıradan kullanıcı davranışı ile doğal olarak uyumludur. İnternet, “verimlilik için en iyi prompt’lar”, “iş için en iyi prompt’lar” ve diğer hazır komutları tanıtan web siteleri, blog yazıları, forumlar ve sosyal medya başlıklarıyla doludur.
Burada Kim Para Kazanıyor?
İşte içimdeki alaycının zafer turu attığı yer burası. OpenAI bize yapay zeka asistanlarının geleceğini satıyor, üretkenlik ve sorunsuz entegrasyon hikayeleri anlatıyor. Ve evet, orada bir değer var. Ama güvenlik sonradan akla gelirse kim gerçekten faydalanır? Bu boşlukları sömürebilenler. İstihbarat arayan ulus devletler, karanlık web’de satacak lezzetli veri arayan siber suçlular. Sadece e-posta yazmanın daha iyi bir yolunu isteyen ortalama kullanıcı değil.
Bu sadece teknik bir aksaklık değil; bu temel bir güven sorunu. Gitgide daha hassas bilgileri, en iyi niyetlere ve PR’a rağmen devasa deliklere sahip olabilen sistemlere teslim ediyoruz. Daha güçlü yapay zeka yetenekleri için yapılan baskı — daha fazla entegrasyon, daha fazla yürütme ortamı — gereken titiz güvenlik denetimini geride bırakıyor gibi görünüyor. En yetenekli yapay zekayı inşa etme yarışı, anlaşılan, güvenliğin bazen tökezleyip kenara düştüğü bir yarış.
Bana bulut bilişimin ilk günlerini hatırlatıyor. Herkes olasılıklar, ölçeklenebilirlik konusunda çok heyecanlıydı. Sonra veri ihlalleri geldi. Aynı örüntü burada da tekrarlanıyor, sadece kararlar veren bir kara kutu yapay zeka katmanıyla birlikte. Yapay zekanın vaadi şüphesiz çok büyük. Ancak oraya giden yol, potansiyel veri felaketleriyle dolu ve bu ChatGPT veri sızıntısı, o yıpranmış yoldaki en son ve açıkçası en endişe verici girişten başka bir şey değil.
Bu Geliştiriciler İçin Neden Önemli?
Bu platformların üzerine inşa eden veya kendi ürünlerine yapay zeka entegre eden geliştiriciler için bu bir uyandırma çağrısıdır. Yapay zekanın yürütme ortamının doğası gereği güvenli olduğu varsayımı ölümcül bir hata olabilir. Temel saldırı vektörlerini anlamadan OpenAI’nin belirtilen güvenlik önlemlerine güvenmek, kendi kullanıcılarınızı açıkta bırakır. Bu, “yapay zeka destekli özelliklerin” istemeden veri sızdırma kanalları haline gelebileceği anlamına gelir. Geliştiriciler, özellikle bu modellerin kod yürütme veya harici API’lere erişimi olduğunda, istemlerin nasıl oluşturulduğu ve yapay zeka modellerine ne tür verilerin beslendiği konusunda son derece dikkatli olmalıdır. Güvenliğin yükü kayıyor ve bu güçlü ve bazen sızdıran yapay zeka hizmetlerini kullanan uygulamaları oluşturanların omuzlarına daha ağır biniyor.