Son zamanlarda yapay zeka destekli uygulamaların kullanıcı verilerini sızdırdığına dair haberler epey gündemde. Hatta geçtiğimiz günlerde X’in yapay zeka dil motorunu geliştirmek üzere kullanıcı verileri işlediğine ilişkin eleştirilerden de ilgili yazımızda bahsetmiştik.
Bugünün veri sızdırmaya yönelik eleştirisi de Microsoft’un yapay zeka platformu olan Copilot Studio’ya geldi. Şimdilerde Copilot, sunucu tarafı istek sahteciliği (SSRF) isimli bir güvenlik açığıyla eleştiriliyor. Gelin bu eleştiri oklarına birlikte bakalım.
Microsoft Copilot Studio Hassas Verileri Sızdırıyor mu?
DarkReading’te yayımlanan blog yazısına göre sistem, önemli bir güvenlik açığıyla eleştiriliyor. Söz konusu güvenlik açığı, bulut ortamında yer alan hassas verilerin sızdırılma ihtimaline ilişkin adımlarla lanse ediliyor. Yapay zeka platformu, kullanıcıların doğal dil ve grafik arayüzleriyle asistan oluşturabilmesini sağlıyor. Aynı şekilde özelleştirilmiş komutlarla kullanıcıların tasarımlar yapabilmesi için özel çözümler sunuyor.
Her ne kadar kullanıcı için ufuk açıcı özellikler sunsa da Microsoft, Tenable’nin eleştiri oklarına tutuldu. Eleştirilerde söz sahibi olan araştırmacılar sistemin güvenlik açığını kullanarak Microsoft’un bulut altyapısındaki hizmetlerde özel kullanıcı bilgilerine ulaşabildiler.
Bu verilerde Microsoft’a özel veritabanı örnekleri ya da hizmetlere ilişkin pek çok detay yer alıyor. İlgili saldırılar, Microsoft Copilot Studio’nun SSRF gibi pek çok koruma altyapısını atlayarak hassas bilgilere ulaşılabileceğini gösteriyor.
Veri işlemeye yönelik eleştiri oklarıyla gündeme gelen Microsoft’un bu konuda atacağı adımlar merakla bekleniyor. Özellikle ilgili güvenlik açığına özel geliştireceği sistemleri de dört gözle bekliyoruz. Siz bu konuda neler düşünüyorsunuz? Yorumlarda buluşalım.