Geçen hafta Anthropic’in Claude Code Security duyurusu çıkar çıkmaz siber güvenlik hisselerinde sert bir düşüş yaşandı. Bir AI modeli, yıllardır kullanılan açık kaynak kodlarda yüzlerce zafiyet bulabildiğini iddia ediyor. Bu yazılım güvenliğinde hız ve ölçeğin kurallarını değiştiren bir gelişme. Ama artık yeni bir sorumuz olmalı. Yazılımlardaki güvenlik açıklarını AI bulacak. Aynı yapı, AI sistemlerinizdeki zafiyetleri de bulabilecek mi? AI’ın kendisi yeni bir siber güvenlik alanı olarak açılıyor.
Yazılım güvenliği, siber güvenliğin tek boyutu değil. Bir kuruluşun riski sadece kod hatalarından doğmaz. Kimlik ve erişim yönetimi, bulut yapılandırmaları, sır yönetimi, tedarik zinciri, izleme ve müdahale kabiliyeti, sosyal mühendislik gibi pek çok katmanın her biri güvenlik için belirleyici. Aslında yaşadığımız sarsıntı, sadece kod taramanın güçlenmesinden öte, bu katmanların her birinde AI’ın yeni bir arayüz ve yeni imkanlar olarak eklenmesiyle ilgili.

AI, şirketlerin içinde veri tabanlarına sorgu atan, dahili dokümanlara erişen, bilet açan, yapılandırma değiştiren, güvenlik aracı gibi davranan ajanlara dönüşüyor. Bilgi çekiyor, araçları kullanarak eyleme geçiyor, otonom akışlarla kararları uygulamaya yaklaştırıyor. Ancak yaşanan bu dönüşüm AI’ı kendisini yeni bir saldırı yüzeyi haline getiriyor ve bu yüzey, klasik uygulama güvenliğinin refleksleriyle otomatik olarak korunabilecek gibi değil.
İlk konuştuğumuz örnekler “prompt injection” üzerine. Kullanıcı gibi görünen bir girdi, arka plandaki araca yetkisiz bir sorgu koşturuyor. Güvenlik aracı olması gereken sistem, yanlış talimatı doğru bir iş gibi çalıştırıyor. Ya da Retrieval-Augmented Generation/erişim destekli üretim hattı, ajanınızın koruması gereken hassas veriyi yanlış bağlamla dışarı taşıyor. Erişim kontrolü zayıf bağlayıcılar, aşırı geniş izinler ve yetersiz kayıt tutma birleştiğinde, sızıntı bir hata gibi görünse de aslında kurulan AI sisteminin doğal bir sonucu oluyor. Daha kötüsü, ajanlar iş yapmak için ayrıcalık biriktirdikçe, ayrıcalık yükseltme saldırıları için yeni bir rota aşabilir. Saldırganların hedefi artık uygulamanın kendisi kadar, uygulama üzerinden yetki kullanan AI katmanı.
Bugün artık pek çok büyük kurum ve kuruluş web uygulamasını bir sızma testi/pentest yapmadan canlıya almıyor. Ama aynı yapılar, sorgu çalıştırabilen ve dahili belge okuyabilen AI sistemini yeterli testler yapılmadan devreye sokabiliyor. Çünkü kontroller modelin ürettiği çıktıya odaklanıyor. Oysa risk, artık modelin bağlandığı sistemlerde, izinlerde, araçlarda, loglarda ve otomasyon akışlarında yayılıyor.
AI, uygulama güvenliğini dönüştürecek. Ama AI’ın kendisi bizzat güvenliğin yeni cephesi. Bir sonraki büyük kayıp, kimsenin test etmediği AI zafiyetlerinden veya kontrol edilmeyen AI tarafından alınmış kararların beklenmedik sonuçlarından gelecek.
No responses yet