Otonom Yapay Zekâ Saldırıları ve Siber Güvenliğin Geleceği

AI ajanları saldırı zincirinin kilit bölümlerini otomatikleştiriyor; yeni AI destekli siber savunma modelleri ortaya çıkmazsa teraziyi tamamen saldırganların lehine çevirebilir.
Parlak bir robot el klavye üzerinde. Üretken yapay zekâ. Sohbet robotu. Görsel kredisi: kung_tom / Shutterstock
AI ajanları artık bilgisayarları hackliyor. Siber saldırıların tüm aşamalarında, çoğumuzun beklediğinden daha hızlı şekilde gelişiyorlar. Bir siber operasyonun farklı bileşenlerini zincirleyebiliyor, bilgisayar hızında ve ölçekte otonom şekilde saldırı gerçekleştirebiliyorlar. Bu her şeyi değiştirecek.
Yaz aylarında, hackerlar bunu kanıtladı, sektör bunu kurumlaştırdı ve suçlular operasyonelleştirdi. Haziran’da AI şirketi XBOW, sadece birkaç ayda 1.000’den fazla yeni zafiyet bildirerek HackerOne’ın ABD liderlik tablosunda zirveye oturdu. Ağustos’ta DARPA’nın AI Cyber Challenge yarışmasına katılan yedi ekip, hedef sistemde dört saatlik (hesaplama süresi) içinde toplam 54 yeni zafiyet buldu. Yine Ağustos’ta Google, “Big Sleep” AI’ının açık kaynak projelerde onlarca yeni zafiyet tespit ettiğini duyurdu.
Daha da kötüsü var. Temmuz’da Ukrayna CERT, bir Rus kötü amaçlı yazılımının siber saldırı sürecini otomatikleştirmek için bir LLM kullandığını keşfetti; zararlı, sistem keşfi ve veri hırsızlığı komutlarını gerçek zamanlı üretiyordu. Ağustos’ta Anthropic, modelini (Claude) kullanarak tüm saldırı sürecini otomatikleştiren bir tehdit aktörünü engellediğini bildirdi. AI; ağ keşfi yaptı, ağlara sızdı, kurbanların kimlik bilgilerini hasat etti. Hangi verilerin çalınacağına, kurbanlardan ne kadar para koparılabileceğine ve şantaj e-postalarının nasıl yazılacağına kadar karar verebildi.
Başka bir saldırgan, Claude’u kullanarak kendi fidye yazılımını üretti ve pazarladı; “gelişmiş kaçınma, şifreleme ve kurtarma karşıtı mekanizmalar” içeriyordu. Eylül’de Check Point, “HexStrike-AI” kullanan ve hedef ağlarda tarama, istismar ve kalıcılığı otonom biçimde yürüten hacker’ları raporladı. Yine Eylül’de bir araştırma ekibi, kamuya açık bilgilerden yüzlerce zafiyeti hızlı ve kolay biçimde yeniden üretebildiklerini gösterdi. Bu araçlar giderek daha çok kişi tarafından ücretsiz kullanılabiliyor. Çinli Cyberspike’ın yakın zamanda yayımladığı “Villager” adlı AI pentest aracı, DeepSeek modelini kullanarak saldırı zincirlerini uçtan uca tamamen otomatikleştiriyor.
Bu, 2016’daki DARPA Cyber Grand Challenge’daki AI kabiliyetlerinin çok ötesinde. Çin’deki yıllık Robot Hacking Games bu seviyede olabilir, ancak Çin dışına çok az bilgi sızıyor.
Ufukta bir kırılma noktası
AI ajanları artık en seçkin insan hacker’larla boy ölçüşüyor, bazen de aşıyor. Operasyonları makine hızında ve küresel ölçekte otomatikleştiriyorlar. Yeteneklerinin kapsamı, bu ajanların bir suçlunun “kârı maksimize et” komutunu baştan sona otomatikleştirmesine ya da bir hükümetin tam olarak belirlediği teknik özelliklere uygun (örneğin tespitten kaçınan) gelişmiş saldırıları kurgulamasına imkân tanıyor.
Böyle bir gelecekte, saldırı kabiliyetleri bireysel ve kolektif başa çıkma yeteneğimizi aşacak hızda ivmelenebilir. Zafiyetler ortaya çıktıktan sonra sistemleri yamalamak için zamanımız olduğuna ya da zafiyet ayrıntılarını saklamanın saldırganları engelleyeceğine uzun süre bel bağladık. Artık durum böyle değil.
Saldırı-savunma dengesi tarihsel olarak saldırganlar lehineydi; bu gelişmeler teraziyi tamamen devirebilir. Saldırı zincirinin kalıcılık, gizleme, komuta-kontrol ve uç nokta atlatma gibi kritik parçaları otomatik ve entegre hale geliyor. Zafiyet araştırması, aylar önceden değil, operasyon sırasında bile yapılabilir.
En yetenekli profesyoneller şimdilik bir miktar üstünlüğünü koruyacaktır. Ancak AI ajanlarının yararlı olması için bir işi insandan daha iyi yapması gerekmiyor; hız, ölçek, kapsam veya sofistikasyonun birinde çok iyi olmaları yeterli. Ancak göstergeler, zamanla dördünde de mükemmelleşecekleri yönünde. Zafiyet bulma ve sömürme için gereken beceri, maliyet ve zamanı azaltarak nadir uzmanlığı “emtiaya” dönüştürüyor; ortalama suçlulara orantısız bir avantaj sağlıyor.
AI destekli siber savunmanın evrimi
AI, savunuculara da fayda sağlayabilir. Saldırı ve savunmanın hangi teknolojilerinin AI’dan ne ölçüde yararlanacağını bilmiyoruz; ancak bir dizi örtüşen gelişim olasılığını öngörebiliriz.
Faz Bir: Zafiyet Araştırmacısının Dönüşümü
AI tabanlı hacking, savunuculara da hizmet eder. Bu senaryoda AI, savunmacıların daha fazlasını yapmasını sağlar. Karmaşık yetenekleri basitleştirir; daha fazla kişinin eskiden zor olan işleri yapmasına olanak tanır ve bu işlerle meşgul araştırmacıların hızlanmasını veya yaratıcılık gerektiren problemlere kaymasını sağlar. Tarihsel örüntü net: Tersine mühendislik, IDA Pro gibi araçlar çıkana kadar zahmetli bir manuel süreçti; zafiyet keşfi de betiklenebilir arayüzler, otomatik iş akışları ve otomatik araştırma aşamalarından geçerek geniş erişime kavuşabilir.
Faz İki: “VulnOps”un Ortaya Çıkışı
Araştırma atılımları ile kurumsal benimseme arasına yeni bir disiplin girebilir: VulnOps. Büyük araştırma ekipleri araçlarının etrafında şimdiden operasyonel hatlar kuruyor. Evrimi, yazılım teslimatını profesyonelleştiren DevOps’a benzeyebilir. Bu senaryoda, uzman araştırma araçları geliştirici ürünlerine dönüşür: SaaS platformu, dahili operasyon çerçevesi veya bambaşka bir şey. Kısacası, herkes için ölçekli, tekrarlanabilir ve kurumsal süreçlere entegre AI destekli zafiyet araştırması.
Faz Üç: Kurumsal Yazılım Modelinin Sarsılması
Kuruluşlar AI destekli güvenliği, CI/CD’yi benimsedikleri gibi benimserse çeşitli yollar açılır. AI zafiyet keşfi, teslimat hatlarında yerleşik bir aşama haline gelebilir. Üretime ulaşmadan zafiyetlerin otomatik yama aldığı bir dünyayı düşünebiliriz — buna “sürekli keşif/sürekli onarım (CD/CR)” diyebiliriz. Üçüncü taraf risk yönetimi (TPRM) doğal bir benimseme yolu sunar: düşük riskli tedarikçi testleri, tedarik ve sertifikasyon kapılarına entegrasyon ve geniş yayılımdan önce bir ispat alanı.
Faz Dört: Kendi Kendini İyileştiren Ağ
Kuruluşlar, çalışan yazılımlarda zafiyetleri bağımsız keşfedip yamalayabilirse, satıcıların düzeltme yayımlamasını beklemek zorunda kalmaz. Dahili araştırma ekipleri kurmak maliyetliyken AI ajanları; üçüncü taraf ve satıcı ürünleri de dahil birçok kod türünde keşif yapıp yama üretebilir. Kuruluşlar, satıcının takvimine paralel üçüncü taraf yamalar geliştiren bağımsız kabiliyetler oluşturabilir; bu da bağımsız açık kaynak yamalama trendini genişletir. Güvenliği artırsa da müşterilerin satıcı onayı olmadan yazılım yamalaması; yama doğruluğu, uyumluluk, sorumluluk, onarım hakkı ve uzun vadeli satıcı ilişkileri gibi soruları gündeme getirir.
Bunların hepsi spekülasyon. Belki AI destekli siber saldırılar, korktuğumuz biçimde evrilmez. Belki AI destekli savunma, henüz öngöremediğimiz kabiliyetler kazandırır. Bizi en çok şaşırtacak olan, bugün görebildiklerimiz değil; aklımıza bile gelmeyen yollar olabilir.