Yapay Zeka (AI) ve Makine Öğrenimi (ML) Siber Güvenlikte Nasıl Kullanılıyor? – Dijital Savunmanın Yeni Beyni

Siber Güvenlik,Yapay Zeka

İmzaların Öldüğü, Davranışların Konuştuğu Çağ

Siber güvenlikte on yıllardır süregelen “kedi-fare” oyunu, artık boyut değiştirdi. Eskiden güvenlik, bilinen kötüleri (Virüs İmzaları) bir kara listede tutmak ve “Bu dosya listeyle eşleşiyor mu?” diye sormaktan ibaretti. Ancak bugün, her gün 450.000’den fazla yeni zararlı yazılımın (Malware) ortaya çıktığı, saldırıların polimorfik (şekil değiştiren) olduğu ve hackerların yapay zeka destekli oltalama (Phishing) saldırıları düzenlediği bir dünyada, eski yöntemler artık birer kevgirden farksızdır. 

Veri hacminin insan algısının sınırlarını aştığı bu noktada, savunma hattına yeni bir güç katıldı: Yapay Zeka (AI) ve Makine Öğrenimi (ML). 

Sektördeki en büyük yanılgı, AI’ın siber güvenlik uzmanlarının yerini alacağıdır. Oysa AI bir “İkame” değil, bir “Kuvvet Çarpanı”dır (Force Multiplier). AI, bir insanın ömrü boyunca inceleyemeyeceği kadar log kaydını saniyeler içinde tarar, “anormal” olanı bulur ve analistin önüne koyar. Ancak bu madalyonun iki yüzü vardır: Savunmacılar AI kullanırken, saldırganlar da boş durmuyor. Bu kapsamlı rehberde; AI’ın savunmadaki (Blue Team) rolünü, saldırganların (Red Team) Deepfake ve otomatik fuzzing araçlarını nasıl kullandığını, “Adversarial Machine Learning” ile yapay zekanın nasıl kandırıldığını ve geleceğin Otonom SOC mimarisini en ince teknik detayına kadar inceleyeceğiz.

Temel Kavramlar: AI, ML ve DL Arasındaki Fark

Konuya girmeden önce, pazarlama terimlerini teknik gerçeklerden ayıralım. 

  • Yapay Zeka (AI – Artificial Intelligence): Makinelerin, insan zekası gerektiren görevleri (öğrenme, karar verme, problem çözme) yerine getirmesini sağlayan şemsiye terimdir.
  • Makine Öğrenimi (ML – Machine Learning): AI’ın bir alt dalıdır. Bilgisayarların açıkça programlanmadan, veriden öğrenmesini sağlar. Siber güvenlikte en çok kullanılan kısımdır. 
    • Denetimli Öğrenme (Supervised): Modele “Bu virüstür”, “Bu temizdir” diye etiketli veriler verirsiniz. Model, yenileri sınıflandırmayı öğrenir.
    • Denetimsiz Öğrenme (Unsupervised): Modele etiketsiz veri verirsiniz. Model, verideki gizli yapıları ve anormallikleri (Anomaly) kendisi bulur. “Bu trafik diğerlerine hiç benzemiyor” der.
  • Derin Öğrenme (DL – Deep Learning): İnsan beynindeki nöronları taklit eden yapay sinir ağlarını (Neural Networks) kullanır. Özellikle görüntü işleme (yüz tanıma) ve doğal dil işleme (NLP) konularında kullanılır.

Savunma Sanatı (Blue Team): AI Bizi Nasıl Koruyor?

Modern güvenlik araçlarının (EDR, SIEM, NDR) kalbinde artık ML motorları çalışır. İşte temel kullanım alanları:

1. Yeni Nesil Antivirüs (NGAV) ve Zararlı Yazılım Tespiti 

Eski antivirüsler imza tabanlıydı. Bir dosyanın Hash değeri veritabanında yoksa, o dosya “temiz” kabul edilirdi. 

  • ML Yaklaşımı: ML, dosyanın imzasına değil, özelliklerine (Features) bakar.
  • Dosya boyutu, PE başlık bilgisi, çağırdığı API’ler, sıkıştırma yöntemi gibi binlerce özelliği analiz eder.
  • Dosya daha önce hiç görülmemiş olsa bile (Zero-Day), ML modeli “Bu dosya %98 ihtimalle fidye yazılımına benziyor” diyerek çalışmasını engeller. 

2. Kullanıcı ve Varlık Davranış Analizi (UEBA) 

Sistemdeki en büyük tehdit, şifresi çalınmış bir “meşru” kullanıcıdır. 

  • ML Yaklaşımı: AI, her kullanıcının normal davranışını (Baseline) öğrenir. 
  • Normal: Ahmet her gün 09:00-18:00 arası İstanbul’dan giriş yapar ve Muhasebe klasörüne erişir. 
  • Anormal: Ahmet bir gece 03:00’te Çin IP’sinden giriş yapıp, İnsan Kaynakları veritabanından 10 GB veri indirmeye çalışırsa; AI bunu anında “Anomali” olarak işaretler ve hesabı kilitler. Kural yazmaya gerek yoktur, sistem sapmayı kendisi fark eder. 

3. Ağ Trafiği Analizi (NDR) 

Ağdaki şifreli trafiği çözmek zordur, ancak AI şifreli trafiğin “meta verisinden” bile tehditleri bulabilir. 

  • Paket boyutları, zamanlamaları ve akış yönlerini analiz ederek, şifreli bir tünelin içinde C2 (Komuta Kontrol) sunucusuyla haberleşen bir malware olduğunu tespit edebilir. 

4. E-posta Güvenliği ve NLP 

Saldırganlar artık “Nijeryalı Prens” gibi bozuk İngilizceyle e-posta atmıyor.

  • Doğal Dil İşleme (NLP): AI, e-postanın içeriğini, tonunu ve bağlamını okur. 
  • “CEO’dan gelen acil havale isteği” e-postasında, CEO’nun normal yazışma diline uymayan bir üslup varsa veya gönderen domainde küçük bir harf değişikliği (Typosquatting) varsa, AI bunu anlar ve e-postayı karantinaya alır.

Saldırı Sanatı (Red Team): AI Kötülerin Elinde

Teknoloji tarafsızdır. Savunmacıların kullandığı araçları, saldırganlar da kullanır.

1. Deepfakes ve Sosyal Mühendislik 

AI, artık ses ve görüntüyü mükemmel şekilde taklit edebilir. 

  • Senaryo: Bir şirketin finans müdürü, CEO’nun sesini taklit eden bir AI (Vishing) tarafından aranır ve acil para transferi yapması istenir. Bu, 2019’da İngiltere’de yaşanmış ve 243.000 $ çalınmıştır. 
  • AI, inandırıcı profil resimleri oluşturarak LinkedIn’de sahte profiller açabilir ve şirket çalışanlarını tuzağa düşürebilir. 

2. Akıllı Fuzzing ve Açık Bulma 

Yazılımlardaki açıkları bulmak için kullanılan “Fuzzing” (Rastgele veri gönderme) işlemi, AI ile akıllanmıştır.

  • AI, rastgele veri göndermek yerine, yazılımın kodunu analiz ederek “nerede hata olma ihtimali yüksekse” oraya odaklanır. Bu, Zero-Day açıklarının bulunmasını hızlandırır. 

3. AI Destekli Oltalama (Phishing)

  • ChatGPT benzeri (ancak etik kısıtlamaları kaldırılmış WormGPT gibi) modeller, kişiye özel, dilbilgisi hatası olmayan ve ikna ediciliği çok yüksek oltalama e-postalarını saniyeler içinde binlerce farklı varyasyonla yazabilir.

Düşman Yapay Zeka (Adversarial AI): AI'ı Hacklemek

Siber güvenliğin en yeni ve en karmaşık cephesi burasıdır: Savunma yapan AI modellerini kandırmak. 

1. Kaçınma Saldırıları (Evasion Attacks)

Saldırgan, zararlı yazılımın kodunda insan gözünün fark edemeyeceği, ancak AI modelini şaşırtacak küçük değişiklikler (Perturbations) yapar. 

  • Örnek: Bir resim tanıma sistemine “Panda” resmi gösterilir. Resmin piksellerine çok hafif bir “gürültü” eklenir. İnsan hala panda görür ama AI modeli %99 eminlikle “Bu bir Gibbon maymunudur” der. Aynı mantıkla, malware koduna eklenen anlamsız baytlar, antivirüsün AI motorunu “Bu temiz dosya” demeye ikna edebilir. 

2. Veri Zehirleme (Data Poisoning) 

AI modelleri veriden öğrenir. Eğer saldırgan, eğitim aşamasında verinin içine sızabilirse, modeli bozabilir. 

  • Senaryo: Bir saldırgan, spam filtresini eğitmek için kullanılan veri havuzuna, “kötü kelimeler içeren ama güvenli işaretlenmiş” binlerce e-posta sokar. Model, zamanla spam’i normal algılamaya başlar ve saldırı anında savunmasız kalır.

3. Model Çalma (Model Inversion/Extraction) 

Saldırgan, bir API üzerinden AI modeline binlerce sorgu gönderir ve aldığı cevapları analiz ederek, modelin arka plandaki mantığını veya eğitim verisindeki hassas bilgileri (örneğin hastane verilerini) yeniden oluşturmaya çalışır.

SOAR ve Otonom Güvenlik: Robot Analistler

Bir SOC (Güvenlik Operasyonları Merkezi) analisti günde yüzlerce alarma bakar. Bu “Alarm Yorgunluğu” (Alert Fatigue) yaratır. 

  • SOAR (Security Orchestration, Automation, and Response): AI, düşük seviyeli alarmları (Tier 1) otomatik karşılar. 
    • Örnek: Bir kullanıcı 5 kez yanlış şifre girdi. 
    • AI Aksiyonu: Kullanıcıya otomatik bir doğrulama SMS’i at. Eğer doğrularsa şifre sıfırla, doğrulamazsa hesabı kilitle ve analiste haber ver. 
  • Otonom SOC: Gelecekte AI, sadece alarmları sıralamakla kalmayıp, karmaşık saldırıları (Ransomware) tespit ettiği anda ağ bağlantısını kesme, etkilenen dosyaları yedekten dönme ve saldırganın IP’sini bloklama işlemlerini insan onayı olmadan milisaniyeler içinde yapabilecektir.

Etik ve Gelecek: Skynet mi, Jarvis mi?

AI, siber güvenlikte bir devrim yaratmıştır ancak riskleri de büyüktür.

  • Yanlış Pozitifler (False Positives): AI’ın meşru bir işlemi saldırı sanıp durdurması (örneğin CEO’nun sunum dosyasını silmesi) iş sürekliliğini bozar. 
  • Açıklanabilirlik (Explainable AI – XAI): AI bir dosyaya “virüs” dediğinde, analistin “Neden?” sorusunun cevabını bilmesi gerekir. Kara kutu (Black Box) modeller güvenlikte güven sorunu yaratır.

Gelecek, AI ve İnsan işbirliğindedir (Centaur Model). AI veri okyanusunu tarayacak, insan ise bağlamı ve stratejik kararı yönetecektir.

Sıkça Sorulan Sorular (SSS)

  1. Yapayzeka siber güvenlik uzmanlarını işsiz bırakacak mı? 

Hayır. AI, tekrarlayan ve sıkıcı işleri (log analizi) devralarak uzmanların daha stratejik işlere (tehdit avcılığı, mimari tasarım) odaklanmasını sağlayacaktır. Ancak AI kullanmayı bilmeyen uzmanlar, bilenler tarafından işinden edilebilir. 

  1. Küçükşirketler AI güvenliği kullanabilir mi? 

Evet. Bugün çoğu bulut tabanlı güvenlik ürünü (Microsoft Defender, CrowdStrike, Cloudflare) arkada zaten güçlü AI modelleri kullanır. Ekstra bir kurulum yapmanıza gerek kalmadan bu teknolojiden faydalanırsınız. 

  1. HackerlarAI kullanarak şifremi kırabilir mi? 

Evet. AI tabanlı araçlar (PassGAN), insanların şifre oluşturma alışkanlıklarını öğrendiği için, klasik Brute-Force saldırılarına göre şifreleri çok daha hızlı tahmin edebilir. 

  1. ChatGPTgüvenlikod yazabilir mi?

Kısmen. ChatGPT güvenli kod yazabilir ama aynı zamanda içinde zafiyet olan kodlar da önerebilir. AI’ın yazdığı kod mutlaka bir güvenlik uzmanı tarafından denetlenmelidir. 

  1. Adversarialsaldırılardannasıl korunuruz? 

“Adversarial Training” denilen bir yöntemle, AI modelini eğitirken ona yanıltıcı örnekler de göstererek bağışıklık kazanmasını sağlamak gerekir.

Silahlanma Yarışının Yeni Cephesi

Yapay Zeka, siber güvenlikte “olsa iyi olur” denilen bir lüksten, “olmazsa olmaz” bir zorunluluğa dönüşmüştür. Saldırganların makinelerle saldırdığı bir dünyada, sadece insanlarla savunma yapmak, tüfeklere karşı kılıçla savaşmak gibidir. 

Ancak unutulmamalıdır ki AI kusursuz değildir. O da kandırılabilir, zehirlenebilir ve hata yapabilir. En güvenli sistemler; AI’ın hızını, insanın sezgisi ve etik yargısıyla birleştiren sistemlerdir. 

SiberTim olarak tavsiyemiz; güvenlik altyapınızda AI destekli araçlara yatırım yapın, ancak “Adversarial AI” tehdidine karşı modellerinizin sağlamlığını test etmeyi (Red Teaming for AI) ihmal etmeyin. Dijital savunmanın yeni beyni yapay zekadır, ancak ruhu hala insandır.

Tags :
AI Security,siber güvenlik,yapay zeka
Share This :

Diğer Yazılar

Bize Soru Sorun

Soru ve görüşleriniz için bizimle iletişime geçebilirsiniz.