kullanici1
Nisan 8, 2026

Günümüzde ChatGPT gibi devasa dil modelleri (LLM) veya kanser teşhisi koyan tıbbi yapay zekalar, gücünü devasa veri setlerinden alır. Bu modeller, veri setlerinin içindeki örüntüleri (paternleri) bulmak üzere tasarlanmıştır. Örneğin model, milyonlarca röntgeni inceleyerek “Bu lekeler genellikle kansere işaret eder” çıkarımını yapmayı öğrenir.
Ancak makine öğrenmesi algoritmaları bazen o kadar açgözlüdür ki, sadece geneli öğrenmekle kalmaz, veri setindeki bireysel ve spesifik detayları da “ezberler” (Overfitting). Gelişmiş bir siber saldırgan, bir yapay zeka modeline milyonlarca farklı, kurnazca tasarlanmış soru (sorgu) göndererek, modelin eğitiminde kullanılan verileri geriye doğru çözebilir. Siber güvenlikte buna Model İnversiyonu (Model Inversion) veya Üyelik Çıkarımı (Membership Inference) saldırısı denir. Saldırgan modeli hacklemez; sadece onunla sohbet ederek içindeki o mahrem eğitim verisini dışarı sızdırır.
Akla ilk gelen çözüm şudur: “Eğitim setindeki isimleri, T.C. Kimlik numaralarını silelim (anonimleştirelim), yapay zekayı öyle eğitelim.” Ancak siber veri biliminde, sadece doğrudan kimlikleri silmek veriyi anonim yapmaz.
Bunun en meşhur örneği, yıllar önce yaşanan “Netflix Ödülü” fiyaskosudur. Netflix, film tavsiye algoritmasını geliştirmek için kullanıcılarının izleme geçmişlerini yayınlamıştı. Tabii ki isimleri silmiş ve yerine rastgele numaralar koymuştu. Ancak araştırmacılar, bu “anonim” veri setini alıp, internetteki halka açık IMDb yorumlarıyla eşleştirdiler. Sonuç felaketti: Sadece birkaç filmin izlenme tarihine bakarak, o sözde anonim listedeki kişilerin gerçekte kim olduklarını, siyasi görüşlerini ve gizli tutmak istedikleri tercihleri %99 kesinlikle ortaya çıkardılar. Veri noktaları birleştiğinde, anonimlik bir illüzyona dönüşür.
İşte tam bu noktada, Apple ve Google gibi devlerin bugün klavye alışkanlıklarımızı veya konum verilerimizi öğrenirken kullandığı o devrimsel matematik devreye girer: Diferansiyel Gizlilik.
Diferansiyel Gizlilik (DP), bir veriyi maskelemek değil, verinin içine kontrollü bir “matematiksel gürültü” (Noise) enjekte etme sanatıdır.
Temel kuralı şudur: Bir yapay zeka modelinin ürettiği sonuç, eğitim veri setinde sizin veriniz olsa da, olmasa da neredeyse tamamen aynı kalmalıdır. Eğer model siz listede varken başka, yokken bambaşka bir sonuç üretiyorsa, dışarıdaki bir saldırgan modelin çıktılarına bakarak “Ahmet bu veri setinin içinde!” diyebilir. DP, sizin o veri setindeki varlığınızı (veya yokluğunuzu) devasa bir gürültü bulutunun içine saklar.
Bunu anlamanın en güzel yolu meşhur “Yazı-Tura” metaforudur (Buna Yerel Diferansiyel Gizlilik denir):
Düşünün ki 10.000 kişilik bir gruba çok gizli bir soru soruyorsunuz: “Hayatınızda hiç vergi kaçırdınız mı?” Eğer doğrudan sorarsanız, kimse “Evet” demez (veya şirket veritabanı hacklenirse herkesin sırrı açığa çıkar). Bunun yerine yapay zeka mühendisi kuralı değiştirir. Herkese der ki:
Bu muazzam bir mahremiyet kalkanıdır! Bir kişinin cevabı veritabanına “Evet” olarak kaydedildiğinde, kimse bu “Evet”in gerçek bir itiraf mı yoksa sadece ikinci para atışından gelen bir gürültü mü olduğunu bilemez. Veri sızsa bile, bireylerin gizliliği %100 korunur.
Ancak işin büyüsü yapay zeka modelinin öğrenme aşamasında başlar. Modelin tek bir kişiye odaklanması gerekmez, o “genel eğilimi” (örneğin vergi kaçırma oranını) öğrenmek ister. Veri bilimciler, o atılan paraların istatistiksel ihtimalini (gürültü oranını) bildikleri için, 10.000 kişilik toplam sonuçtan o “rastgele atılan para” payını matematiksel olarak çıkarırlar. Geriye bireylerin kim olduğu tamamen gizlenmiş ama toplamın gerçek oranı kalır. Yapay zeka, kimin ne yaptığını asla bilemez ama toplumun genel eğilimini kusursuzca öğrenir.
Diferansiyel gizlilikte sihirli bir ayar düğmesi vardır: Epsilon (ε), namıdiğer “Gizlilik Bütçesi”. Bu bütçe, veriye ne kadar gürültü ekleneceğini belirler ve siber güvenliğin en büyük ikilemidir:
Şirketlerin (örneğin iOS klavyesinin sizden kelime öğrenirken kullandığı algoritmanın) yaptığı şey, bu Epsilon değerini kanunlara (KVKK/GDPR) uygun ama yapay zekayı da aptal etmeyecek o en tatlı denge noktasında tutmaktır.
Yapay zeka modelleri dünyayı anlamlandırmak için devasa veritabanlarını yutmaya devam ettikçe, verilerin çalınması kavramı sadece veritabanlarının hacklenmesi anlamına gelmeyecektir. Bir yapay zekanın “hafızası”, gelecekteki en büyük KVKK ihlallerinin kaynağıdır. Diferansiyel Gizlilik, bireylerin dijital sırlarını, anlamsız bir matematiksel kakofoninin (gürültünün) içine gömerek koruyan kusursuz bir kalkan sunar. Makineye sadece duyması gereken melodiyi dinletip, arkadaki seslerin kimden geldiğini unutturmak; yapay zeka çağında dijital mahremiyetimizi korumanın bilinen en güvenilir ve en zekice yoludur.