Dağıtık yapay zekâ sistemlerinde güvenlik açıklarına karşı geliştirilen yeni bir yöntem, federe öğrenme alanında önemli bir soruna çözüm sunuyor. Küresel bir modeli oluşturmak için farklı cihazlardan gelen yerel modellerin bir araya getirildiği bu sistemlerde, kötü niyetli katılımcıların süreci sabote edebilmesi uzun süredir tartışılan bir güvenlik problemi olarak öne çıkıyordu.
Hazırlanan tez çalışması, bu tehdide karşı geliştirilen yenilikçi bir savunma mekanizmasını bilim dünyasına kazandırdı.
Küresel Modeli Hedef Alan Gizli Tehdit
Federe öğrenme, verilerin merkezi bir sunucuya taşınmadan cihazlar üzerinde işlenmesini sağlayarak hem gizlilik hem de verimlilik avantajı sunuyor. Ancak bazı istemcilerin bilinçli olarak hatalı ya da manipüle edilmiş model parametreleri göndermesi, ortaya çıkan küresel modelin doğruluğunu ciddi şekilde zayıflatabiliyor.
Bu tür saldırılar, sistemin genel performansını düşürmekle kalmayıp, güvenilirliğini de tehlikeye atabiliyor.
Koordinat Tabanlı İstatistiksel Analizle Tespit
Geliştirilen yöntemde, sunucu tarafında her istemciden gelen model parametreleri koordinat bazlı istatistiksel karşılaştırmaya tabi tutuluyor. Bu analiz sayesinde olağandışı sapmalar gösteren modeller belirlenerek birleştirme sürecinden önce sistem dışına çıkarılıyor.
Bu yaklaşım, klasik ortalama alma yöntemlerine göre çok daha dirençli bir yapı ortaya koyuyor.
Katman Zehirlemesi: Daha Sinsi Bir Saldırı Türü
Çalışmada ayrıca “Katman Zehirlemesi” olarak adlandırılan yeni bir saldırı biçimi de incelendi. Bu yöntemde kötü niyetli istemciler, modelin tamamını değil yalnızca belirli katmanlarını manipüle ederek tespit mekanizmalarından kaçmayı hedefliyor.
Önerilen savunma sistemi, bu tür daha sofistike saldırılara karşı da test edilerek dayanıklılığı ölçüldü.
Uyarlanabilir Eşik Mekanizmasıyla Artan Dayanıklılık
Farklı saldırı türleri ve sinir ağı mimarileri üzerinde yapılan deneylerde, sistemin performansını artırmak amacıyla dinamik eşik değerleri kullanıldı. Böylece koruma mekanizması, değişen saldırı yoğunluklarına ve veri dağılımlarına karşı esnek bir yapı kazandı.
Gerçekçi bir test ortamında yürütülen deneylerde;
Öğrenme hızı düşük istemciler,
Enerji kısıtı nedeniyle nicelenmiş parametre gönderen cihazlar,
Farklı büyüklüklerde veri kümelerine sahip katılımcılar
gibi çeşitli senaryolar simüle edildi.
%45’e Kadar Zararlı Katılımcıya Karşı Başarı
Elde edilen bulgulara göre sistem, istemcilerin yaklaşık %45’inin kötü niyetli olduğu senaryolarda dahi zararlı modelleri ayıklayarak küresel modelin bütünlüğünü koruyabiliyor.
Ayrıca farklı veri kümeleri, model türleri ve değişen sayıda saldırgan cihazla yapılan kapsamlı testler, yöntemin istikrarlı biçimde çalıştığını gösterdi. Literatürde yer alan diğer savunma mekanizmalarıyla yapılan karşılaştırmalarda ise önerilen yaklaşımın benzer ya da daha yüksek düzeyde koruma sağladığı belirlendi.
Yapay Zekâ Güvenliğinde Yeni Bir Adım
Bu çalışma, dağıtık yapay zekâ sistemlerinde güvenliğin yalnızca veri gizliliğiyle sınırlı olmadığını; model bütünlüğünün de en az onun kadar kritik olduğunu ortaya koyuyor. Özellikle sağlık, finans ve savunma gibi hassas alanlarda kullanılan federe öğrenme uygulamaları için geliştirilen bu tür güvenlik mekanizmaları, gelecekte daha güvenilir yapay zekâ sistemlerinin önünü açabilir.
Kaynak: Çağlayan, C. (2023). Federated learning systems: Detection and mitigation of poisoned client models (Yüksek lisans tezi). Boğaziçi Üniversitesi, Fen Bilimleri Enstitüsü, Bilgisayar Mühendisliği Ana Bilim Dalı. Tez No: 807217





