BİLİM VE TEKNOLOJİ

Katman Zehirlemesine Yanıt: Yapay Zekâda Saldırıya Dayanıklı Model

Federe öğrenme sistemlerinde zararlı istemcileri tespit eden yeni bir yöntem geliştirildi. Koordinat tabanlı istatistiksel analizle çalışan sistem, kötü niyetli modelleri %45’e kadar başarıyla ayıklayabiliyor.

Abone Ol

Dağıtık yapay zekâ sistemlerinde güvenlik açıklarına karşı geliştirilen yeni bir yöntem, federe öğrenme alanında önemli bir soruna çözüm sunuyor. Küresel bir modeli oluşturmak için farklı cihazlardan gelen yerel modellerin bir araya getirildiği bu sistemlerde, kötü niyetli katılımcıların süreci sabote edebilmesi uzun süredir tartışılan bir güvenlik problemi olarak öne çıkıyordu.

Hazırlanan tez çalışması, bu tehdide karşı geliştirilen yenilikçi bir savunma mekanizmasını bilim dünyasına kazandırdı.

Küresel Modeli Hedef Alan Gizli Tehdit

Federe öğrenme, verilerin merkezi bir sunucuya taşınmadan cihazlar üzerinde işlenmesini sağlayarak hem gizlilik hem de verimlilik avantajı sunuyor. Ancak bazı istemcilerin bilinçli olarak hatalı ya da manipüle edilmiş model parametreleri göndermesi, ortaya çıkan küresel modelin doğruluğunu ciddi şekilde zayıflatabiliyor.

Bu tür saldırılar, sistemin genel performansını düşürmekle kalmayıp, güvenilirliğini de tehlikeye atabiliyor.

Koordinat Tabanlı İstatistiksel Analizle Tespit

Geliştirilen yöntemde, sunucu tarafında her istemciden gelen model parametreleri koordinat bazlı istatistiksel karşılaştırmaya tabi tutuluyor. Bu analiz sayesinde olağandışı sapmalar gösteren modeller belirlenerek birleştirme sürecinden önce sistem dışına çıkarılıyor.

Bu yaklaşım, klasik ortalama alma yöntemlerine göre çok daha dirençli bir yapı ortaya koyuyor.

Katman Zehirlemesi: Daha Sinsi Bir Saldırı Türü

Çalışmada ayrıca “Katman Zehirlemesi” olarak adlandırılan yeni bir saldırı biçimi de incelendi. Bu yöntemde kötü niyetli istemciler, modelin tamamını değil yalnızca belirli katmanlarını manipüle ederek tespit mekanizmalarından kaçmayı hedefliyor.

Önerilen savunma sistemi, bu tür daha sofistike saldırılara karşı da test edilerek dayanıklılığı ölçüldü.

Uyarlanabilir Eşik Mekanizmasıyla Artan Dayanıklılık

Farklı saldırı türleri ve sinir ağı mimarileri üzerinde yapılan deneylerde, sistemin performansını artırmak amacıyla dinamik eşik değerleri kullanıldı. Böylece koruma mekanizması, değişen saldırı yoğunluklarına ve veri dağılımlarına karşı esnek bir yapı kazandı.

Gerçekçi bir test ortamında yürütülen deneylerde;

Öğrenme hızı düşük istemciler,

Enerji kısıtı nedeniyle nicelenmiş parametre gönderen cihazlar,

Farklı büyüklüklerde veri kümelerine sahip katılımcılar

gibi çeşitli senaryolar simüle edildi.

%45’e Kadar Zararlı Katılımcıya Karşı Başarı

Elde edilen bulgulara göre sistem, istemcilerin yaklaşık %45’inin kötü niyetli olduğu senaryolarda dahi zararlı modelleri ayıklayarak küresel modelin bütünlüğünü koruyabiliyor.

Ayrıca farklı veri kümeleri, model türleri ve değişen sayıda saldırgan cihazla yapılan kapsamlı testler, yöntemin istikrarlı biçimde çalıştığını gösterdi. Literatürde yer alan diğer savunma mekanizmalarıyla yapılan karşılaştırmalarda ise önerilen yaklaşımın benzer ya da daha yüksek düzeyde koruma sağladığı belirlendi.

Yapay Zekâ Güvenliğinde Yeni Bir Adım

Bu çalışma, dağıtık yapay zekâ sistemlerinde güvenliğin yalnızca veri gizliliğiyle sınırlı olmadığını; model bütünlüğünün de en az onun kadar kritik olduğunu ortaya koyuyor. Özellikle sağlık, finans ve savunma gibi hassas alanlarda kullanılan federe öğrenme uygulamaları için geliştirilen bu tür güvenlik mekanizmaları, gelecekte daha güvenilir yapay zekâ sistemlerinin önünü açabilir.

Kaynak: Çağlayan, C. (2023). Federated learning systems: Detection and mitigation of poisoned client models (Yüksek lisans tezi). Boğaziçi Üniversitesi, Fen Bilimleri Enstitüsü, Bilgisayar Mühendisliği Ana Bilim Dalı. Tez No: 807217