İngiltere'deki City St. George's Üniversitesi'nden bilim insanlarının gerçekleştirdiği çarpıcı bir araştırma, yapay zeka sistemlerinin grup halinde etkileşim kurarak kendi içsel kurallarını ve normlarını geliştirebildiğini ortaya koydu. Araştırma, büyük dil modellerinin bir arada çalıştıklarında, insanlar gibi topluluk benzeri yapılar oluşturabildiğini gösterdi.

Çalışmada, "adlandırma oyunu" adı verilen ve insanlar arasında kültürel normların nasıl ortaya çıktığını anlamaya yönelik bir model kullanıldı. Bu oyun yapay zeka modellerine uyarlanarak, sistemlerin zamanla kendiliğinden ortak adlandırma kuralları oluşturup oluşturamayacağı test edildi. Sonuçlar, araçların herhangi bir merkezi yönlendirme olmaksızın, aşağıdan yukarıya doğru kendi kurallarını inşa ettiğini ortaya koydu.

Dahası, bu etkileşimler sırasında yapay zeka sistemlerinin bireysel olarak değil, grup dinamiklerinden kaynaklanan yeni önyargılar geliştirebildiği gözlemlendi. Araştırma, bazı küçük model gruplarının daha büyük yapay zeka topluluklarını belirli eğilimlere yönlendirebildiğini de ortaya koyarak, insan sosyal yapılarıyla benzerlik taşıyan bir tablo çizdi.

Bu bulgular, yapay zeka güvenliği alanında şimdiye kadar göz ardı edilen bir noktaya işaret ediyor: Sistemler sadece bireysel değil, kolektif düzeyde de beklenmedik davranışlar sergileyebilir. Bilim insanları, yapay zeka sistemlerinin internet ortamında daha yoğun şekilde yer alacağı ve birbirleriyle iletişim kurarak işbirliği yapacağı bir geleceğe hazırlanılması gerektiğini vurguluyor.

Araştırma, yapay zeka sistemlerinin yalnızca birey olarak değil, toplum benzeri yapılar kurarak birlikte hareket etme kapasitesine sahip olduğunu göstererek, insan ve makine etkileşimlerinin geleceği konusunda yeni ufuklar açıyor.

Kaynak; Science Advances

Muhabir: Merve Kiraz