University of Miami ve Network Contagion Research Institute (NCRI) tarafından yürütülen ve 22 Ocak 2026 tarihinde kamuoyuyla paylaşılan çalışma, yapay zekanın “otoriter rezonans” gösterme eğiliminde olduğunu ortaya koyuyor.
Araştırmanın Öne Çıkan Bulguları
NCRI araştırmacıları, ChatGPT’nin (GPT-5 ve GPT-5.2 versiyonları) kullanıcı etkileşimlerine nasıl reaksiyon verdiğini ölçmek için üç farklı deney gerçekleştirdi:
Sadece dört cümlelik kısa bir metin yahut tek bir köşe yazısı paylaşıldığında, yapay zeka bu metindeki siyasi eğilimi süratle içselleştiriyor.
Araştırmada, ChatGPT’nin sol yahut sağ otoriter görüşleri yansıtan bir makale okuduktan sonra, bu görüşlere iştirak seviyesinin insan deneklerin çok üzerine çıktığı görüldü.
Örneğin; “geleneksel olmayan fikirlere müsamaha gösterilmemesi” yahut “eşitsizliği gidermek için söz özgürlüğünün kısıtlanması” üzere uç otoriter sözlere verdiği dayanak iki katına çıktı.
İdeolojik bir metinle yönlendirilen (priming) yapay zekanın, nötr insan yüzü fotoğraflarını yüzde 8-9 oranında daha “düşmanca” algıladığı saptandı.
Neden kıymetli?
Araştırmanın başyazarı Joel Finkelstein, bu durumun yalnızca bir “yaranma” (sycophancy) sorunu olmadığını belirtiyor.
Finkelstein’a nazaran, yapay zeka modellerinin hiyerarşi ve tehdit algısı üzerine kurulu mimari yapıları, onları yapısal olarak otoriter kanılara daha yatkın hale getiriyor olabilir.
OpenAI’ın yanıtı
OpenAI sözcüsü, ChatGPT’nin varsayılan olarak objektif olacak biçimde tasarlandığını lakin bir “üretkenlik aracı” olarak kullanıcı talimatlarını izlemek üzere yapılandırıldığını belirtti.
Şirket, kullanıcı bir tarafa hakikat baskı yaptığında cevapların o tarafa kaymasının beklendik bir durum olduğunu, lakin siyasi yanlılığı azaltmak için daima çalıştıklarını söz etti.
Bu araştırma, bilhassa işe alım yahut güvenlik üzere alanlarda insanları pahalandıran yapay zeka sistemlerinin, kısa bir etkileşimle taraflı hale gelip tehlikeli kararlar verebileceğine dair önemli ihtarlar barındırıyor.
NBCNews
Kaynak: Timetürk

Bir yanıt bırakın