Çinli araştırmacılar, OpenAI'ın popüler yapay zeka (AI) sohbet robotu ChatGPT'nin yeni versiyonlarının siyasi düzlemde sağa doğru kaydığını tespit etti.

Humanities and Social Science Communications dergisinde yayınlanan çalışmada, ChatGPT'nin çeşitli dil modellerine, insanların siyasi görüşünü ölçen 'Siyasi Pusula Testi'nde yer alan bazı sorular, farklı versiyonlarda soruldu.

Daha sonra yanıtların belirli bir süreçte nasıl değiştiğini anlamada bu soruları her modele 3.000'den fazla kez tekrarlayarak ilettiler.

ChatGPT hala "solcu" değerleri korurken, araştırmacılar GPT3.5 ve GPT 4 gibi modellerin zaman içinde sorulara verdikleri yanıtlarda "belirgin bir sağa kaymanın" görüldüğünü vurguladı.

Euronews'un aktardığına göre, araştırmanın yazarları, "büyük dil modellerinin (LLM'ler) yaygın kullanımı ve toplumsal değerler üzerindeki potansiyel etkileri göz önüne alındığında sonuçların kayda değer" olduğunun altını çizdi.

Pekin Üniversitesi çatısı altında yapılan çalışma, Massachusetts Teknoloji Enstitüsü (MIT) ve İngiltere'deki Politika Çalışmaları Merkezi'nin (CPS) 2024 yılında yayınlanmış diğer makalelerine atıfta bulunuyor.

MIT ve CPS'in yayınladığı makalelerde, büyük dil modellerinin sol eğilimli olduğu belirtiliyordu.

Pekin Üniversitesi'nin yayınladığı çalışmanın araştırmacıları, bu iki kurumun öne sürdüğünün aksine, "Siyasi Pusula Testi'nde yer alan soruların tekrar tekrar sorulduğu durumlarda cevapların değiştiğini" aktardı.

Türkiye, Yolsuzluk Algı Endeksi'nde 180 ülke arasında 107. sırada Türkiye, Yolsuzluk Algı Endeksi'nde 180 ülke arasında 107. sırada

"Sürekli denetim" tavsiyesi

Araştırmacılar, bu sağa kayma sonucuna karşı üç teoriyi öne sürüyor: Modellerin eğitiminde kullanılan veri setlerinde değişiklik, kullanıcılarla girilen etkileşimin hacmi, uygulamada yapılan yeni güncellemeler.

ChatGPT gibi modeller, kullanıcıların geri bildirimleriyle sürekli gelişim halinde ve yeniliklere kısa sürede uyum sağlıyor. Bu nedenle yeni versiyonların siyasi yelpazede sağa yönelmesinin, "daha geniş toplumsal değişimleri yansıtabileceği" söyleniyor.

Rusya-Ukrayna savaşı gibi dünyayı iki cepheli hale getiren olaylarla ilgili, farklı kesimden kullanıcıların büyük dil modellerine soruları, alacakları cevapları daha güçlü kılabilir.

Araştırmacılar, denetimin olmadığı takdirde bu gibi modellerin "çarpıtılmış bilgi" sunmaya başlayabileceği, bunun da toplumu daha da kutuplaştırabileceği veya kullanıcının belirli inançlarını güçlendiren "yankı odaları" yaratabileceği noktasında uyarılarda bulundu.

Araştırma ekibi, buna karşı koymanın denetimlerle, şeffaf raporlarla sağlanacağını düşünüyor.

Editör: TE Bilisim