

Sosyal medyanın neden yankı odalarına dönüştüğünü anlamak isteyen araştırmacılar bunu bir simülasyonla test etti.
Sosyal medyanın dezenformasyon ve nefret söylemiyle dolu zehirli bir ortama dönüştüğü artık bilinen bir gerçek. Platformlar, etkili kurallar ve uygulanabilir politikalar geliştirmek için ciddi bir baskı hissetmedikçe, öfke ve kutuplaşma üreten yankı odalarına dönüşerek kullanıcıları daha fazla reklama maruz bırakmak için bağımlı hale getiriyor.
Amsterdam Üniversitesi’nden araştırmacıların yaptığı bir deney ise bu gidişatın kolay kolay değişmeyeceğini ortaya koydu.
Henüz hakemli incelemeden geçmemiş çalışmada, Yapay Zeka ve Sosyal Medya alanında yardımcı doçent Petter Törnberg ile araştırma asistanı Maik Larooij, sosyal medyanın kutuplaştırıcı yapısını önlemek için yapay zeka destekli bir simülasyon gerçekleştirdi.
FARKLI STRATEJİLER
Araştırmacılar, OpenAI’ın GPT-4o dil modeliyle çalışan yapay zeka botlarının tamamen doldurduğu bir “matrix” kurdu. Bu simülasyon aynı zamanda bir sosyal medya platformuna benziyordu.
Amaç, sosyal medyanın neden yankı odalarına dönüştüğünü anlamak ve bunu engellemek için farklı müdahaleler denemekti.
Ekip şu stratejileri test etti:
- Haber akışını kronolojik sıralamak
- Farklı görüşleri öne çıkarmak
- Takipçi sayısı gibi sosyal göstergeleri gizlemek
- Kullanıcı biyografilerini kaldırmak
Ancak sonuçlar hayal kırıklığı yarattı. Müdahalelerin hiçbiri sorunu tatmin edici şekilde çözmedi, bazıları ise durumu daha da kötüleştirdi.
Örneğin, haber akışını kronolojik hale getirmek dikkat eşitsizliğini azaltsa da aşırı uçtaki içeriklerin öne çıkmasına neden oldu.
“DİJİTAL ŞEHİR MEYDANI”
Bu sonuçlar, teknoloji devlerinin sosyal medyayı “dijital bir şehir meydanı” olarak tasarlama vaatleriyle çelişiyor. Elon Musk’ın X (eski Twitter) için yaptığı bu tanıma rağmen, araştırmaya göre sosyal medya platformları ister müdahale edilsin ister edilmesin, giderek kutuplaşmış ve aşırıcı fikirlerin üretildiği alanlara dönüşmeye mahkum.
Törnberg, Ars Technica’ya yaptığı açıklamada, “Sosyal medyayı nasıl iyileştirebilir ve siyaseti yapıcı şekilde tartışabileceğimiz çevrimiçi alanlar yaratabiliriz? Bu sorunun cevabını arıyoruz” dedi.
Ancak araştırmacı, yapay zekanın da mükemmel bir çözüm olmadığını, önyargılar ve sınırlamalar taşıdığını kabul etti. Yine de yapay zekanın insan davranışlarını “daha ikna edici bir şekilde” taklit edebildiğini vurguladı.
DİKKAT EŞİTSİZLİĞİ
Törnberg’e göre sorun yalnızca kışkırtıcı içeriklerin paylaşılması değil.
Zehirli içerikler aynı zamanda sosyal medya ağlarının yapısını şekillendiriyor ve bu yapı, kullanıcılara gösterilen içerikleri geri besleyerek daha da toksik bir ortam yaratıyor.
Bunun sonucu ise “aşırı dikkat eşitsizliği.” Yani çok küçük bir azınlık tarafından paylaşılan gönderiler en yüksek görünürlüğe ulaşıyor.
Araştırmacılar, üretken yapay zekAnın yükselişiyle bu etkinin daha da büyüyebileceğini söylüyor. Törnberg, “Şimdiden birçok aktörün -özellikle X gibi platformların para kazanma modeli üzerinden- yapay zekAyı yalnızca dikkat çekmek için içerik üretmekte kullandığını görüyoruz. Yanlış bilgi, genellikle çok kutuplaştırıcı bilgi gibi içerikler yapay zeka modelleri güçlendikçe tamamen hakim hale gelecek” dedi.
Törnberg, “Mevcut sosyal medya modellerinin bu koşullarda hayatta kalabileceğini düşünmekte zorlanıyorum” ifadelerini kullandı.
Okumaya devam et...
