Youtube’daki aşırılık yanlısı videolar: Algoritma kullanıcıları radikalleştiriyor mu?

GokyuzuYankilari

Global Mod
Yetkili
Global Mod
Önce kedi videosu, ardından uzaylılarla ilgili saçma komplo teorileri? Bundan sonra hangi videoların oynatılacağına YouTube algoritmasının karar vermesine izin verirseniz, bazı beklenmedik içeriklerle karşılaşırsınız. En azından bazı kullanıcılar bunu tekrar tekrar bildiriyor. Hatta bazıları, YouTube’un kendilerine önerdiği söylenen cinsiyetçi ve ırkçı içeriğe sahip aşırılıkçı videolardan bile şikayetçi. Sonuç olarak ortak varsayım, YouTube algoritmasının kullanıcıları radikalleştirebileceği yönünde. Ancak insanların bu tür içerikleri gerçekten ne sıklıkla gördükleri şimdiye kadar büyük ölçüde belirsizdi.


Araştırmacılar bu teoriyi incelemişler ve yaptıkları bir araştırmada şu sonuca varmışlardır: Aşırı ve alternatif içerikli videolar sanıldığının aksine çok az sayıda kullanıcı tarafından izleniyor. Bu, New York Üniversitesi’nden bir araştırma grubu tarafından Science Advances dergisinde bildirildi. Araştırmaya göre alternatif videolar, itibarsızlaştırıcı görüşleri ötekileştirilmiş bakış açıları olarak sunarak meşrulaştırmayı amaçlayan videolar. Ancak YouTube algoritması, sunduğu önerilerle kullanıcıları alternatif ya da aşırılıkçı videolara yönlendirmiyor gibi görünüyor.

YouTube yalnızca aşırılık yanlısı videoları zaten görüyorsanız önerir


Araştırmacılar, Temmuz ve Aralık 2020 arasında yaklaşık 1.200 kişiyle anket yaptı ve kullanım davranışlarını değerlendirdi. Bunu yapmak için katılımcıların tarayıcılarına bir eklenti yüklemeleri gerekiyordu. Analizin sonucu: YouTube, bu tür videoları daha önce izlememiş ve bunları yayınlayan kanallara abone olmamış veya ilgili görüşlere sahip olmadıkça, kullanıcılara nadiren aşırılıkçı veya alternatif videolar önerir. Bunun geçerli olduğu test deneklerinin yalnızca yüzde üçü YouTube’un önerisi aracılığıyla aşırılıkçı veya alternatif videolar gördü.


Ancak araştırmaya göre, daha önce alternatif ve aşırılıkçı kanalları takip eden veya bu tür içeriğe sahip videolar gören herkesin YouTube’dan bu tür videoların devamı için ilgili öneriler alması çok muhtemel. Bu katılımcılar alternatif bir video gördüklerinde, önerilen ve görüntülenen bir sonraki videonun yüzde 54’ü başka bir alternatif video ya da aşırılıkçı bir videoydu. Aşırılık yanlısı videoların neredeyse yüzde 74’ünde bu tür içerikler görülüyor. Ancak bu katılımcılar yalnızca küçük bir oran oluşturuyor: Genel olarak, katılımcıların yalnızca yüzde 15,4’ü alternatif videolar izledi ve araştırma kapsamındaki dönemde yalnızca yüzde 6,1’i aşırılık yanlısı videolar izledi; buna YouTube tarafından önerilmeyen görüntülemeler de dahildir.

Aşırılıkçı videolar: İlgili birkaç taraf bile “demokrasi için büyük bir zorluk”


Joachim Allgaier ile birlikte çalışan bilim insanları, araştırmacıların çalışmalarını övdü ve bunun araştırmaların mevcut durumunu iyi yansıttığını söyledi. Fulda Uygulamalı Bilimler Üniversitesi İletişim ve Dijitalleştirme Profesörü Joachim Allgaier, “YouTube’daki ortalama kullanıcıların genellikle (artık) algoritmik küratörlük yoluyla daha aşırı içeriklere yönlendirilmediğine dair artan kanıtlar var” dedi. Bununla birlikte araştırma, YouTube’da hâlâ çok sayıda içeriğin bulunduğunu, bunların bazılarının aşırı uçlarda olduğunu ve kararlı bir kullanıcı grubundan da güçlü bir talep geldiğini belirtiyor.

Aslında, özellikle alternatif kanallara abone olan çalışma katılımcıları, alternatif videolarla önemli ölçüde daha fazla zaman harcadı: haftada ortalama bir saatten fazla. Karşılaştırma için: Abone olmayanlar haftada ortalama sadece 12 saniye izlediler. Aşırılık yanlısı bir kanala abone olanlar haftada ortalama 15 dakika boyunca video izlediler; abone olmayanlar ise ortalama sadece 24 saniye harcadılar.


Bochum’daki İleri İnternet Araştırmaları Merkezi’nden Josephine Schmitt, araştırma sonuçlarıyla ilgili olarak “Algoritmalar yalnızca küçük ama ikna olmuş bir insan grubuna çok daha sorunlu içerik sunsa bile, bu aynı zamanda demokrasi için de büyük bir zorluktur” diyor. . Medya kullanıcılarının algoritmaların nasıl çalıştığı konusunda bilinçlendirilmesinin ve aşırılıkçı mesajları tanıyabilmelerinin sağlanmasının önemli olduğunu düşünüyor.
 
Üst