HABER

Sosyal medyada hakaretlerin önüne neden geçilemiyor?

BBC teknoloji muhabiri Zoe Kleinman, İngiliz futbolcuların penaltı kaçırdıkları için maruz kaldıkları ırkçı saldırıların sosyal medyada neden engellenemediğini araştırdı.

Sosyal medyada hakaretlerin önüne neden geçilemiyor?

BBC teknoloji muhabiri Zoe Kleinman, İngiliz futbolcuların penaltı kaçırdıkları için maruz kaldıkları ırkçı saldırıların sosyal medyada neden engellenemediğini araştırdı.

İngiltere'nin başkenti Londra'daki Wembley Stadyumu'nda İngiltere-İtalya arasında oynanan EURO 2020 final maçında İtalya İngiltere'yi penaltılarda yenmiş; penaltıları kaçıran İngiliz futbolcular Jadon Sancho, Marcus Rashford ve Bukayo Saka'ya sosyal medyada ırkçı saldırılar gerçekleşmişti.

Sosyal medya şirketleri bu saldırılardan ötürü tekrar eleştirilerin hedefi haline geldi.

BBC teknoloji muhabiri Kleinman'a göre teknoloji devleri için bu olayların önüne geçememelerini savunmak gittikçe zorlaşıyor; milyonlarca kişinin gördüğü paylaşımların sorumluluğunu nasıl alamadıkları eleştiriliyor.

İngiltere'de bu şirketler BBC gibi yayıncı kategorisinde değil; o yüzden geleneksel medya ile aynı kefeye konamıyorlar.

BBC'nin haber sitesinde herhangi bir makalenin altına bir okuyucu tarafından ırkçı bir yorum yazılırsa İngiltere'nin medya denetleme kuruluşu Ofcom BBC'yi sorumlu tutuyor.

Böyle bir durumda Ofcom, gerçekleşen olayı araştırır, müdahale eder ve büyük ihtimalle ceza verirdi.

Ofcom; Facebook, TikTok, YouTube ve Twitter üzerinde ise böyle bir güce sahip değil.

Ancak yakında gelmesi beklenen İnternet Güvenlik Tasarısı ile bu durumun değişmesi bekleniyor.

Diğer yandan bu milyonlarca dolarlık şirketleri ceza kesilmesi ihtimalinin caydırıp caydırmayacağı bilinmiyor; başka bir açıdan bu sadece İngiltere'nin elinde olan bir şey de değil.

Otomasyon çözüm mü?

Facebook gibi iki milyar kullanıcısı olan bir platformda üretilen çok fazla sayıda içeriği kontrol etmek çok zor.

Bu şirketler tarafından çok sayıda moderatör işe alınmış olsa bile çalışanlar içeriklere yetişmekte zorlanıyor.

Bazı çalışanlar vardiyalarını korkunç içerikler gördükleri kabus dolu saatlere benzetiyor.

O yüzden bu şirketlerin bulabildiği en faydalı çözüm otomasyona sayısız zaman ve para aktarmak oluyor.

Algoritma, saldırgan içeriklerin daha sitede ortaya çıkmadan yayımlanmasını engelleme üzerine kurulu; bazı yasa dışı etiketleri baştan yasaklama, zararlı bazı içerikleri etiketleyerek aynı kategoride yer alan video ve yazıların yayınlanmasını engelleme bu yöntemlerden bazıları.

Ancak bu da şimdiye kadar yetersiz kalmış bir yöntem.

Bu teknolojik önlemler henüz bir olayın arka planını, ince detaylarını ve kültürel farkları ayırt edebilecek şekilde geliştirilmedi.

Örnek vermek gerekirse dün akşam İngiliz futbolcu Bukayo Saka'nın Instagram hesabına yorum olarak yazılan orangutan emojsinin anlamını ayırt edebilecek bir algoritma henüz yok.

Instagram'ın da sahibi olan Facebook yayımladığı açıklamasında futbolcuları hedef alan yorumları "hızlıca kaldırdığını" öne sürdü.

Twitter da 24 saatte bin iletiyi kaldırdığını, nefret dolu söylemlere yer veren hesapları otomasyon ve insan eliyle yasakladığını aktardı.

İki şirket de kullanıcıların hakaret dolu içerikleri görmesini engelleyecek araçları geliştirdiğini belirtti; ancak bu tarz içeriklerin daha başta yayınlanmasının önüne geçecek bir yöntem yok.

İnsan doğası da etkili

Facebook'un açıklamasına göre bu da bir gecede düzeltilebilecek bir şey değil.

O yüzden bir yandan bütün bunlar sadece teknolojinin yetersizliğinden kaynaklanmıyor; insan doğası da önemli bir rol oynuyor.

Bu yüzden olsa gerek ironik bir şekilde İngiltere Başbakanı Boris Johnson Twitter üzerinden yaptığı açıklamada ırkçı yorumları yazanların 'kendilerinden utanması gerektiğini' belirtti.

Bazı insanlar için klavyenin arkasına sığınarak başka bir kimsenin yüzüne yüksek sesle söyleyemeyecekleri şeyleri dile getirmek daha kolay geliyor.

Daha önce insanların bu kadar büyük bir kitleye hitap etme imkanının olmaması da bu durumda büyük bir rol oynuyor.

YORUMLARI GÖR ( 0 )
Okuyucu Yorumları 0 yorum
Geri Dön