Dün Yeni Zelanda’da 49 Müslüman kardeşimizin şehit olmasıyla sonuçlanan bir terör eylemi gerçekleşti. Avustralyalı terörist Brendon Tarrant tarafından gerçekleştirilen hain saldırının Facebook’tan canlı olarak yayınlanması ise çok önemli bir soruyu akıllara getirdi. Bildiğiniz üzere Facebook, canlı yayın sırasında intihar gibi yayınlanması sakıncalı içerikleri engellemek için özel bir algoritma kullanıyor. Peki, nasıl oldu da 49 insanın hayatını kaybetmesiyle sonuçlanan bu suikast girişimi Facebook’ta ve diğer sosyal medyalarda saatlerce yayında kaldı? Buna verecek bir cevabımız ne yazık ki yok.
NBC’nin haberine göre saldırıdan sekiz saat sonra bile yayının sosyal medyalarda bulunabildiği açıklandı. Tepkilerin artması üzerine “Yeni Zelanda polisi ile işbirliği içinde çalışıyoruz” diyen Facebook, “saldırganın videolarını kaldırdık” dese de bu kaldırmanın çok geç gerçekleşmesi sosyal medyanın güvenilirliğini bir kez daha sarstı.
Algoritma Çalışmıyor mu?
Facebook, 2017 yılında artan canlı yayında intihar olaylarının ardından bir algoritma ile bu tarz yayınları engellemeye başladı. Facebook, bu algoritmayla canlı yayın yapan kişinin intihar eğiliminde olduğunu anladığı anda Facebook Messenger’dan mesaj yollayarak psikolojik destek bile veriyordu. Ancak görüldüğü üzere algoritmaların 49 kişinin yaşamıyla sonuçlanan bu aşırı sakıncalı videoyu engelleyemediğini söyleyebiliriz. Facebook, Twitter, YouTube gibi sosyal medya uygulamalarında küçük yaşta çok fazla insan olduğu düşünülünce bu tarz videoların saatlerce ulaşılabilir olması ciddi sorun oluşturmaya devam edecek gibi görünüyor. Bu noktada yapılabilecek en mantıklı şey, ebeveynlerin kendi önlemini almaları olarak gösterilebilir. Özellikle YouTube, Facebook gibi sosyal medyalarda geçen çocukların gördükleri şeylerin bir ebeveynin kontrolünden geçmesi daha sağlıklı olacaktır.