Oyunseverlerin bildiği gibi Call of Duty gibi online oynanabilen FPS oyunlarda diğer oyuncularla sesli sohbetler gerçekleştirilebiliyor. Ancak bu sohbetlerde oyuncular birbirilerine pek hoş karşılanmayacak şeyler söyleyebiliyor. Araştırmalar da CoD’un en negatif oyunculara sahip seri olduğunu ortaya koyuyor.
Activision da işte tam bu yüzden bu toksik davranışların önüne geçmek için hamleler yapıyordu. Şirket, şimdi de bu soruna çözüm bulmak için Modulate isimli bir şirketle ortaklık kurdu.
Call of Duty'deki sesli sohbetler yapay zekâyla kontrol edilecek
Oyun devinin bu hamlesi, oyun içi sesli sohbetlerin takip edilmesini sağlayacak. Bu da yapay zekâ ile yapılacak. Sistem, Modulate’in ToxMod isimli bir yapay zekâ teknolojisiyle birlikte çalışacak. Teknoloji, sesli sohbetlerdeki nefret söylemlerini, ayrımcılığı veya tacizleri tespit etmede kullanılacak.
ToxMod’un beta sürümü bugünden itibaren Kuzey Amerika’da çıkış yaptı. Teknoloji, şu an Call of Duty: Modern Warfare II ve Call of Duty: Warzone’da aktif. Modulate, MW3’ün çıkışıyla, yani 10 Kasım’da sistemin Asya dışında tüm dünyada sunulacağını ifade ediyor.
ToxMod’un nasıl çalıştığı hakkında şu an için pek bilgi yok. Şirketin internet sitesinde, sistemin sesli sohbetten kötü davranışları ayırt edebildiği, her konuşmayı dikkatli şekilde analiz edebildiği ve moderatörleri bilgilendirdiğini söylüyor.
Bu açıklamalardan sistemin şu an için yalnızca Activision moderatörlerini bilgilendirmek için kullanılacağını; herhangi bir yaptırıma neden olmayacağını anlayabiliyoruz. Gerçekten çalışıp çalışmadığını ilerleyen zamanlarda göreceğiz. Ancak, ses tanıma sistemlerinin belli ırklardan veya aksanlardan insanlara karşı ön yargılı olabilmesi büyük bir soru işareti. Bu yüzden sesli sohbetleri kontrol etme sürecine insanların dahil olması kesinlikle şart.