Yapay zekanın kullanım alanı giderek genişliyor. Bundan en büyük etkileri ise siyasi liderler ve dünyaca ünlü kişiler görüyor. Eski ABD Başkanı Donald Trump ve Papa Francis hakkında çıkan yapay zeka kullanılarak oluşturulan görseller toplumda büyük yankı uyandırmıştı.
Sahte seslerle üretilen şarkılar ve videolar her ne kadar eğlenceli gözükse de işin bir de karanlık bir boyutu var: Dolandırıcılık. Geçtiğimiz dönemde bir anneden kaçırılan kızı için fidye istenmiş ve durumun gerçekliğini kanıtlamak için kaçırıldığı söylenen kızın sahte sesi kullanılmıştı. Aslında kız hiç kaçırılmamıştı.
Aynı dolandırıcılık yöntemi, yapay zeka ile daha gerçekçi bir hal alıyor
Yapay zeka dolandırıcılığı giderek yaygınlaşıyor ve telefonun ucundaki ses, sevdiğiniz bir insanın sesi gibi geldiği için bu durum epey korkutucu bir hal alabiliyor. Günümüzde ülkemiz dahil dünyanın birçok yerinde dolandırıcılık bazıları için artık bir meslek. Teknolojinin de gelişmesiyle bu durum giderek inandırıcılığını artırıyor. Telefonda yapılan dolandırıcılıklar, tabi ki en kolayı ve en yaygını. Ama artık daha korkutucu.
2023’ün Nisan ayında, yeni nesil yapay zeka dolandırıcılıklarının örneklerini görmüştük. Örneğin çağrı yanıltma yöntemi kullanılarak sevilen biri, kurbanın telefonunda arayan kişi olarak görünmüştü. Bir diğeri ise, kaçırılmamış olan kızını serbest bırakmak için bir anneden fidye parası koparmaya çalışmak amacıyla bir yapay zeka ses klonunu kullanmıştı.
McAfee şirketi, yapay zekanın bu tür kötü kullanımını gördü ve konuyla ilgili derinlemesine bir rapor yayınladı. Şirket yayınladığı raporda, sahte sesleri önlemenin ve dolandırıcılıktan korunmanın yollarını açıkladı.
Yöntemleri açıklamadan önce gelin birlikte yapay zeka sahte seslerinin nasıl çalıştığına bir bakalım.
Yapay zeka ses klonlama nasıl çalışır?
Öncelikle yapay zeka ses dolandırıcılığının uzun zamandır var olan bir yöntemin yeni versiyonu olduğunu ancak ondan çok daha ikna edici olduğunu söyleyebiliriz. Genellikle bu tarz bir dolandırıcılıkta; sevilen birinin sesi kullanılarak acil bir durum için para isteniyor veya kurbana, sevdiği birini fidye için kaçırdıkları söyleniyor.
2019 yılında, İngiltere merkezli bir enerji firması CEO'sunun kimliğine bürünen dolandırıcılar, 243.000 dolar talep etti. Hong Kong'da bir banka müdürü, ses klonlama teknolojisini kullanan biri tarafından kandırılarak 2020'nin başlarında yüklü miktarda havale yapılmasını sağladı. Kanada'da ise en az sekiz yaşlı vatandaş, bu yılın başlarında ses klonlama dolandırıcılığıyla toplam 200.000 dolar kaybetti.
Yapay zeka ses klonlama araçları çok ucuz ve kullanılabilir olduğundan, kötü niyetli taraflar için ses klonları oluşturmak da aslında oldukça basit. Bunu yapmak için örnek ses elde etmenin en kolay yolu da tabi ki sosyal medya. Sesinizi çevrimiçi olarak ne kadar çok paylaşırsanız, dolandırıcıların sesinizi bulması ve klonlaması da o kadar kolay oluyor.
Yukarıdaki görselde, yapılan bir anketin sonuçlarını görebilirsiniz. Elde edilen verilere göre; kullanıcıların %26’sı haftada bir ya da iki kere seslerini sosyal medyada paylaştığını söylüyor.
Yapay zeka ses dolandırıcılığı ne kadar yaygın?
Haberlerde yapay zeka ses dolandırıcılığı ile ilgili bazı hikayeler yeni yeni görünmeye başlasa da, yapılan araştırma bu tarz dolandırıcılıkların oldukça yaygın hale geldiğini ortaya koyuyor.
Küresel anketlere bakıldığında, kişilerin %25'i ya kendisinin ya da tanıdığı birinin yapay zeka dolandırıcılığına maruz kaldığını söylüyor. Anket verilerine göre yapay zeka ses dolandırıcılığı konusunda en fazla sorun yaşayan ülke %47 ile Hindistan.
Ses klon araçları, %95 oranında doğruluk sağlıyor
Ses klonlama için kullanılan yapay zeka araçları o kadar gerçekçi ki mağdurların neredeyse tamamı sahte sesin, tanıdıkları kişinin sesine tıpatıp benzediğini söylüyor. Hatta yukarda bahsettiğimiz fidye vakasında mağdur anne, kızının sesi dışında “tonlamasının” bile aynı olduğunu ifade ediyor.
Yapay zeka sahte seslerinin gerçeğine bu kadar benzemesi, insanlara kısacık bir zaman diliminde binlerce dolar kaybettiriyor. Araştırmaya göre yapay zeka ses dolandırıcılığı kurbanlarının %77'si paralarını kaptırıyor. Veriler, 2022 yılı genelinde toplamda 2,6 milyar dolarlık bir paranın bu yöntemle çalındığını gösteriyor.
Peki, sahte sesler gerçeğinden nasıl ayırt edilir?
Yapay zeka ses dolandırıcılıklarını önlemenin şimdilik kesin ve hızlı bir yolu yok. Ancak kendi kendinize alabileceğiniz bazı önlemler bulunuyor.
- Sesinizi ve/veya videonuzu çevrimiçi olarak ne kadar paylaştığınızı sınırlayın ve/veya sosyal medya hesaplarınızı herkese açık yerine özel olarak ayarlayın,
- Şüpheli bir çağrı alırsanız ve sevdiğiniz biri sizden acil olarak maddi bir yardım isterse yalnızca o kişinin yanıtlayabileceği bir veya iki soru sorun (cevabı internette olan bir soru asla sormayın),
- Siber suçlular, mağduru harekete geçirmek için taklit ettikleri kişiyle aranızdaki duygusal bağa güvenirler. Şüpheci olun ve sorgulamaktan çekinmeyin. Şüpheleriniz geçmediyse telefonu kapatın ve kendiniz o kişiyi direkt olarak arayın.