Uydurma Sesleri, Gerçeklerinden Ayırt Etmenin Bir Yolu Var mı?

Uydurma Sesleri, Gerçeklerinden Ayırt Etmenin Bir Yolu Var mı?

Yapay zekanın kullanım alanı giderek genişliyor. Bundan en büyük tesirleri ise siyasi başkanlar ve dünyaca ünlü bireyler görüyor. Eski ABD Lideri Donald Trump ve Papa Francis hakkında çıkan yapay zeka kullanılarak oluşturulan görseller toplumda büyük yankı uyandırmıştı.

Sahte seslerle üretilen müzikler ve görüntüler her ne kadar eğlenceli gözükse de işin bir de karanlık bir boyutu var: Dolandırıcılık. Geçtiğimiz periyotta bir anneden kaçırılan kızı için fidye istenmiş ve durumun gerçekliğini kanıtlamak için kaçırıldığı söylenen kızın uydurma sesi kullanılmıştı. Aslında kız hiç kaçırılmamıştı. 

Aynı dolandırıcılık sistemi, yapay zeka ile daha gerçekçi bir hal alıyor

Yapay zeka dolandırıcılığı giderek yaygınlaşıyor ve telefonun ucundaki ses, sevdiğiniz bir insanın sesi üzere geldiği için bu durum hayli korkutucu bir hal alabiliyor. Günümüzde ülkemiz dahil dünyanın birçok yerinde dolandırıcılık kimileri için artık bir meslek. Teknolojinin de gelişmesiyle bu durum giderek inandırıcılığını artırıyor. Telefonda yapılan dolandırıcılıklar, tabi ki en kolayı ve en yaygını. Lakin artık daha korkutucu. 

2023’ün Nisan ayında, yeni jenerasyon yapay zeka dolandırıcılıklarının örneklerini görmüştük. Örneğin davet yanıltma prosedürü kullanılarak sevilen biri, kurbanın telefonunda arayan kişi olarak görünmüştü. Bir oburu ise, kaçırılmamış olan kızını hür bırakmak için bir anneden fidye parası koparmaya çalışmak gayesiyle bir yapay zeka ses klonunu kullanmıştı.

McAfee şirketi, yapay zekanın bu cins makus kullanımını gördü ve bahisle ilgili derinlemesine bir rapor yayınladı. Şirket yayınladığı raporda, düzmece sesleri önlemenin ve dolandırıcılıktan korunmanın yollarını açıkladı. 

Yöntemleri açıklamadan evvel gelin birlikte yapay zeka uydurma seslerinin nasıl çalıştığına bir bakalım.

Yapay zeka ses klonlama nasıl çalışır?

Öncelikle yapay zeka ses dolandırıcılığının uzun vakittir var olan bir yolun yeni versiyonu olduğunu fakat ondan çok daha ikna edici olduğunu söyleyebiliriz. Ekseriyetle bu şekil bir dolandırıcılıkta; sevilen birinin sesi kullanılarak acil bir durum için para isteniyor yahut kurbana, sevdiği birini fidye için kaçırdıkları söyleniyor.

2019 yılında, İngiltere merkezli bir güç firması CEO’sunun kimliğine bürünen dolandırıcılar, 243.000 dolar talep etti. Hong Kong’da bir banka müdürü, ses klonlama teknolojisini kullanan biri tarafından kandırılarak 2020’nin başlarında yüklü ölçüde havale yapılmasını sağladı. Kanada’da ise en az sekiz yaşlı vatandaş, bu yılın başlarında ses klonlama dolandırıcılığıyla toplam 200.000 dolar kaybetti.

Yapay zeka ses klonlama araçları çok ucuz ve kullanılabilir olduğundan, berbat niyetli taraflar için ses klonları oluşturmak da aslında epeyce kolay. Bunu yapmak için örnek ses elde etmenin en kolay yolu da tabi ki toplumsal medya. Sesinizi çevrimiçi olarak ne kadar çok paylaşırsanız, dolandırıcıların sesinizi bulması ve klonlaması da o kadar kolay oluyor.

Yukarıdaki görselde, yapılan bir anketin sonuçlarını görebilirsiniz. Elde edilen datalara nazaran; kullanıcıların %26’sı haftada bir ya da iki kez seslerini toplumsal medyada paylaştığını söylüyor. 

Yapay zeka ses dolandırıcılığı ne kadar yaygın?

Haberlerde yapay zeka ses dolandırıcılığı ile ilgili birtakım öyküler yeni yeni görünmeye başlasa da, yapılan araştırma bu usul dolandırıcılıkların hayli yaygın hale geldiğini ortaya koyuyor.

Küresel anketlere bakıldığında, bireylerin %25’i ya kendisinin ya da tanıdığı birinin yapay zeka dolandırıcılığına maruz kaldığını söylüyor. Anket datalarına nazaran yapay zeka ses dolandırıcılığı konusunda en fazla sorun yaşayan ülke %47 ile Hindistan. 

Ses klon araçları, %95 oranında doğruluk sağlıyor

Ses klonlama için kullanılan yapay zeka araçları o kadar gerçekçi ki mağdurların neredeyse tamamı uydurma sesin, tanıdıkları kişinin sesine tıpatıp benzediğini söylüyor. Hatta yukarda bahsettiğimiz fidye olayında mağdur anne, kızının sesi dışında “tonlamasının” bile tıpkı olduğunu tabir ediyor. 

Yapay zeka geçersiz seslerinin gerçeğine bu kadar benzemesi, insanlara kısacık bir vakit diliminde binlerce dolar kaybettiriyor. Araştırmaya nazaran yapay zeka ses dolandırıcılığı kurbanlarının %77‘si paralarını kaptırıyor. Datalar, 2022 yılı genelinde toplamda 2,6 milyar dolarlık bir paranın bu prosedürle çalındığını gösteriyor. 

Peki, düzmece sesler gerçeğinden nasıl ayırt edilir?

Yapay zeka ses dolandırıcılıklarını önlemenin şimdilik kesin ve süratli bir yolu yok. Fakat kendi kendinize alabileceğiniz kimi tedbirler bulunuyor. 

  1. Sesinizi ve/veya görüntünüzü çevrimiçi olarak ne kadar paylaştığınızı sınırlayın ve/veya toplumsal medya hesaplarınızı herkese açık yerine özel olarak ayarlayın,
  2. Şüpheli bir davet alırsanız ve sevdiğiniz biri sizden acil olarak maddi bir yardım isterse sadece o kişinin yanıtlayabileceği bir yahut iki soru sorun (cevabı internette olan bir soru asla sormayın),
  3. Siber hatalılar, mağduru harekete geçirmek için taklit ettikleri şahısla aranızdaki duygusal bağa güvenirler. Kuşkucu olun ve sorgulamaktan çekinmeyin. Kuşkularınız geçmediyse telefonu kapatın ve kendiniz o kişiyi direkt olarak arayın.