Emma Watson, Yapay Zekanın Kurbanı Oldu: DeepFake, Artık Yoktan 'Konuşma' da Üretiyor [Video]

Emma Watson, Yapay Zekanın Kurbanı Oldu: DeepFake, Artık Yoktan 'Konuşma' da Üretiyor [Video]

Henüz beta aşamada olan yapay zeka destekli deepfake ses oluşturma aracı, daha ilk günlerinde kötüye kullanılmaya başladı. Emma Watson ve Joe Rogan gibi dünyaca ünlü isimlerin sahte sesleri ile kabul edilemez cümleler kurduruldu. Geliştirici ekip, teknolojiyi bir kenara bırakıp kötüye kullanıma önlem almak için çalışmaya başladı.

Yavaş yavaş hayatımızın her alanında varlığını hissettiren yapay zeka teknolojisi, her zaman faydalı işler için kullanılmıyor. Akla gelen her yerde iyiliğin yanında varlığını sürdüren kötülük, yapay zekâ teknolojilerinde de aynı durumu koruyor.

Deepfake ile yapılan aldatıcı açıklamalar, deprem bölgesinde enkaz altında Kur’an-ı Kerim bulduktan sonra müslüman olduğu söylenen Çinli bir kişinin bulunduğu sahte görsele kadar bugüne kadar pek çok kötü amaçlı örnek de gördük. Fakat yeni teknolojilerle bu olaylara yeni örnekler de eklenmeye devam ediyor.

Bu sefer bir ses vakası: ElevenLabs ve sahte ünlü sesleri skandalı

Yapay zekânın kötüye kullanımındaki son örnek ise ElevenLabs’ın pek çok potansiyele sahip yapay zekâsı idi. Bu yapay zekâ, sizin sisteme sunduğunuz bir sesi analiz ediyor ve ardından bu sesi kullanarak istediğiniz cümleleri söyletmenizi sağlıyor.

Fakat henüz deneme aşamasında olan teknoloji, şimdiden kötü amaçlara alet oldu. Bazı 4chan kullanıcıları kısa süre önce Emma Watson, Joe Rogan ve Ben Shapiro gibi isimlerin sesleriyle tartışmalı kayıtları paylaşmıştı. O kayıtlar, nefret söylemleri nedeniyle hiçbir sosyal medya platformunda paylaşılamıyor.

Paylaşılan seslerde Emma Watson, Adolf Hitler’in kitabını okuyormuş; Joe Biden da fazlasıyla ırkçı ve şiddet içerikli cümleler kuruyormuş gibi gösteriliyordu. Bu söylemlerin ne kadar gerçekçi olabileceğini daha da somutlaştırmak için, iyi niyetli örneklere göz atabilirsiniz:

  • Leonardo DiCaprio’nun konuşması, ancak farklı isimlerin sesleriyle.

Geliştirici şirket, bu çalışmalar üzerine odağını teknolojiyi geliştirmekten farklı bir noktaya kaydırdı.

ElevenLabs, internette büyük tartışmaya yol açan bu videolar üzerine kötüye kullanımları önlemek için yeni güvenlik özellikleri üzerinde çalışacaklarını açıkladı. Ekip, artık teknolojiyi geliştirmenin yanı sıra kötüye kullanımı engellemeye de odaklanmaya başladı.

Peki, bu önlemler nasıl alınacak?

Şirket, kullanıcılar tarafından üretilen kötü amaçlı içerikleri tespit etmek için kimlik doğrulama sistemi ekleyeceğini açıkladı. Ayrıca bu olaya kadar ücretsiz olarak deneme amacıyla kullanılabilen yapay zekâ, artık yalnızca ücretli olarak sunulmaya başladı.

Elbette teknolojiyi ücretli ve kimlik doğrumalı hale getirmek, bu amaçların yerine getirilmesinin önüne geçmeyecek. Şirket de aslında bunun farkında olduğunu vurguladı. Fakat bu sistemler sayesinde ekip, artık kötü amaçlı içerikleri üretenleri tek tek tespit etmenin peşinden koşabilecek.

“Peşinden koşmak” vurgusu burada önemli, ekip artık ekstra bir işe daha sahip:

ElevenLabs’te yaşanan olaylar, yapay zekâ geliştiricileri ve teknolojilerindeki bir sorunu da ortaya koydu. Bu teknolojiler her ne kadar iyi amaçla ve fayda sağlamak üzere geliştirilse de kötüye kullanım için de bir denetim mekanizmasına sahip olmak zorunda.

Bu mekanizmanın kurulması ve yürütülmesi de özellikle küçük ekiplerde apayrı boyutta iş yüküne yol açıyor, teknolojinin gelişimi yavaşlıyor, aksıyor.

Bunun çözümü ne?

Aslında bu durumun bir çözümü yok. Zira kötü amaçlı kişiler, her türlü bariyeri aşmak için uğraşmaya devam edecek. Bunun önüne geçilmesinin tek çözümü de ElevenLabs tarafından alınan önlemler ve benzerleri olacak. Bu da, ekstra finansman ile bir ekip kurulamadığı sürece teknolojilerin gelişim hızını olumsuz etkileyecek.