WOTTV E-DERGİ
DOLAR 32,6645 0.32%
EURO 35,5639 0.42%
ALTIN 2.509,161,72
BITCOIN 18514982,51%
En Derin Sahtekarlık Teknolojisi: Deepfake

En Derin Sahtekarlık Teknolojisi: Deepfake

23 Mayıs 2024 14:52
En Derin Sahtekarlık Teknolojisi: Deepfake
0

BEĞENDİM

Ceyhun BOZKURT – 23 Mayıs 2024

 

Geçtiğimiz günlerde bir televizyon programına katılan Dışişleri Bakanı Hakan Fidan, yapay zeka üzerinden gerçekleştirilen teknolojik devrime değinmiş ve hazırlıklı olmamız gerekiyor demişti. Özetle Fidan’ın  aktardıklarının satır başlarını şu şekilde sıralamak mümkün:

Teknolojik devrimlerin ardından, sosyal hayatın nasıl değiştiği, etkileri, pratiği görüldükten sonra tartışılırdı bugüne kadar.

İlk defa belki de, felsefecilerin öne çıkıp, teknolojik devrimin olduğunu simüle ederek, sosyal etkileşimlerinin de ne olabileceğini ortaya çıkartarak, müfredata, tv programlarına, eğlence içeriklerine yaymaları gerekiyor.

Yapay zekada, şirketlerin, halka açık olan programlarını görüyor ve etkileniyoruz. Bu şirketlerin, bir de halka açık olmayan versiyonları var. Bir kaç tanesini görme imkanım oldu.

Yapay zeka, oyun değiştirici bir teknoloji. Aslında bir çok meslek grubu işini kaybetti ama haberi yok.  Otonom sistemler şu anda var, ama bu bir tam bir yapay zeka değil. Kuantum teknolojiler ve yapay zeka birleştiğinde, tarih, artık, geri döndürülemez şekilde değişiyor olacak.

ABD’de 3 farklı şirket, kamuoyuna henüz açıklamadı ama, 500 milyar dolara yakın yeni bir veri merkezi yatırımı yaptı. Bu süreç, düşünsel yazılımı da zihni de değiştirecek  bir kapasiteye sahip olacak.

Yapay zeka, askeri alanda büyük oranda kullanılıyor. Yapay zeka, daha yoğun olarak istihbaratta karşımıza çıkacak.

Bölgedeki siyasal olaylar, sosyal gelişme ve çatışmaları simüle etme imkanı da söz konusu…

Sanatsal üretimlerde, insan zihni ve yazılı basını yönlendirmede çok fazla içerik üretilecek.

Hazırlıklı olmamız gerekiyor…”

Önemli tespitler. Evet, teknoloji, özellikle yapay zeka geliştikçe faydalarıyla birlikte tehlikeleri de söz konusu. Buna kesinlikle hazırlıklı olmalı, ön almalı ve olumsuz yönlerine gereken tedbirleri almalıyız.

Buradan hareketle, insan yüzünü kullanan teknolojilerin de ardı arkası kesilmediğini görüyoruz. Telefonlarımızın kilidini açmak ve alışveriş yapmak gibi basit sayılabilecek işlevlerin yanı sıra, hayatta olmayan oyunculara yeni filmlerde rol vermek gibi daha karmaşık imkânlar da yapay zekâ sayesinde artık mevcut. “Deepfake” bu alanda birkaç yıldır en çok tartışılan uygulamalardan. Sahte pornografiden, siyasetçilere yönelik karalama kampanyalarına kadar geniş bir uygulama alanına sahip deepfake videoları, 2020 ABD Başkanlık Seçimlerinde ve Türkiye’de çokça kullanıldı. Bunları daha çok tartışabiliriz.

MANİPÜLASYONLARA DİKKAT

Deepfake, birinin yüzünü dijital olarak başka birinin vücuduna monte edip onu istediğiniz gibi kontrol edebildiğiniz fabrikasyon bir medya çağını başlattı. Bu teknoloji ile ses ve mimiğe kadar bir insanı baştan yaratmak mümkün. Deepfake videolar dolaşıma sokularak her konuda manipülasyon yapılabilir. Üstelik bunları üretebilmek için ne video montaj becerisi, ne “CGI” uzmanlığı gerekiyor. İnternetten kolayca ulaşılabilen hazır algoritmalar kullanılarak A kişisinin yüzü B kişisine montajlanabiliyor.

Sadece beden ve yüz değil, ses de deepfake ile taklit edilebiliyor. Yapay zekâlı sesli asistanları ele alalım: Amazon’un Alexa’sı, Apple’ın Siri’si ve Google’ın Asistanı’nın başını çektiği bu sektör, artık sizin adınıza randevu alabilen, insanı karşı tarafta gerçek bir insan ile konuştuğu yanılsamasına düşürebilen, “hmmmm, ııııııııııı” gibi duraksamalarınızı dahi yapabilen ve insani tüm ögeleri başarıyla taklit edebilen hizmetler oluşturmaya başladı.

SORUN TEKNOLOJİK Mİ İDEOLOJİK Mİ?

Deepfake teknolojik mi, yoksa ideolojik bir sorun mu? Temelinde salt yalanın yattığı bu sorunun sosyolojik bir çerçevede ele alınması gerekiyor. Deepfake teknolojisini iyi kullanan bir insanın eline, bir ülkenin demokrasisini kırılganlaştırma imkânı geçtiği vakit, bu durum teknolojik ve ideolojik saiklerin ötesinde yerlere gidiyor. Orada anonimliğin verdiği kuvvet ile gücüne güç katıyor ve reel dünyada var olmayan bir video, viral olması halinde hiçbir merkezi mekanizmanın müdahale edemeyeceği bir hızda yayılmaya devam ediyor.

‘Hakikat sonrası çağ’ın bir parçası haline gelen deepfake teknolojisinin toplum üzerindeki uzun vadeli etkilerini kestirebilmek şimdilik oldukça güç. Eğer bu teknoloji kusursuzlaştırılırsa iletişim konusunda dünyada o kadar büyük bir güven eksikliği oluşacak; güvene ve mahremiyete dair görüşlerimiz öylesine etkilenecek ki, insanlar gördüklerine bile inanmayacak hale gelecek. İşte bu da değişik bir terör, diğer bir adıyla DİJİTAL TERÖR.

ARTIK ŞÜPHE ÖNE ÇIKMALI

Bu nedenle paylaşılan ve önümüze düşen çarpıcı paylaşımlara karşı her zaman (paranoyaklık derecesinde olmamakla beraber) şüpheci olmakta ve gerçeği bulmaya çalışmakta fayda var. Bakın bunu sadece politik paylaşımlar için söylemiyoruz.

“İşte şu kutucuklardan birinde sizin için şöyle bir hediye var, bunu bulmak için 2 hakkınız var. Bulursanız bedava” veya “satış fiyatının dörtte birine alma hakkınız olacak” gibi abartılı şaşırtıcı paylaşımlar da dijital ekoterör faaliyeti olabilir. İnsanlarımızın eğitimli veya saf olması önemli değil. İnsanların mutlaka bir boşluk, zaafiyet anı olabiliyor. İşte o an insanların aklı çelinip tuzağa düşürülebiliyor. Ben de, sosyal medya reklamlarına son derece şüpheli yaklaşan ben de yakın zamanda “Bungalov ev tatili” vaadiyle 9 bin lira civarı dolandırılmıştım. Yani hepimiz bir şekilde bu tuzağa düşebiliriz.

Bunun bir de deepfake yöntemi kullanılarak ses taklidi ile para istendiğini veya bir yere bir işe yönlendirildiğini düşünün bu nedenle mutlaka teyit edici çalışmalara ihtiyaç var.

SİYASETE YÖNELİK SALDIRI YÖNTEMLERİ

Hatırlarsanız 17-25 Aralık kumpası sürecinde Erdoğan’ın, ‘evdeki paraları sıfırla’ konuşması deepfake’in ses versiyonuydu. Bu kayıt bir çok kişiyi etkilemiş ve inandırmıştı.

Yine geçtiğimiz yılın Mayıs ayındaki seçim döneminde Muharrem İnce’ye çekilen pornografik içerikli deepfake videosu sonunda yarıştan çekilen bir siyasetçi gördük. Ve en sonunda kendisine bir deepfake operasyonu yapılacağı korkusuna kapılan eski CHP Genel Başkanı Kemal Kılıçdaroğlu kendi ağzından ‘bana deepfake operasyonu yapacaklar tıpkı 17-25 Aralık’ta yapılan gibi’ deyiverdi.

TEYİT ETTİRMEDEN İNANMAYIN

Deepfake (Derin sahtekarlık) ile ilgili bu kısa bilgiden sonra görüyoruz ki insanları herhangi bir konuda provoke etmek herhangi bir meseleyi manipüle etmek teknolojik olarak mümkün. Bunlar dijital çağın dezavantajları. Dijital çağ bir çok kolaylık getirdiği gibi bir çok handikapı da beraberinde getirdi. Sosyal medyada, Youtube paylaşımlarında, X/Twitter, Facebook, Instagram ve WhatsApp’a kadar bir çok platformdaki bilgi bombardımanında önümüze gelen her bilgiyi doğru kabul edip pozisyon almadan önce önünüze sunulanı kontrol/teyit etmek/ettirmek gerekiyor. Bu sayede art niyetlileri engelleyebilir, önleyebilir, açığa çıkartabiliriz. Yoksa oltadaki yeme atlayıp avlanan balık olmaktan öte gidemeyiz.

Ancak siyasi saiklerle hareket edenler, beyni kirletilip ele geçirilmiş fanatik derecede politize olmuş kişiler var ve para ile çalışan  veya para kazanmak adına fenomenlik vb. gibi yüksek paylaşımcı sayısı olup da geniş kitlelere mesajla ulaşabilen bir takım TROLLER de var. Toplumların bu fanatiklerin, trollerin kirli paylaşımlarından kurtulması için de teyit şart.

Ceyhun Bozkurt

Ceyhun Bozkurt 1978 yılında Muş’ta doğdu.İlk, orta ve lise eğitimini Muş’ta tamamladı.Muhabirliğe, üniversite öğrenimim devam ederken 2000 yılında Aydınlık Dergisi’nde başladı. Aydınlık'ta başladıktan kısa bir süre sonra yayın hayatına başlayan Ulusal Kanal'da da televizyon muhabirliğini devam etti.Sonrasında sırasıyla Avrasya Radyo Televizyonu (ART), Yeniçağ Gazetesi, Aydınlık Gazetesi ve Yeni Birlik Gazetesinde haberler ve köşe yazıları yazdı.Kanal D'de yayını yapılan İsimsizler Dizisi'nin ilk sezonunda Senaryo Danışmanlığı görevini yaptı. Şimdilerde ise Bozkurt, SuperHaber'de köşe yazarlığı yapmaktadır.

    En az 10 karakter gerekli
    Gönderdiğiniz yorum moderasyon ekibi tarafından incelendikten sonra yayınlanacaktır.