Aksiyon figürü akımı toplumsal medyayı sardı! ‘Masum üzere duruyor lakin çok tehlikeli’ | İşte dikkat edilmesi gereken 5 kritik nokta

Son günlerde toplumsal medyada süratle yayılan ‘Barbie ambalajı’ üslubundaki aksiyon figürü yapay zeka görselleri, dijital estetiğin geldiği noktayı gözler önüne seriyor. Ünlülerden, kişisel kullanıcılara kadar herkes bu akıma kapılmış durumda. Lakin bu renkli ve eğlenceli imajların art planında önemli bir güvenlik sorunu yatıyor.
Şu an bu stil içerikleri üretmekte başı çeken uygulamalar ortasında Remini, Lensa AI, Picsart AI ve Photoleap üzere taşınabilir tabanlı yapay zeka takviyeli görsel editörler var. Kimileri yüzü daha gerçekçi işlerken, kimileri estetik filtreler ve sahne efektleri konusunda daha başarılı.
Aynı hizmeti sunuyor üzere görünseler de kullandıkları aksiyon figürü yapay zeka modelleri, data sürece siyasetleri ve fiyatlı içerik stratejileri önemli farklılıklar gösterebiliyor. Yani kullanıcı tecrübesi ve güvenlik açısından hepsi birebir değil.
Peki, bu uygulamaları bu kadar cazip kılan ne? Datalarımız bu sistemlerde ne kadar inançta? Estetik bir trend üzere görünen bu durum aslında dijital dünyada daha büyük bir dönüşümün işareti olabilir mi?

Prof. Dr. Ali Murat Kırık tarafından, kişinin de yapay zekâ aracılığıyla oluşturulduğu çalışmalar
BU GÖRSELLERİ OLUŞTURMAK İÇİN NE CİNS BİLGİLER İSTENİYOR?
Marmara Üniversitesi İletişim Fakültesi Görsel İrtibat Tasarımı Anabilim Dalı Başkanı ve Bilişim Teknolojileri Uzmanı Prof. Dr. Ali Murat Kırık, “Genelde uygulamalar yüz fotoğrafı, yaş, cinsiyet, bazen de estetik tercihler üzere ferdî datalar talep ediyor. Bu datalar, görseli işleyip ‘kişiselleştirilmiş’ bir sonuç üretmek için kullanılıyor” dedi.
‘BİLGİLER SİLİNİYOR ÜZERE GÖZÜKÜYOR ANCAK BULUT SİSTEMLERDE SAKLANIYOR’
“Ancak bu bilgiler birden fazla vakit bulut sistemlerde saklanıyor ve dataların nerede, ne kadar müddet tutulduğu şeffaf değil” diyen Prof. Dr. Ali Murat Kırık, “Bazı uygulamalar bilgiyi işler işlemez siliyor üzere görünse de aslında kullanım şartlarına gizlenmiş uzun vadeli saklama müsaadeleriyle verileri ellerinde tutabiliyorlar” tabirlerini kullandı.
Siber güvenlik şirketi Parameter Security’nin CEO’su Dave Chronister, HuffPost’a yaptığı açıklamada, “Hayatınızda en çok ehemmiyet verdiğiniz üç ya da dört şeyi açıkça paylaşmak büyük bir risk oluşturur. Zira bu cins bilgiler, sizi amaç almak isteyen şahıslar için bedelli bir kaynaktır” dedi.
BU ÜSLUP DATALAR BİRİNCİ BAKIŞTA PAK ÜZERE DURUYOR AMA…
Bu uygulamalar üzerinden bilgi paylaşımının siber ataklar ya da dolandırıcılık için risk oluşturduğunun altını çizen Prof. Dr. Ali Murat Kırık, “Yüz verisi, biyometrik bir bilgi olduğu için en hassas bilgilerden biri. Yüzünüzden oluşturulan bir yapay zeka portresi, kimlik doğrulama sistemlerinde kullanılabilecek uydurma kimlikler üretmekte kullanılabilir. Ayrıyeten yapay zeka takviyeli ses ve görüntü üretimiyle birleştirildiğinde deepfake dolandırıcılıklarına taban hazırlar. Bilhassa toplumsal medyada bu görselleri paylaşmak, makus niyetli şahıslar için bir data havuzu oluşturuyor” ihtarında bulundu.

MAĞDUR OLAN BEŞERLER VAR MI?
“Örneğin Çin’de yüz tanıma sistemleriyle banka hesabı açmak üzere süreçler yaygınlaştıkça, toplumsal medyada paylaşılan yüz görselleriyle kimlik sahtekarlıkları yaşandı” diyen Prof. Dr. Ali Murat Kırık, “Hindistan’da ise bir kullanıcı, yüzünü bir avatar uygulamasına yükledikten sonra kendi imajının müstehcen içeriklerde kullanıldığını fark etti. Türkiye’de de dolandırıcılık şikayetlerinde yapay zeka üretimi geçersiz profil fotoğraflarının kullanıldığı olaylar artıyor” dedi.
BU İÇERİKLER ASKERİ YA DA KURUMSAL YAPAY ZEKA EĞİTİMİNDE KULLANILABİLİR Mİ?
Stanford Üniversitesi İnsan Merkezli Yapay Zeka Enstitüsü’nden kapalılık uzmanı Jennifer King ise, bu görsellerin gelecekteki yapay zeka modellerinin eğitilmesinde kullanılabileceğini ve bu teknolojilerin giderek daha fazla kurumsal ve askeri alanlara entegre edildiğini hatırlattı. Bu ne kadar gerçekçi?
Bu soruma “Bu ikaz hiç de uzak bir ihtimal değil” yanıtını veren Prof. Dr. Ali Murat Kırık, şu bilgilerin altını çizdi:
“Yapay zeka sistemleri, ne kadar çok ve çeşitli bilgiyle eğitilirse o kadar güçleniyor. Kullanıcılar uygulamalara müsaade verirken, bilgilerinin üçüncü taraflarla paylaşılabileceğine dair hususlara onay veriyorlar lakin birçok vakit bunu fark etmiyorlar. Bu görseller daha sonra algoritmaların eğitilmesinde, yüz tanıma teknolojilerinde, hatta güvenlik ve izleme sistemlerinde kullanılabilir. Aslında beşerler fark etmeden bilgi setlerine katkı sağlıyor.”

NELERE DİKKAT EDİLMELİ?
Çoğu kullanıcının kapalılık siyasetlerini okumadan bu uygulamaları kullandığını söyleyen Prof. Dr. Ali Murat Kırık, 5 kritik noktaya dikkat çekti:
“Yapılması gereken birinci şey, uygulamanın bilgileri nerede ve ne kadar müddet sakladığına bakmak. Üçüncü taraflarla paylaşım yapıp yapmadığını öğrenmek. Yüksek çözünürlüklü yüz görselleri yerine düşük kaliteli ya da filtreli görseller kullanmak, uygulamalara erişim müsaadelerini sınırlamak ve mümkünse telefon galerinize erişim müsaadesi vermemek” dedi.
BU ALANDA YASAL DÜZENLEMELER VAR MI, YOKSA HUKUK BU TEKNOLOJİLERİN GERİSİNDE Mİ KALIYOR?
“Maalesef birden fazla ülke, bu teknolojilerin gelişim hızına yetişemiyor. Avrupa Birliği, Dijital Hizmetler Yasası ve Yapay Zeka Yasası üzere adımlar atsa da birden fazla ülkede yüz verisiyle çalışan uygulamalara özel düzenlemeler hâlâ yetersiz” diyen Prof. Dr. Ali Murat Kırık, “Türkiye’de de KVKK kimi temel haklar sağlasa da, taşınabilir uygulamalara mahsus ayrıntılı bir kontrol düzeneği yok. Önümüzdeki yıllarda, bilhassa biyometrik bilgi güvenliği konusunda daha sıkı ve memleketler arası uyumlu kanunların gelmesi kaçınılmaz üzere görünüyor” biçiminde konuştu.
Bazı uzmanlar ise kullanıcıları, figürlerinde ticari markalara ilişkin logoları kullanırken dikkatli olmaları konusunda uyardı. Avukat Charles Gallagher, Fox13’e yaptığı açıklamada, “Mattel üzere şirketler, markalarını müdafaa konusunda hayli faal. Aksiyon figürünüzde bir Barbie logosu kullanmanız hukuksal sıkıntılara yol açabilir” dedi.