01 Tem 2019 14:35 Son Güncelleme: 01 Tem 2019 15:21

Çıplak gösteren uygulama kapandı

Yapay zeka teknolojileri kullanarak, herhangi birinin fotoğrafını kıyafetler olmadan çıplak hale getirdiğini iddia eden DeepNude uygulaması faaliyetlerine son verdi.

DeepNude, Twitter hesabı üzerinden yaptığı açıklamada, “Dünya, henüz DeepNude'e hazır değil" diye belirtti.

Habertürk'ten Necdet Çalışkan'ın haberine göre, İnsan beyninin bilgi işleme tekniğinden esinlenerek geliştirilen yapay sinir ağları teknolojisini kullanan DeepNude programı, uygulamaya yüklenen fotoğraftaki kişileri çıplak gösterdiğini ileri sürüyordu.

DEEPNUDE NEDİR

Yazılımla ilgili olarak Vice’ta yayınlanan haberin ardından tüm dünyada geniş yankı uyandıran uygulama, hem kişisel mahremiyeti hiçe sayması hem de ahlaki olarak yoğun bir şekilde eleştirilmişti. Uygulamanın sadece kadın fotoğraflarında çalışması ise tartışmanın boyutunu daha da alevlendirmişti.

Kişisel mahremiyet savunucuları, “Bu yazılım tam anlamıyla korkunç. Artık herkes, çıplak fotoğrafları olmasa dahi intikam pornosunun bir kurbanı olabilir. Bu teknoloji halka açılmamalı" açıklamaları yapmıştı. DeepNude uygulamasının ücretsiz sürümünde çıplak fotoğraflardaki cinsel bölgeler, siyah bir bant ile kapatılırken; 50 dolarlık ücretli sürümünde ise tamamen çıplak fotoğraflar, 'Fake' (sahte) ibaresiyle gösteriliyordu.

Çıplak gösteren uygulama kapandı - Resim : 1

“BU ŞEKİLDE PARA KAZANMAK İSTEMİYORUZ”

Ancak bu eleştirilere karşın, 50 dolarlık bir ücret karşılığında satışa sunulan uygulama, haberin yayınlanmasının hemen ardından yoğun bir ilgiyle karşılaşmış ve programın indirilme sitesi kilitlenmişti.

Yaşanan bu gelişmelerin ardından fotoğraftaki kişileri çıplak gösteren DeepNude, geliştiricileri tarafından kapatıldı. Bu tartışmalı yazılımın geliştiricileri de DeepNude’u birkaç ay önce sadece eğlence için geliştirdiklerini ifade ederek, “Bu şekilde para kazanmak istemiyoruz. İnternette mutlaka DeepNude'un bazı kopyaları paylaşılacaktır, ancak onları satan taraf olmayacağız” açıklaması yaptı.

YENİ NESİL POLİTİK SKANDALLARA HAZIR OLUN

Yapay zeka teknolojilerini gelişimi, sahte fotoğraf ve video oluşturmak isteyenler için de artık giderek artan oranda bir araç olmaya başladı. Bu tarz fotoğraf ve video uygulamalarında, genel olarak Deepfake teknolojileri kullanılıyor.

Bu yüzden DeepNude bu alanda yaşanan ne ilk ne de son skandal olacak gibi duruyor. Bu tarz uygulamaların sadece müstehcenlik alanında değil, politik skandallarda bile kritik rol oynaması muhtemel.

MARK ZUCKERBERG’İN DE BAŞINA GELDİ

Hatta geçen günlerde Facebook'un sahip olduğu resim ve video paylaşım platformu Instagram'da, Mark Zuckerberg'in sahte bir videosu ortaya çıkmıştı. Bu videoda Zuckerberg, milyonlarca kişinin bilgilerine sahip olduğunu söylüyor, bunun nasıl bir güç anlamına geldiğini düşünülmesini istiyordu.

Çıplak gösteren uygulama kapandı - Resim : 2

Zuckerberg'in sahte videosuyla tartışılmaya başlanan deepfake videolarla ilgili olarak Instagram CEO'su Adam Mosseri ise şu an için bu konuda bir politikalarının olmadığını, öncelikle bu deepfake videolarını nasıl tanımlayacaklarına karar vermeleri gerektiğini ifade etmişti.