Teknoloji

DeepNude uygulaması geliştiricileri tarafından kapatıldı

Yapay zeka teknolojisini kullanıp birinin fotoğrafını çıplak hale dönüştüren uygulama DeepNude uygulaması kapatıldı. Uygulama geliştiricileri, ”Dünya, henüz buna hazır değil” açıklaması yaptı.

Skandal uygulama, geçen hafta Vice’ta yayınlanan bir haberle gündeme gelmişti. Herhangi birinin fotoğrafını yapay zekayla çıplak gösterdiği iddia eden DeepNude uygulaması faaliyetini sonlandırdı. Twitter hesabı üzerinden yapılan açıklamada, “Dünya, henüz DeepNude’e hazır değil” denildi.

DeepNude programı, uygulamaya yüklenen fotoğraftaki kişileri yapay zekayla çıplak gösterdiğini ileri sürüyordu.

DEEPNUDE NEDİR?

Tüm dünyada geniş yankı uyandıran DeepNude, hem ahlaki olarak, hem de kişisel mahremiyeti hiçe sayması nedeniyle yoğun bir şekilde eleştirilmişti.

Uygulamanın sadece kadın fotoğraflarında çalışıyor olması tartışmanın boyutunu alevlendirmişti.

Kişisel mahremiyet savunucuları, “Bu yazılım tam anlamıyla korkunç. Artık herkes, çıplak fotoğrafları olmasa dahi intikam pornosunun bir kurbanı olabilir. Bu teknoloji halka açılmamalı” açıklamaları yapmıştı. DeepNude uygulamasının ücretsiz sürümünde çıplak fotoğraflardaki cinsel bölgeler, siyah bir bant ile kapatılırken; 50 dolarlık ücretli sürümünde ise tamamen çıplak fotoğraflar, ‘Fake’ (sahte) ibaresiyle gösteriliyordu.

Haberin çıkmasından hemen sonra yoğun ilgi sebebiyle site kilitlenmişti.

DeepNude, geliştiricileri çıkan haberlerin ardından uygulamayı kapattı. Yazılımın geliştiricileri, DeepNude’u sadece eğlence için birkaç ay önce geliştirdiklerini ifade ederek, “Bu şekilde para kazanmak istemiyoruz. İnternette mutlaka DeepNude’un bazı kopyaları paylaşılacaktır, ancak onları satan taraf olmayacağız” açıklaması yaptı.

MARK ZUCKERBERG’İN BAŞINA GELDİ

Geçtiğimiz günlerde Instagram’da, Mark Zuckerberg’in sahte bir videosu yayınlandı. Bu videoda Zuckerberg, milyonlarca kişinin bilgilerine sahip olduğunu söylüyor, bunun nasıl bir güç anlamına geldiğini düşünülmesini istiyordu. 
Zuckerberg’in sahte videosuyla tartışılmaya başlanan deepfake videolarla ilgili olarak Instagram CEO’su Adam Mosseri ise şu an için bu konuda bir politikalarının olmadığını, öncelikle bu deepfake videolarını nasıl tanımlayacaklarına karar vermeleri gerektiğini ifade etmişti.