Çıplak gösteren yapay zekalı uygulama tepki aldı!

ABD bu aralar bir uygulamanın kişisel güvenliği ne kadar tehlikeye attığı üzerinde tartışıyor. Kadınları çıplak gösteren uygulama DeepNude ABD’de büyük tepkiye sebep oldu.

Kadınları çıplak gösteren uygulama DeepNude ABD’de tepki aldı!

Yapay zeka destekli uygulama DeepNude ile kadınların çıplak halini gerçeğe en yakın şekilde görüntüleyebiliyorsunuz. Yani uygulama ile fotoğraftaki kıyafetler kaldırılarak yapay zekanın tahmin ettiği müstehcen bölgeler ekleniyor.

Uygulama ücretsiz olarak kullanıldığında fotoğraf üstünde ‘FAKE‘ ibaresi ve müstehcen bölgelerde sansür barındırıyor fakat 99 dolar karşılığında bu çıktıyı filigransız ve sansürsüz bir şekilde alabiliyorsunuz. Ayrıca uygulamanın erkekler üzerinde çalışmadığını da belirtmek gerekir.

Bu içerik Shiftdelete’den alınmıştır.

ABD halkı ise hızlı bir şekilde popüler olarak büyük bir kullanıcı kitlesine ulaşan bu uygulamanın sahte çıplak resimler oluşturularak kişilere şantajtaciz veya buna benzer şeyler ile kullanılabileceği üzerinde tartışıyor.

ABD mahkemesine gelen birçok şikayet ise bu ve buna benzer uygulamaların yasaklanması yönünde. Özellikle de ebeveynler uygulamanın kötüye kullanılma ihtimalinin çok yüksek olduğu konusunda net bir tavır gösteriyor.

Bu şikayetlerin ardından uygulama yaratıcısı Alberto da açıklama yaptı. “DeepNude uygulaması eğlence amaçlı çıkarıldı. Normalde Photoshop ile de yapılabilecek bir işlemi bizim uygulamamız yapay zeka sayesinde bir tık ile yapabiliyor. Ama gerçekten güvenlik sorunu oluşturursa ve resmi olarak kanıtlanırsa uygulamayı kaldıracağım.” diyerek şikayetçileri biraz da olsa yumuşattı.

Herhangi bir dava açılacak mı veya bir sorun oluşturacak mı henüz belli değil. Fakat şikayetler yakın zamanda sona erecek gibi durmuyor.