Yetkililer, yakın zamanda üyelerinin cinsel içerikli ”deepfake” görüntüler oluşturduğu ve paylaştığı çok sayıda sohbet grubu tespit etti. Bu görüntüler arasında reşit olmayan kız çocuklarına ait görüntülerin de yer aldığı belirlendi.
Deepfake’ler yapay zeka kullanılarak üretiliyor ve çoğunlukla gerçek bir şahsın yüzüyle sahte bir vücudun birleştirilmesiyle oluşturuluyor.
Güney Kore, söz konusu tespitlerin ardından acil toplantısı düzenledi.
Ulusal acil durum
Çoğunlukla genç öğrencilerden oluştuğu tespit edilen kullanıcıların, tanıdıkları kişilerin (hem sınıf arkadaşları hem de öğretmenler) fotoğraflarını yüklediği ve başka kullanıcıların da bunları cinsel içerikli deepfake resimlere dönüştürdüğü ortaya çıktı.
Cumhurbaşkanı Yoon, kabine toplantısında yaptığı açıklamada, ”Son zamanlarda sosyal medyada, sayısız kişiyi hedef alan deepfake videoları hızla dolaşmaya başladı. Kurbanlar çoğunlukla küçük yaştaki çocuklar, failler ise çoğunlukla gençlerden oluşuyor. Bu durum artık ulusal bir acil durum haline geldi ve sıkı bir çalışma başlatacağız. Sağlıklı bir medya kültürü inşa edebilmek için daha doğru eğitim vereceğiz.” ifadelerine yer verdi.