Gambar AI Mirip Taylor Swift Viral di Situs Porno, Swifties Marah Besar
Jum'at, 26 Januari 2024 - 12:31 WIB
JAKARTA - Gambar AI mirip Taylor Swift viral di situs porno dan media sosial. Kabar tak sedap ini memicu reaksi para penggemar. Mereka marah besar.
Mengutip Daily Mail pada Jumat (26/1/2024), penyanyi 34 tahun itu menjadi target dari situs porno deepfake. Ada banyak foto Taylor Swift yang diunggah dalam platform tersebut.
Unggahan deepfake ini langsung tersebar di X, Facebook, Instagram dan Reddit. Hal ini langsung membuat swifties, penggemar Taylor Swift marah dan melakukan pembelaan kepada sang idola.
“Kita berbicara tentang tubuh/wajah seorang wanita yang digunakan untuk sesuatu yang mungkin tidak akan pernah dia izinkan/merasa nyaman. Bagaimana tidak ada peraturan atau undang-undang yang mencegah ini?” tulis salah satu penggemar Taylor Swift di X, dikutip dari Daily Mail, Jumat (26/1/2024).
“Saya akan membutuhkan keseluruhan komunitas Swiftie dewasa untuk masuk ke Twitter, mencari istilah 'Taylor Swift AI,' klik tab media, dan laporkan setiap foto pornografi Taylor yang dihasilkan AI yang dapat mereka lihat karena saya sudah selesai dengan BS ini. Dapatkan bersama Elon,” tulis penggemar Taylor Swift lainnya.
“Siapa pun yang membuat sampah ini perlu ditangkap. Apa yang saya lihat benar-benar menjijikkan, dan omong s**t semacam ini seharusnya ilegal... kita PERLU melindungi wanita dari hal-hal seperti ini,” kata penggemar lainnya.
Taylor Swift sendiri belum memberi respons terkait masalah tersebut. Namun, penggemarnya terus memberikan pembelaan.
Hal tersebut membuat beberapa akun yang membagikan konten AI Taylor Swift ditangguhkan. Beberapa konten bahkan telah dihapuskan.
Pornografi deepfake merupakan situs ilegal di Texas, Minnesota, New York, Virginial, Hawaii dan Georgia. Di Illinois dan California, korban dapat menuntut pencipta pornografi di pengadilan atas pencemaran nama baik.
Mengutip Daily Mail pada Jumat (26/1/2024), penyanyi 34 tahun itu menjadi target dari situs porno deepfake. Ada banyak foto Taylor Swift yang diunggah dalam platform tersebut.
Baca Juga
Unggahan deepfake ini langsung tersebar di X, Facebook, Instagram dan Reddit. Hal ini langsung membuat swifties, penggemar Taylor Swift marah dan melakukan pembelaan kepada sang idola.
“Kita berbicara tentang tubuh/wajah seorang wanita yang digunakan untuk sesuatu yang mungkin tidak akan pernah dia izinkan/merasa nyaman. Bagaimana tidak ada peraturan atau undang-undang yang mencegah ini?” tulis salah satu penggemar Taylor Swift di X, dikutip dari Daily Mail, Jumat (26/1/2024).
“Saya akan membutuhkan keseluruhan komunitas Swiftie dewasa untuk masuk ke Twitter, mencari istilah 'Taylor Swift AI,' klik tab media, dan laporkan setiap foto pornografi Taylor yang dihasilkan AI yang dapat mereka lihat karena saya sudah selesai dengan BS ini. Dapatkan bersama Elon,” tulis penggemar Taylor Swift lainnya.
“Siapa pun yang membuat sampah ini perlu ditangkap. Apa yang saya lihat benar-benar menjijikkan, dan omong s**t semacam ini seharusnya ilegal... kita PERLU melindungi wanita dari hal-hal seperti ini,” kata penggemar lainnya.
Taylor Swift sendiri belum memberi respons terkait masalah tersebut. Namun, penggemarnya terus memberikan pembelaan.
Hal tersebut membuat beberapa akun yang membagikan konten AI Taylor Swift ditangguhkan. Beberapa konten bahkan telah dihapuskan.
Pornografi deepfake merupakan situs ilegal di Texas, Minnesota, New York, Virginial, Hawaii dan Georgia. Di Illinois dan California, korban dapat menuntut pencipta pornografi di pengadilan atas pencemaran nama baik.
Lihat Juga :
tulis komentar anda