Portal Baraya – Media sosial X menghentikan pencarian untuk kata-kata Taylor Swift dan Taylor Swift AI.
Hal ini dilakukan sebagai respons terhadap penyebaran gambar-gambar palsu dari artis terkenal tersebut yang dibuat dengan kecerdasan buatan (AI) di platformnya
Gambar-gambar tersebut merupakan produk pornografi yang dihasilkan oleh AI. Gambar-gambar tersebut diunggah pada minggu lalu dan menjadi viral selama 17 jam sebelum dihapus oleh X.
Akun yang mengunggah gambar-gambar tersebut juga diblokir oleh X. Taylor Swift menjadi korban terbaru dari pornografi AI.
Salah satu gambar palsu Taylor Swift tersebut mendapatkan lebih dari 45 juta tayangan, dibagikan 24 ribu kali, dan mendapatkan ratusan ribu suka.
Di beberapa negara, Taylor Swift AI menjadi topik yang populer dan gambar-gambarnya semakin luas tersebar.
Saat ini, jika pengguna X mencari ‘Taylor Swift’ atau ‘Taylor Swift AI’, mereka akan melihat pesan ‘ada kesalahan teknis. coba muat ulang’.
Joe Benarroch, Kepala Bisnis X, menyatakan bahwa ini adalah tindakan sementara untuk ‘mengutamakan keamanan’.
Tindakan ini merupakan kelanjutan dari tindakan X sebelumnya, pada 26 Januari, yang melarang pengunggahan gambar-gambar Non-Consensual Nudity di platformnya.
Non-Consensual Nudity adalah gambar-gambar yang menampilkan orang tanpa izin dari orang tersebut. Bersamaan dengan itu, X juga menghapus semua gambar Taylor Swift AI.
Meta tampaknya juga mengikuti larangan pencarian terkait Taylor Swift AI.
Hal ini terlihat dari Threads dan Instagram yang memberikan saran ‘Taylor Swift AI’ jika pengguna mengetik ‘Taylor’ di kotak pencariannya.
Namun, tidak ada hasil pencarian yang ditampilkan. Sebaliknya, pengguna mungkin akan mendapatkan pesan yang mengatakan ‘kadang berhubungan dengan aktivitas organisasi dan individu berbahaya’.
Beberapa laporan menyebutkan bahwa Taylor Swift sedang mempertimbangkan langkah hukum terhadap situs-situs yang memberikan ruang bagi gambar-gambarnya yang palsu.
Laporan dari 404 MEDIA menyebutkan bahwa gambar-gambar Taylor Swift yang bersifat seksual tersebut kemungkinan berasal dari sebuah grup di Telegram. Di grup tersebut, para penggunanya membagikan gambar-gambar perempuan AI yang dibuat menggunakan Microsoft Designer.
CEO Microsoft Satya Nadella menyatakan bahwa deepfakes, “sudah menimbulkan bahaya dan masalah.” Dalam wawancaranya dengan NBC Nightly News, Jumat lalu, Nadella menyatakan bahwa perusahaan AI perlu bergerak cepat untuk membuat aturan yang lebih baik.
Juru bicara Gedung Putih, Karine Jean-Pierre, juga menekankan hal yang sama dengan menyerukan kepada Kongres untuk menciptakan peraturan yang melindungi orang-orang dari gambar porno deepfakes.