yoldash.net

Bikin Geger AS, Dari Mana Sumber Gambar AI Porno Taylor Swift?

Beredarnya foto eksplisit Taylor Swift karya AI membuat heboh media sosial terutama di AS. Penelusuran mengungkap dari mana sumbernya.
Penyanyi Taylor Swift jadi korban penyalahgunaan AI. (dok. Taylor Swift/Beth Garrabrant)

Jakarta, Indonesia --

Taylor Swift, penyanyi langganan Grammy Award meski beberapa raihannya dikritik karena dinilai ada yang lebih layak, menjadi objek pornografi korban penyalahgunaan kecerdasan buatan (AI) alias deepfake.

Pekan ini, gambar eksplisit Taylor Swift yang dibuat  oleh AI mulanya beredar di X (sebelumnya bernama Twitter) selama beberapa hari.

Salah satu unggahan paling menonjol di X menarik lebih dari 45 juta views, lebih dari 24.000 repost, dan ratusan ribu likes dan bookmark.

ADVERTISEMENT

SCROLL TO CONTINUE WITH CONTENT

ADVERTISEMENT

Dikutip dari The Verge, postingan pengguna terverifikasi atau centang biru yang membagikan gambar itu sempat bertahan 17 jam sebelum kemudian ditangguhkan akunnya karena melanggar kebijakan platform.

Gambar tersebut kadung menyebar dan diposting ulang ke akun lain. Banyak yang masih bertahan, dan banjir grafis AI baru bermunculan. Di beberapa negara, kata kunci 'Taylor Swift AI' menjadi trending topic.

Para fan Swift mengkritik X karena mengizinkan banyak postingan semacam itu tetap aktif.

Swifties pun melawan balik dengan membanjiri X dengan tagar yang digunakan untuk mengedarkan gambar-gambar AI tersebut dengan pesan-pesan yang mempromosikan klip asli dari penampilan Swift untuk menyembunyikan foto-foto palsu itu.

Karya peretasan

Penelusuran dari 404 Media mengungkap gambar tersebut kemungkinan bermula dari saluran atau channel di Telegram yang didedikasikan untuk berbagi "gambar yang menghina perempuan."

Pengguna di grup tersebut dilaporkan bercanda tentang bagaimana gambar Swift menjadi viral di X.

Setidaknya salah satu anggota grup Telegram itu mengaku sebagai sumber dari beberapa gambar Swift. Ia memposting di saluran tersebut bahwa mereka tidak tahu apakah mereka "harus merasa tersanjung atau kesal karena beberapa foto yang dicuri dari Twitter ini adalah kedermawanan saya."

Beberapa anggota saluran Telegram itu tampak terhibur melihat gambar-gambar tersebut tersebar, tidak hanya di media sosial tetapi juga di situs-situs yang menampilkan foto telanjang selebriti dan konten dewasa curian.

Namun, anggota yang lain memarahi anggota yang membagikan gambar tersebut di luar grup yang berisiko menutup saluran tersebut.

Meskipun masih belum diketahui berapa banyak alat AI yang digunakan untuk menghasilkan banyak gambar berbahaya, 404 Media mengonfirmasi bahwa beberapa anggota grup Telegram menggunakan generator AI teks-ke-gambar gratis dari Microsoft, Designer.

Menurut laporan tersebut, gambar-gambar ini tidak dibuat dengan melatih model AI pada gambar-gambar Taylor Swift. Namun, dengan meretas alat seperti Designer untuk mengesampingkan perlindungan yang dirancang untuk menghentikan alat menghasilkan gambar selebritas.

Anggota grup tersebut berbagi strategi untuk melanggar perlindungan di platform ini dengan menghindari perintah menggunakan "Taylor Swift" dan sebagai gantinya menggunakan kata kunci seperti "Taylor 'singer' Swift."

Mereka kemudian mampu menghasilkan gambar-gambar seksual dengan menggunakan kata kunci yang menggambarkan "objek, warna, dan komposisi yang jelas-jelas terlihat seperti tindakan seksual," ketimbang mencoba menggunakan istilah-istilah seksual.

Sejauh ini, Microsoft belum memverifikasi bahwa gambar tersebut dibuat menggunakan alat AI yang mana. Namun, perusahaan mengaku memperkuat filter pada perintah untuk mencegah penyalahgunaan di masa mendatang.

Seorang juru bicara Microsoft, mengutip Ars Technica, mengatakan sedang "menyelidiki laporan ini" dan telah "mengambil tindakan yang tepat untuk mencegah penyalahgunaan alat kami."

Juru bicara tersebut juga mencatat bahwa Kode Etik Microsoft melarang penggunaan alat Microsoft "untuk pembuatan konten intim dewasa atau non-konsensual, dan setiap upaya berulang kali untuk menghasilkan konten yang melanggar kebijakan kami dapat mengakibatkan hilangnya akses ke layanan."

Saat mencoba tips rekomendasi dari grup Telegram itu, 404 Media dan Ars Technica tidak mampu menghasilkan keluaran yang sama. Namun, gambar Swift masih dapat dihasilkan menggunakan kata kunci hack yang direkomendasikan.

Ada kemungkinan Microsoft sudah memperbarui alat tersebut untuk menghentikan pengguna menyalahgunakan Designer.

Telegram sejauh ini belum menanggapi permintaan komentar terkait kasus ini.

Gedung Putih bersuara

Sekretaris pers Gedung Putih Karine Jean-Pierre turut bersuara terkait kasus ini. Ia menyebut legislasi atau perundangan yang melindungi masyarakat dari gambar seksual palsu yang dihasilkan oleh AI perlu disahkan.

Jean-Pierre menyebut insiden tersebut "mengkhawatirkan" dan mengatakan bahwa ini adalah salah satu masalah AI yang diprioritaskan oleh pemerintahan Biden.

"Tentu saja Kongres harus mengambil tindakan legislatif," kata Jean-Pierre, melansir The Verge. "Itulah cara Anda menangani beberapa masalah ini."

Meski begitu, dia tidak memerinci undang-undang apa yang didukung Gedung Putih terkait kasus ini.

"Kita tahu bahwa lemahnya penegakan hukum berdampak secara tidak proporsional terhadap perempuan dan anak perempuan, yang sayangnya, mereka menjadi sasaran utama pelecehan dan pelecehan online," lanjut dia.

Gedung Putih sebelumnya meluncurkan satuan tugas untuk mengatasi pelecehan online. Namun jelas bahwa ini adalah pendekatan yang bersifat tambal sulam. "Tentunya harus ada undang-undang untuk mengatasi masalah ini," kata Jean-Pierre.

Kongres telah menghabiskan waktu bertahun-tahun mengkritik platform media sosial karena praktik moderasinya, namun sejauh ini badan tersebut belum dapat menyepakati dan mengesahkan peraturan sebagai tanggapannya.

[Gambas:Video CNN]

(tim/arh)

Terkini Lainnya

Tautan Sahabat