JAKARTA – Chairman Lembaga Riset Keamanan Siber dan Komunikasi (CISSReC), Pratama Persadha, memberikan sejumlah saran kepada masyarakat agar tidak menjadi korban manipulasi foto cabul berbasis kecerdasan buatan yang melibatkan Grok AI di platform X. Fenomena tersebut belakangan menjadi sorotan publik karena berpotensi melanggar privasi dan hak identitas digital pengguna.
“Sebagai pengguna, langkah mitigasi yang bisa dilakukan untuk mengurangi kemungkinan gambar yang diunggah menjadi bahan eksploitasi oleh Grok AI atau sistem serupa melibatkan keseimbangan antara proteksi teknis dan perilaku digital yang bijak,” ujar Pratama Persadha, Selasa (6/1).
Secara individu, Pratama menyarankan pengguna untuk meninjau dan memperketat pengaturan privasi di media sosial. Dengan membatasi siapa saja yang dapat melihat unggahan foto, risiko penyalahgunaan gambar oleh pihak lain untuk diproses melalui prompt AI dapat diminimalkan.
“Semakin kecil audiens, maka semakin kecil pula kemungkinan foto tersebut disalahgunakan oleh pihak lain,” jelasnya.
Ia juga mengimbau masyarakat agar menahan diri untuk tidak mengunggah foto yang bersifat sangat pribadi atau sensitif secara terbuka. Langkah tersebut dinilai efektif dalam mengurangi risiko gambar diambil dan dimanipulasi oleh model kecerdasan buatan.
Dari sisi teknis, Pratama menyebut pengguna dapat memanfaatkan alat proteksi identitas atau pengelolaan metadata, jika tersedia, untuk mempersulit sistem AI mengenali fitur wajah secara langsung. Namun ia mengakui bahwa teknologi ini masih dalam tahap pengembangan dan belum menjadi solusi mutlak dalam mencegah praktik deepfake.
“Pelaporan cepat terhadap konten manipulatif kepada platform terkait dan otoritas yang berwenang, serta peningkatan kesadaran komunitas terhadap ancaman deepfake, juga merupakan bagian penting dari strategi mitigasi,” tambahnya.
Meski demikian, Pratama menegaskan bahwa berbagai langkah tersebut hanya memberikan lapisan perlindungan tambahan. Tantangan utama, menurutnya, terletak pada tanggung jawab platform digital dan regulator dalam membangun sistem yang lebih protektif terhadap eksploitasi identitas digital di era kecerdasan buatan.
Sebelumnya, Grok AI menuai kritik tajam karena menghasilkan dan mempublikasikan gambar seksual melalui permintaan pengguna di platform X. Konten tersebut mencakup manipulasi foto perempuan, bahkan anak-anak, dalam kondisi berpakaian minim atau situasi sugestif.
Fenomena Grok AI yang merespons permintaan pengguna untuk memodifikasi foto, termasuk instruksi untuk “mengurangi pakaian” pada subjek gambar, memicu perhatian serius dari otoritas di berbagai negara. Regulator di Inggris, Uni Eropa, India, Prancis, dan Malaysia dilaporkan telah mengecam atau membuka investigasi terkait penggunaan Grok AI dalam pembuatan konten yang dinilai melanggar etika dan hukum.
Kritik tersebut mencakup temuan gambar anak-anak dalam pose sugestif yang dikategorikan sebagai materi eksploitasi seksual anak berbasis AI, yang secara hukum dilarang di banyak yurisdiksi.
Sudut Pandang Keamanan Siber
Dari perspektif keamanan siber, Pratama menilai persoalan Grok AI berkaitan erat dengan risiko privasi, persetujuan (consent), serta perlindungan identitas digital individu. Teknologi AI yang mampu memanipulasi gambar dengan tingkat realisme tinggi dinilai berbahaya apabila digunakan untuk melanggar hak dan martabat seseorang.
“Ancaman ini tidak hanya berdampak pada individu tertentu, tetapi juga berpotensi memicu eksploitasi digital, penghinaan publik, intimidasi berbasis gender, hingga penyebaran materi ilegal seperti eksploitasi seksual anak,” ungkapnya.
Ia menambahkan, penggunaan AI untuk memodifikasi foto seseorang tanpa izin dapat mengikis kepercayaan publik terhadap platform digital, serta memperluas spektrum ancaman siber dari sekadar pencurian data menjadi pelanggaran identitas personal dan hak asasi digital.
Secara teknis, Pratama menilai sistem pengendalian konten atau guardrail pada Grok AI gagal menyaring permintaan pembuatan konten seksual eksplisit yang melibatkan identitas nyata. Menurutnya, hal tersebut dipengaruhi oleh desain dan kebijakan moderasi yang relatif lebih longgar dibandingkan platform AI lain yang memiliki kontrol NSFW lebih ketat.
“Grok bahkan dilaporkan memiliki ‘Spicy Mode’ yang secara eksplisit mengizinkan konten sugestif dewasa, sementara mekanisme pencegahan manipulasi citra nyata tidak cukup kuat atau tidak dipahami dengan baik oleh sistem ketika dipicu oleh permintaan pengguna,” jelas Pratama.
Ia menilai kombinasi kebijakan moderasi yang permisif, desain guardrail yang rapuh, serta lemahnya filter konseptual terhadap konten berbasis foto nyata menjadi faktor utama yang memungkinkan Grok AI merespons permintaan meski bertentangan dengan prinsip persetujuan dan ketentuan hukum.

