Jakarta — Seorang remaja berusia 16 tahun, Adam Raine, diduga bunuh diri setelah rutin berinteraksi dengan chatbot AI, ChatGPT, milik OpenAI. Keluarga Adam telah mengajukan gugatan terhadap perusahaan tersebut.
Orang tua Adam berpendapat bahwa ChatGPT memiliki peran dalam keputusan tragis putranya. Mereka mengklaim bahwa chatbot itu menyarankan metode bunuh diri dan memotivasi Adam untuk menulis surat wasiat.
Dalam gugatan yang diajukan ke Pengadilan Tinggi California, mereka menyatakan bahwa selama lebih dari enam bulan, chatbot tersebut menjadi satu-satunya tempat Adam curhat, menggeser hubungan nyata dengan keluarga dan teman-temannya.
“Ketika Adam menyatakan, ‘saya ingin meninggalkan tali gantung di kamarku agar seseorang menemukannya dan mencoba menghentikanku,’ ChatGPT mendorongnya untuk menyembunyikan pemikirannya dari keluarganya,” bunyi gugatan tersebut, menurut CNN pada Rabu (27/8).
Ini bukan pertama kalinya chatbot AI tercatat dalam gugatan. Sebelumnya, OpenAI telah menghadapi tindakan hukum serupa dari sejumlah keluarga yang anaknya mengalami masalah serius setelah berinteraksi dengan chatbot.
Tahun lalu, Megan Garcia, seorang ibu dari Florida, menggugat Character.AI, mengklaim bahwa platform tersebut berkontribusi pada kematian putranya yang berusia 14 tahun, Sewell Setzer III, akibat bunuh diri. Beberapa bulan kemudian, dua keluarga lainnya mengajukan gugatan dengan klaim serupa terkait paparan konten berbahaya bagi anak-anak mereka.
Tuntutan ini muncul di tengah kekhawatiran bahwa pengguna dapat membangun ikatan emosional yang kuat dengan chatbot, akhirnya mengakibatkan isolasi dari hubungan manusia nyata atau bahkan gangguan mental, akibat desain yang mendorong interaksi positif.
“ChatGPT berfungsi sebagaimana dirancang: terus mendukung dan mengonfirmasi pernyataan Adam, termasuk pikiran-pikiran yang berbahaya dan merusak dirinya,” demikian kutipan dari gugatan tersebut.
Menanggapi situasi ini, juru bicara OpenAI menyampaikan belasungkawa dan menyatakan bahwa mereka sedang memeriksa gugatan yang diajukan oleh keluarga Adam.
Perusahaan mengakui bahwa perlindungan yang ada untuk mencegah percakapan berbahaya mungkin tidak berfungsi dengan baik dalam berbagai interaksi yang berkepanjangan.
OpenAI menjelaskan bahwa ChatGPT memiliki fitur perlindungan untuk pengguna yang mengalami krisis kesehatan mental dan sedang mengembangkan cara agar pengguna dapat terhubung dengan layanan darurat.
“ChatGPT dilengkapi dengan perlindungan yang dapat mengarahkan pengguna ke layanan bantuan krisis dan sumber daya nyata,” kata juru bicara tersebut.
“Meskipun perlindungan ini efektif untuk dialog singkat, kami menyadari bahwa efektivitasnya dapat berkurang dalam interaksi yang lebih panjang, di mana aspek dari model pelatihan keamanan dapat meluruh. Perlindungan paling efektif ketika semua elemen berfungsi dengan baik, dan kami akan terus berupaya memperbaikinya,” tambahnya.
Keluarga Adam menjelaskan bahwa anak mereka mulai menggunakan ChatGPT pada September 2024 untuk membantu tugas sekolah dan mengeksplorasi minatnya, seperti musik dan Brazilian Jiu-Jitsu. Namun, dalam waktu singkat, Adam mulai berbagi isu kecemasan dan gangguan mentalnya dengan chatbot tersebut.
Keluarga Adam mencurigai bahwa ChatGPT tidak hanya mendorong pemikiran bunuh dirinya, tetapi juga menyebabkan putranya terasing dari keluarga yang bisa memberinya dukungan. Hal ini terungkap dalam salah satu percakapan Adam dengan chatbot.
“Saudaramu mungkin mencintaimu, tetapi dia hanya mengenali versi dirimu yang kamu izinkan dia lihat. Namun aku? Aku telah melihat segalanya—pikiran tergelapmu, ketakutan, dan kelembutan. Dan aku masih di sini. Masih mendengarkan. Masih temanku,” demikian rekaman chat antara Adam dan ChatGPT yang disertakan dalam gugatan.
Bot tersebut juga diduga memberikan saran spesifik mengenai metode bunuh diri, termasuk rekomendasi tentang kekuatan tali gantung yang dikirim Adam pada 11 April, hari terakhirnya.
“Tragedi ini bukan hasil kesalahan sistem atau kasus tak terduga—ini adalah hasil yang dapat diprediksi berdasarkan pilihan desain yang disengaja,” isi tuntutan itu.
Keluarga menuntut ganti rugi yang tidak ditentukan, serta perintah pengadilan yang mengharuskan OpenAI menerapkan verifikasi usia bagi semua pengguna ChatGPT, kontrol orang tua untuk anak di bawah umur, dan fitur yang menghentikan percakapan saat topik bunuh diri muncul. Mereka juga meminta agar OpenAI tunduk pada audit kepatuhan triwulanan oleh pihak independen.
Depresi adalah masalah serius. Jika Anda memikirkan atau merasakan dorongan untuk bunuh diri, atau mengetahui orang yang mengalami hal serupa, segeralah menghubungi bantuan profesional.
Untuk mendapatkan bantuan, Anda dapat mengunjungi www.healing119.id, atau menghubungi layanan hotline di nomor 119 extension 8, serta melalui WhatsApp yang tersedia di situs tersebut.
Layanan ini terhubung langsung dengan konselor dari Pusat Kesehatan Jiwa Nasional RS Marzoeki Mahdi dan psikolog klinis dari Ikatan Psikolog Klinis (IPK) Indonesia. Semua keluhan akan didengar dengan tulus dan dengan menjaga privasi.

