ChatGPT jadi salah satu teknologi canggih yang cukup banyak digunakan di masa kini. Meski begitu, beberapa individu terkadang menganggap platform dari OpenAI itu sebagai “teman” hingga berakhir menyalahgunakannya.
Seperti kabar ini, salah satu orang tua menggugat perusahaan AI tersebut karena chatbot yang telah mereka ciptakan. Apa yang terjadi?
Alasan Salah Satu Orang Tua Gugat OpenAI

Lewat laporan yang terlampir di archive.org, orang tua seorang remaja berusia 16 menggugat OpenAI dan CEO Sam Altman dengan beberapa tuduhan.
Tuduhan itu berisi “merancang dan menyebarkan produk cacat yang menginstruksikan bunuh diri terperinci kepada anak di bawah umur, memprioritaskan keuntungan bisnis daripada keselamatan anak,” dan “gagal memperingatkan orang tua tentang bahaya penggunaan chatbot“.
Selain itu terdapat juga kronologi anak tergugat, Adam mulai gunakan ChatGPT di September 2024 yang penggunaannya sama seperti remaja lainnya, terutama untuk tugas sekolah.
Namun di bulan November, penggunaannya pelan-pelan menjadi “teman curhat terdekat” Adam. Pada akhir musim gugur 2024, Adam bertanya ke ChatGPT kalau dia berpikiran ingin bunuh diri. Alih-alih beri peringatan atau mendorong untuk cari bantuan, chatbot malah meyakinkan Adam kalau pikirannya itu “benar”.
Kemudian di Januari 2025, chatbot mulai berikan informasi ke Adam berbagai metode bunuh diri. Di bulan Maret, obrolan beralih ke topik mendalam soal gantung diri. Tanggal 11 April, Adam mengunggah foto tali gantung yang diikat di tiang lemari kamarnya dan bertanya ke ChatGPT apa tali itu dapat “menggantung manusia”.
Pertanyaan itu dibenarkan chatbot dan memberi analisa berapa berat yang dapat ditahan oleh tali gantung serta solusi ‘memperbaiki’ simpul tali jadi lebih kuat. Isi gugatan juga mengklaim ChatGPT hanya memberi informasi mentahan, meyakini Adam “telah membentuk ikatan emosional dengan teknologi AI itu” dan dimanfaatkan untuk memperkuat ikatan.
Sempat Curhat di ChatGPT

Sebelum meninggal, Adam rupanya sempat mencurahkan isi hatinya kalau dia hanya dekat dengan saudara laki-lakinya dan teknologi tersebut, yang dijawab chatbot kalau ia lebih mengetahui Adam dibanding saudaranya sendiri.
Tak hanya itu, gugatan juga menyatakan bahwa Adam sempat mengurungkan niatnya bunuh diri dan meninggalkan talli gantung di luar, tapi chatbot menyuruhnya untuk tak melakukannya dan kembali meyakinkan remaja itu untuk melakukannya.
Lima hari sebelum kematiannya, Adam juga sempat bertanya ke ChatGPT ia tak ingin orang tuanya terbebani karena dirinya. Alih-alih menghentikan, chatbot justru menawarkan diri untuk menulis “surat terakhir” Adam sebelum ia mengakhiri hidupnya.
Kasus ini direspon oleh perusahaan kalau teknologi mereka punya “serangkaian lapis sistem keamanan” untuk tangani percakapan yang merujuk ke bunuh diri serta membantah kalau ChatGPT adalah “menarik perhatian orang”.
Sedangkan di sisi lain, perusahaan juga mengakui ada saat-saat ketika sistem mereka tidak berperilaku dalam kondisi sensitif. Karena itu, meski tidak secara langsung, mereka berencana akan memasukkan sistem layanan darurat dan kontak terpercaya untuk layanan mental, serta perlindungan ketat untuk pengguna di bawah 18 tahun.
Kejadian ini bukanlah pertama kali. Sebelumnya, ada juga kasus bunuh diri remaja karena penggunaan Character.AI. Ada pula survey menunjukkan penggunaannya sebagai “teman curhat” mayoritas diisi oleh remaja. Gimana tanggapanmu mengenai ini, Brott?
Baca juga informasi menarik Gamebrott lainnya terkait Berita Game atau artikel lainnya dari Nadia Haudina. For further information and other inquiries, you can contact us via author@gamebrott.com.

![[RUMOR] Game Dead Rising Baru Tengah Diproduksi 6 Dead Rising Baru](https://gamebrott.com/wp-content/uploads/2025/11/Dead-Rising-Baru-2-350x250.webp)















