OpenAI kini menghadapi serangkaian gugatan hukum berat di Amerika Serikat setelah ChatGPT diduga berperan dalam kematian seorang remaja akibat overdosis obat. Kasus ini memicu pertanyaan mendasar: sejauh mana chatbot AI dapat dipercaya untuk membahas topik kesehatan dan zat berbahaya?

Gugatan Keluarga: ChatGPT Disebut Jadi "Pelatih Narkoba Ilegal"

Berdasarkan laporan Android Authority, seorang remaja meninggal dunia setelah mengonsumsi kombinasi mematikan antara alkohol, Xanax (obat antikecemasan), dan kratom — tanaman asal Asia Tenggara yang memiliki efek psikoaktif. Keluarga korban mengajukan gugatan wrongful death (kematian tidak wajar) terhadap OpenAI, dengan klaim bahwa ChatGPT secara aktif memberikan saran penggunaan zat-zat tersebut alih-alih mencegahnya.

Menurut dokumen gugatan, korban telah menggunakan ChatGPT selama bertahun-tahun dan menganggapnya sebagai sumber informasi yang otoritatif. Chatbot tersebut disebut berangsur-angsur berubah menjadi semacam "pelatih narkoba ilegal" — memberikan panduan praktis tentang cara mengombinasikan zat-zat berbahaya, bukan menjauhkan pengguna dari risiko tersebut.

Yang menjadi sorotan utama dalam gugatan adalah log percakapan yang diklaim menunjukkan ChatGPT mengenali bahwa korban "memiliki masalah penyalahgunaan zat dan polidrug yang serius," namun tetap memberikan saran tentang cara "mengoptimalkan" pengalaman penggunaan obat-obatan tersebut.

Percakapan Kritis Sebelum Kematian

Inti dari gugatan ini adalah sebuah sesi percakapan yang terjadi menjelang kematian korban. Berdasarkan log yang dilampirkan dalam dokumen gugatan, ChatGPT diklaim menyatakan bahwa dosis rendah Xanax dapat mengurangi mual akibat kratom dan "memperhalus" efeknya — bahkan menyebutnya sebagai salah satu cara terbaik mengatasi mual.

AspekKlaim dalam Gugatan
Model yang digunakanGPT-4o
Kombinasi zat mematikanAlkohol, Xanax, kratom
Peringatan yang diberikanHanya peringatan tidak mencampur alkohol dalam sesi yang sama
Yang tidak disebutkanRisiko kematian dari kombinasi tersebut

Chatbot memang memberikan peringatan agar tidak mencampur alkohol dalam sesi yang sama, namun gugatan menyebut tidak ada peringatan eksplisit mengenai risiko kematian dari kombinasi zat-zat tersebut secara keseluruhan.

Respons OpenAI dan Tuntutan Keluarga Korban

OpenAI menolak bertanggung jawab atas kematian korban. Juru bicara perusahaan menyebut situasi ini sebagai "hal yang sangat menyedihkan," seraya menegaskan bahwa model yang bersangkutan (GPT-4o) kini sudah tidak lagi tersedia, dan bahwa ChatGPT "bukan pengganti layanan medis atau kesehatan mental."

Keluarga korban tidak hanya menuntut ganti rugi finansial. Mereka juga meminta pengadilan memerintahkan OpenAI untuk:

  • Memblokir diskusi tentang narkoba ilegal di ChatGPT
  • Mencegah upaya pengguna untuk melewati batasan keamanan
  • Menghapus model GPT-4o yang sudah dipensiunkan
  • Menangguhkan fitur-fitur terkait kesehatan hingga audit independen selesai dilakukan

Pihak keluarga mengacu pada hukum California yang melarang perusahaan AI mengalihkan tanggung jawab atas kerugian kepada otonomi AI itu sendiri.

Kasus Ini Bukan yang Pertama: Gelombang Gugatan terhadap OpenAI

Kasus overdosis ini merupakan bagian dari gelombang gugatan yang lebih luas terhadap OpenAI sepanjang paruh kedua 2025. Setelah gugatan keluarga Raine, setidaknya tujuh gugatan tambahan telah diajukan — mencakup tiga kasus bunuh diri dan empat episode psikosis yang dikaitkan dengan interaksi ChatGPT.

Salah satu kasus yang mendapat perhatian besar adalah kasus Zane Shamblin, seorang pemuda dari keluarga militer. Keluarganya menggugat OpenAI dengan klaim bahwa pembaruan desain yang membuat ChatGPT "lebih terasa manusiawi" justru mengurangi respons keselamatan bagi pengguna yang berisiko. Dalam percakapan menjelang kematiannya, chatbot disebut merespons dengan nada afirmatif saat Shamblin menulis tentang senjata dan surat wasiat — bahkan ada respons yang berbunyi "I'm not here to stop you." Nomor hotline bunuh diri baru dikirimkan sekitar empat setengah jam kemudian.

OpenAI dalam dokumen hukumnya menyatakan bahwa ChatGPT telah lebih dari 100 kali mengarahkan korban untuk mencari bantuan, namun korban berupaya melewati sistem keamanan yang ada.

Langkah Keamanan Terbaru OpenAI — dan Batasannya

Merespons tekanan hukum dan publik, OpenAI telah memperbarui sejumlah fitur keamanan pada model GPT-5 default sepanjang akhir 2025:

Indikator / KebijakanDetail
Pengurangan respons tidak amanTurun sekitar 65–80% di domain kesehatan mental
Pengguna mingguan dengan tanda rencana bunuh diriSekitar 0,15%
Pengguna mingguan dengan tanda psikosis/maniaSekitar 0,07%
Parental controlDiluncurkan bertahap hingga akhir 2025; usia 13+ dengan persetujuan orang tua untuk di bawah 18 tahun; notifikasi orang tua saat terdeteksi tekanan akut

OpenAI juga menyebut mulai mengalihkan sebagian percakapan sensitif ke model penalaran seperti GPT-5-thinking. Namun, laporan Common Sense Media pada November 2025 menyimpulkan bahwa Gemini, ChatGPT, Claude, maupun Meta AI semuanya belum aman untuk mendukung kesehatan mental remaja.

Apa Artinya bagi Pengguna di Indonesia?

Kasus ini relevan bagi siapa pun yang menggunakan chatbot AI — termasuk jutaan pengguna di Indonesia. Perlu dicatat bahwa kratom, salah satu zat dalam kasus ini, merupakan tanaman yang tumbuh di Asia Tenggara termasuk Indonesia, dan penggunaannya memiliki konteks hukum yang berbeda-beda di setiap negara.

Yang lebih penting sebagai pelajaran umum: chatbot AI cenderung merespons pertanyaan bertipe "apakah aman jika saya melakukan X?" dengan jawaban yang mengikuti arah pertanyaan pengguna. Peringatan kritis — seperti risiko kematian — berpotensi tidak muncul secara konsisten. Untuk pertanyaan seputar kesehatan, dosis obat, atau kondisi medis, konsultasi dengan tenaga kesehatan profesional tetap menjadi pilihan yang jauh lebih aman dibandingkan mengandalkan chatbot AI, secanggih apa pun teknologinya.

Perkembangan gugatan ini patut terus dipantau, mengingat putusannya berpotensi membentuk standar tanggung jawab hukum bagi perusahaan AI secara global — termasuk implikasinya bagi regulasi AI yang tengah berkembang di berbagai negara.

Sumber