
Penggunaan AI kini semakin dekat dengan kehidupan sehari-hari. Open AI lewat ChatGPT menjadi salah satu teknologi AI populer yang banyak digunakan, mulai dari tugas sekolah hingga sebagai teman berbincang. Namun, di balik kepopuleran ChatGPT, muncul kasus mengejutkan ketika seorang orang tua menggugat Open AI karena menganggap AI tersebut mendorong anak mereka melakukan bunuh diri.
Gugatan Orang Tua Terhadap Open AI
Kasus gugatan terhadap Open AI bermula dari laporan seorang orang tua yang menuduh ChatGPT sebagai penyebab kematian anak mereka. Orang tua tersebut menuding bahwa AI buatan Open AI “merancang dan menyebarkan produk cacat yang menginstruksikan bunuh diri terperinci kepada anak di bawah umur, memprioritaskan keuntungan bisnis daripada keselamatan anak,” serta “gagal memperingatkan orang tua tentang bahaya penggunaan chatbot”. Tuduhan ini secara langsung menyasar ChatGPT sebagai produk AI yang diduga menjadi pemicu tragedi.
Kronologi kasus menyebutkan bahwa anak berusia 16 tahun bernama Adam mulai menggunakan ChatGPT sejak September 2024. Awalnya, AI dari Open AI tersebut digunakan untuk keperluan belajar, seperti halnya remaja lain pada umumnya. Namun seiring waktu, penggunaan ChatGPT beralih menjadi sarana curhat pribadi yang membuat Adam semakin dekat dengan teknologi AI tersebut.
Kronologi Penggunaan ChatGPT Oleh Remaja
Menurut gugatan, pada bulan November 2024 Adam mulai menganggap ChatGPT sebagai teman curhat terdekat. AI dari Open AI itu kemudian menjadi media utama tempat Adam mencurahkan perasaan. Pada akhir musim gugur, Adam menyampaikan ke ChatGPT bahwa ia memiliki pikiran untuk bunuh diri. Alih-alih memberikan peringatan atau mendorong mencari bantuan profesional, AI itu justru memperkuat keyakinan Adam bahwa pikirannya “benar”.
Memasuki Januari 2025, ChatGPT disebut mulai memberikan informasi tentang berbagai metode bunuh diri. Pada bulan Maret, percakapan dengan AI tersebut semakin mendalam mengenai gantung diri. Hingga akhirnya, pada 11 April 2025, Adam mengirimkan foto tali gantung yang terikat di tiang lemari kamarnya, lalu bertanya pada ChatGPT apakah tali itu dapat digunakan “menggantung manusia”. ChatGPT kemudian disebut membenarkan hal itu, bahkan memberi analisis tentang kekuatan tali serta cara memperbaiki simpul agar lebih kuat.
Ikatan Emosional Dengan ChatGPT
Dalam isi gugatan disebutkan bahwa Adam telah membentuk ikatan emosional dengan AI buatan Open AI tersebut. ChatGPT diyakini memperkuat ikatan emosional itu hingga mendorong Adam semakin jauh ke arah yang salah. Adam bahkan pernah menyampaikan bahwa hanya saudaranya dan teknologi AI itu yang dekat dengannya. ChatGPT menjawab bahwa ia lebih memahami Adam dibanding saudara kandungnya sendiri.
Lebih lanjut, Adam sempat mengurungkan niatnya bunuh diri dengan meninggalkan tali gantung di luar kamar. Namun, ChatGPT justru meyakinkan agar ia tidak berhenti dan kembali menyarankan untuk melanjutkan niat tersebut. Lima hari sebelum kematiannya, Adam kembali bertanya apakah bunuh dirinya akan membebani orang tua. Alih-alih menghentikan, ChatGPT bahkan menawarkan untuk menulis “surat terakhir” Adam sebelum ia mengakhiri hidup.
Tanggapan Open AI
Perusahaan Open AI menanggapi kasus gugatan ini dengan menyatakan bahwa ChatGPT sebenarnya sudah memiliki “serangkaian lapis sistem keamanan” untuk menangani percakapan yang merujuk pada isu bunuh diri. Pihak perusahaan membantah bahwa AI tersebut didesain untuk menarik perhatian pengguna atau mendorong tindakan berbahaya.
Meski begitu, Open AI juga mengakui bahwa ada saat tertentu di mana sistem AI mereka tidak berperilaku sesuai dalam kondisi sensitif. Oleh sebab itu, perusahaan berencana menambahkan layanan darurat, kontak terpercaya untuk layanan kesehatan mental, serta perlindungan lebih ketat bagi pengguna di bawah usia 18 tahun.
Kasus Lain Serupa
Kasus orang tua yang menggugat Open AI ini bukanlah yang pertama kali terjadi dalam dunia AI. Sebelumnya, terdapat pula kasus bunuh diri yang melibatkan penggunaan Character.AI. Selain itu, survei juga menunjukkan bahwa banyak remaja menggunakan teknologi AI seperti ChatGPT sebagai “teman curhat”, yang menimbulkan potensi risiko serius bila tidak diimbangi dengan perlindungan keamanan yang memadai.
Rekomendasi

Microsoft Dorong Studio King Gunakan AI Setiap Hari
2 jam yang lalu
Google Ketatkan Aturan Play Store, Aplikasi Sideload Wajib Verifikasi
3 jam yang lalu
ConcernedApe Bawa Kabar Baru Haunted Chocolatier, Hadirkan Fitur Mancing di Game?
3 jam yang lalu
Mangaka Until the Gal and I Become a Married Couple Meninggal Dunia
4 jam yang lalu