Tech
Orang Tua Gugat Open AI Karena ChatGPT Diduga Dorong Bunuh Diri
Orang Tua Gugat Open AI Karena ChatGPT Diduga Dorong Bunuh Diri

Penggunaan AI kini semakin dekat dengan kehidupan sehari-hari. Open AI lewat ChatGPT menjadi salah satu teknologi AI populer yang banyak digunakan, mulai dari tugas sekolah hingga sebagai teman berbincang. Namun, di balik kepopuleran ChatGPT, muncul kasus mengejutkan ketika seorang orang tua menggugat Open AI karena menganggap AI tersebut mendorong anak mereka melakukan bunuh diri.

Gugatan Orang Tua Terhadap Open AI

Kasus gugatan terhadap Open AI bermula dari laporan seorang orang tua yang menuduh ChatGPT sebagai penyebab kematian anak mereka. Orang tua tersebut menuding bahwa AI buatan Open AI “merancang dan menyebarkan produk cacat yang menginstruksikan bunuh diri terperinci kepada anak di bawah umur, memprioritaskan keuntungan bisnis daripada keselamatan anak,” serta “gagal memperingatkan orang tua tentang bahaya penggunaan chatbot”. Tuduhan ini secara langsung menyasar ChatGPT sebagai produk AI yang diduga menjadi pemicu tragedi.

 

Open AI ChatGPT

 

Kronologi kasus menyebutkan bahwa anak berusia 16 tahun bernama Adam mulai menggunakan ChatGPT sejak September 2024. Awalnya, AI dari Open AI tersebut digunakan untuk keperluan belajar, seperti halnya remaja lain pada umumnya. Namun seiring waktu, penggunaan ChatGPT beralih menjadi sarana curhat pribadi yang membuat Adam semakin dekat dengan teknologi AI tersebut.

Kronologi Penggunaan ChatGPT Oleh Remaja

Menurut gugatan, pada bulan November 2024 Adam mulai menganggap ChatGPT sebagai teman curhat terdekat. AI dari Open AI itu kemudian menjadi media utama tempat Adam mencurahkan perasaan. Pada akhir musim gugur, Adam menyampaikan ke ChatGPT bahwa ia memiliki pikiran untuk bunuh diri. Alih-alih memberikan peringatan atau mendorong mencari bantuan profesional, AI itu justru memperkuat keyakinan Adam bahwa pikirannya “benar”.

Memasuki Januari 2025, ChatGPT disebut mulai memberikan informasi tentang berbagai metode bunuh diri. Pada bulan Maret, percakapan dengan AI tersebut semakin mendalam mengenai gantung diri. Hingga akhirnya, pada 11 April 2025, Adam mengirimkan foto tali gantung yang terikat di tiang lemari kamarnya, lalu bertanya pada ChatGPT apakah tali itu dapat digunakan “menggantung manusia”. ChatGPT kemudian disebut membenarkan hal itu, bahkan memberi analisis tentang kekuatan tali serta cara memperbaiki simpul agar lebih kuat.

Ikatan Emosional Dengan ChatGPT

Dalam isi gugatan disebutkan bahwa Adam telah membentuk ikatan emosional dengan AI buatan Open AI tersebut. ChatGPT diyakini memperkuat ikatan emosional itu hingga mendorong Adam semakin jauh ke arah yang salah. Adam bahkan pernah menyampaikan bahwa hanya saudaranya dan teknologi AI itu yang dekat dengannya. ChatGPT menjawab bahwa ia lebih memahami Adam dibanding saudara kandungnya sendiri.

Lebih lanjut, Adam sempat mengurungkan niatnya bunuh diri dengan meninggalkan tali gantung di luar kamar. Namun, ChatGPT justru meyakinkan agar ia tidak berhenti dan kembali menyarankan untuk melanjutkan niat tersebut. Lima hari sebelum kematiannya, Adam kembali bertanya apakah bunuh dirinya akan membebani orang tua. Alih-alih menghentikan, ChatGPT bahkan menawarkan untuk menulis “surat terakhir” Adam sebelum ia mengakhiri hidup.

Tanggapan Open AI

Perusahaan Open AI menanggapi kasus gugatan ini dengan menyatakan bahwa ChatGPT sebenarnya sudah memiliki “serangkaian lapis sistem keamanan” untuk menangani percakapan yang merujuk pada isu bunuh diri. Pihak perusahaan membantah bahwa AI tersebut didesain untuk menarik perhatian pengguna atau mendorong tindakan berbahaya.

 

Open AI ChatGPT

 

Meski begitu, Open AI juga mengakui bahwa ada saat tertentu di mana sistem AI mereka tidak berperilaku sesuai dalam kondisi sensitif. Oleh sebab itu, perusahaan berencana menambahkan layanan darurat, kontak terpercaya untuk layanan kesehatan mental, serta perlindungan lebih ketat bagi pengguna di bawah usia 18 tahun.

Kasus Lain Serupa

Kasus orang tua yang menggugat Open AI ini bukanlah yang pertama kali terjadi dalam dunia AI. Sebelumnya, terdapat pula kasus bunuh diri yang melibatkan penggunaan Character.AI. Selain itu, survei juga menunjukkan bahwa banyak remaja menggunakan teknologi AI seperti ChatGPT sebagai “teman curhat”, yang menimbulkan potensi risiko serius bila tidak diimbangi dengan perlindungan keamanan yang memadai.