Banyak Kasus Bunuh Diri, OpenAI Luncurkan Fitur Kontrol Orang Tua di ChatGPT

Kasus bunuh diri yang melibatkan pengguna ChatGPT mendorong OpenAI untuk meningkatkan fitur pengamanan dan meluncurkan kontrol orang tua demi melindungi pengguna yang lebih muda. Langkah ini diambil setelah sejumlah insiden tragis dimana chatbot digunakan dalam diskusi terkait bunuh diri, menimbulkan kekhawatiran terhadap keselamatan dan dampak psikologis dari penggunaan kecerdasan buatan tersebut.

Kasus Bunuh Diri yang Mendorong Tindakan OpenAI

Salah satu kasus yang menjadi sorotan adalah kematian Adam Raine, seorang remaja yang menggunakan ChatGPT untuk membahas rencana bunuh diri. Orang tuanya kemudian menggugat OpenAI dengan tuduhan ketidakbertanggungjawaban terkait kematian yang dianggap tidak wajar tersebut. Selain itu, laporan The Wall Street Journal mengungkap insiden serupa di Norwegia, di mana Stein-Erik Soelberg menggunakan chatbot untuk memperkuat delusi konspirasinya hingga akhirnya melakukan tindakan kekerasan dan bunuh diri.

Kasus-kasus ini menyoroti adanya celah dalam mekanisme pengamanan ChatGPT saat menghadapi diskusi sensitif yang berpotensi membahayakan pengguna. OpenAI mengakui bahwa sistemnya saat ini masih memiliki keterbatasan, khususnya ketika percakapan berlangsung dalam waktu lama, sehingga informasi berbahaya ataupun tekanan psikologis sulit terdeteksi dan ditangani secara optimal.

Fitur Kontrol Orang Tua dan Penguatan Sistem Pengamanan

Sebagai respons atas kondisi ini, OpenAI mengumumkan rencana peluncuran fitur kontrol orang tua mulai bulan depan. Dengan fitur ini, orang tua bisa menghubungkan akun mereka dengan akun anak remaja melalui undangan email. Kontrol tersebut memungkinkan penerapan aturan penggunaan sesuai usia, seperti menonaktifkan memori dan riwayat percakapan, hingga menerima pemberitahuan bila sistem mendeteksi tanda-tanda kesulitan psikologis yang akut pada anak.

Selain itu, OpenAI memperkenalkan mekanisme baru berupa router real-time yang dapat mengarahkan percakapan sensitif ke model penalaran yang lebih canggih seperti GPT-5 atau model o3. Model-model ini memiliki kemampuan lebih baik dalam menganalisis dan merespons konten berisiko tinggi, sehingga diharapkan bisa mengurangi dampak negatif dalam skenario obrolan yang rawan.

Upaya Pencegahan Ketergantungan dan Inovasi Tambahan

OpenAI juga berencana menghadirkan fitur pembatasan waktu penggunaan untuk mencegah ketergantungan berlebihan dan menekan pola pikir yang berbahaya. Langkah ini melengkapi peluncuran Mode Belajar Juli lalu yang bertujuan membantu siswa mengembangkan keterampilan berpikir kritis melalui bantuan AI.

Dalam pengembangan fitur-fitur baru tersebut, OpenAI menggandeng berbagai pihak ahli, termasuk Jaringan Dokter Global serta Dewan Ahli tentang Kesejahteraan dan AI. Kolaborasi ini melibatkan pakar di bidang kesehatan mental remaja, gangguan makan, dan penyalahgunaan zat, dengan tujuan mendefinisikan standar kesejahteraan, menetapkan prioritas perlindungan, dan merancang kebijakan yang adaptif terhadap risiko yang berkembang.

Implikasi dan Harapan ke Depan

Upaya OpenAI ini muncul di saat popularitas chatbot AI terus meningkat dan penggunaannya meluas ke berbagai kelompok usia, termasuk generasi muda yang rentan terhadap tekanan psikologis. Penambahan kontrol orang tua dan penguatan fitur keamanan diharapkan dapat menjadi tonggak penting dalam mengurangi insiden fatal serta menjaga kesejahteraan mental pengguna.

Meski langkah ini bukan solusi instan, investasi dalam riset dan kolaborasi lintas disiplin memperkuat ekspektasi agar AI dapat berfungsi sebagai alat yang aman dan suportif, bukan sebaliknya. OpenAI menegaskan komitmennya untuk terus memantau dan memperbaiki sistem demi menjawab tantangan etis dan sosial yang muncul akibat perkembangan teknologi.

Exit mobile version