
OpenAI, perusahaan di balik chatbot berbasis kecerdasan buatan (AI) ChatGPT, baru-baru ini memberikan penjelasan mengenai fenomena yang disebut “halusinasi” pada model AI. Istilah ini merujuk pada kecenderungan model AI untuk memberikan jawaban yang tampak meyakinkan namun sebenarnya salah. Masalah ini mengganggu banyak pengguna dan menjadi tantangan tersendiri dalam pengembangan teknologi AI modern.
Dalam laporan terbaru, OpenAI menjelaskan bahwa penyebab utama dari masalah halusinasi ini terletak pada cara model AI dilatih dan dievaluasi. Menurut perusahaan, model AI sering kali didorong untuk menebak, meskipun ada kemungkinan kecil bahwa tebakan tersebut benar. Hal ini mengakibatkan model lebih memilih memberikan jawaban daripada mengakui ketidakpastian mereka. OpenAI menyebutkan bahwa pendekatan ini sudah menjadi bagian dari prinsip dasar dalam standar evaluasi dan pelatihan model.
Kondisi ini diperparah oleh evaluasi kinerja model bahasa saat ini. Sebuah studi menunjukkan bahwa model yang memberikan tebakan cenderung diutamakan, sementara model yang lebih hati-hati dan mengakui ketidakpuasan dalam menjawab justru mendapatkan nilai rendah. “Kegagalan dalam memberikan jawaban jelas akan mendapatkan poin nol, sedangkan tebakan yang tidak berdasar bisa jadi ternyata benar,” ungkap OpenAI dalam pernyataannya. Pendekatan ini menciptakan dilema, di mana model yang lebih akurat dalam kasus tertentu terpaksa harus kalah dalam skor dibandingkan dengan yang kurang tepat.
OpenAI juga mengakui bahwa halusinasi tidak hanya menjadi masalah di versi ChatGPT sebelumnya, tetapi juga di versi terbaru mereka, seperti GPT-5. Meskipun terus melakukan perkembangan, mereka menegaskan bahwa akurasi tidak akan pernah mencapai 100%. Beberapa pertanyaan dari dunia nyata akan tetap sulit dijawab oleh sistem AI, terlepas dari seberapa besar kemajuan yang dicapai dalam kemampuan pencarian dan penalaran.
Dalam rangka mengatasi masalah ini, OpenAI kembali menekankan pentingnya merombak metode penilaian. “Memperbaiki papan skor adalah langkah awal untuk memperluas penerapan teknik yang dapat mengurangi halusinasi,” jelasnya. Hal ini mencerminkan pemahaman yang lebih dalam tentang bagaimana AI dapat berfungsi secara efisien dan akurat pada masa mendatang. Perbaikan di sisi evaluasi tidak hanya akan menguntungkan konsumen, tetapi juga membantu pengembang dalam menciptakan model yang lebih responsif dan andal.
Dengan pengalaman berbasis kecerdasan buatan yang semakin berkembang, penting bagi pengguna untuk tetap kritis terhadap jawaban yang diberikan oleh chatbot seperti ChatGPT. Meskipun teknologi ini menawarkan banyak kemudahan, pengguna harus menyadari keterbatasan yang ada. Menggunakan sumber lain dan verifikasi informasi adalah langkah penting untuk memastikan akurasi, terutama dalam konteks informasi yang sensitif.
OpenAI berharap dapat lebih memahami bepergian melalui tantangan ini dan terus berkomitmen untuk meneliti cara-cara baru dalam mengurangi halusinasi pada model AI. Dengan tantangan yang ada, kemungkinan masih ada pencarian jalan keluar yang lebih baik menuju AI yang lebih cerdas dan dapat diandalkan. Ke depannya, kesadaran akan masalah halusinasi ini diharapkan dapat membantu pengguna bijak dalam memanfaatkan teknologi AI.





