Selular.id – Pernahkah Anda bertanya pada ChatGPT dan mendapatkan jawaban yang terdengar sangat meyakinkan, tapi ternyata salah besar? Jika iya, Anda tidak sendirian.
Fenomena ini bukan sekadar kesalahan teknis, melainkan konsekuensi mendasar dari cara kecerdasan buatan generatif bekerja. OpenAI, sang pengembang, baru saja membeberkan alasan di balik kecenderungan chatbot untuk “berhalusinasi”—istilah teknis untuk respons AI yang terlihat logis namun sebenarnya fiktif atau tidak akurat.
Halusinasi AI telah menjadi tantangan besar dalam adopsi teknologi ini secara luas. Banyak pengguna yang mengandalkan ChatGPT untuk berbagai keperluan, dari riset akademis hingga pengambilan keputusan bisnis, tanpa menyadari bahwa jawaban yang diberikan bisa jadi hanyalah tebakan yang terdengar meyakinkan.
Masalah ini bahkan terjadi pada model terbaru seperti GPT-5, yang seharusnya lebih canggih dan akurat. Lantas, mengapa AI yang dibangun dengan teknologi mutakhir justru rentan memberikan informasi yang menyesatkan?
Jawabannya terletak pada sistem pelatihan dan evaluasi yang selama ini diterapkan—sebuah paradoks di mana kejujuran justru dihukum, sementara tebakan berani yang kebetulan benar diberi penghargaan.
Bukan Bug, Tapi Fitur: Mengapa AI Lebih Suka Menebak
Menurut penelitian terbaru OpenAI, halusinasi bukanlah gangguan dalam sistem, melainkan konsekuensi langsung dari cara model AI dilatih dan dievaluasi. Sistem pelatihan AI yang berlaku saat ini justru mendorong model untuk menebak jawaban ketika tidak yakin, alih-alih mengakui ketidaktahuan.
Para peneliti menganalogikan fenomena ini seperti ujian pilihan ganda: siswa yang asal menebak bisa terlihat lebih pintar jika kebetulan tebakannya benar, sementara siswa yang jujur mengaku tidak tahu justru dianggap kurang kompeten.
Evaluasi dalam sistem AI bekerja dengan cara serupa. Model AI yang menebak dan tampak yakin akan mendapat nilai lebih tinggi, meski jawabannya salah. Sebaliknya, model yang mengatakan “tidak tahu” justru mendapat penilaian buruk.
Kondisi ini membentuk perilaku seluruh model bahasa besar (LLM), membuat mereka lebih memilih untuk “mengarang dengan percaya diri” daripada mengakui keterbatasan pengetahuan.
Baca Juga:
Proses Belajar AI: Prediksi Kata vs Pemahaman Fakta
Model bahasa besar seperti ChatGPT belajar dengan memprediksi kata berikutnya dalam miliaran data teks. Proses ini efektif untuk memahami pola tata bahasa, ejaan, dan struktur kalimat, tetapi sangat sulit untuk memprediksi fakta yang terus berubah.
Informasi tentang peristiwa terkini atau detail spesifik tentang tokoh tertentu seringkali menjadi titik lemah AI, karena model tidak dirancang untuk membedakan antara fakta dan fiksi—hanya untuk memprediksi urutan kata yang paling mungkin.
Yang menarik, penelitian ini juga menemukan bahwa model AI berukuran lebih kecil terkadang lebih mudah mengakui ketidaktahuan. Sementara model besar justru berisiko lebih tinggi memberikan jawaban keliru karena tekanan untuk selalu tampak kompeten.
Ini seperti asisten yang terlalu percaya diri: semakin pintar mereka, semakin sulit mengakui bahwa mereka tidak tahu sesuatu.
Solusi Revolusioner: Mendesain Ulang Sistem Evaluasi AI
OpenAI mengusulkan solusi yang radikal: mendesain ulang sistem evaluasi AI. Selama ini, akurasi menjadi variabel terbesar dalam pengukuran kinerja. Karena mengejar akurasi, model AI justru lebih senang menebak dengan yakin daripada mengakui tidak tahu.
Pendekatan baru yang diusulkan adalah memberikan poin negatif untuk kesalahan dari tebakan yang tampak meyakinkan, sementara model yang jujur mengakui ketidaktahuan justru diberi poin lebih besar.
Analogi pendekatan ini mirip dengan sistem ujian sekolah yang memberi nilai negatif untuk jawaban salah, sehingga mendorong siswa berhati-hati daripada asal menebak. Dengan cara ini, model diharapkan lebih sering mengatakan “saya tidak tahu” ketimbang memberikan jawaban salah yang berpotensi menyesatkan.
Perubahan fundamental ini tidak hanya akan mengurangi halusinasi, tetapi juga meningkatkan keandalan AI dalam aplikasi kritis seperti sistem hukum atau medis.
OpenAI telah mulai mengimplementasikan pendekatan ini dalam pengembangan model terbaru mereka, termasuk ChatGPT 4.1. Meskipun perubahan ini tidak akan sepenuhnya menghilangkan halusinasi—mengingat kompleksitas pemahaman kontekstual—setidaknya ini adalah langkah signifikan menuju AI yang lebih jujur dan dapat diandalkan.
Ke depan, transparansi tentang keterbatasan AI menjadi kunci untuk membangun kepercayaan pengguna. Daripada mengharapkan AI yang sempurna, mungkin yang kita butuhkan adalah AI yang cukup jujur untuk mengakui ketika ia tidak tahu—karena dalam ketidaktahuan yang diakui, terdapat kejujuran yang lebih berharga daripada kepintaran yang dipaksakan.