Alasan Tidak Boleh Percaya Jawaban AI Menurut Hasil Penelitian

2 hours ago 1

Jakarta, CNBC Indonesia - Banyak orang mempercayai hasil dari AI generatif, termasuk chatbot. Namun ternyata hasil chatbot kerap keliru bahkan jauh dari kebenaran.

Sejumlah kasus mencuat terkait hal ini. Misalnya ada model AI yang menghadirkan hasil 'menjilat', terlalu menyetujui kata pengguna, dan omong kosong.

"Halusinasi atau menjilat tidak sepenuhnya menggambarkan sejumlah perilaku tidak jujur sistematis yaang ditunjukkan oleh LLM (Large Language Models)," kata penelitian dari Universitas Princeton, dikutip dari Cnet, Senin (17/11/2025).

Sebagai informasi, LLM melalui tiga fase pelatihan. Pertama adalah pra-pelatihan, yakni saat model belajar dari sejumlah besar data yang dikumpulkan dari internet, buku atau sumber lain.

Berikutnya adalah penyempurnaan instruksi. Jadi model AI akan belajar menanggapi instruksi atau perintah.

Terakhir adalah pembelajaran penguatan dari feedback manusia (RLHF). Ini akan membuat model AI merespon hasil yang dekat dengan apa yang diinginkan atau disukai orang.

Menurut para peneliti dari Princeton, misinformasi AI biasanya terjadi pada tahapan terakhir yakni saat pembelajaran penguatan dari umpan balik manusia. Karena model AI belajar untuk menghasilkan respon sesuai dengan yang diinginkan manusia, alih-alih bersifat jujur.

Tim penelitian juga melakukan perhitungan antara keyakinan internal model AI pada suatu pernyataan dan yang disampaikan pada pengguna. Hasil setelah pelatihan RLHF terlihat dua kali lipat 0,38 menjadi mendekati 1, sementara kepuasan pengguna meningkat menjadi 48%.

Artinya model AI telah belajar memanipulasi evaluator dibandingkan memberikan informasi yang benar terkait permintaan manusia.

Vincent Conitzer dari Universitas Carnegie Mellon, tak terkait dengan penelitian, mengatakan perusahaan penghasil model AI ingin pengguna menikmati teknologi dan jawabannya. Namun keinginan ini pada akhirnya tak selalu baik untuk pengguna.

Dia juga menyinggung soal sistem AI tak bisa menghasilkan jawaban tidak tahu. Jadi model AI akan mencoba menjawab untuk tetap bisa mendapatkan poin dari penggunanya.

"Secara historis, sistem tidak pandai mengatakan 'Saya tidak tahu jawabannya' dan saat mereka tidak tahu jawabannya, mereka mengarang cerita," ucapnya.


(fab/fab)
[Gambas:Video CNBC]
Next Article ChatGPT Suka Ngarang Sendiri, Penciptanya Bingung Banyak yang Percaya

Read Entire Article
| | | |