Sering Kasih Jawaban Ngasal, Pakar Sebut AI Sering Halusinasi




Jakarta, Indonesia

Platform chatbot dengan kecerdasan buatan alias AI sering kali memiliki jawaban dari sejumlah pertanyaan pengguna. Namun apakah jawaban mereka benar atau malah sekadar asal-asalan?

Large language models (LLMs) seperti ChatGPT dari OpenAI, semuanya memiliki masalah yang sama yaitu mereka mengada-ada jawaban.

Bukan tanpa alasan, hal itu berdasarkan jawaban yang mengklaim bahwa Jembatan Golden Gate diangkut melintasi Mesir pada 2016. Tak jarang jawaban yang dihasilkan bukan lagi dalam tahap bermasalah, tapi justru membahayakan.


ADVERTISEMENT


SCROLL TO CONTINUE WITH CONTENT

Mengutip Tech Crunch, Seorang walikota di Australia baru-baru ini mengancam akan menuntut OpenAI karena ChatGPT secara keliru menyebut dia mengaku bersalah dalam skandal penyuapan besar.

Para peneliti telah menemukan bahwa halusinasi LLM dapat dieksploitasi untuk mendistribusikan paket kode berbahaya kepada pengembang perangkat lunak yang tidak menaruh curiga. LLM sering kali memberikan nasihat kesehatan mental dan medis yang buruk, seperti konsumsi anggur dapat “mencegah kanker”.

Kecenderungan untuk menciptakan “fakta” ini adalah fenomena yang dikenal sebagai halusinasi, dan ini terjadi karena cara LLM saat ini beroperasi dengan cara dikembangkan dan dilatih.

Model AI generatif tidak memiliki kecerdasan yang nyata karena mereka adalah sistem statistik yang memprediksi kata, gambar, ucapan, musik, atau data lainnya.

AI generatif bisa makin akurat memberikan jawaban apabila mendapat contoh-contoh akurat yang biasanya bersumber dari web publik. Model AI mempelajari seberapa besar kemungkinan data muncul berdasarkan pola, termasuk konteks data di sekitarnya.

“Kerangka kerja pelatihan LLM saat ini melibatkan penyembunyian, atau ‘masking’ kata-kata sebelumnya sebagai konteks,” kata Sebastian Berns, seorang peneliti Ph.D. di Queen Mary University of London.

“Ini secara konseptual mirip dengan menggunakan teks prediktif di iOS dan terus menekan salah satu kata yang disarankan berikutnya,” sambung dia.

Pendekatan berbasis probabilitas ini bekerja dengan sangat baik dalam skala besar, meskipun rentang kata dan probabilitasnya cenderung menghasilkan teks yang masuk akal, hal ini masih jauh dari kata pasti.

Vu Ha, seorang peneliti dan insinyur terapan di Allen Institute for Artificial Intelligence, menegaskan bahwa LLM “memang akan selalu berhalusinasi.”

Namun, ia juga percaya bahwa ada cara-cara konkret untuk mengurangi halusinasi, yaitu tergantung bagaimana LLM dilatih dan digunakan.

“Pertimbangkan sistem penjawab pertanyaan,” kata Ha.

“Kita bisa merekayasa sistem ini agar memiliki akurasi yang tinggi dengan mengkurasi basis pengetahuan yang berkualitas tinggi untuk pertanyaan dan jawaban, dan menghubungkan basis pengetahuan ini dengan LLM untuk memberikan jawaban yang akurat melalui proses pencarian,” sambung dia.

Ha mengilustrasikan perbedaan antara LLM dengan basis pengetahuan “berkualitas tinggi” yang dapat digunakan dengan LLM dengan kurasi data yang kurang cermat.

Ha juga menilai setiap sistem berbasis LLM yang digunakan akan berhalusinasi. Namun, hingga kini masih menjadi pertanyaan apakah manfaatnya lebih besar daripada hasil negatif yang disebabkan oleh halusinasi.

Di samping itu Berns menunjukkan teknik lain yang telah digunakan dengan beberapa keberhasilan untuk mengurangi halusinasi pada LLM yaitu pembelajaran dari umpan balik manusia (RLHF).

Metode itu diperkenalkan oleh OpenAI pada 2017, RLHF melibatkan pelatihan LLM, kemudian mengumpulkan informasi tambahan untuk melatih model dan menyempurnakan LLM dengan model melalui RLHF.

Dalam RLHF, satu set petunjuk dari kumpulan data yang telah ditentukan sebelumnya dilewatkan melalui LLM untuk menghasilkan teks baru.

OpenAI memanfaatkan RLHF untuk melatih beberapa modelnya, termasuk GPT-4. Tetapi, kata Berns, bahkan RLHF pun tidak sempurna.

[Gambas:Video ]

(can/dmi)

[Gambas:Video ]




Leave a Reply

Your email address will not be published. Required fields are marked *