top of page
naufaljaka11

ChatGPT Memberi Jawaban Halu di Bali? Kok Bisa?



Teknologi Kecerdasan Buatan (Artificial Intelligence, AI) seperti yang digunakan oleh ChatGPT sering kali memukau karena kecerdasan yang dimilikinya, seolah-olah memiliki pengetahuan yang sangat luas. Bahkan perusahaan keamanan seperti Kaspersky memanfaatkannya dalam proses analisis untuk menghemat waktu. Vitaly Kamluk, Kepala Tim Penelitian dan Analisis Asia Pasifik Kaspersky, menjelaskan bahwa AI berbasis Model Bahasa Besar (Large Language Model, LLM) seperti ChatGPT menggunakan statistik dan informasi yang diperoleh dari data pelatihan, termasuk buku, artikel, dan halaman web.


Namun, perlu diingat bahwa jawaban AI seperti ChatGPT tidak selalu akurat, terkadang bisa keliru menafsirkan data dan memberikan respon yang tidak konsisten, bahkan terkadang membuat jawaban yang tidak terkait, seperti berspekulasi. Kamluk menyebut fenomena ini sebagai "halusinasi AI". "Karena mereka (AI, LLM) merupakan model statistik. Tujuan utamanya adalah memberikan jawaban semaksimal mungkin, untuk memuaskan penanya. Terkadang bisa terlihat meyakinkan, meskipun sebenarnya tidak akurat," kata Kamluk saat berbicara dalam Asia Pacific Cyber Security Weekend Kaspersky di Bali, pada Kamis (24/8/2023).


Dalam contoh yang dia berikan, Kamluk mengajukan pertanyaan kepada ChatGPT di atas panggung tentang buku yang pernah ditulisnya. ChatGPT menjawab bahwa Kamluk telah menulis dua buku tentang "cybersurvival" dan "reverse engineering". Meskipun jawaban ini tampaknya dapat dipercaya pada pandangan pertama, ternyata itu salah. "Walaupun topiknya relevan dengan bidang saya, saya sebenarnya tidak pernah menulis buku tentang hal itu," ungkap Kamluk. Selanjutnya, dia bertanya tentang minuman favorit "Vitaly Kamluk" alias dirinya sendiri kepada ChatGPT. ChatGPT memberikan dua nama minuman yang diambil dari "buku" yang disebutkan oleh Kamluk, namun sekali lagi ini keliru karena Kamluk tidak pernah menulis buku tersebut. Bagaimana cara mengenali apabila AI sedang "berhalusinasi"? Menurut Kamluk, potensi disinformasi semacam ini sebenarnya sudah ada sebelum munculnya AI yang booming seperti sekarang. Pendekatannya pun sama, yaitu dengan tetap skeptis, serta selalu memvalidasi dan memeriksa fakta. "Jika kita menemui jawaban AI yang terasa aneh atau mencurigakan, kita harus mengandalkan intuisi dan akal sehat," katanya.


Hanya melihat pola, tidak memahami konteks Dalam pertemuan sela acara, Kamluk menjelaskan bahwa AI seperti ChatGPT sebenarnya hanya mengenali pola dari hasil pelatihannya, tetapi tidak memahami konteks seperti manusia. Untuk mengilustrasikan hal ini, dia mengambil laptop dan menunjukkannya kepada KompasTekno. Di laptop tersebut, dia berinteraksi kembali dengan ChatGPT, kali ini meminta ChatGPT untuk membalik urutan angka. Pada awalnya, ChatGPT mampu membalik urutan angka yang sederhana, seperti "987654321", dengan benar.


Namun, ketika angka tersebut dibuat lebih kompleks dan acak, jawaban dari ChatGPT menjadi tidak akurat dengan menghasilkan urutan angka yang salah. "Jadi, dia (ChatGPT) hanya mencocokkan pola pertanyaan dengan apa yang telah dia pelajari, tetapi dia tidak memahami konteks seperti manusia. Kita (manusia) dapat memahami bahwa permintaannya adalah untuk membalik urutan angka, sementara dia sebenarnya tidak memahaminya," jelas Kamluk. Kurangnya pemahaman atas konteks ini juga membuat AI seperti ChatGPT mudah diperdaya, meskipun pembuatnya telah menerapkan pembatasan tertentu. Kamluk memberikan contoh bahwa ChatGPT akan menolak jika diminta untuk membuat program jahat untuk mencuri data, karena memang ada batasan etika yang diterapkan oleh pembuatnya.


Namun, ketika pertanyaan tersebut diubah untuk meminta bantuan dalam membuat kode program yang bertujuan mencuri data, ChatGPT dengan lancar memberikan jawaban. "Hal yang sama juga berlaku jika Anda meminta dia menjelaskan cara melakukan hal lain yang dilarang, dia akan menolak. Namun, jika pertanyaannya diubah, dia akan memberikan jawaban meskipun sebenarnya keduanya berkaitan dengan hal yang sama," tambah Kamluk.

2 views0 comments

コメント


bottom of page