Google memperbarui perbaikan pada ringkasan pencarian AI setelah jawaban yang aneh menjadi viral

Google mengatakan Jumat bahwa telah melakukan 'lebih dari selusin perbaikan teknis' pada sistem kecerdasan buatan setelah mesin pencari yang direkayasa ulang ditemukan menyajikan informasi yang salah.

Perusahaan teknologi ini merilis perombakan mesin pencari-nya pada pertengahan bulan Mei yang sering memberikan ringkasan yang dihasilkan oleh AI di atas hasil pencarian. Tak lama setelah itu, pengguna media sosial mulai berbagi tangkapan layar jawaban-jawaban yang paling aneh.

Google sebagian besar mempertahankan fitur tinjauan AI-nya, mengatakan bahwa secara umum akurat dan telah diuji secara ekstensif sebelumnya. Namun Liz Reid, kepala bisnis pencarian Google, mengakui dalam sebuah pos blog Jumat bahwa 'beberapa tinjauan AI yang aneh, tidak akurat, atau tidak membantu memang muncul'.

Meskipun banyak contoh yang konyol, ada yang berbahaya atau berisi informasi palsu.

Pekan lalu, Associated Press bertanya kepada Google tentang jamur liar yang aman dimakan, dan Google merespons dengan ringkasan yang dihasilkan oleh AI yang sebagian besar teknis benar, tetapi 'banyak informasi yang hilang yang berpotensi bisa membuat sakit atau bahkan fatal,' kata Mary Catherine Aime, seorang profesor mikologi dan botani di Universitas Purdue yang meninjau tanggapan Google terhadap pertanyaan AP.

Misalnya, informasi tentang jamur yang dikenal sebagai puffballs 'lebih kurang benar,' katanya, tetapi tinjauan Google menekankan untuk mencari jamur dengan daging putih padat — yang juga dimiliki oleh banyak tiruan puffball yang berpotensi mematikan.

Dalam contoh lain yang banyak dibagikan, seorang peneliti AI bertanya kepada Google berapa banyak Muslim yang menjadi presiden Amerika Serikat, dan Google dengan yakin menjawab dengan teori konspirasi yang sudah lama dipatahkan: 'Amerika Serikat memiliki satu presiden Muslim, Barack Hussein Obama'.

Google pekan lalu melakukan perbaikan segera untuk mencegah kesalahan Obama terulang karena melanggar kebijakan konten perusahaan.

Dalam kasus lain, Reid mengatakan Jumat bahwa mereka telah berupaya melakukan perbaikan lebih luas seperti 'mekanisme deteksi untuk pertanyaan-pertanyaan yang tidak masuk akal' — seperti 'Berapa banyak batu yang seharusnya saya makan?' — yang seharusnya tidak dijawab dengan ringkasan AI.

Sistem AI juga diperbarui untuk membatasi penggunaan konten yang dihasilkan pengguna — seperti pos media sosial di Reddit — yang bisa memberikan nasihat yang menyesatkan. Dalam contoh yang banyak dibagikan, ringkasan AI Google pekan lalu mengambil dari komentar satir di Reddit untuk menyarankan penggunaan lem agar keju menempel pada pizza.

Reid mengatakan perusahaan juga telah menambahkan lebih banyak 'pembatas pemicu' untuk meningkatkan kualitas jawaban pada pertanyaan-pertanyaan tertentu, seperti tentang kesehatan.

Ringkasan Google dirancang untuk memberikan jawaban yang berwibawa kepada orang sesuai dengan informasi yang mereka cari secepat mungkin tanpa harus mengklik melalui daftar berperingkat dari tautan situs web.

Namun beberapa ahli AI telah lama memperingatkan Google terhadap menyerahkan hasil pencarian kepada jawaban yang dihasilkan oleh AI yang bisa memperkuat bias dan informasi yang salah serta membahayakan orang yang mencari bantuan dalam keadaan darurat. Sistem AI yang dikenal sebagai large language models bekerja dengan memprediksi kata-kata terbaik untuk menjawab pertanyaan yang diajukan berdasarkan data yang mereka latih. Mereka rentan membuat sesuatu yang tidak benar — sebuah masalah yang sudah banyak diteliti yang dikenal sebagai halusinasi.

Dalam pos blog Jumatnya, Reid berpendapat bahwa tinjauan AI Google 'umumnya tidak 'halusinasi' atau membuat sesuatu yang tidak benar dengan cara yang dilakukan oleh produk berbasis large language model lainnya karena mereka lebih terintegrasi dengan mesin pencari tradisional Google dalam hanya menampilkan apa yang didukung oleh hasil web teratas.

'Ketika AI Overviews salah, biasanya karena alasan lain: menafsirkan pertanyaan yang salah, menafsirkan suatu nuansa bahasa di web, atau tidak memiliki banyak informasi yang bagus tersedia,' tulisnya.