“Berlari dengan gunting adalah latihan kardio yang dapat meningkatkan detak jantung dan membutuhkan konsentrasi serta fokus,” kata fitur pencarian AI baru Google. “Beberapa orang mengatakan itu juga dapat memperbaiki pori-pori dan memberi Anda kekuatan.”

Fitur AI Google menarik respons ini dari sebuah situs web bernama Komedi Nyonya Tua Kecil, yang sesuai dengan namanya, adalah blog komedi. Namun kesalahan tersebut sangat menggelikan hingga beredar di media sosial, bersama dengan ulasan AI lainnya yang jelas-jelas salah di Google. Faktanya, pengguna sehari-hari kini menggabungkan produk-produk ini di media sosial.

Dalam keamanan siber, beberapa perusahaan akan mempekerjakan “tim merah” – peretas etis – yang berupaya membobol produk mereka seolah-olah mereka adalah pelaku kejahatan. Jika tim merah menemukan kerentanan, maka perusahaan dapat memperbaikinya sebelum produk dikirimkan. Google tentunya melakukan semacam red teaming sebelum merilis produk AI di Google Search, yaitu diperkirakan untuk memproses triliunan kueri per hari.

Maka sungguh mengejutkan ketika perusahaan dengan sumber daya tinggi seperti Google masih mengirimkan produk dengan kelemahan yang jelas terlihat. Itu sebabnya sekarang menjadi meme untuk melontarkan kegagalan produk AI, terutama di saat AI semakin banyak digunakan. Kami telah melihat ini dengan ejaan yang buruk di ChatGPT, kegagalan pembuat video untuk memahaminya bagaimana manusia memakan spagetiDan Grok A.I. ringkasan berita di X yang, seperti Google, tidak mengerti sindiran. Namun meme ini sebenarnya bisa menjadi masukan yang berguna bagi perusahaan yang mengembangkan dan menguji AI.

Meskipun kelemahan ini sangat menonjol, perusahaan teknologi sering kali meremehkan dampaknya.

“Contoh yang kami lihat umumnya merupakan pertanyaan yang sangat tidak umum dan tidak mewakili pengalaman kebanyakan orang,” kata Google kepada TechCrunch dalam pernyataan email. “Kami melakukan pengujian ekstensif sebelum meluncurkan pengalaman baru ini, dan akan menggunakan contoh-contoh terisolasi ini saat kami terus menyempurnakan sistem kami secara keseluruhan.”

Tidak semua pengguna melihat hasil AI yang sama, dan ketika saran AI yang buruk muncul, masalah tersebut sering kali telah diperbaiki. Dalam kasus terbaru yang menjadi viral, Google menyarankan jika Anda membuat pizza tapi kejunya tidak lengket, Anda bisa menambahkan sekitar seperdelapan cangkir lem ke dalam saus untuk “membuatnya lebih lengket”. Ternyata, AI mengambil jawaban ini komentar Reddit berusia sebelas tahun dari pengguna bernama “f––smith.”

Selain merupakan kesalahan besar, hal ini juga menandakan bahwa kesepakatan konten AI mungkin dinilai terlalu tinggi. Google memiliki kontrak $60 juta dengan Reddit untuk melisensikan kontennya untuk pelatihan model AI, misalnya. Reddit menandatangani kesepakatan serupa dengan OpenAI minggu lalu, dan properti Automattic WordPress.org dan Tumblr juga demikian dikabarkan sedang dalam pembicaraan untuk menjual data ke Midjourney dan OpenAI.

Sebagai penghargaan bagi Google, banyak kesalahan yang beredar di media sosial berasal dari penelusuran tidak konvensional yang dirancang untuk memanfaatkan AI. Setidaknya saya berharap tidak ada orang yang secara serius mencari “manfaat kesehatan dari berlari dengan gunting.” Namun beberapa kesalahan ini lebih serius. Jurnalis sains Erin Ross diposting pada X bahwa Google memberikan informasi yang salah tentang apa yang harus dilakukan jika Anda digigit ular berbisa.

Postingan Ross, yang mendapat lebih dari 13.000 suka, menunjukkan bahwa AI merekomendasikan untuk memasang tourniquet pada luka, memotong luka dan menyedot racunnya. Menurut Dinas Kehutanan ASini semua adalah hal yang harus Anda lakukan bukan lakukan, jika kamu digigit. Sementara itu di Bluesky, penulis T Kingfisher memperkuat postingan yang memperlihatkan Gemini milik Google salah mengidentifikasi jamur beracun sebagai jamur kancing putih pada umumnya – tangkapan layar dari postingan tersebut menyebar ke platform lain sebagai kisah peringatan.

Ketika respons AI yang buruk menjadi viral, AI bisa menjadi semakin bingung dengan konten baru seputar topik yang muncul sebagai dampaknya. Pada hari Rabu, reporter New York Times Aric Toler memposting tangkapan layar di X yang menampilkan kueri yang menanyakan apakah seekor anjing pernah bermain di NHL. Tanggapan AI adalah ya – karena alasan tertentu, AI menyebut pemain Calgary Flames Martin Pospisil sebagai seekor anjing. Sekarang, saat Anda membuat kueri yang sama, AI mengambil artikel darinya Titik Harian tentang bagaimana AI Google terus berpikir bahwa anjing sedang berolahraga. AI diberi kesalahannya sendiri dan semakin meracuninya.

Inilah masalah yang melekat dalam pelatihan model AI berskala besar di internet: terkadang, orang-orang di internet berbohong. Tapi seperti yang ada tidak ada aturan yang melarang anjing bermain basketsayangnya tidak ada aturan yang melarang perusahaan teknologi besar mengirimkan produk AI yang buruk.

Seperti kata pepatah: sampah masuk, sampah keluar.



Sumber