Pada bulan Februari lalu, Google menghentikan kemampuan chatbot Gemini yang didukung AI untuk menghasilkan gambar orang setelah pengguna mengeluh historis ketidakakuratan. Disuruh menggambarkan “legiun Romawi”, misalnya, Gemini akan menampilkan kelompok tentara yang sangat beragam secara anakronistik, sementara “prajurit Zulu” digambarkan sebagai orang kulit hitam yang seragam.

CEO Google Sundar Pichai meminta maaf, dan Demis Hassabis, salah satu pendiri divisi penelitian AI Google, DeepMind, mengatakan bahwa perbaikan akan terjadi “dalam waktu yang sangat singkat” — namun sekarang kita sudah memasuki bulan Mei, dan perbaikan yang dijanjikan belum juga terjadi. muncul.

Google memuji banyak fitur Gemini lainnya pada konferensi pengembang I/O tahunannya minggu ini, mulai dari chatbot khusus hingga perencana rencana perjalanan liburan dan integrasi dengan Google Kalender, Keep, dan YouTube Music. Namun pembuatan gambar orang terus dimatikan dalam aplikasi Gemini di web dan seluler, kata juru bicara Google.

Jadi apa hambatannya? Masalahnya mungkin lebih kompleks daripada yang disinggung Hassabis.

Kumpulan data yang digunakan untuk melatih generator gambar seperti milik Gemini umumnya berisi lebih banyak gambar orang kulit putih dibandingkan orang dari ras dan etnis lain, dan gambar orang non-kulit putih dalam kumpulan data tersebut memperkuat negatif stereotip. Google, dalam upaya nyata untuk memperbaiki bias ini, menerapkan hardcoding yang kikuk untuk menambah keragaman pada kueri yang tidak menentukan penampilan seseorang. Dan sekarang mereka sedang berjuang untuk mencari jalan tengah yang masuk akal untuk menghindari hal tersebut mengulangi sejarah.

Akankah Google sampai ke sana? Mungkin. Bisa tidak. Bagaimanapun, masalah yang berlarut-larut ini menjadi pengingat bahwa tidak ada perbaikan yang mudah untuk mengatasi perilaku buruk AI – terutama ketika bias adalah akar dari perilaku buruk tersebut.

Sumber