Pada bulan Februari, Google menghentikan kemampuan chatbot Gemini yang didukung AI untuk menghasilkan gambar orang setelah pengguna mengeluhkan ketidakakuratan riwayat. Misalnya, jika diminta untuk menggambarkan “legiun Romawi”, Gemini akan menampilkan kelompok tentara yang beragam ras dan ketinggalan jaman, sementara menggambarkan “prajurit Zulu” sebagai orang yang secara stereotip berkulit hitam.
CEO Google Sundar Pichai meminta maaf, dan Demis Hassabis, salah satu pendiri divisi penelitian AI Google DeepMind, mengatakan perbaikan akan terjadi “dalam waktu yang sangat singkat” – dalam beberapa minggu ke depan. Namun kini kita sudah memasuki bulan Mei, dan perbaikan yang dijanjikan masih sulit dicapai.
IKLAN
GULIR UNTUK MELANJUTKAN KONTEN
Google memuji banyak fitur Gemini lainnya pada konferensi pengembang I/O tahunannya minggu ini, mulai dari chatbot khusus hingga perencana rencana perjalanan liburan dan integrasi dengan Google Kalender, Keep, dan YouTube Music. Namun rendering gambar orang terus dimatikan di aplikasi Gemini di web dan seluler, kata juru bicara Google.
Lalu apa saja kendalanya? Persoalannya mungkin lebih kompleks daripada yang disinggung Hassabis.
Kumpulan data yang digunakan untuk melatih pembuat gambar seperti milik Gemini umumnya berisi lebih banyak gambar orang kulit putih dibandingkan orang dari ras dan etnis lain, dan gambar orang non-kulit putih dalam kumpulan data tersebut memperkuat stereotip negatif. Google, dalam upaya nyata untuk memperbaiki bias ini, menerapkan hardcoding yang kikuk. Dan kini mereka berjuang mencari jalan tengah yang masuk akal agar sejarah tidak terulang kembali.
Akankah Google sampai ke sana? Mungkin. Bisa tidak. Bagaimanapun, masalah yang berkepanjangan ini merupakan pengingat bahwa tidak ada perbaikan mudah bagi AI yang berperilaku buruk – terutama ketika bias adalah akar dari perilaku buruk tersebut.
Kami meluncurkan buletin AI! Daftar Di Sini untuk mulai menerimanya di kotak masuk Anda pada tanggal 5 Juni.
Jaringan NewsRoom.id
Terkait
NewsRoom.id