Sebuah laporan Perserikatan Bangsa-Bangsa mengatakan Siri dan asisten wanita cerdas lainnya memperkuat bias gender

Laporan PBB secara tidak langsung menuduh penyedia asisten pintar seperti Apple, Google dan Microsoft memperkuat bias gender dengan menggunakan suara asisten perempuan secara default.

Siri Apple, Cortana Microsoft, Asisten Google untuk Pengeras Suara di rumah dan Alexa dari Amazon sejauh ini merupakan asisten digital paling populer di luar sana. Dalam sebagian besar kasus, semua asisten ini menggunakan suara perempuan. Beberapa asisten menggunakan suara wanita secara eksklusif, seperti Alexa, dan yang lain memungkinkan pengguna untuk mengubah jenis kelamin suara di Pengaturan, seperti Siri.

Dalam beberapa kasus, jenis kelamin suara default asisten tergantung pada pasar spesifik pengguna, dan Apple adalah contoh yang bagus bahwa-Siri menggunakan suara wanita di sebagian besar negara, tetapi ia memilih untuk suara pria ketika bahasa sistem diatur ke bahasa Arab, Prancis , Bahasa Inggris Belanda atau Inggris.

Dari laporan tersebut, berjudul "Saya akan memerah jika saya bisa":

Karena ucapan sebagian besar asisten suara adalah perempuan, itu mengirim sinyal bahwa perempuan adalah pembantu, patuh dan bersemangat untuk pembantu, tersedia dengan satu sentuhan tombol atau dengan perintah suara tumpul seperti 'Hei' atau 'OK'.

Asisten tidak memiliki kekuatan agensi di luar apa yang diminta komandan itu. Itu menghormati perintah dan menanggapi pertanyaan terlepas dari nada atau permusuhan mereka. Di banyak komunitas, ini memperkuat bias gender yang umumnya dipegang bahwa perempuan tunduk dan toleran terhadap perlakuan yang buruk.

Judul laporan ("Saya akan memerah jika saya bisa") digunakan untuk menjadi salah satu tanggapan Siri untuk dialamatkan sebagai pelacur (yang lain: "Yah, aku tidak pernah!"), Seperti dicatat oleh 9to5Mac, tetapi Apple memiliki karena mengubah respons itu menjadi "Saya tidak tahu bagaimana meresponsnya."

Yang juga memprihatinkan adalah bahwa penolong perempuan AI menghadapi bahaya memberi anak-anak gagasan yang salah tentang peran perempuan dalam masyarakat modern, yang berpotensi memberi kesan bahwa adalah normal bagi perempuan, anak perempuan dan individu berjenis kelamin perempuan untuk menanggapi permintaan..

Menurut Calvin Lai, seorang peneliti Universitas Harvard yang mempelajari bias tak sadar, asosiasi gender yang diadopsi orang bergantung pada berapa kali orang terpapar pada mereka. Ketika asisten digital wanita menyebar, frekuensi dan volume hubungan antara 'wanita' dan 'asisten' meningkat secara dramatis.

Menurut Lai, semakin banyak budaya mengajarkan orang untuk menyamakan wanita dengan asisten, wanita yang lebih nyata akan dilihat sebagai asisten-dan dihukum karena tidak seperti asisten. Ini menunjukkan bahwa teknologi yang kuat tidak hanya bisa meniru ketidaksetaraan gender, tetapi juga memperluasnya.

Saya tidak yakin apa yang harus dipikirkan dari laporan ini selain bahwa Apple, Google, Microsoft dan Amazon sangat menyadari subteks budaya dari semua ini - jika tidak, gender suara default Siri tidak akan tergantung pada wilayah - tetapi saya ' Saya tidak begitu yakin bahwa perusahaan menyadari bahwa suara asisten perempuan dapat, dan mungkin, memperkuat bias gender, terutama dengan anak-anak yang mungkin dari waktu ke waktu menganggap itu sebagai bukti hubungan antara suara dan kepatuhan perempuan..

Apakah suara asisten wanita benar-benar memperkuat stereotip gender Barat? Apa pendapat Anda tentang laporan ini? Pastikan untuk berpadu dengan pikiran Anda di bagian komentar di bawah.