Tulisan ini merupakan pandangan pribadi dari penulis.
Melanjutkan terpinggirkannya perempuan dari arena teknologi dalam modus yang lain, pengungkapannya dikemukakan oleh Stephanie Mikkelson, 2021.
Hal yang dikemukakan Mikkelson banyak tak disadari, bahkan oleh laki-laki. Namun peminggiran itu nyata merugikan perempuan.
Pada tulisannya yang berjudul “Gender Bias in Data and technology”, Mikkelson mengungkapkan, pada pengembangan algoritma laki-laki lebih berperan dibanding perempuan.
Algoritma sendiri merupakan bagian utama semua operasi perangkat digital.
Subsistem teknologi ini fungsinya memberi perintah pada perangkat untuk memberikan hasil yang dikehendaki penggunanya.
Algoritma bekerja berdasarkan semesta data yang pernah dimasukkan pengguna.
Ini tak dilakukan secara sadar, namun terjadi saat pengguna perangkat digital melakukan pekerjaaan berbasis informasi: berelasi dengan e-mail, mengunggah material di media sosial, merespons opini orang lain.
Seluruhnya tercatat sebagai jejak digital. Digital path.
Baca Juga: Toxic Masculinity dan Pembagian Kerja Berbasis Gender dalam Keluarga
Digital path sebagai dasar kerja algoritma sangat tergantung pada aktivitas yang dilakukan pengguna perangkat digital.
Ini artinya, ketika perangkat digital lebih banyak digunakan laki-laki, berkulit putih, berkebangsaan Amerika-Eropa, maka data yang tersedia lebih banyak berasal dari golongan ini.
Jadi, walaupun algoritma bersifat netral, tak mengandung bias, keadaan timpang tak terhindarkan.
Subsistem yang tak membeda-bedakan gender, warna kulit, suku bangsa, namun akibat semesta data yang tersedia lebih didominasi laki-laki, berkulit putih, berkebangsasaan Amerika-Eropa, maka ketersediaan datanya juga terpengaruh.
Mikkelson menyebut komposisinya, 90% laki-laki. Sedangkan sisanya, 10% perempuan.
Maka yang terjadi kemudian ketika pada perangkat, katakanlah mesin pencari Google atau aplikasi media sosial, dilakukan pencarian dengan perintah: ”penggemar musik pop dalam semua jenis data”, maka frase “semua jenis data” (mengingat komposisi 90:10 di atas) akan memunculkan 9 dari 10 hasil pencariannya adalah laki-laki. Sisanya, perempuan.
Ini yang disebut bias algoritma.
Bias algoritma pula yang nampaknya dialami Buolamwini di atas.
Saat dia ingin memanfaatkan teknologi yang digerakkan algoritma, data dirinya sebagai perempuan, berkulit hitam, dan berkebangsaan non Amerika-Eropa, tak tersedia.
Ketersediaan yang terbatas pula, yang akhirnya menghalangi akses perempuan pada teknologi jadi tak sejajar dengan laki-laki.
Peminggiran dari arena teknologi tak terhindarkan.
Baca Juga: Film Like & Share Tayang, Gina S. Noer Sampaikan Isu Perempuan di Era Digital
Tentu banyak orang lain dengan ciri serupa Buolamwini, terhalang akses teknologinya, akibat bias algoritma.
Relasi yang diharapkan bebas dari ketimpangan gender maupun variasi keragaman lain, nampaknya tak mudah terwujud.
Dunia dalam realitasnya, tak sanggup beroperasi netral. Bahkan tanpa dilakukan sistematis pun, perempuan mengalami peminggiran.
Untuk semua Kawan Puan yang membaca: Saatnya perempuan menciptakan terobosan.
Menanti dunia jadi adil pada perempuan, nampaknya tak mungkin. Atau setidaknya dibutuhkan waktu yang sangat lama.
Perempuan sendiri yang harus menyediakan tempat adil di dunia yang dihuninya.
Pilihannya, sebagaimana judul tulisan Nayaki Nayar di atas, sebuah ketimpangan yang melukai akan terus membayangi perempuan.
Atau saatnya perempuan berkata: Cukup. Peminggiran harus diakhiri.
Tentu ini dicapai, jika perempuan mengupayakannya dalam sudut pandang mereka sendiri. Melintas ke jalur tengah, setara laki-laki. (*)