Tulisan ini merupakan pandangan pribadi dari penulis.
Parapuan.co - Hari itu, Joy Buolamwini membuka pagi dengan perasaan sedikit gamang.
Betapa tidak, komputer di laboratorium yang baru beberapa hari diserahterimakan kampus kepadanya, tak mengenali wajahnya.
Perangkat yang berpelengkap artificial intelligence (AI) yang harusnya mampu mengenali wajahnya, gagal.
Sesaat Buolamwini mengira, keadaan terjadi lantaran basis data dirinya belum tersedia di tempat yang baru.
Namun saat mencoba kembali dengan wajah ditutup topeng putih, AI justru mengenalinya.
Perangkat memberi respon, siap untuk digunakan. Tentu saja timbul rasa penasaran.
Buolamwini mencoba memasukkan beberapa nama. Hampir seluruhnya nama laki-laki kulit putih, berkebangsaan Amerika-Eropa.
Data tersedia. Bahkan basis data memberikan beberapa variasi tampilan wajah bagi tiap nama yang dimasukkan. Dia mulai bertanya, apa yang sesungguhnya terjadi?
Tentu dalam suasana nyatanya, tak persis sama seperti jalinan cerita di atas. Uraian itu dicuplik dari pembuka film dokumenter, Coded Bias, 2020, yang bisa Kawan Puan tonton di Netflix.
Dalam genre ini, rangkaian cerita maupun para pemainnya berbasis kenyataan. Buolamwini yang sesungguhnya, dapat dijumpai di kehidupan sehari-hari.
Baca Juga: Mengenal Profesi Artificial Intelligence Specialist yang Menjanjikan
Joy Buolamwini dan Kita di Kehidupan Sehari-Hari
Joy Buolamwini adalah kandidat Doktor dari Massachusetts Institute of Techonology (MIT) yang tengah menyelesaikan proyek seni yang digelutinya.
Kendati seniman, Boulamwini sedang mempelajari teknik coding, salah satu kemampuan di bidang informatika.
Jika ini berhasil, karyanya dapat ditampilkan lebih sempurna dengan dukungan teknologi informasi.
Sebuah misi yang terdorong oleh profesionalitas seorang akademisi seni, yang memadukan estetika seni dengan kecanggihan perangkat berbasis teknologi informasi. Seluruhnya demi kepuasan penontonnya.
Kembali pada kegamangan yang ditampilkan film: Mengapa perangkat yang digunakan berperilaku beda pada Boulamwini?
Apa karena dia perempuan? Berkulit hitam? Atau suku bangsanya yang berjumlah minoritas di kampus itu?
Tak setarakah teknologi mendudukkan keragaman gender, warna kulit, maupun suku bangsa?
Pertanyaan-pertanyaan ini terlintas tak hanya di benak Buolamwini, tapi banyak orang.
Pertanyaan soal tak setaranya perlakuan berdasar gender, maupun variasi keragaman lain, tidak hanya muncul di era teknologi informasi.
Pengembangan teknologi sesungguhnya jauh dari maksud tak adil pada perempuan, alih-alih menyudutkannya.
Baca Juga: Cerita Para Founder Startup Perempuan Soal Kendala di Industri Teknologi
Namun dalam realitasnya, orientasinya berfokus pada gender laki-laki. Ini realitas yang tak bisa disembunyikan.
Laki-Laki yang Utama Dipikirkan
Nayaki Nayar, 2022 dalam artikelnya yang berjudul “The Gender Gap is Hurting the Tech Industry: It’s Time to #BreaktheBias Now”, menceritakan terpinggirnya perempuan itu.
Bahkan, pada uraiannya disebutkan, pengembangan awal kantung udara demi menekan korban meninggal pada kecelakaan mobil, dilakukan menurut ukuran tubuh laki-laki.
Memang banyak laki-laki yang terhindar dari kematian saat kecelakaan, tertolong oleh teknologi ini.
Namun pencapaian itu tak terlalu menolong perempuan. Ini lantaran perangkatnya tak sesuai dengan ukuran tubuh perempuan.
Walaupun jumlahnya menurun berkat adanya kantung udara, persentase perempuan yang mengalami kematian masih dominan.
Nampaknya perempuan harus menempuh jalan panjang untuk memperoleh perhatian yang setara, termasuk dalam perannya di bidang teknologi. Demikian tandas Nayar.
Pengembangan teknologi, terlalu didominasi kepentingan dan sudut pandang laki-laki.
Baca Juga: 6 Hal yang Bisa Diterapkan Perempuan Jika Bekerja di Bidang Teknologi
Membuat Kebijakan Soal Perempuan
Sedikit berbelok pembahasannya, dominasi sudut pandang laki-laki pada pengembangan teknologi juga mewarnai penentuan kebijakan publik terkait kepentingan perempuan.
Sudut pandang laki-laki tampil lebih mengemuka.
Ini terjadi ketika hendak menghindarkan perempuan dari pelecehan seksual di transportasi umum, di Indonesia.
Kebijakan ditempuh instansi yang bertanggungjawab pada pengoperasian KRL Jabodetabek, dengan menyelenggarakan gerbong khusus bagi perempuan.
Tujuannya, menjauhkan perempuan dari laki-laki di situasi berdesak-desakan.
Dengan memanfaatkan peluang yang sempit, pelecehan seksual kerap terjadi pada keadaan berdesak-desakan ini. Karenanya, bagi perempuan disediakan gerbong khusus.
Kebijakan yang nampaknya disusun dengan pertimbangan bahwa pelaku pelecehan seksual di transportasi umum hampir selalu berjenis kelamin laki-laki. Perempuan jadi korbannnya.
Karenanya, dengan memberi tempat khusus bagi perempuan, peluang terjadinya pelecehan dapat diperkecil.
Gerbong khusus ini diletakkan di rangkaian paling depan dan paling belakang kereta. Tujuannya, untuk memudahkan pengenalan.
Tanpa terlalu lama mencari, gerbong paling depan dan paling belakang dikenali sebagai gerbong khusus perempuan.
Namun ada yang terlupa. Niat melindungi perempuan dari pelecehan seksual dengan meletakkan gerbong di ujung rangkaian, justru membahayakan keselamatan jiwa mereka.
Bukankah ketika terjadi kecelakaan, tabrakan antar kereta justru perempuan pengisi gerbong khusus yang paling berpeluang jadi korban?
Ini mempertimbangkan, jenis kecelakaan yang paling banyak merenggut korban berupa tabrakan antar-rangkaian kereta.
Kebijakan bagi perempuan, harusnya mengetengahkan sudut pandang perempuan pula.
Sengaja, Tak Sengaja, Terpinggirkan
Melanjutkan terpinggirkannya perempuan dari arena teknologi dalam modus yang lain, pengungkapannya dikemukakan oleh Stephanie Mikkelson, 2021.
Hal yang dikemukakan Mikkelson banyak tak disadari, bahkan oleh laki-laki. Namun peminggiran itu nyata merugikan perempuan.
Pada tulisannya yang berjudul “Gender Bias in Data and technology”, Mikkelson mengungkapkan, pada pengembangan algoritma laki-laki lebih berperan dibanding perempuan.
Algoritma sendiri merupakan bagian utama semua operasi perangkat digital.
Subsistem teknologi ini fungsinya memberi perintah pada perangkat untuk memberikan hasil yang dikehendaki penggunanya.
Algoritma bekerja berdasarkan semesta data yang pernah dimasukkan pengguna.
Ini tak dilakukan secara sadar, namun terjadi saat pengguna perangkat digital melakukan pekerjaaan berbasis informasi: berelasi dengan e-mail, mengunggah material di media sosial, merespons opini orang lain.
Seluruhnya tercatat sebagai jejak digital. Digital path.
Baca Juga: Toxic Masculinity dan Pembagian Kerja Berbasis Gender dalam Keluarga
Digital path sebagai dasar kerja algoritma sangat tergantung pada aktivitas yang dilakukan pengguna perangkat digital.
Ini artinya, ketika perangkat digital lebih banyak digunakan laki-laki, berkulit putih, berkebangsaan Amerika-Eropa, maka data yang tersedia lebih banyak berasal dari golongan ini.
Jadi, walaupun algoritma bersifat netral, tak mengandung bias, keadaan timpang tak terhindarkan.
Subsistem yang tak membeda-bedakan gender, warna kulit, suku bangsa, namun akibat semesta data yang tersedia lebih didominasi laki-laki, berkulit putih, berkebangsasaan Amerika-Eropa, maka ketersediaan datanya juga terpengaruh.
Mikkelson menyebut komposisinya, 90% laki-laki. Sedangkan sisanya, 10% perempuan.
Maka yang terjadi kemudian ketika pada perangkat, katakanlah mesin pencari Google atau aplikasi media sosial, dilakukan pencarian dengan perintah: ”penggemar musik pop dalam semua jenis data”, maka frase “semua jenis data” (mengingat komposisi 90:10 di atas) akan memunculkan 9 dari 10 hasil pencariannya adalah laki-laki. Sisanya, perempuan.
Ini yang disebut bias algoritma.
Bias algoritma pula yang nampaknya dialami Buolamwini di atas.
Saat dia ingin memanfaatkan teknologi yang digerakkan algoritma, data dirinya sebagai perempuan, berkulit hitam, dan berkebangsaan non Amerika-Eropa, tak tersedia.
Ketersediaan yang terbatas pula, yang akhirnya menghalangi akses perempuan pada teknologi jadi tak sejajar dengan laki-laki.
Peminggiran dari arena teknologi tak terhindarkan.
Baca Juga: Film Like & Share Tayang, Gina S. Noer Sampaikan Isu Perempuan di Era Digital
Tentu banyak orang lain dengan ciri serupa Buolamwini, terhalang akses teknologinya, akibat bias algoritma.
Relasi yang diharapkan bebas dari ketimpangan gender maupun variasi keragaman lain, nampaknya tak mudah terwujud.
Dunia dalam realitasnya, tak sanggup beroperasi netral. Bahkan tanpa dilakukan sistematis pun, perempuan mengalami peminggiran.
Untuk semua Kawan Puan yang membaca: Saatnya perempuan menciptakan terobosan.
Menanti dunia jadi adil pada perempuan, nampaknya tak mungkin. Atau setidaknya dibutuhkan waktu yang sangat lama.
Perempuan sendiri yang harus menyediakan tempat adil di dunia yang dihuninya.
Pilihannya, sebagaimana judul tulisan Nayaki Nayar di atas, sebuah ketimpangan yang melukai akan terus membayangi perempuan.
Atau saatnya perempuan berkata: Cukup. Peminggiran harus diakhiri.
Tentu ini dicapai, jika perempuan mengupayakannya dalam sudut pandang mereka sendiri. Melintas ke jalur tengah, setara laki-laki. (*)