Apakah algoritme membuat kita W.E.I.R.D.?

Dari apa yang kita lihat di hasil pencarian internet hingga memutuskan bagaimana kita mengelola investasi, rute perjalanan, dan kehidupan cinta, algoritme telah menjadi bagian masyarakat kita di mana-mana. Algoritma bukan hanya fenomena online: algoritme memiliki dampak yang terus meningkat di dunia nyata. Anak-anak dilahirkan dari pasangan yang dicocokkan oleh algoritme situs kencan, sementara sistem navigasi untuk mobil tanpa pengemudi siap mengubah jalan kita.

Apakah algoritme membuat kita W.E.I.R.D.?

Bulan lalu, Jerman mengumumkan pedoman etika untuk menentukan bagaimana mobil tanpa pengemudi harus bereaksi dalam tabrakan yang tidak dapat dihindari. Menurut pedoman ini, dalam kasus seperti itu di mana mobil tanpa pengemudi tidak dapat menghindari tabrakan, mereka diharapkan melindungi orang daripada properti atau hewan.

Masalahnya adalah kita hidup di dunia yang sangat beragam, dengan negara yang berbeda memiliki moralnya sendiri dan budaya, karenanya algoritme yang dapat diterima oleh satu set orang mungkin tidak dapat diterima oleh orang lain kelompok. “Kami tidak benar-benar memiliki konsensus tentang moral,” kata Dr Sandra Wachter, seorang peneliti etika data di

Institut Internet Oxford dan seorang peneliti di Institut Alan Turing. “Bahkan secara regional di Eropa kami sangat berbeda dalam hal apa yang penting bagi kami dan nilai apa yang perlu kami lindungi. Privasi adalah salah satu masalah utama di Eropa, tetapi jika Anda melihat bagaimana Jerman memandang privasi – apa yang mereka pikirkan tentang privasi dan mengapa itu penting – itu belum tentu tercermin di Inggris.”

Lihat terkait 

Assassin's Creed Origins dan fantasi sejarah
Bagaimana drone akan membentuk kembali kota kita?
Google meminta maaf setelah algoritme penandaan Foto membuat kesalahan rasis

Etika dipengaruhi oleh faktor pribadi, budaya dan agama. Perspektif unik ini berasal dari pengalaman masyarakat masing-masing negara. “Meskipun kami berbicara tentang hal yang sama, mereka dibumbui dengan warna yang berbeda, karena kami memiliki pengalaman yang berbeda,” kata Wachter.

Pedoman etika untuk mobil tanpa pengemudi mungkin cocok secara luas di Jerman, tetapi tidak dapat diterima secara universal. Misalnya, di wilayah dunia di mana sapi secara luas dianggap suci, para pengemudi tentu saja akan menghindari memukul sapi dengan cara apa pun. Demikian pula, ada beberapa agama, seperti Jainisme, yang sangat mementingkan kehidupan hewan.

algoritma_aneh_2

“Kita sering berbicara tentang norma-norma AS, tetapi sebenarnya yang kita bicarakan adalah norma-norma ANEH yang dipaksakan melalui hal-hal ini,” kata peneliti Matthew Blakstad, penulis buku Hantu Keberuntungan. WEIRD, dalam hal ini, berarti barat, berpendidikan, industrialisasi, kaya dan demokratis.

“Kami sering berbicara tentang norma AS, tetapi sebenarnya yang kami bicarakan adalah W.E.I.R.D. norma yang diberlakukan”

Ini menyoroti masalah bahwa, meskipun algoritme dapat digunakan di seluruh dunia, algoritme selalu memiliki latar belakang budaya dan perspektif pemrogramnya. Wachter mengatakan masalah dapat terjadi jika teknologi ini dikembangkan oleh orang-orang dari satu demografis. Jika itu terjadi, hasilnya akan kekurangan nuansa pribadi, budaya dan agama yang dibutuhkan untuk mencerminkan populasi global. “Ini akan menjadi sangat sepihak, ketika harus beragam secara budaya,” dia memperingatkan.

Persepsi budaya pembuat kode secara tidak sadar dapat memengaruhi keputusan yang mereka buat selama fase pengembangan aplikasi algoritmik. Keputusan tentang kumpulan aturan dan kumpulan data, yang digunakan untuk melatih elemen pembelajaran mesin dari algoritme, secara alami dapat memengaruhi perilaku yang dihasilkan. “Data yang mereka kumpulkan dan cara mereka menguji digabungkan untuk melihat ke dalam, sehingga cocok untuk mereka dan teman mereka,” kata ahli matematika Cathy O’Neil, penulis buku Senjata Penghancur Matematika.

Contoh utama dari hal ini adalah bagaimana pengembang video game pernah secara tidak sengaja membuat a video game rasis. Algoritme pelacakan gerakan tidak dapat mendeteksi rona kulit gelap, karena kamera mengandalkan pantulan cahaya untuk mendeteksi gerakan. Fakta bahwa hal ini tidak diperhatikan selama pengembangan atau pengujian menunjukkan bias yang tidak menguntungkan.

Sementara itu, Snapchat mengundang kontroversi tahun lalu saat mereka menerapkan filter Festival Coachella. Filter ini dirancang untuk menciptakan 'suasana festival musim panas' dengan karangan bunga. Itu juga menampilkan fungsi pemutih kulit.

Itu adalah filter 'kecantikan' pertama yang mencerahkan warna kulit secara otomatis. Perbedaan utama antara Snapchat dan platform berbagi foto lainnya adalah ia menggunakan filter yang telah ditentukan sebelumnya, tanpa persetujuan khusus pengguna. Itu berarti seseorang, di suatu tempat, berasumsi bahwa mencerahkan warna kulit seseorang akan membuatnya lebih menarik.

Contoh bias yang tidak menguntungkan dalam algoritme ini mungkin merupakan kasus spesifik dari kurangnya pandangan jauh ke depan, tetapi jika demikian aplikasi dikerahkan di seluruh dunia, ada potensi untuk secara tidak sengaja mempengaruhi perkembangan budaya negara-negara lain. Kita bisa saja menuju masa depan yang homogen, di mana algoritme memengaruhi nilai melalui bentuk kolonisasi budaya. “Mereka akan mengubah budaya negara agar sesuai dengan produk mereka,” kata O’Neil.

“Mereka akan mengubah budaya negara agar sesuai dengan produk mereka”

Namun, ini belum tentu merupakan aliran nilai satu arah dari orang barat kaya di seluruh dunia. China, misalnya, juga menjadi pembangkit tenaga listrik dalam kecerdasan buatan. Saat kita mulai menggunakan alat yang menggabungkan kode logika di India, Cina, dan ekonomi berkembang pesat lainnya, Barat dapat menemukan dirinya di ujung penerima kolonisasi budaya.

Sedramatis kedengarannya, skenario ini tidak perlu mengarah pada homogenisasi massal. Memang, dengan lebih banyak perspektif budaya yang terlibat dalam pembuatan alat pemrograman, harapannya adalah multiplisitas nilai-nilai akan menawarkan tingkat pilihan yang lebih besar ketika mempertimbangkan algoritma apa yang harus memberi daya pada teknologi masa depan. “Ini seperti sumpit dan garpu,” kata Profesor Luciano Floridi dari Universitas Oxford. “Untuk orang seperti saya, garpu jauh lebih mudah dipegang, namun belum menggantikan sumpit. Bergantung pada aplikasi spesifik dan kebutuhan bisnis, budaya, dan masyarakat, kami akan menemukan bahwa berbagai alat diadopsi.”

Dengan argumen itu, beberapa dekade mendatang dapat melihat perpaduan dari perspektif masyarakat yang berbeda mendorong pengembangan sensor, kecerdasan buatan, dan teknologi seperti mobil otonom; masa depan di mana kita memilih alat mana yang akan digunakan dan pendekatan budaya mana yang paling sesuai dengan situasi. Semua ini bergantung pada adanya beragam pengembang yang meletakkan dasar. Kode non-WEIRD diperlukan, serta kesadaran bahwa algoritme tidak netral; bahwa mereka datang dengan banyak beban budaya.