Menyerukan pengawas untuk mencegah diskriminasi AI

Sebuah lembaga pengawas harus dibentuk untuk mengawasi kecerdasan buatan dan sistem otomatis lainnya untuk menghindari diskriminasi dan pengambilan keputusan yang buruk, menurut sekelompok ahli.

Menyerukan pengawas untuk mencegah diskriminasi AI

A laporan oleh tim di Alan Turing Institute di London dan Universitas Oxford menyerukan dibentuknya badan independen yang berdedikasi dibentuk untuk menyelidiki dan memantau bagaimana sistem ini mengambil keputusan, yang banyak di antaranya dapat berdampak besar pada keputusan seseorang mata pencaharian.

Karena nilai ekonomi dari algoritme AI, detail teknis di balik sistem ini dirahasiakan secara ketat dalam industri dan jarang dibahas secara publik. Namun sebuah badan independen akan dapat mewakili individu-individu yang merasa telah didiskriminasi oleh layanan AI, menurut para peneliti.

Lihat terkait 

Otak vs Kecerdasan Buatan: AI kembali menghancurkan umat manusia
Pemerintah belum siap menghadapi dampak kecerdasan buatan, klaim anggota parlemen
Apa itu AI? Sepuluh hal yang perlu Anda ketahui tentang masa depan kecerdasan buatan

“Apa yang kami ingin lihat adalah pihak ketiga yang tepercaya, mungkin badan pengatur atau pengawas, yang memiliki kekuatan untuk mengawasi dan algoritma audit sehingga mereka dapat masuk dan melihat apakah sistem tersebut benar-benar transparan dan adil,” kata peneliti Sandra Penjaga.

Tim, yang juga mencakup Brent Mittelstadt dan Luciano Floridi, berpendapat bahwa meskipun manusia memang demikian mampu menantang setiap keputusan cacat yang dibuat oleh AI, undang-undang perlindungan yang ada saat ini sudah ketinggalan zaman dan tidak efisien.

Undang-Undang Perlindungan Data Inggris memungkinkan individu untuk menentang keputusan yang dipimpin oleh AI, namun perusahaan tidak perlu mengungkapkan informasi yang mereka anggap sebagai rahasia dagang. Hal ini saat ini mencakup secara spesifik bagaimana algoritma AI sampai pada keputusan yang diambilnya, sehingga membuat orang tidak tahu apa-apa mengapa permohonan kartu kredit mereka ditolak atau secara tidak sengaja dihapus dari daftar pemilih.

Baru Peraturan Peraturan Perlindungan Data Umum (GDPR). akan hadir pada tahun 2018 di seluruh negara anggota Eropa dan Inggris, dan berjanji untuk meningkatkan transparansi dalam pengambilan keputusan dengan AI. Namun para peneliti berpendapat bahwa hal ini berisiko menjadi “ompong” dan tidak akan memberikan kepastian hukum yang cukup bagi calon korban.

“Ada anggapan bahwa GDPR akan memberikan akuntabilitas dan transparansi bagi AI, namun hal itu sama sekali tidak dijamin,” kata Mittelstadt. “Itu semua tergantung pada bagaimana hal ini ditafsirkan di masa depan oleh pengadilan nasional dan Eropa.”

Pihak ketiga dapat menciptakan keseimbangan antara kekhawatiran perusahaan atas kebocoran rahasia dagang dan hak individu untuk mengetahui bahwa mereka telah diperlakukan secara adil, menurut laporan tersebut.

Laporan tersebut mengamati kasus-kasus di Jerman dan Austria, yang dianggap memiliki undang-undang paling ketat seputar penggunaan pengambilan keputusan yang dipimpin oleh AI. Dalam kebanyakan kasus, perusahaan diharuskan untuk hanya menyerahkan informasi umum tentang proses pengambilan keputusan algoritma.

“Jika algoritme benar-benar dapat memengaruhi kehidupan manusia, kita memerlukan semacam pengawasan sehingga kita dapat melihat bagaimana suatu algoritme benar-benar mengambil keputusan,” kata Wachter.

Upaya Microsoft baru-baru ini untuk mengembangkan AI di ruang media sosial berakhir dengan bencana ketika chatbot Tay, dirancang untuk meniru percakapan, dimanipulasi menjadi pesan tweet seperti “Hitler tidak melakukan kesalahan apa pun”.

Pada bulan Desember 2016, sebuah insiden memalukan terjadi ketika sistem identifikasi berbasis AI menolak permohonan paspor dari seorang pria Asia berusia 22 tahun, karena diputuskan bahwa dia memilikinya mata tertutup.