Pendiri Google DeepMind tentang masa depan AI: "Sebagai manusia, kita harus tetap sepenuhnya dalam lingkaran"

Pada konferensi TechCrunch Disrupt di London, salah satu pendiri Google DeepMind Mustafa Suleyman berbicara tentang pentingnya transparansi saat merancang kecerdasan buatan, dan risiko tidak mengetahui sistem teknologi kita sedang mengerjakan.

Pendiri Google DeepMind tentang masa depan AI:

Berbicara tentang DeepMind Partnership on AI – kemitraan lintas perusahaan antara Google, Facebook, Amazon, IBM dan Microsoft – Suleyman berbicara tentang tujuan grup untuk mengatasi bahaya sosial yang dapat muncul dari tingkat lanjut AI.

Sambil mencatat bahwa kemitraan penuh tidak akan diumumkan hingga Januari 2017, Suleyman menguraikan masalah inti untuk kelompok: mengetahui mengapa sistem kecerdasan buatan membuat keputusan yang mereka lakukan, dan memastikan bahwa proses ini setransparan mungkin mungkin.

“Kami beberapa dekade jauh dari jenis risiko yang awalnya dibayangkan dewan,” kata Suleyman. “Jadi kami menerapkan berbagai mekanisme lain yang berfokus pada konsekuensi jangka pendek. Salah satu prioritas kemitraan adalah melihat pertanyaan tentang transparansi algoritmik. Di mana dalam jaringan terdapat representasi yang kami gunakan untuk memberikan rekomendasi tertentu – untuk mengambil keputusan tertentu? Ini adalah pertanyaan yang sangat penting.”

Lihat terkait 

AI Google membuat sistem enkripsi dan belum ada yang memahaminya
Pemerintah tidak siap dengan dampak kecerdasan buatan, klaim anggota parlemen
Pesawat tempur AI mengalahkan pilot manusia dalam simulasi pertempuran

Suleyman ditanya tentang efek 'kotak hitam' dari proses pembelajaran mesin – meskipun kita dapat mengidentifikasi data apa itu diambil tetapi sistemnya, dan apa hasilnya, saat ini kami tidak dapat mengetahui dengan pasti mengapa AI membuatnya pilihan. Apakah ini menghadirkan masalah yang signifikan bagi masa depan masyarakat, mengingat ketergantungan kita yang semakin meningkat pada proses berbasis AI dalam infrastruktur kita? Peneliti dari Google Brain, misalnya, melakukan eksperimen di mana mereka diajari tiga jaringan saraf mampu mengembangkan sistem enkripsi – independen dari manusia.

“Untuk meletakkannya dalam konteks, saya pikir kita memiliki masalah ini secara menyeluruh,” jawab Suleyman. “Banyak dari sistem perangkat lunak kami yang paling rumit sangat sulit untuk di-debug, dan ketika terjadi kesalahan, mereka menyebabkan dampak besar – di bandara atau rumah sakit atau dalam sistem transportasi. Secara umum, kami memiliki pertanyaan yang lebih luas tentang bagaimana kami memverifikasi apa yang dilakukan sistem teknis kami, dan bagaimana kami memeriksanya dan memastikannya transparan, dan memastikan bahwa kami memiliki kendali atas mereka. Sebagai manusia, kita harus tetap sepenuhnya berada dalam lingkaran.”

Selain risiko melepaskan proses AI dari keterlibatan manusia, Suleyman juga menyinggung bahaya pembelajaran AI dari struktur sosial manusia yang lebih disesalkan. Ketika ditanya tentang a ProPublica artikel diterbitkan pada bulan Mei, yang meneliti perangkat lunak yang dirancang untuk kemungkinan narapidana melakukan kejahatan di masa depan – dan yang terbukti bias terhadap orang kulit hitam – Suleyman mengatakan efek dari prasangka manusia pada sistem AI adalah “salah satu pertanyaan terpenting dari kami hari".

“Kami ditakdirkan untuk memproyeksikan bias dan penilaian kami ke dalam sistem teknis kami”

“Cara saya memikirkan hal-hal ini adalah: kami ditakdirkan untuk memproyeksikan bias dan penilaian kami ke dalam sistem teknis kami,” kata Suleyman. “Jika kita tidak berpikir secara sadar sebagai desainer dan teknolog tentang bagaimana kita membangun sistem tersebut, maka tanpa disadari kita akan memperkenalkan bias yang sama ke dalam sistem tersebut.”

Apakah pilihan kata "ditakdirkan" itu salah atau tidak, Suleyman berharap bahwa masyarakat manusia dapat mengembangkan sistem teknologi tanpa prasangka sendiri. Dalam sebuah catatan utopianisme, dia mengklaim bahwa ini sebenarnya memberikan jalan bagi kita untuk “membangun kembali dunia kita”.

“Hal yang menarik tentang teknologi ini adalah menghadirkan peluang bagi kami untuk secara kritis merefleksikan bagaimana kami merancang sistem yang berinteraksi dengan dunia nyata,” katanya. “Kita harus terus mencoba melakukan itu dengan cara yang terbuka dan transparan, dan dalam beberapa hal membangun kembali dunia kita dengan lebih sedikit bias dan penilaian saat kita bergerak maju sebagai spesies.”