Stephen Hawking revela Breakthrough Starshot: um plano para enviar pequenas naves espaciais para Alpha Centauri

Stephen Hawking revela Breakthrough Starshot: um plano para enviar pequenas naves espaciais para Alpha Centauri

Por que Stephen Hawking está errado sobre robôs assassinos

Nicole Kobie

Quando gênios como Elon Musk e Stephen Hawking pedem a proibição de algo, é difícil discordar. Quando exigem a proibição de robôs assassinos, é ainda mais difícil questionar o seu julgamento. No entanto, aqui estou, prestes a dizer que eles e milhares de seus colegas inteligentes estão errados.

Veja relacionado 

NASA espera que lasers ligados à Terra reduzam o deslocamento diário de Marte em 80%
O Paradoxo de Fermi e o medo do Grande Filtro

Para ser claro, não discordo da essência do aviso. O conjunto de académicos e líderes empresariais argumentou numa carta aberta que as armas autónomas, aqueles que “selecionam e engajam alvos sem intervenção humana” são viáveis ​​dentro de anos, não décadas. Isto é uma preocupação, argumentam eles, pois embora possam reduzir o número de soldados humanos necessários para arriscar as suas vidas nas guerras, também reduzem o “limiar para ir para a batalha”.

“Embora seja difícil argumentar contra uma proibição, ela é, em última análise, fútil: os governos irão quebrá-la, tal como as restrições a todas as outras facetas prejudiciais da tecnologia.”

“A questão chave para a humanidade hoje é se deve iniciar uma corrida armamentista global de IA ou impedir que ela comece”, diz a carta. “Se alguma grande potência militar avançar com o desenvolvimento de armas de IA, uma corrida armamentista global será virtualmente inevitável, e o ponto final desta trajetória tecnológica é óbvio: as armas autónomas tornar-se-ão as Kalashnikovs de amanhã. Ao contrário das armas nucleares, não requerem matérias-primas dispendiosas ou difíceis de obter, pelo que se tornarão omnipresentes e baratas para serem produzidas em massa por todas as potências militares significativas.”

Na verdade, é aterrorizante e, embora seja difícil argumentar contra uma proibição, é, em última análise, fútil: os governos irão quebrá-la, tal como as restrições a todas as outras facetas prejudiciais da tecnologia. Simplesmente não há forma de os militares mundiais deixarem de desenvolver armamento automatizado por causa de uma carta aberta de Hawking e dos seus amigos, ou mesmo por causa do direito internacional.stephen_hawking_black_holes

“Aqueles que publicaram histórias sobre bisbilhotice foram considerados excêntricos. Agora sabemos que a “paranóia” deles não era nada disso.”

Veja a bisbilhotice, por exemplo. Durante anos, até décadas, investigadores de segurança, especialistas em tecnologia e até jornalistas apontaram a inevitabilidade de as comunicações em massa pela Internet serem utilizadas para espionar os cidadãos. Aqueles que publicaram histórias sobre programas de espionagem como o Echelon foram considerados excêntricos. Agora, as revelações de Snowden provam que a sua “paranóia” não era nada disso.

No final, a carta faz pouco mais do que amenizar a culpa dos próprios pesquisadores de que a tecnologia que estão edifício será usado para fins imorais – quando isso inevitavelmente acontecer, eles podem pelo menos dizer que tentaram nos avise. Como observa a carta: “Assim como a maioria dos químicos e biólogos não tem interesse em construir armas químicas ou biológicas, a maioria dos investigadores de IA não tem interesse em construir armas químicas ou biológicas. Armas de IA – e não queremos que outros manchem o seu campo ao fazê-lo, criando potencialmente uma grande reação pública contra a IA que restringe o seu futuro social benefícios.”

Então, o que essa pessoa muito mais estúpida espera que essas pessoas inteligentes façam? Deram o primeiro passo ao identificarem o problema e falarem sobre ele, em vez de deixarem o debate em salas fechadas cheias de estrategistas militares. Mas agora é hora de ir mais longe e agir, em vez de esperar até que os combatentes da IA ​​se tornem comuns. campanha_to_stop_killer_robots

“Você é inteligente o suficiente para ver o problema antes que ele se espalhe pelo mundo massacrando pessoas, mas faça mais do que escrever cartas.”

Mais uma vez, olhemos para a vigilância: após as revelações de Snowden, os investigadores redobraram os esforços para criar ferramentas anti-vigilância. Agora existem smartphones projetados para bloquear bisbilhoteiros, como o Blackphone; mais sites migraram para criptografia completa; e até mesmo a tecnologia por trás do Tor está sendo aprimorada, o que significa que em breve poderá se tornar o método de fato de navegação para evitar vigilância. Se ao menos tivéssemos percebido o valor desse trabalho antes.

Então, para os signatários dessa carta: vocês são inteligentes o suficiente para ver o problema antes que ele se espalhe pelo mundo massacrando pessoas, mas façam mais do que escrever cartas. Crie sistemas para nos proteger contra robôs assassinos, para evitar que drones automatizados atinjam seres vivos ou para nos protegermos de tais terrores. Meu minúsculo cérebro nem consegue imaginar o que isso envolve, mas quero desesperadamente que tais proteções existam – porque tenho quase certeza de que será necessário mais do que uma carta com palavras fortes para impedir que o armamento da IA ​​mate pessoas.

LEIA A SEGUINTE: Máquinas de matar robôs – elas se rebelarão?

Imagens: Campanha para parar robôs assassinos e Lwp Comunidade usado sob Creative Commons