Le IA killer non esisteranno, se questo consorzio tecnologico avrà qualcosa da dire al riguardo

Migliaia di sviluppatori e più di 100 tra i leader mondiali AI imprese e istituti di ricerca, compresi Google DeepMind e Silicon Valley Robotics, hanno firmato un impegno secondo cui non dovrebbe mai essere consentito all’intelligenza artificiale di prendere una decisione per porre fine a una vita umana.

Le IA killer non esisteranno più, se questo consorzio tecnologico avrà qualcosa da dire al riguardo

Vedi correlati 

Un’intelligenza artificiale potrebbe uccidere il tuo lavoro, ma ne creerà anche altri milioni
I medici rifiutano il chatbot AI che è “più accurato di un medico di famiglia”
L’intelligenza artificiale può davvero essere emotivamente intelligente?

Oltre 2.400 figure leader del settore tecnologico, come ad esempio Tesla fondatore Elon Musk, e 160 aziende con investimenti nelle tecnologie di intelligenza artificiale, hanno promesso di non permettere mai che la decisione di togliere una vita umana sia “delegata a una macchina” – anche se può prevedere con precisione quando qualcuno morirà.

Alla luce dell’”urgente opportunità e necessità per i cittadini, i politici e i leader di distinguere tra accettabile e inaccettabile usi dell’intelligenza artificiale”, le aziende sottoscritte all’impegno hanno anche invitato i governi a stabilire una serie di leggi concrete contro l’autonomia armi.

“Noi sottoscritti concordiamo sul fatto che la decisione di togliere una vita umana non dovrebbe mai essere delegata a una macchina. C’è una componente morale in questa posizione, secondo cui non dovremmo permettere alle macchine di prendere decisioni cruciali per le quali altri – o nessuno – saranno colpevoli”, il pegno, organizzato dal Future of Life Institute (FLI), leggi.

LEGGI SUCCESSIVO: L’intelligenza artificiale di Google DeepMind sta diventando esperta negli eSport di squadra

I firmatari hanno sostenuto che tali armi, che comprendono anche la selezione e l’ingaggio di obiettivi senza coinvolgimento umano, potrebbero essere estremamente destabilizzanti a livello geopolitico. Hanno inoltre convenuto di eliminare l'elemento del controllo umano, nonché gli stretti legami con il paese sorveglianza e sistemi di dati, potrebbero far sì che le armi autonome diventino “strumenti di violenza e oppressione".

“Inoltre, le armi autonome letali hanno caratteristiche molto diverse dalle armi nucleari, chimiche e biologiche e dalle azioni unilaterali di un singolo Il gruppo potrebbe innescare troppo facilmente una corsa agli armamenti che la comunità internazionale non dispone degli strumenti tecnici e dei sistemi di governance globale per gestire”, si legge nella promessa continuò. “Stigmatizzare e prevenire una simile corsa agli armamenti dovrebbe essere una priorità assoluta per la sicurezza nazionale e globale”.

L’impegno arriva sulla scia di un crescente mare di proteste – non solo da parte di attivisti e attivisti – ma da parte dei dipendenti che lavorano per alcune delle più grandi aziende tecnologiche del mondo, come Google.

LEGGI SUCCESSIVO: Questa intelligenza artificiale può tracciare i movimenti delle persone anche attraverso i muri

Il mese scorso il colosso della tecnologia ha dichiarato che non avrebbe rinnovato un controverso progetto militare guidato dal Pentagono dopo che migliaia di suoi dipendenti hanno criticato pubblicamente la società per il suo coinvolgimento. Soprannominato Progetto Maven, il contratto prevedeva che Google prestasse i suoi kit di programmazione TensorFlow per migliorare le prestazioni dei droni militari.

Ma dopo 3.100 dipendenti di Google hanno firmato una lettera all'inizio di quest'anno chiedendo alla società di ritirarsi dal “business della guerra”, il CEO di Google Cloud Diane Greene ha confermato in una riunione interna il mese scorso che la società non rinnoverà l’accordo una volta scaduto nel 2019.

“Crediamo che Google non dovrebbe occuparsi di guerra. Chiediamo pertanto che Project Maven venga annullato e che Google rediga, pubblicizzi e applichi una politica chiara che lo affermi né Google né i suoi appaltatori costruiranno mai tecnologia bellica", si legge nella lettera originale, indirizzata al CEO Sundar Pichai, dichiarato.

Non è chiaro, tuttavia, se l’impegno appena firmato avrebbe violato il coinvolgimento di Google nel Project Maven, dato che funziona solo così fino a impedire che la decisione di togliere una vita venga presa da una macchina – non contro il coinvolgimento tangenziale della tecnologia AI in qualsiasi sistema d’arma.

LEGGI SUCCESSIVO: Incontra Norman, la prima IA "psicopatica" al mondo

Notevoli assenti dall'accordo includono Mela, uno dei maggiori investitori al mondo nel campo dell'intelligenza artificiale, mentre seleziona solo dipendenti di altri importanti attori tra cui Microsoft, IBM e Amazzonia – non le aziende stesse – hanno firmato l’impegno.

“Sono entusiasta di vedere i leader dell’intelligenza artificiale passare dalle parole all’azione, implementando una politica che i politici finora non sono riusciti a mettere in atto”, ha affermato Max Tegmark, presidente della FLI, annunciando l'impegno oggi a Stoccolma durante l'annuale Conferenza congiunta internazionale sull'intelligenza artificiale (IJCAI).

“L’intelligenza artificiale ha un enorme potenziale per aiutare il mondo, se stigmatizziamo e preveniamo il suo abuso. Le armi basate sull’intelligenza artificiale che decidono autonomamente di uccidere le persone sono disgustose e destabilizzanti quanto le armi biologiche e dovrebbero essere trattate allo stesso modo”.