I comandamenti dell'IA di Google: Google ha sette regole per l'IA e non ci sarà mai una "Google Gun"

La potenziale minaccia dell'intelligenza artificiale emerge di tanto in tanto, ma quanto seriamente dovrebbe essere presa dipende da chi chiedi.

Elon Musk, CEO di Tesla e SpaceX, crede che l'IA lo sia più pericoloso della Corea del Nord, mentre altri respingono la minaccia come esagerata. Il co-fondatore di DeepMind una volta ha definito tali paure "proclamazione infondata da parte di persone che sono intelligenti nei propri domini, ma non lavorano nell'intelligenza artificiale", ma per lo meno sembra che ci siano domande da considerare su come lo implementiamo nella società.

Ora Google – che a sua volta possiede il già citato DeepMind – ha fornito un po' di chiarezza con le proprie regole per la ricerca sull'IA. UN post sul blog dalla scrivania del CEO Sundar Pichai cerca di rassicurare coloro che temono che Google stia cadendo nel Jurassic Park trappola – stanno valutando cosa si può e cosa si dovrebbe fare.

"Il modo in cui l'IA viene sviluppata e utilizzata avrà un impatto significativo sulla società per molti anni a venire", scrive Pichai. “In qualità di leader nell'IA, sentiamo la profonda responsabilità di farlo bene. Quindi oggi annunciamo sette principi che guideranno il nostro lavoro in futuro. Questi non sono concetti teorici; sono standard concreti che governeranno attivamente la nostra ricerca e lo sviluppo dei prodotti e avranno un impatto sulle nostre decisioni aziendali”.

google_has_seven_rules_for_ai_and_there_will_never_be_a_google_gun_-_1

Per brevità, questi sono i sette titoli, anche se Pichai approfondisce tutti sul blog.

  1. Sii socialmente vantaggioso
  2. Evita di creare o rafforzare pregiudizi ingiusti
  3. Essere costruito e testato per la sicurezza
  4. Sii responsabile nei confronti delle persone
  5. Incorporare i principi di progettazione della privacy
  6. Sostenere elevati standard di eccellenza scientifica
  7. Essere resi disponibili per usi conformi a questi principi

A prima vista, potresti notare che questi suoni sono un po' banali, anche se, come ho detto, entra più in dettaglio sul blog stesso. Tuttavia, queste regole lasciano ancora molto spazio all'interpretazione individuale: ciò che è uno "standard elevato" di eccellenza scientifica varierà da persona a persona, per esempio. Ricorda il motto originale di Google: "non essere cattivo", che alla fine è stato abbandonato alcuni anni fa, e molto probabilmente non perché stesse frenando i piani di dominio del mondo, ma perché era un preside troppo soggettivo per governare un'azienda multimiliardaria.

Vedi correlati 

5 problemi che l'intelligenza artificiale deve superare per il nostro bene
Cos'è l'intelligenza artificiale? Dieci cose da sapere sul futuro dell'intelligenza artificiale

Tuttavia, ci sono alcuni impegni concreti dopo che l'elenco iniziale è stato completato, ed è qui che le cose si fanno interessanti. Pichai assicura ai lettori che la società non perseguirà la tecnologia AI che causa danni complessivi, in particolare le armi; tecnologia che viola il diritto internazionale e i diritti umani; e "tecnologie che raccolgono o utilizzano informazioni per la sorveglianza violando le norme accettate a livello internazionale".

Questo è importante, ma per molti non sarà sufficiente, con molti dipendenti di Google profondamente scontenti il controverso lavoro Project Maven dell'azienda con l'esercito americano. Google ha annunciato che non rinnoverà il contratto, ma Pichai ha voluto sottolineare che il le regole per Ai non precluderebbero alla compagnia di lavorare in futuro con i militari sul non combattimento lavoro. "Vogliamo essere chiari sul fatto che mentre non stiamo sviluppando l'intelligenza artificiale per l'uso nelle armi, continueremo il nostro lavoro con i governi e le forze armate in molte altre aree", scrive Pichai. "Questi includono sicurezza informatica, addestramento, reclutamento militare, assistenza sanitaria ai veterani e ricerca e soccorso".

Questo calmerà i nervi di coloro che temono il futuro dell'IA? Probabilmente no, ma è un buon inizio di conversazione per il settore in generale da parte di un'azienda delle dimensioni di Google che ha già molto coinvolgimento, dall'Assistente Google a applicazioni mediche.

"Questo approccio è coerente con i valori esposti nella nostra lettera originale dei fondatori nel 2004", conclude Pichai. “Lì abbiamo chiarito la nostra intenzione di adottare una prospettiva a lungo termine, anche se ciò significa fare compromessi a breve termine. L'abbiamo detto allora e ci crediamo ora".