Le implicazioni etiche dell’intelligenza artificiale conversazionale

Quante conversazioni hai avuto con a chatbot negli ultimi tre mesi? È probabile che tu non ne abbia la minima idea.

Le implicazioni etiche dell’intelligenza artificiale conversazionale

Vedi correlati 

Frankenstein, l’intelligenza artificiale e l’amore dell’umanità per la paura della tecnologia
Google Duplex: Google risponde alle preoccupazioni etiche sull'intelligenza artificiale mascherata da esseri umani
Cos'è l'intelligenza artificiale? Dieci cose da sapere sul futuro dell'intelligenza artificiale

Come consumatori, prendiamo con calma l’interazione con i servizi online e non tendiamo a ricordare quanti di essi abbiamo in totale, per non parlare di quanti sono con esseri umani e quanti con chatbot. In effetti, in alcuni casi, potremmo non essere sempre in grado di notare la differenza.

In definitiva, ha importanza se parliamo con persone o con bot, purché l’esperienza sia fluida e il lavoro venga portato a termine? Ebbene, dal punto di vista della protezione dei dati, certamente lo è.

I chatbot sono il futuro

Le opinioni variano su quanto saranno diffusi i chatbot nel prossimo futuro, ma in qualunque modo si analizzino le statistiche, siamo nel bel mezzo di una rivoluzione.

Società di analisi Gartner prevede che entro il 2020 un quarto di tutte le operazioni di assistenza clienti utilizzeranno quelli che definisce “assistenti clienti virtuali”, mentre IBM ha detto che entro lo stesso anno l’85% di tutte le interazioni con i clienti sarà gestito senza il coinvolgimento umano.

La soddisfazione del cliente aumenta del 33% quando vengono utilizzati i bot

Ci sono molte ragioni per cui le aziende sono favorevoli AI-bot potenziati sugli umani. Non hanno bisogno di molta formazione, possono eliminare le code poiché c'è sempre uno spazio che può essere sempre assegnato a un cliente in un dato momento e sono in grado di funzionare 24 ore al giorno.

Anche i consumatori stanno cominciando a preferire l’uso di un chatbot piuttosto che avere a che fare con una persona. Secondo Gartner, la soddisfazione del cliente aumenta del 33% quando vengono utilizzati i bot e porta a una riduzione del 70% delle richieste tramite chiamata/chat o e-mail.

LEGGI SUCCESSIVO: Perché Frankenstein attinge ancora alle nostre paure nei confronti della tecnologia 200 anni dopo

Ascolta e impara

Non c’è dubbio che l’intelligenza artificiale possa fare inferenze o deduzioni su di noi sulla base delle nostre interazioni. “Questo è relativamente banale da realizzare se dietro l’interfaccia AI c’è un set di dati sostanziale”, spiega Steffen Sorrell, principale analista di Juniper Research.

Mark Stephen Meadows, fiduciario e co-fondatore di Seed Token, un framework AI open source, spiega a Alphr: “Il modo in cui ho detto la parola può essere modellato e questo è di particolare rilevanza quando l'utente pronuncia una frase o una frase. [Utilizzando] oltre 200 altri vettori (come sesso, età, ecc.) questi sistemi di ascolto possono rilevare "affetto" o "sentimento" o, semplicemente, emozione. Ciò offre approfondimenti sullo stato mentale dell’utente.”

L’intelligenza artificiale non ha nemmeno bisogno delle nostre parole. IL Università del Vermont ha identificato i segni di accesso Immagini di Instagram che potrebbero indicare depressione. Tuttavia, progressi come questi sollevano interrogativi nella comunità di ricerca sul fatto che il diritto alla riservatezza dei dati sia ostacolato.

Una questione di etica

Forse è una questione di simmetria di potere, ovvero l’idea che l’azienda e il chatbot siano in una posizione più forte rispetto al consumatore.

"Abbiamo un potenziale problema", spiega Meadows Alphr. “L’intelligenza artificiale diventa rapidamente non etica a causa della sua capacità di accumulare più informazioni sulla persona di quante ne abbia sul sistema." Gran parte di questa raccolta è passiva per informare l'addestramento dell'IA e non è sempre coperta consenso.

Steffen Sorrell di Juniper Research suggerisce l'esempio di una società di prestito a breve termine che offre i propri servizi a un utente che in precedenza aveva espresso preoccupazioni sulla propria situazione finanziaria a un'intelligenza artificiale chatbot.

LEGGI SUCCESSIVO: Il chatbot Duplex di Google potrebbe presto prendere il posto dei call center

"La maggior parte dei consumatori riterrebbe che le loro ragionevoli aspettative in materia di privacy siano state violate per una questione così delicata", spiega Sorrell. "Tuttavia, ciò cambia se l'utente ha dato esplicitamente il proprio consenso per questo tipo di condivisione delle informazioni."

Il commissario britannico per l’informazione è d’accordo. Un portavoce ci ha detto: “Ovunque vengano trattati dati personali, si applica la legge sulla protezione dei dati. Le organizzazioni sono tenute a trattare i dati personali in modo equo, lecito e trasparente, indipendentemente dalla tecnologia utilizzata. La chiave è che le persone siano adeguatamente informate sul trattamento e abbiano chiaro come possono esercitare i propri diritti”.

Uno scontro con il GDPR

Secondo l’ICO, le aziende dovrebbero continuare a garantire che venga seguita una politica di protezione dei dati fin dalla progettazione anche nel caso dello sviluppo dell’intelligenza artificiale.

“Quando esaminano determinate tecnologie, le organizzazioni dovrebbero assicurarsi di seguire un approccio di protezione dei dati fin dalla progettazione e, se necessario, intraprendere una valutazione dell’impatto sulla protezione dei dati. Ciò consente loro di garantire che il loro trattamento sia conforme ai principi fondamentali della protezione dei dati”.

Dove il Si riferiscono alle norme generali sulla protezione dei dati – che vale per qualsiasi azienda che tratta dati sui cittadini dell’UE – gli utenti hanno migliorato i controlli su quali informazioni su di loro vengono condivise. Tuttavia, Sorrell sostiene che la mancanza di informazioni, in un formato facilmente comprensibile dal grande pubblico, significa che è improbabile che gli utenti conoscano l’intera portata dei nuovi poteri.

Ad esempio, “anche nel contesto del GDPR, pochi consumatori capiranno di avere il diritto di chiedere spiegazioni su qualsiasi decisione basata su algoritmi”, spiega.

LEGGI SUCCESSIVO: L'assistente personale che può parlare nelle GIF

Nei prossimi anni dedicheremo sempre più tempo all’interazione con i bot

Prati Progetto Gettone Seme è progettato per contrastare l’idea tradizionale secondo cui le organizzazioni possiedono i dati che l’intelligenza artificiale genera e invece utilizza blockchain e open source per consentire agli utenti di specificare le proprie preferenze sulla privacy e sulla condivisione dei dati. È presentato come uno strumento in grado di ripristinare l’equilibrio togliendo potere a poche organizzazioni selezionate attualmente dominare lo spazio dell'intelligenza artificiale, aprendo lo sviluppo e consentendo una maggiore collaborazione tra utenti e sviluppatori.

È un’idea nobile, ma che probabilmente avrà difficoltà dato il mercato altamente contestato e redditizio che l’intelligenza artificiale conversazionale accenderà nei prossimi anni. La traiettoria attuale suggerisce che nei prossimi anni dedicheremo sempre più tempo all’interazione con i bot. È probabile che l’intelligenza artificiale dietro di essi generi sempre più conoscenze su di noi, comprese deduzioni di cui non siamo necessariamente consapevoli.

Sembra che questo settore emergente dell’intelligenza artificiale conversazionale potrebbe essere in rotta di collisione con il GDPR. Proprio come è stato etichettato come tale l’IoT, che ha goduto di anni di raccolta passiva di informazioni come parte della sua struttura “inconciliabile con il GDPR” dall’autorità britannica per la protezione dei dati, lo stesso vale per i chatbot nei prossimi anni.