Microsoft Zo è il seguito del suo chatbot razzista Tay

Dopo l'ultimo esperimento di chatbot di Microsoft, Tay era ucciso dopo essere diventato razzista entro 24 ore dall'essere stato rilasciato in pubblico, Ora sta per lanciare Zo, ma questa volta ha messo in atto delle misure di sicurezza per fermare il ripetersi degli eventi.

Microsoft Zo è il seguito del suo chatbot razzista Tay

Proprio come Microsoft Tay, Zo impara a conoscere il linguaggio e come le persone usano insieme parole ed emozioni impegnandosi in conversazioni con gli umani. Questa volta, tuttavia, non è aperto a tutti tramite Twitter: Microsoft ha deciso di utilizzare Kik Messenger come piattaforma e gli utenti sono accettati solo tramite invito. Microsoft accetta anche applicazioni per parlare con Zo tramite Facebook Messenger e Snapchat, quindi è probabile che Zo si espanda su altre piattaforme a tempo debito.

Secondo Mehedi Hassan di MSPoweruser, via Professionista IT, Zo ha una conversazione normale inchiodata. Tuttavia, il chatbot di Microsoft non è troppo appassionato di conversazioni più profonde e significative o di gestione di argomenti di politica o qualsiasi cosa che richieda una profonda conoscenza di un argomento.

Microsoft è molto più attenta con il lancio di Zo rispetto a Tay, quindi è improbabile che vedremo prendere la stessa rapida svolta verso il diventare razzista a causa dei troll online. Tuttavia, è aperto agli abusi come prima, dal momento che molti utenti di Kik sono gente di Reddit: il trolling iniziale di Tay è iniziato da un gruppo di utenti di Reddit.

Vedi correlati 

I nuovi chatbot AI di Duolingo ti aiutano a imparare lo spagnolo, il francese o il tedesco
Questo chat bot può parlare con i tuoi amici, quindi non devi farlo tu
Facebook sta portando i bot su Messenger

Tuttavia, Microsoft ha già avuto un certo successo nello spazio dei chatbot AI. In Giappone ha un chatbot su Twitter, costruito in modo simile a quello di Tay. Mentre Tay è diventato razzista nel giro di 24 ore, gli utenti giapponesi hanno creato Rinna una studentessa otaku amante degli anime. Sfortunatamente, non appena Tay ha iniziato a cadere, i troll occidentali hanno scoperto Rinna e - mentre cercavano di renderla razzista - sono finiti creando un'intelligenza artificiale un po' depressa e bipolare.

Speriamo che questa volta Microsoft possa prendersi una pausa con Zo.