Microsoft Zo je pokračovateľom svojho rasistického chatbota Tay

Po poslednom experimente s chatbotmi spoločnosti Microsoft bol Tay zabitý po tom, čo sa stal rasistickým do 24 hodín od zverejnenia, Teraz sa chystá spustiť Zo – no tentoraz má zavedené bezpečnostné opatrenia, ktoré zabránia opakovaniu udalostí.

Microsoft Zo je pokračovateľom svojho rasistického chatbota Tay

Rovnako ako Microsoft Tay, aj Zo sa učí o jazyku a o tom, ako ľudia spolu používajú slová a emócie, tým, že sa zapájajú do rozhovorov s ľuďmi. Tentoraz však nie je cez Twitter otvorený pre každého – spoločnosť Microsoft sa rozhodla použiť Kik messenger ako svoju platformu a používatelia sú prijímaní iba prostredníctvom pozvánky. Microsoft tiež prijíma aplikácie na rozhovor so Zo cez Facebook Messenger a Snapchat, takže je pravdepodobné, že Zo sa časom rozšíri na ďalšie platformy.

Podľa MSPoweruser's Mehedi Hassan, cez IT Pro, Zo má normálny rozhovor pribitý. Chatbot od Microsoftu však nie je príliš horúci v hlbších a zmysluplnejších konverzáciách alebo spracovávaní tém o politike alebo o čomkoľvek, čo si vyžaduje hlboké znalosti danej témy.

Microsoft je pri zavádzaní Zo oveľa opatrnejší ako Tay, takže je nepravdepodobné, že uvidíme, ako sa to stane rovnako rýchlym smerom k rasizmu kvôli online trollom. Napriek tomu je rovnako otvorený zneužitiu ako predtým, pretože mnohí používatelia Kik sú ľudia z Redditu – počiatočný Tay trolling sa začal od skupiny používateľov Redditu.

Pozri súvisiace 

Nové chatboty Duolingo AI vám pomôžu naučiť sa španielsky, francúzsky alebo nemecky
Tento chatovací robot sa môže rozprávať s vašimi priateľmi, takže vy nemusíte
Facebook prináša roboty do Messengera

Microsoft však už predtým dosiahol určitý úspech v priestore chatbotov AI. V Japonsku má chatbot na Twitteri postavený v podobnom duchu ako Tay. Zatiaľ čo Tay sa stala rasistkou do 24 hodín, japonskí používatelia urobili Rinnu anime milujúca otaku školáčka. Bohužiaľ, len čo Tay začala padať, západní trolovia objavili Rinnu a – hoci sa to snažili urobiť rasisticky – skončili vytvorenie trochu depresívnej a bipolárnej AI.

Dúfajme, že Microsoft si tentokrát oddýchne so Zo.