„Microsoft“ trumpam atkuria „Tay“ – „Twitter“ AI, kuri per 24 valandas tapo rasistine

ATNAUJINIMAS: Oho. Tai buvo greita: „Microsoft“ jau antrą kartą patraukė Tay po daugybės keiksmažodžių tviterių ir bent vienas iš jų reklamavo narkotikų vartojimą. Vėl grįžkite į piešimo lentą, „Microsoft“. Štai kodėl mes negalime turėti gražių dalykų.

„Microsoft“ pareiškime teigė: „Tyrimo metu ji buvo netyčia trumpam suaktyvinta „Twitter“. laiko." Jei robotas grįš trečią kartą, tikimės, kad jis truks šiek tiek ilgiau... Pradinis kūrinys tęsiasi žemiau.

Prisimeni Tay? Praėjusią savaitę „Twitter“ pasirodžiusi „Microsoft“ dirbtinis intelektas, iš pradžių skleidęs nesąmones, o paskui staiga susidomėjęs 1940-ųjų fašizmu? tay_atheism_hitler_bot

Po daugybės papūgos vaizdų, apimančių kiekvieną slegiančią fanatizmo spektro kampelį, Tay buvo greitai pašalintas per 24 valandas, motyvuojant miego poreikiu. Šiame kontekste „miegas“ tikriausiai yra „Microsoft“ pamokos apie bendraamžių spaudimo ir svetimų pavojų internete kodas:tays_last_tweet

Na, atspėk, kas grįžo daugiau?

Žiūrėti susijusius 

Kas yra AI? Dešimt dalykų, kuriuos reikia žinoti apie dirbtinio intelekto ateitį

Tai gana greitas apsisukimas. Microsoft rašė praėjusią savaitę dienoraščio įraše kad jie planavo sugrąžinti Tay į gyvenimą „tik tada, kai esame įsitikinę, kad galime geriau numatyti piktybinius ketinimus, kurie prieštarauja mūsų principams ir vertybėms“.tay_hitler_praise_ai_

Kitoje įrašo vietoje Peteris Lee, „Microsoft Research“ įmonės viceprezidentas, tiksliai paaiškino, kur pirmą kartą Tay suklydo. „A žmonių pogrupio koordinuota ataka išnaudojo Tay pažeidžiamumą“, – rašė jis.tay_supports_genocide_racist_bot

Nors buvome pasiruošę daugeliui piktnaudžiavimų sistema, atlikome kritinę šios konkrečios atakos priežiūrą. Dėl to Tay tviteryje paskelbė beprotiškai netinkamus ir smerktinus žodžius ir vaizdus. Prisiimame visą atsakomybę, kad nepamatėme šios galimybės anksčiau laiko.tay_offensive_tweets

Tai nebuvo pirmasis „Microsoft“ AI eksperimentas, o Lee mini teigiamą kinų roboto „XiaoIce“ patirtį, kuri yra „buvimas naudojo apie 40 milijonų žmonių [ir] džiugina savo istorijomis ir pokalbiais. Tikėtina, kad jos istorijos yra šiek tiek mažesnės ginčytinas nei Vakarų analogas.

Iš tiesų, „XiaoIce“ buvo pakankamai pasitikima, kad gruodžio mėn. pristatytų naujienas per Kinijos televiziją. Tikriausiai geriausia, kad Tay čia nebuvo pateikta tokia pati informacija – skundai Ofcom būtų patogiai užtemę 73 788 Big Brother pritraukė.

https://youtube.com/watch? v=A3rKavB0krs

Jūs tiesiog žinote, kad tie patys vakarėliai dar kartą atskleis tamsiąją Tay pusę, todėl bus įdomu pamatyti, kiek Tay šiandien yra tylesnė. Žinoma, Tay šį kartą atrodė daug lėčiau atsakydamas į žinutes – vis dar laukiu atsakymo į linksmą sugrįžimą, kai anksčiau atsakymai būdavo momentiniai.

O gal praėjusią savaitę ji pasišnekėjo Derbio apygardos pokalbyje.tay_tweets_ai

SKAITYTI KITAS: Mes teikiame pirmenybę paskutiniam „Microsoft“ AI eksperimentui – štai kokios šunų veislės yra Alphr komanda