AI'en, der forvekslede en skildpadde for en pistol

Hvornår er en skildpadde ikke en skildpadde? Når det er en pistol. Nej, det er ikke en frygtelig usjov joke, det er en deprimerende kendsgerning, at Googles billedgenkendelse AI så let kan narre til at tro, at en 3D-printet skildpaddefigur i virkeligheden er en riffel.

AI'en, der forvekslede en skildpadde for en pistol

Det er ikke første gang noget som dette er sket, den 3D-printede skildpadde formår at forvirre Googles AI, fordi det er en "modstridende billede”. Disse billeder er bevidst designet til at narre billedgenkendelsessoftware ved at bruge specielle mønstre, der gør AI-systemer forvirrede og derfor tror, ​​de ser noget andet.

Det lyder måske ikke alarmerende, men hvis AI'er ender med at passe på menneskers sikkerhed, kan en sådan fejl have katastrofale konsekvenser. Hvad hvis nogen narrer en AI til at tro, at pistolen, den ser, faktisk ikke er mere end en skildpadde?

"Konkret betyder det, at det sandsynligvis er muligt, at man kunne konstruere et gårdsalgsskilt, som for menneskelige chauffører virker helt almindeligt, men kan for en selvkørende bil se ud som en fodgænger, der pludselig dukker op ved siden af ​​gaden,” skriver Labsix, holdet af studerende fra MIT WHO

offentliggjort forskningen. "Modstridende eksempler er en praktisk bekymring, som folk skal overveje, da neurale netværk bliver mere og mere udbredte (og farlige)."

Labsix' forskning er det første tilfælde af disse modstridende billeder, der arbejder i 3D-form, hvor AI bliver forvirret af 3D-printet fra flere vinkler og lysforhold. Normalt kan disse billeder overvindes ved blot at rotere dem, så AI genkender det, men fordi dette virker fra flere vinkler, kan det være en reel fare for AI-forskning i fremtiden.

Se relateret 

At se en AI skabe falske berømthedsansigter er mareridtsbrændstof
Denne AI lader dig bære et DSLR i lommen
Mød Vincent, AI-kunstneren, der bringer dine skitser til live

Det er dog værd at bemærke, at Labsix' hack ikke er så ligetil, som du skulle tro. Som Randen bemærker, Labsix' påstand om, at det fungerer fra alle vinkler, er ikke helt korrekt, da der er en håndfuld vinkler, Googles Inception-V3 billedgenkendelse AI ikke narre. De modstridende 3D-objekter kræver også, at Labsix kan se, hvordan Googles værktøj genkender objektet først for at identificere dens svagheder, så de kan udnytte dem - noget mange mennesker ikke ville være i stand til at gøre, når de opretter disse billeder.

På trods af min tidligere advarsel om, at noget kunne gå alvorligt galt, hvis dette blev et mere udbredt problem, er det faktisk usandsynligt, at noget som dette nogensinde kan ske. Ikke alene er folk hårdt på arbejde med at forsøge at eliminere disse problemer, det er usandsynligt, at nogen vil sætte en produkt ud i naturen, der har alvorlige sikkerhedsmæssige konsekvenser, hvis dette problem ikke bliver løst på forhånd.

Alligevel er det altid morsomt at se, at AI'er ikke er så smarte, som vi alle tror, ​​de er.