Umelá inteligencia na predpovedanie zločinu je na tom horšie ako u ľudí a je tiež rasistická

Zločin predpovedajúci umelú inteligenciu je v štúdiu horší ako normálny ľudský život a je tiež rasistický

21. storočie bolo svedkom toho, že AI (umelá inteligencia) plní úlohy, ako je šikovné porážanie ľudí v šachu alebo rýchle učenie cudzích jazykov.

Pokročilejšou úlohou pre počítač by bolo predpovedanie pravdepodobnosti páchateľa, že spácha ďalší trestný čin. To je úloha pre systém AI s názvom COMPAS (Profilovanie riadenia nápravných trestných činov pre alternatívne sankcie). Ukazuje sa však, že tento nástroj nie je o nič lepší ako priemerný chlapík a môže byť aj rasistický. No, presne to má výskumný tím objavil po rozsiahlom preštudovaní systému AI, ktorý je široko používaný súdnymi inštitúciami.

Podľa výskumnej práce publikovaný od Science Advances sa COMPAS postavil proti skupine ľudských účastníkov, aby otestoval jeho účinnosť a skontroloval, ako dobre sa darí v porovnaní s logickými predpoveďami normálneho človeka. Stroju a ľudským účastníkom bolo poskytnutých 1000 testovacích popisov obsahujúcich vek, predchádzajúce zločiny, pohlavie atď. páchateľov, u ktorých sa mala predvídať pravdepodobnosť opakovaných trestných činov.

S podstatne menším množstvom informácií ako COMPAS (iba 7 funkcií v porovnaní s COMPASom 137) je malý zástup neodborníkov v predpovedaní recidívy taký presný ako COMPAS.

COMPAS dosiahol celkovú presnosť 65,4 % pri predpovedaní recidívy (tendencia odsúdeného znovu sa dopustiť trestného činu), čo je menej ako presnosť kolektívnej predpovede ľudských účastníkov na úrovni 67 %.

Teraz si nájdite chvíľku a v duchu sa zamyslite nad tým, že systém umelej inteligencie, ktorý sa nedarí o nič lepšie ako priemerný človek, použili súdy na predpovedanie recidívy.

Komerčný softvér, ktorý sa bežne používa na predpovedanie recidívy, nie je o nič presnejší ani spravodlivejší ako predpovede ľudí s malými alebo žiadnymi znalosťami v oblasti trestného súdnictva, ktorí odpovedali na online prieskum.

Ešte horšie je, že sa zistilo, že systém je rovnako náchylný na rasové predsudky ako jeho ľudské náprotivky. keď boli požiadaní, aby predpovedali pravdepodobnosť recidívy z opisov, ktoré obsahovali aj rasové informácie páchateľov. Nemali by ste byť príliš prekvapení, pretože je známe, že AI preberá vzorce, ktoré jej ľudskí učitelia naprogramujú, aby sa naučila.

Hoci obe strany výrazne nedosahujú prijateľné skóre presnosti, zmysel používania nástroja AI, ktorý nie je o nič lepší ako priemerná ľudská bytosť, vyvoláva veľa otázok.

CEZTechCrunch
SOURCEScienceAdvances
ZNAČKYAIroboty
Zanechať komentár

Odporúčané články

Zanechať Odpoveďzrušiť odpoveď