Solicită caine de pază pentru a preveni discriminarea AI

Un grup de experți ar trebui creat pentru a ține sub control inteligența artificială și alte sisteme automate pentru a evita discriminarea și luarea proastă a deciziilor.

Solicită caine de pază pentru a preveni discriminarea AI

A raport de către o echipă de la Institutul Alan Turing din Londra și Universitatea din Oxford solicită un organism independent dedicat să fie configurat pentru a investiga și monitoriza modul în care aceste sisteme iau decizii, dintre care multe pot avea un impact masiv asupra unei persoane trai.

Datorită valorii economice a algoritmilor AI, detaliile tehnice din spatele acestor sisteme sunt un secret bine păzit în industrie și sunt rareori discutate public. Cu toate acestea, un organism independent va putea reprezenta acele persoane care simt că au fost discriminate de un serviciu AI, potrivit cercetătorilor.

Vezi legate 

Creierul vs inteligența artificială: AI distruge umanitatea încă o dată
Guvernul nu este pregătit pentru impactul inteligenței artificiale, susțin parlamentarii
Ce este AI? Zece lucruri pe care trebuie să le știi despre viitorul inteligenței artificiale

„Ceea ce am dori să vedem este o terță parte de încredere, poate un organism de reglementare sau de supraveghere, care ar avea puterea de a controla și algoritmi de audit, astfel încât să poată intra și să vadă dacă sistemul este într-adevăr transparent și corect”, a spus cercetătorul Sandra Watcher.

Echipa, care include și Brent Mittelstadt și Luciano Floridi, susține că, deși oamenii sunt capabile să conteste orice decizii eronate luate de AI, legile actuale de protecție sunt depășite și ineficace.

Legea privind protecția datelor din Regatul Unit permite persoanelor fizice să conteste deciziile conduse de inteligența artificială, însă companiile nu trebuie să elibereze informații pe care le consideră secrete comerciale. În prezent, aceasta include în mod specific modul în care un algoritm AI a ajuns la decizia pe care a luat-o, lăsând oamenii în întuneric. cu privire la motivul pentru care s-ar fi putut respinge o cerere de card de credit sau a fost eliminată din greșeală din registrul electoral.

Nou Legislația Regulamentului general privind protecția datelor (GDPR). va ajunge în 2018 în statele membre europene și în Marea Britanie, promițând să adauge o mai mare transparență în luarea deciziilor în domeniul inteligenței artificiale. Cu toate acestea, cercetătorii susțin că riscă să fie „lipsit de dinți” și nu le va oferi potențialelor victime suficientă siguranță juridică.

„Există ideea că GDPR va oferi responsabilitate și transparență pentru AI, dar acest lucru nu este deloc garantat”, a spus Mittelstadt. „Totul depinde de modul în care este interpretat în viitor de instanțele naționale și europene.”

O terță parte ar putea crea un echilibru între preocupările companiei cu privire la scurgerea de secrete comerciale și dreptul persoanelor de a ști că au fost tratate corect, potrivit raportului.

Raportul a analizat cazurile din Germania și Austria, care sunt considerate a avea cele mai solide legi privind utilizarea procesului decizional condus de IA. În cele mai multe cazuri, companiile au fost obligate să transmită doar informații generale despre procesul decizional al algoritmului.

„Dacă algoritmii pot afecta cu adevărat viețile oamenilor, avem nevoie de un fel de control pentru a vedea cum un algoritm a ajuns de fapt la o decizie”, a spus Wachter.

Încercarea recentă a Microsoft de a dezvolta inteligența artificială în spațiul rețelelor sociale s-a încheiat cu un dezastru când botul său de chat Tay, conceput pentru a imita conversațiile, a fost manipulat în mesaje pe Twitter precum „Hitler nu a făcut nimic rău”.

În decembrie 2016, a avut loc un incident jenant când un sistem de identificare bazat pe inteligență artificială a respins o cerere de pașaport de la un bărbat din Asia de 22 de ani, deoarece a decis că avea cu ochii inchisi.