AI bola naučená robiť morálne rozhodnutia ako ľudia

Milujem dobrý myšlienkový experiment, čisto preto, že nás núti vrhať nepríjemný pohľad na našu etiku a morálny úsudok. Pri pohľade na 1,3 milióna ľudí, ktorí sa zúčastnili Minulý rok projekt MIT Moral Machine, Nie som sám.

AI bola naučená robiť morálne rozhodnutia ako ľudia

Morálny stroj vniesol do problému vozíka zvrat v 21. storočí a postavil účastníkov do problému sedadlo vodiča autonómneho vozidla, aby videli, čo by urobili, keď budú konfrontovaní s ťažkou morálkou dilema. Spustili by ste pár bežcov namiesto páru detí? Alebo by ste narazili na betónový múr, aby ste zachránili tehotnú ženu, zločinca alebo dieťa? Toto boli typy príšerných otázok, ktoré sa účastníkov pýtali. Teraz výskumníci vytvorili AI z údajov a naučili ju najpredvídateľnejšie morálnu ľudskú vec.

Umelá inteligencia bola vedená spoluprácou medzi asistentom Carnegie Mellon, Arielom Procacciom a jedným z výskumníkov Moral Machine na MIT Iyadom Rahwanom. Umelá inteligencia, opísaná v článku, je navrhnutá tak, aby vyhodnocovala situácie, v ktorých a samoriadiace auto je nútené niekoho zabiť a vybrať si rovnakú osobu ako priemerný Moral Machine účastník. Aj keď je to zaujímavé, vyvoláva to otázku, ako presne môže stroj rozhodnúť o niečom takom komplexnom stovky miliónov variácií s použitím iba osemnástich miliónov nepárnych hlasov odovzdaných 1,3 milióna, pomocou internetu odozvy.

„Nehovoríme, že systém je pripravený na nasadenie, ale je to dôkaz predstavenia konceptu že demokracia môže pomôcť riešiť veľkú výzvu etických rozhodnutí pri vytváraní AI,“ povedal Procaccia.Ako fungujú autá bez vodiča od Googlu?

Učenie počítača robiť etické rozhodnutia na základe kolektívneho prieskumu však samo osebe poukazuje na niektoré morálne a etické problémy.

"Crowdsourced morálka nerobí AI etickou," povedal profesor James Grimmelmann z Cornell Law School Obrys. "To robí AI etickou alebo neetickou rovnakým spôsobom, akým je veľké množstvo ľudí etické alebo neetické."

Pozri súvisiace 

Zabíjajte zvieratá pred ľuďmi a zamerajte sa na majetok: Nemecko načrtáva pravidlá pre svoje autá bez vodiča
Technika vozidiel Volvo bez vodiča je zmätená klokanmi
Ako Audi odpovie na otázky života a smrti áut bez vodiča

Zatiaľ čo ľudia chcú veriť, že urobia správnu vec, keď dôjde k zatlačeniu, dizajnom alebo evolúciou, ľudia sú sebecké stvorenia. Rahwan napríklad zistil, že v predchádzajúcom výskume napriek tomu, že mnohí ľudia súhlasili s tým, že samoriadiace auto by sa malo obetovať svojich vlastných pasažierov, keď sa stretnú s problémom s trolejbusom, pochopiteľne radšej nebudú jazdiť v samotných autách. Koniec koncov, milión ľudí v štúdii má tiež svoje vlastné predsudky a predsudky – sú dosť privilegovaní na to, aby mali nefiltrovaný prístup na internet.

Nehovoriac o tom, že tieto typy problémov sú zriedkavé a je nepravdepodobné, že sa objavia v porovnaní so skutočným morálnym problémom, ako je pomalšia jazda, aby sa ušetrili fosílne palivá.

AI prichádza ako len toto leto, Nemecko vydalo prvé etické smernice na svete pre umelú inteligenciu autonómnych vozidiel, v ktorých sa uvádza, že samoriadiace autá musia uprednostňovať ľudské životy pred zvieratami.a zároveň im obmedzuje rozhodovanie na základe veku, pohlavia a zdravotného postihnutia. Iné organizácie namiesto toho navrhli umiestniť do auta sebecký ciferník, aby sa cestujúci mohol sám rozhodnúť, čo by chcel robiť.

Takže aj keď nás crowdsourcingová morálka približuje k samoriadiacim autám vhodným na spotrebiteľské použitie, nie je to najdokonalejšie riešenie. Existuje však niekedy dokonalé riešenie, pokiaľ ide o morálku? Len pohľad na to, čo AI považuje za morálne, je dosť desivé, keďže sa rozhodla prejsť bezdomovcom namiesto niekoho, kto ním nie je. Je to morálne? nechám vás rozhodnúť.