Zakladateľ Google DeepMind o budúcnosti AI: „Ako ľudia musíme zostať úplne v obraze“

Na konferencii TechCrunch Disrupt v Londýne spoluzakladateľ Google DeepMind Mustafa Suleyman hovoril o dôležitosti transparentnosť pri navrhovaní umelej inteligencie a riziko, že nebudeme vedieť, aké sú naše technologické systémy robí.

Zakladateľ Google DeepMind o budúcnosti AI: „Ako ľudia musíme zostať úplne v obraze“

Hovoríme o partnerstve DeepMind v oblasti AI – medzipodnikovom partnerstve medzi spoločnosťami Google, Facebook, Amazon, IBM a Microsoft – Suleyman hovoril o cieli skupiny riešiť spoločenské nebezpečenstvá, ktoré by mohli vyplynúť z pokročilých AI.

Hoci Suleyman poznamenal, že celý rozsah partnerstva bude oznámený až v januári 2017, načrtol kľúčový problém skupina: vedieť, prečo systémy umelej inteligencie robia rozhodnutia, ktoré robia, a zabezpečiť, aby bol tento proces taký transparentný ako možné.

"Sme desaťročia ďaleko od druhov rizík, ktoré si predstavenstvo pôvodne predstavovalo," povedal Suleyman. „A tak zavádzame množstvo ďalších mechanizmov, ktoré sa zameriavajú na krátkodobé dôsledky. Jednou z priorít partnerstva je pozrieť sa na otázku transparentnosti algoritmov. Kde v sieti je zastúpenie, ktoré používame na doručenie konkrétneho odporúčania – na prijatie konkrétneho rozhodnutia? Toto je skutočne dôležitá otázka."

Pozri súvisiace 

Umelá inteligencia Google vytvorila šifrovací systém a zatiaľ mu nikto nerozumie
Vláda nie je pripravená na vplyv umelej inteligencie, tvrdia poslanci
AI stíhačka porazí ľudského pilota v bojovej simulácii

Suleymana sa pýtali na efekt „čiernej skrinky“ procesov strojového učenia – hoci vieme identifikovať, čo sú dáta ale systém a aký je výsledok, momentálne nemôžeme s istotou vedieť, prečo to AI robí voľby. Predstavuje to významný problém pre budúcnosť spoločnosti vzhľadom na našu rastúcu závislosť od procesov založených na AI v rámci našej infraštruktúry? Výskumníci z Google Brain napríklad uskutočnili experiment, kde sa učil tri neurónové siete sú schopné vyvinúť systém šifrovania – nezávislý od ľudí.

"Aby som to uviedol do kontextu, myslím si, že tento problém máme plošne," odpovedal Suleyman. „Mnohé z našich najkomplikovanejších softvérových systémov je neuveriteľne ťažké odladiť, a keď sa pokazia, spôsobia obrovské dopady – či už na letiskách, v nemocniciach alebo v dopravných systémoch. Vo všeobecnosti máme túto širšiu otázku, ako overujeme, čo robia naše technické systémy, ako ich kontrolujeme a zabezpečujeme, že sú transparentné a ako nad nimi máme kontrolu. Ako ľudia musíme zostať úplne v obraze.“

Okrem rizika odtrhnutia procesov AI od ľudskej účasti sa Suleyman dotkol aj nebezpečenstva učenia sa AI z poľutovaniahodnejších sociálnych štruktúr ľudstva. Pri otázke o a ProPublica článok zverejnené v máji, ktorá skúmala časť softvéru navrhnutú tak, aby bola pravdepodobnosť, že väzni v budúcnosti spáchajú trestný čin – a ktorá sa ukázala byť zaujatý voči černochom – Suleyman povedal, že vplyv ľudských predsudkov na systémy AI je „jednou z najdôležitejších otázok našej deň“.

„Sme predurčení premietnuť naše predsudky a úsudky do našich technických systémov“

"Spôsob, akým o týchto veciach uvažujem, je: sme predurčení premietnuť naše predsudky a naše úsudky do našich technických systémov," povedal Suleyman. "Ak ako dizajnéri a technológovia vedome nepremýšľame o tom, ako tieto systémy budujeme, potom nevedomky zavedieme rovnaké predsudky do týchto systémov."

Či už je výber slova „určený“ chybný alebo nie, Suleyman dúfal, že je možné, aby ľudská spoločnosť rozvíjala technologické systémy bez vlastných predsudkov. V poznámke o utopizme tvrdil, že to v skutočnosti predstavuje spôsob, ako „prestavať náš svet“.

„Na tejto technológii je vzrušujúce, že nám poskytuje príležitosť kriticky sa zamyslieť nad tým, ako navrhujeme systémy, ktoré interagujú s reálnym svetom,“ povedal. "Mali by sme sa to neustále snažiť robiť otvoreným a transparentným spôsobom a v určitom zmysle prestavať náš svet s menším počtom tých predsudkov a úsudkov, keď ako druh napredujeme."