I robot ora possono apprendere nuovi compiti studiando gli esseri umani

Realizzare un robot che sembri pensare e comportarsi come un essere umano è (relativamente) semplice. Ok, questo non lo rende meno snervante quando ne vedi uno fuori a fare jogging, ma è rassicurante sapere che la sua tecnica e forma sono programmate piuttosto che apprese mentre ti sorpassa, senza sudare né in senso figurato né letterale.

Poi ci sono i robot che imparano facendo: AlphaGo, il robot che ha imparato a battere il giocatore di Go numero uno al mondo, lo ha fatto giocando molto a Go, per esempio.

Vedi correlati 

Il supermercato licenzia Fabio il robot dopo una settimana in cui ha spaventato la gente
L'umanoide Atlas di Boston Dynamic è diventato un robot compiaciuto che fa veri e propri salti mortali all'indietro
Gli esseri umani lavoreranno nel 2050?

Ma un robot che impara guardando gli esseri umani: questa è una novità. È nuovo e ha un sapore completamente diverso di minaccia per quelli convinti che i loro datori di lavoro preferirebbero assumerne una versione meccanica, meno la propensione per Reddit e i giorni di malattia.

Siamo un passo avanti verso quella realtà. I ricercatori di Nvidia hanno creato un sistema basato sul deep learning che insegna ai robot a imitare gli esseri umani semplicemente osservandoli esibirsi per primi. In altre parole, i robot possono apprendere sul lavoro esattamente nello stesso modo in cui lo fanno gli esseri umani: Monkeybot vede, Monkeybot fa.

Ok, come suggerisce il video sopra, è piuttosto limitato e finché il tuo lavoro non prevede l'impilamento di cubi dai colori vivaci, sei probabilmente al sicuro per ora. Ma per quanto banale possa sembrare dal punto di vista umano, questo tipo di imitazione rappresenta una sfida enorme per i robot che devono identificare gli oggetti e il modo in cui interagiscono tra loro in tempo reale.

Meglio ancora, il sistema fornisce anche una spiegazione dei passaggi che sta eseguendo in un inglese semplice, in modo che se commette un errore sarai in grado di vedere cosa pensava di fare. Anche se probabilmente è di poco conforto se hai appena visto la tua macchina schiacciata sotto un gigantesco blocco giallo.

“Affinché i robot possano svolgere compiti utili nelle impostazioni del mondo reale, deve essere facile comunicare il compito al robot; ciò include sia il risultato desiderato che eventuali suggerimenti sui mezzi migliori per raggiungere tale risultato”, hanno spiegato i ricercatori. “Con le dimostrazioni, un utente può comunicare un compito al robot e fornire indizi su come eseguire al meglio l’attività”.

Per ora questi compiti sono limitati a macchinine e blocchi, ma alla fine potresti dimostrare i punti più delicati del tuo lavoro a uno stagista meccanico. A quel punto, dovrai sperare che il tocco umano valga la pena che il tuo datore di lavoro paghi un extra.