DeepMind de Google a maîtrisé un autre jeu

Chaque parent a secrètement un peu peur du jour où il ne sera plus obligé de laisser ses enfants gagner à un jeu - que ce soit échecs, Scrabble ou même Hippopotames affamés – mais les chercheurs de Google ont maintenant eu le plaisir aigre-doux de voir leur DeepMind AI apprendre l'ancien jeu chinois de Go et détruire rapidement certains des meilleurs joueurs du monde.

Voir liés 

L'IA et le « deep learning » sont-ils l'avenir de tout ?
Dr Watson: IBM prévoit d'utiliser le Big Data pour gérer le diabète et l'obésité

Si vous n'êtes pas familier avec Go, tout ce que vous devez vraiment savoir, c'est que, même si cela semble assez simple, c'est en fait assez compliqué. Tellement compliqué que les experts mondiaux ont estimé que nous étions encore à une décennie d'un champion du monde artificiel. Comme le souligne Google dans

leur blog sur la victoire, il y a en fait plus de positions potentielles sur le plateau de Go qu'il n'y a d'atomes dans l'univers.

"La raison pour laquelle cela a été plus rapide que prévu était le rythme de l'innovation en cours avec les algorithmes sous-jacents et aussi combien de potentiel vous pouvez obtenir en combinant différents algorithmes ensemble », Demis, directeur général de DeepMind hassabis

a déclaré à la BBC.

Comme vous pouvez le voir dans la vidéo ci-dessus, le programme Go sur mesure de DeepMind, AlphaGo, a battu le champion d'Europe Fan Hui 5-0. Aie.

Le plaisir ne doit pas non plus s'arrêter là pour Google. Cela signifie également qu'ils ont surpassé l'IA de Facebook pour maîtriser Go :

Gros problème, pensez-vous peut-être: Deep Blue a battu Kasparov aux échecs en 1997, alors pourquoi est-ce toujours d'actualité? Eh bien, deux raisons principales. D'une part, Go est beaucoup moins logique que les échecs et avec beaucoup plus "d'intuition" en son cœur. D'autre part, c'est plus compliqué, avec environ dix fois plus de mouvements possibles dans votre position de Go moyenne qu'aux échecs.

Cela nécessitait une approche différente et c'est ce que Google a fait. “Nous avons construit un système, AlphaGo, qui combine une recherche arborescente avancée avec des réseaux de neurones profonds », écrit Hassabis. «Ces réseaux de neurones prennent une description de la carte Go comme entrée et la traitent à travers 12 couches de réseau différentes contenant des millions de connexions de type neurone. Un réseau de neurones, le « réseau de politiques », sélectionne le prochain coup à jouer. L'autre réseau de neurones, le "réseau de valeur", prédit le gagnant du jeu.

"Nous avons entraîné les réseaux de neurones sur 30 millions de mouvements à partir de jeux joués par des experts humains, jusqu'à ce qu'ils puissent prédire le mouvement humain 57 % du temps (le précédent record avant AlphaGo était de 44 %). Mais notre objectif est de battre les meilleurs joueurs humains, pas seulement de les imiter. Pour ce faire, AlphaGo a appris à se découvrir de nouvelles stratégies, en jouant à des milliers de parties entre ses réseaux de neurones et ajustement des connexions à l'aide d'un processus d'essais et d'erreurs appelé renforcement apprentissage."

Pourtant, AlphaGo n'est pas encore champion du monde, même s'il a conquis l'Europe. En mars, il affrontera un match encore plus relevé à Séoul face à Lee Sedol, le meilleur joueur du monde ces dix dernières années. Je n'aime pas les chances de Sedol.

Si tout cela est légèrement terrifiant, rassurez-vous: nous sommes encore loin d'un joueur de football artificiel qui serait choisi pour le football à cinq devant moi, et je suis nul au football.

Il y a quelque chose de tranquillement rassurant à ce sujet.

A LIRE SUIVANT: L'IA et l'apprentissage en profondeur sont-ils l'avenir de tout ?

Image: Makia Minich, utilisé sous Creative Commons