Le Deep Learning, parlons-en !

L’intelligence artificielle comporte de nombreuses ramifications. Le Deep Learning, ou apprentissage profond, est l’une des dernières évolutions des algorithmes de « machine learning » où les machines peuvent apprendre par elles-mêmes, par opposition aux logiciels dans lesquels tout doit être prévu à l’avance par les programmeurs.

Plus précisément, le deep learning désigne les algorithmes grâce auxquels cet apprentissage peut être réalisé. Il s’agit de solutions inspirées de l’observation du fonctionnement du cerveau. On parlera de bio mimétisme, avec des architectures électroniques et logicielles visant à imiter le fonctionnement du système nerveux en général.

Ces technologies se situent actuellement au sommet du « Hype Cycle » de l’intelligence artificielle.

Les attentes sont très fortes et quelques évènements notables l’ont fait connaître au grand public. Le terme envahit ainsi rapidement l’espace médiatique. Par exemple, c’est grâce au deep learning qu’ Alpha Go, l’IA de Google, a pu battre les plus grands champions au jeu de Go en 2016. Le célèbre moteur de recherche est lui-même de plus en plus basé sur cette technique d’apprentissage. D’autres applications spectaculaires et médiatiques voient le jour régulièrement. On a vu des IAs créer toutes seules des tableaux de maîtres, reprenant à s’y méprendre les styles de Van Gogh ou de Rembrandt.

Grace au deep learning, l’IA connaît donc un rapide développement tant au niveau technologique que des applications : industrie, médical, finance, robotique, transports, jeux vidéo, marketing, etc. Mais comme bien des innovations, c’est une histoire assez tourmentée qui commence dans les années 50, résultant d’une conjonction de travaux provenant :

D’une part des chercheurs en neuroscience, qui ont développé des modèles informatiques pour valider leurs hypothèses sur le fonctionnement du cerveau (neurone formel de McCulloch et Pitts, Perceptron de F. Rosenblatt, règle de Hebb, cartes auto-organisatrices de Kohonen, …)

D’autre part des pionniers de l’informatique et de l’IA qui ont adopté l’approche biomimétique : le « connexionnisme» par opposition à l’IA dite « symbolique ». Pour eux, il s’agit de reproduire l’organisation du vivant dans des algorithmes. L’objectif est ici la performance opérationnelle, même si le modèle implémenté dans la machine perd en véracité du point de vue biologique. (Yann Le Cun, Geoffrey Hinton, …)

Pour une excellente introduction au deep learning, nous recommandons la Leçon inaugurale de Yann LeCun au Collège de France

« L’apprentissage profond : une révolution en intelligence artificielle »

Aujourd’hui, l’émergence d’applications concrètes est favorisée par d’autres facteurs dont les réseaux de neurones artificiels sont friands, comme la rapide montée en puissance des machines (loi de Moore) et la disponibilité de données en grand nombre. Les caractéristiques intrinsèques de ce type d’algorithme que sont la plasticité (faculté d’apprentissage) et la possibilité de travailler avec des données imprécises ou incomplètes (avantage inhérent au bio mimétisme) en font le compagnon idéal du « Big Data ».

Si les réseaux de neurones artificiels sont très utilisés pour la classification des données, il est aussi possible de s’en servir pour faire de la prédiction. Il est clair qu’un site de vente en ligne disposant d’historique et de données en suffisance sur le parcours client serait en mesure de mieux anticiper les comportements d’achats. Cette faculté serait précieuse pour optimiser la gestion des stocks ou pour favoriser certains choix lors de la commande.

L’accès à ces technologies est maintenant accessible à un large public, voir par exemple ce que l’on peut faire avec un simple nano ordinateur comme le Raspberry Pi associé au Movidius™ Neural Compute Stick d’Intel® :

Et à l’école LDLC ?

Compte tenu de l’omniprésence de l’IA dans la plupart des métiers à ce jour (et en devenir), nos futurs « héros du numérique » se devaient d’aborder le sujet. Pour l’école LDLC, l’objectif pédagogique est double : d’abord donner une culture générale du deep learning (historique, technologies en présence, applications, …) puis « lever le capot » en entrant dans les détails techniques d’implémentation pour éviter la « pensée magique » face à la complexité du sujet.

Durant ce mois de novembre, nous avons mis en place un « temps fort » pour nos étudiants de troisième année : sur cinq journées, notre intervenant Flavien Chervet – CEO de Exoflow – les a accompagnés à la découverte du machine learning depuis le Perceptron jusqu’aux réseaux de neurones à convolution, en passant par les algorithmes génétiques.

Conformément à notre philosophie de l’apprentissage « par le faire », les étudiants ont expérimenté du code en Python avec la librairie TensorFlow. Ils se sont aussi livrés à un exercice consistant à identifier des opportunités de business, sélectionner les technologies candidates, et imaginer des projets de startups sur cette base. Le pitch de ces projets a clôturé le temps fort deep learning.

Crédits photos : Wikimedia / blogs-images.forbes

Le Deep Learning, parlons-en !