This website requires JavaScript.

Numérique Ethique vous est utile (ou pas) ? Dites-nous tout en 5 minutes ici

Futur connecté
Article

Deep learning : plongée dans les profondeurs d’une révolution

25.01.2019

En 7 ans, le deep learning a conquis toutes les grandes entreprises du numérique. Aujourd’hui, le système lève autant de milliards de dollars que d’inquiétudes sur un futur à la Terminator. Mais au fond, c’est quoi l’apprentissage profond ?

Nous ne savons que trop peu précisément dater le déclenchement des révolutions. De la sienne pourtant, Yann Le Cun s’en souvient comme si c’était hier.

Il n’était pas sur place mais il raconte l’histoire au Monde comme s’il en avait été percuté : « Une révolution. On est passé d’une attitude très sceptique à une situation où tout le monde s’est mis à y travailler (…). Je n’ai jamais vu une révolution aussi rapide. Même si, de mon point de vue, elle a mis beaucoup de temps à arriver… ».

Proie à l’image

À l’époque, le chercheur parisien n’est pas encore le directeur du laboratoire d’intelligence de Facebook à Paris. À l’époque, cela fait plus de vingt ans qu’il tente de faire valoir l’importance essentielle du deep learning au sein de la communauté scientifique.

Dix ans auparavant, avec ceux qui deviendront ses plus proches collaborateurs - Geoffrey Hinton et Yoshua Bengio - Yann Le Cun est même considéré comme « à part ». Selon Le Monde, le trio se surnomme « la conspiration du deep learning ».

Mais un beau jour d’automne 2012, Hinton et deux de ses élèves de l’université de Toronto finalisent leur participation au célèbre concours de reconnaissance et de classification d’objets et de scènes dans les images naturelles d’ImageNet : l’ILSVRC pour ImageNet Large Scale Visual Recognition Challenge.

Pour mettre toutes les chances de leur côté, l’équipe canadienne a utilisé une méthode d’apprentissage profond qui permet à leur réseau de neurones d’identifier rapidement une série d’innombrables images.

Quelques semaines plus tard, ils apprennent que non seulement ils ont remporté la compétition mais qu’en plus, c’est la première fois que des participants parviennent à obtenir un taux d’erreur de moins de 25%.

Critère décisif du concours, ce taux d’erreur descendra par la suite à moins de 5%. Depuis la participation de George Hinton, son taux de réussite sera passé de 71,8% à 97,3%, surpassant ainsi les capacités humaines les plus folles.

Depuis, surtout, une révolution est en marche : celle de l’intelligence artificielle en général, et du deep learning (ou apprentissage profond) en particulier.

Yann Le Cun n’en démord pas. Toujours au Monde, il explique : « Je n’ai jamais vu une révolution aussi rapide. On est passé d’un système un peu obscur à un système utilisé par des millions de personnes en seulement deux ans ».

Que ce soit pour visualiser les numéros de rue dans Google Maps, identifier les images contraires aux conditions d’utilisation de Facebook ou détecter des tumeurs sur des images médicales, le deep learning est partout.

Grâce à lui, nous pourrions traduire les langues en temps réel, utiliser la parole pour commander des appareils, analyser le sentiment dans les évaluations des clients, détecter les mauvais comportements en voiture,…

Ce n’est pas pour rien que la méthode la plus hype de l’intelligence artificielle essaime dans toutes les grandes entreprises du numérique : Google, Adobe, Amazon, IBM, Microsoft. Symbole des fortunes engagées, le marché de ce qu’on appelle le machine learning représente aujourd’hui entre 5 et 7 milliards de dollars et pourrait caracoler à plus de 90 milliards en 2025.

Les vertiges d’un succès

Les chiffres de l’apprentissage profond donnent le vertige. Mais au fond, de quoi parle-t-on ? Le deep learning est une méthode d’apprentissage qui permet à un programme de représenter le monde, via l’image ou la voix par exemple.

Cette technique utilise la même approche que l’entraînement sur un enfant. De petites calculatrices artificielles fondées sur des logiciels sont reliées entre elles pour donner un fonctionnement quasi-similaire à celui des neurones du cerveau.

C’est en 1947 que l’on situe la première mention de l’apprentissage par une machine. Le terme de machine learning aurait été inventé par un pionnier du jeu sur ordinateur pour désigner « le champ d’étude qui donne aux ordinateurs la capacité d’apprendre sans être explicitement programmés à apprendre ».

Il faudra toutefois attendre les années 80 pour voir se constituer les premiers réseaux de neurones. Une décennie où l’on retrouve déjà Yann Le Cun qui soutiendra une thèse sur le sujet en 1987 et qui développera même un système de lecture de chèque assisté par une machine.

Après un manque criant de reconnaissance, le deep learning est aujourd’hui partout. Au choix, il commanderait les voitures et les avions, donnerait naissance à des assistants numériques personnels et rendrait la vue aux aveugles.

Mais le système s’est tellement généralisé qu’il fait peur. Dans un outing presque simultané, de grandes figures de la tech comme Bill Gates, Stephen Hawking ou Elon Musk ont exprimé leurs inquiétudes sur le risque lié à un manque de contrôle de l’IA.

À tel point que, comme une résolution, ils ont tous validé une charte de 23 principes pour une intelligence artificielle bienveillante en début d’année.

Par ailleurs, les machines n’ont pas tardé à dévoiler leur côté sombre. La nouvelle la plus embarrassante étant la faculté des logiciels à incruster des images de célébrités dans n’importe quel contenu, y compris des films pornographiques.

Si vous posez la question de la réalisation d’un scénario dystopique à Yann Le Cun, il vous répondra qu’à partir du moment où les gens « promettent la Lune », le public continuera de croire à la science-fiction. À moins qu’une autre révolution ne fasse irruption.

Retour