Mardi 16 février 2016
«Deep learning»
Apprentissage profond
Apprentissage profond
Yann Le Cun
Je vais encore parler du collège de France et d’une leçon inaugurale.
Et je vais parler d’un ingénieur français : l’émission <La Grande Table du 5 février 2016> avait invité Yann Le Cun qui est l’un des inventeurs de l’apprentissage profond à qui vient d’être confié la chaire annuelle informatique et sciences numériques au Collège de France.
Il a prononcé sa leçon inaugurale «L’apprentissage profond : une révolution en intelligence artificielle» le 4 février dernier et vous la trouverez par ce lien : http://www.college-de-france.fr/site/yann-lecun/inaugural-lecture-2016-02-04-18h00.htm
L’apprentissage profond est la technique la plus féconde pour faire progresser l’intelligence artificielle (IA). Aujourd’hui ce ne sont plus les Etats et les militaires qui sont à la pointe de ces recherches mais les GAFA, notamment Google et Facebook.
Ainsi Facebook et Mark Zuckerberg ont embauché Yann LeCun parce qu’il était un des meilleurs dans ce domaine. Il est aujourd’hui directeur du laboratoire d’intelligence artificielle de Facebook et aussi professeur d’informatique et de neurosciences à l’université de New York.
Pendant longtemps, les ordinateurs n’étaient que des calculateurs, de plus en plus puissants et de plus en plus rapides.
Ils suivaient la loi de Moore : leurs capacités doublaient de puissance tous les 18 mois (mot du jour du 1er septembre 2015)
Et c’est ainsi qu’après des années d’efforts, en mai 1997, l’ordinateur Deep Blue d’IBM bat le champion du monde Gary Kasparov. Il le bat parce qu’il peut calculer beaucoup plus vite que l’humain et sait donc mieux déterminer les stratégies gagnantes. Cet ordinateur a été entièrement programmé par des humains.
Je ne connaissais pas le jeu de go mais il s’agirait du plus ancien jeu de stratégie abstrait connu. Il est originaire de Chine. Il n’y a que deux types de jetons qui sont des pierres noires et blanches. Seulement il y a beaucoup plus de pierres dans le jeu de go que de pièces dans un jeu d’échec et le plateau de jeu est beaucoup plus grand qu’un échiquier.
Bref, le seul calcul ne permettait pas à l’ordinateur de vaincre un humain, maître de ce jeu.
<Mais récemment le logiciel AlphaGo de Google, fondé sur la méthode de l’apprentissage profond, est parvenu à vaincre le champion d’Europe. >Mais qu’est ce que l’apprentissage profond en matière numérique ?
Vous n’avez qu’a écouté la leçon inaugurale de Yann LeCun, il vous l’expliquera.
Vous n’avez qu’a écouté la leçon inaugurale de Yann LeCun, il vous l’expliquera.
Pour Yann LeCun, on ne peut dissocier l’intelligence de l’apprentissage : c’est à dire est intelligent un système qui sait apprendre.
Dans une interview qu’il a donnée au Point il explique :
« L’apprentissage profond est une vieille idée, qui date des années 1980-1990, mais l’engouement de la communauté scientifique est relativement récent. Pour une raison simple : les moyens pour rendre les machines plus performantes ne sont disponibles que depuis quelques années. [L’apprentissage profond] est une méthode pour entraîner les machines au lieu de les programmer. Cet « apprentissage-machine» nous permet d’apprendre à un système à faire des choses qui sont très difficiles à programmer explicitement, par exemple reconnaître une image ou comprendre un texte. Désormais, on ne sépare plus la notion d’intelligence, artificielle ou non, de la notion d’apprentissage. […]
[Les outils issus de cette technique] sont utilisés par exemple pour des systèmes d’assistance à la conduite, dans certaines machines haut de gamme, mais ils seront un jour étendus à toutes les voitures. Autre domaine en plein développement : l’imagerie médicale, où dans certains cas les systèmes d’apprentissage profond se sont révélés plus fiables que les médecins : cela permet de filtrer une grande partie des images et aux médecins de se concentrer sur celles où il y a quelque chose à analyser. Nous allons sauver des vies grâce à ça ! Beaucoup d’applications ont trait à l’Internet pour le filtrage d’informations. Facebook sélectionne 100 à 150 pièces d’informations par jour à montrer à un utilisateur, et pour savoir celles qui intéressent le plus chacun, nous utilisons des systèmes de reconnaissance d’images. Par exemple, si vous aimez la voile, la photo du bateau de l’un de vos amis apparaîtra. À l’inverse, si vous n’aimez ni les chats ni les bébés qui représentent une grande partie des images sur Facebook, on ne vous en montrera pas !»
Il explique cela de manière plus technique dans sa leçon inaugurale qui sera suivi d’autres cours sur ce sujet qui seront également mis en ligne par le Collège de France.
La notion d’apprentissage profond, provient du fait que ce sont des modules hiérarchisés qui réalisent ces travaux notamment de classification des images. Il s’agit donc de niveaux ou de couches d’analyses qui s’enchaînent pour arriver au résultat final.
La superposition de ces niveaux ou de ces couches ont conduit à parler de «profondeur.»
Je ne prétends pas avoir tout compris dans le détail, mais ce que j’ai compris je l’ai trouvé passionnant et aussi un peu rassurant.
Dans la leçon Yann LeCun commence d’abord à décrire le cerveau humain, à dire toute son admiration devant cet organe tellement extraordinaire et qui consomme tellement moins d’énergie que les ordinateurs. Mais le cerveau humain reste un mystère et à la question : Le cerveau humain est-il un modèle pour construire une intelligence artificielle ?
Yann LeCun répond :
«C’est une question qui divise la communauté : dans quelle mesure doit-on s’inspirer de la biologie ? Faut-il copier le cerveau ou construire des théories mathématiques puissantes pour produire une intelligence artificielle ? D’abord, si on copie sans comprendre, ça ne marche pas… Beaucoup des pionniers de l’aviation se sont inspirés des oiseaux. Or les avions sont très différents des oiseaux… Observer une plume à la façon d’un biologiste ne sert en fait pas à grand-chose pour construire une machine volante, il vaut mieux comprendre l’aérodynamique. De même, pour l’intelligence artificielle. Au-delà des neurones, il existe des principes sous-jacents que nous ignorons et qui seraient en quelque sorte l’équivalent des lois aérodynamiques pour le vol. Mon ambition scientifique est de découvrir certains des principes sous-jacents à l’intelligence, qui seraient communs à l’intelligence artificielle et à l’intelligence biologique !»
On ne peut pas séparer la notion d’intelligence de la notion d’apprentissage !
L’idée qu’il fallait concevoir des machines qui devait apprendre a germé en 1950 mais a été abandonné jusqu’en 1980.
Toutefois Yann LeCun explique que l’intelligence artificielle est encore très loin du cerveau humain.
Car pour l’instant, la seule manière d’apprendre à l’ordinateur consiste dans la méthode appelée « l’apprentissage supervisé ». Je traduirais cela par du bachotage. Enfin du gavage comme seule une machine peut faire.
L’idée c’est par exemple de montrer des milliers de voitures et des milliers de chaises à l’ordinateur. Au début on lui dit ce que c’est, puis on le laisse deviner et on lui dit quand il se trompe.
L’objectif est bien sûr de lui montrer une voiture ou une chaise qu’il n’a jamais vue et qu’il sache reconnaître que c’est voiture ou une chaise.
Chaque fois qu’on lui dit qu’il se trompe, il change les paramétrages de ses modules de reconnaissance pour les rendre plus performants
Mais on est très loin de l’apprentissage du cerveau humain qui apprend énormément sans supervision.
Yann le Cun explique cela de manière suivante :
«A la machine il manque le sens commun.
Si vous avez les yeux fermés et on vous dit Yann prend son téléphone et sort de la pièce.
Vous allez, parce que vous avez ce sens commun, comprendre toute une série de conséquences.
Par exemple que pour sortir Yann s’est levé et il a marché, il n’a pas volé. Il a ouvert une porte et que depuis qu’il est sorti le téléphone et Yann ne sont plus dans la pièce.
La machine n’a pas ce sens commun.»
Dans la leçon il donne un autre exemple :
Si vous expliquez à un enfant la différence entre un homme et une femme et que par ailleurs vous lui montrez une paire de lunettes, il n’aura aucun mal à reconnaître des hommes avec et sans lunettes et des femmes avec et sans lunettes. C’est immédiat et c’est banal.
Pour l’ordinateur ce n’est absolument pas évident : il peut reconnaitre un homme d’une femme et reconnaitre un homme avec des lunettes mais il se demandera ce que peut bien être une femme portant cette drôle de monture sur son nez si on ne lui pas appris.
D »où cette magnifique formule algébrique qu’il décline dans son cours : une femme à lunettes = homme à lunettes – un homme + une femme.
Il explique en effet que souvent la logique doit être remplacée par de l’algèbre pour que l’ordinateur comprenne !
Tout ceci revient au mot du jour du 4 février 2015 où Gérard Berry également Informaticien et Professeur au Collège de France avait rendu ce jugement péremptoire : « Fondamentalement, l’ordinateur et l’homme sont les deux opposés les plus intégraux qui existent.
L’homme est lent, peu rigoureux et très intuitif. L’ordinateur est super rapide, très rigoureux et complètement con. »
Enfin Yann LeCun explique que l’intelligence artificielle, dans l’histoire de l’informatique, a toujours été appliquée à des choses qu’on ne savait pas très bien faire.
Ainsi pour les calculateurs qui jouaient aux échecs, on parlait d’intelligence artificielle. Depuis qu’ils sont arrivés à leur finalité : battre des champions humains on ne parle plus d’IA.
Quand on a inventé les compilateurs, c’est à dire la programmation à partir de langages proches du langage humain que le compilateur traduisait en langage machine, on parlait d’IA. Plus personne ne considère cela comme de l’IA.
Dès qu’on sait faire ce n’est plus de l’intelligence artificielle
Bref, c’est à la fois passionnant et rassurant. Évidemment, les informaticiens essayent de passer à l’apprentissage non supervisé mais pour l’instant cela ne marche pas.
Voici un article sur ce type de sujet http://www.lesechos.fr/idees-debats/cercle/cercle-151108-mythes-et-realite-de-lintelligence-artificielle-1198854.php
Et Last but not least, dans sa leçon inaugurale, le professeur Yann LeCun, tout génie qu’il est, rate plusieurs de ses démonstrations, comme tout professeur normal que nous avons connu et qui ratait les expériences qu’ils voulaient nous montrer. Il ne trouve pas la vidéo qui va bien, la vidéo qu’il pensait lancer avec lien ne démarre pas. Bref du normal ! De l’humain !
Si vous préférez la lecture à la vidéo vous trouverez une grande partie de l’exposé dans le fichier joint.