Menu

Les ordinateurs apprennent déjà de nous. Mais peuvent-ils s’enseigner eux-mêmes?

9 avril 2020 - Technologies
Les ordinateurs apprennent déjà de nous. Mais peuvent-ils s’enseigner eux-mêmes?


Cet article fait partie de notre dernier Rapport spécial sur l’intelligence artificielle, qui se concentre sur la façon dont la technologie continue d’évoluer et d’affecter nos vies.

L’intelligence artificielle semble être partout, mais ce à quoi nous assistons vraiment est une révolution de l’apprentissage supervisé: nous enseignons aux ordinateurs à voir les modèles, tout comme nous enseignons aux enfants à lire. Mais l’avenir de A.I. dépend de systèmes informatiques qui apprennent par eux-mêmes, sans supervision, selon les chercheurs.

Lorsqu’une mère montre du doigt un chien et dit à son bébé: «Regardez le chien», l’enfant apprend comment appeler les amis à quatre pattes à fourrure. C’est enseignement supervisé. Mais quand ce bébé se lève et trébuche, encore et encore, jusqu’à ce qu’il puisse marcher, c’est autre chose.

Les ordinateurs sont les mêmes. Tout comme les humains apprennent principalement par l’observation ou les essais et erreurs, les ordinateurs devront aller au-delà de l’apprentissage supervisé pour atteindre le Saint-Graal de l’intelligence au niveau humain.

«Nous voulons passer de systèmes qui nécessitent beaucoup de connaissances humaines et d’ingénierie de la main humaine» à «de plus en plus de systèmes autonomes», a déclaré David Cox, directeur IBM de la MIT-IBM Watson AI Lab. Même si un système d’apprentissage supervisé lisait tous les livres du monde, a-t-il noté, il manquerait toujours d’intelligence au niveau humain car une grande partie de nos connaissances n’est jamais écrite.

L’apprentissage supervisé dépend de données annotées: images, audio ou texte soigneusement étiquetés par des hordes de travailleurs. Ils encerclent des gens ou décrivent des vélos sur des photos de la circulation routière. Les données étiquetées sont transmises aux algorithmes informatiques, leur apprenant ce qu’il faut rechercher. Après avoir ingéré des millions d’images étiquetées, les algorithmes deviennent experts pour reconnaître ce qu’ils ont appris à voir.

Mais l’apprentissage supervisé est limité à des domaines relativement étroits définis en grande partie par les données de formation.

« Il y a une limite à ce que vous pouvez appliquer à l’apprentissage supervisé aujourd’hui, car vous avez besoin de beaucoup de données étiquetées », a déclaré Yann LeCun, l’un des fondateurs de la révolution actuelle de l’intelligence artificielle et récipiendaire de la Prix ​​Turing, l’équivalent d’un prix Nobel d’informatique, en 2018. Il est vice-président et chef A.I. scientifique chez Facebook.

Les méthodes qui ne reposent pas sur une supervision aussi précise fournie par l’homme, bien que beaucoup moins explorées, ont été éclipsées par le succès de l’apprentissage supervisé et ses nombreuses applications pratiques – des voitures autonomes à la traduction linguistique. Mais l’apprentissage supervisé ne peut toujours pas faire beaucoup de choses simples, même pour les tout-petits.

« Ce ne sera pas suffisant pour une IA au niveau humain », a déclaré Yoshua Bengio, qui a fondé Mila, l’Institut québécois d’IAet a partagé le prix Turing avec le Dr LeCun et Geoffrey Hinton. « Les humains n’ont pas besoin de tant de supervision. »

Aujourd’hui, les scientifiques à la pointe de la recherche en intelligence artificielle ont tourné leur attention vers des méthodes moins supervisées. « Il existe des idées auto-supervisées et d’autres idées connexes, comme la reconstruction de l’entrée après avoir forcé le modèle à une représentation compacte, la prévision de l’avenir d’une vidéo ou le masquage d’une partie de l’entrée et la tentative de reconstruction », a déclaré Samy Bengio, Frère de Yoshua et chercheur à Google.

Il existe également un apprentissage par renforcement, avec une supervision très limitée qui ne repose pas sur des données de formation. L’apprentissage par renforcement en informatique, lancé par Richard Sutton, maintenant à l’Université de l’Alberta au Canada, s’inspire de l’apprentissage cérébral fondé sur les récompenses: pensez à un rat qui apprend à pousser un levier pour recevoir une boulette de nourriture. La stratégie a été élaborée pour apprendre aux systèmes informatiques à prendre des mesures.

Fixez-vous un objectif et un système d’apprentissage par renforcement travaillera vers cet objectif par essais et erreurs jusqu’à ce qu’il reçoive systématiquement une récompense. Les humains font ça tout le temps. « Le renforcement est une idée évidente si vous étudiez la psychologie », a déclaré le Dr Sutton.

Un terme plus inclusif pour l’avenir de l’IA, dit-il, est «apprentissage prédictif», c’est-à-dire des systèmes qui non seulement reconnaître les tendances, mais aussi prévoir les résultats et choisir une ligne de conduite. « Tout le monde convient que nous avons besoin d’un apprentissage prédictif, mais nous ne sommes pas d’accord sur la façon d’y arriver », a déclaré le Dr Sutton. «Certaines personnes pensent que nous y arrivons avec des extensions d’idées d’apprentissage supervisé; d’autres pensent que nous y arrivons avec des extensions d’idées d’apprentissage par renforcement. »

Pieter Abbeel, qui dirige le Berkeley Robot Learning Lab en Californie, utilise des systèmes d’apprentissage par renforcement qui se font concurrence pour apprendre plus rapidement dans une méthode appelée auto-jeu. Des robots simulés identiques, par exemple, lutte de sumo les uns des autres et au départ ne sont pas très bons, mais ils s’améliorent rapidement. « En jouant contre votre propre niveau ou contre vous-même, vous pouvez voir quelles variations aident et développent progressivement des compétences », a-t-il déclaré.

Aussi puissant que soit l’apprentissage par renforcement, le Dr LeCun dit qu’il croit que d’autres formes d’apprentissage automatique sont plus essentielles à l’intelligence générale.

«Mon argent est consacré à l’apprentissage auto-supervisé», a-t-il déclaré, faisant référence aux systèmes informatiques qui ingèrent d’énormes quantités de données sans étiquette et donnent un sens à tout cela sans supervision ni récompense. Il travaille sur des modèles qui apprennent par l’observation, accumulant suffisamment de connaissances de base pour qu’une sorte de bon sens puisse émerger.

« Imaginez que vous donniez à la machine un élément d’entrée, un clip vidéo, par exemple, et que vous lui demandiez de prédire ce qui se passera ensuite », a déclaré le Dr LeCun dans son bureau de l’Université de New York, décoré d’images fixes du film « 2001: Une odyssée spatiale.  » «Pour que la machine se forme à cette tâche, elle doit développer une certaine représentation des données. Il faut comprendre qu’il y a des objets qui sont animés et d’autres qui sont inanimés. Les objets inanimés ont des trajectoires prévisibles, les autres non. « 

Après qu’un système informatique auto-supervisé « regarde » des millions de vidéos YouTube, a-t-il dit, il en distillera une représentation du monde. Ensuite, lorsque le système est invité à effectuer une tâche particulière, il peut s’appuyer sur cette représentation – en d’autres termes, il peut s’enseigner lui-même.

Le Dr Cox du MIT-IBM Watson AI Lab fonctionne de la même manière, mais en combinant des formes plus traditionnelles d’intelligence artificielle avec des réseaux profonds dans ce que son laboratoire appelle l’IA neuro-symbolique. Le but, dit-il, est de construire A.I. des systèmes qui peuvent acquérir un niveau de base de connaissances de bon sens semblable à celui des humains.

«Une grande partie de ce que nous faisons dans nos tâches quotidiennes consiste à affiner constamment nos modèles mentaux du monde, puis à utiliser ces modèles mentaux pour résoudre des problèmes», a-t-il déclaré. « Cela résume énormément ce que nous aimerions A.I. faire. »

Beaucoup de gens espèrent que les robots incarneront éventuellement l’intelligence artificielle et agiront librement dans le monde. Mais il faudra plus qu’un apprentissage supervisé pour y arriver. Actuellement, les robots ne peuvent fonctionner que dans des environnements bien définis avec peu de variation.

« Notre hypothèse de travail est que si nous construisons des algorithmes suffisamment généraux, alors tout ce que nous avons vraiment à faire, une fois cela fait, est de les mettre dans des robots qui sont là-bas dans le monde réel et qui font de vraies choses », a déclaré Sergey Levine, professeur adjoint à Berkeley, qui dirige le Robotique A.I. & Learning Lab.

Il utilise une forme d’apprentissage auto-supervisé dans laquelle les robots explorent leur environnement et accumulent les connaissances de base dont parlent le Dr LeCun et le Dr Cox.

« Ils jouent simplement avec leur environnement et apprennent », a déclaré le Dr Levine à propos des robots du laboratoire. «Le robot imagine essentiellement quelque chose qui pourrait arriver et essaie ensuite de comprendre comment y arriver.»

Ce faisant, les robots accumulent un ensemble de connaissances qu’ils peuvent utiliser dans un nouvel environnement. À terme, les robots pourraient être mis en réseau afin de partager les connaissances acquises par chacun.

« Un robot passe quelques heures à jouer avec une porte, à la déplacer de cette façon et cela, et il peut ouvrir cette seule porte », a déclaré le Dr Levine. « Nous avons six robots différents, donc si nous les jouons tous avec différents types de portes, peut-être que lorsque nous en donnerons une nouvelle, il se généralisera en fait à cette nouvelle porte car il a vu assez de variété. »

Le Dr Abbeel, fondateur de Covariant, une entreprise qui construit A.I. robotique pour l’automatisation industrielle, a déclaré que finalement toutes ces méthodes étaient susceptibles d’être combinées.

Pourrions-nous construire à un moment donné des machines aussi intelligentes que les humains? « Bien sûr; cela ne fait aucun doute », a déclaré le Dr LeCun. « C’est une question de temps. »

Craig S. Smith est un ancien correspondant du Times et héberge le podcast Regard sur A.I.