Portrait de chercheur
Le créateur d'intelligence
Yoshua Bengio
Professeur au Département d’informatique et de recherche opérationnelle, chef de l’Institut des algorithmes d’apprentissage de Montréal, directeur scientifique de l’Institut de valorisation des données et titulaire de la Chaire de recherche du Canada en algorithmes d’apprentissage statistique
Comment fonctionne l’intelligence et comment peut-on la construire? Dès l’adolescence, Yoshua Bengio s’est passionné pour cette épineuse question. « J’apprenais à programmer, je lisais de la science-fiction et je rêvais d’intelligence artificielle. »
On lui attribue aujourd’hui la copaternité de systèmes informatiques qui s’inspirent du fonctionnement de nos neurones. Cette technique, appelée « apprentissage profond », a fait sortir l’intelligence artificielle des récits d’anticipation, permettant des avancées spectaculaires en matière de reconnaissance de la voix et de l’image et rendant envisageables des technologies comme la voiture autonome.
Ces résultats doivent beaucoup à la patience et à la ténacité du chercheur. Les réseaux de neurones artificiels, son sujet de recherche depuis son mémoire de maîtrise, étaient loin d’être à la mode avant qu’il démontre leur efficacité dans un article publié en 2006. « J’avais beaucoup de mal à convaincre mes étudiants de travailler là-dessus. Ils craignaient de ne pas trouver d’emploi en sortant de l’université », raconte-t-il.
Ce n’est plus le cas. En 2013, Google a acheté à fort prix DeepMind, une jeune pousse londonienne spécialisée en intelligence artificielle, où travaillaient plusieurs anciens étudiants du professeur Bengio. La course était lancée, et le laboratoire de Yoshua Bengio s’est imposé comme la principale pépinière de talents dans le monde pour les programmeurs d’intelligence artificielle. À tel point que Google et Microsoft ont ouvert des centres de recherche à Montréal et que les communautés scientifique et d’affaires locales se sont alliées pour faire de leur ville une plaque tournante de cette nouvelle industrie.
Quelles ont été les étapes marquantes de votre carrière de chercheur?
En 2006, nous avons découvert une technique grâce à laquelle nous pouvions, pour la première fois, entraîner des réseaux profonds de neurones artificiels qui fonctionnaient beaucoup mieux que les réseaux classiques. Nous avons ensuite travaillé avec des collègues des neurosciences pour élaborer des variations de calculs de neurones artificiels inspirés par la biologie – ce qui nous a permis d’améliorer considérablement nos systèmes. Puis, nous avons vu les premières applications concrètes de nos recherches : dans le domaine de la reconnaissance de la parole en 2010 et celui de la reconnaissance des objets en 2012. Enfin, en 2014, nous avons fait une découverte qui est en train d’opérer une révolution semblable en traduction automatique.
Comment envisagez-vous l’avenir de la recherche en intelligence artificielle?
Nous avons encore beaucoup de choses à découvrir avant d’atteindre une intelligence de niveau humain. En ce moment, il y a une poussée vers ce qu’on appelle « l’apprentissage par renforcement » : combiné avec l’apprentissage profond, il permet des applications comme le système AlphaGo, qui en 2016 est devenu le premier logiciel à battre un champion de go, un jeu posant à l’ordinateur un défi beaucoup plus grand que les échecs, car il nécessite une forme d’intuition. Nous devons aussi progresser du côté de l’apprentissage non supervisé. L’ordinateur n’apprend pas encore par lui-même comme le ferait un enfant qui observe le monde autour de lui. C’est une étape importante qu’il nous reste à franchir.