Aperçu

Publications

Nos laboratoires s'appuient sur les forces individuelles de nos chercheurs et encouragent une approche multidisciplinaire de la résolution de problèmes.

Publications

Apprentissage Machine Antagoniste

L’apprentissage machine antagoniste désigne un type d’apprentissage où les modèles sont manipulés par des entrées soigneusement conçues. Ce phénomène crée des risques de sécurité potentiels en raison des attaques d’exemples antagonistes. Cependant, s’il est utilisé correctement, il constitue également un puissant outil d’entraînement pour les modèles d’apprentissage machine. D’une certaine façon, les attaques antagonistes et l’entraînement antagoniste sont les deux faces d’une même pièce.

Lorsqu’un système d’apprentissage machine utilise des entrées provenant des utilisateurs ou du monde physique (apprentissage machine-service, vision artificielle des véhicules autonomes), un antagoniste peut alimenter le modèle avec des données soigneusement perturbées qui apparaissent comme légitimes, mais déclenchent un comportement inattendu du système. C’est là que réside le risque.

Toutefois, si l’erreur induite est convenablement utilisée, l’apprentissage antagoniste, et en particulier les réseaux antagonistes génératifs (GAN), permet une nouvelle approche de l’apprentissage. Généralement, nous entraînons les modèles d’apprentissage machine en réduisant au minimum un objectif en rapport avec ses paramètres modèles. Cette fonction objectif est habituellement conçue manuellement pour représenter la façon dont les résultats du modèle diffèrent des résultats voulus. Or, trouver une bonne fonction objectif est un défi en soi, qui demande normalement une connaissance tant des données que du problème à résoudre. Avec les GAN, il n’est plus nécessaire pour l’humain de concevoir cette fonction objectif, ou de la concevoir entièrement. C’est plutôt le système qui apprend la fonction objectif à partir des données. Ce mécanisme pourrait avoir un impact énorme dans ce domaine de recherche, car il automatise une autre partie du processus de traitement des données.

Chez Borealis AI, nous contribuons activement à ces deux sous-domaines de l’apprentissage machine antagoniste. Nous croyons que les perturbations antagonistes sont un levier unique pour une meilleure compréhension fondamentale des modèles d’apprentissage machine. Par exemple, nous ne comprenons pas encore ce qui cause ces exemples antagonistes et pourquoi ceux-ci peuvent souvent être transposés efficacement d’un modèle à l’autre. En ce qui concerne l’entraînement antagoniste, nos intérêts se divisent en deux volets : (i) approfondir notre compréhension des GAN dans l’espoir d’améliorer leur stabilité et leurs solutions; (ii) appliquer les GAN à de nouveaux domaines de données et exploiter l’entraînement antagoniste pour améliorer les capacités d’apprentissage et d’inférence d’autres modèles d’apprentissage machine.

Optimisation combinatoire

Le domaine de l’optimisation combinatoire englobe des applications allant du problème du voyageur de commerce à la segmentation et l’ordonnancement des données, et implique des problèmes à variable discrète présentant une complexité exponentielle (NP-difficile) qui sont omniprésents dans notre vie quotidienne. Chez Borealis AI, nous nous intéressons à l’élaboration d’approches plus efficientes menant à de meilleures solutions en temps polynomial approximatif à ces problèmes.

Nous tentons plus précisément de mettre au point des méthodes liées à deux volets particuliers de l’apprentissage machine, soit les modèles graphiques et l’apprentissage par renforcement.

Dans le premier cas, en projetant un problème combinatoire sous forme d’inférence sur un modèle graphique, nous sommes en mesure de le fractionner en petits problèmes locaux qui se chevauchent partiellement, ce qui nous permet d’accélérer la vitesse de calcul. Nous alternons ensuite entre la résolution de ces sous-ensembles locaux et l’échange de solutions là où ils se chevauchent pour obtenir plus rapidement une réponse approximative au problème original.

Pour ce qui est de l’apprentissage par renforcement, les fonctions de récompense liées aux problèmes combinatoires poursuivent deux objectifs : (i) éviter la création manuelle d’heuristiques, souvent propres à une seule instance et difficiles à transposer d’un problème combinatoire à un autre, et (ii) trouver des solutions à des instances particulièrement difficiles de ces problèmes, où l’espace de solution est réduit et incohérent.

Apprentissage par renforcement

L’apprentissage par renforcement est un cadre performant pour la résolution de tâches décisionnelles séquentielles, comme les jeux Atari, la commande de robot et l’optimisation des centres de données. Chez Borealis AI, nous cherchons à apporter des améliorations fondamentales à ce cadre en y intégrant des connaissances humaines. Quoique notre objectif soit d’atteindre un niveau d’efficacité surhumain, l’utilisation des capacités de l’utilisateur peut nous aider à apprendre à réaliser un vaste éventail de tâches plus vite et mieux.

De plus, nous cherchons à apprendre directement des rétroactions humaines. Dans un jeu vidéo, il faut sans cesse améliorer son score. Mais comment votre application bancaire devrait-elle travailler pour vous ? Que devrait chercher à optimiser le programme ? Notre objectif est d’apprendre des réactions – tant explicites qu’implicites – des utilisateurs à nos décisions. Une fois cet apprentissage intégré, les programmes seront mieux à même de comprendre ce qu’un utilisateur donné trouve utile et de maximiser la satisfaction de cet utilisateur de façon autonome.

Traitement du langage naturel

Le traitement du langage naturel – un terme générique désignant le point de rencontre entre les systèmes informatiques et le langage naturel – existe sous différentes formes depuis plusieurs décennies. Toutefois, ce n’est que récemment que les progrès en matière d’apprentissage profond ont redonné un élan à ce domaine, permettant aux chercheurs de s’attaquer à des problèmes précédemment considérés comme insolubles. Grâce à des outils à code source ouvert, comme SLING et spaCy de TensorFlow, il est désormais possible de créer rapidement des modèles de bout en bout extrêmement efficaces capables de comprendre le langage naturel et d’appliquer ces modèles à des données provenant de situations réelles.

Notre équipe responsable du traitement du langage naturel s’appuie sur ces avancées récentes pour tenter de structurer un texte ou en extraire la logique. Ces outils permettent à notre équipe d’élaborer des graphes de connaissance composés d’un vaste ensemble de données basées sur des nouvelles, des publications dans les médias sociaux et des rapports financiers. Nos modèles nous permettent de découvrir des entités d’information latente sous-jacentes et leurs relations et de faire remonter à la surface les bonnes informations au bon moment.

Apprentissage non supervisé

L’apprentissage non supervisé est l’un des piliers de l’apprentissage machine, mais également l’un de ses domaines les plus complexes. Le principal défi de ce domaine tient à la difficulté de tirer des connaissances de données non catégorisées et possiblement non structurées pour prendre des décisions. Les entreprises utilisent quotidiennement l’apprentissage non supervisé, par exemple sous forme de segmentation des données. Toutefois, la qualité de cette segmentation dépend directement de celle de l’espace dans lequel les données sont représentées. L’équipe responsable de l’apprentissage non supervisé chez Borealis AI explore différents moyens de tirer parti des vastes quantités de données détaillées, mais non catégorisées, présentes dans le monde. Nous cherchons principalement des méthodes créatives pour connaître et comprendre les véritables caractéristiques latentes et les distributions naturelles des données. Tout en nous appuyant sur ces méthodes pour identifier des entités similaires, nous tentons aussi de comprendre l’évolution des entités dans le temps et d’identifier de nouveaux phénomènes importants pour le commerce et la société.