IA et cancer : développer des algorithmes qui prédiront l’efficacité des médicaments

Par Chloé-Anne Touma, rédactrice en chef de LES CONNECTEURS | Publié le 8 mai 2025
Et si l’intelligence artificielle ouvrait une nouvelle voie, plus rapide et plus éthique, vers la découverte de traitements contre le cancer? À l’intersection de la biologie moléculaire, de la pharmacologie et de la science des données, des chercheurs québécois s’emploient à transformer la manière dont on identifie les molécules thérapeutiques les plus prometteuses. Porté par le concours « Données omiques contre le cancer (DOCC) », le projet de Sébastien Lemieux, chercheur principal à l’Institut de recherche en immunologie et en cancérologie de l’Université de Montréal, illustre parfaitement cette approche révolutionnaire. Grâce aux outils de l’IA, son équipe tente de réduire le recours aux essais massifs, coûteux et souvent inaccessibles, en misant sur la puissance de la modélisation et de la prédiction.
« Pour maintenir un lab, on applique à plein de projets. On en lance plein, car les taux de succès et de subventions sont incroyablement bas. »
Le concours « Données omiques contre le cancer (DOCC) », lancé en 2020 par Génome Québec, l’Oncopole (pôle cancer du Fonds de recherche du Québec) et IVADO, vise à promouvoir la recherche multidisciplinaire en intelligence artificielle, en sciences omiques et en cancérologie, dans le but de soutenir le développement d’applications et d’outils d’IA qui pourront exploiter les données au profit des traitements contre le cancer. C’est grâce à cette initiative que des projets de recherche comme celui de Sébastien Lemieux, chercheur principal de l’Institut de recherche en immunologie et en cancérologie de l’Université de Montréal, financé à hauteur de 300 000 $, ont vu le jour. « Pour maintenir un lab, on applique à plein de projets. On en lance plein, car les taux de succès et de subventions sont incroyablement bas », explique d’emblée le chercheur, en entrevue avec notre rédaction.
Une approche ingénieuse pour automatiser l’analyse

« L’objectif ultime, actuellement, consiste à prendre une molécule présentant un potentiel thérapeutique (qui pourrait être un médicament), et à prédire, à l’aide de modèles, si elle pourrait effectivement guérir une maladie donnée. Dans les grandes compagnies pharmaceutiques, le processus repose sur des banques colossales de composés — parfois jusqu’à deux millions de molécules. On y recrée alors un modèle de la maladie, par exemple dans les puits d’une plaque de culture, afin de mesurer certains effets biologiques, comme la dégradation d’une protéine associée à la pathologie. Si l’on sait que la dégradation de cette protéine peut entraîner une guérison, on effectue alors un essai — un test systématique de chaque molécule sur ce modèle. » Les molécules qui montrent un effet positif sont ainsi sélectionnées pour une phase d’optimisation, où le chimiste cherche à affiner leur structure pour en améliorer l’efficacité. Le projet sur lequel l’équipe du professeur Lemieux travaille propose une approche différente : « Plutôt que de tester l’ensemble des molécules, on se demande si l’on ne pourrait pas en évaluer qu’un petit sous-ensemble, et utiliser ces données pour prédire l’activité de toutes les autres molécules à partir de cet échantillon. On parle d’algorithmes qui seraient entraînés à partir de cet échantillon, en vue d’automatiser certaines analyses en fonction du schéma de réponse qui aura été obtenu de l’analyse de 2 000 molécules plutôt que 2 millions, par exemple », décrit passionnément le chercheur.
« Plutôt que de tester l’ensemble des molécules, on se demande si l’on ne pourrait pas en évaluer qu’un petit sous-ensemble, et utiliser ces données pour prédire l’activité de toutes les autres molécules à partir de cet échantillon. »
Un prototypage solide, fondé sur un ensemble crucial de données
« À ce stade du processus de découverte de médicaments, nous sommes complètement détachés du patient. Il est évidemment impensable — et éthiquement inacceptable — de tester deux millions de composés directement sur autant de personnes. D’abord parce que cela exigerait un nombre de patients malades bien supérieur à ce qui existe, mais surtout parce qu’une telle approche serait contraire à toute rigueur scientifique et morale. On travaille donc à partir de la maladie elle-même, en s’interrogeant sur les mécanismes en jeu : quelles cellules sont impliquées? Peut-on les cultiver en laboratoire? Une fois que l’on parvient à reproduire ces cellules, l’objectif est de comprendre comment les modifier pour éviter qu’elles ne déclenchent les processus pathologiques. C’est ainsi qu’on parvient à miniaturiser l’expérience, à la rendre automatisable, reproductible — et donc compatible avec des tests à grande échelle. »
À ce moment-là, les composés identifiés sont encore à l’état brut. Ce sont des pistes prometteuses, mais imparfaites. Les chimistes prennent alors le relais pour optimiser la structure de ces molécules, les améliorer, et ainsi espérer obtenir un candidat médicament plus abouti, prêt à être testé dans des modèles biologiques plus complexes, comme sur des souris, suggère Sébastien Lemieux. « Et une fois qu’il aura été démontré que le traitement n’engendre pas de catastrophe sur les modèles animaux, des essais cliniques pourront être menés pour tester l’efficacité du traitement sur des malades humains. »
Au moment de l’entrevue, le travail du professeur et de son équipe de recherche s’est principalement appuyé sur des ensembles de données déjà existants. « L’objectif était de mettre en place un système à la fois robuste et bien compris — un système dont on connaît les limites et la sensibilité. Nous avons maintenant un prototype fonctionnel et solide. Et en ce moment, nous franchissons une nouvelle étape : nous soumettons des demandes de subvention afin de générer nos propres données, conçues spécifiquement pour répondre aux besoins d’un projet bien défini. Pour moi, c’est une avancée majeure — une véritable réussite. »