De la preuve de concept au système d’IA: ce que construire vraiment veut dire
02 avril 2026
L’IA, ce n’est pas un bouton «activer».
Depuis quelques années, l’intelligence artificielle (IA) est passée du statut de curiosité technologique à celui de priorité stratégique. Partout, on parle de projets pilotes, de prototypes prometteurs, de démonstrations convaincantes. Et puis… souvent, ça s’arrête là.
Pourquoi? Parce qu’il y a un gouffre entre un modèle qui fonctionne en laboratoire et un système d’IA qui opère en production, jour après jour, au service de milliers d’utilisateurs.
À la GRICS, nous l’avons vécu de l’intérieur. Voici ce que cette traversée implique vraiment.
Avant le modèle: comprendre le vrai problème
Un besoin exprimé n’est pas encore un problème scientifique. Lorsqu’un partenaire formule une intention – comprendre pourquoi certains élèves s’éloignent progressivement du parcours scolaire, par exemple – il pose une question humaine, légitime, urgente. Mais entre cette intention et un système capable d’y répondre de manière fiable, il y a un travail de traduction rigoureux qui conditionne tout ce qui suit.
Il faut identifier les données disponibles, évaluer leur qualité réelle, déterminer lesquelles sont éthiquement mobilisables, et formuler des hypothèses testables. Cette phase de cadrage est souvent invisible dans les projets d’IA. C’est pourtant là que se joue l’essentiel.
Le développement: expérimenter, valider, itérer
Un modèle n’est pas trouvé, il est construit, par itérations successives. On formule des hypothèses, on les confronte aux données, on mesure les biais, on ajuste les paramètres, on revalide. Chaque cycle affine autant la compréhension du problème que la performance du modèle.
Dans un réseau de 72 centres de services scolaires et commissions scolaires, chacun avec ses propres systèmes, ses propres pratiques de saisie, ses propres contextes organisationnels, garantir la qualité et la cohérence des données à travers tout ce processus est un travail continu. Pas une case à cocher. Une discipline permanente.
L’industrialisation: là où la vraie complexité commence
Passer du modèle validé au système en production, c’est franchir un second seuil, souvent le plus sous-estimé.
Il faut déployer une infrastructure infonuagique dimensionnée et sécurisée, avec des environnements d’entraînement et de déploiement séparés, conformes aux exigences du secteur public québécois. Il faut orchestrer les pipelines de données de bout en bout: ingestion, nettoyage, enrichissement, versionnement, des chaînes automatisées qui doivent tenir sous charge, résister aux pannes et rester traçables dans le temps.
Il faut ensuite monitorer en continu. Un modèle dérive. Les comportements changent, les données évoluent, les contextes se transforment. Détecter une dégradation silencieuse avant qu’elle affecte les décisions, déclencher le réentraînement au bon moment, documenter chaque intervention, c’est du travail d’ingénierie autant que de science.
Et tout au long de ce cycle, l’humain reste dans la boucle. L’IA éclaire, elle ne décide pas à la place des professionnels. Définir précisément où l’humain intervient, comment il valide, comment il peut contester une prédiction, ce n’est pas un ajout éthique optionnel. C’est une composante fonctionnelle du système.
Avec l’IA générative, la complexité change de nature
Un agent conversationnel ou un système d’automatisation basé sur un grand modèle de langage, ce n’est pas un modèle prédictif augmenté. C’est une architecture multicomposante, et les défis ne sont pas les mêmes.
La récupération d’information doit être précisément calibrée: comment les documents sont découpés, indexés, retrouvés et reclassés avant d’alimenter une réponse, chaque choix technique a un impact direct sur la qualité de ce que l’utilisateur reçoit. L’orchestration entre le modèle de langage, la base de connaissances, les garde-fous de contenu et l’interface utilisateur demande une rigueur d’ingénierie logicielle que les approches MLOps classiques ne couvrent pas entièrement.
Évaluer la qualité d’une réponse générée est fondamentalement différent d’évaluer la précision d’une prédiction. Il n’existe pas encore de standard universel. Les équipes doivent construire leurs propres cadres d’évaluation tout en surveillant une technologie qui évolue à un rythme que peu d’organisations ont eu le temps d’absorber.
Les pipelines ne sont pas les mêmes. L’infrastructure n’est pas la même. Les compétences requises ne sont pas les mêmes.
«Naviguer avec l’IA, ce n’est pas appuyer sur un bouton. C’est apprendre à lire les courants, à corriger le cap, et à tenir la barre quand les conditions changent. Et s’assurer que l’humain reste le capitaine.»
– Dre Nesrine Zemirli, Directrice principale, Intelligence artificielle, GRICS
La GRICS: une expertise construite sur le terrain
Tout ça prend du temps. Pas parce que les équipes manquent de talent ou d’ambition, mais parce que la rigueur n’est pas négociable quand on travaille avec les données d’un million d’élèves.
Depuis plus de trois ans, notre équipe construit cette expertise au quotidien. Nos modèles de prédiction du décrochage scolaire et de réussite aux examens ministériels sont en production – surveillés, maintenus, améliorés en continu. C’est le chemin qu’on a choisi. Et c’est précisément ce chemin qui fait que nos systèmes tiennent la route.
Vous souhaitez en savoir plus sur l’approche IA de la GRICS?