
Un texte de Nesrine Zemirli
Directrice principale Intelligence artificielle, GRICS
À la GRICS, nous cultivons une conviction simple : l’intelligence artificielle ne devrait jamais être un mystère.
Et pourtant, lorsqu’on se demande comment une IA apprend, la réponse surprend souvent. Loin des imaginaires futuristes, l’apprentissage d’une machine n’a rien d’une illumination soudaine. Il ressemble davantage à une progression patiente au milieu de données qui se laissent apprivoiser lentement.
Pendant longtemps, on expliquait tout à la machine : des règles, des exceptions, des consignes, une logique parfaitement délimitée. Aujourd’hui, le mouvement s’est inversé. Avec l’apprentissage machine, nous ne lui disons plus quoi faire: nous lui montrons à partir de quoi apprendre.
Et c’est à travers cette métamorphose que l’IA moderne a émergé.
Dans l’apprentissage supervisé, la machine avance comme un apprenant à qui l’on montre des milliers d’exemples corrigés. Elle ajuste chaque paramètre, ligne après ligne, jusqu’à saisir les régularités.
Dans l’apprentissage non supervisé, rien n’est expliqué : la machine doit repérer seule les motifs, les ressemblances, les regroupements. Elle cartographie un territoire où aucune légende n’a été fournie.
Finalement, dans l’apprentissage par renforcement, le modèle devient un agent qui teste des stratégies, échoue, s’adapte, réussit, avance, à une vitesse qui dépasse largement nos cycles d’essais-erreurs humains.
L’apprentissage profond a amplifié cette dynamique. Avec des réseaux neuronaux constitués de couches successives, l’IA apprend à reconnaître, puis à générer, des structures d’une complexité impressionnante. C’est cette architecture qui permet aujourd’hui aux modèles génératifs d’analyser des textes, de proposer des réponses, de reformuler, de synthétiser, toujours à partir de modèles appris. Il ne s’agit pas d’imagination, mais d’une capacité sophistiquée à anticiper ce qui, statistiquement, a du sens.
Face à cette puissance, un paradoxe s’impose : plus l’IA devient performante, plus elle peut devenir difficile à expliquer. Certains modèles agissent comme des systèmes profonds aux mécanismes internes complexes, dont on observe les sorties sans toujours comprendre le chemin exact.
Cette opacité n’est pas un défaut intentionnel, mais un défi technique qui rend indispensable une gouvernance robuste. Dans un réseau éducatif, où chaque outil doit rester lisible et responsable, cette transparence devient essentielle.
Les limites de l’IA se situent aussi dans les données qu’elle absorbe. Une machine ne corrige pas les biais historiques : elle les reproduit. Si les données sont incomplètes, déséquilibrées ou trop restreintes, le modèle hérite de ces angles morts. L’enjeu n’est donc pas seulement d’entraîner des modèles performants, mais de s’assurer qu’ils apprennent à partir de données justes, représentatives et contextualisées.
C’est ici que l’éthique et l’explicabilité prennent toute leur importance. Une IA utilisée dans un réseau éducatif ne peut être une simple boîte noire ni un outil auquel on délègue aveuglément la décision.
L’IA doit rester un agent parmi d’autres, encadré, surveillé, interprété, compris. Son rôle n’est pas de remplacer l’expertise humaine, mais d’offrir un appui, une perspective, un renfort analytique capable d’éclairer et d’augmenter la prise de décision.
Dre Nesrine Zemirli, Directrice principale Intelligence artificielle, GRICS
En fin de compte, pour une IA, apprendre n’est pas un acte autonome. C’est un processus façonné par les humains : par les données qu’ils sélectionnent, les limites qu’ils imposent, les valeurs qu’ils défendent.
Cette alliance entre rigueur technologique et responsabilité institutionnelle est ce qui permet à l’intelligence artificielle de devenir un outil utile, sûr et au service de celles et ceux qu’elle accompagne.
Et c’est précisément cette promesse que nous poursuivons à la GRICS : faire de l’IA un levier de connaissances, jamais une énigme.