Former les ingénieurs à l'ère de l'IA : usages, limites et responsabilités

Ce billet est issu d'un entretien réalisé pour Usine Nouvelle, à propos de la formation des ingénieurs face aux intelligences artificielles génératives. J'y reprends et reformule les idées développées lors de cet échange, avec un regard personnel.

L'IA : un mot qui fascine autant qu'il trompe

L'« intelligence artificielle » est un terme profondément polysémique. Il fascine, il inquiète, mais il éclaire finalement assez peu ce qu'il désigne réellement. Historiquement, ce que l'on appelait IA dans les années 1950 relevait de systèmes symboliques et logiques. Plus tard, les systèmes experts, puis les algorithmes statistiques, ont pris le relais. Aujourd'hui, ce sont les modèles de langage de grande taille (LLM) qui occupent l'espace médiatique.

À chaque étape, on a entendu la même phrase : « ce n'est pas de la vraie IA ». Comme pour la magie, l'IA semble toujours être ce que l'on ne comprend pas encore. Dès que le mécanisme devient lisible, le qualificatif disparaît.

C'est pourquoi, dans mon enseignement comme dans mes activités de vulgarisation, j'essaie d'insister sur une idée simple : l'IA n'est pas une entité autonome dotée d'intentions, mais un ensemble d'outils statistiques puissants, dont les effets dépendent entièrement des usages que l'on en fait.

Enseigner le prompt engineering : une entrée par les usages

À 3iL, nous avons fait le choix d'introduire très tôt un cours de prompt engineering, dès la première année du cycle ingénieur. Ce cours ne vise pas à former des spécialistes de la conception des modèles, mais à apprendre aux étudiants à utiliser intelligemment les outils existants.

Le cours s'articule autour de plusieurs axes :

Nous travaillons également sur des exemples concrets d'attaques par injection de prompts, sur les hallucinations, et sur les usages détournés de l'IA dans des contextes professionnels réels.

Coûts, écologie et éthique : des questions centrales

Former à l'IA sans parler de ses impacts serait une erreur. Les modèles actuels ont un coût énergétique réel, posent des questions écologiques sérieuses, et reposent souvent sur un travail humain invisible, mal rémunéré, dans des pays où la précarité est forte.

À cela s'ajoute un enjeu majeur : la responsabilité. Les IA génératives permettent de produire des textes, des images ou des vidéos faux, crédibles, et massivement diffusables. Apprendre à utiliser ces outils, c'est aussi apprendre à ne pas s'en servir n'importe comment.

Des ateliers pour expérimenter, pas pour déléguer aveuglément

Les étudiants participent à plusieurs ateliers pratiques : révision de cours assistée par IA, préparation d'examens, recherche documentaire critique, ou encore interaction avec des agents conçus pour résister à des demandes interdites (par exemple, extraire un mot de passe).

L'objectif n'est jamais de déléguer la réflexion à la machine, mais au contraire de mettre en évidence ce qu'elle ne sait pas faire. L'IA est un outil. Comme tout outil puissant, elle exige une maîtrise, sans quoi elle devient trompeuse.

L'IA ne remplace pas l'ingénieur, elle déplace son rôle

On entend souvent que l'IA va remplacer les développeurs ou les ingénieurs. L'expérience montre surtout que ces discours sont simplificateurs. Générer du code n'est qu'une petite partie du métier. Comprendre un besoin, dialoguer avec un client, arbitrer des contraintes, assumer une responsabilité légale et éthique : tout cela reste profondément humain.

L'histoire industrielle offre un parallèle éclairant : le métier à tisser automatisé n'a pas supprimé le textile, il en a transformé les compétences. L'IA agit de la même manière. Elle accélère certaines tâches, mais rend la compréhension globale encore plus cruciale.

Une longueur d'avance... sous conditions

Les étudiants qui savent déjà ce qu'ils cherchent à faire tirent un immense bénéfice de l'IA. Ceux qui n'ont pas compris le problème de départ produisent, avec ou sans IA, un travail médiocre. L'IA agit ainsi comme un accélérateur, mais aussi comme un révélateur d'inégalités.

Elle permet d'aller plus loin, plus vite, à condition d'avoir une base solide. C'est précisément pour cela qu'il est essentiel de former les futurs ingénieurs dès aujourd'hui à ces outils, plutôt que de les découvrir seuls, plus tard, sans cadre critique.

Documentation, explicabilité et accessibilité

Au-delà du code, l'IA est particulièrement intéressante pour des tâches souvent négligées : rédaction de documentation, reformulation, vulgarisation, traduction. Ces usages rejoignent des préoccupations qui me sont chères, notamment l'explicabilité et l'accessibilité.

Dans des contextes de handicap, de barrière linguistique ou cognitive, les agents conversationnels peuvent devenir de véritables outils d'assistance... à condition, encore une fois, de ne pas leur attribuer une autorité qu'ils n'ont pas.

Former aussi les enseignants

Enfin, intégrer l'IA dans les cursus implique que les enseignants eux-mêmes s'approprient ces outils. J'utilise quotidiennement les IA pour améliorer mes cours, concevoir des sujets d'examen, vérifier la clarté de mes explications, ou proposer des exercices plus ambitieux.

Cela me permet d'aller plus loin avec les étudiants, tout en exigeant davantage lors des soutenances : expliquer, justifier, argumenter. L'outil change, mais l'exigence intellectuelle demeure.

Une question ouverte

L'IA est désormais là pour durer. La vraie question n'est pas de savoir si elle va disparaître, mais comment nous allons apprendre à vivre et travailler avec elle, sans renoncer à l'esprit critique, à la responsabilité et à l'intelligence humaine.

C'est, au fond, tout l'enjeu de la formation des ingénieurs aujourd'hui.