Ce que l'IA n'est pas
Les discussions autour de l'intelligence artificielle souffrent souvent d'une confusion tenace : celle entre le réel, le modèle, et le simulacre. Cette confusion conduit à des discours excessifs, parfois enthousiastes, parfois inquiets, qui disent surtout quelque chose de notre rapport aux modèles, bien plus que des systèmes eux-mêmes.
Une intelligence artificielle n'est pas une intelligence au sens humain.
Elle n'est ni un esprit, ni une conscience, ni un sujet, elle n'est pas non plus une entité qui comprend ce qu'elle manipule, elle est avant tout un modèle (Aristote aurait dit "un artefact" et non "une substance").
Un modèle formel, algorithmique, construit à partir d'observations du réel, et conçu pour produire certains comportements jugés pertinents dans un cadre donné. Ce que l'on observe ensuite, reconnaissance, classification, génération ou décision, relève du simulacre : une imitation fonctionnelle de comportements que nous qualifions, chez l'humain, d'intelligents.
Il faut être clair : je ne nie pas qu'un modèle puisse être qualifié d'« intelligent », mais encore faut-il préciser ce que l'on entend par là.
Si l'on entend par intelligence la capacité à produire des comportements adaptés à un environnement donné, à satisfaire des contraintes ou à généraliser à partir d'exemples, alors le terme peut avoir un sens opératoire. Dans ce cadre, parler d'intelligence est acceptable, à condition de ne pas lui donner plus de portée qu'il n'en a.
La difficulté apparaît lorsque l'on glisse de cette définition fonctionnelle vers une définition ontologique : lorsque l'on prête au modèle des intentions, une compréhension, une volonté ou une subjectivité. À ce moment-là, on quitte le terrain scientifique pour entrer dans une projection anthropique.
Un modèle n'est pas le réel qu'il décrit.
Un simulacre n'est pas l'entité qu'il imite.