Lo que la IA no es

Los debates en torno a la inteligencia artificial suelen verse afectados por una confusión persistente: la confusión entre la realidad, el modelo y el simulacro.
Esta confusión conduce a discursos excesivos, a veces entusiastas y a veces inquietantes, que dicen más sobre nuestra relación con los modelos que sobre los propios sistemas.

Una inteligencia artificial no es una inteligencia en el sentido humano.
No es una mente, ni una conciencia, ni un sujeto; tampoco es una entidad que comprenda aquello que manipula. Es, ante todo, un modelo (Aristóteles habría dicho un artefacto y no una sustancia).

Un modelo formal y algorítmico, construido a partir de observaciones de la realidad y diseñado para producir ciertos comportamientos considerados pertinentes dentro de un marco dado. Lo que observamos a continuación (reconocimiento, clasificación, generación o decisión) pertenece al ámbito del simulacro: una imitación funcional de comportamientos que, en los seres humanos, calificamos como inteligentes.

Seamos claros: no niego que un modelo pueda calificarse de “inteligente”, siempre que se precise qué se entiende por ello.

Si por inteligencia entendemos la capacidad de producir comportamientos adaptados a un entorno dado, de satisfacer restricciones o de generalizar a partir de ejemplos, entonces el término puede tener un sentido operativo. En ese marco, hablar de inteligencia es aceptable, siempre que no se le otorgue más alcance del que realmente tiene.

La dificultad aparece cuando se pasa de esta definición funcional a una definición ontológica: cuando se atribuyen al modelo intenciones, comprensión, voluntad o subjetividad. En ese momento, se abandona el terreno científico para entrar en una proyección antropocéntrica.

Un modelo no es la realidad que describe.
Un simulacro no es la entidad que imita.