• Bernard Rey
    Bernard Rey
    philosophe, docteur en sciences de l’éducation, professeur honoraire à Université libre de Bruxelles

L’intelligence artificielle, un modèle pour les élèves à l’école ?

Ce qu’on appelle intel­li­gence arti­fi­cielle (IA), c’est la capa­cité qu’ont certaines machines (géné­ra­le­ment des ordi­na­teurs) d’effectuer des opéra­tions équi­va­lentes à des opéra­tions mentales humaines. Il existe aujourd’hui une multi­tude de machines de ce type depuis les calcu­la­trices élec­tro­niques jusqu’aux machines capables de recon­naître des visages ou des voix, de déchif­frer des messages manus­crits, de traduire d’une langue dans une autre, de jouer (et de gagner) à des jeux complexes (échecs, Go) contre des cham­pions, de gérer la conduite d’un véhi­cule en milieu urbain, etc. 


De telles réus­sites tech­no­lo­giques suscitent une fasci­na­tion collec­tive. D’où l’idée que les modes de fonc­tion­ne­ment de tels systèmes tech­niques pour­raient nous four­nir, en retour, des modèles de fonc­tion­ne­ment possible de l’esprit humain lorsqu’il accom­plit des tâches intel­lec­tuelles. Mieux encore, ces machines exécutent ces tâches de manière si perfor­mante que l’on pour­rait s’en inspi­rer pour faire acqué­rir par les élèves à l’école de telles compétences.

Cepen­dant, il y a lieu de s’interroger sur le sens du mot « équi­valent », lorsqu’on dit que l’IA effec­tue des opéra­tions « équi­va­lentes » à celles que peut réali­ser l’esprit humain. Que se passe-t-il au sein d’un ordi­na­teur ? Pour s’en faire une repré­sen­ta­tion, on peut reprendre l’allégorie présen­tée par le philo­sophe améri­cain Searle 1. Imagi­nons que ne parlant pas le chinois, je doive répondre en chinois à des ques­tions posées en chinois selon le dispo­si­tif suivant : enfermé dans une chambre, je reçois par une fente du mur des morceaux de papier sur lesquels se trouvent des carac­tères chinois. Je dispose de réponses toutes prêtes égale­ment rédi­gées en chinois et d’une liste de règles qui m’indiquent quel carac­tère de réponse je dois asso­cier à tel carac­tère de ques­tion. Cela me permet de sélec­tion­ner les réponses que je trans­mets par une autre fente du mur. Si j’exécute parfai­te­ment les règles et si celles-ci ont été bien construites, alors mes réponses sont indis­cer­nables de celles que donne­raient des Chinois. Et Searle conclut : « J’ai des entrées et des sorties iden­tiques à celles d’une personne de langue mater­nelle chinoise, […] mais je ne comprends rien.2 »

Ce que fait ce person­nage, c’est exac­te­ment ce que fait un ordi­na­teur : ce dernier reçoit des infor­ma­tions et, en leur appli­quant un algo­rithme qui peut être très complexe, il produit des infor­ma­tions de sortie. Mais pas plus que le person­nage de la chambre chinoise, l’ordinateur ne comprend ce qu’il fait. Ainsi l’intelligence arti­fi­cielle n’est peut-être pas si « intel­li­gente » que le suggère sa dénomination.

Mais son mode de fonc­tion­ne­ment nous alerte sur une dérive possible des pratiques d’enseignement. C’est celle qu’on rencontre chaque fois qu’à l’école on exerce les élèves à répondre à un certain type de consigne par l’application d’une règle prééta­blie (une formule, une tech­nique opéra­toire, une opéra­tion auto­ma­ti­sable). Car alors on arrive à la longue à ce que l’élève soit perfor­mant mais, tout comme le person­nage de la chambre chinoise ou comme l’ordinateur, il ne comprend pas ce qu’il fait. Il n’est pas en situa­tion de saisir pour­quoi c’est cette règle qui conduit au résul­tat recher­ché, ni de saisir en quoi ce résul­tat est digne d’être recher­ché. Autre­ment dit, il ne pense pas, car on ne peut réduire la pensée à la seule compu­ta­tion. Penser implique une inten­tion, une mise en rapport de ce qu’on fait avec un but auquel on attri­bue de la valeur. Ainsi, lorsqu’on enseigne à des élèves à établir la réponse à une ques­tion au moyen de règles prééta­blies, ce qui importe ce n’est pas qu’ils donnent la réponse exacte (ce qu’une machine fera toujours mieux qu’eux), mais qu’ils comprennent pour­quoi ces règles sont valides, comment et en réponse à quels problèmes elles ont été construites.

Si l’on veut éviter que les élèves n’acquièrent une posture d’exécutants dociles, mais qu’ils apprennent à penser par eux-mêmes, ce n’est pas à l’acquisition d’automatismes qu’il convient de les convo­quer, mais à l’interrogation critique et à la mise en problème de la réalité. La présence insis­tante de l’intelligence arti­fi­cielle autour de nous est juste­ment l’occasion de voir que c’est vers autre chose que nous devons conduire nos élèves.


  1. Searle, J., « Esprits, cerveaux et programmes », in Hofstad­ter, D. et Dennett, D. (dirs), Vues de l’esprit, 1987, Paris : Inter­Edi­tions, p.p. 354–376.
  2. p. 357.
< Retour au sommaire