• Ashwin Ittoo
    Ashwin Ittoo
    professeur titulaire en systèmes d’information de gestion à l’Université de Liège
Propos recueillis par Grégory Pogorzelski

L’intelligence artificielle : entre mythes et réalité

Ashwin Ittoo est professeur titulaire en systèmes d’information de gestion à l’Université de Liège et chercheur au Japan Advanced Institute of Science and Technology. Il nous expose le fonctionnement, les dangers et les possibilités de l’intelligence artificielle.


Salut & Fraternité : Pourriez-vous définir ce qu’est une intelligence artificielle ?

Ashwin Ittoo : L’expression « intelligence artificielle » (IA) désigne généralement des machines capables d’accomplir des tâches qui demandent de réfléchir de façon humaine. On distingue aujourd’hui deux types d’IA : les general Artificial Intelligence (AI) et les weak AI. Les general AI, c’est le but à long terme : des machines capables de réfléchir comme des humains, d’apprendre par elles-mêmes et d’exécuter n’importe quelle tâche humaine. Cette forme d’IA, nous en sommes très loin. Les weak AI sont quant à elles déjà utilisées sur le terrain quotidiennement. Ce sont des machines capables d’exécuter des tâches précises demandant une cognition humaine, auxquelles elles ont été formées. C’est sur elles que se concentre la recherche.

S&F : Vous parlez de former des IA. Qu’entendez-vous par là ?

A.I. : La plupart des weak AI ont appris leurs tâches par machine learning. Nous fournissons des données au programme qui sont liées à la tâche à accomplir, et le programme analyse ces données pour « apprendre » comment l’accomplir. Nous procédons surtout par apprentissage supervisé : les données que nous fournissons au programme sont annotées. Pour former une weak AI à la traduction, par exemple, l’équipe lui donne les mêmes textes en plusieurs langues, en précisant à chaque fois la langue utilisée. Ensuite, en comparant les textes, le programme comprend comment passer d’une langue à l’autre. Cela prend la forme d’un modèle statistique, qu’il va ensuite appliquer aux autres cas qui se présenteront à lui.

S&F : De quelles façons sont-elles utilisées quotidiennement ?

A.I. : Prenez les logiciels de traduction : Google translate est une weak AI qui traduit du texte automatiquement. On arrive aujourd’hui à des traductions de textes contenus dans des photos ou en direct, pendant une conversation vidéo sur Skype. Les systèmes de reconnaissance vocale Siri, Alexa ou Google Now sont également des weak AI, qui comprennent vos requêtes et y répondent. Les guides d’itinéraires comme Google Maps également. Ces weak AI opèrent également dans les domaines médicaux, juridiques ou financiers, pour le traitement de données à grande échelle.

© Hidesh Choudhary – Unsplash

S&F : Quel est votre avis sur les discours alarmistes ou grandiloquents à propos de l’IA ?

AI : Beaucoup prédisent la fin du monde, la prise de pouvoir des machines… La presse populaire est aussi pleine de choses impressionnantes, mais fort irréalistes. Dire que les IA vont remplacer les humains ou les asservir, c’est aller trop vite en besogne : nous en sommes techniquement loin. Elles ne vont pas non plus sauver le monde d’ici demain. Les dangers et possibilités qui existent sont plus subtils. Par exemple, lors du procès d’Eric Loomis contre l’État du Wisconsin, la Cour a utilisé COMPAS , une weak AI formée pour déterminer les chances de récidives d’un prévenu. COMPAS avait déterminé de grandes chances de récidives pour M. Loomis, ce qui l’a fait condamner. Mais une enquête du journal ­ProPublica a décrit comment les données utilisées pour former COMPAS étaient biaisées. Même si la machine est neutre, les gens qui l’avaient formée ne l’étaient pas, et cette dernière reproduisait leurs biais au lieu de rendre une analyse objective.

S&F : Avez-vous un message pour les lecteurs concernant l’IA ?

A.I. : Les IA sont des outils, le danger c’est ce que l’on en fait. Les développeurs doivent s’assurer que l’humain est toujours au centre des préoccupations et des décisions. Des IA peuvent reproduire ou empirer des inégalités, des discriminations présentes dans nos sociétés si on n’y prend pas garde. Il existe déjà des réflexions sur le sujet : la Commission européenne a établi un groupe d’étude de haut niveau d’expertise sur la question de l’IA et l’on trouve des chartes d’utilisation éthique des intelligences artificielles. Quant aux réfractaires, je veux leur dire que les possibilités sont immenses. Comme la presse ou l’industrie lourde, les intelligences artificielles sont une révolution. Il faut s’y intéresser, réfléchir aux changements à venir, former les générations futures. Surtout, il faut dialoguer avec ceux qui programment et qui forment ces IA, faire entendre ses inquiétudes et comprendre les enjeux. Il faut que les réfractaires et les développeurs trouvent une voie à emprunter ensemble.

< Retour au sommaire