Salut & Fraternité

Le trimestriel de la laïcité en Province de Liège

  • Ashwin Ittoo
    Ashwin Ittoo
    professeur titulaire en systèmes d’information de gestion à l’Université de Liège
Propos recueillis par Grégory Pogorzelski

L’intelligence artificielle : entre mythes et réalité

Ashwin Ittoo est profes­seur titu­laire en systèmes d’information de gestion à l’Université de Liège et cher­cheur au Japan Advan­ced Insti­tute of Science and Tech­no­logy. Il nous expose le fonc­tion­ne­ment, les dangers et les possi­bi­li­tés de l’intelligence arti­fi­cielle.


Salut & Frater­nité : Pour­riez-vous défi­nir ce qu’est une intel­li­gence arti­fi­cielle ?

Ashwin Ittoo : L’expression « intel­li­gence arti­fi­cielle » (IA) désigne géné­ra­le­ment des machines capables d’accomplir des tâches qui demandent de réflé­chir de façon humaine. On distingue aujourd’hui deux types d’IA : les gene­ral Arti­fi­cial Intel­li­gence (AI) et les weak AI. Les gene­ral AI, c’est le but à long terme : des machines capables de réflé­chir comme des humains, d’apprendre par elles-mêmes et d’exécuter n’importe quelle tâche humaine. Cette forme d’IA, nous en sommes très loin. Les weak AI sont quant à elles déjà utili­sées sur le terrain quoti­dien­ne­ment. Ce sont des machines capables d’exécuter des tâches précises deman­dant une cogni­tion humaine, auxquelles elles ont été formées. C’est sur elles que se concentre la recherche.

S&F : Vous parlez de former des IA. Qu’entendez-vous par là ?

A.I. : La plupart des weak AI ont appris leurs tâches par machine lear­ning. Nous four­nis­sons des données au programme qui sont liées à la tâche à accom­plir, et le programme analyse ces données pour « apprendre » comment l’accomplir. Nous procé­dons surtout par appren­tis­sage super­visé : les données que nous four­nis­sons au programme sont anno­tées. Pour former une weak AI à la traduc­tion, par exemple, l’équipe lui donne les mêmes textes en plusieurs langues, en préci­sant à chaque fois la langue utili­sée. Ensuite, en compa­rant les textes, le programme comprend comment passer d’une langue à l’autre. Cela prend la forme d’un modèle statis­tique, qu’il va ensuite appli­quer aux autres cas qui se présen­te­ront à lui.

S&F : De quelles façons sont-elles utili­sées quoti­dien­ne­ment ?

A.I. : Prenez les logi­ciels de traduc­tion : Google trans­late est une weak AI qui traduit du texte auto­ma­ti­que­ment. On arrive aujourd’hui à des traduc­tions de textes conte­nus dans des photos ou en direct, pendant une conver­sa­tion vidéo sur Skype. Les systèmes de recon­nais­sance vocale Siri, Alexa ou Google Now sont égale­ment des weak AI, qui comprennent vos requêtes et y répondent. Les guides d’itinéraires comme Google Maps égale­ment. Ces weak AI opèrent égale­ment dans les domaines médi­caux, juri­diques ou finan­ciers, pour le trai­te­ment de données à grande échelle.

© Hidesh Choud­hary – Unsplash

S&F : Quel est votre avis sur les discours alar­mistes ou gran­di­lo­quents à propos de l’IA ?

AI : Beau­coup prédisent la fin du monde, la prise de pouvoir des machines… La presse popu­laire est aussi pleine de choses impres­sion­nantes, mais fort irréa­listes. Dire que les IA vont rempla­cer les humains ou les asser­vir, c’est aller trop vite en besogne : nous en sommes tech­ni­que­ment loin. Elles ne vont pas non plus sauver le monde d’ici demain. Les dangers et possi­bi­li­tés qui existent sont plus subtils. Par exemple, lors du procès d’Eric Loomis contre l’État du Wiscon­sin, la Cour a utilisé COMPAS , une weak AI formée pour déter­mi­ner les chances de réci­dives d’un prévenu. COMPAS avait déter­miné de grandes chances de réci­dives pour M. Loomis, ce qui l’a fait condam­ner. Mais une enquête du jour­nal ­ProPu­blica a décrit comment les données utili­sées pour former COMPAS étaient biai­sées. Même si la machine est neutre, les gens qui l’avaient formée ne l’étaient pas, et cette dernière repro­dui­sait leurs biais au lieu de rendre une analyse objec­tive.

S&F : Avez-vous un message pour les lecteurs concer­nant l’IA ?

A.I. : Les IA sont des outils, le danger c’est ce que l’on en fait. Les déve­lop­peurs doivent s’assurer que l’humain est toujours au centre des préoc­cu­pa­tions et des déci­sions. Des IA peuvent repro­duire ou empi­rer des inéga­li­tés, des discri­mi­na­tions présentes dans nos socié­tés si on n’y prend pas garde. Il existe déjà des réflexions sur le sujet : la Commis­sion euro­péenne a établi un groupe d’étude de haut niveau d’expertise sur la ques­tion de l’IA et l’on trouve des chartes d’utilisation éthique des intel­li­gences arti­fi­cielles. Quant aux réfrac­taires, je veux leur dire que les possi­bi­li­tés sont immenses. Comme la presse ou l’industrie lourde, les intel­li­gences arti­fi­cielles sont une révo­lu­tion. Il faut s’y inté­res­ser, réflé­chir aux chan­ge­ments à venir, former les géné­ra­tions futures. Surtout, il faut dialo­guer avec ceux qui programment et qui forment ces IA, faire entendre ses inquié­tudes et comprendre les enjeux. Il faut que les réfrac­taires et les déve­lop­peurs trouvent une voie à emprun­ter ensemble.

< Retour au sommaire