Salut & Fraternité

Le trimestriel de la laïcité en Province de Liège

  • Albert Moukheiber
    Albert Moukheiber
    docteur en neurosciences cognitives et psychologue clinicien
Propos recueillis par Charlotte Collot

Intelligence artificielle et libre arbitre : qui décide ? Qui choisit ?

Albert Moukhei­ber est chargé de cours à l’Université de Paris 8 Saint-Denis. Il est l’un des fonda­teurs de Chiasma, un collec­tif neuros­cien­ti­fique qui s’intéresse à la pensée critique et à la manière dont se forment les opinions, notam­ment aux biais cogni­tifs et aux erreurs de logique. En 2019, il a publié son premier livre, Votre cerveau vous joue des tours.


Salut & Frater­nité : Comment défi­nis­sez-vous le libre arbitre ? Existe-t-il vrai­ment ?

Albert Moukhei­ber : D’un point de vue neuros­cien­ti­fique et biolo­gique, il est très diffi­cile de défi­nir le libre arbitre. Pour cela, il faudrait que l’on comprenne comment la conscience émerge d’un point de vue neuro­bio­lo­gique et pouvoir sépa­rer ce qui est conscient de ce qui ne l’est pas. La litté­ra­ture est encore contra­dic­toire sur le sujet. On n’a pas encore de réponse tran­chée.

Si le libre arbitre existe, il est partiel de toute façon. Par exemple, vous êtes en train de faire cette inter­view dans votre bureau. Dans ce même bureau, il y a 10 autres personnes qui, soudai­ne­ment, se lèvent et se mettent à courir. Instan­ta­né­ment, il y a de fortes chances pour que vous me disiez « je dois partir », voire que vous lâchiez votre télé­phone et que vous vous mettiez à courir aussi. Dans ce cas, le stress, l’urgence, le signal social de danger de vos collègues va vous faire perdre votre libre arbitre. D’autres facteurs modulent nos prises de déci­sions : le marke­ting, le matra­quage, l’éditorialisation, etc.

S&F : Comme les tech­niques utili­sées en marke­ting pour influen­cer les choix du consom­ma­teur par exemple ? Ce qu’on appelle le « nudge » ?

A.M. : Le « nudge » est une forme d’architecture du choix. C’est le fait de struc­tu­rer un espace pour impac­ter ou réduire la marge de manœuvre de l’agentivité du citoyen, c’est-à-dire le pouvoir d’être agent de ses déci­sions. Effec­ti­ve­ment, avec de l’IA, on peut prédire les manières de struc­tu­rer le choix, augmen­ter les chances que les personnes agissent comme on a envie qu’elles agissent. On peut parler de réduire le libre arbitre car c’est plus « sexy » mais ça reste de la mani­pu­la­tion. L’IA peut aider aussi les personnes néfastes à déve­lop­per des tech­niques de mani­pu­la­tion qui sont plus perfor­mantes.

© Unsplash – Icons 8 Team

S&F : On entend beau­coup de choses sur l’IA : elle va s’emparer de nos pensées et prendre le pouvoir, l’humain va deve­nir l’esclave des machines. Alors mythe ou réalité ?

A.M. : Il faut distin­guer deux types d’IA : l’IA molle et l’IA dure. L’IA molle, c’est ce qu’on connaît aujourd’hui : le machine lear­ning, la recon­nais­sance d’images, le big data, etc., et l’IA dure, c’est ce que l’on voit dans les films comme les robots et machines qui réflé­chissent seuls. Ces IA dures n’existent pas encore et on en est très loin ! Les seules IA qui existent sont molles. On apprend aux machines des choses et ensuite ces machines vont itérer, amélio­rer ce qu’on leur a appris. L’IA réalise des tâches qui requièrent une grande force compu­ta­tion­nelle mais elle ne décide pas toute seule de le faire. Ça ne veut pas dire que ce n’est pas dange­reux. Le danger n’est pas que l’humain soit asservi par les machines mais par les personnes qui détiennent le contrôle de ces machines. Ce qui est inquié­tant, ce n’est pas l’IA molle en elle-même car elle peut être très utile, mais qui contrôle l’accès aux données person­nelles, aux infor­ma­tions, aux outils et aux résul­tats de ces algo­rithmes. Si je peux captu­rer les données person­nelles des citoyens et trai­ter ces infor­ma­tions avec des algo­rithmes d’IA molle, je peux prédire comment les citoyens vont agir et cela peut mener à des mani­pu­la­tions ou même à des régimes plus tota­li­taires.

S&F : N’est-ce pas là, l’enjeu lié à nos liber­tés fonda­men­tales ?

A.M. : C’est le danger, en effet, que repré­sentent les inten­tions des personnes qui contrôlent ces données. C’est là que doit se placer notre vigi­lance. Qui va déte­nir ces algo­rithmes ? Ces algo­rithmes ont-ils le droit d’être proté­gés sous secret de propriété intel­lec­tuelle alors qu’ils sont en train d’être utili­sés de manière abusive ? Imagi­nons qu’un État déve­loppe un algo­rithme pour savoir telle ou telle chose sur ses citoyens et ensuite, que cet outil soit pris en main par un régime tota­li­taire. Qu’est-ce qu’on fait ? C’est un combat poli­tique et idéo­lo­gique. Des commis­sions euro­péennes travaillent déjà sur la neutra­lité du net et le contrôle des IA, mais il faut que les gouver­ne­ments prennent en charge cette ques­tion. Que des lois soient promul­guées pour proté­ger les citoyens des acteurs publics et privés qui manient ces outils.

< Retour au sommaire