• Albert Moukheiber
    Albert Moukheiber
    docteur en neurosciences cognitives et psychologue clinicien
Propos recueillis par Charlotte Collot

Intelligence artificielle et libre arbitre : qui décide ? Qui choisit ?

Albert Moukhei­ber est chargé de cours à l’Université de Paris 8 Saint-Denis. Il est l’un des fonda­teurs de Chiasma, un collec­tif neuros­cien­ti­fique qui s’intéresse à la pensée critique et à la manière dont se forment les opinions, notam­ment aux biais cogni­tifs et aux erreurs de logique. En 2019, il a publié son premier livre, Votre cerveau vous joue des tours.


Salut & Frater­nité : Comment défi­nis­sez-vous le libre arbitre ? Existe-t-il vraiment ?

Albert Moukhei­ber : D’un point de vue neuros­cien­ti­fique et biolo­gique, il est très diffi­cile de défi­nir le libre arbitre. Pour cela, il faudrait que l’on comprenne comment la conscience émerge d’un point de vue neuro­bio­lo­gique et pouvoir sépa­rer ce qui est conscient de ce qui ne l’est pas. La litté­ra­ture est encore contra­dic­toire sur le sujet. On n’a pas encore de réponse tranchée.

Si le libre arbitre existe, il est partiel de toute façon. Par exemple, vous êtes en train de faire cette inter­view dans votre bureau. Dans ce même bureau, il y a 10 autres personnes qui, soudai­ne­ment, se lèvent et se mettent à courir. Instan­ta­né­ment, il y a de fortes chances pour que vous me disiez « je dois partir », voire que vous lâchiez votre télé­phone et que vous vous mettiez à courir aussi. Dans ce cas, le stress, l’urgence, le signal social de danger de vos collègues va vous faire perdre votre libre arbitre. D’autres facteurs modulent nos prises de déci­sions : le marke­ting, le matra­quage, l’éditorialisation, etc.

S&F : Comme les tech­niques utili­sées en marke­ting pour influen­cer les choix du consom­ma­teur par exemple ? Ce qu’on appelle le « nudge » ?

A.M. : Le « nudge » est une forme d’architecture du choix. C’est le fait de struc­tu­rer un espace pour impac­ter ou réduire la marge de manœuvre de l’agentivité du citoyen, c’est-à-dire le pouvoir d’être agent de ses déci­sions. Effec­ti­ve­ment, avec de l’IA, on peut prédire les manières de struc­tu­rer le choix, augmen­ter les chances que les personnes agissent comme on a envie qu’elles agissent. On peut parler de réduire le libre arbitre car c’est plus « sexy » mais ça reste de la mani­pu­la­tion. L’IA peut aider aussi les personnes néfastes à déve­lop­per des tech­niques de mani­pu­la­tion qui sont plus performantes.

© Unsplash – Icons 8 Team

S&F : On entend beau­coup de choses sur l’IA : elle va s’emparer de nos pensées et prendre le pouvoir, l’humain va deve­nir l’esclave des machines. Alors mythe ou réalité ?

A.M. : Il faut distin­guer deux types d’IA : l’IA molle et l’IA dure. L’IA molle, c’est ce qu’on connaît aujourd’hui : le machine lear­ning, la recon­nais­sance d’images, le big data, etc., et l’IA dure, c’est ce que l’on voit dans les films comme les robots et machines qui réflé­chissent seuls. Ces IA dures n’existent pas encore et on en est très loin ! Les seules IA qui existent sont molles. On apprend aux machines des choses et ensuite ces machines vont itérer, amélio­rer ce qu’on leur a appris. L’IA réalise des tâches qui requièrent une grande force compu­ta­tion­nelle mais elle ne décide pas toute seule de le faire. Ça ne veut pas dire que ce n’est pas dange­reux. Le danger n’est pas que l’humain soit asservi par les machines mais par les personnes qui détiennent le contrôle de ces machines. Ce qui est inquié­tant, ce n’est pas l’IA molle en elle-même car elle peut être très utile, mais qui contrôle l’accès aux données person­nelles, aux infor­ma­tions, aux outils et aux résul­tats de ces algo­rithmes. Si je peux captu­rer les données person­nelles des citoyens et trai­ter ces infor­ma­tions avec des algo­rithmes d’IA molle, je peux prédire comment les citoyens vont agir et cela peut mener à des mani­pu­la­tions ou même à des régimes plus totalitaires.

S&F : N’est-ce pas là, l’enjeu lié à nos liber­tés fondamentales ?

A.M. : C’est le danger, en effet, que repré­sentent les inten­tions des personnes qui contrôlent ces données. C’est là que doit se placer notre vigi­lance. Qui va déte­nir ces algo­rithmes ? Ces algo­rithmes ont-ils le droit d’être proté­gés sous secret de propriété intel­lec­tuelle alors qu’ils sont en train d’être utili­sés de manière abusive ? Imagi­nons qu’un État déve­loppe un algo­rithme pour savoir telle ou telle chose sur ses citoyens et ensuite, que cet outil soit pris en main par un régime tota­li­taire. Qu’est-ce qu’on fait ? C’est un combat poli­tique et idéo­lo­gique. Des commis­sions euro­péennes travaillent déjà sur la neutra­lité du net et le contrôle des IA, mais il faut que les gouver­ne­ments prennent en charge cette ques­tion. Que des lois soient promul­guées pour proté­ger les citoyens des acteurs publics et privés qui manient ces outils.

< Retour au sommaire