-
Albert Moukheiber,
docteur en neurosciences cognitives et psychologue clinicien
Intelligence artificielle et libre arbitre : qui décide ? Qui choisit ?
Albert Moukheiber est chargé de cours à l’Université de Paris 8 Saint-Denis. Il est l’un des fondateurs de Chiasma, un collectif neuroscientifique qui s’intéresse à la pensée critique et à la manière dont se forment les opinions, notamment aux biais cognitifs et aux erreurs de logique. En 2019, il a publié son premier livre, Votre cerveau vous joue des tours.
Salut & Fraternité : Comment définissez-vous le libre arbitre ? Existe-t-il vraiment ?
Albert Moukheiber : D’un point de vue neuroscientifique et biologique, il est très difficile de définir le libre arbitre. Pour cela, il faudrait que l’on comprenne comment la conscience émerge d’un point de vue neurobiologique et pouvoir séparer ce qui est conscient de ce qui ne l’est pas. La littérature est encore contradictoire sur le sujet. On n’a pas encore de réponse tranchée.
Si le libre arbitre existe, il est partiel de toute façon. Par exemple, vous êtes en train de faire cette interview dans votre bureau. Dans ce même bureau, il y a 10 autres personnes qui, soudainement, se lèvent et se mettent à courir. Instantanément, il y a de fortes chances pour que vous me disiez « je dois partir », voire que vous lâchiez votre téléphone et que vous vous mettiez à courir aussi. Dans ce cas, le stress, l’urgence, le signal social de danger de vos collègues va vous faire perdre votre libre arbitre. D’autres facteurs modulent nos prises de décisions : le marketing, le matraquage, l’éditorialisation, etc.
S&F : Comme les techniques utilisées en marketing pour influencer les choix du consommateur par exemple ? Ce qu’on appelle le « nudge » ?
A.M. : Le « nudge » est une forme d’architecture du choix. C’est le fait de structurer un espace pour impacter ou réduire la marge de manœuvre de l’agentivité du citoyen, c’est-à-dire le pouvoir d’être agent de ses décisions. Effectivement, avec de l’IA, on peut prédire les manières de structurer le choix, augmenter les chances que les personnes agissent comme on a envie qu’elles agissent. On peut parler de réduire le libre arbitre car c’est plus « sexy » mais ça reste de la manipulation. L’IA peut aider aussi les personnes néfastes à développer des techniques de manipulation qui sont plus performantes.

S&F : On entend beaucoup de choses sur l’IA : elle va s’emparer de nos pensées et prendre le pouvoir, l’humain va devenir l’esclave des machines. Alors mythe ou réalité ?
A.M. : Il faut distinguer deux types d’IA : l’IA molle et l’IA dure. L’IA molle, c’est ce qu’on connaît aujourd’hui : le machine learning, la reconnaissance d’images, le big data, etc., et l’IA dure, c’est ce que l’on voit dans les films comme les robots et machines qui réfléchissent seuls. Ces IA dures n’existent pas encore et on en est très loin ! Les seules IA qui existent sont molles. On apprend aux machines des choses et ensuite ces machines vont itérer, améliorer ce qu’on leur a appris. L’IA réalise des tâches qui requièrent une grande force computationnelle mais elle ne décide pas toute seule de le faire. Ça ne veut pas dire que ce n’est pas dangereux. Le danger n’est pas que l’humain soit asservi par les machines mais par les personnes qui détiennent le contrôle de ces machines. Ce qui est inquiétant, ce n’est pas l’IA molle en elle-même car elle peut être très utile, mais qui contrôle l’accès aux données personnelles, aux informations, aux outils et aux résultats de ces algorithmes. Si je peux capturer les données personnelles des citoyens et traiter ces informations avec des algorithmes d’IA molle, je peux prédire comment les citoyens vont agir et cela peut mener à des manipulations ou même à des régimes plus totalitaires.
S&F : N’est-ce pas là, l’enjeu lié à nos libertés fondamentales ?
A.M. : C’est le danger, en effet, que représentent les intentions des personnes qui contrôlent ces données. C’est là que doit se placer notre vigilance. Qui va détenir ces algorithmes ? Ces algorithmes ont-ils le droit d’être protégés sous secret de propriété intellectuelle alors qu’ils sont en train d’être utilisés de manière abusive ? Imaginons qu’un État développe un algorithme pour savoir telle ou telle chose sur ses citoyens et ensuite, que cet outil soit pris en main par un régime totalitaire. Qu’est-ce qu’on fait ? C’est un combat politique et idéologique. Des commissions européennes travaillent déjà sur la neutralité du net et le contrôle des IA, mais il faut que les gouvernements prennent en charge cette question. Que des lois soient promulguées pour protéger les citoyens des acteurs publics et privés qui manient ces outils.
< Retour au sommaire