Salut & Fraternité

Le trimestriel de la laïcité en Province de Liège

  • Unia
    Centre interfédéral pour l’égalité des chances

Intelligence Artificielle : opportunités et dangers

L’utilisation de l’intelligence arti­fi­cielle (IA) et de l’apprentissage auto­ma­tique croît à grande vitesse. À la suite d’une étude menée auprès de 30 des plus grandes entre­prises du monde, il est apparu que 30 % d’entre elles déployaient l’IA tandis que 17 % l’utilisaient à grande échelle. Chaque nouvelle utili­sa­tion augmente sans doute l’efficacité mais comporte un risque poten­tiel de renfor­cer l’inégalité et la discri­mi­na­tion.

Tout dépend de l’algorithme

Les algo­rithmes ne sont pas trans­cen­dants, ils sont le fruit de la main du program­meur et puisent leur connais­sance dans des bases de données exis­tantes. Par consé­quent, il est primor­dial que les program­meurs soient sensi­bi­li­sés aux ques­tions liées à la discri­mi­na­tion ainsi qu’aux droits fonda­men­taux et que les données dans lesquelles ils puisent soient évaluées en détail avant de former la base aux prises de déci­sions assis­tées et auto­ma­ti­sées. Nous savons que la société a tendance à repro­duire les inéga­li­tés exis­tantes. C’est ce qu’on appelle la « discri­mi­na­tion systé­mique ». Si un algo­rithme se base unique­ment sur ce qui existe à l’heure actuelle, il répè­tera donc à son tour les inéga­li­tés exis­tantes dans le futur. Les résul­tats d’une machine qui apprend sur elle-même dépendent des données auxquelles elle a accès. Si cette base est tron­quée, tout le proces­sus qui en suivra le sera égale­ment ou va même accroitre l’inégalité. Par contre, un algo­rithme bien programmé a le poten­tiel de n’avoir aucune partia­lité et donc une objec­ti­vité accrue, qui contourne les failles et la subjec­ti­vité de l’esprit humain.

Oppor­tu­ni­tés

L’IA peut trai­ter un volume de données quasi infini, qui dépasse de loin la capa­cité humaine et pour­rait permettre de faire face à certains défis que d’autres déve­lop­pe­ments tech­no­lo­giques posent. On pense notam­ment à la gestion des discours de haine sur les plate­formes de réseaux sociaux. La détec­tion des discours inci­tant à la haine, la discri­mi­na­tion et la violence se fait par l’automatisation, mais quelques « gardes-fou » humains sont néces­saires pour assu­rer le suivi et faire des véri­fi­ca­tions. C’est un enjeu majeur pour les masto­dontes comme Face­book, Twit­ter et Google de garder un envi­ron­ne­ment sain sans pour autant limi­ter la liberté d’expression.

Dangers

Certains spécia­listes nous mettent en garde contre le danger poten­tiel de l’accès ou non à l’IA qui peut faire croître les inéga­li­tés et creu­ser encore les écarts entre les personnes pauvres et riches. C’est un signal qu’on ne peut pas igno­rer en tant qu’organe de promo­tion de l’égalité. Un système de calcul de proba­bi­lité de survie, par exemple, va sûre­ment inté­res­ser forte­ment les compa­gnies d’assurances, mais au prix d’exclure certaines personnes avec un mauvais score en raison de leur état de santé. En Chine, une surveillance à grande échelle passe en revue le compor­te­ment de sa popu­la­tion et un algo­rithme donne un « score » à chaque citoyen grâce à la recon­nais­sance faciale. Ce score défi­nit alors l’accès et les condi­tions aux produits finan­ciers, d’assurance ou même la libre circu­la­tion.

Peu de monde doute encore qu’il devrait y avoir une respon­sa­bi­lité dans le cadre de l’État de droit pour tout ce que fait une machine, ce qu’elle décide et sur quelle base elle fonc­tionne.

< Retour au sommaire