-
Unia,
Centre interfédéral pour l’égalité des chances
Intelligence Artificielle : opportunités et dangers
L’utilisation de l’intelligence artificielle (IA) et de l’apprentissage automatique croît à grande vitesse. À la suite d’une étude menée auprès de 30 des plus grandes entreprises du monde, il est apparu que 30 % d’entre elles déployaient l’IA tandis que 17 % l’utilisaient à grande échelle. Chaque nouvelle utilisation augmente sans doute l’efficacité mais comporte un risque potentiel de renforcer l’inégalité et la discrimination.
Tout dépend de l’algorithme
Les algorithmes ne sont pas transcendants, ils sont le fruit de la main du programmeur et puisent leur connaissance dans des bases de données existantes. Par conséquent, il est primordial que les programmeurs soient sensibilisés aux questions liées à la discrimination ainsi qu’aux droits fondamentaux et que les données dans lesquelles ils puisent soient évaluées en détail avant de former la base aux prises de décisions assistées et automatisées. Nous savons que la société a tendance à reproduire les inégalités existantes. C’est ce qu’on appelle la « discrimination systémique ». Si un algorithme se base uniquement sur ce qui existe à l’heure actuelle, il répètera donc à son tour les inégalités existantes dans le futur. Les résultats d’une machine qui apprend sur elle-même dépendent des données auxquelles elle a accès. Si cette base est tronquée, tout le processus qui en suivra le sera également ou va même accroitre l’inégalité. Par contre, un algorithme bien programmé a le potentiel de n’avoir aucune partialité et donc une objectivité accrue, qui contourne les failles et la subjectivité de l’esprit humain.
Opportunités
L’IA peut traiter un volume de données quasi infini, qui dépasse de loin la capacité humaine et pourrait permettre de faire face à certains défis que d’autres développements technologiques posent. On pense notamment à la gestion des discours de haine sur les plateformes de réseaux sociaux. La détection des discours incitant à la haine, la discrimination et la violence se fait par l’automatisation, mais quelques « gardes-fou » humains sont nécessaires pour assurer le suivi et faire des vérifications. C’est un enjeu majeur pour les mastodontes comme Facebook, Twitter et Google de garder un environnement sain sans pour autant limiter la liberté d’expression.
Dangers
Certains spécialistes nous mettent en garde contre le danger potentiel de l’accès ou non à l’IA qui peut faire croître les inégalités et creuser encore les écarts entre les personnes pauvres et riches. C’est un signal qu’on ne peut pas ignorer en tant qu’organe de promotion de l’égalité. Un système de calcul de probabilité de survie, par exemple, va sûrement intéresser fortement les compagnies d’assurances, mais au prix d’exclure certaines personnes avec un mauvais score en raison de leur état de santé. En Chine, une surveillance à grande échelle passe en revue le comportement de sa population et un algorithme donne un « score » à chaque citoyen grâce à la reconnaissance faciale. Ce score définit alors l’accès et les conditions aux produits financiers, d’assurance ou même la libre circulation.
Peu de monde doute encore qu’il devrait y avoir une responsabilité dans le cadre de l’État de droit pour tout ce que fait une machine, ce qu’elle décide et sur quelle base elle fonctionne.
< Retour au sommaire