Can everyday AI be ethical. Fairness of Machine Learning Algorithms

Reading time: 5 minute
...

📝 Original Info

  • Title: Can everyday AI be ethical. Fairness of Machine Learning Algorithms
  • ArXiv ID: 1810.01729
  • Date: 2023-05-18
  • Authors: :

📝 Abstract

Combining big data and machine learning algorithms, the power of automatic decision tools induces as much hope as fear. Many recently enacted European legislation (GDPR) and French laws attempt to regulate the use of these tools. Leaving aside the well-identified problems of data confidentiality and impediments to competition, we focus on the risks of discrimination, the problems of transparency and the quality of algorithmic decisions. The detailed perspective of the legal texts, faced with the complexity and opacity of the learning algorithms, reveals the need for important technological disruptions for the detection or reduction of the discrimination risk, and for addressing the right to obtain an explanation of the auto- matic decision. Since trust of the developers and above all of the users (citizens, litigants, customers) is essential, algorithms exploiting personal data must be deployed in a strict ethical framework. In conclusion, to answer this need, we list some ways of controls to be developed: institutional control, ethical charter, external audit attached to the issue of a label.

💡 Deep Analysis

Figure 1

📄 Full Content

En 2017 la CNIL a initié un débat national sur le thème : « Ethique numérique : les algorithmes en débats » qui a donné lieu à la publication d'un rapport. Besse et al. (2017) y avait apporté leur contribution dont cet article reprend et développe la section 4 pour continuer à faire avancer la réflexion sur le thème de la loyauté des décisions algorithmiques.

Mandatée par le gouvernement, une commission présidée par Cédric Villani a elle aussi publié un rapport dans l’objectif est de « donner du sens à l’Intelligence artificielle » (IA). Comme le rapport de la CNIL, le rapport de la commission Villani consacre une large place aux questions éthiques soulevées par la généralisation de l’usage, au quotidien, d’algorithmes d’Intelligence Artificielle. La France n’est évidemment pas seule à se mobiliser sur cette question et les initiatives sont nombreuses dont celle du gouvernement britannique qui a publié un cadre éthique des données.

Il n’est pas question d’aborder l’ensemble des algorithmes du vaste champ disciplinaire de l’IA mais de se focaliser sur ceux conduisant à des décisions impactant les personnes au quotidien : accès à la banque, l’assurance, la santé, l’emploi, les applications en matière judiciaire ou de police… Plus précisément cela concerne les algorithmes dits d’apprentissage automatique (machine learning) entraînés sur de vastes ensembles de données à minimiser certains critères mathématiques ou plus précisément statistique comme un taux d’erreur moyen afin d’automatiser la production de décisions.

Schématiquement les questions éthiques concernent principalement les problèmes de confidentialité des données à la base de l’apprentissage, d’entrave à la concurrence, de transparence ou explicabilité des décisions, de leurs risques de biais discriminatoires envers des individus ou groupes sensibles.

Avec le déploiement du RGPD (Règlement Général européen sur la Protection des Données n°2016/679/UE), la CNIL focalise son action sur son coeur de métier, c’est-à-dire plus précisément sur la protection des données personnelles en proposant aux entreprises concernées des outils de mesure à même d’évaluer les risques encourus en matière de confidentialité : le DPIA ou data protection impact assessment. Il appartient en effet aux entreprises d’être proactives sur ce sujet pour être en mesure de montrer, en cas de contrôle, qu’elles maîtrisent la sécurité des données personnelles dans toute la chaîne de traitement, de l’acquisition à la décision. La constatation de défaillances sera l’occasion de très lourdes sanctions financières : jusqu’à 20M€ et majorée pour une entreprise à 4 % du chiffre d’affaire annuel mondial (le plus élevé des deux chiffres devant être retenu).

De son côté, suite à l’adoption de la loi n° 1321-2016 pour une République numérique, qui tient notamment compte de quelques dispositions du RGPD, l’INRIA a proposé un projet de plateforme collaborative (TransAlgo) qui permettrait d’archiver des outils automatiques produits par cinq groupes de travail :

  1. Moteurs de classement de l’information et systèmes de recommandation ; 2. Apprentissage : robustesse aux biais des données et des algorithmes, reproductibilité, explication et intelligibilité ; 3. Protection des données et contrôle d’usage des données ; 4. Métrologie des réseaux de communication ; 5. Influence, désinformation, impersonification (photos, voix, agent conversationnel), nudging, fact-checking.

Nous proposons dans cet article des éléments de réflexion et outils pour faire avancer le point 2 sur les risques de discrimination, ainsi que l’explicabilité, la répétabilité ou la qualité des décisions algorithmiques ou automatiques.

-Discrimination : La loi protège les individus contre des pratiques discriminatoires, mais comment peut-elle être opposée à des algorithmes ? Elle n’évoque pas la discrimination de groupe mais le rapport Villani appelle de ses voeux, dans la section 5, la création d’un DIA (discrimination impact assessment) sans pour autant faire référence à une littérature américaine déjà abondante sur le sujet. Quels sont les outils disponibles à ce propos ? -Explicabilité : L’analyse fine des textes juridiques montre que les obligations légales sont relativement peu contraignantes en matière de transparence des algorithmes. Néanmoins, l’acceptation de l’IA et de décisions automatiques impactant des personnes, requiert impérativement des éléments de transparence ; c’est dans ce cas le droit à l’explication d’une décision algorithmique. Quels peuvent en être les termes ? -Qualité: la loi française, comme le RGPD, n’évoquent à aucun moment des notions de qualité ou risque d’erreur d’une décision automatique. Comme pour les sondages, il serait pertinent que la loi oblige à informer l’usager des risques associés à l’exécution d’un algorithme d’apprentissage automatique. Quel en est le contexte ?

Comme le rappelle le rapport Villani, les thèmes de l’éthique ont investi l’espace entre ce que permettent les nouvell

📸 Image Gallery

cover.png

Reference

This content is AI-processed based on open access ArXiv data.

Start searching

Enter keywords to search articles

↑↓
ESC
⌘K Shortcut