Le développement de l’intelligence artificielle dans les différents secteurs d’activité fait de plus en plus l'objet d'une surveillance accrue en raison de l’aptitude des algorithmes à amplifier les bonnes et les mauvaises décisions.
En parallèle, les discussions sur l'éthique (règles de conduite reflétant nos croyances sur ce qui est juste ou injuste) et sur la confiance (état reflétant notre conviction qu'une autre personne ou entreprise est fiable et intègre) occupent une place centrale à mesure que l'adoption de l'IA augmente.
Introduisons maintenant la notion de biais en relation avec l’utilisation d’algorithmes d’Intelligence artificielle.
Les applications utilisant de l’IA prennent des décisions en apprenant des données. Si les données en entrée sont biaisées, les décisions prises le seront également. L’IA doit donc être nourrie de données correctes pour faire fonctionner des algorithmes et prendre des décisions justes, précises et fiables.
L’IA a besoin également d’algorithmes les plus éthiques possibles afin d'éliminer les préjugés humains. Par exemple dans le domaine du recrutement, un algorithme qui prend en compte divers facteurs sociodémographiques (le genre, l’origine géographique, l’école ou l’université fréquentée) aura tendance à favoriser le recrutement de personnes similaires à celles qui ont déjà été embauchées. Cela n’aide pas à diversifier le recrutement. Ce type de biais peut être corrigé par une décision humaine et une manipulation des données introduites dans l’algorithme. L’algorithme peut devenir un outil de lutte contre les discriminations une fois que les notions d’éthique et de justice sont définies de façon suffisamment précise pour être traduites dans le code informatique afin d'éliminer les préjugés humains et de pallier le déficit de données historiques (les données d’historiques sont d’un autre coté très souvent injustes et biaisées), pour parvenir à un équilibre optimal. Cependant il faut une définition claire avant de pouvoir introduire cette éthique dans les algorithmes et cela n’est pas facile.
L’IA a besoin également d’algorithmes les plus éthiques possibles afin d'éliminer les préjugés humains. Click To TweetConcernant les algorithmes de machine learning ou de deep learning, dont le comportement dépend des données sur lesquelles leur apprentissage a été réalisé, il s’agit alors d’assurer par la collecte et la simulation massive de données, que l’algorithme a été confronté à un grand nombre de situations lors de la phase d’apprentissage, mais il est impossible de garantir qu’elles couvrent toutes celles qu’il rencontrera en phase de fonctionnement. L'introduction de biais en amont des algorithmes, dès le stade des jeux de données, nécessite, d’être vigilant car le fonctionnement de ce type d’algorithmes donne d’excellents résultats, sans qu’il soit possible d’avancer une explication théorique. Ce traitement non supervisé de l’information peut poser des problèmes éthiques (quelle autonomie de l’homme par rapport à un fonctionnement qu’il ne comprend pas ?) et juridiques (qui est responsable ?).
Les biais dans l'analyse des données peuvent provenir de sources humaines car ils utilisent des ensembles de données non représentatifs. Souvent, les préjugés passent inaperçus jusqu'à ce que vous ayez pris une décision basée sur vos données, comme la création d'un modèle prédictif qui s'avère être faux.
Quelques exemples de ces types de biais :
- Une grande source de biais dans l'analyse des données peut survenir lorsque certaines populations sont sous-représentées dans les données. Ce type de biais a eu un impact tragique en médecine en ne mettant pas en évidence les différences importantes dans les symptômes des maladies cardiaques entre les hommes et les femmes.
- Les Biais dits « cognitif ». L'analyse est souvent menée sur les données disponibles ou trouvées dans des données qui sont assemblées, au lieu d'ensembles de données soigneusement construits. La collecte originale des données et le choix par un analyste à inclure ou à exclure créent un biais d'échantillon. Ce biais de sélection se produit lorsque les données d'échantillon collectées ne sont pas représentatives de la population réelle future de cas que le modèle verra.
- Le biais d'analyse est souvent causé par des ensembles de données incomplets et un manque de contexte autour de ces ensembles de données. Comprendre les données qui ne font pas partie de l'ensemble de données peut raconter une histoire aussi importante que les données qui alimentent l'analyse.
- Un biais de confirmation se produit lorsque les chercheurs choisissent uniquement les données qui soutiennent leur propre hypothèse. Le plus souvent, nous effectuons une analyse avec une idée préconçue à l'esprit, donc lorsque nous partons à la recherche de preuves statistiques, nous avons tendance à ne voir que ce qui soutient notre idée initiale.
- Une autre biais fréquent est causé par les valeurs aberrantes des données qui diffèrent considérablement des autres échantillons et faussent les résultats des études.
Les biais peuvent volontairement ou non influencer la décision d'un algorithme. Ces biais peuvent provenir de stéréotypes véhiculés inconsciemment par le programmeur qui l’a écrit, du choix des variables d’entrée ou dans le cas d’un algorithme d’apprentissage automatique, de biais ou d’erreurs dans les données d’apprentissage que cet algorithme ne fait que reproduire. La modification d’un algorithme d’IA afin de le rendre équitable est aujourd’hui un problème ouvert, pour lequel il n’existe pas de solution automatique.
Le point crucial c’est le rôle de l’IA, la technologie doit augmenter et assister les humains, et non les remplacer. Le pouvoir de la décision reste profondément ancré dans la gouvernance humaine, dans un monde ou l’IA fournit les meilleures informations possibles. C’est pourquoi les usages de l’IA doivent reposer avant tout sur un cadre légal et moral qui détermine les responsabilités de chacun.
En France afin de répondre à ces questions d’éthiques et de biais avec l’IA, la Commission nationale de l’informatique et des libertés (CNIL) formule quelques recommandations opérationnelles à destination des pouvoirs publics et de la société civile tel que constituer une plateforme nationale d’audit des algorithmes.
A l'échelle internationale, aucune réglementation n'existe pour le moment. Toutefois, les membres du Partenariat mondial pour l'intelligence artificielle se sont engagés cette année en faveur du développement responsable de l'IA .