“Responsible AI”, “Explainable AI”, “AI Fairness”, “Ethical AI”, etc. Tous ces termes prennent de plus en plus d’ampleur dans les discussions mais aussi dans les investissements des entreprises qui créent des produits incorporant de l’Intelligence Artificielle.
Que ce soit d’un point de vue business pour mieux comprendre le raisonnement derrière certains modèles “Black Box” et prendre de meilleures décisions, ou d’un point de vue sociétal ou environnemental, une réelle prise de conscience est en train de se dessiner autour de ce sujet. Si le potentiel incroyable de l’Intelligence Artificielle est maintenant compris et exploité depuis plusieurs années, son impact - voire sa dangerosité - sur nos vies, nos sociétés et notre environnement est de plus en plus scruté et débattu.
L’IA Responsable n’est aujourd’hui plus seulement un sujet de débat, c’est devenu une réalité qu’il est nécessaire de prendre en compte dès les premières phases des projets à base de Machine Learning (ML). Mais qu’y a-t-il vraiment derrière ?
Cet article a pour objectif de démystifier ce qu’il se cache derrière ce sujet pour pouvoir en mesurer toute son étendue et sa complexité. Nous y aborderons des thématiques comme l’interprétabilité des modèles de Machine Learning, la place de l’humain dans les prises de décision à base d’IA, la gouvernance autour du ML, l’éthique, les biais présents à chaque étape du workflow du ML, la privacité et la sécurité.
Nous commencerons par un tour d’horizon des principaux piliers de l’IA Responsable mis en avant par quelques-uns de ses principaux acteurs, pour ensuite proposer une catégorisation de ce domaine en 8 principaux enjeux. Nous terminerons par une ouverture sur le sujet qui se veut optimiste, afin de montrer que le fait d’appliquer les principes de l’IA Responsable n’est pas qu’une question de restrictions à se donner, mais bien une opportunité pour créer des produits responsables à haute valeur ajoutée.
Différents piliers de l’IA Responsable mis en avant
Pour définir l’IA Responsable, nous pouvons partir de la définition donnée dans le livre “Responsible Artificial Intelligence” (Springer) : “Responsible Artificial Intelligence is about human responsibility for the development of intelligent systems along fundamental human principles and values, to ensure human-flourishing and well-being in a sustainable world.”.
L’IA Responsable est devenu un enjeu stratégique pour beaucoup d’entreprises. Pour s’en convaincre, il suffit de faire un tour du côté de quelques géants du web qui ont publié des pages dédiées au sujet.
Google structure ses efforts sur le sujet autour de 4 concepts fondamentaux : Fairness (que l’on pourrait traduire par “équité” ou “justice”), Interpretability, Privacy et Security. Ces 4 piliers spécifiques sont accompagnés de propositions de bonnes pratiques, qui viennent s’ajouter à l’ensemble de celles autour du développement logiciel et du Machine Learning que Google publie régulièrement.
De son côté, Facebook s’organise autour de 5 concepts clés pour concentrer et organiser ses travaux sur le sujet : Privacy & Security, Fairness & Inclusion, Robustness & Safety, Transparency & Control et Accountability & Governance. L’entreprise met notamment en avant, en plus des concepts techniques, des notions de rôles, d’organisation et de gouvernance qui sont clés dans le développement d’une réelle stratégie autour de l’IA Responsable.
Quant aux équipes de Microsoft, elles parlent de 6 axes essentiels pour une IA Responsable : Fairness, Inclusiveness, Reliability & Safety, Transparency, Privacy & Security et Accountability.
D’une manière similaire, d’autres organisations apparaissent et se structurent autour de ces principes fondamentaux. C’est le cas de l’Institute for Ethical AI & Machine Learning, un centre de recherche anglais engagé dans la structuration du sujet de l’IA Responsable, et proposant des principes et des méthodologies pour aller dans cette voie. Ils ont publié à cet égard 8 “Responsible Machine Learning Principles” : Human Augmentation, Bias Evaluation, Explainability by justification, Reproducible Operations, Displacement Strategy, Practical Accuracy, Trust by Privacy et Data Risk Awareness. Comme on peut le voir, si certains piliers sont similaires, un focus fort est aussi largement présent sur les impacts de l’IA par et sur les humains.
Dans un effort de structuration et de synthèse, nous allons revenir sur les principaux critères qui ressortent régulièrement pour bien représenter l’IA Responsable, et parler de leurs enjeux respectifs. Cette structuration se veut la plus représentative possible du sujet, mais ne se vante pas d’être exhaustive dans un domaine aussi mouvant que celui-ci.

Formation IA Act

Machine Learning Strategy

IA pour Product Managers
Datadictionary
AI ACT
L’IA Act (Artificielle Intelligence Act) est un règlement qui vise à encadrer et favoriser le développement et la commercialisation des systèmes d’IA en Union européenne.
lire plus
Hymalive - AI Act : Comment s'y préparer ?


La voie de la raison

Kit de survie pour Product Manager Ambitieux