19/4/2022

Qu’est ce que l’IA Responsable?

5mn
Difficulté :
Qu’est ce que l’IA Responsable?
Partager l'article

Si le potentiel incroyable de l’Intelligence Artificielle est maintenant compris et exploité depuis plusieurs années, son impact - voire sa dangerosité - sur nos vies, nos sociétés et notre environnement est de plus en plus scruté et débattu.

L’IA Responsable n’est aujourd’hui plus seulement un sujet de débat, c’est devenu une réalité qu’il est nécessaire de prendre en compte dès les premières phases des projets à base de Machine Learning (ML). Mais qu’y a-t-il vraiment derrière ?

Cet article a pour objectif de faire un tour d’horizon des principaux piliers de l’IA Responsable mis en avant par quelques-uns de ses principaux acteurs, pour ensuite proposer une ouverture sur le sujet qui se veut optimiste, afin de montrer que le fait d’appliquer les principes de l’IA Responsable n’est pas qu’une question de restrictions à se donner, mais bien une opportunité pour créer des produits responsables à haute valeur ajoutée.

Différents piliers de l’IA Responsable mis en avant

Pour définir l’IA Responsable, nous pouvons partir de la définition donnée dans le livre **“Responsible Artificial Intelligence” (Springer) **: “Responsible Artificial Intelligence is about human responsibility for the development of intelligent systems along fundamental human principles and values, to ensure human-flourishing and well-being in a sustainable world.”.

L’IA Responsable est devenu un enjeu stratégique pour beaucoup d’entreprises. Pour s’en convaincre, il suffit de faire un tour du côté de quelques géants du web qui ont publié des pages dédiées au sujet.

Google structure ses efforts sur le sujet autour de 4 concepts fondamentaux : Fairness (que l’on pourrait traduire par “équité” ou “justice”), Interpretability, Privacy et Security. Ces 4 piliers spécifiques sont accompagnés de propositions de bonnes pratiques, qui viennent s’ajouter à l’ensemble de celles autour du développement logiciel et du Machine Learning que Google publie régulièrement.

De son côté, Facebook s’organise autour de 5 concepts clés pour concentrer et organiser ses travaux sur le sujet : Privacy & Security, Fairness & Inclusion, Robustness & Safety, Transparency & Control et Accountability & Governance. L’entreprise met notamment en avant, en plus des concepts techniques, des notions de rôles, d’organisation et de gouvernance qui sont clés dans le développement d’une réelle stratégie autour de l’IA Responsable.

Quant aux équipes de Microsoft, elles parlent de 6 axes essentiels pour une IA Responsable : Fairness, Inclusiveness, Reliability & Safety, Transparency, Privacy & Security et Accountability.

D’une manière similaire, d’autres organisations apparaissent et se structurent autour de ces principes fondamentaux. C’est le cas de l’Institute for Ethical AI & Machine Learning, un centre de recherche anglais engagé dans la structuration du sujet de l’IA Responsable, et proposant des principes et des méthodologies pour aller dans cette voie. Ils ont publié à cet égard 8 Responsible Machine Learning Principles : Human Augmentation, Bias Evaluation, Explainability by justification, Reproducible Operations, Displacement Strategy, Practical Accuracy, Trust by Privacy et Data Risk Awareness. Comme on peut le voir, si certains piliers sont similaires, un focus fort est aussi largement présent sur les impacts de l’IA par et sur les humains.

L’IA Responsable ouvre de nouvelles opportunités

Bien que nous percevons de plus en plus les dangers que peuvent susciter les systèmes de Machine Learning, les prises de conscience et le poids de plus en plus important de l’IA Responsable permettent de voir plusieurs lueurs d’espoir pour l’avenir en termes d’impacts positifs de ces produits.

L’un des avantages majeurs de la mise en place des bonnes pratiques autour des principaux piliers développés plus haut réside dans le fait de pouvoir prendre des décisions éclairées, permettant notamment d’éviter (ou de diminuer) les risques de décisions “black-box”, les discriminations et perpétuation de biais, les atteintes à la vie privée ou encore les décroissances de performances des modèles dans le temps. Ces piliers permettent donc de construire des IA robustes et compréhensibles afin de gagner en confiance et en transparence dans la prise de décision.

Pour aller plus loin sur le risque majeur lié à la perpétuation ou l'amplification des biais, la mise en place de bonnes pratiques autour de l’IA Responsable permettrait de la voir comme un moyen d’inverser la tendance. En effet, il a été prouvé par les sciences cognitives que les raisonnements humains ne sont pas toujours rationnels et emploient des heuristiques de prise de décision rapides, souvent portés par de nombreux biais inconscients. Incorporé dans les systèmes de prise de décision, le Machine Learning peut alors nous mettre face à nos propres incohérences et nos propres biais, en les mesurant de manière qualitative et en prenant des décisions basées sur ces révélations.

Ce dont nous pouvons être certains, c’est qu’il est impossible de considérer l’IA Responsable comme un simple sujet à traiter par l’angle technique et mathématique. Ce sujet touche à l’ensemble de la chaîne de prise de décision et nous force à nous poser des questions difficiles que nous n’aurions pas forcément vues au premier abord. Nous n’en sommes qu’au début de l’histoire, et chaque acteur a une responsabilité pour tendre vers un impact plus positif de l’Intelligence Artificielle au sens large.

Les prochains événements Hymaïa

No items found.

Appuyez-vous sur les bonnes compétences Data

Nous vous apporterons une réponse sur mesure en vous délivrant notre savoir technologique et méthodologique.