Tout miser sur l'IA : transparence et explicabilité
L'intelligence artificielle est un outil extrêmement puissant qui peut améliorer l'analyse de données complexes et la prise de décision. Pour exploiter pleinement les capacités de l'IA, il est essentiel d'assurer la transparence et l'explicabilité, afin de fournir des explications compréhensibles et fiables des résultats produits par l'IA.
Comprendre la transparence et l'explicabilité de l'IA
La transparence et l'explicabilité désignent l'idée que toutes les parties prenantes affectées par le résultat d'un système d'IA devraient pleinement comprendre le fonctionnement interne de ce système, depuis son développement, son entraînement et son déploiement jusqu'aux facteurs qui influencent ses décisions.
Ces concepts jouent un rôle crucial dans le renforcement de la confiance entre les systèmes d'IA et leurs utilisateurs. Les systèmes d'IA utilisent souvent des algorithmes de type "boîte noire", complexes et opaques. Les mesures de transparence et d'explicabilité permettent aux utilisateurs de comprendre pourquoi un système d'IA a généré un résultat spécifique et de rejeter ce résultat si nécessaire, les aidant ainsi à prendre des décisions éclairées.
Démystifier la "boîte noire" de l'IA
En termes d'explicabilité, les modèles d'apprentissage automatique peuvent être divisés en deux grandes catégories : les modèles "boîte noire" et les modèles "boîte blanche".
Les modèles "boîte noire"
Les modèles "boîte blanche"
L'importance de l'IA transparente et explicable
L'un des principaux défis pour les développeurs d'IA est de trouver un équilibre entre la précision du modèle et son explicabilité. D'une part, la précision prédictive des modèles d'IA doit être une priorité pour identifier des relations complexes et non linéaires entre les variables et fournir des informations précieuses pour une prise de décision éclairée. Cependant, plus un système d'IA est sophistiqué, plus il devient difficile d'expliquer son fonctionnement, ce qui peut nuire à l'intégrité de ses résultats.
Par exemple, les modèles d'IA sont vulnérables aux biais provenant de données non représentatives, ce qui peut entraîner des résultats perpétuant des inégalités. De plus, les modèles d'IA peuvent subir un "drift de modèle", un phénomène où la performance du modèle se dégrade avec le temps parce que les données réelles diffèrent des données sur lesquelles le modèle a été entraîné. Un manque d'explicabilité peut empêcher les opérateurs humains de surveiller les résultats du modèle, conduire à une prise de décision mal informée et saper la confiance dans les systèmes d'IA.
Cas d'utilisation de la transparence et de l'explicabilité
Les événements indésirables sont une préoccupation majeure dans de nombreux essais cliniques. Ils contribuent souvent à l'échec de ces essais, et leurs causes sont souvent complexes et difficiles à démêler.
Chez Sanofi, nous utilisons l'IA pour prédire quels participants aux essais présentent un risque élevé ou faible d'événements indésirables. Nos développeurs privilégient la transparence et l'explicabilité en utilisant des modèles "boîte de verre", qui sont des modèles avec une interprétabilité intégrée. Ils associent le modèle à une fiche de modèle qui capture des informations telles que la manière dont le modèle a été entraîné, ses caractéristiques, ses performances et ses résultats inférés.
L'utilisation de modèles explicables
Rapport des caractéristiques du jeu de données
Surveillance des performances du modèle
Chez Sanofi, nous comprenons que la transparence et l'explicabilité sont essentielles pour garantir que nos systèmes d'IA soient dignes de confiance, responsables et conformes aux nouvelles réglementations sur l'IA. Assurer que les résultats et les décisions de nos systèmes d'IA soient compréhensibles nous permet de naviguer dans l'avenir de l'IA de manière responsable.
En savoir plus
Tout miser sur l’IA écologiquement responsable
Sanofi à VivaTech
Stratégie et innovation : exploration de notre transformation numérique
Sources
- Transparency and explainability (OECD AI Principle) - OECD.AI
- What is Explainable AI (XAI)? | IBM
- Black-Box vs. White-Box: Understanding Their Advantages and Weaknesses From a Practical Point of View | IEEE Journals & Magazine | IEEE Xplore
- Feature Importance and Explainability - Borealis AI
- Explainable Artificial Intelligence (XAI): What we know and what is left to attain Trustworthy Artificial Intelligence - ScienceDirect