Tout miser sur l'IA : transparence et explicabilité

Publié le: 26 novembre 2024

Partagez

L'intelligence artificielle est un outil extrêmement puissant qui peut améliorer l'analyse de données complexes et la prise de décision. Pour exploiter pleinement les capacités de l'IA, il est essentiel d'assurer la transparence et l'explicabilité, afin de fournir des explications compréhensibles et fiables des résultats produits par l'IA.

Comprendre la transparence et l'explicabilité de l'IA

La transparence et l'explicabilité désignent l'idée que toutes les parties prenantes affectées par le résultat d'un système d'IA devraient pleinement comprendre le fonctionnement interne de ce système, depuis son développement, son entraînement et son déploiement jusqu'aux facteurs qui influencent ses décisions.

Ces concepts jouent un rôle crucial dans le renforcement de la confiance entre les systèmes d'IA et leurs utilisateurs. Les systèmes d'IA utilisent souvent des algorithmes de type "boîte noire", complexes et opaques. Les mesures de transparence et d'explicabilité permettent aux utilisateurs de comprendre pourquoi un système d'IA a généré un résultat spécifique et de rejeter ce résultat si nécessaire, les aidant ainsi à prendre des décisions éclairées.

Démystifier la "boîte noire" de l'IA

En termes d'explicabilité, les modèles d'apprentissage automatique peuvent être divisés en deux grandes catégories : les modèles "boîte noire" et les modèles "boîte blanche".

Les modèles "boîte noire"

Les modèles "boîte noire" sont des modèles hautement complexes, tels que les réseaux neuronaux profonds et les modèles de boosting de gradient. Bien que ces modèles puissent analyser avec précision un grand volume de données complexes, leur fonctionnement interne peut être difficile à comprendre, même pour les experts du domaine et les développeurs.

Les modèles "boîte blanche"

En revanche, les modèles "boîte blanche" sont intrinsèquement plus faciles à comprendre, comme les régressions linéaires et les arbres de décision. En général, ces modèles montrent clairement les relations entre les variables influentes et les prédictions des résultats. Cependant, ils offrent généralement une performance prédictive inférieure et peuvent ne pas toujours être capables de modéliser de grands ensembles de données complexes.

L'importance de l'IA transparente et explicable

L'un des principaux défis pour les développeurs d'IA est de trouver un équilibre entre la précision du modèle et son explicabilité. D'une part, la précision prédictive des modèles d'IA doit être une priorité pour identifier des relations complexes et non linéaires entre les variables et fournir des informations précieuses pour une prise de décision éclairée. Cependant, plus un système d'IA est sophistiqué, plus il devient difficile d'expliquer son fonctionnement, ce qui peut nuire à l'intégrité de ses résultats.

Par exemple, les modèles d'IA sont vulnérables aux biais provenant de données non représentatives, ce qui peut entraîner des résultats perpétuant des inégalités. De plus, les modèles d'IA peuvent subir un "drift de modèle", un phénomène où la performance du modèle se dégrade avec le temps parce que les données réelles diffèrent des données sur lesquelles le modèle a été entraîné. Un manque d'explicabilité peut empêcher les opérateurs humains de surveiller les résultats du modèle, conduire à une prise de décision mal informée et saper la confiance dans les systèmes d'IA.

Cas d'utilisation de la transparence et de l'explicabilité

Les événements indésirables sont une préoccupation majeure dans de nombreux essais cliniques. Ils contribuent souvent à l'échec de ces essais, et leurs causes sont souvent complexes et difficiles à démêler.

Chez Sanofi, nous utilisons l'IA pour prédire quels participants aux essais présentent un risque élevé ou faible d'événements indésirables. Nos développeurs privilégient la transparence et l'explicabilité en utilisant des modèles "boîte de verre", qui sont des modèles avec une interprétabilité intégrée. Ils associent le modèle à une fiche de modèle qui capture des informations telles que la manière dont le modèle a été entraîné, ses caractéristiques, ses performances et ses résultats inférés.

L'utilisation de modèles explicables

L'analyse des données des essais cliniques est un défi majeur. Lors de la sélection d'un modèle d'apprentissage automatique, les développeurs doivent trouver un équilibre entre la nécessité d'analyser une grande quantité de données complexes et celle d'obtenir des résultats de modèle explicables, car ces résultats peuvent avoir un impact direct sur la vie des patients. Nos développeurs ont utilisé des Explainable Boosting Machines (EBM), un modèle "boîte de verre" conçu pour atteindre une précision comparable à celle des modèles "boîte noire" de pointe, tout en restant entièrement interprétable. Cet algorithme est explicable car il rapporte l'importance des caractéristiques, un ensemble de valeurs numériques qui montrent dans quelle mesure chaque caractéristique (par exemple, l'âge, les résultats de laboratoire, les antécédents médicaux) a contribué à la décision du modèle de déterminer si les individus étaient à haut risque ou à faible risque d'événements indésirables. Nos développeurs ont rapporté ces valeurs dans des fiches de modèle pour l'ensemble de la cohorte de test et ont fourni un moyen d'interroger la prédiction du modèle pour chaque participant individuel à l'essai au sein des cohortes.

Rapport des caractéristiques du jeu de données

Nos fiches de modèle fournissent des informations détaillées sur les populations étudiées pour créer notre jeu de données, ainsi que des descriptions précises des segments utilisés pour entraîner et tester notre modèle d'apprentissage automatique. Cela permet aux développeurs d'identifier si le jeu de données est déséquilibré ou s'il existe des différences significatives entre les populations des jeux de données d'entraînement et de test, ce qui pourrait affecter les performances du modèle ou introduire des biais dans nos résultats.

Surveillance des performances du modèle

Les développeurs surveillent régulièrement la précision prédictive du modèle et mettent à jour la fiche de modèle au fil du temps. Cela leur permet de détecter un éventuel "drift de modèle" et de décider quand réentraîner le modèle ou mettre à jour les jeux de données.

Chez Sanofi, nous comprenons que la transparence et l'explicabilité sont essentielles pour garantir que nos systèmes d'IA soient dignes de confiance, responsables et conformes aux nouvelles réglementations sur l'IA. Assurer que les résultats et les décisions de nos systèmes d'IA soient compréhensibles nous permet de naviguer dans l'avenir de l'IA de manière responsable.

Partagez

En savoir plus

Tout miser sur l’IA écologiquement responsable

Sanofi à VivaTech

Stratégie et innovation : exploration de notre transformation numérique