Le Machine Learning, pourquoi et comment ?

L’IA actuelle surfe sur la hype du machine learning, qui est aujourd’hui sa branche la plus développée. Cette technologie vise à établir des corrélations par expérimentation sur des jeux de données afin d’opérer des classifications automatiques ou des analyses prédictives.

Comme les règles de traitement algorithmiques des data ne sont pas définies à l’avance par un opérateur humain et qu’il est souvent difficile de comprendre a posteriori quels traitements ont conduit aux résultats, on accole souvent l’étiquette de black box au machine learning.

Entré en vigueur dès le 18 mai 2018, le RGPD prévoit pour l’usager un « droit à l’explication » : toutes les décisions prises par des algorithmes doivent pouvoir être expliquées en cas de litige. La redevabilité devient donc un enjeu fondamental pour la mise en œuvre de solution d’intelligence artificielle au moment même où la complexité prend le pas sur l’interprétabilité des modèles.

Fort heureusement, il n’est pas nécessaire d’adopter une approche introspective visant à décrire le modèle adopté par l’IA pour rendre compte de ses résultats. Une approche dites « comportementaliste », visant à tester le modèle par une batterie de questions et à interpréter les résultats de celui-ci, permet d’expliquer la décision algorithmique. L’intelligibilité est une surcouche, qui n’intervient qu’après l’entraînement des modèles afin d’informer l’opérateur : expliquer les données ne revient pas à fournir une explication exhaustive du modèle, mais au contraire à en détacher les inputs ayant le plus fortement impactés le résultat.

De Tree Interpreters à Skope Rules en passant par les modèles Lime et Shap, Rémi Adon nous propose un tour d’horizon des outils d’intelligibilité de l’IA. Loin d’être accessoires, ceux-ci revêtent un aspect stratégique pour le machine learning : en rendant intelligibles ses décisions, ils lui permettront d’être mieux accepté et plus intégré.

Retrouvez-nous pour notre prochain AI&Society sur notre page Meetup.