IA responsable : Malakoff Humanis participe à la création d’un label

jeudi 17 novembre 2022
Image de IA responsable : Malakoff Humanis participe à la création d’un label

BCG Gamma, Malakoff Humanis, Orange et l’Oréal créent un label sur l’IA responsable. Le référentiel et les critères d’évaluation s’inspirent de la règlementation européenne.

La Commission européenne a donné un cadre clair aux entreprises en matière d’intelligence artificielle. D’ici 2025, les entreprises devront répondre à des critères éthiques sur l’utilisation de leurs algorithmes. Éviter les biais involontaires, développer la confiance des collaborateurs et des clients par la transparence, protéger la confidentialité des données… l’IA responsable repose sur plusieurs piliers.

Pour traduire de façon opérationnelle les recommandations des pouvoirs publics, quatre grandes entreprises d’horizons différents ont créé un label. Baptisé « Positive AI », le label repose sur un référentiel et une évaluation menée par EY, organisme indépendant. « Notre objectif est d’embarquer les entreprises dans une démarche d’IA responsable car moins de 2 entreprises sur 10 ont un système mature », explique David Giblas, DGD de Malakoff Humanis en charge des opérations assurance et relation client, l’innovation, des partenariats santé, du digital et de la data, des achats et MH Innov.

Positive AI se veut ouvert aux autres entreprises qui souhaitent avancer sur les questions d’intelligence artificielle responsable. Mise à part l’obtention d’un label, les entreprises y trouveront un espace de dialogue entre pairs. Enfin, Positive AI souhaite aussi contribuer au débat public en France et en Europe.

Pour David Giblas, l’IA responsable est « une intelligence artificielle au service de l’humain, non-discriminatoire, transparente et explicable.  La première chose à faire est de lister les finalités interdites. L’IA ne sera que ce que vous voulez qu’elle soit », insiste-t-il.

L'IA pour combattre la fraude en arrêt de travail

Malakoff Humanis utilise un algorithme sur le contrôle des arrêts de travail depuis 5 ans. Ce dernier analyse différents types de données comme le type d’arrêt, la fréquence, le secteur, le profil de l’assuré… et identifie des arrêts de travail suspicieux. Cet algorithme est un outil à la main des médecins et qui a été construit avec eux. « Attention à la prescription automatique. C’est le médecin qui décide de déclencher un contrôle médical. Il est intéressant de regarder de près les cas dans lesquels le médecin a exercé son droit de véto car les humains ont aussi des biais. Je dis que l’IA est impertinente car elle interroge nos pratiques et souvent elle a raison. Grâce à l’algorithme, nous avons multiplié de 3 à 5 le taux de succès dans la détection de fraude des dossiers. Nous avons notamment réduit la proportion de faux positifs, c’est-à-dire de contrôles médicaux non justifiés », détaille David Giblas.

Contenus suggérés