Partager ce contenu

IA et assurance : les enjeux et les risques d’une rupture technologique majeure

1.   INTRODUCTION

Le secteur de l’assurance présente des spécificités auxquelles l’intelligence artificielle  (IA) peut apporter des réponses pertinentes : un volume de données très significatif (parmi lesquelles des données personnelles et sensibles), dont l’exploitation réclame des ressources informatiques significatives, la nécessité de modéliser les risques pris en charge (le contrat d’assurance est aléatoire car il couvre des situations futures et incertaines) au moyen de modèles probabilistes et stochastiques, une exposition avérée aux risques de blanchiment des capitaux (assurance vie) et à la fraude (assurance non-vie).

A ce titre, l’IA présente pour l’assurance de vraies opportunités, que ce soit grâce aux volumes et à la vitesse de traitement des données, au travers du développement d’algorithmes sophistiqués répondant aux enjeux de modélisation (sinistralité, comportement de l’assuré …) ou dans la segmentation de la clientèle. Elle affecte toute la chaîne de valeur : de la commercialisation des contrats, jusqu’à la gestion des sinistres, en passant par la détermination et la personnalisation du tarif, le contrôle de la conformité ou, pour le régulateur, l’évolution des techniques et des approches de supervision prudentielle.

Pour autant, le déploiement rapide de l’IA place les acteurs de l’assurance devant des enjeux significatifs liés à la maîtrise de l’outil et aux principes fondamentaux qui sous-tendent l’activité : mutualisation versus individualisation des risques, sélection versus exclusion, prédictibilité versus limites de l’assurabilité.

2.   L’IA : une opportunité majeure pour l’assurance

Les apports de l’IA pour l’assurance sont multiples.

2.1 Contribution à l’amélioration de l’expérience client

  • Déploiement massif de chatbots et de voicebots.
  • Analyseurs d’emails pour automatiser les réponses, qualifier l’intention et fluidifier les parcours clients.
  • Analyse du ressenti client et tri intelligent des demandes (déclarations de sinistres, émissions des avenants…) entraînant plus de réactivité et – a priori – un taux de satisfaction des assurés plus élevé.

2.2 Gestion des sinistres

Dans ce domaine crucial, l’IA permet notamment de

  • Développer l’automatisation et la rapidité du traitement des sinistres par
    • l’analyse de photos et de documents (ex. : sinistres automobiles, dégâts des eaux …)
    • la détection automatique des dommages (au moyen de capteurs embarqués et d’objets connectés)
    • l’instruction accélérée des dossiers (pour les plus simples en tout cas).
  • Intensifier la lutte contre la fraude en détectant les comportements douteux
    • notamment à l’aide de croisement des données
    • à travers l’identification des incohérences documentaires liées à la mise à disposition de pièces justificatives falsifiées…

Dans ces deux cas les enjeux-clés se déclinent en gains de productivité, en amélioration de l’expérience client (délais d’indemnisation) et de réduction des coûts.

👉 avec un corolaire : c’est sur l’assuré (développement du self care) que repose l’essentiel du temps consacré à « nourrir » l’IA qui traitera ensuite la demande.

2.3 Apport marketing : offre, tarification et segmentation de la clientèle

  • Utilisation d’algorithmes de machine learning pour affiner le tarif.
  • Segmentation plus fine des profils clients.
  • Création d’offres personnalisées.

En gardant à l’esprit que plus l’assureur segmente son portefeuille, moins il favorise la mutualisation des risques. En-deçà d’un certain nombre de contrats, la loi des grands nombres ne permet pas de modéliser efficacement la sinistralité.

  • Favoriser le développement de nouveaux produits et l’utilisation de l’assurance paramétrique.

Contrairement aux assurances classiques qui indemnisent les pertes réelles subies, l’assurance paramétrique ou indicielle repose sur des indices prédéfinis :

  • Données de météorologie.
  • Habitudes de conduite obtenues au moyen de capteurs embarqués sur les véhicules.
  • Ciblage client évolutif lié aux moments de vie (assurance vie) ou au comportement de l’assuré (santé).

Ces outils ont déjà atteint un niveau de maturité avancé chez les assureurs.

2.4 Conformité des opérations

  • Obligations de vigilance (know your customer, KYC).
  • Détection automatisée des signaux faibles en matière de LCB‑FT.
  • Gestion des dispositifs de gel des avoirs.
  • Identification et suivi des contrats en déshérence…

2.5 Développement de modèles prédictifs

Afin de modéliser le risques ou le comportement des assurés, des méthodes apprenantes avec l’IA permettent d’ajuster les algorithmes dans une démarche d’amélioration continue :

  • Utiliser des arbres de décision (machine learning, deep learning).
  • Déterminer la meilleure estimation et la marge pour risque dans le calcul des provisions techniques.
  • Calibrer les exigences de capital futures (par ex. processus ORSA) sur la base d’une cartographie des risques enrichie.

3.   Les risques spécifiques liés à l’utilisation de l’IA par les assureurs

Les avantages importants issus de l’utilisation de l’IA ne doivent toutefois pas masquer les risques bien réels que fait courir cette technologie en matière d’assurance. Loin de remettre en cause les apports de cet outil, son utilisation doit s’accompagner d’un contrôle interne adapté. Ce contrôle augmenté doit notamment porter sur les facteurs de risques suivants :

3.1 La qualité des données et les biais relatifs à ces données

Le risque de discrimination (exclusion des profils plus risqués) existe bel et bien, tant en matière de (sur)tarification que de sélection (rejet) automatique à la souscription.

Cela remet potentiellement en cause l’accès fondamental de tous à l’assurance.

De telles approches seraient contraires à des dispositifs tels que la convention AERAS (s’Assurer et Emprunter avec un Risque Aggravé de Santé).

3.2 L’amplification du cyber-risque

Du fait des automatisations et de la généralisation de l’usage du Cloud et des interconnexions multiples – voire des risques liés à l’accès à des données sensibles – le cyber-risque devient omniprésent du fait d’une plus grande exposition et d’une vulnérabilité accrue aux attaques.

De nouveaux types d’attaques ciblent spécifiquement les algorithmes développés :

  • d’une part via la manipulation des modèles au travers d’injection de données erronées
  • d’autre part au moyen d’envoi massif de données destinées à surcharger les capacités de traitement.

3.3 La dépendance aux fournisseurs technologiques

Vrai sujet de préoccupation actuel en raison de la forte concentration des acteurs, il s’ensuit un risque stratégique lié à la souveraineté des données (ex. Cloud Act : loi fédérale américaine qui vise à clarifier les conditions dans lesquelles les autorités américaines peuvent exiger l’accès à des données électroniques détenues par des prestataires de services numériques).

3.4 La difficulté, voire l’impossibilité d’auditer les algorithmes externes

Autre point préoccupant qui rejoint les préoccupations du régulateur sur la maîtrise effective des traitements appliqués, et notamment la capacité des assureurs à comprendre et expliquer les restitutions issues de ces traitements.

3.5 L’impact sur la stabilité financière et d’EVENTUELS effets systémiques

La tarification ou la sélection des risques mal calibrée, qui risque de provoquer

  • un déséquilibre de portefeuille (enjeu lié à la mutualisation)
  • des comportements « moutonniers » du marché si tous les acteurs utilisent les mêmes modèles (enjeu lié à l’accès à l’assurance)…

4.   La nécessité d’une gouvernance et d’un contrôle interne adaptés

Le régulateur doit s’attacher en premier lieu à s’assurer que les algorithmes et les modèles utilisés soient explicables et auditables.

A ce titre, l’assureur doit pouvoir expliquer les mécanismes de décision qui ont été paramétrés dans le modèle, ainsi que les critères utilisés pour prendre ces décisions. Il doit également démontrer l’équité du traitement des clients. En clair, l’outil, pour efficace et pertinent qu’il soit, ne doit pas conduire à des traitements arbitraires ou discriminatoires incompatibles avec, par exemple, la Directive Distribution en Assurance.

D’une manière générale, le contrôle interne lié aux algorithmes et aux modèles utilisés doit comporter :

  • l’existence de jeux de tests
  • un suivi de versions des algorithmes
  • un contrôle des biais
  • une réponse adaptée aux exigences spécifiques des articles 82 et 83 de la directive Solvabilité 2 (qualité des données, comparaison avec les données issues de l’expérience).

En cas d’anomalies identifiées, celles-ci doivent impérativement être corrigées.

De telles exigences rendent nécessaires la révision de la cartographie des risques, qui doit intégrer les enjeux relatifs à ces technologies :

  • risque de modèle
  • risques opérationnels
  • cyber-risque
  • risque de sous-traitance…

De la même façon, des adhérences évidentes existent avec le règlement DORA (résilience opérationnelle numérique). Les investissements en matière de conformité, de contrôle interne, de gouvernance et d’outils peuvent à ce titre s’avérer significatifs, avec un risque additionnel : celui du « décrochage » des organismes de petite taille par rapport aux groupes présentant une surface financière capable de faire face aux coûts de mise en œuvre de telles procédures.

5.   Conclusion

L’IA ouvre, certes, pour l’assurance des perspectives énormes (gains d’efficacité, meilleure maîtrise du risque, suivi personnalisé, nouveaux produits …) mais engendre dans le même temps des exigences tout aussi importantes de contrôle (protection du client, des données, accès à l’assurance…).

Le problème n’est pas tant l’outil en lui-même que la façon dont il est utilisé. Avec deux sujets de maîtrise cruciaux :

  • la qualité de la donnée
  • la maîtrise des modèles (de la conception à la restitution).

A défaut de maîtriser ces deux leviers, le risque est bien connu des informaticiens : garbage IN, garbage OUT !

De même, le régulateur a bien compris l’effet disruptif de l’IA et s’est engagé dans une démarche d’intégration de l’IA dans ses programmes de supervision, mais également dans ses outils et processus de supervision.

Il y a donc fort à parier que l’intelligence artificielle prenne une place prépondérante dans les préoccupations de l’ACPR au cours des prochaines années…

Pour compléter,  l’AFGES propose  des formations dédiées à la compréhension et la maîtrise de ces enjeux IA.  Plus d’infos : contact@afges.com, +33 (0)1 70 61 48 60.

Les formations associées

Restons-en contact !

Abonnez- vous à notre newsletter pour recevoir les articles d'analyse de nos experts et les actualités de nos formations.