Projet modèle interne non vie Journées d’études IARD de l’institut des actuaires
Plan Organisation du projet Chantiers informatiques Chantiers méthodologiques Architecture du modèle Modélisation du passif
Organisation du projet (1/2) Objectif du projet pilier 1 Développer le modèle interne non vie pour l’ensemble des entités du groupe Le modèle devant permettre de traiter les spécificités de Groupama Fonctionnelles: Capacité à modéliser le schéma de la réassurance (externe et interne) Informatiques: Capacité à traiter des volumes de données conséquents liés au nombre de filiales, à réaliser des calculs intensifs en parallèle, à construire un modèle générique Projet initié en 2006 Première version de modèle interne développé en 2008 par approche page blanche Ayant permis de mettre en évidence les problématiques opérationnelles liées au calibrage En 2008, choix d’un outil pour la modélisation du passif intégrant les modules élémentaires nécessaires à la non vie Afin de gagner du temps sur les développements pour se concentrer sur la phase de calibrage des passifs
Organisation du projet (2/2) Étapes du projet Phase pilote du projet sur un nombre restreint d’entités Puis phase de déploiement à toutes les entités du groupe En parallèle, chantiers informatiques et méthodologiques Projet transverse groupe co- piloté par les directions centrales Finance et Investissement et la direction actuariat groupe Avec la collaboration d’autres directions (Réassurance, pilotage…etc) Avec objectif de capitaliser sur les process déjà mis en œuvre, par exemple Chantiers données: Existence d’EDE communautaires Chantiers calculatoire: Évaluation mis en place en 2005 des Best Estimate pour les engagements en portefeuille et définition de la volatilité du risque de réserve à partir des triangles historiques Projet à mener en lien avec le projet Pilier 2 Données, gouvernance du modèle, politique de gestion du risque
Organisation du projet (2/2) Une équipe projet Actuaires des différentes directions Informaticiens dédiés au projet Organisation des travaux Réunions hebdomadaires réunissant les acteurs du projet Un comité de pilotage mensuel Spécifications techniques principalement définies par La direction actuariat groupe pour les passifs la direction financements et investissements pour les actifs Principaux chantiers Chantiers méthodologiques Chantiers informatiques : Données et Processus/Reporting Chantiers documentation des modèles et des processus Constitution d’une documentation formalisée et préparation du dossier d’homologation du modèle en parallèle des développements Reprenant les normes, les cahiers des charge du modèle, les comptes rendu des réunions de travail, les tests effectués…Etc
Chantiers informatiques et process (1/2) Un chantier données, inputs du modèle interne A mener en lien avec le projet pilier 2 de solvabilité 2 Mise en place d’un processus d’extraction des données nécessaires au calibrage suivant un processus fiabilisé Recensement des systèmes d’informations existants (système de gestion et datawarehouse) Organisation du transfert sécurisé de volumes de données importants entre divers sites du Groupe Nécessité de développer des approches intermédiaires permettant d’alimenter le modèle interne En attendant la finalisation de projets informatiques importants Tout en s’assurant de la cohérence de la trajectoire
Chantiers informatiques et process (2/2) Un chantier Process /Reporting Visant à définir le processus de production des calculs (acteurs/responsabilités/transfert d’information/retraitements/enchaînements des calculs…) En assurant l’auditabilité des éventuels retraitements de données inévitables en non vie (dire d’experts) permettant la production de sensibilité et de calculs fréquents Un chantier capacité machines et technique de calculs parallèles Calculs intensifs, volume de données conséquent
Chantiers méthodologiques Contrôler le niveau de complexité des choix méthodologiques Calibrage du passif Décomposition par type de risque du capital économique Modèle interne partiel: Risque de crédit, risque de contrepartie, risque opérationnel Approche standard ? Quelles méthodes d’agrégation avec les autres risques ? Favoriser les approches simples Analyse des bas de bilan Modélisation du risque de défaut Intégration dans un modèle bilantiel? Calibrage des scénarios économiques Utilisation d’un logiciel externe ou développement d’un modèle en interne ? Modèle Groupe / Agrégation éventuelle du modèle non vie avec le modèle vie Intégration des contraintes du use test dans la conception du modèle
Architecture du modèle (1/1) Approche bilantielle Trois sous modèles : Un modèle de projection stochastique de passif 20 000 scénarios de cash flows techniques, de provisions sociales et SII par segment de risque sur un horizon à définir Un modèle de projection d’actifs et de gestion bilancielle Permettant une approche stochastique ou déterministe (stress test) 20 000 scénarios de bilans (sociaux et SII) et de comptes de résultats Un module de capital économique
Architecture du modèle (2/2) Données de passif Outil de calibrage des paramètres et lois du passif Modèle de passif stochastique Inflation et facteurs d’actualisation 20 000 chroniques de cash flows, de résultats techniques et de provisions économiques par segment/par période Portefeuille d’actif Calibrage des scénarios économiques Modèle de projection d’actif et du bilan 20 000 chroniques de bilan sociaux et économiques Calcul du capital économique
Objectifs du modèle Solvabilité 2 Du bilan initial au besoin de fonds propres à 1 an SCR
Fonctionnement du modèle Modélisation de l’actif et des postes du bilan Modélisation des différentes classes d’actif Modélisation de la politique de réinvestissement Établissement du bilan économique à t=1 La situation nette (NAV) étant égale à la différence entre les actifs et la valeur économique des passifs Détermination de la distribution de la variation de situation nette à t=1 Le capital économique correspondant à la VAR à 0,5% de cette variation
Travaux et réflexions sur la modélisation des passifs non vie
Segmentation des passifs Flexibilité du modèle nécessaire pour analyser les passifs selon plusieurs axes : Axe Modélisation : découpage assez fin pour les besoins de la modélisation Modélisation des sinistres attritionnels et graves Modélisation des provisions Par segment de risques homogènes Lien avec les données disponibles et la robustesse des modèles Axe Produit : Afin de faire le lien avec le Business plan Matrices de passage entre maille risque vs maille produit/métier/marché Avec prise en compte des dépendances entre risques Axe Reporting : Par branche Solvabilité II Par entité ou groupe d’entités
Le risque de réserve : principes Le risque de réserves couvre les engagements liés aux sinistres déjà survenus. Qu’est-ce qui crée de la volatilité ? Mauvaise estimation des engagements : le montant ultime réellement payé peut être différent du montant anticipé Développement atypique de la sinistralité : cadences de liquidation très différentes d’un calcul de Chain-Ladder classique Problématique de fréquence : dérapage non anticipé dans l’estimation des provisions Best Estimate Les effets de l’inflation doivent être isolés dans l’analyse de la volatilité historique : Retraitement de l’inflation dans les triangles de paiements et de provisions Comment l’inflation est-elle prise en compte dans la gestion des sinistres ? L’inflation future est gérée indépendamment dans le modèle via des scénarios stochastiques. Éventuellement surinflation à analyser
Le risque de réserve : volatilité à 1 an Approche classique : volatilité à l’ultime Mesure de volatilité entre l’estimation des provisions Best Estimate et la somme des paiements futurs réels Abondante littérature (années 90) Pour Solvabilité II : mesure d’impact à 1 an Littérature très récente : Merz & Wüthrich (2008) Adaptation des méthodes classiques : Mack à 1 an / Bootstrap / GLM Travaux académiques en cours Quel sens donner à ces résultats ? Le modèle interne donne un autre regard sur le provisionnement, mais s’inscrit dans un processus global : Réconciliation avec l’analyse déterministe (Chain-Ladder) Réconciliation vision ultime vs chocs à 1 an successifs
Le risque de réserve : VaR à 99,5% Problématique du quantile à 99,5% : Les modèles utilisés sont généralement calibrés sur 10 ans (rarement plus). Sur cette base, on peut prétendre estimer un quantile au niveau de probabilité de l’ordre de 80%-90%. L’estimation à 99,5% est plus délicate. Les risques de pointe Stress scénarios Drivers à identifier Amplitude et période de retour Les risques modérés Peuvent être estimés à partir d’un triangle Densité Q-50% Q-95% Q-99,5% Triangle historique + Modèle statistique Non observé dans les triangles historiques Stress scénarios
Le risque de primes : modélisation des graves Les sinistres sont analysés individuellement (pas de triangle agrégé). Le modèle simule les sinistres individuellement et applique la réassurance XS. Le modèle des sinistres graves repose sur 2 lois statistiques : La loi du coût ultime d’un sinistre supérieur à un certain seuil : La loi du coût d’un sinistre est calibrée à partir des sinistres historiques individuels déflatés et projetés à l’ultime ; Les coûts individuels sont simulés hors inflation à l’ultime, et ces coûts, une fois simulés, ne varient pas au cours du temps ; L’inflation future est gérée indépendamment via les scénarios stochastiques La loi du nombre de sinistres dépassant le seuil par an Les fréquences sont simulées à l’ultime, et ces fréquences, une fois simulées, ne varient pas au cours du temps ; Pas de sinistres tardifs.
Le risque de primes : le sinistres attritionnels La masse des sinistres inférieurs au seuil est analysée globalement (triangles agrégés). La modélisation peut prendre différentes formes : Soit par le biais d’un ratio S/P calé sur l’historique : Avantage : mise en œuvre simple Inconvénient : faire attention à la volatilité des primes Soit par une approche fréquence moyenne / coût moyen : Le coût moyen d’un petit sinistre vu à l’ultime hors inflation estimé à partir des triangles des coûts moyens ; Le nombre annuel de sinistres ; Nécessite un comptage des sinistres selon la segmentation retenue.
Le risque de primes : calibrage sur l’historique Les méthodes de calibrage basées sur la sinistralité historique supposent que la sinistralité à venir est conforme aux observations passées : Nécessité d’avoir des données « pures » corrigées des effets de l’inflation, changements de portefeuille, des tendances, … Problématique de la profondeur d’historique Le retraitement des données s’effectue selon 3 axes : Certains trends sont difficiles à isoler et à retraiter dans les historiques sinistres : Changements jurisprudentiels Cycles Changements de gestion et de souscription, etc. 1 : Évolution historique du portefeuille (coût moyen en augmentation par exemple) 2 : Biais calendaires (inflation) 3 : Sinistres tardifs et liquidation
Le risque de prime : le choix du seuil La notion de « sinistre grave » est définie par un seuil devant remplir plusieurs contraintes : Avoir suffisamment de sinistres pour pouvoir estimer les paramètres de la loi du coût individuel : Nécessairement inférieur à la priorité de la réassurance XS ; Choix final du seuil lié à la qualité de l’ajustement statistique de la loi du coût ; Les outils statistiques d’aide à la décision : le « Mean Excess Loss » Moyenne des sinistres dépassant p, le seuil p étant déduit ; Formules fermées pour les lois classiques (linéaire pour une loi de Pareto)
Le risque de primes : adéquation des extrêmes Loi du coût d’un sinistre corrigée de l’inflation dépassant le seuil : Lois statistiques tronquées Lois classiques : Lognormale, Pareto et Weibull avec ou sans troncature L’adéquation statistique peut être améliorée en changeant de seuil. Une attention particulière doit être portée sur la queue de distribution : Les sinistres historiques sont-ils bien représentatifs ? Impact sur l’adéquation statistique : Si on enlève le plus gros sinistre ; Si on enlève les sinistres de la dernière année de survenance ; Si on coupe l’échantillon en deux de manière aléatoire. Extrapolation
Les dépendances : approches standards Dépendances difficiles à observer et à quantifier : Historiques relativement faibles Calibrage difficile à partir de données « pures » corrigées des effets de l’inflation, changements de portefeuille, des tendances, … Dépendances sur les extrêmes inobservables Jugements d’experts nécessaires Plusieurs approches possibles : Riche littérature à ce sujet Copules Chocs communs / Approche bayesienne Matrices de corrélations Mise en œuvre opérationnelle : Agrégation a posteriori avec matrice de corrélation ? Ou bien prise en compte des dépendances dans les scénarios stochastiques ?
Les dépendances : analyse des sources L’analyse qualitative des dépendances est fondamentale : Quelles sont les sources de dépendances ? Inflation commune entre sinistres et lobs ? Surinflation ? Fréquence entre attritionnels et les graves pour un même segment : Au-delà d’un certain seuil : quasi indépendance des graves par rapport à la fréquence attritionnelle ? Fréquence entre attritionnels sur plusieurs segments : Quantification difficile car au mieux 10 années d’historique Impact limité sur les extrêmes Autre source de dépendance ? Dépendances sur les extrêmes ? Quel type de dépendance ? Quelles variables corréler ? Pragmatisme et jugement d’expert sont nécessaires dans la prise en compte des dépendances.