ica2006 article de dominicis · la méthode retenue dans cette étude pour optimiser les temps de...

29
1 Les apports de l’intelligence artificielle dans l’allocation stratégique d’actifs sous contraintes stochastiques de solvabilité. Luca De Dominicis ALTIA 5, avenue de l’Opéra 75011 PARIS Téléphone : +33 (0)1 42 97 91 64 – +33 (0)6 60 89 27 81 Télécopie : +33 (0)1 42 97 91 80 e-mail : [email protected] , [email protected] Résumé : Utilisation de techniques d’intelligence artificielle et notamment des Algorithmes Génétiques dans l’élaboration d’une méthode d’allocation stratégique d’actifs d’une compagnie d’assurance Vie visant à optimiser la couverture des engagements, le rendement des fonds propres et le temps de calcul. Mots clés : allocation stratégique – solvabilité – Algorithmes Génétiques.

Upload: lamnga

Post on 12-Sep-2018

213 views

Category:

Documents


0 download

TRANSCRIPT

1

Les apports de l’intelligence artificielle dans l’allocation stratégique

d’actifs sous contraintes stochastiques de solvabilité.

Luca De Dominicis

ALTIA

5, avenue de l’Opéra

75011 PARIS

Téléphone : +33 (0)1 42 97 91 64 – +33 (0)6 60 89 27 81

Télécopie : +33 (0)1 42 97 91 80

e-mail : [email protected], [email protected]

Résumé : Utilisation de techniques d’intelligence artificielle et notamment des

Algorithmes Génétiques dans l’élaboration d’une méthode d’allocation

stratégique d’actifs d’une compagnie d’assurance Vie visant à optimiser la

couverture des engagements, le rendement des fonds propres et le temps de

calcul.

Mots clés : allocation stratégique – solvabilité – Algorithmes Génétiques.

2

SOMMAIRE

1 Introduction........................................................................................................................3

2 Les concepts fondamentaux...............................................................................................4

2.1 La place de l’Allocation Stratégique d’Actifs dans la gestion d’une compagnie

d’assurance Vie......................................................................................................................4

2.2 Les contraintes de solvabilité.....................................................................................6

2.2.1 Principes de solvabilité et réglementations actuelles.........................................6

2.2.2 Modélisation des contraintes de solvabilité .......................................................6

2.3 L’intelligence artificielle : métaheuristiques et Algorithmes Génétiques..................7

2.3.1 Les méthodes métaheuristiques .........................................................................7

2.3.2 Le fonctionnement des Algorithmes Génétiques...............................................7

2.3.3 Applications pratiques des Algorithmes Génétiques .........................................9

2.4 La définition du problème..........................................................................................9

3 Le modèle implémenté.....................................................................................................10

3.1 Principe général .......................................................................................................10

3.2 Le générateur stochastique de scénarios ..................................................................11

3.3 Le moteur de calcul..................................................................................................11

3.3.1 Les classes d’actif ............................................................................................12

3.3.2 Le passif ...........................................................................................................12

3.3.3 Interactions actif / passif ..................................................................................13

3.3.4 La mécanique du modèle .................................................................................13

3.4 Le module d’optimisation........................................................................................14

3.4.1 Méthodologie et critères d’optimisation ..........................................................14

3.4.2 Fonctionnement du module d’optimisation .....................................................14

4 Validation et cas pratique.................................................................................................17

4.1 Validation de l’approche..........................................................................................17

4.1.1 Validation par déformation du problème.........................................................18

4.1.2 Validation par simplification du problème ......................................................19

4.2 L’apport des Algorithmes Génétiques .....................................................................21

5 Conclusions......................................................................................................................22

Bibliographie............................................................................................................................23

Annexes....................................................................................................................................24

3

1 INTRODUCTION

En raison de l’inversion du cycle de production, les compagnies d’assurances Vie, en tant qu’investisseurs institutionnels, sont largement contraintes dans la détermination de leurs fonds propres réglementaires et dans la couverture de leurs engagements. Par ailleurs, le taux de rendement minimum à servir à leurs passifs est soumis à la concurrence du marché, tandis que le taux de rentabilité demandé aux fonds propres est soumis à la concurrence des marchés financiers.

Ainsi, les sociétés d’assurances Vie cherchent à évaluer la stratégie optimale pour investir leurs actifs en respectant les différentes contraintes, endogènes et exogènes, et bâties sur différents référentiels.

Les modèles d’allocation stratégique d’actifs sont de plus en plus complets et complexes et comportent l’optimisation de fonctions définies de manière itérative, non linéaires et avec des contraintes non linéaires, définies sur des espaces à plusieurs dimensions.

Une des complexités des modèles d’allocation stratégique d’actifs, outre la fonction à optimiser, est la simulation stochastique des comportements et des rendements futurs des actifs financiers : une analyse statistique nécessitant la simulation de 1000 à 10000 histoires différentes, les temps de calcul en sont d’autant plus amplifiés.

La méthode retenue dans cette étude pour optimiser les temps de calcul sont les Algorithmes Génétiques, technique métaheuristique d’optimisation de fonction sous contrainte (cf. Annexe 1).

Cet article est structuré de la manière suivante :

• Dans un premier temps, les principaux concepts abordés sont définis et introduits : l’allocation stratégique, les contraintes de solvabilité et l’intelligence artificielle. En fin de partie, une définition plus précise de l’objectif de l’étude est présentée.

• Ensuite, la méthodologie est décrite : l’architecture générale du modèle, ainsi que la modélisation stochastique des classes d’actifs, la projection des passifs et les interactions actif – passif retenues.

• Il est alors possible de présenter les résultats : les étapes de validation, qui constituent en elles mêmes des résultats, et l’apport des Algorithmes Génétiques en termes de réduction du temps de calcul.

• Enfin, les évolutions envisageables de cette étude sont traitées.

4

2 LES CONCEPTS FONDAMENTAUX

2.1 La place de l’Allocation Stratégique d’Actifs d ans la

gestion d’une compagnie d’assurance Vie

L'allocation stratégique d'actifs d’une compagnie d’assurance Vie est souvent définie comme une étape du processus plus général de gestion actif-passifi, en particulier comme l’étape en aval de l’appréhension des risques et en amont de l’allocation tactique d’actifs, comme le visualise la Figure 2-1.

Gestion actif-passif

Appréhension des risquesActif, Passif et Actif-Passif

Allocation stratégiqued'actifs

Allocation tactiqued'actifs

Gestion financièrequotidienne

Stratégies de pilotagedes passifs

(commerciale,distribution de PB,

tarificationdes options,

etc.)

Gestion actif-passif

Appréhension des risquesActif, Passif et Actif-Passif

Allocation stratégiqued'actifs

Allocation tactiqued'actifs

Gestion financièrequotidienne

Stratégies de pilotagedes passifs

(commerciale,distribution de PB,

tarificationdes options,

etc.)

Figure 2-1

Compte tenu de ce positionnement, l’allocation stratégique d’actifs vise soit à confirmer l'optimalité de la structure de l'actif existant, soit à proposer une structure optimale d'actifs qui permette à l'entreprise d’atteindre un certain objectif de performance financière tout en respectant ses engagements avec un niveau de confiance donné.

La caractérisation de ‘stratégique’ vient d’une part de l’horizon temporel auquel s’appliquent les études d’allocation stratégique, d’autre part du nombre limité de classes d’actifs considérées dans ces études, généralement limité à 5 ou au maximum à une dizaine.

5

De plus, l’allocation stratégique d’actifs identifiée peut être une cible à atteindre dans le temps à partir de l’allocation réelle de départ ou bien une allocation dynamique, au cas où l’allocation stratégique serait définie, au départ, pour des périodes temporelles de quelques années, 5 par exemple. La Figure 2-2 montre une représentation graphique simple de ces deux concepts dans le cas d’une allocation définie sur deux seules classes d’actifs (hypothèse prise pour rendre le graphique simple, avec les points qui donnent le poids d’une des deux classes en pourcentage sur les années de projection) :

• l’ allocation cible est définie de manière constante sur tout l’horizon d’étude ; l’absence de points sur les 4 premières années symbolise l’hypothèse que cette étude donne un intervalle de 5 ans pour atteindre l’allocation cible ;

• l’ allocation dynamique est définie constante avec un pas de 5 ans.

0%

10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

allocation cible allocation dynamique

Figure 2-2

La structure optimale d'actifs doit être recalculée régulièrement (au moins tous les ans) pour tenir compte de l'évolution de la richesse de l'entreprise, de la structure et du montant de ses engagements, et de son environnement. En effet, cette évolution ne correspond pas nécessairement à celle qui a été prévue. En particulier, l’éventuelle utilisation d'un modèle stochastique ne dispense pas de cette mise à jour.

6

2.2 Les contraintes de solvabilité

2.2.1 Principes de solvabilité et réglementations actuelles

Une compagnie d'assurance doit être solvable, c'est-à-dire suffisamment solide financièrement pour respecter les engagements qu'elle a envers ses assurés et ses autres créanciers. Le régime de solvabilité actuel a été établi dans les années 1970 et a été récemment mis à jour par la réforme européenne appelée ‘Solvabilité 1’.

Depuis, la Commission Européenne, en collaboration avec les Etats membres, a lancé le projet ‘Solvabilité 2’, destiné à évaluer le besoin d'un changement plus radical du régime de solvabilité. Ce projet très vaste devrait analyser et synthétiser différents sujets tels que l'adoption d'un système davantage fondé sur le risque, l'harmonisation de l'évaluation des provisions techniques, les nouvelles techniques de transfert de risque et les évolutions récentes en matière de comptabilité.

En France, la directive ‘Solvabilité 1’ a été ratifiée sans modification substantielle (au contraire de Grande Bretagne et Finlande, par exemple). Ainsi, la directive se traduit en France par les règles et contrôles suivants :

• Les provisions doivent être calculées selon les règles fixées par le Code des Assurances (reconnues pour donner lieu à des provisions avec une forte marge de sécurité, hormis pour certaines options ‘cachées’). Le législateur modifie le Code des Assurances dans cet esprit de prudence ;

• Outre la marge de prudence dans les provisions, la marge de solvabilité réglementaire doit être couverte, et l’état réglementaire C6 (et/ou G2) montre sa couverture à chaque arrêté (même si l’assureur doit pouvoir la justifier à tout instant) ;

• Une autre mesure de solvabilité, évaluée en prenant en compte seulement les actifs dits ‘admissibles’ au sens de la directive européenne, est l’état réglementaire C5, où les règles de dispersion et de congruence des actifs sont vérifiées.

2.2.2 Modélisation des contraintes de solvabilité

Il existe donc un vaste choix de contraintes de solvabilité qui peuvent être retenues dans une modélisation d’activité d’assurance future :

• Les contraintes réglementaires actuelles exposées au paragraphe précédent, modélisables à travers la projection de provisions réglementaires et des états réglementaires C5 et C6 ;

• Les contraintes réglementaires futures qui seront introduites vraisemblablement par la directive ‘Solvabilité 2’ ;

7

• Des contraintes économiques, c'est-à-dire des règles ad hoc qui assurent la solvabilité économique de l’entreprise au-delà de sa survie comptable et réglementaire.

Dans cette étude, seules les contraintes réglementaires actuelles sont prises en compte, dans la mesure où des études spécifiques existent déjà visant à présenter les effets des possibles évolutions futures en termes d’exigences réglementaires de solvabilité.

2.3 L’intelligence artificielle : métaheuristiques et

Algorithmes Génétiques

2.3.1 Les méthodes métaheuristiquesii

Les métaheuristiques constituent une classe de méthodes approchées adaptables à un très grand nombre de problèmes combinatoires et de problèmes d'affectation sous contraintes. Elles ont révélé leur grande efficacité pour fournir des solutions approchées de bonne qualité pour un grand nombre de problèmes d'optimisation classiques et d'applications réelles de grande taille. C'est pourquoi l'étude de ces méthodes est actuellement en plein développement.

Si on peut constater la grande efficacité des métaheuristiques pour de nombreuses classes de problèmes, il existe en revanche très peu de résultats permettant de comprendre la raison de cette efficacité.

Une métaheuristique est constituée d’un ensemble de concepts fondamentaux qui permettent d'aider à la conception de méthodes heuristiques pour un problème d'optimisation. Ainsi les métaheuristiques sont adaptables et applicables à une large classe de problèmes. Elles sont représentées essentiellement par (cf. Annexe 1) :

• les méthodes de voisinage comme le recuit simulé et la recherche tabou ;

• les algorithmes évolutifs comme les Algorithmes Génétiques et les stratégies d'évolution.

Grâce à ces métaheuristiques, on peut proposer aujourd'hui des solutions approchées pour des problèmes d'optimisation classiques de plus grande taille et pour de très nombreuses applications qu'il était impossible de traiter auparavant.

2.3.2 Le fonctionnement des Algorithmes Génétiques

Les Algorithmes Génétiques (aussi appelés AG par la suite) sont une méthode métaheuristique d’algorithmes évolutifs. Ces algorithmes sont basés sur le principe du processus d'évolution naturelle et doivent leur nom à l'analogie avec les mécanismes d'évolution des espèces vivantes. Les AG sont ainsi un instrument numérique pour la recherche de l’optimum d’une fonction réelle. Telle fonction est appelée fonction objectif,

8

elle peut dépendre d’une ou plusieurs variables (jusqu’à quelques dizaines) et peut présenter des contraintes linéaires ou non.

Les AG s’inspirent des lois de sélection naturelle des espèces vivantes : ils cherchent la solution au problème en la sélectionnant parmi un grand nombre de solutions candidates qu’ils combinent entre elles (de même que ce qui se passe dans la nature), à travers un processus évolutif selon lequel les solutions meilleures ont plus de probabilités de survivre.

Toujours en suivant l’analogie avec les processus de sélection naturelle, la terminologie utilisée pour les AG reflète en grandes lignes celle utilisée en biologie. Ainsi, dans le problème d’optimisation de la fonction objectif, les solutions candidates sont appelées chromosomes (ou individus) et sont composées par une chaîne de bits (0 – 1). Comme en biologie les individus sont identifiés par les chromosomes composés de chaînes de bases (Adénine-Guanine-Cytosine-Thymine), le chromosome des AG est aussi composé de gènes qui donnent le génotype et dont la décodification en nombres réels, appelés facteurs de contrôle, constitue le phénotype du chromosome. Les facteurs de contrôle représentent les valeurs des variables dont dépend la fonction objectif et permettent ainsi l’évaluation de la fonction en correspondance d’un chromosome déterminé. La valeur de la fonction objectif ainsi obtenue est appelée fitness du chromosome et donne une indication sur la qualité de la solution candidate codifiée dans le chromosome. La recherche de la solution de la part des AG comporte l’examen de générations successives de populations de chromosomes : en partant d’une population initiale composée d’individus générés de manière aléatoire, l’algorithme évolue avec l’objectif d’obtenir une amélioration progressive des générations en termes de fitness.

La méthodologie qui permet la création d’une génération d’individus à partir de la précédente est modelée sur le processus naturel de reproduction : un couple de parents est choisi parmi les individus de la population, leurs chromosomes sont croisés en créant ainsi deux enfants. Parmi les quatre individus en question (deux parents et deux enfants), deux seuls survivent, sur la base de critères liés à leur fitness. Le processus d’appariement, répété pour plusieurs couples de parents, ainsi que la mutation génétique (elle aussi inspirée de l’évolution naturelle) donnent lieu à une nouvelle population (vraisemblablement meilleure en termes de fitness) qui sera à la base de la création de la génération suivante, jusqu’à ce qu’un critère de fin soit satisfait.

Le champ potentiel d’application des AG est vaste. En effet, grâce à certaines propriétés intrinsèques, les AG permettent de résoudre efficacement des problèmes difficiles à traiter par des méthodes classiques d’optimisation :

• Un premier avantage important par rapport aux méthodes classiques consiste en ce que les AG ne sont que peu sensibles au nombre de variables en jeu, contrairement, par exemple, à la méthode numérique du gradient, où le temps de calcul et l’imprécision augmentent rapidement avec le nombre de variables ;

• Ensuite, comme les AG ne présupposent aucune linéarité du problème, ils peuvent traiter des problèmes où il existe une ou plusieurs non linéarités, éventuellement sous forme de contrainte ;

9

• Enfin, autre avantage par rapport aux méthodes classiques, les AG basent leur connaissance du problème uniquement sur la fonction objectif, contrairement à d’autres méthodes qui nécessitent d’autres informations, telles les dérivés de la fonction. Les AG peuvent ainsi traiter des fonctions discontinues ou bien données par points.

2.3.3 Applications pratiques des Algorithmes Génétiques

Les applications des AG sont multiples : optimisation de fonctions numériques difficiles (discontinues, multimodales, bruitées…), traitement d’image (alignement de photos satellites, reconnaissance de suspects…), optimisation d’emplois du temps, optimisation de design, contrôle de systèmes industriels, apprentissage des réseaux de neurones, etc.

Les AG peuvent être utilisés pour contrôler un système évoluant dans le temps (chaîne de production, centrale nucléaire…) car la population peut s’adapter à des conditions changeantes. En particulier, ils supportent bien l’existence de bruit dans la fonction à optimiser. Ils peuvent aussi servir à déterminer la configuration d’énergie minimale d’une molécule ou à modéliser le comportement animal.

Les AG sont également utilisés pour optimiser des réseaux (câbles, fibres optiques, mais aussi eau, gaz…), des circuits, des antennes.

Enfin, la NASA a utilisé ce genre d'algorithme dans la conception du robot de la mission Mars PathFinderiii .

2.4 La définition du problème

La problématique générale définie en introduction est que, les sociétés d’assurances Vie cherchant à évaluer une stratégie optimale pour investir leurs actifs sous les différentes contraintes, les modèles d’allocation stratégique d’actifs en sont de plus en plus complets et complexes.

Une des complexités principales est la simulation stochastique des comportements et des rendements futurs des actifs financiers : une analyse statistique nécessitant la simulation de 1000 à 10000 histoires différentes, les temps de calcul en sont d’autant plus amplifiés.

Ainsi, le problème que nous avons décidé de traiter est une optimisation multi-critères de l’allocation stratégique d’actifs sous contraintes réglementaires (et économiques) de solvabilité. Un des apports principaux de cette étude consiste en la prise en compte de critères à la fois techniques (augmentation de la richesse de l’assureur) et pratiques (le temps de calcul).

De façon plus détaillée, le problème est le suivant : déterminer quelle est l’allocation cible (à un horizon donné) d’actifs (ou l’ensemble d’allocations) qui maximise l’augmentation de richesse de l’assureur tout en minimisant les cas d’insolvabilité (sur une mesure de quantile obtenue sur un nombre de simulations donné de rendement des actifs et du taux servi) et le temps de calcul.

10

3 LE MODELE IMPLEMENTE

3.1 Principe général

La complexité du modèle rend nécessaire une présentation structurée, fondée sur la structure même du modèle. Ainsi, les trois modules principaux du modèle seront présentés l’un après l’autre, selon une approche chronologique.

Ces trois modules sont les suivants :

1. le générateur stochastique de scénarios ;

2. le moteur de calcul qui reproduit le fonctionnement de l’assurance Vie ;

3. le module d’optimisation qui classe l’ensemble des allocations cibles.

Ils sont organisés suivant une architecture classique de gestion actif passif de société d’assurance Vie :

Moteur des

interactions

actif/passif

Générateur

de flux d’actif

Générateur

de scénariosGénérateur

de flux de passif

Moteur des

interactions

actif/passif

Générateur

de flux d’actif

Générateur

de flux de passif

Moteur des

interactions

actif/passif

Générateur

de flux d’actif

Générateur

de flux de passif

Moteur des

calculs

d’assurance vie

Générateur

de flux d’actif

Générateur

de flux de passif

Optimisation

Moteur des

interactions

actif/passif

Générateur

de flux d’actif

Générateur

de scénariosGénérateur

de flux de passif

Moteur des

interactions

actif/passif

Générateur

de flux d’actif

Générateur

de flux de passif

Moteur des

interactions

actif/passif

Générateur

de flux d’actif

Générateur

de flux de passif

Moteur des

calculs

d’assurance vie

Générateur

de flux d’actif

Générateur

de flux de passif

Optimisation

Figure 3-1

11

3.2 Le générateur stochastique de scénarios

Le générateur de processus stochastiques simule, pour chaque année de projection et pour chaque trajectoire stochastique :

• le taux court ;

• le spread taux court / taux long ;

• l’indice du marché actions ;

• les sauts liés au risque de crédit.

Le générateur de processus stochastiques a comme paramètre le nombre de trajectoires générées. Nous considérons que 10000 trajectoires constituent une bonne base statistique, compte tenu des délais de simulation et du niveau de précision souhaité.

Les processus stochastiques ne constituant pas le cœur du problème, des modèles classiques ont été retenus dans les simulations, avec des calibrages également classiques (obtenus sur l’historique 1994-2004). Ainsi :

• Le taux court a été modélisé par un modèle de Cox, Ingersoll, Ross, avec un retour à une moyenne de 3.5% ;

• Le taux long à été modélisé en ajoutant un spread au taux court. Ce spread est modélisé par un modèle de Heath, Jarrow et Morton, avec une inversion du signe (en moyenne) pour un taux court de 6.2% ;

• L’indice du marché actions a été simulé à partir d’un processus de type Garch (1, 1) où moyenne et volatilité ont été déterminées forfaitairement, respectivement à 7% et 25% ;

• Les sauts liés au risque de crédit ont été modélisés en marge d’un processus classique de diffusion.

Cependant, compte tenu des arbitrages pouvant être effectués dans le calibrage (surtout sur la durée de l’historique, mais aussi sur le traitement des données manquantes et des données aberrantes), nous soulignons l’importance d’effectuer des tests de sensibilité à ces calibrages (par exemple sur la valeur moyenne de ‘retour’ du modèle de Cox, Ingersoll, Ross).

3.3 Le moteur de calcul

De manière détaillée, le moteur de calcul comprend :

• les modules qui transforment les processus stochastiques en flux d’actifs et de passif :

12

o calcul de la courbe des taux, des indices des classes d’actifs pour l’actif (indice du marché actions, OPCVM obligataires...) ;

o calcul du taux servi et du choc éventuel sur prestations ou primes pour le passif ;

• le moteur des calculs d’assurance pour l’année :

o détermination des mouvements sur l’actif à partir de règles prédéfinies ;

o calcul du résultat et détermination du bilan en fin d’année.

3.3.1 Les classes d’actif

Cinq classes d’actif « génériques » ont été définies :

• ‘Obligations TF’ : titres relevant de l’art. R.332-19 à revenus fixes ;

• ‘Obligations TV’ : titres relevant de l’art. R.332-19 à revenus variables ;

• ‘OPCVM obligataire’ : titres relevant de l’art. R.332-20 à revenus variables indexés sur les taux d’intérêt à long terme avec gestion du risque de crédit ;

• ‘OPCVM actions’ : titres relevant de l’art. R.332-20 à revenus variables indexés sur l’évolution des marchés actions ;

• ‘OPCVM monétaire’ : titres relevant de l’art. R.332-20 à revenus variables indexés sur les taux d’intérêt à court terme.

3.3.2 Le passif

Le passif est traité globalement sur l’ensemble d’un portefeuille général de contrats d’épargne avec participation uniforme modélisée par l’intermédiaire d’un taux servi unique.

L’objectif de la modélisation du passif est de permettre de traduire le plus fidèlement possible la réalité de l’activité ainsi que les mécanismes de l’assurance Vie, tout en étant simplifiée au maximum afin de ne pas alourdir les calculs.

Dans les faits, le modèle prend comme base de calcul les résultats de la simulation d’un passif déjà projeté. Les données ainsi récupérées permettent de paramétrer deux grandes catégories de flux :

• les flux qui sont calculés à partir de ratios déduits des résultats de modélisation :

o décès ;

o rachats ;

13

o frais d’acquisition ;

o frais de gestion ;

o prélèvements sur primes ;

o prélèvements sur encours ;

• les flux qui peuvent subir des chocs par la suite, du fait des interactions actif/passif :

o primes brutes ;

o prestations.

Les coefficients de choc appliqués aux primes et aux prestations, et liés au différentiel entre le taux servi et le niveau des taux, sont des coefficients multiplicatifs intervenant de manière non linéaire à partir d’un seuil fixé de ce différentiel.

3.3.3 Interactions actif / passif

Les interactions actif / passif se font par le moyen du taux servi brut : en amont, ce taux est calculé à partir, entre autres, des rendements des actifs ; en aval, le taux servi rentre dans le calcul des prestations et primes choquées.

La fonction de calcul du taux servi brut peut être introduite comme une fonction dépendant de plusieurs indices micro et macroéconomiques, tels que le taux servi lui-même (auto - régression), les indices boursiers et les taux d’intérêt du marché.

Les autres interactions actif / passif sont prises en compte dans la cinématique du modèle : il s’agit notamment des chocs sur les primes brutes et sur les prestations, déjà évoqués.

3.3.4 La mécanique du modèle

Au-delà d’une mécanique classique d’assurance Vie, le modèle prévoit les règles spécifiques suivantes :

• Dotation et reprise à la Provision pour Participation aux Bénéfices. La dotation à la PPB est composée des plus-values réalisées sur les titres relevant de l’article R.332-20 du Code des Assurances ainsi que des reprises de PRE. La part des plus-values réalisées destinée à servir le taux commercial aux contrats est reprise à la PPB.

• Investissement/désinvestissement : en cas de flux de trésorerie positif, l’investissement se fait dans un premier temps sur la classe monétaire, la ventilation sur l’ensemble des classes étant gérée lors du rebalancement. En cas de flux de trésorerie négatif, le désinvestissement se fait dans l’ordre, de la classe la plus liquide (monétaire) à la moins liquide (obligations à taux fixe).

14

• Rebalancement du portefeuille : le rebalancement se fait en début d’exercice et est réalisé de manière à maintenir constante la proportion de chaque classe d’actif en valeur de marché et à ramener chaque année la structure en valeur de marché de l’allocation à celle de l’allocation cible.

• Réalisation des plus-values latentes : l’hypothèse de réalisation annuelle des plus-values (et non des moins-values) des titres relevant de l’article R.332-20 du Code des Assurances est constante et exprimée en fonction de la valeur comptable des titres.

3.4 Le module d’optimisation

Ce module traite les résultats d’assurance de chaque trajectoire stochastique pour en sortir des indicateurs statistiques par le comptage des trajectoires « mauvaises » au sens du critère d’optimisation (c'est-à-dire, comptage des trajectoires où au moins une année est mauvaise).

3.4.1 Méthodologie et critères d’optimisation

L’objectif du processus d’optimisation est de déterminer l’allocation d’actif qui maximise la fonction objectif (richesse générée par les capitaux propres pondérée par des mesures de solvabilité) sous contrainte de rémunérer les contrats au taux modélisé.

La principale difficulté réside dans la détermination de la fonction objectif, car la richesse générée par l’activité d’assurance Vie est dispersée sur différents postes comptables (capitaux propres, PPB...) et extra-comptables (plus-values latentes). La détermination d’une allocation optimale nécessite de pouvoir capter la richesse générée dans sa globalité.

Le fait qu’il existe plusieurs critères (à la fois de rentabilité des fonds propres, de couverture des engagements réglementés et de la marge de solvabilité) pose un problème théorique assez important dans le cadre de la mise en œuvre d’un processus d’optimisation (cf. Annexe 2).

En pratique, nous avons recherché l’allocation optimale avec un objectif de couverture des engagements (C5) et de la marge de solvabilité (C6) en réalisant 100% des plus-values sur les titres relevant de l’article R.332-20 du Code des Assurances afin de remonter toute la richesse dans les capitaux propres via le résultat. Cette mécanique permet de capter toute la richesse générée au travers des critères d’optimisation retenus.

3.4.2 Fonctionnement du module d’optimisation

Nous décrivons le fonctionnement du module d’optimisation avec le support de la figure ci-dessous :

15

Module d’optimisationDéfinition

hypothèses &

paramètres

Génér

ation 1

Génér

ation

2

Module stochastique

Module stochastique

Module stochastique

Module stochastiqueModule stochastique

Allocation cible 1

Allocation 2

Allocation k

Allocation N

Allocations

Classées

Opérateurs Génétiques

(sélection, croisement, mutation, …)

Module d’optimisationDéfinition

hypothèses &

paramètres

Génér

ation 1

Génér

ation

2

Module stochastique

Module stochastique

Module stochastique

Module stochastiqueModule stochastique

Allocation cible 1

Allocation 2

Allocation k

Allocation N

Allocations

Classées

Opérateurs Génétiques

(sélection, croisement, mutation, …)

Figure 3-2

• Les hypothèses et paramètres définissent les caractéristiques du module d’optimisation (nombre de générations, d’allocations, de gènes et de simulations, en plus des paramètres plus particuliers des Algorithmes Génétiques).

• Une fois le module d’optimisation construit, la première génération d’allocations est générée par tirage aléatoire sur les N allocations.

• Ensuite, chaque allocation est testée dans le module stochastique décrit auparavant. En sortie, chaque allocation est notée en fonction des critères de solvabilité décrits.

• La population d’allocations est ainsi classée, la note la plus élevée correspondant à la meilleure allocation.

• La population d’allocations classées est traitée par les opérateurs génétiques, de manière à générer une nouvelle population d’allocations à partir de la précédente (« population d’allocations filles »), meilleure au sens des critères d’optimisation.

• La dernière des étapes décrites ci-dessus conduit à la création de ce qu’on appelle la génération d’allocations 2, qui n’est donc plus générée aléatoirement, mais dans un souci d’amélioration de la population d’allocations.

16

Allocations

Classées

RésultatsModule d’optimisationDéfinition

hypothèses &

paramètres

Génér

ation 1

Génér

ation

2

Génér

atio

n 3

Génér

atio

n g

Génér

ation

G

Module stochastique

Module stochastique

Module stochastique

Module stochastiqueModule stochastique

Allocation cible 1

Allocation 2

Allocation k

Allocation N

Opérateurs Génétiques

(sélection, croisement, mutation, …)

Allocations

Classées

Allocations

Classées

RésultatsModule d’optimisationDéfinition

hypothèses &

paramètres

Génér

ation 1

Génér

ation

2

Génér

atio

n 3

Génér

atio

n g

Génér

ation

G

Module stochastique

Module stochastique

Module stochastique

Module stochastiqueModule stochastique

Allocation cible 1

Allocation 2

Allocation k

Allocation N

Opérateurs Génétiques

(sélection, croisement, mutation, …)

RésultatsModule d’optimisationDéfinition

hypothèses &

paramètresRésultatsModule d’optimisation

Définition

hypothèses &

paramètres

Génér

ation 1

Génér

ation

2

Génér

atio

n 3

Génér

atio

n g

Génér

ation

G

Génér

atio

n 3

Génér

atio

n g

Génér

ation

G

Module stochastique

Module stochastique

Module stochastique

Module stochastiqueModule stochastique

Allocation cible 1

Allocation 2

Allocation k

Allocation N

Opérateurs Génétiques

(sélection, croisement, mutation, …)

Figure 3-3

• De la génération 2 on passe à la génération 3 par les mêmes opérateurs génétiques, et ainsi de suite jusqu’à la dernière génération. Le modèle a été testé (voir paragraphe suivant) et montre une convergence des résultats après une quinzaine de générations. Nous le faisons tourner sur 20 (G dans la figure) générations d’allocations.

Sans rentrer dans la problématique spécifique du paramétrage des AG, il est nécessaire à la compréhension des paragraphes suivants de mentionner les ordres de grandeurs en termes d’individus testés et de générations (en réalité, le paramétrage des AG concerne aussi des sujets plus techniques comme le choix des opérateurs génétiques).

L’AG utilisé est paramétré pour tester 200 individus (ou chromosomes, ou allocations dans le cas spécifique) pendant 20 générations, soit 4000 individus au total. Donc, sans aborder la problématique du temps de calcul, qui est désormais trop liée aux ordinateurs utilisés et à leur évolution, on peut simplement affirmer que l’AG utilisé comporte un temps de calcul d’environ 4000 individus (soit 4000 fois le temps de calcul d’un individu), même si certaines astuces (mentionnées en conclusion) peuvent le faire baisser. Le paragraphe suivant aborde entre autres l’apport des AG à la réduction du temps de calcul (et une comparaison avec des méthodes plus classiques d’optimisation).

17

4 VALIDATION ET CAS PRATIQUE

L’approche par Algorithmes Génétiques dans la détermination de l’allocation cible d’actifs maximisant l’augmentation de richesse de l’assureur tout en minimisant les cas d’insolvabilité (et le temps de calcul) est une approche novatrice et un exemple explicite des apports possibles de l’intelligence artificielle au monde de l’actuariat.

Le défaut majeur de cette approche est l’impossibilité de démontrer les résultats des Algorithmes Génétiques (on ne peut pas démontrer rigoureusement que le résultat obtenu est le maximum global de la fonction objectif, et des recherches sont en cours pour établir s’il est théoriquement impossible ou non de démontrer ce résultat).

Ainsi, les résultats principaux de cette étude consistent en :

• La validation de la consistance de cette approche ;

• L’apport de l’AG en termes de rapidité de solution du problème.

4.1 Validation de l’approche

La validation d’une méthode mathématique consiste souvent en la comparaison de ses résultats avec ceux obtenus par une méthode fiable et connue. Cette méthode est, dans le cas des problèmes d’optimisation, la solution analytique, si elle existe.

Dans cette étude, il aurait été trop onéreux de poursuivre un tel processus, compte tenu de la complexité de la fonction objectif qui comporte jusqu’à 20 itérations de fonctions non linéaires.

La méthode de validation retenue consiste en la comparaison des résultats de l’approche par AG avec les résultats observés en deux situations différentes :

• Déformation du problème par la déformation des processus stochastiques, de telle sorte qu’une seule classe d’actifs est ‘intéressante’ : dans ce cas, le maximum de la fonction objectif est connu et correspond à une allocation d’actifs à 100% en la classe ‘intéressante’ ;

• Simplification du problème, de telle sorte que la fonction objectif a pu être calculée en tout point de l’espace de définition : un simple algorithme numérique permet ensuite d’en déterminer le maximum.

18

4.1.1 Validation par déformation du problème

Afin de créer un problème dont la solution est connue a priori, il a été établi un jeu de paramétrage des processus stochastiques dans lequel une seule classe (ici, la classe ‘OPCVM monétaire’) possédait les meilleures qualités, son rendement étant :

1. Certain ;

2. Meilleur par rapport aux rendements moyens des autres classes ;

3. Assez élevé pour assurer l’absence de problèmes éventuels de solvabilité.

Les deux graphiques suivants montrent respectivement :

• La convergence de la fonction objectif : génération après génération (en abscisses), le meilleur individu (ligne pleine) et le moins bon (pointillé) convergent vers une valeur normalisée de la fonction objectif (en ordonnées) :

Convergence de l'AG

0

0.2

0.4

0.6

0.8

1

1.2

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Générations

Fon

ctio

n ob

ject

if

Moins bon Meilleur

Figure 4-1

Par ailleurs, la courbe du moins bon individu par génération (et son minimum relatif à la génération 8) permet de remarquer une des caractéristiques propres aux AG, soit une tendance à explorer au mieux l’espace de définition de la fonction objectif, essentiellement pour sortir d’un éventuel maximum relatif de la fonction même.

• La composition de l’allocation cible (en ordonnées, en pourcentage) du meilleur individu au fil des générations des AG (en abscisses) :

19

Evolution des allocations

0%

10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Générations

Obligations TF Obligations TV OPCVM obligataire OPCVM actions OPCVM monétaire

Figure 4-2

On remarque que la classe ‘OPCVM monétaire’ est bien choisie à 100% au bout de la 11ème génération par le meilleur individu de la population, le moins bon montrant une bonne convergence vers la 15ème génération.

4.1.2 Validation par simplification du problème

Ici, il ne s’agit plus de créer un problème dont la solution est connue, mais de réduire le nombre de variables afin de rendre possible le calcul de toutes les solutions, dont la meilleure.

La réduction du nombre de variables a été obtenue en réduisant le nombre de classes d’actifs de 5 à 2 (les classes ‘Obligations TF’ et ‘Obligations TV’ ont été retenues) : avec un pas de discrétisation de 1%, le nombre d’allocations possibles a été ainsi réduit d’environ 108 à 102.

Les deux graphiques suivants montrent respectivement :

• La valeur normalisée de la fonction objectif (en ordonnées) pour l’ensemble des allocations possibles (de l’allocation 100% ‘Obligations TF’ à gauche à l’allocation 100% ‘Obligations TV’ à droite) :

20

Valeur fonction objectif

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

5% 10%

15%

20%

25%

30%

35%

40%

45%

50%

55%

60%

65%

70%

75%

80%

85%

90%

95%

100%

Pourcentage d'Obligations TV

Figure 4-3

• La convergence de la fonction objectif : génération après génération (en abscisses), le meilleur individu (ligne pleine) et le moins bon (pointillé) convergent vers la valeur normalisée de la fonction objectif (en ordonnées) :

Convergence de l'AG

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Générations

Fon

ctio

n ob

ject

if

Moins bon Meilleur

Figure 4-4

On remarque que la meilleure allocation (composée à 26% d’Obligations TV et 74% d’Obligations TF) est déterminée au bout de la 5ème génération pour le meilleur individu, la convergence étant atteinte après 14 générations pour le moins bon. Dans cette situation, l’AG a trouvé la solution plus rapidement que dans l’exemple précédent, car le nombre d’allocations possibles était inférieur.

21

4.2 L’apport des Algorithmes Génétiques

Dans les deux situations ‘artificielles’ du paragraphe précédent, les Algorithmes Génétiques ont trouvé le maximum absolu. Cela ne signifie et n’implique pas que les AG trouvent toujours ce maximum, mais cela permet de fixer des ordres de grandeur en termes d’efficacité des AG.

En effet, dans le cas du ‘problème simplifié’, nous avons remarqué que les solutions possibles étaient 100. L’AG utilisé testait 200 individus par génération, ce qui implique qu’environ 1000 individus ont été testés avant de trouver le bon. Cet exemple montre que les AG perdent leur efficacité quand le problème d’optimisation est simple (et la réduction des individus testés par génération n’aurait pas pu assez augmenter son efficacité car il existe un effet de seuil minimum pour ce paramètre).

Par contre, dans la première situation du ‘problème déformé’, plus proche du problème réel en terme de nombre possible d’allocations, les AG ont montré toute leur efficacité : en effet, les allocations possibles étaient ici de l’ordre de 108 (soit 4 variables indépendantes sur 100 pas de discrétisation)iv, les AG ont trouvé la solution après en avoir testé 2200 (soit 200 individus sur 11 générations), soit un rapport d’efficacité (ou de réduction du temps de calcul) d’environ 5*104. Cela permet, en temps de calcul, de passer d’un ordre de grandeur de la journée à la seconde, ou du mois à l’heure, suivant les autres facteurs influant sur le temps de calcul (vitesse des machines, horizon de projection, …).

22

5 CONCLUSIONS

La première inspiration et le moteur de cette étude ont été la conviction que la pluridisciplinarité et le partage d’expériences et connaissances entre des domaines différents du savoir sont un élément essentiel d’enrichissement de ce savoir même, et plus particulièrement de l’actuariat.

Par conséquent, la conclusion de cet article n’est pas seulement la proposition de poursuivre la voie de l’utilisation des Algorithmes Génétiques dans l’Allocation stratégique d’actifs sous contraintes de solvabilité (dont les résultats seront d’autant plus appréciés que des expériences s’accumuleront sur le sujet), mais aussi l’incitation pour les actuaires à rechercher cette pluridisciplinarité, source primaire d’innovation.

Dans cet esprit nous citons d’autres interactions possibles de l’actuariat avec d’autres domaines des mathématiques et des sciences :

• L’utilisation des réseaux de neurones dans la tarification automobile, ou dans la notation du risque de crédit ;

• L’utilisation des Algorithmes Génétiques et des réseaux de neurones, déjà utilisés dans la détection des fraudes sur les cartes bleues, dans la détection des fraudes en Assurance santé, par exemple ;

• L’utilisation des opérateurs hamiltoniens si chers à la mécanique quantique, ou de la logique ‘fuzzy’ (aujourd’hui employée dans la conception des machines à laver) dans le calcul stochastique des provisions techniques.

En ce qui concerne plus humblement le sujet de cet article, des améliorations ont déjà été envisagées ou devraient bientôt l’être :

• Le passage d’une allocation stratégique statique à une allocation dynamique, comportant d’autant plus de variables que de périodes de rebalancement de l’allocation ;

• Les synergies dans les interactions entre Algorithmes Génétiques et trajectoires stochastiques : en effet, un modèle appelé ‘goccia a goccia’ (goutte à goutte en italien) permet de ne pas tester des individus déjà testés par l’algorithme dans des générations précédentes, ce qui est extrêmement important quand le nombre de trajectoires stochastiques est élevé ;

• L’utilisation de la métaheuristique appelée du ‘recuit simulé’ à la place ou en aide des Algorithmes Génétiques.

Enfin, la plus actuelle des améliorations concernera surement les évolutions liées au projet de Directive européenne ‘Solvabilité 2’, donc : au travail.

23

BIBLIOGRAPHIE

• V. Cerny, A thermodynamical approach to the travelling salesman problem: an

efficient simulated annealing algorithm, Journal of Optimization Theory and

Applications 45: 41-51, 1985

• L. Chambers, Ed. Practical Handbook of Genetic Algorithms: Applications Vol. I;

New Frontiers Vol. II, CRC Press, 1995

• J. Dreo, A. Petrowski, P. Siarry, E. Taillard, Métaheuristiques pour l'optimisation

difficile, Eyrolles, 2003

• L.J. Fogel, A.J. Owens, M.J. Walsh, Artificial intelligence through simulated

evolution, Wiley, New York, 1966

• A. Frachot, Théorie et pratique des instruments financiers, Ecole Polytecnique, 2001

• F. Glover, Future paths for integer programming and links to artificial intelligence.

Computers and Operations Research 13: 533-549, 1986

• D.E. Goldberg, Genetic Algorithms in Search, Optimisation, and Machine Learning,

Addison-Wesley Publ. Co., 1989

• J-K Hao, P. Galinier, M. Habib, Métaheuristiques pour l’optimisation combinatoire et

l’affectation sous contraintes, Revue d’Intelligence Artificielle, 1999

• J.H. Holland, Genetic Algorithms and the optimal allocation of trials, SIAM Journal

of Computing 2(2): 88-105, 1973

• S. Kirkpatrick, C.D. Gelatt, P.M. Vecchi, Optimization by simulated annealing,

Science 220: 671-680, 1983

• D. Lamberton, B. Lapeyre, Introduction au calcul stochastique appliqué à la finance,

éd. Ellipses, 1997

• F. Le Vallois, A. Tosetti, P. Palsky, B. Paris, Gestion actif passif en assurance Vie -

Réglementation, outils, méthodes, Economica, 2003

• M. Marseguerra, Introduction to Genetic Algorithms, Politecnico di Milano, 2002

• P. Pétauton, Théorie et pratique de l’assurance Vie, Dunod, 1996

24

ANNEXES

Annexe 1 : Les principales méthodes métaheuristiques

Méthodes de voisinage

Définition . Soit X l'ensemble des configurations admissibles d'un problème, on appelle voisinage toute application N : X → 2X. On appelle mécanisme d'exploration du voisinage toute procédure qui précise comment la recherche passe d'une configuration s ∈ X à une configuration s’ ∈ N(s). Une configuration s est un optimum local par rapport au voisinage N si f(s) ≤ f(s’) pour toute configuration s’ ∈ N(s).

Une méthode typique de voisinage débute avec une configuration initiale, et réalise ensuite un processus itératif qui consiste à remplacer la configuration courante par l'un de ses voisins en tenant compte de la fonction objectif. Ce processus s'arrête et retourne la meilleure configuration trouvée quand la condition d'arrêt est réalisée. Cette condition d'arrêt concerne généralement une limite pour le nombre d'itérations ou un objectif à réaliser. Un des avantages des méthodes de voisinage réside précisément dans la possibilité de contrôler le temps de calcul : la qualité de la solution trouvée tend à s'améliorer progressivement au cours du temps et l'utilisateur est libre d'arrêter l'exécution au moment qu'il aura choisi. Les méthodes de voisinage diffèrent essentiellement entre elles par le voisinage utilisé et la stratégie de parcours de ce voisinage. La recherche locale est un exemple simple de cette classe de méthodes.

Un voisinage peut être représenté à l'aide d'un graphe orienté : les nœuds sont les configurations et il existe un arc entre deux nœuds s et s’ si s’ est voisin de s. Une méthode de voisinage peut être vue comme un processus qui parcourt un chemin du graphe. A chaque nœud, le mécanisme de parcours choisit l'arc à parcourir essentiellement en fonction des valeurs des arcs partant du nœud courant. L'efficacité de la méthode dépend donc de deux choses : la structure du graphe déterminée par le voisinage et la façon de parcourir le graphe déterminée par le mécanisme de parcours du voisinage.

Les méthodes de voisinage les plus utilisées sont les suivantes :

• La méthode de recuit simulé, qui s'inspire du processus de recuit physique. Ce processus utilisé en métallurgie pour améliorer la qualité d'un solide cherche un état d'énergie minimale qui correspond à une structure stable du solide. En partant d'une haute température à laquelle le solide est devenu liquide, la phase de refroidissement conduit la matière liquide à retrouver sa forme solide par une diminution progressive de la température. Chaque température est maintenue jusqu'à ce que la matière trouve un équilibre thermodynamique. Quand la température tend vers zéro, seules les transitions d'un état à un état d'énergie plus faible sont possibles.

25

• La méthode tabou, qui a été développée par Glover et indépendamment par Hansen. Cette méthode fait appel à un ensemble de règles et de mécanismes généraux pour guider la recherche de manière intelligente au travers de l'espace des solutions. A l'inverse du recuit simulé qui génère de manière aléatoire une seule solution voisine s’ ∈ N(s) à chaque itération, tabou examine un échantillonnage de solutions de N(s) et retient la meilleure s’ même si s’ est plus mauvaise que s. La recherche tabou ne s'arrête donc pas au premier optimum trouvé.

Algorithmes évolutifs

Ces algorithmes sont basés sur le principe du processus d'évolution naturelle. Les algorithmes évolutifs doivent leur nom à l'analogie avec les mécanismes d'évolution des espèces vivantes. Un algorithme évolutif typique est composé de trois éléments essentiels :

1) une population constituée de plusieurs individus représentant des solutions potentielles (configurations) du problème donné ;

2) un mécanisme d'évaluation de l’adaptation de chaque individu de la population à l'égard de son environnement extérieur ;

3) un mécanisme d'évolution composé d'opérateurs permettant d'éliminer certains individus et de produire de nouveaux individus à partir des individus sélectionnés.

Du point de vue opérationnel, un algorithme évolutif typique débute avec une population initiale souvent générée aléatoirement et répète ensuite un cycle d'évolution composé de 3 étapes séquentielles :

1) mesurer l'adaptation (la qualité) de chaque individu de la population par le mécanisme d'évaluation,

2) sélectionner une partie des individus,

3) produire de nouveaux individus par des recombinaisons d'individus sélectionnés.

Ce processus se termine quand la condition d'arrêt est vérifiée, par exemple, quand un nombre maximum de cycles (générations) ou un nombre maximum d'évaluations est atteint. Selon l’analogie de l'évolution naturelle, la qualité des individus de la population devrait tendre à s'améliorer au fur et à mesure du processus.

La notion de mécanisme d'évolution est proche de celle du mécanisme de parcours du voisinage ; en particulier, on peut interpréter une itération d’une méthode de voisinage comme un mécanisme d'évolution portant sur une population réduite à un seul individu. Cependant, les opérateurs sont sensiblement différents. En effet, un algorithme évolutif comporte un ensemble d'opérateurs tels que la sélection, la mutation et éventuellement le croisement.

Les algorithmes évolutifs ont été appliqués à de très nombreux problèmes complexes et difficiles, y compris des problèmes d'optimisation (continue ou combinatoire).

26

D'une manière générale, on peut distinguer trois grandes familles d'algorithmes évolutifs :

• Les Algorithmes Génétiques

• La programmation évolutive, qui s'appuie sur un codage approprié du problème à résoudre et sur les opérations de mutation adaptées au codage. Le codage d'un tel algorithme dépend du problème à résoudre. Par exemple, pour un problème d'optimisation dans le domaine des réels, les individus d'une population seraient des vecteurs de réels. La programmation évolutive a été initialement introduite pour simuler l'intelligence qui est définie sur l'hypothèse suivante : la caractéristique principale de l'intelligence est la capacité d'adaptation comportementale d'un organisme à son environnement.

• Les stratégies d'évolution, qui sont conçues dès le départ pour résoudre des problèmes d'optimisation continus. Dans un algorithme de stratégie d’évolution, les individus sont des points (vecteurs de réels). Comme la programmation évolutive, les stratégies d’évolution n'utilisent que la mutation et la sélection. Les stratégies évolutives ont été adaptées à l'optimisation combinatoire et appliquées à de nombreux problèmes de référence et pratiques.

27

Annexe 2 : Problématique théorique des critères d’optimisation

Il existe deux catégories de méthodes cherchant à définir une optimisation multi-objectif :

• La première consiste à définir une mesure dans l’espace d’arrivée de l’optimisation : il s’agit de donner des « poids » différents à chaque objectif afin de les regrouper en un seul. L’avantage de cette méthode est sa simplicité, mais l’inconvénient est que l’interprétation des résultats est très difficile, comme le montre la figure ci-dessous :

Critère 1

Critère 2

1

2

3

4

5

6

Dans ce cas de figure, toutes les solutions proposées sur la ligne 1, par exemple, sont égales au sens de l’optimisation. De même pour les lignes 2, 3 et 4, au point que le point 5 est retenu meilleur que le point 6. Le problème est le suivant : le point 5 est-il vraiment préférable au point 6 dans la réalité ? La réponse à cette question est plus souvent négative que positive, car le point 6 présente l’avantage d’offrir un meilleur équilibre dans l’optimisation des deux critères à la fois.

• La seconde méthode consiste à faire une optimisation au sens de Pareto, c’est à dire à sélectionner tous les points qui ne sont pas « dominés » par d’autres solutions sur l’ensemble des critères, comme les points 3, 4, 5 et 6 dans la figure suivante :

28

Critère 1

Critère 2

1

2

3

4

5

6

L’avantage de cette méthode consiste à prendre en compte plusieurs « bonnes » solutions, mais a l’inconvénient de ne pas trancher de manière nette entre elles.

29

Notes

i Par métonymie, ‘allocation stratégique d’actifs’ désigne à la fois l’étude et le résultat de l’étude. ii Une heuristique est une méthode, conçue pour un problème d'optimisation donné, qui produit une solution non

nécessairement optimale lorsqu'on lui fournit une instance de ce problème. Une métaheuristique est définie de

manière similaire, mais à un niveau d'abstraction plus élevé (d’après E. Taillard). Le terme « métaheuristique » a

été initialement utilisé par F. Glover pour distinguer la méthode tabou des heuristiques spécifiques. iii Cf. par exemple : S. Farritor, S. Dubowsky : “A Genetic Planning Method and its Application to Planetary

Exploration” ASME Journal of Dynamic Systems, Measurement, and Control, Vol. 124, No. 4, pp. 698-701,

December 2002. iv Pour un calcul plus précis, on peut imaginer que les allocations possibles constituent un maillage avec des pas

de discrétisation de 1 d’un volume correspondant à un seizième d’hypersphère (à 4 dimensions) de rayon 100.

L’approximation de 108 correspond à prendre un hypercube (à 4 dimensions) de coté 100 au lieu de ce volume,

soit environ 4 fois le nombre des solutions possibles.