Conception interactive d’environnements urbains durables à base de résolution de contraintes - Thèse Informatique

Conception interactive d’environnements urbains durables à base de résolution de contraintes - thèse Informatique - Revenir à l'accueil

 

Thèses en informatique :

[TXT]

 APISENSE-a-distribut..> 04-Jan-2015 21:51  5.7M  

[TXT]

 APISENSE-terminaux-i..> 04-Jan-2015 21:53  5.4M  

[TXT]

 Addition-formulae-on..> 04-Jan-2015 21:26  3.0M  

[TXT]

 Classification-et-ca..> 04-Jan-2015 11:58  1.3M  

[TXT]

 Collaboration-de-tec..> 04-Jan-2015 21:27  2.4M  

[TXT]

 Contributions-a-la-v..> 04-Jan-2015 21:51  5.4M  

[TXT]

 Equilibrage-de-charg..> 04-Jan-2015 21:25  3.2M  

[TXT]

 Faciliter-le-develop..> 04-Jan-2015 21:56  4.4M  

[TXT]

 Factorisation-matric..> 04-Jan-2015 11:59  2.7M  

[TXT]

 Generation-automatiq..> 03-Jan-2015 22:04  2.6M  

[TXT]

 Gestion-de-la-variab..> 04-Jan-2015 21:55  4.8M  

[TXT]

 Idéalisation-d-asse..> 04-Jan-2015 11:57  2.1M  

[TXT]

 Inference-d-invarian..> 04-Jan-2015 11:58  1.5M  

[TXT]

 Integration-de l-inf..> 04-Jan-2015 21:25  3.4M  

[TXT]

 Interrogation-de-gra..> 03-Jan-2015 22:04  2.9M  

[TXT]

 La-gestion-du-trafic..> 03-Jan-2015 22:01  4.1M  

[TXT]

 Langage-de-mashup-Th..> 04-Jan-2015 21:24  4.1M  

[TXT]

 Les-logiciels-de-ges..> 03-Jan-2015 22:03  3.1M  

[TXT]

 Lh-rs-p2p-une-nouvel..> 04-Jan-2015 11:59  2.7M  

[TXT]

 Mesure-de-la-fragili..> 04-Jan-2015 21:24  3.8M  

[TXT]

 Meta-modelisation-du..> 04-Jan-2015 21:56  4.1M  

[TXT]

 Methode-de-classific..> 04-Jan-2015 11:58  1.3M  

[TXT]

 Methodes-sequentiell..> 04-Jan-2015 21:27  2.2M  

[TXT]

 Mise-en-oeuvre-appli..> 04-Jan-2015 21:54  4.4M  

[TXT]

 Modelisation-d-une-a..> 04-Jan-2015 21:53  5.0M  

[TXT]

 Modelisation-et-dete..> 04-Jan-2015 11:57  1.6M  

[TXT]

 Normalisation-et-App..> 03-Jan-2015 22:01  4.1M  

[TXT]

 Prise-en-compte-de-l..> 03-Jan-2015 22:04  2.8M  

[TXT]

 Qualification-system..> 04-Jan-2015 21:26  2.8M  

[TXT]

 Reconnaissance-de-co..> 03-Jan-2015 22:03  3.6M  

[TXT]

 Segmentation-supervi..> 04-Jan-2015 11:58  1.3M  

[TXT]

 Services-de-repartit..> 03-Jan-2015 21:59  4.7M  

[TXT]

 Techniques-visuelles..> 04-Jan-2015 21:27  2.7M  

[TXT]

 The-Emergence-of-Mul..> 03-Jan-2015 22:05  2.5M  

[TXT]

 Trigraphes-de-Berge-..> 03-Jan-2015 22:02  3.9M   

[TXT] Vers-une-capitalisat..> 03-Jan-2015 22:00 4.6M 

Congrès d'informatique :

[TXT]

 Application-Agnostic..> 03-Jan-2015 21:16  2.1M  

[TXT]

 Continuity-Editing-f..> 03-Jan-2015 17:35  4.0M  

[TXT]

 Double-WP-Vers-une-p..> 03-Jan-2015 17:36  4.0M  

[TXT]

 Effective-Reproducib..> 03-Jan-2015 21:18  2.0M  

[TXT]

 Enforcing-reuse-and-..> 03-Jan-2015 21:17  2.0M  

[TXT]

 Extracting-Bounded-s..> 03-Jan-2015 21:19  4.0M  

[TXT]

 Fingerprint-Quality-..> 03-Jan-2015 21:16  2.1M  

[TXT]

 GPU-Load-Balance-Gui..> 03-Jan-2015 21:18  4.0M  

[TXT]

 Minkowski-sum-of-pol..> 03-Jan-2015 21:17  2.0M  

[TXT]

 Quality-Assessment-o..> 03-Jan-2015 21:16  2.1M  

[TXT]

 Rester-statique-pour..> 03-Jan-2015 17:35  4.0M  

[TXT]

 The-Power-of-Polynom..> 03-Jan-2015 21:16  2.1M  
Cours d'informatique :

[TXT]

 Analyse-numerique-Co..> 03-Jan-2015 17:33  3.0M  

[TXT]

 Approches-m-k-firm-p..> 03-Jan-2015 17:27  3.7M  

[TXT]

 COURS-LA-CULTURE-INF..> 03-Jan-2015 17:25  3.8M  

[TXT]

 CRYPTANALYSE-DE-RSA-..> 03-Jan-2015 17:33  3.0M  

[TXT]

 Cours-Interconnexion..> 03-Jan-2015 17:34  3.0M  

[TXT]

 Cours-d-Analyse-et-C..> 03-Jan-2015 17:22  3.9M  

[TXT]

 Efficient-C++finite-..> 03-Jan-2015 17:30  3.5M  

[TXT]

 Efficient-C++finite-..> 03-Jan-2015 17:31  3.2M  

[TXT]

 Fondements-de-l-Info..> 03-Jan-2015 17:22  4.0M  

[TXT]

 INTRODUCTION-A-L-INF..> 03-Jan-2015 17:24  3.8M  

[TXT]

 Informatique-et-Ling..> 03-Jan-2015 17:24  3.8M  

[TXT]

 Initiation-a-l-infor..> 03-Jan-2015 17:26  3.8M  

[TXT]

 Intelligence-Artific..> 03-Jan-2015 15:16  2.5M  

[TXT]

 Introduction-a-l-ana..> 03-Jan-2015 17:27  3.7M  

[TXT]

 Introduction-a-la-ge..> 03-Jan-2015 17:26  3.8M  

[TXT]

 Le-routage-externe-B..> 03-Jan-2015 17:32  3.1M  

[TXT]

 Le-systeme-d-informa..> 03-Jan-2015 17:32  3.1M  

[TXT]

 Lecture1_Linear_SVM_..> 03-Jan-2015 14:57  2.4M  

[TXT]

 Lecture2_Linear_SVM_..> 03-Jan-2015 14:56  2.4M  

[TXT]

 Lecture3_Linear_SVM_..> 03-Jan-2015 14:56  2.4M  

[TXT]

 Lecture4_Kenrels_Fun..> 03-Jan-2015 14:55  2.4M  

[TXT]

 Lecture5_Kernel_SVM...> 03-Jan-2015 14:55  2.4M  

[TXT]

 Lecture6_SVDD.pdf.htm   03-Jan-2015 14:54  2.4M  

[TXT]

 Lecture7_Cross_Valid..> 03-Jan-2015 14:54  2.4M  

[TXT]

 Lecture8_Multi_Class..> 03-Jan-2015 14:57  2.4M  

[TXT]

 Lecture9_Multi_Kerne..> 03-Jan-2015 14:53  2.5M  

[TXT]

 Lecture10_Outilier_L..> 03-Jan-2015 14:53  2.5M  

[TXT]

 Les-reseaux-sans-fil..> 03-Jan-2015 15:17  2.5M  

[TXT]

 NooJ-pour-l-Intellig..> 03-Jan-2015 17:30  3.2M  

[TXT]

 Outils-Logiques-pour..> 03-Jan-2015 15:15  2.8M  

[TXT]

 Presentation-de-la-r..> 03-Jan-2015 17:33  3.0M  

[TXT]

 Projet-IP-SIG-Signal..> 03-Jan-2015 15:16  2.5M  

[TXT]

 Robotique-Mobile-PDF..> 03-Jan-2015 15:16  2.6M  

[TXT]

 Systeme-informatique..> 03-Jan-2015 15:17  2.5M  

[TXT]

 Systemes-Multi-Agent..> 03-Jan-2015 17:28  3.5M  

[TXT]

 Tutoriel-Android-TP-..> 03-Jan-2015 14:57  2.3M  

[TXT]

 Understanding-SVM-th..> 03-Jan-2015 14:57  2.4M  

[TXT]

 Une-histoire-de-la-m..> 03-Jan-2015 17:28  3.5M  

[TXT]

 Une-introduction-aux..> 03-Jan-2015 17:31  3.1M  

[TXT]

 Vers-une-signalisati..> 03-Jan-2015 17:25  3.8M 
Conception interactive d’environnements urbains durables `a base de r´esolution de contraintes Bruno Belin To cite this version: Bruno Belin. Conception interactive d’environnements urbains durables `a base de r´esolution de contraintes. Modeling and Simulation. Universit´e de Nantes, 2014. French. HAL Id: tel-01095433 https://hal.archives-ouvertes.fr/tel-01095433 Submitted on 15 Dec 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.Thèse de Doctorat Bruno BELIN Mémoire présenté en vue de l’obtention du grade de Docteur de l’Université de Nantes sous le label de l’Université de Nantes Angers Le Mans École doctorale : Sciences et technologies de l’information, et mathématiques Discipline : Informatique et applications, section CNU 27 Unité de recherche : Laboratoire d’informatique de Nantes-Atlantique (LINA) Soutenue le 27 novembre 2014 Conception interactive d’environnements urbains durables à base de résolution de contraintes JURY Rapporteurs : M. Gilles TROMBETTONI, Professeur des Universités, Université de Montpellier 2 M. Emmanuel PRADOS, Chargé de Recherche INRIA, HdR, INRIA Grenoble - Rhône-Alpes Examinateurs : M. Frédéric SAUBION, Professeur des Universités, Université d’Angers M. Etienne GAUDIN, Directeur Innovation, Groupe Bouygues M. Marc CHRISTIE, Maître de conférences (Co-encadrant), Université de Rennes 1 Mme Charlotte TRUCHET, Maître de conférences (Co-encadrante), Université de Nantes Directeur de thèse : M. Frédéric BENHAMOU, Professeur des Universités, Université de NantesRemerciements Recherche un jour, recherche toujours : commençons par remercier mes initiateurs à la Recherche, en somme les deux responsables de toute cette histoire : • Christophe JERMANN, Colin DE LA HIGUERA. Toujours là pour assurer le combat, prenons maintenant la direction du LINA : • Pierre COINTE, Anne-Françoise QUIN, Annie BOILOT, Jean-Paul SACHET ; • Élodie GUIDON, Floriane PIQUET, Christine BRUNET. Lorsque mon PC a bobo, ou que les imprimantes restent muettes, on les retrouve jusqu’à la cafette : • Damien VINTACHE, Jean-Yves LEBLIN, S@bine BEAURAIN. Tous au restaurant U, c’est le repère des doctorants U : • mes collègues doctorants actuels qui devraient bientôt me demander des conseils ; • les anciens qui m’ont donné des conseils d’anciens ; • et l’unique, la formidable, l’inoubliable Marie PELLEAU bien-sûr. Pause, là c’est l’heure du bon café, des conseils et recommandations en tout genre, des présentations scientifiques, des choses qui ne s’inventent pas tout seul : • tous mes collègues de l’équipe TASC ; • Éric LANGUENOU, Florian RICHOUX et Benoît DELAHAYE. Évoquons maintenant mes partenaires durables, ceux impliqués avec moi dans le projet de recherche SUSTAINS : • Élisabeth POINTAL et Frédéric VERNIER du LIMSI : Google Map, et c’est par là que tout commença ; • Julian JOSEPH de l’Université Rennes 1 : SOS C++, vous êtes toujours là ? • Valérie GACOGNE, Bernard COUTROT et Michel FANNI : trois mousquetaires des villes modernes ; • Erwan MAHÉ, Romain CAVAGNA, David KNOSSOW : les gars d’Artefacto qui font les plans les plus beaux (villes en 3D). Et pour finir, mes Boss de ces trois dernières années qui m’ont fait bosser, bosser et bosser : mais ça c’est normal pour un Boss, non ? Ils ont bien mérité une ligne dédiée : • Frédéric BENHAMOU ; • Charlotte TRUCHET ; • Marc CHRISTIE. Je remercie également mes rapporteurs qui ont accepté d’évaluer ce manuscrit et l’ensemble de mon jury qui me fait l’honneur de s’intéresser aux travaux de cette thèse. Et pour tous ceux que j’aurai oublié de citer, qui que vous soyez, un grand merci ! Un tout dernier mot pour me faire pardonner de mes absences répétées auprès de mes amis, de ma famille, de ma femme et mes trois filles adorées. 3Table des matières 1 Introduction 11 1.1 Contexte général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.2 Objectifs et contributions de cette thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.2.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.2.2 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3 Plan de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 I Contexte 17 2 Urbanisme 19 2.1 Qu’est-ce qu’une ville ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2 La ville perçue comme une entité vivante . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.3 De la ville à l’aire urbaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.4 L’urbanisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.5 Naissance de l’urbanisme moderne et applications pratiques . . . . . . . . . . . . . . . . 23 2.6 Conséquences des politiques successives . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.7 Théories urbaines après l’urbanisme moderne . . . . . . . . . . . . . . . . . . . . . . . . 25 2.8 Formes et structures de la ville contemporaine . . . . . . . . . . . . . . . . . . . . . . . . 27 2.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3 Développement durable 29 3.1 Enjeux d’un développement soutenable sur le long terme . . . . . . . . . . . . . . . . . . 29 3.2 Dimensions urbaines du développement durable . . . . . . . . . . . . . . . . . . . . . . . 30 3.3 Enjeux à l’export du savoir-faire français en matière de ville durable . . . . . . . . . . . . 34 3.4 La voiture au cœur d’une nouvelle révolution industrielle ? . . . . . . . . . . . . . . . . . 35 3.5 Utopies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.5.1 Une « Utopie Concrète » pour Paris . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.5.2 La « Ville Creuse » : un exemple de ville idéale . . . . . . . . . . . . . . . . . . . 38 3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4 Cadre méthodologique et problématique 43 4.1 Synthèse des éléments contextuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.1.1 Articulations entre urbanisme et développement durable . . . . . . . . . . . . . . 43 4.1.2 Un champ d’application moteur de la recherche théorique . . . . . . . . . . . . . 44 4.2 Le cadre méthodologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 4.2.1 Un carroyage symbolique régulier . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.2.2 L’îlot comme unité de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.2.3 Résolution optimale et résolution interactive . . . . . . . . . . . . . . . . . . . . . 48 4.2.4 Positionnement de la PPU par rapport aux plateformes de conception urbaine existantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 56 TABLE DES MATIÈRES 4.3 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.3.1 Proposer un modèle de pré-programmation urbaine . . . . . . . . . . . . . . . . . 49 4.3.2 Rechercher une bonne organisation spatiale de la ville à partir du modèle de PPU dans un contexte batch ou interactif . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.3.3 Imaginer une interaction avec l’utilisateur capable de maintenir la cohérence globale d’une solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.4 Méthode générale de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 II État de l’art 53 5 Problèmes d’optimisation combinatoire sous contraintes 55 5.1 Caractéristiques des problèmes combinatoires . . . . . . . . . . . . . . . . . . . . . . . . 56 5.1.1 Problème d’optimisation combinatoire . . . . . . . . . . . . . . . . . . . . . . . . 56 5.1.2 Complexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 5.1.3 Problèmes de satisfaction de contraintes . . . . . . . . . . . . . . . . . . . . . . . 58 5.1.4 Problèmes d’optimisation sous contraintes . . . . . . . . . . . . . . . . . . . . . . 59 5.1.5 Problèmes d’optimisation dynamique sous contraintes . . . . . . . . . . . . . . . 60 5.2 Résolution des problèmes d’optimisation combinatoire . . . . . . . . . . . . . . . . . . . 60 5.2.1 Panorama des méthodes complètes . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5.2.2 Panorama des méthodes incomplètes . . . . . . . . . . . . . . . . . . . . . . . . . 63 5.3 Discussion sur le choix d’une méthode de résolution . . . . . . . . . . . . . . . . . . . . 65 5.4 Programmation par contraintes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.4.1 Principes de la PPC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 5.4.2 Complément sur les contraintes . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 5.4.3 Résolution des DCSP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.4.4 Résolution des CSOP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.5 Heuristiques de construction (approchées) . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.5.1 Algorithmes gloutons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.5.2 Algorithmes gloutons aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 5.5.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 5.6 Métaheuristiques à base de voisinages . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 5.6.1 Généralités sur les métaheuristiques . . . . . . . . . . . . . . . . . . . . . . . . . 72 5.6.2 Métaheuristiques de voisinage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 5.6.3 Concepts communs aux métaheuristiques de RL . . . . . . . . . . . . . . . . . . 77 5.6.4 Méthodes de descente (Simple Improvement-based Local Search) . . . . . . . . . 80 5.6.5 Mécanismes d’intensification et de diversification . . . . . . . . . . . . . . . . . . 81 5.6.6 Recherche Locale Itérée (Iterated Local Search, ILS) . . . . . . . . . . . . . . . . 83 5.6.7 Recuit Simulé (Simulated Annealing, SA) . . . . . . . . . . . . . . . . . . . . . . 83 5.6.8 Recherche Tabou (Tabu Search, TS) . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.6.9 Adaptive Search (AS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.6.10 Autres métaheuristiques obtenues par recombinaison de méthodes simples . . . . . 89 5.6.11 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 5.7 Métaheuristiques parallèles (à base de voisinage) . . . . . . . . . . . . . . . . . . . . . . 90 5.7.1 Évaluation concurrente des voisins . . . . . . . . . . . . . . . . . . . . . . . . . . 91 5.7.2 Décomposition de domaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.7.3 Recherche multiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 5.7.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95TABLE DES MATIÈRES 7 5.8 Environnements logiciel et cadre générique . . . . . . . . . . . . . . . . . . . . . . . . . 95 5.8.1 Les origines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 5.8.2 Bibliothèques et frameworks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 6 Systèmes interactifs d’aide à la décision 99 6.1 Aide à la décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 6.1.1 Décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 6.1.2 Processus de décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 6.1.3 Aide à la décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 6.1.4 Systèmes Interactifs d’Aide à la décision . . . . . . . . . . . . . . . . . . . . . . 101 6.1.5 Classification des SIAD au niveau utilisateur . . . . . . . . . . . . . . . . . . . . 103 6.2 Résolution temps réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 6.2.1 Algorithme anytime . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 6.2.2 Méthodes de résolution adaptées au contexte de décision temps réel . . . . . . . . 106 6.2.3 Contribution du parallélisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 6.3 Principe de maintien de solution dans un système dynamique . . . . . . . . . . . . . . . . 106 6.3.1 Besoins utilisateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 6.3.2 Réparation de la solution précédente . . . . . . . . . . . . . . . . . . . . . . . . . 107 6.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 7 Modélisation urbaine 109 7.1 Représentations historiques de la ville . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 7.1.1 Les modèles d’économie spatiale . . . . . . . . . . . . . . . . . . . . . . . . . . 110 7.1.2 Les modèles de l’écologie urbaine . . . . . . . . . . . . . . . . . . . . . . . . . . 112 7.1.3 Les modèles d’interaction spatiale . . . . . . . . . . . . . . . . . . . . . . . . . . 113 7.2 Vers une approche systémique et individu-centrée . . . . . . . . . . . . . . . . . . . . . . 114 7.3 La modélisation LUTI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 7.4 Trois modèles urbains passés au crible . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 7.4.1 Le projet UrbanSim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 7.4.2 Le projet GeOpenSim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 7.4.3 CommunityViz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 7.5 Les problèmes de positionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 7.5.1 Cadre général d’un problème de positionnement . . . . . . . . . . . . . . . . . . 125 7.5.2 Problème d’affectation quadratique (Quadratic Assignation Problem, QAP) . . . . 125 7.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 III Contributions 129 8 Modèle 131 8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 8.2 Modèle urbain de pré-programmation durable . . . . . . . . . . . . . . . . . . . . . . . . 131 8.2.1 Modèle urbain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 8.3 Modèle de contrainte pour le problème d’aménagement urbain . . . . . . . . . . . . . . . 133 8.3.1 Représentation de la ville par une grille . . . . . . . . . . . . . . . . . . . . . . . 134 8.3.2 Contraintes générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 8.3.3 Contraintes spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 8.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1488 TABLE DES MATIÈRES 9 Résolution initiale basée sur Adaptive Search 149 9.1 Choix d’une méthode de résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 9.2 Configuration initiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 9.2.1 Initialisation aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 9.2.2 Initialisation gloutonne aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 9.3 Algorithme séquentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 9.3.1 Cache de données et calcul incrémental . . . . . . . . . . . . . . . . . . . . . . . 155 9.3.2 Liste des candidats bannis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 9.3.3 Mode multi-candidats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 9.3.4 Mode multi-permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 9.4 Version distribuée de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 9.4.1 Caractéristiques liées au fonctionnement de la version distribuée . . . . . . . . . . 162 9.4.2 Compléments intégrés au modèle . . . . . . . . . . . . . . . . . . . . . . . . . . 166 9.4.3 Protocoles distribués . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 9.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 10 Mode interactif 177 10.1 Principes retenus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 10.2 Présentation des composants impliqués dans l’interaction . . . . . . . . . . . . . . . . . . 178 10.2.1 Gestionnaire de messages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 10.2.2 Dispositif tactile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 10.2.3 Solveur interactif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 10.3 Gestion des scénarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 10.4 Paramétrage du comportement interactif . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 10.4.1 Comportement de saisie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 10.4.2 Administration distante du solveur . . . . . . . . . . . . . . . . . . . . . . . . . . 185 10.4.3 Mode de fonctionnement autonome . . . . . . . . . . . . . . . . . . . . . . . . . 186 10.4.4 Administration des composants graphiques de retour . . . . . . . . . . . . . . . . 186 10.4.5 Réglage du poids de chaque contrainte . . . . . . . . . . . . . . . . . . . . . . . . 187 10.4.6 Taille de chaque cellule . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 10.5 Manipulations directes sur la grille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 10.5.1 Déplacer une forme urbaine ou un ensemble de formes urbaines . . . . . . . . . . 187 10.5.2 Verrouiller ou déverrouiller des cellules à la demande . . . . . . . . . . . . . . . . 190 10.6 Retours visuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 10.6.1 Carte de chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 10.6.2 Historique d’évolution des coûts . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 10.7 Vidéo d’accompagnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 10.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 11 Expérimentations 193 11.1 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 11.1.1 Versions incrémentales de nos prototypes . . . . . . . . . . . . . . . . . . . . . . 194 11.1.2 Jeux de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 11.1.3 Paramètres de configuration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 11.1.4 Implémentation et déploiement . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 11.2 Tableau de bord . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 11.2.1 Mode opératoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 11.2.2 Variation des coûts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 11.2.3 Répartition des coûts par contrainte . . . . . . . . . . . . . . . . . . . . . . . . . 203 11.2.4 Répartition des temps de calcul par contrainte . . . . . . . . . . . . . . . . . . . . 203TABLE DES MATIÈRES 9 11.2.5 Paysage des gains lié à chaque candidat sélectionné . . . . . . . . . . . . . . . . . 204 11.2.6 Comparaison des performances entre différentes versions de l’algorithme de résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 11.3 Expérimentations liées à la résolution initiale . . . . . . . . . . . . . . . . . . . . . . . . 209 11.3.1 Comparaison entre les principales versions et modes de fonctionnement . . . . . . 209 11.3.2 Évaluation des protocoles 1 et 4 de la version distribuée . . . . . . . . . . . . . . 210 11.4 Retour des urbanistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 11.4.1 Évaluation des solutions initiales . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 11.4.2 Évaluation du mode interactif . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 11.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 IV Conclusion 217 12 Conclusion générale et perspectives 219 12.1 Conclusion générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 12.2 Perspectives de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2201 Introduction 1.1 Contexte général Depuis peu, les villes rassemblent la majorité de la population mondiale et ne cessent de se développer, en particulier dans les pays émergents. En même temps qu’elles absorbent les populations venant des campagnes, elles concentrent des difficultés qui peuvent être liées au prix des logements, aux embouteillages, à l’insuffisance ou à la vétusté des équipements publics, au niveau de bruit, à la pollution de l’air ou encore à l’insécurité, etc. Parallèlement, les villes ont subi des transformations importantes liées aux nouveaux modes de transport qui ont permis de repousser les distances pouvant être parcourues quotidiennement. Ceci se traduit par des citadins, de plus en plus nombreux, contraints de s’éloigner un peu plus loin, repoussant en même temps les limites des villes qui s’étalent sans fin. Mais les nouveaux moyens de transport ne sont pas les seuls responsables de la métamorphose des zones urbaines, les politiques successives de la ville et les nouveaux modes de vie y contribuent également pour une large part. Par exemple, le zoning strict insufflé par « La Charte d’Athènes » [55], une doctrine des années 40 élaborée par LE CORBUSIER1 qui prescrit un classement des grandes fonctions urbaines par catégories, a connu ses heures de gloire mais nous a légué un héritage qui est souvent encombrant, laissant pour compte des cités entières coupées du reste de la ville par des voies de communication devenues infranchissables. Indépendamment du bien être de ces habitants, nos modes de vie actuels laissent apparaître d’autres défis à l’échelle de la planète entière qui viendront s’ajouter aux difficultés auxquelles les villes sont déjà confrontées. Trop souvent détourné pour des intérêts opportunistes ou repoussé à plus tard, la mise en œuvre du développement durable tarde à s’encrer dans nos sociétés. Ses partisans nous mettent pourtant en garde face aux effets prévisibles du réchauffement climatique, de la montée du niveau des océans ou encore de l’appauvrissement de la biodiversité ou des ressources non renouvelables, etc. Les conséquences annoncées ont longtemps été contestées, la preuve scientifique n’ayant pas été apportée. Néanmoins, constatons ensemble que ces voix se font de plus en plus discrètes ces dernières années. Toujours plus éloigné de la campagne, l’Homme croit, à tort, pouvoir dominer la Nature et s’en abstraire. Il l’exploite sans trop se soucier des dégâts irréversibles qu’il cause en reportant sur les générations futures un fardeau qui impactera durablement leurs conditions de (sur)vies. La majorité des activités humaines s’opérant désormais dans les villes, leur adaptation représente un levier extraordinaire pour limiter ou lutter contre les effets à venir. Dans ce domaine, deux axes de travail 1Architecte urbaniste, de son vrai nom Charles-Édouart Jeanneret-Gris, né en 1887. Il s’intéresse notamment à l’industrialisation des bâtiments collectifs et à la fabrication standardisée d’équipements en série. Ses travaux prendront valeur de solution après la seconde guerre mondiale en France pour répondre à la crise du logement et reconstruire dans l’urgence. 1112 CHAPITRE 1. INTRODUCTION complémentaires sont envisageables : soit on intervient à l’occasion du renouvellement urbain, soit on intègre les concepts d’un développement durable dans les fondations des villes naissantes. Le renouvellement urbain s’opère sur le long terme. Néanmoins, des expérimentations sont déjà menées à l’échelle de quartiers labellisés « écoquartier ». Ce mouvement en plein développement est né en Allemagne et en Hollande avec quelques exemples pionniers en Autriche, en Grande Bretagne et dans les pays Scandinaves, et il a fini avec quelques décennies de retard par atteindre la France. Et bien que la création de villes nouvelles ne soit plus de mise dans nos pays déjà fortement urbanisés, on constate néanmoins dans des pays à fort développement, que des villes importantes peuvent apparaître en l’espace de quelques années seulement, ce phénomène allant perdurer sur plusieurs décennies. C’est le cas notamment de la Chine qui prévoit de créer l’équivalent de vingt nouvelles villes d’un million d’habitants chacune et par an jusqu’en 2020 pour y accueillir ses paysans qui désertent les campagnes [182]. La modélisation urbaine et l’optimisation combinatoire peuvent accompagner les décisions stratégiques qui engagent, chacune à son niveau, notre devenir collectif. La conception de villes nouvelles2 est par nature une tâche collaborative qui rassemble des urbanistes, des aménageurs et des décideurs autour d’une carte représentant un territoire à aménager. Cette tâche consiste à positionner sur la carte des éléments urbains correspondant aux centres, habitations, commerces, équipements publics, aux zones industrielles ou commerciales, etc. Mais pour cela, le nombre d’éléments urbains à positionner sur le territoire, tout comme leur répartition spatiale, nécessitent d’établir des règles complexes issues d’une vision systémique de la ville pour y intégrer les contraintes relatives à un développement durable avec une prise en compte simultanée de ses aspects sociaux, économiques et écologiques. Enfin, ces travaux doivent s’inscrire dans une réflexion interdisciplinaire pour se doter des compétences et des savoirs croisés en rapport avec la complexité de nos sociétés modernes. 1.2 Objectifs et contributions de cette thèse Face à la complexité intrinsèque liée aux agglomérations urbaines, nous cherchons à apporter des réponses concrètes circonscrites à des questions précises. Nous nous focalisons plus particulièrement sur la problématique de placement des éléments urbains à l’aide de techniques interactives et d’optimisation combinatoire. 1.2.1 Objectifs Cette thèse s’inscrit dans un projet de recherche national qui rassemble des urbanistes, des architectes, des experts du secteur de l’énergie et des équipes autour de l’optimisation combinatoire et de l’interaction homme-machine. Nous voulons donc exploiter au mieux cette interdisciplinarité pour mener à bien un travail collaboratif profitable à chacun, et qui puisse être utile. Notre travail consiste à réaliser un système interactif d’aide à la décision capable de répartir au mieux les différentes entités composant une programmation urbaine (habitat, industrie, équipement, commerces, etc.) sur un territoire vierge et délimité dans l’espace. Cet outil s’adresse aux urbanistes, aménageurs urbains et décideurs. Quelle que soit la catégorie d’utilisateur, le logiciel proposé doit être capable de l’assister dans cette tâche de conception de villes durables tout en l’informant des conséquences de ses choix. 1.2.2 Contributions Nos contributions portent sur la modélisation du problème d’aménagement urbain, la résolution initiale de ce problème y compris pour des instances de grande taille et la proposition d’un système permettant de maintenir la cohérence des solutions dans les étapes interactives. 2Bien qu’il ne s’agisse pas de la même échelle, nous envisageons la création d’un nouveau quartier d’une façon similaire à la création d’une nouvelle ville, en tenant compte en plus de l’influence que peuvent exercer les quartiers limitrophes existants sur la zone à aménager.1.3. PLAN DE LA THÈSE 13 Modélisation Dans un premier temps, nous analysons avec les urbanistes les principales règles urbaines et prenant en considération les supposés implicites passés sous silence de prime abord. Nous exprimons ensuite ces règles urbaines sous la forme de contraintes spatiales, chaque contrainte étant associée à une « fonction de coût » capable d’évaluer le niveau de violation des propriétés urbaines. Une description formelle de chaque contrainte est proposée. Un travail important consiste à exprimer chaque contrainte en vue d’une résolution efficace. Résolution initiale Dans un deuxième temps, notre problème d’aménagement urbain étant modélisé comme un problème d’optimisation, nous le résolvons par des techniques de recherche locale basées sur la méthode Adaptive Search. Il s’agit d’une méthode générique basée contraintes (Constraint-Based Local Search) capable de tirer parti de la structure du problème qui lui est confié pour diriger la recherche vers une solution optimale ou de bonne qualité en un temps raisonnable. Nous proposons également des heuristiques capables d’améliorer sensiblement les temps de calcul. Pour passer à l’échelle et travailler avec des villes réelles, différents protocoles sont élaborés pour décomposer le problème global et répartir les traitements d’optimisation sur une grille de calcul. Tous ces travaux permettent d’obtenir de façon automatique différentes propositions (solutions initiales optimisées) pour un même problème. Interaction avec les utilisateurs Notre système est destiné à être utilisé dans un contexte d’aide à la décision. Il doit assister les urbanistes, aménageurs et décideurs à établir des plans de villes durables, sans pour autant se substituer à eux. Il est donc fondamental qu’ils puissent interagir avec la solution en utilisant un dispositif tactile adapté. A ce stade, l’opérateur sélectionne une solution parmi différentes propositions pour l’ajuster à ses besoins et pour qu’elle puisse s’adapter automatiquement aux arbitrages opérés entre les différents acteurs impliqués dans le projet urbain. À chaque fois qu’un opérateur réalise une modification sur la ville, le système recalcule à la volée une bonne solution proche de la précédente sans remettre en cause les choix antérieurs imposés par les utilisateurs. En retour des modifications réalisées par les utilisateurs, des graphiques leurs sont également fournis (carte de température, évolution des coûts par contrainte) pour représenter les impacts de leurs choix. En lien avec ces différents travaux, nous avons également chercher à évaluer nos résultats suivant trois aspects complémentaires : • les temps pour une résolution initiale en comparant le mode séquentiel au mode distribué ; • la qualité des solutions produites automatiquement par la résolution initiale ; • la pertinence de l’interaction et la réactivité globale du système. Le premier aspect est réalisé par une série d’expérimentations alors que les deux aspects suivants s’appuient sur les retours des urbanistes impliqués dans le projet de recherche SUSTAINS. 1.3 Plan de la thèse Notre présentons dans cette section le plan de cette thèse organisée en trois parties. La première partie reprend les notions essentielles liées à l’urbanisme et au développement durable et se termine par une présentation de notre cadre méthodologique et de la problématique qui nous intéresse. La seconde partie dresse un état de l’art complet des problèmes d’optimisation combinatoire sous contraintes, des systèmes interactifs d’aide à la décision et de la modélisation urbaine. La troisième partie présente notre travail de modélisation, les techniques mises au point pour une résolution initiale basée sur Adaptive Search, le mode interactif et les différentes expérimentations réalisées. Tous ces éléments sont repris et illustrés dans la figure 1.1.14 CHAPITRE 1. INTRODUCTION FIGURE 1.1 – Organisation de la thèse. Partie I : Contexte Nous commençons par faire un inventaire des notions de base relatives à l’urbanisme en revisitant les transformations profondes et successives de nos sociétés. Nous définissons notamment ce qu’est une ville et un espace urbain avant d’aborder les différents courants qui ont traversés l’urbanisme et qui ont participés à la transformation des villes jusqu’à aujourd’hui. La notion de développement durable n’existe que depuis une vingtaine d’années et malgré cette jeunesse, elle a été utilisée dans bien des circonstances et on ne sait pas toujours très bien ce que revêt cette expression. Il nous semble donc important de revenir sur les enjeux d’un développement soutenable sur le long terme pour se focaliser ensuite sur les dimensions urbaines du développement durable. A ce stade, nous somme en mesure d’évaluer avec plus de précision ce que l’urbanisme peut apporter au développement durable. Nous présentons également les grandes lignes du projet de recherche SUSTAINS qui s’inscrit dans la conception de villes nouvelles durables à un stade très en amont du processus de planification. Compte tenu de ces précisions, nous pouvons i) fixer un cadre méthodologique qui s’articule autour d’une plateforme globale d’aide à la décision pour la conception d’environnements urbains durables et ii) dégager une problématique précise liée à cette thèse. Partie II : État de l’art Notre problème étant de nature combinatoire, nous identifions les propriétés relatives à ce type de problème et dressons un inventaire des principales méthodes de résolution capables de les adresser. Nous insistons plus particulièrement sur les métaheuristiques de recherche locale particulièrement adaptées à notre contexte. Pour aider les utilisateurs à prendre des décisions, nous décryptons les systèmes interactifs d’aide à la décision qui permettent de concevoir des systèmes temps réel capables de fournir des résultats dans un délai contrôlé. On y évalue également l’intérêt d’une approche de résolution anytime à même de prendre en compte nos exigences liées à l’interactivité. Enfin, on présente un état de l’art de la modélisation urbaine restreint à des sujets en lien avec notre1.3. PLAN DE LA THÈSE 15 thèse. Trois approches (UrbanSim, GeOpenSim, et CommunityViz) sont détaillées afin de positionner nos travaux dans le panorama de la recherche actuelle. En complément de ces modèles urbains, nous présentons également la famille des problèmes de positionnement et notamment le problème d’affectation quadratique qui offre des similitudes avec notre problématique, qui consiste à positionner au mieux les éléments urbains sur chaque îlot d’une ville. Partie III : Contributions Nous commençons par définir les différentes notions retenues pour représenter une pré-programmation urbaine, et en particulier : l’îlot, la centralité, la forme urbaine et l’intensité. En partant de ces notions, nous proposons un modèle de contraintes pour notre problème d’aménagement urbain. Cette étude fournit une description informelle associée à une description formelle pour chaque contrainte, ces contraintes pouvant être regroupées selon qu’elles sont générales ou spécifiques. Le problème d’aménagement urbain étant modéliser comme un problème d’optimisation, nous le ré- solvons par des techniques de recherche locale en réalisant une succession de permutations entre formes urbaines. L’outil proposé organise alors automatiquement les formes urbaines sur un territoire vierge et dé- limité dans l’espace. L’algorithme séquentiel basé sur Adaptive Search bénéficie d’heuristiques novatrices permettant d’améliorer les temps de calcul. Nous proposons également une version distribuée de l’algorithme efficace pour s’attaquer à des problèmes de grande taille. La seconde partie du processus de résolution est interactive. Après la génération d’une solution initiale par des procédures complètement automatiques, l’utilisateur peut reprendre le contrôle sur la solution par le biais de manipulations interactives qui sont décrites ici dans les moindres détails. Les trois composants impliqués dans l’interaction sont également présentés : dispositif tactile, solveur interactif et gestionnaire de messages asynchrones. Après avoir décrit notre méthodologie d’évaluation, le dernier chapitre fait état des expérimentations liées aux résolutions initiales. Dans ce cadre, on y reporte également les performances du mode distribué, le seul mode capable de s’attaquer efficacement à des villes de grande taille. Nous nous focalisons ensuite sur le retour des urbanistes qui ont pu évaluer la qualité des différentes solutions initiales produites sur Marne-La-Vallée. Nous fournissons également leurs réponses liées à la mise en œuvre du mode interactif qui a été particulièrement bien accueilli.I Contexte 172 Urbanisme Nous débutons cette partie liée au contexte en faisant l’inventaire des notions de base relatives à l’urbanisme [69, 261] qui sont au cœur de ce travail de thèse. Nous avons connu un premier bouleversement en 1995 lorsque les villes des pays industrialisés qui représentaient jusque là les plus grosses concentrations humaines ont été rattrapées par celles des pays émergents [41]. Une autre étape importante a été franchie en 2008 lorsqu’on a atteint pour la première fois dans l’histoire de l’humanité le cap des 50 % de la population mondiale vivant en agglomération dont un tiers en bidonville. En 2010, notre planète comptait 449 agglomérations de plus d’un million d’habitants, dont 38 entre 5 et 10 millions et 23 avec plus de 10 millions d’habitants [270]. Aujourd’hui, les villes des pays émergents totalisent 95 % de la croissance urbaine mondiale et on dénombre un million d’urbains supplémentaires chaque semaine dans le monde. L’Amérique et l’Europe sont les plus urbanisées, tandis que l’Afrique et l’Asie comptent encore une majorité de ruraux. L’Europe de l’Ouest est globalement très urbanisée avec un taux de 80 %. En France, le taux d’urbanisation actuel est de 87 % [269]. Nous sommes dans un milieu très urbain, mais dans une urbanité de moins en moins dense et qui intègre un usage urbain de la campagne. Dans les projections publiées par les NATIONS UNIES [271], la population mondiale en zone urbaine devrait atteindre 58 % en 2025, puis 67,2 % en 2050. Cette augmentation sera principalement concentrée dans les régions les moins développées : Afrique et Asie. Cette croissance ne sera pas sans conséquences sur les villes qui devront continuer à s’adapter pour assumer leurs responsabilités dans des domaines aussi variés et indissociables que sont le logement, la sécurité, les infrastructures de transport et de télécommunication, l’approvisionnement en eau et en énergie, la qualité de l’air, le niveau de bruit ou encore l’évacuation et le traitement des déchets [141]. 2.1 Qu’est-ce qu’une ville ? Définitions JEAN-LOUIS HUOT, professeur d’archéologie, esquisse une définition de la ville [140] : c’est un lieu d’échanges et de production, un lieu d’interactions économiques complexes. C’est un lieu mixte et hiérarchisé où plusieurs classes sociales coexistent et la société y est organisée de manière structurée. Selon lui, une vraie ville doit être mixte, complexe et hiérarchisée. Pour les statisticiens français, depuis 1887, les choses sont simples : une ville est une agglomération comptant au moins 2 000 habitants. C’est la même chose en Allemagne, mais il existe près de 200 seuils à travers le monde. Pour l’historien Belge HENRI PIRENNE, les villes sont l’œuvre des marchands, elles n’existent que par eux [217]. Pour l’historien français PIERRE LAVEDAN, la ville est un être vivant [166]. Comme tout être vivant, elle naît, elle grandit, 1920 CHAPITRE 2. URBANISME elle meurt. PIERRE RIBOULET, architecte et urbaniste français, parle d’œuvre [232] : la ville est une œuvre collective, une sorte de production artisanale unique, réalisée par les hommes qui composent la société et qui y vivent. Principes constitutifs de la ville PIERRE MERLIN, ingénieur géographe, expert-démographe et statisticien, écrit [188] que la ville est constituée de deux éléments : l’espace et le temps. A ces deux composantes, il faut ajouter celle des dynamiques socio-économiques. La dynamique sociale et économique, c’est la société en mouvement dans l’espace et dans le temps. Ce sont les initiatives et les mouvements de la société, des groupes sociaux et des individus qui la constituent, qui produisent la ville et la font évoluer à la fois dans le temps et dans l’espace. Ces dynamiques intègrent une quadruple dimension : économique, culturelle, démographique et juridique. Le temps est l’élément qui fait évoluer la ville dans la durée, qui fonde progressivement sa complexité. L’espace quant à lui est le support matériel de la ville : le site, l’environnement naturel et les formes d’occupation du sol. Les formes urbaines partagent quelques caractéristiques de base : • le tracé des voies et des espaces publics, support des flux et des réseaux ; • le découpage parcellaire, support matériel et juridique de l’investissement social du territoire ; • l’occupation du sol, c’est-à-dire les caractéristiques du bâti et des aménagements des surfaces non bâties. L’évolution urbaine "naturelle" est celle du "marché", celle qui traduit les rapports de forces au sein de la société. Mais cette évolution peut être corrigée par les nécessités de l’intérêt général, et l’urbanisme avec la politique sont des instruments de cette correction. Pour la sociologue JANE JACOBS, le dynamisme économique des villes se fait à cause de ses congestions et de ses dysfonctionnements [142], car c’est la richesse du creuset urbain, son bouillonnement qui conduisent à la création économique et culturelle : plus la ville est grande, plus les fonctions urbaines sont diversifiées, plus elle a de chance d’inventer de nouveaux métiers, de nouvelles productions, donc de continuer à croître. Le droit qui régit à la fois la possession et l’usage du sol est un élément majeur qui façonne la ville de manière essentielle, à la fois dans l’espace et dans le temps. C’est donc un élément fondateur de la ville. L’homme est un être social complexe qui, au-delà de ses besoins de base, a des besoins spécifiques qui varient d’une culture à une autre, d’une époque à une autre, d’un groupe social à un autre. Ce sont les sociétés organisées qui peuplent la ville et la font évoluer en fonction de leurs besoins, de leurs désirs et de leurs ambitions. Comme le rappelle JACQUES DONZELOT [77], les ghettos sont d’abord issus du choix de « l’entre soi » des plus riches. Ainsi, les évolutions sociologiques les plus récentes en France, comme l’augmentation du nombre de divorces, de familles monoparentales, la diminution du nombre de personnes par foyer et par logements, et l’augmentation globale de la richesse et des exigences en matière de confort au cours des quarante dernières années, ont conduit à une modification radicale des besoins en terme de logements, de services urbains, de transport. Finalement, la ville est intimement liée à l’évolution démographique parce que c’est elle qui forge la croissance ou le déclin de la population qui est un facteur qui interagit fortement avec les dynamiques économiques et sociales. Lorsqu’une dynamique de croissance économique existe, la croissance de la population vient souvent la renforcer. La ville n’est pas un support statique pour l’économie et la population. Elle est en perpétuelle évolution et il existe une interaction forte entre les différentes composantes économiques, démographiques et sociales. 2.2 La ville perçue comme une entité vivante Les villes naissent et se développent. Elles peuvent aussi avoir des périodes de décroissance ou de stagnation et, enfin, elles peuvent mourir. Après une catastrophe, les habitants les abandonnent pour s’installer ailleurs, à côté ou beaucoup plus loin.2.3. DE LA VILLE À L’AIRE URBAINE 21 Naissance des villes Une ville naît de l’action d’un essaim d’hommes groupés, qui s’installe et agit sur un territoire. Deux formes de création peuvent être distinguées : les "agglomérations spontanées" et les "villes créées". Les villes spontanées se forment par l’action non formalisée du groupe humain sur le lieu qui lui permet d’exercer une activité et souvent aussi, de se défendre. La géographie a donc une influence essentielle sur la formation des villes spontanées. Ces villes se structurent plus ou moins bien, en fonction de la rapidité de leur croissance. C’est le mode de formation de nombreuses villes, mais c’est aussi celui des bidonvilles. La ville peut aussi naître de la volonté délibérée d’un groupe humain organisé. Ce sont les "villes créées", les villes neuves ou les villes nouvelles. Des hommes décident de créer une cité pour répondre à des objectifs liés à leurs activités. Les villes créées le sont par la volonté d’un groupe organisé, souvent très structuré, hiérarchisé avec un pouvoir fort. Elles le sont avec un objectif précis : colonisation, commerce, défense, industrie, etc. Le modèle le plus répandu est celui du plan en damier avec un quadrillage régulier de rues. Mais les villes neuves peuvent ne pas être totalement organisées et la fondation peut se limiter à la création de grandes structures sans que soit défini l’ensemble des quartiers qui se mettent en place progressivement au fur et à mesure de l’occupation des habitants. Développement des villes Après leur fondation, les villes se développent, plus ou moins vite. Certaines périclitent. Quel que soit leur origine (création ou naissance spontanée), leur développement associe presque toujours croissance spontanée issue d’une multitude d’initiatives autour d’une voie ou d’un axe et extensions programmées qu’elles soient d’initiative publique ou privée. En fait, la ville se constitue par stratification. Reconstruction - transformation Les dynamiques individuelles et collectives des habitants conduisent à une permanente reconstruction de la ville sur elle-même. Une bonne partie des réglementations urbaines sont là pour gérer ces transformations du bâti en essayant de ménager l’intérêt collectif en canalisant les initiatives individuelles. Ces transformations peuvent prendre quatre formes : extension de l’emprise, sur- élévation, reconstruction ou dé-densification. La reconversion des friches est devenue un enjeu à la fois économique et symbolique des villes centres, face aux extensions périphériques et urbaines. On parle alors de reconstruire la ville sur la ville comme une alternative à l’extension urbaine. Cycles de croissance urbaine Des sociologues ont développé un schéma radio-concentrique qui dé- montre une certaine superposition entre la répartition sociale et la répartition géographique [37] : le centre est occupé par un noyau constituant la zone d’affaires, et après une zone de transition on trouve un anneau de résidences occupées par les travailleurs les moins favorisés (ouvriers / immigrés, etc.) puis une zone résidentielle plus aisée avant des banlieues très chics. 2.3 De la ville à l’aire urbaine La ville ne constitue plus aujourd’hui un ensemble compact bien défini, placé sur une commune unique. Elle forme une agglomération qui se développe sur plusieurs communes. Pour parler de ces ensembles composites qui s’agrègent autour des villes anciennes pour constituer un ensemble urbain, les géographes font appel à la notion d’aire urbaine. Pour l’INSEE (Institut National de la Statistique et des Études Économiques pour la France), une aire urbaine est un ensemble de communes, d’un seul tenant et sans enclave, constitué par un pôle urbain, et par des communes rurales et/ou une couronne périurbaine dont au moins 40 % de la population résidente dispose d’un emploi et travaille dans le pôle ou dans des communes attirées par celui-ci.22 CHAPITRE 2. URBANISME Planification Urbanisme FIGURE 2.1 – Comparaison entre planification des villes et urbanisme ; d’après [69]. 2.4 L’urbanisme Dans la suite de ce chapitre, les références historiques évoquées à titre d’illustrations concernent prioritairement la France lorsque l’échelle n’est pas précisée. Définition D’après l’Encyclopédie Larousse1 , l’urbanisme peut être défini comme l’action réfléchie visant à disposer, à aménager ou à restructurer physiquement et socialement l’espace en vue d’assurer l’unification la plus harmonieuse et la plus efficace des fonctions que remplit un site donné. Il est inséparablement une théorie et une pratique dont l’exercice entraîne le recours à une technique. L’urbanisme intervient dans la disposition des bâtiments, la structure des réseaux de communication et des équipements publics, et, plus généralement, dans l’aménagement du territoire urbain. En France, les premiers urbanistes sont apparus au tout début du 20ème siècle et cette appellation était alors essentiellement réservée aux architectes. D’ailleurs, LE CORBUSIER (architecte urbaniste, de son vrai nom Charles Édouart Jeanneret) soutient dans « Manière de penser l’urbanisme » publié en 1946 que « l’urbaniste n’est autre chose que l’architecte ». Toutefois, l’ouverture de l’urbanisme à la sociologie et à l’économie a progressivement permis de remettre en cause un tel formalisme. De nos jours, le métier d’urbaniste est exercé par des architectes, des ingénieurs, des administrateurs, des sociologues, des géographes et des économistes. L’urbaniste ne prend pas les décisions : il se situe au niveau de la conception et de l’organisation des transformations de l’ordre spatial dans le cadre de procédures administratives et de réglementations juridiques relatives à l’acquisition et à l’utilisation des sols. De la planification des villes à l’urbanisme FRANÇOISE CHOAY, historienne des théories et des formes urbaines et architecturales, explique que les doctrines de l’urbanisme se fondent sur une analyse formalisée des besoins et des conditions de la réalisation urbaine [43]. Ce serait donc le caractère analytique des contraintes et des besoins qui distinguerait l’urbanisme des pratiques antérieures de planification des villes. Comme l’indique la Figure 2.1 , les principales différences entre la planification des villes et l’urbanisme sont la disparition des rites de création et l’introduction de deux phases majeures préalable au projet proprement dit : l’analyse de la situation existante qui doit conduire à un diagnostic et une phase de programmation urbaine qui peut être sommaire ou très élaborée. De plus, il y a désormais itération lorsque la croissance est 1http ://www.larousse.fr/encyclopedie/divers/urbanisme/1003372.5. NAISSANCE DE L’URBANISME MODERNE ET APPLICATIONS PRATIQUES 23 continue : une fois un morceau de ville produit, le site urbain est modifié et il faut reprendre le processus au stade de l’analyse et du diagnostic. De l’utopie à la réalité La transformation de la société passe par l’invention de formes urbaines nouvelles. JEAN-BAPTISTE ANDRÉ GODIN, disciple de CHARLES FOURIER 2 et fabricant de poêles ayant fait fortune dans l’industrie, dessine les plans du Familistère de Guise [213] qu’il construit à proximité de son usine à partir de 1859 : une véritable ville dans la ville où vivront pendant près d’un siècle jusqu’à 2 000 personnes. Il s’agit d’un « palais social » qui vise à assurer le développement moral de l’ouvrier et de sa famille et dans lequel les ouvriers disposent d’un confort étonnant pour l’époque : "un allègement aux souffrances des classes ouvrières". Des cités ouvrières aux lotissements populaires Pour éviter les problèmes d’éloignement à une époque où le transport individuel et collectif est inexistant, d’autres patrons pragmatiques construiront à proximité de leurs sites industriels des logements pour leurs employés les plus méritants. Mais ce modèle est rapidement critiqué car, en concentrant les ouvriers, le logement collectif devient "foyer d’immoralité" ou "phalanstère de la misère et du crime", selon certains contemporains. La maison individuelle paraît alors être la solution car elle permet d’éviter une trop grande concentration de familles ouvrières, politiquement et moralement dangereuse : • elle permet à l’ouvrier d’améliorer son ordinaire grâce au jardin ; • d’occuper ses heures de loisir de manière à éviter qu’il ne fréquente les cabarets ; • de stabiliser la famille en le rendant propriétaire, donc responsable. C’est ainsi que naquirent les premiers lotissements populaires. Émergence du logement social C’est au cours du 20ème siècle que le logement social va se développer, avec l’apparition d’une exigence nouvelle qui va profondément modifier la ville et l’urbanisme : l’idée qu’il faut loger tout le monde dans des logements décents. La responsabilité de la création de ce logement va devenir, à partir des années 50 et leur transformation en HLM, une prérogative de l’État qui mettra en œuvre la construction de logement à grande échelle avec les grands ensembles. 2.5 Naissance de l’urbanisme moderne et applications pratiques Concernant l’invention de modèles pour une ville adaptée au monde moderne, deux visions principales s’opposent : • d’un côté, il y a ceux qui, pour pallier les maux de la ville industrielle, prônent la création d’une ville verte, plus proche de la nature : faire la ville à la campagne ; • de l’autre, il y a ceux qui, fascinés par Manhattan, voient la métropole verticale comme un modèle qu’il s’agit de rationaliser et d’ordonner. Cette vision privilégie la ville en tant que creuset du développement économique au détriment de l’amélioration des conditions de vie de la population. Évolution de la ville traditionnelle A côté de ces visions opposées, quelques architectes cherchent à marier densité, formes de la ville traditionnelle et conceptions hygiénistes. C’est le propos d’HENRI SAUVAGE, considéré comme l’un des principaux architectes français du premier tiers du 20ème siècle, qui propose de créer un nouveau type urbain : l’immeuble à Gradins [178]. A la place des jardins, les appartements sont dotés de vastes terrasses pouvant être plantées. L’îlot entier est pensé comme une vaste pyramide. Même si LE CORBUSIER conçoit lui aussi un projet d’immeubles à gradins, ce type sera un peu oublié après guerre, 2Philosophe français, à l’origne du concept de Phalanstère, un lieu de vie communautaire et harmonieux.24 CHAPITRE 2. URBANISME mais va réapparaître à la fin des années 60 et dans les années 70 avec les recherches innovantes pour un habitat intermédiaire. Pendant la guerre, LE CORBUSIER va poursuivre ses réflexions en élaborant une doctrine nouvelle connue sous le nom de "Charte d’Athènes" [55] qu’il publiera ensuite sous le titre "La Ville fonctionnelle" en 1941. Il s’agit d’une théorie sans modèle qui propose des concepts simples, voire simplistes : "le soleil, la verdure et l’espace sont les trois premiers matériaux de l’urbanisme". Pas de modèle formel, mais des préceptes doctrinaires facilement applicables et facilement interprétables. La "Charte d’Athènes" prescrit un zoning strict, c’est-à-dire un classement des grandes fonctions urbaines par catégories. Seules les fonctions quotidiennes liées à l’habitation sont intégrées aux unités d’habitation. Ce document aura une très grande influence sur tout l’urbanisme d’après la seconde guerre. Même s’ils n’appliquent pas à la lettre ses préceptes, les grands ensembles en sont les fils directs, un peu déshérités, car bien souvent ils n’intègrent pas les équipements prévus, et la qualité des espaces verts, fondateurs du nouvel urbanisme, laisse à désirer. Urbanisme moderne : quand les doctrines idéologiques se substituent à l’analyse scientifique Dans la pratique, la plupart des projets d’urbanisme ne s’appuient pas sur une connaissance approfondie des sites et des environnements sociaux sur lesquels ils vont agir. Ils substituent la phase d’analyse de l’existant et du diagnostic à des doctrines, qui tiennent lieu de théorie scientifique. Les fonctions urbaines sont réduites à quatre grandes catégories : habiter, travailler, circuler, se cultiver. L’urbanisme moderne largement influencé par la "Charte d’Athènes" est conçu comme le moyen de faire une ville saine. Du point de vue de la composition urbaine, les réalisations s’appuient sur quelques principes majeurs : • la volonté de créer un espace vert majeur au cœur de l’opération ; • l’orientation des édifices en fonction de l’ensoleillement ; • la ségrégation des circulations ; • l’autonomie d’implantation des bâtiments par rapport à la voirie ; • la volonté d’intégrer les équipements nécessaires à la vie quotidienne au parc ou au bâtiment. Plus besoin d’analyse approfondie de la réalité puisqu’il faut raser l’existant, faire table rase pour reconstruire une ville nouvelle idéale. 2.6 Conséquences des politiques successives Ensembles urbains figés, coûteux et difficiles à entretenir Aux objectifs directement liés à la doctrine de l’urbanisme moderne, l’État français en surimpose deux autres : • résoudre la crise du logement ; • créer une industrie du bâtiment digne de ce nom. L’urbanisme moderne cherche à disposer d’un "sol libre" où l’on peut bâtir sans contrainte : l’immeuble est déterritorialisé et le sol n’appartient plus à ses habitants, mais seulement au gestionnaire, impersonnel ou collectif. Ce qui limite les possibilités d’évolution de la ville. Les formes urbaines de l’urbanisme moderne posent deux autres problèmes. Le premier est celui d’une extension extraordinaire des surfaces collectives qu’il faut aménager puis entretenir. Le second est celui d’une diminution des traitements minéraux au profit des espaces végétaux. Or un espace vert est beaucoup plus fragile qu’un espace urbain minéral et doit régulièrement être entretenu. Lorsque les réalisations sont de qualité, que les espaces verts sont entretenus, qu’il n’y a pas de problèmes sociaux, l’urbanisme moderne produit des résidences agréables où l’on habite dans la verdure. Sans doute l’urbanisme moderne, coûteux dans sa structure comme dans son entretien, aurait-il dû être réservé aux riches ? Progression de l’étalement urbain et mobilité accrue C’est à partir du milieu des années 60, que les gouvernements, très critiques vis-à-vis de la production des grands ensembles, décident de mettre en place2.7. THÉORIES URBAINES APRÈS L’URBANISME MODERNE 25 une politique plus favorable aux maisons individuelles. Ce retournement politique, conjugué à l’enrichissement global de la population au cours des « trente glorieuses » (50-70) vont permettre aux classes moyennes de réaliser leur rêve : habiter une maison individuelle. Sous couvert de mieux répondre aux aspirations des familles françaises, cette nouvelle politique répond à plusieurs objectifs : • mieux mobiliser les ressources financières des ménages, ce qui permet un certain désengagement de l’État à l’égard du financement du logement ; • élargir le champ d’intervention et de profit des banques ; • offrir de nouveaux débouchés aux grandes entreprises de construction, par le lancement de nouveaux produits leur permettant de rentabiliser leurs investissements dans l’industrialisation du bâtiment. Ainsi, au lieu de se concentrer, les nouvelles extensions urbaines sont éclatées, augmentant considérablement les surfaces urbanisées. Les modes de vie changent avec comme caractéristique, celui d’un accroissement de la mobilité. On se déplace en permanence, et pas seulement pour le travail, mais aussi et de plus en plus pour le loisir. Le naufrage des grands ensembles Au début des années 60, les conditions matérielles de vie dans les grands ensembles sont plutôt mauvaises dès qu’on sort de son logement bien équipé mais le climat social est bon. La dégradation du climat social des grands ensembles commence dans les années 70 et s’étend au début des années 80, à cause de trois facteurs principaux : • la libéralisation de la construction de la maison individuelle qui conduit les classes moyennes à partir pour réaliser leur rêve ; • la politique de regroupement familial qui conduit les familles des migrants à remplacer les classes moyennes dans les grands ensembles, alors que ce type de logement est totalement inadapté aux modes de vie d’étrangers qui sont des ruraux déracinés ; • le chômage qui, à partir de la crise pétrolière de 1973, touche beaucoup les habitants des grands ensembles, en particulier les travailleurs immigrés, ce qui déstabilise leurs structures familiales. Ceux qui restent sont ceux qui ne peuvent pas partir. Dès lors, on assiste à une concentration des problèmes. On constate une augmentation des loyers impayés qui conduit alors certains organismes HLM à minimiser l’entretien de leur patrimoine, ce qui induit une spirale de dégradation matérielle et symbolique du lieu. La construction des grands ensembles engendre un étalement urbain relativement limité, mais une forte fragmentation : les zones bâties sont rarement reliées à l’existant et constitue des enclaves séparées de la ville proprement dite. C’est d’ailleurs l’un de leurs problèmes majeurs. Changement de politique : la rurbanisation, étalement urbain à grande échelle Dans une circulaire de 1973, OLIVIER GUICHARD alors en charge du ministère de l’Urbanisme, arrête la construction des grands ensembles. La nouvelle politique va engendrer un étalement urbain encore plus significatif avec une troisième poussée pavillonnaire prenant la forme de ce que BAUER et ROUX ont appelé justement la rurbanisation [19]. L’automobile diminue les distances, et désormais, une partie croissante de l’espace rural est utilisé par les urbains. La rurbanisation modifie profondément la structure de la ville et la vie des citadins qui, bien qu’ils soient urbains dans leur mode de vie, peuvent vivre à la campagne. C’est une nouvelle phase de transformation de la ville. Le parc d’habitat se modifie en profondeur pour atteindre, dans les années 90, 54 % de maisons individuelles contre 46 % de logements collectifs. 2.7 Théories urbaines après l’urbanisme moderne Bilan critique de l’urbanisme moderne La volonté de rendre la ville claire et fonctionnelle conduit le modèle de l’urbanisme fonctionnaliste à supprimer la mixité fonctionnelle des quartiers alors que, lorsqu’on regarde l’histoire de la ville, tout laisse penser que c’est un fondement essentiel de la dynamique du fait urbain. Par ailleurs, elle conduit aussi à supprimer le découpage foncier qui est un autre élément matériel26 CHAPITRE 2. URBANISME fondateur de la ville. L’urbanisme moderne se réduit ainsi à la production d’espaces figés, sans réalité sociale et ne répondant pas aux aspirations évolutives des habitants. De tous côtés vont apparaître des propositions réhabilitant la ville traditionnelle qui cherchent à revenir à des formes urbaines plus classiques. Redécouverte de la valeur de la ville ancienne et réhabilitation Les Italiens ont toujours préservé les centres anciens alors que les Français les éventraient pour remplacer les îlots par des tours et des barres. Ce seront les premiers à proposer de réhabiliter les villes pour améliorer les logements anciens plutôt que de les raser et reconstruire. Un certain nombre d’architectes-enseignants vont mettre au point des méthodes d’analyse du bâti existant dites "typo-morphologiques" qui consistent à regarder l’existant dans le détail soit pour le réhabiliter soit pour proposer des projets s’en inspirant. Il s’agit d’un urbanisme scientifique qui s’appuie sur les études, sur la connaissance du bâti mais aussi sur la connaissance des populations. La défense de la ville européenne Dans les années 70-80, une proposition de retour à la ville classique européenne va se mettre en place. Avant, la diversité urbaine résultait de son évolution, de l’empilement progressif de ses couches. Maintenant, il faut créer de la diversité esthétique instantanée. Cet urbanisme nous propose une vision de la ville ancienne avec des décors pittoresques mais une fonctionnalité contemporaine, une ville idéale et humaine, comme elle n’a jamais existé. Aujourd’hui, beaucoup de promoteurs et certains élus ont adopté cette vision avec plus ou moins de talent et plus ou moins de cohérence. Modernité et urbanité Dans les années 80, les architectes sont presque unanimes à critiquer les projets prolongeant l’urbanisme moderne. De leurs recherches ressort alors la volonté de réinventer un nouvel îlot qui s’inspire des expériences du début du siècle, avant l’urbanisme moderne : un îlot ouvert dans lequel le centre est occupé par un vaste jardin. Ce retour à l’architecture urbaine est largement répandu en Europe. Cela ne veut pas dire pour autant que les préceptes modernistes soient totalement abandonnés. En d’autres lieux, comme en Asie, en Chine, à Honk-Kong ou à Singapour par exemple, on construit encore de grands ensembles, avec des tours gigantesques qui empilent les fonctions et qui semblent bien fonctionner socialement. La congestion urbaine et le troisième âge de la ville Parallèlement à ce qu’est devenu l’urbanisme officiel en Europe, réalisé avec plus ou moins de brio, deux doctrines se sont affirmées. D’un côté, il y a des architectes dans la mouvance du Hollandais REM KOOLHASS qui milite pour développer "la congestion urbaine". Son plan d’Euralille cherche notamment à renforcer la mixité avec la superposition des fonctions, même lorsque cela n’est pas « naturel ». De l’autre coté, il y a l’architecte et urbaniste français CHRISTIAN DE PORTZAMPARC qui prétend inventer "le troisième âge de la ville" [64], représentant une synthèse entre l’urbanisme moderne, aéré et vert et l’urbanisme traditionnel d’îlot. Il essaye de mettre en place des règles complexes permettant de concilier densité et végétal en évitant la monotonie de l’îlot HAUSSMANNIEN. C’est ainsi qu’OLIVIER MONGIN, écrivain français et directeur de la revue ESPRIT, n’hésite pas à appeler les architectes et urbanistes de tous bords à un véritable travail de couture, avançant l’hypothèse « qu’avec le troisième âge de la ville se joue l’avenir de la démocratie, tout simplement » [194]. Urbanisme durable et éco-quartiers Depuis quelques années, se développe ce qu’on appelle les "écoquartiers" qui sont des projets urbains globaux à vocation écologique. Ce mouvement en plein développement est né en Allemagne et en Hollande avec quelques exemples pionniers en Autriche, en Grande Bretagne et dans les pays Scandinaves, et il a fini avec quelques décennies de retard par atteindre la France. Il n’y a pas de norme ni de recette d’éco-quartier. Leur forme et contenu varie en fonction des lieux et des enjeux. Tous les éco-quartiers n’ont pas les mêmes ambitions en terme d’économie énergétique, d’énergies renouvelables ou en terme de déplacements.2.8. FORMES ET STRUCTURES DE LA VILLE CONTEMPORAINE 27 Urbanisme réglementaire et écologie Officiellement les PLU3 devraient être attentifs à l’environnement. Dans les faits, l’interprétation de ce que doit être la protection de l’environnement varie et fait que les PLU ne sont pas toujours réellement écologiques. Par exemple, certains articles du règlement imposent des règles sur la hauteur ou l’aspect du bâtiment qui peuvent aller à l’encontre de la pose de panneaux solaires, de toitures végétalisées, etc. 2.8 Formes et structures de la ville contemporaine Nous sommes aujourd’hui dans une civilisation urbaine où le modèle de croissance radioconcentrique reste le modèle de développement dominant des villes (le modèle « naturel »). Les rocades contribuent à cette croissance, tout en créant de nouveaux pôles péri-urbains. Les nouveaux lotissements cherchent avant tout une proximité avec les nœuds d’échanges du réseau. Les rocades génèrent ainsi des situations de périphérie en rupture avec une croissance continue de l’agglomération. C’est aux nœuds de ces voies (croisements, sorties) que s’implantent les nouvelles « centralités périphériques » que sont les zones d’activités, les centres commerciaux du grand commerce qui, au-delà de leur fonction de base, intègrent de nouvelles activités comme le travail tertiaire (bureaux) ou le loisir (multiplexes, centre de fitness, hôtels restaurants). Ce phé- nomène peut être redoublé par la création de plusieurs anneaux de rocades, comme c’est le cas à Rennes ou Paris. C’est le modèle français dominant. Multiplication des types de tissus Avec l’éclatement urbain des années 1980-90, les formes urbaines se multiplient : nouveaux villages, lotissements périurbains, lotissements rurbains, zones pavillonnaires diffuses, villages ruraux, etc, ainsi que les nouvelles « centralités périphériques » : zones d’activités, zones artisanales, zones commerciales. Ces dernières sont désormais les principaux acteurs de l’économie commerçante en France : elles représentent 70 % des chiffres d’affaires contre 20 % dans les centres villes et 10 % dans les quartiers. La mutation touche aussi le centre ville qui d’un côté s’embourgeoise et de l’autre voit sa structure commerciale se transformer. Les commerces se spécialisent (prêt-à-porter) et il devient le lieu du développement d’annexes au grand commerce à travers le développement d’enseignes franchisées. Sectorisation de la ville Le fonctionnement de ces fragments urbains diffère grandement de celui des tissus antérieurs : la plupart sont conçus comme des secteurs autonomes, desservis uniquement par l’automobile et dont les accès sont limités en nombre. On ne traverse pas ces secteurs comme on le faisait dans les tissus urbains traditionnels et leur dimension est généralement très supérieure à celle des îlots antérieurs. Pour ceux qui peuvent choisir leur mode de vie, cette sectorisation peut paraître positive. On peut vivre entre soi dans un nouveau village, disposant à la fois du bien être de la campagne et, grâce à deux ou trois voitures, des services urbains. Mais pour les moins favorisés, ceux qui abandonnent le centre ville parce qu’il est trop cher, les choses sont moins positives. Déjà soumis aux nuisances induites par la voie rapide, ceux-ci se voient de surcroît écartés du centre-ville et de ses services par des infrastructures rendues quasi infranchissables. Ces nouveaux types sont peu reliés aux autres secteurs et très figés dans leurs formes comme dans leurs programmes. DAVID MANGIN parle de sectorisation de la forme urbaine [180]. De plus, les règlements des lotissements interdisent toute activité (autre que les professions libérales), limitent fortement les extensions et interdisent les divisions parcellaires ou la construction en hauteur. Ces tissus urbains sont donc figés à l’exception de petits ajouts. De la même manière, bien qu’elles soient en permanentes transformations, les zones d’activités et les zones commerciales n’admettent pas de mixité : on ne peut y implanter de logements. Dédensification La dédensification de l’agglomération est d’abord liée à l’intégration de territoires périphériques et rurbains dans l’aire urbaine. L’extension de la zone urbaine fait que désormais de nombreux 3Plan local d’urbanisme28 CHAPITRE 2. URBANISME secteurs très peu denses sont intégrés. La dédensification touche aussi tous les tissus de centre ville. La qualité de vie exige plus d’espaces verts avec des cours, des jardins et des logements plus grands. Pour le public, la densité a mauvaise presse et les électeurs font pression sur les élus pour que les règlements urbains minimisent les autorisations de construire. Toutes ces évolutions contribuent à faire baisser la densité des centres urbains. Les seuls secteurs où la densité augmente sont ceux en mutation, banlieues ou friches urbaines, qui lors du réaménagement sont construits alors qu’ils étaient souvent occupés par de grands bâtiments de faible densité. Entrées de ville et ville franchisée En France, première nation touristique au monde, l’apparence et l’image de la ville ont une importance économique considérable. Toutefois, l’avènement du grand commerce, en deux décennies, va conduire à une homogénéisation globale des parcours d’entrée de ville, qui constitue une bien piètre vitrine pour la cité : les entrées des villes françaises sont largement composées de hangars décorés (bâtiment économique dont la façade est utilisée comme grand panneau d’affichage pour l’activité commerciale) alors que les canards (édifice ou enseigne géante qui épouse généralement la forme du produit vendu) sont beaucoup plus rares [275]. Cela relève de trois phénomènes à l’œuvre : • celui d’une logique d’investissement à court terme : les bâtiments sont en perpétuelle évolution et sont amortis en quelques années, nous sommes dans la ville jetable ; • celui d’une visibilité commerciale de la marque : logo, couleurs ou formes de bâtiment doivent être les mêmes sur tout le territoire, voire dans le monde entier (Auchan, Carrefour, Leclerc, Mc Donald, Ikéa, . . . ), les particularités locales doivent être gommées ; • celui d’une visibilité locale du parking démontrant qu’il est simple de se garer. De manière plus classique et plus conforme à la tradition urbaine européenne, les urbanistes français requalifient les entrées de villes, en cherchant à les domestiquer et à les rendre plus urbaines. Plusieurs voies ont été ouvertes pour cela : • améliorations des aménagements urbains ; • améliorations architecturales ; • meilleure intégration du commerce d’entrée de ville dans la structure urbaine globale ; • mutation du cadre législatif. 2.9 Conclusion Pour OLIVIER MONGIN, « nous vivons le temps des métropoles encerclées de banlieues explosives, quand ce n’est pas de bidonvilles menaçants, la ville devient alors une enclave protégeant des barbares » [194]. L’un des enjeux majeurs de l’urbanisme de demain sera donc de parvenir à réhabiliter les quartiers dits « sensibles » et à transformer les bidonvilles en vraies villes. Mais cette présentation montre toute la complexité intrinsèque de la structure d’une ville qui nécessite la mobilisation de nombreuses disciplines complémentaires et parfois opposées pour la comprendre : sociologie, économie, démographie, politique, histoire, écologie, etc. La ville constitue un espace sensible en mouvement perpétuel dont il faut contrôler l’évolution en envisageant le long terme. Et de nos jours, penser sur le long terme, c’est intégrer la notion du développement durable (ou soutenable).3 Développement durable Le concept de développement durable, apparu il y a une vingtaine d’années et approuvé par 178 états lors de la première conférence de Rio en 1992, donne naissance à une conscience de la dégradation de l’environnement. Depuis, il a souvent été vidé de son contenu ou réinterprété selon les intérêts des forces en présence et du moment. Selon sa définition officielle (1987), le développement durable correspond à "un développement qui répond aux besoins du présent, sans compromettre la capacité des générations futures à répondre aux leurs". Il s’agit de proposer un changement de paradigme pour construire un monde économiquement efficace, socialement équitable et écologiquement soutenable. À ces trois piliers, s’est ensuite ajoutée la dimension culturelle [87]. 3.1 Enjeux d’un développement soutenable sur le long terme Les changements globaux Les changements globaux correspondent à l’ensemble des changements qui s’observent à l’échelle de la planète entière. Mais de nos jours, cette expression fait plus particulièrement référence aux effets de l’activité humaine sur l’environnement qui regroupent les nombreuses évolutions sociétales (évolution démographique, mode de vie, . . . ) et environnementales (climat, couche d’ozone, usage des sols, montée des océans, fonte des glaciers, biodiversité, . . . ). L’importance des changements globaux est liée à l’incertitude qu’ils font planer sur les générations futures ainsi que sur le devenir des écosystèmes dont elles dépendent. La complexité de ces changements résulte non seulement de leur dynamique spatiale et temporelle, mais plus encore de l’interdépendance des différentes problématiques. L’activité humaine dépasse depuis quelques décennies les capacités de l’environnement et, par conséquent, cette activité ne se maintient que par la destruction du "capital naturel" qui nous a été confié. Elle doit impérativement se réinscrire dans les limites de flux de matières premières et d’absorption de déchets autorisées par l’environnement [173]. Du fait de l’inertie des systèmes naturels, les prochaines années pourraient engager sur des siècles nos conditions de vie sur la Terre [82]. Deux exemples de l’obstination humaine La perspective d’une accélération de la hausse du niveau des océans au cours du siècle prochain, éventuellement accompagnée d’une augmentation de la force ou du nombre de tempêtes, laisse prévoir l’extension de submersions et l’exacerbation des reculs érosifs. Convient-il alors de s’obstiner à vouloir maintenir un état du littoral qui serait condamné par les lois de la Nature ? La solution de relocalisation des humains et de leurs activités se heurte à des mentalités collectives qui évoluent avec lenteur et perçoivent tout repli comme un renoncement [160]. 2930 CHAPITRE 3. DÉVELOPPEMENT DURABLE Concernant la biodiversité, les projections pour le 21ème siècle font état de taux d’extinction d’environ dix mille fois supérieurs aux taux moyens du passé. Quels que soient les chiffres exacts, nous sommes en passe de connaître une crise majeure de la biodiversité. Mais cette fois ci, la cause est liée aux hommes qui ont réussi à bouleverser les équilibres naturels par le biais de la connaissance et de la technique. Le problème, c’est que cette espèce voit encore mal ce qui justifierait d’abandonner ce chemin [174]. De la croissance à tout prix Concernant le développement durable, il subsiste une ambiguïté liée à l’idée même que le développement est très souvent associé à une logique de croissance, contrairement à ceux qui revendiquent la fin de la croissance [87]. Les trois piliers identifiés lors du sommet de Rio (environnement, économique, social) étant posés équivalents et substituables, le monde des affaires peut justifier une diminution d’un pilier en contrepartie d’une augmentation sur un autre, le tout étant exprimé en valeur. Or, la conception marchande de la société et de la nature confère une valeur nulle à celle-ci : le poisson, l’eau ou la biomasse des sols n’ont pas de prix, leur seul prix apparent se réduisant à leur coût d’extraction. L’économie marchande dérégulée produit mécaniquement la ruine de l’environnement et la dégradation du monde vivant. Ne poursuivant aucun but autre que la croissance pour la croissance, le développement durable se réduit à une mise en bourse de la nature [285]. Des responsabilités partagées Les décideurs qui ont en charge de construire la société de demain doivent prendre en compte les changements globaux qui sont à l’œuvre pour assurer à nos sociétés un avenir sur le long terme. Or, la recherche scientifique nourrit parfois l’illusion que la course à la technologie émanant des travaux scientifiques peut proposer des issues à toute difficulté [82]. Sans prétendre aux miracles, il revient donc aux scientifiques de toute part de jouer un rôle essentiel pour décrire, comprendre, analyser, modéliser, prévoir et développer des stratégies adaptées à ces mutations. Dans ce contexte, l’interdisciplinarité est une aide majeure dans l’analyse et la compréhension des phénomènes et des systèmes complexes, dans le développement de technologies de rupture ou la compréhension et la conception de réponses aux grands enjeux sociétaux de la planète [26]. Alors, bien plus que de se côtoyer, les différents champs disciplinaires scientifiques de tous les horizons doivent absolument collaborer avec obstination, écoute réciproque et humilité pour contribuer à relever ces défis colossaux qui se dressent face à nous. Détour philosophique et politique Pour Kant, seuls les êtres raisonnables ont une valeur intrinsèque et tout le reste est considéré comme moyen ou valeur instrumentale. Cette position "Anthropocentrique" ne reconnaît de dignité morale qu’aux seuls êtres humains. Le "Biocentrisme" considère lui que tout individu vivant est, à égalité avec tout autre, digne de considération morale. Certains environnementalistes vont plus loin avec l’approche "Écocentrique" en considérant qu’il faut accorder de la valeur non pas à des éléments séparés, mais à l’ensemble qu’ils forment [165]. D’un point de vue plus politique, l’affirmation qui laisse à penser que les sociétés humaines peuvent avoir un avenir infini dans un monde aux ressources limitées reste un pari hasardeux [202]. Et après plusieurs années de politiques qualifiées de développement durable, force est de constater la contradiction entre l’intention de la durabilité et la continuité de pratiques court-termistes [277]. Pour rebâtir les conditions d’un vrai développement durable, une refonte des régulations doit être opérée pour rendre très coûteux tout comportement dégradant les écosystèmes et très profitable ceux qui contribuent au maintien ou à l’amé- lioration des potentiels naturels [285]. L’objectif demeure le développement, mais encadré par une nouvelle technique de gouvernance, fondée sur la recherche d’un équilibre. 3.2 Dimensions urbaines du développement durable Le modèle actuel de développement urbain des pays riches n’est pas durable. Si tous les pays se mettaient à consommer comme nous, les ressources seraient épuisées en quelques décennies. Le développement de la Chine et de l’Inde selon nos modèles de consommation est un scénario catastrophe.3.2. DIMENSIONS URBAINES DU DÉVELOPPEMENT DURABLE 31 L’enjeu de l’urbanisme en Europe aujourd’hui est celui de créer une ville durable. Pour cela, il est nécessaire de rendre plus dense et plus compacte la ville lors des mutations. C’est pourquoi on considère aujourd’hui que les friches sont devenues des enjeux majeurs pour « reconstruire la ville sur la ville ». Il faut donc veiller à ce que les projets soient denses, mais que cette densité soit acceptable pour le public. Il faut chercher à densifier le plus possible la ville en fonction du contexte et à recréer des liens entre les secteurs. Il faut redévelopper ce que DAVID MANGIN appelle la « ville passante » [180]. Mais, parallèlement, il faut transformer les règlements urbains qui, bien souvent interdisent la densité et les mutations urbaines, cherchant à préserver chaque fragment en l’état. Métropolisation La métropolisation peut se comprendre comme l’avènement d’un réseau mondial d’aires métropolitains connectées entre elles par des réseaux d’échanges. Elle résulte de deux processus : • la métamorphose du capitalisme qui s’universalise, entraînant des mutations profondes des modes d’organisation de la production parallèlement à la révolution numérique ; • la polarisation spatiale croissante au profit des zones les plus développées. A l’échelle locale, la métropolisation entraîne une restructuration spatiale et économique du marché du travail qui concerne un territoire plus vaste que la ville centre incluant les banlieues, le périurbain et parfois les espaces ruraux et naturels. Elle exige une grande mobilité de la part des individus pour effectuer les trajets entre les espaces résidentiels, les lieux de travail, des loisirs et des services. Dans un monde globalisé, seule la scène métropolitaine autorise le déploiement stratégique des contraintes économiques, sociales et environnementales relevant simultanément de l’échelle planétaire et locale. À condition de l’intégrer dans le territoire métropolitain, la ville représente donc un espace pertinent du développement durable en raison de sa pérennité historique, de son ancrage dans l’économie globalisée et de ses capacités d’adaptation face au changement climatique et des enjeux du mieux vivre ensemble [109]. Penser globalement / agir localement Les villes attirant l’essentiel des ressources et étant à l’origine, directement ou indirectement, de la plupart des émissions, la connaissance et la maîtrise de leur métabolisme 1 constituent des enjeux majeurs. L’architecte RAYMOND LORENZO note qu’un habitant de la ville de Denver, dont la densité est très faible, consomme environ 3800 litres d’essence par an alors qu’un habitant de Manhattan en consomme 335 litres, soit onze fois moins. Cela veut donc dire que les formes de la ville, sa densité et les modes de vie qui leur sont liés ont une influence importante et donc qu’il est possible d’agir à travers l’urbanisme. Il faut repenser les infrastructures urbaines, mais il faut aussi agir localement, en particulier sur la manière d’augmenter la densité par des aménagements favorisant un sentiment de faible densité : la présence vé- gétale et les quartiers mixtes sont des éléments pouvant y contribuer. Il faut avoir des visions globales en proposant des politiques spécifiques. Mais il faut ensuite que chaque agglomération ait une réflexion locale sur son impact territorial et sur les moyens de l’améliorer. Comme l’a souvent montré FRANÇOIS ASCHER, on ne peut plus aujourd’hui faire l’urbanisme du haut vers le bas, comme dans les années 60. Il faut écouter les habitants de base, faire du bottom / up, de la pédagogie, convaincre mais aussi écouter pour inventer de nouvelles solutions. Il faut donc avoir une action parallèle et forte à des échelles plus petites comme celle du quartier. En fait, il s’agit d’une application du principe « penser globalement, agir localement ». Mais le renouvellement du parc urbain représentant environ 1 % par an, il ne suffira pas à lui seul à produire une ville écologique. Il faut donc aussi réfléchir au moyen d’agir sur l’ancien, sur l’existant pour l’améliorer et le rendre plus performant. Comprendre et agir sur la forme des villes [71] 1Ensemble des processus par lesquels les villes importent, consomment, transforment, stockent ou exportent énergies et matières.32 CHAPITRE 3. DÉVELOPPEMENT DURABLE Les modes de transport ont façonné les villes La forme des villes est en grande partie liée aux possibilités de déplacement des citadins. Les modes de transport rapide ont transformé la ville. Avec le chemin de fer, la vitesse moyenne des citadins est passée de 3 km/h à 15 km/h et les villes ont connu une première période d’étalement urbain caractérisée par des faubourgs et des banlieues disposées en « doigt de gant » le long des axes ferroviaires. Avec l’automobile, et le passage à une moyenne de 30 km/h, la ville a pu s’étendre à nouveau mais cette fois ci de façon dispersée : tout terrain étant devenu potentiellement urbanisable dans un large rayon autour des centres urbains. La ville peut alors s’étaler et s’émietter puisque les villages proches peuvent être le support d’une urbanisation souvent peu dense. La vitesse a favorisé l’étalement urbain et les ségrégations La vitesse rend la proximité moins impérieuse et permet à de nombreux citadins de s’affranchir de la promiscuité. Avec la vitesse et des mé- canismes fonciers qui renforcent souvent les ségrégations sociales et fonctionnelles, la diversité dans la proximité n’est plus le principe d’organisation de la ville, seulement celui de certains de ces quartiers. La vitesse ne fait pas gagner de temps : elle accroît les possibilités de choix et permet l’espacement. Impacts des choix passés En raison de leurs valeurs patrimoniales, les politiques de mise en valeur des centres ont été plus fortes en Europe qu’en Amérique du Nord : leur dédensification a donc été moins marquée. Concernant les politiques foncières visant à limiter la consommation des sols, elles ont été historiquement puissantes dans un pays dense et vulnérable au risque d’inondation comme les Pays-Bas. Les fortes densités de l’« Europe rhénane » ont impliqué très tôt une promotion des transports publics alors que l’« Europe latine » y est restée longtemps indifférente, favorisant un système territorial fortement dépendant des transports motorisés et d’une énergie peu chère et abondante. En France, le secteur résidentiel ne compte que pour un quart de l’extension des surfaces urbanisées chaque année. Ce sont les infrastructures de transports, notamment routes et aéroports, les zones commerciales et les espaces d’activités qui sont responsables des trois quarts de l’extension spatiale. Nécessité d’une approche systémique L’action sur la seule densité ne conduit pas nécessairement à réduire les besoins de déplacement. Sans action simultanée sur la localisation des diverses ressources territoriales, que ce soit les lieux d’emploi, de loisir, d’équipement ou encore d’habitat, la densification ne permet pas une réduction des distances pour relier ces différentes ressources. D’autre part, certains agencements périurbains ou ruraux peuvent se révéler favorables à la marche à pied, au vélo ou au transport collectif et les zones d’imbrication entre espaces urbanisés et territoires agricoles et naturels peuvent être intéressantes pour des circuits de proximité alimentaires et la préservation de la biodiversité. Enfin, bien que décrié, n’oublions pas que l’étalement urbain a permis à de nombreux citadins d’accéder à la propriété. Une politique relative aux formes de la ville ne peut se résumer à une simple limitation de l’usage des sols, car agir sur la forme d’une ville, c’est agir sur les systèmes de formation de prix des fonciers, sur l’organisation des réseaux ou encore sur les mécanismes économiques qui la sous-tendent. Écologie urbaine D’après le dictionnaire Le Robert, le mot écologie aurait deux sens : 1. étude des milieux où vivent les êtres vivants ainsi que des rapports de ces êtres entre eux et avec le milieu ; 2. mouvement visant à un meilleur équilibre entre l’homme et son environnement naturel, ainsi qu’à la protection de celui-ci. L’écologie urbaine doit partir de l’étude du milieu en incluant non seulement les aspects physico-biologiques mais aussi les rapports sociaux humains, pour tendre vers un meilleur équilibre entre l’homme et son environnement naturel, ainsi qu’à la protection de celui-ci. L’écologie ne peut pas se limiter aujourd’hui à "la protection de la nature" mais doit avoir une vision plus large selon laquelle l’urbain est un milieu global et que la densité urbaine n’est pas en soi un mal, peut-être même une qualité. La ville intelligente, intéressée3.2. DIMENSIONS URBAINES DU DÉVELOPPEMENT DURABLE 33 à sa propre survie, doit être plus économe et attentive aux composantes de l’environnement, mais aussi aux équilibres sociaux qui, pour une part, la conditionnent. Un aménagement écologique, c’est-à-dire répondant aux exigences de développement durable, doit porter sur une dizaine de thèmes [69] : • mixité et densité ; • qualité de l’air ; • qualité de l’environnement sonore ; • transport et déplacement ; • gestion du cycle de l’eau (pluies, eaux usées, alimentation, nappe phréatiques, rivières) ; • gestion des déchets ; • énergies : consommer moins et tendre vers les énergies renouvelables ; • présence de la nature en ville : bio diversité, milieu naturel, faune et flore ; • paysage et protection du patrimoine ; • une économie durable. Éco-quartiers Les planificateurs et gestionnaires de la ville ont utilisé depuis les vingts dernières années différentes techniques pour limiter les émissions de polluants (en particulier les gaz à effet de serre) par les transports [253] : • proximité d’un tramway ou d’un métro ; • rapprochement des commerces et des écoles ; • priorité donnée à la marche ou au vélo ; • réduction de la place de la voiture. Grâce à la mobilisation des citadins et à la contribution des élus et techniciens locaux, les éco-quartiers ont souvent dépassés les aspects environnementaux avec : • une diversité du peuplement renforcée par une forte présence de logements ; • l’intégration d’établissements pour personnes âgées favorisant l’intergénérationnel ; • des lieux d’animation multiculturels et multifonctionnels. Dans cette évolution liée aux éco-quartiers, l’enjeu est double : • pousser le curseur écologique le plus loin possible ; • faire en sorte que ce type d’approche ne soit pas réservé aux grandes opérations, mais imprègne toutes les opérations, même les plus petits lotissements. Pour ROLAND CASTRO, architecte et urbaniste de renom habitué des plateaux de télévision et des stations radiaphoniques, les éco-quartiers posent effectivement la question des villes de demain. Mais au terme éco-quartier qu’il n’aime pas beaucoup, il préférerait qu’on emploie le terme quartier-éco, parce que l’objectif principal consiste d’abord à faire un quartier, un lieu que l’on habite, que l’on a envie de voir et qui nous sourit. Ensuite seulement, il s’agit de sublimer la contrainte lorsqu’elle arrive pour ne pas la subir. Dans notre cas, tout ne doit pas être subordonné à la contrainte écologique, ce qui pourrait alors conduire à faire très mal les morceaux de la ville. Proposer une série de logements, de maisons de diverses formes, de taille variable, mais à chaque fois dans un scénario de trajet, de rapport à l’autre, donner le sentiment qu’on peut être à la fois chez-soi et avec les autres si on le veut : c’est vers cela qu’il faut tendre. De nos jours, beaucoup d’architectes tentent de faire des logements qui ne soient pas alignés, des logements qui soient dans un rapport les uns avec les autres, qui participent à la formation des rues, des places ou des venelles. Des logements qui font les centres et qui fabriquent de la marche, du trajet, de la promenade. « Il faut faire les quartiers comme un promeneur, comme un flâneur, et créer de la surprise ! ». Renouvellement des grands ensembles Les pratiques actuelles en urbanisme de renouvellement des grands ensembles en France [1] se concentrent autour du principe d’une recomposition urbaine visant à :34 CHAPITRE 3. DÉVELOPPEMENT DURABLE • désenclaver les sites par la recomposition des rues, des parkings, la création de moyens de transports collectifs, l’introduction d’équipements publics ; • permettre une certaine mixité par la démolition des bâtiments posant le plus de problèmes (généralement les immeubles les plus hauts, en particulier les tours) et la création de nouveaux bâtiments valorisant le foncier, généralement des logements en accession pour les classes un peu moins pauvres et des immeubles locatifs proposant un type de logement spécifique améliorant l’offre ; • améliorer la qualité des lieux et les possibilités d’appropriation par les habitants grâce à la transformation des espaces de proximité des immeubles. Deux instruments majeurs sont aujourd’hui utilisés : • la démolition- reconstruction ; • la résidentialisation. La démolition - reconstruction Pendant longtemps, l’État est resté réticent à l’idée de démolir des bâtiments qui n’étaient pas toujours amortis. Ce n’est qu’à partir du milieu des années 90, que l’idée de démolition va s’imposer avec, pour objectif, de modifier l’image des quartiers et d’inverser les processus de dévalorisation. L’idée globale est que, pour modifier en profondeur ces quartiers, il faut recréer de la mixité sociale et que, pour cela, il faut favoriser l’intervention d’opérateurs privés dont la production s’adresse aux classes moyennes. On démolit donc beaucoup aujourd’hui et l’on reconstruit, soit sur place, soit en lisière des zones, soit parfois un peu plus loin, des logements selon des formes urbaines plus traditionnelles : des rues, des places, de petits immeubles avec un nombre limité de cages d’escalier et, généralement, des hauteurs limitées. La résidentialisation L’action sur le bâti ne répond pas à tous les problèmes, mais elle est utile. C’est un des moyens de participer à une transformation positive du lieu. La résidentialisation est une forme particulière d’action qui s’oppose dans son concept à la démolition / reconstruction : on requalifie les espaces collectifs et les espaces publics, afin de transformer les formes urbaines issues des théories de l’urbanisme moderne. La résidentialisation vise à "configurer un ou plusieurs immeubles et leurs abords en une unité résidentielle clairement identifiée, matérialisée par un marquage plus ou moins symbolique de ses limites". Cette requalification des espaces de proximité, publics et privés des grands ensembles, permet de gérer le problème des poubelles, du nettoyage des espaces publics et privés. Mais aussi d’améliorer le confort du logement : on peut ajouter des balcons, créer des jardinets pour les logements du rez-de-chaussée. En modi- fiant le statut du sol et les formes urbaines, la résidentialisation répond aux besoins des habitants en créant des lieux bien différenciés et supprime l’indétermination des espaces du quotidien au-delà du logement. 3.3 Enjeux à l’export du savoir-faire français en matière de ville durable Le Paris de Haussmann a été interprété dans nombre de grandes villes à travers le monde. A l’échelle de la planète, il est reconnu que Londres, New York, Paris et Tokyo sont observées et influencent les orientations des autres grandes villes qui sont le réceptacle des populations qui s’y agglutinent [41]. Compte tenu de ces éléments et forts de leur expérience en matière de ville durable, certains acteurs français se mobilisent et se regroupent pour exporter leur savoir faire. C’est le cas par exemple de VIVAPOLIS2 , une marque française de la ville durable qui cherche à fédérer de nombreux acteurs autour de quatre caractéristiques fortes qui définissent la « French touch » : • l’homme positionné au cœur de chaque projet pour améliorer les conditions de vie de l’habitant ou de l’usager ; 2www.vivapolis.fr3.4. LA VOITURE AU CŒUR D’UNE NOUVELLE RÉVOLUTION INDUSTRIELLE ? 35 • la performance pour atteindre une consommation réduite des ressources naturelles et une intégration optimale des fonctions de la ville ; • une gouvernance forte et participative pour pouvoir organiser la ville, la projeter dans le futur, la financer, définir des règles et la faire fonctionner au quotidien ; • une adaptation systématique au contexte local reposant plus sur une démarche ou une vision que sur un modèle tout fait : à chaque cas correspond une solution particulière en fonction du climat, de la géographie des lieux, de la culture, de son histoire. La France possède plusieurs champions dans différents domaines : • en construction : BOUYGUES, VINCI, EIFFAGE ; • en mobilité : ALSTOM ; • en énergie : EDF, GDF SUEZ ; • en gestion des déchets ou de l’eau : VÉOLIA. Il y a également en France une multitude de petites et moyennes entreprises qui sont leaders sur des niches du développement durable. L’objectif est d’arriver à une alchimie de la ville durable en regroupant différents acteurs français autour d’une vision unique pour être capable de l’exporter. La construction de la ville se fait partout, et plus particulièrement dans les pays émergents comme le Maroc, la Chine, le Brésil ou la Turquie. Il faut être capable de travailler ensemble pour apporter des réponses globales aux questions posées afin de réaliser un quartier ou une ville durable. Dans ce contexte, les collectivités locales françaises pourraient servir de vitrine à ce qui peut être proposé à l’export. Autre exemple, la création du Groupement d’Intérêt Scientifique « Modélisation Urbaine » (GISMu)3 qui s’est donné pour objectif de faire converger les besoins entre les mondes de la recherche, de l’ingénierie, de la maîtrise d’ouvrage et de la maîtrise d’œuvre dans le champ de la modélisation urbaine, depuis la gouvernance et la conception des villes jusqu’à leur exploitation [130]. Sa vocation consiste à promouvoir une approche plus intégrée de la modélisation urbaine en abordant les différentes échelles spatiales et temporelles, en intégrant un développement des villes plus durable, en étudiant différentes typologies de villes et en explorant des domaines novateurs (comme la modélisation des flux entrants et sortants de la ville). Cette entité regroupe à elle seule 73 membres dont 13 établissements, 12 entreprises, 38 unités de recherche et 10 pôles, agences ou autres organisations. Parmi ses nombreuses missions, on retrouve la promotion à l’exportation du savoir-faire français en matière de modélisation urbaine. 3.4 La voiture au cœur d’une nouvelle révolution industrielle ? Autrefois un luxe, hier encore une commodité, la voiture est devenue une nécessité pour une large frange de la population sous l’impulsion d’un mode d’urbanisation qui lui est dévolu et qui s’est largement répandu. A cause de sa vitesse, des grandes distances qu’elle autorise, d’un très grand choix d’itinéraires et d’un accès presque continu le long des voies, la voiture éparpille la ville et, avec elle, la demande de livraisons ou de collectes. Elle favorise la diffusion de l’habitat, la décentralisation des activités ou la concentration de certains services. Par les effets de coupure des voies rapides dangereuses et bruyantes, elle divise le territoire et sépare plus qu’elle ne lie de grands pavés voisins. Et dès qu’une artère prend de l’importance, l’arrêt et la vie en bordure devenant de moins en moins confortable, son accès se limite à quelques points de plus en plus éloignés ou aléatoires. En conformant la ville à ses possibilités ou besoins, la demande de transport s’est dispersée loin de l’offre crédible de transport en commun et l’éparpillement croissant a disqualifié les modes de déplacement doux (marche à pied, vélo). Cet outil toujours plus envahissant pousse à bitumer et à bétonner à grande échelle des surfaces toujours plus gigantesques pour réaliser des infrastructures, des voies de circulation et des aires de stationnement qui lui sont dédiés. Le transport routier de marchandises qui représente 1/3 des émissions de CO2 en ville a su profiter des infrastructures développées pour la voiture sans supporter les dépenses liées aux dégradations 3http ://www.urban-modelling.org/36 CHAPITRE 3. DÉVELOPPEMENT DURABLE qu’il occasionne. Le système routier en croissance a dépassé un seuil au-delà duquel il est devenu contreproductif. Il produit de grandes injustices et complique toujours plus les politiques de redistribution des richesses, quand ceux qui subissent ses nuisances ne sont pas ceux qui profitent de ses commodités. Les populations les plus pauvres peuvent rester piégées dans les zones les plus pauvres, les plus polluées ou bruyantes et les plus privées d’emplois, de services urbains ou de paysages agréables [186]. Néanmoins, les jeunes occidentaux éprouvent de moins en moins d’intérêt pour l’automobile et ils n’ont plus envie de la grosse voiture de leurs parents. L’imaginaire dominant de notre univers automobile durant les trente glorieuses n’est plus adapté à cette nouvelle génération qu’il va falloir prendre en compte pour réinventer les moyens de déplacement de demain. L’automobile doit se redéfinir et on peut faire l’hypothèse de nouveaux modes de transports situés aux interstices des deux et quatre roues : probablement un modèle de petite voiture léger et écologique. Mais pour le moment, des pays comme l’Inde ou la Chine sont dans une dynamique de rattrapage économique et encore dans la fascination pour un modèle occidental qui n’est pourtant pas viable. Chaque jour, 1 200 véhicules nouveaux sont immatriculés en Chine et la terre comptera cinq fois plus de voitures d’ici 2050. Ceci va provoquer une course aux matières premières de plus en plus effrénée au fil des années à venir, avec des conséquences déjà visibles (par exemple l’intérêt croissant de la Chine pour l’Afrique). Il va pourtant falloir adopter de nouveaux modes de croissance écologiquement responsables et le modèle énergivore apparu au début du 19ème siècle va devoir se réinventer. C’est une nouvelle révolution industrielle qui est en train de se dessiner sous nos yeux, et la voiture est au cœur de ce bouleversement [20]. 3.5 Utopies 3.5.1 Une « Utopie Concrète » pour Paris Le Grand Paris ROLAND CASTRO fait partie d’une génération d’architectes et urbanistes qui a énormément réfléchi et appris des échecs du passé, une génération qui a beaucoup déconstruit la pensée des temps modernes. Sa pensée intègre l’aspect politique et citoyen d’une architecture urbaine. Il est partisan de la réhabilitation par le remodelage des grands ensembles. Il a également initié le mouvement politique de l’Utopie Concrète pour transformer sans révolution la société vers plus d’égalité républicaine et de justice. Il y défend l’idée d’avancer des utopies concrètes et évolutionnaires pour redonner du sens à la politique. Pour lui, l’utopie concrète : c’est la vérité de demain. Tout comme les congés payés ou l’abolition de la peine de mort étaient des utopies en leurs temps, elles sont devenues des réalités de nos jours. Il a été choisi par le président NICOLAS SARKOZY pour encadrer une équipe pluridisciplinaire lors de la consultation sur le Grand Paris : un projet de loi adopté le 19 juillet 2013 et visant à créer une métropole qui regroupera, dès 2016, Paris et trois départements de la petite couronne, doté de compétences en matière de logement et d’aménagement du territoire. Ce projet a été initié sous FRANÇOIS MITTERRAND4 , lancé par NICOLAS SARKOZY et repris sous FRANÇOIS HOLLANDE. Il s’agit donc d’un projet qui dépasse de loin les clivages politiques habituels de la France (gauche / droite). Lorsque ROLAND CASTRO décrit ce projet, il considère un territoire réel plus grand que celui retenu par la loi, qu’il dit enfermée dans des limites administratives trop étroites. Pour lui, le Grand Paris s’étend sur une zone de 40 km par 40 km, concerne 10 millions d’habitants et regroupe 400 communes. Ce projet porte l’ambition de faire une métropole multipolaire caractérisée par une multitude d’éléments attractifs en dehors du centre historique. A cette échelle, le Grand Paris sera aussi grand que Berlin ou le Grand Londres. Le Grand Paris va permettre de faire la "ville à la campagne" avec un territoire beaucoup plus riche du point de vue végétal ou même agricole, un espace métropolitain dans lequel chaque quartier est attractif, sympathique, caractérisé par le plaisir d’y habiter et partagé par tous, ou chaque quartier « vaut bien » n’importe quel autre. C’est en cela que le Projet du Grand Paris représente une utopie concrète. Mais en dehors des aspects techniques, ce projet est soumis à d’importantes crispations politiques liées 4Projet Banlieues 89 comportant un volet Grand Paris, confié à Roland Castro et Michel Cantal-Dupart en 1983.3.5. UTOPIES 37 d’une part à l’insuffisance d’une implication forte au plus haut niveau de l’état, et d’autre part à la présence de nombreux « barons » locaux qui disposent d’une influence importante et qui ne servent pas systématiquement la cause collective. Pour ROLAND CASTRO, le manque de budget identifié pour financer le projet n’est pas la question la plus grave car il y a beaucoup d’économies à réaliser en réformant des formes d’administration du territoire devenues superfétatoires avec le temps (notamment en supprimant les conseils généraux). De plus, le projet de loi relatif au Grand Paris prévoit : • l’objectif de création d’un million d’emplois supplémentaires en Île-de-France sur les quinze prochaines années5 ; • l’obligation de construire 70 000 logements par an. Paris ville-monde Dans sa note ouverte d’octobre 2013 adressée au Président de la République et intitulée « Vivre un Grand Paris » [41], Michel CANTAL-DUPART interpelle à sa manière François HOLLANDE pour lui faire part de son inquiétude face aux orientations de ce projet qui sont contraires aux convictions qu’il porte. Dans son document, il dresse un bilan complet de la situation et suggère sept objectifs pour redresser la barre. Raccommoder les quartiers Il n’y aura pas de Grand Paris possible dans une ville à plusieurs vitesses : il ne s’agit pas de réaliser des opérations comme des éco-quartiers qui poussent de toute part sans se soucier de l’évolution des quartiers dans lesquels ils s’insèrent. Plus que de revisiter les Quartiers Prioritaires, il faut véritablement désenclaver les cités. Quand ils existent, les fleuves sont des éléments intéressants pour fédérer une ville car ils ne subissent pas les limites administratives. Premier et dernier logement Les petits logements disponibles pour les jeunes (premier logement) sont souvent inaccessibles pour cause de loyer prohibitif et c’est la même chose pour un nombre important de retraités (dernier logement) qui doivent quitter la capitale parce que la vie et les logements y sont devenus trop chers : ce phénomène contribue à déséquilibrer la ville. Pour corriger ce phénomène, il est possible d’augmenter encore la densité de la ville dans des proportions raisonnables en utilisant ses réserves foncières aériennes qui sont vastes sans pour autant faire de grandes tours. D’autre part, il peut être intéressant de revisiter les immenses zones d’activités et leurs parkings pour proposer une évolution foncière lorsqu’il est possible d’y accueillir des logements. Au lieu de rajouter des bureaux déjà en nombre et parfois vacants, il faudrait leur préférer des programmes d’habitation pour arriver à un équilibre, notamment à proximité immédiate des gares pour inciter les habitants à utiliser les trains plutôt que des voitures (lorsqu’on construit des bureaux à proximité immédiate des gares, c’est l’effet inverse qui se produit : les gens quittent leur domicile avec leur véhicule et tentent par tous les moyens possibles de rejoindre leur lieu de travail en voiture). Les chemins de l’écolier L’école est un lieu d’apprentissage de la ville, tant par le contenu de ses enseignements que par le chemin emprunté, itinéraire qui mène du domicile aux portes de l’école et fait découvrir aux écoliers les réseaux de la ville. Contrairement au parvis des mairies et des églises, on soigne rarement celui des écoles qui mériterait pourtant d’être plus accueillant pour recevoir les parents qui s’y regroupent en attendant leurs écoliers. Cultiver le bien être Concernant l’implantation hospitalière, une position centrale dans l’agglomération peut être idéale à condition que les accès soient aisés et que soit prévue, pour le personnel soignant, une possibilité d’un habitat adapté de proximité. Si l’implantation est périphérique, l’accès à une intermodalité est impératif. Le plateau technique innovant et performant reste à l’hôpital, mais l’hôpital doit trouver des moyens de se déployer en ville au plus près du milieu de vie de ses patients, pour leur confort. Concernant 5D’après l’étude d’impact annexée au projet de loi (source : http ://www.senat.fr/rap/l09-366/l09-3667.html)38 CHAPITRE 3. DÉVELOPPEMENT DURABLE les possibilités de restauration des habitants et des visiteurs, la convivialité d’un Grand Paris passe par le bien manger. Paris est une ville magnifique, riche d’une poésie fabuleuse, mais qui gagnerait tout de même à offrir un meilleur accueil aux touristes venus du monde entier pour la rencontrer. Donner accès à toute la ville Il est essentiel de pouvoir se déplacer dans toute la ville pour accéder au savoir, au travail, à la promenade ou aux biens de consommation. Les nouvelles lignes de métro express et les 70 gares et stations qui seront construites devront être l’occasion de valoriser les quartiers qui les accueilleront en recherchant l’intermodalité et la transversalité sans imposer un passage obligé par le centre de Paris. Gommer l’attrait du vide Il faut délimiter de façon précise et sans tolérer de flou les parcelles urbanisées et urbanisables des parcelles à vocation agricole pour concevoir un urbanisme d’une certaine densité (sinon les lisières restent perméables pour les aménageurs) et créer un front de terre semblable à un front de mer pour offrir de larges perspectives aux paysages franciliens et protéger les terres agricoles qui peuvent fournir aux citadins des produits régionaux valorisants. Les terres agricoles ainsi protégées pourront évoluer sereinement pour mieux assurer les besoins alimentaires de la ville qu’elles côtoient. Valoriser la Seine La Seine est la plus belle avenue de Paris, mais dès qu’on quitte le centre et qu’on arrive en banlieue, c’est fini ! Elle est pourtant un liant évident à tout le projet parce qu’elle coule à travers le territoire sans se soucier des limites administratives et parce que se concentrent sur ses rives universités et centres de recherche qui correspondent à l’image et à l’avenir du Grand Paris. De plus, elle abrite sur ses berges de nombreuses friches industrielles qui permettraient de qualifier un paysage exceptionnel. 3.5.2 La « Ville Creuse » : un exemple de ville idéale La ville est le lieu complexe où de multiples forces s’opposent et se disputent. Comment par exemple réconcilier les attentes légitimes du citadin (plus d’espace, des facilités d’accès aux activités et services, un cadre de vie de qualité, convivial et sain, etc.) avec une réduction de nos consommations en ressources naturelles, une diminution de nos pollutions, de nos déchets ou d’un étalement urbain sans fin ? Existe-t-il une forme de ville optimale capable d’améliorer son fonctionnement, de réduire ses besoins, ses gaspillages et ses nuisances ? Y a-t-il une forme d’organisation de l’espace qui puisse nous conduire à ces différentes optimisations ? JEAN-LOUIS MAUPU6 , bien qu’il ne soit pas urbaniste, s’est risqué sans état d’âme à cet exercice dans son livre intitulé « La ville creuse pour un urbanisme durable » [186]. La ville utopique qu’il propose repose sur trois grands principes complémentaires : • un réseau de transport multiple qui suit une forme hexagonale constituée de 6 nœuds et formant une boucle (maille ou anneau) parsemée tous les 500 m d’une station de transport collectif (TC) ; • des constructions avec une densité importante aux abords de la maille, son centre étant réservé à de grands espaces verts et naturels traversés d’allées, d’une rivière, d’un lac, d’exploitations agricoles, maraîchères et horticoles, de terrains de sport, d’un cimetière, de jardins et de vergers privés accessibles aux seuls modes doux et véhicules de service ; • une mixité des lieux de logement et d’activité jusqu’à même les superposer dès que c’est possible. Chaque anneau autonome fait environ 4 km de largeur pour 12 km de longueur, son tracé étant enveloppé d’un bâti mixte et dense pouvant accueillir 60 000 habitants dont 30 000 emplois et 25 000 ménages comptabilisant de 10 à 20 000 voitures. La ville peut croître en y ajoutant des anneaux supplémentaires sur le principe d’une structure alvéolaire en nid d’abeilles. Sur le contour de chaque anneau, on retrouve une ligne de TC aérienne guidée qui comprend 24 stations ainsi qu’une voie dédiée aux vélos et piétons, et une troisième ligne si possible en sous-sol réservée aux 6 Ingénieur Arts et Métiers, chercheur à l’Inrets : Institut National de Recherche sur les Transports et leur Sécurité.3.5. UTOPIES 39 véhicules utilitaires, aux véhicules de service ou de transport de marchandises ainsi qu’aux voitures particulières qui se partagent l’espace du niveau inférieur également réservé aux machineries, aux divers réseaux techniques, aux aires de stockage et à la totalité des parkings publiques et privés. Les activités engendrant les plus gros trafics de marchandises se situent près ou au niveau de l’artère routière alors que celles qui induisent un trafic de voyageurs sont positionnées à proximité de la ligne de TC. les lieux de logement et d’activité sont mélangés et répartis selon leur nécessité en termes de proximité des diverses autres lieux, de la lumière, de l’air libre ou en direction de la verdure, tout cela pour réduire les besoins de déplacement, la longueur des trajets et respecter la diversité des attentes. Toutes les constructions réparties de façon homogène étant à proximité immédiate de la boucle, et plus particulièrement des stations de TC, la ligne de TC devient très attractive et la plupart du temps, la voiture n’est plus d’une nécessité absolue. De plus, comme le réseau de TC dessert l’ensemble des lieux fréquentés sur l’anneau, il est en mesure de capter 1 à 2 voyages par habitant et par jour contre 0,1 à 0,2 en règle général. Compte tenu de sa structure en boucle, la ligne de TC peut donc être rentabilisée avec 10 fois moins d’habitants desservis. Pour mieux répondre à la diversité des attentes individuelles, des pavillons, villas et cabanons peuvent être tolérés dans l’espace de verdure en conservant des règles justes et strictes d’accessibilité, d’implantation et de construction pour garder à la partie dense la vue et la proximité de la verdure et des beaux espaces libres. Pour l’approvisionnement en marchandises, les transporteurs déposent ou prennent leur chargement sur des plateformes logistiques situées aux entrées de la ville et directement branchées sur les voies interurbaines rapides ou sur une gare ferroviaire. Un service de véhicule adapté peut alors distribuer et collecter les colis ou assurer les échanges internes en accédant aux points de livraison et de collecte localisés sur le court linéaire de voirie couvert qui reste d’accès facile aux poids lourds. Pour traverser un anneau (diamétralement), il faut compter entre 40 et 60 mn à pieds, 15 mn à vélo et 15 mn en TC. Une ville constituée de 3 hexagones formant un trèfle équivaut à 2,5 anneaux bâtis, soit 150 000 habitants. Un motif de 7 hexagones formant une fleur à 6 pétales équivalent à 5 anneaux, soit une ville de 300 000 habitants. Avec une bande urbanisée de 500 m de large sur une maille complète, on obtient une densité de 100 hab/ha7 (carré de 500 m de cotés avec une station de TC en son centre, soit 25 ha avec 2 500 hab) où chaque habitant est à moins de 350 m d’une station de TC et à moins de 250 m d’un grand espace de verdure. Avec une bande urbanisée de 1 000 m de large, la densité tombe à 50 hab/ha 8 et chacun est à moins de 550 m d’une station de TC. Le grand espace de verdure central devient moins accessible (il reste à moins de 500 m) mais il est davantage présent dans toute la bande construite. Avec cette organisation, la ville creuse permet de réduire efficacement les besoins de mobilité et de transport de biens, elle se caractérise par un trafic concentré sur sa boucle et une forme urbaine attractive (densité pas trop élevée, logements individuels, proximité de la nature) économe en énergie et matériaux, produisant peu de déchets et s’approvisionnant en priorité sur son territoire agricole. Elle peut s’accommoder facilement de la géographie d’un lieu, de sa géologie ou de son histoire et s’y insérer en douceur tout en le préservant, le tracé choisi pouvant suivre un chemin existant, encercler un petit bourg de caractère ou l’intégrer comme nœud principal. Une ville ainsi constituée pourra s’adapter à des temps plus difficiles, en particulier à une mobilité bien plus coûteuse des biens et des personnes. Pour s’en persuader, récapitulons ici les attraits marquants de cette ville pour un développement urbain durable, pour être riche de ce dont on n’a plus besoin : • la structure compacte et dense du bâti favorise les économies (en matériaux de construction, d’énergie de chauffage ou de climatisation, en eau, en linéaire et raccordement des réseaux techniques) ; • la possibilité de circuler en zone couverte et continue favorise la marche à pied et l’usage du vélo ; • la proximité des lieux (services, formation, travail) réduit la longueur, la durée et le coût des déplacements contraints ; • la surface occupée par le mode routier, parkings compris, est réduite (5 % de la surface de la maille) ; 7Densité proche de celle d’une cité jardin comprise entre 160 et 200 hab/ha 8Correspond à une densité proche d’une zone pavillonnaire40 CHAPITRE 3. DÉVELOPPEMENT DURABLE • tout point du bâti principal est à proximité immédiate d’une ligne de TC ; • continuité de service des TC (deux itinéraires pour se rendre d’un point à l’autre) ; • proximité constante des espaces verts et de toutes les activités récréatives rendant la densité viable ; • absence de nuisances liées à la circulation automobile : effet de coupure, bruit, pollution, danger, bouchon ; • possibilité d’extension de la ville par ajout de maille (reproduction du motif) sans remise en cause ou dégradation des conditions existantes ; • extrême simplicité grâce à une structure annulaire (flux de marchandises entrant et sortant faciles à rationaliser, moins de carrefours, signalisation simplifiée, séparation des modes de transport, des flux en eau, ordure, électricité ou de chaleur) ; • plus d’éventration permanente des voiries par des tranchées ; • facilité de maintenance des réseaux (bonne accessibilité, détection des fuites de fluides) ; • pas d’extrémités de ligne de TC pauvres en trafic, pas de tronçon central surchargé. JEAN-LOUIS MAUPU nous propose une armature de ville sans centre ni banlieue, une nouvelle machine à habiter organisée tout simplement le long d’une ligne optimale de transport collectif. Mais cela nécessite une autorité organisatrice indépendante (ou une auto-organisation durable) capable de la projeter, de la bâtir et de la maintenir, capable aussi de transcender les contradictions de son opinion publique, et c’est probablement ce dernier aspect qui constitue la principale utopie de son projet. 3.6 Conclusion L’urbanisme moderne n’est pas durable car il crée des situations figées, non évolutives. De plus, la réalité de l’évolution sociale des grands ensembles français a rappelé qu’on ne pouvait omettre les dimensions anthropologiques et sociologiques de la ville et de l’habitat et qu’au-delà de la satisfaction de ses besoins de base (manger, s’abriter), l’homme est un être social dont les besoins varient en fonction des cultures et des organisations sociales. Il faut donc penser globalement tout en agissant localement. L’un des enjeux majeurs d’un urbanisme durable est de redonner une certaine compacité à l’agglomération, donc à augmenter la densité de ses secteurs périphériques. Pour y parvenir, il faut sans doute changer les réglementations urbaines en imposant des densités minimales pour limiter la croissance urbaine et permettre de doter l’agglomération de services performants et plus économiques. Une densité suffisante peut être retrouvée en reconstruisant la ville sur la ville. L’introduction de la nature dans l’urbain est un facteur déterminant pour rendre cette densité supportable. Dans ce contexte, il parait également nécessaire de redonner à la voiture la place qu’elle mérite en ville, ni plus ni moins, et d’imaginer des transports collectifs accessibles à tous et performants. D’autre part, la mixité sociale et fonctionnelle apparaît essentielle pour limiter nos besoins en déplacements, et par conséquent limiter nos consommations d’énergies et diminuer les nombreuses pollutions (qualité de l’air, bruit, danger, etc.) tout en assurant l’équilibre et la cohésion de ces grands ensembles vivants. Le développement de nos villes déterminera l’avenir de l’Europe9 [108]. Dans la pratique, il faut néanmoins distinguer deux situations : celle des pays développés qui possèdent déjà un milieu très urbain et relativement stable et celle des pays en développement qui voient leurs paysages urbains se métamorphoser sous l’impulsion de populations rurales nombreuses qui viennent s’agglutiner en périphérie des villes ou dans les bidonvilles. "Des solutions en matière de ville durable existent, mais on ne sait pas les rendre désirables. La ville appelle de nouveaux récits, mais trop peu de personnes sont capables de les produire" [20]. Pour mettre en œuvre ces solutions qui existent en matière de ville durable et les rendre accessibles au plus grand nombre à défaut de les rendre désirables, de nombreux projets de recherche ont vu le jour ces dernières années pour proposer des modèles et outils d’aide à la décision dans bien des domaines de l’urbanisme et accompagner ainsi les décideurs dans des choix éclairés. C’est notamment le cas de ces travaux de thèse qui contribuent 9 Johannes Hahn, Membre de la Commission européenne en charge de la politique régionale.3.6. CONCLUSION 41 au projet de recherche SUSTAINS pour proposer une aide à la décision opérationnelle destinée à la pré- programmation d’environnements urbains durables.4 Cadre méthodologique et problématique Dans un premier temps, nous présentons le cadre méthodologique dans lequel s’inscrivent nos travaux en revenant sur les contributions notables de l’urbanisme au développement durable et en présentant les grandes lignes du projet de recherche SUSTAINS auquel nous participons. Il s’agit d’un projet de recherche pluridisciplinaire qui propose de réaliser un outil d’aide à la décision pour la pré-programmation urbaine (4.1.2.1). En nous associant à ce projet qui regroupe des experts de différents domaines (urbanistes, architectes, statisticiens, concepteur d’interfaces homme machine ou de simulations 3D, chercheurs, ...), nous ancrons nos travaux de recherche dans la réalité du terrain en profitant de compétences croisées et complémentaires sur un domaine reconnu pour être complexe et très difficile à appréhender dans sa globalité. Ce sera également un bon moyen de valider nos modèles et résultats par des professionnels du domaine. A partir de ces éléments, nous décrivons notre problématique en détail en faisant l’inventaire des problèmes de recherche que nous souhaitons adresser dans cette thèse. Après avoir évoqué les principaux concepts et théories associés à ces problèmes, nous les déclinons en questions de recherche précises et faisons une série d’hypothèses pour approcher des réponses présumées. Enfin, nous décrivons notre méthode générale de travail pour y parvenir. 4.1 Synthèse des éléments contextuels 4.1.1 Articulations entre urbanisme et développement durable La contribution de l’urbanisme au développement durable est une idée largement répandue qui s’inscrit en France dans la loi de programmation relative au Grenelle de l’environnement avec une obligation pour les collectivités publiques, de par leurs prévisions et leurs décisions d’utilisation de l’espace, de réduire à la fois les émissions de gaz à effet de serre (GES) et les consommations d’énergies, notamment les ressources fossiles [70]. Pour répondre à ces enjeux, les urbanistes préconisent différentes orientations : • limitation de l’étalement urbain ; • promotion des transports collectifs et de la marche à pied ; • meilleure répartition des activités et des logements dans l’espace. Malgré ces recommandations apparues dès les années 70, la ville a évolué de manière assez éloignée de ces grands principes. Certaines études [185, 196, 209, 11, 262, 287, 36] contestent même l’efficacité de l’urbanisme dans ces domaines, en évoquant : • des impacts limités en comparaison de ceux attendus dans les domaines de l’automobile (amélioration 4344 CHAPITRE 4. CADRE MÉTHODOLOGIQUE ET PROBLÉMATIQUE des moteurs) et du bâtiment (meilleure isolation) ; • des coûts de mise en œuvre très importants ; • des effets perçus sur le long terme inadaptés face à l’engagement de diminuer, en France, les émissions de gaz à effets de serre par quatre d’ici à 2050. Néanmoins, les modes d’organisation spatiale des villes, et notamment la densité, ne sont pas neutres du point de vue des émissions de gaz à effet de serre. Il a été établi que, selon que l’on vit dans une zone bien desservie et bien équipée, ou que l’on vit dans une zone peu dense et dépendante de l’automobile, la consommation d’énergie pour la mobilité varie dans un rapport de 1 à 3 pour des personnes comparables en termes de niveau de vie et d’âge. Ces variations sont principalement imputables aux distances parcourues pour réaliser les activités quotidiennes. Les habitants des cœurs urbains réalisent une part plus importante de leurs déplacements à pied ou en transport en commun, mais le gain obtenu par les habitants des zones denses peut être contrebalancé par des déplacements saisonniers ou de fin de semaine plus importants, l’accès à un jardin réduisant la mobilité de loisir grâce à « l’effet barbecue » 1 . Outre la densité, de nombreuses études montrent que la répartition des ressources (logements, emplois, services, etc.) à l’intérieur de l’espace urbain joue un rôle très important sur la consommation énergétique et l’émission de GES du fait des déplacements. Le levier d’action principal est moins la forme urbaine ou la densité que la manière dont s’agencent les individus, activités et réseaux de transport pour faciliter une accessibilité peu émettrice de GES et peu consommatrice d’énergie. Enfin, certains supposent qu’un prix élevé de l’énergie pourrait avoir un impact beaucoup plus efficace que l’urbanisme et l’aménagement du territoire pour réduire les émissions de GES. Mais jouer sur le seul effet du prix conduirait à faire l’impasse sur les conséquences sociales de telles mesures, les ménages pauvres situés principalement dans les espaces périurbains à faible densité étant parmi les plus vulnérables face à une augmentation du coût de l’énergie. Pour assurer l’équité sociale inscrite dans les principes du développement durable, il est nécessaire de prévoir un aménagement urbain qui autorise au plus grand nombre des déplacements quotidiens indispensables à la vie économique, sociale et culturelle de toutes les villes, même en cas d’usage rare ou cher de l’énergie. En complément des réductions de GES et des consommations d’énergies, le renforcement des liaisons piétonnières, l’amélioration des réseaux de transport collectifs, une plus grande imbrication des logements et des activités, etc. contribuent à la qualité urbaine dans ses différentes dimensions (sociale, environnementale et économique). Ces principes d’aménagement jouent notamment un rôle majeur sur l’acceptabilité sociale de la transition énergétique en marche. Dans le cadre de nos travaux, nous nous intéressons plus particulièrement à une organisation de l’espace urbain (occupation des sols) qui puisse satisfaire les objectifs suivants : • densité maîtrisée ; • proximité de la nature ; • mixité sociale et fonctionnelle ; • viabilité économique des projets urbains ; • aménagement à l’échelle d’une ville nouvelle ou pour le renouvellement complet d’un quartier ; • bien être des habitants (en évitant le bruit, en favorisant les modes de transport doux, . . . ). 4.1.2 Un champ d’application moteur de la recherche théorique Les travaux de recherche relatifs à cette thèse s’inscrivent dans le cadre du projet de recherche national FUI2 SUSTAINS (http ://www.sustains.fr/). Ce projet propose de réaliser un outil d’aide à la décision pour la pré- programmation urbaine (cf. définition dans la section ci-dessous) et le choix des systèmes énergétiques. Cet outil doit permettre d’appréhender la complexité des modèles urbains (résidentiels, industriels, services pu- 1Dans un espace périurbain, on est généralement de gros consommateurs de kilomètres automobiles pour aller travailler, mais le week-end, on a tendance à rester chez soi pour profiter du jardin et faire un barbecue. 2Fonds Unique Interministériel.4.1. SYNTHÈSE DES ÉLÉMENTS CONTEXTUELS 45 blics) dans ses dimensions sociales, économiques, énergétiques, de mobilité et de durabilité. L’intégration, la visualisation et la manipulation de ces dimensions dans une plateforme informatique3 opérationnelle de la ville visent à replacer les différents acteurs (élus, financeurs, société civile) au sein du processus de décision en se focalisant sur deux enjeux : environnement et énergie. Ce projet, commencé en 2011, s’est achevé le 11 février 2014 lors d’une présentation des principales avancées scientifiques et résultats obtenus en présence de tous les acteurs impliqués, des différents financeurs et représentants de structures associées au développement urbain. 4.1.2.1 Pré-programmation urbaine Face à la nécessité d’opérer des choix de développement urbain qui s’inscrivent dans une perspective durable, les collectivités sont amenées à réaliser des arbitrages complexes, en mesurant a priori les consé- quences environnementales et économiques des solutions envisagées. Pour être accompagné dans ces choix difficiles, il est désormais essentiel d’utiliser une méthodologie et un outil permettant de modéliser la programmation d’environnements urbains dans une phase amont, aussi bien pour la création de villes nouvelles que pour la restructuration urbaine. Cette phase constitue la pré-programmation urbaine (PPU), étape préalable au lancement d’une étude urbaine complète. Elle permet d’établir dans une démarche systémique les éléments de programmation (proportion de maison d’habitation, immeuble collectif, bureau, zone artisanale ou industrielle, équipement, espace vert, etc.) essentiels à intégrer dans la conception d’une ville durable. Elle fournit sur une emprise territoriale donnée des études de capacité d’accueil d’un ensemble urbain avec tous les éléments de programmation y compris les équipements publics induits à partir d’un taux d’emploi spécifié. La pré-programmation comprend le positionnement des centralités et axes urbains, la répartition des intensités (niveaux de densité urbaine, de mixité fonctionnelle, de mobilité) et des espaces de respiration, l’organisation en quartiers et en îlots, le tout en fonction d’une population donnée, d’un taux d’emploi, d’une emprise territoriale et d’un ensemble de descripteurs tels l’équilibre des aménagements logements/emplois, la diversification des surfaces ou la création d’espaces de vie collectifs polyvalents. 4.1.2.2 Description générale du projet Le projet SUSTAINS, réalisé en collaboration étroite entre des praticiens de la ville, des experts du domaine de la production et distribution énergétique, et des chercheurs, consiste à : • concevoir un modèle théorique de développement urbain durable reposant sur l’expérience pluridisciplinaire de praticiens de l’aménagement urbain (Établissements Publics d’Aménagement de Marne-la-vallée : ÉPAMARNE). Ce modèle de pré-programmation urbaine est construit autour de la notion d’intensités urbaines intégrant niveau de densité, mixité fonctionnelle et support de mobilités. • étudier et réaliser un modèle informatique interactif qui génère une planification urbaine à partir des règles du modèle théorique de développement urbain durable et de contraintes posées sur les indicateurs (par exemple le maintien d’indicateurs dans des fourchettes de valeurs). Ce modèle doit permettre une visualisation de la ville et de ses indicateurs, ainsi qu’une interaction avec celle-ci (par exemple modification des seuils ou déplacement des éléments de programmation). Cette démarche inverse de conception consiste en (i) l’expression sous forme de contraintes des propriétés désirées de la ville au travers des nombreux indicateurs qui la caractérisent (habitat, énergie, transport, services), (ii) la génération d’une planification urbaine par résolution de ces contraintes (création d’un maillage routier, identification des quartiers et des îlots, caractérisation de la nature des ilôts) et (iii) l’interaction avec cette planification à différents niveaux (répartition spatiale, agencement des quartiers, seuillage des indicateurs) en maintenant la satisfaction des contraintes et la cohérence de l’ensemble. • concevoir et développer un module de simulation et d’optimisation des schémas énergétiques. Ce module permet de modéliser les besoins énergétiques d’un ensemble urbain (zones résidentielles, 3On utilisera le terme de « plateforme » par ailleurs dans ce document pour faire référence à cette suite logicielle.46 CHAPITRE 4. CADRE MÉTHODOLOGIQUE ET PROBLÉMATIQUE FIGURE 4.1 – Échanges entre les modules attribués aux différents acteurs du projet SUSTAINS : ① Surface à aménager et autres paramètres ② Objectif en nombre d’îlots de chaque type (maisons, immeubles d’habitation, commerces, écoles, bureaux, . . . ) ③ Adresse du fichier de configuration ④ Contenu du fichier de configuration dans lequel est assigné à chaque îlot symbolique une fonction urbaine (maisons, immeubles d’habitation, commerces, écoles, bureaux, . . . ) ⑤ Données sous la forme d’un fichier KML ⑥ Entrées issues du traitement relatif au fichier KML ⑦ Volumes annuels de consommation par mode sous la forme d’un fichier CSV ⑧ Fichier KML dans lequel a été inclus l’ensemble des résultats énergie et transport ⑨ Fichier 3D de base ⑩ État du traitement du fichier 3D et index du projet. (Schéma extrait du rapport de fin de projet SUSTAINS.) industries, services publics), de simuler les profils de production/distribution pour répondre à cette demande et d’évaluer l’impact environnemental ainsi que les coûts complets correspondants. • expérimenter et valider le modèle à différentes échelles de villes (éco-quartier, ville,. . . ) en utilisant les données socio-économiques, écologiques et d’aménagement fournies par des projets en cours menés par ÉPAMARNE. La figure 4.1 présente les modules répartis entre les différents acteurs impliqués dans le projet SUSTAINS ainsi que les flux d’échanges qui viennent constituer et enrichir une pré-programmation urbaine. Cette thèse coïncide avec le module « LINA / Moteur IA4 » de la figure 4.1 qui a la charge de produire un modèle informatique interactif (cf. section "Description générale du projet" ci-dessus). 4.2 Le cadre méthodologique Notre travail s’intéresse d’une part aux contributions notables de l’urbanisme au développement durable et se positionne d’autre part au cœur du projet de recherche SUSTAINS. La figure 4.2 illustre de façon synthétique le cadre méthodologique qui s’articule autour d’une plateforme globale d’aide à la décision pour la conception d’environnements urbains durables : 4Moteur IA pour "Moteur d’Intelligence Artificielle" : ce module informatique apporte l’intelligence nécessaire (artificielle) pour répartir au mieux et de façon automatique les éléments urbains sur la ville, tout en proposant une interaction utilisateur nécessaire à l’obtention d’une solution de compromis entre les décideurs.4.2. LE CADRE MÉTHODOLOGIQUE 47 FIGURE 4.2 – Conception d’un environnement urbain durable en 4 étapes : (1) paramétrage des contours du territoire urbain, des propriétés, des axes principaux, des centralités et des zones d’intensités ; (2) calcul du nombre de formes urbaines par niveau d’intensité ; (3) positionnement automatique des formes urbaines sur la ville en respectant un équilibre entre les trois piliers d’un développement durable (économique, social, et environnemental) sans privilégier l’un au détriment des autres ; (4) manipulation interactive des formes urbaines avec maintien des contraintes et préférences. Les deux dernières étapes sont au cœur de notre travail de thèse. 1. le concepteur fixe les contours de la ville, l’emplacement des centralités et l’emprise de chaque niveau d’intensité sur une grille régulière. 2. un système expert (basé sur des règles métier) calcule le nombre de formes urbaines5 de chaque type (maison, bureau, commerce, industrie, ...) par niveau d’intensité en fonction d’un taux d’emploi et des capacités d’accueil du territoire ainsi délimité, de façon spécifique pour chaque pays. 3. les formes urbaines sont automatiquement réparties sur la grille régulière en respectant les contraintes de placement et en favorisant les préférences entre les formes urbaines, le tout traduisant un équilibre entre les différentes propriétés sociales, économiques et environnementales d’une ville durable. 4. les décideurs manipulent l’environnement urbain tandis que la cohérence des contraintes et des pré- férences est maintenue. Nous cherchons à simuler une organisation spatiale optimisée d’un espace urbain durable dans le cadre d’une pré-programmation de façon à : • respecter certaines contraintes structurelles ; • tout en favorisant des préférences de placement liées aux formes urbaines. 5On parle ici du type dominante d’occupation du sol pour chaque cellule de la grille, à ne pas confondre avec la forme globale de l’espace urbain. C’est cette signification qui primera dans la suite de ce document.48 CHAPITRE 4. CADRE MÉTHODOLOGIQUE ET PROBLÉMATIQUE 4.2.1 Un carroyage symbolique régulier Pour représenter la ville, nous utilisons une représentation symbolique prenant la forme d’un carroyage régulier où chaque carreau est desservi par quatre rues ou artères rectilignes (avenues, rues, dessertes, ...). Une fois définies, les voies de communication restent fixes sans entraîner de rétro-action avec les formes urbaines qui seront affectées aux carreaux. A notre niveau, nous nous intéressons plus particulièrement à la répartition des formes urbaines sur la ville (dans chaque carreau) et non aux formes géométriques qu’elle peut prendre. Une déformation à la marge de cette trame pourra être opérée par la suite (par exemple pour un rendu 3D plus réaliste) afin de l’adapter aux courbes du terrain ou aux traits de l’architecte et de l’urbaniste, sans pour autant modifier fondamentalement les résultats précédents. Les données et ratios utilisés pour la conception de la plateforme, notamment le modèle urbain (fi- gure 4.2, étape 2), s’appuient sur différentes réalisations urbaines afin de prendre en compte les contraintes techniques, commerciales, économiques, sociales et environnementales. Ce faisant, la plateforme SUSTAINS ne peut être exploitée en l’état que dans le cadre d’un développement urbain d’au moins cent cinquante hectares, plat et non urbanisé. Mais ces limitations ne concernent pas directement nos travaux qui peuvent être exploités avec ou en dehors de cette plateforme. 4.2.2 L’îlot comme unité de travail Maintenant que nous avons identifié l’échelle globale d’un projet, il nous reste à définir la plus petite unité de travail pertinente pour notre travail. En France, pour cette taille de projet6 , une concertation préalable et une communication portant sur les enjeux et les objectifs de l’aménagement doivent être organisées et des séances de présentation au public sont généralement prévues pour évaluer différents scénarios7 . Lors de cette phase pouvant coïncider avec l’étape de pré-programmation, les résultats présentés au grand public ne doivent pas apparaître trop réalistes pour favoriser le dialogue et renforcer l’idée que toutes les décisions ne sont pas arrêtées. Rappelons également que cette étape de PPU (Pré-Programmation Urbaine) doit proposer une vision à "gros grain" aux décideurs pour qu’ils ne s’embarrassent pas de détails superflus et qu’ils restent focalisés à un niveau suffisamment général dans le but de prendre des décisions stratégiques qui engageront le développement futur d’une ville entière ou d’un quartier sur le long terme. Dans ces circonstances, un découpage du territoire en cellules fixes de 80 m x 80 m correspondant à un îlot urbain standardisé semble suffisamment précis pour caractériser le niveau de granularité le plus fin d’une étude, sans devoir descendre à la parcelle ou au bâtiment. Ce choix renforce une représentation symbolique de la ville (pouvant néanmoins faire apparaître des bâtiments "simples") caractéristique d’une ébauche de projet pouvant encore évoluer. 4.2.3 Résolution optimale et résolution interactive Intéressons-nous maintenant aux contextes de génération des différents scénarios. Les résultats que nous fournirons seront intégrés dans la plateforme selon deux protocoles : • le premier protocole correspond à une recherche initiale de solutions pouvant être lancée sur plusieurs heures en ayant éventuellement recours à des ressources matérielles conséquentes ; • le second protocole correspond à la modification interactive par les décideurs d’une solution initiale pré-calculée (i.e. issue du premier protocole). Dans le premier protocole, nos algorithmes sont utilisés pour fournir une solution initiale (ou plusieurs propositions) dans un temps de résolution limité mais fixé à l’avance, l’échéance pouvant être de l’ordre de quelques heures à une nuit entière pour générer les différents scénarios de base. Dans le second protocole, 6La concertation préalable est obligatoire en France pour les aménagements d’espaces publics dépassant le seuil de 1,9 million d’euros d’investissement (cf. articles L 300-2 et R 300-1 du Code de l’Urbanisme). 7Un scénario correspond au résultat d’une simulation préalable retenue compte tenu de ses caractéristiques et pouvant repré- senter (ou être à la base) une solution potentielle. Différentes simulations permettent généralement d’obtenir différents scénarios présentant des caractéristiques différentes en fonction des choix opérés lors des processus de génération.4.3. PROBLÉMATIQUE 49 une solution initiale (basée sur un scénario) est projetée sur une grande table tactile et les décideurs interagissent avec la solution pour l’adapter à leurs visions ou décisions. Nos outils doivent alors tenir compte des modifications imposées par les utilisateurs tout en maintenant la cohérence des contraintes et des pré- férences dans un contexte ne laissant guère que quelques secondes tout au plus à la procédure de réparation pour opérer. Dans le premier cas, la priorité peut être donnée à la qualité des solutions produites alors que dans le second, c’est le temps de réponse qui devient prioritaire. Notre problème revient alors à positionner au mieux les formes urbaines issues du modèle urbain (figure 4.2, étape 2) sur chaque cellule libre de la grille, chaque cellule représentant un îlot urbain, ceci quel que soit le contexte de résolution (correspondant à nos deux protocoles). Sans en avoir la certitude à ce stade, nous faisons l’hypothèse qu’il sera possible de répondre aux exigences de ces deux contextes (pour la résolution initiale et les réparations interactives) grâce à une procédure d’optimisation unifiée capable de répondre de façon appropriée à chaque situation. 4.2.4 Positionnement de la PPU par rapport aux plateformes de conception urbaine existantes Si il existe beaucoup de modélisations urbaines sur des sujets spécifiques, il n’y a pas précisément de modélisation relative à la pré-programmation urbaine. La PPU se positionne en amont des outils de simulation actuels. Elle vient compléter une chaîne méthodologique dans une tâche de programmation urbaine qui consiste à (i) modéliser une ville par ses caractéristiques et (ii) à simuler son évolution. Parmi ces outils de simulation, on peut noter l’existence de la plateforme américaine URBANSIM [283] classée dans la catégorie des modèles d’urbanisation (Land-Use model). Ce logiciel peut fonctionner en interaction avec différents modèles externes de transport pour constituer un modèle complet de type LUTI (Land Use Transportation Integrated model). En infographie, de multiples recherches se focalisent sur la création de villes nouvelles. Mais bien souvent, ces contributions s’attachent plus à la représentation esthétique des villes (en essayant de les imiter avec le plus de réalisme possible) qu’à leurs dimensions fonctionnelles. Néanmoins, les travaux récents de Vanegas et al. [273] tentent de combler ce vide en intégrant dans leurs outils les modèles d’évolution de la suite URBANSIM sans toutefois proposer une interaction utilisateur permettant de modifier en temps réel les caractéristiques de la ville et sans que cette plateforme soit conçue à l’intention expresse des urbanistes et des décideurs. Finalement, il existe des logiciels élaborés pour les urbanistes (comme CommunityViz [158]) qui proposent des outils de conception automatisés et interactifs. Toutefois, ils se positionnent le plus souvent à une échelle très détaillée (parcelle, bâtiment) et la phase de conception pouvant être assimilée à la PPU reste pauvre en automatismes, privilégiant des tâches manuelles et répétitives assimilables à du dessin. 4.3 Problématique Nous évaluons mieux après ces quelques pages l’étendue et la complexité du sujet traité dans cette thèse. Pour l’aborder de façon méthodique, nous proposons de décomposer notre problématique en trois grandes sections complémentaires : • proposer un modèle de pré-programmation urbaine ; • rechercher une bonne organisation spatiale de la ville à partir du modèle de PPU dans un contexte batch ou interactif ; • imaginer une interaction avec l’utilisateur capable de maintenir la cohérence globale d’une solution. 4.3.1 Proposer un modèle de pré-programmation urbaine Le modèle proposé doit nécessiter très peu de données en entrée, ces données pouvant être limitées aux éléments suivants :50 CHAPITRE 4. CADRE MÉTHODOLOGIQUE ET PROBLÉMATIQUE • les contours du territoire à aménager ; • l’emprise de chaque intensité ; • le nombre et la position de chaque centralité ; • un carroyage régulier définissant les axes de transport principaux et secondaires (avenues, rues et dessertes) ; • les zones non constructibles (rivières, forêts à préserver, . . . ) ; • le nombre de chaque forme urbaine à répartir sur la ville, ces formes urbaines étant ventilées par niveau d’intensité. Le carroyage permet de découper le territoire en cellules régulières où chaque cellule représente un îlot urbain. Une cellule peut être fixe ou libre. Pour une cellule fixe, la forme urbaine est imposée (rivière, forêt, . . . ) alors que pour une cellule libre, aucune forme urbaine ne lui est affectée. Tout l’enjeu consiste à associer à chaque cellule libre la meilleure forme urbaine possible en fonction des formes urbaines à répartir sur la ville. La partie relative à la modélisation est très délicate compte tenu du nombre important de notions à traiter et de la difficulté à les représenter. De plus, il faut appréhender le problème dans sa globalité (approche systémique), avec par exemple une action simultanée touchant à la localisation des diverses ressources territoriales, la densification ou encore des agencements favorables aux modes de transport doux ou collectifs. Par rapport à cette section, les questions suivantes se posent alors : • une phase d’analyse approfondie avec des experts de l’aménagement urbain permettra-t-elle d’identifier les propriétés d’un modèle de PPU pertinent avec si peu de données disponibles en entrée ? • est-il possible de transposer ou d’adapter un modèle américain aux autres continents ? • notre modèle sera-t-il circonscrit à la création d’une ville nouvelle ou pourrait-il être utilisé pour l’extension d’une ville existante ou la réhabilitation d’un quartier (friche industrielle, . . . ) ? • comment définir et représenter les règles de placement des formes urbaines pour satisfaire aux critères d’un développement durable ? • une propriété donnée du problème doit-elle être traduite en contrainte ou en préférence ? • le modèle proposé sera-t-il suffisamment simple pour être compréhensible par des utilisateurs non experts (décideurs), critère essentiel pour son adoption ? • quel formalisme doit-on adopter pour représenter notre modèle ? 4.3.2 Rechercher une bonne organisation spatiale de la ville à partir du modèle de PPU dans un contexte batch ou interactif L’objectif consiste à générer (contexte batch) ou à maintenir (contexte interactif) une ville durable optimisée et réaliste. Pour cela, nous allons exploiter notre modèle de PPU pour répartir au mieux et de façon automatique les formes urbaines (calculées par le modèle urbain) sur chaque cellule libre du carroyage. On entend par libre une cellule dont la forme urbaine n’a été imposée ni par le modèle urbain, ni par l’utilisateur. Reste alors à répondre aux difficultés suivantes : • y a-t-il toujours une solution au problème posé ? • inversement, si il existe plusieurs solutions au problème, alors ces solutions sont-elles nombreuses et pouvons nous trouver la meilleure solution ? • existe-t-il des méthodes capables de résoudre efficacement notre problème et seront-elles en mesure de passer à l’échelle pour des villes réelles de différentes tailles ou de différentes natures ? • est-ce que la qualité des résultats obtenus peut être garantie ? • face à une instance d’un problème particulier, est-t-il possible de prédire les temps ou la puissance de calcul nécessaire ? • les méthodes de résolution retenues pourront-elles s’adapter à la fois au contexte batch et au contexte interactif ou bien faut-il prévoir une méthode dédiée à chaque contexte ? • faudra-t-il dégrader le modèle pour le rendre compatible avec la partie interactive ?4.4. MÉTHODE GÉNÉRALE DE TRAVAIL 51 • ces méthodes pourront-elles être intégrées dans un solveur unifié ? • si la taille du problème devient trop importante, la résolution pourra-t-elle encore se faire sur un ordinateur classique ou bien faut-il prévoir une grille de calcul pour pouvoir augmenter la taille des problèmes à traiter tout en conservant des temps de calcul raisonnables ? 4.3.3 Imaginer une interaction avec l’utilisateur capable de maintenir la cohérence globale d’une solution Bien qu’elle soit abordée en dernier, cette section occupe une place essentielle dans notre problématique de par son aspect « aide à la décision » en lien directe avec les utilisateurs. Dans cette partie, les décideurs doivent interagir directement avec un scénario et le système informatique sous-jacent doit être en mesure de répondre en temps réel aux actions opérées pour maintenir de façon automatique la cohérence globale de la solution en cours. Bien qu’il faille représenter des scénarios réalistes sur une table tactile de grande surface avec des quartiers, des îlots, des parcelles et des bâtiments de différentes natures (maison d’habitation, immeuble collectif, bureau, usine, etc.) en y intégrant les rues, espaces verts, espaces naturels et équipements publics, nous limiterons nos travaux à une représentation symbolique (et non géométrique) de la ville discrétisée par une grille uniforme où chaque cellule représente un îlot urbain associé à une forme urbaine dominante. Plus précisément, nous devrons répondre aux interrogations suivantes : • quelles seront les manipulations proposées à l’utilisateur, seront-t-elles limitées ou étendues, aurontelles une portée locale ou globale ? • faut-il prévoir plusieurs échelles de modification ou des niveaux hiérarchiques pour appréhender le problème interactif ? • des contraintes peuvent-elles être violées suite à une opération, et si oui, quelles sont ces contraintes ? • quelle forme doit prendre le processus de résolution : doit-il rester actif pendant toute la phase d’interaction ou peut-on le relancer en réponse à un événement particulier ? Quels peuvent-être ces différents événements et comment les propager à la procédure de résolution ? • peut-on gérer la réparation d’une solution comme une résolution initiale et faudra-t-il incorporer des données supplémentaires dans le modèle pour gérer l’interaction ? • avec l’utilisation de tables tactiles multi-touch, faut-il prévoir plusieurs utilisateurs opérant des modi- fications simultanées sur le même scénario ? • en retour à chaque action, comment informer les décideurs des conséquences de leurs choix, à partir de quels indicateurs ? • comment représenter ces indicateurs et pourront-ils être calculés en temps réel ? • sur quels critères pourra-t-on évaluer la pertinence du processus interactif ? 4.4 Méthode générale de travail Pour répondre à toutes les questions qui se posent, nous allons étudier des projets qui se sont confrontés à des problématiques voisines pour enrichir nos connaissances et trouver la bonne façon de les aborder. Nous nous appuierons également sur des professionnels du secteur, en particulier les urbanistes, architectes et concepteurs d’IHM8 impliqués dans le projet SUSTAINS, afin d’appréhender toutes les notions importantes à intégrer. Grâce à des confrontations directes et régulières, des réponses concrètes pourront être apportées au fil des rencontres. Plus tard, le point de vue des relecteurs de nos articles de recherche constituera probablement une source utile tout comme les présentations scientifiques et les discutions associées. Nous considérons que la réalisation de prototypes constitue un moyen objectif et efficace pour évaluer différentes classes de méthodes sur nos problèmes, les comparer et savoir si elles répondent bien aux objec- 8 Interface Homme Machine52 CHAPITRE 4. CADRE MÉTHODOLOGIQUE ET PROBLÉMATIQUE tifs fixés. Bien que la partie IHM ne soit pas directement de notre ressort, nous allons tout de même proposer une procédure de saisie et de rendu graphique très simple gérant l’interaction avec les utilisateurs pour appréhender l’ensemble des difficultés relatives aux modifications temps réel d’une solution et proposer en retour des moyens pertinents d’informer les utilisateurs des conséquences de leurs choix. Un aspect essentiel concerne la validation des résultats. Pour cela, nous travaillerons sur différentes instances de nos problèmes : dans un premier temps avec des instances « jouets » plus ou moins grosses pour les mises au point et l’évaluation des performances au sens informatique (temps de calcul, qualité des résultats), et dans un second temps, avec des instances réelles provenant de Marne-la-vallée. A chaque fois, les résultats seront soumis à des professionnels de l’aménagement urbain pour être validés. Pour ce qui concerne la cohabitation de nos recherches avec le projet SUSTAINS, elle constitue une réelle opportunité mais revêt également bien des difficultés. Par exemple, cela nécessite de synchroniser l’avancement de la thèse avec le calendrier du projet en ne perdant pas de vue les objectifs communs et les échéances qui ont été définis, ce qui peut favoriser une certaine rigidité. De plus, les décisions sur des sujets aussi vastes que l’urbanisme peuvent dans certains cas déchaîner les passions ou donner lieu à des discutions sans fin. D’un point de vue opérationnel et en l’absence d’une plateforme technique commune, les différents modules doivent communiquer par le biais de services distants répartis sur les sites de chaque partenaire en respectant des normes précises pour permettre aux différents services de travailler sur des données partagées. Et compte tenu des accords de consortium, certains documents ou algorithmes peuvent rester confidentiels de part et d’autre. Sous oublier que l’interdisciplinarité nécessite l’adoption d’un vocabulaire commun pour réussir à se comprendre, une ouverture d’esprit sur des problématiques qui ne sont pas directement en lien avec ses propres thèmes de recherche ou encore une adaptation permanente à des niveaux de réflexion qui peuvent être très généraux ou très précis. Pour faciliter les choses, nos réalisations doivent pouvoir fonctionner à la fois de façon intégrée avec la plateforme SUSTAINS, et de façon complè- tement autonome pour ne pas être confronté à ses limitations (indisponibilité d’un module, bugs, retards, expérimentations sur des échelles différentes, . . . ). En tout état de cause, nous faisons ici l’hypothèse forte que les avantages d’une collaboration pluridisciplinaire surclasseront largement tous les inconvénients, et qu’au final la plupart des difficultés se révéleront être très probablement des opportunités (rigueur, consensus, organisation, partage du savoir, . . . ). 4.5 Conclusion À partir d’une synthèse des éléments contextuels qui portent d’une part sur l’apport de l’urbanisme au développement durable et d’autre part sur le projet de recherche SUSTAINS auquel nous participons, un cadre méthodologique suffisamment précis a pu être identifié. Ces éléments nous ont permis de dégager une problématique détaillée relative à cette thèse que nous avons décliné en trois grands aspects portant sur la conception d’un modèle urbain, les possibilités de résolution correspondantes et la proposition d’une interaction avec les utilisateurs. Pour répondre aux nombreuses questions posées et aux difficultés scientifiques qu’elles soulèvent, nous allons commercer par dresser un état de l’art complet qui porte sur trois sujets complémentaires : • les problèmes d’optimisation combinatoire sous contraintes et les méthodes de résolutions associées ; • les systèmes interactifs d’aide à la décision ; • la modélisation urbaine et les problèmes de positionnement.II État de l’art 535 Problèmes d’optimisation combinatoire sous contraintes Comment trouver le plus court chemin passant par vingt-cinq villes données sans devoir examiner un à un les milliards de trajets possibles ? Ce sont de tels problèmes qu’informaticiens et mathématiciens étudient depuis plusieurs décennies pour trouver des méthodes de résolution efficaces capables de fournir des solutions avec un temps de réponse acceptable. Trouver une bonne solution consiste parfois à faire gagner du temps ou de l’argent, mais avec les avancées scientifiques et techniques, nous devons faire face à de nouveaux problèmes. C’est le cas par exemple de l’optimisation combinatoire appliquée à la génomique où l’on s’efforce de décrypter l’information génétique d’un organisme vivant. Les enjeux liés à la résolution des problèmes combinatoires sont donc essentiels, que cela soit sur le plan scientifique pour produire du savoir algorithmique, ou sur le plan pratique pour améliorer la performance de systèmes de plus en plus complexes (systèmes mécaniques, traitement d’images, électronique, . . . ). C’est ainsi que l’optimisation combinatoire occupe une place très importante en recherche opérationnelle et en informatique. De nombreuses applications peuvent être modélisées sous la forme d’un problème d’optimisation combinatoire telles que le problème du voyageur de commerce, l’ordonnancement de tâches, le problème de coloration de graphes, etc. Après l’identification des caractéristiques essentielles relatives aux problèmes combinatoires, nous ferons l’inventaire des principales méthodes capables d’adresser ces problèmes, ces méthodes pouvant être classées dans la catégorie des méthodes complètes ou incomplètes. Nous nous intéressons plus précisé- ment à deux méthodes de résolution efficaces applicables à ces problèmes : les méthodes complètes1 de programmation par contraintes (PPC) et les techniques de recherche locale (RL) qui sont des méthodes incomplètes2 . Il existe bien d’autres techniques de résolution, comme les algorithmes génétiques [133], de colonies de fourmis [78], l’optimisation par essaims particulaires [150] ou encore les systèmes multi-agents [81, 92]. Néanmoins, le sujet est si vaste qu’il est impossible ici d’aborder toutes les techniques de résolution en détail. Les problèmes d’optimisation étant de plus en plus complexes et les besoins en ressources ne cessant d’augmenter, les métaheuristiques réputées pouvoir attaquer des problèmes très difficiles peuvent à leur tour être limitées face à ces nouvelles exigences. Nous verrons alors comment le parallélisme permet d’étendre les capacités de ces techniques sans remettre en cause leurs fondements. 1Peuvent prouver l’insatisfiabilité ou l’optimalité 2A l’inverse, elles ne sont pas en mesure de prouver l’insatisfiabilité ou l’optimalité 5556 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES Ce chapitre constitue une synthèse des travaux et documents de référence suivants : [16, 251, 226, 14, 76, 30, 47, 115, 44, 12]. 5.1 Caractéristiques des problèmes combinatoires Les problèmes de nature combinatoire possèdent un nombre fini de configurations possibles, mais ce nombre est très grand, de sorte qu’une résolution par une simple énumération n’est pas concevable dans la pratique. Ces problèmes sont souvent faciles à définir mais habituellement difficiles à résoudre [127]. 5.1.1 Problème d’optimisation combinatoire Explosion combinatoire Rechercher le chemin le plus court ou le plus rapide entre deux points est un problème assez simple à résoudre. Mais quand le nombre d’étapes croît, le nombre de possibilités augmente au-delà de ce que l’on peut énumérer de tête, et même au delà de ce que peuvent examiner les ordinateurs les plus puissants en un temps raisonnable : il s’agit de l’explosion combinatoire. Il existe bien souvent un nombre exponentiel de solutions à un problème en fonction de sa taille. Le problème du voyageur de commerce (Traveling Salesman Problem, TSP) est un problème caractéristique d’optimisation combinatoire. Pour ce problème, il s’agit de trouver un chemin qui passe une fois et une seule par chaque ville en minimisant la distance totale parcourue pour revenir au point de départ. Si n représente le nombre de villes et S l’ensemble des partitions d’un ensemble à n éléments, alors |S| = (n−1)! 2 correspond au nombre de chemins possibles pour un problème symétrique. Une résolution du problème avec une énumération exhaustive consiste à générer tous les trajets possibles, à calculer leurs distances et à choisir le trajet ayant la distance minimale. La table 5.1 illustre le phénomène d’explosion combinatoire pour le problème du voyageur de commerce avec un nombre croissant de villes à parcourir. TABLE 5.1 – Problème du voyageur de commerce : temps de calcul nécessaire pour trouver le trajet le plus court en réalisant une énumération exhaustive de tous les trajets possibles en fonction du nombre de villes (un trajet pouvant être évalué en une microseconde). D’après [24]. n |S| Temps de calcul 5 12 12 microsecondes 10 181 440 0,18 seconde 15 43 milliards 12 heures 20 6 E+16 19 siècles 25 3 E+23 9,8 milliards d’années Pour repousser les limites et résoudre des problèmes d’optimisation combinatoire de plus grande taille en un temps raisonnable, on peut certes compter sur l’augmentation des capacités matérielles mais bien plus encore sur l’innovation algorithmique [24]. Definition 1 (Problème d’optimisation combinatoire). Un problème d’optimisation combinatoire est géné- ralement caractérisé par un ensemble fini de solutions admissibles S et une fonction objectif f : S → R qui associe une valeur à chaque solution admissible. La résolution du problème d’optimisation consiste à déterminer la ou les solutions de S minimisant ou maximisant f. Lorsque la fonction f représente un coût ou une perte, on parle d’un problème de minimisation. Lorsque la fonction f représente un gain, on parle d’un problème de maximisation.5.1. CARACTÉRISTIQUES DES PROBLÈMES COMBINATOIRES 57 5.1.2 Complexité Un algorithme nécessite deux ressources importantes pour résoudre un problème : du temps et de l’espace. La complexité en temps d’un algorithme correspond à une estimation du nombre d’instructions (ou d’étapes) à exécuter pour résoudre les instances d’un problème de taille n, cette estimation étant donnée en ordre de grandeur dans le pire cas, c’est à dire pour l’instance la plus difficile à résoudre. La complexité d’un problème est équivalente à la complexité du meilleur algorithme (au sens du plus rapide) pouvant résoudre ce problème. Comme les problèmes combinatoires ne possèdent pas tous la même difficulté, on utilise une classification définie par la théorie de la complexité pour cerner le niveau de difficulté lié à leur résolution [214]. Cette classification prend ses sources en 1971, lorsque Stephen COOK et Leonid LEVIN ont formulé quasiment au même moment deux classes importantes de problèmes de décision : • la classe P : correspond à l’ensemble des problèmes de décision algorithmiques pouvant être résolus en un temps polynomial (problèmes relativement faciles à résoudre) ; • la classe N P : correspond à l’ensemble des problèmes de décision algorithmiques tels que, si une solution possible est donnée, il est possible de vérifier cette solution en un temps polynomial (problèmes faciles à vérifier mais difficiles à résoudre). Un problème de décision correspond à une question mathématique qui a toujours une solution pouvant s’exprimer par "oui" ou par "non". Un problème d’optimisation peut toujours être réduit à un problème de décision. La classe de complexité P contient l’ensemble de tous les problèmes de décision pouvant être résolus par un algorithme de complexité polynomiale3 . Cette classe regroupe les problèmes qui peuvent être résolus efficacement. La classe de complexité N P rassemble quant à elle les problèmes de décision pouvant être résolus par un algorithme de complexité polynomiale pour une machine non déterministe, c’est à dire capable d’évaluer en parallèle un nombre fini d’alternatives. La classe N P englobe ainsi la classe P. La résolution des problèmes N P peut nécessiter l’examen d’un grand nombre de cas, éventuellement exponentiel4 , mais chaque cas doit pouvoir être examiné en un temps polynomial. Pour les problèmes les plus difficiles de N P, on ne trouve jamais d’algorithme polynomial pour résoudre chaque cas avec une machine déterministe. Ces derniers problèmes définissent la classe des problèmes N P-complet. Definition 2 (N P-complet). Un problème est dit N P-complet si : • il est dans N P ; • et il est au moins aussi difficile que tout problème de N P. Si on ne tient pas compte de la clause d’appartenance à la classe N P, on trouve la classe des problèmes N P-difficile qui fait référence aux problèmes d’optimisation dont les problèmes de décision associés sont N P-complet. Ces problèmes N P-difficile sont au moins aussi difficiles à résoudre que n’importe quel problème de N P [252]. Pour ces problèmes N P-difficile, on présume qu’il n’existe pas d’algorithme polynomial pour les résoudre à l’optimalité, c’est à dire un algorithme dont le temps de calcul soit proportionnel à n i , n étant le nombre de variables inconnues du problème et i une constante entière. Definition 3 (N P-difficile). Un problème est dit N P-difficile si il est au moins aussi difficile que tout problème de N P. La catégorie N P-difficile inclut également les problèmes qui ne sont pas des problèmes de décision. Beaucoup de problèmes académiques populaires sont N P-difficile, parmi eux, nous pouvons citer : • les problèmes d’affectation-localisation : problème d’affectation quadratique (Quadratic Assignment Problem ou QAP), problème d’affectation généralisé (Generalized Assignment Problem ou GAP), problème de localisation d’équipements (Facility Location Problem), problème de P-médian ; 3Complexité polynomiale notée O(n i ) : quand n double, le temps d’exécution est multiplié par 2 i ; n étant le nombre de variables inconnues du problème et i une constante entière. 4Complexité exponentielle notée O(i n) : quand n double, le temps d’exécution est élevé à la puissance 2 ; n étant le nombre de variables inconnues du problème et i une constante entière.58 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES • les problèmes de regroupement : Partitionnement de données (Data Clustering), Coloration de graphe (Graph Coloring) • le problème de couverture par ensembles (Set Cover Problem ou SCP). En fait, une majorité des problèmes de la vie réelle [104, 266] appartiennent à la classe des problèmes N P-difficile et ne possèdent pas de solution algorithmique efficace valable pour les résoudre à l’optimalité lorsque la taille du problème augmente. 5.1.3 Problèmes de satisfaction de contraintes Un très grand nombre de problèmes combinatoires appartient à la famille des problèmes de satisfaction de contraintes (Constraint Satisfaction Problem ou CSP) : configuration, planification, ordonnancement, affectation de ressources, etc. Étant donné un ensemble de contraintes, portant chacune sur un sous-ensemble donné de variables auxquelles on cherche à affecter une valeur, la question centrale est de savoir s’il existe une possibilité de satisfaire simultanément toutes ces contraintes et, le cas échéant, quelles valeurs peut-on affecter à chaque variable pour satisfaire toutes les contraintes [27]. Ces problèmes partagent une description commune, basée sur un formalisme très simple, qui autorise en général une modélisation claire et intuitive. Definition 4 (CSP). Un problème de satisfaction de contraintes (CSP) est défini par un triplet (X, D, C) tel que : • X = {x1, · · · , xn} est l’ensemble des variables (les inconnues) du problème, • D = {D (x1), · · · , D (xn)} est l’ensemble des domaines et D (xi) correspond à l’ensemble fini des valeurs possibles pour la variable xi , • C = {C1, C2, ..., Ck} représente l’ensemble des contraintes et Cj est une relation entre certaines variables de X. Une contrainte définit les combinaisons de valeurs des variables autorisées. C’est une relation logique (une propriété devant être vérifiée) entre différentes variables. Ainsi, une contrainte restreint les valeurs que peuvent prendre simultanément les variables. Definition 5 (Affectation). On appelle affectation (ou configuration) le fait d’instancier certaines variables à des valeurs prises dans leurs domaines respectifs. Une affectation est dite totale si elle instancie toutes les variables et partielle si elle n’en instancie qu’une partie. Une affectation (totale ou partielle) est consistante si elle ne viole aucune contrainte, et inconsistante si elle viole une ou plusieurs contraintes. Definition 6 (Espace de recherche). L’espace de recherche d’un CSP P = (X, D, C) est l’ensemble des configurations possibles noté S, tel que : S = D (x1) × D (x2) × · · · × D (xn) L’espace de recherche est égal au produit cartésien de l’ensemble des domaines des variables et il croît de façon exponentielle avec le nombre de variables. Definition 7 (Solution). Une solution d’un CSP P = (X, D, C) est une affectation totale s ∈ S qui satisfait toutes les contraintes (consistante). S correspond à l’ensemble des solutions de P tel que : S = {s ∈ S | ∀c ∈ C, s satisfait c} Résoudre un CSP consiste alors à trouver une solution réalisable, un nombre donné de solutions réalisables ou toutes les solutions réalisables.5.1. CARACTÉRISTIQUES DES PROBLÈMES COMBINATOIRES 59 5.1.4 Problèmes d’optimisation sous contraintes Beaucoup de problèmes combinatoires peuvent également s’exprimer comme des problèmes d’optimisation sous contraintes (Constraint Satisfaction and Optimization Problem ou CSOP). Un problème d’optimisation sous contraintes est un problème pour lequel on cherche parmi l’ensemble de toutes les solutions réalisables la meilleure solution selon une fonction qui définit un objectif donné. La fonction objectif a pour rôle d’évaluer la qualité d’une solution tandis que les contraintes permettent d’éliminer les configurations qui ne sont pas des solutions. Le problème est alors double : le premier consiste à trouver l’ensemble de toutes les solutions réalisables et le deuxième à trouver dans cet ensemble la meilleure solution qui minimise ou maximise la fonction objectif. On parle d’un problème de minimisation quand la qualité d’une solution est donnée par une fonction objectif à minimiser et d’un problème de maximisation quand la qualité d’une solution est donnée par une fonction objectif à maximiser. L’étude d’un problème d’optimisation révèle habituellement des contraintes impératives (structurelles ou dures) et des contraintes indicatives (préférences ou molles) [46]. Les solutions retenues doivent respecter les contraintes impératives qui limitent l’espace de recherche tandis que les contraintes indicatives doivent être respectées autant que possible, le niveau de satisfaction de ces dernières devant être encodé dans la fonction objectif. Definition 8 (CSOP). Un problème d’optimisation sous contraintes (CSOP) est défini par le quadruplet (X, D, C, f) avec : • X = {x1, · · · , xn} est l’ensemble des variables du problème, • D = {D (x1), · · · , D (xn)} est l’ensemble des domaines, • C = {C1, C2, ..., Ck} représente l’ensemble des contraintes, • f est une fonction objectif définie sur un sous-ensemble de X (à minimiser ou à maximiser). La fonction f permet de définir une relation d’ordre total entre n’importe quelle paire de solutions dans S. Nous avons vu à la section 5.1.2 qu’on pouvait associer un problème de décision à chaque problème d’optimisation, le but étant de déterminer s’il existe une solution pour laquelle la fonction objectif soit supérieure (respectivement inférieure) ou égale à une valeur donnée. Ainsi, la complexité d’un problème d’optimisation est liée à celle du problème de décision qui lui est associé. En particulier, si le problème de décision est N P-complet, alors le problème d’optimisation est N P-difficile [252]. 5.1.4.1 Multiobjectif versus multicritère Pour certains problèmes combinatoires, plusieurs objectifs contradictoires doivent être optimisés en même temps. Par exemple, lors de la préparation d’un voyage, il peut être demandé de choisir entre différents modes de déplacement (avion, train, bateau, voiture, etc.) de façon à minimiser le coût de transport tout en minimisant le temps du trajet. On recense essentiellement deux approches associées à ces problèmes [51] : les techniques de géné- ration (que nous appellerons multiobjectif) et les techniques à base de préférences (que nous nommerons multicritère). Les techniques basées sur les préférences consistent à synthétiser les informations relatives à différents points de vue ou aspects. Il s’agit de ramener un problème multiobjectif à un problème simple objectif. Elles utilisent une méthode pour classer les objectifs et ainsi trouver une solution qui optimise le classement. Ce classement peut être réalisé par une variété de moyens allant d’une simple somme pondérée des objectifs à une fonction d’utilité complexe [33, 3]. Les techniques de génération quant à elles recherchent dans un ensemble très grand de solutions celles qui satisfont au mieux l’ensemble des objectifs. Pour cela, elles identifient les configurations optimales de Pareto où chaque configuration est telle qu’il est impossible d’améliorer le score de l’une sans diminuer le score de l’autre. Dans un contexte d’aide à la décision, les problèmes contiennent souvent une multitude d’aspects simultanés à prendre en considération pour la prise de décision. Pour S. BEN-MENA [25], l’approche multicritère,60 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES capable d’intégrer tout type de critère5 , permet alors de se diriger vers un compromis judicieux plutôt qu’un optimum qui n’a pas toujours de sens. Une technique classique consiste alors à encoder chaque aspect du problème dans la fonction objectif, en attribuant à chaque critère un éventuel poids pour lui accorder plus ou moins d’importance par rapport aux autres critères [234]. Bien que cette approche du « critère unique de synthèse » soit soumise à une compensation possible entre critères ou à une forte sensibilité aux changements d’échelle, les méthodes d’agrégation complète peuvent s’avérer intéressantes ou tout simplement les seules utilisables [240]. 5.1.5 Problèmes d’optimisation dynamique sous contraintes Les problèmes d’optimisation dynamique sont présents dans beaucoup d’applications réelles et représentent à ce titre un défi important. Ils sont caractérisés par des éléments en entrée du problème qui changent au fil du temps [266]. Par exemple, ces changements peuvent être liés à des machines qui tombent en panne, à une qualité variable de matières premières ou encore à l’introduction de nouvelles tâches à planifier. Cela peut concerner des problèmes classiques comme le problème de tournées de véhicules (Vehicle Routing Problem ou VRP), les problèmes d’ordonnancement de tâches ou des problèmes plus spécifiques comme le contrôle de réactions chimiques liées à des conditions de température et de pression [168]. Bien que le formalisme et les algorithmes CSP permettent de représenter et de traiter de nombreux problèmes d’intelligence artificielle et de recherche opérationnelle, le cadre CSP montre des limitations face à des problèmes dynamiques du monde réel dans lesquels la définition du problème est modifiée incrémentalement. La notion de CSP dynamique (Problème de Satisfaction de Contraintes dynamique ou Dynamic Constraint Satisfaction Problem) a été introduite par [68] pour représenter de telles situations. Un DCSP est une séquence de CSP dont chaque élément diffère du précédent par l’ajout et/ou le retrait de certaines contraintes. Concernant la fonction objectif associée au problème d’optimisation, et bien qu’elle soit déterministe, elle change également au fil du temps au gré des modifications qui interviennent en entrée du problème [144] : fdynamic(s) = ft(s) où t représente le temps au cours duquel la fonction objectif est évaluée. Et lorsque la fonction objectif change, il y a de fortes chances pour que la solution optimale du problème change également. Compte tenu de ces éléments, les principales difficultés à surmonter pour un problème d’optimisation dynamique sont [34, 198] : • détecter le changement dans l’environnement lorsqu’il se produit ; • répondre à ce changement pour suivre la nouvelle solution optimale. Le processus de recherche doit alors s’adapter rapidement au changement de la fonction objectif. Le but n’est plus seulement de trouver l’optimum global, mais de le suivre aussi fidèlement que possible dans le temps [168]. Le principal défi consiste à réutiliser l’information des recherches précédentes pour s’adapter au changement du problème au lieu de résoudre à nouveau le problème. 5.2 Résolution des problèmes d’optimisation combinatoire Les problèmes d’optimisation combinatoire constituent une catégorie de problèmes très difficiles à ré- soudre [215]. La résolution d’un problème d’optimisation combinatoire consiste à explorer un espace de recherche afin de minimiser ou maximiser une fonction objectif pour trouver la meilleure solution, définie comme la solution globalement optimale ou optimum global. Cette résolution est habituellement délicate puisque le nombre de solutions réalisables croît généralement avec la taille du problème, rendant un parcours exhaustif impraticable en pratique. 5Un critère permet de mesurer les préférences du décideur vis-à-vis d’une action. Par exemple, pour l’achat d’une voiture : coût à l’achat, confort, sécurité, économie à l’usage ; ou pour le choix du meilleur emplacement pour la construction d’une station d’épuration : nuisances olfactives, coût d’acheminement de l’eau, . . .5.2. RÉSOLUTION DES PROBLÈMES D’OPTIMISATION COMBINATOIRE 61 FIGURE 5.1 – Méthodes classiques d’optimisation. D’après le livre [266]. La complexité en taille ou en structure de l’espace de recherche d’une part et de la fonction objectif d’autre part peut conduire à utiliser des méthodes de résolution différentes en fonction du problème ou de l’instance à traiter. Intuitivement, on pourrait penser que la difficulté d’une instance d’un problème est proportionnelle au nombre de variables, à la taille du domaine par variable et au nombre de contraintes. Dans les faits, il est le plus souvent impossible de prévoir avec certitude l’efficacité d’une méthode donnée pour un problème particulier. Le théorème "no free lunch" ("pas de dîner gratuit, NFL") [288] nous indique, sous certaines hypothèses, qu’une méthode de résolution ne peut prétendre être la plus efficace sur tous les problèmes. Les méthodes de résolution liées aux problèmes d’optimisation peuvent être regroupées en deux grandes familles (figure 5.1) : • les méthodes dites complètes (ou exactes) qui obtiennent les solutions optimales et garantissent les résultats ; • les méthodes dites incomplètes (ou approchées) qui trouvent rapidement des solutions de bonne qualité sans garantir l’optimalité. L’optimisation combinatoire couvre un large éventail de techniques et fait toujours l’objet de recherches intensives sur de nombreux domaines d’application (finance, transport, surveillance, biologie, . . . ) de sorte qu’il est impossible de toutes les aborder ici en détail. Nous nous limitons dans un premier temps à un panorama non exhaustif de chaque famille pour avoir une idée très générale des méthodes existantes. 5.2.1 Panorama des méthodes complètes Les algorithmes complets (ou exacts) évaluent l’espace de recherche dans sa totalité en réalisant une énumération intelligente. Ils donnent la garantie de trouver la solution optimale pour une instance de taille finie dans un temps limité et permettent de prouver son optimalité [222]. 5.2.1.1 La programmation linéaire La programmation linéaire propose un cadre de modélisation mathématique permettant de résoudre des problèmes d’optimisation avec des algorithmes efficaces comme la méthode du simplexe [62] ou les mé- thodes de points intérieurs [148]. On parle de programme linéaire en nombres entiers (PLNE) lorsque les62 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES valeurs des variables du programme linéaire doivent être des nombres entiers et de programme linéaire mixte (PLM) lorsque certaines variables doivent être entières et d’autres pas. Relaxer un PLNE ou un PLM consiste en général à supprimer certaines de ses contraintes ou à les remplacer par des contraintes plus faibles. Le problème résultant est souvent plus simple à résoudre que le problème original et sa solution optimale peut être soit réalisable pour le problème original, donc optimale pour ce dernier, soit non réalisable et avoir un coût proche de l’optimum du problème original. 5.2.1.2 L’algorithme de séparation et évaluation L’algorithme de séparation et évaluation (Branch and Bound) [163] utilise une méthode arborescente de recherche basée sur l’idée d’énumérer implicitement les solutions possibles d’un problème de PLNE pour trouver la meilleure solution sans passer par une énumération explicite trop gourmande en temps. Cet algorithme est composé de trois éléments principaux : • la séparation : consiste à diviser le problème en sous-problèmes où chaque sous-problème contient un ensemble de solutions réalisables tel que l’union de leurs espaces de solutions forme l’espace des solutions du problème père. Cela revient à construire un arbre (arbre de recherche ou arbre de décision) permettant d’énumérer toutes les solutions. Ainsi, en résolvant tous les sous-problèmes et en gardant la meilleure solution trouvée, on est assuré d’avoir résolu le problème initial. • l’évaluation : permet de réduire l’espace de recherche en éliminant les sous-ensembles qui ne contiennent pas la solution optimale. Le principe consiste à mémoriser la solution de plus bas coût (pour un problème de minimisation) rencontrée pendant l’exploration et à comparer le coût de chaque nœud parcouru avec celui de la meilleure solution. Si le coût du nœud considéré est supérieur au meilleur coût trouvé, on peut arrêter l’exploration de la branche car toutes les solutions de cette branche seront nécessairement moins bonnes. • une stratégie de parcours : en largeur, en profondeur ou le meilleur d’abord. 5.2.1.3 Les méthodes de coupes Les méthodes de coupes ou plans sécants introduites par GOMORY [119] permettent de simplifier un PLNE en relaxant certaines de ses contraintes. Si la solution optimale du problème relaxé est une solution valide pour le problème original, alors elle correspond à l’optimum recherché. Sinon, des contraintes du problème initial sont violées par la solution courante. Il s’agit alors de trouver un sous-ensemble de ces contraintes appelées coupes, puis de les ajouter à la relaxation avant de la résoudre à nouveau. La procédure se poursuit jusqu’à ce que la solution obtenue soit réalisable pour le problème original, ou que les procédures d’identification des coupes n’arrivent plus à trouver de contraintes violées. Dans ce dernier cas, le coût de la dernière solution trouvée est une borne inférieure du coût optimal pour un problème de minimisation (respectivement une borne supérieure pour un problème de maximisation). L’algorithme Branch and cut utilise des méthodes de coupes pour calculer de bonnes bornes inférieures au cours de la procédure d’évaluation de la méthode de séparation et évaluation afin d’améliorer ses performances. 5.2.1.4 La méthode de génération de colonnes La méthode de génération de colonnes [110, 13] est une méthode efficace pour résoudre des programmes linéaires pour lesquels le nombre de variables (colonnes) et trop important pour qu’on puisse les représenter de manière explicite. L’objectif est de résoudre un problème réduit avec un ensemble limité de variables. Le problème initial est appelé problème maître, et le problème réduit est appelé problème restreint. Le problème restreint est plus simple à résoudre, mais si l’ensemble de ses variables ne contient pas celles qui donnent la solution optimale pour le programme maître, il faut rajouter au problème restreint des variables pouvant être utilisées pour améliorer la solution. Un sous problème associé au problème maître consiste5.2. RÉSOLUTION DES PROBLÈMES D’OPTIMISATION COMBINATOIRE 63 à chercher la meilleure variable à rajouter dans le problème restreint : il doit trouver la variable la plus prometteuse pour améliorer la solution. La méthode de génération de colonnes peut être combinée avec un processus de séparation et évaluation pour résoudre un PLNE, donnant alors naissance à la méthode appelée Branch and price [145]. 5.2.1.5 La programmation dynamique La programmation dynamique repose sur le principe d’optimalité de BELLMAN [23] selon lequel une sé- quence optimale est composée de sous-séquences optimales. La solution optimale d’un problème peut alors être déduite en combinant des solutions optimales d’une série de sous-problèmes. On commence par les sous-problèmes les plus petits et on remonte vers les sous-problèmes de plus en plus difficiles en tirant profit des résultats des problèmes déjà obtenus. La difficulté réside dans la formulation d’une séquence de décisions permettant de calculer la solution du problème en fonction des solutions des sous-problèmes. Son efficacité dépend de la propriété récursive et de l’efficacité des procédures de résolution des problèmes intermédiaires. 5.2.1.6 La programmation par contraintes Dans l’absolu, la programmation par contraintes (PPC) se situe au même niveau qu’un CSP et englobe à la fois des méthodes de résolution exactes et approchées (e.g. Constraint-Based Local Search [272], CBLS). Par abus de langage, nous réduisons la PPC au champ des méthodes de résolution complètes. La programmation par contraintes (Constraint Programming) [16, 97, 9, 233] est une approche très populaire qui repose sur le formalisme CSP avec une recherche arborescente incluant des notions liées à la consistance locale des contraintes : elle effectue une recherche énumérative complète en inférant des réductions de l’espace de recherche à partir des contraintes du problème. La recherche réalise un parcours de l’espace de recherche par un jeu d’affectations et de retours arrières [169]. Souvent représentée par un arbre, la recherche énumère toutes les instanciations possibles jusqu’à trouver une solution ou conclure qu’il n’y en a pas. La propagation quant à elle vient assister la recherche en essayant de déduire de nouvelles informations à partir de l’état courant des domaines. À partir d’une instanciation partielle, le mécanisme de propagation tente de supprimer des valeurs impossibles des domaines des variables, réduisant ainsi la taille de l’espace de recherche. 5.2.2 Panorama des méthodes incomplètes Les méthodes incomplètes reposent en grande partie sur l’utilisation d’heuristiques [2, 127]. Elles explorent une sous-partie de l’espace de recherche au moyen de techniques variées afin d’en extraire au plus vite une solution qu’on espère de bonne qualité. Contrairement aux méthodes complètes, celles-ci ne sont pas en mesure de prouver l’optimalité des solutions trouvées. L’efficacité d’une méthode incomplète réside dans l’équilibre entre deux grandes notions : l’intensification d’une part et la diversification d’autre part. L’intensification consiste à scruter une zone précise de l’espace de recherche afin d’en extraire un optimum local (et si possible l’optimum global) alors que la diversification permet de déplacer la recherche dans des zones variées et prometteuses de l’espace de recherche non encore explorées. Dans la classe des algorithmes approchés, on peut distinguer trois sous-classes : • les algorithmes d’approximation ; • les heuristiques ; • les métaheuristiques ; 5.2.2.1 Les algorithmes d’approximation L’approximation d’un problème d’optimisation N P-difficile consiste à obtenir des informations sur sa solution optimale sOpt sans la connaître. En général, il s’agit de résoudre un problème plus simple que le64 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES FIGURE 5.2 – Principe lié aux algorithmes d’approximation. D’après [239]. problème original, pour transformer ensuite la solution optimale sOpt0 du problème simplifié en une solution s du problème original (voir la figure 5.2). La difficulté est de garantir une distance maximale entre l’approximation s et l’optimum sOpt du problème original. Le problème simplifié est souvent obtenu en relâchant des contraintes du problème original. Plus formellement, un algorithme d’approximation que l’on note ρ-approximation est un algorithme polynomial qui renvoie une solution approchée garantie au pire cas à un facteur ρ de la solution optimale [274]. Parfois, le facteur d’approximation dépend de la taille de l’instance du problème. Toutefois, pour certains problèmes N P-difficile, il est impossible de faire des approximations. De plus, ces algorithmes sont spécifiques au problème ciblé et les approximations fournies sont souvent trop éloignées de la solution optimale, ce qui freine leur utilisation pour beaucoup d’applications réelles [266]. 5.2.2.2 Les heuristiques Le terme heuristique peut avoir différentes significations et être employé dans différents contextes, y compris par exemple dans le cadre des méthodes exactes pour le choix d’une variable ou d’une valeur particulière à évaluer (e.g. dans un arbre de décision). Nous l’employons ici pour représenter trois notions distinctes : • soit une classe de méthodes approchées d’optimisation conformément à la classification proposée dans la figure 5.1. Dans ce cas, les métaheuristiques représentent une déclinaison de cette famille ; • soit des méthodes d’optimisation gloutonnes capables de construire une solution en partant d’une configuration initialement vide et en choisissant à chaque étape la meilleure composante possible à insérer dans la solution (par exemple une variable de décision et une valeur de son domaine) sans jamais remettre en cause cette décision par la suite. • soit des algorithmes problèmes-dépendants (spécifiques) connectés aux métaheuristiques pour fournir une implémentation concrète aux méthodes d’optimisation abstraites, la partie abstraite étant repré- sentée par les métaheuristiques. 5.2.2.3 Les métaheuristiques Dans certaines situations, on doit chercher en un temps raisonnable des solutions de bonne qualité sans pour autant garantir l’optimalité. Les métaheuristiques contournent le problème d’explosion combinatoire en n’exploitant délibérément qu’une partie des combinaisons prometteuses. Par conséquent, elles peuvent5.3. DISCUSSION SUR LE CHOIX D’UNE MÉTHODE DE RÉSOLUTION 65 ne pas trouver la solution optimale, et encore moins prouver l’optimalité de la solution trouvée. En géné- ral, elles n’offrent pas non plus de garantie d’approximation. En contrepartie, elles permettent d’obtenir rapidement de bonnes solutions pour les problèmes de grandes tailles ou très difficiles. Certaines métaheuristiques partent d’une solution valide qu’elles modifient légèrement à chaque itération dans le but de l’améliorer. Au lieu de compter sur une solution unique pour découvrir de meilleures solutions, certaines métaheuristiques utilisent plusieurs solutions de départ. Elles combinent alors les propriétés de différentes solutions en espérant trouver des solutions de meilleure qualité. Alors qu’une heuristique est souvent définie comme une procédure spécifique exploitant au mieux la structure d’un problème dans le but de trouver une solution de qualité raisonnable en un temps de calcul aussi faible que possible [206], les métaheuristiques sont des algorithmes génériques qui peuvent être utilisés pour résoudre une grande variété de problèmes d’optimisation et d’instances différentes. Elles peuvent être vues comme des méthodes générales de niveau supérieur (méta) utilisées pour guider la stratégie de conception d’heuristiques sous-jacentes, ces dernières étant adaptées au problème d’optimisation à résoudre. On retrouve au niveau des métaheuristiques les méthodes basées sur une solution unique qui manipulent et transforment une seule solution pendant le processus de recherche tandis que les algorithmes à base de population travaillent avec une population entière, c’est à dire un ensemble de solutions qui évolue au fur et à mesure des itérations [286, 266]. Métaheuristiques basées sur une solution unique Les métaheuristiques basées sur une solution unique regroupent les méthodes dites de recherche locale (ou à base de voisinages). Les méthodes de recherche locale (RL) sont des algorithmes itératifs qui, à partir d’une solution de départ complète, explorent l’espace de recherche en se déplaçant pas à pas d’une solution à une autre. Dans cette catégorie, nous pouvons citer parmi les plus populaires les méthodes de descente, la recherche locale itérée (Iterated Local Search, ILS) [177], le recuit simulé (Simulated Annealing, SA) [153, 42] et la recherche tabou (Tabu Seach, TS) [111, 112, 113, 115, 125]. Métaheuristiques basées sur une population de solutions Les métaheuristiques basées sur une population de solutions utilisent la population comme facteur de diversité et font intervenir plusieurs stratégies d’évolution de cette population conduisant à des méthodes telles que les algorithmes génétiques (Genetic Algorithm) [133, 118], la recherche par dispersion (Scatter Search, SS) [114, 116], l’algorithme des colonies de fourmis (Ant Colony Optimization, ACO) [78] ou encore l’optimisation par essaims particulaires (Particle swarm optimization, PSO) [150]. 5.3 Discussion sur le choix d’une méthode de résolution Nous savons qu’aucune méthode ne surclasse toutes les autres pour tous les problèmes. La complexité donne une première indication sur la difficulté d’un problème. Lorsque le problème à résoudre est N P-difficile, une méthode complète peut nécessiter un temps de calcul qui croît de façon exponentielle avec la taille du problème à traiter [127]. Dans ce cas, l’utilisation d’une méthode incomplète peut s’avérer nécessaire pour obtenir une solution approchée de bonne qualité en un temps raisonnable. Néanmoins, bien d’autres facteurs doivent être pris en compte comme la taille des instances, leur structure, le nombre de solutions admissibles, la rapidité de calcul de la fonction d’évaluation, etc. Bien évidemment, compte tenu du nombre très important de méthodes de résolution existantes, il n’est pas envisageable d’implémenter chaque méthode pour sélectionner la meilleure ! Pour Marc SEVAUX [244], lorsqu’on est face à un problème d’optimisation difficile, on commence par réaliser la modélisation du problème qu’on essaie ensuite de transformer en un problème de programmation mathématique pour tenter de le résoudre. La programmation mathématique permet alors d’obtenir des bornes sur le problème et permet également de mieux appréhender sa difficulté. Une fois les bornes obtenues avec quelques solutions éventuelles, on peut commencer à mettre en œuvre des métaheuristiques,66 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES notamment des techniques de recherche locale6 (appartiennent à la catégorie : Single-solution based Metaheuristics). Nous verrons dans la suite de ce document que nous avons implémenté plusieurs méthodes caracté- ristiques de ces différentes familles sur certaines instances de notre problème. Pour obtenir des bornes et d’éventuelles solutions, nous avons commencé par évaluer une méthode complète sur notre problème. Ayant alors une meilleure vision de sa difficulté, nous avons enchaîné sur des méthodes de résolution incomplètes basées à la fois sur des heuristiques de construction (gloutonnes) pour générer des solutions initiales et sur des métaheuristiques pour améliorer le plus rapidement possible ces solutions initiales. Néanmoins, compte tenu de la complexité de notre modèle, de sa mise au point incrémentale au fur et à mesure des réunions d’analyse avec les urbanistes et des échéances imposées pour finaliser le projet de recherche SUSTAINS, il était essentiel que ces méthodes puissent reposer sur un formalisme unique, expressif, facile à modifier et capable d’intégrer de nouvelles contraintes en fonction des nouvelles demandes des utilisateurs. Le panorama des méthodes de résolution que nous venons d’aborder montre que les techniques d’exploration arborescente ou de programmation linéaire permettent de calculer des solutions optimales. Mais pour être efficaces sur de grosses instances, ces méthodes de résolution doivent être couplées à des techniques sophistiquées (méthodes de coupes, branch and cut, génération de colonnes, branch and price, . . . ). On constate également que le formalisme relatif à ces méthodes s’adapte difficilement à de nouvelles contraintes [267]. À travers cette étude très générale, il apparaît également que le formalisme CSP ré- puté pour sa grande souplesse et son expressivité peut être exploité à la fois par les méthodes complètes de programmation par contraintes et par les métaheuristiques de recherche locale, cette dernière approche ayant donné naissance à la Constraint-Based Local Search [272]. Compte tenu de cette proximité entre PPC et RL à travers le formalisme CSP, nous proposons de mettre en perspective, dans les sections suivantes, ces différents procédés en insistant plus particulièrement sur les métaheuristiques de recherche locale qui regroupent de nombreuses méthodes. L’inventaire des principales techniques nous permettra alors d’identifier les méthodes de RL les plus appropriées à nos problématiques. Mais tout d’abord, soulignons que pour résoudre des problèmes industriels de plus en plus complexes, la tendance actuelle est à l’hybridation de différentes méthodes pour s’appuyer sur les points forts de diffé- rentes techniques sur le principe qui pourrait s’apparenter à : "l’union fait la force". Une autre voie consiste à utiliser la parallélisation, avec une décomposition qui intervient soit au niveau des traitements (algorithmes), soit au niveau de l’espace de recherche, soit sur l’évaluation de la fonction objectif, cette fois sur le principe : "diviser pour mieux régner". Notons que ces deux approches ne sont pas exclusives et qu’elles peuvent tout à fait cohabiter. 5.4 Programmation par contraintes En programmation par contraintes (PPC), un problème est défini par un CSP (voir définition 4 page 58) permettant de représenter un grand nombre de problèmes. Par exemple, une contrainte "x + 3∗y = 12" qui restreint les valeurs que l’on peut affecter simultanément aux variables x et y. Il existe de nombreuses méthodes pour résoudre les CSP : • les méthodes de résolution complètes dont les plus élaborées exploitent les notions de consistance, de filtrage et de propagation ; • les méthodes de résolution incomplètes représentées par les métaheuristiques (i.e. Constraint-Based Local Search [272, 47]) ; • les méthodes hybrides qui combinent des méthodes complètes et incomplètes [76]. Nous décrivons ici les méthodes de résolution complètes basées sur les notions de consistance et faisant appel aux techniques de filtrage et de propagation de contraintes. 6On parlera indifféremment de "méthodes de recherche locale" ou de "métaheuristiques à base de voisinages".5.4. PROGRAMMATION PAR CONTRAINTES 67 Résoudre un CSP consiste à trouver une affectation pour chaque variable satisfaisant l’ensemble des contraintes. La notion de consistance repose sur la satisfaction des contraintes afin de réduire l’espace de recherche pour rendre moins difficile la résolution du problème [76]. 5.4.1 Principes de la PPC La PPC utilise une approche de construction qui bâtit pas à pas une solution en partant d’une solution partielle initialement vide qu’elle cherche à étendre à chaque étape. Pour cela, elle détermine la prochaine variable, choisit une valeur dans son domaine et l’ajoute pour obtenir un nouvelle solution partielle, ce processus étant répété jusqu’à ce que l’on obtienne une solution complète (ou la preuve qu’il n’y a pas de solution). Durant la recherche d’une solution, une méthode de construction fait intervenir des heuristiques pour effectuer (i) le choix de la variable et (ii) le choix de la valeur à affecter à cette variable. La programmation par contraintes s’articule autour de quatre éléments majeurs : • le CSP, • les algorithmes de filtrage, • la propagation, • la recherche de solutions. 5.4.1.1 CSP (ou réseau de contraintes) Étant donné le CSP P = (X, D, C), la résolution de P consiste à affecter des valeurs aux variables, de telle sorte que toutes les contraintes soient satisfaites. Une solution est une "affectation totale consistante", c’est-à-dire une valuation de toutes les variables du problème qui ne viole aucune contrainte. Lorsqu’un CSP n’a pas de solution, on dit qu’il est surcontraint : il y a trop de contraintes et on ne peut pas toutes les satisfaire. Dans ce cas, on peut souhaiter trouver l’affectation totale qui viole le moins de contraintes possibles. Un tel CSP est appelé max-CSP, car on cherche alors à maximiser le nombre de contraintes satisfaites. D’autres formalismes ont été proposés parmi lesquelles les CSP valués (VCSP) [241]. Le formalisme VCSP introduit une graduation dans la violation des contraintes. Une valeur (appelée valuation) est associée à chaque contrainte, cette valuation traduisant l’importance de la violation de la contrainte. Une solution du problème est une affectation totale qui peut éventuellement violer certaines contraintes et dont l’importance des violations est minimale suivant un critère et un ordre donnés. Inversement, lorsqu’un CSP admet beaucoup de solutions différentes, on dit qu’il est sous-contraint. Si les différentes solutions ne sont pas toutes équivalentes, dans le sens où certaines sont mieux que d’autres, on peut exprimer des préférences entre les différentes solutions via un CSOP (voir définition 8). L’objectif consiste alors à trouver une solution qui minimise (respectivement qui maximise) la fonction objectif liée au CSOP. 5.4.1.2 Filtrage La programmation par contraintes utilise pour chaque sous-problème une méthode de résolution spécifique à ce sous-problème afin de supprimer les valeurs des domaines des variables impliquées dans le sousproblème qui, compte tenu des valeurs des autres domaines, ne peuvent appartenir à aucune solution de ce sous-problème. Ce mécanisme est appelé filtrage (voir algorithme 1). En procédant ainsi pour chaque sous-problème, donc pour chaque contrainte, les domaines des variables vont se réduire, réduisant par la même occasion l’espace de recherche associé au problème. Un algorithme de filtrage (ou de réduction de domaines) est associé à chaque contrainte. Par exemple, pour la contrainte (x < y) avec D(x) = [10; 20] et D(y) = [0; 15], un algorithme de filtrage associé à cette contrainte pourra supprimer les valeurs de 15 à 20 de D(x) et les valeurs de 0 à 10 de D(y). Un algorithme de filtrage associé à une contrainte binaire (qui porte sur deux variables) réalise la consistance d’arc si il supprime toutes les valeurs des variables impliquées dans la contrainte qui ne sont pas consistantes avec la contrainte. Par exemple, pour la contrainte x + 3 = y avec68 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES les domaines D(x) = {1, 3, 4, 5} et D(y) = {4, 5, 8}, un algorithme de filtrage établissant la consistance d’arc modifiera les domaines pour obtenir D(x) = {1, 5} et D(y) = {4, 8}. Algorithme 1 : Algorithme naïf de filtrage d’après la version proposée par Philippe DAVID (http: //www.emn.fr/z-info/pdavid/Enseignement/IA/poly-ia/csp/arc-consistance.html). Fonction Revise (x, y) begin 1 SUPPRESSION ← Faux ; 2 forall (valeur valx de D(x)) do 3 if (il n’existe pas de valeur valy dans D(y) support de valx) then 4 Supprimer valx de D(x); 5 SUPPRESSION ← Vrai ; 6 return SUPPRESSION ; end 5.4.1.3 Propagation Après chaque modification du domaine d’une variable, il est utile de réétudier l’ensemble des contraintes impliquant cette variable car cette modification peut conduire à de nouvelles déductions. Autrement dit, la réduction du domaine d’une variable peut permettre de déduire que certaines valeurs d’autres variables n’appartiennent pas à une solution. Ce mécanisme est appelé propagation. Dès lors qu’un algorithme de filtrage associé à une contrainte modifie le domaine d’une variable, les conséquences de cette modification sont étudiées pour les autres contraintes impliquant cette variable : les algorithmes de filtrage des autres contraintes sont appelés afin de déduire éventuellement d’autres suppressions. On dit alors qu’une modi- fication a été propagée. Ce mécanisme de propagation est répété jusqu’à ce que plus aucune modification n’apparaisse. 5.4.1.4 Recherche de solutions Afin de parvenir à une solution, l’espace de recherche va être parcouru en essayant d’affecter successivement une valeur à toutes les variables. Les mécanismes de filtrage et de propagation étant bien entendu relancés après chaque essai puisqu’il y a modification de domaines. Parfois, une affectation peut entraîner la disparition de toutes les valeurs d’un domaine : on dit alors qu’un échec se produit ; le dernier choix d’affectation est alors remis en cause, il y a "backtrack" ou "retour en arrière" et une nouvelle affectation est tentée (voir algorithme 2). Une méthode de retour arrière avec une stratégie de recherche en profondeur d’abord consiste à fixer à chaque étape la valeur d’une variable. Aussitôt qu’un échec est détecté, un retour arrière est effectué, i.e., une ou plusieurs instanciations déjà effectuées sont annulées et de nouvelles valeurs recherchées [29]. Par exemple, un algorithme typique avec retour arrière pour la résolution d’un problème de satisfaction de contraintes cherche à prolonger à chaque étape l’assignation courante de manière consistante. En cas d’échec, un retour arrière est effectué sur la dernière variable instanciée possédant encore des valeurs non essayées [179]. Les méthodes avec retour arrière sont en général complètes et de complexité exponentielle. Pour réduire le nombre de retour arrière (et le temps de recherche), on utilise les techniques de filtrage décrites précédemment afin d’anticiper le plus tôt possible les échecs. 5.4.2 Complément sur les contraintes Une contrainte est une relation entre différentes variables. Cette relation peut être définie en extension en énumérant les tuples de valeurs appartenant à la relation (x = 0 et y = 1) ou en intension en utilisant des5.4. PROGRAMMATION PAR CONTRAINTES 69 Algorithme 2 : Backtrack (version rudimentaire) d’après la version proposée par Philippe DAVID (http://www.emn.fr/z-info/pdavid/Enseignement/IA/poly-ia/csp/backtrack.html). Procédure Backtrack(V-ins, var-courante, V-non-ins, val) begin 1 var-courante ← val ; 2 if (l’instanciation courante est consistante) then 3 if (V-non-ins est vide) then 4 l’instanciation courante est une solution ; else 5 soit y la prochaine variable à instancier 6 forall (valeur valy de D(y)) do 7 faire Backtrack(V-ins ∪ {var-courante}, y, V-non-ins −{y}, valy) ; end propriétés mathématiques connues (x < y). En fonction du nombre de variables sur lesquelles elle porte (arité), on dira qu’une contrainte est unaire si elle porte sur une seule variable (x∗x = 4), binaire si elle met en relation deux variables (x 6= y) ou encore n-aire si elle met en relation un ensemble de n variables. On distingue différents types de contraintes en fonction des domaines de valeurs des variables. Il y a notamment les contraintes numériques (sur les réels, les entiers) et les contraintes booléennes. Les contraintes peuvent être exprimées sous différentes formes : formules mathématiques, tables de valeurs compatibles, etc. 5.4.3 Résolution des DCSP Ayant résolu un problème P, il s’agit de résoudre un problème P 0 dérivé de P par l’ajout d’un ensemble de contraintes Ca et le retrait d’un ensemble de contraintes Cr. Ce qui revient finalement à résoudre une succession de problèmes statiques et permet au passage de s’appuyer sur les nombreux travaux existants relatifs à la résolution de ces derniers. 5.4.4 Résolution des CSOP Dans le cas de la résolution d’un CSOP, on veut à la fois (i) trouver une solution qui satisfait l’ensemble des contraintes donné et (ii) optimiser une fonction définissant un objectif. Le but est de trouver une solution pour P = (X, D, C) qui minimise (respectivement qui maximise) la fonction objectif f. Pour la résolution des problèmes d’optimisation, on distinguera donc deux types de solutions : • les solutions du problème de satisfaisabilité, c’est-à-dire celles qui ne tiennent pas compte de la fonction f, • les solutions optimales, c’est-à-dire les solutions du problème de satisfaisabilité qui minimisent (respectivement qui maximisent) la fonction objectif f. Definition 9 (Optimum global). Pour un problème de minimisation, une solution s ∗ ∈ S est un optimum global (ou solution optimale) si f(s ∗ ) ≤ f(s) pour tout élément s ∈ S. (et respectivement f(s ∗ ) ≥ f(s) pour un problème de maximisation). Résoudre à l’optimalité un problème consiste à trouver une solution s ∗ correspondant à un optimum global. Pour la résolution d’un CSOP, nous supposons qu’une variable x est ajoutée à la liste des variables X de P avec x = f(X). L’approche la plus intuitive est de trouver une solution optimale par la résolution70 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES d’une séquence de CSP. Initialement, un algorithme de backtracking7 est utilisé pour trouver une solution qui satisfait toutes les contraintes. Chaque fois qu’une solution s est trouvée, une contrainte s’ajoute au CSP avec la forme x > f(s) qui exclut toutes les solutions qui ne sont pas meilleures que s pour un problème de minimisation (respectivement x < f(s) pour un problème de maximisation). Ce processus est répété jusqu’à ce que le CSP résultant soit infaisable ; dans ce cas la dernière solution trouvée est optimale. 5.4.5 Conclusion La PPC permet de résoudre une grande variété de problèmes allant des problèmes de satisfaction de contraintes aux problèmes d’optimisation combinatoire en passant par les problèmes dynamiques. Pour cela, elle a su s’adapter à des variantes du CSP (VCSP, DCSP, CSOP, . . . ) imaginées par une communauté scientifique dynamique afin de représenter ces différentes catégories de problèmes. Pour s’éviter une énumération exhaustive de toutes les configurations possibles qui lui serait fatale, elle met en œuvre des procédés élaborés basés sur la consistance pour réaliser un parcours intelligent de l’espace de recherche. Toutes ces qualités font de la PPC un paradigme de programmation de premier plan pour résoudre les nombreux problèmes liés à nos sociétés modernes. 5.5 Heuristiques de construction (approchées) Les méthodes de construction produisent de façon incrémentale des solutions admissibles en partant d’une configuration initialement vide. Elles insèrent à chaque étape une composante dans la configuration partielle courante jusqu’à obtenir une solution complète. Elles opèrent ainsi, pas à pas, sans tenir compte de toutes les conséquences sur le coût de la solution finale. A ce titre, elles sont souvent considérées comme des méthodes "myopes". Elles reposent sur une approche "basée sur les modèles" car elles utilisent un modèle pour choisir à chaque itération la prochaine composante à ajouter à la configuration partielle [294]. A chaque étape, le modèle doit déterminer le choix de la variable suivante et le choix de la valeur pour cette variable. Les méthodes de cette classe différent entre elles selon les modèles utilisés et la performance de ces méthodes dépend largement de leur capacité à exploiter la structure du problème. Les méthodes de construction se distinguent par leur rapidité et leur grande simplicité. Néanmoins, leur manque de visibilité sur la solution finale se traduit en général par des solutions produites de faible qualité. Notre étude porte plus spécifiquement sur les méthodes de construction "gloutonnes" qui sont les plus connues et les plus simples à mettre en œuvre. A noter toutefois que les algorithmes par estimation de distributions (Estimation of distribution algorithms, EDA) [164] et l’optimisation par colonies de fourmis viennent compléter cette catégorie d’heuristiques incomplète. 5.5.1 Algorithmes gloutons En 1971, J. EDMONDS a introduit pour la première fois dans la littérature une étude sur les heuristiques gloutonnes dans le cadre de l’optimisation combinatoire [85]. Les algorithmes gloutons (Greedy algorithm) choisissent à chaque étape un composant à insérer dans la configuration partielle8 pour lequel une heuristique donnée produit un coût minimal (problème de minimisation). Contrairement aux méthodes exactes avec retour arrière (backtracking), les choix opérés ne sont jamais remis en cause par la suite. La qualité de la solution produite est directement liée à l’heuristique de choix utilisée et les premières décisions prises influencent largement la qualité de la solution finale lorsque 7Algorithme à essais successifs qui explore l’arbre des solutions du problème combinatoire en élagant les branches n’aboutissant pas à une solution et remettant en cause les choix antérieurs lorsqu’on atteint un cul-de-sac (une feuille de l’arbre non solution du problème). 8On fixe la valeur d’une variable de décision libre (c’est à dire sans affectation).5.5. HEURISTIQUES DE CONSTRUCTION (APPROCHÉES) 71 les variables du problème sont liées. Pour certains problèmes (recherche d’un arbre recouvrant de poids minimum avec l’algorithme de KRUSKAL), un algorithme glouton conduit à la solution optimale, mais c’est rarement le cas. Algorithme 3 : Algorithme glouton déterministe [267] 1 echec ← faux ; 2 c ← ∅ (configuration partielle initialement vide) ; 3 while (c incomplète et echec = faux) do 4 Construire la liste L des éléments insérables dans c ; 5 if (L6=∅) then 6 Évaluer le coût incrémental des éléments de L; 78 Insérer dans c l’élément de L ayant le coût incrémental le plus faible ; else 9 echec ← vrai ; 10 return c ou echec ; Selon l’algorithme 3, la configuration c initialement vide peut être vue comme un ensemble d’éléments (i.e. de variables du problème dont les valeurs sont fixées). A chaque itération, on définit un ensemble fini L = {e1, e2, · · · , en} constitué d’éléments pouvant être insérés dans la configuration partielle c. Une fonction objectif définie comme f : L → R permet d’évaluer le coût incrémental de chaque élément de L. L’élément de L ayant le coût incrémental le plus faible (i.e. celui qui engendre la plus petite augmentation du coût de c) est inséré dans c. Lorsqu’un élément ei est sélectionné pour faire partie de la solution, il n’est jamais remplacé par un autre élément. Les algorithmes gloutons sont des algorithmes déterministes [266]. 5.5.2 Algorithmes gloutons aléatoires Les algorithmes gloutons aléatoires (Greedy randomized algorithm) peuvent construire plusieurs configurations et reposent sur une stratégie gloutonne pour le choix des composants à intégrer à chaque itération dans les configurations en cours de construction. Néanmoins, l’étape de fixation de la variable courante et de sa valeur est légèrement modifiée afin de permettre plusieurs choix plutôt qu’un seul à chaque itération. Les choix potentiels constituent une liste (Restricted Candidate List, RCL) dans laquelle un candidat sera retenu aléatoirement. Une fois le couple (variable, valeur) fixé, cette liste est mise à jour en tenant compte de la configuration partielle courante. Cette étape est itérée jusqu’à l’obtention d’une configuration complète [245]. Une première façon de procéder consiste à choisir aléatoirement le prochain composant parmi les k meilleurs. Il est aussi possible de faire un choix aléatoire parmi les composants éloignés d’au plus un certain pourcentage par rapport au meilleur composant trouvé. Enfin, une autre option consiste à choisir le prochain composant en fonction de probabilités liées à la qualité des différents composants [143]. 5.5.3 Conclusion Les algorithmes gloutons permettent de construire très rapidement des solutions, ce qui constitue déjà un résultat intéressant pour des problèmes contraints ou/et de très grande taille. Ces procédures sont relativement simples à concevoir et reposent sur la structure du problème à considérer. Mais les résultats obtenus grâce à ces techniques sont souvent de faible qualité. Toutes ces caractéristiques font que les algorithmes gloutons sont des partenaires idéals pour les métaheuristiques à base de voisinage qui ont besoin d’une solution initiale pour pouvoir fonctionner.72 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES 5.6 Métaheuristiques à base de voisinages Le terme métaheuristique a été introduit pour la première fois par F. GLOVER en 1986 [111]. Les métaheuristiques permettent de s’attaquer à des instances difficiles de problèmes d’optimisation variés tout en délivrant des solutions satisfaisantes en un temps raisonnable. En contrepartie, elles n’offrent pas la garantie de trouver les solutions optimales ni même des solutions dont la qualité serait bornée. Les métaheuristiques bénéficient d’un intérêt croissant depuis plus d’une vingtaine d’années et elles s’appliquent avec succès à une large gamme de problèmes complexes et de grande taille. Beaucoup de critères différents peuvent être utilisés pour regrouper les métaheuristiques : • inspirée ou non de la nature ; • avec ou sans mémoire ; • déterministe ou stochastique ; • basée sur un solution unique ou sur une population ; • itérative ou gloutonne. • etc. Dans ce manuscrit, nous nous appuyons sur la classification qui distingue celles qui exploitent une "population de solutions" et celles qui utilisent une "solution unique" pendant le processus de résolution. Ce chapitre concerne plus précisément les métaheuristiques qui exploitent une solution unique, que l’on retrouve également sous le nom de "métaheuristiques à base de voisinages" ou "recherche locale". 5.6.1 Généralités sur les métaheuristiques 5.6.1.1 Propriétés Une métaheuristique est constituée d’un ensemble de concepts fondamentaux qui permet d’aider à la conception de méthodes heuristiques pour un problème d’optimisation. Ainsi, une métaheuristique est adaptable et applicable à une large classe de problèmes. C. BLUM et A. ROLI ont proposé dans [30] un ensemble de propriétés intéressantes qui caractérisent les métaheuristiques : • les métaheuristiques sont des stratégies qui permettent de guider la recherche d’une solution optimale. • le but visé par les métaheuristiques est d’explorer l’espace de recherche efficacement afin de déterminer des solutions (presque) optimales. • les techniques qui constituent des algorithmes de type métaheuristique vont de la simple procédure de recherche locale à des processus d’apprentissage complexes. • les métaheuristiques sont en général non-déterministes et ne donnent aucune garantie d’optimalité. • les métaheuristiques peuvent contenir des mécanismes qui permettent d’éviter d’être bloqué dans des régions de l’espace de recherche. • les concepts de base des métaheuristiques peuvent être décrits de manière abstraite, sans faire réfé- rence à un problème spécifique. • les métaheuristiques peuvent faire appel à des heuristiques qui tiennent compte de la spécificité du problème traité mais ces heuristiques sont contrôlées par une stratégie de niveau supérieur. • les métaheuristiques peuvent faire usage de l’expérience accumulée durant la recherche de l’optimum pour mieux guider la suite du processus de recherche. Ces propriétés définissent le comportement de toutes les métaheuristiques pendant la recherche d’une solution, en allant de la plus simple à la plus complexe. 5.6.1.2 Quand utiliser une métaheuristique ? Il n’est pas judicieux d’utiliser une métaheuristique pour résoudre des problèmes lorsqu’il existe des algorithmes exacts qui sont efficaces pour le faire. Néanmoins, différentes situations justifient l’utilisation d’une métaheuristique :5.6. MÉTAHEURISTIQUES À BASE DE VOISINAGES 73 • un problème facile (appartenant à la classe P) avec de très grosses instances. Dans ce cas, des algorithmes exacts en temps polynomial sont connus mais ils peuvent être trop coûteux compte tenu de la taille des instances. • un problème facile avec une contrainte forte de temps réel. Pour des problèmes d’optimisation temps réel9 , les métaheuristiques sont largement utilisées. Dans cette classe de problèmes, nous devons trouver une bonne solution en ligne. Même si il existe des algorithmes exacts efficaces pour résoudre le problème, les métaheuristiques sont utilisées pour réduire le temps de recherche. Les problèmes d’optimisation dynamique représentent un exemple de tels problèmes. • un problème difficile (appartenant à la classe N P-difficile) avec des instances de taille modérée et/ou des structures difficiles. • des problèmes d’optimisation avec une fonction objectif et/ou des contraintes qui nécessitent beaucoup de temps de calcul. Certains problèmes d’optimisation réels sont caractérisés par un temps de calcul énorme de la fonction objectif. • des modèles non analytiques de problèmes d’optimisation qui ne peuvent pas être résolus de façon exhaustive : beaucoup de problèmes pratiques sont définis par une boîte noire noyée dans une fonction objectif. 5.6.1.3 Définition du mot métaheuristique Il existe beaucoup de tentatives pour définir ce qu’est une métaheuristique sans que l’on puisse toutefois trouver une définition qui fasse vraiment l’unanimité. Certaines se concentrent sur l’aspect problème-indépendant comme celle proposée sur le site "the metaheuristics network"10 : "Une métaheuristique représente un ensemble de concepts utilisés pour définir des méthodes heuristiques pouvant être appliquées à un large ensemble de problèmes différents. En d’autres termes, une métaheuristique peut être vue comme un cadre algorithmique général qui peut être appliqué à différents problèmes d’optimisation avec relativement peu de modifications pour les adapter à un problème spécifique". Dans [280], Voß et al. se concentrent quant à eux sur la distinction entre une stratégie de haut niveau et des mécanismes de bas niveau : "Une métaheuristique est un processus itératif maître qui guide et modifie les opérations des heuristiques subordonnées pour produire efficacement des solutions de haute qualité. Elle peut manipuler une solution unique complète (ou incomplète) ou une collection de solutions à chaque itération. Les heuristiques subordonnées peuvent être des procédures de haut ou de bas niveau, ou une simple recherche locale, ou juste une méthode de construction". OSMAN et LAPORTE insistent sur l’intensification et la diversification aussi bien que sur la nature itérative du processus de recherche [210] : "Une métaheuristique est formellement définie comme un processus de génération itératif qui guide une heuristique subordonnée en combinant intelligemment différents concepts pour l’exploration et l’exploitation de l’espace de recherche, des stratégies d’apprentissage sont utilisées pour structurer l’information afin de trouver efficacement des solutions quasi-optimales". Parmi ces dernières, nous retiendrons pour définir une métaheuristique (i) l’aspect problème-indépendant qui offre un cadre générique applicable à tout type de problème et (ii) l’équilibre nécessaire entre l’intensi- fication et la diversification qui représente un aspect essentiel de toute métaheuristique. 5.6.1.4 Gestion des contraintes Beaucoup de problèmes d’optimisation sont liés à des contraintes dures qu’on ne peut pas réduire dans la fonction objectif. Pour permettre aux métaheuristiques de gérer efficacement ces contraintes, différentes stratégies ont été mises au point [190, 212, 79, 266] : 9Les logiciels embarqués dans les récepteurs GPS (Global Positioning System) utilisent des heuristiques pour trouver un chemin entre deux points compte tenu du nombre important de nœuds et de la nécessité de fournir une réponse en temps réel. 10http://www.metaheuristics.org/74 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES • rejet ; • pénalité ; • réparation ; • décodage ; • préservation. Stratégie de rejet La stratégie de rejet est très simple : seules les solutions faisables sont conservées durant la recherche et les solutions infaisables sont automatiquement jetées. Cette stratégie est concevable si la portion des solutions infaisables de l’espace de recherche est réduite. Stratégie de pénalité Avec la stratégie de pénalité, les solutions infaisables sont prises en compte pendant le processus de recherche. La fonction objectif non contrainte est étendue par une fonction de pénalité qui se chargera de pénaliser les solutions infaisables. C’est l’approche la plus populaire. Il existe beaucoup d’alternatives pour définir les pénalités [105]. Stratégie de réparation Les stratégies de réparation mettent en œuvre des algorithmes heuristiques (procédure de réparation) qui transforment une solution infaisable en solution faisable [157]. Ces stratégies spécifiques au problème sont employées lorsqu’un opérateur de recherche peut générer des solutions infaisables. Stratégie de décodage Cette stratégie utilise des encodages indirects qui transforment la topologie de l’espace de recherche. Lorsqu’on utilise une représentation indirecte, l’encodage n’est pas une solution complète du problème. Un décodeur est nécessaire pour exprimer la solution donnée par l’encodage. Selon l’information présente dans l’encodage, le décodeur aura plus ou moins de travail à faire pour dériver une solution complète. Le décodeur peut être non déterministe. Les contraintes associées au problème d’optimisation peuvent être gérées par le décodeur qui garantira alors la validité de la solution dérivée. La procédure de décodage peut être vue comme une fonction S → S qui associe à chaque configuration c ∈ S une solution faisable s ∈ S dans l’espace de recherche. La fonction de décodage doit disposer des propriétés suivantes [63] : • à chaque configuration c ∈ S correspond une solution faisable s ∈ S ; • pour chaque solution faisable s ∈ S, il y a une configuration c ∈ S qui lui correspond ; • la complexité de calcul du décodeur doit être réduite ; • les solutions faisables dans S doivent avoir le même nombre de configurations associées dans S ; • l’espace de représentation doit posséder la propriété de localité dans le sens que la distance entre les configurations de S doit être en corrélation avec la distance entre les solutions faisables dans S. Stratégie de préservation Une représentation spécifique et des opérateurs garantissent la génération de solutions faisables. Cette stratégie incorpore des connaissances spécifiques du problème dans la représentation et dans les opérateurs de recherche pour générer uniquement des solutions faisables. Cette stratégie est adaptée à des problèmes spécifiques et ne peut pas être généralisée à tous les problèmes d’optimisation sous contraintes. 5.6.1.5 Réglage des paramètres La majorité des métaheuristiques nécessite un ajustement méticuleux de beaucoup de paramètres en fonction du problème à résoudre. Ces paramètres dont les valeurs sont parfois difficiles à définir a priori peuvent avoir une grande influence sur l’efficacité de la résolution. Néanmoins, il n’existe pas de valeurs optimales des paramètres pour une métaheuristique qui puissent être applicables à tous les problèmes.5.6. MÉTAHEURISTIQUES À BASE DE VOISINAGES 75 Deux stratégies sont utilisées pour le réglage de ces paramètres : une initialisation hors ligne et une initialisation en ligne. Réglage hors ligne Dans ce mode, les valeurs des différents paramètres sont fixés avant l’exécution de la métaheuristique. Réglage en ligne Avec l’approche en ligne, les paramètres sont contrôlés et modifiés dynamiquement ou de façon adaptative pendant l’exécution de la métaheuristique. La version dynamique prend en charge le changement de valeur d’un paramètre sans prendre en compte la progression de la recherche alors que la version adaptative change les valeurs en fonction de la progression de la recherche. Différentes implémentations ont été proposées pour adapter le paramétrage pendant la phase de résolution en fonction de l’instance. Avec l’approche Tabou réactive [18], on ajuste automatiquement (version dynamique) la longueur de la liste tabou. Dans [203], les auteurs proposent une procédure dédiée pour régler automatiquement (version adaptative) le paramètre « max » (i.e. nombre de voisins maximum à explorer à chaque mouvement) de la métaheuristique ID Walk également décrite dans leur document. Cette procé- dure de réglage automatique procède par apprentissage et elle a pu être appliquée avec succès à d’autres algorithmes pour définir la valeur d’un ou de deux paramètres (e.g. recuit simulé, recherche tabou). 5.6.1.6 Mesures de performance Pour les méthodes exactes capables de garantir l’optimalité des résultats, le temps de recherche représente l’indicateur principal pour évaluer la performance des algorithmes. Pour les métaheuristiques n’offrant pas les mêmes garanties, d’autres indicateurs doivent être pris en compte [15] : • la qualité des solutions ; • l’effort de calcul ; • la robustesse. Qualité des solutions La qualité des solutions obtenues s’évalue en terme de précision en considérant une mesure de distance ou un pourcentage de déviation entre la solution obtenue et l’une des solutions suivantes : solution optimale, borne inférieure, meilleure solution connue ou seuil à atteindre. Les solutions optimales peuvent être trouvées par des algorithmes exacts. Néanmoins, pour beaucoup de problèmes complexes, les solutions optimales ne sont pas connues. Dans ce cas, on peut utiliser des bornes inférieures pour des problèmes de minimisation (et respectivement des bornes supérieures pour des problèmes de maximisation) proches de ces valeurs optimales. Lorsqu’il s’agit de problèmes classiques, des instances standards sont généralement disponibles avec les meilleures solutions connues. Enfin, pour des instances de problèmes spécifiques, un décideur peut définir un seuil à atteindre sur la qualité de la solution pour qu’elle puisse être acceptée. Effort de calcul Lors d’une analyse empirique, on relève le temps de calcul exprimé soit en temps CPU, soit en temps réel écoulé. Mais ces mesures ont l’inconvénient d’être liées aux caractéristiques du matériel informatique utilisé, de l’infrastructure réseau, du système d’exploitation, etc. Le nombre d’évaluations de la fonction objectif, indépendant de l’infrastructure informatique, peut également servir de mesure lorsque le temps de calcul de la fonction est significatif et reste constant. Pour comparer les effets de différents paramétrages d’une même méthode sur une instance de problème identique, on peut simplement évaluer le nombre d’itérations de la boucle principale. Robustesse En général, la robustesse peut être définie par une insensibilité vis à vis d’écarts minimes dans les instances d’entrée ou vis à vis des paramètres utilisés : plus faible est la variation des solutions obtenues, meilleur est la robustesse [195]. Pour les métaheuristiques, la robustesse peut également être évaluée par76 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES FIGURE 5.3 – Fonctionnement général d’une méthode de recherche locale : représentation sous la forme d’une marche à travers l’espace de recherche en partant d’une solution initiale s0 et en se dirigeant de proche en proche vers une solution optimale localement s ∗ . rapport à des problèmes ou instances différentes. Et lorsque des algorithmes stochastiques sont utilisés, la robustesse peut faire référence à des écarts de comportement de l’algorithme sur différentes exécutions pour une même instance de problème. 5.6.2 Métaheuristiques de voisinage Une métaheuristique de voisinage améliore une solution unique pendant toute la phase d’optimisation. Elle peut être vue comme une marche de proche en proche dans les voisinages, une trajectoire de recherche à travers l’espace de recherche du problème [57]. La marche (ou la trajectoire) est accomplie par des procé- dures itératives de génération et de remplacement qui réalisent tour à tour un déplacement de la solution courante à une solution voisine dans l’espace de recherche. Dans la phase de génération, un ensemble de solutions candidates est généré à partir de la solution courante alors que dans la phase de remplacement, on effectue la sélection d’un candidat à partir de l’ensemble des solutions candidates pour remplacer la solution courante. Cette procédure se répète jusqu’à ce qu’un critère d’arrêt donné soit vérifié. La recherche locale se base en effet sur l’idée d’amélioration d’une solution donnée s en appliquant des changements sur ses affectations. Les solutions obtenues en modifiant s s’appellent les voisins de s et constituent un ensemble qui représente le voisinage de s. Ainsi, la recherche locale commence par une solution initiale (éventuellement non-consistante) pour se diriger vers une solution optimale (ou localement optimale) : • un voisinage est généré autour de la solution courante : il représente l’ensemble des solutions obtenues en altérant localement la solution courante, par exemple en changeant la valeur de l’une de ses variables ou en échangeant les valeurs de deux variables. • une heuristique de sélection détermine l’un des voisins qui devient la solution courante, par exemple celui qui permet de faire diminuer le plus le coût de la solution (pour un problème de minimisation). • un critère d’arrêt est testé pour limiter le temps de calcul, par exemple un nombre maximum d’itérations ou une durée de traitement maximale. Le fonctionnement général d’une méthode de recherche locale peut être illustré par la Figure 5.3 : S correspond à l’espace des solutions ; s0, s1, · · · , s4 sont des solutions admissibles et s * correspond à une solution optimale localement.5.6. MÉTAHEURISTIQUES À BASE DE VOISINAGES 77 FIGURE 5.4 – Optimum global et local pour un problème de minimisation. Pour un voisinage donné, si on se contente de choisir systématiquement un voisin qui réduit le coût de la solution courante (pour un problème de minimisation), le processus de résolution se retrouvera obligatoirement bloqué dans un optimum local où tous les voisins dégradent le coût de la solution courante, cet optimum local n’étant que très rarement l’optimum global (figure 5.4). C’est pour cette raison que les métaheuristiques de RL utilisent des stratégies pour s’en échapper, par exemple en autorisant des transitions défavorables (i.e. choix d’un voisin de coût supérieur) ou en recommençant la recherche avec une nouvelle solution choisie aléatoirement. Les algorithmes de RL ne sont pas complets car ils ne maintiennent pas de représentation de la partie déjà explorée de l’espace de recherche, alors que les algorithmes systématiques le font en structurant l’espace sous la forme d’un arbre. Ils ne peuvent donc pas garantir que tout l’espace de recherche sera exploré ni qu’une même solution ne sera pas visitée plusieurs fois. Leur efficacité est donc empirique et dépend de l’instance considérée. Toutefois, dans la pratique, ils fournissent souvent de très bons résultats en un temps raisonnable pour une grande variété de problèmes. De plus, ils ont l’avantage de pouvoir résoudre des problèmes sur-contraints car ils manipulent des solutions éventuellement non-consistantes. Ils peuvent également fournir une solution à tout moment (algorithme anytime) car l’état courant est une instanciation totale. 5.6.3 Concepts communs aux métaheuristiques de RL Nous abordons ici les concepts qui sont communs aux différents algorithmes de recherche locale. 5.6.3.1 Solution initiale Il existe deux stratégies principales pour générer une solution initiale : l’approche aléatoire et l’approche gloutonne. La génération aléatoire d’une solution initiale est rapide. Cette stratégie peut entraîner une déviation importante en termes de solutions obtenues et constitue à ce titre une bonne base de diversification. Néanmoins, pour certains problèmes contraints, il peut être difficile de générer des solutions faisables avec cette technique. Dans ce cas, les algorithmes de construction gloutons représentent une bonne alternative. Géné- ralement, une heuristique gloutonne peut être utilisée avec une complexité réduite à un temps polynomial. Par rapport aux algorithmes aléatoires, les algorithmes gloutons conduisent souvent à une solution initiale78 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES de meilleur qualité. Dans ce cas, la RL nécessite généralement moins d’itérations pour converger vers un optimum local. Mais rien ne garantit que l’utilisation d’une solution initiale de qualité supérieure conduira systématiquement la RL à un meilleur optimum local. Habituellement, on constate que plus le voisinage est grand, moins les performances de la RL sont sensibles à la solution initiale [266]. Des règles métier identifiées par des experts ou des solutions déjà implémentées peuvent également servir de support pour générer une solution initiale. 5.6.3.2 Voisinage La définition d’un voisinage est une opération délicate qui est requise pour utiliser n’importe quelle mé- taheuristique de RL. Sa structure joue un rôle essentiel sur les performances. De plus, si elle n’est pas adéquate au problème donné, la résolution échouera quelle que soit la méthode employée. La modélisation du problème d’optimisation et le choix du voisinage doivent être effectués de telle sorte qu’il existe au moins un chemin entre chaque solution s 0 ∈ S menant à une solution optimale s * . Definition 10 (Voisinage). Étant donné une solution s, le voisinage de s est un sous-ensemble de solutions noté N (s) ⊆ S ; N (s) contenant des solutions directement atteignables à partir d’une transformation élémentaire donnée de s. Une solution s 0 ∈ N (s) est dite voisine de s. Un voisin est généré par l’application d’une transformation élémentaire qui réalise une légère perturbation de la solution s. Par exemple, une transformation élémentaire peut consister à effectuer une permutation de valeurs entre deux variables (2-échanges) d’une même solution s. Dans ce cas, la taille du voisinage N (s) est égale à n(n−1) 2 , avec n le nombre de variables du problème. La structure du voisinage dépend de la transformation autorisée. Ainsi, à partir d’une solution donnée, on peut établir plusieurs structures de voisinage différentes selon les transformations retenues. Definition 11 (Optimum local). Une solution s est un optimum local si et seulement si il n’existe pas une autre solution s 0 ∈ N (s) avec un coût (issu de la fonction objectif) strictement meilleur. ∀s 0 ∈ N (s) ( f(s) ≤ f(s 0 ) pour un problème de minimisation f(s) ≥ f(s 0 ) pour un problème de maximisation La taille du voisinage pour une solution s correspond au nombre de voisins de s. Utiliser de grands voisinages peut améliorer la qualité des solutions obtenues dans la mesure où on considère plus de voisins à chaque itération. Mais dans ce cas, un temps de calcul supplémentaire sera requis pour effectuer chaque itération. Lorsque le nombre de cycles à opérer est important pour la résolution d’un problème, le temps additionnel occasionné peut devenir conséquent. Il faut donc trouver un compromis entre la qualité du voisinage et la complexité nécessaire pour l’explorer. Lorsque la complexité d’exploration d’un voisinage devient trop importante, ce problème devient à lui seul un problème d’optimisation. Il est alors indispensable de concevoir des procédures efficaces pour réaliser l’exploration. En général, ces procédures cherchent à identifier les meilleurs voisins (ou des voisins meilleurs) sans devoir énumérer l’ensemble du voisinage [5]. 5.6.3.3 Paysage d’un problème d’optimisation Le paysage d’un problème d’optimisation combinatoire est défini par le triplet (S, N , f) tel que : • S : est l’ensemble des solutions réalisables ; • N : S → 2 S : est une relation de voisinage qui associe à toute solution s de l’ensemble des solutions un sous-ensemble N (s) de solutions réalisables appelées voisins ; • f : S → R : est une fonction objectif qui mesure la qualité des solutions réalisables. La notion de paysage a été introduite pour la première fois dans la littérature par WRIGHT [289] en lien avec la biologie. La structure de voisinage a été utilisée pour étudier les dynamiques des systèmes5.6. MÉTAHEURISTIQUES À BASE DE VOISINAGES 79 FIGURE 5.5 – Paysage lisse d’après [181]. FIGURE 5.6 – Paysage rugueux d’après [181]. FIGURE 5.7 – Paysage d’un problème d’optimisation d’après [181]. biologiques et comprendre les processus d’évolution déterminés par des opérateurs comme la mutation ou le croisement. Cette notion fut ensuite transposée à d’autres domaines comme celui de l’optimisation combinatoire [257, 256]. On peut utiliser des termes géographiques pour décrire un paysage : l’espace de recherche représente le sol, la relation de voisinage connecte les solutions les unes aux autres et la fonction objectif leur affecte une qualité transcrite en altitude (figure 5.7). On obtient un paysage constitué de vallées, de plaines, de sommets, de plateaux, de cuvettes, etc. Analyser la structure d’un paysage permet d’appréhender le degré de difficulté d’un problème et peut aider à concevoir de meilleures représentations du voisinage. Il est plus facile d’atteindre l’optimum global pour un paysage lisse (figure 5.5) que pour un paysage rugueux (figure 5.6) où les optima locaux sont plus nombreux : on peut alors expliquer la réussite ou l’échec d’une métaheuristique sur un problème donné. Globalement, un paysage peut avoir un relief plat, rugueux ou vallonné [181]. Beaucoup de problèmes d’optimisation sont caractérisés par un paysage plat dans lequel il y a beaucoup de plateaux, c’est à dire beaucoup de voisins ayant la même qualité [266]. Lorsqu’une métaheuristique rencontre un plateau, aucune information ne lui permet de guider sa recherche. Pour casser ces plateaux, une stratégie consiste à intégrer dans la fonction objectif des informations supplémentaires permettant de discriminer les solutions ayant la même valeur d’objectif [132, 84]. 5.6.3.4 Évaluation incrémentale du voisinage L’évaluation de la fonction objectif peut nécessiter un temps de calcul important. Une exploration naïve du voisinage d’une solution s consiste à évaluer complètement la fonction objectif pour chaque voisin s 0 de s. Lorsque cela est possible, il est plus performant d’évaluer chaque voisin par une évaluation incrémentale représentée par 4(s, m) où s est la solution courante et m le mouvement (ou transformation) appliqué à s pour obtenir un voisin s 0 . On limite ainsi l’évaluation à la transformation de s au lieu d’évaluer complète-80 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES FIGURE 5.8 – Principe de génération du voisinage à partir de la solution courante et sélection d’un voisin d’après [35]. ment la solution voisine s 0 . Cette évaluation incrémentale peut être simple ou très complexe à implémenter en fonction du problème et de la structure du voisinage. 5.6.4 Méthodes de descente (Simple Improvement-based Local Search) Les méthodes de descente (amélioration continue) n’utilisent pas de stratégies avancées et à ce titre nous les considérons comme des techniques de base pouvant être utilisées par différentes métaheuristiques plus élaborées. On les retrouve sous le nom "hill climbing" pour les problèmes de maximisation. Une méthode de descente (first improvement ou simple hill climbing) choisit à chaque étape une solution voisine meilleure que la solution courante (figure 5.8). Quand plus aucune solution voisine n’améliore la solution courante, un optimum local est atteint et le processus s’arrête. La méthode de plus forte descente (best improvement ou steepest ascent hill climbing) est une variante qui choisit à chaque étape la meilleure solution voisine parmi celles qui améliorent la solution courante. En termes d’exploration du voisinage, les méthodes de descente (first improvement) font une exploration partielle du voisinage (algorithme 4) alors que les méthodes de plus forte descente (best improvement) nécessitent une exploration exhaustive du voisinage (algorithme 5). L’avantage principal de ces méthodes de descente réside dans leur grande simplicité et leur rapidité. Historiquement, ces méthodes ont toujours compté parmi les méthodes heuristiques les plus populaires pour traiter les problèmes d’optimisation combinatoire. Toutefois, elles comportent deux obstacles majeurs qui peuvent limiter considérablement leur efficacité : • suivant la taille et la structure du voisinage N considéré, la recherche de la meilleure solution voisine est un problème qui peut être aussi difficile que le problème initial. • une méthode de descente est incapable de progresser au-delà du premier optimum local rencontré.5.6. MÉTAHEURISTIQUES À BASE DE VOISINAGES 81 Algorithme 4 : Méthode de descente 1 Créer la solution initiale s ; 2 while (optimum local non atteint) do 3 repeat Créer un nouveau voisin s 0 4 en réalisant un mouvement sur s ; until (s 0 meilleur que s) ou (plus aucun mouvement disponible) ; if (s 0 5 meilleur que s) then Passer à la solution s 0 (la solution courante s est remplacée par s 0 6 ) ; 7 return s ; Algorithme 5 : Méthode de plus forte descente 1 Créer la solution initiale s ; 2 while (optimum local non atteint) do 3 Déterminer le voisinage complet N de la solution courante s ; 4 if (N contient au moins une meilleure solution que s) then Choisir la meilleure solution s 0 5 dans N ; Passer à la solution s 0 (la solution courante s est remplacée par s 0 6 ) ; 7 return s ; Or, les problèmes d’optimisation combinatoire comportent typiquement de nombreux optima locaux pour lesquels la valeur de la fonction objectif peut être fort éloignée de la valeur optimale. Pour remédier à ce dernier problème, la solution la plus simple est la méthode de descente avec relance aléatoire (random restart hill climbing) qui consiste à générer une nouvelle solution de départ de façon aléatoire et à relancer la méthode de descente. On remarquera cependant que cette solution ne tire aucun profit des optima locaux déjà découverts. Une autre solution consiste à accepter des voisins de même qualité que la configuration courante. Cette approche permet à la recherche de se déplacer sur les plateaux, mais n’est pas suffisante pour ressortir d’un optimum local. L’efficacité des méthodes de RL repose en réalité sur un équilibre entre deux notions essentielles repré- sentées par l’intensification et la diversification. 5.6.5 Mécanismes d’intensification et de diversification Ces deux termes ont été initialement introduits par GLOVER dans le contexte de la recherche tabou [112, 113, 115] avant d’être généralisés puis vus comme des propriétés essentielles des métaheuristiques. L’intensification (ou exploitation) insiste sur l’examen en profondeur d’une zone de recherche particulière alors que la diversification (ou exploration) met en avant la capacité de découvrir des zones de recherche prometteuses. L’idée de base de l’intensification est d’exploiter une ou des solutions prometteuses. Elle se fonde sur les notions liées à l’apprentissage en considérant que les attributs souvent présents dans les configurations d’élite connues sont favorables, il faut donc les exploiter plus que les autres. Par contre, les attributs rarement présents dans les configurations d’élite connues sont peu favorables, il faut donc les éviter. De nombreuses techniques d’intensification ont été proposées [161, 30, 231, 128] : • relancer la recherche à partir des bonnes solutions déjà rencontrées ; • reconstruire une solution de départ qui tente de combiner des attributs souvent rencontrés dans les meilleures configurations ;82 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES FIGURE 5.9 – Classification (I&D) des composants d’une stratégie de recherche proposée par BLUM et ROLI [30] (OG = composants exclusivement guidés par la fonction objectif ; NOG = composants I&D uniquement guidés par une ou plusieurs fonctions autres que la fonction objectif ; R = composants guidés de façon totalement aléatoire). Le composant repéré par une croix ’X’ situé à mi-chemin entre l’intensification et la diversification n’est pas stochastique. • fixer certains attributs qui ont souvent été présents dans les configurations d’élite. Cependant, l’application du seul principe d’intensification ne permet pas une recherche efficace. En effet, elle conduit à confiner la recherche dans une zone limitée qui finit par s’épuiser. Le cas de l’amélioration continue illustrée par les méthodes de descente (voir la section 5.6.4) rapidement piégées dans un optimum local représente bien ce phénomène. A contrario, la diversification est un mécanisme qui oblige la recherche à s’éloigner d’une zone où les solutions sont connues pour se diriger vers d’autres zones inexplorées. HOOS et STÜTZLE ont établi un lien étroit entre diversification et caractère aléatoire [135]. Pour eux, une part d’aléatoire introduite dans la phase d’initialisation (pour créer la solution initiale) ou dans les étapes de recherche (en autorisant parfois la dégradation du score) permet de contourner les principales limitations des méthodes de descente qui restent piégées dans le premier minimum local rencontré. De nombreuses techniques de diversification ont été proposées. La technique la plus simple consiste à construire une nouvelle solution de départ pour relancer la recherche. Les changements de voisinage (5.6.10.2) sont aussi une forme de diversification permettant d’atteindre de nouvelles solutions. D’autres heuristiques peuvent réaliser une perturbation aléatoire (modifications aléatoires de la solution courante) ou encore caractériser les régions visitées pour pouvoir ensuite s’en éloigner. La recombinaison constitue un autre principe général qui complète l’intensification et la diversification. Elle consiste à construire de nouvelles configurations en combinant la structure de deux ou plusieurs bonnes configurations déjà trouvées. Cette idée issue des algorithmes génétiques (le croisement) a été introduite dans des méthodes de voisinage, notamment dans la méthode de recherche par dispersion (Scatter Search). Une stratégie de recherche efficace doit donc intégrer à la fois des mécanismes d’intensification et de diversification et trouver un bon équilibre entre ces deux notions antagonistes. Bien que certains composants d’une stratégie de recherche ne puissent être clairement catalogués comme participant soit à l’intensification, soit à la diversification (car ils participent aux deux à la fois), BLUM et ROLI ont proposé une classification [30] représentée par un triangle dans lequel on place les composants pour les évaluer en5.6. MÉTAHEURISTIQUES À BASE DE VOISINAGES 83 fonction de leur position à l’intérieur du triangle (figure 5.9). Dans ce triangle, l’effet de l’intensification diminue lorsque la distance au coin OG augmente tandis que la force de diversification augmente lorsqu’on s’approche des coins R ou NOG. Ce schéma correspond à une signature simple du composant concerné (e.g. composant repéré par une croix ’X’ dans la figure 5.9) et permet ainsi de représenter les mécanismes qu’il met en œuvre en relation avec sa position. 5.6.6 Recherche Locale Itérée (Iterated Local Search, ILS) La méthode de recherche locale itérée est une métaheuristique simple mais puissante [260, 176, 177, 184]. Il s’agit d’une amélioration des méthodes de descente qui propose une stratégie pour pallier l’arrêt de la recherche sur le premier optimum local rencontré, problème inhérent aux techniques de descente. A partir d’une solution initiale soumise à une méthode de descente classique, cette méthode enchaîne les trois étapes suivantes jusqu’à ce qu’un critère d’arrêt soit satisfait : • perturbation aléatoire de la solution courante ; • optimisation de la solution perturbée par une méthode de descente jusqu’à obtenir un optimum local ; • acceptation (ou non) du nouvel optimum local comme solution courante. La phase de perturbation est essentielle et elle doit être bien dosée. En effet, si la perturbation est trop faible, on ne pourra pas s’échapper du bassin d’attraction de l’optimum local précédent. Au contrainte, si la perturbation est trop importante, l’algorithme se comportera comme une méthode de descente avec relance aléatoire. Pour ce qui est de l’acceptation d’une nouvelle solution courante, on peut imaginer un grand nombre de possibilités comprises entre deux extrêmes qui consistent à (i) accepter le nouvel optimum local uniquement si il améliore la dernière solution trouvée ou à (ii) accepter systématiquement la nouvelle solution. Algorithme 6 : Méthode de recherche locale itérée 1 Créer la solution initiale s0 ; s ∗ 2 = Méthode de descente(s0) ; 3 repeat s1 = Perturbation aléatoire(s ∗ 4 , historique) ; 5 s2 = Méthode de descente(s1) ; if (Acceptation(s ∗ 6 , s2, historique)) then s ∗ 7 = s2 ; until (critère de fin atteint) ; 5.6.7 Recuit Simulé (Simulated Annealing, SA) Le recuit simulé est une métaheuristique populaire dont le mécanisme de recherche est calqué sur l’algorithme de Metropolis [189] et les principes de recuit thermodynamiques utilisés en métallurgie. KIRKPATRICK et al. [153] et CERNY [42] ont été les premiers à s’inspirer d’une telle technique pour résoudre des problèmes d’optimisation combinatoire. En partant d’une température élevée où le métal est liquide, on le refroidit progressivement en tentant de trouver le meilleur équilibre thermodynamique. Chaque niveau de température est maintenu jusqu’à obtenir un équilibre. Dans ces phases de température constante, on peut passer par des états intermédiaires du métal non satisfaisants, mais conduisant à la longue à des états meilleurs. La vitesse de refroidissement a un impact crucial sur la configuration finale, un alignement atomique approprié n’étant possible que si le procédé de refroidissement est suffisamment lent. Le voisinage N (s) d’une solution s ∈ S s’apparente à l’ensemble des états atteignables depuis l’état courant en faisant subir des déplacements infinitésimaux aux atomes d’un système physique. A chaque84 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES itération de l’algorithme, une seule solution voisine s 0 est générée à partir du voisinage N (s). Celle-ci est acceptée si elle est meilleure que la solution courante s. Dans le cas contraire, la solution s 0 est acceptée avec une certaine probabilité prob(4f, T) qui dépend de la détérioration de la qualité 4f = f(s 0 ) − f(s) et d’un paramètre T correspondant à la température. Les changements de température sont effectués sur la base d’un schéma de refroidissement précis. En règle générale, la température est diminuée par paliers à chaque fois qu’un certain nombre d’itérations est effectué. L’algorithme est interrompu lorsqu’aucune solution voisine n’a été acceptée pendant un cycle complet d’itérations à température constante. La performance du recuit simulé est étroitement liée au schéma de refroidissement considéré. De nombreuses études théoriques ont été effectuées à ce sujet et plusieurs variantes ont été proposées [52, 211]. Algorithme 7 : Méthode de recuit simulé 1 Créer la solution initiale s ; 2 Définir la température initiale T0 ; 3 Définir le nombre d’essais pour chaque niveau de température L; 4 Initialiser le compteur de niveau k ← 0 ; 5 while (critère de fin non satisfait) do 6 for (i = 1 to L) do Créer un nouveau voisin s 0 7 en appliquant à s un mouvement choisi aléatoirement ; Calculer la différence de coût 4f = f(s 0 8 ) − f(s); 9 if (4f ≤ 0) then Passer à la solution s 0 (Remplacer la solution courante s par s 0 10 ) ; else 11 Tirer un nombre aléatoire r ∈ [0, 1] ; if  r ≤ exp  −4f Tk  then 12 Passer à la solution s 0 (Remplacer la solution courante s par s 0 13 ) ; 14 Actualiser la meilleure solution trouvée (si nécessaire) ; 15 Définir k ← k + 1 ; 16 Définir la valeur de la température Tk pour le nouveau niveau k ; 17 return la meilleure solution trouvée ; En début du processus de recherche, le système est chauffé en fixant T à une valeur élevée. L’algorithme de Metropolis est exécuté pour un nombre déterminé d’itérations, tout en gardant la température fixe. Après cela, la température diminue lentement et l’algorithme de Metropolis est relancé. Ce plan d’action est ré- pété jusqu’à ce que le système soit gelé, c’est à dire lorsqu’on a atteint une température très basse et que pratiquement aucune modification de configuration ne se produit (algorithme 7). 5.6.8 Recherche Tabou (Tabu Search, TS) Introduite indépendamment par F. GLOVER [111] d’une part et par P. HANSEN [125] d’autre part, la recherche tabou est une métaheuristique qui construit un voisinage en excluant un certain nombre de confi- gurations récemment visitées (ou mouvements récents). Elle utilise toujours la meilleure solution voisine indépendamment du fait qu’elle améliore ou non la qualité de la solution précédente. Tant qu’on ne se trouve pas dans un optimum local, cette méthode se comporte comme une méthode de plus forte descente qui améliore à chaque itération la valeur de la fonction objectif en choisissant une configuration meilleure. Mais lorsqu’elle a atteint un optimum local, la recherche tabou cherche à s’en5.6. MÉTAHEURISTIQUES À BASE DE VOISINAGES 85 FIGURE 5.10 – Recherche tabou pour un problème de minimisation : déplacement dans l’espace de recherche en sélectionnant à chaque itération le meilleur voisin dans un voisinage débarrassé des solutions récentes marquées tabou (pour éviter les cycles). On alterne ainsi entre des phases d’intensification et de diversification qui poussent la recherche à se diriger vers un optimum global. échapper en choisissant le voisin le moins mauvais, c’est à dire celui qui détériore le moins le coût de la dernière solution sélectionnée (figure 5.10). Pour éviter d’emprunter le chemin inverse (retour à une solution précédente) qui provoquerait un cycle, la méthode se déplace d’une configuration à une autre en s’interdisant de revenir sur une configuration ré- cente déjà rencontrée. Elle utilise pour cela une liste tabou qui contient les dernières configurations visitées et interdites pendant un certain nombre d’itérations, le but étant de donner assez de temps à l’algorithme pour lui permettre de sortir du minimum local. Cependant, stocker dans la liste tabou des configurations entières et vérifier si elles correspondent à la prochaine destination peut être coûteux en espace mémoire et en temps de calcul. Pour éviter ce problème, une alternative courante consiste à stocker et à interdire un ensemble de mouvements récemment utilisés (plutôt que des solutions), ces mouvements pouvant ramener à une configuration déjà visitée. Dans le cas d’une liste tabou basée mouvements, l’interdiction d’emprunter un chemin ne porte pas uniquement sur les solutions récemment visitées, elle porte plus globalement sur toutes les solutions qui résulteraient de l’un des mouvements présents dans la liste. Le nombre de ces solutions involontairement déclarées tabou dépend de la capacité de stockage de la liste tabou et peut varier très fortement en fonction du problème et de la structure du voisinage. Il arrive même que cette interdiction empêche de visiter des solutions supérieures (à la meilleure configuration déjà rencontrée) n’ayant pas encore été visitées, ce qui rend le processus de recherche plus difficile. Pour ne pas interdire l’accès à ces configurations de qualité supérieure, on peut ajouter un mécanisme dit d’aspiration qui permet d’enlever le caractère tabou à certains mouvements jugés utiles pour accéder à des solutions de qualité exceptionnelle. D’autres critères d’aspiration plus sophistiqués ont également été proposés [66, 131]. La durée tabou est un paramètre essentiel qui influence énormément les performances de la méthode, il est donc crucial de bien la choisir en fonction du problème traité et de l’instance. La durée du statut tabou peut être soit statique soit dynamique. Une durée statique est fixée en début de résolution et reste constante durant toute la recherche. Une durée dynamique peut varier au cours de l’exécution. Plusieurs86 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES études [127] ont montré que les résultats obtenus avec les listes tabou dynamiques pouvaient être meilleurs qu’avec une liste statique. Dans [72, 73], les auteurs proposent des techniques d’apprentissage pour définir empiriquement les paramètres de durée. Algorithme 8 : Méthode de recherche tabou 1 Créer la solution initiale s ; 2 Initialiser la liste tabou T ; 3 while (critère de fin non satisfait) do 4 Déterminer le voisinage complet N de la solution courante s ; Choisir la meilleure solution s 0 5 non tabou dans N ; Passer à la solution s 0 (la solution courante s est remplacée par s 0 6 ) ; 7 Modifier la liste tabou T ; 8 Actualiser la meilleure solution trouvée (si nécessaire) ; 9 return la meilleure solution trouvée ; 5.6.8.1 La liste tabou La liste tabou contient habituellement une quantité limitée d’informations pouvant être de différentes natures [106]. Elle est généralement organisée comme un buffer de type "first in first out". Lorsque le buffer est plein et qu’un nouvel élément doit y être ajouté, l’élément le plus ancien est supprimé du buffer et les éléments précédents sont décalés vers la fin. La capacité du buffer détermine la "durée tabou". Notons qu’une liste tabou de taille fixe ne peut pas éviter avec certitude l’occurrence de cycles. Afin d’améliorer sa protection contre les cycles, deux approches majeures ont été développées : • faire varier la taille de la liste au fil du temps [112, 113, 250, 263]. • faire varier la durée tabou de chaque élément [107]. Cette approche nécessite une structure mémoire adaptée. Les éléments tabou doivent être mémorisés dans un tableau avec une information de durée tabou, typiquement le numéro d’itération à atteindre pour qu’ils passent du statut tabou au statut non tabou. 5.6.8.2 Alternance entre intensification et diversification Afin d’illustrer la stratégie de recherche tabou et le nécessaire équilibre entre intensification et diversification, revenons sur la Figure 5.10. Le processus d’optimisation démarre avec la solution initiale s1. Il entame alors une première phase d’intensification de la recherche en opérant une méthode de descente jusqu’à ce qu’il rencontre un optimum local (s6). Pour sortir de cette impasse, il a alors deux solutions : soit il revient à la solution s5, soit il avance à la solution s7. La liste tabou ayant mémorisé les dernières solutions visitées, on suppose que la solution s5 est interdite. La recherche tabou passe donc à la solution s7 correspondant à la meilleure solution voisine non tabou. La solution s7 ayant été visitée, elle devient à son tour tabou. La recherche n’a pas d’autre choix que de poursuivre sa phase de remontée jusqu’à atteindre la solution s10. Cette ascension l’éloigne peu à peu de la vallée où la recherche était bloquée : il s’agit d’une phase de diversification qui guide la recherche vers de nouveaux horizons. A partir du point s10, des solutions voisines d’amélioration non tabou sont accessibles et le processus rentre à nouveau dans une phase d’intensification. 5.6.9 Adaptive Search (AS) Adaptive Search est une méthode de recherche locale basée contraintes (i.e. Constraint-Based Local Search) proposée au début des années 2000 [47, 48]. Cette métaheuristique tire parti de la structure d’un problème5.6. MÉTAHEURISTIQUES À BASE DE VOISINAGES 87 en exploitant les contraintes et les variables d’un CSP donné. Elle peut ainsi guider la recherche avec plus de précision qu’une simple fonction de coût globale à optimiser, qui mentionnerait uniquement le nombre de contraintes violées [10]. L’algorithme utilise également une mémoire à court terme, dans l’esprit de la recherche tabou, pour éviter (i) une stagnation dans un optimum local et (ii) des cycles infinis. De part sa nature, cette métaheuristique gère de façon intrinsèque les problèmes sur-contraints. L’algorithme 9 présente un schéma général de la métaheuristique Adaptive Search qui s’articule autour de trois principes : • considérer pour chaque contrainte une fonction heuristique capable de calculer un degré de satisfaction des objectifs : l’erreur courante sur la contrainte ; • regrouper les contraintes sur chaque variable et projeter les erreurs sur les variables dans le but de réparer la plus mauvaise variable avec la valeur la plus prometteuse ; • conserver dans une mémoire à court terme les mauvaises configurations pour éviter les cycles (i.e. à la manière d’une liste tabou) et proposer un mécanisme de réinitialisation partielle. Pour chaque contrainte, une fonction d’erreur doit être définie afin de fournir, pour chaque tuple "variable | valeur", une indication sur son degré de violation. Cette idée a également été proposée indépendamment par P. GALINIER et J.K. HAO [99], où il est question de "fonctions de pénalité", puis réutilisée dans la plateforme Comet [272], où les auteurs parlent de "violations". AS procède à une réparation itérative sur la base des erreurs liées aux variables et aux contraintes, en cherchant à réduire l’erreur sur la variable ayant le coût le plus élevé. Pour cela, on calcule la fonction d’erreur pour chaque contrainte, puis on combine pour chaque variable les erreurs de toutes les contraintes où elles apparaissent, ce qui permet de projeter les erreurs des contraintes sur les variables correspondantes. La procédure qui permet de transférer les erreurs des contraintes sur les variables est problème-dépendant. Il s’agit généralement d’une simple somme, ou d’une somme de valeurs absolues, bien que cela puisse également être une somme pondérée si les contraintes sont données avec des priorités différentes. Finalement, la variable avec l’erreur la plus importante est désignée comme étant "la coupable" et sa valeur est modifiée. Pour cette seconde étape, l’heuristique min-conflicts11 [192] est utilisée pour sélectionner la valeur dans le domaine de la variable qui est la plus prometteuse, c’est à dire la valeur pour laquelle l’erreur totale dans la configuration suivante est minimale. Pour éviter d’être piégée dans un minimum local, la méthode AS incorpore un mécanisme de mémoire à court terme permettant de mémoriser les configurations à éviter (les variables peuvent être marquées tabou et être gelées pour un nombre d’itérations). Elle intègre également des étapes de réinitialisation. Une réinitialisation consiste à assigner de nouvelles valeurs aléatoires pour certaines variables, ces dernières étant également choisies de façon aléatoire. Par exemple, lorsque trop de variables deviennent tabou, l’algorithme risque d’être piégé autour d’un minimum local. Une diversification peut alors être sollicitée par une réinitialisation partielle en assignant de nouvelles valeurs à un pourcentage donné de variables du problème, les variables et les valeurs étant choisies aléatoirement. Une réinitialisation peut être déclenchée lors d’une itération dès qu’un nombre de variables marquées tabou est atteint. Par rapport à l’algorithme de base (cf. algorithme 9), une amélioration peut être apportée lorsqu’on se déplace sur un plateau. Dans ce cas, un système stochastique simple peut être utilisé pour décider de poursuivre sur le plateau ou de s’en échapper, selon une certaine probabilité. Bien que cette méthode soit très simple, elle n’en reste pas moins très efficace pour résoudre des problèmes combinatoires complexes [49]. Soulignons également que cette métaheuristique exploite plusieurs mécanismes stochastiques. D’une part dans l’algorithme de base pour la sélection d’une variable et d’une valeur pour trancher entre des choix équivalents. D’autre part, dans la valeur des paramètres de contrôle pouvant être fixés différemment par l’utilisateur à chaque exécution (% de variables concernées par une ré- 11La méthode min-conflicts cherche à éviter une exploration exhaustive du voisinage à chaque itération comme le fait la méthode de plus forte descente (ou best improvement). Pour ce faire, une variable en conflit (impliquée dans une contrainte violée) est choisie aléatoirement et instanciée avec la valeur qui minimise le nombre de conflits, avec un choix aléatoire en cas d’égalité. Cette heuristique introduite pour des problèmes de satisfaction de contraintes tente ainsi de réparer une configuration non consistante.88 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES Algorithme 9 : Algorithme de base pour la métaheuristique Adaptive Search, d’après [10]. Input : problème donné au format CSP : certains paramètres de règlage : • variables Xi avec leurs domaines • TT : # iterations où une variable reste tabou • contraintes Cj avec fonctions d’erreur • RL : # variables tabou pour déclencher un reset • fonction pour projecter les erreurs sur les variables • RP : % de variables à réinitialiser • fonction de coût à minimiser • MI : # max. iterations avant un redémarrage • MR : # max. de redémarrages Output : une solution si le CSP est satisfait ou une solution approchée de coût minimal sinon. 1 Restart ← 0 ; 2 Opt_Sol ← ∅ ; 3 Opt_Cost ← MAX ; 4 repeat 5 Restart ← Restart + 1 ; 6 Iteration ← 0 ; 7 Calculer une affectation aléatoire A de variables dans V ; 8 if (cost(A) < Opt_Cost) then 9 Opt_Sol ← A ; 10 Opt_Cost ← cost(A) ; 11 repeat 12 Iteration ← Iteration + 1 ; 13 Calculer les erreurs de toutes les contraintes dans C et combiner les erreurs sur chaque variable; (en considérant uniquement les contraintes où la variable apparaît) 14 Sélectionner la variable X (non marquée tabou) avec l’erreur la plus forte ; (si il y en a plusieurs avec le même coût, en sélectionner une de façon aléatoire dans la liste) 15 Évaluer les configurations du voisinage de A à partir de X ; 16 if (aucun changement ne permet d’améliorer le coût) then 17 marquer X comme tabou jusqu’à l’itération numéro : Iteration + T T ; 18 if (le nombre de variables marquées tabou ≥ RL) then 19 réinitialiser au hasard RP % variables dans V (et ne plus les considérer comme tabou) ; else Appliquer le meilleur changement à partir de X, donnant la configuration suivante A0 20 ; A ← A0 21 ; 22 if (cost(A) < Opt_Cost) then 23 Opt_Sol ← A ; 24 Opt_Cost ← cost(A) ; until (Opt_Cost = 0 (une solution est trouvée) ou Iteration ≥ MI) ; until (Opt_Cost = 0 (une solution est trouvée) ou Restart ≥ MR) ; 25 output(Opt_Sol, Opt_Cost)5.6. MÉTAHEURISTIQUES À BASE DE VOISINAGES 89 initialisation partielle, nombre maximum de variables marquées tabou pour déclencher une réinitialisation partielle, . . . ). 5.6.10 Autres métaheuristiques obtenues par recombinaison de méthodes simples Nous présentons ici quelques méthodes de RL originales qui combinent et exploitent des techniques de base déjà abordées dans ce chapitre. L’association de techniques simples pour produire des techniques plus sophistiquées nous permet d’illustrer tout le potentiel que représente l’hybridation de méthodes (complètes et incomplètes) sans toutefois développer ce dernier aspect [127, 252, 162, 146, 76, 152]. 5.6.10.1 Greedy Randomized Adaptive Search Procedure (GRASP) La méthode GRASP [91, 230] consiste à répéter deux phases successives tant qu’un critère d’arrêt n’est pas satisfait : • la première phase construit une solution s par un algorithme glouton aléatoire (Greedy randomized, section 5.5.2) ; • la seconde phase utilise une méthode de descente pour trouver un optimum local à partir de s. La méthode retourne la meilleure solution trouvée. 5.6.10.2 Recherche à voisinage variable (Variable Neighborhood Search, VNS) Proposée par HANSEN et MLADENOVIC [126] en 1997, la méthode de recherche à voisinage variable est une métaheuristique récente qui exploite un changement de structures de voisinage pour s’échapper d’un optimum local. L’idée de base est de faire varier la structure de voisinage en se basant sur le fait qu’une configuration s reconnue comme un optimum local pour une structure de voisinage donnée peut ne pas être un optimum local pour une autre structure de voisinage. Cette méthode fonctionne en plusieurs étapes. Tout d’abord, elle nécessite la définition de différentes structures de voisinage, notées N1, ..., Nkmax , allant d’une portée faible à une portée de plus en plus importante. A partir d’une configuration complète de départ s, une solution s 0 voisine de s est sélectionnée (de façon aléatoire) en utilisant la structure de voisinage N1 (de plus faible portée). On applique alors une méthode de descente sur s 0 . Si la solution s 00 obtenue à l’issue de cette première recherche est meilleure que la solution s de départ alors la solution s est remplacée par s 00 et la recherche reprend à partir de la première structure de voisinage. Sinon, une autre configuration complète s 0 peut être sélectionnée dans le voisinage de s en utilisant une structure de voisinage de portée supérieure (soit dans notre cas la structure de voisinage N2). La même règle est appliquée pour les choix suivants jusqu’à l’obtention d’un critère d’arrêt. A noter que les règles de changement de structure de voisinage peuvent être plus complexes. Il peut être intéressant d’utiliser des algorithmes de ce type pour des problèmes disposant de nombreux minimums locaux. 5.6.10.3 Recherche Locale Guidée (Guided Local Search, GLS) La recherche locale guidée proposée par VOUDOURIS et TSANG [281] pénalise les propriétés caractéristiques des solutions qui apparaissent dans un optimum local. Elle consiste à modifier dynamiquement la fonction objectif pour exploiter ces pénalités et rendre moins attractifs les optima locaux. La recherche démarre avec une solution initiale et toutes les valeurs de pénalité à zéro. Une méthode de descente est utilisée jusqu’à ce qu’un optimum local soit trouvé. La solution trouvée est utilisée pour calculer les nouvelles pénalités. Ces deux dernières étapes sont répétées jusqu’à ce qu’un critère d’arrêt soit vérifié.90 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES 5.6.11 Conclusion Par rapport à cette étude relative aux méthodes de résolution incomplètes, nous souhaitons mettre en perspective deux aspects qui nous paraissent essentiels : des différences significatives entre les méthodes d’une part et des opportunités d’assemblage d’autre part. D’un point de vue paramétrage, le recuit simulé paraît nettement plus compliqué que la méthode de recherche tabou par exemple : d’un côté, il faut définir un système de refroidissement par paliers (tempé- rature initiale, taux de décroissance de la température, durée des paliers de température, . . . ) [181, 245] alors que d’un autre, il suffit de définir la taille d’une liste. Lorsqu’on doit satisfaire une contrainte de temps importante, la méthode de recuit simulé ne semble pas bien positionnée non plus avec un temps de calcul qui reste excessif dans certaines applications [245]. A l’inverse, les méthodes basées sur le principe de plus forte descente semblent intéressantes pour améliorer très fortement la qualité d’une solution en tout début du processus de résolution. On notera que la recherche tabou est une méthode aussi agressive qu’une méthode de descente mais, si le temps le permet, elle sera capable de dépasser le premier optimum local. Par rapport à un type de problème particulier, des instances de problèmes classiques sont disponibles pour pouvoir évaluer la pertinence d’une méthode et la comparer aux autres (cf. les librairies : OR-Library12 , TSPLIB13, QAPLIB14, . . . ). En fonction de la structure d’un problème ou d’une instance, une méthode sera donc plus ou moins adaptée et obtiendra parfois les meilleurs résultats connus pour certains problèmes. Il est donc important d’avoir une vision des différentes techniques disponibles pour retenir celle qui est la plus prometteuse. Par exemple, parmi les métaheuristiques basées sur une recherche locale, la méthode tabou semble être la plus performante pour résoudre les problèmes d’affectation quadratique. Pour ce probème et dans la majorité des cas, c’est elle qui présente en effet le meilleur compromis entre qualité des solutions et temps de calcul [187]. La méthode Adaptive Search quant à elle sait tirer parti de la structure d’un problème pour guider la recherche en exploitant ses variables et ses différentes contraintes lorsqu’elles sont exprimées sous la forme d’un CSP. Ces éléments confèrent à cette métaheuristique un intérêt particulier dans notre contexte de travail. D’un autre coté, on s’aperçoit que chaque technique apporte son lot de contributions et qu’il est tout à fait possible de conjuguer certaines méthodes de base entre elles pour réaliser des méthodes plus sophistiquées. Nous retenons plus particulièrement les procédés suivants qui peuvent être complémentaires : • partir de solutions initiales différentes construites de façon aléatoire ou par une méthode de construction gloutonne aléatoire ; • enchaîner des phases successives constituées de différentes techniques et retourner le meilleur résultat trouvé ; • exploiter l’agressivité des méthodes de plus forte descente ; • réaliser des perturbations aléatoires sur les variables ; • accepter des solutions moins bonnes ; • exploiter une mémoire à court terme pour ne pas revenir sur ses pas ou ignorer certaines possibilités (configurations ou variables) ; • utiliser la structure du problème pour guider la recherche en exploitant les contraintes et les variables d’un problème (défini par un CSP). 5.7 Métaheuristiques parallèles (à base de voisinage) Les métaheuristiques offrent souvent la seule possibilité de résoudre des problèmes complexes du monde réel. Cependant, même en utilisant les métaheuristiques, les limites de ce qui peut être résolu dans un temps de calcul raisonnable sont encore trop rapidement atteintes pour beaucoup de problèmes. Dans sa 12http://people.brunel.ac.uk/~mastjjb/jeb/info.html 13http://www.iwr.uni-heidelberg.de/groups/comopt/software/TSPLIB95/ 14http://anjos.mgi.polymtl.ca/qaplib/5.7. MÉTAHEURISTIQUES PARALLÈLES (À BASE DE VOISINAGE) 91 thèse [102], Vincent GARDEUX parle de "malédiction de la dimension". D’autre part, les métaheuristiques n’offrent pas de garanties sur la qualité des solutions fournies et leurs performances dépendent souvent des caractéristiques particulières du problème ou de l’instance. La parallélisation des métaheuristiques permet justement d’adresser ces deux problèmes : (i) offrir un maximum de performances et (ii) rendre les métaheuristiques robustes15 [58]. Elle peut également être utilisée pour améliorer la qualité des solutions obtenues ou résoudre des problèmes de grande taille [266]. Mais en quoi consiste la parallélisation d’une métaheuristique ? Le calcul parallèle (ou distribué) met en œuvre différents processus qui travaillent simultanément sur différents processeurs pour résoudre une instance donnée d’un problème. Le parallélisme correspond à une décomposition de la charge totale de calcul et à la distribution des tâches correspondantes sur les processeurs disponibles. Concernant les métaheuristiques, il existe deux types majeurs de décomposition : • décomposition algorithmique ; • décomposition de l’espace de recherche ; D’un point de vue algorithmique, la source principale de parallélisme pour les métaheuristiques concerne l’évaluation concurrente des voisins, c’est à dire l’exécution concurrente des boucles d’itération pour l’évaluation des voisins. Au niveau algorithmique, c’est souvent la seule source de parallélisme disponible car beaucoup d’autres étapes dépendantes du temps sont liées les unes aux autres et nécessitent le calcul d’étapes précédentes pour être réalisées. L’espace de recherche du problème peut lui aussi être décomposé et une méthodologie particulière employée pour adresser le problème sur chaque composante résultant de la décomposition. L’espace de recherche est partitionné entre différents processeurs et chaque processeur procède à une évaluation séparée du sous espace qui lui est assigné. Malgré le partitionnement, une énumération exhaustive du sous espace n’est généralement pas envisageable et on recourt à une méthode exacte ou à une métaheuristique pour explorer chaque partition. Deux approches peuvent être utilisées pour partitionner l’espace de recherche : la décomposition de domaine et la recherche multiple. 5.7.1 Évaluation concurrente des voisins Cette stratégie exploite le potentiel de décomposition intra-algorithme des tâches dans le cadre des boucles d’évaluation des solutions voisines. Elle ne modifie ni la logique de l’algorithme de base, ni l’espace de recherche. Son but est d’accélérer la recherche sans modifier le comportement de la métaheuristique sé- quentielle. Typiquement, l’exploration est initialisée à partir d’une solution initiale et la recherche se poursuit selon la stratégie de la métaheuristique de base, seules les boucles de calcul internes sont décomposées et les tâches correspondantes sont exécutées simultanément par plusieurs processus. Cette stratégie est souvent implémentée [58] conformément au modèle parallèle de programmation "master-slave" (figure 5.11) : Le programme master exécute la métaheuristique conformément au modèle séquentiel en dispatchant en parallèle les tâches de calcul gourmandes sur différents slaves. Le programme master reçoit et traite l’information résultant des opérations réalisées par les slaves, sélectionne et implé- mente les mouvements, actualise la mémoire le cas échéant, et décide de poursuivre la recherche selon différentes stratégies ou de l’arrêter. Les programmes slaves se contentent de réaliser les évaluations demandées et retournent les résultats au master, qui, lorsque tous les résultats sont disponibles, poursuit la logique normale de la métaheuristique séquentielle. Le contrôle complet de l’exécution repose sur master qui décide d’allouer le travail aux autres processeurs et initie la plupart des communications. Il n’y a pas de communication entre les processus slaves. 15Robuste s’entend dans le sens d’offrir un haut niveau de performance uniforme pour une large variété de problèmes et de caractéristiques.92 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES FIGURE 5.11 – Modèle parallèle de programmation Master-Slave d’après [58]. On parallélise la procédure d’évaluation du voisinage pour identifier la solution courante suivante de l’heuristique de recherche locale liée à la métaheuristique. Chaque itération de la boucle génère et évalue un voisin de la solution courante, et peut être exécutée indépendamment des autres itérations. Les calculs de ces itérations peuvent être réalisés sur plusieurs processeurs réservés pour ces tâches. En fait, le master regroupe les voisins dans un nombre approprié de tâches qui sont alors transmises aux slaves. A partir de là, chaque slave peut évaluer chaque voisin appartenant à la partie de son voisinage et retourner le meilleur voisin trouvé. Le master attend que tous les slaves terminent leur calculs, et lorsqu’ils ont tous répondus, sélectionne le meilleur mouvement et poursuit la recherche. GARCIA et al. [101] ont proposé une application de cette stratégie parallèle pour la recherche tabou appliquée à un problème de tournées de véhicules sous contraintes de fenêtres de temps. Il n’y a pas de taille optimale prédéfinie pour le nombre de tâches parallèles. Le nombre de processus à définir est fortement liées au contexte et dépend entre autres du nombre de processeurs disponibles, des temps de communication inter-processus et de l’architecture matérielle sur laquelle les calculs sont réalisés. Lorsque l’évaluation des voisins est sensiblement la même, il est courant de partitionner les éléments du voisinage en autant de groupes que de processeurs disponibles [58]. Lorsqu’une méthode de descente est utilisé pour retourner le premier meilleur voisin (First Improvement), la procédure de recherche parallèle sera souvent différente de la version séquentielle, et de ce fait, les deux algorithmes se comporteront différemment. De plus, le gain lié à la parallélisation sera limité lorsque beaucoup de bons voisins sont facilement accessibles. 5.7.2 Décomposition de domaine La décomposition de domaine [227] constitue une stratégie intuitivement simple (en apparence) et attrayante : on divise l’espace de recherche en plus petits ensembles habituellement disjoints et pas nécessairement exhaustifs, on résout les sous-problèmes correspondants en appliquant une métaheuristique séquentielle sur chaque sous ensemble, on collecte les solutions partielles respectives et on reconstruit une solution complète (figure 5.12). Néanmoins, cette décomposition peut prendre plusieurs formes et un certain nombre de facteurs doivent alors être spécifiés [58] : 1. la partition est-elle stricte ou bien les sous-ensembles peuvent-ils se superposer ? 2. les processus de recherche doivent-ils considérer des solutions complètes ou bien partielles du problème (dans ce dernier cas, une solution complète doit être reconstruire à certains moments) ? 3. les mouvements réalisés sur le sous problème sont-ils restreints au sous espace de recherche correspondant ou bien peuvent-ils intégrer des variables dans les sous espaces voisins créant ainsi une5.7. MÉTAHEURISTIQUES PARALLÈLES (À BASE DE VOISINAGE) 93 FIGURE 5.12 – Décomposition de domaine suivant le modèle de programmation Master-Slave d’après [58]. superposition indirecte des sous-ensembles ? Un partitionnement "strict" réduit les processus concurrents de la métaheuristique à leur sous-ensemble respectif et interdit les mouvements impliquant des solutions appartenant à deux sous-ensembles ou plus. Ceci implique qu’une partie de l’espace de recherche est hors de portée et la métaheuristique parallèle devient de fait non optimale. Un "recouvrement" permet d’adresser ce problème. Cependant, "le seul moyen de garantir que toutes les solutions potentielles soient atteignables consiste à faire un chevauchement de la totalité de l’espace de recherche correspondant à une non décomposition, ce cas étant non pertinent" [58]. En conséquence, un partitionnement strict ou un chevauchement très limité sont des approches préférées avec une fonctionnalité de re-décomposition généralement incluse pour améliorer la minutie de la recherche et permettre d’examiner toutes les solutions potentielles : la décomposition est modifiée à intervalle de temps régulier et la recherche est relancée en utilisant cette nouvelle décomposition. Cette fonctionnalité permet de définir des décompositions non exhaustives où l’union des sous-ensembles est plus petite que l’espace de recherche complet. Une fonctionnalité de reconstruction d’une solution complète fait presque toujours partie de la procédure. Le processus master détermine les partitions et transmet les sous ensembles aux slaves, synchronise leur travail et collecte les solutions, reconstruit les solutions (si nécessaire), modifie les partitions, et détermine les conditions d’arrêt (algorithme 10). Chaque slave exécute de façon concurrente et indépendante une métaheuristique séquentielle sur son sous espace de recherche assigné et retourne sa meilleure solution courante après que le master a synchronisé toutes les activités. Des adaptations sont nécessaires en fonction de la métaheuristique mise en œuvre. Par exemple, Avec l’utilisation d’une recherche tabou, le master doit reconstruire simultanément une liste tabou globale en dehors de la mémoire locale des slaves en lien avec la reconstruction de la solution complète avant de poursuivre la recherche. Le comportement de la recherche et l’effort de calcul réalisé par les métaheuristiques séquentielles et parallèles, tout comme la qualité des solutions respectives différent dans la plupart des cas [268]. Imposer un comportement similaire nécessiterait des efforts importants qui emporteraient tout l’avantage de la parallélisation.94 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES Algorithme 10 : Principe de décomposition de domaine - Processus Master [58] 1 Créer la solution initiale s ; 2 Décomposer l’instance du problème en n sous-problèmes : Sp1, Sp2, · · · , Spn ; 3 while (critère de fin non satisfait) do 4 i ← 1 ; 5 while (i ≤ n) do execute-slave-process(Spi 6 , s); 7 i ← i + 1 ; 8 Synchronisation des slaves ; 9 i ← 1 ; 10 while (i ≤ n) do 11 si ← result-slave-process(); 12 i ← i + 1 ; 13 s ← construction(s1, s2, · · · , sn); 14 Modifier les partitions : Sp1, Sp2, · · · , Spn ; 15 return s ; 5.7.3 Recherche multiple Dans ce modèle parallèle, des métaheuristiques indépendantes ou coopératives sont utilisées. La recherche multiple indépendante (independent multi-search) consiste à exécuter en parallèle de multiples métaheuristiques indépendantes sur l’espace de recherche entier en initialisant les recherches avec des solutions initiales identiques ou différentes et en sélectionnant à la fin la meilleure solution parmi toutes les recherches. On parle également de portfolio d’algorithmes, notion introduite par HUBERMAN et al. [138] qui définit une exécution concurrente de plusieurs algorithmes résolvant un même problème [205]. En plus de la solution initiale, différents réglages de paramètres peuvent être utilisés pour la métaheuristique, comme la taille d’une liste tabou par exemple. De plus, chaque composant de recherche d’une métaheuristique peut être conçu différemment : encodage, opérateur de recherche, fonction objectif, contraintes, critères d’arrêts, etc. [266]. Cette stratégie peut être vue comme une parallélisation directe de l’heuristique multi-start16. Cette méthode cherche à accélérer l’exploration de l’espace de recherche en se dirigeant vers une meilleure solution. Aucun avantage n’est attendu des multiples processus qui s’exécutent en parallèle hormis celui d’identifier la meilleure solution globale lorsque tous les processus sont terminés. La recherche multiple indépendante est la stratégie parallèle de recherche la plus simple et offre généralement de bonnes performances, ce qui explique la popularité de cette stratégie pour la parallélisation des métaheuristiques à base de voisinage. On trouve notamment plusieurs exemples de mise en œuvre pour la recherche tabou [228, 265, 31] sur différents problèmes. Le paradigme master-slave est bien adapté à ce modèle : un slave implémente toute la métaheuristique tandis que le master définit les différents paramètres à utiliser par les slaves et détermine la meilleure solution trouvée à partir de toutes les solutions produites par les différents slaves. Les versions coopératives vont plus loin et intègrent des mécanismes de partage pendant la recherche en cours, l’information obtenue permettant de diversifier la recherche. Le comportement global de recherche de la métaheuristique parallèle émerge des interactions locales, ce qui modifie le comportement de la mé- taheuristique de base. En général, ce partage permet de produire un résultat collectif avec de meilleures solutions qu’une recherche parallèle indépendante. Pour la mise au point d’une version coopérative, plusieurs questions se posent : 16Les méthodes "multi-start" sont des heuristiques itératives composées de deux phases successives : la première phase génère une solution et la seconde améliore cette solution. Chaque itération produit une solution (habituellement un optimum local) et la meilleure solution est retournée à la fin du processus.5.8. ENVIRONNEMENTS LOGICIEL ET CADRE GÉNÉRIQUE 95 • quand : quant faut-il échanger de l’information ? • où : compte tenu de la topologie du réseau, quels sont les processus sources et destinations impliqués dans la communication ? • quoi : quelle information pertinente échanger entre les métaheuristiques ? • comment : quel protocole d’échange exploiter ? 5.7.4 Conclusion La parallélisation permet d’améliorer les performances et la robustesse des métaheuristiques. Il arrive également qu’elle soit mise en œuvre pour améliorer la qualité des solutions ou résoudre des problèmes de grande taille ne pouvant pas être adressés autrement. "Les métaheuristiques devenant de plus en plus efficaces, elles sont de plus en plus souvent appliquées à la résolution de problèmes de très grande taille. On retrouve là les deux principales motivations classiques de l’utilisation du parallélisme pouvant être résumées par plus vite et plus grand" [187]. Trois formules principales plus ou moins invasives sont identifiées dans la littérature pour paralléliser les métaheuristiques. On peut procéder à une évaluation concurrente du voisinage, à une décomposition du domaine ou à une recherche multiple (indépendante ou coopérative). Bien que les principes de parallélisation puissent paraître simples, la mise au point peut révéler des aspects très complexes. Elle doit notamment tenir compte de l’infrastructure matérielle, des réseaux disponibles, des systèmes d’exploitation, etc. Les protocoles de communication, les informations échangées et les modes de synchronisation entre processus doivent être appropriés car ils peuvent inhiber tout le bénéfice des traitements parallèles. D’autre part, la structure même d’une métaheuristique se prête plus ou moins bien à la décomposition en tâches indépendantes. Et il peut être très difficile de reproduire dans la version parallèle d’une métaheuristique le comportement exacte de sa version séquentielle. Par exemple, du fait de la structure séquentielle intrinsèque au recuit simulé, la parallélisation en l’état de cette méthode peut sembler paradoxale. Néanmoins, des modes de fonctionnement parallèles plus ou moins complexes de cette métaheuristique ont tout de même été proposés [245]. La plupart du temps, la parallélisation des métaheuristiques permet d’obtenir facilement de très bonnes accélérations [187]. Par exemple, pour rendre la méthode tabou parallèle, il suffit de répartir l’examen du voisinage de la solution courante sur différents processeurs. La marche dans l’espace de recherche est généralement très peu modifiée par rapport à la version séquentielle mais elle est effectuée plus rapidement grâce aux calculs répartis sur plusieurs processeurs. 5.8 Environnements logiciel et cadre générique La distinction entre "aspect problème-indépendant" intrinsèque aux métaheuristiques et "aspect problèmedépendant" lié aux heuristiques de recherche révèle un atout majeur : les deux aspects peuvent être réalisés séparément l’un de l’autre. Il devient possible d’implémenter les stratégies génériques de façon abstraite une fois pour toutes dans le cadre d’un framework (éventuellement orienté objet). Face à un problème concret, seules les heuristiques spécifiques devront être implémentées pour être connectées au framework. Plusieurs librairies et frameworks ont été développés pour simplifier la mise en œuvre de métaheuristiques et la réutilisation du code. Le lecteur intéressé par une liste complète des librairies et frameworks disponibles pourra consulter [266, 146] pour obtenir leurs principales caractéristiques. 5.8.1 Les origines Les premières études qui ont pour ambition d’unifier les différents types d’algorithmes de RL et d’améliorer leur compréhension remontent à la fin des années 90. Dans [290], YAGIURA et IBARAKI proposent d’adopter un cadre générique pour comparer les comportements des divers algorithmes et leurs raffinements. Plus96 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES générale et originale, l’approche de TAILLARD et al. [264] utilise le concept Adaptive Memory Programming pour fédérer recherche tabou, algorithmes génétiques (AG), recuit simulé et même colonie de fourmis. Par exemple, la population d’un AG est vue comme la mémoire de la recherche du passé, au même titre qu’une liste tabou. Ce formalisme permet également de décrire et mieux comprendre le fonctionnement hybride de ces métaheuristiques. Les outils destinés à abstraire les mécanismes élémentaires de la résolution par RL sont apparus avec Localizer [191], un langage de modélisation de haut niveau dédié à la spécification d’algorithmes de RL et de ses structures de données qui permet d’exprimer de manière souple et concise la résolution d’un problème. Le système maintient automatiquement et efficacement les structures de données lors de la recherche. Les algorithmes de recherche locale peuvent être exprimés dans une notation proche de leurs descriptions informelles présentes dans les papiers scientifiques. Ensuite, des librairies de classes génériques ou des frameworks sont apparus. Parmi eux, on peut citer par exemple : Comet, EasyLocal++, HotFrame, LocalSolver ou encore ParadisEO. 5.8.2 Bibliothèques et frameworks Comet Comet [272, 183], qui fût la plateforme de recherche du laboratoire d’optimisation de la BROWN UNIVERSITY, est un outil qui a été primé pour résoudre des problèmes complexes d’optimisation combinatoire dans des domaines tels que l’allocation de ressources et l’ordonnancement. Il peut être vu comme une hybridation d’algorithmes de recherche locale et de programmation par contraintes. En effet, une des principales innovations de Comet repose sur le concept de recherche locale à base de contraintes (ConstraintBased Local Search) : ce paradigme permet de construire des algorithmes de recherche locale en séparant la modélisation de la recherche, et de promouvoir ainsi la réutilisation. Comet est basé sur un langage spécifique orienté objet très riche qui supporte à la fois la modélisation et l’abstraction des recherches dans l’esprit de la programmation par contraintes. Sa force peut être exprimée par la formule : "Recherche Locale = modèle + recherche" signifiant que les algorithmes de recherche locale peuvent être spécifiés en termes de modélisation et de composants de recherche. Les deux composantes "contraintes" et "recherche" sont présentes et dissociées. Comet propose un langage de contraintes et des constructions pour programmer des stratégies de branchement, des heuristiques d’ordonnancement (de listes), et aussi des parcours d’arbres. Le langage offre des facilités pour l’ingénierie et permet par exemple différentes entrées / sorties pour se connecter à des bases de données ou lire des fichiers XML. Comet permet aussi de construire des interfaces utilisateur pour observer graphiquement l’évolution de l’exécution des modèles compilés. Enfin, le langage prend le parti de programmer la recherche. Il offre des structures de contrôle comme les conditionnelles et les boucles « tant que » et demande à déclarer, transformer ou manipuler les structures de données de telle sorte qu’elles soient exploitables par des heuristiques. Malheureusement, cette plateforme ne semble plus maintenue. De plus, son langage est dédié et Comet n’est pas disponible en open-source. EasyLocal++ EasyLocal++ [74] est une librairie open-source orientée objet pouvant être utilisée pour développer des algorithmes de recherche locale en C++. Elle offre une liberté totale à l’utilisateur pour définir ses structures de données et les domaines des variables, mais fournit un cadre rigide pour contrôler le flot d’exécution des principales métaheuristiques qu’elle propose en standard. EasyLocal++ fait un usage équilibré de la programmation orientée objet utilisée pour la conception du framework. Les classes de données sont fournies par des templates et les structures algorithmiques sont implémentées par des fonctions virtuelles, offrant ainsi un maximum d’efficacité, de contrôle et de souplesse pour une implémentation incrémentale en niveaux hiérarchiques. La modularité est l’une de ses principales caractéristiques : dès que les structures de données et les opérations de base ont été définies et connectées, le système fournit en libre service toutes les techniques standards de RL et une grande variété de combinaisons constituée à partir de ces techniques de base. Le système permet également de construire et de tester de nouvelles combinaisons de fonctionnalités (e.g. structures de voisinage, stratégies pour générer un état initial, mécanismes d’interdiction de mouvement, . . . ). Ceci permet à l’utilisateur de concevoir et d’implémenter facilement5.9. CONCLUSION 97 de nouvelles heuristiques de façon très structurée pour adresser un problème donné. Ce framework peut être personnalisé par un expert pour développer de nouvelles métaheuristiques, et son architecture facilite grandement la réutilisation du code existant. On retrouve dans la librairie des classes pour supporter les tests algorithmiques. Certaines classes permettent également de collecter des statistiques d’exécution, les informations de sortie pouvant être générées dans différents formats. HotFrame HotFrame [93] (Heuristic OpTimization FRAMEwork) est un framework implémenté en C++ qui propose des algorithmes de recherche locale et des algorithmes à base de population de solutions. HotFrame repose sur une architecture de collaboration entre les composants standards et les heuristiques spécifiques aux problèmes. Tous les concepts classiques spécifiques aux problèmes sont représentés par des objets ou des classes : problème, solution, voisin, voisinage et mouvement. C’est la même chose pour les concepts standards liés aux métaheuristiques, à savoir les différentes méthodes ou stratégies (intensi- fication, diversification). HotFrame utilise la généricité comme mécanisme de base pour rendre ces objets adaptables : le comportement commun des métaheuristiques est factorisé et regroupé dans des classes gé- nériques. Les templates des classes représentant les métaheuristiques sont paramétrables selon différents aspects comme les espaces solutions et les structures de voisinage. Tous les composants sont implémentés de manière cohérente, ce qui facilite l’intégration d’heuristiques liées aux problèmes ou la conception de nouvelles méthodes. L’utilisateur peut dériver des classes existantes ou implémenter de nouvelles classes à partir de zéro suivant une interface prédéfinie. HotFrame propose également des structures de voisinage standards, la représentation de solutions et de mouvements ainsi que des opérateurs de recombinaison. En proposant ce framework, les concepteurs ont recherché à la fois la performance et la facilité de réutilisation du code. La dernière version disponible17remonte à juillet 2003. LocalSolver LocalSolver [103] est un solveur de programmation mathématique qui intègre la technologie de recherche locale. LocalSolver est commercialisé par la société Innovation2418 sous la forme d’une "boite noire". L’utilisateur modélise son problème dans un formalisme simple. Le solveur se charge d’exploiter efficacement ce formalisme pour résoudre le problème sans qu’il soit nécessaire de programmer un mouvement ou une recherche. Le langage dédié proposé (LSP) se veut adapté pour modéliser simplement une grande variété de problèmes. Des Api C++, C# et Java sont également disponibles. ParadisEO ParadisEO [38] est une plateforme logicielle orientée objet dédiée à la conception et à la réutilisation de métaheuristiques. Il s’agit d’un framework open-source qui repose sur la notion de template C++. Il est portable, très complet, et basé sur la librairie Evolving Objects19 (voir la figure 5.13). ParadisEO supporte les métaheuristiques de recherche locale ou à base de population de solutions, l’optimisation mono-objectif et multi-objectif ainsi que le parallélisme. 5.9 Conclusion Nous avons abordé ce chapitre central en commençant par définir les caractéristiques principales des problèmes combinatoires avant de recenser les méthodes disponibles pour résoudre ces problèmes souvent difficiles. Nous avons vu qu’il existait deux grandes classes de méthodes adaptées à leur résolution : les 17Libre de droits pour une utilisation non commerciale, Institute of Information Systems de Hambourg : http://www1. uni-hamburg.de/IWI/hotframe/hotframe.html. 18Filiale du Groupe BOUYGUES issue de son département de R&D (e-lab), il s’agit d’une société de services, éditrice de logiciels dans le domaine de la recherche opérationnelle et de l’aide à la décision (http://www.innovation24.fr/). 19EO : framework pour l’implémentation de métaheuristiques à base de population. Propose des algorithmes évolutionnaires et des algorithmes à essaim de particules (http://eodev.sourceforge.net/).98 CHAPITRE 5. PROBLÈMES D’OPTIMISATION COMBINATOIRE SOUS CONTRAINTES FIGURE 5.13 – Modules de la plateforme ParadisEO d’après [146]. méthodes complètes d’une part qui obtiennent les solutions optimales et garantissent les résultats et les méthodes incomplètes d’autre part qui trouvent rapidement de bonnes solutions sans garantir l’optimalité. Face à ces nombreuses méthodes de résolution disponibles, le premier problème pratique qui se pose à un utilisateur confronté à une application concrète est d’effectuer un choix parmi les techniques les plus adaptées. Or ce choix est d’autant plus difficile qu’il ne semble pas exister de comparaison générale et fiable entre les différentes techniques, ni même entre les différentes métaheuristiques. Néanmoins, notre étude permet de faire un premier constat : il n’existe pas une méthode qui soit la meilleure pour résoudre tous les problèmes. D’autre part, il est essentiel de prendre en compte, en plus du problème, les contraintes qui entourent sa résolution, notamment le critère de temps de réponse qui sera déterminant par la suite. De plus, cet état de l’art permet de dégager des règles générales qui semblent s’imposer. Lorsqu’un problème donné peut être résolu avec une méthode exacte tout en répondant aux besoins contextuels, il faut privilégier ces techniques qui garantissent les résultats obtenus. Toutefois, pour de nombreux problèmes, il arrive que les méthodes complètes ne soient pas en mesure de délivrer un résultat dans le temps imparti. Dans ce cas, si la situation le permet, il est intéressant d’exploiter ces méthodes complètes au moins pour cerner la difficulté du problème et identifier des solutions optimales avec les coûts correspondants (valeur de la fonction objectif). Ensuite, la mise en œuvre d’une métaheuristique permettra d’obtenir de bons résultats, même pour des instances de taille importante. Néanmoins, si le problème est de très grande taille et si le temps de résolution devient trop important, les mécanismes distribués constituent une alternative efficace pour repousser encore ces limites.6 Systèmes interactifs d’aide à la décision Nous abordons la conception interactive sous l’angle d’une plateforme d’aide à la décision reposant sur des composants informatiques en charge de fournir aux décideurs le maximum d’éléments dans les meilleurs délais pour les aider à résoudre des problèmes complexes auxquels ils sont confrontés. La complexité des systèmes informatiques mis en place pour explorer, traiter et présenter des informations capables d’aider l’utilisateur dans ses décisions est une question de recherche difficile qui reste ouverte. Nous nous inté- ressons plus particulièrement au temps de traitement ainsi qu’à la qualité des solutions proposées par les applications de résolution sous-jacentes qui doivent répondre très rapidement aux sollicitations des utilisateurs pour garantir la fluidité de l’interaction homme/machine. Concevoir un système d’aide à la décision, c’est concevoir un système temps réel [258] capable de fournir des résultats dans un délai contrôlé. Or, obtenir des résultats dans un délai très court fixé à l’avance reste très difficile pour des problèmes à forte combinatoire. Néanmoins, dans le contexte des systèmes d’aide à la décision, une bonne solution obtenue dans les temps est souvent préférable à un résultat optimal obtenu hors délais. L’approche de résolution anytime que nous abordons dans ce chapitre permet de fournir des résultats de meilleure qualité à chaque pas de temps faisant que plus on accorde de temps à la procédure, meilleur est le résultat [83]. Cette approche permet de prendre en compte nos exigences (en qualité et en temps liées aux SIAD) et apparaît donc pertinente pour répondre à notre problématique [237, 291]. 6.1 Aide à la décision Les décisions individuelles ou collectives prises au sein d’une organisation par les décideurs participent d’une manière ou d’une autre à son devenir. Elles sont le plus souvent prises sur la base d’intuitions et d’expériences du passé [4]. Comme indiqué par H.A. SIMON [249], ces stratégies ne peuvent s’appliquer qu’à des problèmes familiers. En effet, la prise de décision devient nettement plus difficile face à des situations nouvelles et la difficulté augmente encore avec l’évolution rapide d’un environnement de travail de plus en plus complexe. Pour HOLTZMAN [134], l’un des principaux problèmes pour la prise de décision consiste à déterminer les informations pertinentes. Pour prendre les bonnes décisions face à des circonstances nouvelles et compliquées, l’utilisation des Systèmes Interactifs d’Aide à la Décision devient essentielle afin d’évaluer la situation, les différentes alternatives et leurs impacts. 99100 CHAPITRE 6. SYSTÈMES INTERACTIFS D’AIDE À LA DÉCISION FIGURE 6.1 – Modèle IDC (Intelligence, Design, Choice) proposé par H.A. SIMON [249]. 6.1.1 Décision Pour nombre de chercheurs, la décision peut être perçue comme un choix entre plusieurs alternatives [242]. P. LÉVINE et J.C. POMEROL [171] la définissent comme une action prise pour faire face à une difficulté ou répondre à une modification de l’environnement pour résoudre un problème qui se pose à l’individu ou à l’organisation. B. ROY et D. BOUYSSOU [236] pensent que la décision est le fait d’un individu isolé (le décideur) qui exerce librement un choix entre plusieurs possibilités d’actions à un moment donné. Pour H. MINTZBERG [193], une décision individuelle ou collective peut être définie comme l’engagement dans une action correspondant à une intention explicite d’agir. 6.1.2 Processus de décision Herbert Alexander SIMON, qui a reçu le prix Turing en 1975 puis le prix Nobel d’économie en 1978, a proposé en 1960 un schéma général du processus de décision 1 (voir la figure 6.1) en trois phases qui reste encore le modèle de référence [249] : 1. phase d’intelligence (investigation) : il s’agit de recenser l’ensemble des informations utiles et prioritaires dont le décideur aura besoin lors de la prise de décision (objectifs ou priorités, définition du problème à résoudre). 2. phase de modélisation (conception) : concerne la génération et le développement des différentes alternatives (ou scénarios). Cette étape peut nécessiter une recherche d’information complémentaire. 3. phase de choix (sélection) : le décideur évalue les différents scénarios réalisés pendant la phase de conception pour en retenir un seul. Il s’agit de déterminer les critères d’évaluation des différentes solutions possibles et de mesurer les conséquences de chaque alternative. Bien que ce modèle ne reflète que partiellement la réalité, il permet d’avoir une vision globale des différentes tâches à accomplir pour aboutir à une décision. Les différentes phases se succèdent sans logique chronologique préétablie et la présence de boucles pendant le processus de décision dépend du niveau de structuration du problème (contraintes). Dans la figure 6.2, LE MOIGNE [167] met en correspondance l’importance des phases du modèle IDC au regard de la structuration des décisions (problèmes). 6.1.3 Aide à la décision Pour B. ROY [235], aider à décider consiste tout d’abord à aider à clarifier la formulation, la transformation et l’argumentation des préférences, la notion de critère étant au cœur de la démarche. L’activité de déduction et de modélisation qui s’exerce en vue d’éclairer le comportement d’un individu dans le processus de 1Dans la suite de cette section, nous n’aborderons pas l’aspect mise en œuvre d’une décision.6.1. AIDE À LA DÉCISION 101 FIGURE 6.2 – Correspondance entre l’importante des phases du modèle IDC et la structuration des décisions proposée par LE MOIGNE [167]. décision constitue l’essence même de l’aide à la décision [236]. L’objectif n’est donc pas de résoudre le problème, mais d’aider le décideur à construire une représentation pertinente de la situation, sachant qu’il n’existe pas toujours de solution optimale pouvant s’imposer compte tenu de la multiplicité des points de vue et des intérêts défendus ou du caractère multidimensionnel des contextes en situation de décision. Dans ce cadre, la notion de meilleure décision (solution optimale) peut parfois être vide de sens [240]. L’aide à la décision peut néanmoins reposer sur des techniques et des méthodologies issues du domaine des mathématiques appliquées telles que l’optimisation, les statistiques ou la théorie de la décision. Les décisions peuvent être classées en plusieurs groupes [193]. Certaines sont faciles à prendre et se font par ajustement mutuel (via le dialogue) tandis que d’autres obéissent à un déroulement fixe. Ces dernières intègrent parfois un aspect purement combinatoire pouvant être automatisé et confié à une machine. Cependant, la majorité des décisions combinent les deux aspects à la fois : le dialogue et la combinatoire. Pour ce type de problème, la machine peut devenir un acteur à part entière dans la prise de décision, mais elle ne doit en aucun cas être perçue comme une contrainte supplémentaire qui imposerait ses propres décisions sans laisser de marge suffisante aux vrais acteurs que sont les humains. L’aide à la décision réside sur l’équilibre entre le jugement humain et le traitement informatique. Lorsque l’évaluation globale d’un objectif est complexe, il est nécessaire de décomposer l’objectif à atteindre en structurant l’ensemble des critères d’évaluation [219]. Construire un modèle prenant explicitement appui sur plusieurs critères traduit et formalise un mode de raisonnement intuitif et naturel face à un problème de décision qui consiste à analyser séparément chaque conséquence [234]. 6.1.4 Systèmes Interactifs d’Aide à la décision Les premiers outils d’aide au traitement de l’information et à la prise de décision sont apparus il y a une quantaine d’années [170]. En France, ils sont connus sous le nom de « Système d’Aide à la Décision » (SAD) alors que dans les pays anglo-saxons on parle de « Decision Support System » (DSS) [171]. Plus qu’un simple système de traitement de l’information permettant d’extraire et de donner au décideur l’information nécessaire au processus de décision [171], un SAD peut être considéré comme un résolveur de problèmes (problem solver) [204]. Un SAD se compose de trois modules (figure 6.3) : • un module de dialogue : permet au décideur d’accéder aux données et modèles et lui fournit en retour le résultat de ses manipulations pour exercer son contrôle et sa recherche heuristique dans les102 CHAPITRE 6. SYSTÈMES INTERACTIFS D’AIDE À LA DÉCISION FIGURE 6.3 – Structure d’un SAD proposée par SPRAGUE [255]. meilleures conditions ; • un module de données : stocke les données permanentes (statistiques, données qui décrivent la situation courante ou passée, etc.) ou temporaires (données intermédiaires) ; • un module contenant les procédures de calcul ou modèles : procédures de calculs standards (indices, indicateurs, etc.) et procédures de représentation des données. Le concept d’aide à la décision "interactive" fait référence à l’équilibre entre le jugement humain et le traitement des informations par l’ordinateur. On parle alors de « Système Interactif d’Aide à la Décision » (SIAD). Lorsque le SIAD intègre en plus une dimension spatiale (représentation de cartes géographiques, plans, etc.), on est face à un « Système Spatial Interactif d’Aide à la Décision » (Spatial Decision Support System en anglais). Les SIAD recouvrent un large spectre d’applications (potentiellement chaque activité humaine nécessitant un processus de décision élaboré) et ils s’appuient sur plusieurs domaines de recherche de l’informatique comme par exemple les systèmes de gestion de bases de données (SGBD), la recherche opérationnelle ou l’intelligence artificielle. Dès leur origine, on pouvait distinguer deux catégories de SIAD [50] : • ceux qui font une large place aux algorithmes d’optimisation et aux calculs numériques ; • ceux qui se consacrent exclusivement à la gestion de l’information. P.G.W. KEEN et M.S. SCOTT-MORTON [149] présentent les SIAD comme des systèmes adaptés à la résolution des problèmes de décision peu ou mal structurés où l’homme prend l’avantage sur la machine, contrairement au traitement des problèmes structurés où la machine peut prédominer. Voici la définition qu’ils en donnent : « Les systèmes d’aide à la décision permettent de coupler les ressources intellectuelles des individus avec les capacités des ordinateurs pour améliorer la qualité des décisions. C’est un système d’aide informatique aux décideurs qui traitent des problèmes semi-structurés ». Pour R.H. SPRAGUE et E.D. CARLSON [254], « Les SIAD sont des systèmes informatisés et interactifs qui aident les décideurs en utilisant des données et des modèles pour résoudre des problèmes mal structurés ». Il existe un large consensus pour dire que les SIAD doivent posséder des facilités interactives afin d’interroger l’utilisateur. La notion d’interactivité est une caractéristique commune à tous ces systèmes qui renvoie au rôle actif indispensable de l’utilisateur dans leur fonctionnement au travers d’une interface homme/machine bien intégrée [171]. L’information nécessaire à l’utilisateur doit être disponible sous sa forme la plus adéquate pour qu’il puisse prendre des décisions. En permettant d’éliminer les données non pertinentes et en présentant des faits déduits à partir des systèmes d’information, l’intelligence artificielle a joué très tôt un rôle important dans ce dispositif et son lien avec les SIAD n’a fait que se renforcer au cours des années [221, 56]. Le décideur contrôle le processus de décision et le SIAD l’assiste en effectuant les calculs standards et répétitifs sur les données [151].6.2. RÉSOLUTION TEMPS RÉEL 103 Lorsque l’utilisateur est l’élément prépondérant du couple homme-machine, tout ou partie du processus de décision lui revient. Toutes les solutions ne sont pas atteintes et seul un sous-espace de l’espace de recherche est exploré. On parle de recherche heuristique 2 menée par le décideur avec un système qui jalonne le processus de recherche à l’aide d’indicateurs et d’informations. Le décideur stoppe l’exploration heuristique des actions possibles lorsque tout lui indique que la solution construite rencontre ses buts de façon satisfaisante [221, 171]. La coopération entre le décideur et le système informatique ne peut alors être fructueuse que dans le cadre d’un système interactif. Enfin, pour qu’un SIAD soit accepté par ses utilisateurs, il faut non seulement qu’il puisse gérer toutes les informations utiles à la décision, mais il faut également que sa logique décisionnelle puisse être appré- hendée par ceux qui l’utilisent : l’explication permet en effet de juger de la pertinence de ses déductions ou de ses inférences. Comme nous l’avons déjà évoqué, l’objectif n’est pas de rechercher une solution optimale, mais plutôt d’orienter le décideur vers des points qu’il ne serait pas toujours en mesure d’observer sans une assistance appropriée. 6.1.5 Classification des SIAD au niveau utilisateur P. HÄTTENSCHWILER [98] énumère trois catégories de SIAD pouvant être observées du point de vue des utilisateurs : 1. passif : aide le processus décisionnel mais n’est pas en mesure d’apporter de solutions ou de suggestions de décisions explicites ; 2. actif : peut apporter des solutions ou suggestions de décisions explicites ; 3. coopératif : permet au décideur de modifier, de compléter ou d’affiner les suggestions de décisions fournies par le système avant de les renvoyer au système pour validation. De son coté, le système améliore à son tour, complète et affine les suggestions du décideur avant de les lui renvoyer pour validation. Cette boucle de rétroaction se poursuit jusqu’à ce qu’une solution consolidée soit générée. 6.2 Résolution temps réel Les applications temps réel sont présentes dans un nombre croissant de domaines comme l’industrie, la médecine, les communications, l’aéronautique, la robotique, les transports ou l’armement [243]. Plus ré- cemment, ces systèmes ont fait leur apparition dans bien d’autres secteurs, notamment le multimédia, les consoles de jeux ou le suivi des malades [83]. La notion d’application temps réel est très souvent utilisée sans qu’elle ne soit toujours bien définie. On peut néanmoins qualifier une application temps réel comme une application dont l’exécution est soumise à des contraintes temporelles. Cindy A. O’REILLY et Andrew S. CROMARTY [208] identifient un système temps réel comme un système devant donner une réponse en un temps strict au regard de l’algorithme mis en œuvre. Pour Thomas J. LAFFEY et al. [159], c’est la possibilité pour un système de garantir une réponse après qu’un certain temps se soit écoulé. On peut également percevoir un système temps réel comme un système dont le temps de réponse est rapide [172]. Or selon MUSLINER et al. [201], une application temps réel ne correspond pas à un système "rapide" mais plutôt à un système "suffisamment rapide" pour répondre en un temps donné, ce temps étant lié au contexte de résolution. Dans [243], lorsqu’on étudie un système de décision temps réel (Real-Time Decision System en anglais ou RTDS), la première chose qui vient à l’esprit est probablement la notion de réaction rapide à un événement externe. Compte tenu de leur grande diversité, une classification courante de ces systèmes consiste à évaluer les conséquences provoquées par le non respect de l’échéance : • échéance stricte critique : le manquement de l’échéance peut avoir des conséquences catastrophiques (pertes humaines, matériel, environnement, . . . ) ; 2Une méthode heuristique est une méthode dans laquelle, à chaque pas, le raisonneur fait des choix [56].104 CHAPITRE 6. SYSTÈMES INTERACTIFS D’AIDE À LA DÉCISION • échéance stricte non critique : lorsque l’échéance n’est pas respectée, la tâche devient caduque ; • échéance non stricte : le dépassement de l’échéance est sans conséquence et la tâche peut se poursuivre, seule la qualité du service sera diminuée. Dans cette thèse, nous abordons la notion de résolution temps réel dans le cadre d’un SIAD en lien avec des problèmes d’optimisation combinatoire dont l’échéance pourrait être considérée comme stricte non critique voire non stricte. Pour un tel système interactif mettant en relation un utilisateur avec une application chargée de l’accompagner dans ses décisions, l’application en question doit pouvoir réagir aux événements de l’utilisateur en une fraction de seconde. Or, si un événement de cette application concerne la résolution d’un problème combinatoire sur des instances réelles de grande taille, il parait difficile à première vue d’atteindre l’objectif de temps fixé. Néanmoins, en admettant que notre application puisse utiliser des résultats dont la qualité n’est pas optimale, nous pouvons explorer une voie prometteuse relative aux algorithmes anytime ("à tout moment") apparus en intelligence artificielle à la fin des années 80 [67, 136]. 6.2.1 Algorithme anytime T. DEAN et M. BODDY [67, 32] définissent un algorithme anytime comme un algorithme itératif qui garantit de produire une réponse à toute étape de calcul, où la réponse est supposée s’améliorer à chaque itération. Du point de vue de l’implémentation, un algorithme anytime doit posséder les caractéristiques suivantes [83] : • la qualité du résultat est fonction du temps d’exécution alloué et de la qualité des ressources fournies en entrée ; • la qualité du résultat augmente toujours ou reste stable en fonction de l’évolution du temps de calcul (monotonicité) ; • on dispose d’informations statistiques sur la qualité des résultats en fonction du temps alloué (prévisibilité) ; • il peut être interrompu à tout moment (interruptibilité) ; • il peut poursuivre son exécution au delà du temps alloué si on change le temps prévu en cours d’exé- cution (continuité) ; • il doit pouvoir être suspendu et relancé au même point avec un temps de réponse négligeable. On distingue deux types d’algorithme anytime : celui où le temps est connu avant de lancer la résolution et celui où le temps n’est pas défini à l’avance. Si le temps de résolution est connu au lancement, on parle de contexte contractuel et le processus de résolution doit absolument fournir une solution au terme de l’échéance fixée. Dans le cas où le temps de résolution n’est pas connu à l’avance, on parle de contexte interruptible. Dans une telle situation, l’algorithme de résolution doit être en mesure de fournir à tout moment une solution de la meilleure qualité possible. Être dans la capacité de fournir à chaque instant un résultat quel que soit le temps disponible représente une exigence très forte. Néanmoins, dans la pratique, le temps de résolution attribué au contexte doit toujours être supérieur à un temps minimum permettant au processus d’initialiser la recherche et de générer une première solution [243]. Un algorithme contractuel (ou algorithme anytime contractuel) est plus facile à mettre au point qu’un algorithme interruptible (ou algorithme anytime interruptible). Cependant, un algorithme interruptible peut être construit à partir d’un algorithme contractuel au prix tout de même d’un temps de calcul supplémentaire pour atteindre une solution de même qualité. 6.2.1.1 Qualité des solutions Dès qu’une limite de temps est imposée, il n’est plus certain que la résolution puisse aller jusqu’à son terme. Dans ce cas, le résultat peut être partiel (sous-optimal) ou même incorrecte si la solution produite n’est pas admissible. Il peut donc être utile ou même indispensable dans certaines circonstances de connaître6.2. RÉSOLUTION TEMPS RÉEL 105 FIGURE 6.4 – Comparaison des profils de qualité de deux méthodes de résolution M1 et M2 sur une même instance de problème. Bien que les deux méthodes atteignent l’optimum pour un temps T de résolution identique, la méthode M1 apparaît plus efficace que M2 dans un contexte interruptible. D’après la thèse de Lionel LOBJOIS [172]. précisément ou d’évaluer la qualité d’une solution afin de prendre une décision. Par exemple, dans un contexte interruptible, l’utilisateur pourrait décider de ne pas poursuivre une résolution si la qualité de la solution courante est satisfaisante. Connaître le coût d’une solution n’est pas toujours suffisant pour évaluer la qualité de celle-ci. On doit en effet pouvoir évaluer sa distance à l’optimum. Cependant, la distance d’une solution à l’optimum est aussi difficile à trouver que l’optimum lui même. Compte tenu de cette difficulté, on se limite très souvent dans la pratique à rechercher la meilleure solution possible pour un contexte de résolution donné. Cet objectif consiste alors à trouver une solution du meilleur coût possible sans pouvoir quantifier sa qualité [172]. 6.2.1.2 Profil de qualité Le profil de qualité (PDQ) correspond à la courbe d’évolution du coût de la meilleure solution produite par rapport à la progression du temps de résolution [172]. Le PDQ d’une méthode de résolution fournit beaucoup plus d’indications qu’un simple temps de résolution global et il est particulièrement utile pour évaluer une méthode de résolution dans un contexte interruptible. A titre d’exemple, imaginons deux méthodes M1 et M2 (voir la figure 6.4) capables de fournir toutes les deux une solution optimale sur la même instance de problème pour la même échéance de temps. Dans un contexte interruptible, il semble évident que la méthode M1 est plus efficace que la méthode M2 car elle produit à tout moment des solutions de meilleure qualité. Cependant, il peut être difficile de comparer deux PDQ différents lorsque chaque méthode propose tour à tour des solutions de meilleure qualité. Dans ce cas, une issue consiste à fixer soit un seuil de qualité soit un seuil de temps pour permettre la comparaison. On utilisera le plus souvent un PDQ moyen compte tenu du caractère stochastique de certaines méthodes pouvant produire pour une même instance de problème des PDQ très différents. Le PDQ moyen correspond à la courbe de qualité moyenne de la meilleure solution obtenue en fonction du temps de recherche imparti. Dans le cadre des problèmes d’optimisation combinatoire et en l’absence d’information sur la qualité des solutions produites, il est courant d’utiliser le PDQ moyen pour classer les méthodes de résolution.106 CHAPITRE 6. SYSTÈMES INTERACTIFS D’AIDE À LA DÉCISION 6.2.2 Méthodes de résolution adaptées au contexte de décision temps réel Pour R. SÉGUIN et al. [243], lorsque les temps de résolution imposés sont très courts, les méthodes approchées (métaheuristiques, voir la section 5.2.2) constituent des classes d’algorithmes particulièrement appropriées. Plus précisément, les algorithmes génériques issus de la recherche opérationnelle tels que le recuit simulé (section 5.6.7), la recherche tabou (section 5.6.8), la méthode GRASP (section 5.6.10.1) ou encore les algorithmes génétiques possèdent tous certaines caractéristiques requises pour la résolution de problèmes de décision temps réel. Chacune des quatre méthodes expose notamment le comportement des algorithmes anytime avec une qualité de la solution produite qui s’améliore avec le temps. Même si au sens strict du terme ils ne peuvent pas être considérés tels quels comme des algorithmes anytime car incapables de produire une solution initiale si le temps imposé est insuffisant, ils peuvent néanmoins être facilement adaptés pour répondre au cas par cas à l’ensemble de caractéristiques requises. D’un autre côté, les méthodes complètes (section 5.2.1) semblent peu adaptées à cet environnement compte tenu de leur côté systématique et exhaustif [172]. Les méthodes de résolution basées sur une approche de construction (section 5.5) ne sont pas adaptées non plus au contexte anytime car elles construisent pas à pas une solution en partant d’une solution partielle initialement vide qu’elles cherchent à étendre à chaque étape jusqu’à obtenir une solution complète [127], ce qui écarte de nombreuses méthodes comme les méthodes gloutonnes (section 5.5.1), les méthodes avec retour arrière (section 5.4.1.4) ou encore celles basées sur des algorithmes de séparation et d’évaluation (section 5.2.1.2) progressive. 6.2.3 Contribution du parallélisme Dans un environnement temps réel, et bien que cela ne soit pas une démarche naturelle, il est souvent nécessaire de mettre en œuvre des techniques de calcul parallèle pour améliorer la vitesse des traitements [243]. On constate en effet une activité de recherche importante autour de l’implémentation d’heuristiques de recherche parallèles performantes (voir 5.7). Mais une telle démarche est souvent ardue. Par exemple, l’algorithme de recherche tabou est à la base un algorithme séquentiel. On peut alors exploiter le parallélisme pour permettre à différents processeurs d’explorer uniquement une petite portion du voisinage de la solution courante. Des implémentations asynchrones peuvent également être exploitées en lançant différents processus de recherche tabou séparés sur différents processeurs et en les faisant communiquer au travers d’un espace mémoire partagé. Dès que la meilleure solution globale est améliorée par l’un des processus, la nouvelle meilleure solution peut être mémorisée sur la mémoire partagée. À contrario, un processus n’arrivant pas à améliorer sa meilleure solution sur une longue période pourrait utiliser la meilleure solution globale présente dans l’espace mémoire partagé pour redémarrer son processus de recherche. Des dispositifs similaires sont possibles pour paralléliser l’algorithme du recuit simulé. Concernant les algorithmes génétiques, ils sont faciles à paralléliser car ils suivent nativement différents chemins de recherche. La méthode GRASP peut également profiter du parallélisme grâce à une génération parallèle de nombreuses solutions à la phase de construction. Au final, des approches hybrides sont possibles. Par exemple, on peut lancer différents processus de recherche tabou concurrents sur différents processeurs pour combiner les meilleures solutions trouvées de deux processus et utiliser cette nouvelle solution croisée comme solution de départ sur un nouveau processeur. 6.3 Principe de maintien de solution dans un système dynamique Nous étudions ici certains procédés [276, 22] liés au cadre des problèmes dynamiques de satisfaction de contraintes (section 5.1.3) susceptibles d’être transposés à notre problème dynamique d’optimisation sous contraintes (section 5.1.4). Bien que la recherche se soit focalisée très longtemps sur des problèmes statiques, la plupart des problèmes de RO ou d’IA sont en réalité des problèmes dynamiques, c’est à dire des problèmes où l’ensemble6.4. CONCLUSION 107 des variables et des contraintes à considérer pendant la phase de résolution évolue du fait de changements (événements) provenant soit de l’environnement, soit de l’utilisateur ou plus généralement d’autres agents. À titre d’exemples, ces changements peuvent intervenir : • au niveau de l’environnement : l’état physique du système permettant de réaliser les actions prévues évolue (pannes, incidents, ressources non disponibles, effets des actions, . . . ), ce qui rend leur exécution rarement conforme aux prévisions ; • au niveau de l’utilisateur : pour des problèmes de conception interactive, l’utilisateur travaille par explorations successives de spécifications différentes pour évaluer les implications liées à tel ou tel choix ; • au niveau des agents : les décisions d’un agent dans un système distribué modifient les spécifications des problèmes traités par d’autres agents. Les systèmes d’aide à la décision font partie des nombreux problèmes soumis à des perturbations [86] où l’utilisateur peut commander le système en lui fournissant de nouvelles données et où le solveur informe l’utilisateur en retour. 6.3.1 Besoins utilisateurs Concernant l’utilisateur, l’efficacité de la recherche et la stabilité des solutions successives sont deux besoins essentiels : • le besoin de mécanismes de recherche efficaces peut être plus fort dans le cadre de problèmes dynamiques où le temps disponible pour produire une nouvelle solution est souvent limité. • la stabilité des solutions successives peut être importante au cas où un certain travail a pu être engagé sur la base de la solution précédente. La stabilité est une propriété qui lie les solutions successives produites par un système dynamique. Une solution est stable par rapport à la solution précédente si le passage d’une solution à l’autre se fait par de petits changements [86]. 6.3.2 Réparation de la solution précédente La méthode proposée par [192] s’attache à réparer une affectation complète issue de la recherche précédente plutôt qu’à reconstruire une solution à partir de zéro. Une heuristique de réparation ou de minimisation des conflits consiste à choisir une variable intervenant dans une contrainte insatisfaite et à choisir, pour cette variable, une valeur qui minimise le nombre de contraintes insatisfaites. Ces heuristiques peuvent être utilisées aussi bien dans le cadre d’une recherche systématique (section 5.2.1) ou non systématique (section 5.2.2). Cette méthode donne de bons résultats à la fois en termes d’efficacités et de stabilité, sur des problèmes sous-contraints. Néanmoins, pour fournir une solution proche de la solution précédente, des techniques ont du être développées pour répondre notamment à l’objectif de minimisation du nombre de variables dont l’affectation est modifiée [21]. Notons que le critère de distance entre deux solutions peut être agrégé avec d’autres critères de type coût propres au contexte. 6.4 Conclusion Les SIAD changent la manière de prendre les décisions face à une information qui a tendance à se globaliser, des problèmes du plus en plus difficiles à résoudre et des délais de réflexion qui se réduisent. Ces systèmes représentent désormais des dispositifs de collaboration particulièrement adaptés entre l’homme et la machine pour accompagner des processus complexes devenus très souvent collectifs. Ils reposent en partie sur des techniques issues du domaine des mathématiques appliquées comme l’optimisation combinatoire pour aider efficacement les décideurs dans leurs tâches les plus ardues, notamment face à des problèmes peu ou mal structurés. Le maintien de solution dans un cadre d’aide à la décision est un problème supplé- mentaire qui a été abordé assez tardivement par les communautés scientifiques malgré une profusion de cas108 CHAPITRE 6. SYSTÈMES INTERACTIFS D’AIDE À LA DÉCISION disponibles dans nos quotidiens. Il pose une double difficulté : efficacité accrue de la résolution et stabilité des solutions proposées. Dans ce contexte, La technique qui consiste à réutiliser une solution précédente sur un problème dynamique semble être une voie incontournable pour répondre à ces deux objectifs. Enfin, en résolution de problèmes combinatoires, garantir la prédictibilité des temps de calculs et la qualité des solutions disponibles à chaque instant est particulièrement difficile à assurer avec les algorithmes classiques, complets ou incomplets. L’ensemble de ces difficultés fait probablement que peu d’applications d’aide à la décision développées autour des problèmes combinatoires sur de grosses instances soient réellement des applications temps réel.7 Modélisation urbaine Compte tenu de la puissance de calcul des ordinateurs actuels, le recours à la simulation est un moyen crédible de nos jours pour s’attaquer à des problématiques complexes auxquelles nos sociétés modernes sont confrontées. Or, toute simulation doit s’appuyer sur un modèle, c’est à dire une représentation simplifiée d’une réalité qui lui donne du sens et permet de mieux la comprendre [123]. En matière d’environnements urbains, de nombreux travaux ont été proposés ces dernières décennies pour mieux comprendre l’organisation des villes. C’est le cas notamment des modèles d’économie spatiale, d’écologie urbaine ou encore d’interaction spatiale. Plus récemment, on a assisté à l’émergence de l’approche systémique et individu-centrée annoncée comme une évolution majeure. Ces derniers modèles sont réputés pouvoir représenter des systèmes complexes dans leur globalité en se basant sur le concept d’émergence provenant des interactions entre les individus (emplacements, habitants, emplois, résidences, entreprises, routes, . . . ) qui composent le système. Dans ce chapitre, nous présentons un état de l’art de la modélisation urbaine restreint à des thèmes proches de notre problématique. Pour positionner nos travaux dans le panorama de la recherche actuelle, nous détaillons plus particulièrement trois approches représentées par les projets de recherche UrbanSim et GeOpenSim d’une part, et par la plateforme commerciale CommunityViz d’autre part. En effet, de nombreux projets de recherche relatifs aux problématiques urbaines sont initiés sur les différents continents. Nombre d’entre eux s’intéressent à la fois aux problématiques du transport et à celles de l’occupation du sol, le but étant de mieux évaluer l’impact des choix actuels sur le long terme. Ces modèles sont regroupés sous l’abréviation LUTI (Land Use and Transport Interaction model). Dans ce contexte, nous avons souhaité étudier le projet de recherche UrbanSim mis au point aux États-Unis par l’équipe de Paul WADDEL et ayant une forte orientation pour l’aménagement des espaces urbains. Ce modèle dynamique a su s’imposer ces dernières années, y compris au sein de certains projets de recherche européens. Mais ce projet nécessite beaucoup de données en entrée. Or, beaucoup d’informations utiles peuvent être exploitées à partir d’une simple photographie. C’est l’approche originale qui a été retenue par le projet de recherche GeOpenSim qui a suscité notre curiosité et que nous décrivons brièvement. D’un autre côté, on trouve la plateforme commercialisée sous le nom de CommunityViz qui se présente comme un outil de nouvelle génération pour la planification urbaine : voyons ensemble si cet outil est adapté à nos besoins et quelles sont les réponses innovantes qu’il est en mesure de délivrer aux urbanistes et décideurs ? Indépendamment des modèles spécialisés relatifs à l’urbanisme, la famille des problèmes génériques de positionnement révèle de très fortes similitudes par rapport à notre problématique qui consiste à positionner au mieux des éléments urbains (habitations, écoles, commerces, . . . ) sur chaque cellule d’une grille (emplacements libres), chaque élément devant être associé à une et une seule cellule. Parmi les nombreux problèmes de positionnement référencés, nous introduisons plus particulièrement le problème d’affectation 109110 CHAPITRE 7. MODÉLISATION URBAINE FIGURE 7.1 – Profit de la rente foncière et anneaux de Von THÜNEN (pour 3 anneaux). D’après J.H. VON THÜNEN et al. [279]. quadratique représentatif des problèmes d’optimisation fortement combinatoire. L’étude de ce problème de référence nous apportera peut-être les derniers éléments de réponse utiles à notre modèle spécifique de pré-programmation urbaine. 7.1 Représentations historiques de la ville Les premières représentations de la ville initiées par les économistes remontent au début du 19ème siècle. Elles considèrent généralement la proximité urbaine comme source de profits, ces profits pouvant être maximisés en choisissant une localisation optimale pour chaque type d’activité. Ces travaux pouvaient s’intéresser aux critères de choix d’implantation d’une industrie, aux rapports entre localisation et rente foncière en fonction de la distance au centre ville, en encore à la répartition des villes et des activités au sein d’un espace régional. 7.1.1 Les modèles d’économie spatiale Les premiers modèles d’urbanisation cherchent à étudier et à prévoir l’occupation du sol entre différents types d’activités (résidentielles, économiques, équipements, . . . ). Ils ont une portée essentiellement théorique et leur apport à l’urbanisme opérationnel reste généralement limité. Dès 1820, Von THÜNEN cherche à expliquer la localisation des activités agricoles autour des villes allemandes. Grâce à la formulation de plusieurs hypothèses sur les bases d’une ville théorique et d’un espace isotrope1 , il a démontré que la production d’une denrée n’est rentable qu’à une distance donnée du marché compte tenu de son coût de transport et du coût de la terre (rente foncière) [279]. Ainsi, plus le coût de transport d’un produit est élevé, plus le produit sera proche du marché (cf. figure 7.1). En 1933, W. CHRISTALLER [45] avec sa théorie des lieux centraux (cf. figure 7.2) tente d’expliquer la taille, le nombre et la répartition hiérarchique et géographique des villes au sein d’un espace régional. 1Qui représente les mêmes caractéristiques physiques dans toutes les directions, en tout point homogène.7.1. REPRÉSENTATIONS HISTORIQUES DE LA VILLE 111 FIGURE 7.2 – Modèle de CHRISTALLER : théorie des lieux centraux. D’après W. CHRISTALLER [45]. Il montre qu’une région s’organise hiérarchiquement en fonction de l’offre en biens qu’elle propose sur la base d’hypothèses simplistes (accessibilité et niveaux de revenus égaux en tout point, etc.). En partant des travaux de A. LÖSCH (1940) [175] qui utilise des méthodes de découpage de l’espace en zones homogènes pour faire des analyses spatiales de phénomènes urbains, K.G. ZIPF propose la loi rang-taille en 1949 [292]. Cette loi considère que la taille des villes est distribuée de manière inverse à leur rang, indépendamment de l’espace et du temps (cf. figure 7.3). FIGURE 7.3 – Modèle de ZIPF : relation rang-taille des unités urbaines françaises en 1990. D’après FABRIÈS-VERFAILLIE et al. [89]. En 1964, W. ALONSO [6] donne naissance à l’économie urbaine en élaborant un premier modèle basé sur la théorie de la croissance urbaine. Ces modèles liés à l’étude des valeurs foncières veulent expliquer le comportement des ménages et des activités économiques en cherchant un compromis entre proximité, pé- nibilité du trajet, disponibilité du terrain et leur prix. Dans sa théorie, l’organisation spatiale de l’utilisation du sol est déterminée par la valeur foncière, elle-même liée aux coûts de transport. Chaque activité est en mesure de payer une rente en fonction de la distance au centre, les différentes localisations entre activités étant interdépendantes (cf. figure 7.4).112 CHAPITRE 7. MODÉLISATION URBAINE FIGURE 7.4 – Modèle de rente à payer en fonction de la distance au centre. D’après W. ALONSO [6]. 7.1.2 Les modèles de l’écologie urbaine L’écologie urbaine introduite par l’école de Chicago [120] consiste à étudier les interactions entre les êtres vivants et la ville. Elle marque les débuts d’une analyse des espaces urbains par les sciences sociales en proposant des modèles explicatifs de répartition des populations en fonction de leurs caractéristiques sociales, familiales, ethniques, etc. Dans cette lignée, on recense trois principaux modèles complémentaires qui décrivent la ville sous forme d’aires suivant différents critères. Le modèle de BURGESS [37] (1925) étudie les itinéraires résidentiels socio-spatiaux et prend la forme d’un schéma concentrique pour d’écrire l’organisation d’un espace urbain (cf. figure 7.5). FIGURE 7.5 – Modèle radioconcentrique de BURGESS. D’après E.W. BURGESS [37]. Le modèle de HOYT [137] (1939) considère que des conditions particulières ou des lignes de communication favorables ont un effet structurant sur les zones voisines qui deviennent plus attractives. À partir de cette idée, la ville est structurée en arcs de cercles et en secteurs (cf. figure 7.6). En 1945, HARRIS et ULLMAN [129] s’appuient sur une organisation de l’agglomération constituée de noyaux, chaque noyau étant caractérisé par une fonction et articulé par des axes de transport (cf. figure 7.7). Dans leur modèle, certaines fonctions se repoussent alors que d’autres s’attirent ou dépendent des caractéristiques du site.7.1. REPRÉSENTATIONS HISTORIQUES DE LA VILLE 113 FIGURE 7.6 – Modèle de HOYT sur la théorie des secteurs : (1) Centre des affaires, (2) Industries et entrepôts, (3) Résidences des classes pauvres, (4) Résidences des classes moyennes, (5) Résidences des classes aisées. D’après H. HOYT [137]. FIGURE 7.7 – La théorie des centres multiples : (1) Centre des affaires, (2) Industries légères et entrepôts, (3) Résidences des classes pauvres, (4) Résidences des classes moyennes, (5) Résidences des classes aisées, (6) Industries lourdes. D’après C.D. HARRIS et E.L. ULLMAN [129]. 7.1.3 Les modèles d’interaction spatiale La notion d’interaction spatiale est souvent définie comme l’étude de la décroissance des flux avec la distance, la distance participant notamment à la structuration de l’espace géographique par des champs de force [224]. Cette approche, ramenée par analogie aux lois de la gravitation universelle, a donné lieu aux modèles déterministes de E.G. RAVENSTEIN [225] qui remontent à 1889. En général, ces modèles gravitaires font dépendre le volume d’interaction entre deux lieux de la masse des lieux émetteurs et récepteurs ainsi que de l’inverse du carré de la distance qui les sépare. Les modèles gravitaires de STEWART [259] et de ZIPF [293] sont conformes à la théorie de la gravité de NEWTON : l’interaction entre deux unités géographiques est proportionnelle au produit de leurs masses respectives (population, richesse, etc.) et inversement proportionnelle à la distance qui les sépare. Par ailleurs [224], ZIPF a proposé d’appeler « loi du moindre effort » la propension universelle à couper au plus court et à aller au plus proche : ce qui revient à organiser les activités et les déplacements en fonction de la distance. Les modèles de REILLY [229] et HUFF [139] s’attachent quant à eux à déterminer les aires de marché théoriques d’un ensemble de lieux centraux. Ils cherchent à décrire les lieux appartenant à une zone de marché en exploitant les relations entre ces lieux.114 CHAPITRE 7. MODÉLISATION URBAINE Comme le souligne Denise PUMAIN dans son "essai sur la distance et l’espace géographique" [224], en référence au cartographe américain Waldo TOBLER : « tout interagit avec tout, mais la première loi de la géographie est que deux choses proches ont plus de chances d’entrer en interaction que deux choses éloignées ». Bien que la majorité des modèles étudiés dans les sections précédentes n’apportent que de faibles justifications théoriques, souvent dépassées et incapables à elles seules de décrire les situations actuelles, ils constituent une base solide pour les modèles qui suivront. 7.2 Vers une approche systémique et individu-centrée J. DE ROSNAY définit un système comme "un ensemble d’éléments en interaction dynamique, organisés en fonction d’un but" [65]. Ainsi, la majorité des problèmes actuels peuvent être considérés comme des systèmes complexes dans la mesure où ils font intervenir un grand nombre de variables connectées entre elles, ils sont difficiles à comprendre dans leur globalité et peuvent être représentés de différentes façons. L’approche analytique et sectorielle à partir de laquelle les systèmes complexes ont longtemps été étudiés et décomposés en autant de champs que possible (économie, habitat, transport, etc.) est nécessairement réductionniste et montre d’importantes limites [8]. Cette approche consistant à réduire la nature complexe des choses en la décomposant mène à des solutions partielles qui ne traitent qu’un aspect du problème. Et ces solutions fragmentaires ont souvent des conséquences indirectes non maîtrisées sur d’autres aspects du problème. Au contraire, l’approche systémique proposée dès 1968 par L. VON BERTALANFFY [278] considère un système complexe comme un ensemble de systèmes emboîtés les uns dans les autres et orientés dans une finalité commune [154]. Les parties du système étudié ne peuvent être comprises si elles sont considé- rées isolément. Elles sont dynamiquement reliées entre elles dans une interaction et une interdépendance permanentes [95]. Cette démarche envisage tout système complexe comme un ensemble d’éléments faisant système et encourage à un travail transdisciplinaire [39]. L’approche systémique permet d’appréhender un problème dans sa globalité pour proposer des solutions qui prennent en compte l’ensemble des effets, "un tout ne se réduisant pas à la somme de ses parties constitutives" [197]. La ville est faite de multiples composants, articulés entre eux au sein de sous-systèmes urbains en interactions dynamiques, ces interactions étant à l’origine du comportement du système dans le temps. La ville peut donc être vue comme un système complexe. Dès lors, l’approche systémique appliquée à la ville apparaît pertinente pour la considérer comme « un tout » et rendre compte de sa complexité et de son auto-organisation [223]. Ainsi, avec la parution de Urban Dynamics [96], J. FORRESTER est le premier à proposer un modèle de dynamique urbaine destiné à la simulation du développement à très long terme et à l’exploration des conséquences de politiques alternatives. Cette étude qui rompt avec les modèles précédents a notamment permis de qualifier les systèmes urbains comme des systèmes contre intuitifs et extrêmement robustes (peu sensibles aux valeurs des paramètres ou variables d’entrée du modèle). A partir des années 1970, les termes quantification, modélisation, approche systémique et analyse spatiale sont devenus des mots clés pour tout géographe. C’est alors que les travaux de modélisation se généralisent et permettent la construction de scénarios, la discussion et la confrontation d’idées. Avec les progrès techniques, on accède progressivement aux possibilités de traitement des données spatialisées. Cette évolution permet le couplage des modèles avec des systèmes d’informations géographiques (SIG) et le développement des modèles individu-centrés essentiellement composés des automates cellulaires2 et des systèmes multi-agents3 . Les modèles centrés individus permettent de prendre en compte un grand nombre d’individus (i.e. cellules ou agents) en désagrégeant les comportements de chacun d’entre eux. Cette technique liée à 2Un réseau d’automates cellulaires (AC) se présente comme "un système de cellules interagissant localement de manière simple et manifestant un comportement global complexe"(Stephen WOLFRAM). 3Système composé d’un environnement, d’un ensemble d’objets passifs localisés et d’un ensemble d’agents actifs situés capables de percevoir, produire, consommer, transformer et manipuler les objets (Jacques FERBER).7.3. LA MODÉLISATION LUTI 115 une dimension stochastique enrichit nettement la modélisation et prend le parti pris de l’émergence, l’un des concepts les plus intéressants des modèles systémiques [39]. Il est indéniable que la modélisation à base d’agents (Agent-based modelling) a connu une très forte adhésion pour la simulation sociale. Son succès peut s’expliquer en raison d’une vision du monde qui suggère que les systèmes complexes émergent de la base, sont fortement décentralisés, et sont composés d’une multitude d’objets hétérogènes. Néanmoins, avant d’adopter ce paradigme, il convient de prendre en compte les nombreux défis que ce type de modélisation soulève encore [59] : • construire le modèle au bon niveau de détail pour bien servir le but recherché, • proposer un modèle qui puisse être généralisable (et non spécifique à un problème donné), • assurer la robustesse du modèle dans différentes situations, notamment avec des données différentes, • mettre au point un protocole pour vérifier et valider le modèle, • permettre aux autres intervenants de comprendre le modèle pour favoriser son adoption, • . . . . Quelle que soit la technique employée, la modélisation urbaine a su se développer dans de nombreux domaines et conduira au développement des modèles LUTI (Land Use and Transport Interaction) qui permettent de modéliser les interactions entre les problématiques du transport et celles de l’occupation et de l’usage des sols. 7.3 La modélisation LUTI Les logiciels professionnels de type "transport-urbanisation" ou "transport-occupation du sol" plus connus sous l’abréviation modèle LUTI (Land Use Transport Interaction model) représentent encore un marché balbutiant. En fait, l’intérêt d’associer ces deux types de modélisation (transport et occupation des sols) n’est apparu que depuis une dizaine d’années [61] et la plupart des modèles LUTI actuels sont en réalité des modèles "connectés" résultant d’un couplage à posteriori d’un modèle de trafic et d’un modèle d’urbanisation. En France, plusieurs projets de recherche de ce type ont vu le jour sous l’impulsion du PREDIT4 . Par exemple, on peut citer les projets SIMAURIF5 en Île-de-France, SIMBAD6 à Lyon, MIRO7 ou encore MOBISIM8 . On relève également des initiatives dans le secteur privé avec VINCI qui a proposé le modèle PIRANDELLO9 . On peut retrouver dans le livre "Modéliser la ville" [8] une description détaillée de ces différents projets. Les modèles LUTI simulent les effets d’une nouvelle infrastructure de transport sur l’occupation des sols à moyen ou long terme : • localisation des ménages ; • localisation des entreprises ; • effets sur le prix du foncier et de l’immobilier. Une boucle rétroactive se met en place entre le modèle de transport et le modèle d’urbanisation (voir Figure : 7.8). Sous l’effet des nouvelles infrastructures de transport, les prix du foncier et de l’immobilier évoluent et la répartition spatiale des populations et des emplois est également affectée. Cette nouvelle ré- partition génère des déplacements qui sont réaffectés sur le réseau de transport. Les disponibilités foncières et leurs prix sont à nouveau impactés ainsi que les réseaux de transport, etc. En général, les effets de la boucle de rétroaction sont évalués annuellement sur une période pouvant aller de 20 à 30 ans. Un modèle LUTI peut apporter des réponses à des questions du type : 4PREDIT : Programme de Recherche et d’Innovation dans les Transports Terrestres (http ://www.predit.prd.fr/predit4/). 5 http://isidoredd.documentation.developpement-durable.gouv.fr/documents/dri/RMT08-010.pdf 6 http://simbad.let.fr/ 7 http://isidoredd.documentation.developpement-durable.gouv.fr/documents/dri/RMT07-013.pdf 8 http://www.mobisim.org/ 9 http://www.etudesfoncieres.fr/articles/article-pirandello-un-modele-urbain-global-137-gratuit.pdf116 CHAPITRE 7. MODÉLISATION URBAINE FIGURE 7.8 – Schéma simplifié d’un modèle dynamique de type LUTI. D’après le rapport final sur la première phase d’ULTISIM [61]. • quelles sont les plus-values foncières et immobilières générées par une nouvelle infrastructure de transport en commun à proximité d’une gare ? • quel est l’impact d’une politique de transport particulière sur la relocalisation des ménages et des emplois ou sur les émissions de CO2 ? • quels sont les effets d’un péage autour du centre ville sur le développement économique régional et local ? Va-t-il favoriser un étalement urbain ou une densification ? • etc. Cependant, un modèle macro-économique externe est nécessaire pour introduire par exemple la part de création nette d’emplois en faisant des hypothèses de totaux par année de simulation. Pour plus de précisions sur les modèles existants, on pourra se référer au rapport final du projet ULTISIM10 [61] qui propose une étude de six modèles LUTI opérationnels, à savoir (par ordre alphabétique) : • CUBE LAND ; • DELTA (Development, Employment, status and communting, Location and property market, Transition and growth, and Area quality) ; • MARS (Metropolitan Activity Relocation Simulator) ; • OPUS/UrbanSim ; • PECAS (Production, Exchange and Consumption Allocation System) ; • TRANUS ; La figure 7.9 reprend pour chaque modèle LUTI son niveau de complexité et son degré d’implication comme modèle d’urbanisation ou de transport. Compte tenu de son positionnement (Land Use Model) et de son niveau de complexité (modèle dynamique à choix discrets), nous proposons d’étudier plus en détail la plateforme UrbanSim dans la section suivante ; ceci pour mieux appréhender l’état de l’art en la matière à partir d’un outil réputé et faisant référence dans son domaine. De plus, nous souhaitons évaluer dans quelle mesure un tel modèle pourrait nous être utile pour répondre à notre problématique. En effet, bien que notre projet ne soit pas lié à l’aspect dynamique évoqué ici, la dimension temporelle n’intervenant pas dans notre cas, nous faisons l’hypothèse que nous pourrions utiliser le modèle UrbanSim pour générer une ville de toute pièce. On partirait d’une ville initialement vide sans habitant ni bâtiment. A chaque année, il 10Le projet de recherche ULTISIM (Urban Land Transport Integrated SIMulation Model) a pour ambition de proposer un modèle intégré transport-urbanisme au niveau européen. Ce projet de recherche financé dans le cadre du PREDIT se décompose en deux phases : une phase de conception et une phase de développement. La première phase du projet prévue sur 20 mois (et achevée en juin 2011) consiste à mener une réflexion approfondie sur les données d’entrée et sur la méthodologie de développement pour aboutir à terme à un modèle LUTI opérationnel en Île-de-France.7.4. TROIS MODÈLES URBAINS PASSÉS AU CRIBLE 117 FIGURE 7.9 – Positionnement des modèles LUTI. D’après le rapport final sur la première phase d’ULTISIM [61]. faudrait injecter dans notre modèle un certain nombre d’éléments urbains (habitants, emplois, habitations, entreprises, parcelles, routes, . . . ) et laisser le modèle œuvrer pour répartir ces éléments au mieux sur le territoire. Le processus se poursuivrait d’année en année jusqu’à ce que tous les éléments prévus dans le modèle urbain de pré-programmation (vu comme un modèle macro-économique externe) soient intégrés. La ville ainsi constituée correspondrait au résultat d’une simulation, le nombre d’années utilisées pour les opérations n’ayant que peu d’importance dans notre situation (car nous aurions détourné le modèle de sa fonction originale) . . . 7.4 Trois modèles urbains passés au crible 7.4.1 Le projet UrbanSim UrbanSim [283] est un modèle d’urbanisation (land-use model) basé sur la théorie des modèles de choix discrets11 et sur le principe de la microsimulation12 . UrbanSim est apparu aux États-Unis en 1999 pour ré- pondre aux nouvelles exigences de la loi, à savoir l’obligation de prendre en compte dans tout processus de planification régional les dimensions relatives à l’urbanisation, aux transports et à l’environnement. Il s’agit d’un logiciel de simulation complet qui repose sur une approche à base de modèles pour la planification et l’analyse du développement urbain, en prenant en compte les différentes interactions entre l’utilisation des espaces (terrains), les transports ainsi que les politiques publiques. Il est destiné aux organismes de plani- fication métropolitaine et autres groupements qui ont besoin d’intégrer des modèles de transport existants avec une nouvelle utilisation des espaces dans le but de faire des prévisions et des analyses de capacités. Il a vu le jour sous l’impulsion de P. WADDELL au sein du CUSPA13 de l’Université de Washington à Seattle. UrbanSim est l’aboutissement de nombreuses recherches commencées dès les années 1960 en 11La théorie des choix discrets a pour objet de décrire le comportement de choix d’un individu (ou d’un groupe d’individus agissant indépendamment les uns des autres) en présence d’actions mutuellement exclusives [28]. 12L’idée maîtresse de la microsimulation est que le meilleur moyen de simuler un système consiste souvent à modéliser et à simuler les actions et les interactions de ses unités de plus petite échelle et d’obtenir les macrorésultats par agrégation [207]. 13Center for Urban Simulation and Policy Analysis118 CHAPITRE 7. MODÉLISATION URBAINE Amérique latine puis aux États-Unis. P. WADDELL a su tirer parti des autres logiciels existants à cette époque pour concevoir un système qui intègre toutes les fonctionnalités d’un logiciel de prévision de l’occupation des sols, basé sur un modèle de prix du foncier et des modèles de choix discrets de localisation des ménages et des entreprises. Avec ce logiciel, chaque ménage, chaque emploi et chaque unité géographique (cellules paramétrables de 500 mètres de côté par défaut) sont représentés dans le modèle, chacun avec ses caractéristiques et ses comportements. 7.4.1.1 Motivations de base Tout les aspects d’une agglomération sont interconnectés et interdépendants. Une action sur un secteur in- fluence automatiquement les autres secteurs à des degrés différents et en fonction des autres actions opérées au même moment. La coordination des différents événements constitue donc un élément important qui n’est pas souvent pris en considération et qui peut aboutir parfois à des comportements inattendus. De plus, il existe une grande variété d’intervenants différents (urbanistes, organismes publics, citoyens et associations, etc.), qui, chacun à son niveau, doit pouvoir constater les conséquences et les alternatives possibles des choix politiques et investissements. L’outil doit faciliter les délibérations publiques parfois houleuses relatives à l’aménagement du territoire, aux transports ou à l’environnement en indiquant les conséquences et alternatives possibles sur les effets à longs termes sur l’environnement et les considérations d’équité. Enfin, il doit permettre aux différentes communautés (au sens de l’agglomération) d’avoir une vision globale pour coordonner leurs actions. 7.4.1.2 Approche La conception d’UrbanSim prend en compte les expériences du passé en terme de modélisation de l’urbanisation. Cet environnement s’appuie sur un modèle dynamique (où la dimension du temps intervient) qui reproduit l’évolution de l’occupation du sol au cours de la période simulée. La structure de données d’UrbanSim permet de prendre en compte des données d’occupation du sol à un niveau infracommunal14 et donc de dépasser des approches classiques trop simplificatrices (découpage concentrique en trois zones ou découpage par agrégation de communes). Les différents modules d’UrbanSim requièrent des données spécifiques. Les données d’entrée sont composées : • des données de l’année initiale ; • des données de prévision macro-économiques ; • des données sur les transports issues du modèle de trafic (temps et coûts de parcours par mode, etc.) ; • les scénarios de politiques d’urbanisation tenant compte des schémas d’aménagement locaux et ré- gionaux. Les différents modules sont interdépendants car les sorties de l’un sont les entrées des autres. Le déroulement des calculs est séquentiel et l’ordre peut être paramétré par l’utilisateur dans un fichier XML. Le logiciel est conçu comme un ensemble de composants reflétant les choix des agents économiques (mé- nages, entreprises) et leurs interactions avec le marché de l’immobilier. On retrouve par exemple : • les choix de localisation résidentielle des ménages ; • les choix de localisation des emplois ; • les choix de développement immobilier. Les modules de localisation sont basés sur un quadrillage fin de l’aire d’étude et les choix sont relatifs à chaque cellule de ce quadrillage. Le secteur d’étude doit être découpé en mailles ou cellules carrées les plus fines possibles, et les données d’entrée sont à recueillir dans ce maillage, pour l’année initiale et l’année de calage. Le calage d’UrbanSim consiste à estimer les paramètres du modèle à partir de données désagrégées sur une période constituée de deux années pour lesquelles il existe le maximum de données. Le modèle sera 14à l’intérieur des limites communales7.4. TROIS MODÈLES URBAINS PASSÉS AU CRIBLE 119 FIGURE 7.10 – Cours du temps dans UrbanSim. D’après le Rapport 1 - SIMAURIF [246] ensuite appliqué, avec les mêmes paramètres, à un horizon futur selon différents scénarios à définir (voir figure 7.10). Certains composants sont capables de simuler la mobilité des ménages et des emplois. En parallèle, il existe des composants basés sur des données agrégées, comme les modules de transitions économique et démographique. Ces modules non spatiaux sont liés aux données macro-économiques exogènes et permettent de caler le modèle au niveau global. Un autre module permet de simuler le prix du foncier. Les versions d’UrbanSim les plus récentes proposent des modules complémentaires (choix de localisation des entreprises, choix de développement de projets, etc). Les différents modules s’exécutent sur un pas d’un an, pendant toute la période de simulation (par exemple une période de vingt ans). Par ailleurs, UrbanSim utilise une structure hiérarchique pour organiser les différentes simulations appelées "scénarios". UrbanSim est prévu pour simuler et évaluer les effets potentiels de scénarios multiples. Dans ce contexte, un scénario correspond à une combinaison de données en entrée et d’hypothèses, en incluant les hypothèses macroéconomiques au regard de l’augmentation de la population et de l’emploi pour la zone étudiée. On considère que la configuration des moyens de transport est connue pour les prochaines années et que les plans gé- néraux des juridictions locales qui vont définir les types de développement sont disponibles pour chaque localité. Une simulation UrbanSim consiste à faire tourner le moteur UrbanSim sur un "scénario". Les ré- sultats de la simulation sont alors stockés dans une base de données unique (Output Database). Il existe un moyen dans UrbanSim de prendre en compte des événements exceptionnels prévus dans le futur. Il suffit pour cela de définir dans les fichiers de type « events » les nombres d’emplois, de ménages, le changement de type urbain et l’année pour les cellules où se produisent ces événements. Enfin, le module d’export de données permet le regroupement, l’agrégation et l’export des résultats dans des fichiers externes destinés à l’analyse et à l’importation dans un système d’information géographique. 7.4.1.3 Un système basé sur les modèles Les modèles d’UrbanSim interviennent à différents niveaux : • simulent les décisions et choix qui impactent le développement urbain (mobilité, choix d’implantation des habitations et des zones d’affaires, choix des constructeurs) ; • prennent explicitement en compte les terrains, les structures (maisons d’habitation et bâtiments commerciaux) ainsi que les occupants (ménages, commerces) ; • simulent le développement urbain comme un processus dynamique dans le temps et l’espace ; • simulent le prix des terrains en fonction de l’offre (espaces libres, nouvelles constructions ou rénovations) et de la demande (emplacements préférés pour les maisons d’habitations ou les commerces) ; • tiennent compte des choix politiques gouvernementaux et évaluent les impacts politiques en modélisant les réactions du marché ; • sont basés sur la théorie aléatoire pour impacter les composants ; • sont conçus pour travailler sur une représentation de haut niveau de l’espace et des activités avec un120 CHAPITRE 7. MODÉLISATION URBAINE système de zones identique à celui des déplacements ; • sont adaptés aux besoins de développement ou de réaménagement, en travaillant au niveau du détail des parcelles. 7.4.1.4 Une plateforme ouverte d’intégration Une plateforme ouverte a été développée pour y intégrer UrbanSim. Il s’agit de la plateforme OPUS15 qui permet une intégration d’extensions (plugin). UrbanSim constitue la pièce centrale de cette plateforme. Après un premier développement en Java, l’application a été totalement réécrite en Python pour faciliter l’intégration et son ouverture. Les développements exploitent le paradigme de la programmation orientée objet pour offrir un maximum de flexibilité. L’application dispose d’une interface graphique écrite en PyQt4. Elle peut s’interfacer avec les principales bases de données du marché (MySQL, Miscrosoft SQL Server, Postgres, etc.) bien qu’elle dispose d’une base de données intégrée (SQLLite). Il est possible de travailler avec les différents systèmes d’information géographique (ArcGIS, PostGIS, Quantum GIS, etc.) disponibles sur le marché pour afficher les informations entrées (modèles) ou le résultat des simulations. Ce logiciel est disponible en téléchargement libre sous licence publique générale GNU (GPL). 7.4.1.5 Un exemple de mise en œuvre d’UrbanSim Dans l’étude de cas "la Tangentielle Nord", les rapports [246, 247, 248] relatifs au projet SIMAURIF (SIMulation de l’interAction Urbanisation-transport en Région d’Ile-de-France) indiquent que ce projet a exploité le modèle d’urbanisation UrbanSim avec succès mais non sans difficulté. En effet, la dimension historique et la densité importante de la ville de Paris sont différentes d’une ville américaine moyenne ayant des constructions beaucoup plus récentes et une organisation semble-t-il plus simple. D’autre part, les règles d’accès aux données sont différentes et parfois plus strictes et contraignantes en France qu’aux États-Unis. Enfin, ils ont été amenés au cours de ce projet à essayer plusieurs types de modèle afin d’en trouver un de qualité explicative suffisante compte tenu des données disponibles mais surtout de qualité prédictive et cette démarche s’est avérée très « gourmande » en temps de travail. Cette étude de cas permet également de mettre en évidence les limites de la modélisation : les modèles ne sont pas en mesure de prédire des événements exceptionnels, certains facteurs difficilement mesurables peuvent influencer les comportements et de nombreux facteurs humains sont impossibles à intégrer. 7.4.1.6 Conclusion Malgré sa qualité incontestable, le modèle UrbanSim requiert une grande quantité de données en entrée qui ne sont pas toujours disponibles ou qui peuvent être soumises à des conditions strictes d’utilisation dans certains pays. D’autre part, il nécessite beaucoup d’efforts et de temps dans sa phase de calibrage pour être capable de reproduire l’évolution d’une ville au plus proche de la réalité entre l’année initiale et l’année de calage (cf. figure 7.10). Ensuite seulement, il peut être utilisé pour entrevoir un avenir hypothétique incapable de prendre en compte les événements exceptionnels (ce qui semble normal) ou de saisir toute la complexité inhérente aux comportements humains. Pour compléter notre hypothèse de départ liée à l’utilisation éventuelle d’un modèle LUTI dans le cadre de cette thèse, nous pourrions imaginer différents paramétrages d’UrbanSim basés sur les résultats de différents calages, chacun étant lié à une morphologie de ville caractéristique. Pour une simulation, il faudrait alors se référer à un paramétrage particulier pour adopter un type de ville désiré. Néanmoins, les diffé- rents aspects évoqués relatifs à UrbanSim sont contraires à la philosophie même de la pré-programmation urbaine (voir section 4.1.2.1) caractérisée par un modèle simple pouvant être compris de tous avec un fonctionnement nécessitant un nombre limité de données en entrée. De plus, malgré le haut niveau reconnu à UrbanSim, il semble difficile de transposer un modèle américain aux villes européennes façonnées par de 15Open Platform for Urban Simulation7.4. TROIS MODÈLES URBAINS PASSÉS AU CRIBLE 121 longues années d’histoire. Enfin et surtout, nous ne souhaitons pas simuler ou reproduire le comportement probable lié à l’évolution d’une ville, nous souhaitons plutôt optimiser son organisation globale à priori. 7.4.2 Le projet GeOpenSim Intéressons-nous maintenant à une approche radicalement différente d’UrbanSim qui tente néanmoins de simuler l’évolution d’une ville en simplifiant le processus d’alimentation des modèles. Il s’agit d’une plateforme géographique de simulation qui s’inscrit dans un projet ANR16 commencé en 2007 et qui s’est achevé en avril 2011. Le projet GeOpenSim [216] vise le développement d’une plateforme Open Source pour l’analyse et la simulation des dynamiques urbaines à l’aide de bases de données topographiques historiques. Ces dernières sont construites à l’aide de bases de données topographiques récentes ainsi que de photographies aériennes et/ou de cartes historiques. Ces bases de données sont analysées afin d’identifier : • des règles d’évolution au niveau de la ville, du quartier ou de l’îlot ; • des statistiques sur des objets spécifiques comme les bâtiments composant un îlot ou les îlots présents dans un quartier. Chaque simulation peut ainsi être paramétrée à l’aide de règles d’évolution provenant de l’analyse automatique des données historiques, mais aussi de règles énoncées par des experts. 7.4.2.1 Approche L’approche met en œuvre un système multi-agents qui comporte une hiérarchie d’agents topographiques (bâtiments, routes, cours d’eau, îlots, quartiers, ville) qui peuvent être construits, modifiés, fusionnés, dé- coupés, restructurés et détruits au cours du temps. Le comportement de chaque agent est contrôlé par un ensemble de règles d’évolution, de contraintes et d’actions associées. GeOpenSim repose sur une structure hiérarchique (allant du bâtiment à l’agglomération) organisée par des réseaux de communication (les routes, les voies ferrées, etc.) et des graphes de voisinage (notamment entre bâtiments et entre les bâtiments et les routes) permettant une certaine autonomie à l’échelle micro (bâtiments, routes, etc.) et des comportements de régulation à différents niveaux macro (îlot, quartier, ville, etc.). Construit à partir d’un modèle existant, le système multi-agent hiérarchique a été adapté aux besoins de la simulation urbaine et plusieurs fonctionnalités ont été ajoutées, telles que les règles d’évolution et les méthodes de peuplement. Les règles d’évolution sont définies soit par analyse de données historiques, soit par des experts afin d’affecter des objectifs appropriés aux agents. Elles peuvent prendre en compte le voisinage des agents ainsi que leurs différents attributs (pour les îlots : la densité, le type d’îlot, la localisation de l’îlot dans la ville, etc.) Les méthodes de peuplement sont définies afin de modéliser les différentes stratégies que les agents peuvent utiliser pendant leur évolution (par exemple, la façon dont les îlots se densifient en reproduisant leur structure interne, en se restructurant ou en diversifiant leur structure). Le modèle GeOpenSim utilise des méthodes d’analyse spatiale permettant la construction automatique des objets composant les différents niveaux de la hiérarchie urbaine, ainsi que les relations entre ces objets. On peut ainsi reconstituer les objets ville, quartiers et îlots à partir des objets bâtiments et routes présents dans les bases de données topographies. D’autres structures telles que les alignements de bâtiments sont également automatiquement construites et utilisées dans la simulation. Les objets géographiques sont évalués sur des critères morphologiques et c’est l’évolution de ces caractéristiques que l’on cherche à simuler : • pour un bâtiment : sa surface, son élongation, sa concavité, son orientation, son type (habitation, industriel, etc.) ; • pour une route : sa sinuosité, son type (rue, autoroute, etc.) ; • pour un îlot : sa densité (quotient de sa surface bâtie et de sa surface totale), sa taille, son type (tissu urbain continu ou discontinu, industriel ou commercial, etc.), sa quantité d’espaces vides (par taille), 16Agence Nationale de la Recherche122 CHAPITRE 7. MODÉLISATION URBAINE indicateurs statistiques sur les bâtiments le composant, etc ; • pour un quartier : sa surface, périphérique ou non, indicateurs statistiques sur les îlots le composant, etc ; • pour une ville : sa surface totale, sa surface bâtie, la taille de ses réseaux de transport, la distribution de ses bâtiments par type, par taille, par forme, etc. Le modèle GeOpenSim permet de simuler l’évolution de ces objets en les modélisant comme des agents, chaque agent ayant comme but de se transformer pour acquérir un état satisfaisant ses règles d’évolution. Pour cela, l’état cible d’un agent à une date t + dt est décrit sous forme de contraintes sur ses caractéristiques morphologiques ; les règles d’évolution sont utilisées uniquement pour calculer les valeurs buts de ces contraintes. L’objectif de chaque agent est de satisfaire ses contraintes afin d’acquérir un état à la date t + dt satisfaisant au mieux ses règles d’évolution. Lors de chaque activation, si l’état initial de l’agent n’est pas parfait, une liste d’actions pouvant potentiellement améliorer son état est calculée. Cette liste est fonction des contraintes insatisfaites de l’agent et de leur degré d’insatisfaction. Chaque action consiste à déclencher un algorithme de transformation géométrique sur l’agent afin de faire évoluer certaines de ses caractéristiques morphologiques. Ces essais sont effectués jusqu’à ce que l’agent atteigne un état parfait ou que toutes les actions possibles aient été essayées. Tous les agents ont le même cycle de vie leur permettant de satisfaire les contraintes relatives à leur niveau. 7.4.2.2 Conclusion Cette plateforme opère à partir de données topographiques et utilise des règles d’évolution pour réaliser des simulations. Les résultats obtenus peuvent être comparés aux données réelles lorsque les simulations reposent sur des données historiques, permettant ainsi d’évaluer des hypothèses sur les dynamiques urbaines. L’utilisation de données topographies comme informations d’entrée du modèle semble particulièrement sé- duisante car ces informations sont largement répandues et de plus en plus précises. De plus, ces données peuvent être réactualisées régulièrement pour être réinjectées dans le modèle sans erreur de transcription grâce à des algorithmes capables de les interpréter automatiquement pour reconstituer tous les éléments urbains. Faisant référence à notre hypothèse précédente, nous pourrions très probablement réorienter l’utilisation originale de cette plateforme pour générer une ville de toute pièce. Toutefois, le modèle GeOpenSim s’attache à une représentation géométrique de la ville et travaille à un niveau très fin allant jusqu’au bâtiment. Dans cette thèse, nous devons au contraire nous focaliser en priorité sur les caractéristiques fonctionnelles de la ville dont le niveau de granularité le plus fin correspond à l’îlot urbain. Et tout comme UrbanSim, GeOpenSim s’attache essentiellement à deviner une évolution probable d’un espace urbain sans nécessairement chercher à l’optimiser. 7.4.3 CommunityViz CommunityViz [284] est un logiciel de planification urbaine proposé par la société placeways17 qui se pré- sente sous la forme d’un module d’extension (plugin) pouvant s’insérer et étendre les capacités du système d’information géographique « ArcGIS for Desktop » de la société Esri18. Ce logiciel permet d’accompagner les acteurs de l’urbain (urbanistes, gestionnaires des ressources naturelles, administrations locales, organismes d’aménagement métropolitain, entreprises privées, . . . ) en les aidant à simuler le futur d’une ville ou d’une région. Il permet de créer des plans ou des propositions de développement tout en présentant sur la zone d’étude les impacts économiques, environnementaux et sociaux. A partir de ces impacts, et en comparant différentes alternatives, la population est mieux informée et les décisionnaires peuvent prendre des décisions éclairées en ayant connaissance des conséquences. CommunityViz dispose d’une large gamme de 17http://placeways.com/communityviz/index.html. 18Environmental Systems Research Institute : http://www.esri.com/7.4. TROIS MODÈLES URBAINS PASSÉS AU CRIBLE 123 fonctionnalités pour aider les décisions de localisation, de type et de forme que peut prendre un développement urbain. Le logiciel s’adresse à différentes catégories d’acteurs et chacune selon son niveau peut tirer parti de l’outil. Les membres du public sans connaissance particulière en urbanisme peuvent profiter des visualisations interactives lors des réunions publiques, ces présentations étant également accessibles sur un site web dédié. CommunityViz propose des outils faciles à utiliser et accessibles au plus grand nombre pour produire des analyses de base et des visualisations. Concernant les experts, comme les urbanistes et les professionnels en systèmes d’information géographique, ils peuvent utiliser le logiciel pour créer des études qui seront ensuite exploitées par les entreprises privées, les administrations et les audiences publiques. Cette suite logicielle est composée de deux modules principaux : (i) Scenario 360 qui fournit les outils interactifs d’analyse et le framework d’aide à la décision et (ii) Scenario 3D qui offre un moyen de créer une information riche au travers de scènes 3D interactives. 7.4.3.1 Scenario 360 Scenario 360 constitue la pièce centrale de CommunityViz. Elle a été conçue selon les principes suivants : • créer et envisager des hypothèses selon la formule : « que se passerait-il si . . . ? », • évaluer graphiquement les impacts économiques, environnementaux et sociaux des aménagements proposés (plan d’occupation des sols, investissements dans des infrastructures, . . . ), • faire des hypothèses pouvant être rapidement remises en cause, • travailler à l’échelle d’un site, d’un quartier, d’une ville ou d’une région, • prendre des décisions globales et éclairées, • se connecter à des outils de visualisation 3D. Scenario 360 regroupe les fonctionnalités suivantes, en considérant que certains composants travaillent ensemble (i.e. l’entrée d’un modèle correspond à la sortie d’un autre) : • « Land Use Designer » : permet de dessiner sur une carte les types d’utilisation du sol (parmi une liste disponible en standard ou spécifique) et de voir instantanément les impacts correspondants (sociaux, économiques et environnementaux). Les différents scénarios construits permettent de donner un sentiment à l’audience sur comment chaque alternative peut affecter le futur de leur communauté ; • « Build-Out Wizard » : calcule la capacité de développement d’un territoire. Les analyses correspondantes montrent combien d’immeubles de quel type peuvent être construits sur chaque emplacement en fonction d’un règlement communautaire donné sur l’utilisation des sols, la densité, le renouvellement urbain, les hauteurs, etc. Une fonction d’allocation permet de projeter la localisation du développement au fil du temps ; • « Suitability Wizard » : permet de calculer automatiquement un score lié à chaque emplacement pour la localisation des activités (habitation, activité commerciale, activité artisanale, . . . ) selon différents facteurs de qualité pouvant être pondérés (facteur d’attraction ou de répulsion par rapport à la proximité d’une route, d’une ligne d’égoût, d’un cours d’eau, une pente, . . . ) ; • « TimeScope » : permet de voir année après année l’évolution des changements. Calcule où et quand un nouveau développement apparaîtra en fonction des hypothèses fournies concernant les taux et les modèles de croissance (par exemple : 3 % de croissance par an, développement prioritaire des espaces libres proches des routes, . . . ) ; • des outils pour visualiser de multiples scénarios côte à côte sur une analyse ; • des outils pour créer facilement des illustrations sur le web à partir d’une analyse pour une représentation interactive en 2D ou en 3D via Google Earth ; • des graphiques dynamiques, alertes et autres affichages actualisés en temps réel en fonction des alternatives et des actions. Plus globalement, ce module recherche l’efficacité à travers un processus de planification communautaire axé sur une approche visuelle et collaborative prenant place lors des séances publiques. Il fonctionne124 CHAPITRE 7. MODÉLISATION URBAINE comme une extension d’ArcMap19 et s’intègre par conséquent dans la suite « ArcGIS for Desktop ». CommunityViz peut donc exploiter toutes les données géographiques et les plans accessibles ainsi que toutes les fonctionnalités disponibles de cette suite logicielle. 7.4.3.2 Scenario 3D Le module Scenario 3D vient accompagner Scenario 360 dans la suite CommunityViz. Scenario 3D permet de créer des scènes 3D réalistes, interactives et partageables. Il suffit pour cela de spécifier une carte ArcGIS et de dire comment les fonctionnalités 2D doivent être représentées dans la scène 3D. Lorsqu’on visualise une scène, on peut alors se déplacer comme si on s’y trouvait, en marchant, en volant et en regardant autour de soi. On peut également sélectionner un objet en cliquant dessus pour lire des informations complémentaires où les entendre parler. Les constructions, arbres et routes apparaissent dans les détails de façon photo-réaliste, en suivant le relief du terrain. Les ombres, lumières et effets de brouillard viennent renforcer le côté réaliste des lieux : l’idée étant de traduire la sensation qui se dégage de l’endroit que l’on perçoit. Scenario 3D est composé de deux parties : un outil d’export et un outil de visualisation 3D. Le module d’export est une extension d’ArcGIS tandis que l’outil de visualisation est une application indépendante permettant de visualiser librement les scènes 3D générées. Par rapport à un export Google Earth disponible dans Scenario 360, le niveau de détail fourni par Scenario 3D est supérieur, tout comme les possibilités de navigation au sol, les effets disponibles (ombre, lumière, brouillard) ou le nombre de formats 3D supportés. En contrepartie, le temps de génération nécessaire est plus long et il est préférable de circonscrire la zone d’étude au quartier ou au site. 7.4.3.3 Conclusion CommunityViz intègre une large gamme d’outils disponibles pour les urbanistes, les décisionnaires ou le grand public, y compris des outils de conception automatisés et interactifs. Néanmoins, pour instruire un projet, cette suite logicielle nécessite l’introduction de données initiales conséquentes. Cela peut concerner la population existante, les polygones délimitant les parcelles, l’utilisation des sols, les réseaux de transport, l’environnement naturel, les canalisations (eau, égouts, . . . ), la fiscalité, l’économie locale, l’ensemble de l’environnement bâti existant, etc. Même si l’intégralité de ces informations n’est pas obligatoire, ceci représente un travail conséquent et la mobilisation de compétences spécifiques avant même de pouvoir faire la moindre simulation. D’autre part, cet outil travaille à un niveau de détail très fin (habituellement la parcelle) et l’aspect géométrique y reste très présent. Enfin, certaines fonctionnalités automatiques proposées dans CommunityViz reposent sur des techniques d’optimisation combinatoire (par exemple : pour identifier une combinaison de sites naturels à traiter qui apportent un maximum de bénéfice par rapport à un budget donné ou d’autres contraintes). Toutefois, ces techniques sont peu documentées et elles deviennent vite inopérantes dès que le problème atteint une taille trop importante (i.e. au delà de 500 éléments à prendre en compte). 7.5 Les problèmes de positionnement Indépendamment des modèles urbains spécialisés que nous avons abordés jusqu’à présent, notre problé- matique s’apparente plus spécifiquement à un problème de positionnement dans le sens où l’on se pose la question suivante : « Où allons nous positionner les choses ? » [80, 218]. Les études relatives à la théorie de la localisation remontent à 1909 avec les travaux d’Alfred WEBER qui cherchait à positionner un unique entrepôt tout en minimisant la distance totale entre son lieu d’implantation et différents clients. Par la suite, cette théorie s’est développée sans sursaut au gré de quelques 19Module de la suite « ArcGIS for Desktop » capable de représenter les informations géographiques sous forme d’un ensemble de couches (layers) et les autres informations sous la forme de cartes.7.5. LES PROBLÈMES DE POSITIONNEMENT 125 applications. Il faudra attendre 1964 pour que le sujet suscite à nouveau un regain d’intérêts avec la publication de S.L. HAKIMI [124] qui s’intéressait au positionnement de centres de commutation dans un réseau de communications et de postes de police sur un réseau routier. Les problèmes de localisation peuvent être décrits à partir de quatre composants : • les clients qui sont supposés être déjà positionnés à des points ou sur des routes ; • les équipements que l’on cherche à positionner ; • un espace où sont localisés les clients et les équipements ; • une métrique qui indique les distances ou le temps entre les clients et les équipements. Ce sujet correspond à des problèmes d’optimisation très étudiés en recherche opérationnelle compte tenu des enjeux théoriques et applicatifs qu’ils suscitent et des répercussions que ce type de décision engendrent [156]. En effet, des choix de positionnement sont fréquemment réalisés à tous les niveaux de l’organisation humaine, aussi bien au niveau de l’individu qu’au niveau des organisations internationales en passant par les ménages ou les entreprises. Ils impliquent souvent des ressources conséquentes avec des impacts économiques et environnementaux importants sur le long terme (pollution, congestion du trafic, etc.). D’un point de vue scientifique, ces problèmes sont souvent extrêmement difficiles à résoudre, sachant que même les modèles les plus classiques sont N P-complet et difficilement surmontables pour de grandes instances. Il a fallu attendre l’avènement d’ordinateurs suffisamment puissants pour susciter l’inté- rêt de formalisation et d’implémentation de ces modèles de positionnement compte tenu de leur complexité de calcul. Finalement, ces modèles sont spécifiques à l’application considérée, ce qui rend leur structure (objectifs, contraintes et variables) particulière au problème étudié. Les décisions relatives aux problèmes de positionnement font régulièrement intervenir de nombreuses parties prenantes et doivent considérer de multiples objectifs souvent conflictuels [60]. Le lecteur intéressé pourra se référer au chapitre « Discrete Network Location Models » de J. Current et al. [60] pour obtenir une description détaillée des modèles classiques de positionnement connus sous les noms : set covering, maximum covering, p-center, p-dispersion, p-median, fixed charge, hub et maxisum. Le livre « Facility Location » [90] constitue également une excellente source d’informations sur les nombreux problèmes de positionnement qu’il aborde. 7.5.1 Cadre général d’un problème de positionnement Dans le cadre du problème de positionnement d’équipements (Facility Location Problem, FLP), on cherche à placer un certain nombre d’équipements par rapport à des demandes de façon à optimiser un ou plusieurs critères, tels que la distance, la satisfaction de la demande ou encore les temps de parcours [199]. Dans ce contexte, le terme équipement est à prendre au sens large et peut faire référence à des entrepôts, des hôpitaux, des usines, des écoles, etc. Ce type de problème soulève trois questions principales : • quels sont les équipements à positionner : nombre et nature ; • quels sont les emplacements disponibles : nombre et forme ; • quels sont les critères à prendre en compte pour positionner chaque équipement sur un emplacement. Dans la famille des problèmes de positionnement, le problème d’affectation quadratique est un problème très réputé à la fois pour ses nombreuses applications pratiques et parce qu’il est particulièrement difficile à résoudre. Nous proposons d’étudier plus spécifiquement ce problème compte tenu de l’intérêt qu’il suscite et de sa proximité avec notre problématique. 7.5.2 Problème d’affectation quadratique (Quadratic Assignation Problem, QAP) Le problème d’affectation quadratique est un problème d’optimisation combinatoire introduit pour la première fois par C. KOOPMANS et M. BECKMANN [155] en 1957. Il s’agit d’un problème N P-difficile qui n’est pas ρ-approximable quelle que soit la constante ρ choisie [238].126 CHAPITRE 7. MODÉLISATION URBAINE FIGURE 7.11 – Affectation (assignment) π = (3, 2, 4, 1). D’après R.Z. FARAHANI et al. [90]. FIGURE 7.12 – Publications : proportions des solutions techniques proposées pour les QAP. D’après R.Z. FARAHANI et al. [90]. 7.5.2.1 Modélisation du problème Ce problème peut être défini ainsi [187] (cf. figure 7.11) : un ensemble de n équipements ("facilities") communiquant entre eux doivent être positionnés à moindre coût sur n emplacements prédéterminés ("locations"). La distance entre les emplacements k et l est notée dkl et le flux échangé entre les équipements i et j est noté fij . Le coût d’interaction entre l’équipement i placé sur le site k et l’équipement j placé sur le site l est considéré comme proportionnel au produit du flux échangé entre les deux équipements (fij ) par la distance entre les deux emplacements (dkl). Le problème consiste à affecter ("assignment") à chaque emplacement un seul équipement tout en minimisant le coût : C = Xn i=1 Xn j=1 fij dp(i)p(j) (7.1) où p(i) représente l’emplacement assigné à l’équipement i. Pour des questions de simplification, cette modélisation ne prend pas en compte le coût d’implantation d’un équipement sur un emplacement donné. 7.5.2.2 Résolution par des méthodes de RL La difficulté de ce problème s’illustre par la faible taille des instances pouvant être résolues de façon exacte. En effet, au delà d’une taille située aux alentours de 30 équipements, l’explosion combinatoire est telle qu’une résolution exacte devient illusoire. Face à des instances de taille élevée, il est donc nécessaire de recourir à une méthode de résolution approchée [187, 53, 90]. La nécessité de disposer de méthodes approchées performantes a incité de nombreux chercheurs à dé- velopper des solutions métaheuristiques pour s’attaquer à ce problème (voir figure 7.12). En dehors des algorithmes évolutifs, les méthodes de recherche locale sont celles qui apparaissent dans les travaux les plus représentatifs.7.5. LES PROBLÈMES DE POSITIONNEMENT 127 TABLE 7.1 – Pourcentages d’erreur des meilleures métaheuristiques appliquées au QAP. RobuTS (Recherche tabou robuste [263]), ReacTS (Recherche tabou réactive [17]), Rec-Sim (Recuit simulé [54]), Hybrid-Gen (Algorithme génétique [94]), Hybrid-Ant (Méthode de colonies de fourmis [100]). D’après T. MAUTOR [187]. Intervalle d’erreur RobuTS ReacTS (avec 22 instances) Rec-Sim Hybrid-Gen Hybrid-Ant <0.01% 12 - 1 13 13 0.01% - 0.1% 9 1 4 7 7 0.1% - 1% 12 17 18 15 10 1% - 10% 5 4 13 3 8 ≥10% - - 2 - - Mais avant même d’aborder les résultats obtenus par les meilleures méthodes de recherche locale pour ce problème, il est primordial d’identifier une structure de voisinage adaptée au problème à traiter. Structure du voisinage Les méthodes de recherche locale développées pour le problème d’affectation quadratique utilisent très majoritairement une structure de voisinage très simple, basée sur les 2-échanges (ou transpositions), c’est à dire toutes les solutions pour lesquelles la seule différence avec la solution courante consiste à échanger le placement de deux équipements [187]. Selon Thierry MAUTOR, deux raisons principales justifient le choix de cette structure de voisinage. D’une part, le voisinage est de taille raisonnable : composé de n(n−1) 2 solutions. D’autre part, la variation du coût occasionnée par un 2-échanges peut être calculée très rapidement grâce à un calcul incrémental. Notons : • p : la solution courante ; • puv : la solution obtenue à partir de p en échangeant le placement des équipements u et v ; • 4p(u, v) : la variation de coût occasionnée par l’échange du placement des équipements u et v, on a 4p(u, v) = Cout(puv) − Cout(p), La variation de coût occasionnée par l’échange de placement des équipements u et v peut être calculée selon la formule (en considérant des matrices D et F symétriques) : 4p(u, v) = 2 Xn j=1,j6=u,,j6=v (fuj − fvj )(dp(v)p(j) − dp(u)p(j)) (7.2) De plus, lorsqu’un mouvement a été effectué en échangeant le placement des équipements x et y, différents de u et v, la variation du coût occasionnée par l’échange de placement des équipements u et v devient : 4pxy (u, v) = 4p(u, v) + 2(fux + fvy − fuy − fvx)(dp(v)p(y) + dp(u)p(x) − dp(u)p(y) − dp(v)p(x)) (7.3) Avec un voisinage complexe, le coût pour chaque solution voisine devrait être évalué en O(n 2 ). Avec un voisinage en 2-échanges, lors d’une première itération, toutes les solutions voisines de la solution initiale sont évaluées en O(n) (cf. l’équation 7.2). Ensuite, une fois cette initialisation réalisée, toutes les itérations suivantes s’effectuent en O(1) en mettant à jour les 4p(u, v) calculés à l’itération précédente (cf. l’équation 7.3). L’évaluation complète d’un voisinage se fait alors en O(n 2 ). Résultats liés aux méthodes de RL Parmi les métaheuristiques existantes, les méthodes de recuit simulé et de recherche tabou ont été appliquées dès leurs origines aux problèmes d’affectation quadratique. Dès le128 CHAPITRE 7. MODÉLISATION URBAINE début, les résultats remportés à partir de ces deux méthodes ont très largement surclassé ceux obtenus par les méthodes utilisées jusque là et basées sur des méthodes gloutonnes ou des procédures de descente. Sur des problèmes de petite taille (inférieure à 15 équipements), ces nouvelles approches étaient très souvent capables de trouver la solution optimale [187]. Avec des problèmes de taille plus élevée (inférieure à 50 équipements), il a été confirmé depuis, grâce aux progrès réalisés par les méthodes complètes, que les résultats obtenus étaient capables de converger la plupart du temps vers la valeur optimale supposée. Pour des problèmes de plus grande taille (comprise entre 50 et 150 équipements), les solutions optimales restent encore inconnues et les approches métaheuristiques continuent de se mesurer entre elles pour améliorer les meilleurs résultats connus. Malgré leur ancienneté, les méthodes tabou proposées par TAILLARD [263] (recherche tabou robuste, 1991) ou par BATTITI et TECCHIOLLI [17] (recherche tabou réactive, 1994) sont très robustes et restent des références difficiles à surclasser pour le problème d’affectation quadratique. Néanmoins, si on compare entre elles les meilleures métaheuristiques appliquées à QAP (recuit simulé, recherche tabou, GRASP, mé- thodes de colonies de fourmis, . . . ), on constate qu’elles obtiennent des résultats presque similaires et très proches des meilleures solutions connues (cf. table 7.1). 7.6 Conclusion « Le monde de la recherche en urbanisme et en aménagement s’attelle depuis plusieurs années à une tâche complexe, voire à une gageure, fondée sur des savoirs interdisciplinaires à mobiliser et à intégrer dans l’outillage technique des sciences humaines : la modélisation de la ville » [7]. En effet, cette tâche nécessite la mobilisation d’équipes pluridisciplinaires importantes qui doivent travailler en collaboration étroite compte tenu du large spectre de connaissances et d’expertises requis pour aboutir à un résultat opérationnel. Les projets actuels liés aux problématiques de la modélisation urbaine s’intéressent plus particulièrement aux évolutions permanentes qui s’opèrent dans les villes au niveau du temps et de l’espace. On parle ainsi de modèle "dynamique". Cette approche très répandue nécessite une quantité importante de données historiques en amont pour alimenter les modèles ainsi que la mise en place de règles énoncées par des experts du domaine. Malgré la pertinence de ces modèles et les efforts consentis, nous devons néanmoins rester vigilants par rapport à cette ambition car de nombreux projets architecturaux ou liés à des politiques de la ville et du transport se sont soldés par un échec [7]. D’après le philosophe Maurice BLONDEL, « L’avenir ne se prévoit pas, il se prépare ». Or, pour Gaston BERGER, « L’avenir n’est pas seulement ce qui peut arriver ou ce qui a le plus de chances de se produire. Il est aussi, dans une proportion qui ne cesse de croître, ce que nous aurons voulu qu’il fût » [122]. Bien que notre problématique se situe à un stade précoce du processus de modélisation des villes, notre approche s’inscrit clairement dans une démarche volontariste. C’est pour cela que nous proposons, dans nos contributions, un modèle urbain durable basé sur des contraintes, composées essentiellement de préférences qui garantiront un équilibre entre les enjeux sociaux, environnementaux et économiques. Ensuite, nous proposons de résoudre le problème en cherchant parmi les solutions admissibles, la meilleure solution possible. Dans ce sens, notre façon d’aborder le sujet par l’optimisation vient compléter les approches classiques qui cherchent à prévoir ce qui a le plus de chances de se produire : notre objectif étant plutôt de trouver le meilleur avenir possible. Et comme la modélisation n’est qu’une représentation simplifiée du monde, nous permettons aux décideurs d’intervenir sur le résultat des simulations pour améliorer ce qui peut l’être et prendre en compte les impératifs du moment ou les notions difficilement modélisables. Une rétroaction entre l’homme et la machine peut alors se mettre en marche.III Contributions 1298 Modèle 8.1 Introduction La pré-programmation permet aux décideurs et aux parties prenantes (aménageurs, urbanistes, habitants, . . . ) de se mettre d’accord sur les grandes lignes d’un projet urbain préliminaire avant d’engager des études importantes, longues et coûteuses. Pour modéliser notre problème, nous allons commencer par décrire le modèle urbain de pré-programmation durable tel qu’il a été spécifié par les urbanistes et les architectes au fil de nos échanges. Dans cette première étape, l’enjeu consiste à relever et à expliquer les notions fondamentales que nous avons décidé d’exploiter. Face à la complexité de l’organisation d’un espace urbain, un travail conséquent a dû être réalisé en collaboration avec les spécialistes de la ville pour comprendre cette complexité et en extraire les éléments significatifs. Dans une seconde étape, nous décrivons le modèle de contrainte pour notre problème d’aménagement urbain. Il s’agit d’un problème particulier de positionnement de formes urbaines sur un territoire pour constituer une ville cohérente. Bien que l’on puisse faire des analogies avec des problèmes de positionnement classiques comme le problème d’affectation quadratique, notre problème est constitué de nombreuses contraintes spécifiques liées à l’aménagement urbain. Ces différentes contraintes sont essentielles car elles permettent de décrire les règles qui régissent une pré-programmation urbaine. Elles participent individuellement ou collectivement à la lutte contre l’étalement urbain, la viabilité économique, la mixité fonctionnelle, le bien être des habitants, etc. Compte tenu de leur importance, nous proposons pour chaque contrainte une description générale et une description formelle accompagnées d’une représentation schématique pour illustrer chaque situation. 8.2 Modèle urbain de pré-programmation durable La pré-programmation urbaine consiste d’abord à sélectionner le nombre et la nature de toutes les formes urbaines1 composant la ville puis à les organiser spatialement, en prenant en compte les aspects environnementaux, sociaux et économiques propres au développement durable (étalement urbain, mixité fonctionnelle, mobilité, énergies, . . . ). Plusieurs paramètres importants doivent être contrôlés : la densité de la population, les contraintes liées au territoire à aménager et le taux d’emploi. Le taux d’emploi est calculé en divisant le nombre d’emplois 1La forme urbaine correspond à l’utilisation qui est faite de l’espace ou du bâti sur chaque îlot urbain (habitat, commerce, . . . ), à ne pas confondre à la forme que peut prendre une ville entière (par exemple, forme radioconcentrique). 131132 CHAPITRE 8. MODÈLE FIGURE 8.1 – Formes urbaines réparties automatiquement sur la zone expérimentale de la ville de Marnela-Vallée, en prenant en compte les contraintes d’un développement urbain durable exprimées par les urbanistes. D’après les travaux du projet SUSTAINS - schéma fourni par le LIMSI (Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur). par le nombre de personnes en âge de travailler et vivant dans la zone d’étude. Un taux d’emploi proche de "1" correspond à une situation idéale où chaque résident peut accéder à un travail tout en vivant dans la zone, minimisant ainsi les déplacements. Un taux d’emploi éloigné de "1" a des conséquences graves, induisant un trafic important pour entrer et sortir de la ville. 8.2.1 Modèle urbain En urbanisme, « la modélisation consiste à simplifier la réalité du monde pour mieux comprendre comment les décisions et les événements interagissent les uns avec les autres. Elle permet alors de tester des solutions susceptibles d’influencer ou d’orienter les décisions politiques et les stratégies pouvant conduire à un futur souhaitable » [8]. Dans cette thèse, le modèle urbain proposé par les urbanistes repose sur les notions essentielles représentées par les îlots, les centralités, les formes urbaines et les intensités, et il intègre, dans une démarche systémique, les contraintes urbaines majeures liées à un développement urbain durable. 8.2.1.1 Îlot L’îlot urbain dont les contours sont définis par les routes est le niveau de granularité le plus fin sélectionné par les urbanistes. Sa dimension est fixée de façon à ce qu’un habitant puisse facilement en faire le tour à pied. Les îlots sont représentés dans un quadrillage orthogonal avec une dimension de 80 mètres de côté. Il est supposé que chaque îlot est associé à une seule forme urbaine (habitat, industrie, commerce, école, etc). 8.2.1.2 Centralité Une notion très importante pour les urbanistes concerne la centralité : une place structurante (ou lieu central) composée de quatre îlots tout au plus qui donne son nom au quartier. La centralité apparaît comme une propriété fondamentale qui participe à la formation des agglomérations urbaines. La valorisation du capital économique, social et symbolique accumulé localement suscite des investissements visant à renforcer l’accessibilité du lieu central, au fur et à mesure de sa croissance, par rapport aux lieux avec lesquels il est en concurrence. Et ce surcroît d’accessibilité rend le lieu encore plus attractif pour de nouvelles activités. Le8.3. MODÈLE DE CONTRAINTE POUR LE PROBLÈME D’AMÉNAGEMENT URBAIN 133 sentiment d’appartenir à un quartier coïncide avec la zone d’influence du lieu central, estimée à 300 mètres de rayon. 8.2.1.3 Forme urbaine Dans notre contexte, la forme urbaine correspond à un type d’utilisation dominant qui est fait de l’espace ou du bâti pour un îlot complet. Néanmoins, une forme urbaine dite dominante peut tout à fait intégrer dans sa déclaration une certaine mixité fonctionnelle (proportion d’habitat, de commerce, etc.). Vingt huit formes urbaines ont été retenues (correspondant à quatre groupes : habitat, activité économique, infrastructure et élément fixe) : • maison individuelle ; • maison de ville ; • habitat intermédiaire ; • habitat collectif (R+4)2 ; • habitat collectif (R+7)2 ; • bureau, petit immeuble (R+4)2 ; • bureau, grand immeuble (R+7)2 ; • parc d’entreprises ; • industrie ; • commerce et service de centre ville ; • hypermarché • école maternelle et élémentaire ; • collège ; • lycée ; • équipement administratif ; • équipement technique ; • équipement sportif ; • espace vert ; • espace de respiration ; • rivière ; • route résidentielle ; • route intermédiaire ; • avenue ; • terrain accidenté ; • espace naturel ; • voie préexistante ; • voie de chemin de fer ; • zone inconstructible ; 8.2.1.4 Intensité L’intensité représente une échelle de mesure liée au niveau de densité de la population sur une zone donnée. Elle permet également de traduire le niveau d’activité ou d’animation d’une région. Une intensité urbaine élevée correspond à un quartier vivant, dense, mixte et pour lequel la marche à pied est le moyen de dé- placement le plus simple pour accéder à toutes les fonctions urbaines essentielles. On retrouve ce niveau d’intensité urbaine au centre ville tandis qu’une intensité urbaine faible est plutôt liée à un quartier à dominante pavillonnaire. Six niveaux d’intensité sont définis allant de « 1 » pour l’intensité la plus faible à « 6 » pour la plus élevée. 8.3 Modèle de contrainte pour le problème d’aménagement urbain Pour un territoire donné, le modèle urbain nous fournit le nombre de formes urbaines de chaque type, pour chaque niveau d’intensité. L’objectif consiste alors à répartir spatialement les formes urbaines sur l’ensemble du territoire. Nous identifions ce problème comme un problème d’aménagement urbain. Notre première tâche consiste à fournir une formalisation des contraintes et des préférences relatives aux propriétés d’une ville durable. Les urbanistes expriment naturellement les interactions entre différentes formes urbaines comme des préférences de positionnement au lieu de contraintes dures (par exemple, les industries souhaitent être à proximité d’une voie ferrée ou d’un axe routier, mais elles préfèrent rester éloignées des écoles ou des habitations). Nous exprimons donc ces préférences dans des fonctions de coût et représentons le problème comme un problème d’optimisation combinatoire. Mais il y a également des contraintes dures qui restreignent strictement les positions de certaines formes urbaines (Par exemple, on ne 2 (R+"x") signifie : rez-de-chaussée + "x" étages.134 CHAPITRE 8. MODÈLE peut pas placer une maison individuelle, associée à une intensité urbaine très faible, en plein centre urbain lié à une intensité urbaine très forte). En fin de compte, notre problème englobe un grand nombre de contraintes, certaines étant très spéci- fiques. Nous distinguons dans notre présentation les plus importantes, les contraintes générales qui s’appliquent à toutes les variables, et les contraintes spécifiques qui s’appliquent uniquement à certaines zones ou à certaines formes urbaines. Dans la suite, nous détaillons l’ensemble des fonctions de coûts et des contraintes retenues pour modéliser notre problème d’aménagement urbain. 8.3.1 Représentation de la ville par une grille Nous représentons la ville par une grille régulière où chaque cellule correspond à un îlot urbain. L’objectif consiste à affecter à chaque cellule de la grille une forme urbaine parmi les formes possibles. Certaines cellules spécifiques sont associées à des éléments fixes (routes, zones non constructibles, etc.). Elles sont donc considérées comme non libres et ne sont pas prises en considération. Pourtant, elles sont conservées sur la carte car elles peuvent interférer avec les autres formes urbaines. De plus, chaque cellule est affectée à un niveau d’intensité spécifié manuellement par les urbanistes (au tout début du processus de conception). Ceci permet par exemple de représenter les centralités sur la carte (zones commerciales, places animées, etc.). Par souci de simplicité, la grille est vue comme une matrice rectangulaire de cellules de taille (x × y), mais cette représentation est plus symbolique que géométrique, dans la mesure où c’est le voisinage qui est important et le placement relatif des formes urbaines, pas la géométrie rectangulaire. Chaque cellule correspond à une variable dont la valeur est sélectionnée parmi toutes les formes urbaines. Nous notons Vl,c la variable correspondant à la cellule en ligne l, colonne c. Les formes urbaines sont encodées avec les valeurs entières suivantes : 0. non défini ; 1. maison individuelle ; 2. maison de ville ; 3. habitat intermédiaire ; 4. habitat collectif (R+4) ; 5. habitat collectif (R+7) ; 6. bureau, petit immeuble (R+4) ; 7. bureau, grand immeuble (R+7) ; 8. parc d’entreprises ; 9. industrie ; 10. commerce et service de centre ville ; 11. hypermarché 12. école maternelle et élémentaire ; 13. collège ; 14. lycée ; 15. équipement administratif ; 16. équipement technique ; 17. équipement sportif ; 18. espace vert ; 19. espace de respiration ; 20. rivière ; 21. route résidentielle ; 22. route intermédiaire ; 23. avenue ; 24. terrain accidenté ; 25. espace naturel ; 26. voie préexistante ; 27. voie de chemin de fer ; 28. zone inconstructible ; Dans notre modèle, on s’intéresse à un problème d’optimisation sous contraintes où certaines contraintes sont traduites en fonctions de coût alors que d’autres restreignent les affectations possibles lors de la résolution. Lorsqu’une forme urbaine est assignée à une cellule, un coût pour cette cellule peut être calculé à partir de chaque contrainte applicable. La somme de ces coûts permet d’obtenir un coût total pour la cellule en question. L’objectif consiste à minimiser la somme des coûts sur l’ensemble des cellules, le coût global étant noté Cost. On cherche alors à déterminer pour chaque cellule la forme urbaine Vl,c qui permet de minimiser le coût global Cost issu du coût de chaque cellule Vl,c pour chaque contrainte ct applicable : Cost = Xx−1 l=0 X y−1 c=0 Xz ct=1 (wct ∗ Costct (Vl,c)) (8.1)8.3. MODÈLE DE CONTRAINTE POUR LE PROBLÈME D’AMÉNAGEMENT URBAIN 135 FIGURE 8.2 – Illustration de la distance de Tchebychev à partir de la cellule marquée par un « O » et positionnée en ligne 3, colonne 3 : chaque colonne est repérée par sa distance (allant de 1 à 4) par rapport à la cellule « O ». où : z correspond au nombre de contraintes définies et wct au poids associé à chaque contrainte ct. Par rapport à notre modèle, abordons dès à présent l’ensemble des notations générales, en lien avec la représentation en grille, qui seront reprises par la suite dans la définition des contraintes. 8.3.1.1 Distance de Tchebychev Pour certaines contraintes, nous utilisons la distance de Tchebychev (cf. figure 8.2) qui s’exprime en nombre de cellules. Soit deux cellules Vi,j et Vk,l, la distance de Tchebychev séparant les cellules Vi,j et Vk,l est : Dtch(Vi,j , Vk,l) = max (|k − i| , |l − j|) (8.2) 8.3.1.2 Distance de Manhattan Pour d’autres contraintes, nous utilisons la distance de Manhattan (cf. figure 8.3) correspondant à la distance parcourue en empruntant les rues agencées selon un quadrillage (en référence à la structure des villes américaines, typiquement le quartier de Manhattan à New York). Soit deux cellules Vi,j et Vk,l, la distance de Manhattan séparant les cellules Vi,j et Vk,l est : Dman(Vi,j , Vk,l) = |k − i| + |l − j| (8.3) 8.3.1.3 Voisinage Pour la variable Vl,c, son voisinage3 (cf. figure 8.4) correspond à l’ensemble noté V d l,c défini comme étant : V d l,c = {Vi,j , i ∈ [l − d, l + d] , j ∈ [c − d, c + d]} \{Vl,c} (8.4) 3On parle ici des cellules voisines sur la grille dans le sens géométrique du terme, à ne pas confondre avec la notion de voisinage exploitée par les algorithmes de recherche locale.136 CHAPITRE 8. MODÈLE FIGURE 8.3 – Illustration de la distance de Manhattan à parcourir entre le point de départ « D » et le point d’arrivée « A ». où : d est un paramètre contrôlant la taille du voisinage. Cela correspond au voisinage de MOORE mais privé de son centre, c’est à dire un ensemble de cellules délimité par une distance de Tchebychev non nulle à partir de la cellule Vl,c. 8.3.1.4 Anneau de voisinage Il nous arrivera également de considérer l’ensemble des cellules positionnées sur l’anneau de voisinage (cf. figure 8.5) situé à la périphérique de V d l,c noté V¯d l,c tel que : V¯d l,c = {Vi,j ,(|i − l| = d) ∨ (|j − c| = d)} (8.5) 8.3.1.5 Filtrage d’un ensemble de cellules relatives à une forme urbaine Par rapport à un ensemble de cellules donné, on veut déterminer le sous-ensemble de ces cellules qui sont affectées à une forme urbaine particulière. Soit V un ensemble de cellules et f une forme urbaine donnée, VBf est l’ensemble des éléments Vl,c de V tel que Vl,c = f. 8.3.1.6 Filtrage d’un ensemble de formes urbaines relatives à un ensemble de cellules Cette fois, on dispose d’un ensemble de formes urbaines et on veut déterminer le sous-ensemble de ces formes urbaines qui sont affectées à un ensemble de cellules donné. Soit F un ensemble de formes urbaines et V un ensemble de cellules, la notation FBV retourne les formes urbaines de F ayant une correspondance dans V. Par exemple, si F = {10, 12, 13, 14, 17, 18} et V = {V1 = 6, V2 = 18, V3 = 18, V4 = 12}, alors FBV = {12, 18}. 8.3.2 Contraintes générales Les contraintes générales s’appliquent à toutes les formes urbaines sur la totalité de la grille. Elles permettent de définir une organisation générale de la ville qui sera raffinée par des contraintes plus spécifiques.8.3. MODÈLE DE CONTRAINTE POUR LE PROBLÈME D’AMÉNAGEMENT URBAIN 137 FIGURE 8.4 – (V 2 3,3 ) représente le voisinage de la cellule marquée par un « O » et positionnée en ligne 3, colonne 3 pour une taille de voisinage = 2 : le voisinage est constitué de toutes les cellules marquées par un « 1 » et un « 2 ». 8.3.2.1 Cardinalité liée à chaque forme urbaine Selon certaines caractéristiques de la ville à créer (nombre d’habitants, taille, taux d’emploi, etc.), les urbanistes sont en mesure de déterminer le nombre d’occurrences de chaque forme urbaine devant apparaître dans la ville : par exemple, une ville importante doit avoir une certaine surface de parcs, une certaines surface d’industries, etc. Pour chaque forme urbaine, on a donc une contrainte de cardinalité sur l’ensemble des îlots. 8.3.2.2 Correspondance des niveaux d’intensité Le modèle urbain fournit un niveau d’intensité donné pour chaque forme urbaine, et un niveau d’intensité pour chaque cellule de la grille. Sur la base de ces éléments, chaque assignation d’une forme urbaine à une cellule doit respecter la correspondance d’intensité entre les formes urbaines et les cellules. Les différents niveaux d’intensité sont définis par l’utilisateur sur la carte. Il s’agit d’une contrainte unaire. 8.3.2.3 Interactions entre formes urbaines Chaque forme urbaine a des préférences de placement en fonction de sa nature. Par exemple, les unités scolaires sont attirées par les unités résidentielles, et les unités résidentielles sont repoussées par les unités industrielles [121]. Nous modélisons ces préférences par une fonction spécifiant l’attraction (ou inversement la répulsion) de chaque forme urbaine pour une autre forme urbaine. Entre deux formes urbaines, les valeurs d’interaction possibles sont : • 0 : double attraction, • 10 : simple attraction, • 20 : neutre, • 50 : simple répulsion, • 100 : double répulsion. La valeur d’interaction diminue avec l’augmentation de la distance entre deux cellules (cf. figure 8.6). Les préférences d’interaction sont exprimées comme une fonction de coût. Nous notons Ω I la matrice138 CHAPITRE 8. MODÈLE FIGURE 8.5 – (V¯2 3,3 ) représente l’anneau de voisinage de la cellule marquée par un « O » et positionnée en ligne 3, colonne 3 pour une taille de voisinage = 2 : l’anneau est constitué de toutes les cellules marquées par un « 2 ». d’interaction, qui est une entrée du système. Ω I p,q est la valeur d’interaction entre la forme urbaine p et la forme urbaine q. Cette matrice est asymétrique, on peut donc avoir Ω I p,q 6= ΩI q,p. Pour une forme urbaine positionnée sur la cellule Vl,c, le coût d’interaction dépend uniquement de son voisinage et de l’influence de la distance avec ses cellules voisines. Finalement, pour une cellule Vl,c, la fonction de coût relative à notre contrainte est : Cost1 (Vl,c) = X δ1 d=1   P v∈V¯d l,c  Ω I Vl,c,v V¯d l,c ∗ d 2   (8.6) où : δ1 est la distance d’interaction maximale (dans la suite, δ1 est fixé à « 3 ») à considérer entre deux formes urbaines. Le coût de la cellule Vl,c intègre les contributions de tous les anneaux compris à la distance d de Vl,c, mais ces contributions diminuent au fur et à mesure que d augmente. Pour un anneau, les contributions moyennes des cellules (situées sur l’anneau) sont divisées par un facteur de correction égale à d 2 , afin d’obtenir un effet similaire à l’attraction en physique (cf. les modèles d’interaction spatiale et les modèles gravitaires 7.1.3). Comme indiqué sur le graphique situé à droite dans la figure 8.6, les cellules en bordure de grille, notamment dans les coins, ont un voisinage limité par rapport aux cellules éloignées des bords. Pour prendre en compte cette variation de taille du voisinage, l’équation 8.6 prend en compte le nombre de cellules présentes dans chaque anneau pour définir une moyenne des interactions de la cellule concernée avec ses cellules voisines. 8.3.3 Contraintes spécifiques Afin de renforcer les aspects durables de notre modèle, nous ajoutons des contraintes plus spécifiques visant à améliorer l’équité sociale, la préservation de l’environnement et la viabilité économique.8.3. MODÈLE DE CONTRAINTE POUR LE PROBLÈME D’AMÉNAGEMENT URBAIN 139 FIGURE 8.6 – Contrainte d’interaction entre formes urbaines permettant d’exprimer les préférences de positionnement des formes urbaines les unes par rapport aux autres. Chaque cellule est en interaction avec ses cellules voisines dans un voisinage limité à une taille de 3 cellules. La force d’interaction entre deux cellules diminue avec l’augmentation de la distance qui les sépare. Interaction avec un voisinage complet Interaction avec un voisinage réduit 8.3.3.1 Distance minimale de séparation Cette contrainte spécifie que certaines formes urbaines doivent être éloignées les unes des autres d’une distance minimale, la distance étant exprimée en nombre de cellules (cf. figure 8.7). Par exemple, entre une maison individuelle (no 1) et un immeuble tertiaire R+7 (no 7), il faut respecter une distance d’au moins « 4 » cellules (i.e. trois cellules de séparation). Pour cette contrainte, nous utilisons la distance de Tchebychev pertinente pour contrôler la proximité de formes urbaines dans un voisinage donné. Nous notons Ω D la matrice de distance, avec Ω D p,q la distance minimum autorisée entre la forme urbaine p et la forme urbaine q. Cette matrice est symétrique. Par convention, Ω D p,q = 0 lorsqu’il n’y a pas de contrainte de distance particulière entre p et q. Pour une forme urbaine Vl,c localisée en (l, c), la fonction de coût liée à notre contrainte devient : Cost2 (Vl,c) = X v∈V3 l,c  max  Ω D Vl,c,v − Dtch(Vl,c, v), 0  (8.7) Nota : On travaille ici avec une taille de voisinage limitée à « 3 » cellules car la distance minimale la plus importante relevée dans notre matrice de distance est égale à « 4 ». Donc au delà de cette limite de voisinage, il n’y a jamais de pénalité. 8.3.3.2 Regroupement Les zones industrielles ou artisanales doivent atteindre une taille critique pour que leur construction soit économiquement viable, c’est à dire un regroupement minimum de la même forme urbaine localisée dans une même région, autrement la zone ne sera pas créée en pratique. Pour d’autres formes urbaines, en plus d’une taille critique à atteindre, on doit limiter le regroupement à une taille maximale pour favoriser leur répartition sur le territoire et indirectement leur accessibilité. C’est le cas des lycées et des hypermarchés. Les paramètres de regroupement sont déterminés par les concepteurs urbains pour chaque forme urbaine concernée par un regroupement (voir par exemple la table 8.1). D’un autre côté, bien que cela ne soit pas explicitement exprimé par les concepteurs, la zone considérée doit avoir une structure suffisamment compacte140 CHAPITRE 8. MODÈLE FIGURE 8.7 – Contrainte de distance minimale de séparation entre formes urbaines. TABLE 8.1 – Paramètres des contraintes de regroupement par forme urbaine. Forme urbaine Nombre minimum d’îlots Nombre maximum d’îlots Proportion d’îlots voisins identiques Artisanat 8 - 80 % Industrie 42 - 80 % Hypermarché 4 6 0 % Lycée 2 2 0 % pour le regroupement de certaines formes urbaines. Intuitivement, on peut penser qu’un regroupement sous la forme d’un cercle est préférable à une ligne ou un rectangle plat. Pour ces formes urbaines, on pénalise alors les cellules qui appartiennent à un groupe trop petit ou pas assez compact. On considère également qu’un même groupe peut enjamber des éléments fixes positionnés sur le territoire comme une rivière, une route ou un terrain accidenté, à condition toutefois que cette séparation ne soit pas supérieure à un îlot. Soit les éléments suivants donnés en entrée du système : • Freg l’ensemble des formes urbaines à regrouper, et f une forme urbaine appartenant à cet ensemble ; • Sizef min la taille minimale pour un groupe de f ; • Sizef max la taille maximale pour un groupe de f ; • Coeff struct le coefficient de structure pour un groupe de f avec 0 < Coeff struct ≤ 1. Ce coefficient permet de calculer la proportion, pour une cellule donnée, de ses cellules voisines devant appartenir au même groupe (i.e. ayant la même forme urbaine). Il influence la structure géométrique des groupes : plus sa valeur est proche de « 1 », plus la structure du groupe généré sera compacte ; • Fcont l’ensemble des formes urbaines de continuité pouvant occuper une cellule à l’intérieur d’un groupe sans provoquer la scission du groupe correspondant. Fcont est composé des formes urbaines suivantes : – rivière ; – route (résidentielle, intermédiaire, avenue) ; – terrain accidenté ; – espace naturel ; – voie préexistante ;8.3. MODÈLE DE CONTRAINTE POUR LE PROBLÈME D’AMÉNAGEMENT URBAIN 141 FIGURE 8.8 – Contraintes de regroupement d’une forme urbaine. – voie de chemin de fer ; – zone inconstructible ; On note G f l,c le groupe de cellules associé à Vl,c avec f = Vl,c tel que : G f l,c =    ∅ Si Vl,c 6= f Vl,c Si Vl,c = f ∀ Vl 0 ,c0 ∈ V1 l,c, Gf l 0 ,c0 Si  Vl 0 ,c0 ∈/ G f l,c ∧ ((Vl 0 ,c0 = f) ∨ ((Vl 0 ,c0 ∈ Fcont) ∧ (Vl,c = f))) (8.8) On note Cl,c le coût associé au groupe G f l,c tel que : Cl,c =     SizeVl,c min − G Vl,c l,c  Si SizeVl,c min > G Vl,c l,c  G Vl,c l,c − SizeVl,c max Si SizeVl,c max < G Vl,c l,c 0 Sinon (8.9) Le coût de regroupement associé à la variable Vl,c peut alors s’écrire : Cost3 (Vl,c) =    max CoefVl,c struct ∗ V 1 l,c  − V 1 l,cBVl,c , 0  + Cl,c Si Vl,c ∈ Freg 0 Sinon (8.10) 8.3.3.3 Accessibilité Cette contrainte concerne uniquement la forme urbaine : espaces de respiration. Elle spécifie qu’en tout point habité de la ville, on doit pouvoir accéder à un espace de respiration en moins de quinze minutes à pied. Pour un piéton se déplaçant à une vitesse moyenne de 5 km/h, ce temps lui permet de parcourir une distance d’environ 1,25 km, équivalente à la longueur de 15 cellules mises bout à bout. Nous proposons deux versions complémentaires de cette contrainte. La première version dite « contrainte d’accessibilité globale » pénalise les cellules habitées et non couvertes proportionnellement au dépassement142 CHAPITRE 8. MODÈLE FIGURE 8.9 – Contrainte d’accessibilité globale avec une distance de couverture limitée à 4 cellules (en distance de Manhattan) : coût imputé sur chaque cellule habitée et non couverte par un espace de respiration. Dans cet exemple, la cellule marquée « ER » correspond à la seule cellule occupée par un espace de respiration. de leur distance autorisée à n’importe quel espace de respiration. La seconde version intitulée « contrainte d’accessibilité locale » pénalise uniformément les cellules habitées et non couvertes par un espace de respiration. La version globale est plus appropriée que la version locale si le nombre d’espaces de respiration à répartir sur la ville est insuffisant pour couvrir la grille entière, mais son temps de calcul est lié à la taille de la grille et peut donc devenir conséquent. En revanche, la version locale peut être calculée beaucoup plus rapidement dans un espace limité autour de chaque cellule habitée et elle est pertinente si le modèle urbain fournit suffisamment d’espaces de respiration pour couvrir toute la zone à développer. Contrainte d’accessibilité globale À ce niveau, on mesure à quel point la contrainte est violée en quantifiant la violation au lieu de simplement l’observer. La distance entre cellules est mesurée en distance de Manhattan, pertinente pour un déplacement piétonnier en ville. Les coûts correspondants liés à chaque cellule habitée sont illustrés sur la figure 8.9, en supposant qu’il n’y ait qu’un seul espace de respiration (repéré par « ER ») dans la grille, que toutes les autres cellules sont habitées et que la distance de couverture d’un espace de respiration, au dessous de laquelle il n’y a pas de coût, soit fixée avec une distance de Manhattan δ2 = 4 (au lieu de 15 normalement, ceci pour simplifier la représentation). La fonction de coût associée à cette contrainte correspond alors à la somme de toutes les violations pour toutes les cellules habitées. Pour la calculer, il est nécessaire de connaître les positions des espaces de respiration dans la configuration courante, que l’on note ER1, . . . , ERm (en supposant qu’il y ait m espaces de respiration). ER1 = (l, c) signifie que le premier espace de respiration correspond à la variable Vl,c. On note Fhab = {1, 2, 3, 4, 5}, l’ensemble représentant les habitations et correspondant aux formes urbaines suivantes : • 1 maison individuelle ; • 2 maison de ville ; • 3 habitat intermédiaire ; • 4 habitat collectif (R+4) ; • 5 habitat collectif (R+7) ;8.3. MODÈLE DE CONTRAINTE POUR LE PROBLÈME D’AMÉNAGEMENT URBAIN 143 La fonction de coût associée à une cellule Vl,c pour la contrainte d’accessibilité globale vaut : Cost4 (Vl,c) =    min(1≤α≤m) (max (Dman(Vl,c, ERα) − δ2, 0)) Si Vl,c ∈ Fhab 0 Sinon (8.11) où : • m est le nombre d’espaces de respiration ; • δ2 est une constante indiquant le nombre maximum d’îlots à parcourir à pied (distance de Manhattan) pour accéder à un espace de respiration ; • Fhab est l’ensemble représentant les habitations. Contrainte d’accessibilité locale Dans cette version, on s’intéresse aux cellules habitées qui ne sont couvertes par aucun espace de respiration. Contrairement à la contrainte d’accessibilité globale, on observe simplement les violations sans les quantifier. Dès lors, tous les îlots habités sont pénalisés de la même manière dès qu’ils ne sont pas couverts par un espace de respiration, que l’espace de respiration le plus proche soit éloigné ou très éloigné. Bien que la distance de Manhattan soit idéale pour mesurer le parcours d’un piéton en ville, on fait le choix de travailler ici en distance de Tchebychev pour les raisons suivantes : • on ne cherche pas à quantifier les violations ; • on travaille à une échelle locale réduite autour de chaque espace de respiration ; • le nombre d’espace de respiration est suffisant pour couvrir la ville entière (hypothèse de départ pour que cette version soit pertinente) ; • la distance de Tchebychev nous permet d’exploiter directement le voisinage V d l,c pour une distance d égale à la distance de couverture imposée pour chaque espace de respiration (voir l’équation 8.12). Profitons de cette argumentation sur le choix d’une unité de distance pour revenir aux origines de cette version locale et nous permettre une petite intrusion technique. La contrainte d’accessibilité locale est une version volontairement « dégradée » qui a été conçue pour améliorer les performances de la version globale plus élaborée et permettre ainsi un passage à l’échelle. Lors des premières expérimentations, nous avons en effet constaté qu’à partir d’une taille de grille 64 × 64, la version globale devenait trop pénalisante en temps de réponse pour pouvoir être utilisée dans un contexte interactif. D’un point de vue purement opérationnel et technique, l’utilisation du voisinage (représenté par V d l,c) permettait de réutiliser (i) des procédés (algorithmes) et (ii) des données calculées par ailleurs et directement disponibles en cache (cf. section 9.3.1). Pour un espace de respiration repéré aux coordonnées (l, c), sa zone de couverture correspond au voisinage V δ3 l,c, avec δ3 correspondant à la distance de couverture retenue exprimée en distance de Tchebychev. Contrairement à la version globale, on récupère ici le voisinage de couverture associée à chaque espace de respiration et on cumule, au niveau de chaque cellule habitée, le nombre d’espaces de respiration qui les recouvrent. Cette notion est illustrée dans la figure 8.10, en supposant qu’il y ait deux espaces de respiration (repérés par ER1 et ER2) dans la grille, que toutes les autres cellules soient habitées et que δ3 = 4. Les cellules de la grille qui contiennent le chiffre « 1 » sont couvertes par ER1 ou ER2, celles qui contiennent le chiffre « 2 » sont couvertes à la fois par ER1 et ER2. Seul le nombre de cellules habitées non couvertes, c’est à dire celles identifiées par le chiffre « 0 », sont comptabilisées pour déterminer le coût d’une configuration. La fonction de coût associée à cette contrainte correspond alors au nombre total de cellules habitées non couvertes. Pour la calculer, il est nécessaire, comme pour la version globale, de connaître les positions des espaces de respiration dans la configuration courante, que l’on notera de la même manière. La fonction de coût associée à la contrainte d’accessibilité locale pour la variable Vl,c est :144 CHAPITRE 8. MODÈLE FIGURE 8.10 – Contrainte d’accessibilité locale avec une distance de couverture limitée à 4 cellules (distance de Tchebychev) : on indique le nombre d’espaces de respiration qui couvrent chaque cellule habitée. Dans cet exemple, les cellules marquées « ER1 » et « ER2 » correspondent aux cellules occupées par un espace de respiration. Les cellules habitées marquées avec le chiffre « 0 » sont les cellules qui vont alimenter la fonction de coût (pénalité pour chaque cellule sans couverture). Cost4 (Vl,c) =    1 Si (Vl,c ∈ Fhab) ∧ X 1≤α≤m ( 1 Si Vl,c ∈ Vδ3 ERα 0 Sinon = 0 0 Sinon (8.12) où : • m est le nombre d’espaces de respiration ; • δ3 est une constante indiquant le nombre maximum d’îlots à parcourir à pied (distance de Tchebychev) pour accéder à un espace de respiration ; • Fhab est l’ensemble représentant les habitations. 8.3.3.4 Séparation C’est une contrainte inhérente aux espaces tampons ou aux équipements bâtis qui doivent s’intercaler entre certaines formes urbaines ne pouvant pas se toucher. En effet, pour certaines formes urbaines proches les unes des autres, il est demandé qu’elles ne soient pas contiguës (qu’elles ne se touchent pas), et qu’elles soient séparées par un espace tampon ou un équipement bâti lorsqu’elles sont situées à proximité l’une de l’autre. Les formes urbaines suivantes sont considérées comme des espaces tampon : • équipement sportif ; • espace de respiration ; • espace vert Tandis que les équipements bâtis sont représentés par les formes urbaines suivantes : • école maternelle et élémentaire ; • collège ; • lycée ; • équipement administratif ; • équipement technique.8.3. MODÈLE DE CONTRAINTE POUR LE PROBLÈME D’AMÉNAGEMENT URBAIN 145 FIGURE 8.11 – Illustration des séparations simples ou doubles entre la cellule centrale et les cellules de l’anneau périphérique situées à une distance stricte d = 2. Séparation simple Double séparation Par exemple, lorsqu’une maison individuelle et un habitat collectif R+7 se trouvent à proximité l’un de l’autre, nous devons les séparer par un espace tampon. Lorsqu’une maison individuelle est proche d’un habitat collectif R+4, il faut positionner entre les deux îlots un espace bâti. Pour une forme urbaine repérée par Vl,c, on s’intéresse uniquement à ses variables voisines présentes dans l’ensemble V 2 l,c. On note Ω S la matrice de séparation fournie en entrée du problème. Ω S p,q fournit l’ensemble des formes urbaines autorisées pour séparer la forme urbaine p de la forme urbaine q. Soulignons que chaque élément de cette matrice correspond à un ensemble (constitué de formes urbaines), pratique suffisamment inhabituelle pour qu’elle soit précisée. Cette matrice est symétrique, on aura donc Ω S p,q = ΩS q,p. On peut avoir Ω S p,q = ∅ lorsqu’il n’y a pas de contrainte particulière de séparation entre les deux formes urbaines p et q. Pour chaque variable Vi,j située dans le voisinage V 1 l,c, on doit vérifier Ω S Vl,c,Vi,j = ∅. En effet, lorsqu’une séparation est imposée entre deux formes urbaines, celles-ci ne doivent pas être contiguës. D’autre part, pour chaque cellule Vi,j située sur l’anneau de voisinage V¯2 l,c, si Ω S Vl,c,Vi,j 6= ∅, il faut vérifier que les formes urbaines positionnées sur les cellules qui séparent Vl,c et Vi,j appartiennent bien à l’ensemble Ω S Vl,c,Vi,j . La notation S(Vl,c, Vi,j ) désigne l’ensemble des formes urbaines positionnées sur les cellules qui sé- parent Vl,c et Vi,j . Cet ensemble peut contenir un ou deux éléments comme le montre la figure 8.11 qui indique les variables de séparation entre la cellule centrale V3,3 et ses cellules voisines Vi,j situées à une distance stricte d = 2. Par exemple, S(V3,3, V1,1) contient la forme urbaine de V2,2 et S(V3,3, V1,2) contient les formes urbaines de V2,2 et de V2,3. La fonction de coût pour la variable Vl,c peut alors s’exprimer ainsi : Cost5 (Vl,c) = X v∈V1 l,c ( 1 Si  Ω S Vl,c,v 6= ∅  0 Sinon + X v∈V¯2 l,c ( S(Vl,c, v)\Ω S Vl,c,v Si  Ω S Vl,c,v 6= ∅  0 Sinon (8.13) 8.3.3.5 Emprise au sol Le principe est le suivant : pour des formes urbaines particulières (maison individuelle, maison de ville, habitat intermédiaire ou collectif, bâtiment tertiaire) que l’on trouve dans le voisinage proche d’un collège ou d’un lycée, il faut réserver une surface autour de l’école, en positionnant, à coté de l’édifice, un nombre plus ou moins important d’espaces verts.146 CHAPITRE 8. MODÈLE FIGURE 8.12 – Emprise au sol : le nombre d’espaces verts au pied d’un collège ou d’un lycée est imposé et ce nombre dépend de la présence de certaines formes urbaines particulières à proximité de l’établissement. Par exemple, si on ne trouve à proximité d’un collège que des maisons individuelles, des maisons de ville ou de l’habitat intermédiaire, il faut prévoir au moins un espace vert à côté de l’école. Cependant, dès qu’il y a de l’habitat collectif ou des bâtiments tertiaires aux environs du collège, nous devons prévoir une surface plus importante constituée d’au moins deux espaces verts (cf. figure 8.12). On note Ω E la matrice qui contient le paramétrage d’emprise au sol, tel que Ω E p,q identifie le nombre minimum d’espaces verts à positionner autour de la forme urbaine p compte tenu de la proximité de la forme urbaine q. Cette matrice est asymétrique, donc Ω E p,q peut être différent de Ω E q,p. On peut également avoir Ω E p,q = 0 lorsqu’il n’y a pas de conditions particulières d’emprise au sol entre les deux formes urbaines p et q. Concernant la proximité liée à une forme urbaine Vl,c de référence, seules les cellules voisines représentées par l’ensemble V 4 l,c sont considérées. Soit : • Fres l’ensemble des formes urbaines concernées par la réservation d’un ou de plusieurs espaces verts dans leur voisinage immédiat (i.e. collège et lycée) ; • EV représentant la forme urbaine « espace vert », Si Vl,c ∈ Fres, le coût associé à cette variable correspond au nombre d’espaces verts manquants à proximité immédiate de Vl,c : Cost6 (Vl,c) = ( max max(v∈V4 l,c)  Ω E Vl,c,v − V 1 l,cBEV  , 0  Si (Vl,c ∈ Fres) 0 Sinon (8.14) 8.3.3.6 Filtrage et diversité Cette contrainte est liée aux centralités (voir la section 8.2.1.2). Les centralités sont identifiées par des cellules spéciales marquées par l’utilisateur pour représenter le centre d’un quartier. Elles peuvent regrouper une, deux ou quatre cellules contiguës pour former une centralité plus ou moins importante, ces cellules pouvant être séparées par une route. Chaque cellule centralité est identifiée par l’utilisateur. On parlera indifféremment de « centralité » pour faire référence soit à une cellule marquée par l’utilisateur, soit à un groupe de cellules appartenant à la même centralité. Cette contrainte est utilisée pour (cf. figure 8.13) :8.3. MODÈLE DE CONTRAINTE POUR LE PROBLÈME D’AMÉNAGEMENT URBAIN 147 FIGURE 8.13 – Filtrage et diversité des formes urbaines sur chaque centralité : la centralité principale est constituée de quatre cellules repérées par l’utilisateur avec la lettre « C » et disposées de part et d’autre d’un axe routier important (avenues). Les formes urbaines positionnées sur ces cellules doivent être « 6= » entre elles pour favoriser la diversité et un filtre « F » limite les formes urbaines pouvant prendre place sur chaque cellule. • filtrer les formes urbaines pouvant occuper une centralité (cellule) ; • participer à la diversité des formes urbaines localisées sur une même centralité (groupe). Pour calculer cette contrainte, il est nécessaire de connaître l’ensemble des cellules repérées par l’utilisateur comme étant des centralités, que l’on note Vcent = {Vi,j , . . . , Vk,l}, Vi,j correspondant à la première centralité et Vk,l à la dernière. On note Fcent = {10, 12, 13, 14, 17, 18}, l’ensemble des formes urbaines autorisées à être positionnées sur une centralité et correspondant aux formes urbaines suivantes : • 10 : commerce et service de centre ville ; • 12 : école maternelle et élémentaire ; • 13 : collège ; • 14 : lycée ; • 17 : équipement sportif ; • 18 : espace vert. Pour une variable Vl,c, la centralité (groupe) qui lui est associée correspond à toutes ses cellules voisines repérées comme des centralités par Vcent, ces cellules pouvant être séparées par une route. Pour prendre en compte cette séparation éventuelle et regrouper des centralités non contiguës (séparées par une route), on considère un voisinage complet V 2 l,c, pour ne retenir que les cellules marquées comme des centralités. On note Cl,c la centralité (groupe) associée à la variable Vl,c tel que : Cl,c =  Vi,j , Vi,j ∈ V 2 l,c ∪ Vl,c ∩ Vcent (8.15) Pour une cellule Vl,c liée à une centralité (cellule), son coût correspond à une pénalité composée des éléments suivants : 1. un coût fixe (défini à 10) si la cellule Vl,c est associée à une forme urbaine non autorisée ; 2. le nombre des cellules de la centralité associées à une forme urbaine non autorisée ; 3. la différence entre le nombre de cellules de la centralité (|Cl,c|) et la diversité des formes urbaines autorisées qui leur sont imputées FcentBCl,c  .148 CHAPITRE 8. MODÈLE Compte tenu de ces éléments, le coût global associé à la cellule Vl,c peut s’écrire ainsi : Cost7 (Vl,c) =       10 Si Vl,c ∈ F/ cent 0 Sinon + X v∈Cl,c    1 Si (v /∈ Fcent) 0 Sinon + |Cl,c| − FcentBCl,c Si Vl,c ∈ Vcent 0 Sinon (8.16) 8.4 Conclusion « Pour construire un modèle qui sera souvent unique en son genre, l’informaticien doit être capable d’écouter, d’aider, de faire et de refaire : il doit renoncer à venir avec ses modèles tout faits qui seraient à prendre ou à laisser » [220]. Conformément aux préconisations de Jean-Charles POMEROL, c’est au prix d’efforts importants et de nombreuses réunions que nous sommes parvenus à réaliser avec l’aide indispensable des praticiens de la ville cette modélisation. Nous ne reprenons ici que les éléments essentiels retenus parmi une multitude de notions mises en lumière pendant des heures et des heures d’échanges passionnants et de formalisation, de nombreuses propositions de toutes parts ou d’explorations successives, parfois des abandons ou des retours en arrière. Un travail d’écoute, de compréhension et d’analyse en continu nous a permis, progressivement, de dégager et de mettre en forme des propriétés et des contraintes « à gros grain » caractéristiques d’une pré-programmation à la base de cette représentation formelle. Nous nous intéressons plus particulièrement à une représentation symbolique de la ville qui permet de simplifier une réalité trop complexe pour être complètement appréhendée. Notre modèle de contrainte pour ce problème d’aménagement urbain reste volontairement simple pour qu’il puisse être compris par les décideurs, élément crucial pour qu’il soit accepté et utilisé dans la pratique. Malgré la particularité du problème, la modélisation proposée reste générique et repose sur les notions de voisinage et d’interaction entre formes urbaines, complétées par des contraintes plus spécifiques permettant de renforcer les aspects durables dans notre modèle. Dans ce cadre symbolique, la majorité des contraintes a pu être traduite en fonctions de coût pour exprimer des préférences de positionnement. Dès lors, l’objectif consiste à rechercher une configuration qui minimise un coût global traduisant le meilleur compromis entre les différentes préférences. Ce modèle peut être résolu indifféremment par des méthodes complètes ou incomplètes. Il est prévu pour représenter des villes importantes comme l’exemple de Marne-la-vallée (8 728 hectares pour 234 644 habitants) illustré au début de ce chapitre. De plus, il sera exploité dans un cadre interactif où l’utilisateur peut interagir avec la résolution pour traduire des aspects impossibles à représenter dans le modèle. En effet, un système interactif d’aide à la décision (ou SIAD, voir le chapitre 6) doit rester un modèle inachevé [220], ce qui participe à son acceptation par les utilisateurs qui conservent une part non négligeable de liberté. Sans incertitude, la résolution du modèle pourrait être totalement robotisée sans laisser de place au processus de décision. Au contraire, la part d’incertitude qui reste dans les mains des opérateurs est une façon d’améliorer les processus de décision sans les bouleverser. C’est justement parce que l’on ne sait pas terminer le modèle qu’il est indispensable d’avoir un décideur devant l’écran pour l’achever. L’interactivité représente alors une part inexprimable de la modélisation pour des problèmes non structurés, c’est à dire impossibles à décrire entièrement.9 Résolution initiale basée sur Adaptive Search Le problème d’aménagement urbain qui nous intéresse peut être vu comme une variante du problème de positionnement d’équipements [80, 218] (Facility Location Problem, Cf. section 7.5), mais dans lequel tous les éléments urbains doivent être placés simultanément. Ce problème est fortement combinatoire [199, 200, 282]. Par conséquent, il est difficile de le résoudre lorsque le nombre de variables devient important. De plus, nous devons faire face à deux exigences spécifiques liées au contexte applicatif. Premièrement, l’algorithme doit être capable de passer à l’échelle pour se mesurer à des dimensions de villes réelles, avec une taille pouvant atteindre 10 000 cellules libres pour une surface totale de plus de 80 km2 (correspondant aux éléments libres et fixes). Deuxièmement, les utilisateurs (urbanistes et décideurs) doivent pouvoir garder la main sur le système, en modifiant de façon interactive l’emplacement des éléments urbains, ceci pour répondre à leurs propres représentations et attentes. Pour satisfaire ces deux exigences, nous avons conçu un même système qui intervient à deux étapes de résolution distinctes. Dans la première étape, qui correspond plus particulièrement à ce chapitre, le système calcule et propose une ou plusieurs bonnes solutions répondant aux contraintes urbaines. Et pour adresser le problème de complexité, nous avons développé une technique de résolution spécifique pour gérer efficacement la répartition des calculs sur plusieurs processeurs. La seconde étape est interactive et sera décrite en détail dans le prochain chapitre (cf. chapitre 10). 9.1 Choix d’une méthode de résolution Une première tentative pour résoudre notre problème s’est appuyée sur les techniques complètes [222] de programmation par contraintes [16, 97, 9, 233]. Un tout premier prototype a été conçu avec le solveur CHOCO [147] pour une partie seulement des contraintes principales avec 17 formes urbaines différentes (au lieu de 28) : • cardinalité liée à chaque forme urbaine ; • interactions entre formes urbaines pour un voisinage limité à une distance maximale d’une seule cellule. Ce prototype a été évalué sur une grille 16×16 avec un serveur de test du LINA1 . Mais au bout de 12 jours, le traitement a dû être interrompu faute de résultats. Dans le même contexte technique, nous avons réalisé un second prototype plus limité de placement des formes urbaines basé sur un algorithme de type glouton [85] (cf. section 5.5.1). Au lieu de répartir simul- 1Dell M610 quadri coeurs multithreadés (l’équivalent de 16 cœurs) Xeon E5620 à 2,40GHz, et 16 Go de RAM. 149150 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH tanément toutes les formes urbaines sur la grille, cette version positionnait une à une les formes urbaines sur la ville sans remettre en cause les choix précédents. On intégrait une seule forme urbaine à la fois dans le problème et lorsque sa position optimale était trouvée (cellule), on fixait la variable qui lui était associée (devenant une constante du problème). Le processus se poursuivait alors en injectant une nouvelle forme urbaine dans le problème, en itérant jusqu’à ce que toutes les formes urbaines soient réparties sur l’espace urbain. Avec cette formule simplifiée, l’ordre dans lequel les formes urbaines sont sélectionnées joue bien entendu un rôle déterminant dans la qualité des solutions obtenues. Pour remplir une grille complète 16 × 16 composée de 206 variables libres au départ (les autres formes urbaines étant liées à des éléments fixes comme des routes ou des rivières), une résolution avec ce second prototype ne nécessitait plus qu’une vingtaine de minutes. Notre problème est bien plus complexe que cette version simplifiée et sa taille typique peut atteindre 10 000 variables. De plus, une résolution avec des algorithmes gloutons ne conduit pas à des solutions de bonne qualité, ces algorithmes étant plutôt réservés à la génération de solutions initiales pouvant ensuite être améliorées. Enfin, le temps de résolution en contexte interactif doit être très rapide et ne pas dépasser quelques secondes [258]. Compte tenu de ces premiers résultats, nous avons abandonné l’idée d’une résolution avec des méthodes complètes et opté pour une méthode de résolution incomplète [2, 127] basée sur les techniques de recherche locale [177, 153, 42, 111, 112, 113, 115, 125]. Nous décrivons par la suite nos travaux réalisés sur les bases de la métaheuristique Adaptive Search [47, 48, 10] (cf. section 5.6.9) en commençant par la génération d’une configuration initiale. 9.2 Configuration initiale Pour créer une configuration initiale soumise ensuite au processus de résolution, nous proposons deux heuristiques différentes pouvant être activées/désactivées selon un paramètre de l’application : • une initialisation aléatoire simple ; • une initialisation gloutonne aléatoire [245, 143](cf. section 5.5.2) qui cherche à positionner en priorité les formes urbaines les plus contraintes. Dans la suite de ce chapitre, nous employons le terme « coût » pour désigner une pénalité calculée par les fonctions de coût liées à notre modélisation (voir chapitre 8) ; ce coût pouvant être associé, compte tenu du contexte d’utilisation, soit à une cellule de la grille, soit à la grille entière (coût d’une configuration), soit représenter une variation de ces coûts. 9.2.1 Initialisation aléatoire Dans un premier temps, cette heuristique constitue une liste « A » qui répertorie par niveau d’intensité des listes « B » contenant les quantités à allouer (nombre d’îlots à occuper) par forme urbaine (cf. figure 9.1). Par exemple, la liste « B[1] » indique qu’il y a 10 maisons individuelles (forme urbaine no 1) à répartir sur des cellules d’intensité 1 ; 8 maisons de ville (forme urbaine no 2) à répartir sur des cellules d’intensité 1 ; et 20 espaces de respiration (forme urbaine 19) à répartir sur des cellules d’intensité 1 ; etc. L’heuristique parcourt ensuite la grille en sélectionnant une à une chaque cellule libre. Pour la cellule courante, elle récupère son niveau d’intensité et recherche, à partir de la liste « A », la liste « B » associée à ce niveau d’intensité. Si il n’y a plus d’élément disponible dans la liste « B » trouvée, une erreur d’incohérence est émise indiquant qu’il n’y a pas suffisamment de formes urbaines allouées pour ce niveau d’intensité. Dans le cas contraire, un élément de la liste « B » est choisi aléatoirement. On récupère la forme urbaine correspondante et on l’assigne à la cellule courante. La quantité à allouer liée à cette forme urbaine est décrémentée et lorsqu’elle devient nulle, l’élément correspondant de la liste « B » est supprimé. A la fin du processus, toutes les listes « B » doivent être vides. Dans le cas contraire, il s’agit d’une seconde incohérence et un message d’anomalie est émis indiquant qu’il y a trop de formes urbaines à9.2. CONFIGURATION INITIALE 151 FIGURE 9.1 – Initialisation aléatoire : structures de données utilisées pour créer une solution initiale. allouer par rapport au nombre de cellules libres. 9.2.2 Initialisation gloutonne aléatoire Cette initialisation repose sur un paramétrage de l’application (cf. table 9.2) qui définit pour chaque forme urbaine : • la priorité de placement (première colonne représentant le classement) ; • le mode de sélection d’une cellule (dernière colonne « random » avec la valeur vrai ou faux). Le classement représente la difficulté de placement de chaque forme urbaine. Il cherche à traduire le poids des contraintes qui pèse sur chaque forme urbaine. En effet, par rapport aux contraintes spécifiques, seules quelques formes urbaines sont concernées : certaines peuvent donc être plus contraintes que d’autres non concernées par les contraintes spécifiques. L’idée générale consiste alors à positionner en priorité sur la grille les formes urbaines pour lesquelles il y a un maximum de contraintes qui s’exercent. Le mode de sélection d’une cellule indique comment on doit, pour une forme urbaine donnée, choisir une cellule parmi les cellules libres et disponibles dans la grille (i.e. sans affectation de forme urbaine). Si « Random = vrai », on choisit une cellule au hasard sinon on choisit la cellule qui génère le coût d’affectation minimum. 9.2.2.1 Fonctionnement de l’heuristique L’heuristique considère une à une chaque catégorie de forme urbaine en fonction du classement prioritaire spécifié par le paramétrage (industrie, . . . , espace de respiration). Pour la forme urbaine courante, on récupère la liste « B » qui lui est associée et qui contient les quantités à allouer de cette forme urbaine, ces quantités étant ventilées par niveau d’intensité (cf. figure 9.3). Chaque élément présent dans la liste « B » sélectionnée vient s’insérer dans une liste « C » temporaire qui contient autant d’éléments qu’il y a d’allocations prévues, chaque élément représentant une affectation à prévoir pour le niveau d’intensité spécifié. Tant que la liste temporaire « C » n’est pas vide, on choisit un élément aléatoire dans cette liste (une intensité) que l’on retire de la liste. A ce stade, on dispose d’une allocation à réaliser pour : (i) une forme152 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH FIGURE 9.2 – Initialisation gloutonne : paramétrage, par forme urbaine, de la priorité de placement et du mode de sélection d’une cellule. On commence par positionner l’industrie (no 1) et on termine par le placement des espaces de respiration (no 19). La colonne « random » indique si on doit choisir une cellule disponible au hasard ou si on choisit celle qui génère un coût d’affectation minimum. No Forme urbaine Random 1 Industrie faux 2 Parc d’entreprises faux 3 Collège faux 4 Lycée faux 5 Maison individuelle vrai 6 Maison de ville vrai 7 Habitat intermédiaire faux 8 Bureau, grand immeuble (R+7) faux 9 École maternelle et élémentaire faux 10 Équipement administratif faux No Forme urbaine Random 11 Équipement technique faux 12 Équipement sportif faux 13 Habitat collectif (R+7) faux 14 Bureau, petit immeuble (R+4) faux 15 Habitat collectif (R+4) faux 16 Commerce et service de centre ville faux 17 Hypermarché faux 18 Espace vert faux 19 Espace de respiration faux urbaine prioritaire et (ii) une intensité tirée aléatoirement. On récupère alors la liste « D » des cellules libres, et sans affectation, pour ce niveau d’intensité. Si la liste « D » est vide, une anomalie est émise indiquant qu’il n’y a pas assez de cellules disponibles par rapport au nombre de formes urbaines à ventiler sur la ville. Dans le cas inverse, on détermine la cellule disponible qui recevra la forme urbaine. Pour cela, deux possibilités se présentent en fonction du « mode de sélection d’une cellule » (colonne « random ») paramétré pour la forme urbaine : • soit on sélectionne un élément de façon aléatoire dans la liste « D » (une cellule) ; • soit on recherche, parmi toutes les cellules de la liste « D », la cellule avec le coût le plus faible. Pour identifier la cellule la moins coûteuse, on évalue pour chaque cellule de la liste « D » le coût que représenterait l’affectation de la forme urbaine courante et on retient la cellule avec le coût minimum (si il y a plusieurs cellules avec le même coût minimum, on fait un tirage aléatoire parmi ces cellules). Pour la cellule retenue (quelle que soit la valeur du paramètre mode aléatoire), on lui attribue la forme urbaine courante et on retire cette cellule de la liste « D » des cellules libres pour le niveau d’intensité. 9.2.2.2 Évaluation du coût lié à une affectation Nous verrons que notre algorithme d’optimisation (cf. section 9.3) réalise une série de permutations (i.e. échanges des valeurs entre deux variables) afin d’améliorer pas à pas le coût global d’une solution de dé- part. Or, la procédure gloutonne d’initialisation cherche à positionner à chaque itération une forme urbaine donnée à moindre coût sur une cellule libre, sans passer par ce mécanisme des permutations. Afin de mutualiser ces procédures, notamment les fonctions de calcul incrémental décrites en section 9.3.1, nous avons introduit la forme urbaine « non défini » portant le code « 0 » qui occupe initialement toutes les cellules libres de la grille, aucune contrainte n’étant définie sur cette forme urbaine. On cherche alors à évaluer le remplacement de la forme urbaine « non défini » de chaque cellule libre par une autre forme urbaine à positionner, cette opération de placement devenant pour une large partie similaire à une permutation. 9.3 Algorithme séquentiel Nous avons retenu la méthode Adaptive Search (AS) qui a prouvé son efficacité sur des instances variées et de grandes tailles [47]. Cette méthode nous permet d’améliorer, tant que c’est possible, une solution9.3. ALGORITHME SÉQUENTIEL 153 FIGURE 9.3 – Initialisation gloutonne : structures de données utilisées pour créer une solution initiale. courante par une succession de permutations (échange des valeurs entre deux variables) dans le but d’approcher le plus rapidement possible une solution optimale. En plus d’exploiter la fonction de coût global, cette métaheuristique tire avantage de la structure du problème en termes de contraintes et de variables pour guider la recherche. Pour chaque contrainte, une fonction d’erreur doit être définie afin de fournir, pour chaque tuple "va-154 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH Algorithme 11 : Notre algorithme séquentiel dérivé de la méthode Adaptive Search de base 1 /* Paramètres : maxRestart est le nombre maximum de réinitialisations partielles de l’algorithme f est la fonction de coût globale, fi est la fonction de coût pour la variable Vi s est la configuration courante best est la meilleure configuration trouvée T est la liste des candidats bannis j est l’index de la variable avec le pire coût (candidat) */ 2 best ← s ← configuration initiale ; 3 while (maxRestart non atteint) do 4 T ← ∅ ; 5 while (T ne contient pas la totalité des variables) do 6 forall (i tel que Vi ∈/ T) do 7 Calculer fi(s) ; 8 Sélectionner Vj une variable pour laquelle fj (s) est maximum (avec Vj ∈/ T) ; 9 Calculer le coût f des configurations voisines obtenues à partir de s en échangeant Vj avec une autre variable ; Sélectionner s 0 la configuration pour laquelle f(s 0 10 ) est minimum; if (s 0 11 peut améliorer la solution courante s) then 12 Modifier T en supprimant sa variable la plus ancienne ; s ← s 0 13 ; else 14 T ← T ∪ {Vj}; 15 if (s est meilleure que best) then 16 best ← s; 17 Réinitialiser un certain pourcentage de variables dans s en réalisant des permutations aléatoires ; 18 return best riable | valeur", une indication sur son degré de violation [99, 272]. AS procède à une réparation itérative sur la base des erreurs liées aux variables et aux contraintes, en cherchant à réduire l’erreur sur la variable ayant le coût le plus élevé. Pour cela, on calcule la fonction d’erreur pour chaque contrainte, puis on combine pour chaque variable les erreurs de toutes les contraintes où elles apparaissent, ce qui permet de projeter les erreurs des contraintes sur les variables correspondantes. La procédure qui permet de transférer les erreurs des contraintes sur les variables est problème-dépendant. On peut retrouver une description détaillée de la métaheuristique AS dans sa version générale en section 5.6.9. Pour ce qui nous concerne, nous proposons dans un premier temps une implémentation séquentielle (cf. algorithme 11) directement dérivée de la version originale. Notre algorithme démarre à partir d’une configuration initiale générée soit par une affectation aléatoire, soit par une affectation gloutonne aléatoire : un paramètre permet d’identifier le mode d’initialisation à utiliser (cf. section 9.2). À ce stade, nous nous assurons que l’assignation initiale respecte à la fois le niveau d’intensité de chaque cellule et le nombre donné de cellules de chaque forme urbaine (de façon analogue à la contrainte unaire de correspondance des niveaux d’intensité et de cardinalité liée à chaque forme urbaine). L’algorithme réalise alors une variante de la méthode de réparation itérative (Iterative Repair), basée sur les données d’erreur relatives aux variables et aux contraintes, cherchant à réduire à chaque itération l’erreur sur la variable de pire coût [192]. Notre modélisation (cf. chapitre 8) permet de calculer la fonction de coût de chaque contrainte combinée à chaque variable pour toutes les contraintes où elle apparaît, projetant directement les erreurs identifiées par les contraintes sur chaque variable. Pour obtenir un coût total par9.3. ALGORITHME SÉQUENTIEL 155 variable, nous pondérons les coûts des contraintes de sorte que les contraintes peuvent avoir une priorité différente. À chaque itération, la variable avec l’erreur la plus importante est désignée comme « le candidat » choisi pour être à l’origine d’une permutation, c’est à dire impliqué dans un échange de sa valeur avec une autre variable. Dans cette étape, on considère toutes les permutations possibles impliquant le « candidat » en choisissant la meilleure permutation, c’est à dire la permutation qui permettra de minimiser le plus possible le coût global de la configuration courante. Cependant, il y a des restrictions à l’ensemble des échanges considérés : nous pouvons échanger les valeurs de deux cellules uniquement si elles possèdent des formes urbaines différentes (sinon l’échange est neutre) et si elles sont affectées au même niveau d’intensité, ceci afin de satisfaire la contrainte d’intensité à tout moment. Cette politique liée aux permutations assure que la contrainte de correspondance des niveaux d’intensité est maintenue satisfaite à chaque itération, tout comme la contrainte de cardinalité des formes urbaines. L’algorithme utilise également une mémoire dynamique de court terme dans l’esprit de la recherche tabou [111, 112, 113, 115, 125], que nous intitulerons « liste des candidats bannis ». Notons que seuls les candidats incapables d’améliorer le coût global sont marqués bannis (aucune permutation avec une autre variable ne permet de diminuer le coût global de la configuration courante). Tant qu’une variable appartient à la liste des candidats bannis, elle ne peut pas être considérée comme un candidat pour les itérations suivantes. Lorsque l’algorithme est bloqué car toutes les variables sont bannies, il redémarre en permutant sur la configuration courante un pourcentage donné de variables choisies aléatoirement. Néanmoins, avant de réaliser une permutation à partir de deux variables choisies au hasard, le système vérifie que l’échange des valeurs entre les deux variables soit autorisée (i.e. même intensité, formes urbaines différentes, . . . ). Le nombre de relances et de variables à réinitialiser dépendent de paramètres configurables. Dans les sections suivantes, nous commençons par décrire une série d’optimisations mises en œuvre pour améliorer de façon significative la vitesse des calculs avant d’étudier en détail le fonctionnement de la liste des candidats bannis. En vue de distribuer efficacement l’algorithme AS et de pouvoir comparer les gains obtenus avec la version séquentielle, nous introduisons dès à présent deux nouvelles fonctionnalités : le mode « multi-candidats » et le mode « multi-permutations ». 9.3.1 Cache de données et calcul incrémental Pour améliorer la vitesse des calculs, nous utilisons différents caches de données pour toutes les informations qui nécessitent un accès fréquent, les données mémorisées pour chaque contrainte étant problèmedépendant. À titre d’exemple, on mémorise les éléments suivants : • objets généraux pouvant être réutilisés fréquemment sans devoir être recréés (e.g. positions, cellules, candidats, permutations, configurations, . . . ) ; • coût global de la configuration courante ; • mesure du coût d’accessibilité sur chaque cellule habitée pour chaque point d’origine (cellule occupée par un espace de respiration) pour la contrainte d’accessibilité globale ; • nombre d’espaces de respiration qui recouvre chaque cellule habitée pour la contrainte d’accessibilité locale ; • constitution des groupes (zone industrielle, artisanale, etc.) avec leur structure et les coûts associés ; • les voisinages de chaque cellule pour la contrainte d’interactions entre formes urbaines ; • . . . . A chaque fois qu’une permutation est appliquée, un mécanisme générique associé à chaque contrainte permet de supprimer le cache de données dépendant des deux cellules concernées, de sorte qu’à la prochaine interrogation des données en cache, ces informations soient recalculées localement pour être à nouveau disponibles.156 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH Pour évaluer l’impact d’une permutation, nous déterminons également tous les coûts de chaque contrainte de façon incrémentale, en calculant uniquement la différence de coût induite par la permutation sur une configuration donnée (cf. sections 5.6.3.4 et 7.5.2.2). Néanmoins, ce coût incrémental peut être déterminé pour une permutation potentielle sans devoir modifier la configuration, ce qui est très utile, notamment vis à vis du cache de données qui peut ainsi rester intact. Ceci est possible en considérant un objet spécial nommé swap transmis systématiquement à la méthode chargée de récupérer la forme urbaine d’une cellule pour une configuration donnée (voir l’algorithme 12). Algorithme 12 : Fonction permettant de récupérer la forme urbaine d’une configuration à la position (row, col) en considérant un composant de permutation noté swap. 1 if (swap) then 2 if ((row = swap.fromRow) et (col = swap.fromCol)) then 3 return getUrbanFrom(swap.toRow, swap.toCol) ; 4 if ((row = swap.toRow) et (col = swap.toCol)) then 5 return getUrbanFrom(swap.fromRow, swap.fromCol); 6 return getUrbanFrom(row, col) ; 9.3.2 Liste des candidats bannis Le fonctionnement de la liste des candidats bannis est inspiré de la liste tabou (voir descriptif de la recherche tabou en section 5.6.8). La liste des candidats bannis permet d’éliminer temporairement du processus de recherche les « mauvais » candidats. Les mauvais candidats sont des variables qui ont eu les coûts les plus importants à un moment donné mais qui ont néanmoins été incapables de participer, en lien avec une autre variable, à une permutation permettant d’améliorer la solution courante du moment (en diminuant son coût global). Cette liste évite donc à l’algorithme de boucler sur un mauvais candidat. Cependant, ce n’est pas sa seule utilité : elle permet également d’améliorer les performances du système. En éliminant temporairement un mauvais candidat du processus de recherche, on fait l’hypothèse suivante : un candidat identifié comme mauvais à un moment donné risque de rester mauvais un certain temps, ce délai (évalué en nombre d’itérations) s’allongeant au fur et à mesure que le processus de résolution progresse. En retirant momentanément du circuit ces variables, on évite à l’algorithme d’évaluer inutilement une série de permutations générées à partir de candidats potentiellement défaillants. On réduit ainsi la complexité de la métaheuristique grâce à une réduction de la taille du voisinage à évaluer à chaque itération et on améliore de fait sa rapidité. Il s’agit d’une liste dynamique de type FIFO2 dont la dimension augmente avec le temps. Lorsqu’elle est pleine (i.e nombre d’éléments présents dans la liste = dimension courante de la liste), l’ajout d’un nouvel élément provoque la sortie du plus ancien. Sa dimension initiale est déterminée en pourcentage par rapport au nombre de variables libres de l’instance. Typiquement, ce pourcentage peut être fixé à 25 %. Ensuite, sa dimension va évoluer par palier jusqu’à atteindre le nombre total de variables libres de l’instance. A chaque palier, la dimension de la liste progresse d’un certain pourcentage (e.g. +25 %) par rapport à sa dimension courante. Reste à déterminer le moment où interviennent ces paliers ? La dimension de la liste reste stable tant que l’algorithme peut identifier un bon candidat sur une itération (i.e un candidat capable de produire au moins une permutation qui améliore la solution courante) ou tant que la liste n’est pas pleine. Si à l’issue d’une itération donnée le candidat sélectionné s’avère mauvais3 et si la liste est pleine, alors un palier d’extension est sollicité par la métaheuristique pour tenter d’agrandir 2First In, First Out 3Dans le mode multi-candidats (voir la section 9.3.3), lire : « si tous les candidats sélectionnés s’avèrent mauvais ».9.3. ALGORITHME SÉQUENTIEL 157 la dimension de la liste. Dans cette situation, on considère en effet que la capacité de la liste n’est plus suf- fisante pour contenir l’ensemble des mauvais candidats et qu’il faut l’agrandir dans la limite de sa capacité maximale autorisée, égale au nombre de variables libres. Lorsque la liste a atteint sa capacité maximale et qu’elle est pleine, plus aucun candidat ne peut être trouvé car ils sont tous bannis. Dans ce cas de figure extrême, deux possibilités se présentent en fonction des paramètres de configuration4 retenus : • soit une perturbation de la solution courante est appliquée (cf. algorithme 11, lignes 3, 5 et 17) avant de relancer la résolution ; • soit on enchaîne directement sur une nouvelle itération après avoir vidé la liste de son contenu (suppression de tous les candidats bannis) pour donner la possibilité à certains candidats précédemment bannis de se racheter ; ce procédé étant similaire au mécanisme d’aspiration [66, 131] décrit pour la méthode tabou [111] (cf. section 5.6.8). Dans les deux cas, l’opération en question peut être répétée dans la limite d’un nombre d’occurrences paramétrable. 9.3.3 Mode multi-candidats Dans l’algorithme général AS, une seule variable à la fois peut être désignée comme candidat pour rechercher une permutation en lien avec les autres variables, qui puisse minimiser le coût global de la configuration courante. Nous introduisons un mode multi-candidats où un ensemble restreint de variables associées aux coûts les plus importants d’une même configuration sont sélectionnées pour rechercher la meilleure permutation, le nombre de candidats à considérer étant un paramètre de l’application (cf. algorithme 13). Un composant logiciel dédié a été conçu pour maintenir une liste de variables triée par ordre décroissant de coût et limitée en nombre d’éléments. Lorsque la liste est pleine, l’introduction d’un nouvel élément permet soit de l’intégrer en retirant l’élément de plus faible coût, soit de ne rien faire si le nouvel élément a un coût inférieur ou égal au dernier élément de la liste. Dans un premier temps, on parcourt séquentiellement la grille en vérifiant que la variable courante ne soit ni fixe, ni bannie. On récupère son coût disponible en cache et on l’injecte dans ce composant. Lorsque toutes les variables ont été évaluées, on dispose d’une liste avec les meilleurs candidats de la configuration courante. Il reste alors, dans un deuxième temps, à évaluer chaque candidat avec la totalité des autres variables libres pour trouver la meilleure permutation. Au cours de cette procédure, si on ne trouve aucune permutation favorable pour un candidat donné, le candidat en question est inséré dans la liste des candidats bannis. Si on ne trouve aucune permutation favorable pour l’ensemble des candidats, alors on vérifie l’état de la liste des candidats bannis. Si elle n’est pas pleine ou si elle peut encore être agrandie, on relance la procédure courante (recherche des meilleurs candidats et de la meilleure permutation). Dans le cas contraire, soit on vide la liste des candidats bannis et on relance la procédure courante, soit la procédure se termine. Pour justifier ce mode de fonctionnement, il faut prendre en considération les deux remarques suivantes qui sont complémentaires. Premièrement, notre algorithme cherche à se diriger le plus rapidement possible vers une solution optimale en réparant au mieux, à chaque itération, la configuration courante. Or, la plus mauvaise variable peut ne pas être celle qui conduira à la meilleure permutation (i.e. la meilleure réparation). Chercher la meilleure permutation en se basant sur plusieurs candidats augmente nos chances de trouver la meilleure permutation liée à la configuration courante. Toutefois, cette recherche impliquant plusieurs candidats, le nombre de permutations à évaluer devient supérieur, ce qui occasionne un temps de traitement supérieur. Deuxièmement, dans un mode distribué, la recherche de la meilleure permutation pour plusieurs candidats peut être réalisée en parallèle, chaque processus évaluant les permutations d’un candidat. Dans ce cas, le temps de calcul global pour tous les candidats reste identique à l’évaluation d’un seul candidat, mais la chance de trouver une permutation de meilleure qualité devient supérieure. 4Ne pas confondre la configuration qui regroupe l’ensemble des paramètres qui conditionnent le fonctionnement du solveur avec la notion de configuration équivalente à une affectation.158 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH Algorithme 13 : Mode multi-candidats 1 /* Paramètres donnés en entrée : • maxCandidates est le nombre maximum de meilleurs candidats à sélectionner • s est la configuration courante • fi(s) est la fonction de coût de la variable Vi pour la configuration s • T est la liste des candidats bannis • EVAL(s, Vi , Vj ) est la fonction qui évalue sur la configuration s le gain pour un échange des valeurs entre les deux variables Vi et Vj • VERIFIER(s, T) est la fonction qui gère T si aucune permutation gagnante n’existe pour s */ 2 /* Variables de travail : • bestCandidates est la liste triée (par ordre de coût décroissant) des meilleurs candidats • metCandidates est la liste des meilleurs candidats déjà traités • 4cost est le gain pouvant être apporté à s en échangeant les valeurs de deux variables • bestDeltaCost est le meilleur gain qu’un candidat peut apporter à s en échangeant sa valeur avec celle d’une autre variable • improvement est un booléen à true si au moins une permutation permet d’améliorer le coût de s • worstCost est le coût du candidat de bestCandidates le moins bien classé (dernier de la liste) */ 3 worstCost ← 0 ; 4 bestCandidates ← ∅ ; forall (i tel que : Vi ∈/ T et Vi 5 libre) do 6 Récupérer la valeur de fi(s) si présente en cache ou la recalculer ; 7 if (|bestCandidates| = maxCandidates) then 8 if (fi(s) ≤ worstCost) then 9 Ne rien faire et passer à l’indice i suivant ; else 10 Supprimer le dernier élément de bestCandidates ; bestCandidates ← bestCandidates ∪ Vi 11 ; 12 if (|bestCandidates| = maxCandidates) then 13 worstCost ← coût du dernier élément de bestCandidates ; 14 metCandidates ← ∅ ; 15 improvement ← f alse ; 16 forall (i tel que Vi ∈ bestCandidates) do metCandidates ← metCandidates ∪ Vi 17 ; 18 bestDeltaCost ← 0 ; forall (j tel que : Vj ∈/ T et Vj ∈/ metCandidates et Vj 19 libre) do 4cost ← EVAL(s, Vi 20 , Vj ) ; 21 if (4cost < bestDeltaCost) then bestDeltaCost ← 4cost 22 ; 23 if (bestDeltaCost = 0) then T ← T ∪ Vi 24 ; else 25 improvement ← true ; 26 if ( ! improvement) then 27 VERIFIER(s, T) ;9.4. VERSION DISTRIBUÉE DE L’ALGORITHME 159 9.3.4 Mode multi-permutations Au lieu de travailler avec la meilleure permutation issue d’un ou de plusieurs candidats (selon que le mode multi-candidats soit actif ou non), nous proposons de mémoriser dans une liste les meilleures permutations issues des différents candidats à considérer. Cette liste est triée par ordre décroissant du gain5 lié à chaque permutation et sa taille est limitée (paramétrable), de sorte qu’on ne conserve qu’un nombre restreint de permutations, ces permutations étant considérées comme les meilleures pour la configuration courante. Ce fonctionnement ne nécessite pas un temps de calcul supplémentaire significatif car ces permutations doivent de toute façon être évaluées, que le mode multi-permutations soit actif ou non. Ce mécanisme introduit simplement une empreinte mémoire additionnelle liée à la liste, mais sa taille reste contrôlée et limitée. Lorsque la liste est renseignée avec les meilleures permutations identifiées pour les différents candidats, nous appliquons séquentiellement sur la configuration courante toutes les permutations mémorisées dans la liste, sous certaines conditions. Typiquement, réaliser une première permutation peut fortement impacter les scores obtenus sur les permutations suivantes de la liste. Pour qu’une permutation reste valide et qu’elle soit appliquée, elle doit donc toujours produire un bénéfice qui soit au moins égal à un certain ratio (paramé- trable) de son profit initial. Lors de ce processus séquentiel, nous garantissons uniquement l’application du premier élément de la liste qui correspond à la meilleure permutation, les permutations suivantes pouvant devenir obsolètes. Notons que pour revenir au fonctionnement général AS, il suffit de limiter à un seul le nombre maximum de candidats et le nombre maximum de permutations, ce qui revient à désactiver ces deux modes. En mode mono-candidat et mono-permutation de l’algorithme, des résultats liés à la recherche de la meilleure permutation se trouvent gaspillés à chaque itération. Bien que les permutations appliquées en rafale en mode multi-permutations puissent ne pas être les meilleures lorsqu’elles sont appliquées séquentiellement, plusieurs d’entre elles peuvent néanmoins améliorer le coût de la solution courante. De plus, travailler avec différents candidats permet de diversifier l’origine des permutations à appliquer en cascade, minimisant ainsi l’impact d’une permutation sur les suivantes. Dans la version distribuée de l’algorithme, ces deux mécanismes conjoints (multi-candidats et multi-permutations) sont supposés tirer profit des travaux réalisés par les différents processus parallèles sans nécessiter un effort de calcul additionnel. 9.4 Version distribuée de l’algorithme Pour faire face à la complexité des problèmes de grande taille, nous proposons de distribuer l’algorithme sur une grille de calcul [58, 266]. Un système basé sur une marche multiple parallèle [138, 205] (« multiwalk ») dont les principes sont décrits en section 5.7.3 a déjà été proposé pour AS [40, 75], avec de bonnes accélérations (speed-ups) sur des problèmes classiques. Toutefois, entre plusieurs exécutions de notre version séquentielle sur des instances identiques du problème d’aménagement urbain, nous relevons de faibles écarts de temps entre les différentes résolutions ; la même remarque pouvant être faite sur la qualité des résultats obtenus. Dans notre situation, ces informations indiquent qu’il sera difficile pour une approche distribuée basée sur une marche multiple de diminuer significativement les temps de résolution. Compte tenu de ces éléments, nous choisissons un système maître-esclave pour distribuer l’évaluation des voisins : à chaque itération, nous parallélisons la recherche des meilleures permutations [266, 10]. Ce principe rappelle le fonctionnement « Évaluation concurrente des voisins » décrit en section 5.7.1, mais avec des processus esclaves qui disposent ici d’une plus large autonomie. En fait, le fonctionnement retenu se situe à mi-chemin entre une évaluation distribuée des voisins et le principe de décomposition de domaine [227] (cf. section 5.7.2) : nous parlerons de décomposition de variable pour faire référence à notre approche. Bien qu’il ne réalise pas lui même l’ensemble des opérations habituelles, le processus maître fonctionne de façon analogue au mode séquentiel multi-candidats, multi-permutations. 5Comme on mémorise des valeurs négatives dans cette liste (variations sur le coût global de la configuration courante engendrées par les permutations bénéfiques), elle est triée par ordre croissant.160 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH Algorithme 14 : Mode multi-permutations 1 /* Paramètres donnés en entrée : • maxP ermutations est le nombre maximum de meilleures permutations à sélectionner • s est la configuration courante • EVAL(s, Vi , Vj ) est la fonction qui évalue sur la configuration s le gain pour un échange des valeurs entre les deux variables Vi et Vj et qui mémorise les meilleures permutations • APPLY(s) est la fonction qui applique en série les meilleures permutations trouvées • maxDeviation est le % maximum de déviation autorisé sur le gain initial pour garder une permutation */ 2 /* Variables de travail : • bestP ermutations est la liste triée (par ordre croissant de variation de coût) des meilleures permutations • 4cost est le gain pouvant être apporté à s en échangeant les valeurs de deux variables • worstDeltaCost est la variation de coût de la permutation dans bestP ermutations la moins bien classée (dernière de la liste) */ 3 worstDeltaCost ← 0 ; 4 bestP ermutations ← ∅ ; Fonction EVAL(s, Vi 5 , Vj ) 6 begin 7 Calculer 4cost en évaluant l’échange des valeurs entre Vi et Vj dans s; 8 if (4cost ≥ 0) then return 4cost 9 ; 10 if (|bestP ermutations| = maxP ermutations) then 11 if (4cost ≥ worstDeltaCost) then return 4cost 12 ; else 13 Supprimer le dernier élément de bestP ermutations ; Création de la permutation p(4cost, Vi 14 , Vj ) ; 15 bestP ermutations ← bestP ermutations ∪ p ; 16 if (|bestP ermutations| = maxP ermutations) then 17 worstDeltaCost ← variation de coût du dernier élément de bestP ermutations ; return 4cost 18 ; end 19 Fonction APPLY(s) 20 begin 21 forall (p ∈ bestP ermutations) do 22 Calculer 4cost (actualisé) en évaluant l’échange des valeurs entre p.Vi et p.Vj dans s; 23 if (4cost ≥ 0) then 24 valid = f alse ; else 25 if (4cost ≤ p.4cost) then 26 valid = true ; else variation = 4cost − p.4cost 27 ; 28 valid = (variation ≤ kp.4cost ∗ maxDeviation/100k) ; 29 if (valid) then 30 Échanger les valeurs des variables p.Vi et p.Vj dans s ; end9.4. VERSION DISTRIBUÉE DE L’ALGORITHME 161 FIGURE 9.4 – Mode distribué : fonctionnement général maître-esclaves. La partie « itérations » signalée en foncé est spécifique à chaque protocole distribué que nous proposons et elle fera l’objet d’un schéma complémentaire dans les sections correspondantes. Au début de l’algorithme (cf. figure 9.4), le processus maître détermine les partitions et transmet les sous-ensembles de variables aux processus esclaves. Il synchronise6 ensuite le travail de chaque processus esclave, à chaque itération, et collecte les permutations qu’il choisit ou non d’appliquer sur la configuration courante partagée entre tous les processus. Finalement, il détermine les conditions d’arrêt de l’algorithme et retourne la meilleure solution trouvée. Pendant ce temps, chaque processus esclave opère de façon concurrente avec les variables qui lui sont attribuées, de façon à ce que l’ensemble des processus esclaves réunis puisse évaluer à chaque itération la totalité des permutations possibles sur la configuration courante partagée, tout comme le ferait l’algorithme séquentiel. Avec ce principe, non seulement nous tirons bénéfice de tous les calculs réalisés sans les gaspiller, mais 6Dans le sens qu’il attend une réponse (le résultat) de chaque processus esclave avant de poursuivre son travail.162 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH TABLE 9.1 – Principales caractéristiques liées au fonctionnement des différents protocoles distribués. Caractéristiques Protocoles 1 2 3 4 #phases (séries d’échanges sur le réseau) 2 1 1 1 #PbE par rapport au #partition #part #part #part #part*(#part+1)/2 évaluation parallèle des meilleurs candidats O N O O étendue de recherche des meilleurs candidats partition grille grille 1 à 2 partitions qui évalue les meilleurs candidats PbE PbM PbE PbE agrégation des meilleurs candidats dans une liste globale O N N N transfert liste des meilleurs candidats PbE→PbM et PbM→PbE PbM→PbE - - transfert du meilleur gain trouvé par candidat (PbE→PbM) O O O N transfert des candidats à bannir (PbM→PbE) O O O N transfert des meilleures permutations trouvées (PbE→PbM) O O O O transfert des permutations appliquées (PbM→PbE) O O O O itération locale si pas de permutation favorable N N N O liste globale des candidats bannis présente sur le PbM N O N N étendue de la liste des candidats bannis sur chaque PbE partition partition grille 1 à 2 partitions nous profitons également de la disposition géographique / géométrique de notre problème pour répartir de façon cohérente les différentes parties de la carte sur les différents processus : un découpage spatial pour un problème spatial. Dans la suite, nous choisissons de présenter les caractéristiques principales liées au fonctionnement de notre algorithme distribué. En effet, nous proposons différentes implémentations (voir la figure 9.6 qui récapitule le fonctionnement des différents protocoles distribués), et chaque protocole expose des caracté- ristiques différentes qui permettent de les comparer. Nous étudierons ensuite les éléments complémentaires intégrés au modèle pour supporter le mode distribué. Nous disposerons alors de tous les éléments pour examiner en détail le fonctionnement de chaque protocole. 9.4.1 Caractéristiques liées au fonctionnement de la version distribuée Chaque processus esclave a en charge une partie des variables de la grille (partition) et dispose d’une représentation synchronisée de la configuration courante globale qui est partagée entre tous les processus, y compris avec le processus maître. Pour un processus esclave, l’enjeu consiste à déterminer localement une liste des meilleures permutations uniquement pour les variables qu’il a en charge, de telle manière que toutes les combinaisons possibles (permutations) puissent être évaluées par la totalité des processus esclaves, de façon analogue au mode séquentiel. Étant donné que la recherche des meilleures permutations n’affecte pas l’état de la configuration globale partagée entre tous les processus, les processus esclaves peuvent fonctionner en parallèle sans aucune diffi- culté et sans nécessiter une adaptation conséquente des procédures séquentielles. Pour abréger les écritures, nous utilisons les notations suivantes : • PbM pour désigner le processus maître ; • PbE pour désigner un processus esclave ; • CbG pour désigner la configuration globale qui est partagée et synchronisée entre tous les processus. Pour illustrer le fonctionnement du mode distribué lié à chaque protocole proposé, nous avons sélectionné quatorze caractéristiques principales (cf. table 9.1) que l’on commente dans les paragraphes suivants.9.4. VERSION DISTRIBUÉE DE L’ALGORITHME 163 Nombre de phases Valeurs possibles : • 1 : 1 échange réseau lors d’une itération entre le PbM et les PbE ; • 2 : 2 échanges réseau lors d’une itération entre le PbM et les PbE ; Il s’agit du nombre d’échanges, engagés entre le PbM d’une part et les PbE d’autre part, qui nécessitent une synchronisation. Rappelons qu’il n’y a aucune communication directe entre les PbE. En général, une phase commence par un premier message initié par le PbM à destination de tous les PbE, se poursuit par les réponses de chaque PbE, et prend fin lorsque tous les PbE ont répondu au PbM. Une phase regroupe donc plus ou moins de messages qui transitent sur le réseau entre différents processus, chaque message pouvant avoir une taille variable et regrouper des informations de différentes natures. Par exemple, une première phase peut consister à interroger les PbE pour qu’ils fournissent chacun à leur tour une liste locale de leurs meilleurs candidats au PbM. Ce message d’interrogation peut contenir les permutations venant d’être réalisées par le PbM et devant être répliquées sur chaque PbE pour synchroniser leur CbG. Lorsque le PbM a obtenu toutes les réponses, il peut poursuivre son travail et engager une seconde phase, c’est à dire un second dialogue avec les PbE. Nombre de processus esclaves par rapport au nombre de partitions Valeurs possibles : • un entier positif : nombre de PbE (déterminé en fonction du nombre de partitions). Le nombre de PbE nécessaire pour résoudre une instance donnée de notre problème dépend du nombre de partitions qui a été demandé (par un paramétrage). Les partitions correspondent à des regroupements de cellules libres pour un découpage donné de la grille, chaque partition étant de taille identique (à l’arrondi près). Ces regroupements peuvent être opérés de façon plus ou moins sophistiquée. Dans notre implémentation, un découpage simple est réalisé conformément à l’exemple de la figure 9.5. Par principe, on cherche à définir le plus grand nombre de partitions tout en minimisant le nombre de processus nécessaires pour gérer ces partitions. En effet, un nombre important de partitions permet une forte décomposition des variables de notre problème alors qu’un nombre important de processus nécessite la mobilisation de ressources maté- rielles importantes (avec un processeur dédié par processus) et des échanges réseaux entre le PbM et chaque PbE. Évaluation parallèle des meilleurs candidats Valeurs possibles : • O : plusieurs processus sont impliqués au même moment dans la recherche des meilleurs candidats ; • N : la recherche des meilleurs candidats est réalisée sur un seul processus. En fonction du protocole, la recherche des meilleurs candidats peut être réalisée soit en bloc par un seul processus, soit être répartie sur différents processus. Cette caractéristique permet de savoir si la recherche est parallélisée. Étendue de recherche des meilleurs candidats Valeurs possibles : • 1 partition : la recherche des meilleurs candidats est effectuée sur une partition au maximum ; • 1 à 2 partitions : la recherche des meilleurs candidats est effectuée sur 1 ou 2 partitions au maximum ; • grille : la recherche des meilleurs candidats est effectuée sur la grille entière ; En fonction du protocole, la recherche des meilleurs candidats peut être réalisée soit à l’échelle de la grille entière, soit à l’échelle d’une seule partition ou bien à l’échelle d’une à deux partitions.164 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH FIGURE 9.5 – Exemple de découpage d’une grille pour former 4 partitions de même taille : chaque groupe est composé de 18 cellules libres, les cellules fixes étant repérées par un caractère « X ». Qui évalue les meilleurs candidats Valeurs possibles : • PbM : c’est le PbM qui évalue les meilleurs candidats ; • PbE : chaque PbE évalue les meilleurs candidats. En fonction du protocole, la recherche des meilleurs candidats peut être prise en charge soit par le PbM, soit par chaque PbE. Agrégation des meilleurs candidats dans une liste globale Valeurs possibles : • O : une agrégation des meilleurs candidats dans une liste globale est nécessaire ; • N : aucune agrégation n’est réalisée. Lorsque la recherche des meilleurs candidats est effectuée à l’échelle d’une partition, la question est de savoir si le protocole nécessite d’agréger les résultats de toutes les recherches à partir de toutes les partitions pour constituer une liste globale des meilleurs candidats. Transfert liste des meilleurs candidats Valeurs possibles : • PbE→PbM : on transfert la liste des meilleurs candidats de chaque PbE vers le PbM ; • PbM→PbE : on transfert la liste des meilleurs candidats du PbM vers chaque PbE ; • - : aucun transfert n’est nécessaire. Une fois établie, on se demande si la liste des meilleurs candidats doit transiter entre le PbM et les PbE. Notons que la liste des meilleurs candidats qui transite peut être globale (i.e. concerner la grille entière) ou être partielle (i.e. limitée à une ou deux partitions).9.4. VERSION DISTRIBUÉE DE L’ALGORITHME 165 Transfert du meilleur gain trouvé par candidat des processus esclaves vers le processus maître Valeurs possibles : • O : le meilleur gain trouvé par candidat doit être transmis des PbE vers le PbM ; • N : aucun transfert n’est nécessaire. Lorsqu’on ne retrouve pas de permutation, pour un candidat prometteur, dans la liste locale des meilleures permutations trouvées, cela ne signifie pas pour autant qu’il s’agit d’un mauvais candidat. En effet, la liste des meilleures permutations étant limitée en taille, on ne conserve que les meilleures permutations lors d’une itération. Donc, il se peut que d’autres candidats aient de meilleures permutations en nombre suf- fisant pour ne pas considérer celles du candidat en question. D’autre part, lorsqu’il s’agit d’un candidat global, il peut n’avoir des permutations bénéfiques que sur une seule partition, ce qui est suffisant pour ne pas le bannir. Afin de savoir si un candidat prometteur doit être banni ou non, il faut donc récupérer les meilleurs gains trouvés de chaque candidat sur le PbM, ce qui nécessite dans ce cas un transfert de données. Transfert des candidats à bannir du processus maître vers les processus esclaves Valeurs possibles : • O : le PbM doit transmettre aux PbE la liste des candidats à bannir ; • N : aucun transfert n’est nécessaire. Il arrive que les processus esclaves seuls n’aient pas une visibilité suffisante pour déterminer si il faut bannir ou non un candidat prometteur. Dans ce cas, l’information doit provenir du PbM qui est en mesure d’agréger les résultats des différents PbE pour en déduire une information pertinente. Transfert des meilleures permutations trouvées des processus esclaves vers le processus maître Valeurs possibles : • O : les PbE doivent transmettre au PbM leur liste des meilleurs permutations ; • N : aucun transfert n’est nécessaire. Le but du mode distribué étant de répartir la recherche des meilleures permutations sur les différents PbE puis de récupérer le résultat sur le PbM, un transfert réseau est obligatoire pour chaque protocole. Transfert des permutations appliquées du processus maître vers les processus esclaves Valeurs possibles : • O : le PbM doit transmettre aux PbE les meilleures permutations qu’il a retenu et appliqué sur sa CbG ; • N : aucun transfert n’est nécessaire. Les différents processus que nous exploitons peuvent être localisés soit sur la même machine, soit sur des machines distantes. Pour partager la CbG entre ces différents processus, nous n’utilisons pas de mécanisme automatique de mémoire partagée. Pour que la CbG reste synchronisée, il faut donc répliquer systématiquement les modifications effectuées sur chaque processus. Le PbM est le seul habilité à opérer des modifications sur la CbG, c’est à dire à appliquer des permutations. Il faut donc acheminer les permutations qu’il a réalisé vers les PbE pour que chaque PbE puisse reproduire ces modifications, c’est à dire rejouer localement chaque permutation sur sa CbG. L’ensemble des permutations réalisées à l’occasion d’une itération est reporté en une seule étape du PbM vers les PbE. Itération locale si pas de permutation favorable Valeurs possibles : • O : Si aucune permutation favorable n’est trouvée par un PbE, un dispositif est prévu pour refaire une nouvelle recherche localement sans en informer le PbM ;166 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH • N : Si aucune permutation favorable n’est trouvée par un PbE, il retourne une liste vide au PbM et se met en attente. Si un PbE ne trouve pas de permutation favorable après avoir fait une première recherche à partir de la liste des meilleurs candidats, il a deux possibilités : soit il est capable de lancer une nouvelle recherche localement avec de nouveaux critères (renouvellement des candidats) sans communiquer avec le PbM, soit il est incapable de relancer une nouvelle recherche. Dans ce cas, il retourne une liste (de ses meilleures permutations) vide et il attend les nouvelles instructions du PbM. Liste globale des candidats bannis présente sur le processus maître Valeurs possibles : • O : le PbM doit mémoriser une liste globale des candidats bannis ; • N : le PbM n’a pas besoin de mémoriser une liste globale des candidats bannis. En fonction du protocole en œuvre, il peut être nécessaire de maintenir une liste globale des candidats bannis sur le PbM. Étendue de la liste des candidats bannis sur chaque processus esclave Valeurs possibles : • 1 partition : la taille de la liste des candidats bannis présente sur chaque PbE est relative à 1 partition ; • 1 à 2 partitions : la taille de la liste des candidats bannis présente sur chaque PbE est relative à 1 ou 2 partitions ; • grille : la taille de la liste des candidats bannis présente sur chaque PbE est relative à la grille entière ; L’étendue de la liste des candidats bannis présente sur chaque PbE varie en fonction du protocole utilisé. Elle peut correspondre à 1 partition, à 1 ou 2 partitions, ou à la totalité de la grille. 9.4.2 Compléments intégrés au modèle Avant d’identifier les compléments intégrés à notre modèle pour gérer le mode distribué, nous avons besoin de définir la notion de partition. Definition 12 (Partition). Une partition correspond à un regroupement de cellules libres de la grille, le nombre de partitions étant imposé par un paramétrage et chaque partition étant de même taille (à l’arrondi près). Toutes les cellules libres de la grille sont affectées aux partitions. Pour associer une cellule à une partition, un découpage simple de la grille est réalisé conformément à l’exemple de la figure 9.5. Compte tenu du regroupement des cellules en partitions, et de la répartition des partitions entre différents PbE, nous introduisons les informations suivantes associées à chaque cellule de la grille : • numéro de groupe : pouvant prendre la valeur « 0 », « 1 » ou « 2 » ; • indicateur de sélection : pouvant prendre la valeur « vrai » ou « faux ». Ces informations sont intégrées dans la CbG de chaque PbE sans pour autant être synchronisées entre les différents processus. Elles sont prévues pour restreindre les permutations pouvant être réalisées sur chaque PbE (cf. algorithme 15). 9.4.2.1 Numéro de groupe Chaque PbE se charge d’attribuer un numéro de groupe aux cellules libres qui sont sous sa responsabilité, c’est à dire qui appartiennent à ses partitions. Un PbE peut avoir une ou deux partitions qui lui sont associées. Si une seule partition est attribuée au PbE, toutes les cellules ont un numéro de groupe égal à « 0 » ; Par contre, si il a deux partitions sous sa responsabilité, il attribue aux cellules de sa première partition un numéro de groupe à « 1 » et aux cellules de sa seconde partition un numéro de groupe égale à « 2 ».9.4. VERSION DISTRIBUÉE DE L’ALGORITHME 167 Algorithme 15 : Contrôle de validité d’une permutation (échange de valeurs entre deux variables). 1 /* Paramètre donné en entrée : • cellF rom est la cellule d’origine impliquée dans la permutation • cellT o est la cellule de destination impliquée dans la permutation • checkCellF rom indique si il faut que la cellule d’origine soit obligatoirement sélectionnable ? */ 2 Fonction ACCEPTABLE(cellF rom, cellT o, checkCellF rom) 3 begin 4 if ( ! cellFrom.libre) then 5 return false ; 6 if ( ! cellTo.libre) then 7 return false ; 8 if (checkCellFrom et ( ! cellFrom.selectionnable) then 9 return false ; 10 if ( ! cellTo.selectionnable) then 11 return false ; 12 if (cellFrom.formeUrbaine = cellTo.formeUrbaine) then 13 return false ; 14 if (cellFrom.intensite != cellTo.intensite) then 15 return false ; 16 if (cellFrom.groupe = cellTo.groupe) et (cellFrom.groupe != 0) then 17 return false ; 18 return true ; end Dès lors, pour qu’un PbE puisse autoriser une permutation entre deux cellules, il faut que les conditions suivantes soient remplies (cf. algorithme 15, lignes 16-17) : • soit les deux cellules ont un numéro de groupe à zéro : ce qui revient à autoriser les permutations au sein d’une même partition ; • soit les deux cellules ont un numéro de groupe différent : ce qui limite les permutations aux cellules de partitions différentes. 9.4.2.2 Indicateur de sélection Definition 13 (Indicateur de sélection). Un indicateur de sélection spécifie si une cellule donnée de la grille peut être utilisée pour participer à une permutation. On dira d’une cellule qu’elle est sélectionnable si l’indicateur de sélection qui lui est associé est positionné à vrai. L’indicateur de sélection est positionné à « vrai » pour toutes les cellules qui appartiennent aux partitions affectées à chaque PbE. Une permutation n’est possible qu’entre cellules sélectionnables (cf. algorithme 15, lignes 8-11) sauf lorsque le candidat (cellule à l’origine des permutations) est imposé au PbE par le PbM. Dans ce cas, la cellule d’origine liée à la permutation peut correspondre à un candidat provenant des autres partitions. Nous verrons, dans l’étude de certains protocoles (no 1 et 4), que cet indicateur de sélection est également utilisé pour limiter la recherche des meilleurs candidats sur chaque PbE aux partitions qui leurs sont associées. Cela correspond à la propriété « étendue de recherche des meilleurs candidats » que nous venons de décrire (cf. paragraphe 9.4.1).168 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH FIGURE 9.6 – Comparaison du fonctionnement général de chaque protocole distribué pour une itération. Avec : (DC) Demande Candidats ; (RC) Recherche Candidats ; (SC) Synchronisation Candidats ; (DP) Demande Permutations ; (RP) Recherche Permutations ; (SP) Synchronisation Permutations ; (AP) Application Permutations. Le bleu représente un travail à l’échelle d’une partition et le jaune au niveau de la grille entière. Un ovale en pointillé englobe les tâches réalisées par les esclaves, le reste étant pris en charge par le processus maître. Les doubles traits pointillés indiquent un échange via le réseau. Protocole 1 Protocole 2 Protocole 3 Protocole 4 9.4.3 Protocoles distribués Les quatre protocoles distribués que nous proposons (voir figure 9.6) exploitent différemment le découpage de la grille pour identifier à chaque itération les meilleurs candidats puis les meilleures permutations gagnantes qui leur sont associées. Ces approches différentes sont synthétisées dans la table 9.1 qui reprend pour chaque protocole ses principales caractéristiques. En nous appuyant sur ces caractéristiques, nous expliquons maintenant le fonctionnement détaillé de chaque protocole, sachant que la grille globale est toujours découpée en partitions de même taille, le nombre de partitions étant un paramètre de l’application. Soulignons dès à présent que nos expérimentations (voir le chapitre 11) sont essentiellement basées sur le protocole no 1 et le protocole no 4. 9.4.3.1 Protocole no 1 Dans ce protocole, chaque PbE est définitivement associé à une partition différente de la grille. À chaque itération, il est nécessaire avec ce protocole de réaliser deux échanges entre le PbM et les PbE. Dans un premier temps, le PbM demande aux PbE d’identifier leurs meilleurs candidats. Chaque PbE recherche alors ses meilleurs candidats parmi les variables qui lui sont attribuées pour la configuration globale partagée (concerne uniquement les cellules de CbG avec un indicateur de sélection à vrai). Grâce aux informations collectées sur chaque PbE, le PbM peut constituer une liste globale des meilleurs candidats.9.4. VERSION DISTRIBUÉE DE L’ALGORITHME 169 FIGURE 9.7 – Mode distribué : traitements réalisés à chaque itération avec le protocole no 1. Cette partie vient compléter le schéma relatif au fonctionnement général maître-esclaves pour la section « Itérations » (cf. figure 9.4). Dans un deuxième temps, le PbM demande aux PbE d’identifier leurs meilleures permutations à partir de la liste globale des meilleurs candidats qu’il leur transmet. Chaque PbE recherche alors les meilleures permutations possibles en considérant la liste des meilleurs candidats qui lui est imposée avec les cellules qui lui sont attribuées. Le PbM collecte les meilleures permutations provenant de chaque PbE et reconstitue une liste globale des meilleures permutations. Pour reconstituer la liste globale des meilleures permutations, le PbM ajoute à cette liste les meilleures permutations provenant de chaque PbE pour ne conserver que les meilleures (i.e. celles qui apportent le meilleur gain) dans la limite d’une taille maximum définie par un paramètre. Il applique alors ces permutations sur la CbG (comme on le ferait avec la version séquentielle). Il poursuit en demandant à nouveau les meilleurs candidats aux PbE, tout en profitant de cet échange (i.e. message) pour transmettre les permutations qu’il a effectivement réalisé afin que chaque PbE puisse synchroniser170 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH localement sa CbG. Par rapport à l’algorithme séquentiel, le fonctionnement diffère dans la mesure où une liste de candidats bannis doit être gérée localement sur chaque PbE, la recherche des candidats bannis étant de leur ressort. Dans ces conditions, les dimensions dynamiques de la liste des candidats bannis sont calculées par rapport au nombre de variables libres attribuées à chaque PbE. De plus, pour identifier les mauvais candidats qui doivent être insérés dans ces listes locales, il est nécessaire de croiser les informations du PbM et des PbE à chaque itération. Pour ce faire, après avoir identifié localement ses meilleures permutations, chaque PbE transmet au PbM le meilleur gain trouvé par candidat imposé. Ces informations sont agrégées par le PbM qui détermine pour chaque candidat le meilleur gain obtenu. Il retourne ensuite aux PbE la liste globale agrégée des candidats incapables de générer un gain. Charge ensuite à chaque PbE de mémoriser dans sa liste locale des candidats bannis les mauvais candidats reçus qui font partie des cellules dont il a la charge. Les principes mis en œuvre avec ce protocole sont simples mais ce dernier laisse néanmoins apparaître de nombreuses faiblesses : • chaque itération nécessite une communication en 2 phases entre le PbM et les PbE pour identifier les meilleurs candidats puis les meilleures permutations ; • si on travaille avec un nombre réduit de meilleurs candidats et que les candidats considérés n’apportent pas de gain, deux échanges (communications) sont réalisés entre le PbM et les PbE sans amé- liorer la CbG ; • à l’inverse, si on travaille avec beaucoup de candidats, on augmente le nombre de permutations à évaluer séquentiellement sur chaque PbE, ce qui pénalise fortement les temps de calcul ; • comme on recherche les meilleures permutations à partir des mêmes candidats sur chaque PbE, l’origine des permutations remontées au PbM est réduite aux mêmes candidats, ce qui limite la diversité spatiale des permutations et l’efficacité du mode multi-permutations. Pour contourner certaines de ces difficultés, une solution consiste à aménager le mode multi-candidats pour stopper le processus de recherche des meilleures permutations sur chaque PbE dès que le processus a rencontré « x » candidats offrant un gain (« x » étant un paramètre de l’application). Mais dans ce cas, l’identification des candidats bannis devient un peu plus complexe et on s’éloigne un peu plus du fonctionnement séquentiel de l’algorithme. D’autre part, le temps de calcul pour les différents PbE risque alors de varier fortement, la synchronisation entre les différents PbE rendant le temps de chaque itération dépendante du PbE le plus long. Par exemple, imaginons pour une itération donnée que la liste globale des meilleurs candidats imposés soit composée des candidats {c1, c2, . . . , c10} et que le processus de recherche des meilleures permutations soit limité aux x = 2 premiers candidats offrant des gains. Si {c3, c5, c6, c8, c10} sont les seuls bons candidats de la liste globale pour un PbE, ce dernier devra évaluer les permutations uniquement pour {c1, c2, c3, c4, c5} ; c3 et c5 lui permettant d’honorer l’obligation de deux candidats avec gains. Dans le même esprit, une autre possibilité (celle-ci n’ayant pas été implémentée) consisterait à poursuivre l’évaluation des permutations à partir de la liste des candidats imposés jusqu’à ce qu’un nombre minimum de permutations bénéfiques soit atteint. 9.4.3.2 Protocoles no 2 et 3 Ces deux protocoles tentent d’améliorer le protocole no 1 en éliminant une phase de communication sur les deux obligatoires sans toutefois augmenter le nombre de PbE nécessaires. Ils fonctionnent en une seule phase avec un nombre de partitions (lié au découpage de la grille) égal au nombre de PbE, chaque PbE étant définitivement associé à une partie différente de la grille. Pour pouvoir fonctionner dans ces conditions, ces protocoles abandonnent l’idée d’une recherche parallèle et fractionnée des meilleurs candidats et font le choix d’identifier à chaque itération les meilleurs candidats de façon globale et séquentielle (par un processus) sur la totalité de la grille. Spécificités du protocole no 2 : meilleurs candidats identifiés par le processus maître9.4. VERSION DISTRIBUÉE DE L’ALGORITHME 171 FIGURE 9.8 – Mode distribué : traitements réalisés à chaque itération avec le protocole no 2. Cette partie vient compléter le schéma relatif au fonctionnement général maître-esclaves pour la section « Itérations » (cf. figure 9.4). Pour ce deuxième protocole, l’identification des meilleurs candidats est totalement prise en charge par le PbM, la liste étant ensuite transmise à tous les PbE en transitant par le message de demande des meilleures permutations. En retour, chaque PbE retourne sa liste des meilleures permutations avec le score des candidats effectivement évalués. Bien que les candidats bannis soient identifiés par le PbM, il est utile pour un PbE de connaître les candidats bannis correspondant aux cellules de sa partition pour ne pas avoir à évaluer des permutations y faisant référence. Compte tenu de cette remarque, on doit synchroniser la liste locale des candidats bannis sur chaque PbE. Spécificités du protocole no 3 : meilleurs candidats identifiés par chaque processus esclave Pour ce troisième protocole, la charge d’identifier les meilleurs candidats sur la grille complète revient à chaque PbE. À partir de cette liste générée à l’identique par chaque PbE, les PbE recherchent les meilleures permutations gagnantes générées entre chaque candidat et les cellules sous leur responsabilité. Comme les meilleurs candidats sont recherchés par chaque PbE sur l’ensemble de la grille, une liste des candidats bannis172 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH FIGURE 9.9 – Mode distribué : traitements réalisés à chaque itération avec le protocole no 3. Cette partie vient compléter le schéma relatif au fonctionnement général maître-esclaves pour la section « Itérations » (cf. figure 9.4). relative à la totalité de la grille doit être synchronisée sur chaque PbE et collaborant avec le PbM. Ces deux protocoles éliminent une phase de communication (avec synchronisation) par rapport au protocole no 1 tout en exploitant le même nombre de PbE. En contrepartie, l’évaluation séquentielle requise pour identifier la liste globale des meilleurs candidats peut être pénalisante. D’autre part, même si le nombre de phases a été réduit, la quantité d’informations devant transiter entre le PbM et les PbE reste quasiment la même (avec moins de messages, mais plus d’informations dans chaque message), les PbE devant faire appel au PbM pour synchroniser leur liste locale des candidats bannis. Finalement, les difficultés principales du protocole no 1 relatives à la diversité spatiale des permutations et à la perte de temps occasionnée si aucun candidat prometteur ne produit une permutation gagnante restent présentes. 9.4.3.3 Protocole no 4 Avec ce protocole, une seule phase (échange réseau synchronisé) est nécessaire à chaque itération entre le PbM et les PbE. Néanmoins, pour le même nombre de partitions, il faut prévoir beaucoup plus de PbE, avec |PbE| = |partition| ∗ (|partition| + 1)/2. Par exemple, pour un grille globale découpée en quatre parties de même taille, il faut prévoir dix PbE, chaque processus esclave étant définitivement associé à une ou deux parties de la grille (voir table 9.2).9.4. VERSION DISTRIBUÉE DE L’ALGORITHME 173 FIGURE 9.10 – Mode distribué : traitements réalisés à chaque itération avec le protocole no 4. Cette partie vient compléter le schéma relatif au fonctionnement général maître-esclaves pour la section « Itérations » (cf. figure 9.4). À chaque itération, chaque PbE recherche les meilleures permutations possibles uniquement entre les parties qui lui sont assignées. Par exemple, le PbE n o 1 de la table 9.2 examine les permutations des cellules localisées dans la zone ① avec les autres cellules de la zone ①. Le PbE n o 5 examine les permutations des cellules de la zone ① avec les cellules de la zone ②, etc. Cette façon de procéder permet de couvrir localement l’ensemble des permutations possibles sur la grille globale. La recherche des meilleures permutations est bien entendu soumise à une liste des meilleurs candidats établie préalablement. Lors d’une itération, chaque PbE commence par constituer en fonction des parties qui lui sont confiées sa propre liste locale des meilleurs candidats. Pour un PbE affecté à une seule partie, il recherche ses meilleurs candidats uniquement sur cette partie. Pour un PbE affecté à deux parties, il recherche ses meilleurs candidats sur les deux parties (suivant l’indicateur de sélection décrit en section 9.4.2.2). Pour chaque PbE, nous disposons d’une liste locale des candidats bannis dont la taille dynamique dépend du nombre de cellules libres associées au PbE. Chaque candidat, de la liste locale des meilleurs candidats, incapable de fournir le moindre bénéfice est directement ajouté à la liste locale des candidats bannis. Les PbE sont synchronisés avec le PbM qui collecte les meilleures permutations et décide de celles qui devront être appliquées. Une fois cette opération réalisée, le PbM demande à nouveau les meilleures per-174 CHAPITRE 9. RÉSOLUTION INITIALE BASÉE SUR ADAPTIVE SEARCH TABLE 9.2 – Protocole no 4 : exemple de décomposition de la carte d’une ville en quatre parties de taille uniforme (à gauche) et distribution de ces parties sur dix processus esclaves (à droite). ① ② ③ ④ Esclave 1 2 3 4 5 6 7 8 9 10 Partie ① ② ③ ④ ① ;② ① ;③ ① ;④ ② ;③ ② ;④ ③ ;④ mutations aux PbE en profitant de cet échange (message) pour transmettre à chaque PbE les permutations qu’il a effectivement réalisé sur la CbG. Une fois synchronisés, les PbE peuvent rechercher les nouvelles permutations en parallèle pour la même CbG. Précisons tout de même que lorsqu’un PbE ne trouve aucune permutation favorable à partir de sa liste locale des meilleurs candidats, il ne se synchronise pas immédiatement avec le PbM. Dans ce cas, au lieu de rendre une réponse sans permutation au PbM, il relance automatiquement le processus local de recherche de ses meilleurs candidats avant de rechercher les meilleures permutations correspondantes limitées à ses zones de responsabilité. Le PbE poursuit cette succession de recherches jusqu’à ce que l’un des critères suivants soit atteint : 1. il trouve des permutations favorables ; 2. il ne trouve plus de candidats (sa liste de candidats bannis est pleine et elle ne peut plus être agrandie) ; 3. son PbM le force à synchroniser sa CbG. Concernant le critère no 3 évoqué ci-dessus, le PbM peut en effet reprendre la main au bout d’un certain temps d’attente : lorsque certains PbE ne fournissent pas de réponse au bout d’un délai (timeout), le PbM abandonne la communication en cours avec les PbE qui n’ont pas été en mesure de répondre dans les délais à sa requête (pour fournir leur liste des meilleures permutations locales). Le PbM poursuit son travail avec les résultats partiels obtenus (application des meilleures permutations) et réinterroge l’ensemble des PbE. C’est à ce moment là que les PbE n’ayant pas encore répondus sont obligés de synchroniser leur CbG en abandonnant leur recherche en cours. Un mécanisme spéciale est mis en œuvre pour écarter les messages obsolètes qui ont pu être émis par les PbE retardataires entre le moment où le PbM a abandonné son attente et le moment où les PbE ont été sommés de se synchroniser. Pour écarter ces messages obsolètes qui peuvent arriver lors des synchronisations ultérieures, un numéro d’itération est intégré dans tous les messages (doit être identique entre une demande et les réponses correspondantes) et les réponses associées à un numéro d’itération inférieur au numéro d’itération courant sont systématiquement ignorées par le PbM. Concernant le délai d’attente (timeout) exploité par le PbM, il est difficile de le fixer de façon statique compte tenu du contexte matériel, de la performance des réseaux en place ou encore de l’avancement dans le processus de résolution. Nous avons donc fait le choix de le calculer de façon dynamique à chaque itération. Pour le calculer, le PbM doit attendre la première réponse valide du PbE le plus rapide. Il peut alors définir le timeout lié à l’itération en fonction du temps mis par le PbE le plus rapide, ce temps étant multiplié par un coefficient paramétrable. 9.5 Conclusion Ce chapitre dresse un inventaire des techniques principales que nous proposons pour générer une pré- programmation urbaine à partir du modèle de contrainte défini pour notre problème d’aménagement urbain. Dans un premier temps, cet inventaire décrit les méthodes mises au point pour générer des configurations initiales ainsi que notre algorithme de recherche locale basé sur Adaptive Search. Après avoir identifié différentes optimisations qui permettent d’améliorer les performances de cette métaheuristique, nous introduisons les modes multi-candidats et multi-permutations qui viennent enrichir les possibilités déjà disponibles. Dans un contexte séquentiel, l’exploitation de plusieurs candidats renforce la recherche d’une meilleure permutation à chaque itération mais au prix d’un effort de calcul supplémentaire puisqu’il faut9.5. CONCLUSION 175 évaluer les permutations de chaque candidat. D’un autre côté, le mode multi-permutations profite d’une exploration du voisinage de toute façon nécessaire pour mémoriser les meilleures permutations qui pourront être appliquées en série sans nécessiter d’efforts significatifs de calcul. Ces deux modes peuvent être activés séparément ou fonctionner simultanément. Lorsqu’ils collaborent, le mode multi-candidats peut apporter de la diversité dans les meilleures permutations retenues. Provenant de secteurs géographiques différents, les permutations sélectionnées ont alors plus de chance de ne pas interférer les unes avec les autres, augmentant ainsi le nombre de permutations restant valides pour une application consécutive (i.e. en mode multi-permutations, les permutations retenues lors d’une même itération sont appliquées en cascade). Pour faire face à des instances de grande taille tout en contenant les temps de résolution, nous optons pour une version distribuée de notre algorithme basée sur une décomposition de variables et pouvant être déployée à grande échelle sur une grille de calcul. Cette version permet alors d’exploiter toute la puissance des modes multi-candidats et multi-permutations sans nécessiter des temps de calcul supplémentaires, différentes portions de la grille étant confiées à des processus œuvrant en parallèle pour identifier à chaque itération les meilleures permutations d’une configuration globale synchronisée. Pour ce mode distribué, nous avons exploré quatre protocoles pouvant être mis en œuvre, le quatrième étant celui qui offre le plus d’autonomie aux processus esclaves qui s’affranchissent dans certaines circonstances des ordres donnés par un processus maître qui sait mieux déléguer ses tâches tout en orchestrant un fonctionnement global de l’algorithme cohérent et efficace.10 Mode interactif La seconde étape de notre processus de résolution est interactive. Le but est de permettre aux utilisateurs de garder le contrôle sur la solution à travers des manipulations interactives sur la ville. Dans le sens d’intégrer intelligemment les interactions des utilisateurs, l’idée consiste à maintenir actif le processus de résolution pendant que l’utilisateur effectue des modifications sur la solution. Lorsque l’on évoque une possible interaction, on sous-entend généralement l’engagement d’au moins deux acteurs (ou composants) impliqués dans une communication pour participer à une activité partagée. D’ailleurs, le dictionnaire LAROUSSE donne au mot interaction la définition suivante : « Action réciproque qu’exercent l’un sur l’autre deux ou plusieurs systèmes physiques ». Dans notre cas, on comprend aisément l’interaction qui se joue entre les utilisateurs du système et l’interface graphique. Mais de notre point de vue, l’interaction ne s’arrête pas là et elle intègre également le solveur qui doit, à tout moment, réagir aux actions des utilisateurs [149, 171, 254, 255]. Dans ce chapitre, nous revenons sur les grands principes qui ont guidé nos choix pour mettre au point ce mode interactif et nous présentons les différents composants impliqués dans l’interaction. Parmi les parties prenantes, le système qui gère les communications entre les acteurs est considéré comme un élément à part entière contribuant pour une large part à la réussite du processus global. En contexte interactif, le support de multiples scénarios en lien avec un projet est essentiel du point de vue de l’utilisateur, chaque scénario lui permettant de représenter une solution possible avec ses avantages et inconvénients [249]. Nous commençons donc par présenter nos travaux dans ce domaine. Nous expliquons ensuite le fonctionnement général de notre système en commençant par détailler les différents paramétrages qui ont un effet indirect sur son comportement interactif. Nous décrivons ensuite les manipulations directes qui peuvent être opérées sur la grille en relevant les principales difficultés techniques qu’elles soulèvent. Enfin, un paragraphe entier est dédié aux composants graphiques mis au point pour informer à la volée les utilisateurs des conséquences de leurs choix. Ce qui nous importe dans ce chapitre, ce sont les fonctionnalités interactives ; l’aspect esthétique de l’IHM n’étant ici qu’un aspect secondaire. Pour une question de simplification, nous proposons une version 2D de l’IHM qui peut très facilement être transposée en 3D compte tenu de la stratégie qui a guidé nos choix. 10.1 Principes retenus Pour que l’application soit réactive en toutes circonstances, les traitements gourmands (i.e. avec des temps de calcul supérieurs à la seconde) exécutés à la demande du dispositif tactile doivent être lancés en mode 177178 CHAPITRE 10. MODE INTERACTIF asynchrone dès que c’est possible : ceci permet aux utilisateurs de poursuivre leurs manipulations sans attendre le résultat des calculs. En contrepartie, une technique (à base de synchronisation1 ) doit être proposée pour intégrer avec un temps de décalage le résultat des calculs asynchrones sans interférer avec les opérations courantes des utilisateurs. De plus, les dispositifs utilisés pouvant être multi-utilisateurs (e.g. grandes tables tactiles multi-touch), il est important que le système proposé puisse supporter le travail concurrent de plusieurs utilisateurs sur des portions différentes d’une même ville. D’autre part, les contraintes techniques ou bien les préoccupations n’étant pas les mêmes entre le dé- veloppement d’une IHM et le développement d’un solveur, une exécution autonome et parallèle dans des processus distincts est souhaitée. De cette manière, l’IHM peut être développée dans un langage de programmation ou/et avec des outils différents de ceux retenus pour implémenter le solveur. Finalement, l’IHM et le solveur doivent pouvoir fonctionner de part et d’autre sur des machines distantes, sans que la communication entre les deux processus ne nécessite un couplage fort. Par exemple, on peut imaginer que la partie IHM s’exécute sur l’ordinateur associé physiquement au dispositif tactile tandis que le solveur est déployé sur une grille de calcul répartie sur plusieurs sites [243]. 10.2 Présentation des composants impliqués dans l’interaction Compte tenu des principes annoncés, nous proposons d’organiser l’interaction entre trois composants majeurs (cf. figure 10.1) pour permettre à notre système d’être efficace (i.e. réactif aux demandes des utilisateurs) : • un gestionnaire de messages (asynchrone) ; • une application liée au dispositif tactile ; • un solveur interactif. 10.2.1 Gestionnaire de messages Notre gestionnaire de messages (GDM) se charge de router les messages d’un processus émetteur à un processus récepteur de façon asynchrone. Il peut être installé sur la machine qui héberge les processus qui vont l’utiliser (émetteur et récepteur) ou bien sur une machine distante. Il n’y a aucune communication directe entre l’émetteur et le récepteur : toutes les communications transitent par le GDM. En mode asynchrone, l’émetteur confie son message au GDM et passe immédiatement à ses autres occupations. En complément du GDM, un gestionnaire d’événements doit être activé sur chaque processus connecté au GDM pour qu’il soit alerté dès qu’un message (lui étant destiné) est disponible. Files de messages Une file de messages conserve les messages qui lui sont confiés tant qu’ils ne sont pas explicitement récupérés par le destinataire. Les messages sont mis en file les uns à la suite des autres sachant que les premiers entrés dans la file sont les premiers sortis. Un nom peut être donné à une file et plusieurs files peuvent cohabiter en même temps. On peut choisir la file à utiliser en fonction de son nom. Connecteurs d’entrée et de sortie Un connecteur d’entrée et un connecteur de sortie sont installés sur chaque processus voulant travailler avec le GDM. Le connecteur d’entrée peut être vu comme un thread2 spécialisé capable de détecter à tout moment l’arrivée d’un message sur une file particulière. Dans ce cas, il peut récupérer le message et lancer un traitement particulier. Ensuite, soit il passe au message suivant présent dans la file, soit il se met en attente d’un prochain message à venir. 1Dans le sens d’une protection des données partagées entre différents processus légers. 2Processus léger qui partage sa mémoire virtuelle et qui est capable d’interagir directement avec le processus principal ou avec d’autres threads associés au processus principal.10.2. PRÉSENTATION DES COMPOSANTS IMPLIQUÉS DANS L’INTERACTION 179 FIGURE 10.1 – Routage des messages et interception des événements entre le dispositif tactile et le solveur interactif. Le gestionnaire de messages prend en charge le transfert des informations sur le réseau et permet un couplage faible entre les deux processus. Deux connecteurs repérés par les lettres « E » et « S » permettent à chaque processus (émetteur/récepteur) d’intercepter les messages qui lui sont destinés ou d’injecter de nouveaux messages vers un processus destinataire dans une file donnée. Le solveur interactif incorpore les fonctionnalités du solveur de base mis au point pour la résolution initiale et lui apporte les fonctionnalités nécessaires pour gérer l’interaction. Le connecteur de sortie permet de créer un nouveau message et de l’injecter dans le GDM sur une file donnée. Les connecteurs d’entrée et de sortie peuvent œuvrer simultanément (en parallèle). Dans ce cas, les traitements associés doivent être prévus pour protéger les données partagées susceptibles d’être modifiées et exploitées par les traitements exécutés en entrée ou en sortie (protection nécessaire via un dispositif de synchronisation). 10.2.2 Dispositif tactile Le processus interactif doit permettre à un ou plusieurs utilisateurs de modifier l’organisation de la ville en changeant l’emplacement des formes urbaines affectées aux cellules de la grille. On veut conserver un fonctionnement par permutation au niveau de chaque action utilisateur : si l’utilisateur prend une forme urbaine pour la positionner sur une autre cellule, il faudra donc procéder par échange des formes urbaines entre ces deux cellules. Ces permutations imposées par l’opérateur sont alors transmises au solveur interactif pour qu’il prenne en compte ces changements et qu’il calcule une nouvelle solution optimisée. Après cette étape d’optimisation, le dispositif tactile doit être en mesure de récupérer les permutations automatiques opérées par le solveur pour les reporter sur l’IHM. Dans ce contexte, il faut donc distinguer deux origines possibles pour une permutation : • soit il s’agit d’une permutation manuelle imposée par l’utilisateur ; • soit il s’agit d’une permutation automatique issue du processus de résolution pour optimiser la solution courante. Les permutations manuelles sont issues de l’IHM tandis que les permutations automatiques sont géné-180 CHAPITRE 10. MODE INTERACTIF rées par le solveur interactif. Pendant que le solveur interactif intègre les permutations manuelles et recalcule une nouvelle solution proche de la précédente, il faut néanmoins permettre aux utilisateurs de poursuivre leurs actions sans attendre les résultats des résolutions demandées. 10.2.2.1 Déplacement des formes urbaines Du point de vue de l’utilisateur, nous représentons le déplacement des formes urbaines comme un « drag & drop » qui lui permet de : • sélectionner une ou plusieurs formes urbaines associées à des cellules d’origine ; • déplacer le groupe des formes urbaines sélectionnées en faisant apparaître visuellement le groupe et la trajectoire empruntée ; • lâcher le groupe des formes urbaines sur les emplacements de destination. Bien qu’il s’agisse d’un procédé classique dans l’utilisation et la perception, sa mise en œuvre relève d’une implémentation particulière qui doit tenir compte de la contrainte de correspondance d’intensité ou des cellules figées (routes, rivières, . . . ) qui ne doivent pas être modifiées et qui pourront être enjambées au cours du déplacement. On doit également représenter la trajectoire empruntée en indiquant à l’utilisateur si les cellules situées au dessous du groupe en mouvement sont compatibles pour accepter les formes urbaines sélectionnées. 10.2.2.2 Réception et émission de messages Les actions déterminantes des utilisateurs sont interceptées localement par l’IHM, un message correspondant est généré et confié au GDM à destination du solveur interactif. Chaque message en provenance du GDM et destiné au dispositif tactile est intercepté, interprété et une action adaptée est exécutée localement. C’est toujours le dispositif tactile qui prend le premier l’initiative d’envoyer un message au solveur interactif, ce dernier se mettant au service de l’utilisateur pour exécuter les actions qui lui sont demandées et émettre un message en réponse à la demande lorsque l’action a été réalisée. 10.2.2.3 Liste des Permutations Imposées (LPI) Lorsque l’opérateur réalise un déplacement de formes urbaines par drag & drop, le système génère un nombre de permutations correspondant au nombre de formes urbaines impliquées dans le déplacement. Ces permutations forment alors une liste de permutations imposées (LPI) qui est incorporée dans le message à destination du solveur interactif. 10.2.3 Solveur interactif Nous voulions utiliser un même solveur que cela soit dans le cadre d’une résolution initiale ou dans le cadre de l’interaction avec les utilisateurs. Pour que cela soit possible, nous encapsulons (enveloppons) le solveur de base (i.e. celui mis au point pour la résolution initiale) afin de le doter de fonctionnalités complémentaires nécessaires à l’interaction, sans pour autant modifier le solveur de base. Le solveur interactif est connecté au dispositif tactile par l’intermédiaire du GDM. Il doit être lancé avant les premières interactions et il se termine automatiquement lorsque l’utilisateur ferme l’IHM. Le solveur interactif charge et mémorise la solution courante dès le lancement de l’application. Il se synchronise (dans le sens d’actualiser) alors avec le dispositif tactile en lui transmettant sa solution courante. Ensuite, à chaque fois qu’une action utilisateur est interceptée par l’IHM, un message est transmis au solveur interactif pour qu’il reporte les opérations manuelles issues de l’IHM sur sa solution courante. Il demande alors au solveur de base (celui qu’il encapsule) d’exécuter une résolution initiale basée sur cette solution courante. Le résultat de la résolution calculé par le solveur de base devient alors la solution courante du solveur interactif. Cette nouvelle solution est alors communiquée au dispositif tactile pour une nouvelle actualisation des données liées à l’IHM.10.3. GESTION DES SCÉNARIOS 181 Au niveau de notre modélisation, nous consentons quelques compléments sur le modèle (lié au problème d’aménagement urbain) pour mémoriser les choix des utilisateurs en terme de placement des formes urbaines. 10.2.3.1 Modèle : mémorisation des cellules verrouillées par les utilisateurs En complément des propriétés déjà présentes dans notre modèle (voir chapitre 8), nous proposons d’y intégrer un indicateur (prenant la valeur vrai ou faux) associé à chaque cellule pour indiquer si la forme urbaine affectée à la cellule est verrouillée (i.e. imposée) par l’utilisateur. Tant qu’une forme urbaine est verrouillée à une cellule, le solveur ne peut pas la déplacer de lui même pour optimiser la solution courante. 10.2.3.2 Réception et émission de messages Un gestionnaire d’événements écoute en permanence les messages en provenance du GDM et destinés au solveur interactif. Dès qu’un message est disponible, il est récupéré, interprété et une action adaptée est exécutée. L’action entreprise par le solveur doit être terminée avant qu’un autre message puisse être « consommé » dans la file des messages entrants. En effet, nous souhaitons réutiliser telles quelles les fonctionnalités du solveur de base sans devoir synchroniser (dans le sens de protéger les informations partagées entre les processus légers) ses traitements/données internes. D’autre part, nous avons fait le choix d’empiler les actions des utilisateurs pour les traiter séquentiellement. Cette façon de procéder permet de gérer de façon transparente les actions provenant de plusieurs utilisateurs travaillant simultanément sur des parties différentes d’une même ville. En réponse à l’action entreprise, le solveur peut émettre à son tour un message destiné au dispositif tactile qu’il confie au GDM. Si les utilisateurs sont très actifs ou/et que les opérations qu’ils demandent au solveur sont gourmandes en temps, les messages en provenance du dispositif tactile vont pouvoir s’empiler dans le GDM et seront traités un à un dès que le solveur sera à nouveau disponible. 10.2.3.3 Liste des permutations imposées (LPI) Certains messages contiennent des permutations imposées par une action de déplacement (ou plusieurs actions regroupées, ceci étant dû au mode de fonctionnement autonome, cf. section 10.4.3) réalisée par un utilisateur. Dans ce cas, chaque permutation imposée par l’utilisateur est appliquée sur la solution courante en échangeant les formes urbaines des cellules concernées. Pour chaque permutation de la liste prise une à une et dans l’ordre d’arrivée, la cellule d’origine est marquée « déverrouillée » alors que la cellule de destination est marquée « verrouillée ». 10.2.3.4 Résolution locale En réponse à certaines actions d’un utilisateur, une résolution peut être lancée pour tenter d’améliorer la solution courante tout en conservant les choix antérieurs réalisés par les opérateurs. Pour chaque action associée à un déplacement de formes urbaines, les permutations imposées par l’utilisateur permettent d’établir un périmètre autour des cellules d’origine et de destination, la taille de ce périmètre étant paramétrable. Avant la résolution, toutes les cellules de la grille sont rendues non sélectionnables sauf celles comprises dans le périmètre identifié. Ensuite, une résolution est demandée et le résultat (formes urbaines qui occupent les cellules) est intégré dans un message à destination du dispositif tactile. 10.3 Gestion des scénarios Compte tenu du caractère stochastique lié à la procédure de résolution initiale, il est possible de lancer plusieurs fois la procédure à partir des mêmes critères (paramètres, territoire, formes urbaines à répartir182 CHAPITRE 10. MODE INTERACTIF FIGURE 10.2 – Chargement d’un scénario mémorisé préalablement. Dans un premier temps, l’utilisateur indique la ville de référence. Ensuite, il a la possibilité de charger un scénario de travail particulier relatif à cette ville. MLV avant chargement scénario MLV après chargement scénario sur la ville, etc.) pour obtenir des solutions différentes, chaque solution étant mémorisée dans une structure XML3 autonome. À partir de ces différentes solutions, les experts peuvent en sélectionner une qu’ils vont retravailler en opérant diverses modifications. Il faut pouvoir conserver le travail réalisé pour revenir dessus par la suite afin de le compléter, pour le partager avec d’autres personnes ou tout simplement pour en garder une trace. On peut également prévoir différentes versions de travail à partir de la même solution de départ pour représenter différents scénarios possibles. Nous permettons de sauvegarder chaque scénario (au format XML) indépendamment de la solution de départ (cf. listing 10.1). Pour cela, nous mémorisons pour chaque cellule libre (GridCell) représentée par son numéro de ligne et de colonne : • l’indicateur de verrouillage (CellLocked) • la forme urbaine affectée (CellUrbanForm) L’utilisateur pouvant personnaliser le poids de chaque contrainte pendant l’interaction, ces éléments (CompWeight) doivent également être intégrés à la structure XML. 10.4 Paramétrage du comportement interactif Le comportement des interactions entre le dispositif tactile et le solveur peut être modifié selon différents paramètres que l’utilisateur peut changer à tout moment. Certains paramètres agissent sur les prochaines saisies tandis que d’autres modifient le comportement du solveur. L’étude de ces différents paramètres permet de dresser un premier inventaire des fonctionnalités interactives mises à la disposition des opérateurs. 10.4.1 Comportement de saisie On propose aux utilisateurs quatre paramètres qui permettent de modifier le comportement de saisie sur l’IHM : 3Extensible Markup Language.10.4. PARAMÉTRAGE DU COMPORTEMENT INTERACTIF 183 Listing 10.1 – Exemple de scenario mémorisé au format XML 1 2 < S i m u l a t i o n > 3 < F i l e Name=" / home / b r u n o / Documents / . . . / c o n t r i b −i n t e r a c t i o n / s c e n a r i o −mlv−v14 . xml " / > 4 < G r i d C e l l s > 5 < G r i d C e l l CellRow=" 0 " C ell C ol =" 0 " C ellL o c k e d =" f a l s e " CellU r ba nF o rm =" 0 " / > 6 < G r i d C e l l CellRow=" 0 " C ell C ol =" 1 " C ellL o c k e d =" f a l s e " CellU r ba nF o rm =" 0 " / > 7 < G r i d C e l l CellRow=" 0 " C ell C ol =" 2 " C ellL o c k e d =" f a l s e " CellU r ba nF o rm =" 0 " / > 8 . . . 9 < G r i d C e l l CellRow=" 101 " C ell C ol =" 256 " C ellL o c k e d =" f a l s e " CellU r ba nF o rm =" 0 " / > 10 < G r i d C e l l CellRow=" 101 " C ell C ol =" 257 " C ellL o c k e d =" f a l s e " CellU r ba nF o rm =" 0 " / > 11 < G r i d C e l l CellRow=" 101 " C ell C ol =" 258 " C ellL o c k e d =" f a l s e " CellU r ba nF o rm =" 0 " / > 12 < / G r i d C e l l s > 13 14 15 16 . . . 17 18 19 < / CompWeights> 20 < / S i m u l a t i o n > FIGURE 10.3 – Paramétrage du comportement interactif. • changement continu ; • correspondance d’intensité obligatoire ; • type de sélection ; • taille du cercle d’influence.184 CHAPITRE 10. MODE INTERACTIF FIGURE 10.4 – Mode continu désactivé (à gauche) ou activé (à droite). 10.4.1.1 Changement continu Lorsque l’opérateur se saisit d’une forme urbaine affectée à une cellule4 pour la déposer à un autre emplacement, soit on considère que l’opération se fait en un seul mouvement, soit on réalise une série de mouvements tout au long du déplacement en considérant l’itinéraire emprunté pour aller de l’emplacement d’origine jusqu’à l’emplacement de destination (voir la figure 10.4). Un mouvement correspond à une permutation, la forme urbaine de la cellule d’origine étant échangée avec la forme urbaine de la cellule de destination. Si le mode continu est désactivé, une seule permutation est générée entre les cellules d’origine et de destination. Dans le cas contraire, le système tient compte de la trajectoire empruntée à partir de la cellule d’origine, et à chaque fois qu’on se déplace d’une cellule sur la trajectoire, une permutation est réalisée avec la cellule voisine. Après une série de permutations continues impliquant la forme urbaine prise à la source, celle-ci vient se loger sur la cellule de destination. Dans ce cas, toutes les formes urbaines rencontrées sur le parcours sont décalées d’une cellule vers l’emplacement d’origine. Si on considère par exemple la suite de formes urbaines suivante {A, B, C, D, E, F, G} pour aller de l’origine « A » à la destination « G », on obtient {G, B, C, D, E, F, A} hors mode continu alors qu’on obtient {B, C, D, E, F, G, A} si le mode continu est activé. 10.4.1.2 Correspondance d’intensité obligatoire Si le paramètre « même intensité » est activé (ce qui correspond à la valeur par défaut), l’opérateur est obligé de sélectionner une cellule de destination dont l’intensité correspond à la cellule d’origine pour réaliser un mouvement. Néanmoins, si on rencontre des intensités différentes sur la trajectoire qui séparent les deux cellules origine et destination, en mode continu, ces dernières ne sont pas impliquées dans les échanges. Par exemple, si le trajet implique les formes urbaines {A, B, C, D, E, F, G} pour aller de l’origine « A » à la destination « G » et que les cellules liées à « C », « D » et « E » ont toutes des intensités différentes de l’origine « A », on obtiendra la suite {B, F, C, D, E, G, A} 5 . Cette option n’a aucun effet sur la contrainte de correspondance des niveaux d’intensité du solveur qui reste toujours active pour réduire les mouvements possibles initiés par la résolution. 10.4.1.3 Type de sélection Le type de sélection peut correspondre à l’une des options suivantes : • sélection simple : une seule cellule peut être sélectionnée ; • sélection étendue : pour sélectionner plusieurs cellules contiguës ou non ; • sélection contiguë : pour sélectionner des cellules contiguës (en forme de rectangle). Lorsque plusieurs cellules sont impliquées dans un même mouvement de groupe (le groupe correspondant 4En réalité, l’opérateur peut sélectionner plusieurs formes urbaines en même temps et le comportement reste le même pour une ou plusieurs formes urbaines. 5La même remarque peut être faite pour des cellules fixes présentes sur le parcours10.4. PARAMÉTRAGE DU COMPORTEMENT INTERACTIF 185 FIGURE 10.5 – Déplacement d’un groupe de formes urbaines en une seule opération. Lorsque la correspondance d’intensité doit être respectée, il faut conserver une correspondance stricte entre les intensités des cellules d’origine et des cellules de destination, ces intensités étant repérées dans cet exemple par les chiffres 1, 2, 3, 4. aux cellules sélectionnées au même moment par l’utilisateur), elles représentent toutes les cellules d’origine. Le processus de déplacement devient alors plus compliqué mais les principes évoqués jusqu’à présent restent applicables, que le mode continu soit activé ou non. Dans ce cas, un mouvement est autorisé uniquement avec un ensemble de cellules de destination ayant une correspondance stricte en nombre de cellules impliquées, en organisation spatiale (liée aux cellules sélectionnées) et en intensité (si la correspondance entre intensités est demandée) (voir figure 10.5). 10.4.1.4 Taille du cercle d’influence Le cercle d’influence prend forme autour des cellules impliquées dans un déplacement et correspond à la fois à : • un indicateur visuel permettant à l’opérateur de repérer les zones de la grille qui seront impactées par un mouvement ; • une distance permettant au solveur de déterminer les zones de la grille à considérer autour des changements imposés par l’utilisateur pour exécuter une résolution locale limitée à ces zones. La taille du cercle peut être paramétrée par l’opérateur pour agrandir ou réduire les zones impactées par un déplacement (voir figure 10.6). Plus le cercle est important, plus les effets d’un déplacement seront pris en compte sur la réorganisation automatique d’une ville en contre partie d’un temps de résolution plus long. L’utilisateur doit donc trouver un juste compromis entre la réactivité du système et la portée des réparations automatiques réalisées par le solveur, en fonction de son contexte de travail (puissance du matériel, temps d’attente admissible, etc.). D’autre part, il peut changer la taille du cercle à tout moment. Par exemple, l’utilisateur peut décider de fixer une taille du cercle en adéquation avec l’importance des opérations qu’il réalise, cette importance pouvant être liée au type des formes qu’il déplace, au nombre de formes urbaines impliquées dans un déplacement ou à la distance du déplacement. 10.4.2 Administration distante du solveur Par l’intermédiaire de l’IHM, il est possible de : • désactiver le solveur de base ; • réactiver le solveur de base ; • demander une résolution globale sur le solveur. Par défaut, le solveur de base est actif. Lorsque l’opérateur demande sa désactivation, on conserve un échange des messages à la volée entre le dispositif tactile et le solveur interactif. Dans cette situation, le solveur interactif continue d’appliquer les permutations demandées par l’opérateur sur sa solution courante186 CHAPITRE 10. MODE INTERACTIF FIGURE 10.6 – Cercle d’influence permettant d’identifier la taille des zones impactées par un mouvement. Dans cet exemple, le cercle de gauche identifie la zone d’origine et le cercle de droite la zone de destination, les cellules appartenant à ces deux zones étant soumises à une résolution locale. En dehors des cercles, les formes urbaines restent en place. mais il ne demande plus aucune résolution locale, ce qui revient à une saisie manuelle coté IHM et à un report automatique des saisies sur la configuration courante du solveur interactif sans optimisation. La réactivation du solveur de base intervient sur les prochains mouvements sans être rétroactive. Compte tenu de ce fonctionnement, il peut être utile de demander une résolution globale après avoir fait une série de modifications en mode désactivé. La résolution globale considère toutes les cellules de la grille comme sélectionnables. Par contre, les cellules qui ont été verrouillées par l’utilisateur restent verrouillées. En associant ces différentes fonctionnalités, l’opérateur peut réaliser une série de modifications en maintenant une cohérence entre ses saisies et la configuration courante du solveur interactif, sans demander de résolution. Lorsque ses saisies sont terminées, il peut alors demander une résolution globale qui tiendra compte de tous les déplacements opérés et cherchera à réparer l’ensemble de la configuration courante sans remettre en cause les choix réalisés en bloc par l’opérateur. 10.4.3 Mode de fonctionnement autonome Cette option intitulée « empiler les permutations » permet de travailler en mode autonome sur le dispositif tactile en interrompant jusqu’à nouvel ordre les communications réseau avec le solveur. Au lieu de transmettre, au fur et à mesure des saisies, les permutations imposées au solveur ; le système mémorise ces permutations dans une liste locale d’attente. Lorsque l’opérateur demande à « désempiler les permutations », la liste locale d’attente est transmise en un seul bloc au solveur qui applique en séquence toutes les permutations imposées. On revient alors à un mode de fonctionnement normal. 10.4.4 Administration des composants graphiques de retour Il est possible de désactiver/réactiver la mise à jour temps réel des composants graphiques en charge de faire un retour visuel aux utilisateurs (cf. section 10.6). En effet, lorsque ces composants sont actifs, ils nécessitent des informations particulières en provenance du solveur après chaque résolution : • coûts par contrainte ; • coûts par cellule. La désactivation permet d’alléger temporairement les échanges réseau entre le dispositif tactile et le solveur.10.5. MANIPULATIONS DIRECTES SUR LA GRILLE 187 10.4.5 Réglage du poids de chaque contrainte Côté modèle, un poids est spécifié pour chaque contrainte (voir la section 8.3.1). Grâce à ce dispositif graphique permettant d’ajuster dynamiquement les poids, l’utilisateur peut revenir sur les valeurs par dé- faut pour modifier la priorité donnée à chaque contrainte en fonction de ses propres appréciations (voir figure 10.3). Après la modification des poids sur le dispositif tactile, il faut demander une « synchronisation » qui se charge de transmettre ces nouveaux paramètres au solveur et qui demande en retour les nouveaux coûts par contrainte et par cellule pour réactualiser les composants graphiques de retour visuel lorsqu’ils sont actifs. 10.4.6 Taille de chaque cellule Il s’agit de définir la taille graphique des cellules sur le dispositif tactile, chaque cellule correspondant toujours à un îlot urbain de 80x80 mètres. Cette fonctionnalité est très pratique pour représenter les villes importantes sur le dispositif tactile sans nécessiter trop de place à l’écran, ce qui permet à l’utilisateur de travailler à l’échelle graphique voulue, une petite taille étant propice à un déplacement groupé de plusieurs formes urbaines ou à des déplacements importants (en distance). FIGURE 10.7 – Paramétrage de la taille des cellules. Taille cellules = 30x30 Taille cellules = 14x14 10.5 Manipulations directes sur la grille 10.5.1 Déplacer une forme urbaine ou un ensemble de formes urbaines Pour éviter qu’une modification locale réalisée par l’utilisateur puisse impacter la ville entière (i.e. changer l’ensemble de la solution), la manipulation d’un ensemble de formes urbaines a été définie de manière à impacter localement la carte. À cette fin, la taille du cercle d’influence est tout d’abord précisée par l’utilisateur (voir la section 10.4.1.4) pour définir la région dans laquelle les calculs (i.e. optimisation) seront effectués autour des changements demandés par l’utilisateur. Les utilisateurs peuvent alors sélectionner une ou plusieurs formes urbaines qu’ils déplacent interactivement sur la carte. Deux modes d’interaction sont proposés : • soit le calcul est effectué uniquement lorsque l’utilisateur dépose les formes urbaines sélectionnées à un nouvel emplacement ; • soit le calcul est effectué en continu dès que l’utilisateur déplace les formes urbaines.188 CHAPITRE 10. MODE INTERACTIF Dans le premier cas, les permutations imposées sont identifiées au moment où l’utilisateur dépose les formes urbaines. On demande alors au solveur une optimisation locale. Cette situation correspond au graphique de gauche de la figure 10.4 et ne nécessite qu’une seule demande d’optimisation. Dans le second cas, à chaque mouvement (dans le sens d’un déplacement du pointeur sur la trajectoire), les permutations imposées sont définies et on demande une optimisation locale. Par rapport à la figure 10.4, ce cas est représenté par le graphique de droite et l’exemple nécessite six demandes successives d’optimisation, chaque demande correspondant à un mouvement sur l’itinéraire emprunté. Si on s’en tient aux traitements réalisés, le mode continu peut être ramené au premier cas : c’est comme si l’utilisateur avait demandé six drag & drop consécutifs en se déplaçant à chaque fois d’une seule cellule. 10.5.1.1 Construction de la LPI (Liste des Permutations Imposées) Si le déplacement ne concerne qu’une forme urbaine, la construction de la LPI est simple car elle ne contient qu’une seule permutation liée aux deux cellules d’origine et de destination. Une fois la permutation récupérée coté solveur, les deux cellules sont identifiées et on procède à l’échange des valeurs entre les deux cellules. Le problème est un peu plus complexe lorsque plusieurs formes urbaines sont impliquées dans un même déplacement. Dans ce cas, il faut projeter le déplacement sur les cellules de départ pour identifier une à une les cellules de destination. Par rapport à l’exemple à gauche de la figure 10.8, si l’utilisateur sélectionne les deux formes urbaines « 1 » et « 2 » du haut pour les déplacer vers le bas, on obtient les deux permutations suivantes : • la permutation « A » correspond à la cellule d’origine (1,2) avec la cellule de destination (4,5) ; • la permutation « B » correspond à la cellule d’origine (2,3) avec la cellule de destination (5,6). Quel que soit l’ordre d’insertion des permutations dans la LPI, le solveur sera en mesure de placer les bonnes formes urbaines sur les bonnes cellules. Néanmoins, si on considère l’exemple à droite sur la figure 10.8, la situation devient encore un peu plus difficile. Dans cet exemple, le déplacement concerne les deux cellules du haut positionnées en (1,2) et (2,3) mais l’utilisateur demande un décalage d’une seule cellule en descendant sur la diagonale. Nous avons toujours deux permutations à générer, mais dans le cas d’un chevauchement (intersection non vide) entre la zone d’origine et de destination, il faut tenir compte de la trajectoire pour déterminer l’ordre dans lequel les permutations imposées doivent être ajoutées à la LPI, pour qu’elles puissent être rejouées ensuite de façon cohérente sur le solveur. Si on considère les deux permutations suivantes : • la permutation « A » correspond à la cellule d’origine (1,2) avec la cellule de destination (2,3) ; • la permutation « B » correspond à la cellule d’origine (2,3) avec la cellule de destination (3,4). Il faut impérativement appliquer la permutation « B » avant la permutation « A » pour que la cohérence du déplacement soit maintenue. Lorsque le mode continu est sélectionné avec un déplacement groupé de plusieurs formes urbaines, ces situations sont habituelles puisque le système doit actualiser la LPI à chaque mouvement. 10.5.1.2 Prise en compte du cercle d’influence par le solveur Au lieu de transférer vers le solveur interactif les identifiants des cellules présentes dans les cercles d’in- fluence (représentés sur l’IHM), on transmet uniquement la dimension du cercle d’influence (le rayon) dans chaque message de type déplacement. C’est le solveur interactif qui se charge ensuite d’identifier les cellules appartenant aux cercles d’influence liés aux permutations imposées. Afin de simplifier les procédures, ces cellules correspondent à l’union des voisinages V d l,c de chaque cellule Vl,c impliquée dans une permutation imposée, avec d correspondant au rayon du cercle (voir figure 10.9). Ces notations proviennent de la section 8.3.1.3.10.5. MANIPULATIONS DIRECTES SUR LA GRILLE 189 FIGURE 10.8 – Création de la liste des permutations imposées en fonction du type de sélection et de déplacement des formes urbaines. Ici, l’ordre d’application des permutations est sans importance Lorsqu’il y a chevauchement entre la zone d’origine et de destination, il faut tenir compte de la trajectoire pour définir l’ordre d’application des permutations : échanger 2 ↔ 3 puis 1 ↔ 3 FIGURE 10.9 – Cercles d’influences interprétés sur le solveur interactif : lorsque l’utilisateur déplace (en groupe) les formes urbaines des cellules « 1 » et « 2 » sur les cellules « 3 » et « 4 » (en une seule opération), le solveur interactif identifie autour des cellules d’origine et de destination les cellules faisant partie des cercles d’influence. Pour cela, il utilise le voisinage V d l,c de chaque cellule Vl,c impliquée dans une permutation imposée, avec d correspondant au rayon du cercle. Ces cellules sont alors marquées « sélectionnables » pour participer à l’optimisation locale.190 CHAPITRE 10. MODE INTERACTIF 10.5.1.3 Cohabitation entre actualisation automatique de la grille et manipulations utilisateur Le système que nous proposons permet à l’opérateur de poursuivre ses manipulations sur l’interface graphique alors même que les résultats des optimisations demandées au solveur interactif : • ne sont pas encore connus ; • sont connus et éventuellement en cours de report sur l’IHM. Pour autoriser ce fonctionnement particulier, plusieurs règles ont été élaborées : • la solution courante présente sur le solveur interactif sert de référence : si il y a des différences entre la représentation de la solution courante sur l’IHM et celle du solveur interactif, c’est la solution présente sur le solveur interactif qui reste prioritaire ; • l’IHM ne demande jamais au solveur de positionner une forme urbaine particulière sur une cellule. Au lieu de cela, elle demande au solveur d’échanger les formes urbaines présentent sur deux cellules données ; • on s’autorise ponctuellement de légères différences entre les formes urbaines de la grille représentée sur l’IHM et la solution courante localisée sur le solveur ; • le solveur transmet au dispositif tactile le résultat de ses optimisations en indiquant la forme urbaine associée à chaque cellule. 10.5.2 Verrouiller ou déverrouiller des cellules à la demande À tout moment, l’utilisateur peut sélectionner un ensemble de cellules pour les verrouiller (sans avoir à réaliser de déplacement). Il peut également sélectionner un ensemble de cellules pour les déverrouiller. 10.6 Retours visuels Les retours visuels sont prévus pour permettre aux utilisateurs d’évaluer les impacts de leurs décisions. Ces graphiques sont actualisés à la volée dès que des changements sont opérés sur la solution courante du solveur interactif. 10.6.1 Carte de chaleur La carte de chaleur présente les régions sur la carte où les coûts sont les plus importants (voir la fi- gure 10.10), la couleur rouge de la légende correspondant aux coûts les plus élevés. Pour actualiser ce graphique, le solveur transmet simplement le coût de chaque cellule pour la solution courante. Les cellules étant situées sur la grille, on obtient instantanément une représentation spatialisée des coûts. Ces coûts sont directement disponibles dans notre modèle (cf. chapitre 8) grâce aux fonctions de coût définies pour chaque contrainte qui permettent de reporter les coûts des contraintes sur chaque tuple « variable | valeur ». En mode continu, l’utilisateur peut suivre les impacts sur la carte en fur et à mesure qu’il déplace un groupe de formes urbaines, ce graphique étant actualisé à la volée à chaque mouvement. 10.6.2 Historique d’évolution des coûts Une seconde représentation graphique, actualisée à intervalle de temps régulier (e.g. toutes les secondes), affiche le changement de coût global, ainsi que l’évolution des coûts pour chaque contrainte considérée (distance, accessibilité, taille critique, . . . ). Ainsi, l’utilisateur peut suivre l’impact de ses changements sur chaque contrainte et identifier les contraintes qui s’améliorent au fil du temps ou au contraire celles qui se dégradent (voir la figure 10.11).10.6. RETOURS VISUELS 191 FIGURE 10.10 – Carte de chaleur : les zones en rouge sur la carte font apparaître les régions correspondant aux coûts les plus élevés. Cette carte est directement actualisée avec les coûts de chaque variable disponibles dans notre modèle. FIGURE 10.11 – Historique d’évolution des coûts par contrainte : ce graphique est composé de deux parties. La partie de gauche indique le coût lié à chaque contrainte pour la configuration courante tandis que la partie principale représente l’évolution des coûts par contrainte à intervalle de temps régulier. A gauche du graphique, on retrouve un récapitulatif des coûts par contrainte lié à la dernière solution connue. La grille du milieu quant à elle permet de voir l’évolution des coûts de chaque contrainte en fonction du temps. Par défaut, ce graphique est rafraîchi à chaque seconde, cette intervalle de temps pouvant être modifié par l’utilisateur (actualisation toutes les 2 secondes, . . . ). Dès qu’une modification est appliquée par le solveur sur la solution courante, il transmet les nouvelles informations de coût par contraintes qui seront192 CHAPITRE 10. MODE INTERACTIF prises en compte au rafraîchissement suivant de l’écran. 10.7 Vidéo d’accompagnement Certaines options du processus interactif de résolution sont détaillées dans la vidéo d’accompagnement (voir ici http://vimeo.com/80211470). En particulier, dans les situations où l’utilisateur déplace volontairement une partie d’une zone industrielle (pour laquelle une taille de zone critique est spécifiée), le processus de résolution repositionne automatiquement toutes les formes urbaines industrielles pour reformer une nouvelle zone industrielle pour la taille critique spécifiée en intercalant des espaces de respiration entre les usines et les maisons individuelles. 10.8 Conclusion L’interaction entre composants est au cœur des systèmes complexes et, suivant la formule désormais bien connue, « le tout qu’ils forment représente plus que l’addition des parties ». Notre système d’aide à la décision n’échappe pas à cette formule et s’enrichit de l’interaction entre une IHM « taillée sur mesure » et un solveur interactif, qui communiquent entre eux par l’intermédiaire d’un gestionnaire de messages autonome. Le système proposé maintient l’utilisateur au cœur du dispositif grâce à des fonctionnalités simples qui lui permettent de garder un contrôle total sur la solution finale. Il a également à sa disposition une série de paramétrages qui lui permettent d’adapter les comportements de l’interaction à ses propres besoins. Notre modèle (voir le chapitre 8) mis au point pour la résolution initiale est réutilisable dans ce contexte avec un minimum de modification, tout comme l’est le solveur de base utilisé pour la résolution initiale. En encapsulant le solveur de base dans un solveur interactif, ce dernier peut bénéficier de toute sa puissance tout en apportant de nouvelles fonctionnalités nécessaires à l’interactivité : le routage des messages, la détection d’événements, la mémorisation de la solution courante avec des traitements permettant de la manipuler, l’appel aux traitements d’optimisation, etc. La transformation des manipulations demandées par l’utilisateur en permutations permet de se conformer au fonctionnement habituel. On retrouve d’une part les permutations imposées par l’utilisateur sur l’IHM et d’autre part les permutations automatiques issues des optimisations réalisées par le solveur. Le gestionnaire de messages asynchrones se révèle pertinent pour actualiser les informations de part et d’autre tout en conservant une IHM fluide et réactive en toutes circonstances. Pour que les résolutions puissent se faire à la volée sans trop s’écarter de la solution courante, un cercle d’influence est automatiquement défini autour des modifications opérées par l’utilisateur et seules les zones correspondantes sont concernées par le processus d’optimisation. Cette fonctionnalité est prise en charge par le solveur interactif qui ne rend sélectionnable, sur sa solution courante, que les cellules présentes dans les cercles d’influence. En réduisant la zone à (ré)optimiser, on réduit les temps de résolution et on améliore la solution courante sans trop s’en éloigner, la taille du cercle pouvant être modifiée pour ajuster l’éloignement autorisé et les temps de calcul.11 Expérimentations Dans ce chapitre, nous cherchons à évaluer différents aspects de nos travaux, à savoir les performances de nos différents algorithmes de résolution (voir le chapitre 9), la qualité des solutions générées à partir de notre modèle (voir le chapitre 8) ou encore la pertinence du mode interactif (voir le chapitre 10). Pour faciliter la phase d’expérimentation, un paramétrage complet du solveur a été mis en place permettant de tester tel ou tel aspect de son fonctionnement en modifiant un fichier unique contenant les valeurs des différents paramètres. Parmi ces paramètres, on retrouve les entrées du modèle (avec les matrices d’interaction, etc.), la déclaration de chaque contrainte, le type de déploiement et des paramètres plus spécifiques comme la possibilité d’activer ou non la génération d’un tableau de bord complet. Le tableau de bord correspond à une série de sondes logicielles positionnées au sein du solveur qui, si elles sont activées, mémorisent au cours de la résolution des informations internes servant à générer des clichés instantanés sur son état (représentés par des graphiques et vidéos). Afin d’évaluer l’efficacité de nos différents algorithmes, nous activons ou désactivons par des paramétrages adaptés certaines fonctionnalités proposées (e.g. version séquentielle ou distribuée, activation du mode multi-candidat, etc.). Nous comparons ensuite les temps nécessaires à une résolution initiale par rapport aux fonctionnalités mises en œuvre pour atteindre une qualité de solution qui soit acceptable pour un problème réel : Marne-La-Vallée1 . Pour les deux autres aspects, à savoir la qualité des solutions et la pertinence de l’interaction, nous avons fait appel aux urbanistes impliqués dans le projet de recherche SUSTAINS pour avoir leurs retours. Pour évaluer la qualité, les expérimentations ont également été menées sur Marne-La-Vallée. Différentes cartes reprenant un nombre limité de formes urbaines ont été générées à partir de nos résolutions initiales, puis analysées pour vérifier l’emplacement des formes urbaines par rapport aux différentes zones d’intensité ou par rapport aux autres formes urbaines. Pour évaluer la pertinence de l’interaction, des démonstrations ont été menées avec trois urbanistes expérimentés pour recueillir leurs opinions. Une vidéo a également été mise à leur disposition pour représenter le fonctionnement général du mode interactif (cf. section 10.7). 11.1 Méthodologie Dans la suite de ce chapitre, on parlera de version pour spécifier une exécution de la résolution initiale sur un seul processus (version mono-processus, voir section 9.3) ou distribuée sur plusieurs processus (version distribuée, voir section 9.4). On parlera de mode de fonctionnement pour indiquer si on supporte ou non 1Une ville nouvelle située à l’est de Paris, pour laquelle les urbanistes du projet SUSTAINS disposent de toutes les données utiles. 193194 CHAPITRE 11. EXPÉRIMENTATIONS de multiples candidats (mode multi-candidat, voir section 9.3.3) et si on supporte ou non de multiples permutations (mode multi-permutation, voir section 9.3.4). On réservera le terme protocole pour savoir de quelle manière on exploite la version distribuée (protocoles 1 à 4, voir la section 9.4.3). 11.1.1 Versions incrémentales de nos prototypes Le premier prototype de notre solveur (résolution initiale) a été développé en Java avec CHOCO [147] pour évaluer une méthode complète [222] de programmation par contraintes [16, 97, 9, 233]. Ce premier prototype ne donnant pas des résultats satisfaisants pour une version limitée de notre problème (voir la section 9.1 pour plus de détails), nous avons réalisé un second prototype en Java pour la même version du problème afin d’évaluer les métaheuristiques de voisinage [111] (cf. section 5.6.2), notamment les méthodes de descente (cf. section 5.6.4). Compte tenu des résultats encourageants obtenus avec ce dernier prototype, la preuve du concept étant faite, nous nous sommes orientés vers une version opérationnelle, pour notre problème complet, réalisée en C++ et basée sur le framework EasyLocal++ [74] (voir le paragraphe 5.8.2). EasyLocal++ a été retenu pour la puissance de son langage d’implémentation orienté objet, sa modularité et le fait qu’il soit dédié aux techniques de recherche locale, ce qui lui confère une grande cohérence et une facilité de prise en main. Dans la suite, nous considérons uniquement cette version opérationnelle. 11.1.2 Jeux de données Nos jeux de données peuvent être exprimés sous la forme d’une représentation simplifiée, c’est à dire une représentation de la ville qui ne détermine qu’une partie des propriétés du problème (voir la section 11.1.2.1). Afin de réaliser nos expérimentations, nous avons exploité différents jeux de données pour représenter les villes : • neuf représentations simplifiées avec des tailles de grille différentes (voir la table 11.1) ; • trois représentations complètes avec des tailles différentes : petite, moyenne, grande ; • une représentation complète correspondant à la ville de Marne-La-Vallée (issue de données réelles liées à cette zone urbaine, fournies par les urbanistes du projet SUSTAINS). TABLE 11.1 – Neuf jeux de données proposés avec une représentation simplifiée de la ville pour participer à nos expérimentations. Pour chaque taille de grille, nous mettons en correspondance le nombre de variables du problème (i.e. nombre de cellules libres). Grille Nombre de variables 8 × 8 64 16 × 16 256 24 × 24 576 32 × 32 1 024 40 × 40 1 600 48 × 48 2 304 56 × 56 3 136 64 × 64 4 096 128 × 128 16 384 11.1.2.1 Représentation simplifiée Ce type de représentation ne détermine qu’une partie des propriétés du problème :11.1. MÉTHODOLOGIE 195 Listing 11.1 – Exemple de représentation simplifiée d’une ville constituée de 16 × 16 cellules, mémorisée au format XML. 1 2 < M ai n C o n fi g u r ati o n > 3 < I n i t > 4 . . . 5 < G ri d SizeX=" 16 " SizeY=" 16 " / > 6 7 < I n t e n s i t i e s B y B l o c k V al u e s =" 8 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 9 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 10 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 11 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 12 1 1 1 2 2 2 3 3 3 2 2 2 2 2 2 2 13 1 1 1 2 2 3 3 3 3 3 3 2 2 2 2 2 14 1 1 1 2 2 3 3 3 3 3 3 3 2 2 2 2 15 1 1 1 2 3 3 3 3 3 3 3 3 3 2 2 2 16 1 1 1 2 3 3 3 3 3 3 3 3 3 2 2 2 17 1 1 1 2 3 3 3 3 3 3 3 3 3 2 2 2 18 1 1 1 2 2 3 3 3 3 3 3 3 2 2 2 2 19 1 1 1 1 2 2 3 3 3 3 3 2 2 2 2 2 20 1 1 1 1 1 2 2 3 3 3 2 2 2 2 2 2 21 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 22 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 23 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 " / > 24 25 26 27 < A l l o c a t i o n I n t e n s i t y =" 1 " Numbe rO fBlocks=" 38 " / > 28 < / UrbanForm> 29 . . . 30 31 < A l l o c a t i o n I n t e n s i t y =" 1 " Numbe rO fBlocks=" 5 " / > 32 < A l l o c a t i o n I n t e n s i t y =" 2 " Numbe rO fBlocks=" 8 " / > 33 < A l l o c a t i o n I n t e n s i t y =" 3 " Numbe rO fBlocks=" 5 " / > 34 < / UrbanForm> 35 < / U rbanFo rms> 36 . . . 37 < / I n i t > 38 < / M ai n C o n fi g u r ati o n > • la taille de la grille (16 × 16) (balise « Grid ») ; • l’intensité de chaque cellule (balise « IntensitiesByBlock ») ; • le nombre de chaque catégorie de forme urbaine à ventiler sur la ville, par niveau d’intensité (balise « UrbanForms »). Avec ces représentations, il n’y a pas de centralité et toutes les cellules font partie d’une ville carrée ou rectangulaire. Les représentations simplifiées peuvent être construites manuellement. Par exemple, le listing 11.1 fournit une représentation simplifiée pour une grille 16 × 16. 11.1.2.2 Représentation complète Les représentations complètes incorporent toutes les données du problème, y compris des informations nécessaires aux applications des différents partenaires impliqués dans le projet SUSTAINS. On y retrouve des éléments généraux de paramétrage (formes urbaines, axes routiers principaux, . . . ) et une information détaillée pour chaque cellule :196 CHAPITRE 11. EXPÉRIMENTATIONS • coordonnées spatiales ; • indicateur (o/n) pour savoir si la cellule est présente ou non dans la ville ; • indicateur (o/n) pour savoir si la cellule correspond ou non à une centralité ; • indicateur (o/n) pour savoir si la cellule est constructible ; • forme urbaine fixe liée à la cellule (route, rivière, . . . ) ; • élévation de la cellule ; • etc. Les représentations complètes sont générées automatiquement par les logiciels du LIMSI2 , un partenaire du projet SUSTAINS en charge d’identifier les propriétés d’une ville (contours, zones d’intensité, avenues principales, etc.). La masse des informations présentes dans cette représentation est telle qu’une construction manuelle de ce fichier n’est pas envisageable. Notre solveur3 récupère en entrée les éléments qui lui sont utiles et incorpore le résultat de ses optimisations dans une copie du fichier avant de la transmettre aux partenaires, notre objectif étant de renseigner une forme urbaine pour chaque cellule libre. 11.1.3 Paramètres de configuration Le comportement du solveur dépend de nombreux paramètres que nous avons choisi de structurer et de regrouper dans un fichier de configuration4 (au format XML). Plusieurs fichiers avec des paramètres particuliers ont été créés pour définir des configurations différentes, ce qui permet de choisir un fichier de configuration spécifique au lancement du solveur pour qu’il utilise des paramètres particuliers. 11.1.3.1 Indépendance des paramètres par rapport au problème à résoudre Pour que les paramètres de configuration soient indépendants du problème à résoudre, deux approches complémentaires ont été mises en place : • certains paramètres sont exprimés en pourcentage pour les rendre dynamiques (e.g. taille initiale de la liste des candidats bannis) ; • la description du problème à résoudre (sous une forme simplifiée ou complète) dépend d’un fichier XML indépendant du fichier de configuration. L’utilisateur doit donc préciser deux éléments au lancement d’une résolution : • l’emplacement et le nom du fichier qui contient les paramètres de configuration ; • l’emplacement et le nom du fichier qui contient la représentation du problème. 11.1.3.2 Tirage de nombres aléatoires Un paramètre de configuration particulier concerne le tirage de nombres aléatoires. Il s’agit du paramètre « SeedValue » qui prend une valeur entière positive ou nulle. Si SeedV alue = 0, une même séquence de tirages aléatoires donnera des résultats différents. Dans le cas contraire, pour une valeur donnée de SeedV alue, une même séquence de tirages aléatoires donnera les mêmes résultats (i.e. une série de nombres aléatoires identiques). Par exemple, ce paramètre permet de générer (ou non) des solutions aléatoires suivant une même séquence de tirages aléatoires : ceci est essentiel lorsque l’on veut comparer des résultats en partant d’une solution de départ identique. En effet, les données indiquées dans nos expérimentations correspondent à une moyenne de 10 exécutions, chaque exécution étant réalisée avec une valeur différente pour SeedV alue que l’on notera {seed1, seed2, . . . , seed10}. De cette façon, chaque exécution démarre avec une solution initiale aléatoire 2Le Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (LIMSI) http://www.limsi.fr/ index.fr.html. 3Lorsqu’aucune précision n’est donnée, cela concerne indifféremment le solveur de résolution initiale et le solveur interactif. 4 Il s’agit ici d’un fichier de paramétrage, à ne pas confondre avec une configuration dans le sens solution à un problème.11.1. MÉTHODOLOGIE 197 FIGURE 11.1 – Résumé des mesures sur l’application développée. Généré par l’outil SourceMonitor (http://www.campwoodsw.com/sourcemonitor.html). Le nombre de lignes indiqué écarte les lignes vides (*). différente. Lorsque l’on veut comparer plusieurs versions (mono-processus ou distribué) ou modes de fonctionnement (multi-candidats, multi-permutation) différents, chaque série d’exécutions reprend la même sé- quence de valeurs pour SeedV alue, correspondant à la même séquence de solutions de départ. 11.1.4 Implémentation et déploiement 11.1.4.1 Implémentation L’application a été développée en C++ et s’appuie sur le framework EasyLocal++ [74]. La communication entre les processus distants se fait par échanges de messages en utilisant le middleware orienté message Apache ActiveMQ (http://activemq.apache.org/) en lien avec la librairie ActiveMQ-CPP (http://activemq.apache.org/cms/using-activemq-cpp.html). Cette communication distante intervient à deux niveaux : • en version distribuée : pour gérer les communications entre le processus maître et ses esclaves ; • en mode interactif : pour gérer les communications entre le dispositif tactile et le solveur interactif. La figure 11.1 fournit un résumé de l’application sur la base de métriques standards. Il s’agit d’un dé- veloppement conséquent qui définit un peu plus de 200 classes C++ pour 30 000 lignes de code. Cette application fonctionne sur les systèmes d’exploitation Windows et Linux. Nous utilisons le service InriaForge pour faciliter le travail collaboratif, notamment Apache Subversion (https://subversion.apache. org/) comme gestionnaire centralisé de versions pour le code source de l’application. Il s’agit en effet d’un travail d’équipe réparti entre les sites de Nantes et de Rennes, avec une partie des développements confiée à un ingénieur de l’Université Rennes 1 qui a pris en charge : • le support complet des données XML ;198 CHAPITRE 11. EXPÉRIMENTATIONS • les développements PHP5 pour gérer les échanges via HTTP avec les applications des partenaires, notre moteur de résolution initiale étant exposé comme un service accessible via le Web ; • la construction des principales IHM de rendu (en dehors des parties liées au mode interactif, cf. chapitre 10). 11.1.4.2 Déploiement Nous avons opéré trois types de déploiement différents et complémentaires sur des machines Linux. Station de travail Dans un premier temps, les différentes versions sont déployées pour être testées sur ma station de travail portable équipée de 3,8 Gio de mémoire et d’un processeur multi-cœurs Intel® CoreTM i7- 2630QM CPU @ 2.00GHz x 8. Le système d’exploitation correspond à la version Ubuntu 12.04 (precise) 64 bits. Serveur de l’INRIA à Rennes Une version stable du solveur est déployée sur un serveur de l’INRIA à Rennes pour assurer un service permanent de résolution initiale ouvert aux partenaires du projet SUSTAINS. La communication se fait par échange, via HTTP6 , du fichier qui décrit la ville d’étude (voir la section 11.1.2.2 qui décrit la représentation complète). Grid’5000 Concernant la version distribuée, elle est déployée sur la plate-forme française Grid’50007 , une grille de calcul expérimentale dédiée à la recherche pour réaliser des calculs distribués à grande échelle. 11.2 Tableau de bord Nous avons instrumentalisé le code source de nos applications pour pouvoir analyser après coup le fonctionnement interne de notre solveur et le comportement des différentes contraintes. Les analyses fournies par le tableau de bord correspondent à des graphiques et à une vidéo, générés à la suite d’une résolution initiale. Ces analyses ont permis d’adapter notre modèle lorsque cela était nécessaire (e.g. problème de performance avec la contrainte globale de regroupement sur des instances de taille importante : grille 64x64). Elles peuvent également être utilisées pour améliorer les performances du solveur ou procéder aux réglages des nombreux paramètres de lancement utilisés lors des expérimentations. Les graphiques repris dans cette section ont pour la grande majorité été réalisés à partir d’une résolution initiale lancée le 7 février 2013 à 16h10 en utilisant une représentation incomplète basée sur notre grille 32 × 32. Il s’agit de données de tests qui ne correspondent pas nécessairement à la réalité, et qui peuvent être en décalage avec la dernière version de notre modèle (voir la section 8.3.1). Cette résolution était liée au paramétrage suivant des contraintes : • Interaction entre formes urbaines : poids = 1 ; • Accessibilité en tout point : poids = 100 ; • Éloignement : poids = 15 ; • Espace ou équipement tampon : poids = 20 ; • Emprise (place) : poids = 15 ; • Taille mini zone activité artisanale : taille minimum d’un groupe = 6 et poids = 1 ; • Taille mini zone activité industrielle : taille minimum d’un groupe = 12 et poids = 1. 5Hypertext Preprocessor : langage de programmation principalement utilisé pour produire des pages Web dynamiques (http://php.net/). 6Hypertext Transfer Protocol en anglais ou protocole de transfert hypertexte. 7Remerciements : plusieurs expériences présentées dans cette thèse ont été réalisées en utilisant la plateforme expérimentale Grid’5000, issue de l’Action de Développement Technologique (ADT) Aladdin pour l’INRIA, avec le support du CNRS, de RENATER, de plusieurs Universités et autres contributeurs (voir https://www.grid5000.fr)11.2. TABLEAU DE BORD 199 Listing 11.2 – Paramètres de configuration : exemple de paramétrage des sondes logicielles intégrées au solveur. La totalité des sondes peut être désactivée (OverallActivation). L’activation/désactivation peut également intervenir au niveau de chaque sonde (isActivated). 1 < O b s e r v e r s O v e r a l l A c t i v a t i o n =" f a l s e "> 2 < O b s e r v e r I d =" Be stM o veO b se r ve r " D e s c r i p t i o n =" M e i l l e u r s c o r e t r o u v e ( a c ha q ue i t e r a t i o n ) " 3 I s A c t i v a t e d =" t r u e " / > 4 < O b s e r v e r I d =" D e l t a C o s t O b s e r v e r " D e s c r i p t i o n ="Temps moyen p a r c y c l e ( i t e r a t i o n ) " 5 I s A c t i v a t e d =" t r u e " NbEventByCycle=" 20000 " N umE v e nt St a rt =" 0 " NumEventStop=" 0 " / > 6 < O b s e r v e r I d =" MakeMoveGUIObserver " D e s c r i p t i o n =" P e r m u t a t i o n a p p l i q u e e " I s A c t i v a t e d =" t r u e " / > 7 < O b s e r v e r I d =" R u n n e r O b s e r v e r St a rt E n d " D e s c r i p t i o n =" Du ree / c o ut au d e b ut / f i n de r e s o l u t i o n " 8 I s A c t i v a t e d =" t r u e " / > 9 < O b s e r v e r I d =" R u n ne rO b se r ve rNewBe st " D e s c r i p t i o n =" Du ree / d e l t a C o s t g l o b a l e t p a r c o n t r a i n t e " 10 I s A c t i v a t e d =" t r u e " / > 11 < O b s e r v e r I d =" S c o r e L a n d s c a p e O b s e r v e r " D e s c r i p t i o n =" P a y s a g e d e s d e l t a C o s t s p a r c e l l u l e " 12 I s A c t i v a t e d =" t r u e " / > 13 < / O b s e r v e r s > D’autre part, il y avait 1 024 formes urbaines à répartir sur le territoire, ce nombre étant ventilé de la façon suivante (ventilation fournie ici sans reprendre le détail par niveau d’intensité) : • 152 maisons individuelles ; • 120 maisons de ville ; • 88 habitats intermédiaires ; • 48 habitats collectifs R+4 ; • 40 habitats collectifs R+7 ; • 80 bâtiments tertiaires R+4 ; • 40 bâtiments tertiaires R+7 ; • 140 activités artisanales ; • 80 activités industrielles ; • 32 centres commerciaux ; • 16 écoles maternelles ; • 20 écoles primaires ; • 20 collèges ; • 12 lycées ; • 12 équipements administratifs ; • 12 équipements techniques ; • 20 espaces sportifs de quartier ; • 20 espaces sportifs inter quartier ; • 72 espaces de respiration. 11.2.1 Mode opératoire La génération des éléments du tableau de bord est prise en charge par des sondes logicielles positionnées au cœur du solveur (voir un exemple de paramétrage avec le listing 11.2). Lorsqu’elles sont activées, elles génèrent automatiquement des fichiers de trace pendant la phase de résolution. A la fin du processus de ré- solution, des scripts sont disponibles pour générer les différents graphiques ainsi qu’une vidéo d’évolution des paysages (voir la section 11.2.5). Pour retrouver les valeurs des principaux paramètres de configuration utilisés lors de l’expérimentation, un fichier est généré afin d’en garder une trace. Tous les résultats sont stockés dans un répertoire dont le nom est dynamique, en tenant compte de la date et de l’heure de lancement.200 CHAPITRE 11. EXPÉRIMENTATIONS 11.2.2 Variation des coûts Chaque permutation (i.e. échange des valeurs entre deux cellules de la grille, voir la section 8.3.1) appliquée sur une configuration impacte son coût global en plus ou en moins. Cette différence correspond à la variation de coût relative à chaque permutation appliquée sur une configuration courante (i.e. à chaque itération de notre algorithme de résolution). Nous verrons dans les sections suivantes qu’une variation de coût peut également être calculée pour une permutation sans qu’elle soit appliquée sur la configuration courante. Dans ce cas, on parlera d’une variation de coût potentielle. Les graphiques de variation des coûts que nous proposons se présentent sous deux formes : • une partie récapitulative mettant en parallèle les différentes contraintes sur le même graphique (voir la figure 11.2). • une partie détaillée avec un graphique différent par contrainte (voir la figure 11.3) ; A chaque itération, le système indique la variation du coût enregistrée pour chaque contrainte. La plupart du temps, la variation est négative, ce qui contribue à la réduction du coût global sur la configuration courante (nota : les variations apparaissent inversées sur nos graphiques). Il arrive néanmoins que la variation soit positive sur une ou plusieurs contraintes. Ceci traduit une situation de conflit entre les différentes contraintes où le gain obtenu pour l’une se fait au détriment des autres, le solde permettant tout de même de réduire le coût global. A la lecture des exemples proposés (voir la figure 11.2 ou 11.3), on voit une très forte activité tout au long du processus de résolution pour les contraintes d’interaction (voir la section 8.3.2.3), d’éloignement (voir section 8.3.3.1) et d’espace ou équipement tampon (voir section 8.3.3.4). Ceci paraît normal pour la contrainte d’interaction qui est une contrainte générale qui s’applique à l’ensemble des cellules (voir la section 8.3.2). Les deux autres contraintes (éloignement et espace ou équipement tampon) sont des contraintes spécifiques (voir la section 8.3.3), néanmoins elles s’appliquent à beaucoup de formes urbaines et tout comme la contrainte d’interaction, elles concernent le voisinage d’un nombre important de cellules. La contrainte d’éloignement est néanmoins plus active au début de la résolution que la contrainte d’espace ou équipement tampon qui présente une plus forte activité au milieu de la résolution. On peut en déduire qu’une fois les formes urbaines suffisamment éloignées les unes des autres, elles rentrent moins en conflit avec la contrainte d’éloignement. En fait, ces trois contraintes sont étroitement liées les unes aux autres, la modification de l’une ayant des incidences directes sur les deux autres. La contrainte d’accessibilité (dans sa version locale, voir la section 8.3.3.3) travaille beaucoup au tout début de la résolution, ceci étant provoqué par son poids, le plus important parmi l’ensemble des contraintes, qui la rend prioritaire sur les autres. Et une fois que les espaces de respiration sont bien répartis sur le territoire, cette contrainte n’est que très rarement impactée. Les deux contraintes de taille minimum qui s’appliquent aux zones d’activité artisanale et industrielle présentent une activité différente l’une par rapport à l’autre. Il s’agit pourtant de la même contrainte appliquée à deux formes urbaines distinctes ! Ceci peut s’expliquer, d’une part, par des paramètres de regroupement différents, le nombre de formes industrielles à regrouper (nombre minimum pour former un groupe) étant plus important que celui des activités artisanales. Une fois le regroupement des industries réalisé, il est donc plus difficile à remettre en question. D’autre part, les relations entre les activités artisanales et les autres formes urbaines sont plus souples (moins contraignantes) que celles liées aux industries, ce qui fait que les industries sont plus vite isolées du reste, et moins impactées au fil de la résolution. La contrainte d’emprise (formation des places, voir la section 8.3.3.5) est la contrainte qui est de loin la moins active. Malgré son activité très faible, les variations de coût qu’elle présente sont globalement importantes à chaque fois qu’elle est impactée. Cette contrainte intervient uniquement autour des collèges et lycées, elle est donc limitée en nombre de cellules. Ceci explique probablement pourquoi elle est rarement impactée.11.2. TABLEAU DE BORD 201 FIGURE 11.2 – Récapitulatif des variations de coût par itération pour chaque contrainte. Les variations de coût qui apparaissent sur l’axe des ordonnées sont inversées sur les graphiques, de sorte qu’une variation négative apparaît au dessus de l’axe des abscisses, l’axe des abscisses représentant l’évolution du nombre des itérations au cours d’une résolution.202 CHAPITRE 11. EXPÉRIMENTATIONS FIGURE 11.3 – Détail des variations de coût par itération pour chaque contrainte. Les variations de coût qui apparaissent sur l’axe des ordonnées sont inversées sur les graphiques, de sorte qu’une variation négative apparaît au dessus de l’axe des abscisses, l’axe des abscisses représentant l’évolution du nombre des itérations au cours d’une résolution.11.2. TABLEAU DE BORD 203 11.2.3 Répartition des coûts par contrainte Le graphique de répartition des coûts par contrainte permet de visualiser au fil des itérations la réduction des coûts de chaque contrainte et la proportion qu’occupe chaque contrainte dans le coût global de la configuration courante (répartie dans le temps). Par rapport à l’exemple de la figure 11.4, les coûts les plus importants au début de la résolution sont répartis entre les deux contraintes Éloignement et Espace ou équipement tampon. Ce sont également ces deux contraintes qui voient leurs coûts respectifs diminuer le plus par rapport aux autres contraintes, ces diminutions étant les plus importantes au milieu de la résolution. Concernant la contrainte Accessibilité en tout point, elle subit une diminution importante au tout début du processus de ré- solution. La même remarque peut être faite pour la contrainte Interaction entre formes urbaines qui diminue toutefois moins fortement et met plus de temps à se stabiliser, son coût restant globalement constant à partir de l’itération 150. Les coûts des autres contraintes (Emprise, Taille minimum zone d’activité artisanale et industrielle) restent très faibles tout au long de la résolution. Ceci peut s’expliquer par un nombre limité de formes urbaines concernées par ces contraintes. Pour leur donner plus d’expressivité, on pourrait fixer des poids supérieurs aux contraintes de regroupement (taille minimum), ce qui permettrait de rééquilibrer la proportion des coûts entre l’ensemble des contraintes (voir la section 8.3.1). FIGURE 11.4 – Répartition des coûts par contrainte : à chaque itération (en abscisse), on superpose le coût total de chaque contrainte (en ordonnée). On reconstitue ainsi le coût global de la configuration courante qui diminue au fil de la résolution. La représentation correspond à un histogramme très resserré, on ne peut donc pas distinguer les barres qui sont réduites à des lignes verticales dont les couleurs correspondent aux rectangles de la légende : la première forme urbaine indiquée dans la légende correspond à la forme urbaine positionnée en bas du diagramme, etc. 11.2.4 Répartition des temps de calcul par contrainte On s’intéresse ici à la performance des fonctions qui calculent, pour chaque contrainte, la variation du coût occasionnée par les permutations potentielles ou par les permutations effectivement appliquées. Le nombre d’évaluations étant très important (pour les variations de coût potentielles, voir le paragraphe 7.5.2.2), on204 CHAPITRE 11. EXPÉRIMENTATIONS calcule une moyenne des temps de calcul pour un nombre d’appels donné. Par exemple, tous les 20 000 appels à ces fonctions, on enregistre le temps moyen requis pour chaque contrainte et on recommence pour les 20 000 appels suivants, etc. Les temps sont exprimés en millisecondes avec une représentation cumulée pour chaque contrainte. Sur la figure 11.5, on démarre la résolution avec un temps moyen cumulé de 0,11 ms et on la termine avec un temps moyen cumulé à 0,18 ms. L’analyse de ce graphique permet d’expliquer cette augmentation du temps de calcul moyen. En effet, au fur et à mesure de la résolution, le temps moyen de calcul pour la contrainte Espace ou équipement tampon diminue très légèrement alors que le temps moyen de calcul lié aux contraintes de taille minimum augmente plus fortement, avec une augmentation supérieure pour la contrainte de taille minimum liée aux zones d’activité artisanale. Le nombre de formes urbaines à répartir pour les activités artisanales est supérieur à celui des activités industrielles (140 contre 80) alors que la taille minimale pour former une zone d’activité artisanale est inférieure à celle des activités industrielles (6 contre 12). Ceci est suffisant pour expliquer le surcroît de temps nécessaire afin de gérer les activités artisanales : plus de formes urbaines et plus de groupes (plus petits) à gérer. FIGURE 11.5 – Répartition des temps de calcul par contrainte. 11.2.5 Paysage des gains lié à chaque candidat sélectionné Les gains correspondent uniquement aux variations de coût négatives liées aux permutations évaluées (en inversant les signes). A chaque itération du processus de résolution initiale, le solveur détermine un candidat qui sera à l’origine d’une permutation gagnante. Ce graphique représente la répartition spatiale des gains11.2. TABLEAU DE BORD 205 pouvant être obtenus (voir la figure 11.6) en impliquant chaque cellule de la grille à la permutation gagnante (i.e. avec le candidat retenu). La cellule la plus sombre correspond à celle qui offre le gain le plus important. Un graphique différent est généré à chaque itération. La figure 11.7 reprend les premières itérations une à une tandis que la figure 11.8 fait apparaître les premières itérations avec un pas de 10 en 10. Sur les exemples, les représentations du début font apparaître plusieurs cellules très foncées, signe que plusieurs gains importants sont réalisables à partir d’un même candidat. Mais l’aspect foncé disparaît rapidement laissant entrevoir des gains moins significatifs. D’autre part, la répartition spatiale de ces gains varie et leur nombre également, ceci pouvant être dû à la forme urbaine associée au candidat, les contraintes spatiales spécifiques qui s’appliquent n’étant pas les mêmes d’une forme urbaine à une autre (voir la section 8.3.3). Le nombre de cellules proposant un gain peut être important au début du processus en s’affichant avec plusieurs nuances de gris. Mais très rapidement, ce nombre se réduit et les cellules offrant un gain deviennent de plus en plus claires. Il est donc plus difficile de trouver une permutation gagnante au fur et à mesure de la résolution. Un tirage aléatoire d’une cellule gagnante pourrait être envisagé au début du processus mais ce choix ne semble pas judicieux pour les étapes suivantes. A la fin du processus de résolution, une procédure automatique rassemble tous les graphiques générés dans une vidéo unique pour représenter l’évolution du paysage des gains au fil de la résolution. FIGURE 11.6 – Paysage des permutations gagnantes avec le candidat retenu pour une itération donnée. Pour l’itération courante (no 1), un candidat (i.e. cellule non représentée ici) a déjà été identifié pour participer à une permutation gagnante. Ce graphique représente la répartition spatiale des gains pouvant être obtenus en impliquant une à une chaque cellule de la grille à la permutation gagnante (i.e. avec le candidat retenu) : plus le gain potentiel est important, plus la cellule est sombre.206 CHAPITRE 11. EXPÉRIMENTATIONS FIGURE 11.7 – Évolution du paysage des permutations gagnantes avec les candidats retenus au fil de la résolution (i.e. à chaque itération), limitée aux 12 premières itérations. Chaque graphique correspond à une itération. A chaque itération, un candidat est identifié pour participer à une permutation gagnante. Chaque graphique correspond au paysage des permutations gagnantes avec le candidat retenu pour l’itération indiquée.11.2. TABLEAU DE BORD 207 FIGURE 11.8 – Évolution du paysage des permutations gagnantes avec les candidats retenus au fil de la résolution (toutes les 10 itérations). Chaque graphique correspond à une itération. A chaque itération, un candidat est identifié pour participer à une permutation gagnante. Chaque graphique correspond au paysage des permutations gagnantes avec le candidat retenu pour l’itération indiquée. 11.2.6 Comparaison des performances entre différentes versions de l’algorithme de résolution Comme indiqué dans la section sur le paysage des gains (voir section 11.2.5), un gain correspond à une variation de coût négative liée à une permutation gagnante (en inversant son signe). On parlera également ici de durée cumulée : il s’agit du temps mis par le processus de résolution pour atteindre une itération208 CHAPITRE 11. EXPÉRIMENTATIONS donnée. Par exemple, la première itération est atteinte avec une durée cumulée = 0, la centième itération correspond à une durée cumulée de 50 s, etc. Cette durée cumulée dépend bien évidemment de l’algorithme employé pour résoudre un problème. Sur un même graphique, nous comparons les performances de trois versions de l’algorithme de résolution pour une même instance de problème en représentant à chaque itération : • les gains obtenus sur le coût global de la configuration courante ; • la durée cumulée utilisée par le processus de résolution depuis son démarrage. En faisant apparaître ces résultats pour chaque version, on peut facilement comparer l’évolution des gains au cours des processus de résolution et le temps global nécessaire à chaque version. FIGURE 11.9 – Comparaison des temps et des gains obtenus à chaque itération entre différentes versions de l’algorithme de résolution. L’instance correspond à une représentation simplifiée pour une grille 32x32. Les temps sont exprimés en secondes. Les échelles de temps et de gains sont identiques d’une figure à l’autre. L’axe des abscisses correspond à l’évolution du nombre des itérations au cours d’une résolution. L’exemple proposé en figure 11.9 remonte au 14 mars 2013 et nous le reprenons ici pour illustrer cette représentation (type de graphique) qui fait partie du tableau de bord, pas pour comparer précisément les performances des différentes versions qui ont évolué depuis et que nous décrivons rapidement ci-dessous sans rentrer dans les détails. La version standard recherche à chaque itération la meilleure permutation à appliquer sur la configuration courante en évaluant toutes les combinaisons possibles. Il s’agit de la version de référence correspondant à une méthode de plus forte descente (voir la section 5.6.4). La version candidat11.3. EXPÉRIMENTATIONS LIÉES À LA RÉSOLUTION INITIALE 209 recherche la meilleure permutation à chaque itération en évaluant les permutations possibles uniquement à partir d’un meilleur candidat identifié (conforme à la méthode Adaptive Search, cf. section 5.6.9). La version distribuée correspond au protocole no 4 (cf. section 9.4.3.3), avec un découpage de la grille en 4 partitions confiées à 10 processus esclaves. Chaque processus esclave recherche 24 permutations au maximum à partir d’un seul candidat. Le processus maître collecte alors l’ensemble des permutions provenant des différents esclaves et applique en série les meilleures permutations collectées encore capables de produire un gain. L’exemple de la figure 11.9 montre une version standard capable de trouver les meilleurs gains à chaque itération mais dont le temps de résolution s’envole. Les deux autres versions (candidat et distribuée) né- cessitent plus d’itérations, mais elles s’exécutent beaucoup plus rapidement. Ceci est lié au fait qu’elles travaillent avec un nombre limité de candidats (voir la section 9.3), ce qui réduit très fortement le nombre de permutations à évaluer à chaque itération. En contrepartie, il n’est pas sûr que la permutation retenue pour une itération soit la meilleure. Toutefois, ce schéma indique que les candidats identifiés lors d’une résolution sont pertinents pour générer des gains. Certes, les variations dans les gains trouvés sont importantes pour la version candidat, mais on atteint tout de même des niveaux de gain comparables à la version standard. La version distribuée fait apparaître une variation des gains plus importante encore que le version candidat, ceci étant lié à son mode de fonctionnement qui permet d’appliquer plusieurs permutations en série (voir la section 9.3.4), certaines permutations retenues pouvant subir une dégradation importante par rapport aux gains prévus. Mais en compensation, son fonctionnement permet de trouver un nombre supérieur de permutations. 11.3 Expérimentations liées à la résolution initiale 11.3.1 Comparaison entre les principales versions et modes de fonctionnement Nous comparons dans la figure 11.10 les temps de calcul pour une résolution initiale lancée dans différentes conditions : • version mono-processus ou distribuée (uniquement avec le protocole no 4, voir la section 9.4.3.3) ; • mode multi-candidat activé ou non ; • mode multi-permutation activé ou non ; • nombre de processus esclaves (slaves) plus ou moins important. Les tests sont réalisés sur la ville de Marne-La-Vallée qui contient 9038 cellules libres (i.e. variables). Les résolutions s’arrêtent lorsqu’elles atteignent une qualité de solution acceptable ou dès qu’un timeout spécifié est atteint. Nous définissons une solution acceptable comme une solution ayant un coût inférieur ou égal à celui de la meilleure solution trouvée pendant la résolution distribuée mettant en œuvre 36 processus esclaves (i.e. 1 260 717). Les résultats indiqués pour les cinq expérimentations correspondent à une moyenne de 10 exécutions, chaque exécution partant d’une instance aléatoire différente. Entre chaque expérimentation, on utilise néanmoins les mêmes instances aléatoires de départ pour que les comparaisons soient cohérentes (cf. section 11.1.3.2). Lors de ces expérimentations, nous utilisons les serveurs granduc situés au Luxembourg, avec 22 nœuds, chacun ayant 2 CPU Intel à 2.0 GHz, 4 cores/CPU et 15 GB RAM. Concernant la contrainte d’accessibilité (voir la section 8.3.3.3), nous avons activé la version locale qui offre de bien meilleurs temps de calcul compte tenu de la taille réelle de nos instances (e.g. permet de réduire le temps de recherche d’une itération de 4 minutes à quelques millisecondes sur une grille 64x64). Les résultats montrent que la version séquentielle (mono-processus) est légèrement améliorée en activant le mode multi-permutation. Mais les meilleures améliorations proviennent de la version distribuée, qui tire le maximum d’avantages des modes multi-candidat et multi-permutation. Finalement, en considé- rant le score cible de 1 260 717, on constate un accélération ×11.51 entre la version mono-processus de210 CHAPITRE 11. EXPÉRIMENTATIONS FIGURE 11.10 – Tests des performances pour différentes versions (mono-processus, distribuée) et différents modes de fonctionnement (multi-candidat et multi-permutation). Comparaison des temps de résolution (en faisant une moyenne sur 10 exécutions par méthode) pour obtenir une solution initiale dont la qualité est imposée sur l’instance de Marne-La-Vallée. La version distribuée est évaluée avec le protocole no 4. base (modes multi-candidat et multi-permutation désactivés) et la version distribuée (36 processus esclaves, mode multi-candidat activé avec 1 candidat par esclave, mode multi-permutation activé avec 10 permutations par esclave). Ces premiers résultats montrent que l’on peut exécuter nos algorithmes d’optimisation sur des villes de taille réelle en moins d’une heure, ce qui paraît suffisant pour les besoins des urbanistes. 11.3.2 Évaluation des protocoles 1 et 4 de la version distribuée Pour cette série d’expérimentations sur Grid’5000, nous avons utilisé les serveurs griffon de Nancy équipés de processeurs Intel Xeon L5420 cadencés à 2,5 Ghz. Chaque nœud dispose de 2 CPU et chaque CPU de 4 cores, ce qui fait 8 cores disponibles par nœud. Concernant les protocoles 1 et 4 qui ont été évalués ici, le mode multi-candidat est activé avec 1 candidat par esclave. On récupère 10 permutations sur chaque esclave et pour rejouer une permutation sur le maître, son gain ne doit pas varier (i.e. diminution par rapport à l’évaluation initiale) de plus de 80%.11.3. EXPÉRIMENTATIONS LIÉES À LA RÉSOLUTION INITIALE 211 FIGURE 11.11 – Recherche du nombre optimal de processus esclaves à mobiliser. 11.3.2.1 Nombre optimal de processus esclaves à mobiliser Avec la figure 11.11, nous cherchons à déterminer le nombre optimal de processus esclaves à mobiliser sur le problème de Marne-La-Vallée afin d’obtenir les meilleurs temps de résolution possibles pour atteindre un coût global cible fixé à 1 350 000. Ce coût global cible a évolué par rapport aux expérimentations de la figure 11.10 car le paramétrage des contraintes a été modifié entre temps. Nous avons évalué les performances pour 36, 120, 231 et 465 esclaves sur les deux protocoles. Le protocole no 4 a également été évalué avec 820 esclaves, en réalisant toujours une moyenne des résultats sur 10 exécutions. Avec un nombre de processus esclaves identique, le protocole no 4 propose toujours des temps de résolution inférieurs à ceux du protocole no 1. Pour le protocole no 1, on peut estimer un nombre optimal de processus compris entre 100 et 200 compte tenu de la granularité de nos tests. Pour le protocole n o 4, il semblerait que le nombre optimal soit situé bien au delà, aux alentours de 800 esclaves. Ces résultats mériteraient d’être approfondis en évaluant les temps de résolution pour un nombre d’esclaves plus fin sur certaines portions de la courbe (e.g. incrémenter le nombre d’esclaves de 10 en 10 entre 100 et 200 esclaves pour le protocole no 1). Néanmoins, ils apportent la démonstration que le protocole no 4 est plus performant que le protocole no 1 pour un nombre d’esclaves équivalent, et que ce protocole supporte également une bien meilleure montée en charge : 495 secondes, soit un peu plus de 8 minutes pour résoudre le problème de Marne-La-Vallée, en mobilisant 820 esclaves.212 CHAPITRE 11. EXPÉRIMENTATIONS FIGURE 11.12 – Comparaison des temps de résolution entre la version mono-processus et la version distribuée déployée à grande échelle. Les protocoles 1 et 4 sont des protocoles distribués. Les intitulés « protocol- [x]-[y]s » identifie le no du protocole (x) et le nombre de processus esclaves mobilisés (y). 11.3.2.2 Comparaison des temps de résolution entre la version mono-processus et la version distribuée déployée à grande échelle Finalement, nous comparons avec la figure 11.12 les performances des protocoles 1 et 4 de la version distribuée avec la version mono-processus pour évaluer les accélérations maximales pouvant être obtenues en mobilisant un nombre important de processus esclaves. Concernant la version mono-processus, le mode multi-candidat est désactivé alors que le mode multipermutation est activé avec 10 permutations. La meilleure accélération par rapport à la version monoprocessus est obtenue par le protocole distribué no 4 en mobilisant 820 processus esclaves, on mesure alors une accélération de ×36.45. 11.4 Retour des urbanistes 11.4.1 Évaluation des solutions initiales Les urbanistes impliqués sur le projet SUSTAINS ont cherché un moyen d’analyser de manière précise la répartition des formes urbaines sur le territoire de Marne-La-Vallée, ces éléments étant automatiquement11.4. RETOUR DES URBANISTES 213 générés par notre résolution initiale. Pour cela, ils ont sélectionné à partir de nos résultats certaines formes urbaines qu’ils ont représentées séparément. Ils ont ainsi généré différentes cartes qui permettent de visualiser la répartition des formes urbaines retenues en fonction de la zone d’intensité. Ces cartes ont été réalisées pour les formes urbaines suivantes : • l’habitat collectif R+4 et R+7 (cf. figure 11.13) ; • les zones d’activités industrielles et artisanales (cf. figure 11.14) ; • les espaces verts (cf. figure 11.15). Une dernière carte reprend ensemble différentes formes urbaines positionnées par nos procédures d’optimisation : les établissements scolaires avec les différentes formes d’habitat, ceci pour évaluer leur localisation les unes avec les autres (cf. figure 11.16). A partir de ces différentes représentations, ils ont pu analyser nos résultats au regard de leurs règles métier. Nous reprenons telle quelle leur conclusion : « Ces représentations permettent de vérifier que la forme urbaine ne génère pas d’incohérence majeure, mais également de considérer les voies possibles d’amélioration de ce module. En ce qui concerne par exemple les établissements scolaires, on peut ainsi vérifier que les lycées correspondent bien à deux îlots (une taille minimale est en effet requise afin que toutes les filières puissent y être représentées). De plus, on observe qu’un collège peut être attenant à un lycée ». FIGURE 11.13 – Répartition de l’habitat collectif par rapport aux niveaux d’intensité urbaine (intensités : 2, 3 et 5). Formes urbaines positionnées sur la carte par notre solveur suite à une résolution initiale. Figure extraite du rapport SUSTAINS Livrable 3.1 : EXPERIMENTATION SUR LE TERRITOIRE DE MARNELA-VALLEE. Avec l’accord des auteurs : Bernard COUTROT (SIMARIS) & Valérie GACOGNE (COMPLEXIO).214 CHAPITRE 11. EXPÉRIMENTATIONS FIGURE 11.14 – Répartition des zones d’activité par rapport aux niveaux d’intensité urbaine (intensités : 2, 3 et 5). Formes urbaines positionnées sur la carte par notre solveur suite à une résolution initiale. Figure extraite du rapport SUSTAINS Livrable 3.1 : EXPERIMENTATION SUR LE TERRITOIRE DE MARNELA-VALLEE. Avec l’accord des auteurs : Bernard COUTROT (SIMARIS) & Valérie GACOGNE (COMPLEXIO). FIGURE 11.15 – Répartition des espaces verts par rapport aux niveaux d’intensité urbaine, hors espaces de respiration (intensités 2, 3 et 5). Formes urbaines positionnées sur la carte par notre solveur suite à une résolution initiale. Figure extraite du rapport SUSTAINS Livrable 3.1 : EXPERIMENTATION SUR LE TERRITOIRE DE MARNE-LA-VALLEE. Avec l’accord des auteurs : Bernard COUTROT (SIMARIS) & Valérie GACOGNE (COMPLEXIO).11.4. RETOUR DES URBANISTES 215 FIGURE 11.16 – Visualisation des établissements scolaires et de l’habitat. Formes urbaines positionnées sur la carte par notre solveur suite à une résolution initiale. Figure extraite du rapport SUSTAINS Livrable 3.1 : EXPERIMENTATION SUR LE TERRITOIRE DE MARNE-LA-VALLEE. Avec l’accord des auteurs : Bernard COUTROT (SIMARIS) & Valérie GACOGNE (COMPLEXIO). 11.4.2 Évaluation du mode interactif Trois urbanistes expérimentés ont évalué de façon moins formelle les bénéfices du mode interactif au travers de discussions ouvertes. Au cours des démonstrations avec eux, nous avons passé sous silence la sélection et le chargement d’un scénario de travail, tellement cette opération parait naturelle. Nous avons donc récupéré une ville déjà organisée (résultat d’une résolution initiale) pour la modifier manuellement. Si l’on se réfère à la figure 10.2 qui met en parallèle la ville de Marne-La-Vallée organisée sous une forme aléatoire (en haut) et sous une forme optimisée (en bas), il parait beaucoup plus facile d’opérer des arrangements sur la carte optimisée qui est déjà bien structurée par rapport à l’autre totalement désorganisée. De plus, une ré-optimisation locale est beaucoup plus rapide sur une partie perturbée ayant déjà fait l’objet d’une optimisation. Passée cette étape de chargement d’un scénario de travail, les urbanistes ont été très intéressés par la possibilité de réarranger les éléments urbains sur la ville pendant que la carte se réorganise, en maintenant à la volée la cohérence des contraintes. Dans la pratique, les manipulations des utilisateurs sont susceptibles de réduire les coûts sur la contrainte d’interaction par exemple, mais il est commode de ne pas avoir à traiter manuellement ces contraintes structurelles. Un autre exemple particulièrement expressif concerne la contrainte de regroupement qui provoque le rassemblement des activités artisanales ou industrielles autour des éléments d’un groupe fragmenté en cours de déplacement. La carte de chaleur (voir la section 10.6.1) a été particulièrement appréciée car elle permet de repérer de façon très intuitive et naturelle les régions de la ville dont les propriétés urbaines sont les plus dégradées. Son actualisation « en temps réel » permet d’évaluer les impacts en cours de manipulation et guide les déplacements de l’utilisateur, ce qui constitue une aide efficace lors de ses choix. Le graphique qui propose un historique d’évolution des coûts (voir la section 10.6.2) apparaît moins intuitif et a nécessité une explication préalable avant d’être accepté des utilisateurs. La partie à gauche de l’écran, reprenant le détail des coûts par contrainte pour la configuration courante, pourrait être avantageusement remplacée par un graphique en forme de camembert plus rapide à interpréter dans ce contexte interactif.216 CHAPITRE 11. EXPÉRIMENTATIONS 11.5 Conclusion Ce chapitre commence en expliquant notre méthodologie de travail. A cette occasion, nous sommes revenus sur les premiers prototypes de notre solveur qui nous ont permis de faire des choix progressifs et éclairés. Nous avons également présenté nos différents jeux de données et l’organisation mise en place pour gérer les nombreux paramètres de configuration. Les sections implémentation et déploiement apportent des pré- cisions sur l’architecture technique mise en œuvre, le volume des développements que nous avons réalisés en équipe et mes choix de déploiement. La partie suivante aborde les composantes du tableau de bord proposé pour analyser le fonctionnement du solveur et le comportement des différentes contraintes. Plusieurs graphiques sont présentés : la variation des coûts, la répartition des coûts, la répartition des temps de calcul ou encore la vidéo qui séquence le paysage des gains potentiels liés à chaque candidat sélectionné. Cette partie se termine avec la présentation d’un graphique capable de comparer la proportion des gains obtenus et des temps cumulés (depuis le début des résolutions) à chaque itération pour trois versions différentes de nos algorithmes de résolution. Nous abordons ensuite la partie « expérimentations liées à la résolution initiale ». La première section compare les performances des principales versions (mono-processus et distribuée) en exploitant des modes de fonctionnement différents (multi-candidat, multi-permutation). Nous nous focalisons ensuite sur deux protocoles distribués (1 et 4) afin d’optimiser leur fonctionnement en qualifiant un nombre de processus esclaves permettant d’obtenir les meilleures performances possibles (en temps de résolution pour un coût cible sur une instance de taille réelle). Les meilleurs temps ont été atteints grâce à un déploiement sur 820 processus esclaves avec le protocole distribué no 4. Testé sur la ville de Marne-La-Vallée, ce protocole distribué permet une accélération ×36 par rapport à la version mono-processus exploitée en mode multipermutation activé (avec un maximum de 10 permutations). Nous terminons ce chapitre en donnant la parole aux urbanistes qui ont pu évaluer deux aspects importants de nos travaux : (i) la qualité des solutions générées par une résolution initiale et (ii) la pertinence du mode interactif. Pour les résolutions initiales proposées, aucune incohérence majeure n’a été relevée. Des possibilités d’amélioration existent et ouvrent la voie vers des perspectives de recherche complémentaires. Le mode interactif a également suscité un fort intérêt, notamment pour ses possibilités de réarranger manuellement des éléments urbains sur une ville désormais capable de s’adapter à la volée aux changements demandés, en maintenant au mieux la cohérence des contraintes urbaines. La carte de chaleur capable de représenter les anomalies urbaines par degré d’importance et de façon spatialisée constitue une véritable aide aux utilisateurs pour opérer des choix en évaluant instantanément leurs impacts.IV Conclusion 21712 Conclusion générale et perspectives 12.1 Conclusion générale Nous avons commencé ce manuscrit en présentant les villes et les concepts du développement durable, deux sujets qui ont des impacts importants sur les conditions de vie des populations urbaines de plus en plus nombreuses. La conception de villes durables nécessite de prendre des décisions complexes qui engagent des moyens souvent très importants et dont les effets sont visibles sur le long terme. Un état de l’art du domaine ainsi qu’une analyse des outils mis à disposition des urbanistes nous ont permis d’étayer nos propos. Afin d’aider les urbanistes, aménageurs et décideurs dans le processus de conception de villes durables, ma première contribution a été de proposer un modèle pour notre problème d’aménagement urbain qui repose sur des contraintes spatiales, le but étant de répartir un ensemble équilibré de formes urbaines (ré- sidences, commerces, industries, écoles, parcs, . . . ) sur un territoire vierge et délimité dans l’espace tout en assurant la satisfaction des contraintes. Pour optimiser les instances de ce problème, nous avons associé à chaque contrainte spatiale une fonction de coût capable d’évaluer le niveau de violation des différentes propriétés urbaines qu’elle représente. Une description formelle de chaque contrainte a été proposée. Ma seconde contribution porte sur la réalisation d’un solveur basé sur une méthode de recherche locale, Adaptive Search [47, 48], étendu avec des heuristiques novatrices pour améliorer les temps de calcul. Une version distribuée a également été proposée. Cette version distribuée a été déployée sur une grille de calcul1 pour générer différentes solutions sur Marne-La-Vallée, une ville nouvelle qui s’étend sur 8 728 hectares et qui regroupe 234 644 habitants. Les expérimentations menées sur cette ville ont mis en évidence des gains de temps significatifs liés à la version distribuée de notre solveur. Cette version est capable de fournir de bons résultats dans des temps raisonnables pour des villes importantes. De leur coté, les urbanistes associés au projet de recherche SUSTAINS ont vérifié la qualité des différentes solutions générées (en automatique) par notre solveur sans relever d’incohérence majeure. Ils évoquent des voies possibles pour l’amélioration de notre module. La seconde étape du processus de résolution est interactive et elle correspond à ma troisième contribution : le concepteur peut interagir avec les solutions générées tandis que le solveur ré-optimise localement les zones autour des modifications demandées. Des retours graphiques générés à la volée permettent aux opérateurs de visualiser les impacts occasionnés par leurs modifications. Une vidéo est disponible (voir ici http://vimeo.com/80211470) pour illustrer le mode de fonctionnement interactif. 1https://www.grid5000.fr 219220 CHAPITRE 12. CONCLUSION GÉNÉRALE ET PERSPECTIVES 12.2 Perspectives de recherche Concernant les performances tout d’abord, la version distribuée de notre solveur peut certainement être optimisée. Pour cela, nous pourrions envisager une organisation maître-esclaves plus sophistiquée avec des agents intermédiaires permettant de limiter les communications réseau les plus pénalisantes tout en renforçant une autonomie plus grande localement (i.e. sur chaque nœud du réseau). Suite aux évaluations des urbanistes, nous savons que le modèle que nous proposons peut être enrichi. Reste à définir avec les experts du domaine les pistes pour l’étendre ou pour l’adapter à de nouveaux besoins. En effet, le sujet que nous abordons est vaste et propice à de nouveaux projets de recherche très diversifiés. Un projet urbain peut être envisagé à différentes échelles (ville, quartier, îlot, parcelle, . . . ), et il traverse une succession d’étapes (pré-programmation, programmation, construction, . . . ) pouvant être en ruptures les unes avec les autres. Fédérer cette succession d’étapes en envisageant une continuité entre les différentes échelles constitue une perspective de recherche intéressante dans laquelle nos travaux pourraient s’intégrer. Le développement durable repose sur un équilibre entre trois piliers de base représentés par l’économie, l’écologie et les aspects sociaux. Il pourrait être utile de regrouper les contraintes de notre modèle sur la base de ces différents piliers pour envisager une résolution multi-objectifs [51]. Cette approche renforcerait la possibilité d’arbitrer des efforts limités dans un domaine pour procurer des gains significatifs dans les autres. Enfin, l’interaction que nous proposons est basée sur une représentation en 2D. Une interaction mettant en scène des scénarios de villes en 3D pourrait se justifier pour des projets qui s’intéressent plus spécifiquement à la perception visuelle ou aux ambiances urbaines. Aujourd’hui, rien ne nous empêche d’imaginer une immersion interactive dans une ville virtuelle animée où l’utilisateur modifierait la ville à son gré et se déplacerait dans les rues pour la percevoir sous ses différents points de vue et à différentes échelles : une expérience urbaine numérique pour améliorer la qualité des villes du futur. Bien que notre modèle soit limité, n’adoptant qu’une vue partielle du problème, appliqué seulement à des villes nouvelles (ou à des nouveaux quartiers), il présente de premiers éléments de réponse dans la tâche complexe d’aide à la création de villes plus durables, et ouvre des perspectives encourageantes quant à la création d’une nouvelle génération d’outils de conception, dans une approche fondamentalement pluridisciplinaire.Liste des tableaux 5.1 Problème du voyageur de commerce : temps de calcul nécessaire pour trouver le trajet le plus court en réalisant une énumération exhaustive de tous les trajets possibles en fonction du nombre de villes (un trajet pouvant être évalué en une microseconde). D’après [24]. . . 56 7.1 Pourcentages d’erreur des meilleures métaheuristiques appliquées au QAP. RobuTS (Recherche tabou robuste [263]), ReacTS (Recherche tabou réactive [17]), Rec-Sim (Recuit simulé [54]), Hybrid-Gen (Algorithme génétique [94]), Hybrid-Ant (Méthode de colonies de fourmis [100]). D’après T. MAUTOR [187]. . . . . . . . . . . . . . . . . . . . . . . . 127 8.1 Paramètres des contraintes de regroupement par forme urbaine. . . . . . . . . . . . . . . 140 9.1 Principales caractéristiques liées au fonctionnement des différents protocoles distribués. . . 162 9.2 Protocole no 4 : exemple de décomposition de la carte d’une ville en quatre parties de taille uniforme (à gauche) et distribution de ces parties sur dix processus esclaves (à droite). . . . 174 11.1 Neuf jeux de données proposés avec une représentation simplifiée de la ville pour participer à nos expérimentations. Pour chaque taille de grille, nous mettons en correspondance le nombre de variables du problème (i.e. nombre de cellules libres). . . . . . . . . . . . . . . 194 221Table des figures 1.1 Organisation de la thèse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.1 Comparaison entre planification des villes et urbanisme ; d’après [69]. . . . . . . . . . . . 22 4.1 Échanges entre les modules attribués aux différents acteurs du projet SUSTAINS : ① Surface à aménager et autres paramètres ② Objectif en nombre d’îlots de chaque type (maisons, immeubles d’habitation, commerces, écoles, bureaux, . . . ) ③ Adresse du fichier de configuration ④ Contenu du fichier de configuration dans lequel est assigné à chaque îlot symbolique une fonction urbaine (maisons, immeubles d’habitation, commerces, écoles, bureaux, . . . ) ⑤ Données sous la forme d’un fichier KML ⑥ Entrées issues du traitement relatif au fichier KML ⑦ Volumes annuels de consommation par mode sous la forme d’un fichier CSV ⑧ Fichier KML dans lequel a été inclus l’ensemble des résultats énergie et transport ⑨ Fichier 3D de base ⑩ État du traitement du fichier 3D et index du projet. (Schéma extrait du rapport de fin de projet SUSTAINS.) . . . . . . . . . . . . . . . . . . 46 4.2 Conception d’un environnement urbain durable en 4 étapes : (1) paramétrage des contours du territoire urbain, des propriétés, des axes principaux, des centralités et des zones d’intensités ; (2) calcul du nombre de formes urbaines par niveau d’intensité ; (3) positionnement automatique des formes urbaines sur la ville en respectant un équilibre entre les trois piliers d’un développement durable (économique, social, et environnemental) sans privilégier l’un au détriment des autres ; (4) manipulation interactive des formes urbaines avec maintien des contraintes et préférences. Les deux dernières étapes sont au cœur de notre travail de thèse. 47 5.1 Méthodes classiques d’optimisation. D’après le livre [266]. . . . . . . . . . . . . . . . . . 61 5.2 Principe lié aux algorithmes d’approximation. D’après [239]. . . . . . . . . . . . . . . . . 64 5.3 Fonctionnement général d’une méthode de recherche locale : représentation sous la forme d’une marche à travers l’espace de recherche en partant d’une solution initiale s0 et en se dirigeant de proche en proche vers une solution optimale localement s ∗ . . . . . . . . . . . 76 5.4 Optimum global et local pour un problème de minimisation. . . . . . . . . . . . . . . . . 77 5.5 Paysage lisse d’après [181]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 5.6 Paysage rugueux d’après [181]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 5.7 Paysage d’un problème d’optimisation d’après [181]. . . . . . . . . . . . . . . . . . . . . 79 5.8 Principe de génération du voisinage à partir de la solution courante et sélection d’un voisin d’après [35]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 5.9 Classification (I&D) des composants d’une stratégie de recherche proposée par BLUM et ROLI [30] (OG = composants exclusivement guidés par la fonction objectif ; NOG = composants I&D uniquement guidés par une ou plusieurs fonctions autres que la fonction objectif ; R = composants guidés de façon totalement aléatoire). Le composant repéré par une croix ’X’ situé à mi-chemin entre l’intensification et la diversification n’est pas stochastique. 82 223224 TABLE DES FIGURES 5.10 Recherche tabou pour un problème de minimisation : déplacement dans l’espace de recherche en sélectionnant à chaque itération le meilleur voisin dans un voisinage débarrassé des solutions récentes marquées tabou (pour éviter les cycles). On alterne ainsi entre des phases d’intensification et de diversification qui poussent la recherche à se diriger vers un optimum global. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 5.11 Modèle parallèle de programmation Master-Slave d’après [58]. . . . . . . . . . . . . . . . 92 5.12 Décomposition de domaine suivant le modèle de programmation Master-Slave d’après [58]. 93 5.13 Modules de la plateforme ParadisEO d’après [146]. . . . . . . . . . . . . . . . . . . . . . 98 6.1 Modèle IDC (Intelligence, Design, Choice) proposé par H.A. SIMON [249]. . . . . . . . . 100 6.2 Correspondance entre l’importante des phases du modèle IDC et la structuration des décisions proposée par LE MOIGNE [167]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 6.3 Structure d’un SAD proposée par SPRAGUE [255]. . . . . . . . . . . . . . . . . . . . . . 102 6.4 Comparaison des profils de qualité de deux méthodes de résolution M1 et M2 sur une même instance de problème. Bien que les deux méthodes atteignent l’optimum pour un temps T de résolution identique, la méthode M1 apparaît plus efficace que M2 dans un contexte interruptible. D’après la thèse de Lionel LOBJOIS [172]. . . . . . . . . . . . . . . . . . . 105 7.1 Profit de la rente foncière et anneaux de Von THÜNEN (pour 3 anneaux). D’après J.H. VON THÜNEN et al. [279]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 7.2 Modèle de CHRISTALLER : théorie des lieux centraux. D’après W. CHRISTALLER [45]. . . 111 7.3 Modèle de ZIPF : relation rang-taille des unités urbaines françaises en 1990. D’après FABRIÈSVERFAILLIE et al. [89]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 7.4 Modèle de rente à payer en fonction de la distance au centre. D’après W. ALONSO [6]. . . 112 7.5 Modèle radioconcentrique de BURGESS. D’après E.W. BURGESS [37]. . . . . . . . . . . . 112 7.6 Modèle de HOYT sur la théorie des secteurs : (1) Centre des affaires, (2) Industries et entrepôts, (3) Résidences des classes pauvres, (4) Résidences des classes moyennes, (5) Résidences des classes aisées. D’après H. HOYT [137]. . . . . . . . . . . . . . . . . . . . . . 113 7.7 La théorie des centres multiples : (1) Centre des affaires, (2) Industries légères et entrepôts, (3) Résidences des classes pauvres, (4) Résidences des classes moyennes, (5) Résidences des classes aisées, (6) Industries lourdes. D’après C.D. HARRIS et E.L. ULLMAN [129]. . 113 7.8 Schéma simplifié d’un modèle dynamique de type LUTI. D’après le rapport final sur la première phase d’ULTISIM [61]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 7.9 Positionnement des modèles LUTI. D’après le rapport final sur la première phase d’ULTISIM [61]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 7.10 Cours du temps dans UrbanSim. D’après le Rapport 1 - SIMAURIF [246] . . . . . . . . . 119 7.11 Affectation (assignment) π = (3, 2, 4, 1). D’après R.Z. FARAHANI et al. [90]. . . . . . . . 126 7.12 Publications : proportions des solutions techniques proposées pour les QAP. D’après R.Z. FARAHANI et al. [90]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 8.1 Formes urbaines réparties automatiquement sur la zone expérimentale de la ville de Marnela-Vallée, en prenant en compte les contraintes d’un développement urbain durable exprimées par les urbanistes. D’après les travaux du projet SUSTAINS - schéma fourni par le LIMSI (Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur). . . . 132 8.2 Illustration de la distance de Tchebychev à partir de la cellule marquée par un « O » et positionnée en ligne 3, colonne 3 : chaque colonne est repérée par sa distance (allant de 1 à 4) par rapport à la cellule « O ». . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 8.3 Illustration de la distance de Manhattan à parcourir entre le point de départ « D » et le point d’arrivée « A ». . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136TABLE DES FIGURES 225 8.4 (V 2 3,3 ) représente le voisinage de la cellule marquée par un « O » et positionnée en ligne 3, colonne 3 pour une taille de voisinage = 2 : le voisinage est constitué de toutes les cellules marquées par un « 1 » et un « 2 ». . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 8.5 (V¯2 3,3 ) représente l’anneau de voisinage de la cellule marquée par un « O » et positionnée en ligne 3, colonne 3 pour une taille de voisinage = 2 : l’anneau est constitué de toutes les cellules marquées par un « 2 ». . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 8.6 Contrainte d’interaction entre formes urbaines permettant d’exprimer les préférences de positionnement des formes urbaines les unes par rapport aux autres. Chaque cellule est en interaction avec ses cellules voisines dans un voisinage limité à une taille de 3 cellules. La force d’interaction entre deux cellules diminue avec l’augmentation de la distance qui les sépare. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 8.7 Contrainte de distance minimale de séparation entre formes urbaines. . . . . . . . . . . . . 140 8.8 Contraintes de regroupement d’une forme urbaine. . . . . . . . . . . . . . . . . . . . . . 141 8.9 Contrainte d’accessibilité globale avec une distance de couverture limitée à 4 cellules (en distance de Manhattan) : coût imputé sur chaque cellule habitée et non couverte par un espace de respiration. Dans cet exemple, la cellule marquée « ER » correspond à la seule cellule occupée par un espace de respiration. . . . . . . . . . . . . . . . . . . . . . . . . . 142 8.10 Contrainte d’accessibilité locale avec une distance de couverture limitée à 4 cellules (distance de Tchebychev) : on indique le nombre d’espaces de respiration qui couvrent chaque cellule habitée. Dans cet exemple, les cellules marquées « ER1 » et « ER2 » correspondent aux cellules occupées par un espace de respiration. Les cellules habitées marquées avec le chiffre « 0 » sont les cellules qui vont alimenter la fonction de coût (pénalité pour chaque cellule sans couverture). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 8.11 Illustration des séparations simples ou doubles entre la cellule centrale et les cellules de l’anneau périphérique situées à une distance stricte d = 2. . . . . . . . . . . . . . . . . . . 145 8.12 Emprise au sol : le nombre d’espaces verts au pied d’un collège ou d’un lycée est imposé et ce nombre dépend de la présence de certaines formes urbaines particulières à proximité de l’établissement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 8.13 Filtrage et diversité des formes urbaines sur chaque centralité : la centralité principale est constituée de quatre cellules repérées par l’utilisateur avec la lettre « C » et disposées de part et d’autre d’un axe routier important (avenues). Les formes urbaines positionnées sur ces cellules doivent être « 6= » entre elles pour favoriser la diversité et un filtre « F » limite les formes urbaines pouvant prendre place sur chaque cellule. . . . . . . . . . . . . . . . . 147 9.1 Initialisation aléatoire : structures de données utilisées pour créer une solution initiale. . . . 151 9.2 Initialisation gloutonne : paramétrage, par forme urbaine, de la priorité de placement et du mode de sélection d’une cellule. On commence par positionner l’industrie (no 1) et on termine par le placement des espaces de respiration (no 19). La colonne « random » indique si on doit choisir une cellule disponible au hasard ou si on choisit celle qui génère un coût d’affectation minimum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 9.3 Initialisation gloutonne : structures de données utilisées pour créer une solution initiale. . . 153 9.4 Mode distribué : fonctionnement général maître-esclaves. La partie « itérations » signalée en foncé est spécifique à chaque protocole distribué que nous proposons et elle fera l’objet d’un schéma complémentaire dans les sections correspondantes. . . . . . . . . . . . . . . 161 9.5 Exemple de découpage d’une grille pour former 4 partitions de même taille : chaque groupe est composé de 18 cellules libres, les cellules fixes étant repérées par un caractère « X ». . 164226 TABLE DES FIGURES 9.6 Comparaison du fonctionnement général de chaque protocole distribué pour une itération. Avec : (DC) Demande Candidats ; (RC) Recherche Candidats ; (SC) Synchronisation Candidats ; (DP) Demande Permutations ; (RP) Recherche Permutations ; (SP) Synchronisation Permutations ; (AP) Application Permutations. Le bleu représente un travail à l’échelle d’une partition et le jaune au niveau de la grille entière. Un ovale en pointillé englobe les tâches réalisées par les esclaves, le reste étant pris en charge par le processus maître. Les doubles traits pointillés indiquent un échange via le réseau. . . . . . . . . . . . . . . . . . 168 9.7 Mode distribué : traitements réalisés à chaque itération avec le protocole no 1. Cette partie vient compléter le schéma relatif au fonctionnement général maître-esclaves pour la section « Itérations » (cf. figure 9.4). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 9.8 Mode distribué : traitements réalisés à chaque itération avec le protocole no 2. Cette partie vient compléter le schéma relatif au fonctionnement général maître-esclaves pour la section « Itérations » (cf. figure 9.4). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 9.9 Mode distribué : traitements réalisés à chaque itération avec le protocole no 3. Cette partie vient compléter le schéma relatif au fonctionnement général maître-esclaves pour la section « Itérations » (cf. figure 9.4). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 9.10 Mode distribué : traitements réalisés à chaque itération avec le protocole no 4. Cette partie vient compléter le schéma relatif au fonctionnement général maître-esclaves pour la section « Itérations » (cf. figure 9.4). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 10.1 Routage des messages et interception des événements entre le dispositif tactile et le solveur interactif. Le gestionnaire de messages prend en charge le transfert des informations sur le réseau et permet un couplage faible entre les deux processus. Deux connecteurs repérés par les lettres « E » et « S » permettent à chaque processus (émetteur/récepteur) d’intercepter les messages qui lui sont destinés ou d’injecter de nouveaux messages vers un processus destinataire dans une file donnée. Le solveur interactif incorpore les fonctionnalités du solveur de base mis au point pour la résolution initiale et lui apporte les fonctionnalités nécessaires pour gérer l’interaction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 10.2 Chargement d’un scénario mémorisé préalablement. Dans un premier temps, l’utilisateur indique la ville de référence. Ensuite, il a la possibilité de charger un scénario de travail particulier relatif à cette ville. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 10.3 Paramétrage du comportement interactif. . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 10.4 Mode continu désactivé (à gauche) ou activé (à droite). . . . . . . . . . . . . . . . . . . . 184 10.5 Déplacement d’un groupe de formes urbaines en une seule opération. Lorsque la correspondance d’intensité doit être respectée, il faut conserver une correspondance stricte entre les intensités des cellules d’origine et des cellules de destination, ces intensités étant repérées dans cet exemple par les chiffres 1, 2, 3, 4. . . . . . . . . . . . . . . . . . . . . . . . . . . 185 10.6 Cercle d’influence permettant d’identifier la taille des zones impactées par un mouvement. Dans cet exemple, le cercle de gauche identifie la zone d’origine et le cercle de droite la zone de destination, les cellules appartenant à ces deux zones étant soumises à une résolution locale. En dehors des cercles, les formes urbaines restent en place. . . . . . . . . . . . . . 186 10.7 Paramétrage de la taille des cellules. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 10.8 Création de la liste des permutations imposées en fonction du type de sélection et de déplacement des formes urbaines. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189TABLE DES FIGURES 227 10.9 Cercles d’influences interprétés sur le solveur interactif : lorsque l’utilisateur déplace (en groupe) les formes urbaines des cellules « 1 » et « 2 » sur les cellules « 3 » et « 4 » (en une seule opération), le solveur interactif identifie autour des cellules d’origine et de destination les cellules faisant partie des cercles d’influence. Pour cela, il utilise le voisinage V d l,c de chaque cellule Vl,c impliquée dans une permutation imposée, avec d correspondant au rayon du cercle. Ces cellules sont alors marquées « sélectionnables » pour participer à l’optimisation locale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 10.10Carte de chaleur : les zones en rouge sur la carte font apparaître les régions correspondant aux coûts les plus élevés. Cette carte est directement actualisée avec les coûts de chaque variable disponibles dans notre modèle. . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 10.11Historique d’évolution des coûts par contrainte : ce graphique est composé de deux parties. La partie de gauche indique le coût lié à chaque contrainte pour la configuration courante tandis que la partie principale représente l’évolution des coûts par contrainte à intervalle de temps régulier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 11.1 Résumé des mesures sur l’application développée. Généré par l’outil SourceMonitor (http: //www.campwoodsw.com/sourcemonitor.html). Le nombre de lignes indiqué écarte les lignes vides (*). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 11.2 Récapitulatif des variations de coût par itération pour chaque contrainte. Les variations de coût qui apparaissent sur l’axe des ordonnées sont inversées sur les graphiques, de sorte qu’une variation négative apparaît au dessus de l’axe des abscisses, l’axe des abscisses représentant l’évolution du nombre des itérations au cours d’une résolution. . . . . . . . . 201 11.3 Détail des variations de coût par itération pour chaque contrainte. Les variations de coût qui apparaissent sur l’axe des ordonnées sont inversées sur les graphiques, de sorte qu’une variation négative apparaît au dessus de l’axe des abscisses, l’axe des abscisses représentant l’évolution du nombre des itérations au cours d’une résolution. . . . . . . . . . . . . . . . 202 11.4 Répartition des coûts par contrainte : à chaque itération (en abscisse), on superpose le coût total de chaque contrainte (en ordonnée). On reconstitue ainsi le coût global de la confi- guration courante qui diminue au fil de la résolution. La représentation correspond à un histogramme très resserré, on ne peut donc pas distinguer les barres qui sont réduites à des lignes verticales dont les couleurs correspondent aux rectangles de la légende : la première forme urbaine indiquée dans la légende correspond à la forme urbaine positionnée en bas du diagramme, etc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 11.5 Répartition des temps de calcul par contrainte. . . . . . . . . . . . . . . . . . . . . . . . . 204 11.6 Paysage des permutations gagnantes avec le candidat retenu pour une itération donnée. Pour l’itération courante (no 1), un candidat (i.e. cellule non représentée ici) a déjà été identifié pour participer à une permutation gagnante. Ce graphique représente la répartition spatiale des gains pouvant être obtenus en impliquant une à une chaque cellule de la grille à la permutation gagnante (i.e. avec le candidat retenu) : plus le gain potentiel est important, plus la cellule est sombre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 11.7 Évolution du paysage des permutations gagnantes avec les candidats retenus au fil de la résolution (i.e. à chaque itération), limitée aux 12 premières itérations. Chaque graphique correspond à une itération. A chaque itération, un candidat est identifié pour participer à une permutation gagnante. Chaque graphique correspond au paysage des permutations gagnantes avec le candidat retenu pour l’itération indiquée. . . . . . . . . . . . . . . . . . . 206 11.8 Évolution du paysage des permutations gagnantes avec les candidats retenus au fil de la résolution (toutes les 10 itérations). Chaque graphique correspond à une itération. A chaque itération, un candidat est identifié pour participer à une permutation gagnante. Chaque graphique correspond au paysage des permutations gagnantes avec le candidat retenu pour l’itération indiquée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207228 TABLE DES FIGURES 11.9 Comparaison des temps et des gains obtenus à chaque itération entre différentes versions de l’algorithme de résolution. L’instance correspond à une représentation simplifiée pour une grille 32x32. Les temps sont exprimés en secondes. Les échelles de temps et de gains sont identiques d’une figure à l’autre. L’axe des abscisses correspond à l’évolution du nombre des itérations au cours d’une résolution. . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 11.10Tests des performances pour différentes versions (mono-processus, distribuée) et différents modes de fonctionnement (multi-candidat et multi-permutation). Comparaison des temps de résolution (en faisant une moyenne sur 10 exécutions par méthode) pour obtenir une solution initiale dont la qualité est imposée sur l’instance de Marne-La-Vallée. La version distribuée est évaluée avec le protocole no 4. . . . . . . . . . . . . . . . . . . . . . . . . . 210 11.11Recherche du nombre optimal de processus esclaves à mobiliser. . . . . . . . . . . . . . . 211 11.12Comparaison des temps de résolution entre la version mono-processus et la version distribuée déployée à grande échelle. Les protocoles 1 et 4 sont des protocoles distribués. Les intitulés « protocol-[x]-[y]s » identifie le no du protocole (x) et le nombre de processus esclaves mobilisés (y). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 11.13Répartition de l’habitat collectif par rapport aux niveaux d’intensité urbaine (intensités : 2, 3 et 5). Formes urbaines positionnées sur la carte par notre solveur suite à une résolution initiale. Figure extraite du rapport SUSTAINS Livrable 3.1 : EXPERIMENTATION SUR LE TERRITOIRE DE MARNE-LA-VALLEE. Avec l’accord des auteurs : Bernard COUTROT (SIMARIS) & Valérie GACOGNE (COMPLEXIO). . . . . . . . . . . . . . . . . . . . . . 213 11.14Répartition des zones d’activité par rapport aux niveaux d’intensité urbaine (intensités : 2, 3 et 5). Formes urbaines positionnées sur la carte par notre solveur suite à une résolution initiale. Figure extraite du rapport SUSTAINS Livrable 3.1 : EXPERIMENTATION SUR LE TERRITOIRE DE MARNE-LA-VALLEE. Avec l’accord des auteurs : Bernard COUTROT (SIMARIS) & Valérie GACOGNE (COMPLEXIO). . . . . . . . . . . . . . . . . . . . . . 214 11.15Répartition des espaces verts par rapport aux niveaux d’intensité urbaine, hors espaces de respiration (intensités 2, 3 et 5). Formes urbaines positionnées sur la carte par notre solveur suite à une résolution initiale. Figure extraite du rapport SUSTAINS Livrable 3.1 : EXPERIMENTATION SUR LE TERRITOIRE DE MARNE-LA-VALLEE. Avec l’accord des auteurs : Bernard COUTROT (SIMARIS) & Valérie GACOGNE (COMPLEXIO). . . . 214 11.16Visualisation des établissements scolaires et de l’habitat. Formes urbaines positionnées sur la carte par notre solveur suite à une résolution initiale. Figure extraite du rapport SUSTAINS Livrable 3.1 : EXPERIMENTATION SUR LE TERRITOIRE DE MARNE-LAVALLEE. Avec l’accord des auteurs : Bernard COUTROT (SIMARIS) & Valérie GACOGNE (COMPLEXIO). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215Bibliographie [1] Droit et politiques de renouvellement urbain. Cahiers du GRIDAUH. : Droit de l’urbanisme. GRIDAUH, 2004. 33 [2] Emile Aarts and Jan K. Lenstra, editors. Local Search in Combinatorial Optimization. John Wiley & Sons, Inc., New York, NY, USA, 1st edition, 1997. 63, 150 [3] Mohammed Abdellaoui and Christophe Gonzales. Théorie de l’Utilité Multi-attributs. [33], pages 25–62. 59 [4] A. Adla. Aide à la facilitation pour une prise de décision collective : proposition d’un modèle et d’un outil. PhD thesis, Université de Toulouse III - Paul Sabatier, Spécialité : Informatique, 2010. 99 [5] Ravindra K. Ahuja, Özlem Ergun, James B. Orlin, and Abraham P. Punnen. A survey of very largescale neighborhood search techniques. Discrete Applied Mathematics, 123(1-3) :75–102, 2002. 78 [6] W. Alonso. Location and land use : toward a general theory of land rent. Publication of the Joint Center for Urban Studies. Harvard University Press, 1964. 111, 112, 224 [7] Jean-Philippe Antoni. L’ambition de modéliser la ville. In Gérard Brun, editor, Ville et mobilité - nouveaux regards, pages 227–238. Economica, 2013. 128 [8] J.P. Antoni. Modéliser la ville : Formes urbaines et politiques de transport. Collection "Méthodes et approches". Economica, 2010. 114, 115, 132, 231 [9] Krzysztof Apt. Principles of Constraint Programming. Cambridge University Press, New York, NY, USA, 2003. 63, 149, 194 [10] Alejandro Arbelaez and Philippe Codognet. A GPU Implementation of Parallel Constraint-based Local Search. Techniques foR Implementing Constraint programming Systems (TRICS), 2013. 87, 88, 150, 159 [11] François Ascher. Effet de serre, changement climatique et capitalisme cleantech. Esprit, Fé- vrier :150–164, 2008. 43 [12] Olivier Bailleux. Cours de programmation par contraintes, 2011. Master-II BD-IA & Image-IA. 56 [13] Cynthia Barnhart, Ellis L. Johnson, George L. Nemhauser, Martin W. P. Savelsbergh, and Pamela H. Vance. Branch-and-price : Column generation for solving huge integer programs. Operations Research, 46 :316–329, 1996. 62 [14] Nicolas Barnier. Application de la programmation par contraintes à des problèmes de gestion du trafic aérien. PhD thesis, Thèse doctorat informatique de l’INP Toulouse, 2002. 56 [15] Richard S. Barr, Bruce L. Golden, James P. Kelly, G. C Mauricio, William Resende, and R. Stewart. Designing and reporting on computational experiments with heuristic methods. Journal of Heuristics, 1 :9–32, 1995. 75 229230 BIBLIOGRAPHIE [16] Roman Bartak. Constraint programming : In pursuit of the holy grail. In in Proceedings of WDS99 (invited lecture, pages 555–564, 1999. 56, 63, 149, 194 [17] R. Battiti, G. Tecchiolli, and Others. The Reactive Tabu Search. ORSA Journal on Computing, 6 :126, 1994. 127, 128, 221 [18] Roberto Battiti and Marco Protasi. Reactive local search for the maximum clique problem. Algorithmica, 29(4) :610–637, 2001. 75 [19] G. Bauer and J.M. Roux. La rurbanisation ; ou, La ville éparpillée. Collection Espacements. Éditions du Seuil, 1976. 25 [20] François BELLANGER. La recherche urbaine à l’heure de la ville 2.0, Oct 2012. Entretien scienti- fique. 36, 40 [21] A. Bellicha. Maintenance of Solution in a Dynamic Constraint Satisfaction Problem. In Proc. of Applications of Artificial Intelligence in Engineering VIII, pages 261–274, Toulouse, France, 1993. 107 [22] Amit Bellicha, Bertrand Neveu, Brigitte Trousse, Christian Bessière, Christine Gaspin, David Lesaint, Fabrice Bouquet, Florence Dupin de Saint-Cyr, Gilles Trombettoni, Gérard Verfaillie, Hélène Fargier, Jean-Charles Régin, Jean-Pierre Rellier, Jérôme Amilhastre, Jérôme Lang, Khaled Ghedira, Marie-Catherine Vilarem, Martin Cooper, Mouhssine Bouzoubaa, Olivier Lhomme, Philippe Charman, Philippe David, Philippe Janssen, Philippe Jégou, Pierre Berlandier, Roger Martin-Clouaire, Thomas Schiex, and Tibor Kökény. Autour Du Problème De Satisfaction De Contraintes. In In Actes des 5èmes journées nationales du PRC GDR Intelligence Artificielle, pages 159–178, 1994. 106 [23] Richard Bellman. Dynamic Programming. Princeton University Press, Princeton, NJ, USA, 1 edition, 1957. 63 [24] Sahbi BEN ISMAIL. Cours d’ingénieurs généralistes - Introduction à l’optimisation combinatoire, 2012. 56, 221 [25] S. Ben-Mena. Introduction aux méthodes multicritères d’aides à la décision. Biotechnologie, Agronomie, Société et Environnement, 2000. 59 [26] F. Benhamou. Stratégie de développement de la recherche de l’université de nantes, programme université 2020, 2014. 30 [27] Nicolas Berger. Modélisation et résolution en programmation par contraintes de problèmes mixtes continu/discret de satisfaction de contraintes et d’optimisation. PhD thesis, Université de Nantes, October 2010. 58 [28] Antoine Billot and Jacques-François Thisse. Modèles de choix individuels discrets : théorie et applications à la micro-économie. Revue économique, 46(3) :921–931, 1995. 117 [29] James R. Bitner and Edward M. Reingold. Backtrack programming techniques. Commun. ACM, 18(11) :651–656, November 1975. 68 [30] Christian Blum and Andrea Roli. Metaheuristics in combinatorial optimization : Overview and conceptual comparison. ACM Comput. Surv., 35(3) :268–308, September 2003. 56, 72, 81, 82, 223 [31] Stefan Bock and Otto Rosenberg. A new parallel breadth first tabu search technique for solving production planning problems. International Transactions in Operational Research, 7(6) :625 – 635, 2000. 94BIBLIOGRAPHIE 231 [32] Mark Boddy and Thomas Dean. Solving time-dependent planning problems. In Proceedings of the 11th International Joint Conference on Artificial Intelligence - Volume 2, IJCAI’89, pages 979–984, San Francisco, CA, USA, 1989. Morgan Kaufmann Publishers Inc. 104 [33] Denis Bouyssou, Didier Dubois, Marc Pirlot, and Henri Prade. Concepts et méthodes pour l’aide à la décision, analyse multicritère, volume 3. Hermés, 2006. 59, 229 [34] Jurgen Branke. Evolutionary Optimization in Dynamic Environments. Kluwer Academic Publishers, Norwell, MA, USA, 2001. 60 [35] R. Braune and G. Zäpfel. Metaheuristic Search Concepts : A Tutorial with Applications to Production and Logistics. Springer, 2010. 80, 223 [36] Marilyn A. Brown, Frank Southworth, and Andrea Sarzynski. The geography of metropolitan carbon footprints. Policy and Society, 27(4) :285 – 304, 2009. 43 [37] E.W. Burgess. The Growth of the City : an Introduction to a Research Project. University of Chicago Press, 1925. 21, 112, 224 [38] S. Cahon, N. Melab, and E.-G. Talbi. Paradiseo : A framework for the reusable design of parallel and distributed metaheuristics. Journal of Heuristics, 10(3) :357–380, May 2004. 97 [39] Aurore Cambien. La modélisation urbaine : une approche historique. [8], pages 19 – 49. 114, 115 [40] Yves Caniou, Philippe Codognet, Daniel Diaz, and Salvador Abreu. Experiments in parallel constraint-based local search. In EvoCOP’11, 11th European Conference on Evolutionary Computation in Combinatorial Optimisation, Lecture Notes in Computer Science, Torino, Italy, 2011. Springer Verlag. 159 [41] Michel Cantal-Dupart. Vivre un grand paris, Oct 2013. Note ouverte au Président de la République sur le Grand Paris. 19, 34, 37 [42] V Cerny. Thermodynamical approach to the traveling salesman problem : An efficient simulation algorithm. Journal of Optimization Theory and Applications, 45(1) :41–51, 1985. 65, 83, 150 [43] F. Choay. L’Urbanisme : utopies et réalités. Points (Paris). Éditions du Seuil, 1965. 22 [44] Solver Choco. Présentation - tutorial et documentation, 2011. 56 [45] Walter Christaller. Central Places in Southern Germany. Prentice-Hall, 1966. 110, 111, 224 [46] Maurice Clerc and Patrick Siarry. Une nouvelle métaheuristique pour l’optimisation difficile : la méthode des essaims particulaires, 2004. J3eA. 59 [47] Philippe Codognet and Daniel Diaz. Yet Another Local Search Method for Constraint Solving. In proceedings of SAGA’01, volume 2264 of Lecture Notes in Computer Science, pages 73–90. Springer Verlag, 2001. 56, 66, 86, 150, 152, 219 [48] Philippe Codognet and Daniel Diaz. An Efficient Library for Solving CSP with Local Search. In 5th international Conference on Metaheuristics, pages 1–6, Kyoto, Japan, 2003. 86, 150, 219 [49] Philippe Codognet, Daniel Diaz, and Charlotte Truchet. The Adaptive Search Method for Constraint Solving and its application to musical CSPs. In International Workshop on Heuristics, page 9 pages, Beijing, Chine, 2002. 87 [50] S. G. Cohen and D. E. Bailey. What makes teams work : Group effectiveness research from the shop floor to the executive suite. Journal of Management, 23(3) :239–291, 1997. 102232 BIBLIOGRAPHIE [51] Jared L. Cohon. Multiobjective Programming and Planning. Mathematics in science and engineering. Academic Press, 1978. 59, 220 [52] N. E. Collins, R.W. Eglese, and Golden B.L. Simulated Annealing : an Annotated Bibliography. American Journal of Mathematical and Management Sciences, 8(3-4) :209–307, January 1988. 84 [53] Clayton W. Commander. A survey of the quadratic assignment problem, with applications. Morehead Electronic Journal of Applicable Mathematics, 4 :MATH–2005–01, 2005. 126 [54] David T. Connolly. An improved annealing scheme for the {QAP}. European Journal of Operational Research, 46(1) :93 – 100, 1990. 127, 221 [55] L. Corbusier and J. Giraudoux. La charte d’Athènes. Cahiers forces vives. Éditions de Minuit, 1957. 11, 24 [56] J.-C. COURBON, D. DUBOIS, and B. ROY. Autour de l’aide à la décision et l’intelligence artifi- cielle. IBP-Laforia, 1994. Rapport de Recherche. 102, 103 [57] Teodor Gabriel Crainic and Michel Toulouse. Parallel Strategies for Meta-heuristics. [117], pages 475–513. 76 [58] Teodor Gabriel Crainic and Michel Toulouse. Parallel Meta-Heuristics. In Handbook of metaheuristics, pages 497–541. Springer US, 2010. 91, 92, 93, 94, 159, 224 [59] Andrew Crooks, Christian Castle, and Michael Batty. Key challenges in agent-based modelling for geo-spatial simulation. Computers, Environment and Urban Systems, 32(6) :417 – 430, 2008. GeoComputation : Modeling with spatial agents. 115 [60] John Current, Mark Daskin, and David Schilling. Discrete Network Location Models. [80], pages 81–118. 125 [61] Institut d’aménagement et d’urbanisme de la région d’Île-de France. ULTISIM, vers un modèle intégré transport-urbanisme européen : première phase : rapport final. IAU Île-de-France, 2011. 115, 116, 117, 224 [62] G. B. Dantzig. Maximization of a Linear Function of Variables Subject to Linear Inequalities, in Activity Analysis of Production and Allocation, chapter XXI. Wiley, New York, 1951. 61 [63] D. Dasgupta and Z. Michalewicz. Evolutionary Algorithms in Engineering Applications. U.S. Government Printing Office, 1997. 74 [64] C. de Portzamparc. la Ville âge III. Éditions du Pavillon de l’Arsenal, 1997. 26 [65] J. de Rosnay. Le Macroscope : vers une vision globale. Collection Civilisation. Éditions du Seuil, 1975. 114 [66] D. de Werra and A. Hertz. Tabu search techniques. Operations-Research-Spektrum, 11(3) :131–141, 1989. 85, 157 [67] Thomas Dean and Mark Boddy. An analysis of time-dependent planning. In Proceedings of the Seventh National Conference on Artificial Intelligence (AAAI-88), pages 49–54. AAAI Press/MIT Press, August 1988. 104 [68] Rina Dechter and Avi Dechter. Belief Maintenance in Dynamic Constraint Networks. Proceedings of AAAI, pages 37–42, 1988. 60BIBLIOGRAPHIE 233 [69] Philippe Dehan, Enseignant-Chercheur. Cours ingénieur - modes opératoires de l’urbanisme contemporain, 2011. 19, 22, 33, 223 [70] Xavier Desjardins. Pour l’atténuation du changement climatique, quelle est la contribution possible de l’aménagement du territoire ?, March 2011. Cybergeo : European Journal of Geography [En ligne], Aménagement, Urbanisme, document 523. 43 [71] Xavier Desjardins. Formes urbaines. [88], pages 108–109. 31 [72] I. Devarenne, A. Caminada, and H. Mabed. Analysis of adaptive local search for the graph coloring problem. In Proceedings of the 6th Metaheuristics International Conference, MIC 2005, Vienne Autriche, 2005. 86 [73] Isabelle Devarenne, Hakim Mabed, and Alexandre Caminada. Intelligent neighborhood exploration in local search heuristics. In Proceedings of the 18th IEEE International Conference on Tools with Artificial Intelligence, ICTAI ’06, pages 144–150, Washington, DC, USA, 2006. IEEE Computer Society. 86 [74] Luca Di Gaspero and Andrea Schaerf. Easylocal++ : An object-oriented framework for the flexible design of local-search algorithms. Softw. Pract. Exper., 33(8) :733–765, July 2003. 96, 194, 197 [75] Daniel Diaz, Salvador Abreu, and Philippe Codognet. Targeting the cell/be for constraint-based local search. Concurrency and Computation : Practice and Experience, 24(6) :647–660, 2012. 159 [76] Mohammad Dib. Tabu-NG : hybridation de programmation par contraintes et recherche locale pour la résolution de CSP. PhD thesis, Université de Technologie de Belfort-Montbeliard, December 2010. 56, 66, 67, 89 [77] J. Donzelot, C. Mével, and A. Wyvekens. Faire société : la politique de la ville aux États-Unis et en France. La couleur des idées. Seuil, 2003. 20 [78] Marco Dorigo. Ant colony optimization : A new meta-heuristic. In Proceedings of the Congress on Evolutionary Computation, pages 1470–1477. IEEE Press, 1999. 55, 65 [79] J. Dréo. Metaheuristics for Hard Optimization : Methods and Case Studies. Springer, 2006. 73 [80] Z. Drezner and H.W. Hamacher. Facility Location : Applications and Theory. Springer series in operations research. Springer, 2004. 124, 149, 232, 241 [81] Alexis Drogoul. De la simulation multi-agent à la résolution collective de problèmes. PhD thesis, Université Paris VI, 1993. 55 [82] Dominique Dron. Origine du développment durable. [88], pages 24–25. 29, 30 [83] Claude Duvallet. Des systèmes d’aide à la décision temps réel et distribués : modélisation par agents. PhD thesis, Doctorat Informatique de l’Université du Havre, 2001. 99, 103, 104 [84] D. Duvivier, Ph. Preux, and E.-G. Talbi. Climbing up NP-hard hills. In Parallel Problem Solving from Nature - PPSN IV, volume 1141 of Lecture Notes in Computer Science, pages 574–583. Springer Berlin Heidelberg, 1996. 79 [85] J. Edmonds. Matroids and the greedy algorithm. Mathematical Programming, 1 :127–136, 1971. 70, 149 [86] A. Elkhyari. Outils d’aide à la décision pour des problèmes d’ordonnancement dynamiques. 2003. 107234 BIBLIOGRAPHIE [87] Agathe Euzen. À propos du développment durable. [88], page 23. 29, 30 [88] Agathe Euzen, Laurence Eymard, and Françoise Gaill. Le développement durable à découvert. A découvert. CNRS Editions, 2013. 233, 234, 235, 238, 240, 242, 244 [89] M. Fabriès-Verfaillie, P. Stragiotti, and A. Jouve. La France des villes : le temps des métropoles ? Bréal, 2000. 111, 224 [90] R.Z. Farahani and M. Hekmatfar. Facility Location : Concepts, Models, Algorithms and Case Studies. Contributions to Management Science. Physica, 2009. 125, 126, 224 [91] Thomas A. Feo and Mauricio G.C. Resende. Greedy Randomized Adaptive Search Procedures. Journal of Global Optimization, 6 :109–133, 1995. 89 [92] J. Ferber. Les systèmes multi-agents : Vers une intelligence collective. I.I.A. Informatique intelligence artificielle. InterEditions, 1995. 55 [93] Andreas Fink, Stefan Voß, and DavidL. Woodruff. Building reusable software components for heuristic search. 1998. 97 [94] Charles Fleurent and Jacques A. Ferland. Genetic Hybrids for the Quadratic Assignment Problem. In DIMACS Series in Mathematics and Theoretical Computer Science, pages 173–187. American Mathematical Society, 1993. 127, 221 [95] R. Fondi and P. Baillet. La Révolution organiciste : entretien sur les nouveaux courants scientifiques. Livre-club du Labyrinthe. Labyrinthe, 1986. 114 [96] J.W. Forrester. Urban dynamics. M.I.T. Press, 1969. 114 [97] T. Frühwirth and S. Abdennadher. Essentials of Constraint Programming. Cognitive Technologies. Springer, 2003. 63, 149, 194 [98] Alexandre Gachet. A framework for developing distributed cooperative decision support systems - inception phase, 2001. Informing Science - Challenges to Informing Clients : A Transdisciplinary Approach. 103 [99] Philippe Galinier and Jin-Kao Hao. A General Approach for Constraint Solving by Local Search. In In CP-AI-OR’00, 2000. 87, 154 [100] L. M. Gambardella, E. Taillard, and M. Dorigo. Ant colonies for the Quadratic Assignment Problem. Journal of the Operational Research Society, (50) :167–176, 1999. 127, 221 [101] Bruno-Laurent Garcia, Jean-Yves Potvin, and Jean-Marc Rousseau. A Parallel Implementation of the Tabu Search Heuristic for Vehicle Routing Problems with Time Window Constraints. Computers & Operations Research, 21(9) :1025 – 1033, 1994. 92 [102] V. Gardeux. Conception d’heuristiques d’optimisation pour les problèmes de grande dimension. Application à l’analyse de données de puces à ADN. PhD thesis, Paris-Est University, Créteil, France, November 2011. 91 [103] F. Gardi, T. Benoist, J. Darlay, B. Estellon, and R. Megel. Mathematical Programming Solver Based on Local Search. Wiley, 2014. 97 [104] Michael R. Garey and David S. Johnson. Computers and Intractability : A Guide to the Theory of NP-Completeness. W. H. Freeman & Co., New York, NY, USA, 1979. 58BIBLIOGRAPHIE 235 [105] M. Gen and R. Cheng. A survey of penalty techniques in genetic algorithms. In Evolutionary Computation, 1996., Proceedings of IEEE International Conference on, pages 804–809, May 1996. 74 [106] M. Gendreau. An Introduction to Tabu Search. In F. Glover and G. Kochenberger, editors, Handbook of Metaheuristics, chapter 2, pages 37–54. Kluwer Academic Publishers, 2003. 86 [107] Michel Gendreau, Alain Hertz, and Gilbert Laporte. A tabu search heuristic for the vehicle routing problem. Management Science, 40(10) :1276–1290, 1994. 86 [108] Commission Européenne. Direction générale de la politique régionale. Les villes de demain : Défis, visions et perspectives. Office des publications de l’Union européenne, 2011. 40 [109] Cynthia Ghorra-Gobin. Le territoire métropolitain à l’heure de la mondialisation. [88], pages 28–29. 31 [110] P. C. Gilmore and R. E. Gomory. A Linear Programming Approach to the Cutting-Stock Problem. Operations Research, 9(6) :849–859, November 1961. 62 [111] Fred Glover. Future paths for integer programming and links to artificial intelligence. Comput. Oper. Res., 13(5) :533–549, May 1986. 65, 72, 84, 150, 155, 157, 194 [112] Fred Glover. Tabu Search - Part I. ORSA Journal on Computing, 1(3) :190–206, 1989. 65, 81, 86, 150, 155 [113] Fred Glover. Tabu Search - Part II. ORSA Journal on Computing, 2 :4–32, 1990. 65, 81, 86, 150, 155 [114] Fred Glover. Scatter search and path relinking. New ideas in optimization, pages 297–316, 1999. 65 [115] Fred Glover and Manuel Laguna. Tabu Search. Kluwer Academic Publishers, Norwell, MA, USA, 1997. 56, 65, 81, 150, 155 [116] Fred Glover, Manuel Laguna, and Rafael Martí. Fundamentals of scatter search and path relinking. CONTROL AND CYBERNETICS, 39 :653–684, 2000. 65 [117] Fred W. Glover and Gary A. Kochenberger. Handbook of Metaheuristics. International Series in Operations Research & Management Science. Springer, 1 edition, 2003. 232, 238 [118] David E. Goldberg. Genetic Algorithms in Search, Optimization and Machine Learning. AddisonWesley Longman Publishing Co., Inc., Boston, MA, USA, 1st edition, 1989. 65 [119] R. E. Gomory. Outline of an algorithm for integer solutions to linear programs. Bulletin of the American Society, 64 :275–278, 1958. 62 [120] Yves Grafmeyer and Isaac Joseph. L’École de Chicago. Naissance de l’écologie urbaine. Aubier, 1984. 112 [121] S. A. Groenewegen, R. M. Smelik, K. J. de Kraker, and R. Bidarra. Procedural city layout generation based on urban land use models. In EUROGRAPHICS, 2009. 137 [122] William Grossin. Berger gaston, phénoménologie du temps et prospective. Revue française de sociologie, 6(3) :388–389, 1965. 128 [123] P. Haggett and R.J. Chorley. Models, paradigms and the new geography. The Trinity Press, 1967. 109236 BIBLIOGRAPHIE [124] S. L. Hakimi. Optimum Locations of Switching Centers and the Absolute Centers and Medians of a Graph. Operations Research, 12(3) :450–459, 1964. 125 [125] P. Hansen. The Steepest Ascent Mildest Descent Heuristic for Combinatorial Programming. In Proceedings of the Congress on Numerical Methods in Combinatorial Optimization, Capri, Italy, 1986. 65, 84, 150, 155 [126] Pierre Hansen and Nenad Mladenovic. Variable neighborhood search : Principles and applications. European Journal of Operational Research, 130(3) :449–467, 2001. 89 [127] J K Hao, P Galinier, and M Habib. Métaheuristiques pour l’optimisation combinatoire et l’affectation sous contraintes. Revue d’intelligence artificielle, 13(2) :283–324, 1999. 56, 63, 65, 86, 89, 106, 150 [128] Jin-Kao Hao and Christine Solnon. Algorithmes pour l’intelligence artificielle, chapter Métaheuristiques et intelligence artificielle. Cépaduès, December 2014. 81 [129] C.D. Harris and E.L. Ullman. The Nature of Cities, volume 242. 1945. 112, 113, 224 [130] G. Hégron, L. Tapadinhas, and Groupement d’intérêt scientifique Modélisation urbaine (France). Modélisation urbaine : de la représentation au projet : [actes du colloque tenu à Paris, École des Ponts-Paris Tech, 23-24 février 2011]. RéférenceS / Commissariat général au développement durable. Commissariat général au développement durable, 2012. 35 [131] A. Hertz and D. de Werra. The tabu search metaheuristic : How we used it. Annals of Mathematics and Artificial Intelligence, 1(1-4) :111–121, 1990. 85, 157 [132] A. Hertz and M. Widmer. La méthode TABOU appliquée aux problèmes d’ordonnancement. Journal européen des systémes automatisés : JESA., 1995. 79 [133] John H. Holland. Adaptation in Natural and Artificial Systems : An Introductory Analysis with Applications to Biology, Control and Artificial Intelligence. MIT Press, Cambridge, MA, USA, 1992. 55, 65 [134] S. Holtzman. Intelligent Decision Systems. Teknowledge Series in Knowledge Engineering. Addison-Wesley, 1989. 99 [135] H.H. Hoos and T. Stützle. Stochastic Local Search : Foundations & Applications. The Morgan Kaufmann Series in Artificial Intelligence. Elsevier Science, 2004. 82 [136] Eric J. Horvitz. Reasoning about beliefs and actions under computational resource constraints. In In Proceedings of the 1987 Workshop on Uncertainty in Artificial Intelligence, pages 429–444, 1987. 104 [137] H. Hoyt. The Structure and Growth of Residential Neighborhoods in American Cities. Federal housing administration. U.S. Government Printing Office, 1939. 112, 113, 224 [138] B. A. Huberman, R. M. Lukose, and T. Hogg. An economic approach to hard computational problems. Science, 27 :51–53, 1997. 94, 159 [139] D. L. Huff. Defining and Estimating a Trading Area. Journal of Marketing, 28,(3) :34–38, 1964. 113 [140] J.L. Huot. La Ville neuve : une idée de l’Antiquité ? Cahiers du G.S. 72, Terrains et théories en archéologie. Éditions Errance, 1988. 19 [141] IBM France. Réinventons la ville. Regards sur des villes intelligentes, 2010. Think. 19BIBLIOGRAPHIE 237 [142] J. Jacobs. The economy of cities. Vintage international. Random House, 1969. 20 [143] Arun Jagota and LauraA. Sanchis. Adaptive, restart, randomized greedy heuristics for maximum clique. Journal of Heuristics, 7(6) :565–585, 2001. 71, 150 [144] Yaochu Jin and J. Branke. Evolutionary optimization in uncertain environments-a survey. Trans. Evol. Comp, 9(3) :303–317, June 2005. 60 [145] EllisL. Johnson. Modeling and strong linear programs for mixed integer programming. In SteinW. Wallace, editor, Algorithms and Model Formulations in Mathematical Programming, volume 51 of NATO ASI Series, pages 1–43. Springer Berlin Heidelberg, 1989. 63 [146] Laetitia Jourdan. Métaheuristiques Coopératives : du déterministe au stochastique. Hdr, Université des Sciences et Technologie de Lille - Lille I, September 2010. 89, 95, 98, 224 [147] Narendra Jussien, Guillaume Rochart, and Xavier Lorca. Choco : an Open Source Java Constraint Programming Library. In CPAIOR’08 Workshop on Open-Source Software for Integer and Contraint Programming (OSSICP’08), pages 1–10, Paris, France, France, 2008. 149, 194 [148] N. Karmarkar. A new polynomial-time algorithm for linear programming. In Proceedings of the Sixteenth Annual ACM Symposium on Theory of Computing, STOC ’84, pages 302–311, New York, NY, USA, 1984. ACM. 61 [149] P. G. W. Keen and M. S. Scott Morton. Decision Support Systems : An Organizational Perspective. Addison-Wesley, Reading, 1978. 102, 177 [150] J. Kennedy and R. Eberhart. Particle swarm optimization. In Neural Networks, 1995. Proceedings., IEEE International Conference on, volume 4, pages 1942–1948 vol.4, Nov 1995. 55, 65 [151] Gregory E. Kersten and Geoffrey R. Mallory. Supporting problem representations in decisions with strategic interactions. European Journal of Operational Research, 46(2) :200 – 215, 1990. 102 [152] Madjid Khichane. Optimisation sous contraintes par Intelligence Collective Auto-adaptative. Thèse de doctorat en informatique, Université Claude Bernard, October 2010. 89 [153] S. Kirkpatrick, C. D. Gelatt, and M. P. Vecchi. Optimization by simulated annealing. Science, Number 4598, 13 May 1983, 220, 4598 :671–680, 1983. 65, 83, 150 [154] A. Koestler and G. Fradier. Le Cheval dans la locomotive : le Paradoxe humain. Génie et folie de l’homme. Calmann-Lévy, 1968. 114 [155] Tjalling C. Koopmans and Martin Beckmann. Assignment Problems and the Location of Economic Activities. Econometrica, 25(1) :53–76, 1957. 125 [156] Jakob Krarup and Peter Mark Pruzan. The simple plant location problem : Survey and synthesis. European Journal of Operational Research, 12(1) :36 – 81, 1983. 125 [157] Krzysztof Krawiec. Metaheuristic Design Pattern : Candidate Solution Repair. In Proceeding of the sixteenth annual conference on Genetic and evolutionary computation conference, GECCO ’14, New York, NY, USA, 2014. ACM. 74 [158] M. Kwartler and R Bernard. Communityviz : an integrated planning support system. Planning Support Systems, November 2001. 49 [159] Thomas J. Laffey, Preston A. Cox, James L. Schmidt, Simon M. Kao, and Jackson Y. Read. Real-time knowledge-based systems. AI Magazine, 9(1) :27–45, 1988. 103238 BIBLIOGRAPHIE [160] Yannick Lageat. Variation du trait de côte. [88], pages 76–77. 29 [161] Manuel Laguna, Rafael Marti, and Vicente Campos. Intensification and diversification with elite tabu search solutions for the linear ordering problem. Computers & Operations Research, 26(12) :1217 – 1230, 1999. 81 [162] Tony Lambert. Hybridation de méthodes complètes et incomplètes pour la résolution de CSP. These, Université de Nantes, October 2006. 89 [163] A. H. Land and A. G Doig. An automatic method of solving discrete programming problems. Econometrica, 28(3) :497–520, 1960. 62 [164] Pedro Larraanaga and Jose A. Lozano. Estimation of Distribution Algorithms : A New Tool for Evolutionary Computation. Kluwer Academic Publishers, Norwell, MA, USA, 2001. 70 [165] Catherine Larrère. Éthique et philosophie de l’environnement. [88], pages 48–49. 30 [166] P. Lavedan. Géographie des villes. Géographie humaine. Gallimard, 1936. 19 [167] J.L. Le Moigne. Les systèmes de décision dans les organisations. Systèmes décisions. Section 1 : Systèmes, plans, contrôles. Presses universitaires de France, 1974. 100, 101, 224 [168] Julien Lepagnot. Conception de métaheuristiques pour l’optimisation dynamique : application à l’analyse de séquences d’images IRM. These, Université Paris-Est, December 2011. 60 [169] Arnaud Letort. Passage à l’échelle pour les contraintes d’ordonnancement multi-ressources. These, Ecole des Mines de Nantes, October 2013. 63 [170] P. Lévine, G. Benchimol, and J.C. Pomerol. Systèmes experts dans l’entreprise. Traité des Nouvelles Technologies : Série décision assistée par ordinateur. Hermes, 1990. 101 [171] P. Lévine and J.C. Pomerol. Systèmes interactifs d’aide à la décision et systèmes experts. Hermes, 1989. 100, 101, 102, 103, 177 [172] L. Lobjois. Problèmes d’optimisation combinatoire sous contraintes : vers la conception automatique de méthodes de résolution adaptées à chaque instance. 1999. 103, 105, 106, 224 [173] Pierre-Yves Longaretti. Changements globaux. [88], pages 40–41. 29 [174] Michel Loreau. Modélisation et expérimentation pour la biodiversité. [88], pages 90–91. 30 [175] A. Lösch. Die räumliche Ordnung der Wirtschaft. G. Fischer, 1940. (L’organisation spatiale de l’économie - ouvrage non traduit en français). 111 [176] Helena R. Lourenço, Olivier C. Martin, and Thomas Stützle. A Beginner’s Introduction to Iterated Local Search. In Proceedings of MIC 2001, Porto, Portuga, July 2001. 83 [177] Helena R. Lourenço, Olivier C. Martin, and Thomas Stützle. Iterated Local Search. [117], pages 321–353. 65, 83, 150 [178] F. Loyer and H. Guéné. Henri Sauvage : les immeubles à gradins. Mardaga, 1987. 23 [179] A.K. MACKWORTH. Constraint satisfaction. S.C. Shapiro (Ed.) Encyclopedia on Artificial Intelligence, John Wiley & Sons, NY, 1987. 68 [180] D. Mangin. La Ville franchisée : Formes et structures de la ville contemporaine. Éd. de la Villette, 2004. 27, 31BIBLIOGRAPHIE 239 [181] Marie-Eleonore Marmion. Recherche locale et optimisation combinatoire : de l’analyse structurelle d’un problème à la conception d’algorithmes efficaces. These, Université des Sciences et Technologie de Lille - Lille I, December 2011. 79, 90, 223 [182] N. Mars, A. Hornsby, and Dynamic City Foundation. The Chinese Dream : A Society Under Construction. 010 Publishers, 2008. 12 [183] J.P. Martin. Un langage de modélisation à base de règles pour la programmation par contraintes. PhD thesis, UNIVERSITÉ PIERRE ET MARIE CURIE, 2010. 96 [184] Olivier Martin, Steve W. Otto, and Edward W. Felten. Large-Step Markov Chains for the Traveling Salesman Problem. Complex Systems, 5 :299–326, 1991. 83 [185] H. Mathieu and M. Tilmont. Étude sur les relations entre problèmes énergétiques et aménagement urbain. Centre de Recherche d’Urbanisme, 1978. 43 [186] J.L. Maupu. La ville creuse pour un urbanisme durable. Editions L’Harmattan, 2006. 36, 38 [187] Thierry Mautor. Méta-heuristiques et méthodes exactes pour les problèmes d’optimisation combinatoire difficiles : illustration sur le problème d’affectation quadratique. Hdr, Université de Versailles - Saint-Quentin-en-Yvelines, 2001. 90, 95, 126, 127, 128, 221 [188] P. Merlin. L’urbanisme. Que sais-je ? Presses universitaires de France, 2007. 20 [189] Nicholas Metropolis, Arianna W. Rosenbluth, Marshall N. Rosenbluth, Augusta H. Teller, and Edward Teller. Equation of State Calculations by Fast Computing Machines. The Journal of Chemical Physics, 21(6) :1087–1092, June 1953. 83 [190] Zbigniew Michalewicz, Dipankar Dasgupta, Rodolphe G. Le Riche, and Marc Schoenauer. Evolutionary algorithms for constrained engineering problems. Evolutionary Computation, 4 :1–32, 1996. 73 [191] L. Michel and P. Van Hentenryck. Localizer : A Modeling Language for Local Search. In Third International Conference on the Principles and Practice of Constraint Programming (CP’97), Lintz, Austria, October 1997. 96 [192] Steven Minton, Mark D. Johnston, Andrew B. Philips, and Philip Laird. Minimizing Conflicts : A Heuristic Repair Method for Constraint Satisfaction and Scheduling Problems. Artificial Intelligence, 58(1-3) :161–205, 1992. 87, 107, 154 [193] H. Mintzberg. The structuring of organizations : a synthesis of the research. Theory of management policy series. Prentice-Hall, 1979. 100, 101 [194] O. Mongin. Vers la troisième ville ? Questions de société : savoirs, enjeux, débats. Hachette, 1995. 26, 28 [195] D.C. Montgomery. Design and Analysis of Experiments. Number vol. 2. Wiley, 1984. 75 [196] A. Morcheoine, B. Bresse, and J.P. Orfeuil. Énergie, environnement et déplacements urbains : quelques points de repère. Techniques Sciences Méthodes, génie urbain génie rural, no 1, pages 17-25, 1996. 43 [197] E. Morin. Introduction à la pensée complexe. Collection Communication et complexité. ESF, 1990. 114240 BIBLIOGRAPHIE [198] R.W. Morrison. Designing Evolutionary Algorithms for Dynamic Environments. Natural Computing Series. Springer, 2004. 60 [199] Sana Moujahed. Approche multi-agents auto-organisée pour la résolution de contraintes spatiales dans les problèmes de positionnement mono et multi-niveaux. PhD thesis, Université de Technologie de Belfort-Montbéliard, 2007. 125, 149 [200] Sana Moujahed, Olivier Simonin, and Abderrafiaa Koukam. Location problems optimization by a self-organizing multiagent approach. Multiagent and Grid Systems, 5(1) :59–74, 2009. 149 [201] D.J. Musliner, J.A. Hendler, A.K. Agrawala, E.H. Durfee, J.K. Strosnider, and C.J. Paul. The Challenges of Real-Time AI. 28(1) :58–66, 1995. 103 [202] Ioan Negrutiu and Jean-Michel Salles. Les ressources : la capital naturel évanescent et le défi démographique. [88], pages 38–39. 30 [203] Bertrand Neveu, Gilles Trombettoni, and Fred Glover. Id walk : A candidate list strategy with a simple diversification device. In Mark Wallace, editor, CP, volume 3258 of Lecture Notes in Computer Science, pages 423–437. Springer, 2004. 75 [204] A. Newell and H.A. Simon. Human problem solving. Prentice-Hall, 1972. 101 [205] Yanik Ngoko. L’Approche du portfolio d’algorithmes pour la construction des algorithmes robustes et adaptatifs. These, Université de Grenoble, July 2010. 94, 159 [206] T.A.J. Nicholson. Optimization in Industry : Industrial applications. London Business School series. Aldine Atherton, 1971. 65 [207] Guy Orcutt. A new type of socio-economic system. International Journal of Microsimulation, 1(1) :3–9, 1957. 117 [208] Cindy A. O’Reilly and Andrew S. Cromarty. "Fast" Is Not "Real-Time" : Designing Effective RealTime AI Systems. Proc. SPIE, 0548 :249–257, 1985. 103 [209] Jean-Pierre Orfeuil and Marie-Hélène Massot. La contrainte énergétique doit-elle réguler la ville ou les véhicules ? Mobilités urbaines et réalisme écologique. Annales de la recherche urbaine, no 103, pages 18-29, 2007. 43 [210] Ibrahim Osman and Gilbert Laporte. Metaheuristics : A bibliography. Annals of Operations Research, 63(5) :511–623, October 1996. 73 [211] Ibrahim H. Osman and Nicos Christofides. Capacitated clustering problems by hybrid simulated annealing and tabu search. International Transactions in Operational Research, 1(3) :317–336, 1994. 84 [212] I.H. Osman and J.P. Kelly. Meta-Heuristics : Theory and Applications. Springer, 1996. 73 [213] A. Oyon. Une véritable cité ouvrière : Le Familistère de Guise. Librairie des sciences sociales, 1865. 23 [214] Christos H. Papadimitriou. Computational complexity. Addison-Wesley, 1994. 57 [215] Christos H. Papadimitriou and Kenneth Steiglitz. Combinatorial optimization : algorithms and complexity. Prentice-Hall, Inc., Upper Saddle River, NJ, USA, 1982. 60BIBLIOGRAPHIE 241 [216] Julien Perret, Florence Curie, Julien Gaffuri, and Anne Ruas. Un système multi-agent pour la simulation des dynamiques urbaines. In Michel Occello and Lilia Rejeb, editors, JFSMA, pages 205–213. Cepadues Editions, 2010. 121 [217] H. Pirenne. L’origine des constitutions urbaines au moyen âge. Revue Historique, 1895. 19 [218] Franck Plastria. Continuous Covering Location Problems. [80], pages 37–79. 124, 149 [219] J-Ch Pomerol and S. Barba Romero. Choix Multicritère dans l’enterprise. Hermes, Paris, 1993. 101 [220] Jean-Charles Pomerol. Systèmes experts et SIAD : enjeux et conséquences pour les organisations. Technologies de l’Information et Société, Volume 3, no 1, pages 37-64, 1990. 148 [221] Jean-Charles Pomerol. Artificial intelligence and human decision making. European Journal of Operational Research, 99(1) :3 – 25, 1997. 102, 103 [222] Jakob Puchinger and Günther R. Raidl. Combining Metaheuristics and Exact Algorithms in Combinatorial Optimization : A Survey and Classification. In Lecture Notes in Computer Science, volume 3562, pages 41–53, 2005. 61, 149, 194 [223] D. Pumain, L. Sanders, and T. Saint-Julien. Villes et auto-organisation. Economica, 1989. 114 [224] Denise Pumain. Essai sur la distance et l’espace géographique. Revue ATALA - Numéro 12 - La distance, objet géographique, 2009. 113, 114 [225] Ernest G. Ravenstein. The Laws of Migration. Journal of the Royal Statistical Society, 52(2) :241– 305, June 1889. 113 [226] Jean-Charles Régin. Modélisation et contraintes globales en programmation par contraintes. Hdr, Université de Nice Sophia-Antipolis, November 2004. 56 [227] Jean-Charles Régin, Mohamed Rezgui, and Arnaud Malapert. Embarrassingly Parallel Search. In Principles and Practice of Constraint Programming - 19th International Conference, CP 2013, Uppsala, Sweden, September 16-20, 2013. Proceedings, pages 596–610, 2013. 92, 159 [228] César Rego and Catherine Roucairol. A parallel tabu search algorithm using ejection chains for the vehicle routing problem. In IbrahimH. Osman and JamesP. Kelly, editors, Meta-Heuristics, pages 661–675. Springer US, 1996. 94 [229] W.J. Reilly. The Law of Retail Gravitation. W.J. Reilly, 1931. 113 [230] Mauricio G. C. Resende. Greedy Randomized Adaptive Search Procedures (GRASP). Journal of Global Optimization, 6 :109–133, 1999. 89 [231] Celso C. Ribeiro and Mauricio G. C. Resende. Path-relinking intensification methods for stochastic local search algorithms. J. Heuristics, 18(2) :193–214, 2012. 81 [232] P. Riboulet. Onze Lecons Sur La Composition Urbaine. Presses de l’École Nationale des Ponts et Chaussées, 1998. 20 [233] Francesca Rossi, Peter van Beek, and Toby Walsh. Handbook of Constraint Programming. Elsevier Science Inc., New York, NY, USA, 2006. 63, 149, 194 [234] B. Roy. Méthodologie multicritère d’aide à la décision. Economica, Paris, 1985. 60, 101 [235] B. Roy. Réflexions sur le thème : Quête de l’optimum et aide à la décision. Cahier du LAMSADE no 167, Université de Paris Dauphine, février 2000. 32 pages. 100242 BIBLIOGRAPHIE [236] B. Roy and D. Bouyssou. Aide Multicritère à la Décision : Méthodes et Cas. Economica, Paris, 1993. 100, 101 [237] S. J. Russell and S. Zilberstein. Anytime sensing, planning, and action : A practical model for robot control. In Ruzena Bajcsy, editor, Proceedings of the International Conference on Artificial Intelligence (IJCAI-93), pages 1402–1407, Chambéry, France, 1993. Morgan Kaufmann publishers Inc. : San Mateo, CA, USA. 99 [238] Sartaj Sahni and Teofilo F. Gonzalez. P-complete approximation problems. J. ACM, 23(3) :555–565, 1976. 125 [239] Nicolas Schabanel. Algorithmes d’approximation et Algorithmes randomisés, 2003. CIRM - ENS LYON. 64, 223 [240] A. Schärlig. Décider sur plusieurs critères : panorama de l’aide à la décision multicritère. Collection Diriger l’entreprise. Presses polytechniques romandes, 1985. 60, 101 [241] Thomas Schiex, Hélène Fargier, and Gérard Verfaillie. Valued Constraint Satisfaction Problems : Hard and Easy Problems. In IJCAI-95, pages 631–639. Morgan Kaufmann, 1995. 67 [242] D.K. Schneider. Modélisation de la démarche du décideur politique dans la perspective de l’intelligence artificielle. PhD thesis, 1996. 100 [243] René Séguin, Jean-yves Potvin, Michel Gendreau, Teodor G. Crainic, and Patrice Marcotte. Realtime decision problems : an operations research perspective. Journal of the Operational Research Society, 48 :162–174, feb 1997. 103, 104, 106, 178 [244] Marc Sevaux. Métaheuristiques : Stratégies pour l’optimisation de la production de biens et de services. Hdr, University of Valenciennes, July 2004. 65 [245] P. Siarry. Métaheuristiques : Recuits simulé, recherche avec tabous, recherche à voisinages variables, méthodes GRASP, algorithmes évolutionnaires, fourmis artificielles, essaims particulaires et autres méthodes d’optimisation. Algorithmes. Eyrolles, 2014. 71, 90, 95, 150 [246] SIMAURIF. Rapport 1 : Modèle dynamique de simulation de l’interaction urbanisation-transports en région ile-de-france. Projet de recherche, September 2004. 119, 120, 224 [247] SIMAURIF. Rapport 2 : Modèle dynamique de simulation de l’interaction urbanisation-transports en région ile-de-france. Projet de recherche, October 2005. 120 [248] SIMAURIF. Rapport 3 : Modèle dynamique de simulation de l’interaction urbanisation-transports en région ile-de-france. Projet de recherche, November 2007. 120 [249] Herbert Alexander Simon. The New Science of Management Decision. Prentice Hall PTR, Upper Saddle River, NJ, USA, 1977. 99, 100, 177, 224 [250] Jadranka Skorin-Kapov. Tabu search applied to the quadratic assignment problem. INFORMS Journal on Computing, 2(1) :33–45, 1990. 86 [251] Christine Solnon. Cours de programmation par contraintes, 2003. 56 [252] Christine Solnon. Contribution à la résolution pratique de problèmes combinatoires - des fourmis et des graphes. Hdr, 2005. 57, 59, 89 [253] Taoufik Souami. De l’écoquartier à la ville intelligente. [88], pages 112–113. 33BIBLIOGRAPHIE 243 [254] R.H. Sprague and E.D. Carlson. Building effective decision support systems. Grolier Computer Sciences Library. Prentice-Hall, 1982. 102, 177 [255] Ralph H. Sprague Jr. DSS in context. Decision Support Systems, 3(3) :197 – 202, 1987. 102, 177, 224 [256] P. F. Stadler. Towards a Theory of Landscapes. In Lopéz, R. Capovilla, García R. Pelayo, H. Waelbroeck, and F. Zertuche, editors, Complex Systems and Binary Networks (Proceeding of the Guanajuato Lectures 1995), pages 77–163. Springer-Verlag, 1996. 79 [257] P.F. Stadler and W. Schnabl. The landscape of the traveling salesman problem. Preprint. Sonderforschungsbereich 343, 1991. 79 [258] John A. Stankovic and K. Ramamritham, editors. Tutorial : Hard Real-time Systems. IEEE Computer Society Press, Los Alamitos, CA, USA, 1989. 99, 150 [259] J. Q. Stewart. Demographic Gravitation : Evidence and Applications. Sociometry, 11(1/2) :31–58, 1948. 113 [260] Thomas Stützle. Local search algorithms for combinatorial problems - analysis, improvements, and new applications., volume 220 of DISKI. Infix, 1999. 83 [261] Jean-Pierre SUEUR, sénateur. Villes du futur, futur des villes - quel avenir pour les villes du monde ?, June 2011. 19 [262] J. Syrota. Perspectives énergétiques de la France à l’horizon 2020-2050 : Rapport de la Commission Énergie. Rapports et documents. Centre d’analyse stratégique - Documentation française, 2008. 43 [263] E. Taillard. Robust tabou search for the quadratic assignment problem. Parallel Computing, 17(4- 5) :443–455, 1991. 86, 127, 128, 221 [264] Éric D. Taillard, Luca Maria Gambardella, Michel Gendreau, and Jean-Yves Potvin. Adaptive Memory Programming : A Unified View of Meta-Heuristics. European Journal of Operational Research, 135(1) :1–16, 2001. 96 [265] E. G. Talbi, Z. Hafidi, and J.-M. Geib. A parallel adaptive tabu search approach. Parallel Comput., 24(14) :2003–2019, December 1998. 94 [266] E.G. Talbi. Metaheuristics : From Design to Implementation. Wiley Series on Parallel and Distributed Computing. Wiley, 2009. 58, 60, 61, 64, 65, 71, 73, 78, 79, 91, 94, 95, 159, 223 [267] H. Toussain. Algorithmique rapide pour les problèmes de tournées et d’ordonnancement. PhD thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. 66, 71 [268] Charlotte Truchet, Florian Richoux, and Philippe Codognet. Prediction of parallel speed-ups for las vegas algorithms. In 42nd International Conference on Parallel Processing, ICPP 2013, pages 160–169. IEEE, 2013. 93 [269] United-Nations. Department of economic and social affairs, population division : World population 2012. 19 [270] United-Nations. Department of economic and social affairs, population division : World urbanization prospects, the 2011 revision, population of urban agglomerations. 19 [271] United-Nations. Department of economic and social affairs, population division : World urbanization prospects, the 2011 revision, urban and rural areas 2011. 19244 BIBLIOGRAPHIE [272] Pascal Van Hentenryck and Laurent Michel. Constraint-Based Local Search. The MIT Press, 2005. 63, 66, 87, 96, 154 [273] Carlos A Vanegas, Daniel G Aliaga, Peter Wonka, Pascal Müller, Paul Waddell, and Benjamin Watson. Modelling the appearance and behaviour of urban spaces. In Computer Graphics Forum, volume 29, pages 25–42. Wiley Online Library, 2010. 49 [274] Vijay V. Vazirani. Approximation Algorithms. Springer-Verlag New York, Inc., New York, NY, USA, 2001. 64 [275] R. Venturi, D.S. Brown, and S. Izenour. L’Enseignement de Las Vegas ou le symbolisme oublié de la forme architecturale. Collection architecture. Architecture + recherches. Mardaga, 1987. 28 [276] Gérard Verfaillie and Thomas Schiex. Maintien de solution dans les problèmes dynamiques de satisfaction de contraintes : Bilan de quelques approches, 1995. 106 [277] Bruno Villalba. La dimension politique refoulée du développement durable. [88], pages 26–27. 30 [278] L. von Bertalanffy and J.B. Chabrol. Théorie générale des systèmes. Sciences des organisations. Dunod, 1993. 114 [279] J.H. von Thünen and J. Laverrière. Recherches sur l’influence que le prix des grains, la richesse du sol et les impots exercent sur les systèmes de culture. 1851. 110, 224 [280] Stefan Voß, Ibrahim H. Osman, and Catherine Roucairol, editors. Meta-Heuristics : Advances and Trends in Local Search Paradigms for Optimization. Kluwer Academic Publishers, Norwell, MA, USA, 1999. 73 [281] Chris Voudouris and Edward Tsang. Guided local search. Technical report, European Journal of Operational Research, 1995. 89 [282] Jens Vygen. Approximation algorithms for facility location problems, 2005. 149 [283] Paul Waddell. UrbanSim : Modeling Urban Development for Land Use, Transportation and Environmental Planning. Journal of the American Planning Association, 68(3) :297–314, 2002. 49, 117 [284] D. Walker and T.L. Daniels. The Planners Guide to CommunityViz : The Essential Tool for a New Generation of Planning. Orton Family Foundation Books. Planners Press, American Planning Association, 2011. 122 [285] Jacques Weber. Développement viable, durable ou du rabe ? [88], pages 50–51. 30 [286] Marino WIDMER. Les métaheuiristiques : des outils performants pour les problèmes industriels. In 3e Conférence Francophone de MOdélisation et SIMulation : Conception, Analyse et Gestion des Systèmes Industriels, MOSIM’01, Troyes (France), April 2001. 65 [287] Marc Wiel. Comment construire une ville cohérente ? Études foncières, no 138, pages 12-17, 2009. 43 [288] D. H. Wolpert and W. G. Macready. No free lunch theorems for search. Tech. Rep. No. SFI-TR-95- 02-010, Santa Fe Institute, Santa Fe, NM, 1995. 61 [289] S. Wright. The roles of mutation, inbreeding, crossbreeding and selection in evolution. pages 355– 366, 1932. 78BIBLIOGRAPHIE 245 [290] Mutsunori Yagiura and Toshihide Ibaraki. On metaheuristic algorithms for combinatorial optimization problems. Systems and Computers in Japan, 32(3) :33–55, 2001. 95 [291] Shlomo Zilberstein and Stuart Russell. Optimal composition of real-time systems. ARTIFICIAL INTELLIGENCE, 82 :181–213, 1996. 99 [292] G. Zipf. Human Behaviour and the Principle of Least-Effort. Addison-Wesley, Cambridge, MA, 1949. 111 [293] G. K. Zipf. The P1P2 D hypothesis : on the intercity movement of persons, 1946. 113 [294] M. Zlochin, M. Birattari, N. Meuleau, and M. Dorigo. Model-based search for combinatorial optimization : A critical survey. Annals of Operations Research, 131 :373–395, 2004. 70Thèse de Doctorat Bruno BELIN Conception interactive d’environnements urbains durables à base de résolution de contraintes Interactive design of sustainable cities with constraints solving Résumé La conception de villes plus durables est devenue un problème de société central. Une ville, à un stade très en amont du processus de conception, peut être vue comme un ensemble équilibré de formes urbaines (unités résidentielles, commerciales, artisanales, industrielles, routes, écoles, parcs, ...) qui doivent être spatialement organisées suivant des règles complexes issues d’une vision systémique de la ville, intégrant les facettes sociales, économiques, écologiques et de transport. Dans cette thèse, nous proposons un outil d’aide à la décision pour assister les urbanistes et les décideurs dans cette tâche de conception de villes durables. Nous modélisons le problème d’aménagement urbain comme un problème d’optimisation que nous résolvons par des techniques de recherche locale en réalisant une succession de permutations entre formes urbaines. Notre outil organise alors automatiquement les formes urbaines sur un territoire vierge, et délimité dans l’espace. Nous étendons cet algorithme séquentiel avec des heuristiques novatrices pour améliorer les temps de calcul, et nous proposons une version distribuée efficace pour des problèmes de grande taille. Enfin, nous y ajoutons des fonctionnalités interactives permettant aux experts de modifier l’organisation spatiale de la ville, tout en maintenant à la volée les relations entre les formes urbaines, et en les informant des impacts de leurs choix. Les avantages de notre approche sont mis en évidence par des exemples et des évaluations d’experts du domaine, et ouvrent la voie vers de nouvelles façons de concevoir les villes du futur. Abstract The design of more sustainable cities has emerged as a central society issue. A city, in the early stage of its design process, can be seen as a balanced set of urban shapes (residential, commercial, artisanal and industrial units, roads, schools, parks, ...). These shapes need to be spatially organized following complex rules based on a systemic view of the city, including social, economic, ecological and transportation aspects. In this thesis, we provide a computer-aided decision tool to assist urban planners and decision makers in the task of designing sustainable cities. We cast the urban planning problem as an optimization problem that we solve with local search techniques, by iteratively swapping the urban shapes. At this stage, our tool automatically organizes urban shapes over a given empty, spatially delimited territory. We extend this sequential algorithm with novel heuristics to improve the computation time, and propose a distributed version, efficient on large problems. Finally, we add interactive features that allow the experts to modify the spatial organization of the city, while maintaining on the fly the relations between shapes and informing the experts of the impacts of their choices. The benefits of our approach are highlighted by examples and feedbacks from experts in the domain, and open the way for new approaches to design the cities of the future. Mots clés Système interactif d’aide à la décision, recherche locale distribuée, planification urbaine, ville durable. Key Words Decision support system, distributed local search, urban planning, sustainable city. L’UNIVERSITÉ NANTES ANGERS LE MANS Intelligence en essaim pour la distribution de simulations dans un ´ecosyst`eme computationnel Guilhelm Savin To cite this version: Guilhelm Savin. Intelligence en essaim pour la distribution de simulations dans un ´ecosyst`eme computationnel. Artificial Intelligence. Universit´e du Havre, 2014. French. . HAL Id: tel-00932194 https://tel.archives-ouvertes.fr/tel-00932194 Submitted on 16 Jan 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.UNIVERSITÉ DU HAVRE UFR Sciences et Techniques THÈSE pour obtenir le grade de DOCTEUR DE L’UNIVERSITÉ DU HAVRE Discipline : Informatique Guilhelm S 7 janvier 2014 Directeur : Damien O Professeur à l’université du Havre Co-directeur : Antoine D Maître de conférence à l’université du Havre Rapporteurs : Pascal B Professeur à l’université du Luxembourg Cyril F Professeur à l’université du Littoral Côte d’Opale Examinateurs : Paul B Directeur de recherche à l’école Polytechnique de Paris Nicolas M Maître de conférence à l’université de ToursR Me voici donc à rédiger ces quelques mots qui clôturent la rédaction de ce manuscrit, et qui suscitent en moi à la fois impatience et circonspection ; l’impatience de pouvoir remercier toutes ces personnes avec lesquelles j’ai eu l’occasion d’interagir au cours de mon doctorat. Cependant, je l’écris avec toute la réserve possible de crainte d’en oublier certains. S’il y a bien une partie qui vient du cœur, je pense qu’il s’agit de celle-ci, vous m’excuserez donc, je l’espère, de ne pas l’aborder avec la rigueur d’un quelconque conformisme. J’ai découvert le monde de la recherche durant mes premières années de fac. C’était pour moi une nouveauté à laquelle mes enseignants de cette époque, pour la plupart cités dans ces remerciements, ont su me donner goût. Par la suite, il m’a été donnée l’occasion de faire un pas de plus dans cet univers et pour cela, je n’en remercierai jamais assez Damien. Merci de m’avoir donné ma chance et d’avoir cru en moi malgré les passes difficiles. Toutes les rencontres sont enrichissantes dans une vie, mais certaines se démarquent des autres. Tu fais, sans conteste, partie de ces personnes à part, qui m’ont permis d’évoluer et d’élargir ma vision du monde. Si je devais retenir une seule des choses que j’ai pu apprendre en te côtoyant, ce serait que rien n’est plus enrichissant que d’être soi-même une entité qui participe, avec d’autres entités au travers d’une collaboration dans la joie et la bonne humeur, à la création d’un tout plus grand que nous. Cette thèse est aussi un travail collectif, il s’agit d’une structure qui émerge de nombreuses interactions et je suis très honoré d’avoir pu faire partie de son noyau à tes côtés. J’espère que les moutons remplacent désormais les avions. Cette thèse n’aurait sûrement pas pu voir le jour sans Antoine, autre particule du noyau, avec qui je suis resté en contact durant mon année bordelaise et qui m’a motivé pour me lancer dans ce projet. Un énorme merci d’avoir accepté de la co-encadrer. Merci pour toutes les ren lectures dont je t’ai abreuvé en flux continu. Tu fais aussi partie des enseignants qui ont participé à forger mon attirance pour la recherche et qui m’ont permis d’être là aujourd’hui. Plus important encore, merci de m’avoir fait découvrir ces petites choses formidables que sont le maki et le sushi. La spatialisation, quelque peu inhabituelle, dans laquelle j’ai évolué ces dernières années, m’a apporté une dimension humaine particulière qui a complété l’apport scientifique de ces travaux. Je tiens à exprimer toute mon affection à ma famille d’adoption havraise, Nath et Ced, pour m’avoir fait comprendre que de se sentir chez soi ne dépendait pas tant du lieu, que des personnes qui s’y trouvent. Vous êtes tous les deux de superbes personnes, qui tiennent désormais une place particulière dans mon cœur. Je souhaite que la vie vous iR apporte ce que vous désirez. L’aboutissement de cette thèse n’est possible que grâce aux personnes qui ont accepté de la rapporter et de participer au jury. Un grand merci à Pascal B et Cyril F pour m’avoir fait l’honneur d’être rapporteurs de cette thèse. C’est un moment quelque peu angoissant d’avoir terminé la rédaction de son manuscrit et d’être en attente des rapports qui vont évaluer les travaux qui y sont présentés et qui correspondent à plusieurs années de travail. Mais quel profond soulagement de découvrir, à leur réception, que cette thèse a été jugée suffisamment digne d’intérêt pour mériter d’être soutenue. Je remercie très sincèrement Paul B et Nicolas M pour m’avoir eux aussi fait l’honneur d’accepter d’examiner ce manuscrit. Vous faites tous partie des personnes jouant un rôle déterminant dans la conclusion de ces travaux, et je vous en suis profondément reconnaissant. Merci à Stefan qui, non satisfait de m’avoir appris à équilibrer les arbres de manière stendhaleuse, m’a fait découvrir la réaction hors du commun se produisant lorsqu’un échantillon de Bg est plongé dans une solution aqueuse dans des conditions de température faible. Et plus généralement, merci pour toutes les aventures de la même-pas-cap team. Un grand merci pour ta relecture très constructive de ce manuscrit. Merci à Yoann pour les nombreux moments partagés. Et il y en a ! D’abord en tant qu’enseignant, puis en tant que thésard collègue de bureau, et désormais en tant qu’ami. Je pense que notre invention du frigo-luge, sport méconnu du grand public, restera dans les méandres oubliés de l’histoire, faute d’avoir prévu un podium adapté. La plupart des thésards présents au début de ma thèse sont désormais partis. Seuls deux restent, perdus dans les abîmes d’une rédaction qui semblait ne pas vouloir se terminer. Merci à Haïfa pour avoir formé le groupe de vétérans des thésards de la B213 ! Ainsi que pour ta bonne humeur quasi permanente. Je n’oublie pas les différents thésards qui se sont peu à peu éloignés vers de nouveaux horizons : Nizar, Michel, Gaétan, Karim, Franzo, Cédric, Djam, Fahem, et, plus au sud, Frédéric. Quand tout semble se dérober sous nos pieds, il reste toujours une base solide sur laquelle s’appuyer. Je tiens donc à remercier ma famille pour son soutien tout au long de ces années. En particulier ma mère, Catherine, pour sa chasse aux fautes d’orthographe et ma grandmère, Christiane, pour m’avoir fréquemment offert le gîte et régalé de raie au beurre noir. Mais aussi mon père Jean-Noël, Stéphanie, et bien sûr, mes sœurettes Laureline et Maïté et mon frère Thibault. J’ai aussi une pensée affectueuse pour mes grand-parents jurassiens, Danièle et Michel, que je ne vois pas aussi souvent que je le souhaiterai. Ainsi que pour mon grand-père, Bernard, qui s’est éteint avant d’avoir pu voir cette thèse terminée. Merci à ma tante Valérie de m’avoir permis de me ressourcer régulièrement là où la terre prend fin. Merci à tous les membres de ma famille que je n’ai pas la place de citer ici, mais qui n’en sont pas moins la cible de mes remerciements. Merci aussi à ma belle-famille, Antoine, Candice, Dominique, Nadine, pour m’avoir souvent accueilli et nourri ; ainsi que pour votre soutien. Merci aux différents membres de l’équipe RI2C, et plus généralement du LITIS, voire du LMAH ! En particulier, Véronique, toujours souriante et à l’écoute ; Frédéric, avec qui il est vraiment plaisant d’interagir. Mais aussi Éric, et, plus récemment Rodolphe. Sans oublier les irréductibles Cyrille et Aziz, qui ne doivent avoir un badge que pour entrer dans iile bâtiment. J’ai une pensée chaleureuse pour Claire ; ainsi que pour Laurent, Dominique, Jean-Luc, Guillemette, Pierrick, Guillaume, et Arnaud. Merci aux amis avec qui j’ai pu passé régulièrement de bons moments. En particulier le clan des amis de toujours, Cédric, Jérémy, François, Mathieu, Antony, Aline, Élise ; Cédric et Aline ont aussi eu à subir mes squattes réguliers, au détriment de certaines madeleines dont mes papilles en remercient encore la cuisinière. Le clan Chateau-Corson, Yann, Rachel, Antoine, Paula, Marie, Philippe, Catherine. Le clan voileux, dont la première rencontre se fit au milieu de délicieuses effluves de fromage, sous la supervision intransigeante de Nath ; merci donc à Clem, Tanguy, Benj, Romain, Julie. Sans oublier Vesela, Raphaël, Fabienne, Gaby, Rafika, Caroline, Maya. Et le clan d’Oc, Xavier, Manu, Carine, Benjamin, Mélanie, Christine, Gérard, Corinne, Isabelle. Je m’excuse par avance auprès de ceux que j’ai oublié, car il y en a très certainement ! Je remercie également ceux qui suivent les chemins d’Iwama. J’ai pu, grâce à vous, trouver une paix intérieure qui a contribué à me donné la force de terminer. Merci donc à JeanLouis, pour tes discussions enrichissantes, et pour m’avoir poussé à finaliser ce manuscrit. Merci à Alexis, Virginie et Christelle, mais aussi à tout les autres. Namasté. Merci à la SNCF, pour m’avoir gracieusement offert des heures gratuites à bord de ses trains, même si j’aurais aimé pouvoir en contrôler le moment pour en profiter. Merci au Trappiste, à la Petite Rade, au Miyaki et aux kebabs. Enfin, une place spéciale pour quelqu’un de spécial, ma dulcinée, Solenne, qui me fait la joie de partager ma vie depuis bientôt huit années. Désolé pour les absences, et l’humeur parfois (souvent ?) irascible. Mais surtout, merci pour ta présence, ton soutien, et ton amour. Il va être temps pour nous de prendre de la hauteur pour continuer de découvrir de nouveaux horizons, peuplés d’étoiles encore inconnues. Avec tout mon amour. Merci à vous, qui parcourez cette page et peut être les suivantes, car, ce faisant, vous contribuez à leur donner un sens. iiiÀ ma puce Daelys, qui a vu le jour au début de cette thèse, et qui m’a accompagné toutes ces années. Tous ceux là, ce sont des individus, qui ne sont pas des dieux bien sûr, ce sont des hommes, mais ces hommes, ils communiquent les uns avec les autres, ils mettent en commun, ils créent quelque chose qui est supérieur à eux, par leurs liens, par leur mise en commun, par leurs échanges, ils font plus qu’eux même et au fond c’est toute la réalité de notre univers, que chaque fois que l’on assemble, on fait apparaître autre chose, on fait apparaitre de l’inattendu ; et bien quand on assemble des hommes, quelque chose de nouveau apparait. Albert Jacquard, Noms de dieux, 1994 vT   Remerciements i Table des matières vi Table des figures xi Liste des algorithmes xv I Introduction générale 1 Préambule 3 1 Contexte 7 1.1 Systèmes complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.2 Écosystème computationnel . . . . . . . . . . . . . . . . . . . . . . . 13 1.2.1 Système distribué . . . . . . . . . . . . . . . . . . . . . . . . 14 1.2.2 Vers une écologie computationnelle . . . . . . . . . . . . . . . 16 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2 Problèmatique 19 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 II Positionnement 27 3 Réseaux d’interactions 29 3.1 Graphes dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.1.1 Une première approche . . . . . . . . . . . . . . . . . . . . . 31 3.1.2 Modélisation de la dynamique . . . . . . . . . . . . . . . . . . 36 3.1.3 Une approche stochastique des graphes : les chaînes de Markov . 40 3.1.4 Vers une représentation formelle . . . . . . . . . . . . . . . . . 41 3.1.5 Centralité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 viTable des matières 3.2 Structures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 3.2.1 Communautés et organisations . . . . . . . . . . . . . . . . . . 54 3.2.2 Forme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 3.3 Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.3.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4 Répartition de charge 63 4.1 Partitionnement du graphe . . . . . . . . . . . . . . . . . . . . . . . 64 4.2 Approches statiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.2.1 Technique de la bissection récursive . . . . . . . . . . . . . . . 65 4.2.2 Technique multi-niveaux . . . . . . . . . . . . . . . . . . . . . 65 4.2.3 Classification hiérarchique . . . . . . . . . . . . . . . . . . . . 66 4.2.4 Théorie spectrale . . . . . . . . . . . . . . . . . . . . . . . . 69 4.2.5 Approches bio-inspirées . . . . . . . . . . . . . . . . . . . . . 71 4.3 Approches dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . 76 4.3.1 Approches par diffusion . . . . . . . . . . . . . . . . . . . . . 77 4.3.2 Approches par particules . . . . . . . . . . . . . . . . . . . . . 77 4.3.3 Diffusion de labels . . . . . . . . . . . . . . . . . . . . . . . . 78 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 5 Calcul distribué 83 5.1 Système distribué . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.1.1 Le système distribué, cette super-machine . . . . . . . . . . . . 84 5.1.2 Réseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.1.3 Stockage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 5.1.4 Intergiciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 5.2 Différents types de systèmes distribués . . . . . . . . . . . . . . . . . . 89 5.2.1 Grappe de calcul . . . . . . . . . . . . . . . . . . . . . . . . . 89 5.2.2 Grille de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . 90 5.2.3 Cloud computing . . . . . . . . . . . . . . . . . . . . . . . . 91 5.2.4 Écosystème computationnel . . . . . . . . . . . . . . . . . . . 92 5.3 Algorithmique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 5.3.1 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . 94 5.3.2 Marche aléatoire dans un graphe . . . . . . . . . . . . . . . . . 97 5.3.3 Algorithmes fourmis . . . . . . . . . . . . . . . . . . . . . . . 98 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 viiT   III Modèle 103 6 Modélisation des interactions 105 6.1 Qu’est ce que l’interaction ? . . . . . . . . . . . . . . . . . . . . . . . 106 6.1.1 Interactions & Émergence . . . . . . . . . . . . . . . . . . . . 106 6.1.2 Causalité ascendante et descendante . . . . . . . . . . . . . . . 107 6.2 Propriétés des interactions . . . . . . . . . . . . . . . . . . . . . . . . 107 6.2.1 Interaction directe ou indirecte . . . . . . . . . . . . . . . . . . 107 6.2.2 Interaction synchrone ou asynchrone . . . . . . . . . . . . . . 108 6.2.3 Interaction ciblée ou diffuse . . . . . . . . . . . . . . . . . . . 109 6.3 Représentation et manipulation des interactions . . . . . . . . . . . . . 109 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 7 Modélisation des organisations 113 7.1 Qu’est ce qu’une organisation ? . . . . . . . . . . . . . . . . . . . . . 113 7.2 Du micro au macro : le changement d’échelle . . . . . . . . . . . . . . . 114 7.2.1 Granularité de la vue sur le modèle . . . . . . . . . . . . . . . . 115 7.2.2 Intérêt du changement d’échelle . . . . . . . . . . . . . . . . . 115 7.2.3 Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 7.3 Réification des organisations . . . . . . . . . . . . . . . . . . . . . . . 117 7.3.1 Propriété de connexité . . . . . . . . . . . . . . . . . . . . . . 117 7.3.2 Fusion d’organisations connexes . . . . . . . . . . . . . . . . . 118 8 Détection des centroïdes 119 8.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 8.2 Centralité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 8.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 8.2.2 Centres et centroïdes . . . . . . . . . . . . . . . . . . . . . . 121 8.3 Des fourmis et des centroïdes . . . . . . . . . . . . . . . . . . . . . . 122 8.4 Application aux organisations . . . . . . . . . . . . . . . . . . . . . . 125 8.5 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 8.5.1 Condition d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . 128 8.5.2 Comparaison des résultats . . . . . . . . . . . . . . . . . . . . 128 8.5.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 9 Outil de modélisation 133 9.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 9.2 Algorithmique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 9.2.1 Générateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 9.2.2 Métriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 9.2.3 Recherche de structures . . . . . . . . . . . . . . . . . . . . . 138 9.3 Exportation, importation et visualisation . . . . . . . . . . . . . . . . . 138 viiiTable des matières 9.3.1 Formats de fichier . . . . . . . . . . . . . . . . . . . . . . . . 138 9.3.2 Visualisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 9.3.3 Communications réseaux, inter-threads et inter-plateformes . . . 142 9.4 Comment l’utiliser . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 IV Distribution 149 10 Répartition de charges 151 10.1 Vue d’ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 10.1.1 Pourquoi une répartition dynamique ? . . . . . . . . . . . . . . 152 10.1.2 Organisations et répartition . . . . . . . . . . . . . . . . . . . 153 10.1.3 Répartition dynamique . . . . . . . . . . . . . . . . . . . . . 153 10.1.4 Qui répartit le répartiteur ? . . . . . . . . . . . . . . . . . . . . 153 10.2 AntCo2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 10.2.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . 155 10.2.2 Extraction des organisations . . . . . . . . . . . . . . . . . . . 159 10.2.3 Lissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 10.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 10.3.1 Description des simulations . . . . . . . . . . . . . . . . . . . 163 10.3.2 Méthodes existantes . . . . . . . . . . . . . . . . . . . . . . . 163 10.3.3 Intégration du nombre de migrations . . . . . . . . . . . . . . . 169 10.3.4 Synthèse générale sur les résultats . . . . . . . . . . . . . . . . 177 11 Intergiciel 179 11.1 Vue d’ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 11.2 L’acteur, un objet actif . . . . . . . . . . . . . . . . . . . . . . . . . . 180 11.2.1 Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 11.2.2 Le paradigme acteur . . . . . . . . . . . . . . . . . . . . . . . 184 11.2.3 Gestion des différents mécanismes . . . . . . . . . . . . . . . . 184 11.3 Une architecture décentralisée . . . . . . . . . . . . . . . . . . . . . . 187 11.3.1 Agence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 11.3.2 Le tout acteur . . . . . . . . . . . . . . . . . . . . . . . . . . 187 11.4 Services des agences . . . . . . . . . . . . . . . . . . . . . . . . . . 188 11.4.1 Découverte d’autres agences . . . . . . . . . . . . . . . . . . . 188 11.4.2 Lucioles et horloge globale décentralisée . . . . . . . . . . . . . 188 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 ixT   Conclusion & Perspectives 193 Annexes 199 A Un modèle de comportement de groupe : les boids 199 A.1 Règles de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 A.2 Voisinage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 A.3 Intégration dans GS . . . . . . . . . . . . . . . . . . . . . 201 B Simulations de tests 203 B.1 Simulation statique, S1 . . . . . . . . . . . . . . . . . . . . . . . . . 203 B.2 Simulation dynamique, S2 . . . . . . . . . . . . . . . . . . . . . . . . 204 C GraphStream 207 C.1 Diagrammes de classes . . . . . . . . . . . . . . . . . . . . . . . . . 207 C.1.1 Éléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 C.1.2 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 C.1.3 Source et puits . . . . . . . . . . . . . . . . . . . . . . . . . 211 C.1.4 Fichiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 C.1.5 Algorithmes et générateurs . . . . . . . . . . . . . . . . . . . 215 C.2 Spécifications de DGS au format BNF . . . . . . . . . . . . . . . . . . . 215 D Plateforme d3 217 D.1 Diagramme de classes . . . . . . . . . . . . . . . . . . . . . . . . . . 217 D.2 Requêtes aux acteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 220 Bibliographie et index 223 Bibliographie 225 Publications 237 Index 239 Résumé 243 xT   0.1 Yet Another Table of Contents . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1 Fourmis mangeant un morceau de pomme. . . . . . . . . . . . . . . . . . 8 1.2 Essaim d’abeilles sur un arbre. . . . . . . . . . . . . . . . . . . . . . . . . 9 1.3 Nuée d’oiseaux marins aux îles Shumagin. . . . . . . . . . . . . . . . . . . 10 1.4 Organisation entre fourmis pour traverser un trou. . . . . . . . . . . . . . . 12 1.5 Homéostasie du système thyroïdien. . . . . . . . . . . . . . . . . . . . . . 13 1.6 Système fermé, système ouvert . . . . . . . . . . . . . . . . . . . . . . . 14 1.7 Les différentes couches d’un système distribué . . . . . . . . . . . . . . . . 15 2.1 Description du contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.2 Résilience d’ingénierie et résilience écologie . . . . . . . . . . . . . . . . . 23 2.3 Exemples de formes d’organisation . . . . . . . . . . . . . . . . . . . . . 24 2.4 Décomposition d’une organisation . . . . . . . . . . . . . . . . . . . . . . 25 3.1 Quelques exemples de réseaux . . . . . . . . . . . . . . . . . . . . . . . 32 3.2 Exemple de réseau sans échelle . . . . . . . . . . . . . . . . . . . . . . . 34 3.3 Présentation des différentes couches en se basant sur une simulation de boids : (a) le réseau d’interactions, (b) le graphe dynamique initial modélisant le ré- seau, (c) une vue macroscopique du graphe dynamique . . . . . . . . . . . 35 3.4 Illustration du modèle de dynamique séquentielle . . . . . . . . . . . . . . 37 3.5 Illustration du modèle de dynamique cumulative . . . . . . . . . . . . . . . 38 3.6 Illustration du modèle de dynamique en flux . . . . . . . . . . . . . . . . . 39 3.7 Quelques exemples de mesure de la centralité . . . . . . . . . . . . . . . . 45 3.8 Graphes jouets utilisés pour illustrer les différentes centralités . . . . . . . . 46 3.9 La centralité utilisant le degré appliquée aux graphes G1 et G2 . . . . . . . . 47 3.10 Mesure de la proximité appliquée aux graphes G1 et G2 . . . . . . . . . . . . 48 3.11 Application de l’intermédiarité aux graphes G1 et G2 . . . . . . . . . . . . . 50 3.12 Application du PageRank aux graphes G1 et G2 . . . . . . . . . . . . . . . . 51 3.13 3 communautés formant des cliques . . . . . . . . . . . . . . . . . . . . . 55 3.14 Concept de processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.15 Un graphe dynamique vu comme le résultat d’un ensemble de processus . . . 57 3.16 Transmission discrète et continue . . . . . . . . . . . . . . . . . . . . . . 58 xiT   3.17 Processus micro/macro. . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.18 Processus local/global. . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4.1 Un exemple de partitionnement d’un graphe . . . . . . . . . . . . . . . . . 64 4.2 Illustration de l’approche multi-niveaux appliquée au partitionnement. . . . . 66 4.3 Dendrogramme associé à une classification hiérarchique ascendante . . . . . 68 4.4 Matrice d’adjacence et Laplacienne non-normalisée d’un graphe. . . . . . . . 71 4.5 Codage, croisement et mutation dans un algorithme génétique . . . . . . . . 76 5.1 Classification de l’architecture des machines proposée par Michael J. F . . 85 5.2 Une grappe réalisée avec des R P. . . . . . . . . . . . . . . . . . 90 5.3 Répartition, entre utilisateur et fournisseur du cloud, de la gestion des diffé- rentes couches d’un système distribué en fonction du modèle (IaaS, PaaS, SaaS). 93 5.4 Un automate e/s de processus . . . . . . . . . . . . . . . . . . . . . . . . 96 5.5 Un automate e/s de communication . . . . . . . . . . . . . . . . . . . . . 96 6.1 Causalité ascendante et descendante. . . . . . . . . . . . . . . . . . . . . 108 6.2 Interaction (a) synchrone et (b) asynchrone entre une entité source et une entité cible. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 6.3 Création d’interactions naïve . . . . . . . . . . . . . . . . . . . . . . . . 111 6.4 Création d’interactions avancée avec ρini t = 1, δρ = 0.5, ϖ = 0.7 et ρdel = 0.3. 112 7.1 Vue microscopique et vues macroscopiques . . . . . . . . . . . . . . . . . 116 7.2 Exemple de détection d’organisations non-connexes . . . . . . . . . . . . . 118 8.1 Distances des nœuds. La structure en gras représente le sous-graphe induit par les nœuds dont la distance est minimale, ce qui correspond au centroïde de ce graphe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 8.2 une organisation comportant une partie faible (en orange). . . . . . . . . . . 126 8.3 (a) une organisation est fournie par un algorithme de détection d’organisations, (b) une partie faible est détectée, (c) l’organisation initiale est scindée en deux nouvelles organisations sans partie faible. . . . . . . . . . . . . . . . . . . 127 8.4 Dans cet arbre de 50 nœuds, les fourmis ont détecté le centroïde optimal . . . 127 9.1 Un exemple basique de réseau composé d’une source, de canaux, et d’un puits 136 9.2 Un générateur de graphe dynamique basé sur le modèle des boids. . . . . . . 137 9.3 Résultat d’une marche aléatoire . . . . . . . . . . . . . . . . . . . . . . . 139 9.4 Exemple de fichier DGS . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 9.5 Affichage avancé dans GS . . . . . . . . . . . . . . . . . . . . 142 9.6 Le protocole NetStream . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 9.7 Intégration de GS dans NetLogo . . . . . . . . . . . . . . . . . 144 9.8 Le réseau routier du Havre et de ses environs modélisé en tant que graphe par GS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 xiiTable des figures 10.1 Différents scénarios d’utilisation du répartiteur de charges . . . . . . . . . . 154 10.2 Application de AntCo2 à un graphe de 400 nœuds généré par attachement pré- férentiel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 10.3 Graphe du Zachary Karate Club . . . . . . . . . . . . . . . . . . . . . . . 161 10.4 Tracé de la mesure r1 pour la simulation S1 . . . . . . . . . . . . . . . . . . 166 10.5 Tracé de la mesure r2 pour la simulation S1 . . . . . . . . . . . . . . . . . . 167 10.6 Impact de la valeur du délai sur l’évolution de r1 pour la simulation S1. . . . . 168 10.7 Impact de la valeur du délai sur l’évolution de r2 pour la simulation S1. . . . . 169 10.8 Impact de la valeur du délai sur l’évolution de r1 pour la simulation S2. . . . . 170 10.9 Impact de la valeur du délai sur l’évolution de r2 pour la simulation S2. . . . . 171 10.10 Tracé de la mesure r1 pour la simulation S2 . . . . . . . . . . . . . . . . . . 172 10.11 Tracé de la mesure r2 pour la simulation S2 . . . . . . . . . . . . . . . . . . 173 10.12 Évolution du nombre total de communications effectives et de migrations pour la simulation S1 (échelle logarithmique) . . . . . . . . . . . . . . . . . . . 174 10.13 Évolution du nombre total de communications effectives et de migrations pour la simulation S2 (échelle logarithmique) . . . . . . . . . . . . . . . . . . . 175 10.14 Évolution de C en fonction de k pour la simulation S1 . . . . . . . . . . . . 177 10.15 Évolution de C en fonction de k pour la simulation S2 . . . . . . . . . . . . 177 11.1 Appel de méthode entre objets classiques et objets actifs. Un objet A appelle une méthode d’un objet B. B exécute alors cette méthode et retourne un résultat à A qui effectue alors un traitement. . . . . . . . . . . . . . . . . . . . . . . 182 11.2 Architecture d’un acteur. . . . . . . . . . . . . . . . . . . . . . . . . . . 183 11.3 Protocole de migration . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 11.4 Différences entre unicast, broadcast et multicast . . . . . . . . . . . . . . . 189 11.5 Les lucioles « synchrones » à Elkmont dans le parc national des Great Smoky Mountains . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 11.6 Synchronisation des lucioles . . . . . . . . . . . . . . . . . . . . . . . . . 192 A.1 Règles appliquées aux boids telles que définies par Craig R. . . . . . 200 B.1 Une grille de dimension 11×11 . . . . . . . . . . . . . . . . . . . . . . . 204 B.2 Un exemple de grille plaquée sur un tore . . . . . . . . . . . . . . . . . . . 204 D.1 Exemple de méthode invocable dans d3 . . . . . . . . . . . . . . . . . . . 221 xiiiL  A 1 Calcul d’une partition à l’aide de la théorie spectrale . . . . . . . . . . . . 72 2 Recuit simulé appliqué au partitionnement . . . . . . . . . . . . . . . . 73 3 Algorithme génétique appliqué au partitionnement . . . . . . . . . . . . . 75 4 Cycle d’un algorithme fourmis . . . . . . . . . . . . . . . . . . . . . . . 100 5 Calcul classique du centroïde . . . . . . . . . . . . . . . . . . . . . . . 123 6 Algorithme général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 7 Étape d’une fourmi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 8 Cycle d’une luciole . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 xvPremière partie Introduction générale 1P Ce manuscrit présente nos travaux sur la distribution de simulations de système complexe. À une autre échelle, nous considérons l’ensemble des entités de la simulation, et l’infrastructure matérielle utilisée pour la distribution, comme un système complexe à part entière. Nous effectuons le parallèle avec les écosystèmes naturels afin de mettre en évidence que nous sommes en présence d’un environnement (le système distribué) qui fournit des ressources (calcul, mémoire, etc…) à un ensemble d’organismes (les entités) afin de leur permettre de se développer, de s’exécuter mais aussi d’interagir. Ces éléments nous amènent à penser en terme d’écosystème computationnel désignant l’ensemble de notre système distribué dédié aux simulations de système complexe. Au travers de cette vision nous cherchons à dégager des propriétés souvent propres aux systèmes naturels que l’on souhaiterait obtenir, sur le long terme, pour ce type de système distribué : robustesse, adaptabilité, résilience. Notre travail n’est qu’un pas dans cette direction. Nous proposons de centrer ce dernier autour des interactions et, à cette fin, de modéliser les simulations sous la forme d’un graphe dynamique les représentant. Cela nous amène à réfléchir sur les différentes façons d’aborder la dynamique, mais aussi la lecture de ce modèle. En effet, nous cherchons dans ce graphe des motifs, c’est à dire des organisations, qui vont nous permettre d’obtenir un plus haut niveau de représentation du graphe et, éventuellement, de gouverner le système de façon à en optimiser les propriétés qui lui permettront de résister et de s’adapter aux perturbations. Ces éléments sont complétés par le développement d’une bibliothèque de graphe dynamique permettant à la fois la modélisation, mais également des mesures locales, globales ou structurelles. À cela s’ajoute un intergiciel offrant aux simulations la possibilité d’utiliser les informations collectées au niveau du modèle et la possibilité de migrer les entités composant ces simulations afin d’aller vers une distribution efficace. Nous avons choisi de diviser la présentation de ces travaux en quatre parties. La première partie, nommée « Introduction générale », nous permet de développer le cadre global des travaux qui seront présentés dans les parties suivantes. Ainsi, un premier chapitre « Contexte » aborde les systèmes complexes et les réseaux d’interactions ; puis nous dé- taillons la notion de système distribué, suivi d’une analogie entre un système distribué dédié aux simulations de système complexe et un écosystème naturel. Nous présentons ensuite, dans un second chapitre, notre «Problèmatique» qui introduit les contraintes liées à la modélisation des interactions et à la dynamique. D’une part la dynamique du réseau d’interactions, et d’autre part celle de l’environnement de distribution. 3. P Dans la seconde partie, « Positionnement », nous présentons l’état de l’art des diffé- rents problèmes abordés. Ainsi le chapitre « Réseaux d’interactions » présente la modélisation d’un réseau d’interactions sous forme de graphe dynamique. Différentes approches de la modélisation de la dynamique sont abordées. Puis nous nous intéressons aux structures qui apparaissent dans ce graphe, ainsi qu’aux processus qui vont participer à la dynamique du graphe. Le chapitre suivant aborde la « Répartition de charge » sous l’angle du partitionnement de graphes, d’abord de manière générale, puis en s’appuyant sur les différentes approches statiques et dynamiques. Enfin, le chapitre «Calcul distribué» expose l’architecture générale de l’infrastructure d’un système distribué. Ce chapitre nous permet de décrire différents types de systèmes distribués tels que les grappes de calcul, les grilles, le cloud computing, pour terminer sur les écosystèmes computationnels ; et d’exposer une première approche sur la manière d’envisager l’algorithmique dans un tel système. La troisième partie, « Modèle», est dédiée aux modèles que nous proposons pour repré- senter les interactions entre les entités et les organisations. Nous consacrons le premier chapitre de cette partie à la « Modélisation des interactions », en décrivant leur importance au sein du système, leur rôle dans l’émergence d’organisation, ainsi que certaines de leurs propriétés. Nous nous intéressons à la « Modélisation des organisations » dans le chapitre suivant, et plus particulièrement aux différentes échelles de représentation du système. Puis, nous verrons des « Détection des centroïdes » que nous pouvons appliquer à nos modèles afin d’augmenter la robustesse du système. Nous décrivons, en particulier, une mesure de centralité, basée sur une approche à base de fourmis numériques, dont le but est de détecter les centroïdes des organisations. Enfin, nous terminerons cette partie par une présentation de notre « Outil de modélisation », GS, dont le but est de permettre la manipulation de la dynamique d’un graphe. Enfin, la dernière partie «Distribution» expose notre contribution à la répartition dynamique et décentralisée de charge, ainsi qu’à la modélisation de l’environnement de distribution. Le chapitre « Répartition de charges », quant à lui, montre les enjeux de la répartition dynamique de charge. Il développe l’algorithme AntCo2 qui est notre approche à base de colonie de fourmis utilisée pour détecter des organisations dans le graphe dynamique modélisant les entités. Ces organisations nous permettent de répartir les entités de manière à équilibrer la charge et à réduire la bande passante du réseau. Cet algorithme peut cependant conduire à l’oscillation de certaines entités entre plusieurs organisations, ce qui conduit à des migrations intempestives venant dégrader les performances globales du système. Nous proposons des méthodes de lissage pour permettre de réduire ces oscillations, suivies de résultats. Nous présentons dans un dernier chapitre « Intergiciel » notre contribution à la modélisation de l’intergiciel d’un écosystème computationnel. Ce modèle propose une architecture décentralisée, où les entités peuvent communiquer de manière asynchrone. Nous terminons sur une discussion qui nous permet de conclure ce manuscrit et de pré- senter les perspectives qui pourront définir une suite future à ces travaux. 4. Intelligence en essaim pour la distribution de simulations dans un écosystème computationnel . Introduction générale . Contexte . Problèmatique . Positionnement . Réseaux d’interactions . Répartition de charge . Calcul . distribué Modèle . Modélisation des interactions . Modélisation des organisations . Détection des centroïdes . Outil de modélisation . Distribution . Répartition de charges . Intergiciel . F 0.1 : Yet Another Table of Contents 5C 1 C 1.1 Systèmes complexes . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.2 Écosystème computationnel . . . . . . . . . . . . . . . . . . . . . 13 1.2.1 Système distribué . . . . . . . . . . . . . . . . . . . . . . 14 1.2.2 Vers une écologie computationnelle . . . . . . . . . . . . . 16 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Nous nous plaçons dans le cadre d’étude des systèmes complexes qui n’est pas sans poser de problème étant un domaine dynamique et foisonnant. En effet, il n’offre pas de définition consensuelle : certains abordent le problème à l’aide d’exemples tels que le vol en essaim (cf. figure 1.3), le trafic routier et ses embouteillages, ou encore les sociétés d’insectes (cf. figures 1.1 et 1.2)… D’autres l’abordent à l’aide de formulations généralistes telles que « le tout est plus que la somme des parties » qui bien qu’intéressantes ne peuvent constituer un cadre formel. Il n’est pas dans nos prétentions dans cette introduction de proposer une définition qui lèverait tous ces manques et comblerait toutes les ambiguïtés. Notre propos se situe dans le contexte systémique où les interactions s’expriment et définissent des propriétés locales et globales à différents niveaux d’échelle éventuels. 1.1 Systèmes complexes Les systèmes complexes sont un des composants de bases de nos travaux et pourtant, il est difficile d’en fournir une définition formelle et consensuelle, qui serait valable pour toutes 7. C . F 1.1 : Fourmis mangeant un morceau de pomme. Image sous licence Creative Commons 3.0 par Zainichi Gaikokujin les personnes travaillant sur le sujet, du fait que le terme même de complexité est polysé- mique. La difficulté réside d’une part dans les multiples disciplines utilisant le paradigme des systèmes complexes qui rendent nécessaire l’utilisation d’un vocabulaire commun, et d’autre part dans la compréhension que nous avons du terme complexité. En tant qu’informaticiens, nous sommes habitués à manipuler des complexités qui expriment le temps de calcul nécessaire à un algorithme pour s’exécuter, la quantité de mémoire nécessaire à son exécution, ou encore la complexité aléatoire de Kolmogorov [K 1965] qui définit la taille du plus petit algorithme (en nombre de caractères) nécessaire à la production d’une donnée de sortie à partir de données d’entrée. Les systèmes complexes rentrent dans un champ multidisciplinaire ce qui implique que la compréhension de la complexité ne peut se restreindre aux définitions du domaine de l’informatique seul qui se limitent à la théorie de l’information et ne capturent pas des dimensions essentielles. Nous allons donc tenter dans la suite de fixer les notions de systèmes et de leur complexité tels que nous les appréhendons. D’une manière générale, un système est un environnement, délimité du milieu extérieur 81.1. Systèmes complexes . F 1.2 : Essaim d’abeilles sur un arbre. Image sous licence CC BY-NC par Fir0002/Flagstaffotos par une membrane, dans lequel un ensemble d’éléments va avoir la possibilité d’interagir et éventuellement de s’organiser. Cet environnement et ces éléments sont régis par un certain nombre de contraintes qui vont permettre de caractériser le système. Les interactions peuvent être fixes comme dans le cas d’un moteur constituant un système électrique, ou libres, mais dans ce cas soumises à des contraintes comme par exemple un écosystème naturel. Nous verrons par la suite que cette membrane qui isole l’environnement peut être ouverte ou fermée en fonction du fait qu’elle permette ou non des échanges avec le milieu extérieur. Les éléments, que nous nommerons par la suite entités, ont la possibilité d’interagir entre eux mais aussi avec l’environnement. Celui-ci peut d’ailleurs servir d’intermé- diaire à une forme d’interaction indirecte comme par exemple la stigmergie chez les termites constructeurs [G 1959]. La stigmergie est un mode de communication qui consiste à déposer un message dans l’environnement qui déclenchera ensuite une réaction de la part 9. C . F 1.3 : Nuée d’oiseaux marins aux îles Shumagin. Cette image est dans le domaine publique des entités qui en prendront connaissance. Des interactions entre les entités peut se dégager de l’organisation entre les entités, et de ce fait, on ne peut limiter le système à la somme de ses parties. Le système est au contraire formé par l’environnement, les entités, leurs interactions ainsi que des propriétés qui émergent du comportement et des interactions des entités. On retrouve cette notion d’organisation formant un tout dans la définition de système donnée dans [S 1931] : . “ Totalité organisée, faite d’éléments solidaires ne pouvant être définis que les uns par rapport aux autres en fonction de leur place dans cette totalité.. Un système peut être ouvert ou fermé. Lorsqu’il est ouvert, la membrane qui délimite ” l’environnement du système est poreuse et laisse donc passer des flux de l’extérieur du système qui viennent perturber le système. Le système peut émettre en retour des flux vers l’extérieur. Ces flux qui traversent le système et sur lesquels le système n’a ni contrôle ni possibilité de prédiction absolue cassent le déterminisme du système et vont être responsables de phénomènes d’auto-organisation qui peuvent apparaître. Le système suit alors une trajectoire qui est non-déterministe. La définition d’un système fermé découle naturellement de la précédente comme étant son contraire : la membrane du système est hermétique et les flux traversant l’environnement se cantonnent donc à ceux générés par le système lui 101.1. Systèmes complexes même. Un système totalement fermé relève du concept. En effet, la nature ne possède pas d’exemple de tels systèmes et leur observation en serait d’ailleurs impossible : comment observer quelque chose qui ne se laisse pas traverser par la moindre particule et qui n’en émet aucune ? C’est pourquoi dans ces travaux nous considérerons que le système est ouvert afin d’être au plus proche de la réalité des systèmes naturels dont nous nous inspirons. Le système que nous considérons peut donc être assimilé aux systèmes dissipatifs tels que formulés par Ilya P et Isabelle S dans [P et S 1996]. Ces systèmes ouverts sont traversés par des flux d’énergie et de matière provenant de l’environnement extérieur et convertissent une partie de ce flux en informations afin de créer de l’ordre à l’intérieur du système. Cette absorption d’énergie conduit à l’augmentation de l’entropie globale du système, qui est dissipée par des phénomènes d’auto-organisations. La complexité repose sur plusieurs choses. Tout d’abord sur l’appréhension que l’on peut avoir sur les entités et leurs interactions. En effet, la quantité de ces éléments peut être telle qu’il devient difficile voire impossible, que ce soit pour un observateur humain ou même pour une machine, de considérer la totalité des éléments du système et de ce fait de pouvoir étudier le système par des approches globales. Elle est aussi liée au fait que le système soit plongé dans le temps [C et H 1997]. Ce temps va définir une succession d’états du système. Il peut être continu, c’est à dire que peu importe deux temps réels t1 et t2 auxquels correspond un état du système, on peut trouver un état au temps t3 tel que t1 < t3 < t2. Au contraire, le temps peut être discret : l’état du système n’est défini que pour certaines valeurs de temps qui sont séparées par un intervalle constant ou non. Dans ces travaux, nous nous focaliserons sur une approche par événements discrets qui consiste à considérer les modifications qui surviennent dans le système plutôt que le temps lui même [Z, P et K 2000]. Cette temporalité, qu’elle soit événementielle ou non, mène donc au fait que l’on observe une dynamique des différents composants du système, que ce soit l’apparition ou la disparition d’entités ou d’interactions entre les entités, ou encore la dynamique des propriétés du système. L M dans [L M 1994] intègre cette notion d’évolution dans sa description du Système Général : . “ un objet qui, dans un environnement, doté de finalités, exerce une activité et voit sa structure interne évoluer au fil du temps, sans qu’il perde pourtant son identité unique.. Du fait des interactions entre les entités et de la temporalité, on observe des ” phénomènes qui créent de l’organisation au sein du système et qui peuvent intervenir sur différentes échelles, spatiales ou temporelles. Il est donc nécessaire d’être capable d’effectuer un changement d’échelle, grâce à la détection des organisations, pour pouvoir observer à un plus haut niveau d’organisation. Ces phénomènes peuvent survenir à l’échelle microscopique sur une période de temps suffisamment courte pour pouvoir considérer le phénomène comme instantané. Ils oscillent autour d’un point d’équilibre. Ces phénomènes, que l’on qualifiera de synchroniques, bien qu’agissant à l’échelle microscopique ont des conséquences sur l’échelle macroscopique par leur répétition qui renforce d’autres phénomènes, qualifiés de diachroniques, qui agissent à une échelle macroscopique. L’action de ces derniers s’effectue sur une 11. C . F 1.4 : Organisation entre fourmis pour traverser un trou. L’auteur de cette image est inconnu fenêtre de temps beaucoup plus large avec des conséquences non-réversibles sur l’environnement qui entraînent des conséquences sur les phénomènes synchroniques. On peut citer comme exemple l’infiltration d’une goutte d’eau au travers d’une faille (phénomène synchronique), la répétition de ce phénomène sur des décennies voire des siècles aboutit à la création de concrétions, les stalactites ou stalagmites (phénomène diachronique). Les interactions dans le système peuvent être de type rétroactif ou de type proactif. Dans le cas d’interactions rétroactives, l’entité va réagir à un stimulus indirectement provoqué par une entité de plus haut niveau, que ce soit une organisation, l’environnement ou le système lui-même. L’entité n’a ni contrôle ni but dans cette réaction. Le rôle de la rétroaction va être d’amplifier (rétroaction positive) ou de diminuer (rétroaction négative) l’intensité d’un phé- nomène. On retrouve des exemples de ce type d’interactions dans le système endocrinien, en particulier dans l’homéostasie de la thyroïde [D, L et F 2012] : un faible niveau d’hormones thyroïdiennes T3/T4 va entraîner de la part de l’hypothalamus la libération d’hormone thyréotrope (TRH) qui à son tour va stimuler l’hypophyse ; cette stimulation va aboutir à la production de thyréostimuline par l’hypophyse qui va stimuler la production d’hormone thyroïdienne jusqu’à un retour à un niveau normal dans le sang (voir la figure 1.5). Les interactions proactives impliquent non seulement un contrôle de l’entité mais également la recherche d’un objectif au travers de l’interaction. L’entité cherche alors à agir à un plus haut niveau sur une organisation, l’environnement ou le système entier en le transformant, et en provoquant éventuellement les rétroactions d’autres entités. Cette action résulte de l’anticipation d’un possible événement à venir qui peut être prédit par l’analyse de ce que l’entité perçoit du système. Une interaction proactive peut être le résultat de la répétition d’une même interaction réactive qui, grâce à un mécanisme de mémoire et d’apprentissage, permet à l’entité de détecter le contexte précédant une certaine interaction, ce qui lui permet 121.2. Écosystème computationnel . Hypothalamus taux en T3/T4 faible taux en T3/T4 normaux Hypophyse production de TSH Thyroïde stimulée par TSH production de T3/T4 libération de TRH F 1.5 : Homéostasie du système thyroïdien. d’anticiper l’interaction. On peut considérer comme exemple le système de régulation thermique d’un bâtiment dont le rôle serait d’y maintenir une certaine température. Ce système peut être équipé d’une sonde qui mesure la température extérieure et grâce à l’analyse de l’évolution de cette température, la sonde peut anticiper l’impact de la température de l’extérieur sur l’intérieur et ainsi agir de manière proactive en ajustant le réglage des appareils thermiques pour maintenir la température intérieure constante. Un système complexe, bien que composé d’entités en interactions, est avant tout le fruit de ces interactions. On peut d’ailleurs considérer que le système est composé d’interactions plutôt que d’entités. Ceci implique qu’on ne peut limiter le système à ses seules entités et qu’on ne peut limiter son analyse à celle d’une partie de ses entités. Il s’agit d’un système nonlinéaire dans lequel les interactions locales entre entités impliquent des réactions globales du système. 1.2 Écosystème computationnel . “ An ecosystem is a community of living organisms (plants, animals and microbes) in conjunction with the nonliving components of their environment (things like air, water and mineral soil), interacting as a system.. ” Cette citation, extraite de W , reprend un vocabulaire qui nous est familier et qui nous permet de faire le lien avec la notion de système complexe dont il était question 1. https://en.wikipedia.org/wiki/Ecosystem, consultée le 4 août 2013 13. C . . F 1.6 : À gauche, un système fermé dans lequel les perturbations extérieures ne peuvent franchir la membrane du système. Au contraire, à droite, un flux est généré par les perturbations qui traversent le système. précédemment : il est question d’entités (les organismes) qui interagissent dans un environnement en formant un système. Il est aussi question d’éléments « sans vie » que l’on peut désigner comme étant les ressources de l’environnement. Nous allons maintenant définir et approfondir ce que nous entendons par écosystème computationnel. 1.2.1 Système distribué Nous évoluons dans un monde qui est de plus en plus peuplé d’appareils divers et variés. Grâce à l’essor de la technologie, ces appareils se sont vus dotés de mobilité, mais plus important encore, leur capacité de communiquer et d’interagir entre eux n’a de cesse d’augmenter. De l’ordinateur de bureau à la maison elle même, en passant par le téléphone, la voiture…Tous ces appareils forment un ensemble de sous-réseaux qui peuvent s’interconnecter. Ces appareils vontformer un système distribué qui va permettre l’exécution de programmes dont la fonction se réduit au calcul dans le but de générer et d’échanger de l’information. Là où par le passé un programme se réduisait à une séquence d’instructions qui s’exécutaient sur un système isolé, il s’agit désormais d’ensembles de programmes qui s’organisent afin de fournir des services de plus haut niveau. Grâce aux connections existantes entre les appareils, les programmes peuvent être dispersés sur un ensemble de systèmes. Il existe différents types de systèmes distribués, liés par exemple aux types d’unité de calcul ou encore à la topologie du réseaux, ce qui conduit à différentes définitions de ces systèmes. L. L en 1987 donne la définition suivante d’un système distribué dans [L-  1987] : 141.2. Écosystème computationnel . Applications Intergiciels et services Ressource 1 Ressource 2 … Ressource n Entités Infrastructure d’interconnection Ressources partagées F 1.7 : Les différentes couches d’un système distribué . “ A distributed system is one in which the failure of a computer you didn’t even know existed can render your own computer unusable.. Cette définition considère donc un système distribué comme un ensemble de machines ” qui sont dépendantes les unes des autres à tel point que la perte inopinée d’une de ces machines peut entraîner un gel complet du système le rendant ainsi inutilisable. Elle transmet donc l’idée d’une infrastructure statique monolithique. Plus récemment en 2000 dans [E-  2000], W. E nous donne la définition suivante : . “ A distributed system consists of a collection of autonomous hosts that are connected through a computer network. Each host executes components and operates a distribution middleware, which enables the components to coordinate their activities in such a way that users perceive the system as a single, integrated computing facility.. L’auteur utilise ici le terme plus général d’ ” hôte pour désigner les machines faisant partie du système et ici ces hôtes sont autonomes : nous avons donc une infrastructure modulaire dont les parties sont communicantes et indépendantes. L’ensemble agit de concert par l’intermédiaire d’un intergiciel qui permet aux différents composants s’exécutant dans le système de s’abstraire de leur environnement d’exécution en le considérant comme un unique environnement dans lequel ils peuvent évoluer. Bien que cette dernière définition implique une certaine tolérance aux pannes dans le système, elle n’inclut pas toute la dynamique qui peut régir certains systèmes. Cela peut suffire pour des systèmes distribués purement dédiés au calcul, comme les grilles ou les grappes, qui ont une dynamique faible : celle-ci se limite aux pannes de machines et à l’ajout ou la suppression de ressources qui surviennent à une faible fréquence. On peut cependant considérer 15. C des systèmes où les machines ont une fréquence d’apparition/disparition plus importante : par exemple, si le réseau comporte des appareils mobiles tels que des smartphones, du fait de leur mobilité et d’une connexion sans-fil au réseau sujette aux perturbations, ces périphériques peuvent se retrouver facilement déconnectés du réseau pour le ré-intégrer par la suite. 1.2.2 Vers une écologie computationnelle Le terme « écologie » a été emprunté à la langue allemande Ökologie qui est une combinaison par le zoologiste et biologiste allemand E. H. H des termes du grec ancien « οἶκος » (oîkos) signifiant « maison » et du suffixe utilisé pour la construction du nom des sciences « λογία » (logia) signifiant « discours » . L’écologie peut donc être considé- rée comme la science de la maison, mais comment peut-on définir maison dans ce contexte ? Avec « écologie » vient la notion d’écosystème dont l’étymologie peut nous permettre de le voir comme le système formé par la maison. On peut donc considérer cette maison comme un système composé d’un ensemble d’habitants (la biocénose), et d’un milieu (la bâtiment, le biotope) proposant un certain nombre de ressources à ses habitants (nourriture, couchage, sanitaires, eau, électricité, …). Les ressources arrivent de l’extérieur du système et les habitants peuvent entrer et sortir : le système formé par la maison est donc ouvert. Dans notre cas, la maison est un système distribué ouvert dont les habitants sont des entités logicielles. Tout comme la maison dispose de ressources permettant à ses habitants d’y vivre, notre système dispose de ressources (capacité de calcul, mémoire, …) qui permettent à ses entités logicielles de calculer et d’échanger de l’information. Les différentes machines d’un système distribué vont former le biotope d’un écosystème computationnel dans lequel nous allons trouver des ressources (capacité de calcul, mémoire, …). Ce biotope va permettre d’accueillir une biocénose formée par les entités logicielles qui vont pouvoir évoluer, interagir et s’organiser. Le terme d’écosystème computationnel a été principalement introduit par [K, H et H 1989 ; H 1988]. S’inspirer du naturel n’est pas un fait nouveau, et ceci à différentes échelles : physique, chimique, biologique et sociale [Z et V 2011]. On trouve par exemple la métaheuristique du recuit simulé s’inspirant des systèmes thermodynamiques [K, V et G 1983 ; Č 1985], l’algorithme d’optimisation PSO  qui utilise des essaims de particules [K et E 1995] ou encore les algorithmes fourmis s’inspirant des colonies de fourmis ainsi que de leur mode de communication indirecte [D, M et C 1996]. On retrouve aussi cette inspiration dans les algorithmes évolutionnistes tels que les programmes évolutionnistes [F 1962], les algorithmes génétiques [H 1975] ou encore la programmation génétique [C 1985]. Il s’agit de méta-heuristiques s’inspirant de la théorie de l’évolution afin de faire évoluer, à l’aide de mécanismes de croisement et de mutation, une 2. Source : Trésor de la Langue Française informatisé, http://www.cnrtl.fr/etymologie/écologie 3. Particule Swarm Optimisation 16Références population initiale de solutions à un problème donné afin de produire une nouvelle génération de meilleures solutions. Si la nature est une source d’inspiration, c’est qu’elle sait faire preuve d’une adaptabilité que l’on souhaiterait pouvoir reproduire dans nos modèles. Au travers de la métaphore bioinspirée des écosystèmes computationnels, nous voyons le système distribué comme étant lui même un système complexe afin d’en obtenir les avantages tout en devant en accepter les difficultés. Les entités logicielles sont alors les entités de ce système complexe qui interagissent dans le milieu formé par l’ensemble des ressources de calcul . L’avantage majeur que l’on souhaite obtenir de cet environnement de distribution vu comme un système complexe est la capacité d’adaptation dont sont capables de faire preuve de tels systèmes. Cette adaptabilité émerge autant de mécanismes de collaboration que de mécanismes de compétition qui permettent tout deux l’auto-organisation. Nous pouvons clore ce chapitre par une citation de J. L dans [L 1993] qui présente un système comme un objet adaptatif, contrôlé par des boucles de rétroaction et capable d’utiliser de l’information afin d’évoluer : . “ En définitive, que nous considérions un simple four électrique, une chaîne de magasins de détail gérée par ordinateur, un chat endormi, un écosystème, ou Gaïa elle-même tant que nous nous intéressons à quelque chose qui est adaptatif, capable de récolter de l’information et d’emmagasiner expérience et savoir, son étude est une question de cybernétique et l’objet étudié peut être nommé un ”système”.. ” Références Č, V. (1985). “Thermodynamical approach to the traveling salesman problem : An ef- ficient simulation algorithm”. In : Journal of Optimization Theory and Applications 45, p. 41–51. C, P. et D. R. C. H (1997). Modélisation et Simulation des Écosystèmes. Masson. C, Nichael Lynn (1985). “A Representation for the Adaptive Generation of Simple Sequential Programs”. In : ICGA, p. 183–187. D, Johannes, Gabi L et Elisavet H F (2012). “TSH and Thyrotropic Agonists : Key Actors in Thyroid Homeostasis”. In : Journal of thyroid research. D, Marco, Vittorio M et Alberto C(1996). “The Ant System : Optimization by a colony of cooperating agents”. In :IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS-PART B 26 (1), p. 29–41. E, Wolfgang (2000). Engineering distributed objects. Wiley.com. F, Lawrence J. (1962). “Autonomous automata”. In : Industrial Research 4 (2), p. 14– 19. 17. C G, Pierre-Paul (1959). “La Reconstruction du nid et les coordinations interindividuelles chez Bellicositermes natalensis et Cubitermes sp. La théorie de la stigmergie : essai d’interprétation du comportement des Termites constructeurs”. In : Insectes sociaux. H, John H. (1975). Adaptation in Natural and Artificial Systems. University Michigan Press. H, Bernado A (1988). The ecology of computation. Elsevier Science Inc. K, J et R E (1995). “Particle Swarm Optimization”. In : IEEE International of first Conference on Neural Networks. K, Jeffrey O, TadH et Bernado AH (1989). “Dynamics of computational ecosystems”. In : Physical Review A. K, Scott, Mario P V et D. G (1983). “Optimization by simulated annealing”. In : science 220 (4598). K, Andreï (1965). “Three Approaches for Defining the Concept of Information Quantity”. In : Problems of information transmission 1 (1), p. 1–7. L, Leslie (18 mai 1987). distribution. English. E-mail.  : https://research. microsoft . com / en - us / um / people / lamport / pubs / distributed - system . txt (visité le 08/08/2013). L M, Jean-Louis (1994). La théorie du système général, théorie de la modélisation. Les classiques du réseau intelligence de la complexité. L, James (1993). La terre est un être vivant : l’hypothèse Gaïa. Champs sciences. Flammarion.  : 978-2-0812-4481-8. P, Ilya et Isabelle S (1996). La fin des certitudes : temps, chaos et les lois de la nature. Odile Jacob.  : 2738103308. S, Ferdinand de (1931). Cours de linguistique générale. Payot. Geneva. Z, Franco et Mirko V(2011). “A survey on nature-inspired metaphors for pervasive service ecosystems”. In : International Journal of Pervasive Computing and Communications 7 (3), p. 186–204. Z, Bernard P., Herbert P et Tag Gon K (2000). Theory of Modeling and Simulation [Second Edition] : Integrating Discrete Event and Continuous Complex Dynamic Systems. 18C 2 P Nous avons présenté dans le chapitre précédent notre vision d’un système distribué comme un écosystème computationnel composé de son biotope (un ensemble de ressources de calcul interconnectées) et de sa biocénose (les entités logicielles qui vont s’exécuter). La mise en pratique de ce modèle n’est pas sans soulever certains problèmes, liés d’une part à l’environnement et d’autre part aux entités, que nous allons présenter dans ce chapitre. La figure 2.1 montre les différents éléments qui vont intervenir dans le système distribué. Nous avons à la base une simulation, que l’on souhaite répartir sur un ensemble de machines, qui va produire un réseau d’interactions. Nous allons modéliser ce réseau d’interactions grâce à un graphe dynamique que nous allons pouvoir manipuler et analyser. Ce graphe va évoluer dans un environnement modélisant l’ensemble des machines qui sont à disposition. De cette analyse, nous allons pouvoir fournir des informations concernant la distribution de la simulation sur l’ensemble des machines. D’un point de vue écologique, nous avons vu qu’un écosystème est composé d’un biotope et d’une biocénose. Le biotope représente un environnement spatialisé qui va fournir un habitat ainsi que des ressources à la biocénose pour lui permettre de vivre. Cette biocénose comporte l’ensemble des êtres vivants de l’écosystème (flore, faune, micro-organismes). Un ensemble de biotopes caractérisés par un climat forme un biotope de plus haut niveau appelé biome . Ce dernier peut être terrestre ou aquatique. Enfin, l’ensemble des biomes va former la biosphère. Dans le cadre des systèmes distribués, nous avons une infrastructure composée de machines et d’un réseau qui permet l’exécution d’entités logicielles. Cette infrastructure va pro- 1. Terme introduit pour la première fois par Frederic Edward C en 1916 19. P . Simulation Réseaux d’interactions Ensemble de machines Modèle : graphe dynamique micro macro Environnement Système distribué Écosystème computationnel F 2.1 : Description du contexte. La partie colorée désigne ce à quoi nous nous intéressons c’est à dire d’une part le modèle d’un réseau d’interactions créé par une simulation et d’autre part un environnement de distribution modélisant les ressources disponibles. poser des ressources (capacité de calcul, mémoires, accès à diverses sondes ou autres périphériques, etc…) aux entités logicielles afin de leur permettre de remplir leurs fonctions. La table 2.1 récapitule la comparaison entre un écosystème d’un point de vue écologique et l’écosystème formé par un système distribué. Nous manipulons et analysons la syntaxe de la simulation dont la sémantique nous est inaccessible. Tout au plus, nous approchons la sémiologie de la simulation. Cette syntaxe nous permet de mettre en relation l’ensemble des éléments intervenant dans le système. Afin de pouvoir l’analyser, il est nécessaire de définir un modèle qui nous fournisse les moyens de la manipuler. Tout d’abord se pose le problème de la modélisation de la biocénose logicielle. Il s’agit d’entités logicielles qui ont la possibilité d’interagir entre elles. Deux problèmes se posent alors : 1. comment modéliser le réseau d’interactions formé par les entités en interaction ? 2. quel est le modèle d’interaction qui va nous permettre de définir de quelle manière des entités interagissent entre elles ? La modélisation du réseau d’interaction peut être réalisée grâce à un graphe dans lequel chaque entité représente un nœud et où une arête représente une interaction entre deux entités. Il y a cependant un premier problème qui se pose : du fait que les entités sont réparties sur un ensemble de machines, chaque machine ne peut construire qu’un sous-graphe local, représentant les entités qu’elle héberge. On considère en effet comme contrainte que le nombre potentiel d’entités est trop important pour pouvoir réifier sur une seule machine une 20Écologie Computationnel aquatique, terrestre ensemble de machines connectées via un réseau Milieu eau, air, énergie capacité calcul, mémoire, sondes, périphériques Ressources Population flore, faune entités logicielles Dynamique du milieu climatique (saisons, météo), géologique (tectonique des plaques, érosion) ajout/suppression de ressources, pannes, connexion/déconnexion de ressources Dynamique de la population cycle naissance/mort, reproduction début et éventuellement fin de programmes Interactions liées aux sens/à la perception de l’autre liées aux communications contraintes liées à l’environnement T 2.1 : Comparaison entre la vision d’un écosystème d’un point de vue écologique et d’un point de vue computationnel. structure de données dont la taille serait proportionnelle aux nombres d’entités ou d’interactions. Il est donc impossible de construire un graphe global qui représenterait l’ensemble des entités, ce graphe est donc un graphe distribué formé par l’ensemble des sous-graphes locaux de chaque machine. De plus, afin de pouvoir modéliser la dynamique liée à la fois aux entités et aux interactions, le graphe devra lui même être dynamique. Nous avons besoin d’un modèle de dynamique qui soit adapté à la distribution du graphe et à l’absence de réification de la structure globale. Nous avons vu que le système distribué que nous cherchons à modéliser est en soi un système complexe. Le contrôle de tels systèmes est un défi majeur. Plusieurs verrous en sont les causes, l’aspect multi-échelles temporelles et spatiales de la dynamique constitue sans doute l’élément essentiel. Une des méthodes consiste à identifier et modéliser des motifs de dynamique qui capturent plus ou moins grossièrement temporellement et spatialement la trajectoire du système. Cette démarche entreprise, il est alors envisageable à l’aide de ces informations d’influencer la trajectoire du système afin de le faire se diriger vers un objectif recherché. On tente de gouverner le système plutôt que de tenter d’obtenir un contrôle 21. P optimal que nous sommes incapables d’exercer du fait que cela impliquerait de contrôler l’ensemble des variables qui, dans le cadre de tels systèmes, est considérable. Nous complétons cette démarche en essayant également de découvrir des solutions sur la façon dont il est possible de gouverner un tel système afin d’en améliorer la robustesse et la résilience. La robustesse permet de quantifier la capacité du système à maintenir sa trajectoire lorsqu’il est soumis à des aléas qui créent des perturbations souvent majeures et en chaîne. La notion de résilience peut être définie de deux manières [C S. H 1996] : d’une part la résilience d’ingénierie définie dans [P 1984], et d’autre part la résilience écologique telle que décrite dans [C. S H 1973]. La résilience d’ingénierie permet de mesurer la stabilité autour d’un état d’équilibre en s’appuyant sur la capacité du système à résister aux perturbations et sa vitesse à revenir à l’état d’équilibre. Cette définition est cependant insuffisante car elle ne prend pas en compte la possibilité de multiples états d’équilibre pour le système. La résilience écologique quant à elle permet de mesurer, pour un état d’équilibre stable, l’amplitude de la perturbation nécessaire pour modifier la trajectoire du système en le plaçant dans un autre domaine de stabilité. D’une manière plus générale, on peut considérer la résilience comme la capacité d’un système à s’adapter aux perturbations en ré-organisant sa structure interne afin de lui permettre de conserver ses caractéristiques globales [W et al. 2004] : . “ Resilience is the capacity of a system to absorb disturbance and reorganize while undergoing change so as to still retain essentially the same function, structure, identity, and feedbacks.. ” Dans le cadre des écosystèmes computationnels, cette dernière définition reflète ce que l’on souhaite obtenir du système distribué : peu importe les perturbations venant agir sur le système (dynamique des ressources de calcul, dynamique des entités, …), on souhaite que ce système s’adapte et continue à remplir sa fonction. Afin d’illustrer notre propos, nous pouvons considérer que nous avons besoin de calculer et de maintenir un plus court chemin entre deux nœuds du modèle, pour optimiser le routage des communications par exemple. Nous calculons donc une solution initiale puis, du fait de la dynamique, des perturbations viennent remettre en question la validité de notre solution. Il peut s’agir en l’occurrence de la suppression de certains nœuds ou arêtes faisant partie de la solution ou l’ajout de nouveaux éléments dans le graphe qui vont contribuer à l’apparition d’une nouvelle solution significativement meilleure. Nous attendons de notre système que malgré ces perturbations il soit capable de s’adapter en mettant à jour la solution initiale de façon à ce qu’elle continue à être valable. C’est cela que nous entendons par résilience. Cette résilience du système repose sur l’auto-organisation qui émerge des interactions entre les entités et plus particulièrement de mécanismes de collaboration mais aussi de compétition. On trouvera principalement de la collaboration à l’intérieur de l’organisation, c’est à dire entre ses membres, tandis que la compétition résulte d’interactions entre des entités situées aux limites des organisations. La gouvernance du système, dans l’optique d’optimiser sa résilience, nécessite dans un premier temps la détection des organisations de manière 22. A B états du système niveau d’énergie . Énergie nécessaire au changement d’état . état . . état stable x. . . domaine de stabilité F 2.2 : Résilience d’ingénierie et résilience écologie. On constate qu’il faut plus d’énergie au système pour quitter l’état d’équilibre A que pour quitter l’état B : la résilience d’ingénierie est plus forte en A que en B. En revanche, le domaine de stabilité associé à l’état B est plus important que celui associé à l’état A : la résilience écologie de B est plus forte que celle de A. à maximiser la robustesse de ces organisations. Pour cela, il est important de comprendre et de définir ce qui caractérise une organisation. Une organisation est une structure du graphe associée à une sémantique qui va donner un sens et un rôle à l’organisation. Cette structure possède une forme qui va influencer la robustesse de l’organisation face aux perturbations. Par exemple, si la structure de l’organisation forme un sous-graphe complet, sa robustesse sera maximale car très difficile à casser. Au contraire, si la structure forme un chemin, la suppression d’un seul élément peut casser l’organisation. La difficulté liée à la dynamique réside dans l’entretien de la structure de l’organisation afin de maintenir cette dernière dans le temps. En effet, une entité qui disparaît va modifier la structure de l’organisation dont elle fait partie. De même que l’ajout d’une nouvelle entité va nécessiter de déterminer si elle fait partie d’une nouvelle organisation en formation ou si elle peut être intégrée à une organisation existante ; dans ce dernier cas, il est nécessaire de mettre à jour la structure de cette organisation. Afin de mieux analyser les organisations, on peut considérer que trois parties peuvent potentiellement composer une organisation (voir la figure 2.4) : — le noyau qui, s’il existe, correspond à la partie intérieure stable de l’organisation ; — une membrane regroupant l’ensemble des entités de l’organisation qui interagissent 23. P . . F 2.3 : Exemples de formes d’organisation. Les éléments colorés forment l’organisation. avec au moins une entité en dehors de l’organisation ; — une partie intérieure intermédiaire. Le noyau reflète l’idée d’un point d’équilibre de l’organisation et offre donc des éléments d’informations nous permettant d’affiner la détection des organisations : si l’on est capable de détecter la présence de multiples points centraux à l’intérieur d’une même organisation, l’organisation a une forte probabilité d’être instable. L’affinage consiste alors à diviser l’organisation afin d’obtenir de nouvelles organisations plus petites mais plus robustes. Cela implique de disposer d’un outil adapté à notre contexte et permettant de caractériser ces points d’équilibres. Nous verrons par la suite une présentation de mesures de centralité qui permettent de détecter les points centraux d’un graphe. Références H, C. S (1973). “Resilience and stability of ecological systems”. In : Annual review of ecology and systematics 4, p. 1–23. H, C S. (1996). “Engineering resilience vs. ecological resilience”. In : Engineering Within Ecological Constraints. The National Academies Press, p. 31–44. : 9780309051989. P, Stuart L (1984). “The complexity and stability of ecosystems”. In :Nature 307 (5949), p. 321–326. W, Brian et al. (2004). “Resilience, Adaptability and Transformability in Social– ecological Systems”. In : Ecology and Society 9 (2). 24Références . F 2.4 : Décomposition d’une organisation possédant les trois composantes : en orange le noyau, en noir la partie intermédiaire et en rouge la membrane. Les nœuds gris repré- sentent les nœuds ne faisant pas partie de l’organisation. 25Deuxième partie Positionnement 27C 3 R  3.1 Graphes dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.1.1 Une première approche . . . . . . . . . . . . . . . . . . . 31 3.1.2 Modélisation de la dynamique . . . . . . . . . . . . . . . . 36 3.1.3 Une approche stochastique des graphes : les chaînes de Markov 40 3.1.4 Vers une représentation formelle . . . . . . . . . . . . . . . 41 3.1.5 Centralité . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.2 Structures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 3.2.1 Communautés et organisations . . . . . . . . . . . . . . . . 54 3.2.2 Forme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 3.3 Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.3.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Les réseaux d’interactions sont partout dans le monde qui nous entoure. On les retrouve à tous niveaux : des interactions chimiques entre des molécules aux interactions sociales entre des êtres vivants. Ce chapitre est consacré à présenter la modélisation de réseaux d’interactions et en particulier celle de la dynamique présente dans ces réseaux. De manière formelle, un réseau est un système dans lequel un ensemble d’entités sont connectées entre elles [M. E. J. N 2003]. Ces connections résultent d’une interaction entre les entités concernées, c’est pourquoi on parlera de réseau d’interactions. Lorsque ce réseau est plongé dans le temps, nous allons pouvoir observer une dynamique au niveau des 29. R  entités, de nouvelles pouvant apparaître, d’autres existantes pouvant disparaître, ainsi qu’au niveau des interactions entre les entités. On observe aussi une dynamique des propriétés qui composent ces différents éléments. Cette dynamique, qui est en soi une composante du réseau, va être la pierre angulaire de nos travaux. Parmi l’ensemble des réseaux, une certaine catégorie se distingue en regroupant des réseaux qui partagent certaines des caractéristiques suivantes : — une structure complexe de par son irrégularité ou un nombre d’entités et d’interactions suffisamment important, rendant la visualisation et la compréhension du ré- seau trop compliquées pour l’œil humain ; — une dynamique portant à la fois sur la structure (évolution des entités ainsi que des interactions) mais aussi sur les informations caractérisant les éléments du réseaux (entités et interactions) ; — un comportement non-prédictible ; — l’émergence de nouvelles propriétés du système, comme par exemple d’auto-organisation dont nous reparlerons par la suite ; — des mécanismes de collaboration/compétition. Ces réseaux sont associés aux systèmes complexes et vont être l’objet de notre attention. Les mondes réel et virtuel regorgent d’exemples de tels réseaux : les interactions protéinesprotéines, les échanges entre individus sur Internet, les collaborations scientifiques, les communications entre des machines, etc… Certains exemples sont présentés sur la figure 3.1. Nous avons vu dans ce qui précède que nous pouvons distinguer trois composants des réseaux d’interactions : — tout d’abord, un ensemble d’entités ; — puis des interactions entre ces entités ; — et enfin, une dynamique omniprésente. Nous utilisons le terme entité afin de définir de manière générique les processus autonomes qui composent ces systèmes : il s’agira selon le contexte de molécules, de cellules, d’individus ou encore d’ordinateurs voire de processus. On peut trouver ces objets sous d’autres noms dans la littérature (agents, nœuds, sommets). Les entités peuvent correspondre à des objets localisables dans notre espace physique lorsque le réseau est spatialisé, ou au contraire les entités peuvent évoluer dans un espace virtuel tel que le web. Une interaction représente l’action réciproque d’une entité sur une autre. Cette action peut être directe lorsque une entité demande explicitement à une autre d’effectuer une certaine action, ou au contraire l’interaction peut se faire indirectement lorsque l’action d’une entité est le résultat du comportement d’autres entités. Les interactions indirectes peuvent par exemple être liées à des mécanismes de rétro-action, ou des mécanismes de dépôt de message. L’entité qui est à l’origine de l’interaction peut procéder de deux manières : — soit elle rentre dans un état bloquant dont elle ne sortira qu’à la réception de la ré- ponse de l’entité cible, une telle interaction peut alors être qualifiée de synchrone ; — soit elle continue à effectuer d’autres actions tant que celles-ci ne dépendent pas du résultat de l’action initiale, puis lorsque ce résultat est disponible, l’entité peut alors 303.1. Graphes dynamiques s’occuper de son traitement, on parlera alors d’interaction asynchrone ; L’action que représente une interaction est elle aussi dépendante du contexte : réaction chimique, échange de courrier, connexion d’un câble sont autant d’exemples de ce que peut être cette action. La figure 3.1 illustre certaines de ces possibilités. Afin d’être capables d’étudier et de manipuler ces réseaux, nous avons besoin d’une structure capable des les modéliser. La modélisation d’un ensemble d’éléments et d’un ensemble de paires de ces mêmes éléments est possible grâce aux graphes. Cependant, les graphes tels quels ne nous permettent pas de modéliser l’élément moteur qu’est la dynamique globale du réseau, c’est pourquoi nous allons nous intéresser au domaine des graphes dynamiques. 3.1 Graphes dynamiques 3.1.1 Une première approche Le graphe est un objet à la fois informatique et mathématique permettant la représentation de problèmes composés d’un ensemble d’éléments pouvant être reliés entre eux. Dans la littérature, le graphe trouve son origine il y a quelques siècles, dans le problème des sept ponts de Königsberg de L. E[E 1741]. Les éléments représentés par le graphe sont appelés nœuds, et les relations existantes entre ces nœuds sont appelés respectivement arcs ou arêtes selon que la relation est ordonnée ou non. Dans le cas où les relations sont ordonnées, on parlera de graphe orienté ou di-graphe. Un graphe G est alors noté G = (V,E) où V représente l’ensemble des nœuds du graphe et E l’ensemble des arêtes (des arcs dans le cas d’un graphe orienté). Certains problèmes nécessitent que les nœuds et/ou les arêtes du graphe possèdent un poids. C’est le cas, par exemple, du problème de l’arbre couvrant de poids minimal [B 1926] où l’on cherche à extraire un sous-graphe dont l’ensemble des nœuds soit le même que celui du graphe d’origine et dont l’ensemble de arêtes soit un sous ensemble qui permette de connecter tous les nœuds sans qu’il y ait de cycle et de telle sorte que la somme des poids des arêtes de ce sous ensemble soit minimale. C’est aussi le cas de certains algorithmes de plus court chemin tel que D [D 1959] dans lesquels on cherche à minimiser la somme des poids de arêtes composant le chemin, ou encore le problème de flot maximum comme l’algorithme de F-F [F 1956]. Lorsque les éléments du graphe disposent de tels poids, on parle alors de graphe pondéré en précisant éventuellement si la pondération porte sur les nœuds, les arêtes voire même les deux. Un graphe pondéré alors noté G = (V,E,pV ,pE ) ou pV est une fonction de V → R et pE une fonction de E → R représentant respectivement les poids des nœuds et ceux des arêtes. De manière plus générale, on peut souhaiter associer plus d’une valeur aux éléments du graphe. Ces valeurs, que nous allons désigner sous le terme d’attributs, vont pouvoir être utilisées pour caractériser les éléments. Il s’agit alors d’une association entre un mot, la clef, et la valeur correspondante. Si les ensembles KV etKE représentent respectivement l’ensemble 31. R  . (a) La plus grande composante du réseau de collaboration de l’institut Santa Fe, avec les divisions principales indiquées par différentes formes de nœuds [G et M. E. J. N 2002] . (b) Le réseau trophique (ici d’un milieu cô- tier) décrit les liens existant entre les diffé- rents organismes d’un écosystème en terme de nutrition. Il se base sur les chaînes alimentaires et permet de visualiser les flux d’énergie et de matière existant au sein de l’écosystème. Source : https://fr.wikipedia.org/ wiki/Réseau_trophique, consultée le 30 octobre 2013. . (c) Réseau d’interactions entre un échantillon de livres vendus sur le site Amazon. Les nœuds représentent des livres. Une interaction entre deux livres signifie que ces livres ont été achetés ensemble. F 3.1 : Quelques exemples de réseaux 323.1. Graphes dynamiques des clefs possibles pour les nœuds et les arêtes, on peut alors généraliser les fonctions pV et pE précédentes : pV : V ×KV → R pE : E ×KE → R (3.1) Nous choisissons ici l’ensemble R pour désigner l’ensemble dont font partie les valeurs des attributs. Ces valeurs peuvent cependant être autre chose que des réels, il peut s’agir d’entiers, de couleurs, etc… L’ensemble R permet cependant d’englober toutes ces valeurs et de fournir ainsi une manière générique de décrire les attributs. Un graphe dynamique permet de modéliser les modifications pouvant survenir au niveau de la structure du graphe (modification de l’ensemble des nœuds V (G) ou de celui des arêtes E(G)) mais aussi sur l’évolution des attributs associés aux éléments (nœuds, arêtes). Dans la littérature, la notion de graphe dynamique est référencée sous différents termes qui dépendent du contexte et du domaine dans lesquels le graphe est exploité. Par exemple la notion de réseaux complexes est particulièrement utilisée dans l’étude de réseaux extraits du monde réel comme c’est le cas de [B et al. 2006] dans une étude du graphe du net. La particularité de ces réseaux est d’être constitués d’un ensemble massif et dynamique d’entités en forte interaction. La notion de réseaux complexes englobe entre autres celle de réseaux sans échelle ainsi que celle de réseaux petit-monde [S et W 1998] . Les réseaux sans échelle introduits par A.-L. B et E. B [B et B 2003] sont des réseaux dans lesquels la distribution des degrés suit une loi de puissance, ainsi quelques nœuds sont fortement connectés tandis que la grande majorité ne le sont que très faiblement. Cette répartition des degrés fait que le réseau est invariant d’échelle, c’est à dire que l’on observe les mêmes propriétés peu importe l’échelle considérée (cf. la figure 3.2). Les réseaux petit-monde quant à eux possèdent une grande partie de nœuds faiblement connectés mais de telle sorte que la longueur moyenne du plus court chemin entre deux nœuds du réseau soit faible. Afin de montrer que le réseau que nous formons, en tant qu’être humain connecté à un certain nombre d’autres humains que nous connaissons, est de type petit-monde, le sociologue Stanley M mena une expérience en 1967 dans laquelle il tente de faire transiter 60 lettres remises à des personnes d’une ville du Nebraska et devant atteindre une ville du Massachusetts en échangeant ces lettres uniquement en mains propres avec des connaissances personnelles. Sur ces 60 lettres, seulement 3 arrivèrent... mais en quatre jours (les deux villes étant séparées d’environ 2250 km). Notre objectif n’est pas de nous consacrer ici à la description de l’ensemble des termes utilisés pour désigner un graphe dynamique. On trouvera dans la thèse de Yoann P [P-  2008] une partie permettant d’approfondir la description de plusieurs des termes que nous avons vus. Pour notre part, nous retiendrons le terme réseau d’interactions pour dé- signer la structure réelle ou virtuelle émergeant d’interactions entre des éléments que nous nommons entités. Le terme graphe dynamique désigne l’objet qui va nous permettre de modéliser ce réseau. La figure 3.3 permet de visualiser ces différentes couches : 1. scale-free networks et small-world networks 33. R  . . 0 20 40 60 80 100 120 140 160 180 200 220 240 0 5,000 10,000 degrés nombre de nœuds distribution des degrés 34 F 3.2 : Réseau sans-échelle généré avec GS par attachement préférentiel.3.1. Graphes dynamiques . a b c F 3.3 : Présentation des différentes couches en se basant sur une simulation de boids : (a) le réseau d’interactions, (b) le graphe dynamique initial modélisant le réseau, (c) une vue macroscopique du graphe dynamique a. un ensemble d’agents nommés boids est simulé [R 1987] , leur but est de reproduire le comportement de groupe d’organismes vivants tels que certaines espèces de poissons ou encore certaines espèces d’oiseaux ; on considère qu’il y a une interaction entre deux boids lorsque la distance qui les sépare est suffisamment faible pour que l’un influence le comportement de l’autre ; b. le graphe dynamique modélisant le réseau d’interactions : chaque boid est représenté par un nœud, les interactions sont représentées par une arête entre les nœuds correspondants ; il s’agit là d’une vue du graphe à l’échelle microscopique ; c. le même graphe mais vu d’une échelle macroscopique : les boids ont été regroupés afin de former des structures. Une vue macroscopique du graphe signifie que l’on va désormais observer des structures 2. le modèle des boids est présenté en détail dans l’annexe A 35. R  composées de nœuds plutôt que les nœuds eux mêmes. Ces structures seront principalement des organisations que nous allons présenter par la suite (cf .3.2.1). Ce type de vue implique de procéder à un changement d’échelle qui passera par une phase de détection des structures qui nous intéressent, puis par la création d’un nouveau graphe donc les nœuds représenteront les structures détectées à l’étape précédente. 3.1.2 Modélisation de la dynamique Si les nœuds et les arêtes du graphe sont des éléments dont la représentation ne pose pas de problème majeur, la représentation de la dynamique qui va opérer à plusieurs niveaux sur le graphe est bien moins intuitive. Nous allons nous intéresser aux différentes manières de modéliser la dynamique dans un graphe. Cette dynamique est composée d’un ensemble de modifications qui peuvent survenir dans le graphe. Dans [F. H et G 1997], F. H et G. G proposent différents types de dynamiques de graphe qui vont permettre de définir que les ensembles d’éléments du graphe (nœuds et arêtes) vont pouvoir évoluer. C’est à dire qu’il est possible que le graphe se voie ajouter ou retirer des nœuds ou des arêtes au fil du temps. Les auteurs définissent alors un type de graphe où seul l’ensemble des nœuds évolue, puis de manière similaire un graphe où seul l’ensemble des arêtes évolue. On notera que la dynamique ne peut difficilement porter que sur les nœuds du fait que la suppression d’un nœud implique la suppression de l’ensemble des arêtes adjacentes à ce nœud. Les auteurs définissent aussi des types de dynamiques permettant de faire évoluer le poids des nœuds et/ou des arêtes. Cette première approche de la dynamique nous permet d’énumérer les modifications qui vont survenir sur un graphe dynamique. Tout d’abord des modifications sur les ensembles de nœuds et d’arêtes, il y a alors la possibilité d’ajouter et/ou de supprimer des éléments, et ensuite, des modifications sur les attributs associés aux éléments. Nous allons voir dans ce qui suit différentes façons de modéliser ces modifications et par conséquent la dynamique du graphe. Dynamique séquentielle Une première approche de la dynamique d’un graphe G consiste à le modéliser comme une séquence de graphes statiques Gi. i symbolise alors un temps discret et Gi représente l’état du graphe au temps i. Le graphe G est alors un triplet (V (G),E(G),{Gi}) où V (G) est l’ensemble des nœuds présents dans au moins un des graphes Gi, de même pour E(G) qui représente l’ensemble des arêtes présentes dans au moins un des graphes Gi. On retrouve alors la définition de graphe évolutif proposé dans [Afonso F 2002 ; B-X, A. F et J 2003] : . “ Soit G = (V,E) un graphe orienté avec V un ensemble de sommets et E un ensemble d’arêtes dont les extrémités appartiennent à V . Soit SG = (G1,G2,...,GT ) un ensemble de sous-graphes de G. Le système GE = (G,SG ) est appelé ”graphe évolutif”.. ” 363.1. Graphes dynamiques . V (G) = {A,B,C,D,E} E(G) = {AB, AC, AD,BD,BE,CD,DE} . A B D i = 1 V1(G) = {A,B,D} E1(G) = {AD,BD} . A B C D i = 2 V2(G) = {A,C,D} E2(G) = {AC, AD} . A B C D E i = 3 V3(G) = {B,C,D,E} E3(G) = {BE,CD,DE} . A B C D E i = 4 V4(G) = {A,B,C,D,E} E4(G) = {AB, AD,CD,DE} F 3.4 : Illustration du modèle de dynamique séquentielle Dans ce modèle, la dynamique se produit étape par étape, chaque étape correspondant à un graphe statique. La figure 3.4 propose un exemple de ce type de dynamique. Dynamique cumulative Une dynamique cumulative consiste à agréger la totalité du graphe dynamique en un graphe statique contenant les informations sur les périodes de présence de chaque élément dans le graphe. Ces périodes sont des segments du temps dans lequel le graphe est plongé qui indique quand un élément était présent dans le graphe. On notera alors le graphe G = (V,E,PV ,PE ) où V (respectivement E) est l’ensemble des nœuds (des arêtes) apparaissant au moins une fois dans le graphe dynamique. PV et PE sont des fonctions permettant de dé- finir la présence dans les graphes des nœuds (respectivement des arêtes). Cette dynamique est illustrée figure 3.5. Contrairement à une dynamique séquentielle où l’échantillonnage impose d’avoir un temps discret, il est ici possible d’utiliser un temps continu. Nous utiliserons donc T afin de désigner le temps de manière générique, cet ensemble couvrant tout ou partie de l’ensemble N si l’on souhaite utiliser un temps discret, ou de l’ensemble R pour un temps continu. PV et PE sont alors des fonctions de V → P(T)  (respectivement E → P(T)). Dans [C, P et V 2003], les auteurs utilisent ce type de dynamique pour l’étude de grands graphes représentant des télécommunications. Une fenêtre de temps est définie, c’est à dire un segment de l’ensemble T, puis un graphe statique correspondant à l’agrégation des événements survenus pendant cette fenêtre de temps est extrait à partir du graphe dynamique. 3. P(X) désigne l’ensemble des parties de X 37. R  . V (G) = {A,B,C,D,E} E(G) = {AB, AC, AD,BD,BE,CD,DE} . PV (A) = {1,2,4} PV (B) = {1,3,4} PV (C) = {2,4} PV (D) = {1,4} PV (E) = {3,4} . PE (AB) = {4} PE (AC) = {2} PE (AD) = {1,2,3} PE (BD) = {1} PE (BE) = {3} PE (CD) = {3,4} PE (DE) = {3,4} . A B C D E i = 1 A B C D E i = 2 A B C D E i = 3 A B C D E i = 4 F 3.5 : Illustration du modèle de dynamique cumulative. Les éléments en pointillés ne sont pas présents dans le graphe pour le temps donné. Dynamique par flux d’événements On considère que la dynamique du graphe est définie par un flux d’événements généré par un processus PG . Ce processus prend la forme d’une fonction qui à un intervalle temporel associe un ensemble ordonnée d’événements survenus dans cet intervalle. L’ensemble U représente l’ensemble de tous les événements possibles. Chaque événement u ∈ U est un triplet (ϑ,w,e) dans lequel : — ϑ désigne la date à laquelle l’événement survient ; — w est un élément d’un ensemble W définissant l’ensemble des actions pouvant venir modifier le graphe ; cette action peut être l’ajout ou la suppression d’un élément (nœud ou arête) ou la modification d’un attribut. Dans ce dernier cas, w contient aussi la clef et la nouvelle valeur de l’attribut modifié ; — e désigne l’élément impliqué dans l’événement. Le processus PG peut alors être défini : PG : T×T → P(U) (t,t ′ ) → { u = (ϑ,w,e) | t < ϑ ≤ t ′ } (3.2) On introduit l’opérateur ⊕ entre un graphe G = (V,E) et un ensemble d’événements U ∈ U qui permet d’appliquer à G les événements contenus dans U. À l’aide d’un processus itératif qui opère aux moments choisis ti et en prenant un graphe initial G0 au temps t0, il nous est alors possible de construire le graphe Gi, i > 0 : Gi = Gi−1 ⊕PG (ti−1,ti) (3.3) 383.1. Graphes dynamiques . A B D t = 1 u1 = (1, A JOUT, A) u2 = (1, A JOUT,B) u3 = (1, A JOUT,D) u4 = (1, A JOUT, AD) u5 = (1, A JOUT,BD) . A B C D t = 2 u6 = (2,RET IRE,BD) u7 = (2,RET IRE,B) u8 = (2, A JOUT,C) u9 = (2, A JOUT,C A) . A B C D E t = 3 u10 = (3,RET IRE, AC) u11 = (3,RET IRE, A) u12 = (3, A JOUT,B) u13 = (3, A JOUT,E) u14 = (3, A JOUT,BE) u15 = (3, A JOUT,DE) u16 = (3, A JOUT,CD) . A B C D E t = 4 u17 = (4,RET IRE,BE) u18 = (4, A JOUT, A) u19 = (4, A JOUT, AB) u20 = (4, A JOUT, AD) F 3.6 : Illustration du modèle de dynamique en flux. Les éléments rouges viennent d’être ajoutés dans le graphe, tandis que les éléments en pointillés ont été supprimés. Contrairement aux dynamiques séquentielle et cumulative, l’indice i des Gi n’indique pas le temps mais le nombre d’itérations du processus permettant de générer le graphe. Un aperçu du fonctionnement de cette dynamique est donné figure 3.6. On retrouve cette modélisation de la dynamique dans la littérature dans les problèmes de ré-optimisation qui consiste , pour un problème donné, à adapter une solution initiale aux changements survenus dans le graphe afin d’éviter de recalculer une solution à partir de zéro. C’est le cas des travaux de C. D et G. F. I [D et I 2006] sur le problème de recherche de l’ensemble des plus courts chemins . Conclusion Nous venons donc de voir différentes façons de modéliser la dynamique d’un graphe. Ces modèles se différencient en partie sur la manière dont le temps est représenté. L’approche séquentielle utilise un domaine de temps discret, chaque élément de la séquence représentant une étape de ce temps. Au contraire, l’approche cumulative permet de gérer le temps de façon continue pour peu que l’ensemble T représentant le temps soit lui-même continu. Cela est aussi possible en utilisant un modèle de dynamique par flux. D’autre part, les modèles se différencient sur la façon de représenter les ensembles d’élé- ments. Les modèles séquentiel et cumulatif décrivent le contenu de ces ensembles alors que le modèle flux décrit la manière de les construire. Dans nos travaux, nous avons choisi de voir la dynamique comme un flux. Ce modèle nous parait être le mieux adapté à notre contexte dans lequel il n’est pas possible de construire ni de connaître à l’avance l’ensemble de tous les nœuds du graphe et encore moins celui des 4. APSP, All-Pairs Shortest Paths 39. R  arêtes. Cette impossibilité est due d’une part au caractère non-déterministe de la trajectoire des systèmes que nous observons, et d’autre part à une de nos hypothèses de départ considérant que la quantité d’entités et d’interactions est trop importante pour pouvoir être réifiée en une seule structure. 3.1.3 Une approche stochastique des graphes : les chaînes de Markov Nous avons vu jusqu’à présent la modélisation du graphe et de sa dynamique en s’appuyant sur la théorie des ensembles. Il est aussi possible de parvenir à cette modélisation à l’aide de probabilités. Il nous semble donc important de présenter cette approche. Une chaîne de Markov est un processus opérant sur un ensemble d’états S = s1,s2,...,sn qui permet de se déplacer d’un état à un autre par étape [G et S 1997]. On appelle probabilité de transition la probabilité pi j de passer de l’état si à l’état sj. Les probabilités de transition sont contenues dans la matrice de transition P du processus. La probabilité de passer de l’état si à l’état sj en k étapes correspond à l’élément i j de la matrice P k et est noté p (k) i j . Il est possible d’utiliser les chaînes de Markov afin de définir les graphes dynamiques sous la forme d’un processus stochastique. Pour cela, on considère l’ensemble d’états GM contenant l’ensemble des graphes à M sommets ainsi qu’une suite de variables aléatoires X1,X2,...,Xn où chaque Xi appartient àGM . On considère la probabilité initiale p(x) = P(X1 = x) ainsi qu’une probabilité de transition p(x, y) = P(Xm+1 = y|Xm = x). La notion de temps est définie dans [R, R et S 2011] comme une suite J1,...,Jn,... de délais entre les événements. La date Tn de l’événement n est alors : Tn = ∑n i=1 Ji Nous allons reprendre un des exemples présentés dans [R, R et S 2011] afin d’illustrer ce mode de représentation des graphes. Dans cet exemple, nous considérons un ensemble de M personnes représentant les nœuds du graphe, {1,...,M}. Une information qui n’est connue à l’origine que par une personne doit être partagée jusqu’à être connue de tout le monde. À chaque étape une personne connaissant l’information choisit de la partager avec n’importe quelle autre personne ce qui ajoute une arête entre ces deux personnes. Le processus s’arrête lorsque chaque personne est au moins connectée à une autre. Les délais entre les étapes sont calculés en utilisant une distribution de M-L dont la fonction de survie est : P(J > t) = Eβ(−t β ) = ∑∞ n=0 (−t β ) n Γ(nβ+1) Le but de cette expérience est alors d’étudier le temps total nécessaire à la diffusion de l’information en fonction du paramètre β. 403.1. Graphes dynamiques 3.1.4 Vers une représentation formelle La représentation formelle d’un graphe dynamique nécessite en premier lieu de repré- senter le temps dans lequel le graphe évolue. Ensuite, par rapport à ce temps, il faut être capable de représenter d’une part l’état de la structure du graphe à un temps donné, d’autre part l’état des données associées aux différents éléments du graphe. Formalisme pour les réseaux tolérants aux délais Dans [C et al. 2012], A. C et al. présentent un modèle nommé TVG (pour « Time-Varying Graphs ») afin d’unifier différents modèles présents dans la littérature dans certains domaines des systèmes dynamiques en particulier les réseaux tolérants aux délais, les réseaux de mobilité opportuniste ou encore les réseaux complexes du monde réel. La représentation d’un graphe G est (V,E,T,ρ,ζ) avec : — V , l’ensemble des entités ; — E, l’ensemble des relations entre entités ; — T, une partie d’un domaine temporel T ; — ρ : E ×T → {0,1}, la fonction de présence des arêtes ; — ζ : E ×T → T, la fonction de latence des arêtes. La dynamique peut être étendue aux entités par l’ajout d’une fonction indicatrice de leur présence ψ : V ×T → {0,1} et une fonction de latence pour les entités φ : V ×T → T. Les fonctions de latence permettent, en ce qui concerne ζ, de définir le temps nécessaire pour traverser une arête à un temps t, et pour ce qui est de φ de définir les temps de traitements locaux. Cette représentation est adaptée pour la modélisation d’infrastructure de communication, en particulier les réseaux mobiles. Elle contient de ce fait certains éléments comme les fonctions de latence qui sont propres aux domaines cibles comme les réseaux tolérants aux délais. Du fait que cette représentation soit dédiée à ces domaines particuliers, elle ne peut nous satisfaire là où nous cherchons à exprimer les choses de façon générale. C’est pourquoi nous allons désormais présenter une nouvelle représentation formelle permettant de repré- senter un graphe dynamique de manière générique : le temps dans lequel il est plongé, sa structure et les attributs liés aux différents éléments. Proposition d’un formalisme générique Temps Nous avons commencé à voir dans 3.1.2 que la définition d’un modèle de dynamique implique la définition de la temporalité dans laquelle le graphe est plongé. C’est au travers de cette ligne de temps que nous allons pouvoir définir l’évolution du graphe. Le temps peut être une succession dénombrable ordonnée de valeurs ti, comme c’est le cas pour une dynamique séquentielle, de telle sorte qu’à chaque ti est associé un état Gi du graphe. On dira du temps qu’il est discret du fait qu’entre deux temps successifs, ti et ti+1, 41. R  il n’est pas possible de définir un nouvel état du graphe. Ce type de temporalité est exprimé par l’ensemble N ou une partie de cet ensemble. Au contraire, le temps peut être non dénombrable. Pour toutes valeurs du temps t et t ′ tel que t < t ′ il est possible d’obtenir une nouvelle valeur t ′′ tel que t < t ′′ < t ′ . On considère alors le temps comme continu et il est possible de l’exprimer par l’ensemble R. Structure L’ensemble des nœuds du graphe dynamique est dépendant du temps. On le définira donc comme la fonction v qui a un temps t donné associe un ensemble de nœuds Vt. On considère que l’ensemble des nœuds possibles pour un graphe est infini mais dénombrable. On peut par conséquent utiliser l’ensemble N afin de le représenter, chaque nœud pouvant donc être associé à un entier. L’ensemble des nœuds du graphe est alors un élé- ment de P(N). P(N) constitue l’ensemble des parties de N, c’est à dire l’ensemble de ses sous-ensembles : P(N) = {U |U ⊆ N}. Nous utiliserons donc ce dernier afin de représenter l’ensemble de tous les nœuds. La fonction v sera alors : v : T → P(N) t → Vt (3.4) De même, l’ensemble des arêtes du graphe dynamique est aussi dépendant du temps. Il sera défini à l’aide de la fonction e qui à un temps donné t associe un ensemble d’arêtes Et : e : T → P(N×N) t → Et , Et ⊆ (Vt ×Vt) (3.5) Il nous est donc possible de définir la partie structurelle d’un graphe dynamiqueG comme étant le triplet (v,e,T). Attributs Nous avons vu en 3.1.1 les fonctions pV et pE qui permettent de définir un ensemble de propriétés, les attributs, sur les éléments du graphe. Nous pouvons étendre la définition de ces fonctions pour y inclure la composante temporelle : pV : V ×KV ×T → R pE : E ×KE ×T → R (3.6) Le graphe lui-même pouvant posséder des propriétés qui vont évoluer avec le temps, nous introduisons la fonction pG qui, à un ensemble de clef KG , permet d’associer des valeurs : pG : KG ×T → R (3.7) On peut par exemple considérer l’ensemble de clefs KV = {poi d s,couleur,t ai l le}. La fonction pV (n,couleur,t) permet alors de connaitre la couleur du nœud n au temps t. En considérant le triplet A = (pG ,pV ,pE ), nous pouvons alors définir un graphe dynamique avec attributs comme étant le quadruplet (v,e,A,T). 423.1. Graphes dynamiques Application aux modèles de dynamique Considérons maintenant notre représentation formelle en fonction des différents modèles de dynamique que nous avons présentés en 3.1.2. Nous laisserons ici de côté la partie concernant les attributs. Dynamique séquentielle (G0 = (V0,E0),...,Gi = (Vi ,Ei),...,Gn) une séquence de graphes statiques. On définit alors le graphe dynamique correspondant par G = (v,e,[0,n]), avec : — v(t) = Vt — e(t) = Et Dynamique cumulative En considérant : — le temps R + ; — l’ensemble VA de tous les nœuds présents à au moins un instant t ∈ R + ; — EA l’ensemble équivalent pour les arêtes ; — la fonction indicatrice α : VA ×R + → {0,1} définissant si un nœud est présent dans le graphe à un temps donné ; — la fonction indicatrice β : VA ×VA ×R + → {0,1} définissant de manière équivalente si une arête est présente dans le graphe à un temps donné. On peut alors définir le graphe dynamique G = (v,e,R +) avec : — v(t) = {u | α(u,t) = 1}; — e(t) = { (u, v) | β(u, v,t) = 1 } . Dynamique par flux On considère un processus PG correspondant à un graphe dynamique, ainsi qu’un graphe initial Gt0 correspondant à l’état du graphe au temps t0. En reprenant l’opérateur ⊕ défini en 3.1.2, on peut alors construire le graphe Gt = (Vt ,Et) : Gt = Gt0 ⊕PG (t0,t) On obtient alors le graphe dynamique G = (v,e,T) avec : v(t) = Vt e(t) = Et Pour résumer, nous considérons un graphe dynamique comme étant un processus dynamique fournissant un flux d’événements. Ces événements décrivent les modifications qui surviennent dans le graphe. Il est alors possible de construire le graphe à partir de sa version précédente en appliquant successivement les événements qui sont survenus entre temps. Le formalisme, que nous avons introduit ci-dessus, permet de décrire ce processus. 43. R  3.1.5 Centralité La notion de centre est utilisée dans différents domaines scientifiques, comme la géomé- trie ou encore la physique, sous divers noms tels que barycentre, centre de masse, centroïde, centre de gravité, etc…Elle est l’expression du besoin de définir une zone d’équilibre dans un objet, qu’il soit pondéré ou non. La centralité n’est pas directement liée à la dynamique du graphe. Elle va cependant être une mesure importante pour une partie de nos travaux, lorsque nous chercherons à détecter les centroïdes des organisations. Dans le domaine des graphes, on cherche principalement à mesurer à quel point chaque nœud se trouve éloigné du centre du graphe. On parle alors de mesure de centralité qui permet d’introduire une relation d’ordre entre les nœuds en fonction de cet éloignement vis à vis du centre du graphe. Il est alors possible de déterminer le ou les centres du graphe comme étant les nœuds qui minimisent ou maximisent (en fonction de la mesure choisie) cette mesure. La centralité dans les graphes est l’expression du besoin de faire ressortir les informations les plus importantes qui, du fait de l’augmentation de la quantité d’informations contenue dans les graphes, se retrouvent noyées dans la masse. C’est par exemple le cas dans l’étude de réseaux sociaux [F 1978] où la centralité permet de mieux cerner l’importance des nœuds dans le réseau et d’appréhender la diffusion d’informations à travers le réseau. Dans la littérature, la centralité, les centres et les centroïdes font l’objet de nombreux travaux : de C. J donnant une preuve de leur existence dans chaque arbre en 1869 [J 1869] aux travaux de P. J. S qui généralise leurs définitions [S 1978], en passant par leur présence dans les livres de théorie des graphes [O 1962 ; FrankH 1969 ; M. N 2010]. Dans ce qui suit, nous allons aborder certaines mesures de centralité que sont : le degré, la proximité, l’intermédiarité, la centralité spectrale ou encore le PageRank utilisé par le moteur de recherche G. De nombreux travaux scientifiques traitant de ces mesures, ainsi que d’autres mesures qui ne seront pas abordées ici, peuvent être consultées pour approfondir le sujet [M. N 2010 ; C 2010]. Certaines des mesures citées sont présentées dans la figure 3.7. Nous utiliserons par la suite les graphes G1 et G2 (cf. figure 3.8) pour illustrer les mesures de la centralité que nous présenterons. Degré La mesure de centralité la plus simple est le degré, consistant tout simplement à utiliser le degré des nœuds comme valeur de centralité, c’est à dire le nombre d’arêtes adjacentes au nœud considéré. On considère donc que plus un nœud est connecté à d’autres nœuds, plus ce nœud est important. L’inconvénient de cette mesure est de ne considérer que localement les nœuds ce qui peut aboutir à de fortes valeurs de centralité pour des nœuds qui seraient isolés (par exemple si ces nœuds sont connectés à de nombreuses feuilles du réseau). 443.1. Graphes dynamiques . (a) Degré . (b) Proximité . (c) Vecteur propre . (d) Page Rank F 3.7 : Quelques exemples de mesure de la centralité. Plus la taille du nœud est importante (et plus sa couleur s’approche du jaune), plus la valeur de la centralité de ce nœud est importante. Si l’on considère la matrice d’adjacence A du graphe, le degré du nœud i se note alors : cd (i) = ∑ j Ai j Lorsque le graphe est orienté, il devient nécessaire de considérer d’une part le degré entrant, et d’autre part le degré sortant. Pour chaque nœud i, on obtient deux mesures cde (i) et cd s(i) : cde (i) = ∑ j Aj i ; cd s(i) = ∑ j Ai j La figure 3.9 montre l’application du degré aux graphes définis dans la figure 3.8.Actuellement, le degré reste à la base de nombreux travaux sur la centralité dans la littérature. 45. R  .C A E F H B D G I (a) G1 . C A E F H B D G (b) G2 F 3.8 : Graphes jouets utilisés pour illustrer les différentes centralités (tirés de [C 2010]) Proximité La proximité, ou closeness, permet de tenir compte de l’ensemble du graphe pour le calcul de la centralité. La proximité d’un nœud i est égale à la moyenne des longueurs des plus courts chemins de i vers tous les autres nœuds du graphe. Autrement dit, la proximité cc (i) du nœud i d’un graphe G = (V,E) est définie par l’équation : cc (i) = 1 |V | −1 ∑ j∈V \{i} d(i, j) (3.8) où d(i, j) représente la longueur du plus court chemin entre les nœuds i et j. L’inconvénient de cette méthode réside dans le fait qu’elle nécessite le calcul de l’ensemble des plus courts chemins du graphe. Ceci implique d’une part une complexité en O(|V | 3 ) si l’on utilise l’algorithme de F-W [F 1962]. On peut améliorer la complexité en utilisant l’algorithme de J [J 1977] qui nous permet d’obtenir en O(|V |·|E|+|V | 2 l og |V |). D’autre part, cette méthode nécessite une approche globale qui est difficile dans le cas d’un graphe distribué. 463.1. Graphes dynamiques . A B C D E F G H I cd (A) = 4 cd (B) = 1 cd (C) = 1 cd (D) = 1 cd (E) = 2 cd (F) = 4 cd (G) = 1 cd (H) = 1 cd (I) = 1 (a) Le degré appliqué au graph G1 . A B C D E F G H cde (A) = 1 cde (B) = 2 cde (C) = 3 cde (D) = 5 cde (E) = 2 cde (F) = 2 cde (G) = 1 cde (H) = 2 (b) Le degré entrant appliqué au graph G2 . A B C D E F G H cd s(A) = 3 cd s(B) = 3 cd s(C) = 3 cd s(D) = 2 cd s(E) = 2 cd s(F) = 2 cd s(G) = 2 cd s(H) = 1 (c) Le degré sortant appliqué au graph G2 F 3.9 : La centralité utilisant le degré appliquée aux graphes G1 et G2. La taille des nœuds est proportionnelle à la valeur de la centralité. 47. R  . A B C D E F G H I cd (A) = 0.067 cd (B) = 0.045 cd (C) = 0.045 cd (D) = 0.045 cd (E) = 0.071 cd (F) = 0.067 cd (G) = 0.045 cd (H) = 0.045 cd (I) = 0.045 (a) G1 . A B C D E F G H cde (A) = 0.083 cde (B) = 0.083 cde (C) = 0.083 cde (D) = 0.071 cde (E) = 0.071 cde (F) = 0.063 cde (G) = 0.071 cde (H) = 0.045 (b) G2 F 3.10 : Mesure de la proximité appliquée aux graphes G1 et G2 en utilisant l’équation 3.9. La taille des nœuds est proportionnelle à la valeur de la centralité. De plus, la proximité est bien adaptée pour un graphe connexe dans lequel pour n’importe quelle paire de nœuds i, j il existe un chemin entre i et j. Dans le cas d’un graphe possédant plusieurs composantes connexes, ou dans le cas d’un graphe orienté dans lequel l’existence d’un chemin entre n’importe quelle paire de nœuds n’est pas assurée, on obtient des distances égales à l’infini. Une solution à ce problème est proposée dans [M. N 2010] consistant à considérer l’inverse des distances plutôt que les distances elles-mêmes : cc (i) = 1 |V | −1 ∑ j∈V \{i} 1 d(i, j) (3.9) Intermédiarité Lorsqu’une information est diffusée à travers un réseau, une route est calculée puis l’information emprunte cette route depuis le nœud émetteur jusqu’à sa destination. Chaque 483.1. Graphes dynamiques nœud composant la route participe à la diffusion de cette information et l’absence de l’un d’entre eux pourrait mener à une diffusion plus longue voire à une absence de diffusion. À partir de ce point de vue, l’importance d’un nœud réside dans le rôle qu’il joue dans la diffusion d’information. Si l’on considère que la diffusion d’une information d’un nœud A à un nœud B emprunte un plus court chemin entre ces deux nœuds, on peut alors, en calculant l’ensemble de tous les plus courts chemins du graphe, déterminer pour un nœud i la proportion de plus courts chemins CB (i) dont i fait partie. CB est une mesure de centralité que l’on nomme intermé- diarité, et qui est attribuée à F [F 1977]. On considère gi j le nombre de plus courts chemins entre les nœuds i et j, et gi j(k) le nombre de plus courts chemins entre i et j dont le nœud k fait partie. On peut définir alors bi j(k) comme le rapport entre ces deux valeurs : bi j(k) = gi j(k) gi j (3.10) On peut alors définir l’intermédiarité : CB (i) = ∑ s,t∈V,s̸=t bst(i) (3.11) On peut normaliser cette centralité en utilisant le facteur 1 n 2 , ou 1 n 2−n+1 [M.N 2010] : CB (i) = 1 n 2 ∑ s,t∈V,s̸=t bst(i) (3.12) Tout comme la proximité, les inconvénients de cette mesure sont liés à la nécessité de calculer l’ensemble des plus courts chemins du graphe. Centralité spectrale Il est intéressant de considérer que les valeurs de la centralité des nœuds peuvent être liées : plus un nœud est entouré de voisins ayant une centralité élevée, plus sa propre centralité devrait être importante. Ainsi, on peut définir la centralité CS(i) d’un nœud i par la centralité de ses voisins : CS(i) = 1 λ ∑ j∈V (G) Ai jCS(j) (3.13) où λ est une constante. En considérant le vecteur x = (CS(0),CS(1),...,CS(n)), on peut ré-écrire l’équation pré- cédente sous la forme : λx = Ax (3.14) La seule solution positive de cette équation est le vecteur propre associé à la plus grand valeur propre λ de A. 49. R  . A B C D E F G H I cd (A) = 36 cd (B) = 0 cd (C) = 0 cd (D) = 0 cd (E) = 32 cd (F) = 36 cd (G) = 0 cd (H) = 0 cd (I) = 0 (a) G1 . A B C D E F G H cde (A) = 7 cde (B) = 4.5 cde (C) = 10 cde (D) = 17 cde (E) = 7.5 cde (F) = 9 cde (G) = 3.5 cde (H) = 1.5 (b) G2 F 3.11 : Application de l’intermédiarité aux graphes G1 et G2 Page Rank Le PageRank [B et P 1998] est une mesure de centralité utilisée par G afin de permettre un classement des nombreuses pages web selon leur importance. Comparé à d’autres mesures cherchant à mettre en relation la valeur de la centralité d’un nœud avec celle de ces voisins comme la centralité spectrale évoquée précédemment ou encore la centralité de Katz [K 1953], le PageRank tente de réduire l’impact de la centralité d’un nœud fortement connecté sur ses voisins. Autrement dit, la centralité d’un nœud doit être diffusée aux voisins dans une moindre mesure lorsque celui-ci est connecté à un milliard de nœuds que lorsqu’il n’est connecté qu’à une dizaine. Le PageRank CPR(i) d’un nœud i peut s’exprimer sous la forme suivante : CPR(i) = ∑ j∈Nin i CPR(j) |Nout j | (3.15) Nin i et Nout i représentent respectivement l’ensemble des nœuds pointant vers i, et l’ensemble des nœuds vers lesquels i pointe. |Nout i | est donc égal au degré sortant du nœud 503.1. Graphes dynamiques . A B C D E F G H I cd (A) = 0.2387 cd (B) = 0.0674 cd (C) = 0.0674 cd (D) = 0.0674 cd (E) = 0.1181 cd (F) = 0.2387 cd (G) = 0.0674 cd (H) = 0.0674 cd (I) = 0.0674 (a) G1 . A B C D E F G H cde (A) = 0.1111 cde (B) = 0.1007 cde (C) = 0.1712 cde (D) = 0.2174 cde (E) = 0.0788 cde (F) = 0.1598 cde (G) = 0.0522 cde (H) = 0.1089 (b) G2 F 3.12 : Application du PageRank aux graphes G1 et G2 i. Le PageRank est une version de la centralité spectrale qui intègre le dégré sortant des voisins. On peut interpréter le PageRank de manière probabiliste. On considère alors un “surfeur” aléatoire explorant successivement des sites web en cliquant sur les liens qu’il trouve. Il y a une probabilité (1−d) qu’à un moment donné, ce surfeur cesse son activité. La constante d est appelée facteur d’amortissement . Sa valeur recommandée est 0.85. Elle est intégrée dans le PageRank de la manière suivante : CPR(i) = 1−d n +d · ∑ j∈Nin i CPR(j) |Nout j | (3.16) Bilan Nous avons vu différentes approches permettant de mesurer la centralité des nœuds d’un graphe. L’ensemble des valeurs est résumé dans le tableau 3.1 de manière à pouvoir 5. « damping factor » 51. R  comparer les mesures entre elles. Ces approches ne représentent qu’un fragment de l’ensemble des mesures de centralité existantes. On remarque cependant que le calcul de ces mesures peut nécessiter soit des données locales comme c’est le cas pour le degré, soit au contraire, des données globales (ensemble de plus courts chemins, matrice d’adjacence) pour le reste des mesures. L’utilisation de données locales permet un traitement décentralisé de la mesure et par conséquent de s’affranchir des problèmes posés par les grands graphes. En revanche, le risque lorsque l’on utilise de telles données est de trouver des optima locaux, en l’occurrence attribuer une forte centralité à des nœuds qui ne seraient centraux que localement et non pas à l’échelle du graphe. A contrario, l’utilisation de données globales permet des solutions valides pour l’ensemble du graphe mais implique une centralisation de la structure du graphe ainsi qu’une charge de calcul plus importante. On constate dans le tableau 3.1 que le classement des nœuds du graphe G1 est identique entre les différentes approches, à une exception près pour la proximité. La comparaison du degré avec les autres mesures est plus délicate en ce qui concerne le graphe G2 du fait que ce graphe est orienté. Globalement, les classements sont différents, avec seulement une similarité dans la tête de classement de l’intermédiarité et du PageRank. 3.2 Structures Il est régulièrement question dans ces travaux de structures, c’est pourquoi nous allons prendre le temps de développer ce concept. Nous considérons une structure comme un ensemble de nœuds et d’arêtes appartenant à un même graphe qui sera en règle générale associée à une propriété sémantique. La structure en elle-même est un objet général, qui peut contenir des arêtes sans leurs extrémités par exemple. Un exemple basique de structure est le plus court chemin entre deux nœuds A et B contenant l’ensemble des arêtes consécutives permettant d’aller de A à B ainsi que les extrémités de ces arêtes et dont la sémantique serait qu’il n’existe pas de structure plus petite permettant de joindre A et B. La difficulté introduite par la dynamique est de maintenir la propriété propre à la structure au travers des modifications qui s’opèrent dans le graphe. En reprenant l’exemple de plus court chemin, il faut adapter le contenu de la structure afin que la propriété ”chemin le plus court” reste toujours valable. Une approche naïve de ce problème serait de recalculer une nouvelle solution au problème à chaque modification significative du graphe. Mais peut-on dans ce cas parler de maintien de la solution ? Non. Le maintien de la solution implique la réutilisation d’une solution précédemment calculée dans le but de réduire le temps de calcul nécessaire. De plus, on cherche à ce que cette solution varie le moins possible tant qu’elle reste valide : il peut y avoir plusieurs plus courts chemins entre deux nœuds, tant que la solution initialement retenue fait partie des solutions optimales il est préférable de la conserver plutôt que d’osciller entre différentes solutions. Ce dernier point est important lorsque l’on s’intéresse au taux de renouvellement de la solution. 523.2. Structures Degré Proximité Intermédiarité PageRank G1 A 0.250000 0.139619 0.346154 0.238738 B 0.062500 0.095195 0.000000 0.067399 C 0.062500 0.095195 0.000000 0.067399 D 0.062500 0.095195 0.000000 0.067399 E 0.125000 0.149592 0.307692 0.118131 F 0.250000 0.139619 0.346154 0.238738 G 0.062500 0.095195 0.000000 0.067399 H 0.062500 0.095195 0.000000 0.067399 I 0.062500 0.095195 0.000000 0.067399 G2 A → 0.166667 ← 0.055556 0.145626 0.116667 0.111132 B → 0.166667 ← 0.111111 0.145626 0.075000 0.100724 C → 0.166667 ← 0.166667 0.145626 0.166667 0.171158 D → 0.111111 ← 0.277778 0.124823 0.283333 0.217368 E → 0.111111 ← 0.111111 0.124823 0.125000 0.078776 F → 0.111111 ← 0.111111 0.109220 0.150000 0.159766 G → 0.111111 ← 0.055556 0.124823 0.058333 0.052230 H → 0.055556 ← 0.111111 0.079433 0.025000 0.108847 T 3.1 : Comparaison des différentes centralités pour les graphes G1 et G2. Les valeurs ont été normalisées afin de permettre la comparaison. → symbolise le degré sortant, ← le degré entrant. 53. R  3.2.1 Communautés et organisations Dans notre vie quotidienne, nous utilisons de manière intuitive le concept de communauté afin de désigner un groupe de personnes en fonction d’une caractéristique partagée par les membres du groupe. Il peut s’agir par exemple de la communauté scientifique, d’une communauté religieuse, ou encore la communauté open-source. Tous ces exemples montrent l’idée que nous avons d’une communauté : un ensemble d’individus qui interagissent entre eux grâce à un intérêt commun. Lorsque l’on considère une population, il existe donc un ré- seau d’interactions qui émerge des liaisons entre individus générées par divers centres d’intérêt. Parmi les propriétés pouvant être attribuées aux structures, celles de communauté et d’organisation nous intéressent particulièrement. Ces deux propriétés sont étroitement liées et portent sur des groupes de nœuds fortement connectés comparés à l’ensemble du graphe. Dans un contexte statique, nous nommerons ces structures communautés. Lorsque la structure possède une base qui se maintient avec la dynamique, on parle alors d’organisation. Du fait du contexte dynamique dans lequel s’effectuent nos travaux, nous nous focaliserons uniquement sur la notion d’organisation par la suite. Les structures d’organisation soulèvent deux problèmes majeurs. Tout d’abord, comment détecter ces structures ? Puis, comment maintenir les structures détectées au travers de la dynamique du graphe. Maintenir l’organisation signifie que cette dernière possède une signification lorsqu’on l’observe à une échelle macroscopique et qu’il faut adapter le contenu de la structure afin de conserver cette signification. Nous allons considérer un exemple afin d’illustrer ce que nous entendons par maintenir l’organisation. Si l’on considère un graphe modélisant les interactions dans un réseau social : chaque nœud représente une personne et lorsque deux personnes discutent entre elles, une arête est créée entre les nœuds qui les représentent. Si ces mêmes personnes ne discutent plus un certain temps, l’arête est supprimée. Si l’on considère un centre d’intérêt I, on suppose que les personnes intéressées par I vont discuter entre elles et ainsi former une organisation. Au fil du temps, certaines personnes vont cesser d’être intéressées par I et au contraire d’autres vont le devenir, modifiant de ce fait la structure de l’organisation. L’organisation engendrée par I se maintient donc dans le temps même si sa structure change. Définitions On trouve dans [B et al. 2006] un rappel sur les différentes définitions de communauté. Tout d’abord une définition historique qui considère que dans un graphe G une communauté est un sous-graphe G ′ de G dans lequel les nœuds sont fortement connectés, c’est à dire qu’il existe une forte cohésion entre les membres. La définition la plus forte considère que les communautés sont des cliques, c’est à dire un ensemble de nœuds maximal tel que chaque membre est connecté à tous les autres. Cette définition peut être affaiblie par le concept de k-clique : chaque membre du sous-ensemble de nœuds est relié à tous les autres par au maximum k intermédiaires. Les auteurs présentent 543.2. Structures . F 3.13 : 3 communautés formant des cliques enfin la notion de k-plex afin d’affaiblir la définition d’une communauté : il s’agit d’un sousgraphe à n sommets dans lequel chaque sommet est connecté à au moins n −k membres. Enfin, une autre façon d’aborder la définition d’une communauté est présentée : il s’agit d’utiliser la fréquence des arêtes pour mesurer la cohésion entre les membres d’un groupe. On peut trouver plusieurs définitions de telles mesures dans [W et F 1994]. 3.2.2 Forme La manière dont les nœuds d’une même structure interagissent entre eux et avec les nœuds extérieurs permet de donner une forme à la structure. Cette forme va nous permettre de classer les structures afin d’associer des propriétés aux différentes classes. Les chemins forment une classe de formes dont les membres sont peu connectés entre eux (de une à deux connections) mais peuvent potentiellement être connectés à une quantité importante de nœuds extérieurs. Ce type de forme est fragile dans le sens où le retrait d’un seul élément peut entraîner une perte de connexité de la structure. Les structures dont tous les membres sont connectés forment les cliques ou sous-graphes complets. Contrairement aux chemins, cette forme de structure est solide du fait qu’il est nécessaire de retirer au moins n −1 éléments afin de déconnecter la structure. Ces deux exemples, quelque peu extrêmes, nous permettent de mettre en avant que la densité de connections au sein d’une structure est un des éléments qui va permettre de définir sa forme. Plus la valeur de cette mesure sera élevée plus la structure sera difficile à déconnecter par la suppression d’arêtes ou de nœuds. Les chemins ont donc une densité faible, tandis que celle des cliques est maximale (il n’est pas possible de connecter davantage les nœuds d’une clique). 55. R  . Étude Graphe dynamique Génération du graphe Simulation Générateur source de la structure du graphe augmentation du graphe par l’ajout d’informations Processus produisant le graphe initial Processus lisant le graphe et produisant de nouvelles informations F 3.14 : Concept de processus. Un processus initial est utilisé pour générer le graphe. Un autre processus est utilisé pour analyser le graphe et l’augmenter grâce aux informations calculées. 3.3 Processus Nous avons vu qu’un graphe dynamique est composé d’une structure de nœuds et d’arcs qui évolue au fil du temps. On peut alors se poser la question : quelle est la source de cette dynamique ? La source initiale de cette dynamique est la source même du graphe qui, dans le cadre de nos travaux, sera principalement une simulation. Cependant, la dynamique prend aussi ses sources dans d’autres mécanismes tels que des algorithmes qui permettent, en ajoutant des informations, d’augmenter le graphe. D’une manière générale, nous désignons ces mécanismes sous le terme de processus qui pourront agir indépendamment du graphe produit ou au contraire utiliser le graphe existant dans le but de l’augmenter. Comme nous l’avons vu dans le paragraphe précédent, un processus peut désigner un générateur de la structure du graphe ou encore un algorithme maintenant une structure (arbre couvrant, plus court chemin) ou une mesure sur le graphe, mais il peut s’agir aussi d’une information telle que le flot pouvant parcourir un graphe. Nous présentons dans la figure 3.14 le concept le processus et de quelle manière ces processus viennent s’insérer dans la construction et l’étude du graphe. Un processus ne possède pas de présence concrète dans le graphe. Il s’agit d’un objet abstrait dont la présence n’est perçue qu’au travers des informations qu’il produit à partir d’informations fournies par un graphe et/ou d’autres processus. Dans certains cas, le processus ne nécessite pas d’information en entrée comme dans le cas par exemple d’un gé- nérateur de graphe basé sur un algorithme [B et A 1999 ; D et M 2002]. Le processus peut utiliser les informations qu’il a lui-même produites dans 563.3. Processus . Processus A génération du graphe Processus B détection d’organisations Processus C mesure Processus D calcul plus court chemin F 3.15 : Un graphe dynamique vu comme le résultat d’un ensemble de processus le graphe afin d’affiner ces informations ou de les mettre à jour pour prendre en compte des changements qui seraient survenus dans le graphe : il y a alors une rétroaction du processus sur lui-même. 3.3.1 Exemple La figure 3.15 nous présente un système dans lequel les processus A, B, C et D cohabitent afin de créer un graphe dynamique. Le processus A est un générateur qui est capable de fournir les informations nécessaires à la création de la structure du graphe. Les processus B et D permettent de maintenir des structures : une vue macro du graphe initial dans laquelle les nœuds représentent des organisations dans le cas du processus B, et un plus court chemin entre deux nœuds dans celui du processus D. Enfin, le processus C calcule une mesure en utilisant le graphe initial ainsi que la vue macro générée par le processus B puis retransmet les nouvelles informations mesurées afin d’augmenter les informations contenues initialement dans le graphe. 3.3.2 Propriétés Une première propriété qui permet de caractériser les processus concerne la nature du lien qui permet de transmettre les informations. Cette transmission peut se faire de façon continue ou discrète comme cela est illustré dans la figure 3.16. Dans le cas d’une trans- 57. R  Processus A . transmission discrète Processus B transmission continue F 3.16 : Transmission discrète et continue : le processus A transmet les informations comme une suite de messages contrairement au processus B dont le résultat prend la forme d’un flux continu d’informations. . Processus A microscopique Processus B macroscopique F 3.17 : Processus micro/macro. mission discrète, les informations modifiant le graphe prennent la forme d’une séquence, c’est pourquoi on parlera de processus itératif. Au contraire, dans un processus continu, la transmission prend la forme d’un flux continu d’informations. On peut différencier les processus en fonction de leur échelle d’action. On dira d’un processus qu’il opère à l’échelle microscopique lorsque les informations qu’il produit ont pour cible les nœuds ou les arêtes du graphe comme par exemple un processus qui mesurerait le degré des nœuds. Cependant, lorsque les informations produites concernent le graphe dans son intégralité, comme par exemple le degré maximum, on dira que le processus opère à une échelle macroscopique. Une propriété des processus proche de celle de micro/macro est la notion de local/global. Un processus agissant localement ne nécessite qu’une partie locale du graphe pour produire de l’information. Au contraire, lorsqu’un processus agit globalement il a besoin de l’ensemble du graphe afin de pouvoir fonctionner. Ces deux notions de micro/macro et local/global semblent proches au premier abord mais sont cependant bien distinctes : la notion de microscopique/macroscopique est liée à la sortie du processus tandis que celle de local/global concerne l’entrée du processus. Il est donc tout à fait possible de considérer un processus microscopique et global ou encore un processus 58Références . Processus A local Processus B global F 3.18 : Processus local/global. macroscopique et local. Références B, A. et E. B (2003). “Scale-Free Networks”. In : Scientific American, p. 50– 59. B, Albert-László et Réka A (1999). “Emergence of Scaling in Random Networks”. In : Science 286 (5439), p. 509–512. : 10.1126/science.286.5439.509.  : http://www.sciencemag.org/content/286/5439/509.abstract. B, S. et al. (2006). “Complex Networks : Structure and Dynamics”. In : Phys. Rep. 424 (4-5), p. 175–308. B, Otakar (1926). “O jistém problému minimálním (About a certain minimal problem)”. In : Práce mor. přírodověd. spol. v Brně III (3), p. 37–58. B, Sergey et Lawrence P (1998). “The anatomy of a large-scale hypertextual Web search engine”. In : Computer networks and ISDN systems 30 (1), p. 107–117.  : 0169-7552. B-X, B., A. F et A. J (avr. 2003). “Computing shortest, fastest, and foremost journeys in dynamic networks”. In : International Journal of Foundations of Computer Science 14 (2), p. 267–285. C, A. et al. (2012). “Time-Varying Graphs and Dynamic Networks”. In : International Journal of Parallel, Emergent and Distributed Systems. In press.  : 10.1080/ 17445760.2012.668546. C, Nacim Fateh (2010). “Calcul de centralité et identification de structures de communautés dans les graphes de documents.” Université de Toulouse III.  : http:// thesesups.ups-tlse.fr/1364/. C, Corina, Daryl P et Chris V (déc. 2003). “Computational Methods for Dynamic Graphs”. In : Journal of Computational & Graphical Statistics 12 (4). ISSN 1061-8600, Online ISSN : 1537-2715, 950–970(21). 59. R  D, Camil et Giuseppe F. I (2006). “Fully dynamic all pairs shortest paths with real edge weights”. In :J. Comput. Syst. Sci. 72 (5), p. 813–837. : 0022-0000.  : 10.1016/j.jcss.2005.05.005. D, E. W. (1959). “A note on two problems in connexion with graphs”. In : Numerische Mathematik 1, p. 269–271. D, S. N. et J. F. F. M (2002). “Evolution of networks”. In : Adv. Phys, p. 1079–1187. E, Leonhard (1741). “Solutio problematis ad geometriam situs pertinentis”. In : Commentarii academiae scientiarum Petropolitanae 8, p. 128–140. F, Afonso (mai 2002). “On models and algorithms for dynamic communication networks : The case for evolving graphs”. In : 4e rencontres francophones sur les Aspects Algorithmiques des Telecommunications (ALGOTEL’2002). Mèze, France. F, Robert W. (1962). “Algorithm 97 : Shortest Path”. In : Communications of the ACM 5 (6), p. 345. F, Lester Randolph (1956). Network Flow Theory. F, Linton C. (1977). “A set of measures of centrality based upon betweenness”. In : Sociometry 40, p. 35–41. — (1978). “Centrality in social networks conceptual clarification”. In : Social Networks 1 (3), p. 215–239.  : 0378-8733.  : 10.1016/0378- 8733(78)90021- 7.  : http://www.sciencedirect.com/science/article/pii/0378873378900217. G, M. et M. E. J. N (2002). “Community structure in social and biological networks”. In : Proc. Natl. Acad. Sci. USA 99, p. 8271–8276. G, Charles M. et J. Laurie S (1997). Introduction to Probability.  : 978-0- 8218-9414-9.  : http://www.dartmouth.edu/~chance/teaching_aids/books_ articles/probability_book/book.html. H, F. et G. G (1997). “Dynamic Graph Models”. In : Mathematical and Computer Modelling 25 (7), p. 79–87. H, Frank (oct. 1969). Graph Theory. Published : Paperback. Westview Press.  : 0201410338.  : http : / / www . amazon . com / exec / obidos / redirect ? tag = citeulike07-20&path=ASIN/0201410338. J, Donald B. (1977). “Efficient Algorithms for Shortest Paths in Sparse Networks”. In : J. ACM 24 (1), p. 1–13.  : 0004-5411.  : 10.1145/321992.321993.  : http://doi.acm.org/10.1145/321992.321993 (visité le 17/10/2013). J, Camille (1869). “Sur les assemblages des lignes”. In : J. Reine Angew. Math 70, p. 185–190. K, Leo (1953). “A New Status Index Derived from Sociometric Index”. In : Psychometrika, p. 39–43. N, M. E. J. (2003). “The Structure and Function of Complex Networks”. In : SIAM Review 45, p. 167–256.  : 10.1137/S003614450342480. N, Mark (2010).Networks : An Introduction. New York, NY, USA : Oxford University Press, Inc.  : 0199206651, 9780199206650. 60Références O, Oystein (1962). Theory of graphs. English. American Mathematical Society, Providence. v. P. P, Yoann (2008). “Modélisation et traitement décentralisé des graphes dynamiques : Application aux réseaux mobiles ad hoc”. French. Université du Havre.  : http : //tel.archives-ouvertes.fr/tel-00371962/PDF/these.pdf. R, Marco, Fabio R et Enrico S (2011). “Semi-Markov Graph Dynamics”. In : PLoS ONE 6 (8). R, Craig W. (août 1987). “Flocks, herds and schools : A distributed behavioral model”. In : SIGGRAPH Comput. Graph. 21 (4), p. 25–34.  : 0097-8930.  : http: //doi.acm.org/10.1145/37402.37406.  : http://doi.acm.org/10.1145/ 37402.37406. S, Peter J. (1978). “Centers to centroids in graphs”. In : Journal of Graph Theory 2 (3), p. 209–222. S, S. H. et D. J. W (1998). “Collective dynamics of ’small-world’ networks”. In : Nature 393, p. 440–442. W, Stanley et Katherine F (1994). Social Networks Analysis. Cambridge University Press. 61C 4 R   4.1 Partitionnement du graphe . . . . . . . . . . . . . . . . . . . . . . 64 4.2 Approches statiques . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.2.1 Technique de la bissection récursive . . . . . . . . . . . . . 65 4.2.2 Technique multi-niveaux . . . . . . . . . . . . . . . . . . . 65 4.2.3 Classification hiérarchique . . . . . . . . . . . . . . . . . . 66 4.2.4 Théorie spectrale . . . . . . . . . . . . . . . . . . . . . . 69 4.2.5 Approches bio-inspirées . . . . . . . . . . . . . . . . . . . 71 4.3 Approches dynamiques . . . . . . . . . . . . . . . . . . . . . . . . 76 4.3.1 Approches par diffusion . . . . . . . . . . . . . . . . . . . 77 4.3.2 Approches par particules . . . . . . . . . . . . . . . . . . . 77 4.3.3 Diffusion de labels . . . . . . . . . . . . . . . . . . . . . . 78 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Dans le cadre de la distribution d’une application, nous avons besoin de déterminer comment répartir les différents composants de l’application. Nous utilisons pour cela un algorithme de répartition de charge qui permet de calculer une répartition de manière à équilibrer le travail des différentes machines. L’application que l’on souhaite distribuer est une simulation de système complexe dont les composants à répartir sont les entités du système. Les particularités de la répartition dont nous avons besoin sont d’une part la dynamique liée au système, et d’autre part la volonté de réduire la consommation de la bande passante du réseau. La quantité massive d’interactions 63. R   . F 4.1 : Un exemple de partitionnement d’un graphe. Chaque couleur représente une partie. Les lignes hachurées représentent les arêtes entre les parties que l’on souhaite minimiser. au sein du système, qui se traduisent par des communications distantes lorsque ce système est distribué, justifie ce besoin de tenir compte de cette contrainte. 4.1 Partitionnement du graphe Nous avons vu précédemment que le réseau d’interactions formé par les entités peut être modélisé par un graphe dynamique. Répartir les entités sur un ensemble de machines consiste donc à calculer une classification des nœuds du graphe pour laquelle chaque classe représente une machine. La classe d’un nœud nous permet alors de savoir sur quelle machine l’entité, correspondant au nœud, doit s’exécuter. Notre problème consiste donc à dé- terminer cette classification de manière à ce que les tailles des classes soient similaires pour obtenir une répartition équilibrée. De plus, on cherche à réduire la quantité d’arêtes reliant des nœuds de classes différentes. On considère un graphe G = (V,E), et l’espace Sk représentant l’ensemble des solutions possibles au problème du partitionnement en k parties. Une solution S ∈ Sk est un ensemble {C1,...,Ck }, les Ci formant un recouvrement de V et étant deux-à-deux disjoints : i ∪Ci = V ∀Ci ,Cj ∈ S, Ci ∩Cj = ; Un exemple de partition de graphe est donné figure sur la 4.1. Trouver la meilleure partition est un problème NP-difficile [S et S 2013], qui nécessite la mise en place d’heuristique afin d’en trouver une solution approchée. On commence par définir une fonction Q : Sk → R nous permettant de mesurer la qualité d’une solution et, de ce fait, de comparer des solutions deux-à-deux. Si, pour deux solutions S et S ′ , Q(S) < Q(S ′ ), alors on considère S ′ comme meilleure que S. On définit ensuite une fonction de voisinage N(S) qui, à partir d’une solution existante S, va créer un ensemble de solutions voisines de S, à l’aide de transformations locales. On obtient alors une solution localement optimale lorsque ∀S ′ ∈ N(S), Q(S ′ ) ≤ Q(S). 644.2. Approches statiques Partitionner le graphe est un problème similaire à la détection de communautés dans un graphe. On peut en effet considérer cette détection comme la recherche de la meilleure partition du graphe dont on ignore le nombre de parties. Dans les deux problèmes on cherche à connaître la structure de plus haut niveau dont chaque nœud fait partie. C’est pourquoi dans ce qui suit, nous présenterons des méthodes de partitionnement mais aussi des méthodes de détection de communautés. 4.2 Approches statiques 4.2.1 Technique de la bissection récursive La bissection récursive n’est pas en soi un algorithme de partitionnement mais une technique définissant une manière de procéder qui doit permettre de diminuer la complexité globale. Elle consiste à utiliser un algorithme de partitionnement pour diviser le graphe en deux parties. On applique ensuite récursivement l’algorithme sur chaque partie jusqu’à obtenir le nombre de parties souhaitées. Le nombre de parties de la solution est alors sous la forme 2 k , la technique impose en effet que ce nombre soit une puissance de 2. On part du principe que la complexité de procéder k fois à un 2-partitionnement est significativement plus faible que d’utiliser directement un 2 k -partitionnement. De plus, à chaque étape, les deux parties créées peuvent être traitées indépendamment, rendant la technique naturellement parallélisable. Il a été prouvé dans [G et J 1979] que trouver la solution optimale à ce problème est NP-complet. C’est pourquoi il est nécessaire d’utiliser une heuristique permettant de trouver une solution approchée. Heuristique de Kernighan-Lin Une heuristique, dite gloutonne, consiste à améliorer une solution initiale établie arbitrairement. L’amélioration est effectuée en procédant à un échange de nœuds deux-à-deux entre les deux parties qui permettent de réduire la somme du poids des arêtes entre ces parties. On procède à l’échange tant qu’il est possible d’obtenir un gain significatif. La complexité de cette heuristique est 0(n 2 ). L’algorithme de K-L [K et S. L 1970] propose d’améliorer cette méthode gloutonne en échangeant plus d’un sommet à la fois. Le résultat devient meilleur mais la complexité de l’algorithme augmente en O(n 3 ). Il existe cependant une amélioration proposée par F et M dans [F et M 1982] qui permet d’obtenir une complexité en O(|E(G)|), E(G) désignant l’ensemble des arêtes du graphe G. 4.2.2 Technique multi-niveaux En complément de la bissection récursive, il est possible d’adopter une approche multiniveaux. Cela consiste à créer un graphe de taille plus petite que le graphe d’origine en fu- 65. R   . (a) (b) (c) (d) (e) (f) F 4.2 : Illustration de l’approche multi-niveaux appliquée au partitionnement. (a) pré- sente le graphe initial, dans lequel on détermine un regroupement des nœuds en (b). Puis en (c) les nœuds des groupes sont fusionnés afin de créer un graphe d’un plus haut niveau. (d) et (e) montrent le calcul d’une partition par bissection. Le graphe est reconstruit en (f). sionnant des sommets. Chaque sommet du graphe ainsi obtenu représente un groupe de sommets du graphe d’origine. Une fois qu’une partition est calculée sur ce graphe simplifié, il suffit de revenir au graphe d’origine. Cette procédure est présentée à l’aide d’un exemple trivial dans la figure 4.2. Cette technique implique de devoir définir la façon dont les nœuds sont regroupés pour être fusionnés. Cela peut être fait de multiples façons, en regroupant par exemple les nœuds reliés entre eux par des arêtes ayant un poids élevé comme c’est le cas dans [K et K 1999], par exemple. 4.2.3 Classification hiérarchique On peut étendre l’idée de l’approche multi-niveaux en créant une hiérarchie entre les partitionnements d’une partition composée des singletons contenant chaque nœud, à une partition contenant comme unique partie l’intégralité des nœuds du graphe. La construction 664.2. Approches statiques de cette hiérarchie peut se faire de manière ascendante. On commence alors avec une solution où chaque nœud représente une partie, puis on fusionne les parties deux-à-deux pour obtenir une nouvelle solution. Et ainsi de suite jusqu’à obtenir une seule partie contenant tous les nœuds. Au contraire, l’approche peut être descendante. On commence alors avec une solution contenant comme seule partie l’ensemble des nœuds, puis on divise la partie en deux, et ainsi de suite jusqu’à obtenir autant de parties que de nœuds. On peut représenter cette hiérarchie, c’est à dire l’historique des fusions (hiérarchie ascendante), ou des divisions (hiérarchie descendante), à l’aide d’un dendrogramme. Un tel schéma est représenté sur la figure 4.3. À chaque étape, on calcule la qualité de la partition dans son état actuel. On peut alors connaître l’état pour lequel la qualité est maximale, ce qui nous donne le meilleur partitionnement. Cette méthode nécessite la mise en place de deux mesures. Tout d’abord, une mesure de qualité que nous avons déjà abordée, qui nous permet de comparer des partitions afin d’évaluer laquelle est la meilleure. Ensuite, nous avons besoin d’une mesure de similarité d(i, j) qui nous permette d’évaluer la similarité entre deux groupes de nœuds i et j. Cette mesure va ainsi nous permettre de choisir les nœuds, ou groupes de nœuds qui vont être fusionnés. Par exemple, dans le cas d’un graphe spatialisé, il peut s’agir de la distance euclidienne ou d’un dérivé ; dans ce cas, lorsque les groupes de nœuds contiennent plusieurs éléments, il est nécessaire d’appliquer un opérateur comme la moyenne ou le barycentre. Mark E. J. N propose un algorithme de détection de communauté dans [M. E. J. N 2004] utilisant une méthode de classification hiérarchique ascendante, en présentant des résultats sur un graphe d’environ 50000 nœuds formés par un réseau de collaborations entre chercheurs. Il utilise une mesure de qualité Q, nommée modularité. En considé- rant ei j la proportion d’arêtes connectant le groupe i au groupe j et ai = ∑ j ei j, la mesure de cette modularité est donnée par : Q = ∑ i ( ei i − a 2 i ) (4.1) L’algorithme procède par itérations. On considère une solution initiale où chaque nœud représente une communauté. Puis, à l’étape i, on choisit deux communautés à fusionner de telle sorte que ∆Q = Qi −Qi−1 soit le plus grand possible, Qi représentant la modularité à l’étape i. L’auteur montre ensuite que ∆Q = 2(ei j − ai aj) ce qui peut être calculé en temps constant. La complexité d’une itération de l’algorithme est donc O(n +m), n le nombre de nœuds, m le nombre d’arêtes. Ce qui amène à une complexité générale de O((n +m)n). Aaron C, Mark E. J. N et Cristopher M proposent une amélioration de cet algorithme dans [C, M. N et M 2004] en optimisant les structures de données nécessaires au calcul. Ils obtiennent ainsi une complexité O(md l og n), où d représente la profondeur du dendrogramme décrivant la hiérarchie des communautés. Ils présentent des résultats sur un graphe mettant en relation des livres à l’aide des informations de recommandations trouvées sur Amazon.com. Ils obtiennent ainsi un graphe de 400000 nœuds pour 2 millions d’arêtes. La table 4.1 présente les dix plus grandes communautés trouvées sur ce graphe. 67. R   . 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 1. 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Q 0 0.2 0.4 F 4.3 : Dendrogramme associé à une classification hiérarchique ascendante. La courbe de gauche représente l’évolution de la qualité Q au fur et à mesure des fusions. On observe que la qualité maximale est atteinte à l’avant dernière fusion, ce qui nous donne une bissection du graphe. 684.2. Approches statiques Rang Taille Description 1 114538 General interest : politics ; art/literature ; general fiction ; human nature ; technical books ; how things, people, computers, societies work, etc. 2 92276 The arts : videos, books, DVDs about the creative and performing arts 3 78661 Hobbies and interests I : self-help ; self-education ; popular science fiction, popular fantasy ; leisure ; etc. 4 54582 Hobbies and interests II : adventure books ; video games/comics ; some sports ; some humor ; some classic fiction ; some western religious material ; etc. 5 9872 classical music and related items 6 1904 children’s videos, movies, music and books 7 1493 church/religious music ; African-descent cultural books ; homoerotic imagery 8 1101 pop horror ; mystery/adventure fiction 9 1083 jazz ; orchestral music ; easy listening 10 947 engineering ; practical fashion T 4.1 : Les 10 plus grandes communautés dans le réseau Amazon.com, représentant environ 87% des nœuds du réseau. 4.2.4 Théorie spectrale Il existe également des méthodes de partitionnement utilisant la théorie spectrale, c’est à dire qu’elles utilisent les matrices et leurs valeurs/vecteurs propres. Ulrike  L dans [V L 2007] nous propose une introduction complète à ce type de partitionnement. Ces méthodes [P, S et L 1990 ; T, D et F 2006] nécessitent de construire une matrice d’adjacence qui représente les arêtes du graphe. Il s’agit d’une matrice carrée de dimension n × n, où n correspond au nombre de nœuds dans le graphe. Chaque composant ai j représente le poids de l’arête entre les nœuds i et j, ou, dans le cas d’un graphe non-pondéré, vaut 0 ou 1 pour indiquer la présence de l’arête. Si le graphe n’est pas orienté, sa matrice d’adjacence sera symétrique, c’est à dire que ∀i, j ∈ V (G), ai j = aj i. La figure 4.4 nous montre un exemple de matrice d’adjacence. L’utilisation de la matrice d’adjacence permet d’augmenter la vitesse d’accès aux arêtes mais est coûteuse du point de vue de la mémoire nécessaire. Matrice Laplacienne On considère la matrice diagonale D dont chaque élément di i représente le degré du nœud. Dans le cas d’un graphe pondéré, di i représente la somme du poids des arêtes connec- 69. R   tées à i. On peut donc définir D de façon générale à partir de la matrice d’adjacence A : di j =    ∑n k=0 ai k , si i = j 0, sinon La matrice Laplacienne L non-normalisée du graphe est alors : L = D − A Cette matrice peut être normalisée de deux façons [C 1997]. D’une part la Laplacienne normalisée symétrique L norm, et d’autre part, une matrice L ma correspondant à la matrice de transition d’une marche aléatoire sur le graphe : L nor m = D −1/2 ·L ·D −1/2 L ma = D −1 ·L Valeurs et vecteurs propres Les méthodes spectrales utilisent les valeurs et vecteurs propres de la matrice Laplacienne, normalisée ou non, afin de calculer un partitionnement du graphe. Une valeur propre d’une matrice A est un réel λ pour lequel il est possible de trouver un vecteur u ∈ R n tel que A·u = λ·u. Le vecteur u est alors appelé vecteur propre de A. Les valeurs propres de A sont les racines λi du polynôme caractéristique de A décrit par : det(A −λ·In), où det représente le déterminant de la matrice, et In la matrice identité de taille n ×n. Calcul du partitionnement La forme générale de la méthode de calcul permettant d’obtenir la partition nous est donnée dans l’algorithme 1. On calcule les vecteurs propres ui de la Laplacienne, normalisée où non. Nous pouvons alors créer la matrice U donc les colonnes sont les vecteurs ui. Les lignes de U vont former les vecteurs {y1,..., yn}, chaque vecteur yi étant associé au nœud i. Nous allons ensuite partitionner l’espace formé par les points yi en k classes Ci à l’aide d’un algorithme des k-moyennes. Cet algorithme permet de diviser un espace de n points en k parties uniformes. Sa version la plus populaire est l’algorithme de L [L 1982], aussi connu sous le nom d’itérations de V. Dans le cas où la Laplacienne utilisée est L sym, il est nécessaire de normaliser les lignes deU. Cela est dû au fait que l’utilisation de L sym réduit la différence entre les valeurs propres, ce qui réduit la précision de l’algorithme des k-moyennes, et donc la qualité de la partition. Les nouvelles valeurs de U sont alors : u ′ i j = ui j √∑ k u 2 i k 704.2. Approches statiques . 2 5 4 3 1 6 A =          0 1 0 0 1 0 1 0 1 0 1 0 0 1 0 1 0 0 0 0 1 0 1 1 1 1 0 1 0 0 0 0 0 1 0 0          L =          2 −1 0 0 −1 0 −1 3 −1 0 −1 0 0 −1 2 −1 0 0 0 0 −1 3 −1 −1 −1 −1 0 −1 3 0 0 0 0 −1 0 1          F 4.4 : Matrice d’adjacence et Laplacienne non-normalisée d’un graphe. 4.2.5 Approches bio-inspirées Certaines techniques d’optimisation, inspirées de phénomènes que l’on trouve dans la nature, peuvent être utilisées afin de calculer une partition du graphe. C’est le cas du recuit simulé ou encore des algorithmes génétiques. Recuit simulé Le recuit simulé [K, V et G 1983 ; Č 1985] s’inspire de la technique du recuit utilisé en métallurgie afin de modifier les caractéristiques d’un métal. Elle consiste à augmenter progressivement la température du système puis à procéder à un refroidissement contrôlé. Appliquée à l’optimisation, cette technique consiste à minimiser l’énergie E que l’on attribue à la solution. On part d’une solution initiale dont on calcule la 71. R   Algorithme 1 : Calcul d’une partition à l’aide de la théorie spectrale Entrées : — G, un graphe dont une cherche une partition en k parties Sorties : — S, la solution 1 début 2 L ← calcul de la Laplacienne ; 3 u1,...,uk ← calcul des k premiers vecteurs propres de L ; 4 U ←   u11 ... uk1 ... ... ... u1n ... ukn   ; 5 pour i ∈ {1,...,n} faire 6 yi ← i ème ligne de U ; 7 fin 8 {C1,...,Ck } ← k-means({y1,..., yn}); 9 retourner S = {A1,..., Ak }, Ai = {j | y j ∈Ci} 10 fin valeur initiale de E, E0. On attribue au système une température T , initialement fixée à une valeur élevée T0. À chaque étape, on procède à une modification de la solution en calculant, selon une méthode à définir, la variation d’énergie ∆E que cette solution apporte. Si ∆E est négatif, on procède à la modification de la solution ; sinon, on procède à cette modification avec une probabilité e − ∆E T . On procède à une diminution de la température T soit de manière continue, soit par palier au bout d’un certain nombre d’itérations. L’algorithme (cf.algorithme 2) se termine lorsque l’on atteint une température suffisamment basse. Algorithme génétique Un algorithme génétique [H 1975] consiste à faire évoluer une population de solutions initiales de telle sorte que chaque nouvelle génération soit de meilleure qualité. Pour cela, on code les solutions sous la forme d’une chaîne, par analogie aux chaînes de nucléotides contenues dans l’ADN. On procède à la génération d’une nouvelle population par des mécanismes de croisement et de mutation. La figure 4.5 présente ces deux mécanismes ainsi que le codage de la solution. Le croisement consiste à sélectionner deux individus A et B (voire plus) parmi la population actuelle, en fonction de leur qualité, et de les combiner afin de créer un nouvel individu. Sélection Il s’agit du premier opérateur à définir, qui va directement influencer l’évolution de la population. Il englobe deux notions importantes : qui peut être sélectionné, et comment se passe la sélection. Dans [B 1994], T. B nous résume deux approches 724.2. Approches statiques Algorithme 2 : Recuit simulé appliqué au partitionnement Entrées : — G, un graphe G ; — S0, une solution initiale Sorties : — S, un partition de G Données : — T0, la température initiale ; — Tar r e t, la température à atteindre ; — ρ ∈]0,1[, le facteur de diminution de la température ; 1 début 2 T ← T0 ; 3 S ← S0 ; 4 tant que T > Tar r e t faire 5 pour S ′ ∈ N(S) faire 6 ∆E ←Q(S)−Q(S ′ ); 7 si ∆E < 0 alors 8 S ← S ′ ; 9 fin 10 sinon si aléatoire() < e − ∆E T alors 11 S ← S ′ ; 12 fin 13 fin 14 T ← T ×ρ ; 15 fin 16 retourner S 17 fin qui définissent quelles populations sont en mesure de se reproduire. La première, nommée (µ+λ)-sélection, implique que les parents et leurs descendants peuvent se reproduire. Au contraire, la sélection (µ,λ) indique que seuls les descendants participent à la reproduction, et dans ce cas, chaque population ne vit que pour une étape de l’algorithme. La sélection (µ+λ) permet de maintenir des individus de bonne qualité sur le long terme, mais de ce fait, nous augmentons le risque que la population de solutions se cantonne autour d’un optimum local. Lorsque l’ensemble des individus sélectionnables est établi, il faut procéder à la sélection. Il existe différentes méthodes utilisant la qualité des individus et l’aléatoire. La pression de sélection définit le degré d’importance de la qualité dans la sélection. Plus elle sera élevée, meilleurs seront les individus sélectionnés. La méthode standard consiste à utiliser la qualité d’un individu de manière à ce que sa chance d’être sélectionné soit proportionnelle à sa 73. R   qualité. D’autres méthodes existent, comme par exemple la sélection par tournoi [M et G 1995], dans laquelle on sélectionne s compétiteurs, dont on retient le meilleur. Croisement On choisit ensuite un locus qui correspond à une position dans la chaîne codant la solution. La chaîne de A est alors coupée du début jusqu’au locus, puis est combinée avec la chaîne de B, elle-même coupée du locus à la fin de la chaîne. L’intérêt de cette opération est remise en question [C et F 1999], du fait qu’il est nécessaire qu’elle soit adaptée au problème pour être efficace. Or si on utilise une méthode dédiée à un problème dans un contexte plus général, la qualité du résultat risque d’être pire que celui obtenu via une méthode aléatoire. Mutation La mutation permet d’insérer de l’aléatoire en provoquant des modifications dans les chaînes codant les solutions. Ce mécanisme va ainsi permettre d’explorer plus en profondeur l’espace des solutions, en évitant de se cloisonner dans des optima locaux. Ces mécanismes vont permettre la création d’une nouvelle population de solutions, de meilleure qualité que la précédente. On peut alors reproduire l’étape de création d’une nouvelle population jusqu’à atteindre une qualité souhaitée ou dépasser un nombre maximum itérations. Colonie de fourmis Nous verrons par la suite que nous utilisons un algorithme à base de colonie de fourmis pour le partitionnement du graphe (cf.10.2). Des approches similaires existent dans la littérature comme c’est le cas de celle proposée par Pascale K et Dominique S dans [K et S 1994] qui est appliquée aux graphes statiques. L’algorithme utilise q espèces d’animats pour déterminer une partition de taille p du graphe, avec q ≥ p. Les animats vont se reproduire et mourir à un certain âge. La solution de partitionnement est donnée par la quantité d’animats sur les nœuds : lorsqu’une espèce est majoritairement présente sur un nœud, on dit alors que ce nœud est colonisé par l’espèce. L’homéostasie de ce système repose sur deux mécanismes de rétroaction : une rétroaction négative induite par la mort des animats lorsque leur âge dépasse une limite maximale, et une rétroaction positive grâce à la reproduction des animats lorsqu’ils se trouvent sur un nœud colonisé par leur espèce. Les animats se déplacent sur le graphe de manière à favoriser les nœuds colonisés par leur espèce et fuir le reste. Dans [K, L et S 1997], les auteurs précédents en collaboration avec Paul L proposent un algorithme utilisant des colonies de fourmis. Il s’agit cependant d’un modèle de fourmi différent de celui que nous allons manipuler du fait de l’absence de phéromones. Le graphe est projeté dans un espace que les fourmis vont pouvoir parcourir, avec la capacité de déplacer des nœuds. Cette méthode n’est pas sans rappeler celle du tri du couvain [F et S-F 1992]. Les fourmis sont donc capables de transporter un nœud qui se trouverait sur leur position puis de le déposer à un autre point de l’espace après un certain nombre d’itérations. La probabilité de transporter un nœud augmente 744.2. Approches statiques Algorithme 3 : Algorithme génétique appliqué au partitionnement Entrées : — G, un graphe Données : — p, nombre d’individus par population — Qmax , qualité maximale souhaitée — itérationsmax , nombre maximal d’itérations de l’algorithme Sorties : — S, une partition de G 1 début 2 P0 ←ensemble initial de p solutions ; 3 itérations ← 0 ; 4 répéter 5 Qmax ← 0 ; 6 itérations ← itérations+1 ; 7 pour tous les Si ∈ P0 faire 8 Qi ←Q(Si); 9 Qmax ← max(Qmax ,Qi); 10 fin 11 P1 ← ; ; /* On normalise la suite des Qi pour obtenir une suite dont la somme est égale à 1. Celle-ci est utilisée par la suite comme distribution de probabilités. */ 12 d = normaliser({Qi},Qmax ); 13 pour i ∈ {1,...,p} faire /* la fonction croisement({Si},{pi}) choisit deux individus à l’aide de la distribution de probabilités {pi}, puis procède à un croisement de ces individus et retourne « l’enfant » obtenu. */ 14 C ← croisement(P0,d); /* la fonction mutation(S) va modifier l’individu S par des perturbations locales. */ 15 C ← mutation(C); 16 P1 ← P1 +{C}; 17 Qmax ← max(Qmax ,Q(C)); 18 fin 19 P0 ← sélection(P0,P1); 20 jusqu’à Qmax ≥ Qf in ou itérations > itérationsmax ; 21 retourner S ∈ P0 tel que ∀S ′ ∈ P0, Q(S) ≥ Q(S ′ ); 22 fin 75. R   . 13 9 2 5 1 6 7 8 12 11 4 10 3 Codage 1 2 3 4 5 6 7 8 9 10 11 12 13 A A A A B B B B B C C C C . 1 2 3 4 5 6 7 8 9 10 11 12 13 Sélection reproducteurs A B B A C B C B A A C B C locus C C A B A A C B B C C B A Croisement A B B A C B C B B C C B A Mutation A B B A C B C B B C C A A F 4.5 : Codage, croisement et mutation dans un algorithme génétique. On considère pour le codage que les nœuds peuvent être de numérotés de 1 à n, le code est alors une chaîne de caractères où le i ème caractère représente la classe du nœud i. Le croisement permet de combiner les codes de deux individus, et la mutation d’ajouter de l’aléatoire. lorsque celui-ci est isolé. De même, la probabilité de déposer le nœud transporté augmente si la fourmi est entourée de nœuds similaires. La solution émerge du fait qu’en déplaçant les nœuds vers d’autres nœuds similaires, les fourmis vont faire que les nœuds d’une même partie du graphe vont être regroupés. 4.3 Approches dynamiques Nous avons présenté jusqu’à présent des approches qui n’ont pas la capacité de prendre en compte la dynamique d’un graphe. Pour pouvoir en utiliser certains sur un graphe dynamique, cela nécessiterait de devoir calculer une nouvelle solution à partir de rien à chaque changement significatif qui surviendrait dans le graphe. D’autres peuvent être adaptés mais n’ont pas une approche prévue pour la dynamique et n’apportent donc pas les performances souhaitées. C’est pourquoi nous allons à présent nous intéresser aux approches permettant de gérer cette dynamique en adaptant une solution préalablement calculée aux modifications du graphe. 764.3. Approches dynamiques 4.3.1 Approches par diffusion Les algorithmes de diffusion constituent un premier type d’approche qui permet de prendre en compte la dynamique. Cependant, cette méthode ne manipule pas de graphe, mais seulement un ensemble d’entités. On considère ici que le réseau formé par les ressources sur lesquelles nous souhaitons distribuer l’application n’est pas complet. Chaque ressource n’est donc pas en mesure de communiquer, et donc d’échanger une entité, avec n’importe quelle autre mais seulement avec un nombre restreint de voisins. Chaque ressource se voit attribuer une température qui correspond à la quantité d’entités qu’elle héberge actuellement, et donc à sa charge de calcul. Cette approche s’inspire alors de la manière dont la chaleur se diffuse des points chauds aux points froids pour échanger des entités entre les ressources de manière à équilibrer la température de ces ressources. La diffusion peut se faire de deux façons. Tout d’abord, de manière globale comme c’est le cas dans [H.-C. L et R 1992]. L’algorithme opère de manière centrale avec une vue globale sur les ressources qui lui permet de déterminer une solution de répartition des entités. Au contraire, l’algorithme de diffusion peut être lui même réparti sur l’ensemble des ressources. Chaque instance de l’algorithme ne possède alors qu’une vue locale des ressources : celle sur laquelle il est hébergé, et celles auxquelles cette dernière est connectée. L’inconvénient des algorithmes de diffusion est lié au fait qu’il n’y a pas d’utilisation d’un graphe et donc de prise en compte des interactions qui existent entre les entités, or il s’agit d’un des objectifs que nous nous sommes fixés. 4.3.2 Approches par particules L’approche particulaire proposée dans [H et S 1995] permet d’ajouter aux algorithmes de diffusion cette prise en compte des interactions entre les entités. Cet algorithme s’inspire de la stabilisation que l’on obtient en plaçant des fluides de viscosités différentes dans un même bassin. Il considère un ensemble de tâches T , l’équivalent de nos entités, comme étant les particules de fluides ; les communications entre ces tâches sont utilisées pour définir la cohésion entre les particules. La charge potentielle des machines, quant à elle, est utilisée pour définir une force de gravitation. Le coût de la migration d’une tâche est alors défini comme une force de friction qui va permettre d’éviter les migrations intempestives et participer à la stabilisation du système. Les auteurs définissent donc trois forces : — l’équilibrage, qui va permettre de prendre en compte la charge des ressources ; — la cohésion, elle correspond à laforce induite par les communications entre les tâches ; — la friction, son rôle est de limiter la quantité de migrations. Ces forces sont respectivement pondérées par les constantes globales cl b, ccomm et c f r i c t. Pour une tâche t, dont le nombre d’instructions est st, et l’emplacement l oc(t) = j, la 77. R   force d’équilibrage qui est exercée par une ressource k voisine de j est définie par : f j→k l b (t) = cl b V j l oad +1 V k l oad +1 (4.2) V k l oad représente la mesure de la charge de la ressource k et peut être définie de plusieurs façons, la plus précise étant : V k l oad = 1 µk ∑ t|l oc(t)=k st (4.3) µk permet de définir la vitesse de calcul de la ressource k, ce qui permet de prendre en considération les capacités de chaque ressource. La force de cohésion, quant à elle, est définie par : f j→k comm(t) = ccomm ( V j comm(t)−V k comm(t) ) (4.4) V k comm(t) correspond au potentiel de communication de la tâche t sur la ressource k : V k comm(t) = ∑ t ′∈T a ( k,l oc(t ′ ) ) · c(t,t ′ ) (4.5) a(j,k) définit le coût d’une communication entre les ressources k et j. L’intensité des communications entre deux tâches t et t ′ est donnée par c(t,t ′ ). En cas d’absence de communications entre les tâches, c(t,t ′ ) est nulle. Enfin, la force de friction appliquée à la tâche t est la suivante : f j→k f r i c t(t) = −c f r i c tdt a(j,k) (4.6) dt permet de définir le coût de la migration de la tâche t en mesurant la quantité de données qu’il serait nécessaire de transférer dans l’hypothèse de cette migration. La force finale exercée sur la tâche t, située sur la ressource j, par la ressource k est donc : f j→k r es (t) = f j→k l b (t)+ f j→k comm(t)+ f j→k f r i c t(t) (4.7) Nous avons vu des méthodes de partitionnement du graphes dans lesquelles il est né- cessaire d’identifier des groupes de nœuds de manière à obtenir une faible quantité d’arêtes entre les groupes. La détection de groupes à l’intérieur desquels les membres entretiennent des interactions qui se démarquent des interactions avec l’extérieur du groupe relève du domaine de la détection de communautés. 4.3.3 Diffusion de labels Dans [R, A et K 2007], les auteurs proposent de détecter les communautés, dans des réseaux à grande échelle, à l’aide d’un mécanisme de diffusion de labels. Dans ce type d’algorithme, on considère que chaque nœud du réseau possède un label qui 784.3. Approches dynamiques définit la communauté dont il fait partie. Un nœud choisit alors de rejoindre la communauté la plus présente parmi ses voisins. On procède alors par itération, le nouveau label L ′ x (t) d’un nœud x est calculé en fonction du label courant de ses voisins xi : L ′ x = f ( Lx1 ,...,Lxk ) (4.8) La fonction f retourne le label dont la fréquence est la plus importante parmi les voisins. Pour pallier l’oscillation de labels qui peut apparaître en cas de présence de sous-graphe biparti, U. N. R et al.proposent de désynchroniser le calcul du label d’un nœud en utilisant les labels de ses voisins qui ont déjà été calculés pour l’étape t : L ′ x = f ( L ′ x1 ,...,L ′ xm ,Lxm+1 ...,Lxk ) (4.9) Cet algorithme possède un inconvénient : il peut mener à la production de super-communautés. Ces structures sont liées à l’aspect épidémique de l’algorithme faisant que les communautés trop faiblement connectées sont absorbées pour former une communauté de plus haut niveau. Ian X.Y. L et al.étudient et étendent, dans [L et al. 2009], l’algorithme par diffusion de labels cité ci-dessus, et en améliorent d’une part la complexité, et d’autre part la qualité de la détection. Chaque label L se voit attribuer un score sx (L) en chaque nœud x du réseau. Ce score va décroître à chaque itération. Le calcul du nouveau label de x devient alors : L ′ x = argmax L ∑ x ′∈Nx sx ′ (Lx ′)·d(x ′ ) m ·wx,x ′ (4.10) Nx correspond à l’ensemble des nœuds x ′ connectés à x par une arête dont le poids est donné par wx,x ′. d(x) est une mesure permettant de comparer les nœuds entre eux ; il peut s’agir par défaut du degré. La constante m permet de relativiser l’importance de cette mesure d dans le calcul. La décroissance des scores est effectuée à l’aide de la constante δ de la façon suivante : s ′ x (L ′ x ) = ( max x ′∈Nx (Lx ) sx (Lx ′) ) −δ (4.11) où Nx (Lx ) désigne l’ensemble de voisins x ′ de x tel que Lx ′ = Lx . Pour pallier la création de super-communautés, les auteurs proposent une seconde modification qui consiste à utiliser la distance dG à l’origine du label L, notée O(L), dans la mise à jour du score. Celle-ci devient alors : s ′ x (Lx ) = 1−δ(dG (O(Lx ),x)), (4.12) avec dG (O(Lx ),x) = 1+ min x ′∈Nx (Lx ) dG (O(Lx ),x ′ ). (4.13) Les auteurs montrent que l’algorithme ainsi modifié obtient de meilleurs résultats, temporel et qualitatif, sur le graphe d’un réseau social composé d’un million de nœuds pour 58 millions d’arêtes. 79. R   Références B, Thomas (1994). Evolutionary algorithms in theory and practice. T. Bäck. Č, V. (1985). “Thermodynamical approach to the traveling salesman problem : An ef- ficient simulation algorithm”. In : Journal of Optimization Theory and Applications 45, p. 41–51. C, Kumar et David B F (1999). “Fitness distributions in evolutionary computation : motivation and examples in the continuous domain”. In : BioSystems 54 (1), p. 15–29.  : 0303-2647. C, Fan RK (1997). Spectral graph theory. T. 92. AMS Bookstore.  : 0821803158. C, Aaron, MarkN et Cristopher M (2004). “Finding community structure in very large networks”. In : Physical review E. APS 70 (6), p. 066111. F, C. M. et R. M. M (1982). “A linear time heuristic for improving network partitions”. In : ACM IEEE Design Automation Confe- rence, pages, p. 175–181. F, Nigel R. et A. B. S-F (1992). “Brood sorting by ants : distributing the workload over the work-surface”. In : Behavioral Ecology and Sociobiology. Springer 30 (2), p. 109–123. G, Michael R et David S J (1979). Computers and intractability. T. 174. Freeman New York. H, Hans-Ulrich et Michael S (1995). “Decentralized dynamic load balancing : The particles approach”. In : Information Sciences. Elsevier 84 (1), p. 115–128. H, John H. (1975). Adaptation in Natural and Artificial Systems. University Michigan Press. K, George et Vipin K (1999). “A fast and high quality multilevel scheme for partitioning irregular graphs”. In : SIAM, Journal on Scientific Computing 20 (1), p. 359– 392. K, B.W. et S. L (1970). “An Efficient Heuristic Procedurefor Partitioning Graphs”. In : The Bell system technical journal 49 (1), p. 291–307. K, Scott, Mario P V et D. G (1983). “Optimization by simulated annealing”. In : science 220 (4598). K, Pascale, Paul L et Dominique S (1997). “A colony of ant-like agents for partitioning in VLSI technology”. In : Proceedings of the Fourth European Conference on Artificial Life. MIT, p. 417–424. K, Pascale et Dominique S (1994). “Emergent colonization and graph partitioning”. In : Proceedings of the third international conference on Simulation of adaptive behavior : from animals to animats 3, p. 494–500. L, Ian XY et al. (2009). “Towards real-time community detection in large networks”. In : Physical Review E. APS 79 (6). L, H.-C. et Cauligi S. R (1992). “A dynamic load-balancing policy with a central job dispatcher (LBC)”. In : Software Engineering, IEEE Transactions on 18 (2), p. 148–158. 80Références L, Stuart (1982). “Least squares quantization in PCM”. In : Information Theory, IEEE Transactions on 28 (2), p. 129–137.  : 0018-9448. M, Brad L. et David E. G (1995). “Genetic Algorithms, Tournament Selection, and the Effects of Noise”. In : Complex Systems 9, p. 193–212. N, Mark E. J. (2004). “Fast algorithm for detecting community structure in networks”. In : Physical review E. APS 69 (6), p. 066133. P, Alex, Horst D. S et Kang-Pu L (1990). “Partitioning sparse matrices with eigenvectors of graphs”. In : SIAM, Journal on Matrix Analysis and Applications 11 (3), p. 430–452. R, Usha Nandini, Réka A et Soundar K (2007). “Near linear time algorithm to detect community structures in large-scale networks”. In : Physical Review E. APS 76 (3), p. 036106. S, Peter et Christian S (2013). “Think Locally, Act Globally : Highly Balanced Graph Partitioning”. In : Experimental Algorithms. Springer, p. 164–175. : 3642385265. T, J. D., K. D. D et J. E. F (2006). “Partitioning and Dynamic Load Balancing for the Numerical Solution of Partial Differential Equations”. In : Numerical solution of partial differential equations on parallel computers. Bruaset, Are Magnus. Springer. V L, Ulrike (2007). “A tutorial on spectral clustering”. In : Statistics and computing 17 (4), p. 395–416.  : 0960-3174. 81C 5 C  5.1 Système distribué . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.1.1 Le système distribué, cette super-machine . . . . . . . . . . 84 5.1.2 Réseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.1.3 Stockage . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 5.1.4 Intergiciel . . . . . . . . . . . . . . . . . . . . . . . . . . 88 5.2 Différents types de systèmes distribués . . . . . . . . . . . . . . . . 89 5.2.1 Grappe de calcul . . . . . . . . . . . . . . . . . . . . . . . 89 5.2.2 Grille de calcul . . . . . . . . . . . . . . . . . . . . . . . . 90 5.2.3 Cloud computing . . . . . . . . . . . . . . . . . . . . . . . 91 5.2.4 Écosystème computationnel . . . . . . . . . . . . . . . . . 92 5.3 Algorithmique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 5.3.1 Classification . . . . . . . . . . . . . . . . . . . . . . . . 94 5.3.2 Marche aléatoire dans un graphe . . . . . . . . . . . . . . . 97 5.3.3 Algorithmes fourmis . . . . . . . . . . . . . . . . . . . . . 98 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 Jusqu’à présent, nous nous sommes intéressés à la modélisation des réseaux d’interactions dans le chapitre 3, puis à la répartition de charges dans le chapitre 4. Ces deux éléments nous fournissent la base théorique et algorithmique de la distribution. Dans ce chapitre, nous allons nous pencher sur les modèles existants de systèmes distribués, en tant qu’infrastructure, ainsi que sur l’algorithmique possible dans un tel environnement. 83. C  5.1 Système distribué Avant de pouvoir procéder à un calcul distribué, il est nécessaire de mettre en place un environnement dans lequel nous allons pouvoir exécuter nos algorithmes. Vu de l’extérieur, cet environnement peut être considéré comme une machine de haut niveau. Nous allons donc examiner, dans un premier temps, de quoi cette machine est constituée, et comment définir l’architecture de son fonctionnement. 5.1.1 Le système distribué, cette super-machine Un système distribué est composé de machines qui vont être reliées grâce à un réseau et combinées à des ressources : capacité de calcul, mémoire, stockage, voire des capteurs qui vont servir d’instruments de mesure permettant d’obtenir de l’information. Nous utilisons le terme de “machine” au sens large, c’est à dire qu’il désigne n’importe quel appareil, équipé d’au moins un processeur et de mémoire, qui lui permettent d’exécuter des flux d’instructions. Dans le cadre de nos travaux, ces flux d’instructions qui s’exécutent sur un ensemble de données forment, à un plus haut niveau, le comportement des entités. La manière dont les processeurs, d’une même machine, se synchronisent pour exécuter les instructions, permet une première classification des machines, proposée par Michael J. F en 1966 dans [F 1966] (cf.figure 5.1) : SISD « Single Instruction, Single Data stream », les instructions sont exécutées de manière séquentielle sur une donnée à la fois ; SIMD « Single Instruction, Multiple Data streams », une même instruction est exécutée sur plusieurs données différentes ; MISD « Multiple Instructions, Single Data stream », plusieurs instructions sont exécutées sur une même donnée ; MIMD « Multiple Instructions, Multiple Data streams », plusieurs instructions sont exécutées sur des données différentes. Cette classification permet de définir comment les processeurs sont dépendants les uns des autres. Le type SISD correspond au fonctionnement d’une machine mono-processeur, telle que décrite dans l’architecture de V N [V N 1993]. Les types SIMD et MISD représentent des architectures multi-processeurs, où chaque processeur est lié aux autres soit pour l’instruction qui est exécutée, soit pour la donnée sur laquelle l’instruction est exécutée. Les processeurs dédiés aux graphismes sont un exemple d’architecture SIMD. Un processeur graphique est composé de nombreux processeurs de flux (plusieurs milliers sur des cartes haut de gamme récentes) fonctionnant en mode SIMD. On peut ainsi exécuter une même fonction (les instructions) sur les points (les données) en parallèle. L’architecture MIMD représente un système composé de plusieurs processeurs capables de fonctionner indépendamment les uns des autres. Les ordinateurs personnels actuels sont principalement de type MIMD : bien qu’ils n’aient qu’un seul processeur physique, celui-ci est divisé en plusieurs processeurs logiques (les « cœurs ») qui sont capables de fonctionner 845.1. Système distribué . SISD instructions données P MISD instructions données P P SIMD instructions données P P MIMD instructions données P P F 5.1 : Classification de l’architecture des machines proposée par Michael J. F. Les processeurs sont représentés par .P . indépendamment des autres. Dans [M 2003], Richard S. M résume cette architecture en quatre points : — chaque processeur exécute sa propre séquence d’instructions ; — chaque processeur travaille sur une partie différente du problème ; — chaque processeur communique des données aux autres ; — les processeurs peuvent avoir à attendre d’autres processeurs ou à attendre pour obtenir un accès à des données. L’architecture d’un système distribué est de type MIMD. Nous avons en effet un problème divisé en différentes parties : les entités. Chaque entité possède sa propre séquence d’instructions et va être attribuée à un processeur. Les interactions entre les entités impliquent un échange de données entre les processeurs. 85. C  On peut voir l’architecture MIMD comme un ensemble d’architectures SISD dont il faudrait définir le couplage. E. E. J propose une classification qui permet d’étendre type MIMD [J 1988], et de prendre en compte ce couplage. Il utilise pour cela la manière dont la mémoire est répartie sur le système et des méthodes de communication entre les processeurs. La mémoire peut être commune à l’ensemble des machines, on dira qu’elle est globale ; ou elle peut être distribuée sur ce même ensemble. Les communications peuvent se faire directement à l’aide de variables, ou indirectement par transmission de messages. La classification qui en découle est donc : GMSV « Global Memory, Shared Variables » ; GMMP « Global Memory, Message Passing » ; DMSV « Distributed Memory, Shared Variables » ; DMMP « Distributed Memory, Message Passing ». Le type GMSV regroupe principalement les systèmes où le couplage entre les processeurs est fort, comme dans le cas de machines multi-processeurs. Les systèmes distribués que nous manipulons ont un couplage faible entre les processeurs, la mémoire est répartie sur l’ensemble des machines, et les communications nécessitent l’envoi des messages ; c’est pourquoi les systèmes distribués, tels que nous les appréhendons, seront principalement de type DMMP. 5.1.2 Réseaux Le réseau est un des éléments clefs du système. Grâce aux communications qu’il permet entre les machines, les entités vont avoir la possibilité d’interagir, tout en étant situées sur des machines différentes, et de migrer d’une machine à une autre. Un réseau est caractérisé par la latence d’une communication qui transite par ce réseau, ainsi que par sa bande passante, c’est à dire la vitesse à laquelle il est possible de transférer de l’information. La latence d’une communication entre deux machines reliées à l’aide d’une fibre optique va être différente de celle nécessaire à l’établissement d’une connexion à un satellite via les ondes. La latence peut être due à une limitation technique, et dans ce cas être constante et prévisible. Elle peut aussi être liée à des conditions variables, comme par exemple dans le cas d’un réseau mobile où la connexion entre deux machines peut varier en fonction des obstacles, de la météo, etc…Les réseaux tolérants aux délais [F 2003 ; C et al. 2012] forment un domaine de recherche visant à gérer les problèmes liés à ce type de délais. Chaque réseau possède une topologie qui établit les connections entre les machines. Cette topologie va donc nous permettre de définir comment circulent les données au sein du réseau. Elle est à la fois physique et logique, la topologie physique apportant un certain nombre de contraintes que la topologie logique doit respecter. Un réseau de type Token Ring par exemple, possède une topologie physique en forme d’étoile : chaque machine est connectée à un élément central appelé « Unité d’Accès au Média » (MAU, Media Access Unit). En revanche, la topologie logique du Token Ring forme un anneau : chaque machine peut communiquer avec deux autres, elle reçoit des informations de l’une, et peut en envoyer 865.1. Système distribué à l’autre ; la communication est donc circulaire. On peut alors représenter cette topologie à l’aide d’un graphe, dont les nœuds représentent les machines, et où une arête entre deux machines symbolise la possibilité d’une communication directe. Plusieurs réseaux peuvent être interconnectés afin de créer un réseau de plus grande envergure. L’exemple le plus connu est naturellement celui d’Internet, qui n’est autre qu’une interconnexion, à l’échelle mondiale, d’une multitude de sous-réseaux locaux. 5.1.3 Stockage Les ressources désignent ce qui est nécessaire à l’exécution des entités, et ce qu’elles vont pouvoir exploiter. D’après ce que nous avons vu précédemment, les ressources principales sont, d’une part, les ressources de calcul, c’est à dire les processeurs, et d’autre part, la mémoire. Les processeurs vont permettre d’exécuter les entités et donc de leur donner la possibilité d’agir dans l’application distribuée, tandis que la mémoire est nécessaire pour stocker la structure représentant l’état de l’entité. D’autres types de ressources peuvent être disponibles. L’espace de stockage en constitue une grande partie. On va distinguer : — un stockage direct associé à une seule machine, c’est à dire que l’accès au stockage par cette machine ne nécessite pas l’utilisation du réseau ; — un stockage centralisé accessible par l’ensemble des machines (ou limité à un groupe de machines) ; — un stockage décentralisé. On peut de plus distinguer un stockage sous forme de fichiers, d’un stockage dans une base de données. Un stockage centralisé implique la mise en place d’une machine dédiée (il peut s’agir éventuellement d’une simple façade virtuelle) à laquelle les machines vont pouvoir se connecter pour accéder aux ressources de stockage. Il peut s’agir par exemple de « serveurs de stockage en réseau » (N.A.S.) dont l’accès se fait à l’aide de systèmes de fichiers dé- diés ; ou encore de « réseaux de stockage » (S.A.N.) qui opèrent à une couche inférieure aux fichiers, au niveau des blocs de données, permettant ainsi à une machine du système d’accéder à une zone de stockage distante de manière locale. Un stockage distribué implique que ce stockage soit formé par l’agrégation de stockages directs associés à chaque machine du système. C’est le cas, par exemple, dans un réseau peer-to-peer où les fichiers sont séparés en morceaux qui sont hébergés, avec de la redondance, sur les machines. Une machine, souhaitant obtenir un fichier, doit alors obtenir une liste des machines possédant des morceaux de ce fichier, puis télécharger l’ensemble de ces morceaux afin de pouvoir reconstituer le fichier. Le stockage distribué est un système dans le système. Son objectif est de fournir un accès concurrent à des données tout en permettant aux machines de s’abstraire de la gestion du matériel. Il doit donc être en mesure de gérer les pannes, et d’être extensible afin de s’adapter aux besoins des machines. 87. C  5.1.4 Intergiciel L’intergiciel est la couche logicielle qui va venir s’insérer entre le système d’exploitation des machines et l’application distribuée. Il s’agit de la « glue » qui permet de maintenir ensemble les différentes parties de l’application. Il permet ainsi de gérer l’ensemble des ressources disponibles et fournir à cette application une abstraction de l’environnement. Si l’on voit le système distribué comme une machine de haut niveau, l’intergiciel en est son système d’exploitation, qui va permettre aux entités de communiquer entre elles et d’échanger de l’information. Il peut aussi être utilisé sur une unique machine pour mettre une communication entre différents processus. Il est d’autant plus nécessaire lorsque les ressources sont hétérogènes. D’une part, concernant les machines, dont les ressources matérielles ainsi que le système d’exploitation peuvent différer. Et d’autre part, concernant la partie réseau qui peut inclure différents protocoles de communication que l’intergiciel doit être capable de gérer. La technologie RMI (pour « Remote Method Invocation ») de Java [W, R et W 1996] est un exemple d’intergiciel qui fournit les moyens d’invoquer un objet situé sur une machine distante. Cette technologie est décentralisée, chaque machine virtuelle Java hébergeant un serveur de registres, qui répertorie les entités hébergées et permet la communication entre les machines. Une entité (ici un objet) qui souhaite en contacter une autre doit connaître la localisation de celle-ci et son identifiant unique. À partir de ces informations, le registre local va fournir un objet représentant localement l’entité distante, mais dont les méthodes seront routées vers la dite entité. Approche synchrone et asynchrone Les intergiciels tels que RMI (CORBA [OMG 1991], DCOM [R 1997], etc…) rentrent dans la catégorie des « Remote Procedure Call » (littéralement Appel de Procédure Distante). Ils permettent d’abstraire l’invocation de morceaux de code distants. L’inconvé- nient vient du fait que cette technique est généralement synchrone, l’invocateur devant attendre la fin de l’exécution de la procédure invoquée. Or, si cela ne pose guère de problème lorsque la procédure est locale, il en est tout autre lorsque celle-ci est distante : les latences induites par les communications nécessaires peuvent avoir un impact fortement négatif sur les performances globales de l’application distribuée. Une solution a ce problème est d’utiliser un type de communication asynchrone comme c’est le cas dans le modèle d’intergiciel orienté message (MOM, « Message-oriented Middleware ») [C 2004]. Dans ce modèle, l’invocation, par une entité source, d’une procé- dure d’une entité cible prend la forme d’un message. L’entité source émet donc un message contenant les informations nécessaires à l’invocation, puis le message est transmis jusqu’à la machine hébergeant l’entité cible. Dès que cette dernière devient disponible, elle peut alors exécuter la procédure puis répondre à l’entité source. Le caractère asynchrone de cette technique vient du fait qu’une fois le message émis, l’entité source peut continuer à effectuer d’autres tâches et revenir sur le traitement en cours une fois que la réponse de la cible 885.2. Différents types de systèmes distribués est disponible. On obtient alors un état non-bloquant de l’entité source lorsqu’elle procède à une invocation distante. Ce modèle permet donc de gérer des réseaux possédant une latence élevée. Approche décentralisée Certains intergiciels ont une architecture décentralisée. C’est le cas d’intergiciels utilisant des protocoles réseaux pair-à-pair [J et L 2004], ou d’intergiciels dédiés aux grilles [L et A 2004] (cf.5.2.2 pour une présentation des grilles). Une approche décentralisée permet d’augmenter la tolérance aux fautes du système qui n’est plus dépendant de quelques points centraux. De plus, elle permet de mieux répartir la charge du réseau du fait qu’une connexion peut être établie directement avec la machine visée, sans nécessiter le passage par un serveur central, véritable goulot d’étranglement des communications. Il existe des intergiciels hybrides [S 2001] qui combinent les avantages des deux approches, centralisée et décentralisée. Ceci en utilisant un réseau pair-à-pair pour les communications, sur lequel s’ajoutent certains services ayant une architecture client/serveur. 5.2 Différents types de systèmes distribués Plusieurs éléments vont permettre de caractériser un système distribué. Tout d’abord, la façon dont sont réparties les ressources. Celles-ci peuvent être homogènes, c’est à dire que chaque machine va apporter les mêmes ressources ; ou au contraire hétérogènes, dans ce cas les ressources peuvent être variables en fonction des machines. 5.2.1 Grappe de calcul Une grappe de calcul, encore appelée ferme de calcul, ou tout simplement par son nom anglais cluster, désigne un système distribué dans lequel l’ensemble de machines qui le composent, apparaît comme une unique machine. Le réseau, reliant les machines entre elles, est particulièrement rapide comparé à d’autres modèles de systèmes distribués. La topologie logique d’une grappe est centralisée. On peut voir sur la figure 5.2 une création « maison » d’une grappe à l’aide d’ordinateurs à bas coût, les R P . Ce type d’architecture est particulièrement adaptée pour des services nécessitant une haute disponibilité ou pour du calcul intensif. Une grappe est un supercalculateur qui est dédié au calcul. Chaque machine possède son propre système d’exploitation. Un répartiteur de charge est placé en amont de ces machines, et reçoit les demandes de calcul. Par exemple, une grappe est idéale pour servir les requêtes d’un service web. Les requêtes sont envoyées au répartiteur de charge qui les distribue aux machines composant la grappe de manière à répartir au mieux la charge. On peut ainsi maintenir une qualité de service optimale même en cas de trafic important. 1. http://www.raspberrypi.org/ 89. C  F 5.2 : Une grappe réalisée avec des R P. L’ensemble des machines composant la grappe est évolutif : on peut ajouter ou retirer des machines pour adapter dynamiquement la dimension de cette grappe pour que sa taille corresponde aux besoins réels actuels. 5.2.2 Grille de calcul Là où une grappe de calcul repose sur du matériel dédié, la grille va, quant à elle, regrouper diverses machines disponibles pour former le système distribué. Le réseau, reliant les machines entre elles, est donc potentiellement de plus grande envergure, et possède donc des performances plus faibles que le réseau dédié d’une grappe. Le terme de grille est présenté par Ian F et Carl K, dans un livre dédié aux grilles de calcul [F et K 2003], comme une analogie avec le réseau électrique (« power grid » en anglais) qui permet de fournir un accès universel à une ressource : . “ The word Grid is used by analogy with the electric power grid, which provides pervasive access to electricity and, like the computer and a small number of other advances, has had a dramatic impact on human capabilities and society.. ” 905.2. Différents types de systèmes distribués Une grille de calcul offre une approche décentralisée [F 2002] permettant de faire collaborer des machines, qui n’étaient pas initialement prévues à cet effet, afin de participer à une tâche de plus haut niveau. Cette collaboration peut se faire à une échelle mondiale grâce à Internet. Le projet SETI@home , initié par le Space Science Laboratory de l’université de Californie à Berkeley, permet à des volontaires de mettre à disposition leur machine afin de former une grille de calcul permettant d’analyser des échantillons de radiotéléscopes afin de détecter d’éventuelles traces d’intelligence extra-terrestre. Au delà de cet objectif, il s’agit aussi d’une preuve de concept qu’il est possible, grâce à la collaboration de volontaires, de créer à faible coût une capacité de calcul de grande envergure. La grille ouvre la porte à l’informatique ubiquitaire (« ubiquitous computing » ou encore « pervasive computing »). Un utilisateur peut participer et interagir avec une grille depuis n’importe où, pour peu qu’une connexion soit disponible, et avec n’importe quel appareil contenant l’intergiciel adéquat. Cette interaction pouvant potentiellement se faire de façon à ce que l’utilisateur n’en ait pas conscience. Le concept d’informatique ubiquitaire a été introduit par Mark W [W 1991 ; W 1993] qui prédisait en 1991 que les équipements matériels et logiciels connectés seraient un jour tellement bien intégrés dans notre environnement qu’on n’aurait plus conscience de leur présence : . “ Specialized elements of hardware and software, connected by wires, radio waves and infrared, will be so ubiquitous that no one will notice their presence.. ” 5.2.3 Cloud computing Un type de système distribué, que beaucoup côtoient sûrement sans s’en rendre compte, est le « cloud computing » , ou informatique dans le nuage. Si le terme est sujet à un fort engouement, sa compréhension n’en est pas pour autant des plus claires, du fait de l’abondance des définitions que l’on trouve à son propos. La NIST  donne, dans [M etG 2011], la définition suivante du cloud computing : . “ Cloud computing is a model for enabling ubiquitous, convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, servers, storage, applications, and services) that can be rapidly provisioned and released with minimal management effort or service provider interaction.. Le « nuage » est un ensemble flou de ressources, que l’on peut facilement dimension- ” ner, et auxquelles on accède sous forme de services depuis n’importe quel point d’entrée du réseau. Ian F et al. nous donnent une définition similaire qui plonge ce nuage dans l’Internet [F, Z et al. 2008] : . “ A large-scale distributed computing paradigm that is driven by economies of scale, in which a pool of abstracted, virtualized, dynamically-scalable, managed computing power, storage, platforms, and services are delivered on demand to external customers over the Internet.. 2. « Search for Extra-Terrestrial Intelligence », ” http://setiathome.ssl.berkeley.edu/ 3. National Institute of Standards and Technology 91. C  On retrouve à nouveau la notion d’ extensibilité associée au cloud computing. Contrairement aux grilles, cette extensibilité semble principalement nécessaire pour des raisons économiques. Ce contexte économique est aussi reflété par le fait que nous ne sommes plus dans une optique de collaboration afin d’atteindre un objectif, mais plutôt dans une optique de services rendus à des utilisateurs. La notion de service est omniprésente dans le cloud computing. On parlera ainsi de « Software as a Service » (Saas), « Platform as a Service » (Paas) et même de «Infrastructure as a Service» (IaaS). Ces concepts sont représentés dans la figure 5.3. Le terminal d’un utilisateur ne possède plus, à proprement parler, d’applications installées mais d’une interface qui lui permet d’accéder à un service. Si l’on considère l’ordinateur, ou le smartphone, d’une grande partie des utilisateurs aujourd’hui, un simple navigateur web suffit à accéder à des fonctionnalités qui auraient nécessitées des applications dédiées il y a une dizaine d’années (emails, calendrier, stockage, cartes géographiques, etc…). On trouvera dans [S et K 2011], une comparaison détaillée des différences entre les modèles de grappe, grille et cloud computing. 5.2.4 Écosystème computationnel Nous avons vu jusqu’à présent, trois modèles de système distribué permettant de ré- partir les parties d’une application distribuée sur un ensemble de machines. Ces modèles supportent une dynamique qui est principalement liée au souci d’adapter la taille du système à la dimension du problème. Les applications que nous considérons sont d’un type particulier. Il s’agit en effet de simulations de système complexe. Cela implique deux points importants concernant le système distribué. Tout d’abord, les interactions existant entre les entités vont tenir le rôle principal dans l’application, comme nous l’avons vu dans le chapitre 3. Ensuite, de ces interactions va émerger de l’organisation qui va venir structurer le réseau d’interactions et donc apporter de nouvelles propriétés à l’application distribuée. À ces deux points s’ajoute une forte dynamique à la fois des entités mais aussi des interactions. Les entités ont la particularité d’être autonomes. Du fait de l’étroite ressemblance entre les simulations que l’on souhaite distribuer et les écosystèmes biologiques, J. O. K, T.H et B. A.H ont introduit le modèle d’écosystème computationnel [H 1988 ; K, H et H 1989]. Ils s’appuient en particulier sur les mécanismes de compétition et de collaboration entre les ressources, ainsi que sur la capacité d’adaptation du système aux perturbations. Pour cela, le système nécessite un contrôle décentralisé, ainsi qu’un mode de communication asynchrone entre les entités. Dans [J et B 2008], Mariusz J et Seth B proposent une approche thermodynamique des écosystèmes computationnels. Ils cherchent en particulier à étudier et à comprendre les principes thermodynamiques qui régissent l’auto-organisation dans les systèmes naturels afin d’appliquer ses principes à un écosystème computationnel. Celui-ci s’organise alors autour d’un flux entrant d’énergie (un flux d’information) et produit 925.2. Différents types de systèmes distribués . Modèle . Applications . Runtimes . Bases de données . Logiciel serveur . Virtualisation . Matériel serveurs . Stockage . Réseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Classique IaaS PaaS SaaS Géré par : l’utilisateur .. . le cloud . F 5.3 : Répartition, entre utilisateur et fournisseur du cloud, de la gestion des diffé- rentes couches d’un système distribué en fonction du modèle (IaaS, PaaS, SaaS). en retour de la chaleur (le débit du système, c’est à dire le nombre de tâches achevées par unité de temps). Le modèle d’écosystème computationnel se rapproche d’un modèle de grille dont les tâches seraient des entités autonomes et qui se focaliserait sur les interactions entre ces entités. Ce rapprochement est principalement dû à la volonté d’utiliser une infrastructure existante composée de l’agrégation d’appareils de tous les jours, plutôt que d’une infrastructure dédiée. Bien que ces deux modèles aient une approche décentralisée des communications, l’écosystème computationnel va plus loin dans cette démarche en décentralisant le contrôle de l’application elle-même. Contrairement aux grilles et au cloud computing, un écosystème computationnel ne s’oriente pas vers le calcul ou vers le service, mais considère les choses d’une manière plus générale, ce qui permet éventuellement une cohabitation des deux aspects. Les propriétés que l’on souhaite voir attachées à un écosystème computationnel sont 93. C  l’adaptabilité, la robustesse et la résilience. L’aspect adaptatif signifie que le système est capable de faire preuve d’apprentissage qu’il va pouvoir mettre à profit afin de réagir efficacement aux perturbations. En partie grâce à cette adaptabilité, l’écosystème computationnel tend à être robuste, c’est à dire capable de résister aux pannes ou aux défaillances pouvant survenir dans le système. Enfin, dans le cas où des perturbations importantes ont fait que le système a quitté sa trajectoire, celui doit être en mesure de retrouver une trajectoire similaire stable, c’est à dire faire preuve de résilience. On tente d’obtenir ces propriétés à l’aide de mécanismes de redondance et d’apprentissage collectif. Il s’agit bien sûr de la vision globale d’un écosystème computationnel idéal dont nous sommes encore loin. 5.3 Algorithmique La partie 5.1 précédente nous a permis de décrire une machine de haut niveau, composée de l’agrégation de nombreuses machines, décuplant les capacités d’une simple machine, en particulier la puissance de calcul et la mémoire. Ce système distribué ainsi formé va cependant modifier nos méthodes algorithmiques, habituées à être appliquées sur des machines monoprocesseurs. Un algorithme centralisé considère une séquence d’instructions qui vont être appliquées sur un ensemble de données entrantes, afin de produire une ou plusieurs données sortantes. Un tel algorithme ne pourra donc pas profiter pleinement de la puissance de calcul fournie par un système distribué. Il est nécessaire pour cela de décomposer l’algorithme en un ensemble de parties, les entités, qui vont pouvoir être réparties dans le système. Ces entités vont s’exécuter indépendamment, communiquer entre elles, et finalement aboutir à un ré- sultat. On parle alors d’algorithmes distribués. Gerard T nous fournit, dans son livre dédié à ce sujet [T 2000], une description des trois points principaux qui distinguent les algorithmes distribués des algorithmes centralisés : — absence de connaissance sur l’état global du système ; — absence d’échelle de temps globale ; — non-déterminisme. Chaque entité d’un algorithme distribué ne peut utiliser qu’une quantité restreinte de connaissances, dites locales, qui sont celles contenues sur la machine hébergeant l’entité. Ces informations peuvent être étendues à celles que possèdent les voisins directs mais l’entité n’a pas la possibilité de connaître l’état global du système dans lequel elle évolue. Du fait de l’hétérogénéité de la vitesse des processeurs et de l’absence de contrôle centralisé, chaque entité possède sa propre échelle de temps désynchronisée des autres. 5.3.1 Classification Les algorithmes distribués peuvent être classés d’après plusieurs critères, selon Nancy L dans [L 1996] : — la méthode de communication entre processus ; — le modèle temporel ; 945.3. Algorithmique — le modèle de gestion des fautes ; — les problèmes abordés. La classification proposée est basée sur le modèle temporel qui semble être le critère permettant de faire la meilleure distinction entre les algorithmes. On obtient ainsi trois classes d’algorithmes : — modèle synchrone ; — modèle asynchrone ; — modèle hybride partiellement synchrone. Modèle synchrone Le modèle synchrone est peu probable dans le cas d’un système distribué car, comme nous l’avons vu, il n’y a pas de synchronisation au niveau matériel entre les processeurs du système. Cette synchronisation peut cependant être simulée au niveau logiciel, ce qui justifie la présence de ce modèle d’algorithmes. On utilise pour cela une méthode de diffusion de messages dans un graphe. Le graphe est celui dont les nœuds représentent les processeurs et dont les arêtes sont données par la topologie logique du réseau. Chaque processeur possède un état qu’il va diffuser à ses voisins. Chaque processeur met à jour son état à l’aide d’une fonction de transition qui considère l’état courant et l’état des voisins. On peut alors définir une étape qui consiste pour chaque processeur à : 1. générer le message qui sera envoyé aux voisins ; 2. envoyer ce message ; 3. lire les messages des voisins ; 4. appliquer la fonction de transition. La fonction de transition permet d’exécuter le code des entités attachées au processeur. On peut, grâce à ce mécanisme, diffuser un message d’arrêt par exemple, qui permettrait de signaler la fin de l’algorithme. Cette technique permet de définir deux types de complexité. Tout d’abord, une complexité temporelle correspondant au nombre d’étapes nécessaires afin la finalisation de l’algorithme. Puis une complexité en terme de communication qui correspond au nombre total de messages non-nuls envoyés. Modèle asynchrone Le modèle général permettant de décrire le fonctionnement asynchrone est donné par « l’automate d’entrée/sortie » introduit dans [L et T 1987]. Il s’agit d’une machine à état dont les transitions sont associées à des actions de type entrée, sortie, ou interne. Un automate e/s A est défini par sa signature S = si g (A). S est un triplet contenant l’ensemble des actions d’entrée in(S), l’ensemble des actions de sortie out(S), et enfin celui des actions internes int(S). L’ensemble des actions externes est défini comme l’union ex t(S) = 95. C  P. i send(m)i j . r ecei ve(m)j i . deci de(v)i . ini t(v)i F 5.4 : Un automate e/s de processus C. i,j r ecei ve(m)i,j . send(m)i,j F 5.5 : Un automate e/s de communication in(S)∪out(S), et celui des actions localement contrôléesl ocal(S) = out(S)∪int(S). L’ensemble ac t(S) désigne l’ensemble des actions. L’automate A est alors constitué des éléments suivants : — si g (A), la signature de A ; — st ates(A), l’ensemble des états de A ; — st ar t(A) ⊆ st ates(A), l’ensemble des états initiaux ; — t r ans(A), un ensemble de relations de transitions ; — t asks(A), une relation d’équivalence avec l ocal(si g (A)); une tâche va permettre de procéder à plusieurs actions locales en une seule opération. Afin de modéliser le système distribué, il est nécessaire de définir deux types d’automates e/s. Tout d’abord, l’automate associé à un processus Pi, symbolisé figure 5.4. Son état initial est donné par l’action ini t(v)i où v représente une donnée d’entrée. Cette initialisation va déclencher le processus qui aboutira sur une action finale deci de(v). Pour y parvenir, le processus a la possibilité de communiquer avec d’autres automates grâce aux actions send(m)i j et r ecei ve(m)j i. Ensuite, un automate e/s de communication Ci,j qui va permettre de définir la communication entre des processus Pi et Pj. Ce type d’automate est représenté dans la figure 5.5, il dispose d’une action d’entrée send(m)i j et d’une de sortie r ecei ve(m)i j où m représente le message à transmettre. Un automate e/s de communication permet par exemple de représenter un canal de communication en mode FIFO  et de définir ainsi l’ordre dans lequel les messages envoyés seront lus. On peut alors définir un algorithme asynchrone grâce à une composition de ces automates. On distinguera un modèle asynchrone à mémoire partagée, d’un modèle à réseau 4. « First In, First Out » 965.3. Algorithmique asynchrone. Dans le premier, les processus peuvent communiquer instantanément à l’aide de variables partagées. Dans le second, les processus communiquent au travers d’un réseau. Modèle partiellement synchrone On considère dans ce modèle que, bien qu’il n’y ait pas de synchronisation matérielle entre les processeurs, chaque processeur peut accéder à une horloge commune et synchroniser son exécution par rapport à cette horloge. On peut alors reprendre le modèle précédent d’automate en modifiant les propriétés de l’ensemble des tâches : celles-ci doivent alors être bornées en temps. 5.3.2 Marche aléatoire dans un graphe Nous avons abordé, dans ce qui précède, une manière générale et formelle permettant de modéliser un algorithme distribué. Dans le cadre de nos travaux, nous manipulons un graphe qui est réparti dans un système distribué, un écosystème computationnel, et nous souhaitons pouvoir appliquer des algorithmes sur ce graphe. Le système que nous utilisons est décentralisé, tant au niveau des communications entre les machines, qu’au niveau du contrôle. Nous sommes donc dans le cas d’un modèle asynchrone d’algorithme, dans lequel chaque processeur va avoir la possibilité d’exécuter des actions internes et d’échanger des informations avec d’autres processeurs. Une marche aléatoire consiste en un ensemble de particules qui vont se déplacer aléatoirement dans le graphe. On initialise cet ensemble en répartissant les particules sur l’ensemble du graphe. Puis chaque particule va choisir à chaque étape un nœud parmi les nœuds voisins de sa position. L’action interne d’un processeur consiste dans ce cas à calculer les nouvelles positions de particules. Si certaines particules se déplacent sur une partie du graphe située sur un autre processeur, il y a alors une action d’envoi de ces particules vers les processeurs correspondants. Puis une action de réception des particules ayant choisi de se déplacer vers la partie du graphe hébergée par le processeur. La marche aléatoire d’une particule a est alors la suite X a 0 ,X a 1 ,...,X a k où X a i est un nœud du graphe et telle que X a i+1 a été choisi dans le voisinage de X a i avec une probabilité pa(X a i ,X a i+1 ). On peut alors obtenir des informations sur le graphe en procédant à une analyse statistique des déplacements des particules. Par exemple, l’étude de la fréquence de passage des particules sur les arêtes peut donner des informations concernant les points de congestion du graphe. Les marches aléatoires sont un type d’algorithme intéressant dans le cas des algorithmes distribués du fait qu’elles ne sont pas inquiétées par les contraintes que ceux-ci soulèvent. En particulier, une marche aléatoire ne nécessite pas de connaissance sur l’état global du système, chaque particule n’utilise que des informations locales pour choisir sa future destination. Elles sont, de plus, facilement adaptables à la dynamique du système. 97. C  Il est possible d’adapter une marche aléatoire à un problème spécifique en insérant un biais dans la probabilité pa(X a i ,X a i+1 ). Nous allons présenter, dans ce qui suit, un type d’algorithme utilisant une telle marche biaisée, les algorithmes fourmis. 5.3.3 Algorithmes fourmis Les algorithmes fourmis ont été initialement introduits par Marco D dans [D 1992], puis formalisés sous le nom de « Ant Colony Optimization » (ACO) dans [D, D C et Luca M G 1999]. Depuis lors, ces algorithmes sont la source de nombreuses contributions scientifiques. On trouvera un état de l’art détaillé par Antoine D et Yoann P dans [D et P 2009]. L’idée est de reproduire le comportement de fourmis naturelles qui se déplacent dans leur environnement en étant attirées et en déposant des molécules chimiques, appelées phéromones. On introduit donc une colonie de fourmis artifi- cielles dans un graphe, lesquelles , grâce à leurs déplacements, vont permettre de résoudre certains problèmes combinatoires. Le problème initial était celui du voyageur de commerce, dans lequel on recherche un cycle hamiltonien de poids minimum dans le graphe. Les fourmis vont donc parcourir le graphe, à l’image d’une marche aléatoire. Elles vont, de plus, déposer des phéromones sur les arêtes qu’elles traversent. Ces phéromones s’évaporent à chaque itération, c’est à dire que l’on applique un facteur ρ ∈]0,1[ à la concentration en phéromones de chaque arête. Le choix de l’arête à traverser est biaisé par la concentration en phéromones des arêtes, ainsi que, éventuellement, par le poids, ou la distance pondérant cette arête. Une solution est obtenue en extrayant la piste de phéromones dont la concentration est la plus forte. Une piste de phéromones correspond à un chemin dans le graphe. Chaque fourmi renforce donc une piste, et donc une solution, en déposant une quantité de phéromones sur son passage. Il existe plusieurs améliorations de ce renforcement, comme l’algorithme AntQ [Luca Maria G et D 1995] ou encore Max-Min Ant System [S et H 2000]. Les algorithmesfourmis, dans leur expression la plus proche du modèle naturel, semblent donc être un outil adapté aux systèmes distribués. C’est le cas par exemple dans [S-  et al. 1997], les auteurs présentent Ant-Based Control, un algorithme dont les fourmis sont autonomes et le fonctionnement complètement décentralisé. Cet algorithme est utilisé pour répartir la charge d’un réseau de communication, les fourmis collaborant pour mettre à jour les tables servant à router les appels téléphoniques. Modèle Un algorithme fourmis repose sur un processus itératif dont chaque cycle permet de dé- placer les fourmis dans un graphe G = (V,E) et de procéder à l’évaporation des phéromones. L’ensemble des fourmis au temps t est noté F(t). La quantité de phéromone à l’instant t sur l’arête e est notée τe (t). À chaque cycle cette quantité de phéromone est mise à jour en 985.3. Algorithmique tenant compte de l’évaporation et du passage des fourmis : τe (t +1) = ρ ×τe (t)+∆τe (t) (5.1) La constante ρ ∈]0,1[ définit le facteur d’évaporation des phéromones(1−ρ). ∆τe (t) correspond à la quantité de phéromone déposée par les fourmis ayant traversé l’arête e au temps t. Pour une fourmi k, cette quantité est notée ∆τ k e (t). Cette quantité est nulle si la fourmi k n’a pas traversé l’arête i j. On obtient alors : ∆τe (t) = ∑ k∈F(t) ∆τ k e (t) (5.2) Nous devons ensuite définir la loi de probabilité qui va être utilisée par une fourmi pour choisir une arête à traverser. En considérant une fourmi k, posk ∈ V désigne la position actuelle de k. On peut alors définir ωk comme l’ensemble des arêtes que peut traverser la fourmi k : ωk = { (i, j) ∈ E | i = posk } On définit alors la probabilité p k e (t), la probabilité pour une fourmi k de traverser l’arête e au temps t : p k e (t) =    [τe (t)]α ·[ηe ] β ∑ e ′∈ωk [τe ′(t)]α ·[ηe ′] β si e ∈ ωk 0 sinon (5.3) Le paramètre ηe permet d’utiliser une propriété des arêtes pour ajuster leur importance dans la loi de probabilité. Il peut s’agir par exemple de la longueur, comme défini dans Ant System, on a alors ηe = 1/de où de est la longueur de e, ce qui augmente la probabilité de choisir les arêtes dont la longueur est faible. Le déroulement du cycle d’un algorithme fourmis au temps t est donné par l’algorithme 4. Le nombre initial de fourmis peut être fixé en fonction du nombre de nœuds. On définit alors une quantité κ de fourmi par nœud, et N(v)le nombre de fourmis présentes sur le nœud v. Lorsqu’un nœud est ajouté dans le graphe, on ajoute κ fourmi sur ce nœud. Lorsqu’un nœud v est supprimé, nous avons plusieurs cas de figure : — N(v) < κ, on supprime κ fourmis dans le graphe en commençant par celles du nœud supprimé ; — N(v) = κ, on supprime juste les fourmis du nœud ; — N(v) > κ, on supprime κ fourmis du nœud puis on répartit les N(v) − κ restante aléatoirement dans le graphe. En respectant ce mécanisme, nous obtenons une démographie stable de la population des fourmis, qui reste constamment proportionnelle d’un facteur κ au nombre de nœuds. 99. C  Algorithme 4 : Cycle d’un algorithme fourmis Données : — F, l’ensemble des fourmis ; — E, l’ensemble des arêtes du graphe ; — t, la date courante. 1 début 2 pour chaque k ∈ F faire 3 pour chaque e ∈ ωk faire 4 calculer p k e (t); 5 fin /* La méthode choisir() permet de sélectionner aléatoirement un élément de l’ensemble donné en premier paramètre en fonction de la distribution de probabilités donnée en second paramètre */ 6 e ← choisir(ωk , { p k e0 (t),...,p k ei (t),...} ) ; 7 traverser e ; 8 ∆τe ← ∆τe +∆τ k e ; 9 fin 10 pour chaque e ∈ E faire 11 τe ← τe ×ρ +∆τe ; 12 fin 13 fin Références C, A. et al. (2012). “Time-Varying Graphs and Dynamic Networks”. In : International Journal of Parallel, Emergent and Distributed Systems. In press.  : 10.1080/ 17445760.2012.668546. C, Edward (2004). “Message-oriented middleware”. In : Middleware for communications, p. 1–28. D, Marco (1992). “Optimization, learning and natural algorithms”. In : Ph. D. Thesis, Politecnico di Milano, Italy. D, Marco, Gianni D C et Luca M G (1999). “Ant algorithms for discrete optimization”. In : Artificial life 5 (2), p. 137–172. D, Antoine et Yoann P (2009). “Tour d’horizon des problèmes combinatoires traités par les fourmis artificielles”. In : Fourmis artificielles 1, Des bases de l’optimisation aux applications industrielles, p. 71–100. F, Kevin (2003). “A delay-tolerant network architecture for challenged internets”. In : Proceedings of the 2003 conference on Applications, technologies, architectures, and protocols for computer communications. ACM, p. 27–34.  : 1581137354. 100Références F, Michael J (1966). “Very high-speed computing systems”. In : Proceedings of the IEEE 54 (12), p. 1901–1909.  : 0018-9219. F, Ian (2002). “What is the grid ?-a three point checklist”. In : GRIDtoday 1 (6). F, Ian et Carl K (2003). The Grid 2 : Blueprint for a new computing infrastructure. Access Online via Elsevier.  : 0080521533. F, Ian, Yong Z et al. (2008). “Cloud computing and grid computing 360-degree compared”. In : Grid Computing Environments Workshop, 2008. GCE’08. Ieee, p. 1– 10.  : 1424428602. G, Luca Maria et Marco D (1995). “Ant-Q : A reinforcement learning approach to the traveling salesman problem”. In : ICML, p. 252–260. H, Bernado A (1988). The ecology of computation. Elsevier Science Inc. J, Mariusz et Seth B (2008). “Energy, entropy and work in computational ecosystems : A thermodynamic account”. In : J, Eric E (1988). “Completing an MIMD multiprocessor taxonomy”. In : ACM SIGARCH Computer Architecture News 16 (3), p. 44–47.  : 0163-5964. J, Markus Oliver et Yugyung L (2004). “Peer-to-peer middleware”. In : Middleware for Communications, p. 81–107.  : 0470862084. K, Jeffrey O, TadH et Bernado AH (1989). “Dynamics of computational ecosystems”. In : Physical Review A. L, Gregor von et Kaizar A (2004). “Grid middleware”. In : Middleware for Communications, p. 109. L, Nancy A (1996). Distributed algorithms. Morgan Kaufmann.  : 0080504701. L, Nancy A et Mark R T (1987). “Hierarchical correctness proofs for distributed algorithms”. In : Proceedings of the sixth annual ACM Symposium on Principles of distributed computing. ACM, p. 137–151.  : 089791239X. M, Peter et Timothy G (2011). “The NIST definition of cloud computing (draft)”. In : NIST special publication 800 (145), p. 7. M, Richard S. (2003). Cluster Computing : Architectures, Operating Systems, Parallel Processing & Programming Languages. OMG, Committee (1991). The Common Object Request Broker : Architecture and Specification. OMG Document Revision 1. R, Frank E (1997).Dcom : Microsoft Distributed Component Object Model with Cdrom. IDG Books Worldwide, Inc.  : 0764580442. S, Naidila et SM Dilip K (2011). “Cluster, grid and cloud computing : A detailed comparison”. In : Computer Science & Education (ICCSE), 2011 6th International Conference on. IEEE, p. 477–482.  : 1424497175. S, Rüdiger (2001). “A definition of peer-to-peer networking for the classification of peer-to-peer architectures and applications”. In : Peer-to-Peer Computing, 2001. Proceedings. First International Conference on. IEEE, p. 101–102.  : 0769515037. S, Ruud et al. (1997). “Ant-based load balancing in telecommunications networks”. In : Adaptive behavior 5 (2), p. 169–207.  : 1059-7123. 101. C  S, Thomas et Holger H H (2000). “MAX–MIN ant system”. In : Future generation computer systems 16 (8), p. 889–914.  : 0167-739X. T, Gerard (2000).Introduction to distributed algorithms. Cambridge university press. : 0521794838. V N, John (1993). “First Draft of a Report on the EDVAC”. In : Annals of the History of Computing, IEEE 15 (4), p. 27–75.  : 1058-6180. W, Mark (1991). “The computer for the 21st century”. In : Scientific american 265 (3), p. 94–104.  : 0036-8733. — (1993). “Some computer science issues in ubiquitous computing”. In : Communications of the ACM 36 (7), p. 75–84.  : 0001-0782. W, Ann, Roger R et Jim W (1996). “A Distributed Object Model for the Java TM System”. In : Computing Systems 9, p. 265–290.  : 0895-6340. 102Troisième partie Modèle 103C 6 M   6.1 Qu’est ce que l’interaction ? . . . . . . . . . . . . . . . . . . . . . . 106 6.1.1 Interactions & Émergence . . . . . . . . . . . . . . . . . . 106 6.1.2 Causalité ascendante et descendante . . . . . . . . . . . . . 107 6.2 Propriétés des interactions . . . . . . . . . . . . . . . . . . . . . . 107 6.2.1 Interaction directe ou indirecte . . . . . . . . . . . . . . . . 107 6.2.2 Interaction synchrone ou asynchrone . . . . . . . . . . . . . 108 6.2.3 Interaction ciblée ou diffuse . . . . . . . . . . . . . . . . . 109 6.3 Représentation et manipulation des interactions . . . . . . . . . . . . 109 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 Tout ce que nous avons vu jusqu’à présent tourne autour de la notion d’interaction. Au point que ce sont ces interactions qui semblent jouer un rôle majeur dans le réseau. Les entités en sont réduites à jouer le rôle secondaire d’attributs, nécessaire certes, permettant de définir les acteurs des interactions. Ces interactions forment la syntaxe qui décrit le réseau, lui donnant ainsi une forme et sont à l’origine de l’émergence des organisations qui vont participer à structurer le graphe. Derrière cette syntaxe se cache la sémantique de la simulation qui ne nous est pas accessible. Nous devons donc nous contenter d’étudier cette syntaxe ainsi que la sémiologie de la simulation qui s’exprime au travers de phénomènes qui apparaissent dans le graphe comme par exemple sa structuration. C’est grâce à l’analyse de ces éléments que nous pourrons réussir à améliorer notre gouvernance du système. Pour cela nous avons besoin de comprendre les mécanismes qui entourent les différentes interactions, ainsi qu’une meilleure appréhension des interactions elles-mêmes et de leurs propriétés, cela afin d’en fournir une meilleure 105. M   modélisation. 6.1 Qu’est ce que l’interaction ? L’encyclopédie communautaire, W , commence par définir une interaction de la sorte : . “ Une interaction, dans le langage courant, est l’action ou l’influence réciproque qui peut s’établir entre deux objets ou plus. Une interaction est toujours suivie d’un ou plusieurs effets. En physique, en chimie, ou en biologie, une interaction a pour effet de produire une modification de l’état des objets en interaction.. Une interaction définit donc un lien de causalité qui se crée entre au moins deux entités. ” Une entité, de par son comportement, va alors déclencher une action qui va produire un effet sur d’autres entités, pouvant introduire une modification de leur état. L’interaction peut aussi exister à différents niveau de représentation du système ainsi que entre ces niveaux. Comme nous le verrons dans ce qui suit en 6.1.2, il existe en effet une interaction ascendante et descendante entre les niveaux microscopique et macroscopique. 6.1.1 Interactions & Émergence Les interactions sont responsables de l’apparition de propriétés, propres à des groupes ou au système lui-même, que l’on ne peut expliquer par la seule somme de celles des membres du groupe. On qualifie alors ces propriétés d’émergentes et on parlera plus généralement de l’émergence qui existe au sein du système. Ce phénomène d’émergence est classé de différentes manière dans la littérature, Damien O nous en donne une présentation dans [O 2006]. Le dictionnaire de Philosophie de Cambridge, [A 1995], oppose l’émergence descriptive à l’émergence explicative. La première implique la présence de propriétés globales qui ne peuvent pas être définies à partir de la somme des propriétés des parties. La seconde, l’émergence dite explicative, énonce l’émergence à l’aide des lois qui régissent le système : les lois des situations les plus complexes dans le système ne sont déductibles d’aucune façon par composition des lois des situations les plus simples. Nous considérerons pour notre part, l’émergence forte et l’émergence faible. L’émergence forte [C 1997 ; C 2006] se base sur l’apparition d’organisations, en tant que structure composée d’entités, sur une échelle macroscopique. Ces organisations possèdent leurs propres propriétés qui ne sont pas à déductibles des propriétés des entités de l’échelle microscopique qui composent l’organisation. La définition de l’émergence faible nous est donnée dans [B 1999] : on considère que l’émergence est faible lorsqu’il est possible d’obtenir l’organisation du niveau macroscopique à partir d’une simulation utilisant le niveau microscopique ainsi que des conditions 1. consultée le 14 novembre 2013, https://fr.wikipedia.org/wiki/Interaction 1066.2. Propriétés des interactions externes au système considéré. David J. C, quant à lui, exprime dans [C 2006] le fait que l’émergence faible implique que le niveau macroscopique peut être obtenu à partir du niveau microscopique mais que certaines propriétés apparaissent qui sont inattendues compte tenu les principes qui régissent le niveau microscopique. 6.1.2 Causalité ascendante et descendante L’interaction, désignée de manière générale, permet donc l’émergence de nouvelles propriétés du système. Les interactions sont tout d’abord l’action d’une entité sur une autre, voire sur plusieurs autres. Il s’agit d’un lien de causalité qui se crée entre une cause et un effet. Puis, ces interactions vont permettre de structurer le graphe et de ce fait, aboutir à la création d’organisation. Ces liens ne peuvent cependant pas expliquer à eux seuls l’émergence survenant dans le système. L’émergence nécessite d’une part la présence de boucles de rétroaction, qui impliquent que l’effet engendré par une cause va en retour agir sur cette même cause, entrainant ainsi la création d’une boucle de causalité. De plus, les interactions existent aussi entre une organisation et les entités. D’une part de manière ascendante, les entités vont causer des effets sur leur organisation qui vont modifier les propriétés de celle-ci. D’autre part, ces interactions existent aussi de manière descendante, c’est à dire que le comportement du groupe va causer des effets sur ces individus. On peut, pour illustrer cette notion, considérer l’exemple d’un groupe d’individus qui s’organise autour d’une certaine idéologie. Les évolutions des idées de chacun vont permettre de faire évoluer l’idéologie globale du groupe, il s’agit alors d’une causalité ascendante. Mais cette idéologie globale va aussi influencer les idées de chaque membre du groupe, et dans ce cas on parle d’une causalité descendante. 6.2 Propriétés des interactions Nous avons tenté de définir, dans ce qui précède, ce qu’est l’interaction, d’une façon gé- nérale. Une interaction a besoin de s’appuyer sur un vecteur afin de lui permettre d’atteindre sa cible. Il peut s’agir de la voix, d’un message, mais aussi de molécules, ou d’éléments abstraits comme la proximité entre les entités. Grâce à ce vecteur et à la façon dont il permet de propager l’interaction, nous pouvons proposer certaines propriétés des interactions. 6.2.1 Interaction directe ou indirecte Lorsqu’une entité a connaissance d’une autre et agit de manière à provoquer des modifications immédiates sur cette autre entité, on pourra dire de cette interaction qu’elle est directe. Lorsqu’une personne parle à une autre, par exemple, il s’agit d’une interaction directe, il n’y a pas d’intermédiaire entre ces personnes. Au contraire, l’interaction peut nécessiter l’intervention d’un intermédiaire (voire de plusieurs). On qualifie, dans ce cas, cette interaction d’indirecte. De telles interactions néces- 107. M   . niveau microscopique causalité ascendante causalité descendante niveau macroscopique F 6.1 : Causalité ascendante et descendante. sitent la création d’une information qui va être transmise indirectement à une entité, ou un groupe d’entités. L’environnement peut servir de vecteur pour la transmission de cette information comme c’est le cas avec le mécanisme de stigmergie dont nous parlions en 1.1. Dans ce dernier cas, l’interaction indirecte se fait entre une entité et un groupe d’entité.Pour illustrer cette idée, nous pouvons considérer, par exemple, une personne qui collerait une affiche dans un lieu de passage : l’information contenu sur l’affiche est alors diffusée de manière indirecte aux personnes qui prendront le temps de lire cette affiche. Mais une interaction indirecte peut aussi être ciblée entre deux entités. Pour reprendre l’exemple de la communication entre deux personnes, l’information que l’on transmettait directement à l’oral peut être transmise de manière indirecte au travers d’une lettre ou d’un courriel. 6.2.2 Interaction synchrone ou asynchrone Il est possible de caractériser les interactions en fonction de l’état qu’elles provoquent sur les entités qui en sont à l’origine. En considérant deux entités source et cible. source est 1086.3. Représentation et manipulation des interactions à l’origine d’une interaction qui va déclencher chez cible une réaction qui aboutira sur une réponse à source. Cette réponse permet soit de retourner une information, soit de simplement valider le fait que la réaction a eu lieu. source a besoin de cette réponse pour effectuer un certain traitement. Dans le cas où source rentre dans un état bloquant en l’attente de la réponse de cible, on parlera alors d’interaction synchrone. État bloquant implique que l’entité n’effectue plus aucune action tant que son état ne s’est pas débloqué. L’entité source peut aussi décider que certaines actions peuvent être traitées sans attendre la réponse de cible. Elle traite alors tout ou partie de ces actions et lorsque la réponse de cible est disponible, elle effectue le traitement correspondant. On parle dans ce cas d’interaction asynchrone. Ces deux types d’interactions sont illustrés dans la figure 6.2. Il est important de noter que même si les notions de synchrone/asynchrone peuvent sembler liées aux notions de directe/indirecte que nous avons vu précédemment, il n’en est rien. Les notions directe/indirecte permettent de définir le moyen qui permet l’interaction tandis que les notions de synchrone/asynchrone définissent une propriété concernant les entités lorsqu’elles interagissent. Ainsi il est possible qu’une interaction indirecte soit synchrone et qu’une interaction directe soit asynchrone. 6.2.3 Interaction ciblée ou diffuse L’interaction initiée par une entité peut être dirigée vers une autre entité en particulier. C’est le cas lorsqu’une personne parle à une autre, ou qu’une machine démarre une communication avec une machine spécifique. On peut dire alors que cette interaction est ciblée. Cependant, l’interaction peut prendre une autre forme. Une entité peut en effet initier une interaction sans avoir la connaissance de qui sera impliquée dans cette interaction. Lorsqu’une fourmi dépose de la phéromone dans l’environnement par exemple, cette fourmi ne cible personne en particulier mais diffuse un message qui va potentiellement lui permettre d’interagir avec un grand nombre d’individu. Si une personne au milieu d’une foule crie un message pour prévenir d’un danger, elle ne cible personne en particulier mais atteint tout le monde autour d’elle. On qualifie de telles interactions de diffuse. 6.3 Représentation et manipulation des interactions Dans l’ensemble de ces travaux, les interactions sont modélisées à l’aide d’un graphe dynamique composé d’un ensemble de nœuds représentant les entités intervenant dans les interactions, ainsi que d’un ensemble d’arêtes représentant les interactions entre les entités. La difficulté de la représentation réside dans la manière de créer et supprimer les arêtes modélisant les interactions. Celle-ci pourrait paraître triviale, en particulier dans le cas d’interactions directes : l’arête est créée en début de communication, puis supprimée lorsque cette communication prend fin. Cependant, dans le cas de communications de très courte durée ou dans le cas d’interactions indirectes dans lesquelles deux courtes communications 109. M   (a) . source cible établissement d’une communication l’entité devient disponible communication acceptée réponse envoyée fin de la communication traitement de la réponse attente de la réponse (b) . source cible envoie d’une nouvelle requête traitement de la requête envoie de la réponse fin de la communication traitement de la réponse F 6.2 : Interaction (a) synchrone et (b) asynchrone entre une entité source et une entité cible. 1106.3. Représentation et manipulation des interactions . a b a b a b a b a b a b a b a b nouvelle communication fin de communication nouvelle communication fin de communication F 6.3 : Création d’interactions naïve (envoi du message, réception de la réponse) interviennent, ce mode de représentation aboutit à l’oscillation de la présence de l’arête correspondante dans le graphe. Or nous avons vu que l’interaction joue un rôle majeur dans notre modèle, ce qui nous amène à deux constats : 1. pour un observateur humain, la visualisation du modèle peut être faussée par un temps d’apparition trop court, donnant l’impression que deux entités interagissent peu ou pas ; 2. d’un point de vue algorithmique, l’oscillation de la présence des arêtes peut entraîner l’oscillation de la solution et fausser la stabilisation de l’algorithme (dans le cas d’un algorithme dynamique itératif). Pour pallier ces problèmes, nous introduisons une persistance de l’interaction dans le graphe. À chaque arête e est associée une valeur que nous noterons ρ(e). Lorsqu’une nouvelle interaction entre deux entités commence, deux cas de figure peuvent se présenter : — l’arête e correspondante n’existe pas ; elle est alors créée avec ρ(e) = ρini t ; — l’arête e existe ; la valeur de ρ(e) est alors incrémentée d’une valeur δρ. On considère un processus itératif qui permet, à espacement temporel régulier, d’appliquer un facteur ϖ aux valeurs ρ(e) de chaque arête e. La valeur de ϖ est incluse dans l’intervalle ]0; 1[. Lorsque la valeur ρ d’une arête e passe en dessous d’un seuil ρdel, l’arête e est alors supprimée. Ce mécanisme permet de supprimer les oscillations des arêtes dans le graphe tout en conservant un modèle cohérent. Les figures 6.3 et 6.4 illustrent les différences qu’apportent la persistance dans la présence d’une arête entre deux nœuds. 111. M   . a b a b a b a b a b a b a b a b nouvelle communication fin de communication nouvelle communication fin de communication ρ = 1 ρ = 0.7 . ρ = 0.49 . ρ = 0.99 . ρ = 0.69 . ρ = 0.48 . ρ = 0.34 . ρ = 0.24 F 6.4 : Création d’interactions avancée avec ρini t = 1, δρ = 0.5, ϖ = 0.7 et ρdel = 0.3. Références A, Robert (1995). The Cambridge Dictionary of Philosophy. en. Cambridge University Press. 2390 p.  : 9781107268616. B, M. A. (1999). “Weak Emergence”. In : T, James E. Philosophical Perspectives, Mind, Causation And World. T. 11, p. 375–399.  : 9780631207931. C, David J. (1997). The Conscious Mind : In Search of a Fundamental Theory.  : 0195117891. — (2006). “Strong and weak emergence”. In : The reemergence of emergence, p. 244– 256. O, Damien (2006). Modélisation informatique de systèmes à base d’interactions et dé- tection d’organisations. Modèles du vivant. Habilitation à Diriger des Recherches de l’Université du Havre. 112C 7 M   7.1 Qu’est ce qu’une organisation ? . . . . . . . . . . . . . . . . . . . . 113 7.2 Du micro au macro : le changement d’échelle . . . . . . . . . . . . . 114 7.2.1 Granularité de la vue sur le modèle . . . . . . . . . . . . . . 115 7.2.2 Intérêt du changement d’échelle . . . . . . . . . . . . . . . 115 7.2.3 Processus . . . . . . . . . . . . . . . . . . . . . . . . . . 117 7.3 Réification des organisations . . . . . . . . . . . . . . . . . . . . . 117 7.3.1 Propriété de connexité . . . . . . . . . . . . . . . . . . . . 117 7.3.2 Fusion d’organisations connexes . . . . . . . . . . . . . . . 118 Nous avons vu dans le chapitre 6 que l’interaction était une pièce maîtresse dans l’étude de la dynamique des graphes, et qu’elle permet l’émergence de structures dans le graphe que nous nommons organisations. Ce chapitre va s’intéresser à ces organisations, leur modélisation, et leur manipulation. 7.1 Qu’est ce qu’une organisation ? Les interactions au sein d’un réseau d’entités permettent de définir des structures. Il peut s’agir d’une densité des interactions plus importante à l’intérieur de la structure qu’avec les entités de l’extérieur, ou de propriétés spécifiques permettant de donner un sens à la structure. Du fait de la dynamique du réseau d’interactions, les éléments de la structure vont évoluer au fil du temps, mais la sémantique va rester la même. On nomme une telle struc- 113. M   ture organisation. Lorsque l’apparition d’une organisation n’est pas due à un comportement directement programmé du système mais qu’au contraire cette organisation émerge du comportement de bas niveau des entités, on parle alors d’auto-organisation. Par exemple, un algorithme qui calcule un plus court chemin entre deux nœuds d’un graphe et qui adapte la structure calculée aux modifications survenant dans le graphe. Le plus court chemin est alors une organisation dont les éléments forment un chemin, de telle sorte que ce chemin soit le plus court possible. Cette organisation est le fruit du calcul d’un algorithme et n’est donc pas une auto-organisation. En revanche, si l’on considère le graphe de la figure 3.1c qui présente un ensemble de livres sur l’informatique disponible sur Amazon, qui interagissent lorsqu’ils sont achetés ensemble, on voit ici se dégager des auto-organisations, qui correspondent à différents domaines informatiques (programmation Java, Linux, base de données, etc…). 7.2 Du micro au macro : le changement d’échelle La détection des organisations dans un graphe nous permet de définir pour chaque nœud, l’organisation dont il fait partie. Ainsi pour un graphe G = (V,E), on obtient un ensemble V M = {Ci} tel que : ∀Ci ∈ V M , Ci ⊂ V ∪ i Ci = V ∀Ci ,Cj ,Ci ̸= Cj , Ci ∩Cj = ; On peut alors définir l’ensemble E M des arêtes existant entre les organisations : E M = { (Ci ,Cj) | ∃u ∈Ci , v ∈Cj , ∃ e = (u, v) ∈ E } Une arête existe entre deux organisations Ci et Cj s’il existe au moins une arête dans le graphe G entre un nœud contenu dans Ci et un contenu dans Cj. Le graphe G M = (V M ,E M ) ainsi obtenu est appelé une vue macroscopique du graphe G. S’il est possible de construire une ou plusieurs vue macroscopique d’un graphe, on peut alors parler d’un graphe multi- échelle. Nous ne tenons pas compte, dans ces travaux, du chevauchement possible des organisations. C’est à dire qu’il est possible que la propriété ∀Ci ,Cj ,Ci ̸= Cj , Ci ∩Cj = ; ne soit pas respectée si un nœud s’avère appartenir à plusieurs organisations. Si l’on considère par exemple, un réseau d’interactions formés par des personnes, celles-ci peuvent être connectées ensemble de différentes façons : membres d’une même famille, du même école, de tel ou tel réseau social, etc… G. P et al., dans [P et al. 2005], ont été les premiers à prendre en compte ce problème dans la détection statique d’organisations. Pour approfondir le domaine du chevauchement d’organisations, on peut se référer à un état de l’art sur le sujet dans [X, K et S 2011]. On parle de changement d’échelle lorsque l’on passe d’un graphe G, que l’on nomme la vue microscopique, à une vue macroscopique G M de G. Nous pouvons donc appliquer à cette vue macroscopique les méthodes d’analyses qu’il est possible d’appliquer à un graphe. 1147.2. Du micro au macro : le changement d’échelle 7.2.1 Granularité de la vue sur le modèle Nous avons donc un graphe initial qui forme la vue microscopique, c’est à dire que ces composants sont atomiques. À partir de cette vue microscopique, nous pouvons construire une vue macroscopique, mais cette nouvelle vue peut aussi servir de base au calcul d’une autre vue macroscopique de plus haut niveau. Le changement d’échelle peut donc être ré- cursif. On parle alors de la granularité de la vue que l’on a sur le modèle. Il s’agit d’une information qui nous permet de définir à quel niveau de complexité nous observons un modèle. Lorsque cette granularité est microscopique, ces composantes sont atomiques, c’est à dire qu’elles sont les plus petites possibles, et correspondent donc aux entités initiales du réseau d’interactions. Plus la granularité augmente, plus les nœuds du graphe représentent une agrégation complexe de ces entités (organisations, organisations d’organisations, etc…). Dans la figure 7.1, on peut observer un graphe initial, de couleur foncée . , qui représente la vue microscopique du modèle. On peut procéder à un premier regroupement des nœuds pour former une vue macroscopique, représentée en couleur vert foncé . . Il est ensuite possible de ce servir de cette vue macroscopique comme base afin de créer une nouvelle vue de plus haut niveau, représentée en clair . . On obtient ainsi trois vues de granularité différentes sur le modèle. 7.2.2 Intérêt du changement d’échelle L’intérêt du changement d’échelle est tout d’abord analytique. L’organisation n’apparait qu’à partir d’une certaine granularité, c’est pourquoi rester à l’échelle microscopique n’est pas pertinent lorsque l’on souhaite observer le fonctionnement émergent du système. Cette échelle est en revanche nécessaire pour comprendre les mécanismes intrinsèques permettant d’expliquer le comportement global. Si l’on prend l’exemple du corps humain, observer les atomes qui le composent ne nous permet pas de comprendre les mécanismes complexes qui le régissent comme la motricité, les différents sens, etc… Nous avons déjà besoin d’augmenter la complexité de notre échelle de représentation (molécules, organes, etc…), c’est à dire de passer à des échelles macroscopiques, afin de comprendre le fonctionnement du corps humain. Cette analyse est simplifiée du fait qu’une vue macroscopique soit un graphe, ce qui nous permet d’exploiter les outils d’analyse ou les algorithmes prévus pour être exploités sur des graphes. Le changement d’échelle a aussi un intérêt en terme de visualisation d’informations. Pour un observateur humain, la visualisation du modèle à une échelle macroscopique permet de clarifier une vue qui peut s’avérer complexe du fait du nombre important d’entités composant les simulations. Cette clarification passe par la réduction ou le regroupement d’informations visible par l’observateur, que ce soit en terme d’éléments du graphes (nœuds, arêtes) que de données sur ces éléments. Dans [A et al. 2003], David A et al.s’intéresse tout particulièrement à la visualisation de graphes petit-mondes dans lesquels plusieurs échelles sont présentes. Ils proposent une métrique permettant d’identifier les arêtes inter-organisations, 115. M   . F 7.1 : Un graphe initial représentant l’échelle microscopique . , et deux vues macroscopiques, . et . , de ce graphe. 1167.3. Réification des organisations et qui peut être utilisée par l’interface graphique afin d’améliorer le rendu et la navigation. 7.2.3 Processus Le changement d’échelle est effectué au travers d’un processus qui va nous permettre de créer la vue macroscopique. Il peut s’agir d’un algorithme de détection d’organisations ou tout autre algorithme capable de fournir une surjection de l’ensemble initial de nœuds vers un ensemble de structures. Ce processus agit donc comme le générateur du graphe correspond à l’échelle macroscopique. Outre les processus « classiques » applicables aux graphes qui vont utiliser uniquement le graphe de la vue macroscopique, nous pouvons considérer des processus qui vont être en mesure d’utiliser à la fois la vue microscopique et macroscopique pour effectuer des mesures. 7.3 Réification des organisations La création d’une vue macroscopique passe par plusieurs étapes. La première est création d’une classification des nœuds qui va permettre de déterminer de quelle organisation chaque nœud fait partie. Cette classification est donnée par une algorithme de détection d’organisations sous la forme d’une valeur associée à chaque nœud, correspondant à l’index d’une organisation. La seconde étape est de reconstruire les structures correspondant aux organisations à l’aide de la classification. Enfin, la dernière étape consiste à construire l’ensemble des arêtes existant entre les organisations. Chaque arête entre deux organisations A et B peut être pondéré par la quantité totale d’arêtes existant à l’échelle microscopique entre les nœuds de A et ceux de B. 7.3.1 Propriété de connexité La difficulté de la création de la vue macroscopique réside dans la seconde étape de sa construction. On considère que le sous-graphe induit par les nœuds d’une même organisation doit être connexe, c’est à dire qu’il existe un chemin dans ce sous-graphe entre n’importe quelle paire de nœuds de l’organisation. Le problème que nous abordons ici est donc de fabriquer une vue macroscopique à partir d’une classification en s’assurant de cette propriété de connexité. Il y a deux possibilités pour l’algorithme de détection : 1. soit le nombre d’organisations est un paramètre de l’algorithme ; 2. soit au contraire l’algorithme doit déterminer de lui-même le nombre d’organisations. Si l’algorithme est libre de fixer le nombre d’organisations, on peut supposer que la propriété de connexité est respectée. Nous nous intéressons donc au cas où le nombre d’organisations est imposé. Dans ce cas, il est possible que l’algorithme fusionne des organisations afin d’aboutir au nombre désiré, comme illustré dans l’exemple de la figure 7.2. C’est le cas dans 117. M   . F 7.2 : Exemple de détection d’organisations non-connexes. Le nombre d’organisations à détecter est fixé à deux, cependant on observe quatre organisations, l’algorithme doit fusionner certaines de ces organisations. l’algorithme AntCo2 présenté dans la partie 10.2, où des colonies de fourmis numériques détectent chacune un ensemble d’organisations. Il est alors nécessaire, pour fournir une vue respectant la propriété de connexité des organisations, d’effectuer un traitement permettant de récupérer les composantes connexes de chaque sous-graphe d’une organisation. Il s’agit de la seconde étape de la création de la vue macroscopique, qui nous permet d’obtenir les structures finales des organisations. 7.3.2 Fusion d’organisations connexes Cependant, l’algorithme qui fournit la classification peut avoir fusionné des organisations entre lesquelles il existe des arêtes. Dans un tel cas, la détection des composantes connexes n’est d’aucune utilité. Afin de détecter ces cas de figure, nous proposons l’approche suivante. Nous considé- rons qu’une organisation est une structure robuste. Cette robustesse est caractérisée par la présence d’un unique centroïde de l’organisation. Nous définissons cette notion en détail dans la partie 8.2. En ayant à disposition un algorithme qui nous permette de détecter les centres d’équilibre dans un graphe, que nous nommons les centroïdes, nous pouvons alors appliquer cet algorithme à chaque organisation afin de déterminer si l’organisation possède plusieurs centroïdes. Dans ce cas, on considère que l’organisation est unefusion de plusieurs sous-organisations (une par centroïde) et qu’il faut donc procéder à une mitose, c’est à dire à séparer les sousorganisations. Nous proposons dans le chapitre 8 suivant, un algorithme permettant de dé- tecter dynamiquement les centroïdes d’un graphe à l’aide d’un algorithme fourmis. 118C 8 D   8.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 8.2 Centralité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 8.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 120 8.2.2 Centres et centroïdes . . . . . . . . . . . . . . . . . . . . . 121 8.3 Des fourmis et des centroïdes . . . . . . . . . . . . . . . . . . . . . 122 8.4 Application aux organisations . . . . . . . . . . . . . . . . . . . . . 125 8.5 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 8.5.1 Condition d’arrêt . . . . . . . . . . . . . . . . . . . . . . . 128 8.5.2 Comparaison des résultats . . . . . . . . . . . . . . . . . . 128 8.5.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 129 8.1 Présentation Dans le chapitre 7 précédent, nous exposions une approche dont le but est de permettre d’améliorer la robustesse du système en détectant les organisations qui seraient composées de l’agrégation de plusieurs sous-organisations, ce qui fragiliserait l’ensemble. Cette technique repose sur la détection de points d’équilibre, les centroïdes, à l’intérieur de l’organisation, qui nécessite par conséquent une mesure qui nous permette d’évaluer la centralité des nœuds. Nous avons présenté dans la partie 3.1.5 une description de la notion de centralité dans un graphe. Il s’agit de mesurer l’importance des nœuds dans le graphe, en considérant par 119. D   exemple la diffusion d’information : plus un nœud est un point de passage obligé pour l’acheminement d’une information entre deux nœuds, plus sa centralité sera importante. Nous avons présenté plusieurs mesures afin d’illustrer cette notion, qui était basées sur le degré, les plus court chemins, ou sur le voisinage. La plupart de ces méthodes nécessitent des considérer le graphe d’une manière globale, que ce soit au travers du calcul de l’ensemble des plus courts chemins, ou par la construction de la matrice d’adjacence du graphe. Seul une mesure se basant sur le degré peut permettre une approche locale. Cependant, la structure d’une organisation peut être complexe et ne pas reposer que sur le degré de ses membres. Nous avons donc besoin d’étendre la portée des connaissances que nous avons des nœuds, sans entrer dans une approche globale. La considération d’une connaissance globale du graphe impliquerait une remise en question permanente de la validité de cette connaissance du fait de la dynamique de ce graphe. Ceci explique notre motivation pour proposer une nouvelle approche permettant de ne pas nécessiter de connaissances globales du graphe, de tenir compte du voisinage, et d’être capable de s’adapter à la dynamique du graphe. Nous proposons donc, dans ce qui suit, une approche fourmis du calcul de la centralité, plus particulièrement de la recherche des centroïdes d’un graphe. 8.2 Centralité Nous complétons ici l’état de l’art, que nous avons vu sur la centralité dans la partie 3.1.5, en développant les concepts de centre et de centroïde. Nous commençons tout d’abord par définir les notions nécessaires avant de décrire en détails les notions qui nous intéressent. 8.2.1 Définitions Distance entre deux nœuds La distance séparant deux nœuds a et b correspond au nombre d’arcs composant le plus court chemin entre a et b. Elle est notée d(a,b). Excentricité L’excentricité d’un nœud v est la distance maximale existant entre v et n’importe quel autre nœud du graphe [Frank H 1969]. Cette mesure, décrite dans l’équation 8.1, est notée e(v). e(v) = max x∈V (G) (d(v,x)) (8.1) 1208.2. Centralité Distance d’un nœud La distance d’un nœud v, notée d(v), est la somme des distances entre v et les autres nœuds du graphe, telle que définie dans l’équation 8.2. d(v) = ∑ x∈V (G) d(v,x) (8.2) 8.2.2 Centres et centroïdes Le terme centroïde est utilisé dans plusieurs domaines scientifiques tels que la géométrie ou la physique. Il est aussi utilisé dans les sciences humaines pour agréger, par exemple, un ensemble de points dans l’espace. Le centroïde d’un objet est son barycentre ou son centre géométrique. Dans le cas d’un objet pondéré dont la densité est uniforme , le centroïde sera alors le centre de masse. Le centroïde évoque l’idée d’un point d’équilibre de l’objet. Les centres et centroïdes font l’objet de nombreux travaux dans la littérature. De C. J-  donnant une preuve de leur existence dans chaque arbre [J 1869] à P.J. S généralisant leurs définitions [S 1978], en passant par des parties traitant de ce concept dans les livres sur la théorie des graphes [O 1962 ; Frank H 1969]. Dans ce qui suit, nous allons décrire le concept de centroïde appliqué aux graphes en commençant par définir les notations qui sont utilisées. G désigne un graphe connexe dont V (G) est l’ensemble de ses sommets et E(G) l’ensemble de ses arcs. T désigne un arbre, c’est à dire un graphe dépourvu de cycle. op(e,u), avec e = (u, v) un arc, désigne le nœud v qui est l’opposé de u par rapport à l’arc e. Définition formelle Les concepts de centres et centroïdes ont d’abord été définis pour les arbres [J 1869 ; O 1962 ; Frank H 1969] puis étendus aux graphes. D’après [Frank H 1969], un nœud c0 est considéré comme un point central ou centre de G si son excentricité e(c0) est minimale pour G, cf. équation 8.3. e(c0) = min v∈V (G) (d(v)) (8.3) Le centre de gravité d’un graphe G est un ensemble de nœuds v qui minimise la fonction m() décrite dans l’équation 8.4. Le centre de masse d’un arbre T est un nœud dont le poids est minimal. m(v) = 1 |V (G)| ∑ x∈V (G) d(v,x) 2 (8.4) [Frank H 1969] définit le centroïde d’un graphe comme un ensemble de nœuds appelés points du centroide. Dans [T 1985], le centroïde est considéré comme 121. D   . 17 14 15 22 12 15 18 19 12 F 8.1 : Distances des nœuds. La structure en gras représente le sous-graphe induit par les nœuds dont la distance est minimale, ce qui correspond au centroïde de ce graphe. étant le sous-graphe induit par les points du centroïde, c’est à dire le sous-graphe H de G tel que V (H) soit l’ensemble de points du centroïde et E(H) = {(u, v) | (u, v) ∈ E(G); u, v ∈ V (H)} Il existe dans la littérature plusieurs façons de caractériser les points du centroïde. Dans [Frank H 1969], les points d’un arbre T sont définis comme étant les nœuds dont le poids est minimal, i.e. les centres de masse de T . Dans le cas d’un graphe connexe et nondirigé, [S 1978] définit les points du centroïde comme étant les nœuds dont la distance est minimale, cf. figure 8.1. Enfin, d’une manière plus générale, P.J. S définit le k-centrum d’un graphe G [S-  1978] qui permet de lier les définitions de centre et centroïde. On note rk (v) la somme des k plus grandes distances entre un nœud v est les autres nœuds du graphe tel que défi- nit dans l’équation 8.5. L’ensemble des nœuds minimisant rk est appelé le k −cent r um de G et est noté C(G;k). Si k = 1, alors r1(v) correspond à l’eccentricité de v, par conséquent C(G; 1) est le centre de G. Si k = n avec n = |V (G)|, alors rn(v) est la distance de v etC(G;n) le centroïde de G. rk (v) = max S⊆V (G);|S|=k { ∑ s∈S d(v,s) } (8.5) 8.3 Des fourmis et des centroïdes L’algorithme 5 vu précédemment pour le calcul du centroïde permet de fournir le centroïde exact du graphe mais possède cependant quelques particularités qui font que cet algorithme est difficilement adaptable aux graphes dynamiques, alors qu’il s’agit du contexte dans lequel nous nous plaçons : 1228.3. Des fourmis et des centroïdes Algorithme 5 : Calcul classique du centroïde Data : - G, le graphe, E(G) l’ensemble des arcs - A, ensemble de fourmis 1 begin 2 centroide = [] ; 3 min = +∞ ; 4 forall the node n ∈ V (G) do 5 d = ∑ u∈V (G)/{n} d(n,u); 6 if d < min then 7 centroide = [n] ; 8 min = d ; 9 end 10 else if d = min then 11 centroide.ajouter(n) ; 12 end 13 return centroide ; 14 end 15 end 1. la complexité en O(|V | 3 ) [F 1962], qui peut toutefois être réduite à O(|V | ×|E| + |V | 2 log|V |) [D. B. J 1977], due à la nécessité de calculer l’ensemble des plus courts chemins du graphe ; 2. il ne permet pas d’adapter une solution précédemment calculée aux changements survenus dans le graphe ; 3. il est nécessaire d’avoir une connaissance globale du graphe. . Nous nous intéressons donc à définir une heuristique qui nous permettra de trouver une solution approchée du centroïde d’un graphe en utilisant uniquement des informations locales. Il s’agit d’un algorithme fourmis [D, M et C 1996] dans lequel une colonie de fourmis explore le graphe, en utilisant la stigmergie comme moyen de communication au travers de phéromones qui sont déposées sur chaque arc traversé. L’idée générale de cet algorithme est que chaque nœud possède une masse que les fourmis peuvent déplacer par fragment vers d’autres nœuds. Le but final est d’augmenter la masse des nœuds du centroïde en réduisant de plus en plus la masse de ceux qui s’en éloignent. Une fourmi a est composée des attributs suivants : — posa, correspond au nœud sur lequel la fourmi se situe actuellement ; — phnmax (a) et massmax (a) qui seront décrit dans la suite ; — tmassa, la masse transportée par a ; 123. D   — une liste tabou de nœuds correspondant aux positions précédentes de a, qui est utilisée afin d’éviter un retour en arrière. Pour chaque arête e, la mesure phe(e) correspond au taux de phéromone actuel de e. On peut ensuite définir, pour chaque nœud n, un taux de phéromone phn(n) qui est la somme des phe(ei) où les ei correspondent aux arêtes adjacentes à n. Nous utilisons dans la suite la taux de phéromone des nœuds plutôt que celui des arêtes afin de prendre en compte le passage des fourmis sur les nœuds et non sur les arêtes. Les phéromones s’évaporent à chaque étape de l’algorithme suivant un facteur ρ ∈ [0; 1]. Si phei(e) correspond au taux de phéromones de e au temps i alors nous avons : phei+1(e) = phei(e)×ρ,∀e ∈ E(G) Les attributs phnmax (a) et massmax (a) représente respectivement le taux de phéromones maximal et la masse maximale que la fourmi a a rencontré durant son exploration du graphe. Afin de maintenir ces attributs à une valeur représentative, on utilise le même principe d’évaporation que pour les phéromones : les valeurs décroissent au fur et à mesure ce qui permet de les adapter aux changements qui surviennent dans le graphe. Les valeurs de ces attributs sont mis à jour au début du cycle d’une fourmi en considérant les arêtes adjacentes à la position actuelle de la fourmi, ainsi que leur extrémité opposée. À chaque étape de l’algorithme, chaque fourmi doit choisir une arête adjacente à sa position actuelle qu’elle devra alors traverser. La distribution de probabilité P permettant de définir la probabilité p(ei) de chaque arête ei = (posa, v) d’être choisie est basée sur le taux de phéromone phn(v) ainsi que sur une fonction ηa(ei), définie par l’équation 8.6, qui permet de prendre en compte la masse du nœud se trouvant à l’autre extrémité de l’arête. L’expression de p(ei) est donnée par l’équation 8.7. L’importance du taux de phéromone par rapport à la masse peut être contrôlée à l’aide du paramètre α. La fonction ηa(e) retourne une valeur comprise entre λ ∈ [0,1[ et 1. Le paramètre λ permet de définir un seuil minimal et ainsi permettre de continuer l’exploration de nœuds dont la masse est faible voire nulle. On utilise l’opérateur op pour désigner l’extrémité opposé d’une arête. Ainsi, si e = (u, v) alors e opu = v et e opv = u. ηa(e) = λ+(1−λ)× mass(op(e,posa)) massmax (a) (8.6) p(e) = phn(e opposa))α ×ηa(e) (8.7) La seconde partie du comportement d’une fourmi est sa capacité à prélever une partie de la masse d’un nœud afin de la répartir sur d’autres nœuds. Chaque fourmi a possède un attribut tmassa qui correspond à la masse qui est actuellement transportée par a. Si cette masse est nulle, la fourmi tente de prélever une quantité de masse q de sa position courante comprise entre les paramètres tmassmin et tmassmax . Dans le cas contraire, la fourmi 1248.4. Application aux organisations dépose une partie de la masse qu’elle transporte sur sa position actuelle n, cette quantité étant définie par la fonction d r op(a,n) dans l’équation 8.8. d r op(a,n) = tmassa × phn(n) phnmax (a) (8.8) L’étape d’une fourmi est décrite dans l’algorithme 7 tandis que l’algorithme 6 présente l’exécution globale de l’algorithme fourmi. Algorithme 6 : Algorithme général Data : - G, le graphe, E(G) l’ensemble des arêtes - A, ensemble de fourmis 1 begin 2 repeat 3 forall the arête e ∈ E(G) do 4 phe(e) ← phe(e)×ρ ; 5 end 6 forall the fourmi a ∈ A do 7 exécuter l’algorithme 7 sur a ; 8 end 9 until condition d’arrêt soit atteinte ; 10 end 8.4 Application aux organisations Les organisations dans un graphe dynamique G telles que nous les avons présentées dans 3.2.1 forment des sous-graphes de G et nous avons vu dans le chapitre 4 que le but de la dé- tection de ces organisations est de fournir une partition de l’ensemble des nœuds du graphe qui soit représentative de la cohésion qui existe entre ces nœuds. Dans le cas d’un graphe dynamique, on peut souhaiter que ces structures soient robustes avec un taux de renouvellement faible, c’est à dire que les éléments composant la structure varient peu au cours du temps. Les structures modélisant les organisations, fournies par l’algorithme de détection d’organisations, peuvent comporter des nœuds qui affaiblissent la robustesse de leurs organisation. C’est le cas de l’organisation présentée dans la figure 8.2 : la suppression d’un des éléments de la partie faible en orange déconnecte l’organisation. La détection des parties faibles des organisations pourrait permettre d’améliorer la détection de ces organisations en fournissant un résultat plus stable. La figure 8.3 montre comment augmenter la robustesse des organisations. 125. D   Algorithme 7 : Étape d’une fourmi Données : — a, la fourmi — transport, masse transportée par a — pos, position de a — mp, masse de pos 1 début 2 pour tous les arête ei adjacente à pos faire 3 calculer p(ei); 4 fin 5 construire la distribution de probabilité P à partir des p(ei); 6 choisir aléatoirement une arête e en fonction de P ; /* traverser l’arête choisie */ 7 pos ← op(e, pos) ; /* mettre à jour les valeurs maximales */ 8 pour tous les arête (pos, v) faire 9 phnmax (a) ← max(phnmax (a), phn(v)) ; 10 tmassmax (a) ← max(massmax (a), masse(v)) ; 11 fin 12 si transport = 0 alors 13 alea ← random(tmassmin, tmassmax ) ; 14 q ← min(alea, masse(pos)) ; 15 transport ← transport + q ; 16 prendreMasse(q) ; 17 sinon 18 q ← drop(a, pos) ; 19 transport ← transport- q ; 20 deposerMasse(q) ; 21 fin 22 fin . F 8.2 : une organisation comportant une partie faible (en orange). 1268.5. Résultats . (a) (b) (c) F 8.3 : (a) une organisation est fournie par un algorithme de détection d’organisations, (b) une partie faible est détectée, (c) l’organisation initiale est scindée en deux nouvelles organisations sans partie faible. . F 8.4 : Dans cet arbre de 50 nœuds, les fourmis ont détecté le centroïde optimal (repré- senté en orange sur la figure), c’est à dire le même centroïde que celui calculé par l’algorithme classique 8.5 Résultats Nous avons présenté dans [D, O et S 2011] des résultats obtenus à l’aide de cet algorithme. Nous avons comparé les résultats de notre algorithme fourmis avec les résultats obtenus en utilisant l’algorithme 5 classique du centroïde, le calcul des plus courts chemins se faisant grâce à l’algorithme de F-W. Le but est ici de vérifier que ce nouvel algorithme est capable de trouver une solution approchée du centroïde d’un graphe. La figure 8.4 par exemple, montre un graphe dans lequel les fourmis ont réussi à trouver le centroïde optimal. Les paramètres de l’algorithme sont donnés dans la table 8.5. 127. D   8.5.1 Condition d’arrêt Nous avons, dans un premier temps, comparé les résultats sur des graphes statiques. L’algorithme fourmis étant prévu pour être exécuté de manière continue, il est nécessaire de définir une condition d’arrêt afin de le stopper. Pour chaque nœud, nous définissons une mesure de stabilisation, décrite dans l’équation 8.9, qui nous permet de connaitre l’évolution de la masse d’un nœud. Cette mesure est normalisé entre 0 et 1, 0 signifiant que la masse du nœud évolue fortement, 1 que la masse est stable. Nous pouvons définir une mesure de stabilisation globale, décrite dans l’équation 8.10, qui est une moyenne de la mesure de stabilisation de l’ensemble des nœuds. La condition d’arrêt consiste à définir un seuil ϵ qui est la limite supérieure à atteindre pour la stabilisation globale afin d’arrêter l’algorithme. Pour ces expérimentations, ϵ est fixé à 0.99. d i f ft(n) = |masst−1(n)−masst(n)| masst(n) st abt(n ∈ V (G)) = min(1,1−d i f ft(n)) (8.9) st abt(G) = ∑ n∈V (G) st abt(n) |V (G)| (8.10) 8.5.2 Comparaison des résultats Nous avons utilisé différents modèles de graphes statiques pour ces expériences : 1. des arbres construits à l’aide du modèle d’attachement préférentiel deB-A [B et A 1999] ; 2. des graphes construits à l’aide du modèle de D-M [D et M 2002] ; 3. des grilles à deux dimensions, pleines et avec des vides aléatoires. La comparaison des résultats se concentrent sur la différence entre les centroïdes calculés CA etCC ainsi que sur les temps d’exécution tA et tC , respectivement de l’algorithme fourmis et de l’algorithme classique. La différence ∆t entre tA et tC , est exprimé comme le gain que tA apporte par rapport à tC : ∆t = tA − tC tC La différence entre les centroïdes calculés repose sur deux points. D’une part la différence ∆s du nombre de nœuds contenus dans les centroïdes CA et CC : ∆s = |CA| −|CC | Et d’autre part, nous évaluons la différence Γ entre le contenu des centroïdes en mesurant pour chaque nœud v de CA\CC , les nœuds de CA qui ne sont pas dans CC , la plus courte 1288.5. Résultats T 8.1 : Résultats pour les arbres (modèle d’attachement préférentiel). Les mesures sont des moyennes sur 1000 itérations. xx symbolise la moyenne et σ la variance. nœuds 51 101 501 1001 arêtes 50 100 500 1000 ∆t -37.1% -84.2% -98.6% -99.0% σ(∆t) 38.03% 5.07% 0.51% 0.00% ∆s +0.5 +0.4 +0.5 +0.5 σ(∆s) 1.13 0.77 0.77 0.87 Γ 7.7% 6.7% 5.0% 4.0% σ(Γ) 8.6% 7.3% 5.2% 4.1% T 8.2 : Résultats pour les graphes sans échelle (modèle de D-M). Les mesures sont des moyennes sur 1000 itérations. xx symbolise la moyenne de la mesure xx et σ(xx) la variance. nœuds 53 103 503 1003 arêtes 103 203 1003 2003 t∆ -34.2% -79.1% -97.9% -99.0% σ(t∆) 19.84% 5.28% 0.30% 0.00% s∆ +1.5 +0.7 +0.6 +0.6 σ(s∆) 2.67 1.13 0.83 0.68 Γ 10.4% 6.2% 4.3% 3.7% σ(Γ) 9.4% 5.8% 3.8% 3.4% distance γ(v) entre v et le nœud deCC le plus proche, normalisée par le diamètre du graphe. Autrement dit : γ(v) = min u∈CC d(u, v) diam(G) Γ est alors la valeur moyenne de γ(v) pour v ∈CA : si cette mesure est nulle, alors les deux centroïdes sont confondus ; au contraire, plus la valeur augmente plus les centroïdes sont éloignés. 8.5.3 Conclusion Nous proposons une approche fourmis pour la recherche du centroïde d’un graphe. Il s’agit d’une marche aléatoire biaisée par le déplacement d’une masse virtuelle dans le graphe. Le but n’est pas ici de calculer le centroïde exact du graphe mais une valeur approchée qui puisse être calculée de manière décentralisée. L’objectif étant d’appliquer cet algorithme en complément d’une détection d’organisations elle-même utilisée pour la répartition de la 129. D   T 8.3 : Résultats pour les grilles. Les mesures sont des moyennes sur 1000 itérations. xx symbolise la moyenne de la mesure xx et σ(xx) la variance. nœuds 36 121 256 arêtes 60 220 480 t∆ -15.9% -89.3% -96.7% σ(t∆) 31.99% 2.48% 0.78% s∆ +2.9 +11.4 +13.3 σ(s∆) 3.51 6.83 9.69 Γ 17.4% 17.8% 13.8% σ(Γ) 4.7% 2.4% 1.8% T 8.4 : Résultats pour les grilles incomplètes. Les mesures sont des moyennes sur 1000 itérations. xx symbolise la moyenne de la mesure xx et σ(xx) la variance. nodes 22 93 214 edges 53 292 730 t∆ +197.8% -77.8% -94.4% σ(t∆) 122.77% 3.52% 0.88% s∆ +4.1 +9.2 +13.7 σ(s∆) 2.81 5.87 8.87 Γ 25.3% 19.4% 15.1% σ(Γ) 9.1% 5.2% 2.0% T 8.5 : Valeur des paramètres ϵ 0.99 λ 0.50 α 1.00 dépôt de phéromone 0.03 évaporation de phéromone ρ 0.86 1308.5. Résultats charge d’une simulation, la puissance de calcul requise doit être minimale afin de maximiser les ressources disponibles pour la simulation principale. Les résultats sur les graphes statiques nous permettent d’observer que l’algorithme fourmis est significativement plus rapide, dans les conditions de l’expérimentation, que l’algorithme classique ; le gain obtenu est d’autant plus important que le graphe est grand. Notons qu’il s’agit là de graphe statique ; dans le cas de graphes dynamiques, l’algorithme fourmis est capable d’adapter sa solution, alors que l’algorithme classique nécessite d’être recalculé entièrement. Concernant la qualité de la solution, la dégradation de la solution introduite par l’algorithme fourmis est faible en ce qui concerne les arbres et les graphes sans-échelle, les centroïdes calculés étant suffisamment proche pour que le résultat soit satisfaisant au vu de l’objectif recherché. Dans le cas des graphes dont la topologie est une grille (complète ou incomplète), l’algorithme fourmis fournit des résultats qui s’avèrent plus éloignés du résultat optimum. Cependant, cela est prévisible. En effet, l’heuristique repose sur l’hypothèse que le graphe est structuré, et que par conséquent, les fourmis vont pouvoir déplacer la masse vers les nœuds qui sont les plus à l’intérieur de la structure. Or, dans le cas de grille, la structure est absente, la partie locale du graphe dont une fourmi a connaissance est la même, peu importe la position de la fourmi dans le graphe (en dehors des bords de la grille). L’algorithme fourmis semble donc avoir un effet de bord qui est celui de nous permettre d’évaluer la force de la structuration à l’intérieur du graphe. Il s’agit bien sûr d’une hypothèse qui nécessite des investigations supplémentaires afin d’être vérifiée. 131C 9 O   9.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 9.2 Algorithmique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 9.2.1 Générateurs . . . . . . . . . . . . . . . . . . . . . . . . . 137 9.2.2 Métriques . . . . . . . . . . . . . . . . . . . . . . . . . . 138 9.2.3 Recherche de structures . . . . . . . . . . . . . . . . . . . 138 9.3 Exportation, importation et visualisation . . . . . . . . . . . . . . . 138 9.3.1 Formats de fichier . . . . . . . . . . . . . . . . . . . . . . 138 9.3.2 Visualisation . . . . . . . . . . . . . . . . . . . . . . . . . 141 9.3.3 Communications réseaux, inter-threads et inter-plateformes . 142 9.4 Comment l’utiliser . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 Comme nous l’avons vu dans ce qui précède, l’étude des écosystèmes computationnels nécessite un modèle, et celui de graphe semble être le plus approprié. Du fait que le temps dans lequel le système est plongé va jouer un rôle majeur dans l’émergence d’organisations, nous devons considérer des graphes dynamiques afin de tenir compte de l’évolution des diffé- rents éléments. Nous avons vu dans la partie 3.1.2 que la dynamique pouvait être modélisée de différentes façons : sous la forme d’une séquence, par un modèle agrégatif, ou encore sous la forme d’un flux d’événements. C’est sous cette dernière forme que nous avons choisi de manipuler la dynamique. À ce jour, peu d’outils sont disponibles pour nous permettre de manipuler ce type de dynamique, et aider ainsi les chercheurs et les développeurs dans la création d’algorithmes distribués dans le cadre de graphes dynamiques, permettant de me- 133. O   surer des propriétés de ces graphes ou encore d’en fournir une visualisation. Ceci explique notre motivation pour lancer le projet GS, une bibliothèque logicielle en JavaTM pour la manipulation de graphes dynamiques. Le but de GSn’est donc pas de remplacer les autres bibliothèques de graphes, déjà nombreuses en Java et d’autres langages, mais de fournir les éléments spécifiques à la manipulation de la dynamique, permettant ainsi une API facile d’utilisation pour la modé- lisation de l’évolution de réseaux d’interactions et des processus qui opèrent sur ou à l’intérieur des ces derniers. Dans ce but, GS propose un ensemble d’outils permettant l’importation et l’exportation de la dynamique des graphes dans de nombreux formats ainsi que sous la forme d’une connection entre une source d’entrée et une de sortie. Toutefois, ses fonctionnalités principales sont la génération de graphes dynamiques, la conception d’algorithmes, et le développement de simulations, des prototypes aux problèmes à grande échelle. Sa gestion du temps permet à GS de contrôler la dynamique du graphe, tandis que l’introduction de style dans la description des graphes permet d’élargir la manière de les visualiser, leur structure, leur dynamique ainsi que leurs propriétés. Enfin, sa flexibilité permet aux utilisateurs d’introduire de nouvelles métriques afin d’enrichir l’ensemble des mesures existantes. Le fonctionnement interne de GS repose sur un modèle événementiel qui forme le cœur de la bibliothèque et fournit une manière de décrire la dynamique du graphe. Nous allons décrire dans la prochaine section le modèle utilisé dans la bibliothèque. Nous exposons ensuite dans 9.2 une description de différents algorithmique contenus dans G- S, en particulier des générateurs de graphes dynamiques, des mesures, etc… Puis, nous décrivons dans 9.3 les composants permettant l’importation, l’exportation sous forme de fichier, ainsi que la visualisation de graphes. 9.1 Modèle Afin de manipuler la dynamique, GS ne modélise pas directement un graphe comme une structure de données mais comme un flux d’événements décrivant des modifi- cations du graphe. Ceci correspond au formalisme d’une dynamique par flux d’événements que nous avons vu dans la partie 3.1.2. Il existe un nombre limité d’événement : — ajout ou suppression de nœuds ; — ajout ou suppression d’arêtes ; — ajout, modification ou suppression de propriétés, les attributs, associées aux nœuds, arêtes ou au graphe lui-même ; — évolution de l’indice temporel. On peut classer ces événements en deux catégories principales. D’une part, les événements qui vont décrire une modification de la structure du graphe ; et d’autre part, les évé- nements décrivant une modification de l’état interne d’un élément par la modification de la valeur d’une propriété qui lui est attachée. On peut considérer la temporalité comme une propriété du graphe, l’évolution de l’indice temporel rentre donc dans la seconde catégorie. 1349.1. Modèle Ce flux d’événements décrit complètement le graphe et son évolution. Dans G- S, certains composants vont être capables de produire un tel flux, nous les appelons des sources. D’autres composants seront en mesure de consommer les événements, nous les appelons des puits. Le flux d’événements existe donc entre une source et plusieurs puits. Il est possible qu’un composant soit à la fois une source et un puits, nous les appelons des canaux. Actuellement, le temps dansGSest modélisé comme un simple nombre croissant qui peut être diffusé à n’importe quel moment dans le flux d’événements. Cela signifie qu’on considère que les événements qui surviennent entre deux diffusions de ce marqueur temporel apparaissent en même temps, bien qu’ils restent ordonnés dans le flux à l’aide d’un identifiant. Cependant, GS permet aussi de modéliser les nœuds, arêtes et graphes en tant qu’objets que l’on peut manipuler. Il s’agit d’objets tampons qui permettent de connaître l’état courant de l’élément. Suivant notre modèle événementiel, un graphe est un objet auquel est appliqué une séquence de mises à jour correspondant aux événements, de manière similaire à celle décrite dans [D et al. 2010]. La bibliothèque fournit les objets graphes comme des canaux. Ils sont capables de recevoir des événements, et donc d’adapter leur structure, faite d’objets nœuds et d’arêtes, qui reflète l’état du graphe au temps présent. Ces objets graphes sont aussi capables de produire un flux d’événements qui décrit toutes les modifications du graphe. En effet, les sources, puits et canaux peuvent eux-même être connectés en tant que graphe (une autre sorte de graphe, comme l’on peut le voir dans la figure 9.1), en suivant le concept d’observateur [V et al. 1995]. Ce concept est utilisé pour créer un flux d’événements entre une source (le sujet) et plusieurs puits (les observateurs). Par exemple, une application habituelle de ce concept consiste en une source de type fichier, qui lit les événements du graphe depuis un système de fichiers, connecté à un objet graphe qui maintient l’état courant du graphe en tant que structure de données que l’on peut explorer, et qui est lui-même connecté à une vue qui représente graphiquement l’état du graphe. Le réseau formé par les sources, canaux, et puits peut contenir des cycles. Par exemple, il est parfois nécessaire de connecter l’affichage sur le graphe affiché afin d’obtenir les coordonnées des nœuds, éventuellement modifiées par l’utilisateur, qui peuvent ensuite être utilisées par des algorithmes. Un tel réseau est donné en exemple dans la figure 9.1. Il existe plusieurs implantations de l’objet graphe, qui peuvent être utilisées en fonction des exigences : il faut choisir entre rapidité d’exécution, consommation de la mémoire, et temps d’accès aux éléments. Dans GS, les algorithmes peuvent opérer sur les objets graphes ou directement sur le flux d’événements. La bibliothèque fournit différents composants que nous dé- crivons dans ce qui suit. 135. O   . Canal le graphe Source fichier A Puits fichier B Canal proxy inter-threads Canal visualisation Canal agencement Canal un algorithme F 9.1 : Un exemple basique de réseau composé d’une source, de canaux, et d’un puits. Un fichier “A” est lu par une source afin de créer un graphe. On initialise une vue sur ce graphe dans un thread dédié aux graphismes. La vue communique avec le graphe au travers d’un proxy inter-threads. Elle utilise un algorithme d’agencement afin de positionner les nœuds. De plus, on exécute un algorithme sur le graphe qui répercute le fruit de son calcul directement dans le graphe. Enfin, le graphe, augmenté des données de l’algorithme, est stocké dans un fichier “B”. 1369.2. Algorithmique . F 9.2 : Un générateur de graphe dynamique basé sur le modèle des boids. 9.2 Algorithmique 9.2.1 Générateurs Les générateurs sont des sources particulières qui vont être capables de produire un flux d’événements à partir de rien, de manière algorithmique. La plupart des générateurs produisent un graphe en suivant un modèle donné, comme par exemple le modèle B- A [B et A 1999], celui de W-S [W et S 1998], ou encore celui de D-M [D et M 2002]. Mais il peut aussi s’agir de générateurs de graphes aléatoires, de grilles ou de tores, ou de graphes complètement connectés par exemple. Ils essayent, quand cela est possible, d’être dynamique, soit en permettant au graphe généré de grandir progressivement avec le temps, ou bien en reposant sur un modèle totalement dynamique qui permette l’ajout et/ou la suppression d’éléments. Nous avons par exemple adapté la simulation de boids (cf. annexe A) afin de l’utiliser comme un générateur (cf. la figure 9.2). Nous travaillons aussi sur des générateurs plus spécifiques. Par exemple, certains gé- nérateurs permettent de transformer un type de données spécifiques en tant que graphe, comme c’est le cas desshapefilesreprésentant des réseaux routiers. C’est aussi le cas d’un gé- 137. O   nérateur permettant de générer un sous-graphe du Web à partir de une ou plusieurs adresses qu’il va être capable de suivre. 9.2.2 Métriques Un autre type d’algorithmes que l’on peut exécuter sur un graphe dynamique est celui des mesures dynamiques. L’utilisateur a la possibilité de connecter une telle métrique sur un graphe, puis de suivre l’évolution des valeurs mesurées. Un exemple de ce type d’algorithmes est celui des composantes connexes qui permet de compter, à chaque pas de temps du graphe, le nombre de composantes connexes présentes. On trouvera aussi dans GS différentes mesures de centralité, en particulier la plupart des mesures exposées dans la partie 3.1.5 de ce manuscrit, comme la proximité, l’intermédiarité, ou encore le PageRank. Un algorithme de marche aléatoire est aussi disponible, permettant par exemple de mesurer la centralité par une approche stochastique (cf.la figure 9.3). La mesure de la modularité, ainsi que la mesure Surprise [A et M 2011], permettant toutes deux d’évaluer la qualité d’une partition d’un graphe, sont présentes dans la bibliothèque. De tels algorithmes essayent, quand cela est possible, d’éviter d’avoir à recalculer la solution entière de zéro mais au contraire d’adapter la solution précédente aux changements du graphes. 9.2.3 Recherche de structures Une dernière catégorie importante d’algorithmes que nous proposons dansGS concerne les algorithmes permettant de trouver des structures dans le graphe. Ces structures peuvent être des plus courts chemins comme c’est le cas des algorithmes D [D 1959], son extension A* [H, N et R 1968], mais aussi celui de B- F [F 1956 ; B 1956] ou encore F-W [F 1962 ; W 1962]. Il peut aussi s’agir d’arbres couvrant qui peuvent être calculé par l’intermédiaire de l’algorithme de P [P 1957] ou de K [K 1956]. 9.3 Exportation, importation et visualisation 9.3.1 Formats de fichier Nous essayons de permettre l’utilisation de la plupart des formats de fichier permettant l’enregistrement d’un graphe. Ainsi GS comprend le format GML [P 2011], Pajek [B et M 2004], GEXF le format du logiciel Gephi [G 2009], le format TLP du logiciel Tulip [T 2013], DOT celui de Graphviz [G 2013], mais encore NCol, LGL ou de simples listes d’arêtes par exemple. Dans la mesure du possible, ces formats sont disponibles à la fois en lecture, et en écriture. 1389.3. Exportation, importation et visualisation . F 9.3 : Résultat d’une marche aléatoire sur un graphe généré à l’aide de l’algorithme de D-M. Les couleurs indiquent la fréquence de passage des entités sur l’arête, plus la couleur tend vers la rouge, plus le passage est important. On peut interpréter ceci en terme de centralité : plus un nœud est connecté à des arêtes dont la fréquence est forte, plus sa centralité est élevée. 139. O   001 DGS004 002 exemple 0 0 003 004 cg ”propriété du graphe”=10 005 006 an ”A” 007 an ”B” label:”Je suis B” 008 an ”C” 009 010 ae ”AB” ”A” ”B” 011 ae ”BC” ”B” > ”C” 012 013 st 2.0 014 015 dn ”B” F 9.4 : Exemple de fichier DGS. On construit un graphe à trois nœuds A, B et C puis une première arête AB entre les nœuds A et B, et un arc BC de B à C. À l’étape de temps 2, on supprime le nœud B. DGS : Dynamic Graph Stream La plupart des formats présentés ci-dessus ne permettent pas de tenir compte de la dynamique. Le format GEXF propose une gestion cumulative mais aucun ne permet de voir la dynamique comme un flux d’événements. C’est pourquoi, afin de permettre un stockage complet de la dynamique, GS introduit son propre format nommé DGS [G-  2013]. Il s’agit d’un format texte, lisible par l’œil humain, dans lequel chaque ligne décrit un événement. Ce format permet de décrire l’ensemble des événements de modification de la structure et des attributs que nous avons vu précédemment. Il permet de stocker différents types de valeurs des attributs (chaînes de caractères, entiers, réels, couleurs) mais aussi des types complexes (tableaux, tables de hachage). La figure 9.4 présente un exemple de fichier DGS. Une sortie DGS peut être connectée sur un graphe au début d’une simulation et enregistrer ainsi l’ensemble des changements qui vont s’effectuer pour toute la durée de cette simulation. On peut ainsi, grâce à une entrée DGS qui lirait le fichier produit, rejouer la totalité de la simulation par la suite. Le DGS est un format où chaque ligne correspond à un événement du graphe. Le ficher commence par une entête composée de six caractères qui permet de définir la version utili- 1409.3. Exportation, importation et visualisation sée : “DGS004”. Une ligne décrivant un événement commence par deux caractères qui vont définir le type : an, cn, dn permettent respectivement d’ajouter, modifier, et supprimer un nœud. Ils sont directement suivis de l’identifiant du nœud concerné ; ae, ce, de permettent quant à eux d’effectuer les mêmes opérations sur les arêtes. “ae” est de plus suivi par les identifiants des extrémités de l’arête entre lesquels peut s’ajouter le caractère “>” ou “<” afin de préciser la direction de l’arête ; cg permet de modifier les attributs du graphe ; st permet de modifier l’indice temporel ; cl permet d’effacer le graphe. La modification des attributs des éléments grâce aux types cn, ce, cg s’effectue sous la forme “clef:valeur” ou “clef=valeur”. Les valeurs possibles sont des entiers, des réels, des chaînes de caractères, des couleurs, mais aussi des tableaux et des dictionnaires. Les tableaux sont entourés par les caractères “[” et “]”, tandis que les dictionnaires le sont par les caractères “{” et “}”. Les valeurs ou associations clef/valeur, de ces types complexes sont séparées par par le caractère “,”. L’indice temporel, défini par le type “st”, est actuellement donné sous la forme d’un réel. Dans les futurs versions, le format de l’indice pourra être personnalisé pour permettre par exemple l’utilisation de dates. 9.3.2 Visualisation La visualisation du graphe est une pièce importante d’une bibliothèque de graphe. Ivan H, Guy M et M. Scott M en présentent une vue d’ensemble dans [H, M et M 2000]. La dynamique liée au réseau d’interactions apporte ses propres contraintes, comme cela est présenté par exemple par S. B-M et D. A. MF dans [B-M et MF 2006]. GS fournit les outils de base pour permettre la visualisation d’un graphe. Ces outils sont composés d’un algorithme d’agencement des nœuds dans l’espace, d’une visionneuse, et d’un système de style qui permet de personnaliser l’affichage. Le style est inspiré des feuilles de style utilisées en HTML, le CSS . On peut alors définir le style du graphe, des nœuds et des arêtes. Il est aussi possible de personnaliser le style d’un élément en particulier via son identifiant, ou d’un groupe d’éléments à l’aide de classes. Certaines propriétés comme la couleur ou la taille des éléments peuvent être dynamique ce qui permet la visualisation de l’évolution de mesures associées aux éléments. La figure 9.5 présente un exemple exploitant la personnalisation de l’affichage. L’affichage permet les interactions entre l’utilisateur et le graphe, et peut ainsi communiquer les événements liés à l’interface graphique (clics de la souris, position des nœuds) à un algorithme ou une simulation tournant sur le graphe. Du fait que GS est une 1. Cascading Style Sheet 141. O   F 9.5 : Affichage avancé dans GS bibliothèque et non un programme final, l’affichage peut être inséré dans n’importe quelle application Java. 9.3.3 Communications réseaux, inter-threads et inter-plateformes La bibliothèque fournit un protocole réseau, nommé NetStream, qui va permettre la diffusion des événements entre des sockets. Il s’agit d’un format binaire optimisé pour réduire la quantité de données et ainsi augmenter les performances. Ce protocole permet de connecter une source et un puits situés sur différentes machines, ou encore de faire communiquer GS avec un programme écrit dans un langage différent. Il est possible, par exemple, d’héberger un graphe sur un serveur en utilisant GS et de créer un af- fichage dans le navigateur d’un client grâce à une implantation Javascript de NetStream. GS permet aussi de connecter une source et un puits qui sont exécutés dans des threads différents. On utilise pour cela un système de boite aux lettres qui sert d’intermédiaire entre les threads. Nous utilisons, par exemple, un canal inter-threads afin de permettre de séparer l’affichage du graphe du traitement qui s’effectue sur ce graphe. Ainsi la vue peut être exécutée de manière transparente dans son propre thread afin de décharger l’utilisateur de la gestion des mécanismes liés à la visualisation. Interactions avec NetLogo Tandis que le protocole NetStream permet d’utiliser GS avec des plateformes qui sont écrites dans un autre langage de programmation que le Java, il est tout à fait possible d’intégrer la bibliothèque directement dans des plateformes qui, comme NetLogo par exemple, sont écrites en Java. Nous avons mis au point une extension NetLogo qui permet de modéliser le réseau d’interactions, formés par les tortues, en un graphe. Cela nous permet d’exploiter l’ensemble de l’algorithmique disponible dans GS afin de l’appliquer dans NetLogo. Cela nous permet aussi de produire des graphes dynamiques à l’aide de simulations définies grâce au logiciel NetLogo qui est un outil développé dans ce but, et qui possède un large éventail d’exemples. 1429.4. Comment l’utiliser . Source Puits NetStream Réseau ou boucle locale Socket NetStream Traitement Processus 1 GraphStream Processus 2 Autre programme F 9.6 : Le protocole NetStream. Un programme GS est lancé dans lequel une source produit un graphe qui est envoyé à un puits NetStream. Un autre programme est lancé, éventuellement sur une machine différente. Ce programme inclut un socket qui se connecte au puits NetStream et qui va être capable d’interpréter le protocole et de traiter le graphe dynamique reçu. L’extensionGSpour NetLogo s’accompagne de la possibilité d’afficher le graphe créé par GS directement dans l’interface de NetLogo, comme présenté dans la fi- gure 9.7. 9.4 Comment l’utiliser GS est une bibliothèque gratuite et libre, free as in freedom. La bibliothèque est divisée en plusieurs modules, afin de s’adapter aux besoins des utilisateurs. Le cœur de GSconstitue le module principal gs-core qui se veut minimal tout en permettant de manipuler un graphe dynamique, de lire la plupart des formats de fichier, et de fournir un affichage minimal. Les algorithmes sont contenus dans un module gs-algo, en dehors de certains algorithmes qui disposent de leur propre module, comme c’est le cas de AntCo2 . Un affichage offrant plus de fonctionnalités est également disponible dans un module gs-ui. D’autres modules spécifiques sont aussi disponibles, par exemple un projet permettant de modéliser les réseaux routiers comme c’est le cas dans la figure 9.8, qui présente une figure extraite de [N et al. 2009] présentant une marche aléatoire dans un graphe modélisant le réseau routier du Havre. 143. O   F 9.7 : Intégration de GS dans NetLogo 144Références . . . . . . F 9.8 : Le réseau routier du Havre et de ses environs modélisé en tant que graphe par GS. On applique sur ce graphe une marche aléatoire « temporisée » c’est à dire que les entités qui l’utilisent vont à la vitesse maximale autorisée sur les arcs. Les entités possèdent, de plus, une mémoire des arcs traversés (la taille de la mémoire est fixée à 40 pour cet exemple) qui agit comme une liste d’arcs tabous qui ne peuvent être utilisés qu’en dernier recours. Les différents modules peuvent être téléchargés depuis le site web de GS, http://graphstream-project.org, qui procure aussi une documentation complète, ainsi que la documentation de l’API et de nombreux tutoriels. Ils sont aussi disponibles dans le ré- pertoire central de Maven, pour les projets utilisant cette méthode de production. Enfin, les sources et les versions en cours de développement sont hébergées et disponibles sur Github, https://github.com/graphstream. Références A, Rodrigo et Ignacio M (2011). “Deciphering network community structure by surprise”. In : PloS one 6 (9), e24195.  : 1932-6203. B, Albert-László et Réka A (1999). “Emergence of Scaling in Random Networks”. In : Science 286 (5439), p. 509–512. : 10.1126/science.286.5439.509.  : http://www.sciencemag.org/content/286/5439/509.abstract. B, Vladimir et Andrej M (2004). Pajek—analysis and visualization of large networks. Springer.  : 3642622143. 145. O   B, Richard (1956). On a routing problem. DTIC Document. B-M, Skye et Daniel A MF (2006). “The art and science of dynamic network visualization”. In : Journal of Social Structure 7 (2), p. 1–38. D, Camil et al. (2010). “Dynamic graph algorithms”. In : Algorithms and theory of computation handbook. Chapman & Hall/CRC, p. 9–9.  : 1584888229. D, E. W. (1959). “A note on two problems in connexion with graphs”. In : Numerische Mathematik 1, p. 269–271. D, S. N. et J. F. F. M (2002). “Evolution of networks”. In : Adv. Phys, p. 1079–1187. F, Robert W. (1962). “Algorithm 97 : Shortest Path”. In : Communications of the ACM 5 (6), p. 345. F, Lester Randolph (1956). Network Flow Theory. G (2009). GEXF File Format.  : http://gexf.net/format/ (visité le 04/11/2013). G (2013). GraphStream - The DGS File Format.  : http://graphstreamproject.org/doc/Advanced- Concepts/The- DGS- File- Format_1.1/ (visité le 04/11/2013). G (2013). The DOT Language | Graphviz - Graph Visualization Software.  : http: //www.graphviz.org/content/dot-language (visité le 04/11/2013). H, Peter E, Nils J N et Bertram R (1968). “A formal basis for the heuristic determination of minimum cost paths”. In : Systems Science and Cybernetics, IEEE Transactions on 4 (2), p. 100–107.  : 0536-1567. H, Ivan, Guy M et M. Scott M (2000). “Graph visualization and navigation in information visualization : A survey”. In : Visualization and Computer Graphics, IEEE Transactions on 6 (1), p. 24–43.  : 1077-2626. K, Joseph B (1956). “On the shortest spanning subtree of a graph and the traveling salesman problem”. In : Proceedings of the American Mathematical society 7 (1), p. 48– 50.  : 0002-9939. N, Michel et al. (2009). “Exploitation of a displacement survey to detect road network use vulnerability”. In : ICCSA 2009 Conference Proceedings Special Sessions, p. 151– 155. P, Universität (2011). Graph Modelling Language. Projects.  : http://www.fim. uni-passau.de/en/fim/faculty/chairs/theoretische-informatik/projects. html (visité le 11/03/2013). P, Robert Clay (1957). “Shortest connection networks and some generalizations”. In : Bell system technical journal 36 (6), p. 1389–1401. T (2013). Tulip software graph format (TLP) | Tulip.  : http://tulip.labri.fr/ TulipDrupal/?q=tlp-file-format (visité le 04/11/2013). V, John et al. (1995). “Design patterns : Elements of reusable object-oriented software”. In : Reading : Addison-Wesley 49, p. 120. W, Stephen (1962). “A theorem on boolean matrices”. In : Journal of the ACM (JACM) 9 (1), p. 11–12.  : 0004-5411. 146Références W, Duncan J et Steven HS (1998). “Collective dynamics of ‘small-world’networks”. In : nature 393 (6684), p. 440–442.  : 0028-0836. 147Quatrième partie Distribution 149C 10 R   10.1 Vue d’ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 10.1.1 Pourquoi une répartition dynamique ? . . . . . . . . . . . . 152 10.1.2 Organisations et répartition . . . . . . . . . . . . . . . . . 153 10.1.3 Répartition dynamique . . . . . . . . . . . . . . . . . . . . 153 10.1.4 Qui répartit le répartiteur ? . . . . . . . . . . . . . . . . . . 153 10.2 AntCo2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 10.2.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . 155 10.2.2 Extraction des organisations . . . . . . . . . . . . . . . . . 159 10.2.3 Lissage . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 10.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 10.3.1 Description des simulations . . . . . . . . . . . . . . . . . 163 10.3.2 Méthodes existantes . . . . . . . . . . . . . . . . . . . . . 163 10.3.3 Intégration du nombre de migrations . . . . . . . . . . . . . 169 10.3.4 Synthèse générale sur les résultats . . . . . . . . . . . . . . 177 Dans ce qui précède, nous avons vu comment modéliser un système distribué dont le but est la simulation de systèmes complexes. Nous allons maintenant nous intéresser à la distribution de ce système qui repose sur deux points principaux. Nous présentons dans un premier temps notre contribution à la répartition de charges, telle que nous l’avons définie dans le chapitre 4, et qui permet de repartir les différentes entités sur les ressources de calcul disponible de façon à équilibrer la charge de ces ressources. Ensuite dans le chapitre suivant, nous nous focalisons sur notre apport à la couche logicielle, nommée intergiciel, permettant au système de s’abstraire de la partie distribution. 151. R   10.1 Vue d’ensemble La répartition de charges est une technique intervenant dans différents domaines et permettant de manière générale de répartir des tâches sur un ensemble de ressources capables de les effectuer, et cela de manière à exploiter au mieux les ressources. La répartition de charges peut par exemple être utilisée devant un site web pour diriger les requêtes HTTP vers différents serveurs afin d’exploiter la puissance de plusieurs serveurs et ainsi assurer une meilleure qualité de service pour les utilisateurs. Bien que dans notre cas, la répartition de charges consiste à répartir des entités plutôt que des requêtes http, le rôle d’un algorithme de répartition de charges reste d’équilibrer la charge de calcul d’un ensemble de machines disponibles. Du fait que ces entités interagissent, elles produisent des communications entre les machines qui peuvent surcharger le réseau. C’est pourquoi nous cherchons dans nos travaux, en complément d’une répartition équilibrée de la charge calcul, à optimiser la charge réseau. Pour cela, nous réduisons les communications distantes, que nous appelons aussi communications effectives et qui correspondent aux interactions entre des entités situées sur des machines différentes, en privilégiant au contraire les communications locales, lorsque les entités impliquées dans l’interaction se trouvent sur la même machine. 10.1.1 Pourquoi une répartition dynamique ? Nous avons vu dans le chapitre 4 un état de l’art sur la répartition de charges statique et dynamique. Dans le cadre de nos travaux, une répartition statique implique de calculer une solution de répartition pour le graphe d’interaction à un temps t. Nous pouvons ensuite conserver cette solution tout au long de la distribution ou en calculer une nouvelle à partir de zéro lorsque des conditions qui restent à définir sont remplies (délai, événement déclencheur, etc…). Si la première solution statique est adaptée à un système dont l’ensemble des entités est lui aussi statique et où l’on ne cherche pas à minimiser la charge réseau, il devient impossible de l’envisager dans notre contexte. Tout d’abord parce que les nouvelles entités qui vont apparaître au cours de la distribution, n’étant pas présentes au calcul de la solution de répartition, n’auront pas de ressource de calcul attribuée. Ces entités ainsi que celles qui vont disparaître vont participer à déséquilibrer la charge de calcul au fur et à mesure. Au niveau de la charge réseau, si dans le meilleur des cas le répartiteur prend en compte les interactions au moment du calcul, il va considérer le système au tout début de son évolution, là où les interactions ne l’ont pas encore structuré. Recalculer une nouvelle solution depuis le début implique un coût de calcul supplémentaire et il est donc nécessaire de jouer entre la fréquence du calcul et la validité de la solution de répartition : plus le calcul sera fréquent, meilleure sera la solution, mais plus importante sera la charge de calcul dédiée uniquement à la répartition. Une répartition statique, outre le fait qu’elle ne permet pas de prendre en compte la dynamique des entités autrement que par un nouveau calcul, ne permet pas non plus de 15210.1. Vue d’ensemble prendre en compte la dynamique des machines. 10.1.2 Organisations et répartition Dans notre contexte, les entités du système interagissent permettant l’émergence d’autoorganisation. La quantité d’interactions entre les membres d’une même organisation étant plus importante que celle entre les membres d’organisations différentes, il devient possible, pour peu que l’on soit capable de détecter ces organisations, de répartir les dites organisations sur l’ensemble des machines de façon à ce que les membres d’une même organisation soient placés sur une même machine. On obtient ainsi une répartition de la majeure partie des communications sur les machines, tandis que la part des communications entre machines, c’est à dire des communications entre les organisations, est faible. 10.1.3 Répartition dynamique La nature du système que nous distribuons implique que l’algorithme de répartition de charges soit en mesure de prendre en compte la dynamique et soit capable de s’adapter aux perturbations induites par l’ouverture du système. La prise en compte de la dynamique va au delà d’un nouveau calcul d’une solution de répartition lorsqu’une modification significative est détectée. Du fait que l’on cherche à optimiser la charge de calcul, il ne faut pas que la charge dédiée au répartiteur de charges soit supérieure au gain apporté, et doit donc être minimisée. Une caractéristique importante de l’algorithme de répartition est donc d’avoir la capacité de mettre à jour une solution existante afin de ne pas avoir à recalculer une solution à partir du début. 10.1.4 Qui répartit le répartiteur ? La localisation du répartiteur de charges dans le système distribué est un problème qui s’impose aussi à nous. Dans [D, O et S 2010b], nous présentions trois scénarios envisageables concernant les différentes localisations possibles, résumés dans la figure 10.1. La première solution consiste à centraliser la réification du graphe dynamique modélisant la totalité de l’application sur une machine dédiée et d’exécuter le répartiteur de charges sur ce graphe. Les notifications de migrations des entités sont ensuite envoyées aux machines correspondantes. Cette solution possède plusieurs désavantages. Tout d’abord, elle ne tolère pas les pannes : si une panne se produit sur la machine dédiée au calcul de la répartition, cela désactive entièrement le calcul sur la totalité de l’application distribuée. De plus, la mise à jour du graphe et l’envoi des notifications de migration tendent à augmenter la charge du ré- seau. Enfin, cette solution, dans notre contexte, abouti à un non-sens : nous considérons en effet une forte dynamique, autant au niveau de l’application que des machines permettant la distribution ; or cette solution implique de rendre une partie des machines, la partie centrale dédiée à la répartition, statique. 153. R   . (a) (b) (c) . machines répartiteur de charges F 10.1 : Différents scénarios d’utilisation du répartiteur de charges : (a) une machine dédiée, (b) un ensemble de machines dédiées, (c) chaque machine participe à la répartition La seconde solution est similaire à la précédente : la réification du graphe est toujours centralisée mais cette fois-ci sur un ensemble de machines, chaque machine hébergeant une partie du graphe. Cette solution permet de tolérer des pannes qui surviendraient sur des machines dédiées au calcul de la répartition mais implique à nouveau une augmentation de la charge du réseau. La dernière solution consiste à inclure une instance du répartiteur de charges sur chacune des machines. Chacune de ces instances travaille sur la partie locale du graphe modé- lisant l’exécution de l’application distribuée, c’est à dire le sous-graphe composé des entités s’exécutant sur la machine courante. Les instances partageant des interactions entre entités s’échangent des informations afin de maintenir un graphe global décentralisé qui soit cohé- rent. Cette solution apporte plusieurs avantages : 1. la solution devient intégralement tolérante aux pannes des machines : de par la vision locale que chaque instance a du graphe, une panne survenant sur une machine n’a pas de répercutions sur le reste des machines ; 2. contrairement aux deux premières solutions, seules les informations concernant les intersections entre les différents sous-graphes sont échangées au travers du réseau. De plus, les échanges d’informations se font de façon pair à pair ce qui permet de mieux répartir ces échanges sur le réseau. Dans ce dernier scénario, la charge de calcul de chaque instance du répartiteur est dé- pendante de la quantité d’entités hébergées sur la machine. Si les entités sont réparties de manière équilibrée sur l’ensemble des machines, alors la charge de calcul dédiée au répartiteur est elle aussi répartie de manière équilibrée ! On peut alors dire d’un tel répartiteur de charge qu’il est auto-réparti. Ces différents scénarios ne sont malheureusement pas possibles pour n’importe quel algorithme de répartition de charges du fait que l’algorithme doit lui même être distribuable pour les deux derniers scénarios. Le premier scénario est difficilement envisageable dans notre contexte du fait que nous avons comme contrainte un nombre d’entités considéré comme trop important pour qu’une 15410.2. AntCo2 structure de données dont la taille serait proportionnelle à ce nombre d’entités puisse être utilisée. Or il est peu probable qu’une telle structure ne soit pas nécessaire lorsque le répartiteur ne fonctionne que sur une machine. 10.2 AntCo2 Afin de répondre aux problèmes liés à la dynamique, Antoine D propose dans sa thèse [D 2005] un algorithme nommé AntCo2 permettant la détection d’organisations dans un graphe dynamique. Cet algorithme repose sur des colonies de fourmis dont les mé- canismes de rétroaction positive et de rétroaction négative vont permettre à l’algorithme de s’adapter à la dynamique. Nous allons voir dans un premier temps le fonctionnement de cet algorithme, puis nous verrons un problème lié à l’oscillation éventuelle de la solution qui aboutit à un surplus de migrations des entités. Pour terminer, nous développerons une contribution permettant de lisser le résultat fourni par AntCo2 afin de limiter l’oscillation. 10.2.1 Présentation L’idée principale sur laquelle repose AntCo2 consiste à utiliser la structure du réseau d’interaction sous-jacent à la simulation, les organisations, pour mieux distribuer les entités qui la composent sur les ressources de calcul à disposition. Le rôle d’AntCo2 consiste à détecter ces organisations au sein du réseau d’interaction, représenté par un graphe dynamique. L’algorithme cherche alors à placer, si possible, les entités d’une même organisation sur la même ressource de calcul. L’objectif est de minimiser les coûts de communication entre entités fortement liées par leur liens préférentiels d’interaction, en distribuant la charge de calcul par organisation sur les ressources disponibles. Cependant, la détection d’organisation dans un graphe dynamique pose, comme nous l’avons vu, le problème du maintien de ces organisations à travers les changements du graphe. Si une approche naïve consiste à recalculer les organisations à chaque changement signifi- catif dans le graphe, cette approche, outre la charge considérable de calcul générée évoquée plus haut (cf. 10.1.3), pose la question importante de la mise en concordance des organisations détectées entre deux étapes. AntCo2 est un algorithme dynamique capable de recycler les calculs des étapes précédentes pour s’adapter à ces changements. Il est similaire en cela aux algorithmes de ré-optimisation. AntCo2 utilise des colonies de fourmis numériques pour détecter et suivre les organisations dans le graphe dynamique représentant le réseau d’interaction de la simulation. Les fourmis vont classifier les nœuds du graphe en les associant à une colonie de fourmis ou une autre. Chaque colonie représente une ressource de calcul et, pour les distinguer, est associée à une couleur. Les fourmis vont coloniser des parties du graphes pour se les approprier et ainsi indiquer sur quelle ressource de calcul les entités doivent s’exécuter. Chaque sousgraphe connexe dont les nœuds sont d’une même couleur forme alors une organisation au 155. R   sens de la répartition sur les ressources de calcul. Cependant chaque couleur peut éventuellement représenter plusieurs organisations. En effet le nombre d’organisations ne correspond pas au nombre de ressources de calcul. De plus, le nombre de fourmis de chaque colonie dépend de la puissance relative des ressources de calcul et peut donc capturer un nombre d’organisations petites ou grandes différent. Un algorithme fourmi est constitué d’un ensemble de fourmis qui vont parcourir un environnement, en l’occurrence le graphe dynamique, en déposant de l’information sur leur chemin, des phéromones numériques par analogie aux molécules chimiques déposées par les fourmis naturelles. Ces phéromones vont agir comme une boucle de rétroaction positive qui va permettre de renforcer un chemin ou une zone en particulier. L’homéostasie du système est possible grâce à un phénomène d’évaporation des phéromones qui permet d’une part d’éviter une sur-concentration de phéromones et d’autre part d’adapter la solution aux modifications de l’environnement. L’algorithme repose sur un mécanisme de collaboration ainsi qu’un mécanisme de compétition. La collaboration existe entre les fourmis d’une même colonie et permet aux fourmis de détecter une structure en étant attirées par les phéromones de la colonie dont elles font partie. Ceci est complété par la compétition qui se produit entre les colonies et qui se manifeste par une répulsion des fourmis envers les phéromones des autres colonies. Ce second mécanisme va permettre de maintenir une certaine pression sur la membrane des organisations détectées et de maintenir un nombre équilibré d’organisations par colonie. Nous allons maintenant décrire le fonctionnement de l’algorithme. Chaque fourmi traverse le graphe dynamique, passant de nœud en nœud en suivant les arêtes. À chaque passage sur une arête, les fourmis déposent une quantité de phéromones colorées spécifique à leur colonie, un indicateur que les autres fourmis pourront lire. Quand un nœud est entouré d’arêtes d’une couleur dominante, on dit que le nœud est conquis par la colonie de cette couleur. L’algorithme en déduit donc que l’entité représentée par ce nœud doit s’exé- cuter sur la ressource de calcul correspondante. Cette communication indirecte par le biais de phéromones est dite stigmergique (cf. 6.2.1). Lesfourmis choisissent la prochaine arête à traverser en utilisant un choix aléatoire biaisé. Elles ont tendance à favoriser les arêtes qui représentent un fort niveau d’interaction ainsi que celles ayant déjà une quantité importante de phéromones de leur couleur. Le premier critère permet de favoriser la colonisation de zones de forte interaction, les organisations. Le second permet aux fourmis, par rétroaction positive, de se regrouper sur une même zone au sein de ces organisations. Les phéromones s’évaporent à chaque étape de l’algorithme, en conséquence elles doivent être maintenues par le passage constant des fourmis. C’est ce mécanisme qui permet à la fois la colonisation des organisations par une colonie à l’exclusion des autres, et la gestion de la dynamique du graphe. En effet, Les nouvelles organisations seront colonisées en raison de leur forte interaction. Les organisations détectées seront entretenues par la forte interaction et une quantité importante de phéromones d’une couleur sur leurs arêtes. Les organisation qui disparaissent seront progressivement abandonnées par les fourmis en raison de plus faibles interactions et du mécanisme de rétroaction négative dû à l’évaporation des phé- 15610.2. AntCo2 romones non renouvelées. Ainsi les solutions de distribution déterminées par AntCo2 sont continuellement entretenues et évoluent en accord avec l’évolution du réseau d’interaction sous-jacent lui-même. La communication indirecte entre lesfourmis est aussi un atout pour la distribution même de l’algorithme. En effet les fourmis étant des processus indépendants utilisant les informations déposées dans leur environnement, elles sont implicitement distribuables. Ceci permet d’utiliser AntCo2 avec les scénarios b et c de distribution évoqués dans la figure 10.1, en particulier le scénario c qui implique une forme d’auto-répartition de l’algorithme d’AntCo2 lui-même (cf. 10.1.4). Le modèle de l’algorithme est le suivant. Nous considérons un grapheG(t) = (V(t),E(t),C(t)) représentant l’ensemble des entités à distribuer et leurs interactions. Le temps t permet de gérer la dynamique de l’ensemble de nœuds V(t), arêtes E(t) et couleurs C(t). Chaque couleur est une colonie et représente une ressource de calcul. Les arêtes sont pondérées par un poids w (t) indiquant l’importance de leur interaction au niveau de la simulation. À cette description, nous ajoutons une information de quantité de phéromones déposée par les fourmis sur les arêtes. Ainsi ces dernières contiennent un ensemble de messages déposés par les fourmis de chaque couleur : card(C(t)) messages au temps t. Ces messages représentent la quantité de phéromones de chaque couleur présente sur les arêtes au temps t. On note F(t) l’ensemble des fourmis au temps t, et Fc (t) l’ensemble des fourmis de couleur c au temps t. Une fourmi k de couleur c traversant une arête e entre les itérations t et t +1 dépose une quantité de phéromones de couleur c : ∆ (t) k (e,c) (10.1) La somme totale de phéromones de couleur c déposée sur l’arête e par toutes les fourmis de cette couleur entre t et t +1 est : ∆ (t) (e,c) = ∑ k∈Fc (t) ∆ (t) k (e,c) (10.2) Ainsi, la quantité totale de phéromones sur une arête, quelle que soit la couleur est : ∆ (t) (e) = ∑ c∈C(t) ∆ (t) (e,c) (10.3) Quand ∆ (t) (e) ̸= 0, la proportion de phéromones de la couleur c sur e par rapport aux autres couleurs entre les temps t et t +1 est : K (t) c (e) = ∆ (t) (e,c) ∆(t) (e) (10.4) avec K (t) c (e) ∈ [0,1]. 157. R   La quantité totale de phéromones de couleur c présente sur l’arête e entre les temps t et t +1 est : τ (t) (e,c) (10.5) et la quantité totale, en considérant toutes les couleurs est : τ (t) (e) (10.6) Au début, cette valeur est fixée à : τ (0)(e) = ϵ (10.7) Nous verrons par la suite que cette quantité ne peut être négative. Comme nous l’avons dit plus haut, les phéromones s’évaporent à chaque étape de l’algorithme. Ainsi, la quantité totale de phéromones de couleur c sur l’arête e au temps t est définie par la récurrence : τ (t) (e,c) = ρ ·τ (t−1)(e,c)+∆ (t−1)(e,c) (10.8) Où ρ ∈]0,1] est le facteur de persistance des phéromones (l’évaporation est 1−ρ). La couleur ξ (t) (u) d’un nœud u du graphe est ensuite définie par la couleur prédominante sur toutes ses arêtes adjacentes : ξ (t) (u) = arg max c∈C(t) ∑ e∈Eu(t) τ (t) (e,c) (10.9) avec Eu(t) l’ensemble des arêtes adjacentes au nœud u au temps t. Les fourmis utilisent le graphe G(t) comme environnement et le traversent en allant de nœud en nœud. Ainsi, à chaque pas de temps, chaque fourmi est associée à un nœud (qui peut donc accueillir plusieurs fourmis). À chaque étape, les fourmis traversent une arête. La quantité de phéromones perçue par une fourmi de couleur c est τ (t) (e,c), mais pondérée par la présence d’autres couleurs de phéromones sur l’arête. Grâce à ce mécanisme, les fourmis sont attirées par leur couleur et repoussées par les autres couleurs. On utilise un facteur K (t) c (e) pour définir les phéromones perçues sur une arête e par une fourmi de couleur c : Ω (t) (e,c) = K (t) c (e)τ (t) (e,c) (10.10) Ainsi à chaque étape de temps, une fourmi k de couleur c sur un nœud u choisit de traverser une arête ou une autre en fonction des phéromones de sa couleur et des autres couleurs sur cette arête. Nous notons p (t) (e,c) la probabilité que cette fourmi traverse l’arête e = (u, v) entre t et t +1 :    p (t) (e,c) = w (0) ∑ (e) ei ∈Eu(t) w (0)(ei) if t = 0 p (t) (e,c) = ( Ω (t) (e,c) )α · ( w (t) (e) )β ∑ ei ∈Eu(t) ( Ω (t) (ei ,c) )α · ( w (t) (ei) )β if t ̸= 0 (10.11) 15810.2. AntCo2 où les paramètres α et β (tous deux > 0), comme dans l’article original de D [D, M et C 1996], permettent de modifier l’importance relative des phéromones par rapport au poids des arêtes, et où Eu(t) est l’ensemble des arêtes adjacentes au nœud u. Afin d’éviter les mouvements oscillatoires dans lesquels les fourmis vont et viennent entre les deux mêmes nœuds u et v, nous introduisons dans chaque fourmi une mémoire des derniers nœuds visités. Cela est très comparable à une liste tabou d’une taille donnée. Nous introduisons dans 10.11 un coefficient η ∈]0,1] qui diminue l’importance des arêtes déjà traversées. Ainsi chaque fourmi se souvient des M arêtes dernièrement traversées. La valeur η pour une fourmi k sur le nœud u, considérant l’arête e = (u, v) est : ηk (v) = { 1 si v ∉ Wk η si v ∈ Wk (10.12) Pour une fourmi de couleur c sur le nœud u, la nouvelle probabilité de choisir l’arête e = (u, v) entre les temps t et t +1 est : p (t) (e,c) = ( Ω(t) (e,c) )α · ( w (t) (e) )β ·ηk (u) ∑ ei ∈Eu(t) ( Ω (t) (ei ,c) )α · ( w (t) (ei) )β ·ηk (vi) (10.13) Ce modèle présente le principe global defonctionnement de l’algorithme. Il existe d’autres mécanismes qui sont utilisés dans les dernières versions de l’algorithme. Ils permettent de l’améliorer en évitant la sur- ou sous-population de fourmis dans certaines zones du graphe par exemple, en utilisant un paramètre d’agoraphobie ainsi qu’un autre de surpopulation. Il y a aussi des mécanismes permettant de gérer l’ajout ou le retrait de colonies durant l’exé- cution, fournissant ainsi la possibilité d’avoir une nombre de ressources de calcul variable durant la simulation. Ces mécanismes sont décrits plus en détail dans [D 2005] et [B-  et al. 2007]. 10.2.2 Extraction des organisations AntCo2 fournit une classification des nœuds du graphe qui permet de dire que tel nœud appartient à telle colonie. Le résultat ne fournit pas directement la structure des organisations, mais permet de l’extraire : si deux nœuds adjacents appartiennent à une même colonie alors ils sont dans la même organisation. On peut, à partir de cette assertion, extraire les organisations à un temps donné. L’analyse que nous souhaitons faire des organisations implique cependant d’aller au delà de l’étude de leur structure à un temps donné, afin d’étudier l’évolution de cette structure. Il est donc nécessaire d’être en mesure de maintenir la structure extraite d’une organisation dans le temps. 159. R   F 10.2 : Application de AntCo2 à un graphe de 400 nœuds générés par attachement préférentiel. Six colonies de fourmis ont été utilisées ici, on compte cependant une dizaine d’organisations qu’il faut extraire. 10.2.3 Lissage La membrane des organisations est une zone d’instabilité du fait que les nœuds de cette partie de l’organisation interagissent avec les nœuds d’autres organisations. En fonction de l’intensité de ces interactions, l’algorithme de détection d’organisations peut avoir quelques difficultés à déterminer à quelle organisation appartiennent ces nœuds. C’est par exemple le cas d’un nœud dans le graphe du Zachary Karate Club [Z 1977] dans lequel on observe deux factions, celle de Mr. H et celle de J telles que représentées sur la figure 10.3, mais où un nœud entretient des relations ambiguës avec les deux factions ce qui rend difficile de le classer dans l’une ou l’autre. Lorsque de tels nœuds existent dans un graphe dynamique, il y a une forte probabilité qu’ils oscillent d’une colonie à une autre. Dans le cadre de la répartition de charges, une colonie étant associée à une ressource de calcul, un changement de colonie va se traduire par la migration de l’entité correspondante au nœud vers sa nouvelle machine. Cette migration a un coût d’une part en terme de charge réseau du fait que les données liées à l’entité doivent être transférées, et d’autre part un coût temporel du fait que l’entité devient temporairement indisponible pendant sa migration. 16010.2. AntCo2 . F 10.3 : Graphe du Zachary Karate Club. Les nœuds carrés représentent la faction de Mr. Hi, les ronds celle de John. Le nœud rond sans couleur pose problème pour déterminer la faction à laquelle il appartient. Le problème vient du fait que nous devons être capables de distinguer une migration qui est le fruit d’un réel changement d’organisation d’un nœud et qui est donc nécessaire, du bruit qui se produit aux périphéries des organisations provoquant des migrations à répétition. Ce qui suit décrit différentes techniques de lissage dont le but est de réduire ce bruit provoquant des migrations intempestives. Ces techniques prennent la forme d’un filtre qui se place entre l’algorithme AntCo2 et la plate-forme dont le rôle est de procéder à une distribution effective. Différents modes de lissage Le but n’est pas ici de référencer toutes les techniques possibles et imaginables mais de présenter celles qui nous paraissent être les principales. Ces techniques peuvent être décrites sous la forme d’une fonction booléenne dont un résultat de 0 indique que la migration ne doit 161. R   pas être effective, et inversement lorsque le résultat est 1 : l(n,o,m) → b : (V,N,N) → {0,1} (10.14) où : — n est le nœud pour lequel un changement de colonie est possible ; — o correspond à la couleur de la colonie à laquelle appartient actuellement le nœud ; — m est la couleur de la nouvelle colonie proposée par AntCo2 pour le nœud. Un lissage de base passif est le lissage identité qui se contente de transmettre les résultats de AntCo2 sans les modifier : l(n,o,m) = 1 (10.15) Une première technique consiste à utiliser le temps. On introduit alors un délai qu’il faut respecter avant de procéder à une nouvelle migration de l’entité : l(n,o,m) = { 0 si t ime()−l ast(n) < del ai 1 sinon (10.16) où : — t ime() donne la date actuelle sous la forme d’une valeur entière ; — l ast(n) est une fonction donnant la dernière date de migration du nœud n ; — del ai est une constante correspondant au délai minimum nécessaire entre deux migrations d’un nœud. Cette technique possède l’avantage de sa simplicité de mise en œuvre et permet de ré- duire la fréquence des migrations d’une entité oscillante. Cependant, l’oscillation des migrations perdure bien qu’à une échelle de temps différente. De plus, si la fréquence de l’oscillation est proportionnelle au délai, cette technique devient quasiment inefficace. Il est possible de pallier ce dernier problème en instaurant un délai aléatoire par entité à chaque nouvelle migration. Cette méthode comme la précédente reste une technique basique qui permet simplement de réduire la fréquence de l’oscillation des migrations sans toutefois la supprimer. Lissage biomimétique Une autre approche consiste à s’inspirer à nouveau de la nature, en l’occurrence du comportement de groupe que l’on retrouve chez certaines espèces d’oiseaux, de poissons ou encore d’insectes. C. R dans [R 1987] proposa un modèle permettant de reproduire le comportement de ces essaims sur la base de trois règles s’appliquant à chaque entité, nommée boid, de la simulation : 1. la cohésion, qui permet aux boids de se regrouper ; 2. la séparation, un mécanisme permettant de maintenir une certaine distance entre deux boids afin qu’ils n’occupent pas le même espace ; 16210.3. Résultats 3. l’alignement, qui permet à l’ensemble des boids du groupe d’avoir une direction similaire. On peut facilement étendre ce modèle afin de faire cohabiter plusieurs espèces de boids qui se repousseraient mutuellement ou au contraire qui seraient régis par une relation de proie/prédateur. L’intérêt de ce modèle dans le cadre du lissage des résultats de AntCo2 vient du fait que lorsqu’une entité (respectant les règles des boids) fait partie d’un groupe, il est nécessaire d’appliquer une certaine force afin de séparer l’entité de son groupe ce qui donne une certaine forme d’élasticité à la structure qui lui permet de rester soudée tout en s’adaptant aux perturbations de l’environnement. Or c’est cette élasticité que l’on recherche dans le lissage : une force qui maintienne l’entité dans son organisation suffisamment pour résister aux migrations intempestives mais qui permette tout de même à l’entité de quitter l’organisation lorsque c’est nécessaire. 10.3 Résultats 10.3.1 Description des simulations La première simulation, nommée S1, est composée d’un graphe statique de 10201 nœuds dont la topologie est une grille. Quatre colonies de fourmis sont utilisées pour répartir la charge. La table 10.1 récapitule les paramètres utilisés pour initialiser l’algorithme AntCo2 , qui est appliqué pendant 10000 étapes. Nous nous basons sur le modèle des boids pour la seconde simulation, nommée S2, afin de générer un graphe aléatoire. Les nœuds du graphe restent les mêmes tout au long de la simulation mais les interactions évoluent. Le modèle des boids est idéal du fait qu’il amène à la création d’organisation : des groupes de boids fortement liés se créent au fur et a mesure. Pour éviter la création d’un seul groupe, nous utilisons deux espèces de boids : la première est attirée par la seconde, tandis que la seconde est repoussée par la première. Nous utiliserons de même quatre colonies de fourmis dans AntCo2 qui sera initialisé avec les mêmes paramètres que la simulation précédente. 10.3.2 Méthodes existantes Les résultats de AntCo2 sont initialement mesurés au travers de deux mesures r1 et r2. La première permet de mesurer la proportion de communications effectives, établies entre des entités hébergées sur différentes machines, par rapport aux communications locales établies entre des entités hébergées sur une même machine. Cette mesure, dont le résultat est compris dans l’intervalle [0; 1], permet d’évaluer la charge réseau : plus r1 est proche de zéro, plus la charge réseau est faible. On considère un graphe G(t) = (V(t),E(t)) au temps t. Pour chaque arête e ∈ E(t), w (t) (e) indique le poids de e. A(t) englobe les arêtes correspondant 163. R   graine aléatoire : 29136152552356L α : 1.0 β : 3.0 fourmi par sommet : 4 ρ : 0.8 dépôt phéromone : 0.1 mémoire : 9 agoraphobie : 0.3 surpopulation : 10 T 10.1 : Paramètres. aux communications effectives, c’est à dire les arêtes dont les nœuds sont contrôlés par des colonies différentes de fourmis. r1 peut alors s’écrire : r1 = ∑ a∈A(t) w (t) (a) ∑ e∈E(t) w (t) (e) (10.17) Cette mesure seule ne suffit pas : si toutes les entités sont placées sur une seule et même machine alors l’on obtient une valeur de r1 optimale, or la charge de calcul n’est pas équilibrée ! r1 est donc associée à la mesure r2 qui permet de mesurer la qualité de la répartition de la charge de calcul par un ratio entre la taille (en nombre de nœuds acquis) de la plus petite colonie et la taille de la plus grande. Ainsi, plus r2 se rapproche de 1, plus la diffé- rence entre les quantités d’entités des ressources de calcul diminue et donc meilleure est la répartition de la charge. En considérant les sous-ensembles de nœuds Vi correspondant aux nœuds contrôlés par chaque colonie de fourmis i, on peut écrire r2 sous la forme suivante : r2 = min(card(V1),...,card(Vk )) max(card(V1),...,card(Vk )) (10.18) Si l’on considère r i 1 , r t 1 etr c 1 comme correspondant respectivement aux valeurs de r1 pour la méthode sans lissage, avec lissage temporisé, et avec le lissage par cohésion, on peut alors considérer les différences ∆ t i r1 = r t 1 − r i 1 et ∆ ci r1 = r c 1 − r i 1 . De manière similaire pour r2, on peut considérer les différences ∆ t i r2 = r t 2 − r i 2 et ∆ ci r2 = r c 2 − r i 2 . Ces différences nous permettent de mieux évaluer la divergence des méthodes de lissage par rapport au résultat initial. 16410.3. Résultats Simulation S1 On peut observer sur les figures 10.4 et 10.5 l’évolution des paramètres r1 et r2 pour la simulation S1 pour les différentes méthodes de lissage. On constate une période d’instabilité sur les premières 1000 itérations, commune aux trois modes de lissage comparés, qui correspond au temps nécessaire à AntCo2 pour stabiliser la solution. Puis on observe que la mesure r1 se stabilise rapidement vers une valeur seuil proche de 0. La valeur 0 implique qu’il n’y ait pas d’interactions entre les organisations, ce qui n’aurait aucun intérêt du fait que dans cas, il n’y aurait pas de structuration à l’échelle globale du graphe. La méthode de lissage utilisée affecte peu l’évolution des mesures r1 et r2. On constate une valeur moyenne pour ∆ t i r1 de 3.87·10−3 avec un écart type de 2.81·10−2 , et pour ∆ ci r1 de 1.65·10−4 avec un écart type de 1.88·10−3 . La mesure r1 pour les lissages temporisé et par cohésion est donc très proche de la mesure d’origine, avec un écartement plus faible pour le lissage par cohésion. En ce qui concerne la mesure r2, la valeur moyenne de ∆ t i r2 est égale à 1.20 · 10−3 et celle de ∆ ci r2 vaut 1.72 · 10−4 avec un écart type respectif de 1.05 · 10−2 et de 2.07 · 10−3 . On constate que la mesure de r2 pour les résultats avec lissage par cohésion est très proche du résultat d’origine. C’est aussi le cas, bien que de manière plus fluctuante, pour le lissage temporisé. Un décalage se fait ressentir pour le lissage temporisé par rapport aux résultats d’origine et cela principalement lors d’une évolution significative de la mesure. Ce décalage n’est cependant que le résultat de la temporisation du fait que les valeurs dont dépendent les mesures r1 et r2 ne varient qu’en présence de migrations. Modifier le délai dans le cas du lissage temporisé n’a que peu d’impact sur les mesures r1 et r2 : on constate simplement que le décalage relatif à l’évolution des mesures est proportionnel au délai de la méthode de lissage (cf. les figures 10.6 et 10.7 pour la simulation S1, et les figures 10.8 et 10.9 pour S2). Simulation S2 L’ajout de la dynamique entraine des modifications significatives dans la structure du graphe qui va nous permettre d’étudier l’adaptation dont est capable de faire preuve l’algorithme. L’aspect général du tracé de r1 présenté dans la figure 10.10 montre que le lissage a peu d’incidence sur la valeur de cette mesure. Le tracé de ∆ t i r1 et ∆ ci r1 indique que le lissage temporisé améliore la qualité de r1, et que la valeur de r1 pour le lissage par cohésion est confondue avec la valeur d’origine. La valeur moyenne de ∆ t i r1 est 6.38 · 10−3 pour un écart type de 2.71 · 10−2 . Celle de ∆ ci r1 est 2.54 · 10−4 avec un écart type de 1.51 · 10−3 . L’observation de la mesure r2 (cf. la figure 10.11) ne nous permet pas une conclusion tranchée sur l’impact du lissage. L’observation de ∆ t i r2 et ∆ ci r2 montre que le lissage par cohésion entraine une différence moins importante avec le résultat d’origine que le lissage temporisé, mais que pour ces deux lissages, la différence est fluctuante. 165. R   . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0 0.2 0.4 0.6 0.8 1 nombre de cycles r1 . . sans lissage . . temporisé (100 étapes) . . cohésion 1 . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0 0.2 0.4 nombre de cycles ∆tir1 et ∆cir1 . . ∆ti. r1 . ∆ci. r1 1 F 10.4 : Tracé de la mesure r1 pour la simulation S1. La différence moyenne entre la mesure de r1 pour le lissage temporisé et celle de la méthode sans lissage est 3.87·10−3 avec un écart type de 2.81 · 10−2 . Pour le lissage par cohésion, cette différence moyenne est de 1.65 · 10−4 avec un écart type de 1.88 · 10−3 16610.3. Résultats . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0.6 0.7 0.8 0.9 1 nombre de cycles r2 . . sans lissage . . temporisé (100 étapes) . . cohésion 1 . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0 0.1 nombre de cycles ∆tir2 et ∆cir2 . . ∆ti. r2 . ∆ci. r2 1 F 10.5 : Tracé de la mesure r2 pour la simulation S1. La différence moyenne entre la mesure de r2 pour le lissage temporisé et celle de la méthode sans lissage est 1.20·10−3 avec un écart type de 1.05 · 10−2 . Pour le lissage par cohésion, cette différence moyenne est de 1.72 · 10−4 avec un écart type de 2.07 · 10−3 167. R   . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0 0.2 0.4 0.6 nombre de cycles r1 . . 50 cycles . . 100 cycles . . 500 cycles 1 . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0 0.2 0.4 0.6 nombre de cycles ∆tir1 . . 50 cycles . . 100 cycles . . 500 cycles 1 F 10.6 : Impact de la valeur du délai sur l’évolution de r1 pour la simulation S1. Synthèse pour r1 et r2 Cette première série de résultats nous permet d’observer l’impact de la méthode de lissage sur les mesures r1 et r2. Le lissage a pour but de réduire la quantité de migrations en tentant de supprimer les migrations qui sont le résultat de l’oscillation d’une entité entre plusieurs colonies. Les mesures r1 et r2 ne tenant pas compte des migrations, on ne s’attend pas ici à une amélioration du résultat de ces mesures mais l’on souhaite en revanche que le lissage ne les dégrade pas. D’après les observations que l’on peut faire sur les résultats, le lissage a un impact faible sur les mesures, ce qui nous permet de le considérer comme peu significatif. Le lissage utilisant la cohésion est plus proche des résultats d’origine que la méthode temporisée. Bien que les différences soient peu significatives, on peut toutefois noter que 16810.3. Résultats . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0.7 0.8 0.9 nombre de cycles r2 . . 50 cycles . . 100 cycles . . 500 cycles 1 . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0 0.1 0.2 nombre de cycles ∆tir2 . . 50 cycles . . 100 cycles . . 500 cycles 1 F 10.7 : Impact de la valeur du délai sur l’évolution de r2 pour la simulation S1. la mesure r1 semble être la moins affectée par le lissage. D’après ces premiers résultats, l’objectif est atteint : l’ajout du lissage n’a pas dégradé la qualité de la répartition. 10.3.3 Intégration du nombre de migrations L’objectif que nous cherchons à atteindre au travers des méthodes de lissage est la réduction de la quantité de migrations. En effet, une migration rend temporairement indisponible l’entité migrante et implique des communications effectives pour transporter l’entité d’une machine à une autre. Nous allons observer désormais l’évolution d’une part du nombre total de migrations survenant pendant la simulation, et d’autre part de celui des communications effectives. Ces 169. R   . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0.68 0.7 0.72 0.74 0.76 nombre de cycles r1 . . 50 cycles . . 100 cycles . . 500 cycles 1 . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0 0.1 nombre de cycles ∆tir1 . . 50 cycles . . 100 cycles . . 500 cycles 1 F 10.8 : Impact de la valeur du délai sur l’évolution de r1 pour la simulation S2. informations sont représentées sur la figure 10.12 pour la première simulation et sur la figure 10.13 pour la seconde. Simulation S1 On constate que la méthode temporisée a permis de réduire de près de deux tiers la quantité totale de migrations pendant la simulation S1. On note toutefois une augmentation du nombre total de communications, mais cette augmentation a eu lieu durant la période d’instabilité des 1000 premiers cycles. Cette méthode a permis en moyenne de diminuer le nombre de migrations par cycle de 3.55, pour un écart type de 70.71. La quantité de communications a, quant à elle, augmenté en moyenne de 78.09 par cycle, pour un écart type 17010.3. Résultats . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0.9 0.95 1 nombre de cycles r2 . . 50 cycles . . 100 cycles . . 500 cycles 1 . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 −0.1 0 0.1 nombre de cycles ∆tir2 . . 50 cycles . . 100 cycles . . 500 cycles 1 F 10.9 : Impact de la valeur du délai sur l’évolution de r2 pour la simulation S2. de 568.16. La réduction du nombre de migrations entrainée par la méthode par cohésion est moins importante que celle de la méthode précédente mais a permis, tout de même, de réduire d’un peu moins d’un tiers la quantité de migrations pour une augmentation des communications faible. Le tracé de la quantité totale de communications montre que l’impact sur les communications est quasiment nul. On observe une réduction moyenne de 1.48 migrations par cycle, pour un écart type de 6.80 ; ainsi qu’une augmentation moyenne de 3.33 communications par cycle, pour un écart type de 38.00. 171. R   . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0.65 0.7 0.75 nombre de cycles r1 . . sans lissage . . temporisé (100 étapes) . . cohésion 1 . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0 0.1 nombre de cycles ∆tir1 et ∆cir1 . . ∆ti. r1 . ∆ci. r1 1 F 10.10 : Tracé de la mesure r1 pour la simulation S2. La différence moyenne entre la mesure de r2 pour le lissage temporisé et celle de la méthode sans lissage est 6.38·10−3 avec un écart type de 7.08 · 10−3 . Pour le lissage par cohésion, cette différence moyenne est de 2.54 · 10−4 avec un écart type de 1.51 · 10−3 17210.3. Résultats . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 0.7 0.8 0.9 1 nombre de cycles r2 . . sans lissage . . temporisé (100 étapes) . . cohésion 1 . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 −0.1 0 0.1 nombre de cycles ∆tir2 et ∆cir2 . . ∆ti. r2 . ∆ci. r2 1 F 10.11 : Tracé de la mesure r2 pour la simulation S2. La différence moyenne entre la mesure de r2 pour le lissage temporisé et celle de la méthode sans lissage est −5.21 · 10−4 avec un écart type de 2.71·10−2 . Pour le lissage par cohésion, cette différence moyenne est de −9.47 · 10−5 avec un écart type de 1.08 · 10−2 173. R   . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 103 104 nombre de cycles Cumul des migrations . . sans lissage . . temporisé (100 étapes) . . cohésion 1 . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 105 106 107 nombre de cycles Cumul des communications . . sans lissage . . temporisé (100 étapes) . . cohésion 1 F 10.12 : Évolution du nombre total de communications effectives et de migrations pour la simulation S1 (échelle logarithmique) 17410.3. Résultats . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 104 105 106 107 108 nombre de cycles Cumul des migrations . . sans lissage . . temporisé (100 étapes) . . cohésion 1 . . 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 9,000 10,000 105 106 107 108 109 nombre de cycles Cumul des communications . . sans lissage . . temporisé (100 étapes) . . cohésion 1 F 10.13 : Évolution du nombre total de communications effectives et de migrations pour la simulation S2 (échelle logarithmique) 175. R   Simulation S2 Les résultats des mesures effectuées sur la simulation S2 montrent une très forte réduction du nombre de migrations grâce au lissage temporisé, cette méthode ayant permis de réduire le nombre total de migrations d’un facteur 65.37. La quantité de migrations par cycle a été réduite de 4778.06, pour un écart type de 933.86. L’impact sur les communications se traduit par une augmentation moyenne de 483.23 communications par cycle, pour un écart type de 586.94. Relativement aux résultats de la méthode temporisée, le lissage par cohésion n’a eu que peu d’impact sur le nombre total de migrations. On observe toutefois une réduction nonnégligeable de 279.22 migrations par cycle, pour un écart type de 97.42. La quantité de communications, quant à elle, n’a augmenté en moyenne que de 19.56 par cycle, pour un écart type de 119.63. Synthèse pour le nombre de migrations et de communications On remarque ici que la méthode de lissage implique un compromis entre la réduction du nombre de migrations et l’augmentation des communications effectives. Ceci s’explique du fait que le lissage augmente la difficulté pour une entité de quitter une organisation pour une autre qui lui serait plus appropriée. Si la nouvelle organisation est plus appropriée, on peut supposer que l’entité interagit fortement avec les membres de cette nouvelle organisation, ce qui se traduit par des communications effectives tant que l’entité n’aura pas rejoint le groupe. Pour évaluer ce compromis, on considère qu’une migration possède un coût cm et qu’une communication possède un coût cc . Comme nous connaissons le nombre total de migrations nm et celui de communications nc , nous pouvons calculer le coût total C de la simulation sous la forme : C = nc ×cc +nm ×cm Une migration impliquant au minimum une communication, on peut exprimer cm en fonction de cc tel que cm = k ×cc pour k ≥ 1. On obtient alors : C = cc ×(nc +k ×nm) En se basant sur une valeur de référence cc = 1, nous pouvons faire varier la valeur de k et observer les implications sur C. Les figures 10.14 et 10.15 illustrent ces variations pour les différents modes de lissage. On peut alors observer que dans la cas de la simulation S1 le choix de la méthode de lissage la mieux adaptée est dépendant de k. Lorsque k < 20, on constate que le lissage temporisé a un apport négatif sur le coût global de la simulation. Passé ce seuil, plus la valeur de k augmente, plus le lissage temporisé permet d’améliorer de façon significative le coût. Le lissage par cohésion améliore le coût global, même pour des faibles valeurs de k. Passé le seuil de k = 35, cette méthode est moins performante que le lissage temporisé. 17610.3. Résultats . . 0 5 10 15 20 25 30 35 40 45 50 7 · 106 8 · 106 9 · 106 k . . sans lissage . . temporisé . . cohésion 1 F 10.14 : Évolution de C en fonction de k pour la simulation S1 . . 0 5 10 15 20 25 30 35 40 45 50 1 · 109 2 · 109 3 · 109 k . . sans lissage . . temporisé . . cohésion 1 F 10.15 : Évolution de C en fonction de k pour la simulation S2 Contrairement à la simulation S1 où le choix de la méthode de lissage est dépendant de k, l’observation du coût pour S2 ne laisse aucune ambiguïté : le lissage temporisé est avantageux peu importe la valeur de k. Le lissage par cohésion apporte tout de même une amélioration du coût qui est cependant sans commune mesure avec l’amélioration apportée par la temporisation. 10.3.4 Synthèse générale sur les résultats Nous avons présenté des résultats sur des méthodes de lissage des résultats de AntCo2 . Le but de ce lissage est de réduire la quantité de migrations sans détériorer la qualité de la répartition. Nous avons donc dans un premier temps observé l’impact du lissage sur les mesures r1 et r2 qui permettent d’évaluer respectivement la charge du réseau et la charge de calcul. Puis nous avons analysé l’évolution de la quantité totale de migrations ainsi que 177. R   de celle des communications entre machines. Pour cela, nous avons considéré deux simulations : une première, S1, sur un graphe statique dont la topologie est une grille ; et une seconde, S2, sur un graphe dynamique généré grâce au modèle des boids (cf. l’annexe A). D’autres expérimentations devront être réalisées sur des topologies de graphes différentes afin d’affiner ces résultats. L’étude de r1 et r2 nous a permis d’observer que le lissage a un faible impact sur la qualité de la solution. Cet impact est fluctuant, et peut en général être positif ou négatif. On distingue tout de même le cas de la mesure r1 dans la simulation S2 pour le lissage temporisé pour laquelle l’impact est ici négatif, bien que dans une moindre mesure. L’étude du nombre de migrations et de communications permet de démarquer la mé- thode de lissage temporisé, en particulier dans le cas de la simulation S2 qui correspond au cas de figure le plus proche de la pratique. La méthode par cohésion remplit tout de même notre objectif d’améliorer la répartition en réduisant la quantité de migrations. Cependant, le lissage temporisé possède l’avantage de la simplicité de sa mise en pratique. 178C 11 I 11.1 Vue d’ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 11.2 L’acteur, un objet actif . . . . . . . . . . . . . . . . . . . . . . . . 180 11.2.1 Architecture . . . . . . . . . . . . . . . . . . . . . . . . . 181 11.2.2 Le paradigme acteur . . . . . . . . . . . . . . . . . . . . . 184 11.2.3 Gestion des différents mécanismes . . . . . . . . . . . . . . 184 11.3 Une architecture décentralisée . . . . . . . . . . . . . . . . . . . . 187 11.3.1 Agence . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 11.3.2 Le tout acteur . . . . . . . . . . . . . . . . . . . . . . . . 187 11.4 Services des agences . . . . . . . . . . . . . . . . . . . . . . . . . 188 11.4.1 Découverte d’autres agences . . . . . . . . . . . . . . . . . 188 11.4.2 Lucioles et horloge globale décentralisée . . . . . . . . . . . 188 Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 Nous avons vu jusqu’à présent que nous pouvons modéliser l’application que l’on souhaite distribuer sous la forme d’un graphe dynamique. Puis, nous avons présenté comment, en utilisant un algorithme dynamique de détection d’organisations, nous pouvions fournir les informations nécessaires à la répartition des entités de l’application sur l’ensemble des machines à disposition de manière à équilibrer la charge de calcul et à réduire la charge du réseau. Afin de parvenir à une distribution de l’application, nous avons besoin de fournir à cette application un environnement qui va permettre de gérer la répartition effective des entités sur l’ensemble des machines. Cet environnement, que nous avons décrit dans la partie 5.1.4, prend la forme d’une couche qui va venir se placer entre l’application et l’ensemble des 179. I machines. Nous présentons ici notre plateforme de distribution qui a été développée durant cette thèse, qui permet d’aborder la distribution de manière dynamique et décentralisée. Elle s’appuie sur le modèle d’acteur que nous décrivons dans la partie 11.2. 11.1 Vue d’ensemble L’intergiciel est une couche qui va venir se placer entre les ressources de calcul et l’application que l’on souhaite distribuer. Il va permettre à l’application de s’abstraire de la gestion des ressources de l’une des façons suivantes : 1. soit en rendant la distribution complètement opaque pour l’application qui n’a alors pas connaissance de sa distribution ; 2. soit en distribuant de manière transparente, de ce fait l’application a alors connaissance de sa distribution et peut éventuellement agir dessus ; l’intergiciel permet dans ce cas de fournir la gestion et les fonctionnalités de base pour permettre cette distribution. Nous voyons l’intergiciel comme faisant partie de l’écosystème computationnel dans lequel va évoluer l’application et qui va lui permettre d’être distribuée. Une particularité de l’ensemble des machines qui sont à disposition est sa dynamique : de nouvelles machines peuvent être ajoutées au cours de la distribution tandis que certaines peuvent être retirées. Le retrait de machines peut être d’une part intentionnel, c’est à dire que nous avons un certain contrôle sur ce retrait, mais il peut être aussi inopiné, suite à une défaillance par exemple. Ces ajouts et suppressions de machines peuvent aussi être liés à des perturbations de la connexion comme ça peut être le cas de connexion sans fil pour des machines mobiles. L’objectif de l’intergiciel vis-à-vis de cette dynamique est d’être capable de s’adapter aux différents cas de figure, particulièrement les cas liés à l’imprévisible, et cela afin de garantir la robustesse du système. Le rôle de l’intergiciel est de gérer les migrations des entités sur les machines disponibles en utilisant les informations fournies par l’algorithme de répartition de charges. Il doit aussi fournir l’outillage nécessaire pour permettre aux entités d’interagir entre elles en particulier lorsque ces entités sont hébergées sur des machines différentes. Cette partie de l’écosystème computationnel doit à son tour subir les contraintes liées aux simulations que l’on souhaite distribuer c’est à dire une ouverture du système, une quantité d’entités et d’interactions entre ces entités suffisamment importante pour empêcher l’utilisation de structures de données globales. 11.2 L’acteur, un objet actif Du fait du nombre important d’entités que la plateforme doit être capable de supporter, et de la quantité d’interactions entre ces entités, nous avons besoin d’un modèle qui soit adapté à ces contraintes. Des communications directes entres les entités ne sont pas envisageables 18011.2. L’acteur, un objet actif du fait qu’il en résulterait un blocage systématique, voire définitif, de l’application. Nous optons donc pour des communications indirectes prenant la forme de requêtes envoyées par une entité à une autre. Nous utilisons, de ce fait, le concept d’objet actif, aussi nommé acteur, dont l’architecture a été initialement définie par C. H, P. B et R. S dans [H, B et S 1973]. Un objet actif se distingue d’un objet classique par le fait qu’il possède son propre fil d’exécution qui lui permet une gestion désynchronisée des appels aux méthodes. La figure 11.1 illustre cette différence. Dans le cas d’objets classiques, A doit attendre que B termine l’exécution de la méthode avant de pouvoir effectuer d’autres tâches. A est alors dans un état bloquant tant que B n’a pas terminé son exécution. Au contraire, dans le cas d’objets actifs, l’appel d’une méthode prend la forme d’une requête qui est envoyée à la cible et dont on peut traiter le résultat que plus tard, lorsqu’il sera disponible. A peut alors effectuer d’autres tâches en attendant que l’exécution de B soit terminée. 11.2.1 Architecture Un acteur est formé de différents composants. Tout d’abord, le noyau même de l’acteur qui est le moteur étant capable d’exécuter les requêtes. Le noyau est composé d’un thread, d’une liste de requêtes à exécuter, et d’un objet classique qui contient les méthodes disponibles. Les requêtes sont exécutées à l’intérieur du thread selon une politique FIFO  qui peut cependant être personnalisée pour répondre aux besoins de l’application. On peut par exemple définir des requêtes prioritaires qui seraient exécutées en premier lieu. Le second composant d’un objet actif est le proxy qui permet de recevoir les requêtes et donc d’alimenter la liste du noyau. Les requêtes peuvent être envoyées au proxy au travers d’un réseau ou d’une boucle locale ce qui permet de distribuer les objets actifs sur un ensemble de machines. L’envoi des requêtes est réalisé grâce à un objet talon qui symbolise l’objet que l’on souhaite contacter, ce qui permet de le manipuler de manière transparente. Afin de gérer l’asynchronisme des appels aux méthodes, l’objet talon procède à deux opérations : 1. il envoie une requête, décrivant la méthode invoquée, au proxy de l’objet actif qu’il représente ; 2. il retourne directement à l’objet appelant un futur qui représente le résultat de la requête qui sera transmis par la suite. Le futur permet de fournir les fonctionnalités nécessaires pour connaître l’état de la requête. Ainsi l’objet appelant peut savoir, grâce au futur qui lui a été retourné, si le résultat est disponible, ou encore entrer dans un état bloquant dont il ne pourra sortir qu’une fois le résultat mis à disposition. La figure 11.2 résume l’ensemble de l’architecture d’un acteur. 1. First In First Out 181. I . objets classiques objets actifs A A appelle une méthode de B B B exécute la méthode B B retourne le résultat A A traite le résultat A A envoie une requête à B A A exécute d’autres tâches A quand le résultat est disponible A procède au traitement B B reçoit une requête B en fonction d’un ordonnanceur la requête est exécutée B B retourne le résultat F 11.1 : Appel de méthode entre objets classiques et objets actifs. Un objet A appelle une méthode d’un objet B. B exécute alors cette méthode et retourne un résultat à A qui effectue alors un traitement. 18211.2. L’acteur, un objet actif . . . . . réseau requêtes objet contenant les méthodes thread d’exécution proxy objet talon futur F 11.2 : Architecture d’un acteur. 183. I 11.2.2 Le paradigme acteur Dans [A et al. 1997], Gul A et al. résument les principes fondamentaux qui servent de base au paradigme acteur : 1. tout objet est un acteur, les auteurs incluent aussi les messages et les nombres dans cette propriété ; bien que nous considérons nous aussi un système où tout est acteur, comme nous le verrons dans 11.3.2, certains objets restent des objets classiques (en particulier les types primitifs comme les entiers et les réels) pour des raisons de performances ainsi que pour simplifier la plateforme de distribution ; 2. on ne peut agir sur un acteur, l’observer, ou le modifier autrement que par l’envoi d’une requête à cet acteur, qu’il exécutera lui-même ; 3. les seules choses qui se produisent dans un système composé d’acteurs sont des évè- nements, qui consistent à l’envoi/réception d’un message entre acteurs ; 4. un acteur peut envoyer plusieurs messages au même moment mais les reçoit de manière linéaire et ne les traite donc qu’un par un ; 5. chaque acteur a connaissance d’un ensemble d’autres acteurs ; cet ensemble peut évoluer au fil du temps grâce à l’échange de messages qui permet de rencontrer indirectement de nouveaux acteurs. Il ressort de ces principes que la transmission des requêtes est au cœur d’un système composé d’acteurs. 11.2.3 Gestion des différents mécanismes Nous avons vu l’architecture générale d’un acteur. Dans la pratique, il est nécessaire de gérer différents problèmes liés à ce modèle, ainsi qu’à la décentralisation de la plateforme. En particulier, sur l’identification des objets, le référencement des futurs, ainsi que sur le mécanisme de migration d’un objet. Gestion des objets La plateforme de distribution est constituée d’un nombre important d’acteurs qui sont pour certains des composants de l’application distribuée, et pour d’autres des composants de la plateforme elle-même. Afin de contacter chacun de ces acteurs, pour leur transmettre des requêtes, il est nécessaire d’être en mesure de les identifier de manière unique. L’identification d’un acteur est faite grâce à une chaîne de caractères correspondant à une URI  telle que définie dans [M, B-L et F 2005]. L’identifiant a alors la forme suivante : protocole://hote/chemin/id 2. Uniform Resource Identifier 18411.2. L’acteur, un objet actif Cet identifiant peut être divisé en deux parties. D’une part, une partie fixe composée du chemin et de l’id qui sont fixés définitivement à la création de l’acteur. Et d’autre part, une partie variable, composée du protocole et de l’hôte, qui elle varie en fonction de la machine qui hé- berge l’objet actif. L’id est une chaîne de caractères unique pour l’ensemble des machines. Elle est créée à partir de l’adresse de la machine et d’une estampille temporelle afin d’assurer cette unicité. Le chemin permet de regrouper des objets entre eux lorsque ceux-ci partagent une même fonction par exemple, ou sont du même type. Enfin, le protocole définit la mé- thode à utiliser afin de communiquer avec le proxy de l’objet actif désigné. La seconde partie peut être omise, dans ce cas on considère que l’objet actif cible se situe sur la même machine que la source. Chaque acteur possède un certain nombre de méthodes qui peuvent être appelées par d’autres acteurs. Le nom de la fonction qu’un acteur source souhaite appeler est alors ajouté à l’identifiant de la cible pour former une requête : protocole://hote/chemin/id?callable=nom Gestion des futurs Les futurs sont aussi des composants qui ont besoin d’être identifiés de manière unique. La portée de cette unicité peut toutefois être limitée à celle de la machine qui héberge l’acteur à la source de la requête. La référence du futur peut alors être ajoutée à la requête lorsque l’on en attend un résultat : protocole://hote/chemin/id?callable=nom&future=id_futur Le futur est alors référencé sur la machine source en attendant le résultat de l’acteur cible. Celui-ci, une fois l’exécution de la requête terminée, peut retourner le résultat, accompagné de la référence du futur, à l’acteur source. Gestion des migrations La migration consiste à déplacer un acteur de la machine qui l’héberge à une autre. Il est donc nécessaire pour cela de transférer la liste des requêtes courantes ainsi que l’objet utilisé par l’acteur pour exécuter les requêtes. Le protocole de migration consiste à : 1. demander l’accord de migration à la machine de destination ; 2. transférer les données de l’acteur si l’autorisation est accordée ; 3. reprendre l’exécution des requêtes depuis le nouvel hôte. Lorsqu’une demande de migration est effectuée, l’acteur entre dans un état de transition lorsque l’exécution de la requête courante est terminée. La demande d’hébergement est alors envoyée à la machine de destination. Celle-ci donne alors son autorisation pour continuer la migration, ou au contraire, refuse que la migration soit effectuée si, par exemple, elle ne 185. I . 1 2 3 4 5 machine A machine B entité à migrer nouveau noyau de l’entité demande de migration création du réceptacle autorisation de migration duplication des données suppression des données d’origine F 11.3 : Protocole de migration possède pas les ressources nécessaires pour accueillir le nouvel acteur. Si la migration est refusée, l’acteur retourne à l’exécution de ses requêtes : la migration est annulée. Si la machine accepte, elle initialise une nouvelle liste de requêtes qui servira à accueillir les requêtes reçues pendant la migration. L’acteur duplique ensuite ses requêtes vers cette nouvelle liste ainsi que les autres données qui lui sont associées. Si aucune erreur n’est rencontrée pendant la migration, l’acteur peut alors continuer son exécution sur son nouvel hôte, et les anciennes données peuvent être supprimées. Gestion des threads L’architecture d’un acteur implique que chaque acteur possède son propre fil d’exécution. En pratique, et particulièrement dans notre cas où nous manipulons un nombre important d’acteurs, il n’est pas possible d’affecter à chaque acteur un thread dédié. La plateforme de distribution que nous proposons est prévue pour accueillir des machines « standards ». Ces machines permettent à ce jour d’exécuter 4 à 8 threads  simultanément dans des conditions optimales. Nous serions donc fortement limités sur la quantité d’acteurs qui pourraient s’exécuter sur chaque agence. 3. en considérant 2 à 4 cœurs hyperthreadés par machine 18611.3. Une architecture décentralisée C’est pourquoi nous définissons un ensemble de threads qui sera partagé par l’ensemble des acteurs. Afin d’exécuter une requête, un acteur doit donc attendre qu’un thread soit disponible, puis prendre la main sur ce thread. L’acteur exécute sa requête puis rend la main qu’il a prise sur le thread. 11.3 Une architecture décentralisée Le modèle d’intergiciel que nous proposons repose sur une architecture décentralisée dans le sens où la hiérarchie entre les machines est inexistante. Chaque machine participe donc à la formation de l’écosystème computationnel au même titre que les autres. L’objectif est d’augmenter la robustesse du système. En effet, lorsqu’un système est centralisé, il devient dépendant de la partie centrale, et si cette dernière venait à être inaccessible, le système entier en deviendrait figé. 11.3.1 Agence L’agence est la réification locale de la plateforme distribuée sur chacune des machines y participant. Une machine qui souhaite rejoindre la distribution doit donc lancer sa propre agence qui va ensuite se connecter au réseau d’agences. Une agence est un acteur particulier qui a la possibilité d’en créer d’autres. Elle permet de fournir les fonctionnalités de base de la plateforme. 11.3.2 Le tout acteur Chaque composant de la plateforme de distribution est un acteur. Ainsi on trouve l’acteur principal qui est l’agence, puis les fonctionnalités de cette agence, les entités, etc… De même, les protocoles de communication, qui permettent l’échange de requêtes entre agences, sont aussi des acteurs. On peut classer ces acteurs en plusieurs catégories : l’agence elle est unique et nécessaire pour une instance locale de la plateforme ; les fonctionnalités acteurs modulaires qui sont chargés par l’agence pour étendre sesfonctionnalités ; ils n’ont pas la possibilité de migrer ; les protocoles ce sont les acteurs dédiés à l’échange de requêtes entre les acteurs situés sur des agences différentes ; les entités il s’agit des acteurs qui vont composer l’application distribuée ; ils ont la possibilité de migrer d’une agence à une autre. 187. I 11.4 Services des agences 11.4.1 Découverte d’autres agences La plateforme distribuée repose sur une architecture décentralisée, formée par l’interconnexion d’agences. De ce fait, elle ne possède pas d’annuaire centralisé auquel une agence pourrait se connecter pour connaître la liste des agences actuellement connectées à la plateforme. Une agence a cependant besoin d’informations afin de pouvoir se connecter à d’autres, c’est pourquoi il est nécessaire d’introduire une fonctionnalité permettant à l’agence d’obtenir ces informations, sans avoir recours à une structure centrale. La fonctionnalité « Discovery » utilise une diffusion multicastsur le protocole IPv6, telle que définie dans [H et D 2006], afin de transmettre les informations relatives. Le multicast est une technique de routage de paquets ip permettant de transmettre les paquets à un ensemble de machines plutôt qu’à une machine en particulier (unicast). Contrairement au broadcast qui diffuse les paquets à toutes les machines sans distinction, le multicast permet de créer une adresse ip virtuelle qui est partagée par les machines qui souhaitent recevoir ces informations. Ces trois modes de diffusion de paquets ip sont illustrés par la fi- gure 11.4. La diffusion par multicast est particulièrement intéressante par exemple dans le cas de diffusion d’un flux vidéo : plutôt que de maintenir autant de connexions que d’utilisateurs, on peut alors créer une connexion unique qui diffusera la vidéo à tous les utilisateurs qui le souhaitent. Le multicast sur le protocole IPv6 est particulièrement intéressant (comparé à celui sur IPv4) du fait qu’il permet un contrôle plus fin sur la diffusion en permettant, par exemple, de spécifier la portée qu’auront les paquets diffusés. On définit une adresse de multicast qui est commune à toutes les agences. Chaque module Discovery diffuse donc les informations de base propres à son agence en utilisant ce protocole. Ces informations incluent l’adresse réseau de l’agence, les protocoles qu’elle est capable de manipuler, ainsi qu’une information de hachage symbolisant l’état actuel de l’agence. De plus, Discovery est à l’écoute d’éventuels messages en provenance d’autres agences. Grâce aux informations contenues dans les messages reçus, il est alors possible de tenir un annuaire local des agences disponibles. Le hachage permet de déterminer si des modi- fications significatives sont survenues dans l’agence, qui nécessiteraient de contacter cette agence afin de mettre à jour des informations. Par exemple, si l’on souhaite suivre l’évolution des entités présentes sur une agence tout en réduisant la quantité de requêtes envoyées à cette agence, il suffit de redemander la liste des entités uniquement lorsque le hachage est modifié. 11.4.2 Lucioles et horloge globale décentralisée La décentralisation implique l’absence de contrôle central et global sur les entités. Par conséquent, si l’on souhaite créer une application dans laquelle une même étape algorithmique est exécutée simultanément pour l’ensemble des entités, alors la présence d’une horloge globale, permettant aux agences de se synchroniser, est une nécessité. Dans le cas d’un 18811.4. Services des agences . unicast broadcast multicast F 11.4 : Différences entre unicast, broadcast et multicast. Une source . diffuse de l’information aux cibles . . système centralisé, un « maître », la partie centrale, peut être utilisée afin de fournir ce synchronisme. Or notre système est décentralisé, car nous souhaitons éviter par exemple, que l’indisponibilité du maître fournissant le synchronisme paralyse l’application entière. À nouveau, la nature regorge de mécanismes qui sont des sources d’inspiration pour nous aider à trouver des solutions aux problèmes que nous rencontrons. En l’occurrence, l’inspiration est puisée dans la lumière émise par les lucioles, et plus particulièrement dans le mécanisme de synchronisation qui apparaît chez certaines espèces. Les mâles produisent des flashs pour attirer les femelles, et on peut observer la synchronisation des flashs et de ce fait l’émergence d’un rythme global. La photographie présentée dans la figure 11.5 est une longue exposition prise à l’est des États-Unis où l’on peut observer ces lucioles. Ce phénomène est le sujet de différents ouvrages scientifique : John B en fait un présentation détaillé dans [B 1988], il est la source d’inspiration de Steven H. S dans un chapitre de son livre [S 2003], mais on le retrouve aussi plus récemment dans [L et C 2008] par Sara M. L et Christopher K. C. Nous nous sommes inspirés de ce phénomène afin de simuler une synchronisation globale qui ne nécessite pas de connaissance globale. La fonctionnalité « Luciole » permet de répéter une même étape algorithmique en tentant de se synchroniser avec les autres lucioles connues. Chaque luciole exécute dans un premier temps le code qui lui est associé. Il s’agit d’envoyer une requête aux acteurs liés à la luciole et d’attendre que la requête ait été exé- cutée. La luciole émet ensuite un signal vers les lucioles dont elle a connaissance, c’est à dire qu’elle envoie une requête dont le but est d’indiquer qu’elle a terminé son exécution et qu’elle se prépare pour un nouveau cycle. Elle indique dans cette requête le temps t qui lui a été nécessaire afin de réaliser un cycle. Elle tente ensuite, pendant un temps maximal ∆t de recevoir les signaux de ses voisines. ∆t est égal à la différence entre le temps maximum 189. I F 11.5 : Les lucioles « synchrones » à Elkmont dans le parc national des Great Smoky Mountains tM mis par les lucioles voisines, et t : ∆t = { δ si t > tM tM − t +δ sinon La constante δ définit un délai minimal qui permet d’absorber d’éventuelles fluctuations dans le temps nécessaire à l’exécution d’un cycle. Lorsque tous les signaux ont été reçus, ou si le délai est écoulé, la luciole met à jour la valeur de tM en fonction des données reçues puis redémarre un nouveau cycle. La présence d’un temps d’expiration permet de ne pas bloquer définitivement le système dans l’attente d’une hypothétique réponse : la luciole tente d’attendre ses voisines, mais continue son chemin en cas d’absence de réponse. Nous avons développé un prototype permettant de tester ce concept. Pour cela, nous simulons des lucioles de façon à ce que chaque luciole possède son temps d’exécution, qui va évoluer au fur et à mesure de la simulation. Le comportement d’une luciole de ce prototype est donné par l’algorithme 8. Afin de mesurer le synchronisme du réseau de lucioles, nous utilisons la mesure ψ(v), définie par l’équation 11.1, qui permet de mesurer le décalage du début de l’exécution d’une luciole v avec ses voisines. La fonction ω(v) permet de définir la dernière date d’exécution de la luciole v. On peut alors observer la synchronisation globale en analysant la valeur moyenne ψ de ψ(v) pour l’ensemble L des lucioles (cf. équation 11.2). La figure 11.6 présente le tracé de cette mesure. On y voit que suite à une période de désynchronisation correspondant aux 80 premières secondes, le mesure atteint une valeur très proche de 0 ce qui nous permet de considérer que les lucioles se sont synchronisées. On observe ensuite une désynchronisation 19011.4. Services des agences Algorithme 8 : Cycle d’une luciole 1 début 2 tant que en vie faire /* La fonction random() retourne une valeur dans [−1; 1]. Le paramètre δdel ai définit l’évolution maximale du délai par cycle */ 3 délai ← délai+random()×δdel ai ; 4 flash(max) ; /* Nous demandons simplement à la luciole de faire une pause dans son exécution ce qui permet de simuler le temps qui serait nécessaire dans la pratique pour effectuer le traitement des actions */ 5 dormir(délai) ; 6 max ← délai; /* La fonction horloge() donne la date courante */ 7 d ← horloge()+(max−délai)+δ ; /* Le nombre de messages attendus dépend de la topologie du réseau d’interconnexion des lucioles. Pour simuler ce réseau, nous générons un graphe dans lequel chaque nœud représente une luciole */ 8 tant que d > horloge() et qu’il manque des messages faire 9 dormir(d-horloge()) ; 10 fin 11 pour chaque m ∈ messag es faire 12 max ← max(max,m); 13 fin 14 fin 15 fin autour de la 140ème seconde, puis à nouveau une synchronisation. On peut considérer le réseau synchronisé lorsque la mesure ψ passe en dessous d’un certain seuil ϵ. ψ(v) = 1 card(N(v)) × ∑ u∈N(v) |ω(v)−ω(u)| (11.1) ψ = 1 card(L) × ∑ v∈L ψ(v) (11.2) Ce type de synchronisation ne permet pas d’assurer la régularité des cycles. Elle permet en revanche de s’adapter complètement à la dynamique de l’infrastructure et de ne dé- pendre d’aucune centralisation, ce qui est en parfaite adéquation avec les objectifs que nous 191. I . . 20 40 60 80 100 120 140 160 180 200 220 240 0ms 200ms 400ms date (en secondes) . .ψ . . σ(ψ) 1 F 11.6 : Synchronisation des lucioles. La valeur moyenne ψ de la mesure ψ, ainsi que son écart type σ(ψ). recherchons. Les premiers tests réalisés grâce au prototype indiquent que ce concept est fonctionnel. Il est nécessaire d’élargir les expérimentations et de réaliser des tests sur une implantation en pratique. Références A, Gul et al. (1997). “A foundation for actor computation”. In : Journal of Functional Programming 7 (1), p. 1–72.  : 0956-7968. B, John (1988). “Synchronous rhythmic flashing of fireflies. II.” In : Quarterly Review of Biology, p. 265–289.  : 0033-5770. H, Carl, Peter B et Richard S (1973). “A universal modular actor formalism for artificial intelligence”. In : Proceedings of the 3rd international joint conference on Artificial intelligence. Morgan Kaufmann Publishers Inc., p. 235–245. H, Robert M. et Stephen E. D (2006). IP Version 6 Addressing Architecture.  : http://tools.ietf.org/html/rfc4291 (visité le 24/11/2013). L, Sara M et Christopher K C (2008). “Flash signal evolution, mate choice, and predation in fireflies”. In : Annu. Rev. Entomol. 53, p. 293–321.  : 0066-4170. M, Larry, Tim B-L et Roy T. F (2005). Uniform Resource Identifier (URI) : Generic Syntax.  : https://tools.ietf.org/html/rfc3986 (visité le 22/11/2013). S, Steven H (2003). Sync : The emerging science of spontaneous order. Hyperion.  : 0786868449. 192C  P Nous avons présenté, dans ces travaux, différents éléments permettant de contribuer à la modélisation d’un système distribué en tant qu’écosystème computationnel. Il s’agit d’un vaste domaine, et nous n’avons pas la prétention d’avoir apporté autre chose qu’un simple pas, sur la longue distance qu’il reste encore à parcourir avant d’atteindre un écosystème fonctionnel. Les systèmes complexes, et plus particulièrement leur simulation, ont permis de fixer le cadre et de définir les contraintes concernant les applications que l’on souhaite distribuer. Une première partie des travaux est concentrée sur les graphes dynamiques qui permettent de modéliser le réseau d’interactions sous-jacent à un système complexe. La diffi- culté réside dans la dynamique, dont nous avons présenté différentes approches, et tenté d’apporter une esquisse de formalisme. Nous exploitons le graphe afin d’en dégager de l’organisation. Nous avons repris pour cela l’algorithme AntCo2 , un algorithme fourmis permettant de détecter des organisations dans un graphe dynamique, et nous avons proposé des améliorations visant à réduire l’oscillation des nœuds entre plusieurs organisations. De plus, nous proposons d’utiliser la centralité, et plus particulièrement les centroïdes, afin de dé- tecter des organisations fragiles et ainsi augmenter la robustesse du système. La manipulation du graphe est possible grâce à un outil de modélisation que nous présentons : G- S. Il permet de fournir les bases d’une architecture permettant de gérer la dynamique d’un graphe. Les travaux se concentrent ensuite sur le système distribué. La détection d’organisations est utilisée afin de répartir la charge du système sur un ensemble dynamique de machines. Cela permet de plus de réduire la charge du réseau. Nous avons présenté une plateforme qui permet d’aborder la distribution de manière décentralisée. L’objectif est de former un système qui soit robuste et résilient, et pour cela il doit être en mesure de s’adapter à la dynamique et aux différentes perturbations provoquant des évènements imprévisibles. Nous utilisons pour cela le modèle d’acteur, ainsi qu’un système où tout est acteur. L’aspect dé- centralisé apportant son lot de contraintes, nous avons fait certaines propositions afin de permettre une première dans la résolution de certains de ces problèmes : la découverte des machines voisines participant à la distribution, et la création d’un synchronisme global ne faisant appel qu’à des mécanismes locaux. Notre problématique possède de nombreux aspects : de la modélisation des graphes dynamiques, à la distribution en pratique d’une application, en passant par la détection de com- 193. I munauté, la répartition de charges, ou encore la centralité d’un graphe. De plus, beaucoup de temps a été consacré au développement durant cette thèse : d’une part de l’outil de modélisation de graphes dynamique GS ainsi que de ces multiples extensions ; et d’autre part de la plateforme de distribution. De ce fait, une seule thèse ne suffit pas à approfondir sérieusement tous les aspects du travail, et certaines choses mériteraient donc d’être validées de façon plus importante. Les perspectives, qui vont définir la suite de ces travaux, sont donc multiples. Nous avons ouvert une nouvelle piste permettant d’augmenter la résilience du système en détectant les centroïdes des organisations. Il est nécessaire par la suite d’approfondir les expérimentations de l’algorithme proposé, en particuliers en élargissant les topologies de graphe considérées. Puis de continuer dans cette voie en appliquant l’algorithme de détection de centroïde à l’affinage des résultats de la détection d’organisations afin d’augmenter la robustesse de ces organisations. Il devra s’en suivre des expérimentations afin d’évaluer le gain apporté. La bibliothèque de modélisation GS, qui a été développée au cours de ces travaux, possède désormais une base solide. Il s’agit d’un outil qui est déjà utilisé en pratique et qui possède sa propre communauté. Elle fait régulièrement l’objet d’atelier au sein de la conférence ECCS  [D et P 2010 ; D, P et S 2011] et de tutoriels au cours l’école thématique CSSS  en 2012 et 2013. Du temps supplémentaire devra lui être accordé par la suite pour continuer son amélioration et ses possibilités afin de fournir un outil qui soit le plus complet possible. Nous avons par exemple commencé à nous intéresser à l’interconnexion deGS avec une base de donnée de type NoSQL . Différents outils existent déjà, des serveurs de base de données comme par exemple Neo4J , Titan , ou encore InfiniteGraph  ; mais aussi des interfaces de programmation comme par exemple Cypher , Gremlin  ou Blueprints . Pour plus d’informations sur ce sujet, la page W  propose une liste plus exhaustive de ces différents outils. Le but ne serait pas ici d’apporter un n-ième outil qui apporterait des fonctionnalités déjà existantes mais : 1. de permettre l’interaction de GS avec les outils existants ; 2. étudier de quelle façon notre bibliothèque pourrait contribuer à ce domaine en apportant son savoir-faire en terme de dynamique de graphes. 4. European Conference on Complex System 5. Complex Systems Summer School 6. Not Only SQL 7. http://www.neo4j.org/ 8. http://thinkaurelius.github.com/titan/ 9. http://infinitegraph.com/ 10. http://www.neo4j.org/learn/cypher 11. http://gremlin.tinkerpop.com/ 12. http://blueprints.tinkerpop.com/ 13. https://en.wikipedia.org/wiki/Graph_database 194Références Cette approche fait partie des voies que nous avons à explorer dans le cadre de la mise en œuvre de graphes distribués qui est une perspective importante de notre problématique. Les travaux commencé au cours de cette thèse sur le changement d’échelle n’en sont qu’à leurs balbutiements. Le projet « organic », librement consultable sur la forge logicielle Github  vise à produire de manière automatique un graphe qui soit une vue macroscopique d’un autre. Il est basé sur GS et correspond aux travaux qui ont été réalisés sur la réification des organisations. Plus de temps sont nécessaires pour approfondir ce projet, améliorer ses performances et son ergonomie, ce qui rentre pleinement dans les perspectives de nouveaux travaux qui prendront la suite de ceux-ci. Nous avons aussi commencé à envisager l’étude des organisations en nous focalisant sur les membranes de ces organisations, c’est à dire la frontière délimitant l’organisation et dont les nœuds sont en contact avec d’autres organisations. Cette membrane semble jouer un rôle important dans la représentation des organisations et une discussion importante est nécessaire afin d’explorer ce sujet en profondeur. 14. https://github.com/gsavin/organic 195Annexes 197A A U      :   A.1 Règles de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 A.2 Voisinage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 A.3 Intégration dans GS . . . . . . . . . . . . . . . . . . . . 201 Nous utilisons régulièrement dans ces travaux le modèle comportemental des boids, introduit dans [R 1987]. Craig R souhaitait pouvoir reproduire dans une simulation le comportement de groupe que l’on retrouve dans les nuées d’oiseaux, les troupeaux d’animaux terrestres, ou encore les bancs de poissons. Ce modèle a été utilisé dans des jeux vidéos (Half-Life par exemple) ainsi que dans des films (Batman Returns de Tim B entre autres). Nous lui portons un intérêt particulier du fait qu’il permet de créer un réseau d’interactions dans lequel on observe des propriétés émergentes. L’interaction est définie par la proximité entre les individus, qui fait que la présence d’un boid va influencer les propriétés de ses voisins. Les propriétés émergentes du système sont les organisations qui se créent. Ce modèle est donc particulièrement adapté pour nos expérimentations. A.1 Règles de base Ce modèle définit le comportement d’un individu à partir de trois règles : 1. la séparation ; 199A. U      :   . séparation alignement cohésion F A.1 : Règles appliquées aux boids telles que définies par Craig R. 2. l’alignement ; 3. la cohésion. La séparation est un mécanisme qui permet d’éviter aux boids les collisions avec leurs voisins. Lorsqu’un boid est trop proche d’un de ses voisins, il est alors repoussé par ce dernier. L’alignement, quant à lui, fait que chaque individu tente d’aligner le vecteur définissant sa direction et sa vitesse sur celui de ces voisins. Enfin, la cohésion défini l’attraction exercée sur un boid par ses voisins proches. A.2 Voisinage Le voisinage d’un boid regroupe ses voisins les plus proches. Il est donc nécessaire de définir une distance maximale qui permet d’expliciter cette proximité : pour un boid donné, son voisinage correspond à l’ensemble des boids se trouvant à une distance inférieure à la distance maximale définie. Cette distance maximale seule ne permet pas de définir un voisinage correct du fait qu’il inclut à la fois les individus qui se trouvent devant et derrière le boid considéré. Ceci peut mener à la stagnation des groupes de boids. C’est pourquoi nous introduisons l’angle correspondant à un champ de vision qui permet de définir en fonction de la direction d’un boid les individus qu’il peut “voir” et qui vont donc influencer sa trajectoire. Nous limitons de plus le nombre d’individus qui peuvent être contenu dans un même voisinage. La raison est d’éviter l’explosion exponentielle du nombre d’interactions lors de la création de groupes et empêcher ainsi la création d’amas de boids, qui d’une part sont peu représentatif de la réalité, et d’autre part, apporte une contrainte majeure en terme de complexité lors de l’étude du graphe modélisant le réseau d’interactions. Les individus les plus proches sont sélectionnés en priorité. Le voisinage peut être calculé de manière gloutonne, ce qui implique pour chaque individu de considérer l’ensemble de la population. Ainsi, la complexité d’une étape est O(n 2 ) où n représente la taille de la population. Cette méthode a l’avantage d’être facilement mise en place, et peut être efficace pour des tailles de population faibles. En revanche, elle s’avère 200A.3. Intégration dans GS inutilisable lorsque la taille de la population est importante. C’est pourquoi nous ajoutons une seconde méthode utilisant un n-tree, qui permet de diviser l’espace en cellules. Chaque individus n’a alors à considérer que la cellule dont il fait partie et éventuellement les cellules avoisinantes. On réduit ainsi la complexité en limitant les individus considérés à ceux suffisamment proches. A.3 Intégration dans GS Notre implantation du modèle de boids est réalisée en utilisant la bibliothèque logicielle GS. Chaque boid est directement modélisé par un nœud, et le réseau d’interactions par un graphe. Il est possible de définir plusieurs espèces de boids avec ses propres caractéristiques. La configuration est effectuée via les attributs du graphe et peut donc être stockée facilement dans un fichier DGS. La simulation est disponible à la fois en tant que graphe mais aussi en tant que générateur de graphe, ce qui permet de l’intégrer facilement dans des applications existantes. 201A B S   B.1 Simulation statique, S1 . . . . . . . . . . . . . . . . . . . . . . . . 203 B.2 Simulation dynamique, S2 . . . . . . . . . . . . . . . . . . . . . . 204 Cette annexe décrit les graphes qui ont été utilisés par les simulations S1 et S2 lors de l’étude du lissage des résultats de l’algorithme AntCo2 dans la partie 10.3. B.1 Simulation statique, S1 La simulation S1 est effectuée sur un graphe statique dont la topologie est une grille. On considère un espace en deux dimensions divisé à intervalles réguliers. Chaque case ainsi formée représente un nœud qui est connecté aux quatre cases adjacentes : nord, sud, ouest et est. Un exemple d’une telle grille est donné dans la figure B.1. On peut étendre le voisinage d’un nœud, bien que ça ne soit pas le cas pour cette simulation, aux quatre cases accessibles en diagonale : nord-ouest, nord-est, sud-ouest et sud-est. Chaque nœud est donc de degré 4, excepté les nœuds de la bordure de degré 3 et les quatre nœuds des coins de degré 2. Il est possible d’obtenir une structure entièrement régulière en plaquant la grille sur un tore comme illustré dans la figure B.2. Dans le cadre de la simulation S1, on considère une grille de dimension 101×101, composée de 10201 nœuds pour 20200 arêtes. La génération du graphe est faite avant l’exécution de l’algorithme AntCo2 . Ce dernier est ensuite exécuté pendant 10000 cycles. 203B. S   . F B.1 : Une grille de dimension 11×11 . . 1 F B.2 : Un exemple de grille plaquée sur un tore B.2 Simulation dynamique, S2 La simulation S2 est effectuée, quant à elle, sur un graphe dynamique. La dynamique porte sur les interactions, l’ensemble des nœuds restant fixe. Nous utilisons le modèle des boids, décrit dans l’annexe A, afin de générer les interactions entre les entités. Deux espèces de boids sont utilisés : les moustiques et les abeilles. Les paramètres de ces espèces sont donnés dans la table B.1. La seconde espèce permet d’ajouter de la perturbation dans le graphe en repoussant les boids première espèce. Au total, 10000 nœuds sont créés, la quantité d’arêtes varie selon les cycles pour une moyenne d’environ 50000 nouvelles arêtes par cycle. Pour chacun des 10000 cycles, on fait donc évoluer la structure du graphe grâce aux boids, puis on effectue un cycle de l’algorithme AntCo2 . 204B.2. Simulation dynamique, S2 Moustiques Abeilles 0 angle de vue 0.25 0.15 distance de visibilité 0.15 0.3 facteur de vitesse 0.3 0.9 vitesse max 1.0 0.04 vitesse min 0.1 0.1 facteur de direction 0.2 0.5 facteur d’attraction 0.3 0.001 facteur de répulsion 0.005 1.1 inertie 1.1 10 taille max du voisinage 10 9000 quantité 1000 T B.1 : Paramètres du modèle de boids utilisé pour la simulation S2 205A C GS C.1 Diagrammes de classes . . . . . . . . . . . . . . . . . . . . . . . . 207 C.1.1 Éléments . . . . . . . . . . . . . . . . . . . . . . . . . . 207 C.1.2 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . 211 C.1.3 Source et puits . . . . . . . . . . . . . . . . . . . . . . . . 211 C.1.4 Fichiers . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 C.1.5 Algorithmes et générateurs . . . . . . . . . . . . . . . . . . 215 C.2 Spécifications de DGS au format BNF . . . . . . . . . . . . . . . . . 215 C.1 Diagrammes de classes Nous exposons, dans cette partie de l’annexe, certaines classes de la bibliothèqueG- S. C.1.1 Éléments Il s’agit de la structure de base qui définit un objet pouvant contenir des attributs. Les méthodes getAttribute(String) et hasAttribute(String) possèdent différentes dé- clinaisons (qui ne sont pas présentées dans le schéma) permettant d’apporter des précisions sur le type de l’attribut, par exemple getNumber(String) ou hasLabel(String). 207C. GS Element . String getId(); int getIndex(); getAttribute(String); boolean hasAttribute(String); void addAttribute(String, Object); void setAttribute(String, Object); void removeAttribute(String); int getAttributeCount(); . AbstractElement abstract void attributeChanged(Event,String,Object,Object); Element La classe AbstractElement permet de regrouper les parties de code communes aux nœuds, arêtes et aux graphes, concernant la gestion des attributs. De même, les classes AbstractNode, AbstractEdge et AbstractGraph regroupent respectivement le code commun aux différentes implantations de nœuds, d’arêtes et de graphes. Node . Graph getGraph(); int getDegree(); boolean hasEdgeBetween(String|int); Edge getEdgeBetween(String|int); Iterator getEdgeIterator(); Iterator getNeighborNodeIterator(); Iterable getEachEdge(); . Element Certaines variations des méthodes ne sont pas présentées dans ce schéma. Il est par exemple possible de faire la distinction entre arêtes sortantes et entrantes. La méthode getDegree(), par exemple, est alors déclinée en getInDegree() et getOutDegree(), de même que la méthode getEdgeBetween(String) possède ses variations getEdgeToward(String) 208C.1. Diagrammes de classes et getEdgeFrom(String). Les itérateurs possèdent aussi leurs variantes qui permettent par exemple d’utiliser un parcours en largeur ou en profondeur. . AbstractNode abstract void addEdgeCallback(AbstractEdge); abstract void removeEdgeCallback(AbstractEdge); abstract void clearCallback(); AbstractElement Node Edge. Graph getGraph(); boolean isDirected(); boolean isLoop(); Node getNode0(); Node getNode1(); Node getSourceNode(); Node getTargetNode(); Node getOpposite(Node); . Element AbstractEdge . AbstractElement Edge 209C. GS Graph . Node addNode(String); Node getNode(String|int); Node removeNode(String|int); Edge addEdge(String,String,String[,boolean]); Edge getEdge(String|int); Edge removeEdge(String|int); void clear(); double getStep(); void stepBegins(double); void setNodeFactory(NodeFactory); void setEdgeFactory(EdgeFactory); void setStrict(boolean); void setAutoCreate(boolean); void read(String); void write(String); Viewer display([boolean]); . Element Structure Pipe . AbstractGraph abstract void addNodeCallback(AbstractNode); abstract void removeNodeCallback(AbstractNode); abstract void addEdgeCallback(AbstractEdge); abstract void removeEdgeCallback(AbstractEdge); abstract void clearCallback(); . AbstractElement Graph 210C.1. Diagrammes de classes C.1.2 Structure Structure . int getNodeCount(); int getEdgeCount(); Iterator getNodeIterator(); Iterator getEdgeIterator(); Iterable getEachNode(); Iterable getEachEdge(); Collection getNodeSet(); Collection getEdgeSet(); La structure permet de définir un objet qui va contenir des nœuds et des arêtes. L’objectif est de fournir une façon générique de modéliser un tel objet afin de permettre un développement plus large. Par exemple, en considérant une classe Organisation qui implanterait cette interface, il serait possible d’y appliquer un algorithme qui manipule la structure, plutôt que de limiter la portée de cet algorithme aux graphes. C.1.3 Source et puits Source . void addSink(Sink); void addElementSink(ElementSink); void addAttributeSink(AttributeSink); void removeSink(Sink); void removeElementSink(ElementSink); void removeAttributeSink(AttributeSink); void clearSinks(); void clearElementSinks(); void clearAttributeSinks(); ElementSink . void nodeAdded(String,long,String); void nodeRemoved(String,long,String); void edgeAdded(String,long,String,String,String,boolean); void edgeRemoved(String,long,String); void graphCleared(String,long); void stepBegins(String,long,double); 211C. GS L’interface ElementSink définit un objet qui est capable de recevoir les événements liés aux modifications de la structure du graphe. AttributeSink . void {node|edge}AttributeAdded(String,long,String,String,Object); void graphAttributeAdded(String,long,String,Object); void {node|edge}AttributeChanged(String,long,String,String,Object,Object); void graphAttributeChanged(String,long,String,Object,Object); void {node|edge}AttributeRemoved(String,long,String,String); void graphAttributeRemoved(String,long,String); En complément, l’interface AttributeSink définit un objet qui est capable de recevoir les événements liés aux modifications des attributs des différents éléments d’un graphe, ainsi que du graphe lui-même. Sink. ElementSink AttributeSink L’interface Sink définit un objet qui est à la fois un ElementSink et AttributeSink. Pipe. Source Sink La classe Pipe représente un canal. Il s’agit simplement d’un objet qui est à la fois une source et un puits. L’intérêt des canaux est de permettre de définir la façon dont les évènements sont transmis entre une source et un puits. On peut alors créer des proxys qui permettent de faire transiter les évènements entre une source et un puits situés dans différents threads d’exécution, ou sur différentes machines. Replayable . Controller getReplayController(); 212C.1. Diagrammes de classes Replayable.Controller . void replay([String]); L’interface Replayable permet de caractériser une source qui peut être rejouée, c’est à dire qui possède une certaine mémoire. Un graphe par exemple, possède la mémoire de son état courant, mais pas de sa dynamique, il peut donc être en partie « rejoué ». C.1.4 Fichiers FileSource . void readAll(String|InputStream|Reader|URL); void begin(String|InputStream|Reader|URL); boolean nextEvents(); boolean nextStep(); void end(); . Source Un objet de type FileSource permet de définir une source qui va lire les événements dans un fichier. L’intégralité du fichier peut être lue à l’aide de la méthode readAll(), ou la lecture peut se faire événement par événement, ou encore par bloc d’événements. . FileSource FileSourceDGS FileSourceGEXF FileSourceTLP FileSourcePajek FileSourceGML FileSourceGPX FileSourceDOT FileSourceEdge FileSourceGraphML 213C. GS FileSink . void writeAll(String|InputStream|Reader|URL); void begin(String|InputStream|Reader|URL); void flush(); void end(); Sink Les objets FileSink permettent quant à eux d’écrire le graphe dans un fichier. En fonction du format, la dynamique pourra être exportée ou non. . FileSink FileSinkDGS FileSinkGEXF FileSinkSVG FileSinkImages FileSinkGML FileSinkTikZ FileSinkDOT FileSinkDynamicGML FileSinkGraphML Afin de faciliter la gestion des différentes sources et puits fichiers, il existe des « fabriques » qui permettent de créer une source ou un puits correspondant à un nom de fichier, en fonction de l’extension de celui-ci. . FileSourceFactory FileSource sourceFor(String); . FileSinkFactory FileSink sinkFor(String); Ces fabriques sont utilisées par exemple dans l’implantation des méthodes read(..) et write(..) de Graph. 214C.2. Spécifications de DGS au format BNF C.1.5 Algorithmes et générateurs Les interfaces Algorithm et DynamicAlgorithm décrivent la forme générique des algorithmes dans GS. La première permet de définir un algorithme visant à s’exécuter ponctuellement sur un graphe. Il est alors initialiser, puis calculer au travers de la méthode compute(). Un algorithme dynamique est, quant à lui, régulièrement exécuté, par exemple à chaque évènement stepBegins. Il se différencie d’un algorithme statique par la méthode terminate() qui marque la fin de l’exécution de l’algorithme. Algorithm . void init(Graph); vodi compute(); DynamicAlgorithm void terminate(); Generator . void begin(); boolean nextEvents(); vodi end(); Source Les objets de type Generator permettent de générer de manière algorithmique des graphes. C.2 Spécifications de DGS au format BNF GS introduit son propre format de fichier, le format DGS pour « Dynamic Graph Stream ». Ce format, présenté dans la partie 9.3.1, permet de stocker un flux d’évé- nements décrivant la dynamique d’un graphe. Chaque ligne décrit alors un événement. La grammaire de ce format de fichier est donnée dans ce qui suit, sous la forme de Backus-Naur. ::=
( | | )*
::= ::= “DGS004” | “DGS003” ::= ( | | | | | | | | ) ( | ) ::= “an” 215C. GS ::= “cn” ::= “dn” ::= “ae” ( )? ::= “ce” ::= “de” ::= “cg” ::= “st” ::= “cl” ::= ( )* ::= ( ‘+’ | ‘-’ )? ( ( ‘,’ )* )? ::= | | ‘’ | | ::= ‘{’ ( ( ‘,’ )* )? ‘}’ ::= ‘[’ ( ( ‘,’ )* )? ‘]’ ::= ::= ‘<’ | ‘>’ | ‘’ ::= ‘=’ | ‘:’ ::= | | ( ‘.’ )* ::= ‘#’ ( . )* ::= ‘0’ | ( ‘1’ .. ‘9’ ) ( ‘0’ .. ‘9’ )* ::= ( ‘.’ ( ‘0’ )* )? ::= ( ‘a’ .. ‘z’ | ‘A’ .. ‘Z’ ) ( ‘a’ .. ‘z’ | ‘A’ .. ‘Z’ | ‘0’ .. ‘9’ | ‘-’ | ‘_’ )* ::= ‘”’ ( [ˆ‘”’] | ‘”’ )* ‘”’ 216A D P 3 D.1 Diagramme de classes . . . . . . . . . . . . . . . . . . . . . . . . 217 D.2 Requêtes aux acteurs . . . . . . . . . . . . . . . . . . . . . . . . . 220 La plateforme d3 , pour « dynamic and decentralized distribution », est l’intergiciel qui a été développé pendant cette thèse. Le code est hébergé sur la forge Github à l’adresse : https://github.com/gsavin/d3 et une description est disponible sur le site qui lui est dédié : http://d3-project.org/ D.1 Diagramme de classes Nous présentons ici une partie des classes composant la plateforme de distribution, en particulier la partie correspondant au modèle d’acteur. La classe abstraite Actor donne la base pour l’ensemble des acteurs. Elle regroupe les composants permettant de définir son URI. L’acteur qui étend cette classe doit définir les méthodes call(..) permettant d’effectuer une requête sur cet acteur. 217D. P 3 . abstract Actor String id; HostAddresse address; String agencyId; String path; IdentifiableType getType(); URI getURI(); abstract boolean isRemote(); abstract Object call(String name, Object... args); abstract void call(String name, Future future, Object ... args); On distingue, tout d’abord, les acteurs locaux LocalActor correspondant aux acteurs situés sur l’agence courante, des acteurs distants RemoteActor. . LocalActor BodyThread thread; BodyMap callables; void init(); void terminate(); void migrate(); void join(); . Actor . RemoteActor RemoteAgency getRemoteAgency(); Actor L’acteur principal de la plateforme est l’agence défini par la classe Agency. Elle permet de donner un point d’ancrage aux acteurs locaux et de regrouper les acteurs distants. 218D.1. Diagramme de classes . Agency static Agency getLocalAgency(); Features getFeatures(); Protocols getProtocols(); Actors getActors(); RemoteHosts getRemoteHosts(); RemoteActors getRemoteActors(); void register(LocalActor); void unregister(LocalActor); . LocalActor Les fonctionnalités de l’agence peuvent être étendues grâce aux acteurs Feature. . abstract Feature abstract void initFeature(); LocalActor Certains acteurs ont la permission d’effectuer des échanges réseaux, en particulier d’ouvrir un port d’écoute de connexions extérieures. Ces acteurs sont nommés protocoles, et représentés par la classe Protocol. Une sous catégorie de ces protocoles, les transmetteurs, permettent de transmettre une requête d’une agence à l’autre. Ils sont définis par la classe Transmitter. . abstract Protocol final InetSocketAddress socketAdress; final String scheme; InetAddress getAddress(); int getPort(); String getScheme(); abstract void listen(); . LocalActor 219D. P 3 . abstract Transmitter CodingMethod getPreferredCodingMethod(); void transmit(RemotePort, Call); void transmitFuture(RemotePort, String, Object); abstract SelectableChannel getChannel(); abstract int read(ReadableByteChannel); abstract void close(Channel); abstract void write(Request); abstract void write(FutureRequest); . Protocol Les entités sont des acteurs qui ont la possibilité de migrer d’une agence à une autre. Elles sont définies par la classe Entity. . Entity void initEntity(); void migrateTo(RemoteAgency); LocalActor Le résultat d’une requête envoyée à un acteur est retourné sous la forme d’un Future. Il permet de gérer la mise à disposition asynchrone de ce résultat. . Future String getId(); void init(Object value); T getValue(); boolean isAvailable(); void waitForValue(); D.2 Requêtes aux acteurs Une classe définissant un acteur doit indiquer quelles méthodes peuvent être invoquées par d’autres acteurs. Cela est possible grâce à l’annotation @Callable. La figure D.1 montre la définition d’une telle méthode. 220D.2. Requêtes aux acteurs public class MonEntite extends Entity { ... @Callable(”nom.de.la.requete”) public void uneMethodeInvocable() { ... } ... } F D.1 : Exemple de méthode invocable dans d3 Lorsqu’une nouvelle classe d’acteur est détectée par l’agence, d3 construit une « carte » de l’anatomie de l’acteur, c’est à dire qu’il détecte les méthodes qui peuvent être appelées grâce aux requêtes, et fait une association entre le nom de la requête et un objet qui permet d’appeler la méthode correspondante. Afin d’optimiser l’exécution, cet objet est compilé à la volée une seulefois. Dans le cas où un problème empêcherait cette compilation, la plateforme se rabat sur la « réflection ». 221Bibliographie et index 223B A, Gul et al. (1997). “A foundation for actor computation”. In : Journal of Functional Programming 7 (1), p. 1–72.  : 0956-7968. A, Rodrigo et Ignacio M (2011). “Deciphering network community structure by surprise”. In : PloS one 6 (9), e24195.  : 1932-6203. A, D. P. (nov. 2003). “Public Computing : Reconnecting People to Science”. In : Presented at the Conference on Shared Knowledge and the Web, Residencia de Estudiantes, Madrid, Spain.  : http://boinc.berkeley.edu/madrid.html. A, David et al. (2003). “Multiscale Visualization of Small World Networks.” In : INFOVIS. T. 3, p. 75–81. A, Robert (1995). The Cambridge Dictionary of Philosophy. en. Cambridge University Press. 2390 p.  : 9781107268616. A, Baruch et R G (1987). “A new distributed algorithm to find breadth first search trees”. In : Information Theory, IEEE Transactions on 33 (3), p. 315–322.  : 0018-9448. B, Thomas (1994). Evolutionary algorithms in theory and practice. T. Bäck. B, Laurent et al. (2006). “Programming, Composing, Deploying for the Grid”. Anglais. In : Grid Computing : Software Environments and Tools. Sous la dir. d’Omer F. C Jose C. ; Rana. Springer, p. 205–229. : 978-1-85233-998-2.  : http:// hal.inria.fr/inria-00486114/PDF/ProgrammingDeployingComposingForTheGrid. pdf. B, Henry et Carl H (1977). “Laws for communicating parallel processes”. In : B, Roberto et al. (2007). “Looking for a definition of dynamic distributed systems”. In : Parallel Computing Technologies. Springer, p. 1–14.  : 3540739394. B, A. et E. B (2003). “Scale-Free Networks”. In : Scientific American, p. 50– 59. B, Albert-László et Réka A (1999). “Emergence of Scaling in Random Networks”. In : Science 286 (5439), p. 509–512. : 10.1126/science.286.5439.509.  : http://www.sciencemag.org/content/286/5439/509.abstract. B, Vladimir et Andrej M (2004). Pajek—analysis and visualization of large networks. Springer.  : 3642622143. B, M. A. (1999). “Weak Emergence”. In : T, James E. Philosophical Perspectives, Mind, Causation And World. T. 11, p. 375–399.  : 9780631207931. 225B B, Richard (1956). On a routing problem. DTIC Document. B-M, Skye et Daniel A MF (2006). “The art and science of dynamic network visualization”. In : Journal of Social Structure 7 (2), p. 1–38. B, Cyrille et al. (2006). “Organization Detection Using Emergent Computing”. In : International Transactions on Systems Science and Applications 2 (1), p. 61–70. — (2007). “Organization Detection for Dynamic Load Balancing in Individual-Based Simulations”. In : Multi-Agent and Grid Systems 3 (1), p. 42.  : http://litis.univlehavre.fr/%20dutot/biblio/MAGS2007.pdf. B, Toni A et Ramesh K K (2003). “A survey of middleware”. In : Computers and Their Applications, p. 254–258. B, S. et al. (2006). “Complex Networks : Structure and Dynamics”. In : Phys. Rep. 424 (4-5), p. 175–308. B, Stephen P. et Martin G. E (2006). “A Graph-theoretic perspective on centrality”. In : Social Networks 28 (4), p. 466–484.  : 0378-8733.  : DOI : 10 . 1016/j.socnet.2005.11.005.  : http://www.sciencedirect.com/science/ article/B6VD1-4J32JGJ-1/2/c8bf3911c0e5bb0e701c0a541e380475. B, Otakar (1926). “O jistém problému minimálním (About a certain minimal problem)”. In : Práce mor. přírodověd. spol. v Brně III (3), p. 37–58. B, Ulrik (2001). “A Faster Algorithm for Betweenness Centrality”. In :Journal of Mathematical Sociology 25, p. 163–177. B, Sergey et Lawrence P (1998). “The anatomy of a large-scale hypertextual Web search engine”. In : Computer networks and ISDN systems 30 (1), p. 107–117.  : 0169-7552. B, John (1988). “Synchronous rhythmic flashing of fireflies. II.” In : Quarterly Review of Biology, p. 265–289.  : 0033-5770. B-X, B., A. F et A. J (avr. 2003). “Computing shortest, fastest, and foremost journeys in dynamic networks”. In : International Journal of Foundations of Computer Science 14 (2), p. 267–285. C, Alain et al. (2006). “Emergent Properties in Natural and Artificial Dynamical Systems”. In : sous la dir. de Moulay Aziz A et Cyrille B. Springer complexity : Understanding Complex Systems. Springer Verlag, p. 25–52.  : http : / / litis . univ-lehavre.fr/%20dutot/biblio/EPNADS2006.pdf. C, A. et al. (2012). “Time-Varying Graphs and Dynamic Networks”. In : International Journal of Parallel, Emergent and Distributed Systems. In press.  : 10.1080/ 17445760.2012.668546. Č, V. (1985). “Thermodynamical approach to the traveling salesman problem : An ef- ficient simulation algorithm”. In : Journal of Optimization Theory and Applications 45, p. 41–51. C, David J. (1997). The Conscious Mind : In Search of a Fundamental Theory.  : 0195117891. — (2006). “Strong and weak emergence”. In : The reemergence of emergence, p. 244– 256. 226Bibliographie C, Kumar et David B F (1999). “Fitness distributions in evolutionary computation : motivation and examples in the continuous domain”. In : BioSystems 54 (1), p. 15–29.  : 0303-2647. C, Nacim Fateh (2010). “Calcul de centralité et identification de structures de communautés dans les graphes de documents.” Université de Toulouse III.  : http:// thesesups.ups-tlse.fr/1364/. C, Fan RK (1997). Spectral graph theory. T. 92. AMS Bookstore.  : 0821803158. C, Aaron, MarkN et Cristopher M (2004). “Finding community structure in very large networks”. In : Physical review E. APS 70 (6), p. 066111. C, P. et D. R. C. H (1997). Modélisation et Simulation des Écosystèmes. Masson. C, Thomas H. et al. (2009). “Introduction to Algorithms”. In : MIT Press, p. 558– 565.  : 978-0-262-03384-8. C, Corina, Daryl P et Chris V (déc. 2003). “Computational Methods for Dynamic Graphs”. In : Journal of Computational & Graphical Statistics 12 (4). ISSN 1061-8600, Online ISSN : 1537-2715, 950–970(21). C, George, JeanD et TimK (2012).Distributed Systems : Concepts and Design Edition 5. Addison-Wesley.  : 978-0-13-214301-1. C, Nichael Lynn (1985). “A Representation for the Adaptive Generation of Simple Sequential Programs”. In : ICGA, p. 183–187. C, Edward (2004). “Message-oriented middleware”. In : Middleware for communications, p. 1–28. D, Camil, David E, Zvi G et Giuseppe F. I (2010). “Algorithms and theory of computation handbook”. In : sous la dir. de Mikhail J. A et Marina B. Chapman & Hall/CRC, p. 9–9.  : 978-1-58488-822-2.  : http:// portal.acm.org/citation.cfm?id=1882757.1882766. D, Camil, David E, Zvi G et Giuseppe F I (2010). “Dynamic graph algorithms”. In : Algorithms and theory of computation handbook. Chapman & Hall/CRC, p. 9–9.  : 1584888229. D, Camil et Giuseppe F. I (2006). “Fully dynamic all pairs shortest paths with real edge weights”. In :J. Comput. Syst. Sci. 72 (5), p. 813–837. : 0022-0000.  : 10.1016/j.jcss.2005.05.005. D, Johannes, Gabi L et Elisavet H F (2012). “TSH and Thyrotropic Agonists : Key Actors in Thyroid Homeostasis”. In : Journal of thyroid research. D, E. W. (1959). “A note on two problems in connexion with graphs”. In : Numerische Mathematik 1, p. 269–271. D, Marco (1992). “Optimization, learning and natural algorithms”. In : Ph. D. Thesis, Politecnico di Milano, Italy. D, Marco, Gianni D C et Luca M G (1999). “Ant algorithms for discrete optimization”. In : Artificial life 5 (2), p. 137–172. 227B D, Marco, Vittorio M et Alberto C(1996). “The Ant System : Optimization by a colony of cooperating agents”. In :IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS-PART B 26 (1), p. 29–41. D, S. N. et J. F. F. M (2002). “Evolution of networks”. In : Adv. Phys, p. 1079–1187. — (2003). Evolution of Networks : From Biological Nets to the Internet and WWW. Oxford University Press. D, Stuart (2002). “Richard Bellman on the Birth of Dynamic Programming”. In : Oper. Res. 50 (1), p. 48–51.  : 0030-364X.  : 10.1287/opre.50.1.48.17791.  : http://portal.acm.org/citation.cfm?id=767815.769382. D, Antoine (2005). “Distribution dynamique adaptative par des mécanismes d’intelligence collective, détection d’organisations par des techniques de collaboration et de compétition”. FST, Université du Havre : LITIS, Laboratoire d’Informatique, de Traitement de l’Information et des Systèmes. 206 p.  : http://litis.univ-lehavre. fr/%20dutot/biblio/PhdThesisDutot.pdf. D, Antoine, Frédéric G et al. (2007). “GraphStream : A Tool for bridging the gap between Complex Systems and Dynamic Graphs”. In : EPNACS : Emergent Properties in Natural and Artificial Complex Systems. D, Antoine et Yoann P (2009). “Tour d’horizon des problèmes combinatoires traités par les fourmis artificielles”. In : Fourmis artificielles 1, Des bases de l’optimisation aux applications industrielles, p. 71–100. — (sept. 2010). “GraphStream Workshop”. In : Emergent Properties in Natural and Arti- ficial Complex Systems (EPNACS) in European Conference on Complex System (ECCS) 2010. D, Antoine et al. (oct. 2006a). “Pyocyanic Bacillus Propagation Simulation”. In : CoSSom workshop in European Simulation and Modeling conference (ESM). Toulouse, France.  : http://litis.univ-lehavre.fr/%20dutot/biblio/COSSOM2006.pdf. E, S. R. (2004). “What is dynamic programming ?” In : Nat Biotech 22, p. 909–910. E, Wolfgang (2000). Engineering distributed objects. Wiley.com. E, D. (déc. 1995). “Dynamic Euclidean minimum spanning trees and extrema of binary functions”. In : Discrete and Computational Geometry 13 (1), p. 111–122.  : 10.1007/BF02574030.  : http://dx.doi.org/10.1007/BF02574030. E, Leonhard (1741). “Solutio problematis ad geometriam situs pertinentis”. In : Commentarii academiae scientiarum Petropolitanae 8, p. 128–140. F, Kevin (2003). “A delay-tolerant network architecture for challenged internets”. In : Proceedings of the 2003 conference on Applications, technologies, architectures, and protocols for computer communications. ACM, p. 27–34.  : 1581137354. F, Afonso (mai 2002). “On models and algorithms for dynamic communication networks : The case for evolving graphs”. In : 4e rencontres francophones sur les Aspects Algorithmiques des Telecommunications (ALGOTEL’2002). Mèze, France. F, C. M. et R. M. M (1982). “A linear time heuristic for improving network partitions”. In : ACM IEEE Design Automation Confe- rence, pages, p. 175–181. 228Bibliographie F, Robert W. (1962). “Algorithm 97 : Shortest Path”. In : Communications of the ACM 5 (6), p. 345. F, Michael J (1966). “Very high-speed computing systems”. In : Proceedings of the IEEE 54 (12), p. 1901–1909.  : 0018-9219. F, David B. (2006). Evolutionary Computation : Toward a New Philosophy of Machine Intelligence. en. John Wiley & Sons. 295 p.  : 9780471749202. F, Lawrence J. (1962). “Autonomous automata”. In : Industrial Research 4 (2), p. 14– 19. F, Lester Randolph (1956). Network Flow Theory. F, Lester Randolph et D. R. F (1956). “Maximal Flow through a Network”. In : Canadian Journal of Mathematics, p. 399–404. F, Ian (2002). “What is the grid ?-a three point checklist”. In : GRIDtoday 1 (6). F, Ian et Carl K (2003). The Grid 2 : Blueprint for a new computing infrastructure. Access Online via Elsevier.  : 0080521533. F, Ian, Yong Z et al. (2008). “Cloud computing and grid computing 360-degree compared”. In : Grid Computing Environments Workshop, 2008. GCE’08. Ieee, p. 1– 10.  : 1424428602. F, Pierre et al. (2009). “Distributed computing with advice : information sensitivity of graph coloring”. Anglais. In : Distributed Computing 21 (6). See paper for details., p. 395–403.  : 10.1007/s00446- 008- 0076- y.  : http://hal.archivesouvertes.fr/hal-00395775/PDF/DisComp-ICALP07.pdf. F, Nigel R. et A. B. S-F (1992). “Brood sorting by ants : distributing the workload over the work-surface”. In : Behavioral Ecology and Sociobiology. Springer 30 (2), p. 109–123. F, Linton C. (1977). “A set of measures of centrality based upon betweenness”. In : Sociometry 40, p. 35–41. — (1978). “Centrality in social networks conceptual clarification”. In : Social Networks 1 (3), p. 215–239.  : 0378-8733.  : 10.1016/0378- 8733(78)90021- 7.  : http://www.sciencedirect.com/science/article/pii/0378873378900217. F, Alfonso, Gian Pietro P et Giovanni V (1998). “Understanding Code Mobility”. In : IEEE Transactions on Software Engineering 24, p. 342–361.  : 0098- 5589.  : http://doi.ieeecomputersociety.org/10.1109/32.685258. G, R. G., P. A.H et P. M. S (1983). “A Distributed Algorithmfor MinimumWeight Spanning Trees”. In : ACM Trans. Program. Lang. Syst. 5 (1), p. 66–77.  : 0164-0925.  : 10.1145/357195.357200.  : http://doi.acm.org/10.1145/ 357195.357200 (visité le 27/10/2013). G, Luca Maria et Marco D (1995). “Ant-Q : A reinforcement learning approach to the traveling salesman problem”. In : ICML, p. 252–260. G, Michael R et David S J (1979). Computers and intractability. T. 174. Freeman New York. G (2009). GEXF File Format.  : http://gexf.net/format/ (visité le 04/11/2013). 229B G, M. et M. E. J. N (2002). “Community structure in social and biological networks”. In : Proc. Natl. Acad. Sci. USA 99, p. 8271–8276. G, S. et al. (déc. 1989). “Self-organized shortcuts in the Argentine ant”. In : Naturwissenschaften 76 (12), p. 579–581.  : 10.1007/BF00462870.  : http://dx.doi. org/10.1007/BF00462870. G (2013). GraphStream - The DGS File Format.  : http://graphstreamproject.org/doc/Advanced- Concepts/The- DGS- File- Format_1.1/ (visité le 04/11/2013). G (2013). The DOT Language | Graphviz - Graph Visualization Software.  : http: //www.graphviz.org/content/dot-language (visité le 04/11/2013). G, Pierre-Paul (1959). “La Reconstruction du nid et les coordinations interindividuelles chez Bellicositermes natalensis et Cubitermes sp. La théorie de la stigmergie : essai d’interprétation du comportement des Termites constructeurs”. In : Insectes sociaux. G, Charles M. et J. Laurie S (1997). Introduction to Probability.  : 978-0- 8218-9414-9.  : http://www.dartmouth.edu/~chance/teaching_aids/books_ articles/probability_book/book.html. G, H. L. et G. A.W (nov. 1970). “A Pipeline Fast Fourier Transform”. In :IEEE Trans. Comput. 19 (11), p. 1015–1019.  : 0018-9340.  : 10.1109/T- C.1970. 222826.  : http://portal.acm.org/citation.cfm?id=1311954.1312605. H-L (2013). Boid. Half-Life Wiki.  : http://half-life.wikia.com/wiki/Boid (visité le 14/11/2013). H, F. et G. G (1997). “Dynamic Graph Models”. In : Mathematical and Computer Modelling 25 (7), p. 79–87. H, Frank (oct. 1969). Graph Theory. Published : Paperback. Westview Press.  : 0201410338.  : http : / / www . amazon . com / exec / obidos / redirect ? tag = citeulike07-20&path=ASIN/0201410338. H, Peter E, Nils J N et Bertram R (1968). “A formal basis for the heuristic determination of minimum cost paths”. In : Systems Science and Cybernetics, IEEE Transactions on 4 (2), p. 100–107.  : 0536-1567. H, Hans-Ulrich et Michael S (1995). “Decentralized dynamic load balancing : The particles approach”. In : Information Sciences. Elsevier 84 (1), p. 115–128. H, Ivan, Guy M et M. Scott M (2000). “Graph visualization and navigation in information visualization : A survey”. In : Visualization and Computer Graphics, IEEE Transactions on 6 (1), p. 24–43.  : 1077-2626. H, Carl, Peter B et Richard S (1973). “A universal modular actor formalism for artificial intelligence”. In : Proceedings of the 3rd international joint conference on Artificial intelligence. Morgan Kaufmann Publishers Inc., p. 235–245. H, Robert M. et Stephen E. D (2006). IP Version 6 Addressing Architecture.  : http://tools.ietf.org/html/rfc4291 (visité le 24/11/2013). H, John H. (1975). Adaptation in Natural and Artificial Systems. University Michigan Press. 230Bibliographie H, C. S (1973). “Resilience and stability of ecological systems”. In : Annual review of ecology and systematics 4, p. 1–23. H, C S. (1996). “Engineering resilience vs. ecological resilience”. In : Engineering Within Ecological Constraints. The National Academies Press, p. 31–44. : 9780309051989. H, Bernado A (1988). The ecology of computation. Elsevier Science Inc. J, Mariusz et Seth B (2008). “Energy, entropy and work in computational ecosystems : A thermodynamic account”. In : J, Donald B. (1977). “Efficient Algorithms for Shortest Paths in Sparse Networks”. In : J. ACM 24 (1), p. 1–13.  : 0004-5411.  : 10.1145/321992.321993.  : http://doi.acm.org/10.1145/321992.321993 (visité le 17/10/2013). J, Eric E (1988). “Completing an MIMD multiprocessor taxonomy”. In : ACM SIGARCH Computer Architecture News 16 (3), p. 44–47.  : 0163-5964. J, Camille (1869). “Sur les assemblages des lignes”. In : J. Reine Angew. Math 70, p. 185–190. J, Markus Oliver et Yugyung L (2004). “Peer-to-peer middleware”. In : Middleware for Communications, p. 81–107.  : 0470862084. K, George et Vipin K (1999). “A fast and high quality multilevel scheme for partitioning irregular graphs”. In : SIAM, Journal on Scientific Computing 20 (1), p. 359– 392. K, Leo (1953). “A New Status Index Derived from Sociometric Index”. In : Psychometrika, p. 39–43. K, J et R E (1995). “Particle Swarm Optimization”. In : IEEE International of first Conference on Neural Networks. K, Jeffrey O, TadH et Bernado AH (1989). “Dynamics of computational ecosystems”. In : Physical Review A. K, B.W. et S. L (1970). “An Efficient Heuristic Procedurefor Partitioning Graphs”. In : The Bell system technical journal 49 (1), p. 291–307. K, Scott, Mario P V et D. G (1983). “Optimization by simulated annealing”. In : science 220 (4598). K, Jon M. (août 2000). “Navigation in a small world”. In : Nature 406 (6798), p. 845.  : 0028-0836.  : 10.1038/35022643.  : http://dx.doi.org/10. 1038/35022643. K, Frederick (1997). “An Overview of Mobile Agent Programming”. In : Selected papers from the 5th LOMAPS Workshop on Analysis and Verification of Multiple-Agent Languages. London, UK : Springer-Verlag, p. 100–115.  : 3-540-62503-8.  : http: //portal.acm.org/citation.cfm?id=646912.710959. K, Andreï (1965). “Three Approaches for Defining the Concept of Information Quantity”. In : Problems of information transmission 1 (1), p. 1–7. K, S. (2008). Intergiciel et Construction d’Applications Réparties. K, Joseph B (1956). “On the shortest spanning subtree of a graph and the traveling salesman problem”. In : Proceedings of the American Mathematical society 7 (1), p. 48– 50.  : 0002-9939. 231B K, Pascale, Paul L et Dominique S (1997). “A colony of ant-like agents for partitioning in VLSI technology”. In : Proceedings of the Fourth European Conference on Artificial Life. MIT, p. 417–424. K, Pascale et Dominique S (1994). “Emergent colonization and graph partitioning”. In : Proceedings of the third international conference on Simulation of adaptive behavior : from animals to animats 3, p. 494–500. L, Leslie (18 mai 1987). distribution. English. E-mail.  : https://research. microsoft . com / en - us / um / people / lamport / pubs / distributed - system . txt (visité le 08/08/2013). L, Gregor von et Kaizar A (2004). “Grid middleware”. In : Middleware for Communications, p. 109. L, R. Greg et Douglas C. S (1996). Active Object – An Object Behavioral Pattern for Concurrent Programming. L M, Jean-Louis (1994). La théorie du système général, théorie de la modélisation. Les classiques du réseau intelligence de la complexité. L, Ian XY et al. (2009). “Towards real-time community detection in large networks”. In : Physical Review E. APS 79 (6). L, Sara M et Christopher K C (2008). “Flash signal evolution, mate choice, and predation in fireflies”. In : Annu. Rev. Entomol. 53, p. 293–321.  : 0066-4170. L, H.-C. et Cauligi S. R (1992). “A dynamic load-balancing policy with a central job dispatcher (LBC)”. In : Software Engineering, IEEE Transactions on 18 (2), p. 148–158. L, Stuart (1982). “Least squares quantization in PCM”. In : Information Theory, IEEE Transactions on 28 (2), p. 129–137.  : 0018-9448. L, James (1993). La terre est un être vivant : l’hypothèse Gaïa. Champs sciences. Flammarion.  : 978-2-0812-4481-8. L, Nancy A (1996). Distributed algorithms. Morgan Kaufmann.  : 0080504701. L, Nancy A et Mark R T (1987). “Hierarchical correctness proofs for distributed algorithms”. In : Proceedings of the sixth annual ACM Symposium on Principles of distributed computing. ACM, p. 137–151.  : 089791239X. M, Qusay H et John W (2004). Middleware for communications. Wiley Online Library.  : 0470862068. M, Larry, Tim B-L et Roy T. F (2005). Uniform Resource Identifier (URI) : Generic Syntax.  : https://tools.ietf.org/html/rfc3986 (visité le 22/11/2013). M, Peter et Timothy G (2011). “The NIST definition of cloud computing (draft)”. In : NIST special publication 800 (145), p. 7. M, Brad L. et David E. G (1995). “Genetic Algorithms, Tournament Selection, and the Effects of Noise”. In : Complex Systems 9, p. 193–212. M, Richard S. (2003). Cluster Computing : Architectures, Operating Systems, Parallel Processing & Programming Languages. 232Bibliographie M, Henning S. et Christian M. R (2008). An Introduction to Sequential Dynamical Systems. Springer. N, Michel et al. (2009). “Exploitation of a displacement survey to detect road network use vulnerability”. In : ICCSA 2009 Conference Proceedings Special Sessions, p. 151– 155. N, M. E. J. (2003). “The Structure and Function of Complex Networks”. In : SIAM Review 45, p. 167–256.  : 10.1137/S003614450342480. N, Mark (2010).Networks : An Introduction. New York, NY, USA : Oxford University Press, Inc.  : 0199206651, 9780199206650. N, Mark E. J. (2004). “Fast algorithm for detecting community structure in networks”. In : Physical review E. APS 69 (6), p. 066133. — (2006). “Finding community structure in networks using the eigenvectors of matrices”. In : Physical review E. APS 74 (3), p. 036104. O, Damien (2006). Modélisation informatique de systèmes à base d’interactions et dé- tection d’organisations. Modèles du vivant. Habilitation à Diriger des Recherches de l’Université du Havre. OMG, Committee (1991). The Common Object Request Broker : Architecture and Specification. OMG Document Revision 1. O, Tore, Filip A et John S (2010). “Node centrality in weighted networks : Generalizing degree and shortest paths”. In : Social Networks 32 (3), p. 245– 251.  : 0378-8733.  : 10.1016/j.socnet.2010.03.006.  : http://www. sciencedirect.com/science/article/pii/S0378873310000183. O, Oystein (1962). Theory of graphs. English. American Mathematical Society, Providence. v. P. OS, David (2001). “Graph-cellular automata : a generalised discrete urban and regional model”. In : Environment and Planning B : Planning and Design 28, p. 687–705. P, Gergely et al. (2005). “Uncovering the overlapping community structure of complex networks in nature and society”. In : Nature 435 (7043), p. 814–818. : 0028-0836. P, Universität (2011). Graph Modelling Language. Projects.  : http://www.fim. uni-passau.de/en/fim/faculty/chairs/theoretische-informatik/projects. html (visité le 11/03/2013). P, Yoann (2008). “Modélisation et traitement décentralisé des graphes dynamiques : Application aux réseaux mobiles ad hoc”. French. Université du Havre.  : http : //tel.archives-ouvertes.fr/tel-00371962/PDF/these.pdf. P, Yoann et Frédéric G (2010). “Short and robust communication paths in dynamic wireless networks”. In : Proceedings of the 7th international conference on Swarm intelligence. ANTS’10. Berlin, Heidelberg : Springer-Verlag, p. 520–527.  : 3-642- 15460-3, 978-3-642-15460-7.  : http://portal.acm.org/citation.cfm?id= 1884958.1885012. P, Stuart L (1984). “The complexity and stability of ecosystems”. In :Nature 307 (5949), p. 321–326. 233B P, W. et M. M. S (1991). “Some properties of graph centroids”. In : Annals of Operations Research 33 (3). 10.1007/BF02115757, p. 227–236.  : 0254-5330.  : http://dx.doi.org/10.1007/BF02115757. P, Pascal et Matthieu L (2005). “Computing communities in large networks using random walks”. In : Computer and Information Sciences-ISCIS 2005. Springer, p. 284– 293.  : 3540294147. P, Alex, Horst D. S et Kang-Pu L (1990). “Partitioning sparse matrices with eigenvectors of graphs”. In : SIAM, Journal on Matrix Analysis and Applications 11 (3), p. 430–452. P, Ilya (2008). Les lois du chaos. Flammarion.  : 978-2-0812-1487-3. P, Ilya et Isabelle S (1996). La fin des certitudes : temps, chaos et les lois de la nature. Odile Jacob.  : 2738103308. P, Robert Clay (1957). “Shortest connection networks and some generalizations”. In : Bell system technical journal 36 (6), p. 1389–1401. R, Marco, Fabio R et Enrico S (2011). “Semi-Markov Graph Dynamics”. In : PLoS ONE 6 (8). R, Usha Nandini, Réka A et Soundar K (2007). “Near linear time algorithm to detect community structures in large-scale networks”. In : Physical Review E. APS 76 (3), p. 036106. R, Frank E (1997).Dcom : Microsoft Distributed Component Object Model with Cdrom. IDG Books Worldwide, Inc.  : 0764580442. R, Craig W. (août 1987). “Flocks, herds and schools : A distributed behavioral model”. In : SIGGRAPH Comput. Graph. 21 (4), p. 25–34.  : 0097-8930.  : http: //doi.acm.org/10.1145/37402.37406.  : http://doi.acm.org/10.1145/ 37402.37406. S, Naidila et SM Dilip K (2011). “Cluster, grid and cloud computing : A detailed comparison”. In : Computer Science & Education (ICCSE), 2011 6th International Conference on. IEEE, p. 477–482.  : 1424497175. S, Peter et Christian S (2013). “Think Locally, Act Globally : Highly Balanced Graph Partitioning”. In : Experimental Algorithms. Springer, p. 164–175. : 3642385265. S, Ichiro (2001). “Adaptive Protocols for Agent Migration”. In : Proceedings of the The 21st International Conference on Distributed Computing Systems. ICDCS ’01. Washington, DC, USA : IEEE Computer Society, p. 711–.  : http : / / portal . acm . org / citation.cfm?id=876878.879272. S, Ferdinand de (1931). Cours de linguistique générale. Payot. Geneva. S, S. (août 2007). “Graph clustering”. In : Computer Science Review 1 (1), p. 27– 64.  : 15740137.  : 10.1016/j.cosrev.2007.05.001.  : http://dx.doi. org/10.1016/j.cosrev.2007.05.001. S, Michael (2002). UNICORE Plus Final Report. Published : Joint Project Report for the BMBF Project UNICORE Plus.  : http : / / www . unicore . org / documents / UNICOREPlus-Final-Report.pdf. 234Bibliographie S, Rüdiger (2001). “A definition of peer-to-peer networking for the classification of peer-to-peer architectures and applications”. In : Peer-to-Peer Computing, 2001. Proceedings. First International Conference on. IEEE, p. 101–102.  : 0769515037. S, Ruud et al. (1997). “Ant-based load balancing in telecommunications networks”. In : Adaptive behavior 5 (2), p. 169–207.  : 1059-7123. S, Peter J. (1978). “Centers to centroids in graphs”. In : Journal of Graph Theory 2 (3), p. 209–222. — (1983). “Some definitions of central structures”. In : Lecture Notes in Mathematics1073/1984, p. 169–178. Sß, Markus et M S (1997). “A performance model for mobile agent systems”. In : International Conference on Parallel and Distributed Processing Techniques and Applications. Sous la dir. d’HEditor A. T. 2. Citeseer, p. 1132–1140.  : http : //citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.39.30&rep=rep1& type=pdf. S, S. H. et D. J. W (1998). “Collective dynamics of ’small-world’ networks”. In : Nature 393, p. 440–442. S, Steven H (2003). Sync : The emerging science of spontaneous order. Hyperion.  : 0786868449. S, Thomas et Holger H H (2000). “MAX–MIN ant system”. In : Future generation computer systems 16 (8), p. 889–914.  : 0167-739X. T, Gerard (2000).Introduction to distributed algorithms. Cambridge university press. : 0521794838. T, J. D., K. D. D et J. E. F (2006). “Partitioning and Dynamic Load Balancing for the Numerical Solution of Partial Differential Equations”. In : Numerical solution of partial differential equations on parallel computers. Bruaset, Are Magnus. Springer. T, Bent, Lone L et Tsung-Min K (1996). “A Facile Tutorial”. In : Proceedings of the 7th International Conference on Concurrency Theory. CONCUR ’96. London, UK : Springer-Verlag, p. 278–298.  : 3-540-61604-7.  : http://portal.acm.org/ citation.cfm?id=646731.703703. T, Miroslaw (1985). “Centers and Centroids of Unicyclic Graphs”. In : Mathematica Slovaca 35 (3), p. 223–228. T (2013). Tulip software graph format (TLP) | Tulip.  : http://tulip.labri.fr/ TulipDrupal/?q=tlp-file-format (visité le 04/11/2013). T, Alexander, Gunther A et Christian B (2006). “Fireflies as role models for synchronization in ad hoc networks”. In : Proceedings of the 1st international conference on Bio inspired models of network, information and computing systems. BIONETICS ’06. New York, NY, USA : ACM.  : 1-4244-0463-0.  : http://doi. acm . org / 10 . 1145 / 1315843 . 1315848.  : http : / / doi . acm . org / 10 . 1145 / 1315843.1315848. V, John et al. (1995). “Design patterns : Elements of reusable object-oriented software”. In : Reading : Addison-Wesley 49, p. 120. 235B V L, Ulrike (2007). “A tutorial on spectral clustering”. In : Statistics and computing 17 (4), p. 395–416.  : 0960-3174. V N, John (1993). “First Draft of a Report on the EDVAC”. In : Annals of the History of Computing, IEEE 15 (4), p. 27–75.  : 1058-6180. W, Brian et al. (2004). “Resilience, Adaptability and Transformability in Social– ecological Systems”. In : Ecology and Society 9 (2). W, Stephen (1962). “A theorem on boolean matrices”. In : Journal of the ACM (JACM) 9 (1), p. 11–12.  : 0004-5411. W, Stanley et Katherine F (1994). Social Networks Analysis. Cambridge University Press. W, Duncan J et Steven HS (1998). “Collective dynamics of ‘small-world’networks”. In : nature 393 (6684), p. 440–442.  : 0028-0836. W, Mark (1991). “The computer for the 21st century”. In : Scientific american 265 (3), p. 94–104.  : 0036-8733. — (1993). “Some computer science issues in ubiquitous computing”. In : Communications of the ACM 36 (7), p. 75–84.  : 0001-0782. W, Roy D. (1991). “Performance of dynamic load balancing algorithms for unstructured mesh calculations”. In : Concurrency : Practice and experience 3 (5), p. 457–481. W, Ann, Roger R et Jim W (1996). “A Distributed Object Model for the Java TM System”. In : Computing Systems 9, p. 265–290.  : 0895-6340. X, Jierui, Stephen K et Boleslaw K S (2011). “Overlapping community detection in networks : the state of the art and comparative study”. In : arXiv preprint arXiv :1110.5813. Z,W.W. (1977). “An information flow modelfor conflict and fission in small groups”. In : Journal of Anthropological Research 33, p. 452–473. Z, Franco et Mirko V(2011). “A survey on nature-inspired metaphors for pervasive service ecosystems”. In : International Journal of Pervasive Computing and Communications 7 (3), p. 186–204. Z, Bernard P., Herbert P et Tag Gon K (2000). Theory of Modeling and Simulation [Second Edition] : Integrating Discrete Event and Continuous Complex Dynamic Systems. Z, Shuai et al. (2010). “The comparison between cloud computing and grid computing”. In : Computer Application and System Modeling (ICCASM), 2010 International Conference on. T. 11. IEEE, p. V11–72.  : 1424472350. 236P D, Antoine, DamienO et GuilhelmS (29 june 2009). “Dagda, a load-balanced middleware to distribute Complex Systems simulations”. In : 3rd International Conference on Complex Systems and Applications (ICCSA’09). France, p. 171–174.  : http: //litis.univ-lehavre.fr/~savin/bib/ICCSA2009.pdf. — (juil. 2010a). “Collaboration and Competition in Boids Simulations with Predation”. In : Emergent Properties in Natural and Artificial Complex Systems (EPNACS) in European Conference on Complex System (ECCS) 2010. — (29th March - 1st April 2010b). “Swarm Intelligence to Distribute Simulations in Computational Ecosystems”. In : Swarm Intelligence Algorithms and Applications Symposium (SIAAS) in the Thirty Sixth Annual Convention of the Society for the Study of Artificial Intelligence and Simulation of Behaviour (AISB’10). De Montfort University, Leicester.  : http://litis.univ-lehavre.fr/~savin/bib/AISB2010.pdf. — (sept. 2011). “Centroids : a decentralized approach”. In : Emergent Properties in Natural and Artificial Complex Systems (EPNACS) in European Conference on Complex System (ECCS) 2011. D, Antoine, Yoann P et Guilhelm S (sept. 2011). “GraphStream Workshop”. In : Emergent Properties in Natural and Artificial Complex Systems (EPNACS) in European Conference on Complex System (ECCS) 2011. D, Antoine et al. (oct. 2006b). “Pyocyanic Bacillus Propagation Simulation”. In : CoSSom workshop in European Simulation and Modeling conference (ESM). Toulouse, France.  : http://litis.univ-lehavre.fr/~dutot/biblio/COSSOM2006.pdf. S, Guilhelm (16-18 novembre 2009). “Dagda, un intergiciel pour la distribution dynamique de simulations de système complexe”. In : majecSTIC 2009. France.  : http: //litis.univ-lehavre.fr/~savin/bib/majecSTIC2009.pdf. 237I A acteur ............................ 181 algorithme distribué ................ 94 auto-réparti .......................154 B biocénose ...................... 16, 19 biome .............................19 biosphère ..........................19 biotope.........................16, 19 bissection récursive.................65 C causalité .....................106, 107 centralité ......................... 119 spectrale ...................... 44 centre ........................ 44, 120 centre de gravité ...............121 centroïde ......... 44, 118, 119, 121 de gravité......................44 de masse ...................... 44 k-centrum ....................122 classification hiérarchique ascendante .................... 67 descendante ................... 67 closeness ................voir proximité cloud computingvoir informatique dans le nuage collaboration ....................... 22 communauté.......................54 communication distante ...................... 152 effective ................. 152, 163 locale ....................152, 163 compétition ........................ 22 complexité ..........................8 D dendrogramme.....................67 distance ......................120, 121 dynamique du graphe cumulative.....................37 flux d’événements .............. 38 séquentielle....................36 E écologie ........................... 16 écosystème ........................19 computationnel ......14, 16, 19, 92 émergence........................106 descriptive....................106 explicative....................106 faible.........................106 forte .........................106 essaim..............................7 excentricité .......................120 F ferme de calcul .....voir grappe de calcul G granularité ........................ 115 graphe .............................31 distribué ....................... 21 dynamique ................33, 109 évolutif........................36 239I orienté ........................ 31 pondéré ....................... 31 ré-optimisation (pour la) ........ 39 grappe de calcul.................15, 89 grille de calcul .................. 15, 90 H homéostasie........................12 I informatique dans le nuage .......... 91 interaction asynchrone ...................109 ciblée ........................109 diffuse ....................... 109 directe ....................... 107 indirecte......................107 proactive ...................... 12 rétroactive .....................12 synchrone ....................109 intergiciel ......................15, 151 intermédiarité ..................44, 49 K k-clique ........................... 54 k-plex ............................. 55 Kolmogorov, complexité de ...........8 M macroscopique, vue............114, 118 Markov, chaîne de ..................40 matrice d’adjacence....................69 de transition ................... 40 Laplacienne....................70 membrane..................9, 23, 160 microscopique, vue ................ 114 middleware..............voir intergiciel multi-échelles ...................... 21 multi-niveaux ......................65 multicast ......................... 188 N NoSQL ........................... 194 noyau ............................. 23 O objet actif .........................181 organisation....................10, 114 auto-organisation...10, 22, 114, 153 P PageRank ...................... 44, 50 partitionnement ....................64 phénomène.........................11 diachronique ................... 11 synchronique ...................11 phéromone ........................ 98 processus ..................... 56, 117 continu........................58 global ......................... 58 itératif ........................ 58 local .......................... 58 macro .........................58 micro ......................... 58 proximité ...................... 44, 46 R répartition de charges .............. 151 réseau complexe ...................... 33 d’interactions .................. 33 sans échelle....................33 résilience .......................... 22 écologique ..................... 22 d’ingénierie .................... 22 rétroaction ........................107 robustesse ......................... 22 S stigmergie.............9, 108, 123, 156 structure...........................52 système complexe ....................... 7 dissipatif .......................11 distribué...................14, 151 fermé ......................... 10 240Index ouvert .........................10 T temps, plongé dans le................11 termite ............................. 9 théorie spectrale ................... 69 thermodynamique ..................92 U ubiquitaire, informatique ............ 91 V valeur propre.......................70 vecteur propre ..................... 70 241Résumé Nous présentons dans ces travaux une contribution concernant la distribution de simulations de système complexe dans des environnements distribués ouverts. Nous considérons ces environnements comme des écosystèmes computationnels, dont nous décrivons les propriétés et les caractéristiques, dans lesquels évoluent, de par leur exécution, les simulations. Elles sont modélisées sous la forme d’un réseau d’interactions représenté à l’aide d’un graphe dynamique. En considérant les différentes dynamiques possibles, nous proposons un formalisme général représentant ces graphes, ainsi qu’une interface de programmation, G- S, permettant de les manipuler et de les étudier. Le graphe dynamique est alors un sujet d’étude dans lequel nous recherchons des organisations, que nous suivons dans le temps, afin de minimiser les coûts de communication entre les machines et d’équilibrer la charge de calcul. Nous apportons une amélioration visant à réduire les oscillations des résultats de l’algorithme AntCo2 utilisant des colonies de fourmis numériques qui, grâce à des mécanismes de compétition et de collaboration, détecte des organisations. La stabilité de ces dernières est déterminée par l’intermédiaire d’une heuristique de recherche distribuée et dynamique de centroïdes. Un intergiciel est proposé permettant de distribuer de manière décentralisée et dynamique les simulations dans un écosystème computationnel en favorisant les organisations et en respectant l’équilibrage de charge. Abstract This work presents our contribution about the distribution of complex system simulations in open distributed environments. We consider these environments as computational ecosystems, of whose we describe properties and characteristics, wherein simulations will evolve, by their execution. An interaction network models these simulations, that we represent as a dynamic graph. Considering the different kinds of possible dynamics, we propose a global formalism that can be used to describe these graphs, along with a software framework, GS, allowing their manipulation and their study. The dynamic graph is then the object of a study wherein we are looking for organisations, following them through time, in order to minimise communications’s costs between machines, and to balance the computation load. We bring an improvement aiming to reduce results’s oscillations of AntCo2 , which is algorithm using digital ants colonies to detect organisations, through competition and collaboration mechanisms. Stability of these organisations is determined by a dynamic and distributed heuristic to find centroid of graph. We propose a middleware allowing a dynamic and decentralized distribution of simulations in a computational ecosystem, by favouring organisations and respecting the load balancing. 243 D´etection de rails, caract´erisation de croisements et localisation de trains sur la trajectoire d’un m´etro automatique Jorge Corsino Espino To cite this version: Jorge Corsino Espino. D´etection de rails, caract´erisation de croisements et localisation de trains sur la trajectoire d’un m´etro automatique. Other. Ecole Nationale Sup´erieure des Mines de Paris, 2014. French. . HAL Id: pastel-01068899 https://pastel.archives-ouvertes.fr/pastel-01068899 Submitted on 26 Sep 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.T H È S E INSTITUT DES SCIENCES ET TECHNOLOGIES École doctorale nO432 : Sciences des Métiers de l’ingénieur Doctorat ParisTech T H È S E pour obtenir le grade de docteur délivré par l’École nationale supérieure des mines de Paris Spécialité « Informatique temps-réel, robotique et automatique » présentée et soutenue publiquement par Jorge CORSINO ESPINO le 13 Juin 2014 Détection de rails, caractérisation de croisements et localisation de trains sur la trajectoire d’un métro automatique Rails detection, turnouts characterisation and trains localization in an automated metro’s trajectory Directrice de thèse : Brigitte d’ANDRÉA-NOVEL Co-encadrement de la thèse : Bogdan STANCIULESCU Co-encadrement de la thèse : Philippe FORIN Jury M. Didier AUBERT, Directeur de Recherche, IFSTTAR Rapporteur M. Antoine MANZANERA, Maître de Conférence (HDR), ENSTA ParisTech Rapporteur Mme. Brigitte d’ANDRÉA-NOVEL, Professeur, Mines ParisTech Examinateur Mme. Bernadette DORIZZI, Directrice de Recherche, TELECOM SudParis Examinateur M. Philippe FORIN, Ingénieur, SIEMENES SAS Examinateur M. Bogdan STANCIULESCU, Maître de Conférence, Mines ParisTech Examinateur M. Said EL FASSI, Ingénieur, SNCF Invité MINES ParisTech Centre de Robotique 60 bd Saint Michel, 75006 PARIS - France✐ ❘❡♠❡r❝✐❡♠❡♥ts ❏❡ r❡♠❡r❝✐❡ ▼♦♥s✐❡✉r ❉✐❞✐❡r ❆✉❜❡rt ❡t ▼♦♥s✐❡✉r ❆♥t♦✐♥❡ ▼❛♥③❛♥❡r❛ q✉✐ ♠✬♦♥t ❢❛✐t ❧✬❤♦♥♥❡✉r ❞✬❛❝❝❡♣t❡r ❞✬êtr❡ r❛♣♣♦rt❡✉rs ❞❡ ❝❡tt❡ t❤ès❡✳ ▲❛ ✈❡rs✐♦♥ ✜♥❛❧❡ ❞❡ ❝❡ ♠é♠♦✐r❡ ❛ ❜é♥é✜❝✐é ❞❡ ❧❡✉r ❧❡❝t✉r❡ très ❛tt❡♥t✐✈❡ ❡t ❞❡ ❧❡✉rs r❡♠❛rq✉❡s ♣ré❝✐❡✉s❡s✳ ▼❡s r❡♠❡r❝✐❡♠❡♥ts s✬❛❞r❡ss❡♥t ❛✉ss✐ à ▼❛❞❛♠❡ ❇❡r♥❛❞❡tt❡ ❉♦r✐③③✐ ♣♦✉r ❛✈♦✐r ❛❝❝❡♣té ❞✬êtr❡ ♣rés✐❞❡♥t ❞✉ ❥✉r②✳ ❏❡ r❡♠❡r❝✐❡ é❣❛❧❡♠❡♥t t♦✉s ❧❡s ♠❡♠❜r❡s ❞✉ ❥✉r② ❞✬❛✈♦✐r ❛❝❝❡♣té ❞✬❛ss✐st❡r à ❧❛ ♣rés❡♥t❛t✐♦♥ ❞❡ ❝❡ tr❛✈❛✐❧✱ ♣❛rt✐❝✉❧✐èr❡♠❡♥t à ▼♦♥s✐❡✉r ❙❛✐❞ ❊▲ ❋❛ss✐✱ ♣r♦♠♦t❡✉r ❞❡ ❝❡tt❡ t❤ès❡ ❈■❋❘❊✳ ❏❡ ✈♦✉❞r❛✐s r❡♠❡r❝✐❡r ▼❛❞❛♠❡ ❇r✐❣✐tt❡ ❞✬❆♥❞ré❛✲◆♦✈❡❧ ❞✬❛✈♦✐r ❞✐r✐❣é ❧❡s tr❛✈❛✉① ❞❡ t❤ès❡ ❡t ❞❡ ♠✬❛✈♦✐r ❛❝❝✉❡✐❧❧✐ ❛✉ s❡✐♥ ❞✉ ❝②❝❧❡ ❞✬■♥❣é♥✐❡✉r ❈✐✈✐❧ ♦♣t✐♦♥ ▼❆❘❊❱❆✳ ▲❡s ❝♦♥♥❛✐ss❛♥❝❡s ❛❝q✉✐s❡s ♣❡♥❞❛♥t ❝❡t ❛♥♥é❡ ♠✬♦♥t ♣❡r♠✐t ❞❡ ♠✐❡✉① ❛✛r♦♥t❡r ❧❡s tr❛✈❛✉① ❞❡ t❤ès❡✳ ❏❡ r❡♠❡r❝✐❡ ▼♦♥s✐❡✉r ❇♦❣❞❛♥ ❙t❛♥❝✐✉❧❡s❝✉ q✉✐ ❛ ❞é♣♦sé s❛ ❝♦♥✜❛♥❝❡ ❡♥ ♠♦✐ ♣♦✉r ré❛❧✐s❡r ✉♥❡ t❤ès❡ ❡t ♣♦✉r ❛✈♦✐r ❡♥❝❛❞ré ♠❡s tr❛✈❛✉①✳ ■❧ ♠✬❛ t♦✉❥♦✉rs ❡♥❝♦✉r❛❣é ♣♦✉r ré❞✐❣❡r ❞❡s ❛rt✐❝❧❡s ❡t ♥♦✉s ❛✈♦♥s ♣❛ssés ❞❡s très ❜♦♥s ♠♦♠❡♥ts ❛♣rès ❞❡s ❥♦✉r♥é❡s ❞❡ tr❛✈❛✐❧ ✐♥t❡♥s❡s✳ ❏❡ r❡♠❡r❝✐❡ é❣❛❧❡♠❡♥t ▼♦♥s✐❡✉r P❤✐❧✐♣♣❡ ❋♦r✐♥✱ ❝♦✲❡♥❝❛❞r❛♥t ❞❡ t❤ès❡ ❝ôté ✐♥❞✉str✐❡❧✳ ■❧ ❛ t♦✉✲ ❥♦✉rs été ❞✐s♣♦♥✐❜❧❡✱ à ❧✬é❝♦✉t❡ ❞❡ ♠❡s ♥♦♠❜r❡✉s❡s q✉❡st✐♦♥s✱ ❡t s✬❡st t♦✉❥♦✉rs ✐♥tér❡ssé à ❧✬❛✈❛♥❝é❡ ❞❡ ♠❡s tr❛✈❛✉①✳ ▲❡s ♥♦♠❜r❡✉s❡s ❞✐s❝✉ss✐♦♥s q✉❡ ♥♦✉s ❛✈♦♥s ❡✉❡s ❛✐♥s✐ q✉❡ s❡s ❝♦♥s❡✐❧s s♦♥t ♣♦✉r ❜❡❛✉❝♦✉♣ ❞❛♥s ❧❡ rés✉❧t❛t ✜♥❛❧ ❞❡ ❝❡ tr❛✈❛✐❧✳ ❯♥ r❡♠❡r❝✐❡♠❡♥t s♣é❝✐❛❧ ♣♦✉r ❧❡s ♣❡rs♦♥♥❡s q✉✐ ♦♥t ❛❝❝❡♣té ❞❡ r❡❧✐r❡ q✉❡❧q✉❡s ♣❛rt✐❡s ❞✉ ♠❛✲ ♥✉s❝r✐t ✿ ▼❛rt②♥❛✱ ❆♥♥❡ ❙♦♣❤✐❡✱ ❋❛t✐♥✱ ❏✉❧✐❡♥✱ ❇❡♥❥❛♠✐♥✱ ❏♦ã♦✱ ❖❧✐✈✐❡r✱ ❙②❧✈❛✐♥✱ ❖♠❛r✱✳✳✳ P✉✐s✱ ❥❡ s♦✉❤❛✐t❡ ✈✐✈❡♠❡♥t r❡♠❡r❝✐❡r t♦✉s ♠❡s ❝♦❧❧è❣✉❡s ❞✉ ❈❆❖❘ ❡t ❞❡ ❙■❊▼❊◆❙✳ ❈❡s tr♦✐s ❛♥♥é❡s ❞❡ ❜♦♥♥❡ ❛♠❜✐❛♥❝❡ ❡t ❞❡ ❝♦❧❧❛❜♦r❛t✐♦♥ s❡r♦♥t ✐♥♦✉❜❧✐❛❜❧❡s✳ ❈❡rt❛✐♥s ❞✬❡♥tr❡ ✈♦✉s s♦♥t ❞❡✈❡✲ ♥✉s ❞❡s ❛♠✐s✳ ❊♥✜♥ s❛♥s ❛✈♦✐r ❞✐r❡❝t❡♠❡♥t ♣❛rt✐❝✐♣é ❛✉ tr❛✈❛✐❧ ❞❡ r❡❝❤❡r❝❤❡✱ ❥❡ r❡♠❡r❝✐❡ t♦✉t❡s ❧❡s ♣❡rs♦♥♥❡s q✉✐ ♦♥t ❛✐❞é à s♦♥ ❛❝❝♦♠♣❧✐ss❡♠❡♥t ❡t q✉✐ ♠✬♦♥t ❛❝❝♦♠♣❛❣♥é à ❙✐❡♠❡♥s ❡t à ❧✬❊❝♦❧❡ ❞❡ ▼✐♥❡s ❞❡ P❛r✐s✳ ❏❡ ❞♦✐s ❜❡❛✉❝♦✉♣ à ♠❛ ❢❛♠✐❧❧❡ ❡t ♠❡s ❛♠✐s✳ ❏❡ ♥❡ ❧❡s ❝✐t❡r❛✐ ♣❛s✱ ❥❡ ♣❡♥s❡ s✐♠♣❧❡♠❡♥t à ❡✉①✳❚❛❜❧❡ ❞❡s ♠❛t✐èr❡s ✶ ■♥tr♦❞✉❝t✐♦♥ ✶ ✶✳✶ ■♥tr♦❞✉❝t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶ ✶✳✷ ❈♦♥t❡①t❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸ ✶✳✷✳✶ ❙ûr❡té ❢❡rr♦✈✐❛✐r❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸ ✶✳✷✳✷ ◆♦r♠❡s ❊◆ ✺✵✶✷✾ ❡t ❊◆ ✺✵✶✷✻ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✹ ✶✳✷✳✸ ◆♦r♠❡ ❊◆ ✶✺✷✷✼ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻ ✶✳✸ ▲❛ ✈✐t❡ss❡ ❝♦♠♠❡r❝✐❛❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼ ✶✳✸✳✶ ▼❛r❝❤❡ ❞✉ tr❛✐♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼ ✶✳✸✳✷ ❉✐st❛♥❝❡ ❞✬❛rrêt ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽ ✶✳✹ ❈♦♥❞✉✐t❡s ♥♦♥ ❛✉t♦♠❛t✐sé❡s ❞✉ tr❛✐♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾ ✶✳✹✳✶ ❖✉✈❡rt✉r❡ ❞❡ ❧❛ ❧✐❣♥❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾ ✶✳✹✳✷ ❘❡♣r✐s❡ ❡♥ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵ ✶✳✹✳✸ ▼♦✉✈❡♠❡♥t ❡♥ ❣❛r❛❣❡ ♦✉ ❛t❡❧✐❡r ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✶ ✶✳✺ ❖❜❥❡❝t✐❢s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✷ ✶✳✺✳✶ ❖❜❥❡❝t✐❢s t❡❝❤♥✐q✉❡s ❡t ♣❡r❢♦r♠❛♥❝❡s à ❛tt❡✐♥❞r❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✷ ✶✳✺✳✷ ❖❜❥❡❝t✐❢s s❝✐❡♥t✐✜q✉❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✷ ✶✳✻ ❖r❣❛♥✐s❛t✐♦♥ ❞✉ ♠❛♥✉s❝r✐t ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✹ ✷ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ ✶✺ ✷✳✶ ➱t❛t ❞❡ ❧✬❛rt ❞❡s s②stè♠❡s ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❢❡rr♦✈✐❛✐r❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✺ ✷✳✷ ❈❤♦✐① ❞✉ ❝❛♣t❡✉r ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✾ ✷✳✷✳✶ ❈❛♣t❡✉rs ❛❝t✐❢s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✾ ✷✳✷✳✷ ❈❛♣t❡✉rs ♣❛ss✐❢s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✵ ✷✳✸ ▲❡ ❱é❤✐❝✉❧❡ ❆✉t♦♠❛t✐q✉❡ ▲é❣❡r ✿ ❱❆▲ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✶ ✷✳✸✳✶ ❈♦♠♣♦s✐t✐♦♥ ❞✬✉♥ ✈é❤✐❝✉❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✶ ✷✳✸✳✷ ❈❛r❛❝tér✐st✐q✉❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✷ ✷✳✸✳✸ ▼♦❞è❧❡ ❞✉ ✈é❤✐❝✉❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✸ ✷✳✹ ➱t❛❧♦♥♥❛❣❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✹ ✷✳✹✳✶ ▼♦❞é❧✐s❡r ✉♥❡ ❝❛♠ér❛ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✹ ✷✳✹✳✷ ▼ét❤♦❞❡s ❞✬ét❛❧♦♥♥❛❣❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✼ ✷✳✹✳✸ ▼ét❤♦❞❡ ❞✬ét❛❧♦♥♥❛❣❡ ♣r♦♣♦sé❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✷ ✷✳✹✳✹ ❘és✉❧t❛ts ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✺ ✸ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ✸✾ ✸✳✶ ▼♦t✐✈❛t✐♦♥s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✾ ✸✳✶✳✶ ❇❛s❡ ❞❡ ❞♦♥♥é❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✾ ✸✳✶✳✷ ▲❛ ♣✐st❡ ❞❡ r♦✉❧❡♠❡♥t ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✹✵ ✸✳✷ ➱t❛t ❞❡ ❧✬❛rt ❡t ❛♣♣r♦❝❤❡s t❡sté❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✹✶ ✸✳✸ ❆♣♣r♦❝❤❡ r❡t❡♥✉❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✺✶ ✸✳✸✳✶ ❙é❧❡❝t✐♦♥ ❞✉ ▼❛sq✉❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✺✶ ✸✳✸✳✷ ❆♥❛❧②s❡ ❞❡s ❣r❛❞✐❡♥ts ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✺✸ ✸✳✸✳✸ ❘❡❝❤❡r❝❤❡ ❞✉ ♠♦❞è❧❡ ❞❛♥s ❧✬❡s♣❛❝❡ ✸❉ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✺✼ ✸✳✸✳✹ ❉é♣❡♥❞❛♥❝❡ t❡♠♣♦r❡❧❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✷ ✸✳✸✳✺ ❉ét❡r♠✐♥❛t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✸ ✸✳✹ ❘és✉❧t❛ts ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✼✐✈ ❚❛❜❧❡ ❞❡s ♠❛t✐èr❡s ✹ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ✼✸ ✹✳✶ ▼♦t✐✈❛t✐♦♥s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼✸ ✹✳✷ ▲❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼✺ ✹✳✸ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼✼ ✹✳✸✳✶ ❯t✐❧✐s❛t✐♦♥ ❞❡ ❧❛ tr❛♥s❢♦r♠é❡ ❇✐r❞ ❡②❡s✬ ✈✐❡✇ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼✼ ✹✳✸✳✷ ❉❡s❝r✐♣t❡✉r ✿ ❚❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼✽ ✹✳✸✳✸ ❉❡s❝r✐♣t❡✉r ✿ ❍✐st♦❣r❛♠♠❡ ❞❡ ❣r❛❞✐❡♥ts ♦r✐❡♥tés ✭❍❖●✮ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✶ ✹✳✹ ❘és✉❧t❛ts ❞❡ ❞ét❡❝t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✹ ✹✳✹✳✶ ▼❛❝❤✐♥❡s à ✈❡❝t❡✉rs ❞❡ s✉♣♣♦rt ✭❙❱▼✮ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✹ ✹✳✹✳✷ ▼❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ❡t ❝♦✉r❜❡ ❘❖❈ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✺ ✹✳✹✳✸ ❘és✉❧t❛ts ❞✉ ❞❡s❝r✐♣t❡✉r ❜❛sé ❡♥ ❚❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✻ ✹✳✹✳✹ ❘és✉❧t❛ts ♦❜t❡♥✉s ❛✈❡❝ ❍❖● ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✼ ✹✳✺ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞✉ t②♣❡ ❞✬❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✾ ✹✳✺✳✶ ❙❱▼ ♠✉❧t✐✲❝❧❛ss❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✵ ✹✳✺✳✷ ❉❡s❝r✐♣t❡✉r ♣r♦♣♦sé ✿ ❍❖● ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✵ ✹✳✺✳✸ ❘és✉❧t❛ts ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✷ ✺ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ✿ tr❛✐♥s ✾✼ ✺✳✶ ■♥tr♦❞✉❝t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✼ ✺✳✶✳✶ ❙②stè♠❡s ❡♥ ❝♦♠♠❡r❝✐❛❧✐s❛t✐♦♥ ✐♥❞✉str✐❡❧❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✾ ✺✳✷ ❇❛s❡ ❞❡ ❞♦♥♥é❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✵ ✺✳✸ ❙é❧❡❝t✐♦♥ ❞✉ ❞❡s❝r✐♣t❡✉r ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✷ ✺✳✸✳✶ ❉❡s❝r✐♣t❡✉rs ❧♦❝❛✉① ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✷ ✺✳✸✳✷ ❆♥❛❧②s❡ ❣❧♦❜❛❧❡ ✿ ❍✐st♦❣r❛♠♠❡ ❞❡ ❣r❛❞✐❡♥ts ♦r✐❡♥tés ✭❍❖●✮ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✻ ✺✳✹ ❘és✉❧t❛ts ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✼ ✻ ❈♦♥❝❧✉s✐♦♥s ✶✶✶ ✻✳✶ ❈♦♥❝❧✉s✐♦♥s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✶✶ ✻✳✷ ❚r❛✈❛✉① ❢✉t✉rs ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✶✸ P✉❜❧✐❝❛t✐♦♥s ✶✶✺ ❆✳✶ ❆rt✐❝❧❡ ■❚❙❈ ✷✵✶✷ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✶✻ ❆✳✷ ❆rt✐❝❧❡ ■❈■❘❚ ✷✵✶✸ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✷✶ ❆✳✸ ❆rt✐❝❧❡ ■❚❙❈ ✷✵✶✸ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✷✼ ❇✐❜❧✐♦❣r❛♣❤✐❡ ✶✸✸❈❤❛♣✐tr❡ ✶ ■♥tr♦❞✉❝t✐♦♥ ❙♦♠♠❛✐r❡ ✶✳✶ ■♥tr♦❞✉❝t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶ ✶✳✷ ❈♦♥t❡①t❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸ ✶✳✷✳✶ ❙ûr❡té ❢❡rr♦✈✐❛✐r❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸ ✶✳✷✳✷ ◆♦r♠❡s ❊◆ ✺✵✶✷✾ ❡t ❊◆ ✺✵✶✷✻ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✹ ✶✳✷✳✷✳✶ ◆✐✈❡❛✉ ❞❡ ♣r♦❜❛❜✐❧✐té ❞❡ ❧✬❛❝❝✐❞❡♥t ♣♦t❡♥t✐❡❧ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✹ ✶✳✷✳✷✳✷ ◆✐✈❡❛✉ ❞❡ ❣r❛✈✐té ❞❡s ❞♦♠♠❛❣❡s ❡♥❣❡♥❞rés ♣❛r ❧✬❛❝❝✐❞❡♥t ♣♦t❡♥t✐❡❧ ✺ ✶✳✷✳✷✳✸ ◆✐✈❡❛✉ ❞❡ r✐sq✉❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✺ ✶✳✷✳✸ ◆♦r♠❡ ❊◆ ✶✺✷✷✼ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻ ✶✳✸ ▲❛ ✈✐t❡ss❡ ❝♦♠♠❡r❝✐❛❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼ ✶✳✸✳✶ ▼❛r❝❤❡ ❞✉ tr❛✐♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼ ✶✳✸✳✷ ❉✐st❛♥❝❡ ❞✬❛rrêt ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽ ✶✳✹ ❈♦♥❞✉✐t❡s ♥♦♥ ❛✉t♦♠❛t✐sé❡s ❞✉ tr❛✐♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾ ✶✳✹✳✶ ❖✉✈❡rt✉r❡ ❞❡ ❧❛ ❧✐❣♥❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾ ✶✳✹✳✷ ❘❡♣r✐s❡ ❡♥ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵ ✶✳✹✳✷✳✶ ❆❝t✐♦♥s ❞✉ s②stè♠❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵ ✶✳✹✳✸ ▼♦✉✈❡♠❡♥t ❡♥ ❣❛r❛❣❡ ♦✉ ❛t❡❧✐❡r ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✶ ✶✳✹✳✸✳✶ ❆❝t✐♦♥s ❞✉ s②stè♠❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✶ ✶✳✺ ❖❜❥❡❝t✐❢s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✷ ✶✳✺✳✶ ❖❜❥❡❝t✐❢s t❡❝❤♥✐q✉❡s ❡t ♣❡r❢♦r♠❛♥❝❡s à ❛tt❡✐♥❞r❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✷ ✶✳✺✳✷ ❖❜❥❡❝t✐❢s s❝✐❡♥t✐✜q✉❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✷ ✶✳✻ ❖r❣❛♥✐s❛t✐♦♥ ❞✉ ♠❛♥✉s❝r✐t ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✹ ✶✳✶ ■♥tr♦❞✉❝t✐♦♥ ❉❛♥s ❧❡s ❞❡r♥✐èr❡s ❞é❝❡♥♥✐❡s✱ ❧❡s s②stè♠❡s ❞❡ tr❛♥s♣♦rts ♦♥t ✈✉ s✬❛♠é❧✐♦r❡r ❧❡s ❝♦♥❞✐t✐♦♥s ❞❡ sé❝✉r✐té✱ ❧✬♦♣t✐♠✐s❛t✐♦♥ ❞❡s rés❡❛✉①✱ ❧❛ ré❞✉❝t✐♦♥ ❞❡ ❧❛ ❝♦♥s♦♠♠❛t✐♦♥ ❞✬é♥❡r❣✐❡ ❡t ❧❛ ❞✐♠✐♥✉t✐♦♥ ❞❡ ❧❛ ♣♦❧❧✉t✐♦♥✳ ▲❡s r❡❝❤❡r❝❤❡s ❛✉t♦✉r ❞❡ ❧❛ ❝♦♥❞✉✐t❡ ❛✉t♦♠❛t✐q✉❡✱ ❞❛♥s ❧❛q✉❡❧❧❡ ❞❡ ♥♦✉✈❡❧❧❡s t❡❝❤♥✐q✉❡s s♦♥t ❡♥ tr❛✐♥ ❞❡ s❡ ❞é✈❡❧♦♣♣❡r✱ s❡ ♣♦✉rs✉✐✈❡♥t✳ ❈❡s r❡❝❤❡r❝❤❡s ✐♥❝❧✉❡♥t ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❡t ❧❡ s✉✐✈✐ ❞❡s ♠❛rq✉❛❣❡s ❞❡s ✈♦✐❡s ❞❡ ❝✐r❝✉❧❛t✐♦♥ ❡♥ ♠❛✐♥t❡♥❛♥t ❧❛ ❞✐st❛♥❝❡ ❞❡ sé❝✉r✐té ♣❛r r❛♣♣♦rt ❛✉① ❛✉tr❡s ✈é❤✐❝✉❧❡s✱ ❧❡s ❝❤❛♥❣❡♠❡♥ts ❞❡ ✈♦✐❡ ♣♦✉r ❞é♣❛ss❡r ✉♥ ✈é❤✐❝✉❧❡✱ ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✱ ❧❛ ❣❡st✐♦♥ ❞❡s ❝❛rr❡❢♦✉rs ❡t ❧✬❛♠é❧✐♦r❛t✐♦♥ ❞❡s ❝♦♥❞✐t✐♦♥s ❞❡ ✈✐s✐❜✐❧✐té ❞❡s ❝❛♠ér❛s✳ ■❧s ✈✐s❡♥t ❛✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡ ❙②stè♠❡s ■♥t❡❧❧✐❣❡♥ts ❞❡ ❚r❛♥s♣♦rts ✭❙❚■✮ ♦✉ ✓■♥t❡❧❧✐❣❡♥t ❚r❛♥s♣♦rt ❙②st❡♠s✔ ✭■❚❙✮✳ ▲❡s ♣r❡♠✐èr❡s r❡❝❤❡r❝❤❡s ❡♥ ♠❛t✐èr❡ ❞❡ ✓✈é❤✐❝✉❧❡ ✐♥t❡❧❧✐❣❡♥t✔ ❡t ❞❡ ✓r♦✉t❡ ✐♥t❡❧❧✐❣❡♥t❡✔ ♦♥t été ré❛❧✐sé❡s ❛✉ ♠✐❧✐❡✉ ❞❡s ❛♥♥é❡s ✶✾✽✵ ❛✈❡❝ ❧❡ ♣r♦❥❡t ❊✉r♦♣é❡♥ P❘❖▼❊❚❍❊❯❙ ✭❆❝r♦♥②♠❡ ❞❡ P❘❖❣r❛▼ ❢♦r ❛♥ ❊✉r♦♣❡❛♥ ❚r❛✣❝ ✇✐t❤ ❍✐❣❤❡st ❊✣❝✐❡♥❝② ❛♥❞ ❯♥♣r❡❝❡❞❡♥t ❙❛❢❡t②✮ ❡♥ ❊✉r♦♣❡✱ ❛✉① ➱t❛ts✲❯♥✐s ❧❡ ♣r♦❥❡t ■❱❍❙ ✭■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡ ❛♥❞ ❍✐❣❤✇❛② ❙②st❡♠✮ ❡t ❛✉ ❏❛♣♦♥ ❱■❈❙ ✭❱❡❤✐❝❧❡ ■♥❢♦r♠❛t✐♦♥ ❛♥❞ ❈♦♠♠✉♥✐❝❛t✐♦♥ ❙②st❡♠✮ ❬▼❛ss✐♠♦ ❡t ❛❧✳ ✷✵✵✵❪✳✷ ❈❤❛♣✐tr❡ ✶✳ ■♥tr♦❞✉❝t✐♦♥ ▲❡s tr❛♥s♣♦rts ❡♥ ❝♦♠♠✉♥ ❥♦✉❡♥t ✉♥ rô❧❡ ❡ss❡♥t✐❡❧ ❞❛♥s ❧❡s ❛❝t✐♦♥s ❞❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✉r❛❜❧❡ ❡t ❧❡ ♠étr♦ s✬❡st ✐♠♣♦sé ❞❛♥s t♦✉t❡s ❧❡s ❣r❛♥❞❡s ♠étr♦♣♦❧❡s ❝♦♠♠❡ ❧❛ s♦❧✉t✐♦♥ ❧❛ ♣❧✉s ❡✣❝❛❝❡ ❡♥ ♠❛t✐èr❡ ❞❡ tr❛♥s♣♦rt ✉r❜❛✐♥ ❞❡ ♠❛ss❡✱ ❝❛r ✐❧ ♣rés❡♥t❡ ❞❡ ♥♦♠❜r❡✉① ❛✈❛♥t❛❣❡s ♣❛r r❛♣♣♦rt ❛✉① ✈é❤✐❝✉❧❡s ♣❡rs♦♥♥❡❧s ❝♦♠♠❡ ❧❛ r❛♣✐❞✐té✱ ❧❛ sé❝✉r✐té✱ ❧❛ ✜❛❜✐❧✐té✱ ✉♥❡ ❢❛✐❜❧❡ ♣♦❧❧✉t✐♦♥ ❡t ✉♥ ❝♦ût s✉✣s❛♠♠❡♥t ❜❛s ♣♦✉r êtr❡ ❛❝❝❡ss✐❜❧❡ à t♦✉s✳ ❆❝t✉❡❧❧❡♠❡♥t✱ ❧❡s s②stè♠❡s ❞❡ tr❛♥s♣♦rt ✉r❜❛✐♥s ❡♥t✐èr❡♠❡♥t ❛✉t♦♠❛t✐q✉❡s s❡ ❞é✈❡❧♦♣♣❡♥t✱ ❝❛r ✐❧s ♣rés❡♥t❡♥t ❞❡ ♥♦♠❜r❡✉① ❛✈❛♥t❛❣❡s ♣♦✉r ❧❡s ❡①♣❧♦✐t❛♥ts✳ ▲✬❛✉t♦♠❛t✐s❛t✐♦♥ ♣❡r♠❡t ♣❧✉s ❞❡ sé❝✉r✐té ❡t ✉♥❡ ♠❡✐❧❧❡✉r❡ ❛❞❛♣t❛t✐♦♥ ❛✉① ❜❡s♦✐♥s ❞✉ tr❛✜❝✱ t♦✉t ❡♥ ♦✛r❛♥t ✉♥❡ ❣r❛♥❞❡ ❛ttr❛❝t✐✈✐té ♣♦✉r ❧❡s ♣❛ss❛❣❡rs✳ ❙✐❡♠❡♥s ❙✳❆✳❙✳ ❛ ❝réé ❡t ❞é✈❡❧♦♣♣é ❧❡ ♣r❡♠✐❡r ♠étr♦ ❛✉ ♠♦♥❞❡ ❡♥t✐èr❡♠❡♥t ❛✉t♦♠❛t✐q✉❡ ❡t s❛♥s ❝♦♥❞✉❝t❡✉r ❡♥ ✶✾✽✸ à ▲✐❧❧❡ s♦✉s ❧❡ ♥♦♠ ❞❡ ❱❆▲ ✭❱é❤✐❝✉❧❡ ❆✉t♦♠❛t✐q✉❡ ▲é❣❡r✮✳ ❉✬❛❜♦r❞ rés❡r✈é❡ ❛✉① ♠étr♦s ❧é❣❡rs ❡t é❝♦♥♦♠✐q✉❡s✱ ❧✬❛✉t♦♠❛t✐s❛t✐♦♥ ❛ ❞❡♣✉✐s été ❛♣♣❧✐q✉é❡ à ❞❡s ♠étr♦s ❞❡ ❣❛❜❛r✐t ♣❧✉s ✐♠♣♦rt❛♥t ❝♦♠♠❡ ▼❊❚❊❖❘ ✭▼➱❚r♦ ❊st✲❖✉❡st ❘❛♣✐❞❡ à P❛r✐s ❧✐❣♥❡ ✹✮✳ ❙❛ s♦✉♣❧❡ss❡ ❞✬❡①♣❧♦✐✲ t❛t✐♦♥ ❧❡ r❡♥❞ é❣❛❧❡♠❡♥t ♣❛r❢❛✐t❡♠❡♥t ❛❞❛♣té ❛✉① ❞❡ss❡rt❡s ❞✬❛ér♦♣♦rts✳ ❉❡ ❝❡ ❢❛✐t✱ ✐❧ ❡st ❞é❥à ❡♥ ❡①♣❧♦✐t❛t✐♦♥ à P❛r✐s ❖r❧②✱ P❛r✐s ❈❤❛r❧❡s ❞❡ ●❛✉❧❧❡ ❡t ❈❤✐❝❛❣♦ ❬Pr♦✈♦st ✷✵✵✺❪✳ ▲✬❛♠é❧✐♦r❛t✐♦♥ ❞❡ ❧❛ sûr❡té ❡t ❧❛ sé❝✉r✐té s♦♥t ♣r✐♠♦r❞✐❛❧❡s ♣♦✉r ♥✬✐♠♣♦rt❡ q✉❡❧ s②stè♠❡ ❞❡ tr❛♥s♣♦rt ❡t ♦♥t ❡♥tr❛î♥é ❝❡s ❞❡r♥✐èr❡s ❛♥♥é❡s ✉♥❡ ❞✐♠✐♥✉t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞✬❛❝❝✐❞❡♥ts✳ ❯♥❡ ❛♥❛❧②s❡ ❞❡s ❛❝❝✐❞❡♥ts ❢❡rr♦✈✐❛✐r❡s ❣râ❝❡ à ❞❡s ❞♦♥♥é❡s ❡①tr❛✐t❡s ❞❡ ❧✬❊✉r♦st❛t ✭❝❡♥tr❡ ❡✉r♦♣é❡♥ ❝❤❛r❣é ❞❡ ❧✬✐♥❢♦r♠❛t✐♦♥ st❛t✐st✐q✉❡ à ❧✬é❝❤❡❧❧❡ ❝♦♠♠✉♥❛✉t❛✐r❡✮ ❬◆❈❆P ✷✵✶✸❪✱ ❝♦♥st❛t❡ q✉❡ ❧❡s ❞❡✉① ♣r✐♥❝✐♣❛❧❡s ❝❛✉s❡s ❞✬❛❝❝✐❞❡♥ts s♦♥t ❧❡s ♣❛ss❛❣❡s à ♥✐✈❡❛✉ ❡t ❧❡s ❝♦❧❧✐s✐♦♥s ✭t❛❜❧❡❛✉ ✶✳✶✮✳ ❚❛❜❧❡❛✉ ✶✳✶ ❆❝❝✐❞❡♥ts ❢❡rr♦✈✐❛✐r❡s ✲ ♥♦♠❜r❡ ❞❡ ✈✐❝t✐♠❡s ♣❛r t②♣❡ ❞✬❛❝❝✐❞❡♥t✱ ❯❊✲✷✼✱ ✷✵✶✷ ✷✵✵✽ ✷✵✵✾ ✷✵✶✵ ✷✵✶✶ ❜❧❡ssés ❞é❝ès ❜❧❡ssés ❞é❝ès ❜❧❡ssés ❞é❝ès ❜❧❡ssés ❞é❝ès ❈♦❧❧✐s✐♦♥ ✾✷ ✷✸ ✺✸ ✶✵ ✷✻✼ ✹✶ ✹✾ ✶✺ ❉ér❛✐❧❧❡♠❡♥t ✶✺ ✸ ✶✾ ✸✷ ✷✶ ✸ ✹✺ ✹ P❛ss❛❣❡s à ♥✐✈❡❛✉ ✹✺✸ ✸✾✾ ✸✺✹ ✹✸✸ ✸✽✶ ✸✼✽ ✸✷✾ ✸✶✼ ❇✐❡♥ q✉❡ ❧❡s ❛❝❝✐❞❡♥ts ❢❡rr♦✈✐❛✐r❡s s♦✐❡♥t ♣❡✉ ♥♦♠❜r❡✉① ♣❛r r❛♣♣♦rt ❛✉① ❛❝❝✐❞❡♥ts r♦✉t✐❡rs✱ ❧❡✉r ✐♠♣❛❝t ♠é❞✐❛t✐q✉❡ ❡t ❧❡s ♣❡rt✉r❜❛t✐♦♥s ❞❡ ❝✐r❝✉❧❛t✐♦♥ ❝♦♥❞✉✐s❡♥t ❧❡s ❡①♣❧♦✐t❛♥ts ❡t ❧❡s ❛✉t♦r✐tés ❞❡ t✉t❡❧❧❡ à ❛♠é❧✐♦r❡r ❡♥ ♣❡r♠❛♥❡♥❝❡ ❧❛ sé❝✉r✐té ❞❡s ❝✐r❝✉❧❛t✐♦♥s✳ P♦✉r ❞é✜♥✐r ✉♥❡ s♦❧✉t✐♦♥ ✐♥❞✉str✐❡❧❧❡ ♣♦✉r ❧❡s ♠étr♦s ❛✉t♦♠❛t✐q✉❡s✱ ♥♦✉s s♦✉❤❛✐t♦♥s é✈❛❧✉❡r ❧❡s ❛♣♣r♦❝❤❡s ❜❛sé❡s s✉r ❧❛ ✈✐s✐♦♥ ♣❛r ♦r❞✐♥❛t❡✉r ❡t ❧❡ tr❛✐t❡♠❡♥t ❛✉t♦♠❛t✐sé ❞❡s ✐♠❛❣❡s✱ ❛✈❡❝ ❧✬♦❜❥❡❝t✐❢ ❞❡ ♣r♦♣♦s❡r ❞❡s ♠❡s✉r❡s ♣ré✈❡♥t✐✈❡s ❝♦♥tr❡ ❧❡s ❝♦❧❧✐s✐♦♥s✳ ❈❡tt❡ t❤ès❡ ♣♦rt❡ s✉r ❧❛ ❢♦♥❝t✐♦♥ ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❞❛♥s ❧❡ ❞♦♠❛✐♥❡ ❢❡rr♦✈✐❛✐r❡ à ♣❛rt✐r ❞❡ ❧❛ ✈✐s✐♦♥ ♣❛r ♦r❞✐♥❛t❡✉r✳ ■❧ s✬❛❣✐t ❞✬❛ss✉r❡r ✉♥❡ ♣❡r❝❡♣t✐♦♥ ❞❡ ❧✬❡♥✈✐r♦♥♥❡♠❡♥t s✐t✉é à ❧✬❛✈❛♥t ❞✉ tr❛✐♥ ♣❛r ❧✬✐♥t❡r♠é❞✐❛✐r❡ ❞✬✉♥ ❝❛♣t❡✉r ♦♣t✐q✉❡ ❛✜♥ ❞❡ ❞ét❡❝t❡r ❡t ❞✬é✈❛❧✉❡r ❧❡s ❞✐st❛♥❝❡s ❡t t❛✐❧❧❡s ❞❡s ♦❜st❛❝❧❡s s✐t✉és s✉r ❧❛ ✈♦✐❡✳ ▲❛ ❧✐st❡ s✉✐✈❛♥t❡ ❡st ✉♥❡ ♣r❡♠✐èr❡ ✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡s ❛♣♣❧✐❝❛t✐♦♥s ❢❡rr♦✈✐❛✐r❡s ♣♦✉r ❧❡sq✉❡❧❧❡s ❞❡s s②stè♠❡s ❞❡ tr❛✐t❡♠❡♥ts ❞✬✐♠❛❣❡s ❡①✐st❡♥t ✭♠❛✐s q✉✐ ♣♦s❡♥t ♣❛r❢♦✐s ❡♥❝♦r❡ ❞❡s ♣r♦❜❧è♠❡s ❞❡ ♠✐s❡ ❛✉ ♣♦✐♥t✮ ✿ ✕ ❙✉r✈❡✐❧❧❛♥❝❡ ❞❡ ♣❛ss❛❣❡ à ♥✐✈❡❛✉ ✭✈♦✐t✉r❡ ♦✉ ❝❛♠✐♦♥ ❛rrêtés✱ ♣❡rs♦♥♥❡s✮ ✿ ❝❛♠ér❛s ✜①❡s✳ ✕ ❙✉r✈❡✐❧❧❛♥❝❡ ❞❡ ♣ér✐♠ètr❡ ✭♦❜s❡r✈❛t✐♦♥ ❞❡s ✐♥tr✉s✐♦♥s ❞❛♥s ❞❡s ❧✐❡✉① ✐♥t❡r❞✐ts ❝♦♠♠❡ ❧❡s t✉♥✲ ♥❡❧s✱ ❧❡s ♣♦♥ts ❡t ❧❛ ✈♦✐❡✮ ✿ ❝❛♠ér❛s ✜①❡s✳ ✕ ❉ét❡❝t✐♦♥ ❞❡ ❝❤✉t❡ ❞✬♦❜❥❡t ♦✉ ❞❡ ♣❡rs♦♥♥❡ s✉r ❧❛ ✈♦✐❡ ❡♥ st❛t✐♦♥ ✿ ❝❛♠ér❛s ✜①❡s✳ ✕ ❉ét❡❝t✐♦♥ ❞✬♦❜❥❡t ❛❜❛♥❞♦♥♥é s✉r ✉♥ q✉❛✐ ♦✉ ❞❛♥s ✉♥ ❝♦✉❧♦✐r ✿ ❝❛♠ér❛s ✜①❡s✳ ✕ ❙✉r✈❡✐❧❧❛♥❝❡ ❞❡s ✐♥❢r❛str✉❝t✉r❡s ❡t ❞❡ ❧❛ ❝❛té♥❛✐r❡ ✿ ❝❛♠ér❛ ♠♦♥té❡ s✉r ❧❡ tr❛✐♥✳ ✕ ❙✉r✈❡✐❧❧❛♥❝❡ ❞❛♥s ❧❡s ✈é❤✐❝✉❧❡s ✿ ❡♥r❡❣✐str❡♠❡♥t ❞❡s ❞♦♥♥é❡s ♣♦✉r ❡♥q✉êt❡ ❛♣rès ✉♥ ✐♥❝✐❞❡♥t✱ ❞ét❡❝t✐♦♥ ❞❡ ❝♦♠♣♦rt❡♠❡♥ts ❛♥♦r♠❛✉① ✭♠✐s❡ ❛✉ ♣♦✐♥t ❞✐✣❝✐❧❡✮✳✶✳✷✳ ❈♦♥t❡①t❡ ✸ ❈❡s s♦❧✉t✐♦♥s s♦♥t s♦✉✈❡♥t ✐♥st❛❧❧é❡s ❞❛♥s ✉♥ ❡♥✈✐r♦♥♥❡♠❡♥t ❝♦♥trô❧é✳ ▲❛ ♠✐s❡ ❡♥ ÷✉✈r❡ ❡♥ ❞❡✈✐❡♥t s✐♠♣❧✐✜é❡ ♣❛r ❧❛ ❞é✜♥✐t✐♦♥ ❞✬✉♥ ❡♥s❡♠❜❧❡ ❞❡ ♣❛r❛♠ètr❡s ♣❡r♠❡tt❛♥t ❞✬❛tt❡✐♥❞r❡ ❧❡s ♦❜❥❡❝t✐❢s ♦♣ér❛t✐♦♥♥❡❧s✳ ❈❡tt❡ ♠ét❤♦❞♦❧♦❣✐❡ ❡st ❞✐✣❝✐❧❡♠❡♥t ❛♣♣❧✐❝❛❜❧❡ ❞❛♥s ♥♦tr❡ ❝♦♥t❡①t❡✱ ❞❛♥s ❧❡q✉❡❧ ❧❡s ✈❛r✐❛t✐♦♥s ❞❡ ❧✉♠✐♥♦s✐té s♦♥t ❞❡ ❣r❛♥❞❡ ❛♠♣❧✐t✉❞❡ ❡t ❧✬❡♥✈✐r♦♥♥❡♠❡♥t s❝é♥✐q✉❡ é✈♦❧✉❡ ❛✈❡❝ ✉♥❡ ❣r❛♥❞❡ r❛♣✐❞✐té✳ ▲❡s ♦❜❥❡❝t✐❢s ❞❡ sé❝✉r✐té ♦♣ér❛t✐♦♥♥❡❧❧❡ ❞❡s ❢♦♥❝t✐♦♥s ❞♦✐✈❡♥t êtr❡ ❝♦♠♣❛t✐❜❧❡s ❛✈❡❝ ❧❡ ♥✐✈❡❛✉ ❞❡ sé❝✉r✐té ❞❡s ❛✉t♦♠❛t✐s♠❡s ❞❡ ❝♦♥❞✉✐t❡✳ ✶✳✷ ❈♦♥t❡①t❡ ❉❡ ♥♦♠❜r❡✉① ♣r♦❥❡ts ❞❡ r❡❝❤❡r❝❤❡ ♦♥t été ♠❡♥és ♦✉ s♦♥t ❡♥ ❝♦✉rs ♣♦✉r ❢❛✐r❡ ❛✈❛♥❝❡r ❧❡s ❞é✈❡✲ ❧♦♣♣❡♠❡♥ts ♠❛tér✐❡❧s ❡t ❧♦❣✐❝✐❡❧s ✈❡rs ❧✬❛✉t♦♠❛t✐s❛t✐♦♥ t♦t❛❧❡ ❞❡ ❧❛ ❝♦♥❞✉✐t❡ ❡t ♣♦✉r ❧✬❛♠é❧✐♦r❛t✐♦♥ ❞❡s ❝♦♥❞✐t✐♦♥s ❞❡ sé❝✉r✐té ❡t ❧✬♦♣t✐♠✐s❛t✐♦♥ ❞❡s tr❛♥s♣♦rts✳ ◆♦✉s ❝❤❡r❝❤♦♥s à ♠❡ttr❡ ❛✉ s❡r✈✐❝❡ ❞✉ ♠étr♦ ❛✉t♦♠❛t✐q✉❡ ❧❡s ❛✈❛♥❝é❡s ❞❛♥s ❧❡ ❞♦♠❛✐♥❡ ❞✉ tr❛✐t❡♠❡♥t ❞✬✐♠❛❣❡ ❞é✈❡❧♦♣♣é❡s ♣♦✉r ❧❡s ■❚❙✳ ❉❛♥s ❧❡ ❝❛s ❞❡ ✈♦✐t✉r❡s ✐♥t❡❧❧✐❣❡♥t❡s✱ ✐❧ ❡①✐st❡ ❞❡ ♥♦♠✲ ❜r❡✉s❡s ét✉❞❡s ❞❡ s②stè♠❡s ❞✬❛✐❞❡ à ❧❛ ❝♦♥❞✉✐t❡ ✉t✐❧✐s❛♥t ❞❡s ❝❛♠ér❛s✳ P❛r ❝♦♥tr❡✱ ❧❡s ❝❛♠ér❛s s♦♥t ❛✉❥♦✉r❞✬❤✉✐ très ♣❡✉ ♣rés❡♥t❡s ❞❛♥s ❧❡s tr❛✐♥s✳ ▲❛ ❧✐st❡ s✉✐✈❛♥t❡ ❡st ✉♥❡ ♣r❡♠✐èr❡ ✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡s ❛♣♣❧✐❝❛t✐♦♥s ❢❡rr♦✈✐❛✐r❡s ♣♦✉r ❧❡sq✉❡❧❧❡s ❞❡s s②stè♠❡s ❞❡ tr❛✐t❡♠❡♥ts ❞✬✐♠❛❣❡s ❡①✐st❡♥t ✿ s✉r✈❡✐❧❧❛♥❝❡ ❞❡ ♣❛ss❛❣❡ à ♥✐✈❡❛✉ ❬❱❛③q✉❡③ ❡t ❛❧✳ ✷✵✵✹❪ ✭✈♦✐t✉r❡ ♦✉ ❝❛♠✐♦♥ ❛rrêtés✱ ♣❡rs♦♥♥❡s✮ ❛✈❡❝ ❞❡s ❝❛♠ér❛s ✜①❡s ♣♦✉r ❛♥❛❧②s❡r ❧❛ s❝è♥❡ ❀ s✉r✈❡✐❧❧❛♥❝❡ ❞❡ ♣ér✐♠ètr❡ ✭♦❜s❡r✈❛t✐♦♥ ❞❡s ✐♥tr✉s✐♦♥s ❞❛♥s ❞❡s ❧✐❡✉① ✐♥t❡r❞✐ts ✿ t✉♥♥❡❧s✱ ♣♦♥ts ❡t ✈♦✐❡✮ ❬●❛r❝✐❛ ❡t ❛❧✳ ✷✵✵✺❪ ❀ ❞ét❡❝t✐♦♥ ❞❡ ❝❤✉t❡ ❞✬♦❜❥❡ts ♦✉ ❞❡ ♣❡rs♦♥♥❡s s✉r ❧❛ ✈♦✐❡ ❡♥ st❛t✐♦♥ ❬❑❛✇❛♠✉r❛ ❡t ❛❧✳ ✷✵✶✶❪ ❀ s✉r✈❡✐❧❧❛♥❝❡ ❞❡s ✐♥❢r❛str✉❝t✉r❡s ❡t ❞❡s ❝❛té♥❛✐r❡s ❛✈❡❝ ✉♥❡ ❝❛♠ér❛ ♠♦♥té❡ s✉r ❧❡ tr❛✐♥ ❬P✉❤❧♠❛♥♥ ❡t ❛❧✳ ✷✵✵✹❪✳ ❆✈❡❝ ❧✬✐♠♣❧❛♥t❛t✐♦♥ ❞❡s ❝❛♠ér❛s ❞❛♥s ❧❛ ❧♦❝♦♠♦t✐✈❡ ❞❡s ♠étr♦s ❛✉t♦♠❛t✐q✉❡s✱ ♥♦✉s ❝❤❡r❝❤♦♥s à ❝♦♥tr✐❜✉❡r à ❧✬❛♠é❧✐♦r❛t✐♦♥ ❞❡ ❧❛ sé❝✉r✐té ❡t ❞❡ ❧❛ sûr❡té ❞❡s tr❛♥s♣♦rts✱ ❡t ♣❛r ❝♦♥séq✉❡♥t à ❛✉❣♠❡♥t❡r ❧❛ ♣r♦❞✉❝t✐✈✐té ❡t ❧❡s s❡r✈✐❝❡s ❞❛♥s ❧❡s tr❛♥s♣♦rts ♣✉❜❧✐❝s ❬◆❛♥❣t✐♥ ❡t ❛❧✳ ✷✵✵✺❪✳ ✶✳✷✳✶ ❙ûr❡té ❢❡rr♦✈✐❛✐r❡ ▲❡ ♠étr♦ ❡st ✉♥ tr❛♥s♣♦rt ❡♥ ❝♦♠♠✉♥ ❡♥ s✐t❡ ♣r♦♣r❡ ✭❚❈❙P✮✱ ❝✬❡st✲à✲❞✐r❡✱ ✉♥ tr❛♥s♣♦rt q✉✐ ❡♠♣r✉♥t❡ ✉♥❡ ✈♦✐❡ ♦✉ ✉♥ ❡s♣❛❝❡ q✉✐ ❧✉✐ ❡st rés❡r✈é✳ ▲❡ ♠étr♦ ❡♥t✐èr❡♠❡♥t ❛✉t♦♠❛t✐q✉❡ ❡st ❝♦♥s✐❞éré ❧✉✐ ❝♦♠♠❡ ✉♥ ✓❚❈❙P ✐♥té❣r❛❧✔ ❞❛♥s ❧❛ ♠❡s✉r❡ ♦ù ✐❧ ❝✐r❝✉❧❡ ❣é♥ér❛❧❡♠❡♥t ❡♥ s♦✉t❡rr❛✐♥ ♦✉ ❡♥ ✈✐❛❞✉❝ ❡t q✉❡ s♦♥ ❝❤❡♠✐♥ ♥✬❡st ❥❛♠❛✐s tr❛✈❡rsé ♣❛r ✉♥❡ ❛✉tr❡ r♦✉t❡✳ ❆✐♥s✐✱ ❧❡s ♣r✐♥❝✐♣❛✉① r✐sq✉❡s ♣♦✉r ❝❡s s②stè♠❡s ❢❡rr♦✈✐❛✐r❡s s♦♥t ❧✐♠✐tés ✿ ❞ér❛✐❧❧❡♠❡♥t✱ ❝♦❧❧✐s✐♦♥ ❞❡ tr❛✐♥s ♣❛r r❛ttr❛♣❛❣❡✱ ♣r✐s❡ ❡♥ é❝❤❛r♣❡ ❞❛♥s ❧❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ✭❡ss❡♥t✐❡❧❧❡♠❡♥t ❧❡s ❛✐❣✉✐❧❧❛❣❡s✮ ❡t ❝❤♦❝ ❢r♦♥t❛❧✳ ▲❛ sûr❡té ❞❡ ❢♦♥❝t✐♦♥♥❡♠❡♥t ❞❡s s②stè♠❡s ✐♥❞✉str✐❡❧s ❡st ❞é✜♥✐❡ ♣❛r ❧✬❛❜s❡♥❝❡ ❞❡ r✐sq✉❡ ✐♥❛❝❝❡♣✲ t❛❜❧❡✱ ❞❡ ❜❧❡ss✉r❡ ♦✉ ❞✬❛tt❡✐♥t❡ à ❧❛ s❛♥té ❞❡s ♣❡rs♦♥♥❡s✱ ❞✐r❡❝t❡♠❡♥t ♦✉ ✐♥❞✐r❡❝t❡♠❡♥t✱ rés✉❧t❛♥t ❞✬✉♥ ❞♦♠♠❛❣❡ ❞û ❛✉ ♠❛tér✐❡❧ ♦✉ à ❧✬❡♥✈✐r♦♥♥❡♠❡♥t✳ P♦✉r ❝❡s s②stè♠❡s✱ ❧❡s ♣❛♥♥❡s ♣❡✉✈❡♥t ♣r♦✈❡♥✐r ❞❡ ♥♦♠❜r❡✉① ❢❛❝t❡✉rs ❞✐✛ér❡♥ts ✿ ✕ ❊rr❡✉rs ❧♦❣✐❝✐❡❧❧❡s ❀ ✕ ❊rr❡✉rs ❤✉♠❛✐♥❡s ❀ ✕ ■♥✢✉❡♥❝❡ ❞❡ ❧✬❡♥✈✐r♦♥♥❡♠❡♥t ❀ ✕ P❛♥♥❡ ♠❛tér✐❡❧❧❡ ❞❡s ♠é❝❛♥✐s♠❡s ❀ ▲❡ t❡r♠❡ sé❝✉r✐té ♣❡✉t ❛✈♦✐r ❞❡✉① s❡♥s✱ ❧❡ ♣r❡♠✐❡r ✭sé❝✉r✐té✲❝♦♥✜❞❡♥t✐❛❧✐té✮ ❛ tr❛✐t à ✉♥❡ ✈♦✲ ❧♦♥té ❤✉♠❛✐♥❡ ❞❡ ❝❛✉s❡r ✉♥❡ ❞é❢❛✐❧❧❛♥❝❡✱ t❛♥❞✐s q✉❡ ❧❡ s❡❝♦♥❞ s❡♥s ✭sé❝✉r✐té✲✐♥♥♦❝✉✐té✮ ❡st ❧✬❛❜s❡♥❝❡ ❞❡ ❝♦♥séq✉❡♥❝❡s ❝❛t❛str♦♣❤✐q✉❡s ♣♦✉r ❧❡s ✉s❛❣❡rs ❡t ❧✬❡♥✈✐r♦♥♥❡♠❡♥t✳ ❈✬❡st ❡ss❡♥t✐❡❧❧❡♠❡♥t ❝❡tt❡ s❡❝♦♥❞❡ ♥♦t✐♦♥ q✉✐ ♥♦✉s ✐♥tér❡ss❡ ♣♦✉r ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✬❛♣♣❧✐❝❛t✐♦♥s ❞❛♥s ❧❡s tr❛♥s♣♦rts ❛✉t♦✲ ♠❛t✐q✉❡s✳✹ ❈❤❛♣✐tr❡ ✶✳ ■♥tr♦❞✉❝t✐♦♥ ✶✳✷✳✷ ◆♦r♠❡s ❊◆ ✺✵✶✷✾ ❡t ❊◆ ✺✵✶✷✻ ❈✬❡st ♣♦✉rq✉♦✐ ❧❛ ♥♦r♠❡ ❡✉r♦♣é❡♥♥❡ ✺✵✶✷✾ ❢✉t ❝réé❡ ❬❊✉r♦♣é❡♥❡ ✷✵✵✸❛❪✳ ❊❧❧❡ ❞é✜♥✐t ❧❡ ♥✐✈❡❛✉ ❞❡ sé❝✉r✐té ✐♥té❣ré ❞❡ ❧✬❛♥❣❧❛✐s ✭❙■▲✲❙❡❝✉r✐t② ■♥t❡❣r✐t② ▲❡✈❡❧✮✳ ▲❛ ♥♦r♠❡ ❞ét❛✐❧❧❡ ❧❡s ❡①✐❣❡♥❝❡s ♣♦✉r ❛tt❡✐♥❞r❡ ❝❤❛q✉❡ ♥✐✈❡❛✉ ❞✬✐♥té❣r✐té ❞❡ ❧❛ sé❝✉r✐té✳ ❈❡s ❡①✐❣❡♥❝❡s s♦♥t ♣❧✉s sé✈èr❡s ❛✉① ♥✐✈❡❛✉① ❞✬✐♥✲ té❣r✐té ❞❡ ❧❛ sé❝✉r✐té ❧❡s ♣❧✉s é❧❡✈és✱ ❞❡ ♠❛♥✐èr❡ à ❣❛r❛♥t✐r ✉♥❡ ♣r♦❜❛❜✐❧✐té ❞❡ ❞é❢❛✐❧❧❛♥❝❡ ❞❛♥❣❡r❡✉s❡ ♣❧✉s ❜❛ss❡✳ ❈❡s ❡①✐❣❡♥❝❡s ❞❡ q✉❛❧✐té ❝♦♥st✐t✉❡♥t ❧❡s ❝r✐tèr❡s ❞❡ ✜❛❜✐❧✐té ❞✉ s②stè♠❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡s r✐sq✉❡s✳ ▲❡ ♥✐✈❡❛✉ ❙■▲ s❡rt à ❛♣♣ré❝✐❡r ❧❛ ♣r♦❜❛❜✐❧✐té ❞❡ ❞é❢❛✐❧❧❛♥❝❡ ❞❛♥❣❡r❡✉s❡ ♣❛r ❤❡✉r❡ ✭P❋❍✲Pr♦❜❛❜✐❧✐t② ❋❛✐❧✉r❡ ♣❡r ❍♦✉r✮ ❡t ❧❡ ❚❛✉① ♠❛①✐♠✉♠ ❛❝❝❡♣t❛❜❧❡ ❞✬♦❝❝✉rr❡♥❝❡ ❞✬✉♥ ❞❛♥❣❡r ✭❚❍❘✮ ♣❛r ❤❡✉r❡ ❞❡s ❢♦♥❝t✐♦♥s ❞❡ sé❝✉r✐té ❞❡s s②stè♠❡s é❧❡❝tr✐q✉❡s ❡t é❧❡❝tr♦♥✐q✉❡s ♣r♦❣r❛♠♠❛❜❧❡s ❡t ❡st ❞é✜♥✐ s❡❧♦♥ ✹ ♥✐✈❡❛✉① ❞❡ sé❝✉r✐té ✭t❛❜❧❡❛✉ ✶✳✷✮✳ ❈❤❛q✉❡ ♥✐✈❡❛✉ ❝♦rr❡s♣♦♥❞ à ✉♥❡ ♣❧❛❣❡ ❞❡ ♣r♦❜❛❜✐❧✐té ❞❡ ❞é❢❛✐❧❧❛♥❝❡ ❞✬✉♥❡ ❢♦♥❝t✐♦♥ ❞❡ sé❝✉r✐té✳ P❧✉s ❧❡ ♥✐✈❡❛✉ ❞✬✐♥té❣r✐té ❞❡ sé❝✉r✐té ❞❡s s②stè♠❡s ❞❡ sé❝✉r✐té ❡st é❧❡✈é✱ ♣❧✉s ✐❧ ❡st ♣r♦❜❛❜❧❡ q✉✬✐❧s ❡①é❝✉t❡♥t ❡✣❝❛❝❡♠❡♥t ❧❡s ❢♦♥❝t✐♦♥s ❞❡ sé❝✉r✐té ❞❡♠❛♥❞é❡s✳ ▲❡ ❙■▲ ✹ ❡st ❧❡ s②stè♠❡ ❞❡ sé❝✉r✐té ❧❡ ♣❧✉s é❧❡✈é ❡t ❧❡ ❙■▲ ✶ ❧❡ ♠♦✐♥s é❧❡✈é✳ ❚❛❜❧❡❛✉ ✶✳✷ ❚❛❜❧❡ ❞❡s ♥✐✈❡❛✉① ❙■▲ ◆✐✈❡❛✉ ❞❡ ❙é❝✉r✐té ■♥té❣ré ✭❙■▲✮ ❚❛✉① ♠❛①✐♠✉♠ ❛❝❝❡♣t❛❜❧❡ ❞✬♦❝❝✉r✲ r❡♥❝❡ ❞✬✉♥ ❞❛♥❣❡r ✭❚❍❘✮ ♣❛r ❤❡✉r❡ ❡t ♣❛r ❢♦♥❝t✐♦♥ ❙■▲ ✹ ❚❍❘ ❝♦♠♣r✐s ❡♥tr❡ 10−9 ❡t 10−8 ❙■▲ ✸ ❚❍❘ ❝♦♠♣r✐s ❡♥tr❡ 10−8 ❡t 10−7 ❙■▲ ✷ ❚❍❘ ❝♦♠♣r✐s ❡♥tr❡ 10−7 ❡t 10−6 ❙■▲ ✶ ❚❍❘ ❝♦♠♣r✐s ❡♥tr❡ 10−6 ❡t 10−5 ▲✬❛✉t♦♠❛t✐s❛t✐♦♥ ✐♥té❣r❛❧❡ ❞❡s tr❛✐♥s ❡st s♦✉♠✐s❡ à ✉♥ ♥✐✈❡❛✉ ❞❡ sé❝✉r✐té ❙■▲ ✹ ❡t s♦♥ rô❧❡ ♣r✐♥❝✐♣❛❧ ❡st ❞✬❛ss✉r❡r ✿ ✕ ❧✬❛✉t♦♥♦♠✐❡ ❡t ❧❛ sé❝✉r✐té ❞✉ ♠♦✉✈❡♠❡♥t ❞❡s tr❛✐♥s✱ ✕ ❧❡ r❡s♣❡❝t ❞❡ ❧❛ s✐❣♥❛❧✐s❛t✐♦♥✱ ✕ ❧❛ ❧♦❝❛❧✐s❛t✐♦♥✱ ✕ ❧❛ tr❛♥s♠✐ss✐♦♥ ❞✬✐♥❢♦r♠❛t✐♦♥s✱ ✕ ❧❛ ré❣✉❧❛t✐♦♥ ❞❡ ✈✐t❡ss❡✳ ▲❛ ♥♦r♠❡ ❡✉r♦♣é❡♥♥❡ ❊◆ ✺✵✶✷✾ ❞é✜♥✐t ❧❛ sé❝✉r✐té ♣❛r ✓ ❧✬❛❜s❡♥❝❡ ❞❡ t♦✉t ♥✐✈❡❛✉ ❞❡ r✐sq✉❡ ✐♥❛❝✲ ❝❡♣t❛❜❧❡ ✔✳ ❉❡ ♠ê♠❡✱ ❊◆ ✺✵✶✷✻ ❬❊✉r♦♣é❡♥❡ ✷✵✵✸❜❪ ❞é✜♥✐t ❧❡ ♥✐✈❡❛✉ ❞❡ ❣r❛✈✐té ❡♥ ❛ss♦❝✐❛♥t ❧❡s q✉❛♥✲ t✐✜❝❛t✐♦♥s ❛✈❡❝ ❧❡s ❝♦♥séq✉❡♥❝❡s ❡♥❣❡♥❞ré❡s ♣❛r ❧✬❛❝❝✐❞❡♥t ♣♦t❡♥t✐❡❧✳ P♦✉r ❞é✜♥✐r ❡t é✈❛❧✉❡r ❧❡ ♥✐✈❡❛✉ ❞✬❛❝❝❡♣t❛❜✐❧✐té ❞❡s r✐sq✉❡s✱ ❝❡tt❡ ♥♦r♠❡ ♣r♦♣♦s❡ ❧❛ ♠❛tr✐❝❡ ❣r❛✈✐té✴♦❝❝✉rr❡♥❝❡ ❬▼❛❜r♦✉❦ ✷✵✶✵❪✳ ◆♦✉s ❛❧❧♦♥s ❞ét❛✐❧❧❡r ❧❡s ❞é✜♥✐t✐♦♥s ❞✉ ♥✐✈❡❛✉ ❞❡ ♣r♦❜❛❜✐❧✐té✱ ❞✉ ♥✐✈❡❛✉ ❞❡ ❣r❛✈✐té ❡t ❞✉ ♥✐✈❡❛✉ ❞❡ r✐sq✉❡✱ ♣♦✉r ♣♦✉✈♦✐r ❝♦♠♣r❡♥❞r❡ ❧❡ ❝❤♦✐① ❞❡s t❡❝❤♥✐q✉❡s ❞❡ tr❛✐t❡♠❡♥t ❞✬✐♠❛❣❡s ♣r♦♣♦sé❡s ♣♦✉r s❛t✐s❢❛✐r❡ ❛✉① ❡①✐❣❡♥❝❡s ❢❡rr♦✈✐❛✐r❡s✳ ✶✳✷✳✷✳✶ ◆✐✈❡❛✉ ❞❡ ♣r♦❜❛❜✐❧✐té ❞❡ ❧✬❛❝❝✐❞❡♥t ♣♦t❡♥t✐❡❧ ▲❛ ♥♦r♠❡ ❊◆ ✺✵✶✷✻ ♣r♦♣♦s❡ ❞❡s ♣r♦❜❛❜✐❧✐tés q✉❛♥t✐t❛t✐✈❡s✱ ❞✬♦ù ❧❛ ♣r♦❜❛❜✐❧✐té ❞✬♦❝❝✉rr❡♥❝❡ ❞✬✉♥ é✈é♥❡♠❡♥t ♣❡✉t êtr❡ ✿ ✕ ❋réq✉❡♥t ✿ s✉r✈✐❡♥❞r❛ ♣r♦❜❛❜❧❡♠❡♥t s♦✉✈❡♥t✳ ▲❡ r✐sq✉❡ ❞❡ ❝♦♥❝rét✐s❛t✐♦♥ ❞✉ ❞❛♥❣❡r s❡r❛ ❝♦♥t✐♥✉❡❧❧❡♠❡♥t ♣rés❡♥t (P > 10−3/h)✳ ✕ Pr♦❜❛❜❧❡ ✿ s✉r✈✐❡♥❞r❛ ♣❧✉s✐❡✉rs ❢♦✐s✳ ▲❡ ❞❛♥❣❡r s❡ ❝♦♥❝rét✐s❡r❛ ❢réq✉❡♠♠❡♥t (10−3/h > P > 10−4/h)✳ ✕ ❖❝❝❛s✐♦♥♥❡❧ ✿ s✉r✈✐❡♥❞r❛ ♣r♦❜❛❜❧❡♠❡♥t ♣❧✉s✐❡✉rs ❢♦✐s ❛✉ ❝♦✉rs ❞❡ ❧❛ ✈✐❡ ❞❡ s②stè♠❡✳ ▲❡ ❞❛♥❣❡r s❡ ❝♦♥❝rét✐s❡r❛ ♣❧✉s✐❡✉rs ❢♦✐s (10−4/h > P > 10−5/h)✳✶✳✷✳ ❈♦♥t❡①t❡ ✺ ✕ ❘❛r❡ ✿ s✉r✈✐❡♥❞r❛ ♣r♦❜❛❜❧❡♠❡♥t ❛✉ ❝♦✉rs ❞❡ ❧❛ ✈✐❡ ❞✉ s②stè♠❡✳ ❖♥ ♣❡✉t r❛✐s♦♥♥❛❜❧❡♠❡♥t s✬❛tt❡♥❞r❡ à ❧❛ ❝♦♥❝rét✐s❛t✐♦♥ ❞❡ ❝❡ ❞❛♥❣❡r (10−5/h > P > 10−7/h)✳ ✕ ■♠♣r♦❜❛❜❧❡ ✿ ♣❡✉ ♣r♦❜❛❜❧❡ ♠❛✐s ♣♦ss✐❜❧❡✳ ❖♥ ♣❡✉t ❛❞♠❡ttr❡ q✉❡ ❝❡ ❞❛♥❣❡r s❡ ❝♦♥❝rét✐s❡r❛ ❡①❝❡♣t✐♦♥♥❡❧❧❡♠❡♥t (10−7/h > P > 10−8/h)✳ ✕ ■♥✈r❛✐s❡♠❜❧❛❜❧❡ ✿ ❊①trê♠❡♠❡♥t ✐♠♣r♦❜❛❜❧❡✳ ❖♥ ♣❡✉t ❛❞♠❡ttr❡ q✉❡ ❝❡ ❞❛♥❣❡r ♥❡ s❡ ❝♦♥❝ré✲ t✐s❡r❛ ♣❛s✳ (10−9/h > P)✳ P♦✉r ♥♦tr❡ ❝❛s✱ ❧❛ ♣r♦❜❛❜✐❧✐té ❤♦r❛✐r❡ P s✬❛♣♣❧✐q✉❡ à ❧❛ ❧✐❣♥❡ ❞❡ ♠étr♦ ❝♦♠♣❧èt❡ ✭t♦✉s ❧❡s éq✉✐✲ ♣❡♠❡♥ts ❞❡ ❧❛ ❝♦♥❞✉✐t❡ ❛✉t♦♠❛t✐q✉❡ ✜①❡s ❡t ❡♠❜❛rq✉és✮✳ ✶✳✷✳✷✳✷ ◆✐✈❡❛✉ ❞❡ ❣r❛✈✐té ❞❡s ❞♦♠♠❛❣❡s ❡♥❣❡♥❞rés ♣❛r ❧✬❛❝❝✐❞❡♥t ♣♦t❡♥t✐❡❧ ▲❡s ♥✐✈❡❛✉① ❞❡ ❣r❛✈✐té ❞❡s ❞♦♠♠❛❣❡s ❡♥❣❡♥❞rés ♣❛r ❧✬❛❝❝✐❞❡♥t ♣♦t❡♥t✐❡❧ ♣❡✉✈❡♥t êtr❡ ❛♥❛❧②sés s✉r tr♦✐s ❛s♣❡❝ts ✿ s❡❧♦♥ ❧❡s ❞♦♠♠❛❣❡s ❛✉① ♣❡rs♦♥♥❡s✱ ❛✉ s②stè♠❡ ❡t à ❧✬❡♥✈✐r♦♥♥❡♠❡♥t✳ ❈♦♥s✐❞ér❛♥t ❧❡s ❝♦♥séq✉❡♥❝❡s s✉r ❧❡s ♣❡rs♦♥♥❡s✱ ❧❛ ♥♦r♠❡ ❊◆ ✺✵✶✷✻ ♣r♦♣♦s❡ q✉❛tr❡ ♥✐✈❡❛✉① ❞❡ ❣r❛✈✐té ❞❡s ❞♦♠♠❛❣❡s ✿ ✕ ❈❛t❛str♦♣❤✐q✉❡ ✿ ♣❧✉s✐❡✉rs ❜❧❡ssés ❣r❛✈❡s ♦✉ ♣❧✉s✐❡✉rs ♠♦rts✳ ✕ ●r❛✈❡ ✿ ✉♥ ❜❧❡ssé ❣r❛✈❡ ♦✉ ✉♥ ♠♦rt✳ ✕ ❙✐❣♥✐✜❛♥t ✿ ✉♥ ❜❧❡ssé ❧é❣❡r✳ ✕ ■♥s✐❣♥✐✜❛♥t ✿ ♥✐ ❜❧❡ssé✱ ♥✐ ♠♦rt✳ ✶✳✷✳✷✳✸ ◆✐✈❡❛✉ ❞❡ r✐sq✉❡ ●é♥ér❛❧❡♠❡♥t✱ ✐❧ ❡①✐st❡ ✉♥❡ ❝♦♥❢✉s✐♦♥ ❡♥tr❡ ❧❡ r✐sq✉❡ ❡t ❧❡ ♥✐✈❡❛✉ ❞❡ r✐sq✉❡✳ ❊♥ ❡✛❡t✱ ❧❡ ♥✐✈❡❛✉ ❞❡ r✐sq✉❡ ✐❞❡♥t✐✜❡ ❧❛ ❝♦♠❜✐♥❛✐s♦♥ ❞✉ ♥✐✈❡❛✉ ❞❡ ♣r♦❜❛❜✐❧✐té ❞✬♦❝❝✉rr❡♥❝❡ ❞❡ ❧✬❛❝❝✐❞❡♥t ♣♦t❡♥t✐❡❧ ❛✐♥s✐ q✉❡ ❧❡ ♥✐✈❡❛✉ ❞❡ ❣r❛✈✐té ❞❡s ❞♦♠♠❛❣❡s ❡♥❣❡♥❞rés ♣❛r ❝❡t ❛❝❝✐❞❡♥t ♣♦t❡♥t✐❡❧ ❀ ❞✬♦ù ♣❧✉s✐❡✉rs ❝❧❛ss✐✜❝❛t✐♦♥s ❛♣♣❛r❛✐ss❡♥t✳ ▲❛ ♥♦r♠❡ ❊◆ ✺✵✶✷✻ ✐❞❡♥t✐✜❡ ✹ ♥✐✈❡❛✉① ❞❡ r✐sq✉❡ ✿ ✕ ❘✐sq✉❡s ✐♥t♦❧ér❛❜❧❡s ✿ ❞♦✐✈❡♥t êtr❡ é❧✐♠✐♥és✳ ✕ ❘✐sq✉❡s ♥♦♥ s♦✉❤❛✐t❛❜❧❡s ✿ ♥❡ ♣❡✉✈❡♥t êtr❡ ❛❝❝❡♣tés✱ ❛✈❡❝ ❧✬❛❝❝♦r❞ ❞❡ ❧✬❊①♣❧♦✐t❛♥t✱ q✉❡ s✐ ❧✬♦♥ ♥❡ ♣❡✉t ♣❛s ré❞✉✐r❡ ❧❡ r✐sq✉❡✳ ✕ ❘✐sq✉❡s t♦❧ér❛❜❧❡s ✿ ❛❝❝❡♣t❛❜❧❡s✱ ❛✈❡❝ ❧✬❛❝❝♦r❞ ❞❡ ❧✬❊①♣❧♦✐t❛♥t✱ ❡t ♠♦②❡♥♥❛♥t ❞❡s ♣ré❝❛✉t✐♦♥s ❛♣♣r♦♣r✐é❡s✳ ✕ ❘✐sq✉❡s ♥é❣❧✐❣❡❛❜❧❡s ✿ ❛❝❝❡♣t❛❜❧❡s✱ ❛✈❡❝ ❧✬❛❝❝♦r❞ ❞❡ ❧✬❊①♣❧♦✐t❛♥t✳ ❋✐♥❛❧❡♠❡♥t✱ à ♣❛rt✐r ❞❡ ❝❡s ❞é✜♥✐t✐♦♥s✱ ❧❡s ❞✐✛ér❡♥t❡s ♥♦r♠❡s r❡❝♦♠♠❛♥❞❡♥t ❧❛ ♠✐s❡ ❡♥ ♣❧❛❝❡ ❞✬✉♥❡ ♠❛tr✐❝❡ ❣r❛✈✐té✴♦❝❝✉rr❡♥❝❡ ♣♦✉r é✈❛❧✉❡r ❧❡ r✐sq✉❡✳ ❯♥ ❡①❡♠♣❧❡ ❞❡ ❝❡tt❡ ♠❛tr✐❝❡ ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✶✳✶✳ ❋✐❣✉r❡ ✶✳✶ ✕ ▼❛tr✐❝❡ ❣r❛✈✐té✴♦❝❝✉rr❡♥❝❡✳ ■♠❛❣❡ ❡①tr❛✐t❡ ❞❡ ❬▼❛❜r♦✉❦ ✷✵✶✵❪✳✻ ❈❤❛♣✐tr❡ ✶✳ ■♥tr♦❞✉❝t✐♦♥ ✶✳✷✳✸ ◆♦r♠❡ ❊◆ ✶✺✷✷✼ ❆♣♣❧✐❝❛❜❧❡ ❞❡♣✉✐s ❧❡ ✶❡r ❥❛♥✈✐❡r ✷✵✶✶✱ ❧❛ ♥♦r♠❡ ❊◆✶✺✷✷✼✱ r❡❧❛t✐✈❡ à ❧❛ sé❝✉r✐té ♣❛ss✐✈❡ ❡♥ ❝❛s ❞❡ ❝♦❧❧✐s✐♦♥ ❢r♦♥t❛❧❡✱ s✬✐♠♣♦s❡ à t♦✉s ❧❡s ♥♦✉✈❡❛✉① ✈é❤✐❝✉❧❡s ❢❡rr♦✈✐❛✐r❡s✳ ❆♣♣❧✐q✉é❡ ❛✉① ♠étr♦s✱ ❡❧❧❡ st✐♣✉❧❡ q✉❡ ✓❧✬❡s♣❛❝❡ ❞❡ s✉r✈✐❡✔ ✭❡s♣❛❝❡ ♥♦r♠❛❧❡♠❡♥t ♦❝❝✉♣é ♣❛r ❧❡s ♣❛ss❛❣❡rs ♦✉ ❧❡ ❝♦♥❞✉❝t❡✉r✮ s♦✐t ♣rés❡r✈é ❡♥ ❝❛s ❞❡ ❝♦❧❧✐s✐♦♥ ❢r♦♥t❛❧❡ ❞✬✉♥❡ r❛♠❡ r♦✉❧❛♥t à 25❦♠✴❤ ❝♦♥tr❡ ✉♥❡ r❛♠❡ ❛rrêté❡✳ ❈❡♣❡♥❞❛♥t s✐ ❧❡s ❝♦♥❞✐t✐♦♥s ❞✬❡①♣❧♦✐t❛t✐♦♥ s♦♥t t❡❧❧❡s q✉✬✉♥ s❝é♥❛r✐♦ ❞❡ ❝♦❧❧✐s✐♦♥ ♥❡ ♣❡✉t ♣❛s s❡ ♣r♦❞✉✐r❡✱ ♦✉ s✬✐❧ ❡①✐st❡ ❞❡s ♣r❡✉✈❡s ♠♦♥tr❛♥t q✉❡ ❧❛ ♣r♦❜❛❜✐❧✐té ♣♦✉r q✉❡ ❝❡ s❝é♥❛r✐♦ s❡ ♣r♦❞✉✐s❡ ❡st s✐ ❢❛✐❜❧❡ q✉✬❡❧❧❡ ❡st ❧❛r❣❡♠❡♥t ❛❝❝❡♣t❛❜❧❡✱ ❛❧♦rs✱ ✐❧ ♥✬❡st ♣❛s ♥é❝❡ss❛✐r❡ ❞❡ ❧❡ ❝♦♥s✐❞ér❡r ♣♦✉r ❧❛ ❝♦♥❝❡♣t✐♦♥ ❞✉ ✈é❤✐❝✉❧❡✳ ❈✬❡st ♣ré❝✐sé♠❡♥t ❧❡ ❝❛s ♣♦✉r ❧❡ s②stè♠❡ ❱❆▲ ❡t✱ ♣❧✉s ❣é♥ér❛❧❡♠❡♥t✱ ♣♦✉r ❧❡s ♠étr♦s ❡♥ ❝♦♥❞✉✐t❡ ❛✉t♦♠❛t✐q✉❡ ✐♥té❣r❛❧❡ ✭s②stè♠❡s ✓♠❛♥❧❡ss✔✮ à ❧✬❡①❝❡♣t✐♦♥ ❞❡s ♣❤❛s❡s ❞❡ r❡♣r✐s❡ ❡♥ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡ s✉✐t❡ à ✉♥❡ ✐♥❞✐s♣♦♥✐❜✐❧✐té ❞✉ ✓♣✐❧♦t❡ ❛✉t♦♠❛t✐q✉❡✔✳ ▲✬❛♥t✐❝♦❧❧✐s✐♦♥ r❡♣♦s❡ ❛❧♦rs ❡♥t✐èr❡♠❡♥t s✉r ❧❡ ❝♦♥❞✉❝t❡✉r✱ ❛✈❡❝ ❧❡s r✐sq✉❡s ✐♥❤ér❡♥ts à ❝❡ ♠♦❞❡ ❞❡ ❝♦♥❞✉✐t❡ ✭♠❛❧❛✐s❡✱ ♣❡rt❡ ❞✬❛tt❡♥t✐♦♥✱✳✳✳✮✳ ❈❡s ♣❤❛s❡s ét❛♥t ♥é❛♥♠♦✐♥s r❛r❡s ❡t ❞❡ ❝♦✉rt❡s ❞✉ré❡s✱ ❧✬❛❥♦✉t ❞✬✉♥ ❞✐s♣♦s✐t✐❢ ❛♥t✐✲ ❝♦❧❧✐s✐♦♥s ♦♣ér❛t✐♦♥♥❡❧ ♣❡♥❞❛♥t ❧❛ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡ à ✈✉❡ ♣❡r♠❡ttr❛✐t ❞❡ s❛t✐s❢❛✐r❡ ❛✉① ❡①✐❣❡♥❝❡s ❞❡ ❧❛ ♥♦r♠❡✳ ❉❡ ♣❧✉s✱ ❧❛ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡ à ✈✉❡ ❡st ❡①trê♠❡♠❡♥t ♣❡rt✉r❜❛♥t❡ ♣♦✉r ❧❛ ❞✐s♣♦♥✐❜✐❧✐té ❞❡ ❧❛ ❧✐❣♥❡✳ ❙❛ ✈✐t❡ss❡ ❝♦♠♠❡r❝✐❛❧❡ s❡ ✈♦✐t r❛♣✐❞❡♠❡♥t ♣❡rt✉r❜é❡✳ ▲✬❛❣❡♥t ❞❡ ❝♦♥❞✉✐t❡ ♥✬ét❛♥t ♣❛s à ❜♦r❞✱ ✐❧ ❡st ♥é❝❡ss❛✐r❡ ❞❡ ❞✐str✐❜✉❡r ❧❡ ❧♦♥❣ ❞❡ ❧❛ ❧✐❣♥❡ ❞✉ ♣❡rs♦♥♥❡❧ ♣♦✉r ré❞✉✐r❡ ❧❡ t❡♠♣s ❞✬✐♥t❡r✈❡♥t✐♦♥✳ P♦✉r ❧✐♠✐t❡r ❧❡s ✐♠♣❛❝ts ❞✉ t❡♠♣s ❞✬✐♥t❡r✈❡♥t✐♦♥ s✉r ❧❛ ❞✐s♣♦♥✐❜✐❧✐té ❞❡ ❧❛ ❧✐❣♥❡✱ ✐❧ s❡♠❜❧❡ ✐♥tér❡ss❛♥t ❞❡ ❞é✈❡❧♦♣♣❡r ❧❡s ♠♦②❡♥s ♣❡r♠❡tt❛♥t ❞✬❛✉❣♠❡♥t❡r ❧❛ ✈✐t❡ss❡ ❞❡ ❝♦♥❞✉✐t❡ à ✈✉❡✱ t♦✉t ❡♥ r❡s♣❡❝t❛♥t ❧❛ ♥♦r♠❡ ❊◆ ✶✺✷✷✼✳ P♦✉r ❧❛ ❞ét❡❝t✐♦♥s ❞❡s ♣❡t✐ts ♦❜st❛❝❧❡s✱ ❛❝t✉❡❧❧❡♠❡♥t✱ ❞❡s ♠❡s✉r❡s ❞❡ ♣r♦t❡❝t✐♦♥ ❞❡ ❧✬❡♥✈✐r♦♥♥❡✲ ♠❡♥t ❞✉ ✈é❤✐❝✉❧❡ s♦♥t ♠✐s❡s ❡♥ ÷✉✈r❡ ♣♦✉r é✈✐t❡r t♦✉t❡ ✐♥tr✉s✐♦♥ ❞✬♦❜❥❡t ❞❛♥s ❧❡ ❞♦♠❛✐♥❡✳ ❆✉ ❝❛s ♦ù✱ ♠❛❧❣ré t♦✉t✱ ✉♥ ♦❜❥❡t s❡r❛✐t s✉r ❧❡ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t ❞✉ ✈é❤✐❝✉❧❡✱ ✉♥❡ tr❛✈❡rs❡ ✓❝❤❛ss❡ ❝♦r♣s✔ ❡st ♠♦♥té❡ à ❧✬❛✈❛♥t ❞❡s r❛♠❡s ❱❆▲✱ ❥✉st❡ ❛✉✲❞❡ss✉s ❞✉ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t✳ ❊❧❧❡ ❛ ♣♦✉r rô❧❡s ❞✬✉♥❡ ♣❛rt ❞❡ ❝❤❛ss❡r ❧❡s é✈❡♥t✉❡❧s ❝♦r♣s étr❛♥❣❡rs ✭❝❛✐❧❧♦✉①✱ ❞é❜r✐s✳✳✳✮ ♣rés❡♥ts s✉r ❧❡s ♣✐st❡s ❞❡ r♦✉❧❡♠❡♥t ♣♦✉r ♥❡ ♣❛s ❡♥❞♦♠♠❛❣❡r ❧❡s ♣♥❡✉s ❡t ❞✬❛✉tr❡ ♣❛rt ❞❡ ❞é❝❧❡♥❝❤❡r ❧❡ ❢r❡✐♥❛❣❡ ❞✬✉r❣❡♥❝❡ ♣♦✉r ❛rrêt❡r ❧❡ tr❛✐♥ ❛✉ ♣❧✉s tôt ❛♣rès ✉♥ ❝❤♦❝✳ ❉❛♥s ❝❡ ❝❛s✱ ✉♥ ❛❣❡♥t ❞♦✐t êtr❡ ❡♥✈♦②é s✉r ♣❧❛❝❡ ♣♦✉r ❞é❝✐❞❡r s✐ ❧❡ tr❛✐♥ ♣❡✉t ♦✉ ♥♦♥ r❡♣❛rt✐r✳ ❖r✱ ❞❛♥s ❧❛ ♣r❛t✐q✉❡✱ ❧❛ ♣❧✉♣❛rt ❞❡s ❞é❝❧❡♥❝❤❡♠❡♥ts s♦♥t ❞✉s à ❞❡s ❝❛✉s❡s q✉✐ ♥❡ ❥✉st✐✜❡♥t ♣❛s ❧✬❡♥✈♦✐ ❞✬✉♥ ❛❣❡♥t s✉r ♣❧❛❝❡ ✭❝❤♦❝ ❛✈❡❝ ✉♥ ❧❛♣✐♥ s✉r ❖r❧②❱❛❧ ♣❛r ❡①❡♠♣❧❡✮✳ ❯♥❡ ❝❛♠ér❛ ♣❧❛❝é❡ ❞❡rr✐èr❡ ❧❡ ♣❛r❡✲❜r✐s❡✱ ❛ss♦❝✐é❡ à ✉♥ ❡♥r❡❣✐str❡✉r ❡t à ✉♥❡ tr❛♥s♠✐ss✐♦♥ ✈❡rs ❧❡ P❈❈ ♣❡r♠❡ttr❛✐t ❞❡ ❢❛✐r❡ r❡♣❛rt✐r ❧❡ tr❛✐♥ ❛✉ ♣❧✉s tôt ❛♣rès ✉♥ ❝❤♦❝ ❜é♥✐♥✳ ▲❛ ✜❣✉r❡ ✶✳✷ ♥♦✉s ♠♦♥tr❡ ✉♥ ❡①❡♠♣❧❡ ❞❡ ❝❡tt❡ ❜❛rr❡✳ ❋✐❣✉r❡ ✶✳✷ ✕ ▲❛ tr❛✈❡rs❡ ❝❤❛ss❡✲❝♦r♣s ❞✉ ❱❆▲✳✶✳✸✳ ▲❛ ✈✐t❡ss❡ ❝♦♠♠❡r❝✐❛❧❡ ✼ ❈♦♠♣t❡ t❡♥✉ ❞❡ ❧❛ ❢❛✐❜❧❡ ♣r♦♣♦rt✐♦♥ ❞❡ t❡♠♣s ❞✉r❛♥t ❧❛q✉❡❧❧❡ ❞❡s ❝♦❧❧✐s✐♦♥s s♦♥t ♣♦ss✐❜❧❡s✱ ❧✬❛❞❥♦♥❝t✐♦♥ à ❧❛ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡✱ ❞✬✉♥ ❞✐s♣♦s✐t✐❢ ❞❡ ❞ét❡❝t✐♦♥ ❛✉t♦♠❛t✐q✉❡ ❞✬♦❜st❛❝❧❡s à ♣❛rt✐r ❞✉ tr❛✐t❡♠❡♥t ❞✬✐♠❛❣❡s✱ ♣❡r♠❡ttr❛✐t ❞❡ s❛t✐s❢❛✐r❡ ❛✉① ❡①✐❣❡♥❝❡s ❞❡ sé❝✉r✐té ❞❡ ❝❡tt❡ ♥♦r♠❡ s❛♥s ♣r♦❝é❞❡r à ❞❡s ♠♦❞✐✜❝❛t✐♦♥s str✉❝t✉r❡❧❧❡s ❞❡s r❛♠❡s✳ ❉❡ ❝❡tt❡ ♠❛♥✐èr❡✱ ❧✬❛❥♦✉t ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❡t ❞❡ ❧❛ ✈✐s✉❛❧✐s❛t✐♦♥ ❞❡s ✈♦✐❡s ♣❡r♠❡ttr❛✐t✱ ❞❡ ♣❧✉s✱ s❡❧♦♥ ❧❡s ❝❛s ✿ ✕ ▲❛ ❞ét❡❝t✐♦♥ ❞❡ ❢❛✉ss❡s ❛❧❛r♠❡s ❞✉❡s ❛✉① ♣❡t✐ts ♦❜st❛❝❧❡s✳ ✕ ▲❡s ♠♦✉✈❡♠❡♥ts ❛✉t♦♠❛t✐q✉❡s ❞❡ tr❛✐♥s ❡♥ ❣❛r❛❣❡✱ s❛♥s éq✉✐♣❡r t♦✉t ❧❡ ❢❛✐s❝❡❛✉ ❞❡ ✈♦✐❡s ❛✈❡❝ ❧❡s ❞✐s♣♦s✐t✐❢s ❞❡ ❧♦❝❛❧✐s❛t✐♦♥ ❡t ❞❡ s✐❣♥❛❧✐s❛t✐♦♥✳ ✶✳✸ ▲❛ ✈✐t❡ss❡ ❝♦♠♠❡r❝✐❛❧❡ ▲❛ ✈✐t❡ss❡ ❝♦♠♠❡r❝✐❛❧❡ ❡st ✉♥ ❞❡s ❢❛❝t❡✉rs q✉✐ ❞ét❡r♠✐♥❡ ❧❛ q✉❛❧✐té ❞❡s ♣r❡st❛t✐♦♥s ❞❡s tr❛♥s✲ ♣♦rts ♣✉❜❧✐❝s ❡t ❧❡✉r ❛ttr❛❝t✐✈✐té✳ ❊❧❧❡ r❡♣rés❡♥t❡ ❧❡ r❛♣♣♦rt ❡♥tr❡ ❧❛ ❧♦♥❣✉❡✉r ❞✉ tr❛❥❡t ❡t ❧❡ t❡♠♣s ♥é❝❡ss❛✐r❡ ♣♦✉r ❧❡ ♣❛r❝♦✉r✐r✱ ② ❝♦♠♣r✐s ❧❛ ❞✉ré❡ ❞❡s ❛rrêts ✐♥t❡r♠é❞✐❛✐r❡s✳ ❊❧❧❡ ❝♦♠♣r❡♥❞✱ ❧❛ ❞✉✲ ré❡ ❞✉ ♣❛r❝♦✉rs ❡♥tr❡ ❧❡s st❛t✐♦♥s✱ ❧❡ t❡♠♣s ❞✬❛tt❡♥t❡ ❛✉① st❛t✐♦♥s✱ ❧❡ t❡♠♣s ❞✬❛tt❡♥t❡ ❛✉① ❢❡✉① ❞❡ ❝✐r❝✉❧❛t✐♦♥✱ ❛✐♥s✐ q✉❡ ❧❡s ❛✉tr❡s t❡♠♣s ❞✬❛rrêt ✭✐♥❝✐❞❡♥ts✱ ❛❝❝✐❞❡♥ts✱ ❡t❝✳✮✳ ▲❡s ♣r✐♥❝✐♣❛✉① ❢❛❝t❡✉rs q✉✐ ✐♥✢✉❡♥❝❡♥t ❧❛ ✈✐t❡ss❡ ❝♦♠♠❡r❝✐❛❧❡ s♦♥t ✿ ✕ ▲❛ ✈✐t❡ss❡ ♠❛①✐♠❛❧❡ q✉❡ ♣❡✉✈❡♥t ❛tt❡✐♥❞r❡ ❧❡s ✈é❤✐❝✉❧❡s✱ q✉✐ ❞é♣❡♥❞ ❞❡ ❧❡✉r ♠♦t♦r✐s❛t✐♦♥✱ ♠❛✐s ❛✉ss✐ ❞❡ ❧✬✐♥❢r❛str✉❝t✉r❡ q✉✬✐❧s ✈♦♥t ✉t✐❧✐s❡r ✿ s✐t❡ ♣r♦♣r❡ ❡①❝❧✉s✐❢✱ ❡♥t✐èr❡♠❡♥t ♣r♦té❣é ❀ s✐t❡ ♣r♦♣r❡ ♣❛rt❛❣é ❀ ✈♦✐r✐❡ ❜❛♥❛❧✐sé❡✳ ✕ ▲❛ ❧♦♥❣✉❡✉r ❞❡s ✐♥t❡r✲st❛t✐♦♥s✱ q✉✐ ❞ét❡r♠✐♥❡ ❧❡ ♥♦♠❜r❡ ❞✬❛rrêts s✉r ❧❛ ❧✐❣♥❡✳ ✕ ▲❡s ♣✉✐ss❛♥❝❡s ❞✬❛❝❝é❧ér❛t✐♦♥ ❡t ❞❡ ❢r❡✐♥❛❣❡✱ q✉✐ ❥♦✉❡♥t ✉♥ rô❧❡ ❞✬❛✉t❛♥t ♣❧✉s ✐♠♣♦rt❛♥t q✉❡ ❧❡ ♥♦♠❜r❡ ❞✬❛rrêts ❡st é❧❡✈é✳ ✕ ▲❡ t❡♠♣s ❞✬❛rrêt ❡♥ st❛t✐♦♥✱ q✉✐ ❞é♣❡♥❞ ❡♥ ♠♦②❡♥♥❡ ❞✉ ♥♦♠❜r❡ ❞❡ ✈♦②❛❣❡✉rs q✉✐ ♠♦♥t❡♥t ❡t q✉✐ ❞❡s❝❡♥❞❡♥t✱ ♠❛✐s ❛✉ss✐ ❞❡ ❧✬♦r❣❛♥✐s❛t✐♦♥ ❞❡s ♣♦rt❡s ❡t ❞❡s ❡s♣❛❝❡s ✐♥tér✐❡✉rs ❞❡s ✈é❤✐❝✉❧❡s✳ ❉❡s ❡①❡♠♣❧❡s ❞❡ ✈✐t❡ss❡s ❝♦♠♠❡r❝✐❛❧❡s ❞❡s ♠étr♦s s♦♥t ✿ ✷✶ ❦♠✴❤ ♣♦✉r ❧❛ ❧✐❣♥❡ ✹ ❞❡ P❛r✐s ❡t ❞❡ ✸✾ ❦♠✴❤ ♣♦✉r ❧❛ ❧✐❣♥❡ ✶✹ ❞❡ P❛r✐s✳ ▲❡s ❧✐❣♥❡s ❞❡ ♠étr♦ ❛✉t♦♠❛t✐q✉❡ ❧é❣❡r ✭❱❆▲✮ ♦♥t ✉♥❡ ✈✐t❡ss❡ ❝♦♠♠❡r❝✐❛❧❡ ❝♦♠♣r✐s❡ ❡♥tr❡ ✸✵ ❡t ✸✺ ❦♠✴❤✳ ❈❡❝✐ ❡st ✉♥❡ ❝♦♥séq✉❡♥❝❡ ❞❡ ❧❛ ♠❡✐❧❧❡✉r❡ ♦♣t✐♠✐s❛t✐♦♥ ❞❡ ❝❡rt❛✐♥s ♣❛r❛♠ètr❡s ♣♦✉r ❧❡s ♠étr♦s ❢♦♥❝t✐♦♥♥❛♥t s✉r ❞❡s ✐♥❢r❛str✉❝t✉r❡s q✉✐ ❧❡✉r s♦♥t t♦t❛❧❡♠❡♥t ❞é❞✐é❡s ❝♦♠♠❡ ❧❡s t❡♠♣s ❞✬❛rrêt ❡♥ st❛t✐♦♥ ❡t ❧❡s ❝❛♣❛❝✐tés ❞✬❛❝❝é❧ér❛t✐♦♥ ❡t ❞❡ ❢r❡✐♥❛❣❡✳ ✶✳✸✳✶ ▼❛r❝❤❡ ❞✉ tr❛✐♥ P♦✉r ❧❡s tr❛♥s♣♦rts ❢❡rr♦✈✐❛✐r❡s✱ ❧❛ ♠❛r❝❤❡ t②♣❡ ✭r❡❧❛t✐♦♥ ❡♥tr❡ ❧❛ ✈✐t❡ss❡ ❡t ❧❛ ♣♦s✐t✐♦♥✮ ❞✬✉♥ tr❛✐♥ ❡♥tr❡ ❞❡✉① st❛t✐♦♥s ♦ù ✐❧ s✬❛rrêt❡ ♣❡✉t êtr❡ ❞é❝♦✉♣é❡ ❡♥ tr♦✐s ♣❤❛s❡s ✿ ✕ P❤❛s❡ ✶ ❞✬❛❝❝é❧ér❛t✐♦♥ ❡♥tr❡ ❧❛ ✈✐t❡ss❡ ✐♥✐t✐❛❧❡ ♥✉❧❧❡ ❡t ❧❛ ✈✐t❡ss❡ ♠❛①✐♠❛❧❡✳ ✕ P❤❛s❡ ✷ ❞❡ ♠❛r❝❤❡ à ✈✐t❡ss❡ ❝♦♥st❛♥t❡✳ ✕ P❤❛s❡ ✸ ❞❡ ❢r❡✐♥❛❣❡ ❡♥tr❡ ❧❛ ✈✐t❡ss❡ ♠❛①✐♠❛❧❡ ❡t ❧❛ ✈✐t❡ss❡ ✜♥❛❧❡ ♥✉❧❧❡✳ ▲♦rsq✉❡ ❧❡s tr♦♥ç♦♥s s♦♥t ❝♦✉rts✱ ✐❧ ♣❡✉t ❛rr✐✈❡r q✉❡ ❧❡ ❝♦♥✈♦✐ ♥✬❛✐t ♣❛s ❧❛ ♣♦ss✐❜✐❧✐té ❞✬❛tt❡✐♥❞r❡ ❧❛ ✈✐t❡ss❡ ♠❛①✐♠❛❧❡ ❀ ❞❛♥s ❝❡ ❝❛s✱ ❧❛ ♣❤❛s❡ ❞✬❛❝❝é❧ér❛t✐♦♥ ❡st ✐♠♠é❞✐❛t❡♠❡♥t s✉✐✈✐❡ ❞✬✉♥❡ ♣❤❛s❡ ❞❡ ❢r❡✐♥❛❣❡✳ ▲❡s ❞❡✉① ❝❛s s♦♥t ✐❧❧✉strés ❞❛♥s ❧❛ ✜❣✉r❡ ✶✳✸✱ ✐♥❞✐q✉❛♥t ❧❛ ✈✐t❡ss❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ♣♦s✐t✐♦♥ ❞✉ tr❛✐♥✳✽ ❈❤❛♣✐tr❡ ✶✳ ■♥tr♦❞✉❝t✐♦♥ ❋✐❣✉r❡ ✶✳✸ ✕ ❈♦✉r❜❡s ❞❡ ✈✐t❡ss❡ ❞✉ tr❛✐♥ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ t❛✐❧❧❡ ❞✉ tr♦♥ç♦♥✳ s1 ≈ V 2 2a ; t1 = V a s2 = V · t2 s3 ≈ V 2 2d t3 = V d ✭✶✳✶✮ ❊♥ ❛✉tr❡✱ ❡♥ ❝✐r❝✉❧❛t✐♦♥ ❢❡rr♦✈✐❛✐r❡✱ ♥♦✉s ♣♦✉✈♦♥s ❞✐✛ér❡♥❝✐❡r ✹ t②♣❡s ❞❡ ♠❛r❝❤❡ ✿ ✕ ▲❛ ♠❛r❝❤❡ ♥♦r♠❛❧❡ ✿ ❧❛ ✈✐t❡ss❡ ❧✐♠✐t❡ ❞✉ tr❛✐♥ ❞é♣❡♥❞ ❞❡ ❧❛ s❡❝t✐♦♥ ❞❡ ❧✐❣♥❡ ❝♦♥❝❡r♥é❡✱ ❞❡ ❧❛ ✈✐t❡ss❡ ❧✐♠✐t❡ ❞❡s ❞✐✛ér❡♥ts é❧é♠❡♥ts ❞✉ tr❛✐♥ ❛✐♥s✐ q✉❡ ❞❡ s❛ ❝❛♣❛❝✐té ❞❡ ❢r❡✐♥❛❣❡✳ ✕ ▲✬♦❜❧✐❣❛t✐♦♥ ❞❡ ♠❛r❝❤❡r ❡♥ ♠❛♥÷✉✈r❡ ✐♠♣♦s❡ ❛✉ ❝♦♥❞✉❝t❡✉r ❞❡ s✬❛✈❛♥❝❡r ❛✈❡❝ ♣r✉❞❡♥❝❡✱ s❛♥s ❞é♣❛ss❡r ❧❛ ✈✐t❡ss❡ ❞❡ ✸✵ ❦♠✴❤ ❡t ❡♥ s❡ t❡♥❛♥t ♣rêt à ♦❜é✐r ❛✉① s✐❣♥❛✉① q✉✬✐❧ ♣♦✉rr❛✐t r❡♥❝♦♥tr❡r ❡t ❞✬♦❜é✐r à t♦✉t❡ ✐♥❥♦♥❝t✐♦♥ ❞✬✉♥ ❛❣❡♥t ❞❡ ♠❛♥÷✉✈r❡✳ ✕ ▲❛ ♠❛r❝❤❡ à ✈✉❡ ✿ ❡❧❧❡ ✐♠♣♦s❡ à ✉♥ ❝♦♥❞✉❝t❡✉r ❞❡ s✬❛✈❛♥❝❡r ❛✈❡❝ ♣r✉❞❡♥❝❡✱ ❝♦♠♣t❡ t❡♥✉ ❞❡ ❧❛ ♣❛rt✐❡ ❞❡ ✈♦✐❡ q✉✬✐❧ ❛♣❡rç♦✐t ❞❡✈❛♥t ❧✉✐✱ ❞❡ ♠❛♥✐èr❡ à ♣♦✉✈♦✐r s✬❛rrêt❡r ❛✈❛♥t ✉♥❡ q✉❡✉❡ ❞❡ tr❛✐♥✱ ✉♥ s✐❣♥❛❧ ❞✬❛rrêt ♦✉ ✉♥ ♦❜st❛❝❧❡✳ ❊❧❧❡ ❡st ❣é♥ér❛❧❡♠❡♥t ❧✐♠✐té❡ à ✶✽❦♠✴❤ ♣♦✉r ❧❡ ❱❆▲✳ ✕ ▲❛ ♠❛r❝❤❡ ❛✈❡❝ ♣r✉❞❡♥❝❡ ✐♠♣♦s❡ à ✉♥ ❝♦♥❞✉❝t❡✉r ❞❡ ❧✐♠✐t❡r s❛ ✈✐t❡ss❡ ❝♦♠♣t❡ t❡♥✉ ❞✉ ♠♦t✐❢ q✉✐ ❧✉✐ ❛ été ✐♥❞✐q✉é✳ ✶✳✸✳✷ ❉✐st❛♥❝❡ ❞✬❛rrêt ▲❡ ❝♦❞❡ ❞❡ ❧❛ r♦✉t❡ ❞é✜♥✐t ❧❛ ❞✐st❛♥❝❡ ❞✬❛rrêt ❝♦♠♠❡ s✉✐t ✿ ✓▲❛ ❞✐st❛♥❝❡ ❞✬❛rrêt ❞✬✉♥ ✈é❤✐❝✉❧❡ ❝♦rr❡s♣♦♥❞ à ❧❛ ❞✐st❛♥❝❡ ♣❛r❝♦✉r✉❡ ♣❡♥❞❛♥t ❧❡ t❡♠♣s ❞❡ ré❛❝t✐♦♥ ❞❡ s♦♥ ❝♦♥❞✉❝t❡✉r ❡t ❧❛ ❞✐st❛♥❝❡ ❞❡ ❢r❡✐♥❛❣❡✔ ❀ ❧❡ t❡♠♣s ❞❡ ré❛❝t✐♦♥ ❞✉ ❝♦♥❞✉❝t❡✉r ❡♥ ❝❛s ❞✬✐♥❝✐❞❡♥t ❡st é✈❛❧✉é t②♣✐q✉❡♠❡♥t à ✶ s❡❝♦♥❞❡✳ ❆✐♥s✐✱ ❧❛ ❞✐st❛♥❝❡ dparcourue ❡st ❧❛ s♦♠♠❡ ❞❡ ❧❛ ❞✐st❛♥❝❡ ❞❡ ❢r❡✐♥❛❣❡ ❡t ❞❡ ❧❛ ❞✐st❛♥❝❡ ♣❛r❝♦✉r✉❡ ♣❛r ❧❡ tr❛✐♥ ♣❡♥❞❛♥t ❧❛ ♠✐s❡ ❡♥ r♦✉t❡ ❞✉ ❢r❡✐♥❛❣❡ ✭❝✬❡st✲à✲❞✐r❡ ❛✈❛♥t q✉❡ ❧❡ ❢r❡✐♥❛❣❡ ♥❡ s♦✐t ❡✛❡❝t✐❢✮✳ ▲✬❡①♣r❡ss✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ ♣❛r❝♦✉r✉❡ ❡st ❞♦♥♥é❡ ♣❛r ❧✬éq✉❛t✐♦♥ ✶✳✷✱ ♦ù ❧❡ t❡♠♣s ❞❡ ré❛❝t✐♦♥ ❡st Tsysteme ` ✱ ❧❛ ✈✐t❡ss❡ ❞✉ tr❛✐♥ ❡st v✱ s❛ ❞é❝é❧ér❛t✐♦♥ γ ✭♣❧✉s γ ❡st ❣r❛♥❞✱ ♠❡✐❧❧❡✉r ❡st ❧❡ ❢r❡✐♥❛❣❡✮✱ ❧❛ ✈✐t❡ss❡ à ❛tt❡♥❞r❡ vbut✱ g ❡st ❧✬❛❝❝é❧ér❛t✐♦♥ ❞❡ ❧❛ ♣❡s❛♥t❡✉r ❡t i r❡♣rés❡♥t❡ ❧❛ ❞é❝❧✐✈✐té ❞✉ t❡rr❛✐♥ ♣♦✉r ♠✐❧❧❡✳ Dparcourue = tsysteme ` v + v 2 − vbut 2(γ − g · i) ✭✶✳✷✮ ❙✐ ♥♦✉s ❝♦♥s✐❞ér♦♥s q✉❡ ❧❡ t❡♠♣s ré❛❝t✐♦♥ ❞✉ s②stè♠❡ ❝♦♠♣❧❡t ✭❞✐s♣♦s✐t✐❢ ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ✰ tr❛♥s♠✐ss✐♦♥ ✰ ❝❤❛î♥❡ ❞❡ ❢r❡✐♥❛❣❡✮ ❞❛♥s ❧❡ ♣✐r❡ ❝❛s ❡st é❣❛❧ à Tsysteme ` = 1 s✱ ✉♥❡ ❞é❝❧✐✈✐té ♥✉❧❧❡ ❡t ❧✬❛rrêt ❝♦♠♣❧❡t ❞✉ tr❛✐♥ vbut = 0✱ ❧❛ ❞✐st❛♥❝❡ ❞✬❛rrêt s❡ ré❞✉✐t à ❧✬éq✉❛t✐♦♥ ✶✳✸ Darretˆ = v + v 2 2γ ✭✶✳✸✮✶✳✹✳ ❈♦♥❞✉✐t❡s ♥♦♥ ❛✉t♦♠❛t✐sé❡s ❞✉ tr❛✐♥ ✾ ◆♦✉s ♣r♦♣♦s♦♥s ❞✬❛♥❛❧②s❡r ❧❛ ❞✐st❛♥❝❡ ❞✬❛rrêt ♣♦✉r ❞✐✛ér❡♥t❡s ✈✐t❡ss❡s ❞❡ ♥♦tr❡ tr❛✐♥ ❱❆▲✱ s❛❝❤❛♥t q✉❡ ❧❛ ❞é❝é❧ér❛t✐♦♥ ♠✐♥✐♠❛❧❡ ❛ss✉ré❡ ❡♥ ❝❛s ❞❡ ❢r❡✐♥❛❣❡ ❞✬✉r❣❡♥❝❡ ❡st é❣❛❧❡ à γ = 1.8m/s2 ✳ P♦✉r ❧❛ ✈✐t❡ss❡ ♠❛①✐♠❛❧❡ ❞✬❡①♣❧♦✐t❛t✐♦♥ ✭✽✵❦♠✴❤✮ ❧❛ ❞✐st❛♥❝❡ ❞✬❛rrêt ❡st ❞❡ ✶✻✵ ♠✳ ❉❛♥s ❧❡ ❝❛s ❞✬✉♥❡ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡ ❡♥ ♠♦❞❡ ❞é❣r❛❞é ♦ù ❧❛ ✈✐t❡ss❡ ❡st ❧✐♠✐té❡ à ✶✽❦♠✴❤ ♥♦✉s ❛✈♦♥s ✉♥❡ ❞✐st❛♥❝❡ ❞✬❛rrêt ❞❡ ✶✷ ♠✳ ✶✳✹ ❈♦♥❞✉✐t❡s ♥♦♥ ❛✉t♦♠❛t✐sé❡s ❞✉ tr❛✐♥ ▲✬♦❜❥❡❝t✐❢ ❞✉ ♣r♦❥❡t ❡st ❞✬❛♠❡❧✐♦r❡r ❧❛ sé❝✉r✐té ❞❡s ♣❡rs♦♥♥❡s ❡t ❞❡s éq✉✐♣❡♠❡♥ts ❞❡s ♠étr♦s ❛✉t♦♠❛t✐q✉❡s s❛♥s ❝♦♥❞✉❝t❡✉r à ♣❛rt✐r ❞✬✉♥❡ ❛♣♣r♦❝❤❡ ❜❛sé❡ s✉r ❧❛ ✈✐s✐♦♥ ♣❛r ♦r❞✐♥❛t❡✉r✳ ❊♥ ♣❛rt✐✲ ❝✉❧✐❡r✱ ❧✬ét✉❞❡ ♣♦rt❡ s✉r ✉♥ ❞✐s♣♦s✐t✐❢ ♣❡r♠❡tt❛♥t ❞❡ s❛t✐s❢❛✐r❡ ❛✉① ❡①✐❣❡♥❝❡s ❞❡ ❧❛ ♥♦r♠❡ ❊◆ ✶✺✷✷✼ s❛♥s ♠♦❞✐✜❡r ❧❛ str✉❝t✉r❡ ❞❡ ❧❛ ❝❛✐ss❡ ❡①✐st❛♥t❡ t♦✉t ❡♥ ❛✉❣♠❡♥t❛♥t s✐ ♣♦ss✐❜❧❡ ❧❛ ✈✐t❡ss❡ ♠❛①✐♠❛❧❡ ❞❡ ❧❛ ♠❛r❝❤❡ à ✈✉❡✳ ▲✬ét✉❞❡ ♣♦rt❡ s✉r ❧❛ ❢♦♥❝t✐♦♥ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡✱ ❡♥ ♣❛rt✐❝✉❧✐❡r✱ ❧❛ ♣ré✈❡♥t✐♦♥ ❞❡s ❝♦❧❧✐s✐♦♥s ❞❡ tr❛✐♥s✳ ▲❛ ♣r❡♠✐èr❡ s♦❧✉t✐♦♥ q✉✐ ✈✐❡♥t à ❧✬❡s♣r✐t ♣♦✉r ré❛❧✐s❡r ✉♥ ❞✐s♣♦s✐t✐❢ ❛♥t✐❝♦❧❧✐s✐♦♥s ❜❛sé s✉r ❧❛ ✈✐s✐♦♥ ❝♦♥s✐st❡ à r❡❝❤❡r❝❤❡r ❧❡s ♦❜st❛❝❧❡s ♣♦t❡♥t✐❡❧s ❞❡✈❛♥t ❧❡ tr❛✐♥ ❡t à ❧❡s ❝♦♥❢r♦♥t❡r à ✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❞❡s ♦❜st❛❝❧❡s ♣♦ss✐❜❧❡s ✭❞❛♥s ♥♦tr❡ ❝❛s✱ ✉♥❡ ❛✉tr❡ r❛♠❡ ❛rrêté❡✮✳ ❈❡♣❡♥❞❛♥t✱ ❝♦♠♣t❡✲ t❡♥✉ ❞✉ ❤❛✉t ❞❡❣ré ❞❡ sé❝✉r✐té ❞❡♠❛♥❞é ❞❛♥s ❧❡ ♠♦♥❞❡ ❢❡rr♦✈✐❛✐r❡✱ ❛ss✉r❡r ❧❛ ❞ét❡❝t✐♦♥ ❛✉ s❡✉✐❧ ❞❡ ♣r♦❜❛❜✐❧✐té r❡q✉✐s ✭❃✵✱✾✾✾✮ ❝♦♥❞✉✐r❛✐t à ✉♥ t❛✉① ❞❡ ❢❛✉① ♣♦s✐t✐❢s ✐♥❛❝❝❡♣t❛❜❧❡ ❡♥ r❛✐s♦♥ ❞❡s ♣❡rt✉r❜❛t✐♦♥s ❡♥❣❡♥❞ré❡s s✉r ❧❛ ❧✐❣♥❡✳ ❉❡ ♣❧✉s✱ ❝❡s ♣❡rt✉r❜❛t✐♦♥s ❡❧❧❡s✲♠ê♠❡s ét❛♥t ❞❡s s♦✉r❝❡s ♣♦t❡♥t✐❡❧❧❡s ❞✬❛❝❝✐❞❡♥ts✱ ❧❛ sé❝✉r✐té ❣❧♦❜❛❧❡ ♥✬❡♥ s❡r❛✐t ♣❛s ❛♠é❧✐♦ré❡✱ ✈♦✐r❡ s❡r❛✐t ❞é❣r❛❞é❡✳ ❈❡s r❛✐s♦♥s ♥♦✉s ♦❜❧✐❣❡♥t à ❝♦♥❝❡✈♦✐r ❧❡ s②stè♠❡ ❞❡ ♠❛♥✐èr❡ ❞✐✛ér❡♥t❡✳ ◆♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ♣♦✉r ❞é✜♥✐r ✉♥❡ ③♦♥❡ ❧✐❜r❡ ❞✬♦❜st❛❝❧❡s ✭tr❛✐♥s✮✳ ❈❡tt❡ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ♥✬❡st ❜❛sé❡ q✉❡ s✉r ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡ ❡t ♣❡r♠❡t ❞❡ ❞ét❡r♠✐♥❡r ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❧❛ ✈♦✐❡✳ ❆✉✲❞❡❧à ❞❡ ❝❡tt❡ ❞✐st❛♥❝❡✱ ✐❧ ❡①✐st❡ tr♦✐s ❤②♣♦t❤ès❡s ♣♦✉r ❧❡ s②stè♠❡ ✿ ✕ ▲❛ ✈♦✐❡ ❡st ❧✐❜r❡ ♠❛✐s ❡❧❧❡ ♥✬❡st ♣❛s ✈✐s✐❜❧❡ à ❝❛✉s❡ ❞❡ ❧❛ rés♦❧✉t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛✱ ❞❡s ❝♦♥❞✐t✐♦♥s ♠été♦r♦❧♦❣✐q✉❡s✱ ❞✬✉♥❡ ✢❛q✉❡ ❞✬❡❛✉✱ ❞❡s ♣❛r♦✐s ❞✉ t✉♥♥❡❧ ❡♥ ✈✐r❛❣❡✳✳✳ ✕ ▲❛ ✈♦✐❡ ❡st ♦❝❝✉♣é❡ ♣❛r ✉♥ tr❛✐♥✳ ✕ ❖♥ s❡ tr♦✉✈❡ à ✉♥❡ ❞❡s ❡①tré♠✐tés ❞❡ ❧❛ ❧✐❣♥❡ ❡t ❧❛ ✈♦✐❡ ❛rr✐✈❡ à s❛ ✜♥✳ ◆♦✉s ♣r♦♣♦s♦♥s ❞❡ ❞é✈❡❧♦♣♣❡r ✉♥ s②stè♠❡ ❝❛♣❛❜❧❡ q✉❡❧❧❡s q✉❡ s♦✐❡♥t ❧❡s ❝♦♥❞✐t✐♦♥s ❞✬é❝❧❛✐r❛❣❡ ♦✉ à ❧❛ ♣rés❡♥❝❡ ❞✬♦❜st❛❝❧❡s ✓♥♦r♠❛✉①✔ ✭❧❡s ♣❛r♦✐s ❞✉ t✉♥♥❡❧ ❡♥ ✈✐r❛❣❡ ♣❛r ❡①❡♠♣❧❡✮✱ ❞✬é✈❛❧✉❡r s❛ ❞✐st❛♥❝❡ ❞❡ ✈✐s✐❜✐❧✐té ♣♦✉r ♣❡r♠❡ttr❡ ❛✉ ❝♦♥❞✉❝t❡✉r✱ ❞✬❛❞❛♣t❡r ❧❛ ✈✐t❡ss❡ ❞❡ ❝✐r❝✉❧❛t✐♦♥ à ✜♥ ❞❡ ♥❡ ♣❛s ❡♥tr❛î♥❡r ❞❡ ✓❢❛✉①✲♣♦s✐t✐❢s✔ s②sté♠❛t✐q✉❡s ❡t ❞❡ ❞✐♠✐♥✉❡r ❧✬✐♠♣❛❝t ❣❧♦❜❛❧ ❞❡ ❧✬✐♥❝✐❞❡♥t✳ ❆ ♣r✐♦r✐✱ tr♦✐s ♣❤❛s❡s ❞✬❡①♣❧♦✐t❛t✐♦♥ ❞❡ ❧❛ ❧✐❣♥❡ s♦♥t s✉s❝❡♣t✐❜❧❡s ❞❡ t✐r❡r ❜é♥é✜❝❡ ❞✬✉♥ ❞✐s♣♦s✐t✐❢ ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ✿ ❧✬♦✉✈❡rt✉r❡ ❞❡ ❧❛ ❧✐❣♥❡✱ ❧❛ r❡♣r✐s❡ ❡♥ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡ ❛♣rès ✉♥❡ ♣❛♥♥❡ ❡t ❧❡s ♠♦✉✈❡♠❡♥ts ❡♥ ❣❛r❛❣❡✳ ✶✳✹✳✶ ❖✉✈❡rt✉r❡ ❞❡ ❧❛ ❧✐❣♥❡ ❉❛♥s s❛ ✈❡rs✐♦♥ ❛❝t✉❡❧❧❡✱ ❝❡tt❡ ❢♦♥❝t✐♦♥ ❡st ❛ss✉ré❡ ♣❛r ✉♥ tr❛✐♥ ✈✐❞❡ ❞❡ ♣❛ss❛❣❡r q✉✐ ♦✉✈r❡ ❧✬❡①✲ ♣❧♦✐t❛t✐♦♥ ❞❡ ❧❛ ❧✐❣♥❡✳ ▲❡ tr❛✐♥ ♣❡✉t êtr❡ ❝♦♥❞✉✐t ♠❛♥✉❡❧❧❡♠❡♥t à ❞❡s ✈✐t❡ss❡s r❡❧❛t✐✈❡♠❡♥t ❜❛ss❡s ❡t ❧❛ sé❝✉r✐té ❞✉ ♠♦✉✈❡♠❡♥t ❡st ❛ss✉ré❡ ♣❛r ❧❡ ❝♦♥❞✉❝t❡✉r q✉✐ ✈ér✐✜❡ ✈✐s✉❡❧❧❡♠❡♥t ❧✬❛❜s❡♥❝❡ ❞✬♦❜❥❡t s✉r ❧❛ ✈♦✐❡✳ ❙✉r ❧❡ ♠étr♦ ❱❆▲ ❞❡ ▲✐❧❧❡✱ ❝❡tt❡ ♣r♦❝é❞✉r❡ ♥✬❛ ❧✐❡✉ q✉✬à t✐tr❡ ❡①❝❡♣t✐♦♥♥❡❧ ✭❛♣rès ❞❡s tr❛✈❛✉① s✉r ❧❛ ❧✐❣♥❡✱ ✉♥ é✈è♥❡♠❡♥t ❝❧✐♠❛t✐q✉❡ ♣❛rt✐❝✉❧✐❡r ❝♦♠♠❡ ✉♥❡ t❡♠♣êt❡✱ ✳✳✳✮✳ ❙✐♥♦♥ ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ✈♦✐❡ ❡st ❛ss✉ré❡ ❡♥ ❛✉t♦♠❛t✐q✉❡ à ✈✐t❡ss❡ ré❞✉✐t❡ ✭tr❛✐♥ s❛♥s ❝♦♥❞✉❝t❡✉r ♥✐ ♣❛ss❛❣❡r✮✳ ❉❛♥s ❧❡s ❞❡✉① ❝❛s✱ ❝❡tt❡ ♣r♦❝é❞✉r❡ ❧♦♥❣✉❡ ❡t ❢❛st✐❞✐❡✉s❡ ✐♠♣❛❝t❡ ❞✬❛✉t❛♥t ♣❧✉s ❧✬❡①♣❧♦✐t❛t✐♦♥ q✉❡ ❧❛ ❧✐❣♥❡ ❡st ❧♦♥❣✉❡✳✶✵ ❈❤❛♣✐tr❡ ✶✳ ■♥tr♦❞✉❝t✐♦♥ ▲❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❧❛ ♣✐st❡ ❡♥ ❛✉t♦♠❛t✐q✉❡ à ❜❛ss❡ ✈✐t❡ss❡ r❡st❡ ✉♥ ♠♦②❡♥ ❞❡ ❞ét❡r♠✐♥❡r ❧❛ ♣rés❡♥❝❡ ❞❡s ♣❡t✐ts ♦❜st❛❝❧❡s ❞❛♥s ❧❡ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t ❞❡ ❧❛ ✈♦✐❡✱ ❝❛r ❧❛ ♣r♦❜❛❜✐❧✐té ❞❡ tr♦✉✈❡r ❞❡s ♦❜st❛❝❧❡s ❞❛♥s ✉♥ s✐t❡ ♣r♦♣r❡ ✐♥té❣r❛❧ ❡st très ❢❛✐❜❧❡ ❛✐♥s✐ q✉❡ ❧❛ ❣r❛✈✐té ❞❡s ❞♦♠♠❛❣❡s ❡♥ ❝❛s ❞❡ ❝♦❧❧✐s✐♦♥ ❝♦♠♣t❡ t❡♥✉ ❞❡ ❧❛ ✈✐t❡ss❡ ❧✐♠✐té❡ ❞✉ tr❛✐♥✳ P♦✉r q✉❡ s②stè♠❡ ♦♣t✐q✉❡ ❛♣♣♦rt❡ ✉♥❡ ❛♠é❧✐♦r❛t✐♦♥✱ ✐❧ ❞❡✈r❛✐t ♣♦✉✈♦✐r ❞ét❡❝t❡r ❧❡s ♣❡t✐ts ♦❜st❛❝❧❡s ❛✈❛♥t ❞❡ ❧❡s ♣❡r❝✉t❡r ❛✈❡❝ ✉♥ t❛✉① ❞❡ ❢❛✉① ♥é❣❛t✐❢s très ❢❛✐❜❧❡✱ ❝❡ q✉✐ r❡st❡ ❞✐✣❝✐❧❡ ❡♥ r❛✐s♦♥ ❞❡ ❧❛ ❣r❛♥❞❡ ✈❛r✐été ❞✬♦❜st❛❝❧❡s à ❞ét❡❝t❡r✳ ✶✳✹✳✷ ❘❡♣r✐s❡ ❡♥ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡ ❙✉r s②stè♠❡s ❱❆▲✱ ❧❛ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡ à ✈✉❡ ❡st ✉♥ ♠♦❞❡ ❞é❣r❛❞é ❞✉ s②stè♠❡ ❞❡ ❝♦♥❞✉✐t❡ ❛✉t♦♠❛t✐q✉❡✱ q✉❛♥❞ ❧❡ s②stè♠❡ ❞❡ ❝♦♥trô❧❡ ❛✉t♦♠❛t✐q✉❡ ❞✉ ♣✐❧♦t❡ ❛✉t♦♠❛t✐q✉❡ ✭P❆✮ ♥✬❡st ♣❧✉s ❛❝t✐❢✳ ■❧ ♣❡✉t é❣❛❧❡♠❡♥t êtr❡ ✉t✐❧✐sé ❤♦rs ❞✉ ❞♦♠❛✐♥❡ ❞❡ ❝♦♥trô❧❡ ❛✉t♦♠❛t✐q✉❡ ❞❡s tr❛✐♥s ❝♦♠♠❡ ❧❛ ③♦♥❡ ❛t❡❧✐❡r ❡t ❧❛ ✈♦✐❡ ❞✬❡ss❛✐s✳ ▲❛ r❡♣r✐s❡ ❡♥ ♠❛♥✉❡❧❧❡ ❞❡ ❧❛ r❛♠❡ s✬♦♣èr❡ ❞❛♥s ❧❡s s✐t✉❛t✐♦♥s s✉✐✈❛♥t❡s ✿ ✕ P❡rt❡ ❞❡ ❝♦♥trô❧❡ ❞❡ ❜♦✉❝❧❡s sé❝✉r✐t❛✐r❡s ❞❡ ❧❛ r❛♠❡ ✭tr❛✈❡rs❡ ❝❤❛ss❡ ❝♦r♣s✱ ♣♦rt❡s✳✳✳✮✳ ✕ P❛♥♥❡ ❞❡s éq✉✐♣❡♠❡♥ts ❡♠❜❛rq✉és✱ ❞✬❛✉t♦♠❛t✐s♠❡s✳ ✕ P❛♥♥❡ ❞❡s éq✉✐♣❡♠❡♥ts ✜①❡s ❞✬❛✉t♦♠❛t✐s♠❡s ❣ér❛♥t ✉♥ tr♦♥ç♦♥✳ ✕ P❡rt❡ ❞❡ ❧♦❝❛❧✐s❛t✐♦♥ ❞❡ ❧❛ r❛♠❡✳ ❈❡ ♠♦❞❡ ♣❡r♠❡t ❞❡ r❡t✐r❡r ✉♥❡ r❛♠❡ ❞❡ ❧✬❡①♣❧♦✐t❛t✐♦♥ ❧♦rsq✉✬✉♥ ❞é❢❛✉t ✐♥t❡r❞✐t ❧❛ ♣♦✉rs✉✐t❡ ❞❡ ❧❛ ❝♦♥❞✉✐t❡ ❛✉t♦♠❛t✐q✉❡✳ ■❧ ♣❡r♠❡t é❣❛❧❡♠❡♥t ❛✉① r❛♠❡s ❞❡ tr❛✈❡rs❡r ❞❡s ③♦♥❡s ♦ù ❧❡ ♠♦❞❡ ❡♥ ❛✉t♦♠❛t✐q✉❡ ♥✬❡st t❡♠♣♦r❛✐r❡♠❡♥t ♣❧✉s ♣♦ss✐❜❧❡✳ ❉❛♥s ❝❡s ❝❛s✱ t♦✉t❡ ❧❛ sé❝✉r✐té r❡♣♦s❡ s✉r ❧✬❛❣❡♥t ❞❡ ❝♦♥❞✉✐t❡ ♣rés❡♥t à ❜♦r❞ ❞✉ tr❛✐♥ ❡t s✉r ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ♣r♦❝é❞✉r❡s ❞✬❡①♣❧♦✐t❛t✐♦♥ ✭é❝❤❛♥❣❡s ❛✈❡❝ ❧❡ P♦st❡ ❞❡ ❈♦♥trô❧❡ ❞❡ ❈♦♠♠❛♥❞❡ ✭P❈❈✮✱✳✳✳✮✳ P♦✉r ❝❡tt❡ r❛✐s♦♥ ❧❛ ❝♦♥s✐❣♥❡ ❞❡ ✈✐t❡ss❡ ❡♥ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡ à ✈✉❡ ❡st ❧✐♠✐té❡ à 18 km/h (5 m/s)✳ ▲✬❛❣❡♥t ❞❡ ❝♦♥❞✉✐t❡ ❞♦✐t r❡s♣❡❝t❡r ❧❡s ❝♦♥s✐❣♥❡s ❢♦✉r♥✐❡s ♣❛r ❧❛ s✐❣♥❛❧✐s❛t✐♦♥ ❧❛tér❛❧❡ ❞❡ ❧❛ ✈♦✐❡ ✭s✐❣♥❛✉① ❞❡ ♠❛♥÷✉✈r❡✱ ❧✐♠✐t❡ ❞❡ ✈✐t❡ss❡✳✳✳✮✳ ➚ ♣❛rt✐r ❞✉ ♣✉♣✐tr❡ ♠❛♥✉❡❧ ❞❡ ❝♦♥❞✉✐t❡ s✐t✉é ❡♥ têt❡ ❞✉ ✈é❤✐❝✉❧❡✱ ❧✬❛❣❡♥t ❞✬❡①♣❧♦✐t❛t✐♦♥ ❛ à s❛ ❞✐s♣♦s✐t✐♦♥ ❧❡s ❝♦♠♠❛♥❞❡s ❡ss❡♥t✐❡❧❧❡s ♣❡r♠❡tt❛♥t ❞❡ ❞é♣❧❛❝❡r ❧❡ tr❛✐♥ ❡♥ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡ ✭tr❛❝t✐♦♥✱ ❢r❡✐♥❛❣❡✮✱ ❛✐♥s✐ q✉✬✉♥ ❜♦✉t♦♥ ❞✬❛rrêt ❞✬✉r❣❡♥❝❡✳ ❊♥ ❝❛s ❞❡ ♣❛♥♥❡ ❞❡s ❛✉t♦♠❛t✐s♠❡s ❡♠❜❛rq✉és✱ ✉♥ ❛❣❡♥t ❞✬❡①♣❧♦✐t❛t✐♦♥ ❞♦✐t ✿ ✕ ❙❡ r❡♥❞r❡ s✉r ♣❧❛❝❡ ❡t r❡♣r❡♥❞r❡ ❧❡ r❛♠❡ ❡♥ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡✳ ✕ ❙✐ ❧❡ tr❛✐♥ ét❛✐t ❡♥ ♣❛♥♥❡ ❡♥tr❡ ❞❡✉① st❛t✐♦♥s✱ ❧❡ ❝♦♥❞✉✐r❡ ❥✉sq✉✬à ❧❛ st❛t✐♦♥ s✉✐✈❛♥t❡ ♣♦✉r é✈❛❝✉❡r ❧❡s ♣❛ss❛❣❡rs✳ ✕ ❘❡♣r❡♥❞r❡ s❛ ♠❛r❝❤❡ s❛♥s ❛rrêt ❥✉sq✉✬❛✉ t❡r♠✐♥✉s✳ ❆❝t✉❡❧❧❡♠❡♥t✱ ❛✈❡❝ ❧❛ ❧✐♠✐t❛t✐♦♥ ❞❡ ✈✐t❡ss❡ à 18km/heure✱ ❝❡tt❡ ♣r♦❝é❞✉r❡ ❡♥❣❡♥❞r❡ ❞é❥à ✉♥❡ très ❢♦rt❡ ♣❡rt✉r❜❛t✐♦♥ s✉r ❧❛ ❧✐❣♥❡ q✉✐ ✈♦✐t s❛ ✈✐t❡ss❡ ❝♦♠♠❡r❝✐❛❧❡ ❝❤✉t❡r ❞❡ 35km/h à ♠♦✐♥s ❞❡ 18km/h✱ s✉rt♦✉t s✐ ❧✬✐♥❝✐❞❡♥t ❛ ❡✉ ❧✐❡✉ ♣❡✉ ❛♣rès ❧❡ ❞é♣❛rt ❞✬✉♥ t❡r♠✐♥✉s✳ ❖r✱ ♣♦✉r r❡s♣❡❝t❡r ❧❛ ♥♦r♠❡ ❊◆ ✶✺✷✷✼ ❡♥ ♥❡ ♣r♦❝é❞❛♥t à ❛✉❝✉♥❡ ♠♦❞✐✜❝❛t✐♦♥ ♥✐ s✉r ❧❛ str✉❝t✉r❡ ❞❡s ❝❛✐ss❡s ♥✐ s✉r ❧❡ s②stè♠❡✱ ❧❛ ✈✐t❡ss❡ ♠❛①✐♠❛❧❡ ❞❡ ❝♦♥❞✉✐t❡ à ✈✉❡ ❞❡✈r❛✐t êtr❡ ❛❜❛✐ssé❡ à 8km/h✱ ❝❡ q✉✐ r❡♥❞r❛✐t ❧❛ ❧✐❣♥❡ ✐♥❡①♣❧♦✐t❛❜❧❡ ❥✉sq✉✬à ❝❡ q✉❡ ❧❛ r❛♠❡ s♦✐t é✈❛❝✉é❡✳ ✶✳✹✳✷✳✶ ❆❝t✐♦♥s ❞✉ s②stè♠❡ ▲❡ s②stè♠❡ ♣r♦♣♦sé ❞❛♥s ♥♦s tr❛✈❛✉① ❞❡ t❤ès❡ ♣❡r♠❡t ❞❡ r❡❝♦♥♥❛îtr❡ ❧❛ ✈♦✐❡ à ❧✬❛✈❛♥t ❞✉ tr❛✐♥ ❥✉sq✉✬à ✉♥❡ ❞✐st❛♥❝❡ ❉ réé✈❛❧✉é❡ ❡♥ ♣❡r♠❛♥❡♥❝❡✳ ❆✉✲❞❡❧à ❞❡ ❝❡tt❡ ❞✐st❛♥❝❡✱ ❧❡ s②stè♠❡ ❢❛✐t ❧✬❤②✲ ♣♦t❤ès❡ q✉✬✉♥❡ r❛♠❡ ♦❝❝✉♣❡ ❧❛ ✈♦✐❡ ❡♥ ❛✈❛❧ ❞❡ ❝❡tt❡ ❧✐♠✐t❡✳ ■❧ ✈ér✐✜❡ ❛❧♦rs q✉❡ ❧❛ ✈✐t❡ss❡ ❝♦✉r❛♥t❡ ❞✉ tr❛✐♥ ❡st ✐♥❢ér✐❡✉r❡ à ❧❛ ✈✐t❡ss❡ q✉✐ ❝♦♥❞✉✐r❛✐t✱ ❡♥ ❝❛s ❞❡ ❞é❝❧❡♥❝❤❡♠❡♥t ❞✉ ❢r❡✐♥❛❣❡ ❞✬✉r❣❡♥❝❡✱ à✶✳✹✳ ❈♦♥❞✉✐t❡s ♥♦♥ ❛✉t♦♠❛t✐sé❡s ❞✉ tr❛✐♥ ✶✶ ✉♥❡ ❝♦❧❧✐s✐♦♥ à 8km/h✳ ❉ès q✉❡ ❝❡tt❡ ❝♦♥❞✐t✐♦♥ ♥✬❡st ♣❧✉s r❡s♣❡❝té❡✱ ❧❡ s②stè♠❡ ❞é❝❧❡♥❝❤❡ ❧❡ ❢r❡✐♥❛❣❡ ❞✬✉r❣❡♥❝❡✳ ❈❡ ♣r❡♠✐❡r ♣♦✐♥t ♣❡r♠❡t ❞❡ r❡s♣❡❝t❡r str✐❝t❡♠❡♥t ❧❛ ♥♦r♠❡✱ ♠❛✐s ✉♥❡ ❝♦❧❧✐s✐♦♥✱ ♠ê♠❡ à 8km/h✱ ♥✬❡st é✈✐❞❡♠♠❡♥t ♣❛s s♦✉❤❛✐t❛❜❧❡ ♥✐ ♠ê♠❡ ✉♥ ❞é❝❧❡♥❝❤❡♠❡♥t ❞✉ ❢r❡✐♥❛❣❡ ❞✬✉r❣❡♥❝❡✳ ❈❡♣❡♥❞❛♥t✱ ❛✜♥ ❞❡ ♥❡ ♣❛s r❛❧❡♥t✐r ✐♥✉t✐❧❡♠❡♥t ❧❡ tr❛✐♥ ❡♥ ♣rés❡♥❝❡ ❞✬✉♥ ✓❢❛✉① ♣♦s✐t✐❢✔ ✭❧❛ ✈♦✐❡ ❡st ❧✐❜r❡ ♠❛✐s ♥♦♥ r❡❝♦♥♥✉❡ ❛✉✲❞❡❧à ❞❡ ❧❛ ❞✐st❛♥❝❡ ❉✮✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞❡ ❝♦♠♣❧ét❡r ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ♣❛r ✉♥❡ r❡❝♦♥♥❛✐ss❛♥❝❡ ♣♦s✐t✐✈❡ ❞✬♦❜st❛❝❧❡s✳ ❙✐ ✉♥ ♦❜st❛❝❧❡ ❡st ✐❞❡♥t✐✜é à ❧❛ ❞✐st❛♥❝❡ ❉✱ ❧❡ s②stè♠❡ ✈ér✐✜❡ ❛❧♦rs q✉❡ ❧❛ ✈✐t❡ss❡ ❝♦✉r❛♥t ❡st ✐♥❢ér✐❡✉r❡ à ❝❡❧❧❡ q✉✐ ♣❡r♠❡t ❞✬❛rrêt❡r ♥♦r♠❛❧❡♠❡♥t ❧❡ tr❛✐♥ ❡♥ ❛♠♦♥t ❞❡ ❧✬♦❜st❛❝❧❡✳ ▲❛ ✜❣✉r❡ ✶✳✹ ♥♦✉s ♠♦♥tr❡ ✉♥ ❡①❡♠♣❧❡ ❞❡ ❝♦✉r❜❡ ❞❡ ✈✐t❡ss❡ ♣♦✉r ✉♥ ❝❛s ♦ù ❧❛ ✈♦✐❡ ♥✬❡st ♣❧✉s ❞ét❡❝té❡ ❡t q✉❡ ❧❡ s②stè♠❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡ tr❛✐♥s ♥❡ r❡❝♦♥♥❛✐t ♣❛s ❧❛ ❢♦r♠❡ ❞✬✉♥ tr❛✐♥✳ ❋✐❣✉r❡ ✶✳✹ ✕ ➱✈♦❧✉t✐♦♥ ❞❡ ❧❛ ✈✐t❡ss❡ ❞✉ tr❛✐♥ ❡♥ ❢♦♥❝t✐♦♥ ❞✉ s②stè♠❡ ♣r♦♣♦sé✳ P❛r ❝♦♥tr❡ q✉❛♥❞ ❧❡ s②stè♠❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡ tr❛✐♥s r❡❝♦♥♥❛✐t q✉❡ ❧❛ ✈♦✐❡ ♥✬❡st ♣❧✉s ✈✐s✐❜❧❡✱ ❝❛r ❡❧❧❡ ❡st ♦❝❝✉♣é❡ ♣❛r ✉♥ tr❛✐♥✱ ❧❛ ✈✐t❡ss❡ ❛♣♣❧✐q✉❡ ✉♥❡ ❞é❝é❧ér❛t✐♦♥ ❝♦♠♣❧èt❡ ❞✉ tr❛✐♥ ❝♦♠♠❡ ♠♦♥tré ♣❛r ❧❡ tr❛❝é r♦✉❣❡ ❞❛♥s ❧❛ ✜❣✉r❡ ✶✳✹✳ ▲❛ r❡❝❤❡r❝❤❡ ❞✬♦❜st❛❝❧❡ r❡♣♦s❡r❛ s✉r ❧✬✉t✐❧✐s❛t✐♦♥ ❞✬✉♥ ❝❧❛ss✐✜❡✉r ❜✐♥❛✐r❡ ♣♦✉r r❡❝♦♥♥❛îtr❡ ❧❛ s✐❧❤♦✉❡tt❡ ❢r♦♥t❛❧❡ ❞✬✉♥ tr❛✐♥✳ ✶✳✹✳✸ ▼♦✉✈❡♠❡♥t ❡♥ ❣❛r❛❣❡ ♦✉ ❛t❡❧✐❡r ❆❝t✉❡❧❧❡♠❡♥t✱ ❧❡s ❣❛r❛❣❡s s♦♥t ❞❡s ③♦♥❡s très ❝❤❛r❣é❡s ❡♥ éq✉✐♣❡♠❡♥ts ✜①❡s ❞✬❛✉t♦♠❛t✐s♠❡s✳ ■❧ ❡①✐st❡ ✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡s ❜❛❧✐s❡s ♣♦✉r ❛ss✉r❡r ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❡t s✐❣♥❛❧✐s❛t✐♦♥ ❞✉ tr❛✐♥ ♣♦✉r ♣♦✉✈♦✐r ❞é♣❧❛❝❡r ❧❡s tr❛✐♥s ❡♥ ❛✉t♦♠❛t✐q✉❡✱ ❝❡ q✉✐ ❡♥tr❛î♥❡ ✉♥ s✉r✲❝♦ût ❞✬✐♥st❛❧❧❛t✐♦♥ ❡t ❞❡ ♠❛✐♥t❡♥❛♥❝❡✳ ❉✬❛✉tr❡s ❣❛r❛❣❡s ♥é❝❡ss✐t❡♥t ❧❛ ♣rés❡♥❝❡ ❞✬✉♥ ❛❣❡♥t à ❜♦r❞ ♣♦✉r ♣♦✉✈♦✐r ❞é♣❧❛❝❡r ❧❡s tr❛✐♥s ❡♥ ♠❛r❝❤❡ à ✈✉❡✱ ❝❛r ✐❧ ♥✬❡①✐st❡ ♣❛s ❞❡ ❝♦♥trô❧❡ ❛✉t♦♠❛t✐q✉❡✳ ❉❛♥s ❧❡s ❞❡✉① ❝❛s✱ ❧❛ ✈✐t❡ss❡ ❞❡s ✈♦✐t✉r❡s ❡st ré❞✉✐t❡ ❡t ❧✐♠✐té❡ à 8 km/h✳ ▲❡s ♥✐✈❡❛✉① ❞❡ sé❝✉r✐té ❡①✐❣és ❞❛♥s ❝❡s ❞é♣❧❛❝❡♠❡♥ts ♥❡ s♦♥t ♣❛s ❝♦♠♣❛r❛❜❧❡s à ❧❛ r❡♣r✐s❡ ❡♥ ♠♦❞❡ ♠❛♥✉❡❧✱ ❝❛r ✐❧ ♥✬② ❛ ♣❛s ❞❡ ♣❛ss❛❣❡r à ❜♦r❞✳ ❈❡♣❡♥❞❛♥t✱ ❧❡s ❞é❣âts ❞✉ ♠❛tér✐❡❧ ♥❡ s♦♥t ♣❛s s♦✉❤❛✐t❛❜❧❡s✳ ✶✳✹✳✸✳✶ ❆❝t✐♦♥s ❞✉ s②stè♠❡ P♦✉r ❝❡ t②♣❡ ❞❡ ❝♦♥❞✉✐t❡✱ ❡t ♣❛r❝❡ q✉❡ ❞❛♥s ❧❡s ❣❛r❛❣❡s ♥♦✉s ♣♦✉✈♦♥s r❡♥❝♦♥tr❡r ❧✬❤②♣♦t❤ès❡ ❞❡ ✜♥ ❞❡ ❧❛ ❧✐❣♥❡✱ ❧❡s ❛❝t✐♦♥s ❞✉ s②stè♠❡ s✉r ❧❛ ✈✐t❡ss❡ ❞✉ tr❛✐♥ s♦♥t ❧❡s ♠ê♠❡s ♣♦✉r ❧❛ ♥♦♥✲❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ q✉❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞✬✉♥ tr❛✐♥✳ ▲❛ ✜❣✉r❡ ✶✳✺ ♥♦✉s ♠♦♥tr❡ ❝♦♠♠❡ ❧❡ tr❛✐♥ ❡st ❛rrêté à ❧❛ ❞✐st❛♥❝❡ ❉ ♣♦✉r ❧❡s ❞❡✉① ❝❛s✳✶✷ ❈❤❛♣✐tr❡ ✶✳ ■♥tr♦❞✉❝t✐♦♥ ❋✐❣✉r❡ ✶✳✺ ✕ ➱✈♦❧✉t✐♦♥ ❞❡ ❧❛ ✈✐t❡ss❡ ❡♥ ❣❛r❛❣❡✳ ✶✳✺ ❖❜❥❡❝t✐❢s ▲❛ t❤ès❡ ❛ ♣♦✉r ❛♠❜✐t✐♦♥ ❞❡ ♠❡ttr❡ ❛✉ s❡r✈✐❝❡ ❞✉ ♠étr♦ ❛✉t♦♠❛t✐q✉❡ ❧❡s ❛✈❛♥❝é❡s ❞❛♥s ❧❡ ❞♦♠❛✐♥❡ ❞✉ tr❛✐t❡♠❡♥t ❞✬✐♠❛❣❡✳ ▲❡s ❝❛♠ér❛s s♦♥t ❛✉❥♦✉r❞✬❤✉✐ très ♣❡✉ ♣rés❡♥t❡s s✉r ❧❡s ♠❛tér✐❡❧s r♦✉❧❛♥ts ❢❡rr♦✈✐❛✐r❡s✱ s✐ ❝❡ ♥✬❡st ♣♦✉r ❧❛ ✈✐❞é♦ s✉r✈❡✐❧❧❛♥❝❡✳ ❉❛♥s ❝❡ ❝❛s✱ ❧❡s ✐♠❛❣❡s s♦♥t s♦✐t ❡♥r❡❣✐stré❡s à ❜♦r❞ ♣✉✐s ré❝✉♣éré❡s ❡♥ ✜♥ ❞❡ ♣❛r❝♦✉rs ♦✉ ❡♥ ❝❛s ❞✬✐♥❝✐❞❡♥t✱ s♦✐t tr❛♥s♠✐s❡s ❡♥ t❡♠♣s ré❡❧ ❛✉ rés❡❛✉ ❞✉ s♦❧ ♣♦✉r êtr❡ ✈✐s✐♦♥♥é❡s à ❞✐st❛♥❝❡✳ ❈❡♣❡♥❞❛♥t✱ très ♣❡✉ ❞❡ tr❛✐t❡♠❡♥t ✐♥t❡❧❧✐❣❡♥t ❞❡ ❧✬✐♠❛❣❡ ❡st ✐♥té❣ré ❞❛♥s ❧❡s s②stè♠❡s ✈✐❞é♦✳ P♦✉r ré♣♦♥❞r❡ ❛✉① ❛♣♣❧✐❝❛t✐♦♥s q✉❡ ♥♦✉s ✈✐s♦♥s✱ ♥♦tr❡ ♥♦✉✈❡❛✉ ❞✐s♣♦s✐t✐❢ ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s s❡ ❞♦✐t ❞✬❛tt❡✐♥❞r❡ ❞❡✉① t②♣❡s ❞✬♦❜❥❡❝t✐❢s ✿ ✕ ❖❜❥❡❝t✐❢s t❡❝❤♥✐q✉❡s ❡t ♣❡r❢♦r♠❛♥❝❡s à ❛tt❡✐♥❞r❡✳ ✕ ❖❜❥❡❝t✐❢s s❝✐❡♥t✐✜q✉❡s✳ ✶✳✺✳✶ ❖❜❥❡❝t✐❢s t❡❝❤♥✐q✉❡s ❡t ♣❡r❢♦r♠❛♥❝❡s à ❛tt❡✐♥❞r❡ ✕ ❊♥ ❝♦♥❞✐t✐♦♥s ♥♦r♠❛❧❡s ❞❡ ✈✐s✐❜✐❧✐té✱ ❧❡ s②stè♠❡ ❞♦✐t ❞ét❡❝t❡r ✉♥ tr❛✐♥ ✐♠♠♦❜✐❧❡✴♠♦❜✐❧❡ s✐t✉é ❞❡✈❛♥t ❧✉✐ s✉✣s❛♠♠❡♥t tôt ♣♦✉r q✉❡ ❧✬❛rrêt s♦✐t ♣♦ss✐❜❧❡ ❛✈❛♥t ❧❛ ❝♦❧❧✐s✐♦♥✳ ✕ ▲❡ t❛✉① ❞❡ ✓❢❛✉①✲♥é❣❛t✐❢s✔ ✭♥♦♥✲❞ét❡❝t✐♦♥ ❞✬✉♥ ♦❜st❛❝❧❡ ♣rés❡♥t✮ ❞♦✐t êtr❡ s✉✣s❛♠♠❡♥t ❢❛✐❜❧❡ ♣♦✉r ♣❡r♠❡ttr❡✱ ❝♦♠❜✐♥é ❛✉ r❛t✐♦ ✭❞✉ré❡ ❞❡ ❝♦♥❞✉✐t❡ ❡♥ ♠♦❞❡ ♠❛♥✉❡❧✴❞✉ré❡ t♦t❛❧❡ ❞❡ ❝✐r❝✉✲ ❧❛t✐♦♥ ❞✉ tr❛✐♥✮ ❡t ❛✉ ✓t❛✉① ❞✬❡rr❡✉r ❤✉♠❛✐♥❡✔✱ ❞✬❛tt❡✐♥❞r❡ ❡♥ ♠♦②❡♥♥❡ ❧❡ ♥✐✈❡❛✉ ❙■▲✹ s✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝✐r❝✉❧❛t✐♦♥s ❞✉ tr❛✐♥✳ ❈❡ t❛✉① ❡st ✜①é à 10−5/heure ❞❡ ❢♦♥❝t✐♦♥♥❡♠❡♥t ❡♥ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡✳ ✕ ▲❡ t❛✉① ❞❡ ✓❢❛✉①✲♣♦s✐t✐❢s✔ ✭❞ét❡❝t✐♦♥ ❞✬✉♥ ♦❜st❛❝❧❡ à t♦rt✮ ❞♦✐t êtr❡ ✐♥❢ér✐❡✉r à 10−3/heure ❛♣♣❧✐❝❛❜❧❡ ♣♦✉r ❧❛ ❝♦♥❞✉✐t❡ ❛✉t♦♠❛t✐q✉❡ ❡♥ ❣❛r❛❣❡s✱ ❧❛ té❧é ❝♦♥❞✉✐t❡ ❡t ❧❛ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡✳ ▲❡ ❞✐s♣♦s✐t✐❢ ❞❡✈r❛ êtr❡ ❞é❝♦♥♥❡❝té ♣♦✉r ❧❛ ❝♦♥❞✉✐t❡ ❛✉t♦♠❛t✐q✉❡ ❡♥ ❧✐❣♥❡✳ ✕ ▲✬é✈❛❧✉❛t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ à ❧✬♦❜st❛❝❧❡ ❞♦✐t ❛✈♦✐r ✉♥❡ ♣ré❝✐s✐♦♥ ❞✬❡♥✈✐r♦♥ 10%✳ ✕ ❊♥ ✈✐s✐❜✐❧✐té ré❞✉✐t❡✱ q✉✬❡❧❧❡ s♦✐t ❞✉❡ ❛✉① ❝♦♥❞✐t✐♦♥s ❞✬é❝❧❛✐r❛❣❡ ♦✉ à ❧❛ ♣rés❡♥❝❡ ❞✬♦❜st❛❝❧❡s ✓♥♦r♠❛✉①✔ ✭❧❡s ♣❛r♦✐s ❞✉ t✉♥♥❡❧ ❡♥ ✈✐r❛❣❡ ♣❛r ❡①❡♠♣❧❡✮✱ ❧❡ s②stè♠❡ ❞♦✐t é✈❛❧✉❡r s❛ ❞✐st❛♥❝❡ ❞❡ ✈✐s✐❜✐❧✐té ♣♦✉r ♣❡r♠❡ttr❡ ❛✉ ❝♦♥❞✉❝t❡✉r ❞❛♥s ❧❡ ❝❛s ❞✬✉♥❡ r❡♣r✐s❡ ❡♥ ♠❛♥✉❡❧❧❡✱ ❞✬❛❞❛♣t❡r ❧❛ ✈✐t❡ss❡ ❞❡ ❝✐r❝✉❧❛t✐♦♥ ❛✜♥ ❞❡ ♥❡ ♣❛s ❡♥tr❛î♥❡r ❞❡ ✓❢❛✉①✲♣♦s✐t✐❢s✔ s②sté♠❛t✐q✉❡s✳ ✶✳✺✳✷ ❖❜❥❡❝t✐❢s s❝✐❡♥t✐✜q✉❡s ✕ ▲✬✐♥♥♦✈❛t✐♦♥ ♣r♦♣♦sé❡ ♣❛r ❝❡ ♣r♦❥❡t r❡♣♦s❡ s✉r ❧❛ ❞é✜♥✐t✐♦♥ ❞✬❛❧❣♦r✐t❤♠❡s ♣r❡♥❛♥t ❡♥ ❝♦♠♣t❡ ❧❛ ❝♦♠♣❧❡①✐té ❞❡ ❧❛ ③♦♥❡ ✜❧♠é❡ ❡t s✉rt♦✉t ❧❡s t❛✉① très ❜❛s ❞❡ ❢❛✉① ♣♦s✐t✐❢s ❡t ♥é❣❛t✐❢s✳ ❆❝✲ t✉❡❧❧❡♠❡♥t✱ ❧❡s rés✉❧t❛ts ❞❡s s②stè♠❡s ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✴r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡s ❢♦r♠❡s ❞❛♥s✶✳✺✳ ❖❜❥❡❝t✐❢s ✶✸ ❧❡ ❞♦♠❛✐♥❡ ❞✉ tr❛✐t❡♠❡♥t ❞✬✐♠❛❣❡s ♥✬♦♥t ♣❛s été tr❛✐tés ❞❡ ❢❛ç♦♥ à ❛tt❡✐♥❞r❡ ❞❡s rés✉❧t❛ts s❛t✐s❢❛✐s❛♥t ❧✬❡①✐❣❡♥❝❡ ❞❡s ♥✐✈❡❛✉① ❞❡ sé❝✉r✐té ❡t ❞✐s♣♦♥✐❜✐❧✐té ❢❡rr♦✈✐❛✐r❡✳ ✕ ▲❡s ❝❛♠ér❛s s♦♥t ❡♠❜❛rq✉é❡s ❞❛♥s ✉♥ ✈é❤✐❝✉❧❡ ❢❡rr♦✈✐❛✐r❡ r♦✉❧❛♥t ❡t ❧❡ ❢♦♥❞ ❞✬✐♠❛❣❡ ❡st ❝♦♠✲ ♣❧❡①❡✳ ▲❛ ✈✐s✐♦♥ ❛✈❛♥t ❞✉ ✈é❤✐❝✉❧❡ ❞♦✐t s✬❛✛r❛♥❝❤✐r ❞❡s ❞✐✛ér❡♥t❡s ♣❛rt✐❝✉❧❛r✐tés ❞✬✉♥ t✉♥♥❡❧ ❢❡r✲ r♦✈✐❛✐r❡ ✭❝♦✉r❜❡s s❡rré❡s✱ ❝r♦✐s❡♠❡♥t ❞✬✉♥ ✈é❤✐❝✉❧❡✱ t✉♥♥❡❧ ♠♦♥♦✈♦✐❡✱ s②stè♠❡ ❞✬❛✐❣✉✐❧❧❛❣❡✱✳✳✳✮✳ ✕ ▲❛ ✈♦✐❡ ❢❡rré❡ ♥✬❡st ♣❛s ✉♥❡ s✉r❢❛❝❡ ❧✐ss❡ ✭❝♦♥tr❛✐r❡♠❡♥t à ❧❛ r♦✉t❡✮ ❡t ❧✬❡♥✈✐r♦♥♥❡♠❡♥t ♣❡✉t✲ êtr❡ ❝♦♠♣❧❡①❡ ❡t très ✈❛r✐❛❜❧❡ ❝♦♠♠❡ ❡♥ t✉♥♥❡❧ ♦✉ ❡♥ ❛ér✐❡♥✳ P❛r ❝♦♥tr❡✱ ❧❡ ❢❛✐t q✉❡ ❧❡ ✈é❤✐❝✉❧❡ s♦✐t ❣✉✐❞é s❡r❛ ♠✐s à ♣r♦✜t ♣♦✉r ❛♠é❧✐♦r❡r ♥♦t❛❜❧❡♠❡♥t ❧❛ ✜❛❜✐❧✐té ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ♣❛r ❧❛ ❝♦♥♥❛✐ss❛♥❝❡ ❛ ♣r✐♦r✐ ❞❡ ❧✬❡♥✈✐r♦♥♥❡♠❡♥t✳ ✕ ▲❡s s②stè♠❡s ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✴r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡s ❢♦r♠❡s ❞❛♥s ❧❡ ❞♦♠❛✐♥❡ ❞✉ tr❛✐t❡✲ ♠❡♥t ❞✬✐♠❛❣❡s ♥✬♦♥t ♣❛s ❛❝t✉❡❧❧❡♠❡♥t ❛tt❡✐♥t ❞❡s rés✉❧t❛ts ✾✾✳✾✾✾✾✪✳ ▲❡s s②stè♠❡s ❞❡ ♠étr♦s ❛✉t♦♠❛t✐q✉❡s ét❛♥t t♦✉❥♦✉rs ❡♥ s✐t❡ ♣r♦♣r❡ ✐♥té❣r❛❧✱ ❧❡s ❛✉tr❡s r❛♠❡s ❝♦♥st✐t✉❡♥t ♣r❡sq✉❡ ❡①❝❧✉s✐✈❡♠❡♥t ❧❡s ♦❜st❛❝❧❡s ♣♦t❡♥t✐❡❧s à ❞ét❡❝t❡r✳ P♦✉r ❛tt❡✐♥❞r❡ ❧✬♦❜❥❡❝t✐❢ ❞❡ sé❝✉r✐té ❞❛♥s t♦✉s ❧❡s ❝❛s✱ ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s s❡r❛ ❡ss❡♥t✐❡❧❧❡♠❡♥t ❜❛sé❡ s✉r ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❧❛ ✈♦✐❡ ♣✉✐sq✉❡ ❧❛ ♣rés❡♥❝❡ ❞✬✉♥❡ ❛✉tr❡ r❛♠❡ s✉r ❧❛ ♣♦rt✐♦♥ ❞❡ ✈♦✐❡ s✉r✈❡✐❧❧é❡✱ ❡♥ ✐♥t❡r❞✐r❛ ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡✳ ●râ❝❡ à ❝❡tt❡ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡✱ ♥♦✉s ♣♦✉rr♦♥s ❞é✜♥✐r ✉♥❡ ③♦♥❡ ❧✐❜r❡ ❞✬♦❜st❛❝❧❡s ❡t ✉♥❡ ré❣✐♦♥ ❞✬✐♥térêt ♣♦✉r ❞é❝❧❡♥❝❤❡r ✉♥❡ r❡❝❤❡r❝❤❡ ❞✬♦❜st❛❝❧❡s✳ ❯♥❡ ❢♦✐s ❧✬♦❜st❛❝❧❡ ❞ét❡❝té✱ ✐❧ ❢❛✉❞r❛ é✈❛❧✉❡r s❛ ❞✐st❛♥❝❡ ❛✈❡❝ ✉♥❡ ♣ré❝✐s✐♦♥ ❝♦♠♣❛t✐❜❧❡ ❛✈❡❝ ❧❛ ✈✐t❡ss❡ ❞✉ tr❛✐♥✳ ➱t❛♥t ❞♦♥♥é q✉❡ ❧❛ ❞✐st❛♥❝❡ ❞✉ tr❛✐♥ à ❧✬♦❜❥❡t ❞ét❡❝té ❡st ✉♥❡ ❞♦♥♥é❡ ❝r✐t✐q✉❡✱ q✉✐ ❞♦✐t êtr❡ s✉♣ér✐❡✉r❡ à ❧❛ ❞✐st❛♥❝❡ ❞✬❛rrêt ❞✉ ✈é❤✐❝✉❧❡✱ ♥♦✉s ♣r♦♣♦s❡r♦♥s ❞❡s ❛❧❣♦r✐t❤♠❡s ♣❡r♠❡tt❛♥t ❞❡ ré❛❧✐s❡r ❝❡tt❡ ❢♦♥❝t✐♦♥ ❛✈❡❝ ❧❡s ♥✐✈❡❛✉① ❞❡ sé❝✉r✐té r❡q✉✐s ♣♦✉r ❧❡ s②stè♠❡ ❞❡ tr❛♥s♣♦rt ❢❡rr♦✈✐❛✐r❡✳ ◆♦✉s ❞é✜♥✐ss♦♥s ❝♦♠♠❡ ✓❜✉❧❧❡ ❞❡ sé❝✉r✐té✔✱ ❧❛ ③♦♥❡ ❞❡ ❧❛ ✈♦✐❡ à ❞ét❡❝t❡r q✉✐ ❞♦✐t à t♦✉t ♣r✐① êtr❡ ③♦♥❡ ❧✐❜r❡ ❞✬♦❜st❛❝❧❡s✳ ❈❡tt❡ ❜✉❧❧❡ ❡st ❞é✜♥✐❡ ❝♦♠♠❡ ❧✬❡s♣❛❝❡ q✉❡ ❧❡ tr❛✐♥ ✈❛ très ♣r♦❜❛❜❧❡♠❡♥t ♦❝❝✉♣❡r ❞❛♥s ❧❡s ♣r♦❝❤❛✐♥s ✐♥st❛♥ts✱ ❡t ❞♦♥t ✐❧ ❢❛✉t ❛ss✉r❡r ❧❛ ♥♦♥✲♦❝❝✉♣❛t✐♦♥ ♣❛r ❞❡s ♦❜st❛❝❧❡s✳ ❯♥ ❡①❡♠♣❧❡ ❞❡ ❝❡tt❡ ❜✉❧❧❡ ❞❡ sé❝✉r✐té ♣♦✉r ✉♥ tr❛✐♥ ❡st ❡①♣♦sé ❞❛♥s ❧❛ ✜❣✉r❡ ✶✳✻✳ ❉❡ ♣❧✉s✱ ❝❡tt❡ ❛♣♣r♦❝❤❡ ♣❡✉t êtr❡ ❛✉ss✐ ✉t✐❧✐sé❡ ❞❛♥s ❧❡s ♣❛ss❛❣❡s à ♥✐✈❡❛✉ ❝❛r s✐ ✉♥❡ ✈♦✐t✉r❡ ❜❧♦q✉❡ ❝❡ ❞❡r♥✐❡r✱ ❧❡s r❛✐❧s s❡r♦♥t ♠❛sq✉és ♣❛r ❧❛ ✈♦✐t✉r❡✱ ❡t ♣❛rt❛♥t ❧❛ ③♦♥❡ ❞❡ sé❝✉r✐té s❡r❛ ré❞✉✐t❡✳ ❈❡♣❡♥❞❛♥t✱ ❝♦♠♠❡ ❞❛♥s ♥♦tr❡ ❝❛s ❧❡ ♠étr♦ ❛✉t♦♠❛t✐q✉❡ ❡st ✉♥ ❚❈❙P ✐♥té❣r❛❧✱ ♥♦✉s ♥❡ tr❛✐t❡r♦♥s ♣❛s ❧❡s ♣❛ss❛❣❡s à ♥✐✈❡❛✉✳ ❋✐❣✉r❡ ✶✳✻ ✕ ❇✉❧❧❡ ❞❡ sé❝✉r✐té✳ ❈❡tt❡ ét✉❞❡ ♣❡r♠❡ttr❛ ♥♦♥ s❡✉❧❡♠❡♥t ❞❡ ❞é❜♦✉❝❤❡r s✉r ❞❡s ❛♣♣❧✐❝❛t✐♦♥s ❝♦♥❝rèt❡s✱ ♠❛✐s s✉rt♦✉t ❞✬é✈❛❧✉❡r ❧❛ ♠❛t✉r✐té ❞❡s t❡❝❤♥♦❧♦❣✐❡s ❞❡ tr❛✐t❡♠❡♥ts ❞✬✐♠❛❣❡s ♣♦✉r ré❛❧✐s❡r ❞❡s ❢♦♥❝t✐♦♥s sûr❡s ❛♣♣❧✐q✉é❡s ❛✉① s②stè♠❡s ❢❡rr♦✈✐❛✐r❡s✳✶✹ ❈❤❛♣✐tr❡ ✶✳ ■♥tr♦❞✉❝t✐♦♥ ✶✳✻ ❖r❣❛♥✐s❛t✐♦♥ ❞✉ ♠❛♥✉s❝r✐t ❉❛♥s ❧❡ ❝❤❛♣✐tr❡ ✷ ♥♦✉s ❡①♣♦s♦♥s ✉♥ ét❛t ❞❡ ❧✬❛rt ❞❡s s②stè♠❡s ❡①✐st❛♥ts✱ ❧❡s ♣r✐♥❝✐♣❛❧❡s ❝❛r❛❝té✲ r✐st✐q✉❡s ❞❡ ♥♦tr❡ ♣❧❛t❡❢♦r♠❡ ❛✐♥s✐ q✉❡ ❧❡ ♣r♦t♦t②♣❛❣❡ ❞✉ ❝❛♣t❡✉r✳ ❆♣rès s♦♥ ✐♥st❛❧❧❛t✐♦♥ ❧✬ét❛❧♦♥♥❛❣❡ ❞❡ ❧❛ ❝❛♠ér❛ ❡st ❛♥❛❧②sé✳ ▲❡ ❝❤❛♣✐tr❡ ✸ ❡st ❞é❞✐é à ✉♥ ét❛t ❞❡ ❧✬❛rt s✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❢❡rré❡✱ ❛♥❛❧②sé à ♣❛rt✐r ❞❡s ❡①❡♠♣❧❡s ❞❡ ❞✐✛ér❡♥t❡s t❡❝❤♥✐q✉❡s t❡sté❡s✳ ❆✉ss✐✱ ♥♦✉s ♣rés❡♥t♦♥s ✉♥❡ ❛♣♣r♦❝❤❡ ♦r✐❣✐♥❛❧❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ❛✈❡❝ ❧✬♦❜❥❡❝t✐❢ ❞❡ ❞ét❡r♠✐♥❡r ✉♥❡ ③♦♥❡ ❞❡ ❧❛ ✈♦✐❡ ❧✐❜r❡ ❞✬♦❜st❛❝❧❡s✳ ▲❡ ❝❤❛♣✐tr❡ ✹ ♣rés❡♥t❡ ❧❛ ❞ét❡❝t✐♦♥ ❡t ❧❛ ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❝r♦✐s❡♠❡♥ts ❢❡rr♦✈✐❛✐r❡s✱ ♣♦✐♥t ✐♠✲ ♣♦rt❛♥t ❞❛♥s ❧❛ ❞ét❡r♠✐♥❛t✐♦♥ ❞❡ ❧❛ ③♦♥❡ ❧✐❜r❡ ❞✬♦❜st❛❝❧❡s✱ ❝❛r à ❧✬❛rr✐✈é❡ ❞✬✉♥ ❝r♦✐s❡♠❡♥t ❞✐✈❡r❣❡♥t✱ ❧❡ s②stè♠❡ ❞♦✐t êtr❡ ❝❛♣❛❜❧❡ ❞✬❛♥❛❧②s❡r ❧❡s ❞❡✉① ✈♦✐❡s✳ P♦✉r ❝❡❧❛ ❞❡s t❡❝❤♥✐q✉❡s ❞❡ ❞ét❡❝t✐♦♥ ❡t ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ s♦♥t ♣r♦♣♦sé❡s ❡t é✈❛❧✉é❡s à ♣❛rt✐r ❞✬✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❞✬✐♠❛❣❡s✳ ❉ét❡r♠✐♥❡r ❧❛ ♣rés❡♥❝❡ ❞✬✉♥ tr❛✐♥ ♣♦✉r ❧❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ❝♦♥✈❡r❣❡♥ts s✬❛✈èr❡ ♣❧✉s ❝♦♠♣❧✐q✉é✳ ◆♦✉s ♣rés❡♥t♦♥s ❡♥s✉✐t❡ ❞❛♥s ❧❡ ❝❤❛♣✐tr❡ ✺ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ♦❜st❛❝❧❡s ✭tr❛✐♥s✮✳ ❈♦♠♠❡ ✐♥❞✐q✉é✱ ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ♥♦✉s ♣❡r♠❡ttr❛ ❞❡ ❞ét❡r♠✐♥❡r ✉♥❡ ré❣✐♦♥ ❞✬✐♥térêt ❞❛♥s ❧❛q✉❡❧❧❡ ♥♦✉s ♣♦✉rr♦♥s ré❛❧✐s❡r ✉♥❡ r❡❝❤❡r❝❤❡ ❞❡s tr❛✐♥s✳ ❉❛♥s ❝❡ ❝❤❛♣✐tr❡✱ ♥♦✉s ❡①♣♦s♦♥s ❧❡s ❞é♠❛r❝❤❡s s✉✐✈✐❡s ♣♦✉r ♦❜t❡♥✐r ✉♥ ❞❡s❝r✐♣t❡✉r r♦❜✉st❡ ❡t à ❧❛ ❢♦✐s s✐♠♣❧❡ ❡♥ ❝❛❧❝✉❧✳ ❋✐♥❛❧❡♠❡♥t✱ ❧❡ ❝❤❛♣✐tr❡ ✻ ❡st ❝♦♥s❛❝ré ❛✉① ❝♦♥❝❧✉s✐♦♥s ❡t ❛✉① tr❛✈❛✉① ❢✉t✉rs✳❈❤❛♣✐tr❡ ✷ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ ❙♦♠♠❛✐r❡ ✷✳✶ ➱t❛t ❞❡ ❧✬❛rt ❞❡s s②stè♠❡s ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❢❡rr♦✈✐❛✐r❡s ✳ ✳ ✳ ✳ ✳ ✳ ✶✺ ✷✳✷ ❈❤♦✐① ❞✉ ❝❛♣t❡✉r ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✾ ✷✳✷✳✶ ❈❛♣t❡✉rs ❛❝t✐❢s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✾ ✷✳✷✳✷ ❈❛♣t❡✉rs ♣❛ss✐❢s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✵ ✷✳✸ ▲❡ ❱é❤✐❝✉❧❡ ❆✉t♦♠❛t✐q✉❡ ▲é❣❡r ✿ ❱❆▲ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✶ ✷✳✸✳✶ ❈♦♠♣♦s✐t✐♦♥ ❞✬✉♥ ✈é❤✐❝✉❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✶ ✷✳✸✳✷ ❈❛r❛❝tér✐st✐q✉❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✷ ✷✳✸✳✸ ▼♦❞è❧❡ ❞✉ ✈é❤✐❝✉❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✸ ✷✳✹ ➱t❛❧♦♥♥❛❣❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✹ ✷✳✹✳✶ ▼♦❞é❧✐s❡r ✉♥❡ ❝❛♠ér❛ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✹ ✷✳✹✳✶✳✶ ❱❡❝t❡✉r ❞❡ tr❛♥s❧❛t✐♦♥ ❡t ♠❛tr✐❝❡ ❞❡ r♦t❛t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✺ ✷✳✹✳✷ ▼ét❤♦❞❡s ❞✬ét❛❧♦♥♥❛❣❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✼ ✷✳✹✳✷✳✶ ❉ét❡r♠✐♥❛t✐♦♥ ❞❡s ♣❛r❛♠ètr❡s ✐♥tr✐♥sèq✉❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✽ ✷✳✹✳✷✳✷ ❖❜t❡♥t✐♦♥ ❞❡s ♣❛r❛♠ètr❡s ❡①tr✐♥sèq✉❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✾ ✷✳✹✳✸ ▼ét❤♦❞❡ ❞✬ét❛❧♦♥♥❛❣❡ ♣r♦♣♦sé❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✷ ✷✳✹✳✸✳✶ ❊st✐♠❛t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✷ ✷✳✹✳✸✳✷ ❋✐❧tr❛❣❡ t❡♠♣♦r❡❧ ❞❡s ♣♦✐♥ts ❞❡ ❢✉✐t❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✺ ✷✳✹✳✹ ❘és✉❧t❛ts ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✺ ✷✳✶ ➱t❛t ❞❡ ❧✬❛rt ❞❡s s②stè♠❡s ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❢❡rr♦✲ ✈✐❛✐r❡s ❉❛♥s ❝❡tt❡ s❡❝t✐♦♥ ❞✉ ❝❤❛♣✐tr❡✱ ♥♦✉s ✈♦✉❧♦♥s ❡①♣♦s❡r ✉♥❡ ❞❡s❝r✐♣t✐♦♥ ❣é♥ér❛❧❡ ❞❡s ♣r✐♥❝✐♣❛✉① s②stè♠❡s ❞é✈❡❧♦♣♣és ♣♦✉r ❧❡ ♠✐❧✐❡✉ ❢❡rr♦✈✐❛✐r❡ ❜❛sés ❞❛♥s ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❡t ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✳ ▲✬♦❜❥❡❝t✐❢ ❡st ❞❡ ❝♦♠♣r❡♥❞r❡ ❧❡s ❧✐♠✐t❛t✐♦♥s ❞❡s ❞✐✛ér❡♥t❡s ♠ét❤♦❞❡s ❡t ❞❡ t✐r❡r ♣r♦✜t ❞❡s s②stè♠❡s ❞é❥à ❞é✈❡❧♦♣♣és✳ ❉ét❡❝t❡✉r ❞✬♦❜st❛❝❧❡s ♠✉❧t✐✲❝❛♣t❡✉rs ♣♦✉r ❧❡s ✈♦✐❡s ❢❡rré❡s ❉❛♥s ❧❡ ♣r♦❥❡t ❞❡ ❬▼♦❝❦❡❧ ❡t ❛❧✳ ✷✵✵✸❪ ✐♠♣❧é♠❡♥té ❡t t❡sté ❡♥ ✷✵✵✸ ❡♥ ❆❧❧❡♠❛❣♥❡✱ ♥♦✉s ❡st ♣ré✲ s❡♥té ✉♥ s②stè♠❡ ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s s✉r ❧❛ ✈♦✐❡ ❢❡rré❡ ♣♦✉r ❞❡s tr❛✐♥s ré❣✐♦♥❛✉①✳ ▲❡ s②stè♠❡ ❡st ♣r✐♥❝✐♣❛❧❡♠❡♥t ❜❛sé s✉r ❧❛ ❢✉s✐♦♥ ❞❡ ❝❛♣t❡✉rs ❛❝t✐❢s ❡t ♣❛ss✐❢s✱ ✉♥❡ ❛♣♣r♦❝❤❡ q✉✐ ❝♦♥❞✉✐t à ✉♥❡ ❢♦rt❡ ♣r♦❜❛❜✐❧✐té ❡♥ t❡r♠❡s ❞✬❡✣❝❛❝✐té✱ ❡t ♣❡r♠❡t ❞❡ ❞ét❡❝t❡r ❞❡s ♦❜st❛❝❧❡s à 300 ♠ètr❡s ❛✈❡❝ ✉♥❡ ✈✐t❡ss❡ ❞❡ 100 km/h ❞❛♥s ❞❡s ❝♦♥❞✐t✐♦♥s ♥♦r♠❛❧❡s ✭♣❛s ❞❡ ♣❧✉✐❡✱ ♣❛s ❞❡ ❜r♦✉✐❧❧❛r❞✱ ❡t❝✮✳ ▲❡ s②stè♠❡ ❡st ❝♦♠♣♦sé ❞❡ tr♦✐s ❧❛s❡rs ❡t tr♦✐s ❝❛♠ér❛s✱ ♣♦✉r ❧❡sq✉❡❧s ✉♥ ❝❛♣t❡✉r ❞❡ ❝❤❛q✉❡ t②♣❡ ❛ été rés❡r✈é ♣♦✉r ❧✬❛♥❛❧②s❡ ♣r♦❝❤❡ ❡t ❞❡✉① ♣♦✉r ❧✬❛♥❛❧②s❡ à ❧♦♥❣✉❡ ♣♦rté❡✳ ▲❡s ❝❛♠ér❛s ✉t✐❧✐sé❡s ♦♥t ✉♥ ❣r❛♥❞ ❝❤❛♠♣ ❞❡ ✈✐s✐♦♥ ❧❛tér❛❧❡ ❡t ❧❡✉r ❛♥❣❧❡ ❞✬♦r✐❡♥t❛t✐♦♥ ❡st ❝♦♥trô❧é ♣❛r ✉♥ ♠✐r♦✐r ♠♦♥té s✉r✶✻ ❈❤❛♣✐tr❡ ✷✳ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ ✉♥ ♠♦t❡✉r ♣❛s à ♣❛s✱ ❣râ❝❡ ❛✉q✉❡❧ ❧❡s ❝❛♣t❡✉rs ♣❡✉✈❡♥t ❡♥✈❡❧♦♣♣❡r ❞❡ ♠❛♥✐èr❡ ❡✣❝❛❝❡ ❧❛ ✈♦✐❡ ❞❛♥s ❧❡s ✈✐r❛❣❡s✳ ▲❡ s②stè♠❡ ✉t✐❧✐s❡ ❧✬✐♥❢♦r♠❛t✐♦♥ ❡①t❡r♥❡ ❝♦♥❝❡rt❛♥t ❧❛ ♣♦s✐t✐♦♥ ❡t ❧❛ ✈✐t❡ss❡ ❞✉ tr❛✐♥✳ ❊♥ ♣❧✉s ❞❡ ❝❡❧❛✱ ✐❧ ❞✐s♣♦s❡ ❞✬✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❝♦♥t❡♥❛♥t ❞❡s ✐♥❢♦r♠❛t✐♦♥s s✉r ❧❛ ❢♦r♠❡ ❞❡ ❧❛ ✈♦✐❡ ❡t ❧❡s ♦❜❥❡ts q✉✐ ❧❛ ❝♦♥st✐t✉❡♥t✳ P♦✉r ❞ét❡r♠✐♥❡r ❧❛ ♣♦s✐t✐♦♥ ❡t ❢♦r♠❡ ❞❡ ❧❛ ✈♦✐❡✱ ❧❡ s②stè♠❡ s✬❛♣♣✉✐❡ s✉r ❧✬❡①tr❛❝t✐♦♥ ❞❡ ✈♦✐❡ à ♣❛rt✐r ❞✉ tr❛✐t❡♠❡♥t ❞✬✐♠❛❣❡s ❡t à ♣❛rt✐r ❞❡s ❞♦♥♥é❡s ❞❡ ❧♦❝❛❧✐s❛t✐♦♥ ❞✉ tr❛✐♥ ❡t ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❞❡ ❧❛ ✈♦✐❡ ❢❡rré❡✳ ◗✉❛♥t à ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✱ ❧❡ s②stè♠❡ ✉t✐❧✐s❡ ❧❡ tr❛✐t❡♠❡♥t ❞✬✐♠❛❣❡s ❡t ❧✬❛♥❛❧②s❡ ❞❡s ❞♦♥♥é❡s ❧❛s❡rs✳ ❈❡tt❡ ✐♥❢♦r♠❛t✐♦♥ ♣r♦✈❡♥❛♥t ❞❡s ❝❛♣t❡✉rs ❡st ❡①♣❧♦✐té❡ ❣râ❝❡ à ✉♥ ✜❧tr❡ ❞❡ ❑❛❧♠❛♥✳ ❱✐♥❣t✲s✐① ♦❜st❛❝❧❡s ❡♥ ❜♦✐s ♣❡✐♥t ♦♥t été ♣❧❛❝és s✉r ❧❛ ✈♦✐❡ ❡t s✉r ❧❡s ❝ôtés ❛✈❡❝ ❞❡s t❛✐❧❧❡s ❡♥tr❡ 0.4 m2 ❡t 2 m2 ✳ ❉❛♥s ❝❡tt❡ ❝♦♥✜❣✉r❛t✐♦♥ ❧❡ s②stè♠❡ ❛ ❞é♠♦♥tré ✉♥❡ ❣r❛♥❞❡ rés✐st❛♥❝❡ ❛✉① ✈✐❜r❛t✐♦♥s ❛✐♥s✐ q✉✬✉♥ t❛✉① ❞❡ ❢❛✉① ♥é❣❛t✐❢s très ❢❛✐❜❧❡✳ ▼❛❧❤❡✉r❡✉s❡♠❡♥t✱ ❧❡ ♣r♦❥❡t ♥❡ ♥♦✉s ❢♦✉r♥✐t ❧❡s ✈❛❧❡✉rs ❞❡ ❝❡s t❛✉① ❞❡ ❞ét❡❝t✐♦♥✳ ❙②stè♠❡ ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ♣♦✉r ❧❡s tr❛✐♥s ❛✉t♦♠❛t✐sés ▲❡ ♣r♦❥❡t ❞❡ ❘✉❞❡r✱ ❬❘✉❞❡r ❡t ❛❧✳ ✷✵✵✸❪ ✉t✐❧✐s❡ ❧❛ ♠ê♠❡ ♣❧❛t❡❢♦r♠❡ q✉❡ ❧❡ ♣r♦❥❡t ♣ré❝é❞❡♥t ❬▼♦❝❦❡❧ ❡t ❛❧✳ ✷✵✵✸❪ ❡t ♣❛r✈✐❡♥t à ❞ét❡❝t❡r ❞❡s ♦❜st❛❝❧❡s ❞❡ 0, 4 m2 ❥✉sq✉✬à ✉♥❡ ❞✐st❛♥❝❡ ❞❡ 200 ♠✳ ❈❡tt❡ ❢♦✐s✲❝✐✱ ❧❡s ❝❛♣t❡✉rs s♦♥t tr♦✐s ❝❛♠ér❛s ❡t ✉♥ ❧❛s❡r✳ ❯♥❡ ❝❛♠ér❛ ❛✈❡❝ ✉♥❡ ❧❡♥t✐❧❧❡ ❞❡ ❢♦❝❛❧❡ 35 ♠♠ ❡st ✉t✐❧✐sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❧♦✐♥t❛✐♥❡ ❡t ❞❡✉① ❝❛♠ér❛s ❡♥ ❝♦♥✜❣✉r❛t✐♦♥ stéré♦s❝♦♣✐q✉❡ ❛✈❡❝ ✉♥❡ ❢♦❝❛❧❡ ❞❡ ✶✷ ♠♠ ♣♦✉r ✉♥❡ ❛♥❛❧②s❡ ❥✉sq✉✬à ✺✵ ♠ètr❡s✳ ❈♦♠♠❡ ❝❛♣t❡✉r ❛❝t✐❢✱ ❧❡ s②stè♠❡ ♣♦ssè❞❡ ✉♥ ❧❛s❡r ❛✈❡❝ ✉♥❡ ♣♦rté❡ ❞❡ ✶✺✵ ♠ètr❡s ❡t ✉♥ ❛♥❣❧❡ ❞✬♦✉✈❡rt✉r❡ ❞❡ 8 ❞❡❣rés✳ ❈♦♠♠❡ ✐♥❢♦r♠❛t✐♦♥ s✉♣♣❧é♠❡♥t❛✐r❡✱ ✐❧ r❡ç♦✐t ❧❛ ✈✐t❡ss❡ ❡t ❧❛ ♣♦s✐t✐♦♥ ❞✉ tr❛✐♥ ♣r♦✈❡♥❛♥t ❞✉ s②stè♠❡ ❞❡ ❝♦♥trô❧❡ ❞✉ ✈é❤✐❝✉❧❡ ❡t ❞✬✉♥ ●P❙ ❞✐✛ér❡♥t✐❡❧✳ ▲❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ♣❛r ❧❡ tr❛✐t❡♠❡♥t ❞✬✐♠❛❣❡s ❡st ❜❛sé❡ s✉r ❧❛ ❢✉s✐♦♥ ❞❡ ❞✐✛ér❡♥t❡s t❡❝❤✲ ♥✐q✉❡s ✿ ✕ ❉ét❡❝t✐♦♥ ❞❡s ❜♦r❞s ✭❊❞❣❡ ❡❧❡♠❡♥ts✮ ✿ ❆♣rès ❛✈♦✐r ❛♣♣❧✐q✉é ✉♥ ✜❧tr❡ ❞❡ ❈❛♥♥② ❬P❛r❦❡r ✷✵✶✵❪ à ❧✬✐♠❛❣❡ ❝❡rt❛✐♥s ❛❣ré❣❛ts ❞❡ ♣♦✐♥ts ♣❡✉✈❡♥t êtr❡ ✈✉s ❝♦♠♠❡ ❞❡s ♦❜st❛❝❧❡s✳ ✕ ❉✐s❝♦♥t✐♥✉✐té ❞❡s r❛✐❧s ✭❚r❛❝❦ ❣❛♣s✮ ✿ ❉❛♥s ❧✬✐♠❛❣❡ ❞❡ ❈❛♥♥②✱ ❞ès q✉✬✐❧ ② ❛ ✉♥ ♠♦r❝❡❛✉ ❞❡ r❛✐❧ q✉✬♦♥ ♥❡ ✈♦✐t ♣❛s✱ ✐❧ ❡st ❝♦♥s✐❞éré ❝♦♠♠❡ ✉♥ ♣♦t❡♥t✐❡❧ ♦❜st❛❝❧❡ s✉r ❧❡ r❛✐❧✳ ✕ ❋❧✉① ♦♣t✐q✉❡ ✭❖♣t✐❝❛❧ ✢♦✇✮ ✿ ▼ét❤♦❞❡ ✉t✐❧✐sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❡♥ ♠♦✉✈❡♠❡♥t✳ ✕ ❆♥❛❧②s❡ ❞❡ ❧❛ ✈❛r✐❛♥❝❡ ❡t ❞❡ ❧❛ ❝♦rré❧❛t✐♦♥ ❡♥ ♥✐✈❡❛✉ ❞❡ ❣r✐s ✭●r❡② ✈❛❧✉❡ ✈❛r✐❛♥❝❡ ❛♥❞ ❝♦rr❡❧❛✲ t✐♦♥✮ ✿ ❧❛ ✈❛r✐❛♥❝❡ ❡t ❧❛ ❝♦rré❧❛t✐♦♥ t♦✉t ❛✉ ❧♦♥❣ ❞❡ ❧❛ ✈♦✐❡ s♦♥t ❝♦♥s✐❞éré❡s ❝♦♠♠❡ ✐♥✈❛r✐❛♥t❡s✳ ❯♥ ♦❜❥❡t s✉r ❧❛ ✈♦✐❡ ❝❤❛♥❣❡r❛ ❝❡s ✈❛❧❡✉rs✳ P♦✉r ❛✈♦✐r ✉♥ ♠❡✐❧❧❡✉r ♣♦✐♥t ❞❡ ✈✉❡ ❞❡ ❧❛ ✈♦✐❡✱ ❧✬❛rt✐❝❧❡ ♣r♦♣♦s❡ ❞✬✉t✐❧✐s❡r ❧❛ tr❛♥s❢♦r♠❛t✐♦♥ ✈♦❧ ❞✬♦✐s❡❛✉ ✭❇✐r❞ ❊②❡s✬ ❱✐❡✇✮✳ ✕ ❆♥❛❧②s❡ ❞❡ ❧❛ t❡①t✉r❡ ✭❙t❛t✐st✐❝s ♦❢ t❡①t✉r❡s✮ ✿ ❈❡tt❡ ❛♣♣r♦❝❤❡ ❡st s✐♠✐❧❛✐r❡ à ❧❛ ♣ré❝é❞❡♥t❡✱ ♠❛✐s ❛♣♣❧✐q✉é❡ à ❞❡s ♣♦rt✐♦♥s ❞❡ ❧✬✐♠❛❣❡ ♣❧✉s ♣❡t✐t❡s✳ ▲❛ ✈❛r✐❛♥❝❡ ❞❡ ❧❛ ✈♦✐❡ ❡st ❝♦♠♣❛ré ❛✈❡❝ ❝❡❧✉✐ ❞❡ ❧❛ ✈❛r✐❛♥❝❡ ❞❡s ③♦♥❡s ❝♦♥s✐❞éré❡s ❝♦♠♠❡ ♦❜st❛❝❧❡s ♣♦ss✐❜❧❡s✳ ❙✐ ❧❡ ❝❧✉st❡r ♦❜t❡♥✉ ❡st s✉✣s❛♠♠❡♥t ❧❛r❣❡✱ ❝❡❧❛ ❡st ❝♦♥s✐❞éré ❝♦♠♠❡ ✉♥ ♦❜st❛❝❧❡✳ ✕ ❙téré♦✈✐s✐♦♥ ❡t tr❛♥s❢♦r♠é❡ ❞❡ ♣❡rs♣❡❝t✐✈❡ ❙t❡r❡♦ ❜② ✐♥✈❡rs❡ ♣❡rs♣❡❝t✐✈❡ ♠❛♣♣✐♥❣ ♦✉ ❇✐r❞ ❊②❡s✬ ❱✐❡✇ ❬●❛♥❣♥❡t ❡t ❛❧✳ ✶✾✽✹❪✳ ❉❡✉① ❝❛♠ér❛s s♦♥t ét❛❧♦♥♥é❡s ❛✈❡❝ ❧❡ ♠ê♠❡ s②stè♠❡ ❞❡ ❝♦♦r❞♦♥♥é❡s ❡t ♣❛rt❛♥t ❧❛ tr❛♥s❢♦r♠❛t✐♦♥ ❞❡s ❞❡✉① ✐♠❛❣❡s ❞♦✐t êtr❡ ❧❛ ♠ê♠❡ s✐ t♦✉s ❧❡s ♦❜❥❡ts ❛♣♣❛rt✐❡♥♥❡♥t ❛✉ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t✳ P♦✉r ❧❛ ❢✉s✐♦♥ ❞❡ ❞♦♥♥é❡s✱ ✐❧s ✉t✐❧✐s❡♥t ✉♥ ✜❧tr❡ ❞❡ ❑❛❧♠❛♥ ✿ ❧❡ ✜❧tr❡ ❡st✐♠❡ ❧❛ ❧♦❝❛❧✐s❛t✐♦♥✱ ❧❛ ✈é❧♦❝✐té ❡t ❧✬❛❝❝é❧ér❛t✐♦♥ ❞❡ ❝❤❛q✉❡ ♦❜st❛❝❧❡ ♣♦t❡♥t✐❡❧✳ ▲❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ✜♥❛❧❡ ❡st ré❛❧✐sé❡ ♣❛r ✉♥ s②stè♠❡ ❞❡ ❞é❝✐s✐♦♥ ❡t ❞é♣❡♥❞ ❞❡s rés✉❧t❛ts ♦❜t❡♥✉s ♣❛r ❧❡s ❞✐✛ér❡♥ts s②stè♠❡s ♣r♦♣♦sés✳ ■❧ ❡①✐st❡ ✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❞❛♥s ❧❛q✉❡❧❧❡ s♦♥t ❡♥r❡❣✐strés ❧❡s ❞✐✛ér❡♥ts ♦❜❥❡ts q✉✐ ❛♣♣❛rt✐❡♥♥❡♥t à ❧❛ ✈♦✐❡ ♣♦✉r é✈✐t❡r ❧❡s ❢❛✉ss❡s ❞ét❡❝t✐♦♥s✳✷✳✶✳ ➱t❛t ❞❡ ❧✬❛rt ❞❡s s②stè♠❡s ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❢❡rr♦✈✐❛✐r❡s ✶✼ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ♣♦✉r ❧❛ ✈♦✐❡ ❢❡rré❡ ❉é✈❡❧♦♣♣é ❛✉ ❏❛♣♦♥✱ ❝❡ s②stè♠❡ ❬❨❛♠❛s❤✐t❛ ❡t ❛❧✳ ✶✾✾✻❪ ❞✐s♣♦s❡ ❝♦♠♠❡ ❤❛r❞✇❛r❡ ❞✬✉♥❡ ❝❛♠ér❛ ✐♥❢r❛r♦✉❣❡ ❡t ❞✬✉♥ ❧❛s❡r✳ ❈❡tt❡ ❝❛♠ér❛ ❛ été ❝❤♦✐s✐❡ ♣♦✉r ❛✈♦✐r ✉♥❡ ❜♦♥♥❡ rés✐st❛♥❝❡ ❛✉① ❝♦♥❞✐t✐♦♥s ❝❧✐♠❛t✐q✉❡s✱ ❝❛r ❧❛ ❝❛♠ér❛ tr❛✈❛✐❧❧❡ ❞❛♥s ❧❛ ❜❛♥❞❡ ✽ à ✶✸ µm✱ s♦✐t ✉♥❡ ❞❡s ❢❡♥êtr❡s ❞❡ tr❛♥s♠✐ss✐♦♥ ❞❡ ❧✬✐♥❢r❛r♦✉❣❡✱ tr❛♥s♣❛r❡♥t❡ ❛✉ ❜r♦✉✐❧❧❛r❞✳ ▲❡ s②stè♠❡ ❡st ❞✐✈✐sé ❡♥ tr♦✐s s♦✉s✲s②stè♠❡s ✿ ✲▲✬❡st✐♠❛t✐♦♥ ❞❡s ✈♦✐❡s ❢❡rré❡s ✿ ❝❡ s♦✉s✲s②stè♠❡ ❢❛✐t ✉♥❡ ♣ré❞✐❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❢❡rré❡✳ P♦✉r ② ❛rr✐✈❡r✱ ✐❧ r❡ç♦✐t ❞✐✛ér❡♥ts t②♣❡s ❞✬✐♥❢♦r♠❛t✐♦♥s ❝♦♠♠❡ ❧❛ ♣♦s✐t✐♦♥ ❞✉ tr❛✐♥ ❡t ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ ❧❛ ✈♦✐❡ ❞✬✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s à ♣❛rt✐r ❞❡sq✉❡❧❧❡s ✐❧ ré❛❧✐s❡ ✉♥❡ ✐♠❛❣❡ ❛rt✐✜❝✐❡❧❧❡ ❞❡ ❧❛ ✈♦✐❡ ♣♦✉r ❢❛✐r❡ ✉♥❡ ❝♦♠♣❛r❛✐s♦♥ ❛✈❡❝ ❧❛ ✈♦✐❡ ❞ét❡❝té❡ ♣❛r ❧❡ s②stè♠❡ ❞❡ ✈✐s✐♦♥✳ ▲✬❡①tr❛❝t✐♦♥ ❞❡s r❛✐❧s ❡st ❡✛❡❝t✉é❡ à ♣❛rt✐r ❞❡ ❧❛ ❝❛♠ér❛ ✐♥❢r❛r♦✉❣❡ ❞♦♥❝✱ à ❝❛✉s❡ ❞❡s ❝❤❛♥❣❡♠❡♥ts ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡s r❛✐❧s ❡♥tr❡ ❧❡s ✐♠❛❣❡s ♥✉✐t✴❥♦✉r✱ ❞❡✉① ❡①tr❛❝t✐♦♥s ❞❡ ❧❛ ✈♦✐❡ s♦♥t ♥é❝❡ss❛✐r❡s ✿ ❧❡s r❛✐❧s ❛♣♣❛r❛✐ss❡♥t s♦♠❜r❡s ❡♥ ✈✐s✐♦♥ ❞✐✉r♥❡ ❡t ❝❧❛✐rs ❡♥ ✈✐s✐♦♥ ♥♦❝t✉r♥❡✳ P♦✉r ❞ét❡r♠✐♥❡r ❧❛ ♣rés❡♥❝❡ ❞❡s r❛✐❧s✱ ❧✬ét✉❞❡ ♣❛rt ❞❡ ❧❛ ❝♦♥s✐❞ér❛t✐♦♥ q✉✬✐❧s s♦♥t t♦✉❥♦✉rs ❝♦♥t✐♥✉s ❞❛♥s ❧❛ ❞✐r❡❝t✐♦♥ ✈❡rt✐❝❛❧❡ ❞❡ ❧✬✐♠❛❣❡✱ ❞♦♥❝ ✐❧ ❡st ♥é❝❡ss❛✐r❡ ❞✬❡①tr❛✐r❡ ❧❛ ♠♦②❡♥♥❡ ❤♦r✐③♦♥t❛❧❡ ❛✈❡❝ ✉♥ ✜❧tr❡ ❞❡ ♠♦②❡♥♥❡ ❣❧✐ss❛♥t❡✳ ❆✈❡❝ ✉♥ s✐♠♣❧❡ s❡✉✐❧❧❛❣❡✱ ❧❡s r❛✐❧s s♦♥t ❞ét❡❝tés✳ ✲▲❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❡♥ ❝r♦✐s❡♠❡♥ts s❡ ❧✐♠✐t❡ à ❧❛ ❞ét❡❝t✐♦♥ ❞❡ tr❛✐♥s✳ ❈❡❧❧❡✲❝✐ ❡st ❛ss✉✲ ré❡ ❣râ❝❡ à ❧❛ ❣r❛♥❞❡ ❞✐✛ér❡♥❝❡ ❡♥ ✐♥t❡♥s✐té ❡♥tr❡ ❧❡ tr❛✐♥ ❡t ❧❡ ❢♦♥❞ ❞❡ ❧✬✐♠❛❣❡ ❛✈❡❝ ✉♥❡ ❝❛♠ér❛ ✐♥❢r❛r♦✉❣❡✳ ▲❛ ❞ét❡❝t✐♦♥ s❡ ré❛❧✐s❡ ❡♥ ❡①tr❛②❛♥t ❞❡s ♠♦②❡♥♥❡s ♠♦❜✐❧❡s ❧❡ ❧♦♥❣ ❞❡ ❧❛ ✈❡rt✐❝❛❧❡ ❡t ❞❡ ❧✬❤♦r✐③♦♥t❛❧❡ ❞❡ ❧✬✐♠❛❣❡✳ ❖♥ ♦❜t✐❡♥t ❞❡s ♣♦rt✐♦♥s ❞✬♦❜st❛❝❧❡s ❞♦♥t ❧❡ ❝❡♥tr❡ ❡t ❧❛ ♣♦s✐t✐♦♥ s♦♥t ❝❛❧❝✉❧és ❡t ❡♥✈♦②és ❛✉ s②stè♠❡ ❞❡ ❝♦♥trô❧❡ ❞✉ ❧❛s❡r ♣♦✉r ❧❛ ✈ér✐✜❝❛t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡✳ ✲▲❡ ♣r♦t♦t②♣❡ ❞✐s♣♦s❡ ❞✬✉♥ s②stè♠❡ ♣♦✉r ❝♦♥♥❛îtr❡ ❧❡s ♠♦✉✈❡♠❡♥ts ❞✉ tr❛✐♥ ❡t ♣❡r♠❡ttr❡ ❞❡ ❢❛✐r❡ ❧❡ r❡❝❛❧❛❣❡ ❡♥tr❡ ❧✬✐♠❛❣❡ ❞❡ ❧❛ ✈♦✐❡ ❝❛❧❝✉❧é❡ ❡t ❝❡❧❧❡ ♦❜t❡♥✉❡ à ♣❛rt✐r ❞❡ ❧❛ ❝❛♠ér❛✳ ▲❡ ❧❛s❡r ♣❡r♠❡t ❞❡ ✈ér✐✜❡r ❡♥ ♠ê♠❡ t❡♠♣s ❧❛ ❞✐st❛♥❝❡ ❞❡s ♦❜st❛❝❧❡s ❞ét❡❝tés ♣❛r ❧❛ ❝❛♠ér❛✳ ❈❡ s②stè♠❡ ❛❝t✐❢ ❡st ❝♦♠♣♦sé ❞✬✉♥ ❧❛s❡r ❡t ❞✬✉♥ ❣②r♦♠ètr❡ ♣♦✉r ♠❡s✉r❡r ❧❡s ♠♦✉✈❡♠❡♥ts ❞✉ tr❛✐♥✳ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❞❡✈❛♥t ❧❡s ✈é❤✐❝✉❧❡s ❞❡ tr❛♥s♣♦rt ❣✉✐❞és ♣❛r stéré♦s❝♦♣✐❡ ❈❡ s②stè♠❡ ❬❉♦♦③❡ ❡t ❛❧✳ ✶✾✾✽✱ ▲♦✉❛❤❞✐ ❡t ❛❧✳ ✷✵✵✷❪ ❛ été ❞é✈❡❧♦♣♣é ♣♦✉r ❧❡ ♠étr♦ ❛✉t♦♠❛t✐sé ❱❆▲ ❡♥ ✷✵✵✶✳ ❙♦♥ ♣r✐♥❝✐♣❛❧ ♦❜❥❡❝t✐❢ ❡st ❞❡ ❞ét❡❝t❡r t♦✉t ♦❜❥❡t ♣❧❛❝é ❞❡✈❛♥t ❧❛ ♣❧❛t❡❢♦r♠❡✱ q✉✐ ♣♦sé s✉r ❧❛ ✈♦✐❡✱ ❞é♣❛ss❡ ❧❡ ♣❧❛♥ ❝♦♥st✐t✉é ♣❛r ❧❡s ♣✐st❡s ❞❡ r♦✉❧❡♠❡♥t✳ P♦✉r ② ❛rr✐✈❡r✱ ❧❡ s②stè♠❡ ♣r♦♣♦s❡ ❞✬✉t✐❧✐s❡r ❞❡s ❝❛♣t❡✉rs ♣❛ss✐❢s✳ ▲❡ ❝❛♣t❡✉r stéré♦s❝♦♣✐q✉❡ ❡st ❝♦♠♣♦sé ❞❡ tr♦✐s ❝❛♠ér❛s ❛♥❛❧♦❣✐q✉❡s ❞❡ 752 ❧✐❣♥❡s ♣❛r 582 ❝♦✲ ❧♦♥♥❡s✳ ▲✬❡♥tr❡✲❛①❡ ❞❡ 0.4 m ❛ été ❝❤♦✐s✐ ♣♦✉r ♠✐♥✐♠✐s❡r ❧✬❡rr❡✉r ❞❡ ❧♦❝❛❧✐s❛t✐♦♥ à ✉♥❡ ❞✐st❛♥❝❡ ❞❡ 70 m✳ ▲❡s ✈❛❧❡✉rs ❞❡ ❧❛ ❢♦❝❛❧❡ ❡t ❞❡ ❧✬❛♥❣❧❡ ❞✬✐♥❝❧✐♥❛✐s♦♥ ❞❡s ❝❛♠ér❛s s♦♥t ❞✐✛ér❡♥t❡s ♣♦✉r ❧❛ ❝❛♠ér❛ ❝❡♥tr❛❧❡ ❡t ❧❡ stéré♦s❝♦♣❡✳ ❉❡✉① ❛♣♣r♦❝❤❡s s♦♥t ♣rés❡♥té❡s ✿ à ♣❛rt✐r ❞✉ ♠♦✉✈❡♠❡♥t r❡❧❛t✐❢ ❞❡ ❧✬♦❜st❛❝❧❡ ♣❛r r❛♣♣♦rt ❛✉ tr❛✐♥ ✭❊❣♦ ♠♦t✐♦♥✮ ❡t à ♣❛rt✐r ❞❡ ❧❛ ♠✐s❡ ❡♥ ❝♦rr❡s♣♦♥❞❛♥❝❡ stéré♦s❝♦♣✐q✉❡✳ ❈♦♠♠❡ ❧❛ ♠✐s❡ ❡♥ ❝♦rr❡s♣♦♥✲ ❞❛♥❝❡ ❡st ✉♥❡ ♦♣ér❛t✐♦♥ très ❝♦♠♣❧❡①❡ q✉✐ ♥é❝❡ss✐t❡ ✉♥ ♥♦♠❜r❡ é❧❡✈é ❞✬♦♣ér❛t✐♦♥s ❛r✐t❤♠ét✐q✉❡s✱ ✐❧ ❡st ♣r♦♣♦sé ❞✬✉t✐❧✐s❡r s❡✉❧❡♠❡♥t ✉♥❡ ❧✐❣♥❡ ♣❛r ✐♠❛❣❡ ♠❛tr✐❝✐❡❧❧❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✳ ❈❡tt❡ ❧✐❣♥❡ ❝♦rr❡s♣♦♥❞ à ✉♥❡ ❞r♦✐t❡ ❞❡ s✉r✈❡✐❧❧❛♥❝❡ ❞ét❡r♠✐♥é❡ à ❧❛ ❞✐st❛♥❝❡ ♠✐♥✐♠❛❧❡ ❞✬❛rrêt✳ ▲❡ s②stè♠❡ ❛ ❜❡s♦✐♥ ❞✬✉♥ ét❛❧♦♥♥❛❣❡ ♣♦✉r s✬❛ss✉r❡r q✉❡ ❧❛ ❧✐❣♥❡ ❝❤♦✐s✐❡ ❞❡ ❝❤❛q✉❡ ❝❛♠ér❛ ❝♦rr❡s♣♦♥❞❡ ❜✐❡♥ ❛✉ ♠ê♠❡ ♣♦✐♥t✳ ▲❛ ♣r♦❝é❞✉r❡ ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❞❛♥s ❧✬❡♥tr❡✈♦✐❡ ❡st ❜❛sé❡ s✉r ✉♥ tr❛✐t❡♠❡♥t ❞❡s ❣r❛❞✐❡♥ts ❞❡s ❞❡✉① ❧✐❣♥❡s ❞❡s ✐♠❛❣❡s ❣❛✉❝❤❡ ❡t ❞r♦✐t❡✱ ♣❡r♠❡tt❛♥t ❧✬✐❞❡♥t✐✜❝❛t✐♦♥ ❞✬✉♥ ♥♦♠❜r❡ ❞❡ ♣♦✐♥ts ❞✬✐♥térêt ❝♦rr❡s♣♦♥❞❛♥t ❛✉① ❜♦r❞s ❞❡s ♦❜❥❡ts ❣râ❝❡ à ✉♥ s❡✉✐❧❧❛❣❡✳ ❯♥ rés❡❛✉ ❞❡ ♥❡✉r♦♥❡s ❞❡ t②♣❡ ❍♦♣✜❡❧❞ ♣❡r♠❡t ❡♥s✉✐t❡ ❞✬❛♣♣❛r✐❡r ❧❡s ♣♦✐♥ts ❞✬✐♥térêt r❡t❡♥✉s ❬❍❛②❦✐♥ ✶✾✾✹❪✳ ▲❡ s②stè♠❡ ré❛❧✐s❡ ❛✉ss✐ ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❡t ❧❡ s✉✐✈✐ ❞❡s ♣✐st❡s ❡♥ ✉t✐❧✐s❛♥t ❧❛ ♠ét❤♦❞❡ ❞❡s ❝♦♥t♦✉rs ❛❝t✐❢s ❬❑❛ss ❡t ❛❧✳ ✶✾✽✽❪ ♣✉✐sq✉❡ ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡s ♣✐st❡s s♦♥t ❝♦♥♥✉❡s✳ ❊♥ ❝♦♥séq✉❡♥❝❡✱ ❧❡✶✽ ❈❤❛♣✐tr❡ ✷✳ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ ♠♦❞è❧❡ r❡st❡ s✐♠♣❧❡ ❡t ❝♦♠♣❛t✐❜❧❡ ❛✈❡❝ ❧✬❛s♣❡❝t t❡♠♣s ré❡❧ r❡q✉✐s✳ ▲❡ ♣r♦❝é❞é ❛ été ✈❛❧✐❞é ❛✈❡❝ ❞❡s ❡①♣ér✐♠❡♥t❛t✐♦♥s ❞❛♥s ❧❡sq✉❡❧❧❡s ✜❣✉r❛✐❡♥t ❞✐✛ér❡♥ts t②♣❡s ❞✬♦❜st❛❝❧❡s ❡♥tr❡ ❧❡s ✈♦✐❡s✳ ▲❡ rés✉❧t❛t ❞❡s t❡sts ❡✛❡❝t✉és ❛✈❡❝ ❞✐✛ér❡♥ts ♦❜❥❡ts✱ ❡st ✉♥❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s à ✉♥❡ ❞✐st❛♥❝❡ ❞✬❡♥✈✐r♦♥ 30m ❛✈❡❝ ✉♥❡ ✈✐t❡ss❡ ❞❡ 25 km/h✳ ❱é❤✐❝✉❧❡ éq✉✐♣é ❞✬✉♥ s②stè♠❡ ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❈❡ ♣r♦❥❡t ❬❙❛s❛❦✐ ❡t ❛❧✳ ✶✾✾✾❪ ❞✐s♣♦s❡ ❝♦♠♠❡ ❤❛r❞✇❛r❡ ❞❡ tr♦✐s ❝❛♠ér❛s ❈❈❉ ❡t ❞✬✉♥ s②stè♠❡ ❞❡ ❧❛♠♣❡s ♣♦✉r é❝❧❛✐r❡r ❧❛ ✈♦✐❡✳ ▲❛ ❝♦♥✜❣✉r❛t✐♦♥ ❞❡s ❝❛♠ér❛s ♣❡r♠❡t ❞✬❛✈♦✐r ❞❡s ❞✐st❛♥❝❡s ❞❡ ✈✉❡ ♠❛①✐♠❛❧❡s ❞❡ ✶✵✵✱ ✷✵✵ ❡t ✹✵✵ ♠ètr❡s✳ ▲❡ s②stè♠❡ ❝❤❛♥❣❡ ❞❡ ❝❛♠ér❛ s❡❧♦♥ ❧❡s ❝♦♥❞✐t✐♦♥s ❞❡ ✈✐s✐❜✐❧✐té✱ ❞❡ ❧❛ ✈✐t❡ss❡ ❞✉ tr❛✐♥ ❡t ❞❡ ❧❛ ❢♦r♠❡ ❞❡ ❧❛ ✈♦✐❡✳ ❉❡ ♣❧✉s✱ ❧❡ s②stè♠❡ r❡ç♦✐t ❞❡s ✐♥❢♦r♠❛t✐♦♥s ❝♦♠♠❡ ❧❛ ✈✐t❡ss❡ ❡t ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❞✉ tr❛✐♥ ♣♦✉r ♣♦✉✈♦✐r s②♥❝❤r♦♥✐s❡r ❧❡s ❜❛s❡s ❞❡ ❞♦♥♥é❡s ❞❡ ❧❛ ✈♦✐❡ ❡t ❞❡ ❧✬éq✉✐♣❡♠❡♥t✳ ▲❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❡st ❜❛sé❡ s✉r ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡s ♠♦t✐❢s à ♣❛rt✐r ❞❡s ✐♠❛❣❡s ✭P❛tt❡r♥ ♠❛t❝❤✐♥❣✮ ❬❲❡✐♥❡r ✶✾✼✸❪✳ P♦✉r é✈✐t❡r ❞❡ ❝♦♥❢♦♥❞r❡ ❧❡s éq✉✐♣❡♠❡♥ts ❞❡ ✈♦✐❡ ❛✈❡❝ ❞❡s ♦❜st❛❝❧❡s✱ ✐❧ ❡①✐st❡ ✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❛✈❡❝ ❞❡s é❝❤❛♥t✐❧❧♦♥s ✭t❡♠♣❧❛t❡s✮ ❞❡ ❧✬éq✉✐♣❡♠❡♥t✳ ❆✈❛♥t ❞❡ ❞é❝✐❞❡r s✬✐❧ s✬❛❣✐t ❞✬✉♥ ♦❜st❛❝❧❡ ♦✉ ♥♦♥✱ tr♦✐s ❛s♣❡❝ts s♦♥t à ✈ér✐✜❡r ✿ s❛ ❧♦❝❛❧✐s❛t✐♦♥✱ s❛ ♣♦s✐t✐♦♥ ♣❛r r❛♣♣♦rt ❛✉① r❛✐❧s ❡t s❛ s✐❣♥❛t✉r❡ ✭❝❛r❛❝tér✐st✐q✉❡s ❡①tr❛✐t❡s ❞❡ ❧✬✐♠❛❣❡✮✳ ▲❛ ✜❣✉r❡ ❄❄ t✐ré❡ ❞❡ ❬❙❛s❛❦✐ ❡t ❛❧✳ ✶✾✾✾❪✱ ♠♦♥tr❡ ✉♥ s❝❤é♠❛ ❞❡ t♦✉s ❧❡s s②stè♠❡s q✉✐ ❝♦♦♣èr❡♥t✳ ❋✐❣✉r❡ ✷✳✶ ✕ ❈♦♠❜✐♥❛✐s♦♥ ❞❡s s②stè♠❡s ♣♦✉r ❛❜♦✉t✐r ❛✉ s②stè♠❡ ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✳ ❉ét❡r♠✐♥❛t✐♦♥ ❞✬✉♥❡ ③♦♥❡ ❧✐❜r❡ ❞✬♦❜st❛❝❧❡s ♣♦✉r ❧❡s tr❛✐♥s ❞❡ ♠❛✐♥t❡♥❛♥❝❡ ❉❛♥s ❝❡tt❡ ét✉❞❡ ❞❡ ✷✵✶✵ ❬▼❛✐r❡ ✫ ❇✐❣❞❡❧✐ ✷✵✶✵❪✱ ▼❛✐r❡ ♥♦✉s ♣r♦♣♦s❡ ✉♥❡ ❛♣♣r♦❝❤❡ ❜❛sé❡ s✉r ❧❛ ❣é♦♠étr✐❡ ❞❡s ✈♦✐❡s ❢❡rré❡s✱♠❛✐s à ♣❛rt✐r ❞❡ ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡s ✐♠❛❣❡s ♦❜t❡♥✉❡s ❣râ❝❡ à ❧❛ tr❛♥s❢♦r♠é❡ ✈✉❡ à ✈♦❧ ❞✬♦✐s❡❛✉ ✭❡♥ ❛♥❣❧❛✐s ❇✐r❞ ❊②❡s✬ ❱✐❡✇✮ ❝♦♠♠❡ ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✷✳✷✳ ❈❡tt❡ tr❛♥s❢♦r♠❛t✐♦♥ ❡st ♣♦ss✐❜❧❡ ❣râ❝❡ à ❧✬ét❛❧♦♥♥❛❣❡ ❞❡ ❧❛ ❝❛♠ér❛ ❡t ❧❛ ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡ ❧✬❤②♣♦✲ t❤ès❡ ❞✉ ♠♦♥❞❡ ♣❧❛t✳ ▲❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ❡st ❢❛✐t❡ ❛✈❡❝ ❧❛ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤ ❬❇❛❧❧❛r❞ ✶✾✽✶❪✳ P♦✉r ❧✐♠✐t❡r ❧❛ ❝❤❛r❣❡ ❞❡ ❝❛❧❝✉❧✱ ❧✬✐♠❛❣❡ ♦r✐❣✐♥❛❧❡ ❡st ♣ré❛❧❛❜❧❡♠❡♥t ❧✐♠✐té❡ ❛✉① ❝♦♥t♦✉rs ❞❡s ♦❜❥❡ts ♣✉✐s ❜✐♥❛r✐sé❡✳ ▲❡ s②stè♠❡ ❞é✈❡❧♦♣♣é ♥✬❡st ♣❛s t❡♠♣s✲ré❡❧✱ ❡t ❧✬❛♥❛❧②s❡ ❞❡s ✐♠❛❣❡s ❡st ❢❛✐t❡ ❛ ♣♦st❡r✐♦r✐✳ ❈♦♠♠❡ ❧❡ s②stè♠❡ ✉t✐❧✐s❡ ❞❡s séq✉❡♥❝❡s ❞✬❡①tér✐❡✉r✱ ❧❛ ❧✉♠✐♥♦s✐té ♣❡✉t ✈❛r✐❡r ❡t ♣❛r ❝♦♥séq✉❡♥t✱ ♣♦✉r ❞ét❡r✲ ♠✐♥❡r ❧❡ s❡✉✐❧❧❛❣❡ ❈❛♥♥②✱ ✐❧ ❡st ♥é❝❡ss❛✐r❡ ❞✬✐♥❞✐q✉❡r ❧❛ ♣rés❡♥❝❡ ❞✉ r❛✐❧ ❞❛♥s ❧✬✐♠❛❣❡ ♣♦✉r ❛❞❛♣t❡r✷✳✷✳ ❈❤♦✐① ❞✉ ❝❛♣t❡✉r ✶✾ ❧❛ ✈❛❧❡✉r ❞✉ s❡✉✐❧❧❛❣❡✳ ▲❡ ❝❤♦✐① ❞❡s r❛✐❧s ❡st ❢❛✐t ❛✈❡❝ ❧✬❛✐❞❡ ❞✬✉♥ ♦♣ér❛t❡✉r ❡t ❧❡ s②stè♠❡ ❝❤♦✐s✐t ❧❡s tr❛♥s❢♦r♠é❡s ❞❡ ❍♦✉❣❤ ❧❡s ♣❧✉s ♣r♦❝❤❡s ❞❡ ❧❛ ♣♦s✐t✐♦♥ ✐♥❞✐q✉é❡ ♣❛r ❧✬♦♣ér❛t❡✉r✳ P❛r r❛♣♣♦rt à ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✱ ▲❡ s②stè♠❡ ❞ét❡r♠✐♥❡ q✉❡ ❧❛ ✈♦✐❡ ❡st ❧✐❜r❡ t❛♥t q✉❡ ❧❡s ❣r❛❞✐❡♥ts ❞❡ ❈❛♥♥② ❡♥tr❡✲✈♦✐❡s s♦♥t ♣❡r♣❡♥❞✐❝✉❧❛✐r❡ ❛✉① r❛✐❧s✱ ❝✬❡st✲à✲❞✐r❡✱ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s tr❛✈❡rs❡s✳ ✭❛✮ ■♠❛❣❡ ❞✬♦r✐❣✐♥❡ ✭❜✮ ■♠❛❣❡ tr❛♥s❢♦r♠é❡ ❡t ❡①tr❛❝t✐♦♥ ❞❡s r❛✐❧s ré❛❧✐sé❡ ♠❛rq✉é❡ ❡♥ r♦✉❣❡ ❡t ❜❧❡✉ ❋✐❣✉r❡ ✷✳✷ ✕ ❚r❛♥s❢♦r♠é❡ ❡♥ ✈✉❡ ❞❡ ✈♦❧ ❞✬♦✐s❡❛✉ ❡t ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ✷✳✷ ❈❤♦✐① ❞✉ ❝❛♣t❡✉r ❊♥ ❝❡ q✉✐ ❝♦♥❝❡r♥❡ ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❡t ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s s✉r ❧❛ ✈♦✐❡ ❢❡rré❡✱ ♥♦✉s ❛✈♦♥s ♣✉ ✈♦✐r ❞❛♥s ❧❛ s❡❝t✐♦♥ ✷✳✶ q✉✬✐❧ ❡①✐st❡ ♣❧✉s✐❡✉rs ❛♣♣r♦❝❤❡s ❛✈❡❝ ❞✐✛ér❡♥ts t②♣❡s ❞❡ ❝❛♣t❡✉rs✳ ◆♦✉s ♣♦✉✈♦♥s ❧❡s ❝❧❛ss✐✜❡r ❡♥ ❞❡✉① ❣r❛♥❞s ❣r♦✉♣❡s ✿ ❧❡s ❝❛♣t❡✉rs ♣❛ss✐❢s t❡❧s q✉❡ ❧❡s s②stè♠❡s ❞❡ ✈✐s✐♦♥ ❡t ❧❡s ❝❛♣t❡✉rs ❛❝t✐❢s t❡❧s q✉❡ ❧❡s r❛❞❛rs ❡t ❧❡s té❧é♠ètr❡s ❧❛s❡rs✳ ✷✳✷✳✶ ❈❛♣t❡✉rs ❛❝t✐❢s ▲❡s ❝❛♣t❡✉rs ❛❝t✐❢s ✐♥❝♦r♣♦r❡♥t ✉♥ é♠❡tt❡✉r✱ ❞♦♥❝ ✐❧s é♠❡tt❡♥t ❞❡ ❧✬é♥❡r❣✐❡ ♣♦✉r é❝❧❛✐r❡r ❧❛ s❝è♥❡ ❞❛♥s ❧❛ ❜❛♥❞❡ s♣❡❝tr❛❧❡ ❞✉ ré❝❡♣t❡✉r✳ ▲❡s ♣❧✉s ✉t✐❧✐sés s♦♥t ❧❡s r❛❞❛rs✱ ❧❡s té❧é♠ètr❡s ❧❛s❡rs ❡t✱ ❜❡❛✉❝♦✉♣ ♣❧✉s r❛r❡♠❡♥t✱ ❧❡s ✉❧tr❛s♦♥s q✉✐ r❡st❡♥t rés❡r✈és ❛✉① ♦❜st❛❝❧❡s ♣r♦❝❤❡s✱ ♣♦✉r ✉♥ ❝♦♥t❡①t❡ ♣❛r❦✐♥❣ ♣❛r ❡①❡♠♣❧❡✳ ◆♦✉s ♥✬ét✉❞✐❡r♦♥s ♣❛s ❧❡s ❝❛♣t❡✉rs ❛❝t✐❢s ❡♥ ❞ét❛✐❧ ✐❝✐✱ ❞❛♥s ❧❛ ♠❡s✉r❡ ♦ù ✐❧s ♥❡ s❡r♦♥t ♣❛s ✉t✐❧✐sés ❞❛♥s ❧❡ s②stè♠❡ ❞é✈❡❧♦♣♣é✱ ♣❛r ❝♦♥tr❡ ♥♦✉s ❛♥❛❧②s♦♥s ❧❡s ♣r✐♥❝✐♣❛❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ tr♦✐s ❝❛♣t❡✉rs ❛❝t✐❢s✱ ❧❡✉rs ❝❛♣❛❝✐tés ❡t ❞é❢❛✐❧❧❛♥❝❡s ♣♦✉r ❧❡ s②stè♠❡ q✉❡ ♥♦✉s ❝❤❡r❝❤♦♥s à ❞é✈❡❧♦♣♣❡r✳ ✕ ❘❛❞❛r ✿ ▲❡s r❛❞❛rs s♦♥t ✉t✐❧✐sés ❡♥ ♣❛rt✐❝✉❧✐❡r ❞❛♥s ❧❡s s②stè♠❡s ❞✬❛♥t✐✲❝♦❧❧✐s✐♦♥ ❡t ❧❡s s②stè♠❡s ❞❡ ❝♦♥trô❧❡ ❞❡ ✈✐t❡ss❡ ❛❞❛♣t❛t✐❢s ✭❆❞❛♣t❛t✐✈❡ ❈r✉✐s❡ ❈♦♥tr♦❧✱ ❆❈❈✮ ❝♦♠♠❡r❝✐❛❧✐sés ❞❡♣✉✐s ✶✾✾✾ ♣♦✉r ❧❡s ✈♦✐t✉r❡s✳ ▲✬❛✈❛♥t❛❣❡ ❞✬✉♥ r❛❞❛r rés✐❞❡ ❞❛♥s s❛ ❣r❛♥❞❡ ♣♦rté❡ ✭♣❧✉s✐❡✉rs ❞✐③❛✐♥❡s ✈♦✐r❡ ❝❡♥t❛✐♥❡s ❞❡ ♠ètr❡s✮ ❡t s♦♥ ✐♥❞é♣❡♥❞❛♥❝❡ ❢❛❝❡ ❛✉① ❝♦♥❞✐t✐♦♥s ♠été♦r♦❧♦❣✐q✉❡s ❝♦♠♠❡ ❧❛ ♣❧✉✐❡ ♦✉ ❧❛ ♥❡✐❣❡ ❬❍❛♥❝♦❝❦ ❡t ❛❧✳ ✶✾✾✽❪✳ ❙❛ ♣ré❝✐s✐♦♥ ♣❡✉t êtr❡ ét❛❜❧✐❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ ❧✬❛♥t❡♥♥❡✳ ❈❡♣❡♥❞❛♥t✱ ❧❡ r❛❞❛r ♣rés❡♥t❡ ✉♥ ❝❡rt❛✐♥ ♥♦♠❜r❡ ❞❡ ❧✐♠✐t❛t✐♦♥s✳ ❚♦✉t ❞✬❛❜♦r❞✱ ✐❧ ❡st très s❡♥s✐❜❧❡ ❛✉① ♣❡♥t❡s ❡t ❛✉① ✈✐r❛❣❡s ❡t ✐❧ ❛ ❞❡s ❞✐✣❝✉❧tés à ❞ét❡❝t❡r ❧❡s ♣❡t✐ts ♦❜st❛❝❧❡s✳ ❊t s✉rt♦✉t✱ ❧✬✉t✐❧✐s❛t✐♦♥ ❞✉ r❛❞❛r ♣♦s❡ ❧❡ ♣r♦❜❧è♠❡ ❞❡s ✐♥t❡r❢ér❡♥❝❡s é❧❡❝tr♦♠❛❣♥ét✐q✉❡s ❡♥tr❡ ♣❧✉s✐❡✉rs ✈é❤✐❝✉❧❡s ❧♦rs ❞❡ ❝r♦✐s❡♠❡♥ts ❞❛♥s ❧❛ ✈♦✐❡✳ ❉✬❛✉tr❡ ♣❛rt✱ ❧✬ét✉❞❡ ❞❡ ❞♦♥♥é❡s r❛❞❛r ❧❛✐ss❡ ❛♣♣❛r❛îtr❡ ❞❡ ♥♦♠❜r❡✉① é❝❤♦s ♣❛r❛s✐t❡s ❞❛♥s ❧❛ ❝❤❛✉ssé❡ ♦✉ s✉r ❧❡s ❜♦r❞s ❞❡ r♦✉t❡✳ P♦✉r é✈✐t❡r q✉❡ ❝❡❧❛ ♥❡ ♣r♦✈♦q✉❡ ✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡✷✵ ❈❤❛♣✐tr❡ ✷✳ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ ❢❛✉ss❡s ❞ét❡❝t✐♦♥s✱ ❧❡s ♦❜❥❡ts ✐♠♠♦❜✐❧❡s s♦♥t ❣é♥ér❛❧❡♠❡♥t ✜❧trés ❡♥ ❝♦♠♣❛r❛♥t ❧❛ ♠❡s✉r❡ ❞❡ ❧❡✉r ✈✐t❡ss❡ à ❧❛ ✈✐t❡ss❡ ❞✉ ✈é❤✐❝✉❧❡ éq✉✐♣é ❬P❡rr♦❧❧❛③ ✷✵✵✽❪✳ ✕ ❚é❧é♠ètr❡ ▲❛s❡r ✿ ▲❡s ❧❛s❡rs ❢♦♥❝t✐♦♥♥❡♥t s✉r ❧❡ ♠ê♠❡ ♣r✐♥❝✐♣❡ q✉❡ ❧❡s r❛❞❛rs✱ ♠❛✐s ✉t✐❧✐s❡♥t ✉♥ ❢❛✐s❝❡❛✉ ❧✉♠✐♥❡✉①✳ ■❧s s♦♥t très ✉t✐❧✐sés ❞❛♥s ❧❡s ❞♦♠❛✐♥❡s ❞❡ ❧❛ r♦❜♦t✐q✉❡ ♣♦✉r ❧❛ ♥❛✈✐❣❛t✐♦♥ ❡t ❝❛rt♦❣r❛♣❤✐❡ ❞❡s r♦❜♦ts ❡♥ t❡rr❛✐♥ ✐♥❝♦♥♥✉ ❬❙t❡✉① ✫ ❊❧ ❍❛♠③❛♦✉✐ ✷✵✶✵❪✳ ▲❛ té❧é♠étr✐❡ ❧❛s❡r ❛rr✐✈❡ à ❞ét❡❝t❡r ❧❡s ♦❜st❛❝❧❡s ❡t à ❝♦♥♥❛îtr❡ ❧❡✉rs ❞✐st❛♥❝❡s ❬❊s♣✐♥♦ ❡t ❛❧✳ ✷✵✶✶❪✳ ▲❛ ❞ét❡❝t✐♦♥ ❡st ♣♦ss✐❜❧❡ s✉r t♦✉t t②♣❡ ❞✬♦❜❥❡ts✱ ♠ét❛❧❧✐q✉❡s ♦✉ ♥♦♥✱ ♠❛✐s ❧❡s ♦❜❥❡ts s♦♠❜r❡s ♣♦s❡♥t ❞❡s ♣r♦❜❧è♠❡s✱ ❞❡ ♠ê♠❡ q✉❡ ❧❡s s✉r❢❛❝❡s tr❛♥s♣❛r❡♥t❡s q✉✐ s♦♥t tr❛✈❡rsé❡s ♣❛r ❧❡ ❢❛✐s❝❡❛✉ ❧❛s❡r s❛♥s ré✢❡①✐♦♥✳ ▲❡ ❧❛s❡r ❡st ❧❡ ♠❡✐❧❧❡✉r ❝❛♥❞✐❞❛t ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✱ ❝❛r ✐❧ ❛ ✉♥❡ très ❜♦♥♥❡ rés♦❧✉t✐♦♥ ❡t ✉♥❡ ❜♦♥♥❡ ♣♦rté❡✱ s❛✉❢ ❡♥ ♣rés❡♥❝❡ ❞❡ ❜r♦✉✐❧❧❛r❞ ✭❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ❧♦♥❣✉❡✉r ♦♥❞❡✮✱ ❞❡ ♣❧✉✐❡ ♦✉ ❞❡ ♥❡✐❣❡✱ ❝❛r ❧❡s ❢❛✐s❝❡❛✉① s♦♥t ❞✐s♣❡rsés ❡t✴♦✉ ❛❜s♦r❜és✳ ▲❛ ♣♦✉ss✐èr❡ q✉✐ s❡ ❞é♣♦s❡ s✉r ❧❡s ❧❡♥t✐❧❧❡s ❢r♦♥t❛❧❡s ❡st s♦✉r❝❡ ❞❡ ♣r♦❜❧è♠❡s s✉rt♦✉t ❞❛♥s ✉♥ ❡♥✈✐r♦♥♥❡♠❡♥t ❢❡rr♦✈✐❛✐r❡ ✭❜❛❧❧❛st✱ t✉♥♥❡❧s✱ ❡t❝✳✮ ❡t ♣♦s❡ ❞❡s ❝♦♥tr❛✐♥t❡s ❞❡ ♠❛✐♥t❡♥❛♥❝❡✳ ❉❡ ♣❧✉s✱ ❧❡ ❧❛s❡r ❛ ✉♥❡ ❢❛✐❜❧❡ rés✐st❛♥❝❡ ❛✉① ❝❤♦❝s✳ ✕ ❙♦♥❛r ✿ ▲❡ s♦♥❛r ❡st très ❧✐♠✐té ❡♥ ♣♦rté❡ ✭❡♥✈✐r♦♥ ✷ ♠✮✱ ❡♥ ✈✐t❡ss❡ ❡t ❡♥ rés✐st❛♥❝❡ à ❧✬❡♥✈✐✲ r♦♥♥❡♠❡♥t✳ ■❧ ❡st s❡♥s✐❜❧❡ à ❧❛ t❡♠♣ér❛t✉r❡ ❡t à ❧❛ ♣r❡ss✐♦♥ ❡t é❣❛❧❡♠❡♥t ❛✉① ❛✉tr❡s s②stè♠❡s ✉t✐❧✐s❛♥t ❧❛ ♠ê♠❡ ❢réq✉❡♥❝❡ ✭❧♦rs ❞❡s ❝r♦✐s❡♠❡♥ts ❡♥tr❡ tr❛✐♥s✮✳ P❛r ❝♦♥séq✉❡♥t✱ s♦♥ ✉t✐❧✐s❛t✐♦♥ ❡st r❡str❡✐♥t❡✱ s❡ ❧✐♠✐t❛♥t ♣r✐♥❝✐♣❛❧❡♠❡♥t à ❧✬❛✐❞❡ ❛✉ st❛t✐♦♥♥❡♠❡♥t✳ ❉❛♥s ❧❡ ❞♦♠❛✐♥❡ ❢❡rr♦✲ ✈✐❛✐r❡ ✐❧ ❢❛✉t ❛❥♦✉t❡r q✉❡ ❧❡s ♠étr♦s ❣é♥èr❡♥t ❞❡s ✉❧tr❛s♦♥s ❡♥ ♣r♦✈❡♥❛♥❝❡ ❞❡s ♠♦t❡✉rs ❡t ❞❡s ❢r❡✐♥s✱ ❝❡ q✉✐ r❡♥❞ ❞✐✣❝✐❧❡ ❧✬✉s❛❣❡ ❞❡s ✉❧tr❛s♦♥s ❝♦♠♠❡ ♣♦ss✐❜❧❡s ❝❛♣t❡✉rs à ❡①♣❧♦✐t❡r✳ ✷✳✷✳✷ ❈❛♣t❡✉rs ♣❛ss✐❢s ❯♥ ❝❛♣t❡✉r ♣❛ss✐❢ ❡st ✉♥ ❝❛♣t❡✉r q✉✐ r❡ç♦✐t ❞❡ ❧✬é♥❡r❣✐❡ é♠✐s❡ s❛♥s q✉❡ ❧✉✐✲♠ê♠❡ ♥✬✐rr❛❞✐❡ ❧❛ s❝è♥❡✳ ❈❡s ❝❛♣t❡✉rs✱ ❞❛♥s ❧❡ ♠♦♥❞❡ ❞❡ ❧❛ r♦❜♦t✐q✉❡✱ s♦♥t ♠❛❥♦r✐t❛✐r❡♠❡♥t ❞❡s ❝❛♠ér❛s✳ ❉❡✉① ❛♣♣r♦❝❤❡s s♦♥t ❛❧♦rs ♣♦ss✐❜❧❡s ✿ ❧✬✉t✐❧✐s❛t✐♦♥ ❞✬✉♥❡ s❡✉❧❡ ❝❛♠ér❛ ♦✉ ❧✬❡①♣❧♦✐t❛t✐♦♥ ❞❡ ♣❧✉s✐❡✉rs ♣♦✐♥ts ❞❡ ✈✉❡ ❛✈❡❝ ♣❧✉s✐❡✉rs ❝❛♠ér❛s r❡❧✐é❡s ❞❡ ♠❛♥✐èr❡ r✐❣✐❞❡ s✉r ❧❡ ✈é❤✐❝✉❧❡✳ ❉❛♥s ♥♦tr❡ ❝❛s✱ ❛♣rès ❛✈♦✐r ❢❛✐t ✉♥❡ ❛♥❛❧②s❡ ❞❡s ❛✈❛♥t❛❣❡s ❡t ✐♥❝♦♥✈é♥✐❡♥ts ❞❡s ♣r✐♥❝✐♣❛✉① ❝❛♣✲ t❡✉rs ❛❝t✐❢s✱ ❞❡s ❜❡s♦✐♥s ❡t ❝♦♥tr❛✐♥t❡s ❞✬❡①♣❧♦✐t❛t✐♦♥ ❢❡rr♦✈✐❛✐r❡ ❡t ❞❡s ❝♦ûts✱ ♥♦✉s ❛✈♦♥s ❝❤♦✐s✐ ❞✬✉t✐❧✐s❡r ✉♥❡ s❡✉❧❡ ❝❛♠ér❛ ❝♦✉❧❡✉r ❞❛♥s ❧❡ s♣❡❝tr❡ ✈✐s✐❜❧❡✳ ❊♥ ♦✉tr❡✱ ♥♦✉s ❛✈♦♥s ❝❤♦✐s✐ ✉♥❡ ❝❛♠ér❛ ❝♦✉❧❡r ❝❛r✱ ✐❧ ❡st ❡♥✈✐s❛❣❡❛❜❧❡ q✉❡ ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡s ❝❛♠ér❛s ❝♦♥t✐♥✉❡ à s❡ ré♣❛♥❞r❡ ❞❡ ♣❧✉s ❡♥ ♣❧✉s s✉r ❧❡s tr❛✐♥s ♣♦✉r ❞✬❛✉tr❡s ❛♣♣❧✐❝❛t✐♦♥s ❢❡rr♦✈✐❛✐r❡s ❝♦♠♠❡ ❧❛ té❧é✲❝♦♥❞✉✐t❡✱ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❢❡✉① ❞❡ s✐❣♥❛❧✐s❛t✐♦♥✱ ❧❛ ✈✐❞é♦ s✉r✈❡✐❧❧❛♥❝❡ ❞❡s ♣❛ss❛❣❡s à ♥✐✈❡❛✉✱ ❡t❝✳ ▲❡ ❝❤♦✐① ❞✬✉♥ ❝❛♣t❡✉r ❞❡ ✈✐s✐♦♥ ❡st ♠♦t✐✈é ♣❛r ♣❧✉s✐❡✉rs r❛✐s♦♥s✳ ❚♦✉t ❞✬❛❜♦r❞✱ ✐❧ ♣❡r♠❡t ✉♥❡ ♣❡r❝❡♣t✐♦♥ ❣❧♦❜❛❧❡ ❞❡ ❧❛ s❝è♥❡✱ ét❛♥t ❧❡ s❡✉❧ ❝❛♣t❡✉r ❝❛♣❛❜❧❡ ❞❡ ❢♦✉r♥✐r ❞❡s ✐♥❢♦r♠❛t✐♦♥s à ❧❛ ❢♦✐s s✉r ❧❛ ✈♦✐❡ ❢❡rré❡ ❝♦✉r❛♥t❡✱ ❝♦♠♠❡ ❧❡s ♣❛♥♥❡❛✉① ❡t ❧❡s ❢❡✉① ❞❡ s✐❣♥❛❧✐s❛t✐♦♥✱ ❧❡s ❛✉tr❡s ✈♦✐❡s ❞❡ ❝✐r❝✉❧❛t✐♦♥ ❡t ❧❡s ♦❜st❛❝❧❡s✳ ❉❡ ♣❧✉s✱ ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡ ♣❛r tr❛✐t❡♠❡♥t ❞✬✐♠❛❣❡s ❡st ♣r✐✈✐❧é❣✐é❡✱ ❝❛r s♦♥ ❞é♣❧♦✐❡♠❡♥t s✉r ❞❡s tr❛✐♥s ♥✬❛✉❣♠❡♥t❡r❛ ♣❛s ❞❡ ❢❛ç♦♥ s✐❣♥✐✜❝❛t✐✈❡ ❧❡ ❝♦ût ❣❧♦❜❛❧ ❞✉ s②stè♠❡✳ ❊♥✜♥✱ ✐❧ s✬❛❣✐t ❞✬✉♥ s②stè♠❡ ♣❡✉ ❡♥❝♦♠❜r❛♥t✱ ✐❧ ❛ ✉♥ ❝❛r❛❝tèr❡ ♥♦♥ ✐♥tr✉s✐❢ ❡t ✐❧ ❝♦♥s♦♠♠❡ r❡❧❛t✐✈❡♠❡♥t ♣❡✉ ❞✬é♥❡r❣✐❡✳ ▲❡ s②stè♠❡ ✜♥❛❧ ❞♦✐t êtr❡ ❛ss❡③ r♦❜✉st❡ ♣♦✉r s✬❛❞❛♣t❡r ❛✉① ❞✐✛ér❡♥ts ét❛ts ❡t ❝❤❛♥❣❡♠❡♥ts ❞✬❡♥✈✐r♦♥♥❡♠❡♥t✱ ❞✬é❝❧❛✐r❛❣❡✱ ❛✐♥s✐ q✉✬à ❞❡s ❝♦♥❞✐t✐♦♥s ♠été♦r♦❧♦❣✐q✉❡s ✈❛r✐❛❜❧❡s✳ ❉❡ ♣❧✉s✱ ✐❧ ❞♦✐t êtr❡ ❢♦♥❝t✐♦♥♥❡❧ ❡♥ t✉♥♥❡❧ ♦✉ à ❧✬❡①tér✐❡✉r ❡t é❣❛❧❡♠❡♥t êtr❡ ❝❛♣❛❜❧❡ ❞✬❛❝❝❡♣t❡r ❞❡s ❝❤❛♥❣❡♠❡♥ts r❛♣✐❞❡s ❞❛♥s ❧❛ ❧✉♠✐♥♦s✐té✳ ▲❛ ❞②♥❛♠✐q✉❡ ❡st ❧✬✉♥❡ ❞❡s ♣r✐♥❝✐♣❛❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❞✬✉♥ ❝❛♣t❡✉r ❞✬✐♠❛❣❡s✳ ❊❧❧❡ ❞é✜♥✐t ❡♥ q✉❡❧q✉❡ s♦rt❡ ❧❛ ♣❧❛❣❡ ❞❡ ❧✉♠✐♥♦s✐té q✉❡ ❧❡ ❝❛♣t❡✉r ♣❡✉t ♠❡s✉r❡r✳ ▲❛ ✈❛❧❡✉r ❡①♣r✐♠é❡ ❡♥ ❞❇✱ ❡st ❜❛sé❡ s✉r ❧❡ r❛♣♣♦rt ❡♥tr❡ ❧❛ ♣❧✉s ❢♦rt❡ ❡t ❧❛ ♣❧✉s ❢❛✐❜❧❡ ❧✉♠✐♥♦s✐té✳ ❯♥❡ ❝❛♠ér❛ ✈✐❞é♦ st❛♥❞❛r❞ ♥✬❡st ❝❛♣❛❜❧❡ ❞❡ ❝❛♣t✉r❡r q✉✬✉♥❡ ♣❛rt✐❡ ❞❡ ❧✬✐♥❢♦r♠❛t✐♦♥ ❝♦♥t❡♥✉❡ ❞❛♥s ✉♥❡ s❝è♥❡ ❞❡ ❣❛♠♠❡ ❞②♥❛♠✐q✉❡ é❧❡✈é❡✳ ❈❡♣❡♥❞❛♥t✱ ✉♥ ❝❛♣t❡✉r ❛✈❡❝ ✉♥❡ ❣r❛♥❞❡ ❞②♥❛♠✐q✉❡ ♣❡✉t ❛❝q✉ér✐r ❞❡s ✐♠❛❣❡s ❝♦♥t❡♥❛♥t ❞❡s✷✳✸✳ ▲❡ ❱é❤✐❝✉❧❡ ❆✉t♦♠❛t✐q✉❡ ▲é❣❡r ✿ ❱❆▲ ✷✶ ③♦♥❡s s♦♠❜r❡s ❞❡ ❧❛ ♠ê♠❡ ✐♠❛❣❡ s❛♥s êtr❡ é❜❧♦✉✐ ♣❛r ❧❛ ❢♦rt❡ ❧✉♠✐♥♦s✐té✳ ❯♥ ❝❛♣t❡✉r ❞❡ ✻✵ ❞❇✱ ♣❛r ❡①❡♠♣❧❡✱ ♣❡✉t ❛❝q✉ér✐r ❧✬✐♠❛❣❡ ❞✬✉♥❡ s❝è♥❡ ❞❛♥s ❧❛q✉❡❧❧❡ ❧❛ ❧✉♠✐♥♦s✐té ♠❛①✐♠❛❧❡ ❡st ✶✵✵✵ ❢♦✐s ♣❧✉s ❢♦rt❡ q✉❡ ❧❛ ✈❛❧❡✉r ♣❧✉s ❢❛✐❜❧❡ ✭20 × log 1000 = 60 dB✮ ▲❛ stéré♦✈✐s✐♦♥ ❛ été é❝❛rté❡✱ ❡♥ r❛✐s♦♥ ❞❡ s♦♥ ❝♦ût ❡t ❝❛r ❧❛ r❡❝♦♥str✉❝t✐♦♥ ✸❉ ❞❡ ❧❛ s❝è♥❡ ♥❡ ♥♦✉s ❛ ♣❛s s❡♠❜❧é ✐♥❞✐s♣❡♥s❛❜❧❡ ♣♦✉r ❞ét❡❝t❡r ❧❡s ♦❜st❛❝❧❡s✳ ❉❡ ♣❧✉s✱ s♦♥ ét❛❧♦♥♥❛❣❡ ❡t s♦♥ ❡♥tr❡t✐❡♥ ✐♥❞✉✐s❡♥t ✉♥ s✉r✲❝♦ût s✉♣♣❧é♠❡♥t❛✐r❡✳ ▲✬❛♣♣r♦❝❤❡ ♠♦♥♦✈✐s✐♦♥ ❝♦♥s✐st❡ ❡♥ ✉♥❡ ✐♥t❡r♣rét❛t✐♦♥ ❞❡ ❧✬✐♠❛❣❡ ❛✈❡❝ ✉♥❡ ❝♦♥♥❛✐ss❛♥❝❡ ❛ ♣r✐♦r✐ ❞❡ ❝❡ q✉✬❡st ✉♥ ♦❜st❛❝❧❡ ✭❣é♥ér❛❧❡♠❡♥t ✉♥ ✈é❤✐❝✉❧❡ ♦✉ ♣✐ét♦♥✮ ❡t ♥♦♥ ✉♥❡ r❡❝♦♥str✉❝t✐♦♥ ✸❉ ❞❡ ❧✬❡♥✈✐r♦♥♥❡♠❡♥t✳ ✷✳✸ ▲❡ ❱é❤✐❝✉❧❡ ❆✉t♦♠❛t✐q✉❡ ▲é❣❡r ✿ ❱❆▲ ❈❡tt❡ ❜rè✈❡ ❞❡s❝r✐♣t✐♦♥ ♣❡r♠❡ttr❛ ❞❡ r❡❝❡♥s❡r ❧❡s ♣r✐♥❝✐♣❛✉① s②stè♠❡s ❡t ❧✬éq✉✐♣❡♠❡♥t ❞❡s tr❛✐♥s ❱❆▲ ❡t ❝♦♠♣r❡♥❞r❡ ❧❡s ❜❡s♦✐♥s ❡t ❝♦♥tr❛✐♥t❡s ❞✉ s②stè♠❡ à ❞é✈❡❧♦♣♣❡r✳ ▲❛ ❝❛r❛❝tér✐st✐q✉❡ ♣r✐♥❝✐♣❛❧❡ ❞✉ ❱❆▲ ❡st ❞✬❛tt❡✐♥❞r❡✱ ❡♥ s✐t❡ ♣r♦♣r❡✱ ✉♥❡ ✈✐t❡ss❡ ❝♦♠♠❡r❝✐❛❧❡ ✭✈✐t❡ss❡ ♠♦②❡♥♥❡✱ ✉t✐❧❡ à ❧✬✉s❛❣❡r t❡♥❛♥t ❡♥ ❝♦♠♣t❡ ❧❛ ✈✐t❡ss❡ ❞❡ ♣♦✐♥t❡ ❡t ❧❡s ❛rrêts ❡♥ st❛t✐♦♥s✮ ❞❡ 35 km/h à ✉♥❡ ❢réq✉❡♥❝❡ é❧❡✈é❡ ✭❥✉sq✉✬à ✶ ♠✐♥✉t❡✮✳ ❙♦♥ ❣❛❜❛r✐t q✉✐ ❛✉t♦r✐s❡ ✉♥❡ ✐♥s❡rt✐♦♥ ❛✐sé❡ ❡♥ ♠✐❧✐❡✉ ✉r❜❛✐♥✱ ❛✈❡❝ ❞❡s ✈✐❛❞✉❝s étr♦✐ts✱ ❞❡s tr❛♥❝❤é❡s ❡t ❞❡s t✉♥♥❡❧s ré❞✉✐ts✳ ▲❡ r♦✉❧❡♠❡♥t s✉r ♣♥❡✉ ❛♠❡♥✉✐s❡ ❜r✉✐t ❡t ✈✐❜r❛t✐♦♥s ❡t ♣❡r♠❡t ❞❡ ❣r❛✈✐r ❞❡s ♣❡♥t❡s ❥✉sq✉✬à ✶✷ ✪ ❬❱❡r❤✐❧❧❡ ✷✵✵✼❪✳ ✷✳✸✳✶ ❈♦♠♣♦s✐t✐♦♥ ❞✬✉♥ ✈é❤✐❝✉❧❡ ▲❛ ❧♦♥❣✉❡✉r t♦t❛❧❡ ❞✉ ❱❆▲ ❡st ❞❡ 26, 14 m ♣♦✉r ✉♥❡ ❧❛r❣❡✉r ❞❡ 2, 08 m ❡t ✉♥❡ ❤❛✉t❡✉r ❞❡ 3, 275 m✳ ■❧ ❡st ❝♦♠♣♦sé ❞❡ ❞❡✉① ✈♦✐t✉r❡s ♥♦♥ s❝✐♥❞❛❜❧❡s s✉♣♣♦rté❡s ❝❤❛❝✉♥❡ ♣❛r ❞❡✉① ❡ss✐❡✉① ♠♦t❡✉rs✳ ▲❡s ✜❣✉r❡s ✷✳✸ ❡t ✷✳✹ ♠♦♥tr❡♥t ❧❡s ❞✐✛ér❡♥t❡s ❝♦t❡s ❞✉ tr❛✐♥✳ ❋✐❣✉r❡ ✷✳✸ ✕ P❧❛♥ ❞ét❛✐❧❧é ❞❡ ❧❛ ✈✉❡ ❧❛tér❛❧❡ ❞✉ ❱❆▲ ✷✵✽ ▲❡ r♦✉❧❡♠❡♥t ❞✉ ❱❆▲ ❡st ❝♦♠♣♦sé ❞❡ ❞❡✉① ❡ss✐❡✉① ♣❛r ✈♦✐t✉r❡✱ sé♣❛rés ❞❡ 10 m✱ ❞♦♥t ❧❡s r♦✉❡s ♣♦rt❡✉s❡s s♦♥t à ❡♥✈❡❧♦♣♣❡ ♣♥❡✉♠❛t✐q✉❡ ❡t r♦✉❧❡♥t s✉r ✉♥❡ ♣✐st❡ ❞❡ r♦✉❧❡♠❡♥t s♣é❝✐✜q✉❡ ❞♦♥t ❧❛ ❧❛r❣❡✉r ❡st ❛❞❛♣té❡ à ❝❡❧❧❡ ❞❡s ♣♥❡✉♠❛t✐q✉❡s✳ ❈❤❛q✉❡ ❡ss✐❡✉ s❡ ❝♦♠♣♦s❡ ❞❡ ✿ ✕ ❞❡✉① r♦✉❡s ♣♦rt❡✉s❡s✱ ✕ ✉♥ ♣♦♥t ré❞✉❝t❡✉r ❞✐✛ér❡♥t✐❡❧✱ ✕ ❞❡✉① ❞✐sq✉❡s ❞❡ ❢r❡✐♥✱ ✕ q✉❛tr❡ r♦✉❡s ❤♦r✐③♦♥t❛❧❡s ❞❡ ❣✉✐❞❛❣❡✳ ▲❡ ❣✉✐❞❛❣❡ ❡♥ ❧✐❣♥❡ ❡st ❛ss✉ré ♣❛r ❧❡s r♦✉❡s ❞❡ ❣✉✐❞❛❣❡ ♠♦♥té❡s ❛✉① q✉❛tr❡ ❡①tré♠✐tés ❞✉ ❝❛❞r❡ ❞❡ ❣✉✐❞❛❣❡✳ P♦✉r ❝❡❧❛✱ t♦✉t ❛✉ ❧♦♥❣ ❞❡ ❧❛ ♣✐st❡✱ ❡♥ ♣❧✉s ❞❡s ❞❡✉① ♣✐st❡s ❞❡ r♦✉❧❡♠❡♥t✱ ✐❧ ❡①✐st❡ ❞❡✉①✷✷ ❈❤❛♣✐tr❡ ✷✳ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ ❋✐❣✉r❡ ✷✳✹ ✕ P❧❛♥ ❞ét❛✐❧❧é ❞❡ ❧❛ ✈✉❡ ❢r♦♥t❛❧❡ ❞✉ ❱❆▲ ✷✵✽ r❛✐❧s ❞❡ ❣✉✐❞❛❣❡✳ ❊♥ ❧✬❛❜s❡♥❝❡ ❞❡s r❛✐❧s ❞❡ ❣✉✐❞❛❣❡✱ ❝❡ q✉✐ ❛rr✐✈❡ ❧♦rs ❞❡s ❝❤❛♥❣❡♠❡♥ts ❞❡ ❞✐r❡❝t✐♦♥ s✉r ❧❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ✭❛✐❣✉✐❧❧❛❣❡s✮✱ ❧❡ ❣✉✐❞❛❣❡ ❡st ❛ss✉ré ♣❛r ❞❡✉① ❣❛❧❡ts s✐t✉és ❧✬✉♥ à ❧✬❛✈❛♥t ❡t ❧✬❛✉tr❡ à ❧✬❛rr✐èr❡ ❞❡ ❝❤❛q✉❡ ❡ss✐❡✉✳ ❈❡s ❣❛❧❡ts s✬✐♥sèr❡♥t ❞❛♥s ✉♥ r❛✐❧ ❝❡♥tr❛❧ ❞❡ ❣✉✐❞❛❣❡ ❝♦♠♣♦sé ❞✬✉♥❡ ♦r♥✐èr❡ ❞❛♥s ❧✬❛①❡ ❞❡ ❧❛ ✈♦✐❡✳ ❯♥❡ ❡①♣❧✐❝❛t✐♦♥ ♣❧✉s ❞ét❛✐❧❧é❡ ❞❡s ❛✐❣✉✐❧❧❛❣❡s s❡r❛ ❡①♣♦sé❡ ❞❛♥s ❧❡ ❝❤❛♣✐tr❡ ✹✳ ✷✳✸✳✷ ❈❛r❛❝tér✐st✐q✉❡s ▲❡ tr❛❝é ❞❡ ❧❛ ✈♦✐❡ ❡st ❝♦♥st✐t✉é ❞✬✉♥❡ s✉❝❝❡ss✐♦♥ ❞✬❛❧✐❣♥❡♠❡♥ts ❞r♦✐ts ❡t ❞✬❛r❝ ❞❡ ❝❡r❝❧❡ ❞❡ r❛②♦♥ ♠✐♥✐♠✉♠ ✶✺✵ ♠ètr❡s ❡♥ ❧✐❣♥❡ ✭s❛✉❢ ❝❛s ♣❛rt✐❝✉❧✐❡r✮ ❡t ❞❡ ✹✵ ♠ètr❡s ❡♥ ③♦♥❡ ❞❡ ❣❛r❛❣❡ ❛t❡❧✐❡r✳ ▲❡ tr❛❝é ❡st ❞é✜♥✐ ❛✈❡❝ ❧❡s ❝♦♥❞✐t✐♦♥s ❞❡ ❝♦♥❢♦rt s✉✐✈❛♥t❡s ✿ ✕ ▲❡ r❛②♦♥ ❞❡ ❝♦✉r❜✉r❡ ❤♦r✐③♦♥t❛❧ ♠✐♥✐♠❛❧ s✉r ❧❛ ❧✐❣♥❡ ✭❝♦✉r❜✉r❡ ❞❡ ❧❛ ✈♦✐❡✮ ❡st ❞❡ 40 m✳ ✕ ▲❡ r❛②♦♥ ✈❡rt✐❝❛❧ ♠✐♥✐♠❛❧ s✉r ❧❛ ❧✐❣♥❡ ❡st ❞❡ 600 m ❡t ❧❛ ♣❡♥t❡ ♠❛①✐♠❛❧❡ ❞❡ 7%✳ ✕ ▲❡ ❞é✈❡rs ❞❡ ❧❛ ✈♦✐❡ ✈❛ ❞❡ 0% à 13% ❛✈❡❝ ✉♥❡ ✈❛r✐❛t✐♦♥ ❞✉ ❞é✈❡rs ♠❛①✐♠❛❧❡ ❞❡ 0, 55%/m✳ ✕ ❱❛r✐❛t✐♦♥ ♥♦r♠❛❧❡ ❞✉ ❞é✈❡rs ❁ ✹ ✪✴s ✕ ■❧ ❡①✐st❡ ❞✐✛ér❡♥ts t②♣❡s ❞✬❛✐❣✉✐❧❧❛❣❡s ✭❝♦♥✈❡r❣❡♥ts ❡t ❞✐✈❡r❣❡♥ts q✉✐ ♣❡✉✈❡♥t êtr❡ ❛ss♦❝✐és ❡♥ ✧❝÷✉r✲❝r♦✐sé✧✮ ❞♦♥t ✐❧ ❢❛✉t t❡♥✐r ❝♦♠♣t❡✳ ✕ ▲❛ ✈♦✐❡ ♣❡✉t êtr❡ ✉♥✐q✉❡ ♦✉ ❞♦✉❜❧❡✳ ❆♣rès ❛✈♦✐r ❛♥❛❧②sé ❧❡s s♣é❝✐✜❝✐tés ❢❡rr♦✈✐❛✐r❡s ❡t ❧❡ ♠étr♦ ❧é❣❡r ❱❆▲✱ s❡s ♣r✐♥❝✐♣❛❧❡s ❝❛r❛❝tér✐s✲ t✐q✉❡s ❞❡ ❢♦♥❝t✐♦♥♥❡♠❡♥t s♦♥t ❧❡s s✉✐✈❛♥t❡s ✿ ✕ ▲❛ ♣❧❛❣❡ ❞❡ ❞é❝é❧ér❛t✐♦♥ ❡♥ ❢r❡✐♥❛❣❡ ❞✬✉r❣❡♥❝❡ ❣❛r❛♥t✐❡ ❡st ❞❡ 1.8 à 2.4 m/s2 ✳ ✕ ▲❛ ♣❧❛❣❡ ❞❡ ✈✐t❡ss❡ ❞✉ ✈é❤✐❝✉❧❡ ✈❛ ❞❡ 0 à 80 km/h✳ ✕ ▲❡s ✈✐t❡ss❡s ♠♦②❡♥♥❡s ❡♥ ❡①♣❧♦✐t❛t✐♦♥ s♦♥t ❞❡ 25 km/h ❞❛♥s ❧❡s ❛ér♦♣♦rts ❡t ❞❡ 36 km/h ❞❛♥s ❧❡s ✈✐❧❧❡s✳ ✕ P♦✉r ✉♥❡ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❧❛ ✈♦✐❡ ✭❛✈❛♥t ♦✉✈❡rt✉r❡ ❞❡ ❧❛ ❧✐❣♥❡ ❧❡ ♠❛t✐♥✮ ❧❡ t♦✉r ❞❡ ❧❛ ❧✐❣♥❡ ❡st ❡✛❡❝t✉é à 10 m/s ✭36 km/h✮✳ ✕ ▲❛ ✈✐t❡ss❡ ❞❡ ❢♦♥❝t✐♦♥♥❡♠❡♥t ❡♥ ♠♦❞❡ ❞é❣r❛❞é ❡♥ ❝♦♥❞✉✐t❡ ♠❛♥✉❡❧❧❡ ❡st ❧✐♠✐té❡ à 18 km/h✳ P♦✉r ❧❡s ♥♦✉✈❡❧❧❡s ✐♥st❛❧❧❛t✐♦♥s ❝❡tt❡ ✈✐t❡ss❡ ❡st ❧✐♠✐té❡ à 8 km/h✳ ✕ ▲❡ r♦✉❧✐s ❞❡ ❧❛ ❝❛✐ss❡ ♦s❝✐❧❧❡ ❡♥tr❡ +/−3 ◦ ✱ ♠❛✐s ❡♥ ❢♦♥❝t✐♦♥♥❡♠❡♥t ♥♦r♠❛❧ ❧❛ ✈✐t❡ss❡ ❛♥❣✉❧❛✐r❡ ❞✉ r♦✉❧✐s ❡st ❧✐♠✐té❡ à < 2 ◦/s✳✷✳✸✳ ▲❡ ❱é❤✐❝✉❧❡ ❆✉t♦♠❛t✐q✉❡ ▲é❣❡r ✿ ❱❆▲ ✷✸ ✕ ▲❡ t❛♥❣❛❣❡ ❞❡ ❧❛ ❝❛✐ss❡ ♦s❝✐❧❧❡ ❡♥tr❡ +/−5 ◦ ✱ ♠❛✐s ❡♥ ❢♦♥❝t✐♦♥♥❡♠❡♥t ♥♦r♠❛❧ ❧❛ ✈✐t❡ss❡ ❛♥❣✉❧❛✐r❡ ❞✉ t❛♥❣❛❣❡ ❡st ❧✐♠✐té❡ à < 2 ◦/s✳ ✕ ▲❡ ❧❛❝❡t ❞❡ ❧❛ ❝❛✐ss❡ ♦s❝✐❧❧❡ ❡♥tr❡ +/ − 0, 2 ◦ ✳ ✷✳✸✳✸ ▼♦❞è❧❡ ❞✉ ✈é❤✐❝✉❧❡ ▲❛ ♠♦❞é❧✐s❛t✐♦♥ ❞②♥❛♠✐q✉❡ ❞✬✉♥ ✈é❤✐❝✉❧❡ ❡st ✉♥❡ ét❛♣❡ ✐♠♣♦rt❛♥t❡ ♣♦✉r ❧❛ ❝♦♥❝❡♣t✐♦♥ ❞✉ s②s✲ tè♠❡ ❞❡ ❝♦♥trô❧❡✳ ▲❛ ❞②♥❛♠✐q✉❡ ❞✬✉♥ ✈é❤✐❝✉❧❡ ❡st ✉♥ s②stè♠❡ ❝♦♠♣❧❡①❡ ❡t ❞é♣❡♥❞❛♥t ❞❡s ♥♦♠❜r❡✉① ♣❛r❛♠ètr❡s✳ ❉❡ ❢❛ç♦♥ s✐♠♣❧✐✜é❡✱ ❧❡ ♠♦❞è❧❡ ❞é♣❡♥❞ ❞❡s ❢♦r❝❡s ❝réés ❡♥tr❡ ❧❡s r♦✉❡s ❡t ❧❡ s♦❧ ❡t ❧❡s ❞✐✛ér❡♥t❡s ♣✐è❝❡s ♠é❝❛♥✐q✉❡s ❞✉ ✈é❤✐❝✉❧❡✳ ❊♥ t❡♥❛♥t ❝♦♠♣t❡ ❞✉ ❝♦♥t❡①t❡ ❞❡ ♥♦tr❡ ét✉❞❡✱ à s❛✈♦✐r ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ♣❛r ✈✐s✐♦♥ ❝❡ r❛♣♣♦rt ♥❡ ❝❤❡r❝❤❡ ♣❛s à ♠♦❞é❧✐s❡r ❞❡ ❢❛ç♦♥ ❞ét❛✐❧❧é❡ ❧❛ ❞②♥❛♠✐q✉❡ ❞✉ ✈é❤✐❝✉❧❡✱ ♠❛✐s à ♦❜t❡♥✐r ✉♥❡ r❡❧❛t✐♦♥ ❡♥tr❡ ❧❡s ♣♦s✐t✐♦♥s ré❡❧❧❡s ❞❡s ♦❜st❛❝❧❡s ❡t ❧❡✉rs ♣♦s✐t✐♦♥s ❞❛♥s ❧✬✐♠❛❣❡✳ P♦✉r ❝❡❧❛✱ ❧❡s ♠♦✉✈❡♠❡♥ts r❡❧❛t✐❢s ❞❡ ❧❛ ❝❛✐ss❡ ✭❧❛❝❡t✱ r♦✉❧✐s✱ t❛♥❣❛❣❡✮ q✉✐ ♣♦rt❡ ❧❛ ❝❛♠ér❛ ♣❛r r❛♣♣♦rt à ❧✬❡ss✐❡✉ ❞♦✐✈❡♥t êtr❡ ♣r✐s ❡♥ ❝♦♠♣t❡✳ P✉✐sq✉❡ ❧❡s ✈✐❜r❛t✐♦♥s ❛✉①q✉❡❧❧❡s ❡st s♦✉♠✐s ❧❡ tr❛✐♥ s♦♥t ❢❛✐❜❧❡s✱ ♥♦✉s ♣♦✉✈♦♥s ❢❛✐r❡ ❧✬❤②♣♦t❤ès❡ q✉❡ ❧✬❛①❡ ❞❡ ❧✬❡ss✐❡✉ ❡t ❝❡❧✉✐ ❞❡ ❧❛ ❝❛♠ér❛ s♦♥t ♣❡r♣❡♥❞✐❝✉❧❛✐r❡s✳ ❯♥❡ r❡♣rés❡♥t❛t✐♦♥ ❞❡ ❝❡s ❛①❡s ❡st ♠♦♥tré❡ ❞❛♥s ❧❛ ✜❣✉r❡ ✷✳✺ ❬❘♦ss ✷✵✶✷❪✳ ❋✐❣✉r❡ ✷✳✺ ✕ ▼♦❞è❧❡ ❞✉ ✈é❤✐❝✉❧❡ ✈❛❧ ❡t ❛①❡s ❞❡s ❡ss✐❡✉① ❡t ❞❡ ❧❛ ❝❛♠ér❛ ➚ ♣❛rt✐r ❞✉ ♠♦❞è❧❡ ♣rés❡♥té✱ ✐❧ ❡st ♣♦ss✐❜❧❡ ❞❡ ❞é♠♦♥tr❡r q✉❡ ❧✬❛①❡ ❞✬♦r✐❡♥t❛t✐♦♥ ❞❡ ❧❛ ❝❛✐ss❡ ❞✉ tr❛✐♥ ❡st ❞é✜♥✐ ♣❛r ❧❡ ✈❡❝t❡✉r t~1 − t~2✳ ▲❡s ✈❡❝t❡✉rs t~1,t~2 r❡♣rés❡♥t❡♥t ❧❛ ♣♦s✐t✐♦♥ ❞❡ ❧✬❡ss✐❡✉ ❛✈❛♥t ❡t ❞❡ ❧✬❡ss✐❡✉ ❛rr✐èr❡ ♣❛r r❛♣♣♦rt ❛✉ r❡♣èr❡ ❣❧♦❜❛❧ ❞❡ ❧❛ s❝è♥❡✳ ❉❛♥s ❧❡s ✈✐r❛❣❡s✱ ✐❧ ❡①✐st❡ ✉♥ ❛♥❣❧❡ ✭θcaisse✮ ❡♥tr❡ ❧✬❛①❡ ❞❡ ❧❛ ❝❛✐ss❡ ❡t ❝❡❧✉✐ ❞❡ ❧❛ ✈♦✐❡ ❛✉ ❞r♦✐t ❞✉ ♣✐✈♦t ❞✬❡ss✐❡✉✳ θcaisse ❡st ❞é✜♥✐ ♣❛r ❧✬éq✉❛t✐♦♥ ✷✳✶✳ ➚ ❝❤❛q✉❡ ✐♥st❛♥t✱ ✐❧ ❢❛✉t t❡♥✐r ❝♦♠♣t❡ ❞❡ ❝❡t ❛♥❣❧❡ ♣♦✉r ♣♦✉✈♦✐r r❡❧✐❡r ❧❡s ✐♠❛❣❡s ❞❡ ❧❛ ❝❛♠ér❛ à s❛ ♣r♦❥❡❝t✐♦♥ ❞❛♥s ❧❡ ♠♦♥❞❡ ré❡❧✳ θcaisse = θT − ∠(t~1 − t~2) ✭✷✳✶✮ ♦ù θT r❡♣rés❡♥t❡ ❧✬❛♥❣❧❡ ❞❡ t~1✳✷✹ ❈❤❛♣✐tr❡ ✷✳ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ ✷✳✹ ➱t❛❧♦♥♥❛❣❡ ▲✬ét❛❧♦♥♥❛❣❡ ❞❡ ❧❛ ❝❛♠ér❛ ❡st ✉♥❡ ❞❡s ♣r❡♠✐èr❡s ét❛♣❡s ❞❡ ❧❛ ✈✐s✐♦♥ ♣❛r ♦r❞✐♥❛t❡✉r s✉rt♦✉t ❧♦rsq✉❡ ❞❡s ♠❡s✉r❡s ❞❡ ❞✐st❛♥❝❡s ♣ré❝✐s❡s s♦♥t ♥é❝❡ss❛✐r❡s✳ ❉❡s ❡①❡♠♣❧❡s ❞✬❛♣♣❧✐❝❛t✐♦♥s s♦♥t ✿ ❧❛ r❡❝♦♥str✉❝t✐♦♥ ❞❡♥s❡ ❞❡s ♣♦✐♥ts à ♣❛rt✐r ❞❡ ❧❛ stéré♦✈✐s✐♦♥ ❬❑♦❧♠♦❣♦r♦✈ ✫ ❩❛❜✐❤ ✷✵✵✷❪✱ ❧✬✐♥s♣❡❝t✐♦♥ ✈✐s✉❡❧❧❡ ❬▼❛r ❡t ❛❧✳ ✷✵✶✶❪✱ ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❞✬♦❜❥❡ts ❬▲❡❢❛✉❞❡✉① ✫ ◆❛s❤❛s❤✐❜✐ ✷✵✶✷❪ ♦✉ ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ ❞❛♥s ❧✬❡s♣❛❝❡ ❬▲✐✉ ❡t ❛❧✳ ✶✾✾✵❪✳ ❈❡t ét❛❧♦♥♥❛❣❡ ♣❡✉t êtr❡ ❞✐✈✐sé ❡♥ ❞❡✉① ♣❤❛s❡s✳ ▲❛ ♣r❡♠✐èr❡ ❡st ❧❛ ♠♦❞é❧✐s❛t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ ❡♥ ❛♣♣r♦①✐♠❛♥t ♠❛t❤é♠❛t✐q✉❡♠❡♥t ❧❡ ♠♦❞è❧❡ ♣❤②s✐q✉❡ ❡t ♦♣t✐q✉❡✱ ❡t ❧❛ ❞❡✉①✐è♠❡ ❝♦♥s✐st❡ à ❡st✐♠❡r ❧❡s ✈❛❧❡✉rs ❞❡ ❝❡ ♠♦❞è❧❡✳ ✷✳✹✳✶ ▼♦❞é❧✐s❡r ✉♥❡ ❝❛♠ér❛ ▲❛ ♠♦❞é❧✐s❛t✐♦♥ ❞✬✉♥❡ ❝❛♠ér❛ ❡st ❜❛sé❡ s✉r ❧❛ ❞é✜♥✐t✐♦♥ ❞✬✉♥ ❡♥s❡♠❜❧❡ ❞❡ ♣❛r❛♠ètr❡s q✉✐ s❡ r❛♣♣r♦❝❤❡ ❧❡ ♣❧✉s ♣♦ss✐❜❧❡ ❞✉ ❝♦♠♣♦rt❡♠❡♥t ♣❤②s✐q✉❡ ❞✉ ❝❛♣t❡✉r à ❧✬❛✐❞❡ ❞✬✉♥ ♠♦❞è❧❡ ❣é♦♠étr✐q✉❡✳ ◆♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ❧❡ ✓♠♦❞è❧❡ sté♥♦♣é✔✱ ❞✉ ♥♦♠ ❞✉ s✐♠♣❧❡ ❞✐s♣♦s✐t✐❢ ♦♣t✐q✉❡ ✭❡♥ ❛♥❣❧❛✐s ✿ ♣✐♥❤♦❧❡✮✱ ❝❛r ✐❧ ♣❡r♠❡t ❞❡ ♠♦❞é❧✐s❡r ✉♥ ❛♣♣❛r❡✐❧ ♣❤♦t♦❣r❛♣❤✐q✉❡ ❡t ❝✬❡st ❧❡ ♣❧✉s ❝♦✉r❛♠♠❡♥t ✉t✐❧✐sé ❬❉♦♠✐♥✐q✉❡ ✫ ❊r✐❝ ✶✾✾✽❪✳ ▲❡ ♠♦❞è❧❡ ❣é♦♠étr✐q✉❡ sté♥♦♣é ✭✜❣✉r❡ ✷✳✻✮ ❡st ❝♦♥st✐t✉é ❞✬✉♥ ♣❧❛♥✱ ❛♣♣❡❧é ✓♣❧❛♥ ✐♠❛❣❡✔✱ s✉r ❧❡q✉❡❧ ❧✬✐♠❛❣❡ s❡ ❢♦r♠❡ s✉✐t❡ à ✉♥❡ ♣r♦❥❡❝t✐♦♥ ♣❡rs♣❡❝t✐✈❡✳ ❯♥ ♣♦✐♥t Oc✱ ♣❧❛❝é à ✉♥❡ ❞✐st❛♥❝❡ ✜①❡ f ♦✉ ❢♦❝❛❧❡ ❞✉ ♣❧❛♥ ✐♠❛❣❡✱ ❡st ❛♣♣❡❧é ❧❡ ❝❡♥tr❡ ♦♣t✐q✉❡ ✭♦✉ ♣♦✐♥t ❢♦❝❛❧✮ ❡t ❡st t❡❧ q✉❡ ❧❡s r❛②♦♥s ❞❡ ❧✉♠✐èr❡ r❡✢étés ♣❛r ❧❡s ♦❜❥❡ts ♣❛ss❡♥t ♣❛r ❝❡ ♣♦✐♥t✱ ❢♦r♠❛♥t ✉♥❡ ✐♠❛❣❡ ♣❡rs♣❡❝t✐✈❡ ❞❡ ❧❛ s❝è♥❡ s✉r ❧❡ ♣❧❛♥ ✐♠❛❣❡✳ ❋✐❣✉r❡ ✷✳✻ ✕ ■❧❧✉str❛t✐♦♥ ❞✉ ♠♦❞è❧❡ sté♥♦♣é✳ ▲❡s ❝❛♠ér❛s s♦♥t ❝❛r❛❝tér✐sé❡s ♣❛r ❞❡✉① ❣r♦✉♣❡s ❞❡ ♣❛r❛♠ètr❡s✱ ❞✬✉♥ ❝ôté ❧❡s ♣❛r❛♠ètr❡s ✐♥✲ tr✐♥sèq✉❡s✱ q✉✐ ♠♦❞é❧✐s❡♥t ❧❛ ❣é♦♠étr✐❡ ✐♥t❡r♥❡ ❡t ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ♦♣t✐q✉❡s ❞❡ ❧❛ ❝❛♠ér❛ ✭❢♦❝❛❧❡✱ ❢❛❝t❡✉rs ❞✬❛❣r❛♥❞✐ss❡♠❡♥t✱ ❞✐st♦rs✐♦♥ ❞❡ ❧❛ ❧❡♥t✐❧❧❡✱ ❡t❝✳✮ ❡t ❞❡ ❧✬❛✉tr❡ ❧❡s ♣❛r❛♠ètr❡s ❡①tr✐♥sèq✉❡s q✉✐ ❧✐❡♥t ♣♦s✐t✐♦♥ ❡t ♦r✐❡♥t❛t✐♦♥ ❞✉ ❝❡♥tr❡ ♦♣t✐q✉❡ ❞❡ ❧❛ ❝❛♠ér❛ ✭r❡♣èr❡ ❞✉ ❝❛♣t❡✉r✮ ❛✉ r❡♣èr❡ ❞✉ s②stè♠❡ ❣❧♦❜❛❧ ❧♦❝❛❧✐sé ❞❡ ❧❛ s❝è♥❡✳ ❈❡s ❞❡r♥✐❡rs ♣❡r♠❡tt❡♥t ❞❡ ❧♦❝❛❧✐s❡r ❧❛ ❝❛♠ér❛ ❞❛♥s ❧✬❡♥✈✐r♦♥♥❡♠❡♥t ❡t s♦♥t ❝♦♠♣♦sés ❞❡ tr♦✐s ♣❛r❛♠ètr❡s ♣♦✉r ♠♦❞é❧✐s❡r ❧❛ tr❛♥s❧❛t✐♦♥ (Tx, Ty, Tz) ❡♥tr❡ Oc ✭r❡♣èr❡ ❞❡ ❧❛✷✳✹✳ ➱t❛❧♦♥♥❛❣❡ ✷✺ ❝❛♠ér❛✮ ❡t Ow ✭r❡♣èr❡ ❞❡ ❧❛ s❝è♥❡✮ ❡t tr♦✐s ♣♦✉r ❧❛ r♦t❛t✐♦♥ (α, β, γ)✳ ❉❛♥s ♥♦tr❡ ❝❛s✱ ❧❡ r❡♣èr❡ ❞❡ ❧❛ s❝è♥❡ ❡st ♣❧❛❝é ❞❛♥s ❧❡ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t ❡t ❝❡♥tré s✉r ❧✬❛①❡ ❞❡ ❧❛ ✈♦✐❡ ❡t ❧❛ ❝❛♠ér❛ ❡st ♣❧❛❝é❡ ❞❡rr✐èr❡ ❧❡ ♣❛r❡✲❜r✐s❡ à ❧✬❛✈❛♥t ❞✉ tr❛✐♥ ❝♦♠♠❡ ♣rés❡♥té ❞❛♥s ❧❛ ✜❣✉r❡ ✷✳✼✳ ❖♥ r❛♣♣❡❧❧❡ q✉✬ét❛♥t ❞♦♥♥é ❧❡ ♠♦❞è❧❡ sté♥♦♣é ❞✬✉♥❡ ❝❛♠ér❛✱ ❧❛ r❡❧❛t✐♦♥ ❡♥tr❡ ❧❡s ❝♦♦r❞♦♥♥é❡s ❤♦♠♦❣è♥❡s ❞✉ ♣♦✐♥t P s✉r ❧✬✐♠❛❣❡ ❡t s❡s ❝♦♦r❞♦♥♥é❡s ❤♦♠♦❣è♥❡s ❞❛♥s ❧❡ r❡♣èr❡ ❞❡ ❧❛ s❝è♥❡ ✭Ow✮ s✬❡①✲ ♣r✐♠❡r❛ ♣❛r ❧✬éq✉❛t✐♦♥ ✷✳✷✳ ▲❛ ♣r❡♠✐èr❡ ♠❛tr✐❝❡ A ❡①♣r✐♠❡ ❧✬✐♥té❣r❛❧✐té ❞❡s ♣❛r❛♠ètr❡s ✐♥tr✐♥sèq✉❡s ❞✉ ❝❛♣t❡✉r ❝❛♠ér❛✱ ❡t ❧❛ s❡❝♦♥❞❡ B ❡①♣r✐♠❡ ❧✬✐♥té❣r❛❧✐té ❞❡s ♣❛r❛♠ètr❡s ❡①tr✐♥sèq✉❡s✳   su sv s   =   αu 0 u0 0 0 αv v0 0 0 0 1 0   | {z } A  R T 0 1 | {z } B   X Y Z 1   ✭✷✳✷✮ ❆✈❡❝ ✿ ✕ (X, Y, Z, 1)✱ ❧❡s ❝♦♦r❞♦♥♥é❡s ❤♦♠♦❣è♥❡s ❞✉ ♣♦✐♥t P ❞❛♥s ❧❡ r❡♣èr❡ Ow✳ ✕ R✱ ❧❛ ♠❛tr✐❝❡ ❞❡ r♦t❛t✐♦♥ ❡♥tr❡ ❧❡ r❡♣èr❡ ❞❡ ❧❛ s❝è♥❡ ❡t ❧❛ ❝❛♠ér❛✳ ✕ T✱ ❧❡ ✈❡❝t❡✉r ❞❡ tr❛♥s❧❛t✐♦♥ ❡♥tr❡ ❧❛ ré❢ér❡♥❝❡ ❞❡ ❧❛ s❝è♥❡ ❡t ❧❛ ré❢ér❡♥❝❡ ❞❡ ❧❛ ❝❛♠ér❛✳ ✕ A✱ ❧❛ ♠❛tr✐❝❡ ❞❡ ♣r♦❥❡❝t✐♦♥ ❞❡ ♣❡rs♣❡❝t✐✈❡✳ ❊❧❧❡ ❡①♣r✐♠❡ ❧❛ tr❛♥s❢♦r♠❛t✐♦♥ ❡♥tr❡ ❧❡ r❡♣èr❡ ❞❡ ❧❛ ❝❛♠ér❛ ❡t ❝❡❧✉✐ ❞❡ ❧✬✐♠❛❣❡✳ ✕ (u0, v0)✱ ♣r♦❥❡té ❞✉ ❝❡♥tr❡ ♦♣t✐q✉❡ Oc s✉r ❧❡ ♣❧❛♥ ✐♠❛❣❡✱ ❡①♣r✐♠é ❡♥ ♣✐①❡❧s✳ ✕ αu, αv ❞é✜♥✐s ❝♦♠♠❡ s✉✐t ✿ αu = f · ku ❡t αv = f · kv ♦ù ku ❡t kv s♦♥t ❧❡ ❢❛❝t❡✉r ❞✬é❝❤❡❧❧❡ ❤♦r✐③♦♥t❛❧ ❡t ✈❡rt✐❝❛❧ (pixels/mm)✳ ✕ f✱ ❧❛ ❞✐st❛♥❝❡ ❢♦❝❛❧❡✳ ✕ (su, sv, s) ❧❡s ❝♦♦r❞♦♥♥é❡s ❤♦♠♦❣è♥❡s ❞❡ ❧❛ ♣r♦❥❡❝t✐♦♥ ❞✉ ♣♦✐♥t P s✉r ❧✬✐♠❛❣❡ r❡s♣❡❝t✐✈❡♠❡♥t✳ ❋✐❣✉r❡ ✷✳✼ ✕ ❆①❡s ❞❡s ❝♦♦r❞♦♥♥é❡s ❞❡ ❧❛ s❝è♥❡ ❡t ❞❡ ❧❛ ❝❛♠ér❛✳ ✷✳✹✳✶✳✶ ❱❡❝t❡✉r ❞❡ tr❛♥s❧❛t✐♦♥ ❡t ♠❛tr✐❝❡ ❞❡ r♦t❛t✐♦♥ ❆✜♥ ❞❡ ♣r❡♥❞r❡ ❡♥ ❝♦♠♣t❡ ❧❡s ❞é♣❧❛❝❡♠❡♥ts q✉❡ ❧❛ ❝❛♠ér❛ ✈❛ ❡✛❡❝t✉❡r✱ ♥♦✉s ❞❡✈♦♥s ❝❤♦✐s✐r ✉♥ r❡♣èr❡ st❛t✐q✉❡ ❞❛♥s ❧❛ s❝è♥❡✳ ◆♦✉s ✐♥tr♦❞✉✐s♦♥s ❞♦♥❝ ✉♥ r❡♣èr❡ s❝è♥❡ Ow✱ ✭✜❣✉r❡ ✷✳✼✮✳ ▲❡s ♣♦s✐t✐♦♥s ❞❡s ♣♦✐♥ts 3D ❡t ❞❡ ❧❛ ❝❛♠ér❛ s♦♥t ❛❧♦rs ❞é❝r✐t❡s ♣❛r r❛♣♣♦rt à ❝❡ r❡♣èr❡✳ ◆♦✉s ♣♦✉✈♦♥s ét❛❜❧✐r ✉♥❡ r❡❧❛t✐♦♥ ❡♥tr❡ ❧❡s ♣♦✐♥ts 3D ❞✉ Ow ❡t ❧❡ r❡♣èr❡ Oc✱ ❝♦♥♥❛✐ss❛♥t ❧❡ ✈❡❝t❡✉r ❞❡ tr❛♥s❧❛t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ T = [Tx, Ty, T z] 0 ✱ ❡t ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ ❡①♣r✐♠é❡ ♣❛r ✉♥❡ ♠❛tr✐❝❡ ❞❡ r♦t❛t✐♦♥ ❞❡ t❛✐❧❧❡ 3 × 3✳ ◆♦tr❡ s②stè♠❡ ♦♣t✐q✉❡ s❡r❛ ♣❧❛❝é à ❧✬❛✈❛♥t ❞✉ tr❛✐♥✱ ❞❡rr✐èr❡ ❧❡ ♣❛r❡✲❜r✐s❡ à ✉♥❡ ❤❛✉t❡✉r ❡t ✉♥❡ ✐♥❝❧✐♥❛✐s♦♥ ✜①❡s✳ ➚ ♣❛rt✐r ❞❡ ❧✬❛♥❛❧②s❡ ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ❡①♣♦sé❡s ❞❛♥s ❧❛ s❡❝t✐♦♥ ✷✳✸✳✷✱ ❧❡s✷✻ ❈❤❛♣✐tr❡ ✷✳ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ ❝❤❛♥❣❡♠❡♥ts ❞✬❛♥❣❧❡s ❞✉s ❛✉① ✈✐❜r❛t✐♦♥s ❞✉ tr❛✐♥ s❡r♦♥t ❝♦♥s✐❞érés ❝♦♠♠❡ ♥✉❧s✳ P♦✉r ❞é✜♥✐r ❝❡tt❡ ♠❛tr✐❝❡ ❞❡ r♦t❛t✐♦♥✱ ♥♦✉s ✉t✐❧✐s❡r♦♥s ❧❛ ❝♦♥✈❡♥t✐♦♥ ✓X, Y, Z✔ ❝♦rr❡s♣♦♥❞❛♥t ❛✉① r♦t❛t✐♦♥s ❞❡ ❧❛ ❝❛♠ér❛ ❛✉t♦✉r ❞❡ ❝❤❛q✉❡ ❛①❡ ♣♦✉r ❛rr✐✈❡r à ❧❛ ♣♦s✐t✐♦♥ ❞❡s ❛①❡s✳ ❈❡tt❡ séq✉❡♥❝❡ ❡st ❞é✜♥✐❡ ❝♦♠♠❡ s✉✐t ✿ R(γ1) =   1 0 0 0 cos(γ1) cos(π/2 + γ1) 0 cos(π/2 − γ1) cos(γ1)   =   1 0 0 0 cos(γ1) − sin(γ1) 0 sin(γ1) cos(γ1)   ✭✷✳✸✮ R(γ2) =   cos(γ2) 0 cos(π/2 − γ2) 0 1 0 cos(π/2 + γ2) 0 cos(γ2)   =   cos(γ2) 0 sin(γ2) 0 1 0 − sin(γ2) 0 cos(γ2)   ✭✷✳✹✮ R(γ3) =   cos(γ3) cos(π/2 + γ3) 0 cos(π/2 − γ3) cos(γ3) 0 0 0 1   =   cos(γ3) − sin(γ3) 0 sin(γ3) cos(γ3) 0 0 0 1   ✭✷✳✺✮ R = R1(γ1)R2(γ2)R3(γ3) ✭✷✳✻✮ ♦ù ✿ ✕ (R1) r❡♣rés❡♥t❡ ❧❛ r♦t❛t✐♦♥ ❞✬✉♥ ❛♥❣❧❡ γ1 ❛✉t♦✉r ❞❡ X ✕ (R2) r❡♣rés❡♥t❡ ❧❛ r♦t❛t✐♦♥ ❞✬✉♥ ❛♥❣❧❡ γ2 ❛✉t♦✉r ❞❡ Y ✕ (R3) r❡♣rés❡♥t❡ ❧❛ r♦t❛t✐♦♥ ❞✬✉♥ ❛♥❣❧❡ γ3 ❛✉t♦✉r ❞❡ Z ❙✐ ❧❡ t❛♥❣❛❣❡ ❡st ❞é✜♥✐ ♣❛r ✭θ✮✱ ❧❡ r♦✉❧✐s ♣❛r ✭ψ✮ ❡t ❧❡ ❧❛❝❡t ♣❛r ✭φ✮✱ ❧❛ sér✐❡ ❞❡ r♦t❛t✐♦♥s q✉✐ ❡♥ rés✉❧t❡ s✬é❝r✐t ✿ RB N = RaR1(θ)R2(φ)R3(0) ❋✐❣✉r❡ ✷✳✽ ✕ ❘♦t❛t✐♦♥s s✉✐✈✐❡s ♣♦✉r ❛❞❛♣t❡r ❧❡ r❡♣èr❡ ❞❡ ❧❛ ❝❛♠ér❛ RC ❛✉ r❡♣èr❡ ❞❡ ❧❛ s❝è♥❡ RW R1(θ) =   1 0 0 0 cos(θ) − sin(θ) 0 sin(θ) cos(θ)   ✭✷✳✼✮ R(φ) =   cos(φ) 0 sin(φ) 0 1 0 − sin(φ) 0 cos(φ)   ✭✷✳✽✮ R3(0) = I ✭✷✳✾✮ Ra =   0 0 1 −1 0 0 0 −1 0   ✭✷✳✶✵✮✷✳✹✳ ➱t❛❧♦♥♥❛❣❡ ✷✼ ▲❡ r♦✉❧✐s s❡r❛ ❝♦♥s✐❞éré ♥✉❧✱ ❝❛r ♥♦tr❡ s②stè♠❡ s❡r❛ ✐♠♣❧❛♥té ❞❛♥s ✉♥❡ ❝❛❜✐♥❡ ❞❡ ♠étr♦ ❡t ♥♦✉s ❛✈♦♥s ❝♦♥s✐❞éré q✉❡ ❧✬❡✛❡t ❞✉ r♦✉❧✐s ❞❡ ❧❛ ❝❛✐ss❡ ❡st ❢❛✐❜❧❡ ❡t ❞♦♥❝ ❧✬✐♥✢✉❡♥❝❡ s✉r ❧❛ tr❛♥s❢♦r♠❛t✐♦♥ ❞✉ ♣✐①❡❧ ❡♥ ❞✐st❛♥❝❡s ❡st ♥é❣❧✐❣❡❛❜❧❡✳ ❈❡tt❡ ❤②♣♦t❤ès❡ ♣❡✉t êtr❡ ❡♥✈✐s❛❣é❡ s❡✉❧❡♠❡♥t s✐ ❧❡ r♦✉❧✐s ❞✉ tr❛✐♥ ❡st ❢❛✐❜❧❡✳ ❉❛♥s ❧❡ ❝❛s ❞✬✉♥ r♦✉❧✐s ❡①❝❡ss✐❢✱ ❝♦♠♠❡ ❧❡ tr❛✐♥ ❡st ❝♦♥s✐❞ér❛❜❧❡♠❡♥t ♣❧✉s ❤❛✉t q✉✬✉♥❡ ✈♦✐t✉r❡✱ ♦♥ ❛ ✉♥ ♠♦✉✈❡♠❡♥t ❧❛tér❛❧ ❞❡ ❧❛ ❝❛♠ér❛ q✉✐ ♥❡ ♣❡r♠❡t ♣❛s ❞❡ ❞é✜♥✐r ❧❡ s②stè♠❡ ❞❡ ❝♦♦r❞♦♥♥é❡s✳ ❯♥ ❡①❡♠♣❧❡ ❞❡ ❧✬❡✛❡t ❞✉ r♦✉❧✐s ❞❛♥s ❧❛ ♣r♦❥❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❞❡✈❛♥t ❧❛ ❝❛♠ér❛ ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✷✳✾✳ ❋✐❣✉r❡ ✷✳✾ ✕ ❊✛❡t ❞✉ r♦✉❧✐s ▲❛ séq✉❡♥❝❡ ❞❡s r♦t❛t✐♦♥s ❡st ❛❧♦rs ✿ RB N = RaR1(θ)R2(φ)✳ ▲❛ r❡❧❛t✐♦♥ ❡♥tr❡ ❧❡s ♣♦✐♥ts ❞❛♥s ❧❡ r❡♣èr❡ ❞❡ ❧❛ ❝❛♠ér❛ RC ❡t ❧❡ r❡♣èr❡ ❞❡ ❧❛ s❝è♥❡ RW ❡st ❞é✜♥✐❡ ♣❛r ✷✳✶✶ ❡t ✷✳✶✷✳  Pw 1  =  R T 0 1 Pc 1  ✭✷✳✶✶✮  Pc 1  =  RT −RT T 0 1  Pw 1  ✭✷✳✶✷✮ ✷✳✹✳✷ ▼ét❤♦❞❡s ❞✬ét❛❧♦♥♥❛❣❡ ❆♣rès ❧❛ ❞❡s❝r✐♣t✐♦♥ ❞✉ ♠♦❞è❧❡ ❞❡ ❝❛♠ér❛✱ ✐❧ ❡st ✐♠♣♦rt❛♥t ❞✬❛❝❝é❞❡r ❛✉① ✈❛❧❡✉rs ❞❡s ♣❛r❛♠ètr❡s ❞✉ ♠♦❞è❧❡✳ ❈✬❡st ❧❡ rô❧❡ ❞❡ ❧❛ ♣❤❛s❡ ❞✬ét❛❧♦♥♥❛❣❡✱ ét❛♣❡ ♥é❝❡ss❛✐r❡ ❞❛♥s ❧❡ ❞♦♠❛✐♥❡ ❞❡ ❧❛ ✈✐s✐♦♥ ♣❛r ♦r❞✐♥❛t❡✉r✱ ❝❡❝✐ ❛✜♥ ❞❡ ♣♦✉✈♦✐r ❡①tr❛✐r❡ ❧✬✐♥❢♦r♠❛t✐♦♥ 3D à ♣❛rt✐r ❞❡s ✐♠❛❣❡s 2D✳ ▲✬ét❛❧♦♥♥❛❣❡ ❞❡ ❧❛ ❝❛♠ér❛ ❡st ✉♥ ♣♦✐♥t ✐♠♣♦rt❛♥t ❞✉ s②stè♠❡✳ ▲❛ ❝♦♥♥❛✐ss❛♥❝❡ ❞❡s r❡♣èr❡s ✷❉ ✭♣❧❛♥ ✐♠❛❣❡✮ ❡t ✸❉ ✭♠♦♥❞❡ ré❡❧✮ ❡t ❧❛ r❡❧❛t✐♦♥ ❡①✐st❛♥t❡ ❡♥tr❡ ❡✉① s♦♥t ♥é❝❡ss❛✐r❡s ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✳ ▲✬♦❜❥❡❝t✐❢ ❡st ❞❡ ♣♦✉✈♦✐r ❞ét❡r♠✐♥❡r ❧❛ ❞✐st❛♥❝❡ ❞❡ ❧✬♦❜st❛❝❧❡ à ♣❛rt✐r ❞❡ s❛ ❧♦❝❛❧✐s❛t✐♦♥ ❞❛♥s ❧✬✐♠❛❣❡✳ ❈❡tt❡ r❡❧❛t✐♦♥ ❛ ♣r✐♦r✐ s✐♠♣❧❡ ❞é♣❡♥❞ ❝❡♣❡♥❞❛♥t ❞❡ ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ ♣❛r r❛♣♣♦rt à ❧❛ ✈♦✐❡✱ ❞♦♥❝ ❞❡ ❧✬❛ss✐❡tt❡ ❞❡ ❧❛ ✈♦✐t✉r❡ ♣♦rt❡✉s❡ ❞❡ ❧❛ ❝❛♠ér❛ ❡t ❞✉ ❣r❛❞✐❡♥t ❞❡ ♣❡♥t❡ s♦✉s ❧❛ ✈♦✐t✉r❡ ❡t ❞❛♥s t♦✉t❡ ❧❛ ③♦♥❡ ❞✬✐♥térêt✳ ▲❡s ♠ét❤♦❞❡s ❞✬ét❛❧♦♥♥❛❣❡ ♣❡✉✈❡♥t êtr❡ ❝❧❛ssé❡s s❡❧♦♥ ❞✐✛ér❡♥ts ❝r✐tèr❡s ✿ ❧✐♥é❛✐r❡s ♦✉ ♥♦♥✲ ❧✐♥é❛✐r❡s ❀ ✐♠♣❧✐❝✐t❡s ♦✉ ❡①♣❧✐❝✐t❡s✱ ❛✉t♦✲ét❛❧♦♥♥❛❣❡✱ ❡t❝✳ ❯♥❡ très ❜♦♥♥❡ ❛♥❛❧②s❡ ❞❡s ❛✈❛♥t❛❣❡s ❡t ✐♥❝♦♥✈é♥✐❡♥ts ❞❡s ❞✐✛ér❡♥t❡s ♠ét❤♦❞❡s ♣❡✉t s❡ tr♦✉✈❡r ❞❛♥s ❬❙❛❧✈✐ ❡t ❛❧✳ ✷✵✵✷❪✳ ▲✬♦❜❥❡❝t✐❢ ❞❡ ❝❡tt❡✷✽ ❈❤❛♣✐tr❡ ✷✳ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ t❤ès❡ ♥✬❡st ♣❛s ❞✬❛♥❛❧②s❡r ❡♥ ♣r♦❢♦♥❞❡✉r ❧✬ét❛❧♦♥♥❛❣❡ ❞❡s ❝❛♠ér❛s ♠♦♥♦❝✉❧❛✐r❡s✱ ♥♦✉s ❡①♣♦s❡r♦♥s ✐❝✐ ❞❡✉① ❛♣♣r♦❝❤❡s ✿ ❛✈❡❝ ♠✐r❡ ❞✬ét❛❧♦♥♥❛❣❡ ♦✉ s❛♥s ♠✐r❡✳ ▲✬ét❛❧♦♥♥❛❣❡ ❝❧❛ss✐q✉❡ ✉t✐❧✐s❡ ✉♥❡ ♠✐r❡ ♣❧❛♥❡✳ ❙❛❝❤❛♥t q✉❡ ❝❤❛q✉❡ ♣♦✐♥t ❞❡ ❧❛ ♠✐r❡ s❡ ♣r♦❥❡tt❡ ❞❛♥s ❧✬✐♠❛❣❡ s✉✐✈❛♥t ❧❡ ♠♦❞è❧❡ ❞é❝r✐t ❞❛♥s ❧✬éq✉❛t✐♦♥ ✷✳✷✱ ❧❡s ♣❛r❛♠ètr❡s ♣❡✉✈❡♥t êtr❡ ♦❜t❡♥✉s ❣râ❝❡ à ✉♥❡ rés♦❧✉t✐♦♥ ♣❛r ❧❛ ♠ét❤♦❞❡ ❞❡s ♠♦✐♥❞r❡s ❝❛rrés✳ ❈❡tt❡ t❡❝❤♥✐q✉❡ ✉t✐❧✐s❡ ✉♥❡ ♠✐r❡ ♣❧❛♥❡ ❞♦♥t ❧❡s ❝♦♦r❞♦♥♥é❡s ❜✐❞✐♠❡♥s✐♦♥♥❡❧❧❡s s♦♥t ❝♦♥♥✉❡s ❡t ♣❧✉s✐❡✉rs ♣r✐s❡s ❞❡ ✈✉❡ ❞❡ ❧❛ ♠✐r❡ ✭❞é♣❧❛❝❡♠❡♥ts ✐♥❝♦♥♥✉s ❞❡ ❧❛ ❝❛♠ér❛ ♦✉ ❞❡ ❧❛ ♠✐r❡✮ ♣♦✉r ét❛❜❧✐r ✉♥❡ r❡❧❛t✐♦♥ ❡♥tr❡ ❧❡s ❤♦♠♦❣r❛♣❤✐❡s ❣râ❝❡ ❛✉① ♣r♦♣r✐étés ❞❡ ❧❛ ❣é♦♠étr✐❡ ♣r♦❥❡❝t✐✈❡ ❡t ❛✉ss✐ ♦❜t❡♥✐r ❧❡s ♣❛r❛♠ètr❡s ❞❡ ❧❛ ❝❛♠ér❛✳ ❉❡ ♣❧✉s✱ ❡❧❧❡ ♣❡r♠❡t ❞✬❛❜♦✉t✐r à ✉♥ ét❛❧♦♥♥❛❣❡ très ✜♥✳ ■❧ ❡①✐st❡ ♣❧✉s✐❡✉rs ♦✉t✐❧s ❞é✈❡❧♦♣♣és ♣♦✉r ♦❜t❡♥✐r ❧❡s ♣❛r❛♠ètr❡s ❞❡ ❧❛ ❝❛♠ér❛ ❝♦♠♠❡ ❧❡ ✓❝❛♠ér❛ ❈❛❧✐❜r❛t✐♦♥ ❚♦♦❧❜♦①✔ ❞❡ ❈❛❧t❡❝❤ ❬❇♦✉❣✉❡t ✷✵✵✻❪ ❞é✈❡❧♦♣♣é ♣♦✉r ▼❛t❧❛❜ ❡t ❖♣❡♥❈❱✳ ▲❡s t❡❝❤♥✐q✉❡s ❞✬❛✉t♦✲ét❛❧♦♥♥❛❣❡ ♥❡ ♥é❝❡ss✐t❡♥t ❧✬✉t✐❧✐s❛t✐♦♥ ❞✬❛✉❝✉♥❡ ♠✐r❡ ❞✬ét❛❧♦♥♥❛❣❡✳ ❊❧❧❡s s❡ ❜❛s❡♥t ❡ss❡♥t✐❡❧❧❡♠❡♥t s✉r ❧❛ ❣é♦♠étr✐❡ é♣✐✲♣♦❧❛✐r❡ ✭♠❛tr✐❝❡ ❢♦♥❞❛♠❡♥t❛❧❡ ❡t ♠❛tr✐❝❡ ❡ss❡♥t✐❡❧❧❡✮✳ ▲✬✐❞é❡ ❝♦♥s✐st❡ à ❞é♣❧❛❝❡r ❧❛ ❝❛♠ér❛ ❞❛♥s ✉♥❡ s❝è♥❡ st❛t✐q✉❡ ❡t ❧❛ r✐❣✐❞✐té ❞❡ ❧❛ s❝è♥❡ ❢♦✉r♥✐t ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ♥é❝❡ss❛✐r❡s✳ ■❧ ❢❛✉t ❞ét❡r♠✐♥❡r ❞❡s ♣♦✐♥ts ❝❛r❛❝tér✐st✐q✉❡s ❞❛♥s ❝❤❛❝✉♥❡ ❞❡s s❝è♥❡s ❡t✱ ❞❛♥s ✉♥ ♣r❡♠✐❡r ❧✐❡✉✱ ♥♦✉s ❝❛❧❝✉❧♦♥s ❞❡s ❝♦rr❡s♣♦♥❞❛♥❝❡s ❞❡ ♣♦✐♥ts ❡♥tr❡ ❞❡✉① ✐♠❛❣❡s✳ ❈❡❝✐ ♣❡✉t êtr❡ ❢❛✐t ♠❛♥✉❡❧❧❡♠❡♥t✱ ♠❛✐s ✐❧ ❡①✐st❡ ❛✉ss✐ ❞❡s ♠ét❤♦❞❡s ❛✉t♦♠❛t✐q✉❡s✳ ◆♦✉s ❝❛❧❝✉❧♦♥s ❡♥s✉✐t❡ ❧✬❤♦♠♦❣r❛♣❤✐❡ ❡♥ ✉t✐❧✐s❛♥t ❧❡s ✐♠❛❣❡s ❡❧❧❡s✲♠ê♠❡s ❬❙t✉r♠ ✷✵✵✽❪✳ ✷✳✹✳✷✳✶ ❉ét❡r♠✐♥❛t✐♦♥ ❞❡s ♣❛r❛♠ètr❡s ✐♥tr✐♥sèq✉❡s ▲❛ ❝❛♠ér❛ s❡r❛ éq✉✐♣é❡ ❛✈❡❝ ✉♥ ♦❜❥❡❝t✐❢ à ❢♦❝❛❧❡ ✜①❡ q✉❡ ♥♦✉s ❛✈♦♥s ❞ét❡r♠✐♥é❡ ❛♣rès ❛✈♦✐r ✓❞✐♠❡♥s✐♦♥♥é✔ ❧✬❡♥s❡♠❜❧❡ ❞✉ s②stè♠❡ ❝❛♠ér❛ ✰ ♦❜❥❡❝t✐❢✳ P♦✉r ❝❡❧❛✱ ♥♦✉s ❛✈♦♥s ♣r✐s ❡♥ ❝♦♠♣t❡ ❧❡ ❝❤❛♠♣ ❞❡ ✈✐s✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ ❡t ✉♥❡ rés♦❧✉t✐♦♥ ❞❡ ❧✬✐♠❛❣❡ à ✉♥❡ ❞✐st❛♥❝❡ D ♣♦✉r ♣♦✉✈♦✐r ✈♦✐r ❧❡s r❛✐❧s✳ ❈♦♠♠❡ ❧❛ ❝❛♠ér❛ ❡①✐st❡✱ ♥♦✉s ❛✈♦♥s ❛❝❝ès à s❡s s♣é❝✐✜❝❛t✐♦♥s ♣♦✉r ❞ét❡r♠✐♥❡r ❛✐sé♠❡♥t ❧❛ ❢♦❝❛❧❡ s♦✉❤❛✐té❡✳ ❋✐❣✉r❡ ✷✳✶✵ ✕ ❆♣♣r♦①✐♠❛t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ ♦❜❥❡t✴❝❛♠ér❛ s✉♣ér✐❡✉r❡ à 3m ●râ❝❡ à ❧❛ ✜❣✉r❡ ✷✳✶✵✱ ♥♦✉s ♣♦✉✈♦♥s ❞é❞✉✐r❡ ❢❛❝✐❧❡♠❡♥t à ♣❛rt✐r ❞✉ t❤é♦rè♠❡ ❞❡ ❚❤❛❧ès✱ ❧❛ ❢♦❝❛❧❡ q✉✐ ♣❡r♠❡t ❞✬❛✈♦✐r✱ à ♣❧❡✐♥❡ é❝❤❡❧❧❡✱ ✉♥ ♦❜❥❡t ❞❡ t❛✐❧❧❡ ❝♦♥♥✉❡ Tobjet à ❧❛ ❞✐st❛♥❝❡ D✳ ❆✐♥s✐✱ ❧❛ ❢♦❝❛❧❡ ❡st ❞♦♥♥é❡ ♣❛r ✷✳✶✸ ✿ f = TimageD Tobjet ✭✷✳✶✸✮ ❉❛♥s ♥♦tr❡ ❝❛s✱ ❧❛ ❢♦❝❛❧❡ ❛ été ❞é✜♥✐❡ à 16 mm ♣♦✉r q✉❡ ❧❛ ♣r♦❥❡❝t✐♦♥ ❞✉ r❛✐❧ à 25 ♠ètr❡s ❛✐t ✉♥❡ rés♦❧✉t✐♦♥ ❞❡ 30 ♣✐①❡❧s✳ ❯♥❡ ❢♦✐s ❧❛ ❢♦❝❛❧❡ ❞❡ ❧✬♦❜❥❡❝t✐❢ ❞é✜♥✐❡ ❡t ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❞✉ ❝❛♣t❡✉r ❝♦♥♥✉❡s✱ ❡♥ ❛♣♣❧✐q✉❛♥t ❧❡ ♠♦❞è❧❡ ❞❡ ❝❛♠ér❛ ❝♦♠♣❧❡t s❛♥s ❞✐st♦rs✐♦♥ ❞❡ ❧✬éq✉❛t✐♦♥ ✷✳✷✱ t♦✉s ❧❡s ♣❛r❛♠ètr❡s ✐♥tr✐♥sèq✉❡s s♦♥t ❝♦♥♥✉s✳✷✳✹✳ ➱t❛❧♦♥♥❛❣❡ ✷✾ ✷✳✹✳✷✳✷ ❖❜t❡♥t✐♦♥ ❞❡s ♣❛r❛♠ètr❡s ❡①tr✐♥sèq✉❡s ❉❛♥s ❧❛ ❝♦♥✜❣✉r❛t✐♦♥ ✜♥❛❧❡ ❞❡ ♥♦tr❡ s②stè♠❡✱ ❧❡s ♣❛r❛♠ètr❡s ❡①tr✐♥sèq✉❡s ♣♦✉rr♦♥t êtr❡ ❝♦♥♥✉s ❛ ♣r✐♦r✐✱ ❝❛r ❧✬✐♥st❛❧❧❛t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ s❡r❛ ❢❛✐t❡ ♣♦✉r ❛✈♦✐r ✉♥ ❝❤❛♠♣ ❞❡ ✈✐s✐♦♥ ❞é✜♥✐✳ ❙❛ ♣♦s✐t✐♦♥ ❡t s♦♥ ♦r✐❡♥t❛t✐♦♥ s❡r♦♥t ✜①é❡s ♣♦✉r q✉❡ ❧❡s r❛✐❧s s♦✐❡♥t t♦✉❥♦✉rs ♣rés❡♥ts ❞❛♥s ❧✬✐♠❛❣❡✳ ❈❡rt❡s✱ s❡s ♣❛r❛♠ètr❡s ♣❡✉✈❡♥t êtr❡ ✐♥❡①❛❝ts✱ ❝❛r ✐♥st❛❧❧❡r ❧❛ ❝❛♠ér❛ ❛✈❡❝ ✉♥ t❡❧ ❞❡❣ré ❞✬♦r✐❡♥t❛t✐♦♥ ✭θ✮ ♥✬❡st ♣❛s t♦✉❥♦✉rs ❢❛❝✐❧❡✳ ❉❡ ♣❧✉s✱ ❧❛ ♣r❡ss✐♦♥ ❞❡s ♣♥❡✉♠❛t✐q✉❡s ✈❛r✐❡ ♣♦✉r ❧❡s ❞✐✛ér❡♥ts tr❛✐♥s ❝❡ q✉✐ ❢❡r❛✐t ✈❛r✐❡r ❧❡s ♣❛r❛♠ètr❡s ♣♦✉r ❝❤❛q✉❡ tr❛✐♥✳ P♦✉r ♦❜t❡♥✐r ❧❡s ♣❛r❛♠ètr❡s ❡①tr✐♥sèq✉❡s✱ ❧❡s s②stè♠❡s ❜❛sés s✉r ❧✬✉t✐❧✐s❛t✐♦♥ ❞✬✉♥❡ ♠✐r❡ ✐♠✲ ♣❧✐q✉❡♥t ❧❛ ré❛❧✐s❛t✐♦♥ ❞❡ ♠❛♥÷✉✈r❡s ❞❛♥s ❧❡s ❛t❡❧✐❡rs ❛✈❡❝ ✉♥ tr❛✐♥ ✐♠♠♦❜✐❧❡ ❝❡ q✉✐ ✐♠♣❧✐q✉❡ ❞❡s tâ❝❤❡s ❧❛❜♦r✐❡✉s❡s ♣♦✉r ❧❛ ♠✐s❡ ❡♥ ❢♦♥❝t✐♦♥♥❡♠❡♥t ❡t ❧❛ ♠❛✐♥t❡♥❛♥❝❡ ❞✉ s②stè♠❡✳ ❉❛♥s ♥♦tr❡ ❝❛s✱ ❧❛ ♠✐r❡ ❞♦✐t ❛✈♦✐r ❞❡ très ❣r❛♥❞❡s ❞✐♠❡♥s✐♦♥s✳ ▲❛ ✜❣✉r❡ ✷✳✶✶ ♠♦♥tr❡ ✉♥ t❡st ❞✬ét❛❧♦♥♥❛❣❡ ❛✈❡❝ ✉♥❡ ♠✐r❡ ❞❡ ❞✐♠❡♥s✐♦♥s 1 m × 0.7 m ♣❧❛❝é❡ ❞❡✈❛♥t ❧❡ tr❛✐♥ à ✉♥❡ ❞✐st❛♥❝❡ ❞✬❡♥✈✐r♦♥ ✶✵ ♠ètr❡s✳ ❈❡ t❡st ♠♦♥tr❡ q✉❡ ❝❡tt❡ t❛✐❧❧❡ ♥✬❡st ♣❛s s✉✣s❛♥t❡ ♣♦✉r ét❛❧♦♥♥❡r ❧❛ ❝❛♠ér❛✳ ❋✐❣✉r❡ ✷✳✶✶ ✕ ❈❛♣t✉r❡ ❞✬✐♠❛❣❡ ❛✈❡❝ ✉♥❡ ♠✐r❡ ❞✬ét❛❧♦♥♥❛❣❡ ❞❡✈❛♥t ❧❡ tr❛✐♥ s✉r ❧❡ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t ❊♥ ❝♦♥❝❧✉s✐♦♥ ❞❡ ❝❡ t❡st ❡t ét❛♥t ❞♦♥♥é ❞❡s ✐♥❝♦♥✈é♥✐❡♥ts ❢✉t✉rs q✉❡ ❧❛ ♠✐r❡ ✐♥❞✉✐t ❞❛♥s ❧✬❡①✲ ♣❧♦✐t❛t✐♦♥ ❢❡rr♦✈✐❛✐r❡✱ t♦✉t❡s ❧❡s ♠ét❤♦❞❡s ✉t✐❧✐s❛♥t ✉♥❡ ♠✐r❡ ♦♥t été é❝❛rté❡s✳ ❯♥❡ ❜♦♥♥❡ ❛♣♣r♦❝❤❡ s❡r❛✐t ❞❡ ❞ét❡r♠✐♥❡r ❞❡ ❢❛ç♦♥ ❛✉t♦♠❛t✐q✉❡ ❝❡s ♣❛r❛♠ètr❡s✱ à ♣❛rt✐r ❞❡ ❧✬❡♥✈✐r♦♥♥❡♠❡♥t ❢❡rr♦✈✐❛✐r❡✱ ❝❡ q✉✐ ♣❡r♠❡ttr❛✐t ❞✬❛✈♦✐r ❞❡s ✈❛❧❡✉rs ❡①❛❝t❡s ❞✬ét❛❧♦♥♥❛❣❡ ♣♦✉r ❝❤❛q✉❡ tr❛✐♥ ❞❡ ❢❛ç♦♥ ✐♥❞é♣❡♥❞❛♥t❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ s♦♥ ét❛t ✭❝r❡✈❛✐s♦♥✱ ❝❛♠ér❛ ❞é♣❧❛❝é❡✱ ✳✳✳✮✳ ●râ❝❡ à ❧❛ ❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❧❛ ♠♦r♣❤♦❧♦❣✐❡ ❞❡ ❧❛ ✈♦✐❡✱ ✐❧ ♣❡✉t êtr❡ ❡♥✈✐s❛❣é ❞✬❡✛❡❝t✉❡r ❧✬ét❛❧♦♥♥❛❣❡ ❡♥ t❡♠♣s ré❡❧ à ♣❛rt✐r ❞❡s ✐♠❛❣❡s ❡❧❧❡s✲♠ê♠❡s✳ P❛r ❝♦♥séq✉❡♥t✱ ❧❛ ♠ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❞ét❡r♠✐♥❡r ❝❡s ♣❛r❛♠ètr❡s ❡st ❜❛sé❡ s✉r ✉♥❡ ❡st✐♠❛✲ t✐♦♥ r♦❜✉st❡ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❡ ❧✬✐♠❛❣❡ ❣râ❝❡ à ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ❞❛♥s ✉♥❡ ♣♦rt✐♦♥ ❞❡ ✈♦✐❡ ❞r♦✐t❡ ❬◆✐❡t♦ ❡t ❛❧✳ ✷✵✵✼❜❪✳ ❈❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❡st ❛❧♦rs ✉t✐❧✐sé ♣♦✉r ❡st✐♠❡r ❧❛ r♦t❛t✐♦♥ ❡t ❧❛ tr❛♥s❧❛t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ ♣❛r r❛♣♣♦rt à ❧❛ ✈♦✐❡ Rw✳ ●râ❝❡ à ❝❡tt❡ ♠ét❤♦❞❡✱ ❧❛ ❝❛♠ér❛ ♣❡✉t êtr❡ ét❛❧♦♥♥é❡ ❞❡ ❢❛ç♦♥ s✐♠♣❧❡✱ s❛♥s ❛❥♦✉t❡r ❞❡ ❝♦♥tr❛✐♥t❡s ✐♠♣♦rt❛♥t❡s à ❧✬❡①♣❧♦✐t❛t✐♦♥ ❞❡s tr❛✐♥s✳ ■❧ ❡st ♠ê♠❡ ♣♦ss✐❜❧❡ ❞❡ ré❛❧✐s❡r ✓♦♥✲❧✐♥❡✔ ❧❡s ✈ér✐✜❝❛t✐♦♥s s✉r ❧❛ ❝❛♠ér❛✳ ➚ ♣❛rt✐r ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡✱ ✐❧ ❡st ♣♦ss✐❜❧❡ ❞❡ ❞é✜♥✐r ❧❡ t❛♥❣❛❣❡ ✭θ✮ ❡t ❧❡ ❧❛❝❡t ✭φ✮ ❞❡ ❧❛ ❝❛♠ér❛ ♣❛r ❧❡s éq✉❛t✐♦♥s ✷✳✶✹ ❡t ✷✳✶✺✳ αv ❡t αh r❡♣rés❡♥t❡♥t ❧❡ ❝❤❛♠♣ ❞❡ ✈✐s✐♦♥✱ uvp ❡t vvp ❧❛ ♣♦s✐t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❛♥s ❧❡ ♣❧❛♥ ✐♠❛❣❡ ❡t M ❡t N ❧❡ ♥♦♠❜r❡ ❞❡ ♣✐①❡❧s ❤♦r✐③♦♥t❛❧❡♠❡♥t ❡t ✈❡rt✐❝❛❧❡♠❡♥t✳ θ = arctan  tan αv  1 − 2vvp N  ✭✷✳✶✹✮ φ = arctan  tan αh  2uvp M − 1  ✭✷✳✶✺✮✸✵ ❈❤❛♣✐tr❡ ✷✳ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ ❊♥ ❞é✈❡❧♦♣♣❛♥t ❧✬éq✉❛t✐♦♥ ✷✳✷ ❡t ❡♥ ❝♦♥s✐❞ér❛♥t ❧❛ ♣r♦❥❡❝t✐♦♥ ❞❡s ♣♦✐♥ts Pw ♣♦✉r ❧❡sq✉❡❧s X → ∞✱ ❧❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ ♣❡✉t êtr❡ ❛✉ss✐ ♦❜t❡♥✉ ♣❛r ❧❡s éq✉❛t✐♦♥s ✷✳✶✻ ❡t ✷✳✶✼ ✿ uvp = f ku tan φ + u0 ✭✷✳✶✻✮ vvp = f kv tan θ sec φ + v0 ✭✷✳✶✼✮ ▲❡s ♣❛r❛♠ètr❡s ❞❡ tr❛♥s❧❛t✐♦♥✱ ❡♥t❡♥❞✉s ❝♦♠♠❡ ❧❛ ♣♦s✐t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ ♣❛r r❛♣♣♦rt à ❧✬♦r✐❣✐♥❡ ❞❡ ❝♦♦r❞♦♥♥é❡s ❣❧♦❜❛❧❡ ✭❛①❡ ❞❡ ❧❛ ✈♦✐❡✮✱ s♦♥t ❞é✜♥✐s ♣❛r ❧❛ ❞✐st❛♥❝❡ ❡♥tr❡ ❧✬❡ss✐❡✉ ❡t ❧✬❛✈❛♥t ❞❡ ❧❛ ❝❛✐ss❡ ❡t ❧❛ ❤❛✉t❡✉r ❞❡ ❧❛ ❝❛♠ér❛ ♣❛r r❛♣♣♦rt ❛✉ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t✳ ❉❛♥s ❧❡ ❝❛s ❞✬✉♥❡ ✈❡rs✐♦♥ ❞é✜♥✐t✐✈❡✱ ❝❡s ♣❛r❛♠ètr❡s s❡r♦♥t ✜①❡s ❡t ♣❛r ❝♦♥séq✉❡♥t ❧❛ ♣♦s✐t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ s❡r❛ ❝♦♥♥✉❡ ❛ ♣r✐♦r✐✱ ♠❛✐s ❞❛♥s ❧❛ ❝♦♥✜❣✉r❛t✐♦♥ ❞❡ ♥♦tr❡ ♣r♦t♦t②♣❡ ❧❛ ♣♦s✐t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ ♣❛r r❛♣♣♦rt ❛✉ ♣r❡♠✐❡r ❡ss✐❡✉ ❡st ✐♥❝♦♥♥✉❡✱ ❝❛r ❧❡s ❡♥r❡❣✐str❡♠❡♥ts ♦♥t été ❢❛✐ts ❛✈❡❝ ✉♥❡ ❝❛♠ér❛ ✐♥st❛❧❧é❡ ❛✈❡❝ ✉♥ tré♣✐❡❞ à ❧✬✐♥tér✐❡✉r ❞❡ ❧❛ r❛♠❡✳ ❈❡t ✐♥❝♦♥✈é♥✐❡♥t ♥♦✉s ♦❜❧✐❣❡ à ❞ét❡r♠✐♥❡r ❧❛ ♣♦s✐t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ à ♣❛rt✐r ❞❡s ❡♥r❡❣✐str❡♠❡♥ts✳ ◆♦✉s ❛✈♦♥s ❞❡s ✐♥❝♦♥♥✉❡s ❞❛♥s ♥♦s éq✉❛t✐♦♥s q✉❡ ♥❡ ♥♦✉s ♣❡r♠❡tt❡♥t ♣❛s ❞✬♦❜t❡♥✐r ❧❡s ♣❛r❛♠ètr❡s ❡①tr✐♥sèq✉❡s✳ ❈❡s ✐♥❝♦♥♥✉❡s s♦♥t ❧❛ ❤❛✉t❡✉r ❞❡ ❧❛ ❝❛♠ér❛ ❡t s♦♥ ❞é♣❧❛❝❡♠❡♥t ❧❛tér❛❧ ♣❛r r❛♣♣♦rt à ❧✬❛①❡ ♣r✐♥❝✐♣❛❧ ❞✉ tr❛✐♥✳ P♦✉r ♦❜t❡♥✐r ❧❛ ❤❛✉t❡✉r ❞❡ ❧❛ ❝❛♠ér❛ ❡t ❧❡ ❞é♣❧❛❝❡♠❡♥t ❧❛tér❛❧ ♣❛r r❛♣♣♦rt à ❧✬❡ss✐❡✉ s❛♥s ✉t✐❧✐s❡r ❞❡ ♠✐r❡✱ ❝✬❡st✲à✲❞✐r❡✱ à ♣❛rt✐r ❞❡ ❧❛ s❝è♥❡✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ❧❛ ♠❡s✉r❡ ❞❡ ❧✬é❝❛rt❡♠❡♥t ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡✳ P♦✉r ❝❡❧❛✱ ♥♦✉s ✉t✐❧✐s♦♥s ❧❡s ♣r♦♣r✐étés ❞❡s ❞❡✉① ❧✐❣♥❡s ♣❛r❛❧❧è❧❡s ❞❛♥s ❧✬❡s♣❛❝❡ ❡t ❧❡✉r ♣r♦❥❡❝t✐♦♥ ❞❛♥s ❧✬✐♠❛❣❡ ❬❲❛♥❣ ❡t ❛❧✳ ✷✵✵✼❪✳ ❋✐❣✉r❡ ✷✳✶✷ ✕ ❙②stè♠❡s ❞❡ ❝♦♦r❞♦♥♥é❡s ✉t✐❧✐sé ❞❛♥s ❧✬✐♠❛❣❡ ❡t ❧❡✉rs ❝❛r❛❝tér✐st✐q✉❡s ❞❛♥s ❧❡ ♠♦♥❞❡ ♣♦✉r ét❛❧♦♥♥❡r ❧❛ ❝❛♠ér❛ ❡t ❞ét❡r♠✐♥❡r s❛ ❤❛✉t❡✉r à ♣❛rt✐r ❞❡ ❧✬é❝❛rt❡♠❡♥t W ❞❡s r❛✐❧s✳ ❙✐ ♥♦✉s ❛♥❛❧②s♦♥s ❧❛ ✜❣✉r❡ ✷✳✶✷✱ ♥♦✉s ♣♦✉✈♦♥s ❞é❞✉✐r❡ q✉❡ ❧❛ ❞✐st❛♥❝❡ ❡♥tr❡ ❧❡ ❝❡♥tr❡ ♦♣t✐q✉❡ ❞❡ ❧❛ ❝❛♠ér❛ OC ❡t ❧✬♦❜❥❡t✱ ❞❛♥s ♥♦tr❡ ❝❛s✭❧❡ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t✮ ♣❡✉t s❡ ❞é❞✉✐r❡ ❞❡ ❧✬éq✉❛t✐♦♥ ✷✳✶✽ D = h csc θ ✭✷✳✶✽✮ ❉✬❛✉tr❡ ♣❛rt✱ ❧❛ t❛✐❧❧❡ ❞❡ ❧✬♦❜❥❡t Tobjet é❣❛❧❡ à ❧❛ ❞✐st❛♥❝❡ P✶P✷✱ ❡st ❞♦♥♥é ♣❛r ❧✬éq✉❛t✐♦♥ ✷✳✶✾ ✿ Tobjet = w sec φ ✭✷✳✶✾✮ ❙✐ ♥♦✉s ❛♣♣❧✐q✉♦♥s ❝❡s ❞❡✉① éq✉❛t✐♦♥s ✭✷✳✶✾ ❡t ✷✳✶✽✮ ❞❛♥s ❧✬éq✉❛t✐♦♥ ✷✳✶✸✱ ♥♦✉s ♣♦✉✈♦♥s ♦❜t❡♥✐r ❧❛ ❤❛✉t❡✉r ❞❡ ❧❛ ❝❛♠ér❛ à ♣❛rt✐r ❞❡ ❧✬é❝❛rt❡♠❡♥t ❞❡s r❛✐❧s ❡t ❞❡ ❧❛ ❢♦❝❛❧❡ ❞❡ ❧❛ ❝❛♠ér❛ ❝♦♠♠❡ ♠♦♥tr❡ ❧✬éq✉❛t✐♦♥ ✷✳✷✶ ✿✷✳✹✳ ➱t❛❧♦♥♥❛❣❡ ✸✶ f = Timageh csc θ w sec φ ✭✷✳✷✵✮ h = fw sec φ Timage csc θ ✭✷✳✷✶✮ P♦✉r ♦❜t❡♥✐r ❧❛ ♣♦s✐t✐♦♥ ❧❛tér❛❧❡ ❞❡ ❧❛ ❝❛♠ér❛✱ ♥♦✉s ♣♦✉✈♦♥s ❝♦♥s✐❞ér❡r ❞❡✉① ❝❛s ✿ ❧❛ ❝❛♠ér❛ ❡st ♣❧❛❝é❡ ❡①❛❝t❡♠❡♥t ❛✉ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡ Ty = 0✱ ♦✉ ❜✐❡♥ ❧❛ ❝❛♠ér❛ ❡st ❞é❝❛❧é❡ ❞✬✉♥❡ ❞✐st❛♥❝❡ Ty ❝♦♠♠❡ ❧❡ ♠♦♥tr❡ ❧❛ ✜❣✉r❡ ✷✳✶✸✳ ✭❛✮ ✭❜✮ ❋✐❣✉r❡ ✷✳✶✸ ✕ ❉❡✉① ❤②♣♦t❤ès❡s ❞✉ ♣❧❛❝❡♠❡♥t ❞❡ ❧❛ ❝❛♠ér❛✳ ❛✮ ▲❛ ❝❛♠ér❛ ❡st ♣❧❛❝é❡ ❛✉ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡✳ ❜✮ ▲❛ ❝❛♠ér❛ ❡st ❞é❝❛❧é❡ ❞✉ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡ ❞✬✉♥❡ ❞✐st❛♥❝❡ Ty ◗✉❛♥❞ ✐❧ ♥✬❡①✐st❡ ♣❛s ❞❡ tr❛♥s❧❛t✐♦♥ ❡♥tr❡ ❧❛ ❝❛♠ér❛ ❡t ❧❡ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡✱ ❡♥ ❞é✈❡❧♦♣♣❛♥t ✷✳✶✷✱ ♥♦✉s ♣♦✉✈♦♥s ❞é❞✉✐r❡ q✉❡ ❧❛ ♣r♦❥❡❝t✐♦♥ ❞✉ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡ ✭Y = 0✱ q✉❡❧q✉❡ s♦✐t X✮ ♥❡ ❞é♣❡♥❞ q✉❡ ❞✉ t❛♥❣❛❣❡ ❞❡ ❧❛ ❝❛♠ér❛ ❡t ❝♦rr❡s♣♦♥❞ à ❧✬éq✉❛t✐♦♥ ✷✳✷✷✳ ❉❡ ♣❧✉s✱ ❝❡tt❡ ✈❛❧❡✉r ❝♦ï♥❝✐❞❡ ❛✈❡❝ ❧❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❡s r❛✐❧s ❝♦♠♠❡ ♠♦♥tr❡ ❧✬éq✉❛t✐♦♥ ✷✳✶✻✳ u − u0 = −kuf Xc Zc y=0 = −kuf −X cos θ sin φ + Tz sin φ sin θ X cos θ cos φ − Tz sin θ cos φ = kuf tan φ ✭✷✳✷✷✮ ♦ù u r❡♣rés❡♥t❡ ❧❛ ♣♦s✐t✐♦♥ ❤♦r✐③♦♥t❛❧❡ ❡♥ ♣✐①❡❧s✱ uo ♣r♦❥❡té ❞✉ ❝❡♥tr❡ ♦♣t✐q✉❡ Oc s✉r ❧❡ ♣❧❛♥ ✐♠❛❣❡✱ ❡①♣r✐♠é ❡♥ ♣✐①❡❧s✱ ku ❧❡ ❢❛❝t❡✉r ❞✬é❝❤❡❧❧❡ ❤♦r✐③♦♥t❛❧ ❡♥ (pixels/mm)✱ ✭θ✮ ❧❡ t❛♥❣❛❣❡ ❡t ✭φ✮ ❧❡ ❧❛❝❡t✳ ❈❡♣❡♥❞❛♥t✱ q✉❛♥❞ ❧❛ ❝❛♠ér❛ ❡st ❞é♣❧❛❝é❡ ♣❛r r❛♣♣♦rt ❛✉ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡✱ ♣♦✉r ✭Y = 0, ∀X✮ ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡ ❧✬éq✉❛t✐♦♥ ✷✳✷✷ ♥♦✉s ♠♦♥tr❡ ❝♦♠♠❡ ♣rés❡♥té ❞❛♥s ❧✬éq✉❛t✐♦♥ ✷✳✷✸✱ q✉❡ ❧❛ ♣r♦❥❡❝t✐♦♥ ❞✉ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡ s❡ ✈♦✐t ❞é♣❧❛❝é ♣❛r ❧✬❡✛❡t ❞❡ ❧❛ tr❛♥s❧❛t✐♦♥ Ty ❞❡ ❢❛ç♦♥ ♣r♦♣♦rt✐♦♥♥❡❧❧❡ à ❧❛ ♣r♦❥❡❝t✐♦♥ ❞❡ ❝❡tt❡ ❞❡r♥✐èr❡✳ u − u0 = −kuf Xc Zc y=0 = −kuf −X cos θ sin φ + Tz sin φ sin θ + Ty cos φ X cos θ cos φ − Tz sin θ cos φ + Ty sin φ = kuf(tan φ + Ty cos φ Zc ) ✭✷✳✷✸✮ ❊♥ ❝♦♥séq✉❡♥❝❡✱ ✐❧ ❡st ♣♦ss✐❜❧❡ ❞✬♦❜t❡♥✐r Ty à ♣❛rt✐r ❞❡ ❧❛ ♣♦s✐t✐♦♥ ❞✉ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡ uc ❞❛♥s ❧✬✐♠❛❣❡ ❡t ❧❛ ♣♦s✐t✐♦♥ ♦ù ❡❧❧❡ ❞❡✈r❛✐t êtr❡ s✐ ❧❛ ❝❛♠ér❛ ét❛✐t ❛✉ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡ uvp✳ ❈❡tt❡ ♣♦s✐t✐♦♥ ❡st ♦❜t❡♥✉❡ à ♣❛rt✐r ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❡ ♥♦tr❡ ✐♠❛❣❡✱ ❝❛r ♠ê♠❡ s✐ ❧❛ ❝❛♠ér❛ ❡st ❞é❝❛❧é❡✱ ❧❛ ♣♦s✐t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ r❡st❡ ❧❛ ♠ê♠❡✱ ✭éq✉❛t✐♦♥ ✷✳✷✹✮✳✸✷ ❈❤❛♣✐tr❡ ✷✳ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ u − u0 = limX→∞ −kuf Xc Zc y=0 = −kuf −X cos θ sin φ + Tz sin φ sin θ + Ty cos φ X cos θ cos φ − Tz sin θ cos φ + Ty sin φ = kuf tan φ ✭✷✳✷✹✮ uvp − uc = kuf tan φ − kuf(tan φ + Ty cos φ Zc ) = −kuf Ty cos φ Zc ✭✷✳✷✺✮ ✷✳✹✳✸ ▼ét❤♦❞❡ ❞✬ét❛❧♦♥♥❛❣❡ ♣r♦♣♦sé❡ ❆✉ ✈✉ ❞❡s éq✉❛t✐♦♥s ❞ét❛✐❧❧é❡s ♣ré❝é❞❡♠♠❡♥t✱ ❧❡s ♣❛r❛♠ètr❡s ❡①tr✐♥sèq✉❡s ❞❡ ♥♦tr❡ s②stè♠❡ ♣❡✉✈❡♥t êtr❡ ❞ét❡r♠✐♥és ❛ ♣♦st❡r✐♦r✐ ❡♥ ❡①♣❧♦✐t❛♥t ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ♣❤②s✐q✉❡s ❞❡ ❧❛ ✈♦✐❡✳ P♦✉r ❝❡❧❛✱ ♥♦✉s ❛✈♦♥s ❞é✜♥✐ ✉♥❡ ♠ét❤♦❞❡ ❞✬ét❛❧♦♥♥❛❣❡ q✉❡ s✉✐t ❧❡ ❞✐❛❣r❛♠♠❡ ❞❡ ❧❛ ✜❣✉r❡ ✷✳✶✹✳ ◆♦✉s ♣r♦♣♦s♦♥s ❞❡ ❝❛❧❝✉❧❡r ❧❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ ♣♦✉r ✉♥❡ séq✉❡♥❝❡ ❞❡ M ✐♠❛❣❡s ♦ù ❧❡ ♠étr♦ ❛✈❛♥❝❡ ❡♥ ❧✐❣♥❡ ❞r♦✐t❡✳ ❈❡❧❛ ♥♦✉s ♣❡r♠❡ttr❛ ❞✬❛✣♥❡r ❧❡ rés✉❧t❛t ❡♥ ❢❛✐s❛♥t ✉♥ ♠♦②❡♥♥❛❣❡ t♦✉t ❛✉ ❧♦♥❣ ❞❡ ❧❛ séq✉❡♥❝❡ ♣♦✉r ❧❡s ❞✐✛ér❡♥ts ♣♦✐♥ts ❞❡ ❢✉✐t❡s ♦❜t❡♥✉s✳ P♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ❧❛ ❚r❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤ ❬❇❛❧❧❛r❞ ✶✾✽✶❪✱ ❞♦♥❝ ✐❧ ❡st ♥é❝❡ss❛✐r❡ ❞❡ ré❛❧✐s❡r ✉♥❡ ❡①tr❛❝t✐♦♥ ❞❡ ❝♦♥t♦✉rs ❞❡ ❧✬✐♠❛❣❡ ❛✈❡❝ ✉♥ ✜❧tr❡ ❞❡ ❈❛♥♥② ❬❈❛♥♥② ✶✾✽✻❪✳ P✉✐s✱ ✉♥❡ ❢♦✐s ♦❜t❡♥✉ ❧❡ ♣♦✐♥t ❞❡ ❢✉✐t❡✱ ♥♦✉s ♣♦✉✈♦♥s ❞ét❡r♠✐♥❡r ❧✬é❝❛rt❡♠❡♥t ❞❡s r❛✐❧s ❛✉ ❝❡♥tr❡ ❞❡ ❧✬✐♠❛❣❡ ✭vo✮✳ ❈❡❝✐ s❡r❛ ré❛❧✐sé ♣♦✉r ✉♥ ♥♦♠❜r❡ M ❞✬✐♠❛❣❡s ❝♦♥sé❝✉t✐✈❡s ❛✈❡❝ ❧❡ tr❛✐♥ ❡♥ ♠♦✉✈❡♠❡♥t✱ ♣♦✉r ✜♥❛❧❡♠❡♥t✱ ré❛❧✐s❡r ♦❜t❡♥✐r ❧❛ ♠♦②❡♥♥❡ ❞❡s ✈❛❧❡✉rs ♦❜t❡♥✉s✳ ❯♥❡ ét❛♣❡ ✐♠♣♦rt❛♥t❡ ❡st ❞❡ ❞ét❡❝t❡r ❞❡s rés✉❧t❛ts ❡rr♦♥és ♣♦✉r ♦❜t❡♥✐r ✉♥❡ ✈❛❧❡✉r ❞❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❡t ❞✬é❝❛rt❡♠❡♥t ❞❡s r❛✐❧s ❝♦rr❡❝ts✳ ❋✐❣✉r❡ ✷✳✶✹ ✕ ➱t❛♣❡s ❞❡ ❧❛ ♠ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧✬ét❛❧♦♥♥❛❣❡ ❞❡ ❧❛ ❝❛♠ér❛✳ ✷✳✹✳✸✳✶ ❊st✐♠❛t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ■❧ ❡①✐st❡ ❞❡s ♠ét❤♦❞❡s ♣❡r♠❡tt❛♥t ❞✬❡①tr❛✐r❡ ❞❡s ✐♥❢♦r♠❛t✐♦♥s ✸❉ à ♣❛rt✐r ❞✬✉♥❡ s❡✉❧❡ ✐♠❛❣❡✳ ■❧ s✬❛❣✐t ❞✬✐♥❞✐❝❡s ♠♦♥♦❝✉❧❛✐r❡s ❝♦♠♠❡ ❧❡s ♦♠❜r❡s✱ ❧❡s ♦❝❝❧✉s✐♦♥s✱ ❡t❝✳ ❈❡♣❡♥❞❛♥t✱ ❧❡ ♣❧✉s é✈✐❞❡♥t r❡st❡ ❧✬ét✉❞❡ ❞❡s ✓❧✐❣♥❡s ❞❡ ❢✉✐t❡✔ ❡t ❞❡s ✓♣♦✐♥ts ❞❡ ❢✉✐t❡✔ ✭✈❛♥✐s❤✐♥❣ ❧✐♥❡s ❡t ✈❛♥✐s❤✐♥❣ ♣♦✐♥ts ❡♥ ❛♥❣❧❛✐s✮✳ ❖♥ ♣❡✉t ❞é✜♥✐r ❧❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❛♥s ✉♥❡ ✐♠❛❣❡ ❝♦♠♠❡ ét❛♥t ❧❡ ♣♦✐♥t ❞❡ ❧✬❡s♣❛❝❡ ✈❡rs ❧❡q✉❡❧ t♦✉t❡s ❧❡s ❧✐❣♥❡s ❞❡ ♣r♦❢♦♥❞❡✉r✱ ♦✉ ❢✉②❛♥t❡s s❡ r❡♥❝♦♥tr❡♥t✱ ♦✉ s❡♠❜❧❡♥t ❝♦♥✈❡r❣❡r✳ ❊♥ t❡r♠❡s ❞❡ ❝❛♠ér❛✱ ❧❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ V ❞✬✉♥❡ ❞r♦✐t❡ l ✭❞❡ ❧✬❡s♣❛❝❡ ✸❉✮ ❡st ❧✬✐♥t❡rs❡❝t✐♦♥ ❞✉ ♣❧❛♥ ✐♠❛❣❡ ❞❡ ❧❛ ❝❛♠ér❛ ❛✈❡❝ ✉♥ r❛②♦♥ ♣❛r❛❧❧è❧❡ à l ♣❛ss❛♥t ♣❛r ❧❡ ❝❡♥tr❡ ❞❡ ♣r♦❥❡❝t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛✳ ❯♥❡ ❝♦♥séq✉❡♥❝❡ ❞❡ ❝❡ q✉✐ ♣ré❝è❞❡ ❡st q✉❡ ❞❡s ❞r♦✐t❡s ♣❛r❛❧❧è❧❡s ❛✉ ♣❧❛♥ ✐♠❛❣❡ ❛♣♣❛r❛✐ss❡♥t ♣❛r❛❧❧è❧❡s s✉r ❧✬✐♠❛❣❡ ✭✜❣✉r❡ ✷✳✶✺✮✳✷✳✹✳ ➱t❛❧♦♥♥❛❣❡ ✸✸ ❋✐❣✉r❡ ✷✳✶✺ ✕ ◆♦♠❜r❡ ❞❡ ♣♦✐♥ts ❞❡ ❢✉✐t❡ ✈❛r✐❛❜❧❡ ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ✈✉❡ ❊♥ ♣r❛t✐q✉❡✱ ✐❧ ❡①✐st❡ ♣❧✉s✐❡✉rs ❛♣♣r♦❝❤❡s ♣❡r♠❡tt❛♥t ❞❡ ❝❛❧❝✉❧❡r ❞❡s ♣♦✐♥ts ❞❡ ❢✉✐t❡✳ ▲❡ ♣❧✉s s✐♠♣❧❡ ét❛♥t ❞❡ ❝❛❧❝✉❧❡r ❧✬✐♥t❡rs❡❝t✐♦♥ ❞❡ ❞❡✉① ❞r♦✐t❡s ❞❡ ❧✬✐♠❛❣❡ q✉✬♦♥ s❛✐t ♣❛r❛❧❧è❧❡s ❞❛♥s ❧✬❡s♣❛❝❡ ✸❉✳ ❉❛♥s ❧❡ ❝❛s ❞❡ ❞❡✉① ❞r♦✐t❡s ♣❛r❛❧❧è❧❡s l1 ❡t l2✱ ❧❡✉r ♣♦✐♥t ❞❡ ❢✉✐t❡ ❡st V = l1 × l2✳ ❉❛♥s ❧❡ ❝❛s ♦ù ❧✬♦♥ ❞✐s♣♦s❡ ❞❡ n ❞r♦✐t❡s ♣❛r❛❧❧è❧❡s (n > 2)✱ ♦♥ s❛✐t q✉❡ V ❛♣♣❛rt✐❡♥t à t♦✉t❡s ❝❡s ❞r♦✐t❡s✱ ❝❡ q✉✐ s❡ tr❛❞✉✐t ♣❛r ✿ l T 1 V = l T 2 V = ... lT n V = 0✳ ❈❡ s②stè♠❡ ♣❡✉t s❡ rés♦✉❞r❡ ❛✉ s❡♥s ❞❡s ♠♦✐♥❞r❡s ❝❛rrés ❡♥ ✉t✐❧✐s❛♥t ✉♥❡ ❞é❝♦♠♣♦s✐t✐♦♥ ❡♥ ✈❛❧❡✉rs s✐♥❣✉❧✐èr❡s ✭❙❱❉ ❞❡ ❧✬❛♥❣❧❛✐s ❙✐♥❣✉❧❛r ❱❛❧✉❡ ❉❡❝♦♠♣♦s✐t✐♦♥✮✳ ■❧ ❡st ♣ré❢ér❛❜❧❡ ❞❡ t♦✉t❡s ❧❡s ✉t✐❧✐s❡r ♣♦✉r ❛✉❣♠❡♥t❡r ❧❛ ♣ré❝✐s✐♦♥ ❞✉ ❝❛❧❝✉❧ ❞❡ V ✳ P♦✉r ❞ét❡❝t❡r ❧❡s ❧✐❣♥❡s ♣rés❡♥t❡s ❞❛♥s ❧✬✐♠❛❣❡✱ ♥é❝❡ss❛✐r❡s ♣♦✉r ❧❡ s②stè♠❡ ❞✬éq✉❛t✐♦♥s✱ ♦♥ ♣r♦♣♦s❡ ✉t✐❧✐s❡r ❧❛ très ❝♦♥♥✉❡ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤✱ q✉✐ ♣❡r♠❡t ❞❡ ❞ét❡❝t❡r ❞❛♥s ❧✬✐♠❛❣❡ ❧❛ ♣rés❡♥❝❡ ❞❡ ❝♦✉r❜❡s ♣❛r❛♠étr✐q✉❡s ❛♣♣❛rt❡♥❛♥t à ✉♥❡ ❢❛♠✐❧❧❡ ❝♦♥♥✉❡ ✭❞r♦✐t❡s✱ ❝❡r❝❧❡s✱ ❡❧❧✐♣s❡s✮ ❬❇❛❧❧❛r❞ ✶✾✽✶❪✳ ▲❛ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤ ❊❧❧❡ ❛ été ❞é❝r✐t❡ ♣♦✉r ❧❛ ♣r❡♠✐èr❡ ❢♦✐s ♣❛r P❛✉❧ ❍♦✉❣❤ ❡♥ ✶✾✻✷ ❡t ❡st ✉t✐❧✐sé❡ ❝♦♠♠❡ t❡❝❤♥✐q✉❡ ❞❡ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❢♦r♠❡s ❛♣♣❧✐q✉é❡ s✉r ❞❡s ✐♠❛❣❡s ♥✉♠ér✐q✉❡s✳ ▲❡s ❛♣♣❧✐❝❛t✐♦♥s ❞❡ ❧❛ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤ s♦♥t ♥♦♠❜r❡✉s❡s ❡t ✈❛r✐é❡s✱ t❡❧❧❡s q✉❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s tr❛✐ts ❞✉ ✈✐s❛❣❡ s✉r ❞❡s ✐♠❛❣❡s✱ ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡s ❝♦❞❡s à ❜❛rr❡s ♦✉ ❞✬❡♠♣r❡✐♥t❡s ❞✐❣✐t❛❧❡s✳ ▲❡ ❢♦♥❝t✐♦♥♥❡♠❡♥t ❞❡ ❧❛ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤ s❡ ❜❛s❡ s✉r ❧✬✉t✐❧✐s❛t✐♦♥ ❞✬✉♥ ❡s♣❛❝❡ ♣❛r❛♠étr✐q✉❡ ✭❡s♣❛❝❡ ❞❡ ❍♦✉❣❤✮ ♣❡r♠❡tt❛♥t ❞❡ s✐♠♣❧✐✜❡r ❧❡ ♣r♦❜❧è♠❡ ❝♦♠♣❧❡①❡ ❞❡ ❞ét❡❝t✐♦♥ ❣❧♦❜❛❧❡ ❞❡s ❢♦r♠❡s ❞❛♥s ❧✬❡s♣❛❝❡ ✐♠❛❣❡✳ ❉❛♥s ❝❡ ♥♦✉✈❡❧ ❡s♣❛❝❡✱ ❧❛ ❞ét❡❝t✐♦♥ ❡st ❧♦❝❛❧❡ ❡t ❞♦♥❝ ♣❧✉s s✐♠♣❧❡✳ ❉❡ ❝❡tt❡ ❢❛ç♦♥✱ ✉♥❡ ❞r♦✐t❡ ♣❛ss❛♥t ♣❛r ✉♥ ♣♦✐♥t ✭x, y✮ ❞❛♥s ❧✬❡s♣❛❝❡ ✐♠❛❣❡ ♣❡✉t êtr❡ ❞é✜♥✐❡ ♣❛r s♦♥ éq✉❛t✐♦♥ ♣♦❧❛✐r❡ ✭éq✉❛t✐♦♥ ✷✳✷✻✮✱ ❛✈❡❝ ❧❡ ❝♦✉♣❧❡ ✭θ, ρ✮✱ ❧❡s ♣❛r❛♠ètr❡s ❞❡ ❧✬❡s♣❛❝❡ ❞❡ ❍♦✉❣❤✳ x ∗ sin θ + y ∗ cos θ = ρ ✭✷✳✷✻✮ ❯♥❡ ❢♦✐s n ❧✐❣♥❡s ❞ét❡❝té❡s✱ ♦♥ ♣❡✉t ❞é✜♥✐r ❧❡ s②stè♠❡ ❞✬éq✉❛t✐♦♥s ✷✳✷✼ ❡t ❧❡ rés♦✉❞r❡ ❝♦♠♠❡ ✐♥❞✐q✉é ♣ré❝é❞❡♠♠❡♥t ❛✈❡❝ ❙❱❉ ♣♦✉r ♦❜t❡♥✐r ❧❛ s♦❧✉t✐♦♥ v ❞✉ s②stè♠❡✳ [c | s] ∗ v = p ✭✷✳✷✼✮ ♦ù v = (x, y) T ✱ c = (cos θ0, ... cos θn−1, cos θn) T ✱ s = (sin θ0, ...sin θn−1,sin θn) T ❡t p = (ρ0, ...ρn−1, ρn) T ✳ ❆✈❛♥t ❞❡ ré❛❧✐s❡r ❧❛ r❡❝❤❡r❝❤❡ ❞❡s ❧✐❣♥❡s ❞❛♥s ❧✬❡s♣❛❝❡ ❞❡ ❍♦✉❣❤✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞❡ ré❛❧✐s❡r ✉♥ ✜❧tr❛❣❡ ❞❛♥s ❧✬❡s♣❛❝❡ ❞❡s ♣❛r❛♠ètr❡s ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡s ❞r♦✐t❡s ❞❛♥s ❧✬✐♠❛❣❡✳ ▲❡ ♠étr♦✸✹ ❈❤❛♣✐tr❡ ✷✳ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ ♣rés❡♥t❡ ❞❡s ❡♥✈✐r♦♥♥❡♠❡♥ts très str✉❝t✉rés ❝❡ q✉✐ ❞✬✉♥ ❝♦té ♦✛r❡ ❞❡s ❛✈❛♥t❛❣❡s ♣♦✉r ❞é✜♥✐r ❞❡s ❝r✐tèr❡s ❞❡ r❡❝❤❡r❝❤❡✳ ❊♥ ❝♦♥tr❡♣❛rt✐❡✱ ❝❡s ❡♥✈✐r♦♥♥❡♠❡♥ts ❝♦♠♣♦rt❡♥t ❜❡❛✉❝♦✉♣ ❞❡ str✉❝t✉r❡s ❛✈❡❝ ❞❡s s❡❣♠❡♥ts ❞r♦✐ts✱ ❝❡ q✉✐ ✐♥tr♦❞✉✐t ❞❡s ❞ét❡❝t✐♦♥s ❡rr♦♥é❡s✳ ▲✬♦❜❥❡❝t✐❢ ❡st ❞❡ s✉♣♣r✐♠❡r ❧❡s ❧✐❣♥❡s ♣rés❡♥t❡s ❞❛♥s ❧✬✐♠❛❣❡ q✉✐ ♥✬❛♣♣❛rt✐❡♥♥❡♥t ♣❛s ❛✉ ❣r♦✉♣❡ ❞❡s ✓❧✐❣♥❡s ❞❡ ❢✉✐t❡✔ ❞✉ ♣♦✐♥t v r❡❝❤❡r❝❤é✳ ❈❡ ✜❧tr❛❣❡ ❡st ❜❛sé s✉r ❧✬♦r✐❡♥t❛t✐♦♥ θ ❞❡s ❧✐❣♥❡s ❛♣♣❛r✲ t❡♥❛♥t ❛✉ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t ✭r❛✐❧s✱ t❛♣✐s✱ ❡t❝✳✮ ❡t ❝♦♥s✐st❡ à s✉♣♣r✐♠❡r t♦✉t❡s ❧❡s ❧✐❣♥❡s q✉✐ ♥✬♦♥t ♣❛s ✉♥❡ ♦r✐❡♥t❛t✐♦♥ ♣r♦❝❤❡ ❞❡ ❝❡❧❧❡ r❡❝❤❡r❝❤é❡ ✭✜❣✉r❡ ✷✳✶✻✮✳ ✭❛✮ ✭❜✮ ❋✐❣✉r❡ ✷✳✶✻ ✕ P❛r❛♠ètr❡s ρ ❡t θ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡s ❧✐❣♥❡s✳ ➚ ❞r♦✐t❡ ♦♥ ♣❡✉t ✈♦✐r ❧❛ ♣r♦❥❡❝t✐♦♥ ❞✉ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t ❡t ❧❡s ✈❛❧❡✉rs ❞❡ θ q✉❡ ❞❡✈r♦♥t ❛✈♦✐r ❝❡s ❧✐❣♥❡s ❞❛♥s ❧✬❡s♣❛❝❡ ❞❡ ❍♦✉❣❤ ▲✬♦❜❥❡❝t✐❢ ❡st ❞❡ s✉♣♣r✐♠❡r ❞❛♥s ❧✬❡s♣❛❝❡ ❞❡ ❍♦✉❣❤ t♦✉t❡s ❧❡s ❧✐❣♥❡s ❞❡ ❧✬✐♠❛❣❡ q✉❡ ♥✬♦♥t ♣❛s ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡s ❧✐❣♥❡s ❞✉ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t✳ P♦✉r ❝❡❧❛✱ ❧❛ r❡❝❤❡r❝❤❡ ❞❡ ❧✐❣♥❡s ❞❛♥s ❧✬❡s♣❛❝❡ ❞❡ ♣❛r❛♠ètr❡s s❡r❛ ❡①❝❧✉s✐✈❡♠❡♥t ré❛❧✐sé❡ ❞❛♥s ❞❡✉① ③♦♥❡s ❞é✜♥✐❡s ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧✬♦r✐❡♥t❛t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❡ ❧✬✐♠❛❣❡✳ ❈❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ s❡r❛ ✐♥✐t✐❛❧❡♠❡♥t ✐♥tr♦❞✉✐t ♠❛♥✉❡❧❧❡♠❡♥t ♣♦✉r ✉♥❡ ✈✐❞é♦ ❡♥ ❧✐❣♥❡ ❞r♦✐t❡✳ ❈❡s ③♦♥❡s ❞❡ r❡❝❤❡r❝❤❡ s♦♥t ❞é✜♥✐❡s ❞❡ ❧❛ ♠❛♥✐èr❡ s✉✐✈❛♥t❡ ✿ ✕ θ < π/2 − θ0(1 + 10%) ✕ θ > π/2 − θ0(1 − 10%) ✕ θ > θ0(1 − 10%) − π/2 ✕ θ < θ0(1 + 10%) − π/2 ✭❛✮ ❚r❛♥s❢♦r♠é ❞❡ ❍♦✉❣❤ ♣♦✉r ✉♥❡ ✐♠❛❣❡ ❞❡ ❧❛ ✈♦✐❡✳ ✭❜✮ ▼❛sq✉❡✳ ▲❡s ❜❛rr❡s ❜❧❛♥❝❤❡s ❞ét❡r♠✐♥❡♥t ❧❛ ③♦♥❡ ❞❡ ❧✬❡s♣❛❝❡ ❞❡ ❍♦✉❣❤ ❞❛♥s ❧❛q✉❡❧❧❡ ♦♥ ré❛❧✐s❡ ❧❛ r❡✲ ❝❤❡r❝❤❡ ❞❡s ❧✐❣♥❡s ❋✐❣✉r❡ ✷✳✶✼ ✕ ❋✐❧tr❛❣❡ ❞❛♥s ❧✬❡s♣❛❝❡ ❞❡ ❍♦✉❣❤✳✷✳✹✳ ➱t❛❧♦♥♥❛❣❡ ✸✺ ▲✬✐♥❝♦♥✈é♥✐❡♥t ❞❡ ❧❛ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤ ❡st q✉❡ ❝✬❡st ✉♥ ❛❧❣♦r✐t❤♠❡ très ❧♦✉r❞ ❡♥ t❡♠♣s ❞❡ ❝❛❧❝✉❧✱ ♠❛✐s ❣râ❝❡ ❛✉ rétré❝✐ss❡♠❡♥t ♣r♦♣♦sé ❞❡ ❧✬❛♥❛❧②s❡ ❞❛♥s ❧✬❡s♣❛❝❡ ❞❡ ❍♦✉❣❤ ❝❡ ❞é❢❛✉t s❡ ✈♦✐t ré❞✉✐t✳ ❯♥❡ ❢♦✐s q✉❡ ❧❡s ❧✐❣♥❡s ♦♥t été ❞ét❡❝té❡s ❞❛♥s ❧✬❡s♣❛❝❡ ❞❡ ❍♦✉❣❤✱ ♥♦✉s ♣♦✉✈♦♥s ♦❜t❡♥✐r ❧❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❝♦rr❡s♣♦♥❞❛♥t ❛✉ ❣r♦✉♣❡ ❞❡ ❧✐❣♥❡s ❞ét❡❝té❡s ❣râ❝❡ à ❧❛ ❞é❝♦♠♣♦s✐t✐♦♥ ❡♥ ✈❛❧❡✉rs s✐♥❣✉❧✐èr❡s✳ ✷✳✹✳✸✳✷ ❋✐❧tr❛❣❡ t❡♠♣♦r❡❧ ❞❡s ♣♦✐♥ts ❞❡ ❢✉✐t❡ ❆✈❛♥t ❞❡ ré❛❧✐s❡r ❧❛ ♠♦②❡♥♥❡ t❡♠♣♦r❡❧❧❡ ❞❡s ♣♦✐♥ts ♦❜t❡♥✉s✱ ♦♥ ❞♦✐t s✉♣♣r✐♠❡r ❧❡s ✈❛❧❡✉rs ❛❜❡r✲ r❛♥t❡s✳ ❈❡s ♣♦✐♥ts ❞❡ ❢✉✐t❡ ♣❡✉✈❡♥t êtr❡ ❞✉s à ❧✬✐♥tr♦❞✉❝t✐♦♥ ❞❡ ❧✐❣♥❡s ❞ét❡❝té❡s ❞❛♥s ❧✬❡s♣❛❝❡ ❞❡ ❍♦✉❣❤ q✉✐ ♥✬❛♣♣❛rt✐❡♥♥❡♥t ♣❛s ❛✉① ❧✐❣♥❡s ❞❡ ♣r♦❢♦♥❞❡✉r ❞❡ ♥♦tr❡ s❝è♥❡✱ ♠❛✐s q✉✐ ♦♥t ✉♥❡ ♦r✐❡♥t❛t✐♦♥ s✐♠✐❧❛✐r❡✳ ❉✬❛✉tr❡ ♣❛rt✱ ❝♦♠♠❡ ♥♦tr❡ ♣❧❛t❡❢♦r♠❡ ❡st s♦✉♠✐s❡ à ❞❡s ✈✐❜r❛t✐♦♥s✱ ❧❡ ❢❛✐t ❞✬✉t✐❧✐s❡r ✉♥❡ séq✉❡♥❝❡ ✈✐❞é♦ ♣♦✉r ❞ét❡❝t❡r ❧❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ ♥♦✉s ♣❡r♠❡ttr❛ ❞✬♦❜t❡♥✐r ✉♥ rés✉❧t❛t ♣❧✉s ✜♥ ❝❛r ❧✬❡✛❡t ❞❡s ✈✐❜r❛t✐♦♥s s❡r❛ ♠♦②❡♥♥é s✉r ❧❡s ❞✐✛ér❡♥t❡s ✐♠❛❣❡s ❞✉ tr❛✐♥ ❡♥ ♠♦✉✈❡♠❡♥t✳ P♦✉r ✜❧tr❡r✱ ♥♦✉s ♣♦✉✈♦♥s ✉t✐❧✐s❡r ❞✐✛ér❡♥t❡s ♠ét❤♦❞❡s ❝♦♠♠❡ ❝❡❧❧❡ ♣rés❡♥té❡ ❞❛♥s ❧❡s tr❛✈❛✉① ❞❡ ❬❙✉tt♦r♣ ✫ ❇✉❝❤❡r ✷✵✵✻❪✱ q✉✐ ♣r♦♣♦s❡ ❞✬✉t✐❧✐s❡r ✉♥ ✜❧tr❡ ♣❛ss❡✲❜❛s s✉✐✈✐ ❞✬✉♥ ✜❧tr❡ ❞❡ ❑❛❧♠❛♥✳ ◆é❛♥♠♦✐♥s✱ ♥♦✉s ❝❤♦✐s✐ss♦♥s ✉♥❡ ♠ét❤♦❞❡ st❛t✐st✐q✉❡ q✉✐ ♥♦✉s ♣❡r♠❡ttr❛ ❞❡ ♣♦♥❞ér❡r ❝❤❛q✉❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞ét❡❝té Vi ✳ ▲❛ ♠ét❤♦❞❡ ❝❤♦✐s✐❡ ❡st ❧❡ ✓s❝♦r❡ st❛♥❞❛r❞✔ ✭❩✲s❝♦r❡ ❡♥ ❛♥❣❧❛✐s✮ ❡t r❡♣rés❡♥t❡ ❧❛ ❞✐✛ér❡♥❝❡ ❡♥tr❡ ✉♥❡ ❞ét❡❝t✐♦♥ X ❡t ❧❛ ♠♦②❡♥♥❡ µ ❞❡ ❧❛ ❞✐str✐❜✉t✐♦♥ ❞❡s ♣♦✐♥ts✱ ❡①♣r✐♠é❡ ❡♥ ✉♥✐tés ❞✬é❝❛rt t②♣❡ σ s❡❧♦♥ ❧❛ ❢♦r♠✉❧❡ ✷✳✷✽✳ Z = X − µ σ ✭✷✳✷✽✮ ▲❡ ❩✲s❝♦r❡ ❞♦♥♥❡ ❧✬é❝❛rt r❡❧❛t✐❢ ❡♥tr❡ ❧❛ ✈❛❧❡✉r ♠❡s✉ré❡ ❡t ❧❛ ✈❛❧❡✉r ❝✐❜❧❡✳ ▲❛ st❛♥❞❛r❞✐s❛t✐♦♥ ❝♦♥s✐st❡ à r❡♠♣❧❛❝❡r X ♣❛r Z = (X − µ)/σ ❡t ❞♦♥♥❡r❛ s②sté♠❛t✐q✉❡♠❡♥t ✉♥❡ ❧♦✐ ♥♦r♠❛❧❡ ❝❡♥tré❡ ré❞✉✐t❡ ♣♦✉r✈✉ q✉❡ X s♦✐t ♥♦r♠❛❧❡✳ ❯♥❡ ♣r♦♣r✐été ✐♠♣♦rt❛♥t❡ ❞❡ ❧❛ ❞✐str✐❜✉t✐♦♥ ♥♦r♠❛❧❡✱ ❡①♣♦sé❡ ❞❛♥s ❧❛ ✜❣✉r❡ ✷✳✶✽✱ ❡st ❧✬✐♥t❡r✈❛❧❧❡ ❞❡ ❝♦♥✜❛♥❝❡ ❞❛♥s ❝❡tt❡ ❞✐str✐❜✉t✐♦♥ s❡❧♦♥ ❧❡q✉❡❧ ✿ ✕ ❊♥✈✐r♦♥ ✻✽✪ ❞❡s ✈❛❧❡✉rs s❡ r❡tr♦✉✈❡♥t ❞❛♥s [−σ; σ] ✕ ❊♥✈✐r♦♥ ✾✺✪ ❞❡s ✈❛❧❡✉rs s❡ r❡tr♦✉✈❡♥t ❞❛♥s [−2σ; 2σ] ✕ ❊♥✈✐r♦♥ ✾✾✱✼✷✪ ❞❡s ✈❛❧❡✉rs s❡ r❡tr♦✉✈❡♥t ❞❛♥s [−3σ; 3σ] ▲❡s ✈✐❜r❛t✐♦♥s ❞✉ tr❛✐♥✱ ❡ss❡♥t✐❡❧❧❡♠❡♥t ❞✉❡s ❛✉① ✐rré❣✉❧❛r✐tés ❞❡ ❧❛ ✈♦✐❡✱ s✉✐✈❡♥t ✉♥❡ ❧♦✐ ♥♦r♠❛❧❡✳ ❈❡s ✈✐❜r❛t✐♦♥s ét❛♥t ❞❡ ❢❛✐❜❧❡ ❛♠♣❧✐t✉❞❡✱ ♦♥ ♣❡✉t ❝♦♥s✐❞ér❡r q✉❡ ❧❛ ❞✐str✐❜✉t✐♦♥ ❞❡s ♣♦✐♥ts ❞❡ ❢✉✐t❡ s✉✐t é❣❛❧❡♠❡♥t ✉♥❡ ❧♦✐ ♥♦r♠❛❧❡ ✭❡♥ ✷❉✮ ❜✐❡♥ q✉❡ ❧❛ r❡❧❛t✐♦♥ q✉✐ ❧❡s ❧✐❡♥t à ❧❛ ♣♦s✐t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ ♥❡ s♦✐t ♣❛s str✐❝t❡♠❡♥t ❧✐♥é❛✐r❡✳ ◆♦✉s ❛✈♦♥s ❞é✜♥✐ ✉♥ s❡✉✐❧ ♣♦✉r s✉♣♣r✐♠❡r ❧❡s ♣♦✐♥ts ❞❡ ❢✉✐t❡s ❛❜❡rr❛♥ts ❡♥ ❜❛s❡ ❛✉① ♣♦✉r❝❡♥t❛❣❡s ❡①♣♦sés ♣ré❝é❞❡♠♠❡♥t✳ ❈❡ s❡✉✐❧ ♥♦✉s ♣❡r♠❡ttr❛ ❞❡ s✉♣♣r✐♠❡r t♦✉s ❧❡s ♣♦✐♥ts ❞❡ ❢✉✐t❡ q✉✐ ♦♥t ✉♥ ❩✲s❝♦r❡ s✉♣ér✐❡✉r ♦✉ é❣❛❧ à ✶ ❡t ✐♥❢ér✐❡✉r ♦✉ é❣❛❧ ✲✶✳ P❛rt❛♥t✱ ❧❛ ♠♦②❡♥♥❡ ♥❡ s❡r❛ ré❛❧✐sé q✉✬❛✈❡❝ ❧❡s ✈❛❧❡✉rs t❡❧❧❡s q✉❡ ❧❡ ❩✲s❝♦r❡ s❛t✐s❢❛✐t |Z| < 1 ⇒ µ − σ < X < µ + σ✳ ✷✳✹✳✹ ❘és✉❧t❛ts ▲❡s ❞✐✛ér❡♥t❡s séq✉❡♥❝❡s ✈✐❞é♦ q✉❡ ♥♦✉s ❛✈♦♥s ♣✉ ❡♥r❡❣✐str❡r à ❜♦r❞ ❞✬✉♥ ♠étr♦ ❱❆▲ ♣♦✉r ❝❡ ♣r♦❥❡t ♦♥t été ré❛❧✐sé❡s ❛✈❡❝ ❞❡✉① ❝❛♠ér❛s ❡t ❡♥ ❞❡✉① ♦❝❝❛s✐♦♥s ❞✐✛ér❡♥t❡s✳ ▲❛ ♣r❡♠✐èr❡ ❢♦✐s ✹ séq✉❡♥❝❡s ♦♥t été ❛❝q✉✐s❡s ✉♥ ❥♦✉r ❞❡ ♣❧✉✐❡ à ❧✬❛ér♦♣♦rt ❞✬❖r❧② ❡t ❧❛ ❞❡✉①✐è♠❡ séq✉❡♥❝❡ ✉♥ ❥♦✉r ❡♥s♦❧❡✐❧❧é à ❘❡♥♥❡s ❛✈❡❝ ✉♥❡ ❛✉tr❡ ❝❛♠ér❛✳ ▲❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡s ❝❛♠ér❛s s♦♥t ❡①♣♦sé❡s ❞❛♥s ❧❡ t❛❜❧❡❛✉ ✷✳✶✳ ▲❡s ❝❛♠ér❛s ✉t✐❧✐sé❡s ❧♦rs ❞❡ ❝❡s ❡♥r❡❣✐str❡♠❡♥ts ♥✬ét❛✐❡♥t ♣❛s ❝❡❧❧❡ r❡t❡♥✉❡ ♣♦✉r ❧❡ ❞✐s♣♦s✐t✐❢✳✸✻ ❈❤❛♣✐tr❡ ✷✳ ▲❛ ♣❧❛t❡❢♦r♠❡ ♠♦❜✐❧❡ ❋✐❣✉r❡ ✷✳✶✽ ✕ ❈♦✉r❜❡ ❞❡ ❞✐str✐❜✉t✐♦♥ ♥♦r♠❛❧❡ ❡t ♣♦✉r❝❡♥t❛❣❡s ❞❡s ✈❛❧❡✉rs q✉✐ s❡ r❡tr♦✉✈❡♥t ♣❛r s❡❝t✐♦♥✳ ❚❛❜❧❡❛✉ ✷✳✶ P❛r❛♠ètr❡s ✐♥tr✐♥sèq✉❡s ♣♦✉r ❧❡s ❞✐✛ér❡♥t❡s séq✉❡♥❝❡s P❛r❛♠ètr❡s ❱✐❞é♦ ✶ à ✹ ❙éq✉❡♥❝❡s ❘❡♥♥❡s ❋♦❝❛❧ ✭♠♠✮ ✻✳✷ ✼✳✶ su (µm) ✺✳✼✻ ✽✳✽ sv (µm) ✹✳✷✾ ✻✳✻ ◆ ✭♣✐①❡❧s✮ ✹✽✵ ✶✵✽✵ ▼ ✭♣✐①❡❧s✮ ✻✷✵ ✶✾✷✵ P♦✉r ❧❡s ❞❡✉① ❝❛♠ér❛s✱ ❧❡s rés✉❧t❛ts ❝♦rr❡s♣♦♥❞❛♥t ❛✉① ♣❛r❛♠ètr❡s ❡①tr✐♥sèq✉❡s s♦♥t ❡①♣♦sés ❞❛♥s ❧❡ t❛❜❧❡❛✉ ✷✳✷✳ ▲❡s rés✉❧t❛ts s♦♥t ❝♦❤ér❡♥ts ♣✉✐sq✉❡ ❧❛ ♣❛✐r❡ ❞❡ ✈✐❞é♦s ✶ ❡t ✷✱ ❡t ✸ ❡t ✹ ❛ été ré❛❧✐sé❡ ❞❛♥s ❞❡✉① tr❛❥❡ts ❞✐✛ér❡♥ts✳ ❉❛♥s ❝❤❛q✉❡ tr❛❥❡t ❧❡s séq✉❡♥❝❡s ♦♥t été ❡♥r❡❣✐stré❡s ❛✈❡❝ ✉♥ tré♣✐❡❞ à ❧✬✐♥tér✐❡✉r ❞✉ tr❛✐♥✱ ♣❧❛❝é ❛✉ ♠✐❧✐❡✉ ❞❡ ❧❛ r❛♠❡ ❞❡rr✐èr❡ ❧❡ ♣❛r❡✲❜r✐s❡✳ ❈❡♣❡♥❞❛♥t✱ à ❝❛✉s❡ ❞❡s r❡✢❡ts ❞❡ ❧❛ ✈✐tr❡ à ❧✬✐♥tér✐❡✉r ❞❡s t✉♥♥❡❧s✱ ❧❡s ❡♥r❡❣✐str❡♠❡♥ts ✈✐❞é♦ ♦♥t été ❛rrêtés✱ ❝❡ q✉✐ ❛ ♣✉ ♣r♦❞✉✐r❡ ❞❡s ❢❛✐❜❧❡s ❝❤❛♥❣❡♠❡♥ts ❞❛♥s ❧❡s ❛♥❣❧❡s ❞✬♦r✐❡♥t❛t✐♦♥✱ ❡t ❛✉ss✐ à ❝❛✉s❡ ❞❡s ✈✐❜r❛t✐♦♥s ❞❡ ❧❛ ❝❛✐ss❡✱ ❧❡ tré♣✐❡❞ ❛ ♣✉ s❡ ❞é♣❧❛❝❡r✳ P❛r r❛♣♣♦rt à ❧❛ séq✉❡♥❝❡ ❞❡ ❘❡♥♥❡s✱ ♦ù ✉♥❡ ❛✉t♦r✐s❛t✐♦♥ ❞✬❡♥r❡❣✐str❡♠❡♥t ❛ été ♦❜t❡♥✉❡✱ ❧❛ ✈❛❧❡✉r ❛❝q✉✐s❡ ❞❡ ❧❛ ❤❛✉t❡✉r ❞❡ ❧❛ ❝❛♠ér❛ ❝♦rr❡s♣♦♥❞ ❛✉① ❡st✐♠❛t✐♦♥s ❢❛✐t❡s s✉r♣❧❛❝❡✳ ▲❛ ❝❛♠ér❛ ❛ été ♣❧❛❝❡ ❝❡tt❡ ❢♦✐s✲❝✐ s✉r ✉♥❡ ❜❛rr❡ ❤♦r✐③♦♥t❛❧❡ ♣rés❡♥t❡ ❞❛♥s ❧❛ r❛♠❡ ❞❡rr✐èr❡ ❧❡ ♣❛r❡✲❜r✐s❡ ❡t s❛ ♣♦s✐t✐♦♥ ♣❛r r❛♣♣♦rt ❛✉ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t ❡st ❝♦♥♥✉❡✳ ❘❛♣♣❡❧♦♥s q✉❡ ❧❛ ❢♦r♠✉❧❡ ♣♦✉r ❞ét❡r♠✐♥❡r ❧❛ ❤❛✉t❡✉r ❡st ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛✳ ▲❛ ✜❣✉r❡ ✷✳✶✾ ♥♦✉s ♠♦♥tr❡ ✉♥ ❡①❡♠♣❧❡ ❞❡ ❧✬❡①tr❛❝t✐♦♥ ❞❡s ❞✐✛ér❡♥ts ♣♦✐♥ts ❞❡ ❢✉✐t❡ ♣♦✉r ✉♥❡ séq✉❡♥❝❡ ✈✐❞é♦ ❡♥ ❧✐❣♥❡ ❞r♦✐t❡✳ ▲❛ s♦✉s✲✜❣✉r❡ ✭❞✮ ♠♦♥tr❡ ❧❡ ✜❧tr❛❣❡ t❡♠♣♦r❡❧ ré❛❧✐sé ❣râ❝❡ ❛✉ ❩✲s❝♦r❡✱ ♦✉ ❧❡s ♣♦✐♥ts ❡♥ ❜❧❡✉ r❡♣rés❡♥t❡♥t ❧❡s ♣♦✐♥ts ❞❡ ❢✉✐t❡ é❝❛rtés ♣♦✉r ❧❡ ❝❛❧❝✉❧❡ ❞❡ ❧❛ ♠♦②❡♥♥❡✳ ❚❛❜❧❡❛✉ ✷✳✷ ❘és✉❧t❛ts ❞✬ét❛❧♦♥♥❛❣❡ ♦❜t❡♥✉s ♣♦✉r ❧❡s ❞✐✛ér❡♥t❡s séq✉❡♥❝❡s P❛r❛♠ètr❡s ❱✐❞é♦ ✶ ❱✐❞é♦ ✷ ❱✐❞é♦ ✸ ❱✐❞é♦ ✹ ❙éq✉❡♥❝❡s ❘❡♥♥❡s ❚❛♥❣❛❣❡ ✭θ✮ ✲✶✵✳✾✸✷◦ ✲✶✶✳✸✸◦ ✲✾✳✹✾✸ ◦ ✲✾✳✼✼✹◦ ✲✾✳✶✾✶✼◦ ▲❛❝❡t ✭φ✮ ✷✳✷✹✹✺◦ ✷✳✽✷✺◦ ✷✳✶✻✶✹ ◦ ✷✳✵✼✽◦ ✲✶✳✺✶✻✶◦ ❍❛✉t❡✉r ✭❤✮ ✭m✮ ✷✳✷✸✷✾ ✷✳✷✹✽ ✷✳✷✻✵✺ ✷✳✷✸✵✺ ✷✳✸✼✵✶ ❚r❛♥s❧❛t✐♦♥ ✭Ty✮ ✭m✮ ✵✳✵✶ ✲✵✳✵✵✺ ✲✵✳✵✷✺ ✲✵✳✵✶✵ ✵✳✵✵✾✷✳✹✳ ➱t❛❧♦♥♥❛❣❡ ✸✼ ✭❛✮ ❉ét❡❝t✐♦♥ ❞❡s ❧✐❣♥❡s ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡✳ ✭❜✮ ❉ét❡❝t✐♦♥s ❞❡s ❧✐❣♥❡s ❛✈❡❝ ❞❡s ❧✐❣♥❡s ❡rr♦♥é❡s ✭♦✉t❧✐❡rs✮✳ ✭❝✮ ❊♥s❡♠❜❧❡ ❞❡s ♣♦✐♥ts ❞❡ ❢✉✐t❡ ❞ét❡❝tés✳ ❊♥ ❜❧❡✉ ❧❡s ♣♦✐♥ts r❡❥❡tés ♣❛r ❧❡ ✜❧tr❡ st❛t✐st✐q✉❡✳ ❊♥ r♦✉❣❡ ❧❛ ♠♦②❡♥♥❡ ❞❡s ♣♦✐♥ts ✈❡rts✳ ❋✐❣✉r❡ ✷✳✶✾ ✕ ❊①❡♠♣❧❡ ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡✳❈❤❛♣✐tr❡ ✸ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❙♦♠♠❛✐r❡ ✸✳✶ ▼♦t✐✈❛t✐♦♥s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✾ ✸✳✶✳✶ ❇❛s❡ ❞❡ ❞♦♥♥é❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✾ ✸✳✶✳✷ ▲❛ ♣✐st❡ ❞❡ r♦✉❧❡♠❡♥t ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✹✵ ✸✳✷ ➱t❛t ❞❡ ❧✬❛rt ❡t ❛♣♣r♦❝❤❡s t❡sté❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✹✶ ✸✳✸ ❆♣♣r♦❝❤❡ r❡t❡♥✉❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✺✶ ✸✳✸✳✶ ❙é❧❡❝t✐♦♥ ❞✉ ▼❛sq✉❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✺✶ ✸✳✸✳✷ ❆♥❛❧②s❡ ❞❡s ❣r❛❞✐❡♥ts ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✺✸ ✸✳✸✳✸ ❘❡❝❤❡r❝❤❡ ❞✉ ♠♦❞è❧❡ ❞❛♥s ❧✬❡s♣❛❝❡ ✸❉ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✺✼ ✸✳✸✳✸✳✶ ◆♦♠❜r❡ ❞✬✐tér❛t✐♦♥s ❞❡ ❘❆◆❙❆❈ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✺✽ ✸✳✸✳✸✳✷ ❙❝♦r❡ ❞✉ ♠♦❞è❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✺✾ ✸✳✸✳✸✳✸ ❘❆◆❙❆❈ ♣♦✉r ❝❤❛q✉❡ r❛✐❧ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✶ ✸✳✸✳✹ ❉é♣❡♥❞❛♥❝❡ t❡♠♣♦r❡❧❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✷ ✸✳✸✳✺ ❉ét❡r♠✐♥❛t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✸ ✸✳✸✳✺✳✶ ❊✛❡ts ❞❡s ❝❤❛♥❣❡♠❡♥t ❞❡ ♣❡♥t❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✹ ✸✳✹ ❘és✉❧t❛ts ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✼ ✸✳✶ ▼♦t✐✈❛t✐♦♥s ▲❡s tr❛✐♥s ♥✬♦♥t ♣❛s ❜❡s♦✐♥ ❞❡ ré❛❧✐s❡r ❧✬❡①tr❛❝t✐♦♥ ❡t ❧❡ s✉✐✈✐ ❞❡s r❛✐❧s ♣♦✉r ❝♦♥trô❧❡r ❧❡✉r tr❛✲ ❥❡❝t♦✐r❡ ♣✉✐sq✉✬✐❧ s✬❛❣✐t ❞✬✉♥ s②stè♠❡ ❣✉✐❞é✳ P❛r ❝♦♥tr❡✱ ✐❧ ❡①✐st❡ ❞❡✉① r❛✐s♦♥s ♣♦✉r ❧❡sq✉❡❧❧❡s ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ❡st ✐♥tér❡ss❛♥t❡ ✿ ✕ ❆✈♦✐r ✉♥❡ ré❣✐♦♥ ❞✬✐♥térêt ♣♦✉r ❧✬❡①♣❧♦✐t❛t✐♦♥ ❞❡s ❝❛♣t❡✉rs ✿ ◆♦✉s ❝❤❡r❝❤♦♥s à ❞é✈❡❧♦♣♣❡r ✉♥ s②stè♠❡ t❡♠♣s ré❡❧ ❞♦♥t ❧❛ ♠✐♥✐♠✐s❛t✐♦♥ ❞❡ ❧❛ ③♦♥❡ ❞❡ r❡❝❤❡r❝❤❡ ♣❡r♠❡ttr❛ ❞✬♦❜t❡♥✐r ❞❡s rés✉❧t❛ts ♣❧✉s r❛♣✐❞❡s ❡t r♦❜✉st❡s✳ ✕ ▲❛ s❡❝♦♥❞❡ r❛✐s♦♥ ❡st ❧❡ ❢❛✐t q✉❡ ❧❡s ♦❜st❛❝❧❡s ♦♥t ✉♥❡ ❝♦♥♥❡①✐♦♥ ❛✈❡❝ ❧❡ s♦❧✱ ✐❧ ② ❛✉r❛ ❞♦♥❝ ✉♥❡ ❞✐s❝♦♥t✐♥✉✐té ❞❛♥s ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❞✉ s♦❧✳ ❉ès ❧♦rs✱ ❧❡ ❢❛✐t q✉❡ ❧❡ ✈é❤✐❝✉❧❡ s♦✐t ❣✉✐❞é s❡r❛ ♠✐s à ♣r♦✜t ♣♦✉r ❛♠é❧✐♦r❡r ♥♦t❛❜❧❡♠❡♥t ❧❛ ✜❛❜✐❧✐té ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ♣❛r ❧❛ ❝♦♥♥❛✐ss❛♥❝❡ ❛ ♣r✐♦r✐ ❞❡ ❧✬❡♥✈✐r♦♥♥❡♠❡♥t✳ ❙✐ ♥♦✉s ❛rr✐✈♦♥s à r❡❝♦♥♥❛îtr❡ ❧❡s r❛✐❧s ❥✉sq✉✬à ✉♥❡ ❞✐st❛♥❝❡ ❉ à ❧✬❛✈❛♥t ❞✉ tr❛✐♥✱ ❛❧♦rs ❧❛ ✈♦✐❡ ❡st ❧✐❜r❡ ❞✬♦❜st❛❝❧❡s s✉r ❝❡tt❡ ③♦♥❡ ❡t ✐❧ ② ❛ ♣♦t❡♥t✐❡❧❧❡♠❡♥t ✉♥ ♦❜st❛❝❧❡ ❛✉✲❞❡❧à✳ P♦✉r ❝❡❧❛✱ ♥♦✉s ❛✈♦♥s ❞♦♥❝ é✈❛❧✉é ❧❡s t❡❝❤♥✐q✉❡s ♣rés❡♥té❡s ❞❛♥s ❧❡s s❡❝t✐♦♥s ✸✳✷ ❡t ✸✳✸ ❛✜♥ ❞✬❛♥❛❧②s❡r ❧❛ ❢❛✐s❛❜✐❧✐té ❞✬✉♥ s②stè♠❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ❞❛♥s ❧❡ ❝♦♥t❡①t❡ ❞❡ sé❝✉r✐té ❢❡rr♦✈✐❛✐r❡✳ ✸✳✶✳✶ ❇❛s❡ ❞❡ ❞♦♥♥é❡s ❇✐❡♥ q✉❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❧✐❣♥❡s ♦✉ ❞❡s ♣❛♥♥❡❛✉① r♦✉t✐❡rs ✐❧ ❡①✐st❡ ❞❡s ❜❛s❡s ❞❡ ❞♦♥✲ ♥é❡s ♣✉❜❧✐q✉❡s ❝♦♠♠❡ ❑✐tt✐ ❘♦❛❞ ❉❛t❛s❡t ❬❋r✐ts❝❤ ❡t ❛❧✳ ✷✵✶✸❪ ♦✉ ●❡r♠❛♥ ❚r❛✜❝ ❙✐❣♥ ❘❡❝♦❣♥✐t✐♦♥✹✵ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❋✐❣✉r❡ ✸✳✶ ✕ ❈♦✉♣❡ tr❛♥s✈❡rs❛❧❡ ❞❡ ❧❛ ✈♦✐❡ ❞✉ ❱❆▲ ❇❡♥❝❤♠❛r❦ ❬❙t❛❧❧❦❛♠♣ ❡t ❛❧✳ ✷✵✶✶❪ ❛❝t✉❡❧❧❡♠❡♥t✱ ❛✉❝✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ♣✉❜❧✐q✉❡ ♥✬❡①✐st❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s✱ ❝❡ q✉✐ ♣❡r♠❡ttr❛✐t ❞❡ ❝♦♠♣❛r❡r ♥♦tr❡ ❛♣♣r♦❝❤❡ à ❧❛ ❧✐ttér❛t✉r❡✳ ▲❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ✉t✐❧✐sé❡ ❞❛♥s ❝❡ ♣r♦❥❡t ❛ été ❛❝q✉✐s❡ ♣❛r ♥♦s ♣r♦♣r❡s ♠♦②❡♥s ❞❛♥s ✉♥❡ ♣♦rt✐♦♥ ❞✉ tr❛❥❡t ❞❡ ❧❛ ❧✐❣♥❡ ❞✉ ♠étr♦ ❛✉t♦♠❛t✐q✉❡ ❖r❧②❱❛❧✱ q✉✐ r❡❧✐❡ ❆♥t♦♥② ❡t ❧✬❛ér♦♣♦rt ❖r❧②❙✉❞✱ ❛✈❡❝ ✉♥ ♣❛r❝♦✉rs ❞❡ 7, 8 km ❞❛♥s ❞✐✛ér❡♥t❡s ❝♦♥❞✐t✐♦♥s ❞❡ ✈♦✐❡ ✿ ❛ér✐❡♥✱ t✉♥♥❡❧ ❡t ❡♥ ✈✐❛❞✉❝✳ ✸✳✶✳✷ ▲❛ ♣✐st❡ ❞❡ r♦✉❧❡♠❡♥t ▲❛ ✈♦✐❡ ❞✉ ❱❆▲ ❡st ❝♦♥st✐t✉é❡ ♣r✐♥❝✐♣❛❧❡♠❡♥t ❞❡s é❧é♠❡♥ts s✉✐✈❛♥ts ✿ ✕ ❉❡✉① ♣✐st❡s ❞❡ r♦✉❧❡♠❡♥t✳ ✕ ❉❡✉① ❜❛rr❡s ❞❡ ❣✉✐❞❛❣❡ ❧❛tér❛❧✱ s❡r✈❛♥t é❣❛❧❡♠❡♥t à ❧✬❛❧✐♠❡♥t❛t✐♦♥ é❧❡❝tr✐q✉❡ ❞✉ ♠❛tér✐❡❧ r♦✉❧❛♥t✱ ♠♦♥té❡s s✉r ❞❡s ✐s♦❧❛t❡✉rs ✈❡rt✐❝❛✉①✱ ❞❡s ❜❧♦❝❤❡ts ♦✉ ❞❡s tr❛✈❡rs❡s ❡♥ ❜ét♦♥ ❛r♠é✳ ✕ ❉❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ à ❣✉✐❞❛❣❡ ❝❡♥tr❛❧ ✭❛✐❣✉✐❧❧❛❣❡s✮✳ ✕ ❉❡s ♣❛ss❡r❡❧❧❡s ❡t ❞❡s tr♦tt♦✐rs ❞✬é✈❛❝✉❛t✐♦♥✳ ✕ ❉❡s ❝❤❡♠✐♥s ❞❡ ❝â❜❧❡s ✭t❛♣✐s à ❝â❜❧❡s ❡♥ ✈♦✐❡s ❛✉ s♦❧✮ ❛♣♣❡❧és ❛✉ss✐ t❛♣✐s✳ ▲✬♦✉✈r❛❣❡ ❛✉ s♦❧ ❡st ❝♦♥st✐t✉é ❞✬✉♥ r❛❞✐❡r ❜ét♦♥ s✉r ❧❡q✉❡❧ s♦♥t ❞✐s♣♦sé❡s ❧❡s ✈♦✐❡s✱ ❧❡ ❝❤❡♠✐♥❡✲ ♠❡♥t ❡t t♦✉s ❧❡s é❧é♠❡♥ts ♥é❝❡ss❛✐r❡s ❛✉ ❢♦♥❝t✐♦♥♥❡♠❡♥t ❞❡ ❧❛ ❧✐❣♥❡ ❖r❧②✈❛❧✳ ■❧ ❡st ❜♦r❞é ❞❡ ♣❛rt ❡t ❞✬❛✉tr❡✱ ❞✬✉♥❡ ❝❧ôt✉r❡ ✭❣r✐❧❧❛❣❡✮ ❛✜♥ ❞✬❡♠♣ê❝❤❡r t♦✉t❡ ✐♥tr✉s✐♦♥ s✉r ❧❡ s✐t❡ ❡t ❛ss✉r❡r ❧❛ ❞é✜♥✐t✐♦♥ ❞❡ ✓s✐t❡ ♣r♦♣r❡✔ ✭s❡❝t✐♦♥ ✶✳✷✳✶✮✳ ❯♥ ❛♣❡rç✉ ❞❡ ❧❛ ❝♦✉♣❡ tr❛♥s✈❡rs❛❧❡ ❞❡ ❧❛ ✈♦✐❡ ❛✈❡❝ s❡s ♠❡s✉r❡s ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✶✳ ▲❡s ♣✐st❡s ❞❡ r♦✉❧❡♠❡♥t s❡r✈❡♥t ❞❡ s✉♣♣♦rt ❛✉ ✈é❤✐❝✉❧❡✱ ❡❧❧❡s s♦♥t ❞❡ t②♣❡ ♠ét❛❧❧✐q✉❡ ❞✬✉♥❡ ❧❛r❣❡✉r ❞❡ 25 cm ❡t ❛✈❡❝ ✉♥❡ ❤❛✉t❡✉r ❞❡ 12 cm✳ ▲✬é❝❛rt❡♠❡♥t ❡♥tr❡ s❡s ❛①❡s ❡st ❞❡ 162 cm✱ ❝♦♠♠❡ ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✶✳ ▲❡s ❜❛rr❡s ❞❡ ❣✉✐❞❛❣❡ ♦♥t ❞❡✉① ❢♦♥❝t✐♦♥s ❡ss❡♥t✐❡❧❧❡s ✿ ✕ ❧❡ ❣✉✐❞❛❣❡ ❞✉ ✈é❤✐❝✉❧❡✳✸✳✷✳ ➱t❛t ❞❡ ❧✬❛rt ❡t ❛♣♣r♦❝❤❡s t❡sté❡s ✹✶ ✕ ❧✬❛❧✐♠❡♥t❛t✐♦♥ ❡♥ ❝♦✉r❛♥t é❧❡❝tr✐q✉❡ ❞❡s ✈é❤✐❝✉❧❡s ✭❧❛ ❜❛rr❡ ✓♣♦s✐t✐✈❡✔ ❡st ❛❧✐♠❡♥té❡ ❡♥ 750 V ❝♦♥t✐♥✉✱ ❡t ❧❛ ❜❛rr❡ ✓♥é❣❛t✐✈❡✔ ❡st r❡❧✐é❡ à ❧❛ t❡rr❡✮✳ ▲❡s ❜❛rr❡s ♣♦s✐t✐✈❡s s♦♥t r❡❝♦✉✈❡rt❡s ❞✬✉♥ ❝❛♣♦t ❞❡ ♣r♦t❡❝t✐♦♥ ❡♥ ♠❛t✐èr❡ ♣❧❛st✐q✉❡ ❜❧❛♥❝ ♣r✐♥✲ ❝✐♣❛❧❡♠❡♥t ❡♥ ♣❛rt✐❡ ❛ér✐❡♥♥❡✳ ❈❡s ❜❛rr❡s s♦♥t ❞✐s♣♦sé❡s t♦✉t ❛✉ ❧♦♥❣ ❞❡ ❧❛ ✈♦✐❡✱ s❛✉❢ ❛✉① ❡♥❞r♦✐ts ❞❡s ❜r❛♥❝❤❡♠❡♥ts ♦✉ ❞❡s ❝♦♠♠✉♥✐❝❛t✐♦♥s ❞❡ ✈♦✐❡✳ ▲❡ s✉♣♣♦rt ❞❡ ❧✐❣♥❡ ❞❡ tr❛♥s♠✐ss✐♦♥ ❞❡s ❛✉t♦♠❛t✐s♠❡s ❡st ❝♦✉✈❡rt ♣❛r ❞❡s ❞❡ ♣❧❛♥❝❤❡s ❡♥ ♠❛t✐èr❡ ♣❧❛st✐q✉❡✱ ❡t s❡ s✐t✉❡ ❞❛♥s ❧❡ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t✳ ❉❛♥s ❝❡rt❛✐♥❡s ③♦♥❡s ❧❡ t❛♣✐s ♣r✐♥❝✐♣❛❧ ❡st ❞♦✉❜❧é ♣❛r ✉♥ t❛♣✐s s❡❝♦♥❞❛✐r❡✳ ❈♦♠♠❡ ✐♥❞✐q✉é ❞❛♥s ❧❡ ❝❤❛♣✐tr❡ ♣ré❝é❞❡♥t ❧❛ ✈♦✐❡ s❡ ❝❛r❛❝tér✐s❡ ♣❛r ✉♥ r❛②♦♥ ❞❡ ❝♦✉r❜✉r❡ ❤♦r✐③♦♥t❛❧ ♠✐♥✐♠❛❧ ❞❡ 40 m✱ ✉♥ r❛②♦♥ ✈❡rt✐❝❛❧ ♠✐♥✐♠❛❧ ❞❡ 600 m ❡t ✉♥❡ ♣❡♥t❡ ♠❛①✐♠❛❧❡ ❞❡ 7%✳ ▲❡ ❞é✈❡rs ❞❡ ❧❛ ✈♦✐❡ ✈❛ ❞❡ 0% à 13% ❛✈❡❝ ✉♥❡ ✈❛r✐❛t✐♦♥ ❞✉ ❞é✈❡rs ❞❡ 0, 55%/m✳ ❈❡s ❝❛r❛❝tér✐st✐q✉❡s ♥♦✉s ♣❡r♠❡tt❡♥t ❞✬✉t✐❧✐s❡r ❧✬❤②♣♦t❤ès❡ ❞✉ ♠♦♥❞❡ ♣❧❛♥✳ ❈❡ t②♣❡ ❞❡ ✈♦✐❡ s❡ ❞✐✛ér❡♥❝✐❡ ♣r✐♥❝✐♣❛❧❡♠❡♥t ❞❡s ✈♦✐❡s ❢❡rré❡s ❝❧❛ss✐q✉❡s ♣❛r ❧✬❛❜s❡♥❝❡ ❞❡s tr❛✲ ✈❡rs❡s ❡t ❧✬❡①✐st❡♥❝❡ ❞❡s ♣❧✉s✐❡✉rs str✉❝t✉r❡s ❧✐♥é❛✐r❡s ❡t ♣❛r❛❧❧è❧❡s ❛✉① r❛✐❧s✳ ❈♦♠♠❡ ❧❡ ♠♦♥tr❡ ❧❛ ✜❣✉r❡ ✸✳✷✱ ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❞✬✉♥❡ ✈♦✐❡ ❢❡rré❡ ♠❛✐♥t✐❡♥♥❡♥t ✉♥❡ ❝♦♥t✐♥✉✐té t♦✉t ❛✉ ❧♦♥❣ ❞❡ ❧❛ ✈♦✐❡✱ ❝♦♠♠❡ ❧✬❡s♣❛❝❡♠❡♥t ❡♥tr❡ ❧❡s tr❛✈❡rs❡s ❡t ❧❡ ❜❛❧❧❛st ❡t ♥♦r♠❛❧❡♠❡♥t ❧✬❡s♣❛❝❡ ❡st ❞é❣❛❣é ❡♥tr❡ ❧❡s ❞❡✉① ✈♦✐❡s✳ ❊♥ r❡✈❛♥❝❤❡✱ ❞❛♥s ❧❡ ❝❛s ❞✬✉♥❡ ✈♦✐❡ ❞❡ ♠étr♦ s✉r ♣♥❡✉s ❛✉t♦♠❛t✐sé✱ ❧✬❡♥tr❡✲✈♦✐❡ ❡st ❢❛✐t❡ ❛✈❡❝ ❞✉ ❜ét♦♥✱ ✐❧ ❡①✐st❡ ❞✬❛✉tr❡s str✉❝t✉r❡s ❝♦♠♠❡ ❧❡s ❜❛rr❡s ❞❡ ❣✉✐❞❛❣❡s✱ ❧❡ t❛♣✐s✱ ❧❡s ♣❛ss❡r❡❧❧❡s✱ ❧❡s ❜♦✐t✐❡rs ❞❡ ❝♦♠♠✉♥✐❝❛t✐♦♥s✱ ❡t❝✳ ✭❛✮ ❱♦✐❡ ❢❡rré❡✳ ✭❜✮ ❱♦✐❡ ♣♥❡✉♠❛t✐q✉❡✳ ❋✐❣✉r❡ ✸✳✷ ✕ ❈♦♠♣❛r❛✐s♦♥ ❡♥tr❡ ✉♥❡ ✈♦✐❡ ❢❡rré❡ ❝❧❛ss✐q✉❡ ❡t ✉♥❡ ✈♦✐❡ ♣♥❡✉♠❛t✐q✉❡ ✸✳✷ ➱t❛t ❞❡ ❧✬❛rt ❡t ❛♣♣r♦❝❤❡s t❡sté❡s P♦✉r ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❞❡s ♦❜st❛❝❧❡s ❞❛♥s ❧❛ tr❛❥❡❝t♦✐r❡ ❞✬✉♥ tr❛✐♥✴♠étr♦✱ ✉♥❡ ❞❡s ♣r✐♥❝✐♣❛❧❡s ét❛♣❡s ♥é❝❡ss❛✐r❡s ❡st ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❢❡rré❡✳ ❉♦♥❝✱ ❡♥ ♣❛rt❛♥t ❞❡s ❝♦♥♥❛✐ss❛♥❝❡s ❞❡ ❧❛ ❞ét❡❝t✐♦♥ r♦✉t✐èr❡ ❞❛♥s ❧❡ ❝❛s str✉❝t✉ré✱ ✐❧ ❡st ♣♦ss✐❜❧❡ ❞❡ ❝✐t❡r ❞✐✛ér❡♥ts t②♣❡s ❞❡ ♠ét❤♦❞❡s à ❛♣♣❧✐q✉❡r ✿ ✕ ▲❛ r❡❝❤❡r❝❤❡ ❞❡ ♠❛①✐♠❛ ❡t ♠✐♥✐♠❛ ❧♦❝❛✉① ❞✉ ♣r♦✜❧ ❞❡ ♥✐✈❡❛✉ ❞❡ ❣r✐s ❬▲❛✐❧❧❡r ✶✾✾✸❪✳ ✕ ▲❛ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤ ✿ ❞ét❡❝t✐♦♥ ❞✬❡♥s❡♠❜❧❡s ❞❡ ♣♦✐♥ts s✐t✉és s✉r ✉♥❡ ❝♦✉r❜❡ ♣❛r❛♠étr✐q✉❡ ❬❱♦✐s✐♥ ❡t ❛❧✳ ✷✵✵✹❪✳ ✕ ▲❛ tr❛♥s❢♦r♠❛t✐♦♥ ❞✬✐♠❛❣❡s ✿ ❝❡tt❡ ♠ét❤♦❞❡ tr❛♥s❢♦r♠❡ ❧✬✐♠❛❣❡ ♣❛r ♠♦❞✐✜❝❛t✐♦♥ ❞❡s ❝♦♦r❞♦♥✲ ♥é❡s ❞❡s ♣✐①❡❧s ❛✜♥ ❞❡ ❝♦rr✐❣❡r ❧✬❡✛❡t ❞❡ ❧❛ ♣❡rs♣❡❝t✐✈❡ ❬❇r♦❣❣✐ ✶✾✾✺❪✳ ✕ ▲❡s ♦♣ér❛t❡✉rs ❞❡ ❞é❝❧✐✈✐té ✿ ❉ét❡❝t✐♦♥ ❛✉t♦❛❞❛♣t❛t✐✈❡ ❞❡s ❝♦♥t♦✉rs✳ ❆♣rès ❛✈♦✐r ét✉❞✐é ♣❧✉s✐❡✉rs ❞❡s ❤②♣♦t❤ès❡s ✉t✐❧✐sé❡s ❞❛♥s ❧❡s ❞✐✛ér❡♥ts s②stè♠❡s ❞❡ ❧♦❝❛❧✐s❛t✐♦♥ ❡t ❞❡ s✉✐✈✐ ❞❡s ♠❛rq✉❛❣❡s r♦✉t✐❡rs✱ ♥♦✉s ♣♦✉✈♦♥s ét❛❜❧✐r ❧❡ t❛❜❧❡❛✉ ✸✳✶ ✐♥❞✐❝❛t✐❢ ❞❡ ❧❡✉rs ❛✈❛♥t❛❣❡s ❡t ✐♥❝♦♥✈é♥✐❡♥ts ❬❇❡rt♦③③✐ ❡t ❛❧✳ ✷✵✵✵❪✳✹✷ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❚❛❜❧❡❛✉ ✸✳✶ ❈♦♠♣❛r❛t✐❢ ❞❡s ♠ét❤♦❞❡s ♣♦✉r ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡✳ ❍②♣♦t❤ès❡ ❆✈❛♥t❛❣❡s ■♥❝♦♥✈é♥✐❡♥ts ❘é❣✐♦♥ ❞✬✐♥térêt ❖♥ ❛♥❛❧②s❡ q✉✬✉♥❡ ♣❡t✐t❡ ♣♦rt✐♦♥ ❞❡ ❧✬✐♠❛❣❡✱ ❞♦♥❝ ♦♥ ❛ ❞❡ ❣r❛♥❞❡s ✈✐t❡ss❡s ❞❡ tr❛✐t❡♠❡♥t✱ ❡♥ t❡♠♣s ré❡❧ ❛✈❡❝ ✉♥ ❢❛✐❜❧❡ ❝♦ût ❤❛r❞✇❛r❡✳ ▲❡ ❝❤♦✐① ❞❡ ❧❛ ré❣✐♦♥ ❞✬✐♥té✲ rêt ❡st ❝r✐t✐q✉❡✳ ▲❛r❣❡✉r ❞❡ ❧❛ r♦✉t❡ ✜①❡ ❋❛❝✐❧✐t❡ ❧❡ ♣r♦❝❡ss✉s ❞❡ r❡❝❤❡r❝❤❡ ❞❡s ✈♦✐❡s✳ ❘♦❜✉st❡ss❡ ❞❛♥s ❧❡s ③♦♥❡s ❞✬♦♠❜r❡ ♦✉ ❧❡s ③♦♥❡s ♦ù ❧❡s ♠❛rq✉❡s ♥❡ s♦♥t ♣❛s ✈✐s✐❜❧❡s Pr♦❜❧è♠❡s q✉❛♥❞ ❧❛ ❧❛r✲ ❣❡✉r✴t❛✐❧❧❡ ❞❡s ♠❛rq✉❛❣❡s ❡st ✈❛r✐❛❜❧❡✳ ❋♦r♠❡ ❞❡ ❧❛ r♦✉t❡ ▼♦❞è❧❡ r♦❜✉st❡ q✉✐ ❢❛❝✐❧✐t❡ ❧❛ r❡❝♦♥str✉❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❡t ❧❡ ❝♦♥trô❧❡ ❞✉ ✈é❤✐❝✉❧❡✳ ▲❡ ♠♦❞è❧❡ ❡①✐❣❡ ❞❡s éq✉❛✲ t✐♦♥s ❝♦♠♣❧❡①❡s✱ ♣♦✉rt❛♥t ✉♥❡ ❢♦rt❡ ❝❤❛r❣❡ ❞❡ ❝❛❧❝✉❧s✳ ❈♦♥♥❛✐ss❛♥❝❡ ❛ ♣r✐♦r✐ ❞❡ ❧❛ s✉r✲ ❢❛❝❡✴✐♥❝❧✐♥❛✐s♦♥ ❞❡ ❧❛ r♦✉t❡ ❈❡tt❡ ❛♣♣r♦❝❤❡ s✐♠♣❧✐✜❡ ❧❡s ❝♦r✲ ré❧❛t✐♦♥s ❡♥tr❡ ❧❡ ♠♦♥❞❡ ré❡❧ ❡t ❧❡s ♣✐①❡❧s ❞❡ ❧✬✐♠❛❣❡✳ ▲✬❤②♣♦t❤ès❡ ♥✬❡st ♣❛s t♦✉✲ ❥♦✉rs ❛♣♣❧✐❝❛❜❧❡✳ ❋✐❣✉r❡ ✸✳✸ ✕ ■♠❛❣❡ r❡♣rés❡♥t❛t✐✈❡ ❞❡ ❧❛ ❞✐✛ér❡♥❝❡ ❡♥ t❡①t✉r❡ ❞✬✉♥❡ ✈♦✐❡ ❛✉t♦♠♦❜✐❧❡ ❡t ✉♥❡ ✈♦✐❡ ❢❡rré❡ ❉❛♥s ❝❡s ✐♠❛❣❡s ♥♦✉s ♣♦✉✈♦♥s ❛♣♣ré❝✐❡r ✉♥❡ ❜✐♥❛r✐s❛t✐♦♥ ❞❡s ✐♠❛❣❡s ❛✈❡❝ ✉♥ s✐♠♣❧❡ s❡✉✐❧❧❛❣❡ ❛✉ ♥✐✈❡❛✉ ❞❡ ❣r✐s ♣♦✉r ✉♥❡ ✐♠❛❣❡ r♦✉t✐èr❡ ❡t ♣♦✉r ✉♥❡ ✐♠❛❣❡ ❢❡rr♦✈✐❛✐r❡✳ ❆✜♥ ❞❡ ❞ét❡r♠✐♥❡r q✉❡❧❧❡ ♣❛rt ❞❡ ❧✬❡①♣❡rt✐s❡ ❡♥ ✈✐s✐♦♥ ❛❝❝✉♠✉❧é❡ ❞❛♥s ❧❡ s❡❝t❡✉r r♦✉t✐❡r ❡st tr❛♥s❢ér❛❜❧❡ à ✉♥ s②stè♠❡ ❞✬❡①tr❛❝t✐♦♥ ❞❡s ✈♦✐❡s✱ ✐❧ ❢❛✉t r❡❝❡♥s❡r ❧❡s ♣r✐♥❝✐♣❛✉① ♣♦✐♥ts q✉✐ ❞✐❢✲ ❢ér❡♥❝✐❡♥t ❧❡s ❞❡✉① ❞♦♠❛✐♥❡s✳ ❯♥❡ ❝♦♠♣❛r❛✐s♦♥ ❞❡s s❝é♥❛r✐♦s ❡st ♣rés❡♥té ❞❛♥s ❧❡ t❛❜❧❡❛✉ ✸✳✷ ❬●s❝❤✇❛♥❞t♥❡r ❡t ❛❧✳ ✷✵✶✵❪✳✸✳✷✳ ➱t❛t ❞❡ ❧✬❛rt ❡t ❛♣♣r♦❝❤❡s t❡sté❡s ✹✸ ❚❛❜❧❡❛✉ ✸✳✷ ❈♦♠♣❛r❛t✐❢ ❞❡s ♠ét❤♦❞❡s ♣♦✉r ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❬●s❝❤✇❛♥❞t♥❡r ❡t ❛❧✳ ✷✵✶✵❪✳ ❘♦✉t❡ ❱♦✐❡ ❢❡rré❡ ▲❛ ❧❛r❣❡✉r ❞❡ ❧✐❣♥❡ ❡st ✈❛r✐❛❜❧❡✳ ▲❛ ❧❛r❣❡✉r ❞✉ r❛✐❧ ❡st ✜①❡✳ ▲❛ sé♣❛r❛t✐♦♥ ❡♥tr❡ ❧❡s ❧✐❣♥❡s ❡st ✈❛r✐❛❜❧❡✳ ▲❛ sé♣❛r❛t✐♦♥ ❡♥tr❡ ❧❡s r❛✐❧s ❡st ❝♦♥st❛♥t❡✳ ❱❛r✐❛t✐♦♥ ❞✉ t②♣❡ ❞❡ ❧✐❣♥❡✳ ▲❡ r❛✐❧ ❡st ❝♦♥st❛♥t✳ ▲✬❛♣♣❛r❡♥❝❡ ❣é♥ér❛❧❡ ❡st r❡❧❛t✐✈❡♠❡♥t ❤♦✲ ♠♦❣è♥❡✳ ▲✬❛♣♣❛r❡♥❝❡ ❣é♥ér❛❧❡ ♥✬❡st ♣❛s t♦✉❥♦✉rs ❤♦✲ ♠♦❣è♥❡✳ ▲❡s ❧✐❣♥❡s s♦♥t ❢❛✐t❡s ♣♦✉r êtr❡ ✈✉❡s✳ ▲❡s r❛✐❧s ♥❡ s♦♥t ♣❛s ❢❛✐ts ♣♦✉r êtr❡ ✈✉s✳ ▲❡s ❧✐❣♥❡s ♥✬♦♥t ♣❛s ❞❡ ✈♦❧✉♠❡✱ ❞♦♥❝ ❡❧❧❡s ♥❡ ♣r♦❥❡tt❡♥t ♣❛s ❞✬♦♠❜r❡s✳ ▲❡s r❛✐❧s ♦♥t ✉♥ ✈♦❧✉♠❡ ❞♦♥❝ ✐❧s ♣r♦❥❡tt❡♥t ❞❡s ♦♠❜r❡s✳ ▲❡ ✈é❤✐❝✉❧❡ ♣❡✉t ❛❜❛♥❞♦♥♥❡r ❧❛ ✈♦✐❡✳ ▲❡ ✈é❤✐❝✉❧❡ ❛✉r❛ t♦✉t ❧❡ t❡♠♣s ❧❡ ♠ê♠❡ s②s✲ tè♠❡ ❞❡ ❝♦♦r❞♦♥♥é❡s✳ ▲❛ ✈✐t❡ss❡ ❞é♣❡♥❞ ❞❡s ❝♦♥❞✐t✐♦♥s ♠été♦r♦✲ ❧♦❣✐q✉❡s✳ ▲❛ ✈✐t❡ss❡ ❡st ✐♥❞é♣❡♥❞❛♥t❡ ❞❡s ❝♦♥❞✐t✐♦♥s ♠été♦r♦❧♦❣✐q✉❡s✳ ❊♥ ❡✛❡t✱ ❧✬é❝❛rt❡♠❡♥t ♦✉ ❧❛r❣❡✉r ❞❡s r❛✐❧s ❡t ❧❡✉r t❛✐❧❧❡ s♦♥t ✜①❡s t♦✉t ❛✉ ❧♦♥❣ ❞❡ ❧❛ ✈♦✐❡✱ ♣❛r ❝♦♥tr❡ ❧❛ ❧❛r❣❡✉r ❞❡s ❧✐❣♥❡s ❞❡ ❧❛ r♦✉t❡ ❞é♣❡♥❞ ♣r✐♥❝✐♣❛❧❡♠❡♥t ❞✉ t②♣❡ ❞❡ ✈♦✐❡ ♠❛✐s ❣é♥ér❛❧❡♠❡♥t ❡❧❧❡ ❡st ❞é✜♥✐❡ ❡t ❧✐♠✐té❡ ❡♥tr❡ ❞❡s ✈❛❧❡✉rs ♠❛①✐♠❛❧❡s ❡t ♠✐♥✐♠❛❧❡s ♣❛r ❞❡s ♥♦r♠❡s ❞✉ tr❛✜❝ ❞✉ ♣❛②s✳ ➱❣❛❧❡♠❡♥t✱ ❧❛ ♣♦s✐t✐♦♥ r❡❧❛t✐✈❡ ❞❡ ❧❛ ✈♦✐t✉r❡ ❞❛♥s ❧❡ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡ ❡st ✈❛r✐❛❜❧❡✱ ❝❡ q✉✐ r❡♥❞ ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❞❡s ❧✐❣♥❡s ♣❧✉s ❝♦♠♣❧❡①❡✳ ❊♥ r❡✈❛♥❝❤❡✱ ❧❛ ♣♦s✐t✐♦♥ r❡❧❛t✐✈❡ ❞✉ tr❛✐♥ s✉✐t t♦✉❥♦✉rs ❧❡s r❛✐❧s✱ ❡t ❡❧❧❡ ♣❡✉t êtr❡ ❞ét❡r♠✐♥é❡ ❡♥ ✉t✐❧✐s❛♥t ✉♥ ♠♦❞è❧❡ ❞✉ tr❛✐♥ ❞é♣❡♥❞❛♥t ❞❡ s❛ ❧❛r❣❡✉r ❡t ❞❡ ❧✬é❝❛rt❡♠❡♥t ❞❡ s❡s ❡ss✐❡✉①✳ P❛r ❛✐❧❧❡✉rs✱ ❧❡s ❧✐❣♥❡s ❞❡ ❧❛ r♦✉t❡ ♦♥t été ❝♦♥ç✉❡s ♣♦✉r êtr❡ ✈✉❡s ❞✬✉♥❡ ♠❛♥✐èr❡ s✐♠♣❧❡ ♣❛r ❧✬÷✐❧ ❤✉♠❛✐♥✱ ♣❛r ❝♦♥tr❡ ❧❡s ✈♦✐❡s ❢❡rré❡s ♦♥t été ❝♦♥str✉✐t❡s ♣♦✉r ❣✉✐❞❡r ❧❡s tr❛✐♥s✳ ▲❛ ✜❣✉r❡ ✸✳✸ ♠♦♥tr❡ ✉♥ s❡✉✐❧❧❛❣❡ ❛✉ ♥✐✈❡❛✉ ❞❡ ❣r✐s ❡t ❧❡ rés✉❧t❛t ♠❡t ❡♥ ✈❛❧❡✉r ❧❛ ❞✐✛ér❡♥❝❡ ❞❡s t❡①t✉r❡s ❡①✐st❛♥t❡s ❡♥tr❡ ❧❡s ❞❡✉① ✐♠❛❣❡s✳ ❆✉ss✐✱ ❧❡s ✈♦✐❡s ❢❡rré❡s s♦♥t ♣r♦❝❤❡s ❧❡s ✉♥❡s ❞❡s ❛✉tr❡s ❡t ❢✉s✐♦♥♥❡♥t ❞❛♥s ❧❡s ❛✐❣✉✐❧❧❛❣❡s✱ ❝❡ q✉✐ r❡♥❞ ♣❧✉s ❞✐✣❝✐❧❡ ❧✬❡①tr❛❝t✐♦♥ ❞❡s ✓❜♦♥s✔ r❛✐❧s✳ ▲❡ ✈♦❧✉♠❡ ❞❡s ✈♦✐❡s ❢❡rré❡s ♣❡✉t ❢♦r♠❡r ❞❡ ❧✬♦♠❜r❡ ❝❡ q✉✐ r❡♥❞ ❧❛ ❞ét❡❝t✐♦♥ ♣❧✉s ❞✐✣❝✐❧❡✳ ❈❡s ❝❛r❛❝tér✐st✐q✉❡s s♣é❝✐✜q✉❡s ❞❡ ❧❛ ✈♦✐❡ ❢❡rré❡ s❡r♦♥t ❡①♣❧♦✐té❡s ❛✉ ♠❛①✐♠✉♠ ♣♦✉r ❛ss✉r❡r ❧❛ ♠❡✐❧❧❡✉r❡ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡✳ ▲❡s ❞✐✛ér❡♥t❡s ♠ét❤♦❞❡s ❡①✐st❛♥t❡s ❞❛♥s ❧✬ét❛t ❞❡ ❧✬❛rt s❡r♦♥t ❛♥❛❧②sé❡s ♣❛r ❧❛ s✉✐t❡ ♣♦✉r ✜♥❛❧❡♠❡♥t ❝❤♦✐s✐r ❝❡❧❧❡ q✉✐ s✬❛❞❛♣t❡ ❧❡ ♠✐❡✉① à ♥♦tr❡ ❡♥✈✐r♦♥♥❡✲ ♠❡♥t✳ ❆✉ss✐✱ ♣❛r♠✐ ❧❡s ♠ét❤♦❞❡s ♣♦ss✐❜❧❡s✱ ❝❡❧❧❡s ❜❛sé❡s s✉r ❧❡s ❝♦✉❧❡✉rs ♦✉ ❧❛ t❡①t✉r❡ ❞❡ ❧❛ ③♦♥❡ à ❛♥❛❧②s❡r ♦♥t été é❝❛rté❡s ♣✉✐sq✉❡ ♥♦tr❡ s②stè♠❡ ❞♦✐t êtr❡ ♣❡r❢♦r♠❛♥t ❞❡ ♥✉✐t ❡t ❝♦♠♠❡ ❞❡ ❥♦✉r✱ ❡♥ t✉♥♥❡❧ ❝♦♠♠❡ ❡♥ ❛ér✐❡♥ ❡t s♦✉s ❞✐✛ér❡♥t❡s ❝♦♥❞✐t✐♦♥s ♠été♦r♦❧♦❣✐q✉❡s✳ ❈❡tt❡ ❣r❛♥❞❡ ❞✐✈❡rs✐té ❞❡ ❢♦♥❝t✐♦♥♥❡♠❡♥t ✐♠♣♦s❡ ❞❡s ❝♦♥tr❛✐♥t❡s ❢♦rt❡s s✉r ❧❡s t❡❝❤♥✐q✉❡s à ❛♣♣❧✐q✉❡r✳ ▲❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s✱ ❝✬❡st ✉♥ s✉❥❡t q✉✐ ❛ ❡✉ ✉♥❡ ❣r❛♥❞❡ ✐♠♣♦rt❛♥❝❡ ❞❛♥s ❧❡s 10 ❞❡r♥✐èr❡s ❛♥♥é❡s ❬❇❡✉❣✐♥ ✷✵✵✻❪✳ ■❧ ❡①✐st❡ ❞✐✛ér❡♥t❡s ♠❛♥✐èr❡s ❞✬❛♥❛❧②s❡r ❧❡ ♣r♦❜❧è♠❡✳ ◆♦✉s ♣♦✉✈♦♥s ❢❛✐r❡ ❧✬ét✉❞❡ ❞✐r❡❝t❡♠❡♥t s✉r ❧✬✐♠❛❣❡ ❛✈❡❝ ❧❛ ♣❡rs♣❡❝t✐✈❡ ❝❛♣té❡✱ ♠❛✐s é❣❛❧❡♠❡♥t ❢❛✐r❡ ✉♥❡ tr❛♥s❢♦r♠❛t✐♦♥ ❞❡ ❧✬✐♠❛❣❡ ❡♥ ♦❜t❡♥❛♥t ✉♥❡ ✈✉❡ ❞❡♣✉✐s ❧❡ ❤❛✉t✱ ❛♣♣❡❧é❡ ✓■♥✈❡rs❡ P❡rs♣❡❝t✐✈❡ ▼❛♣♣✐♥❣✔ ❛✉ss✐ ❝♦♥♥✉❡ ❝♦♠♠❡ ✓❱✉❡ ❞✉ ❱♦❧ ❞✬❖✐s❡❛✉✔ ❬●❛♥❣♥❡t ❡t ❛❧✳ ✶✾✽✹❪ ❞❡ ❧✬❛♥❣❧❛✐s ✓❇✐r❞✬s ❡②❡s ✈✐❡✇✔✳ ▲❡ ✓✜❧tr❡ ❞❡ ❈❛♥♥②✔✱ ♦✉ ❞ét❡❝t❡✉r ❞❡ ❈❛♥♥② ❬❈❛♥♥② ✶✾✽✻❪ ❡st ✉♥ ✜❧tr❡ ✉t✐❧✐sé ❞❛♥s ❧❡ tr❛✐t❡♠❡♥t ❞✬✐♠❛❣❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❝♦♥t♦✉rs✳ ■❧ ♥♦✉s ❢♦✉r♥✐t ❞❡ ♠❛♥✐èr❡ ❝❧❛✐r❡ ❧❡s ❝♦♥t♦✉rs ❛✈❡❝ ✉♥❡ très ❜♦♥♥❡ ❧♦❝❛❧✐s❛t✐♦♥✳ ❈❡♣❡♥❞❛♥t✱ ✐❧ ❡st ♥é❝❡ss❛✐r❡ ❞✬❛♣♣❧✐q✉❡r ✉♥ s❡✉✐❧❧❛❣❡ ❛✉ ♥✐✈❡❛✉ ❞❡ ❝♦♥t♦✉rs ♣♦✉r ❞ét❡r♠✐♥❡r ❧❡ ♥✐✈❡❛✉ à ♣❛rt✐r ❞✉q✉❡❧ ❧❡s ✈❛r✐❛t✐♦♥s ❞✬✐♥t❡♥s✐té s♦♥t ❝♦♥s✐❞éré❡s ❞❡s ❝♦♥t♦✉rs✳ ❆✐♥s✐✱ ✉♥ s❡✉✐❧ tr♦♣ ❜❛s ❝♦♥❞✉✐r❛ à ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ❢❛✉① ♣♦s✐t✐❢s✳ ■♥✈❡rs❡♠❡♥t✱ ✉♥ s❡✉✐❧ tr♦♣ ❤❛✉t ❡♠♣ê❝❤❡r❛ ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ❝♦♥t♦✉rs ♣❡✉ ♠❛rq✉és✱ ♠❛✐s ❝♦♥t❡♥❛♥t ❞❡ ❧✬✐♥❢♦r♠❛t✐♦♥ ✉t✐❧❡✳ ❉❛♥s ❧❡ ❝❛s ❡♥ ét✉❞❡✱ à ❝❛✉s❡ ❞❡ ❧❛ ♥❛t✉r❡ ❢❡rré❡ ❞❡s r❛✐❧s ❡t ❡♥ r❛✐s♦♥ ❞❡ ❧❡✉rs ♣♦❧✐ss❛❣❡ ♣❛r ❧❡s ♣❛ss❛❣❡s ❞❡ tr❛✐♥s✱ ❧❡s r❛✐❧s ♦♥t ❞❡s ❛♣♣❛r❡♥❝❡s très ❞✐✛ér❡♥t❡s s✉✐✈❛♥t ❧❡s ❝♦♥❞✐t✐♦♥s ❞✬é❝❧❛✐r❡♠❡♥t ✿✹✹ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ✕ ❜r✐❧❧❛♥ts s✉r ❢♦♥❞ ❝❧❛✐r ❞❡ ❥♦✉r ♣❛r ❝✐❡❧ ❞é❣❛❣é ✕ ❣r✐s s✉r ❣r✐s ❛✈❡❝ ♣❡✉ ❞❡ ❝♦♥tr❛st❡ ❞❡ ❥♦✉r ♣❛r ❝✐❡❧ ❝♦✉✈❡rt ✕ ♥♦✐r s✉r ❣r✐s ❞❡ ♥✉✐t s✬✐❧s s♦♥t é❝❧❛✐rés ♣❛r ❧❡s ♣❤❛r❡s ❞✉ tr❛✐♥ ✭❧✬❡ss❡♥t✐❡❧ ❞❡ ❧❛ ❧✉♠✐èr❡ é♠✐s❡ ♣❛r ❧❡s ♣❤❛r❡s ❡st ❛❧♦rs ré✢é❝❤✐❡ ❞❛♥s ❧❛ ❞✐r❡❝t✐♦♥ s♣é❝✉❧❛✐r❡✱ ❞♦♥❝ à ❧✬♦♣♣♦sé ❞❡ ❧❛ ❝❛♠ér❛✮✳ ❈❡❝✐ ♣❡✉t r❡♥❞r❡ ♣❧✉s ❞✐✣❝✐❧❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡ r❛✐❧s q✉❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❧✐❣♥❡s r♦✉t✐èr❡s✳ ✭❛✮ ■♠❛❣❡ ♦r✐❣✐♥❛❧❡✳ ✭❜✮ ■♠❛❣❡ ❈❛♥♥② ❛✈❡❝ ✉♥ s❡✉✐❧ ❜❛s✳ ✭❝✮ ■♠❛❣❡ ❈❛♥♥② ❛✈❡❝ ✉♥ s❡✉✐❧ ❤❛✉t✳ ❋✐❣✉r❡ ✸✳✹ ✕ ❊①tr❛❝t✐♦♥ ❞❡s ❝♦♥t♦✉rs ❞❡ ❧❛ ✈♦✐❡ ❞✬❖r❧②❱❛❧ ❛✈❡❝ ❧❡ ✜❧tr❡ ❞❡ ❈❛♥♥② ❡♥ ❢♦♥❝t✐♦♥ ❞✉ s❡✉✐❧❧❛❣❡ ❛♣♣❧✐q✉é✳ ❯♥❡ ❛✉tr❡ ♣♦ss✐❜✐❧✐té ❡st ❞❡ ❞✐♠✐♥✉❡r ❧❡ s❡✉✐❧❧❛❣❡ ❞✉ ✜❧tr❡ ❞❡ ❈❛♥♥② ❝❡ q✉✐ ♥♦✉s ♣❡r♠❡ttr❛ ❞❡ ❞ét❡❝t❡r ❧❛ ♣❧✉♣❛rt ❞❡s ❣r❛❞✐❡♥ts ♣rés❡♥ts ❞❛♥s ❧✬✐♠❛❣❡ ❡t ❛ ♣♦st❡r✐♦r✐ ✜❧tr❡r ❧❡s ❝♦♥t♦✉rs ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❡✉r ❞✐r❡❝t✐♦♥ ♦✉✱ ❛✉tr❡♠❡♥t ❞✐t✱ ❞❡ ♥❡ ❝♦♥s❡r✈❡r q✉❡ ❧❡s ❝♦♥t♦✉rs ❞♦♥t ❧❛ ❞✐r❡❝t✐♦♥ ❡st ❝♦♠♣❛t✐❜❧❡ ❛✈❡❝ ❝❡❧❧❡ ❛tt❡♥❞✉❡ ♣♦✉r ❧❡s r❛✐❧s✳ ❈❡tt❡ ❢♦✉r❝❤❡tt❡ ❞❡s ❛♥❣❧❡s ♣♦✉r ❧❡ ✜❧tr❛❣❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts ❡st ❞é✜♥✐❡ ♣❛r ❧❛ ♣r♦❥❡❝t✐♦♥ ❡♥ ♣❡rs♣❡❝t✐✈❡ ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡✳ ❈♦♠♠❡ ♠♦♥tr❡ ❧❛ ✜❣✉r❡ ✸✳✹✱ ❧❡ ♥♦♠❜r❡ ❞❡ ❣r❛❞✐❡♥ts ❡st ❝♦♥s✐❞ér❛❜❧❡♠❡♥t ré❞✉✐t✳ ✭❛✮ ■♠❛❣❡ ♦r✐❣✐♥❛❧❡✳ ✭❜✮ ■♠❛❣❡ ❈❛♥♥② ❛✈❡❝ ✉♥ s❡✉✐❧ très ❜❛s✳ ✭❝✮ ■♠❛❣❡ ❈❛♥♥② ✜❧tré❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts✳ ❋✐❣✉r❡ ✸✳✺ ✕ ❊①tr❛❝t✐♦♥ ❞❡s ❝♦♥t♦✉rs ❞❡ ❧❛ ✈♦✐❡ ❞✬❖r❧②❱❛❧ ❛✈❡❝ ✉♥ s❡✉✐❧ ❜❛s ❛✈❡❝ ❧❡ ✜❧tr❡ ❞❡ ❈❛♥♥② ❡t ✉♥ ✜❧tr❛❣❡ ❛ ♣♦st❡r✐♦r✐ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts✳ ▲❛ ❞ét❡❝t✐♦♥ ❞❡s ❧✐❣♥❡s ❞❛♥s ✉♥❡ ✐♠❛❣❡ ❡st é❣❛❧❡♠❡♥t ♣♦ss✐❜❧❡ ❣râ❝❡ à ❧❛ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤ ❬❇❛❧❧❛r❞ ✶✾✽✶❪✱ ❡t ❛ été ❞é❥à ✉t✐❧✐sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ♣❛r ❬❘♦❞r✐❣✉❡③ ❡t ❛❧✳ ✷✵✶✷❪ ❞❛♥s s❡s tr❛✈❛✉①✳ ■❧s ♥♦✉s ♣r♦♣♦s❡♥t ❞✬❛♥❛❧②s❡r ❧❡s r❛✐❧s ♣❛r ♣❡t✐t❡s ♣♦rt✐♦♥s ♣♦✉r ♣♦✉✈♦✐r ❧❡s ❛♣♣r♦①✐♠❡r à ❞❡s s❡❣♠❡♥ts ❞❡ ❞r♦✐t❡s✳ ❉❛♥s ❧❡ ❞♦♠❛✐♥❡ r♦✉t✐❡r✱ ❬❚✐❛♥ ❡t ❛❧✳ ✷✵✵✻❪ ✉t✐❧✐s❡♥t ❍♦✉❣❤✱ ♠❛✐s ❞❛♥s ✺ ♣❛rt✐❡s ❞❡ ❧✬✐♠❛❣❡ ♣♦✉r ♣♦✉✈♦✐r ❞ét❡❝t❡r ❧❛ ❝♦✉r❜❡ ❛♣♣r♦①✐♠❛t✐✈❡ ♣❛r ❞❡s ❧✐❣♥❡s ❞r♦✐t❡s✳ ❈❡♣❡♥❞❛♥t✱ ❧❡ ♣r✐♥❝✐♣❛❧ ♣r♦❜❧è♠❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ❡st ❧❛ ❝♦♠♣❧❡①✐té ❞❡ ❧✬✐♠❛❣❡✱ ♣✉✐sq✉✬✐❧ ② ❛ é♥♦r✲ ♠é♠❡♥t ❞❡s str✉❝t✉r❡s ❧✐♥é❛✐r❡s ❛✉t♦✉r ❞❡s r❛✐❧s ❝♦♠♠❡ ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✼✳ ❊♥ r❡✈❛♥❝❤❡✱ ❧❛ ❝♦♥♥❛✐ss❛♥❝❡ ❛ ♣r✐♦r✐ ❞❡ ❧❛ ♠♦r♣❤♦❧♦❣✐❡ ❞❡ ❧❛ ✈♦✐❡✱ ❢❛❝✐❧✐t❡ ❧❛ ❞✐st✐♥❝t✐♦♥ ❡♥tr❡ ❧❡s ❧✐❣♥❡s q✉✐ ❛♣♣❛r✲ t✐❡♥♥❡♥t ❛✉① r❛✐❧s ❡t ❝❡❧❧❡s ❞❡ ❧❛ str✉❝t✉r❡ ❞❡ ❧❛ ✈♦✐❡✳ ❆✐♥s✐✱ ❬❘♦❞r✐❣✉❡③ ❡t ❛❧✳ ✷✵✶✷❪ ♣r♦♣♦s❡ ❞✬✉t✐❧✐s❡r ❧❛ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤ ♣♦✉r ❞ét❡❝t❡r ❧❡s r❛✐❧s✳✸✳✷✳ ➱t❛t ❞❡ ❧✬❛rt ❡t ❛♣♣r♦❝❤❡s t❡sté❡s ✹✺ ❋✐❣✉r❡ ✸✳✻ ✕ ❊①tr❛❝t✐♦♥ ❞❡s r❛✐❧s ré❛❧✐sé❡ ♣❛r tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤ ♣❛r ♣♦rt✐♦♥s✳ ■♠❛❣❡ ❡①tr❛✐t❡ ❞❡ ❬❘♦❞r✐❣✉❡③ ❡t ❛❧✳ ✷✵✶✷❪ ➱❣❛❧❡♠❡♥t✱ ❝♦♠♠❡ ✐♥❞✐q✉é ❞❛♥s ❧❛ s❡❝t✐♦♥ ✷✳✹✳✸✳✶ ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡s ❧✐❣♥❡s ♣❡✉t êtr❡ ✉t✐❧✐sé❡ ♣♦✉r ❧❡s ❝❧❛ss✐✜❡r ❞❛♥s ❧✬❡s♣❛❝❡ ❞❡ ❍♦✉❣❤ ❝♦♠♠❡ ❧❡ ♠♦♥tr❡ ❧❛ ✜❣✉r❡ ✸✳✼ ♦ù ❞❡✉① ❝♦✉❧❡✉rs ♦♥t été ✉t✐❧✐sé❡s ♣♦✉r ❧❡s ❞✐✛ér❡♥❝✐❡r✳ ❖r✱ ❧❡ ♣r♦❜❧è♠❡ ❞❡ ❧❛ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤ ❡st q✉✬❡❧❧❡ ❡st ❧♦✉r❞❡ ❡♥ ❝❛❧❝✉❧ ❡t ✐♠♣❧✐q✉❡ ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡s s❡✉✐❧s ❛✉ ♥✐✈❡❛✉ ❞❡ ❧✬✐♠❛❣❡ ❞❡ ❣r❛❞✐❡♥ts ❡t ❞❛♥s ❧✬❡s♣❛❝❡ ❞❡ ❍♦✉❣❤✳ P❛r ❝♦♥séq✉❡♥t✱ ❧❡ rés✉❧t❛t ♦❜t❡♥✉ ♥✬❡st ♣❛s t♦✉❥♦✉rs s❛t✐s❢❛✐s❛♥t✳ P♦✉r ❛❝❝é❧ér❡r ❧❡ ♣r♦❝❡ss✉s ❞❡ ❝❛❧❝✉❧ ❬❘♦❞r✐❣✉❡③ ❡t ❛❧✳ ✷✵✶✷❪ ♣r♦♣♦s❡ ❞❡ ré❞✉✐r❡ ❧❛ t❛✐❧❧❡ ❞❡ ❧✬✐♠❛❣❡ ❡t ♣♦✉r ❛♠é❧✐♦r❡r ❧✬❡①tr❛❝t✐♦♥ ❞❡s ❝♦♥t♦✉rs ✉♥❡ ♦♣ér❛t✐♦♥ ❞❡ ❢❡r♠❡t✉r❡ ♠♦r♣❤♦❧♦❣✐q✉❡ ❡st ❛♣♣❧✐q✉é❡✳ ▼ê♠❡ s✐ ❧❡ t❡♠♣s ❞❡ ❝❛❧❝✉❧ s❡ ✈♦✐t ré❞✉✐t✱ ❝❡tt❡ ❛♣♣r♦❝❤❡ ❡①✐❣❡ ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡s s❡✉✐❧s ❛✉ ♥✐✈❡❛✉ ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts ❡t ❛✉ ♥✐✈❡❛✉ ❞❡ ❧❛ r❡❝❤❡r❝❤❡ ❞❡ ❧✐❣♥❡s ❞❛♥s ❧✬❡s♣❛❝❡ ❞❡ ❍♦✉❣❤✱ ❝❡ q✉✐ ♣❡✉t ❧✐♠✐t❡r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s s♦✉s ❝❡rt❛✐♥❡s ❝♦♥❞✐t✐♦♥s ❞✬é❝❧❛✐r❛❣❡✳ ❋✐❣✉r❡ ✸✳✼ ✕ ❉ét❡❝t✐♦♥ ❞❡s ❧✐❣♥❡s ❛✈❡❝ ❧❛ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤ à ♣❛rt✐r ❞❡ ❧✬✐♠❛❣❡ ❜✐♥❛✐r❡ ♦❜t❡♥✉❡ ❛✈❡❝ ❧❡ ✜❧tr❡ ❞❡ ❈❛♥♥②✳ ❈❧❛ss✐✜❝❛t✐♦♥ ❞❡s ❧✐❣♥❡s ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❡✉r ♦r✐❡♥t❛t✐♦♥ ❞❛♥s ❧✬✐♠❛❣❡ ♣♦✉r ❞ét❡r♠✐♥❡r s✐ ❡❧❧❡s ❛♣♣❛rt✐❡♥♥❡♥t ♦✉ ♣❛s à ❧❛ ✈♦✐❡ P❛r ❛✐❧❧❡✉rs✱ ♥♦✉s ❛✈♦♥s t❡sté ❧✬❛❧❣♦r✐t❤♠❡ ❞❡s ❝❛s❝❛❞❡s ✓✇❛t❡rs❤❡❞✔ ❬❇❡✉❝❤❡r ✶✾✾✹❪ ✉t✐❧✐sé ♣♦✉r ❧❛ s❡❣♠❡♥t❛t✐♦♥ ❞❡s ✐♠❛❣❡s à ♣❛rt✐r ❞❡ ❧❛ ❧✐❣♥❡ ❞❡ sé♣❛r❛t✐♦♥ ❞❡s ❡❛✉① ✭▲P❊✮✱ ✐ss✉❡ ❞❡ ❧❛ ♠♦r♣❤♦❧♦❣✐❡ ♠❛t❤é♠❛t✐q✉❡✳ ❈❡t ❛❧❣♦r✐t❤♠❡ ❝♦♥s✐❞èr❡ ❧✬✐♠❛❣❡ ❡♥ ♥✐✈❡❛✉① ❞❡ ❣r✐s ❝♦♠♠❡ ✉♥ r❡❧✐❡❢ t♦♣♦❣r❛♣❤✐q✉❡✱ ❝❡ q✉✐ ♣❡r♠❡t ❞❡ tr♦✉✈❡r ❧❛ ❧✐❣♥❡ ❞❡ sé♣❛r❛t✐♦♥ ❞❡s ré❣✐♦♥s ❞❡ ❧✬✐♠❛❣❡✳ ▲❡ ❜✉t ❞❡ ❝❡t ❛❧❣♦r✐t❤♠❡ ❡st ❞✬é❧✐♠✐♥❡r ❧❛ s✉r✲s❡❣♠❡♥t❛t✐♦♥ ❝❛✉sé❡ ♣❛r ❧❛ ▲P❊✳ ❙♦♥ ❢♦♥❝t✐♦♥♥❡♠❡♥t ❝♦♥s✐st❡ ❞♦♥❝ à s✉♣♣r✐♠❡r ❧❡s ❝♦♥t♦✉rs ❝♦♠♣❧èt❡♠❡♥t ❡♥t♦✉rés ♣❛r ❞❡s ❝♦♥t♦✉rs ♣❧✉s ❢♦rts✱ ❡♥ ♣r♦❝é❞❛♥t à ✉♥❡ ❢✉s✐♦♥ ❞❡s ❜❛ss✐♥s ✈❡rs❛♥ts✳ ❈❡tt❡ t❡❝❤♥✐q✉❡ ♠♦♥tr❡ ❞❡ très ❜♦♥s rés✉❧t❛ts✱ ♠❛✐s s♦♥ t❡♠♣s ❞✬❡①é❝✉t✐♦♥ ❡st ❞✐✣❝✐❧❡♠❡♥t ❝♦♠♣❛t✐❜❧❡ ❛✈❡❝ ✉♥ tr❛✐t❡♠❡♥t ❡♥ t❡♠♣s ré❡❧✳✹✻ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❉❡ ♣❧✉s✱ ❧❡s ✈❛r✐❛t✐♦♥s ❜r✉t❛❧❡s ❞❡ ❧✉♠✐♥♦s✐té ❛✉① ❡♥tré❡s ❡t s♦rt✐❡s ❞❡s t✉♥♥❡❧s ❛❥♦✉t❡♥t ✉♥❡ ❞✐✣❝✉❧té s✉♣♣❧é♠❡♥t❛✐r❡ ❡♥ r❛✐s♦♥ ❞✉ ❝❤❛♥❣❡♠❡♥t r❛❞✐❝❛❧ ❞❛♥s ❧❡s ♥✐✈❡❛✉① ❞❡ ❣r✐s ❞❡ ❧✬✐♠❛❣❡ q✉✬❡❧❧❡s ❡♥❣❡♥❞r❡♥t✳ ❉❡✉① ❡①❡♠♣❧❡s ❞❡ s❡❣♠❡♥t❛t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❛✈❡❝ ✇❛t❡rs❤❡❞ s♦♥t ❡①♣♦sés ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✽✳ ❯♥❡ s♦❧✉t✐♦♥ ♣♦ss✐❜❧❡ s❡r❛✐t ❞✬❛❥♦✉t❡r ❞❡s ❝♦♥tr❛✐♥t❡s à ❧❛ ♠ét❤♦❞❡ ✇❛t❡rs❤❡❞✱ ♣❛r ❡①❡♠♣❧❡ tr♦✉✈❡r ❧❛ ❧✐❣♥❡ ❞❡ sé♣❛r❛t✐♦♥ ❞❡s ❡❛✉① ♣❛r s❡❝t✐♦♥s ❞❛♥s ❧✬✐♠❛❣❡ ✭♦♣ér❛t❡✉r ❞❡ ❝♦♥tr❛st❡ ❧♦❝❛❧✮ ♣✉✐s ré❛❧✐s❡r ❧❛ ❢✉s✐♦♥ ❞❡s ③♦♥❡s tr♦✉✈é❡s✳ ❈❡♣❡♥❞❛♥t✱ ❛❥♦✉t❡r ❞❡ ❧❛ ❝♦♠♣❧❡①✐té à ❧✬❛❧❣♦r✐t❤♠❡ r❡♥❞r❛ ❧❡ tr❛✐t❡♠❡♥t ❡♥ t❡♠♣s ré❡❧ ❡♥❝♦r❡ ♣❧✉s ♣r♦❜❧é♠❛t✐q✉❡✳ ❋✐❣✉r❡ ✸✳✽ ✕ ❊①tr❛❝t✐♦♥ ❞❡s r❛✐❧s ❛✈❡❝ ✇❛t❡rs❤❡❞ ❡t ❧✐♠✐t❛t✐♦♥s ❞❡ ❧❛ t❡❝❤♥✐q✉❡✳ ▲❛ ♣r❡♠✐èr❡ ❛♣♣r♦❝❤❡ ♦r✐❣✐♥❛❧❡ ❞é✈❡❧♦♣♣é❡ ❡t t❡sté❡ ❛ été ♣rés❡♥té❡ ❞❛♥s ■❚❙❈ ✷✵✶✷ ✭■♥t❡r♥❛✲ t✐♦♥❛❧ ■❊❊❊ ❈♦♥❢❡r❡♥❝❡ ♦♥ ■♥t❡❧❧✐❣❡♥t ❚r❛♥s♣♦rt❛t✐♦♥ ❙②st❡♠s✮✱ ✭✈♦✐r ❛♥♥❡①❡ ❆✳✶✮✳ ▲✬✐❞é❡ ♣r✐♥❝✐♣❛❧❡ ét❛✐t ❞✬❛♣♣r♦①✐♠❡r ❧❡s r❛✐❧s ♣❛r ❞❡s s❡❣♠❡♥ts ❞❡ ❧✐❣♥❡s ❞r♦✐t❡s✳ P✉✐sq✉❡ ❧❛ ❧❛r❣❡✉r ❞❡ ❧❛ ✈♦✐❡ ❡st ❝♦♥♥✉❡✱ ♥♦✉s ♣♦✉✈♦♥s ❛♥❛❧②s❡r ❧✬✐♠❛❣❡ ❛✈❡❝ 4 ❢❡♥êtr❡s ❣❧✐ss❛♥t❡s ❧❡ ❧♦♥❣ ❞❡s ❜♦r❞s ❞❡ ❝❤❛q✉❡ r❛✐❧✳ P❧✉s ♣ré❝✐sé♠❡♥t✱ ♥♦✉s ❝❛❧❝✉❧♦♥s ❧❡s ❣r❛❞✐❡♥ts tr❛♥s✈❡rs❛✉① ❞❛♥s ❝❤❛q✉❡ ❢❡♥êtr❡✱ ♥♦✉s ❞ét❡r♠✐♥♦♥s ❧❡s ♣♦s✐t✐♦♥s ❞❡ ❧❡✉rs ♠❛①✐♠❛ q✉❡ ♥♦✉s ✉t✐❧✐s♦♥s ♣♦✉r ❢❛✐r❡ ❣❧✐ss❡r ❧❡s ❢❡♥êtr❡s ❞✉ ❜❛s ❞❡ ❧✬✐♠❛❣❡ ✈❡rs ❧❡ ♣♦✐♥t ❞❡ ❢✉✐t❡✳ P♦✉r ❝♦♥trô❧❡r ❝❡ ❞é♣❧❛❝❡♠❡♥t✱ ♥♦✉s ✉t✐❧✐s♦♥s ❞❡s ❡st✐♠❛t✐♦♥s ❞❡ ♣♦s✐t✐♦♥ ✭♠♦❞è❧❡ ❞❡ ❧✐❣♥❡ ❞r♦✐t❡✮ ❡t ❧❛ ♣♦s✐t✐♦♥ ré❡❧❧❡ ✭♣♦s✐t✐♦♥ ❞❡s ♠❛①✐♠✉♠s✮✳ ●râ❝❡ à ❧❛ ♠ét❤♦❞❡ ❞❡s ♠♦✐♥❞r❡s ❝❛rrés✱ ♥♦✉s ❛❝t✉❛✲ ❧✐s♦♥s ❧❡ ❝♦❡✣❝✐❡♥t ❞✐r❡❝t❡✉r ❞❡s ❧✐❣♥❡s ❞r♦✐t❡s ❡t ♣♦✉✈♦♥s s✉✐✈r❡ ❧❡s r❛✐❧s t♦✉t ❛✉ ❧♦♥❣ ❞❡ ❧✬✐♠❛❣❡✳ ❯♥ ❡①❡♠♣❧❡ ❞❡ ❢❡♥êtr❡s ❡st ❡①♣♦sé ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✾❛ ❡t ❧❡s ❣r❛❞✐❡♥ts ♦❜t❡♥✉s à ❧✬✐♥tér✐❡✉r ❞❡s ❢❡♥êtr❡s s♦♥t ✈✐s✐❜❧❡s ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✾❜✳ ❈❡tt❡ ❛♣♣r♦❝❤❡ ❞♦♥♥❡ ❞❡ ❜♦♥s rés✉❧t❛ts ❝♦♠♠❡ ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✶✵✳ ❈❡♣❡♥❞❛♥t✱ ❡❧❧❡ s❡ ♣rés❡♥t❡ s❡♥s✐❜❧❡ ❛✉① ♦❝❝❧✉s✐♦♥s✱ ❝❛r ❝✬❡st ✉♥❡ ❛♣♣r♦❝❤❡ ❞✬❛♥❛❧②s❡ ❡♥ ❝♦♥t✐♥✉✳ ❙✐ ❝❡tt❡ ♦❝❝❧✉s✐♦♥ ❡st s✉♣ér✐❡✉r❡ à ❧❛ ❧♦♥❣✉❡✉r ❞❡ ❧❛ ❞r♦✐t❡ ❛♣♣r♦①✐♠❛t✐✈❡✱ ✐❧ ❡①✐st❡ ✉♥ r✐sq✉❡ ❞❡ ♣❡rt❡ ❞❡ ❧❛ ❞✐r❡❝t✐♦♥ ❞❡s r❛✐❧s✳ ❊♥ ♦✉tr❡✱ ❡♥ r❛✐s♦♥ ❞❡s ❝❤❛♥❣❡♠❡♥ts ❞❡ ♣❡♥t❡✱ ❧✬❛♣♣r♦①✐♠❛t✐♦♥ ❞❡ ♣❡rs♣❡❝t✐✈❡ ❢❛✐t❡ ♣♦✉r ♣❧❛❝❡r ❧❡s ❢❡♥êtr❡s ♥❡ ❝♦♥✈✐❡♥t ♣❧✉s ❡t ❝❡s ❞❡r♥✐èr❡s ♣❡✉✈❡♥t êtr❡ ♠❛❧ ♣❧❛❝é❡s✳ ◗✉❛♥❞ ❝❡tt❡ ❤②♣♦t❤ès❡ ❞✉ ♠♦♥❞❡ ♣❧❛♥ Z = 0 ♥✬❡st ♣❛s r❡s♣❡❝té❡✱ ❧✬✐♠❛❣❡ ❡♥ ✈✉❡ ❞✬♦✐s❡❛✉ ✓❇✐r❞✬s ❡②❡s ✈✐❡✇✔ ♦✉ ■P▼ ❞❡ ❧✬❛♥❣❧❛✐s ■♥✈❡rs❡ P❡rs♣❡❝t✐✈❡ ▼❛♣♣✐♥❣ s❡ ✈♦✐t ❞é❢♦r♠é❡✳ ❯♥❡ ✈❛r✐❛t✐♦♥ ❞❡ Z ✐♥tr♦❞✉✐t ❞❡s ❡rr❡✉rs ❞❛♥s ❧❛ rétr♦✲♣r♦❥❡❝t✐♦♥ ❝♦♠♠❡ ♠♦♥tr❡ ❧❛ ✜❣✉r❡ ✸✳✶✶✳ ■❧ ❡①✐st❡ ♣❧✉s✐❡✉rs ♠ét❤♦❞❡s ♣♦✉r ❝♦rr✐❣❡r ❧❛ ❧✐♠✐t❛t✐♦♥ ❞❡ ❧✬❤②♣♦t❤ès❡ à ♣❛rt✐r ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❬◆✐❡t♦ ❡t ❛❧✳ ✷✵✵✼❛❪ ♦✉ à ♣❛rt✐r ❞❡ ❧❛ ✈❛r✐❛t✐♦♥ ❞❡ ❧❛r❣❡✉r ❞❡s ♠❛rq✉❡✉rs r♦✉t✐❡rs ❬❈❡rr✐ ✫ ●r✐s❧❡r✐ ✷✵✵✺❪✳✸✳✷✳ ➱t❛t ❞❡ ❧✬❛rt ❡t ❛♣♣r♦❝❤❡s t❡sté❡s ✹✼ ✭❛✮ ❋❡♥êtr❡s ❣❧✐ss❛♥t❡s✳ ✭❜✮ ●r❛❞✐❡♥ts à ❧✬✐♥tér✐❡✉r ❞❡s ❢❡♥êtr❡s✳ ❋✐❣✉r❡ ✸✳✾ ✕ ❯t✐❧✐s❛t✐♦♥ ❞❡s ❢❡♥êtr❡s ❣❧✐ss❛♥t❡s ❛✈❡❝ t❛✐❧❧❡ ✈❛r✐❛❜❧❡ ♣♦✉r ❧✬❛♥❛❧②s❡ ❞❡s ❣r❛❞✐❡♥ts✳ ✭❛✮ ❘és✉❧t❛t ❞✬❡①tr❛❝t✐♦♥ ❞❡s r❛✐❧s✳ ✭❜✮ ❊①❡♠♣❧❡ ❞❡s ❧✐❣♥❡s ❞r♦✐t❡s s✉✐✈✐❡s✳ ❩♦♦♠ ❞❡ ❧❛ ♣❛rt✐❡ ❝❡♥tr❛❧❡ ❞❡ ❧✬✐♠❛❣❡ ✸✳✶✵❛ ❋✐❣✉r❡ ✸✳✶✵ ✕ ❘és✉❧t❛ts ♦❜t❡♥✉s ❛✈❡❝ ❧❛ ♣r❡♠✐èr❡ ❛♣♣r♦❝❤❡✳ ❋✐❣✉r❡ ✸✳✶✶ ✕ ❊✛❡ts ❞✉ ♥♦♥✲r❡s♣❡❝t ❞❡ ❧✬❤②♣♦t❤ès❡ ❞✉ ♠♦♥❞❡ ♣❧❛♥ ✭Z = 0✮✳ ■♠❛❣❡ ❡①tr❛✐t❡ ❞❡ ❬◆✐❡t♦ ❡t ❛❧✳ ✷✵✵✼❛❪✳✹✽ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❈♦♠♠❡ ♥♦✉s ❛✈♦♥s ♣✉ ✈♦✐r✱ ❧❡s ♣r✐♥❝✐♣❛✉① ♣r♦❜❧è♠❡s s♦✉❧❡✈és ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s s♦♥t ❞✉s à ❧❛ ♣rés❡♥❝❡ ❞❡s ♦♠❜r❡s q✉✐ ❢♦♥t ❛♣♣❛r❛îtr❡ ❞❡ ❢♦rts ❝♦♥tr❛st❡s ✭❛❧t❡r♥❛♥❝❡ ♦♠❜r❡ ✲ s♦❧❡✐❧✮ ❡♥tr❡ ❧❛ ✈♦✐❡ ❡t ❧❡s r❛✐❧s✱ ❞✬✉♥❡ ③♦♥❡ à ❧✬❛✉tr❡ ❞❡ ❧✬✐♠❛❣❡✳ ❈❡❝✐ ♥♦✉s ❝♦♥❞✉✐t à ✉t✐❧✐s❡r ✉♥❡ ❛♣♣r♦❝❤❡ ❧♦❝❛❧❡ ♣♦✉r ❧❛ r❡❝❤❡r❝❤❡ ❞❡s tr❛♥s✐t✐♦♥s ♠❛①✐♠✉♠ ✲ ♠✐♥✐♠✉♠ q✉✐ ♥♦✉s ♣❡r♠❡ttr❛ ❞❡ ♥♦✉s ❛✛r❛♥❝❤✐r ❞❡s ♣r♦❜❧è♠❡s ❞❡ ❝❤❛♥❣❡♠❡♥t ❞❡ ❝♦♥tr❛st❡ ❞❛♥s ❧✬✐♠❛❣❡✳ ❉❡ ❝❡ ❢❛✐t ♥♦✉s ✉t✐❧✐s♦♥s ❧❛ t❡❝❤♥✐q✉❡ ♣❛r ✜❧tr❡ ❛❞❛♣t❛t✐❢ ❧✐❣♥❡ ♣❛r ❧✐❣♥❡ ♣rés❡♥té❡ ❞❛♥s ❧❡s tr❛✈❛✉① ❞❡ ❬❇❛r❣❡t♦♥ ✷✵✵✾❪✳ ▲❡ ✜❧tr❡ ❞❡ ❝♦♥✈♦❧✉t✐♦♥ ❞❡ t②♣❡ h(n) = [−1...−11...1] ❬P♦♠❡r❧❡❛✉ ✶✾✾✺❪ ✭éq✉❛t✐♦♥ ✸✳✶✱ ♦ù L r❡♣rés❡♥t❡ ❧❛ ♠✐✲❧❛r❣❡✉r ❞✉ ✜❧tr❡✮ ♣❡r♠❡t ❞❡ ❝❛r❛❝tér✐s❡r ❡t ♠❡ttr❡ ❡♥ ✈❛❧❡✉r ❞❡ ❢❛ç♦♥ ❡✣❝❛❝❡ ❧❡s ❧✐❣♥❡s r♦✉t✐èr❡s ♣❛r ✉♥ s✐❣♥❛❧ ❡♥ ❢♦r♠❡ ❞❡ ❞❡♥ts ❞❡ s❝✐❡✳ ❚❛♥t q✉❡ ❧❛ ❧❛r❣❡✉r ❞✉ ✜❧tr❡ ♥❡ ❞é♣❛ss❡ ♣❛s ❝❡❧❧❡ ❞✉ r❛✐❧✱ ✐❧ ② ❛ ❝ré❛t✐♦♥ ❞✬✉♥❡ ❞❡♥t ❞❡ s❝✐❡ ♣♦s✐t✐✈❡ ❝❡♥tré❡ s✉r ✉♥ ❜♦r❞ ❞✉ r❛✐❧ s✉✐✈✐ ❞✬✉♥❡ ❞❡♥t ❞❡ s❝✐❡ ♥é❣❛t✐✈❡ ❝❡♥tré❡ s✉r ❧✬❛✉tr❡ ❜♦r❞✳ h(n) =    1 L , ∀n ∈ [1, L] −1 L , ∀n ∈ [−L + 1, 0] 0 Reste ✭✸✳✶✮ P♦✉r ♠✐♥✐♠✐s❡r ❧❡ ❜r✉✐t✱ ❧❛ t❛✐❧❧❡ ❞✉ ✜❧tr❡ ❞♦✐t êtr❡ é❣❛❧❡ à ❞❡✉① ❢♦✐s ❧❛ ❧❛r❣❡✉r ❞✉ r❛✐❧ ❞❡ ❢❛ç♦♥ q✉❡ ❧❡ ♠✐♥✐♠✉♠ ❡t ❧❡ ♠❛①✐♠✉♠ ❞✉ s✐❣♥❛❧ ✜❧tré ❝♦rr❡s♣♦♥❞❡♥t ❛✉① ✷ ❜♦r❞s ❞✉ r❛✐❧✳ ❊♥ r❡✈❛♥❝❤❡✱ ❧♦rsq✉❡ ❧❛ ❞❡♠✐✲❧❛r❣❡✉r ❞✉ ✜❧tr❡ ❞❡✈✐❡♥t s✉♣ér✐❡✉r❡ à ❧❛ ❧❛r❣❡✉r ❞✉ r❛✐❧✱ ❧❡s ♣✐❝s s♦♥t ❞✬❛✉t❛♥t ♣❧✉s ér♦❞és q✉❡ L ❛✉❣♠❡♥t❡✳ ❯♥❡ ❢♦✐s ❧❡s ❡①tr❡♠✉♠s ❞ét❡❝tés ✐❧ ❢❛✉t ❧❡s ❛♣♣❛r✐❡r✳ ✭❛✮ ❙♦rt✐❡ t❤é♦r✐q✉❡ ❞✉ ✜❧✲ tr❛❣❡✳ ✭❜✮ ■♠❛❣❡ ♦r✐❣✐♥❛❧❡✳ ✭❝✮ ■♠❛❣❡ ❛♣rès ❝♦♥✈♦✲ ❧✉t✐♦♥ ✭❞✮ ■♠❛❣❡ ❞❡s ❣r❛❞✐❡♥ts ❞ét❡❝tés✳ ❋✐❣✉r❡ ✸✳✶✷ ✕ ❋✐❧tr❛❣❡ ❞❡ ❝♦♥✈♦❧✉t✐♦♥ ❛❞❛♣t❛t✐❢ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞✉ ♠❛rq✉❛❣❡ r♦✉t✐èr❡✳ ❊①tr❛✐t❡ ❞❡ ❬❇❛r❣❡t♦♥ ✷✵✵✾❪ ❈❡♣❡♥❞❛♥t✱ ❝❡tt❡ ❛♣♣r♦❝❤❡ ♥✬❡st ♣❛s ❛❞éq✉❛t❡ ♣♦✉r ♥♦tr❡ ❛♣♣❧✐❝❛t✐♦♥✱ ❝❛r ❧❡ ♣❧❛♥ ❞❡ r♦✉❧❡♠❡♥t ❞✉ tr❛✐♥ ♥✬❡st ♣❛s ✉♥❡ s✉r❢❛❝❡ ❤♦♠♦❣è♥❡ ♦ù ❧❡s r❛✐❧s s♦♥t ✐s♦❧és✳ ❉❛♥s ♥♦tr❡ ❝❛s✱ ❧❛ ♣rés❡♥❝❡ ❞❡s t❛♣✐s à ♣r♦①✐♠✐té ❞❡s r❛✐❧s ♥❡ ♣❡r♠❡t ♣❛s ❞✬♦❜t❡♥✐r ❧❛ ❝❛r❛❝tér✐s❛t✐♦♥ ❞✉ r❛✐❧ ♣❛r ✉♥ s✐❣♥❛❧ ❞❡♥t ❞❡ s❝✐❡ ♣♦s✐t✐❢ s✉✐✈✐ ❞✬✉♥ ❞❡♥t ❞❡ s❝✐❡ ♥é❣❛t✐❢✳ ❯♥ ❡①❡♠♣❧❡ ❞✉ rés✉❧t❛t ♦❜t❡♥✉ ❛✈❡❝ ❝❡tt❡ t❡❝❤♥✐q✉❡ ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✶✸✱ ♦ù ♥♦✉s ♣♦✉✈♦♥s ✈♦✐r ❡✛❡❝t✐✈❡♠❡♥t✱ ❝♦♠♠❡♥t ❧❡s t❛♣✐s ♥❡ ♣❡r♠❡tt❡♥t ♣❛s ❞❡ ♠❡ttr❡ ❡♥ ✈❛❧❡✉r ❧❡s r❛✐❧s✳ ❯♥❡ ❛✉tr❡ ❛♣♣r♦❝❤❡ ❡st ❝❡❧❧❡ ♣r♦♣♦sé❡ ❞❛♥s ❧❡s tr❛✈❛✉① ❞❡ ❬●s❝❤✇❛♥❞t♥❡r ❡t ❛❧✳ ✷✵✶✵❪ ré❛❧✐sés ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s✳ ■❧ ❛♣♣❧✐q✉❡ ❧❛ tr❛♥s❢♦r♠é❡ ❡♥ ✈✉❡ ✈♦❧ ❞✬♦✐s❡❛✉ ♦✉ IPM ♣♦✉r s✉♣♣r✐♠❡r ❧✬❡✛❡t ❞❡ ❧❛ ♣❡rs♣❡❝t✐✈❡ ❡t ♦❜t❡♥✐r ✉♥ ❛s♣❡❝t ❤♦♠♦❣è♥❡ ❞❡s r❛✐❧s ❞❛♥s t♦✉t❡ ❧✬✐♠❛❣❡✳ ❈❡tt❡ tr❛♥s❢♦r♠é❡ ❡st s✐♠♣❧❡ à ♦❜t❡♥✐r✱ ♠❛✐s r❡st❡ ❧♦✉r❞❡ ❡♥ ❝❛❧❝✉❧ ❬▼✉❛❞ ❡t ❛❧✳ ✷✵✵✹❪✳ ❯♥ ❡①❡♠♣❧❡ ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✶✹✳ ❆♣rès ❛✈♦✐r ♦❜t❡♥✉ ❧✬✐♠❛❣❡ ■P▼✱ ❬●s❝❤✇❛♥❞t♥❡r ❡t ❛❧✳ ✷✵✶✵❪ ♣r♦♣♦s❡♥t ❞✬✉t✐❧✐s❡r ✉♥ ✜❧tr❛❣❡ ❛✈❡❝ ✉♥ ♠❛sq✉❡ ❉♦●✱ ❞❡ ❧✬❛♥❣❧❛✐s ❉✐✛❡r❡♥❝❡ ♦❢ ●❛✉ss✐❛♥s✱ ♣♦✉r ❞ét❡❝t❡r ❧❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡ ✭✸✳✷✮✳ ▲✬éq✉❛t✐♦♥ ✸✳✷ ❞é❝r✐t ❧❡ ♠❛sq✉❡ ❞❡ ❝❡ t②♣❡ ❞❡ ✜❧tr❡✱ ♦ù σ1 ❡t σ2 r❡♣rés❡♥t❡♥t ❧❡s é❝❛rts t②♣❡s ❞❡s ❣❛✉ss✐❡♥♥❡s✳✸✳✷✳ ➱t❛t ❞❡ ❧✬❛rt ❡t ❛♣♣r♦❝❤❡s t❡sté❡s ✹✾ ❋✐❣✉r❡ ✸✳✶✸ ✕ ❘és✉❧t❛ts ❞❡ ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞✉ ✜❧tr❛❣❡ ♣♦✉r ❞ét❡❝t❡r ❧❡s r❛✐❧s✳ ❈❡tt❡ ✐♠❛❣❡ ♠♦♥tr❡ ✉♥❡ ❧✐❣♥❡ ❤♦r✐③♦♥t❛❧❡ ❞❡ ❧✬✐♠❛❣❡ ❡♥ ♥✐✈❡❛✉① ❞❡ ❣r✐s ❡t ❧❡ rés✉❧t❛t ❞❡ ❧❛ ❝♦♥✈♦❧✉t✐♦♥ ❞❡ ❝❡tt❡ ❧✐❣♥❡ ❛✈❡❝ ✉♥ ✜❧tr❡ ❬✲✶ ✳✳✳ ✲✶ ✶✳✳✳✶❪ ❞❡ t❛✐❧❧❡ L = 50 ✭✷ ❢♦✐s ❧❛ ❧❛r❣❡✉r ❞✉ r❛✐❧ ❞❛♥s ❧✬✐♠❛❣❡✮✳ ▲❡s ❧✐❣♥❡s ✈❡rt❡s ♥♦✉s ✐♥❞✐q✉❡♥t ❧❛ ♣♦s✐t✐♦♥ ❞❡s r❛✐❧s✳ ❈♦♠♠❡ ♠♦♥tr❡ ❧❛ ✜❣✉r❡✱ ❧✬✐♥t❡♥s✐té ❞❡s t❛♣✐s ❡st ♣❧✉s ❢♦rt❡ q✉❡ ❝❡❧❧❡ ❞❡s r❛✐❧s ❡t ❡♥ ❝♦♥séq✉❡♥❝❡✱ ❧❡s r❛✐❧s ♥❡ s♦♥t ♣❛s ❝❛r❛❝tér✐sés ♣❛r ❧❡ s✐❣♥❛❧ ❞❡♥t ❞❡ s❝✐❡✳ ❈❡♣❡♥❞❛♥t✱ ❧❡ rés✉❧t❛t ❞❡ ❧❛ ❝♦♥✈♦❧✉t✐♦♥ ♠❡t ❜✐❡♥ ❡♥ ✈❛❧❡✉r ❧❛ ♣rés❡♥❝❡ ❞✬❛✉tr❡s str✉❝t✉r❡s ❝♦♠♠❡ ❧❡s t❛♣✐s ❡t ❧❡s r❛✐❧s ❞❡ ❣✉✐❞❛❣❡ ✭❛✮ ■♠❛❣❡ ❞❡ ♣❡rs♣❡❝t✐✈❡ ✭❜✮ ❱✉❡ ❞✬♦✐s❡❛✉ ♦✉ ■P▼ ❋✐❣✉r❡ ✸✳✶✹ ✕ ❚r❛♥s❢♦r♠❛t✐♦♥ ❡♥ ✈✉❡ ❞✬♦✐s❡❛✉ ✭■♠❛❣❡ ■P▼✮✺✵ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ h(n) = 1 σ1 √ 2π e − (n − µ) 2 2σ 2 1 − 1 σ2 √ 2π e − (n − µ) 2 2σ 2 2 ✭✸✳✷✮ ◆♦✉s ♣♦✉✈♦♥s ✉t✐❧✐s❡r ❝❡tt❡ ♠ê♠❡ ❛♣♣r♦❝❤❡ s❛♥s ❛♣♣❧✐q✉❡r ❧❛ tr❛♥s❢♦r♠❛t✐♦♥ ✐♥✈❡rs❡✱ ♠❛✐s ✐❧ ❢❛✉t t❡♥✐r ❝♦♠♣t❡ q✉❡ ❧❛ t❛✐❧❧❡ ❞✉ ✜❧tr❡ ❉♦● ❞♦✐t s✬❛❞❛♣t❡r à ❧❛ t❛✐❧❧❡ ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡ ❡♥ ♣❡rs♣❡❝t✐✈❡✳ P♦✉r ❝❡❧❧❛✱ ❧❡s é❝❛rts t②♣❡s σ1 ❡t σ2 ❞❡s ❣❛✉ss✐❡♥♥❡s ❞♦✐✈❡♥t ✈❛r✐❡r✳ ❈♦♥♥❛✐ss❛♥t ❧❛ t❛✐❧❧❡ ❞❡s r❛✐❧s ❞❛♥s ❧❛ ♣❛rt✐❡ ❜❛ss❡ ❞❡ ❧✬✐♠❛❣❡ ❡♥ ♣✐①❡❧s ✭W✮✱ ❧❡s ❝♦♦r❞♦♥♥é❡s ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❡ ❧✬✐♠❛❣❡ (upf , vpf ) ❡t ❧❛ t❛✐❧❧❡ ❞❡ ❧✬✐♠❛❣❡ (W idth, Height)✱ ♦♥ ♣❡✉t ❞é♠♦♥tr❡r q✉✬✉♥❡ ❛♣♣r♦①✐♠❛t✐♦♥ ❞❡ ❧❛ ❧❛r❣❡✉r ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡ s✉✐t ❧✬éq✉❛t✐♦♥ ✸✳✸ ❬❇❛r❣❡t♦♥ ✷✵✵✾❪ ✿ wv = W ∗ (v − vpf ) Height − vpf ✭✸✳✸✮ ♦ù✱ wv r❡♣rés❡♥t❡ ❧❛ t❛✐❧❧❡ ❡♥ ♣✐①❡❧s ❞❡s r❛✐❧s ♣♦✉r ❧❛ ❝♦♦r❞♦♥♥é❡ v ❞❡ ❧✬✐♠❛❣❡ ❞❡ ♣❡rs♣❡❝t✐✈❡✳ ▲❡ ♠❛sq✉❡ ❞✉ ✜❧tr❡ ❉♦● q✉✐ ♥♦✉s ❛ ❞♦♥♥é ❧❡s ♠❡✐❧❧❡✉rs rés✉❧t❛ts ❛ ❞❡s ✈❛❧❡✉rs ❞❡ σ1 = wv 4 ❡t σ2 = wv 2 ✳ P♦✉r ❞ét❡r♠✐♥❡r ❧❛ ♣rés❡♥❝❡ ❞❡s r❛✐❧s ❞❛♥s ❧❡ s✐❣♥❛❧ rés✉❧t❛♥t ❞✉ ✜❧tr❛❣❡ ❉♦●✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞❡ sé❧❡❝t✐♦♥♥❡r s❡✉❧❡♠❡♥t ❧❡s ♠❛①✐♠✉♠s ♣♦s✐t✐❢s s✉♣ér✐❡✉rs à ✉♥ s❡✉✐❧ ❡t q✉✐ s♦♥t ❡♥t♦✉rés ❞❡s ♠✐♥✐♠✉♠s ♥é❣❛t✐❢s✳ ▲❛ ✜❣✉r❡ ✸✳✶✺ ♠♦♥tr❡ ❧❡ rés✉❧t❛t ❞❡ ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❧✬♦♣ér❛t❡✉r ❉♦● s✉r ✉♥❡ ❧✐❣♥❡ ❤♦r✐③♦♥t❛❧❡✳ ❉❡ ♣❧✉s✱ ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✶✻ ♥♦✉s ♣♦✉✈♦♥s ✈♦✐r ❡♥ r♦✉❣❡ s✉♣❡r♣♦sé à ❧✬✐♠❛❣❡ ❞✬♦r✐❣✐♥❡✱ ✉♥ rés✉❧t❛t ❞❡ ❉♦●✳ ❈❡❧❛ ♥♦✉s ♣❡r♠❡t ❞❡ ✈♦✐r q✉✬❡✛❡❝t✐✈❡♠❡♥t ❧❡s r❛✐❧s ♦♥t été ❜✐❡♥ ❞ét❡❝tés✳ ❈❡♣❡♥❞❛♥t✱ ❞✬❛✉tr❡s str✉❝t✉r❡s ❡t ❞❡s ♦♠❜r❡s ♦♥t été ♠✐s❡s ❡♥ ✈❛❧❡✉r✳ ❆✜♥ ❞❡ ré❞✉✐r❡ ❧❡ ♥♦♠❜r❡ ❞❡ ♣♦✐♥ts ❞❡ ❝♦♥t♦✉r ❞ét❡❝tés ❞❡ ❢❛ç♦♥ ❡rr♦♥é❡ ✭✓❢❛✉① ♣♦s✐t✐❢s✔✮ ♥♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ✉♥ ❝r✐tèr❡ ❞❡ s❡✉✐❧❧❛❣❡✳ ▲❛ ✜❣✉r❡ ✸✳✶✺ ♠♦♥tr❡ ❡♥ ❡✛❡t ❧❡s ❥❡✉① ❞❡ ❧✉♠✐èr❡s ❞❛♥s ❧✬❡♥tr❡✈♦✐❡✱ ♠✐s ❛✉ss✐ ❡♥ ✈❛❧❡✉r ♠❛✐s ❛✈❡❝ ✉♥❡ très ❢❛✐❜❧❡ ❛♠♣❧✐t✉❞❡✳ ❋✐❣✉r❡ ✸✳✶✺ ✕ ❘és✉❧t❛ts ❞❡ ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞✉ ✜❧tr❛❣❡ ❉♦● ♣♦✉r ❞ét❡❝t❡r ❧❡s r❛✐❧s✳ ▲✬✉t✐❧✐s❛t✐♦♥ ❞✬✉♥ ✜❧tr❡ ❉♦● ♣❡r♠❡t ❞❡ ♠❡ttr❡ ❡♥ ✈❛❧❡✉r ❧❡s r❛✐❧s ❡t ❧❡s ❛✉tr❡s str✉❝t✉r❡s ❞❡ ❧❛ ✈♦✐❡ ❝❛r ❝❡❧❧❡s✲❝✐ ♦♥t t♦✉s ✉♥❡ t❛✐❧❧❡ s❡♠❜❧❛❜❧❡✳ P❛r ❝♦♥tr❡✱ ❞❡s ♦♠❜r❡s ❞❛♥s ❧✬✐♠❛❣❡ s♦♥t ❛✉ss✐ é❣❛❧❡♠❡♥t ♠✐s❡s ❡♥ ✈❛❧❡✉r ❝❡ q✉✐ r❡♥❞ ❞✐✣❝✐❧❡ ❧❛ ❞✐✛ér❡♥❝✐❛t✐♦♥ ❞❡s r❛✐❧s ❞❡s ❛rt❡❢❛❝ts✳ ▲❡s ♣✐①❡❧s s✐t✉és ❡♥tr❡ ❧❡s ✈❛❧❡✉rs ✸✵✵ ❡t ✹✺✵ ❛♣♣❛rt✐❡♥♥❡♥t à ❧✬❡♥tr❡✈♦✐❡ ❡t ♣♦✉r ❝❡tt❡ ❧✐❣♥❡ ♣❛r ❡①❡♠♣❧❡✱ ✐❧ ② ❛✈❛✐t ✉♥ ❥❡✉ ❞✬♦♠❜r❡s✳✸✳✸✳ ❆♣♣r♦❝❤❡ r❡t❡♥✉❡ ✺✶ ❋✐❣✉r❡ ✸✳✶✻ ✕ ❘és✉❧t❛ts ❞❡ ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞✉ ✜❧tr❛❣❡ ❉♦● ♣♦✉r ❞ét❡❝t❡r ❧❡s r❛✐❧s✳ ▲❡s ♣♦✐♥ts ❡♥ r♦✉❣❡ ré♣r❡s❡♥t❡♥t ❧❡s ♠❛①✐♠✉♥s ❧♦❝❛✉① ♦❜t❡♥✉s à ♣❛rt✐r ❞❡ ❧✬❛♥❛❧②s❡ ❞✉ rés✉❧t❛t ❞✉ ✜❧tr❛❣❡ ❉♦● ❛✈❡❝ ✉♥ ❧é❣❡r s❡✉✐❧✳ ▲✬✐♠❛❣❡ ♠♦♥tr❡ q✉❡ ❧❡s r❛✐❧s s♦♥t ❜✐❡♥ ❡①tr❛✐ts ❣râ❝❡ à ❝❡tt❡ t❡❝❤♥✐q✉❡✳ ❚♦✉t❡❢♦✐s ✐❧ ② ❛ ❜❡❛✉❝♦✉♣ ❞✬❛✉tr❡s ❞ét❡❝t✐♦♥s q✉✐ ♥❡ ❝♦rr❡s♣♦♥❞❡♥t ♣❛s ❛✉① r❛✐❧s✳ ❈❡s ❢❛✉ss❡s ❞ét❡❝t✐♦♥s ♦♥t ✉♥❡ ❞✐str✐❜✉t✐♦♥ ❧✐♥é❛✐r❡✱ ❝❡ q✉✐ ♣❡✉t ❡♥tr❛✐♥❡r ✉♥❡ ❢❛✉ss❡ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ❞❛♥s ❧❡s ét❛♣❡s s✉✐✈❛♥t❡s✳ ✸✳✸ ❆♣♣r♦❝❤❡ r❡t❡♥✉❡ ❆♣rès ❛✈♦✐r ét✉❞✐é ❧❡s ❞✐✛ér❡♥t❡s ❛♣♣r♦❝❤❡s ❡①✐st❛♥t❡s✱ ♥♦✉s ❛✈♦♥s ❞é❝✐❞é ❞❡ ❞é✈❡❧♦♣♣❡r ✉♥❡ t❡❝❤♥✐q✉❡ ❜❛sé❡ s✉r ❧✬❛♥❛❧②s❡ ❧♦❝❛❧❡ ❞❡s ❣r❛❞✐❡♥ts ❞❡ ❧✬✐♠❛❣❡ ❛✈❡❝ ✉♥ s❡✉✐❧ très ❜❛s ♣♦✉r s❛t✐s❢❛✐r❡ ♥♦s ❝♦♥tr❛✐♥t❡s ❞✬❡①♣❧♦✐t❛t✐♦♥✳ P♦✉r ♣♦✉✈♦✐r ré❛❧✐s❡r ❧✬❛♥❛❧②s❡ ❧♦❝❛❧❡ ❡t ❛❝❝é❧ér❡r ❧❡ ♣r♦❝❡ss✉s ❞❡ ❝❛❧❝✉❧✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ✉♥ ♠❛sq✉❡ ♣♦✉r ❞é✜♥✐r ✉♥❡ ré❣✐♦♥ ❞✬✐♥térêt ❡t ❛♥❛❧②s❡r ❧❡s ❣r❛❞✐❡♥ts ❞❛♥s ❧✬✐♠❛❣❡ ❞❡ ♣❡rs♣❡❝t✐✈❡✱ s❛♥s ♦❜t❡♥✐r ✉♥❡ ❇✐r❞s ❡②❡ ✈✐❡✇ ❝♦♥tr❛✐r❡♠❡♥t à ❬●s❝❤✇❛♥❞t♥❡r ❡t ❛❧✳ ✷✵✶✵❪✳ ❯♥❡ ❢♦✐s ❧✬❛♥❛❧②s❡ ❞❡s ❣r❛❞✐❡♥ts ✜♥✐❡✱ s❡✉❧s ❧❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉r ❛✈❡❝ ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ t②♣❡ r❛✐❧ s❡r♦♥t rétr♦✲♣r♦❥❡tés ♣♦✉r ♦❜t❡♥✐r ❧❡✉r ♣♦s✐t✐♦♥ ❞❛♥s ❧✬❡s♣❛❝❡ ✸❉✳ ❈✬❡st ❞❛♥s ❝❡t ❡s♣❛❝❡ q✉❡ ♥♦✉s ❞ét❡r♠✐♥❡r♦♥s ❧❛ ♣♦s✐t✐♦♥ ❞❡s r❛✐❧s ❣râ❝❡ à ❧✬❛❧❣♦r✐t❤♠❡ ❞❡ ❘❆◆❙❆❈✳ ❘❆◆❙❆❈ s✬❛♣♣❧✐q✉❡r❛ à ❝❤❛q✉❡ r❛✐❧✱ ❞r♦✐t ❡t ❣❛✉❝❤❡✳ ❯♥❡ ❛♣♣r♦①✐♠❛t✐♦♥ ♣❛r ✉♥ ♣♦❧②♥ô♠❡ ❞❡ ❞❡❣ré ✷ ❡st ✉t✐❧✐sé ♣♦✉r ❝❤❛q✉❡ ❘❆◆❙❆❈✳ ❯♥❡ ❢♦✐s r❡t❡♥✉s ❧❡s ♠❡✐❧❧❡✉rs ♣♦✐♥ts ❞❡ ❝♦♥t♦✉rs✱ ❝❡s ❞❡r♥✐❡rs s❡r♦♥t tr❛♥s❧❛tés ❛✉ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡ ♣♦✉r ♦❜t❡♥✐r ❧❛ ❢♦♥❝t✐♦♥ q✉✐ ❞é✜♥✐t ❧❛ ❝♦✉r❜✉r❡ ❞❡ ❧❛ ✈♦✐❡✳ P✉✐s ✉♥ ✜❧tr❛❣❡ t❡♠♣♦r❡❧ ♣❡✉t êtr❡ ✉t✐❧✐sé ♣♦✉r ré❞✉✐r❡ ❧❡ ♥♦♠❜r❡ ❞❡s ✐tér❛t✐♦♥s ❞❡ ❘❆◆❙❆❈ ♣♦✉r ❧❡s ✐♠❛❣❡s s✉✐✈❛♥t❡s✳ ❋✐♥❛❧❡♠❡♥t✱ à ♣❛rt✐r ❞❡s ❞♦♥♥é❡s ♦❜t❡♥✉❡s✱ ♥♦✉s ❞ét❡r♠✐♥❡r♦♥s ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s✳ ▲❡s ét❛♣❡s ❞❡ ♥♦tr❡ ❛♣♣r♦❝❤❡ s♦♥t ✿ ✕ ❙é❧❡❝t✐♦♥ ❞✉ ▼❛sq✉❡✳ ✕ ❆♥❛❧②s❡ ❞❡s ❣r❛❞✐❡♥ts ✿ ❉ét❡❝t✐♦♥ ❞❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉r✳ ✕ ❘étr♦✲♣r♦❥❡❝t✐♦♥ ❞❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉r ✷❉ à ✸❉✳ ✕ ❖❜t❡♥t✐♦♥ ❞✉ ♣♦❧②♥ô♠❡ ❞❡ ❧❛ ✈♦✐❡ ✿ ❘❆◆❙❆❈ ✕ ❋✐❧tr❛❣❡ t❡♠♣♦r❡❧✳ ✕ ❉ét❡r♠✐♥❛t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥✳ ✸✳✸✳✶ ❙é❧❡❝t✐♦♥ ❞✉ ▼❛sq✉❡ ❯♥❡ ré❣✐♦♥ ❞✬✐♥térêt ✭❘❖■ ❞❡ ❧✬❛♥❣❧❛✐s ❘❡❣✐♦♥ ❖❢ ■♥t❡r❡st✮ ❡st ✉♥❡ ré❣✐♦♥ ❞❡ ❧✬✐♠❛❣❡ q✉✐ ❡st ❛♥❛❧②sé❡ ❛✈❡❝ ✉♥❡ ♣❧✉s ❣r❛♥❞❡ ♣ré❝✐s✐♦♥✱ ❡♥ ❣é♥ér❛❧ ♣❛r❝❡ q✉❡ ❝❡tt❡ ré❣✐♦♥ ♣rés❡♥t❡ ✉♥ ✐♥térêt✺✷ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❋✐❣✉r❡ ✸✳✶✼ ✕ P❤❛s❡s ❞✬❡①tr❛❝t✐♦♥ ❞❡s r❛✐❧s ♣❛rt✐❝✉❧✐❡r✳ ❉❛♥s ♥♦tr❡ ❝❛s✱ ❡❧❧❡ ❞é✜♥✐t ❧✬❡♠♣❧❛❝❡♠❡♥t ❞❡ ❧❛ ✈♦✐❡ ❞❛♥s ❧✬✐♠❛❣❡✳ ❈❡tt❡ ♣❧✉s ❣r❛♥❞❡ ♣ré❝✐s✐♦♥ s❡ ❢❛✐t ❛✉ ❞étr✐♠❡♥t ❞❡s ❛✉tr❡s ③♦♥❡s ❞❡ ❧✬✐♠❛❣❡ q✉✐ ♥❡ s♦♥t ♣❛s ❛♥❛❧②sé❡s ❛✈❡❝ ❧✬♦❜❥❡❝t✐❢ ❞❡ ré❞✉✐r❡ ❧❡ ♥♦♠❜r❡ ❞❡s ♣♦✐♥ts ✐♥s♣❡❝tés ❡t ❞✬❛❝❝é❧ér❡r ❧❡ ♣r♦❝❡ss✉s ❞❡ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡✳ ▲❛ sé❧❡❝t✐♦♥ ❞❡ ❧❛ ❘❖■ ❡st ❢❛✐t❡ ❣râ❝❡ à ❧❛ ❝♦♥♥❛✐ss❛♥❝❡ ❛ ♣r✐♦r✐ ❞❡ ❧❛ ❣é♦♠étr✐❡ ❞❡ ❧❛ ✈♦✐❡ ❡t ❛✉ ❢✉r ❡t à ♠❡s✉r❡ q✉❡ ❧❛ ✈♦✐❡ ❡st ❞ét❡❝té❡ ❝❡tt❡ ❘❖■ s✉✐✈r❛ ❧❛ ♣♦s✐t✐♦♥ ❞❡ ❧❛ ✈♦✐❡✳ ◆♦tr❡ ❘❖■ ❛ été ❞é✜♥✐❡ ❝♦♠♠❡ ✉♥❡ ❢♦r♠❡ ❞❡ tr❛♣è③❡ ❛✈❡❝ s♦♥ s♦♠♠❡t ❞❛♥s ❧❛ ♣♦s✐t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❡s r❛✐❧s ❡t ✉♥❡ ❜❛s❡ ♣❧✉s ❧❛r❣❡ q✉❡ ❧❛ ❧❛r❣❡✉r ❞❡ ❧❛ ✈♦✐❡ ❝♦♠♠❡ ♠♦♥tr❡ ❧❛ ✜❣✉r❡ ✸✳✶✽✳ ❋✐❣✉r❡ ✸✳✶✽ ✕ ❘❡♣rés❡♥t❛t✐♦♥ ❞✉ ♠❛sq✉❡ ❞❡ ❧❛ ❘❖■✳ ❉❛♥s ✉♥❡ ♣r❡♠✐èr❡ ét❛♣❡✱ ❝❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❡st ♣♦s✐t✐♦♥♥é s✉r ❧❛ ❧✐❣♥❡ ❞❡ ❧✬❤♦r✐③♦♥ ❡t ❡st ❝❡♥tré ❞❛♥s ❧✬✐♠❛❣❡✳ ❯♥❡ ❢♦✐s q✉❡ ❧❡s r❛✐❧s ♦♥t été ❞ét❡❝tés✱ ❧❡ ♥♦✉✈❡❛✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❝♦rr❡s♣♦♥❞r❛ ❛✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❡s r❛✐❧s✳ ❈❡ s✉✐✈✐ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❡s r❛✐❧s ♥♦✉s ♣❡r♠❡ttr❛ ❞❡ ❜✐❡♥ ♣♦s✐t✐♦♥♥❡r ❧❛ ❘❖■ ❞❛♥s ❧✬✐♠❛❣❡ ❝❛r ❧❡ ❝❤♦✐① ❞❡ s♦♥ ❡♠♣❧❛❝❡♠❡♥t ❡st ✉♥ ❛s♣❡❝t ❝r✐t✐q✉❡✳ P♦✉r ♣♦✉✈♦✐r ❝♦♥♥❛✐tr❡ ❧❛ ♣♦s✐t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❡s r❛✐❧s✱ ❝✬❡st✲à✲❞✐r❡✱ ❧❡ ♣♦✐♥t ❞❛♥s ❧✬✐♠❛❣❡ ♦ù ❧❡s r❛✐❧s ❢✉s✐♦♥♥❡♥t✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ❧❛ t❛♥❣❡♥t❡ ❛✉① r❛✐❧s à ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞ét❡❝té❡✳ ❆✉tr❡♠❡♥t ❞✐t✱ ✉♥❡ ❢♦✐s q✉❡ ❧✬éq✉❛t✐♦♥ ❞❡ ❧❛ ♣❛r❛❜♦❧❡ ❝❡♥tr❛❧❡ ❞é✜♥✐❡ ♣❛r ❧❛ ♣♦s✐t✐♦♥ ❞❡s r❛✐❧s ❛ été ♦❜t❡♥✉❡✱ ♥♦✉s ❡①tr❛♣♦❧♦♥s ❧❛ t❛♥❣❡♥t❡ ❛✉① r❛✐❧s à ❧✬✐♥✜♥✐ ♣♦✉r ♦❜t❡♥✐r ❧❡ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❡s r❛✐❧s✳ P♦✉r ♦❜t❡♥✐r ❧❛ ✈❛❧❡✉r ❞❡ ❧❛ t❛♥❣❡♥t❡✱ ❧❡ t❤é♦rè♠❡ s✉✐✈❛♥t ❛ été ❛♣♣❧✐q✉é ✿ ❙♦✐t f(x) ❧❛ ❢♦♥❝t✐♦♥ ré❡❧❧❡ ❞é✜♥✐❡ s✉r ❧✬✐♥t❡r✈❛❧❧❡ I ❡t s♦✐t ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ a✱ ✉♥ ré❡❧ ❞❡ ■ t❡❧ q✉❡ f s♦✐t ❞ér✐✈❛❜❧❡ ❡♥ a✱ ❞❡ ♥♦♠❜r❡ ❞ér✐✈é L = ˙f(a)✳ ❖♥ ♥♦t❡ C ❧❛ ❝♦✉r❜❡ r❡♣rés❡♥t❛t✐✈❡ ❞❡ f ❛✉ ✈♦✐s✐♥❛❣❡ ❞❡ A (a; f(a))✳ ▲✬éq✉❛t✐♦♥ ré❞✉✐t❡ ❞❡ ❧❛ t❛♥❣❡♥t❡ T à C ❛✉ ♣♦✐♥t ❞✬❛❜s❝✐ss❡ a ❡st ✿ y = ˙f(a) × (x − a) + f(a) ✭✸✳✹✮ ❈❡tt❡ ♠ét❤♦❞❡ ❡st ✈❛❧❛❜❧❡ ♣✉✐sq✉❡ ❧❡s ✈♦✐❡s ❢❡rré❡s ❢♦♥t r❛r❡♠❡♥t ✉♥ ❞❡♠✐✲t♦✉r ❡t ❛✉ss✐ ♣❛r❝❡ q✉❡ ❧✬❛♣♣r♦①✐♠❛t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ✉t✐❧✐sé❡ ❡st ✉♥ ♣♦❧②♥ô♠❡ ❞✉ ✷è♠❡ ❞é❣ré❡✳ P❧✉s✐❡✉rs tr❛✈❛✉① ❞❛♥s ❧❡✸✳✸✳ ❆♣♣r♦❝❤❡ r❡t❡♥✉❡ ✺✸ ❞♦♠❛✐♥❡ r♦✉t✐❡r s❡ ❜❛s❡♥t ❛✉ss✐ ❞❛♥s ❝❡tt❡ ❛♣♣r♦①✐♠❛t✐♦♥ ❬❈❤❡♥ ✫ ❲❛♥❣ ✷✵✵✻❪ ❡t ❬❈❤♦✐ ❡t ❛❧✳ ✷✵✶✷❪✳ ■❧ ♣♦✉rr❛✐t êtr❡ ❡♥✈✐s❛❣❡❛❜❧❡ ❞✬♦❜t❡♥✐r ❧❡ r❛②♦♥ ❞❡ ❝♦✉r❜✉r❡ à ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ❡t ❞✬✉t✐❧✐s❡r ❧✬éq✉❛t✐♦♥ ❞✉ ❝❡r❝❧❡ ♣♦✉r ♣r♦❧♦♥❣❡r ❧❡s r❛✐❧s ❡t ❡♥s✉✐t❡✱ ♦❜t❡♥✐r ❧❛ ♣♦s✐t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ r❡❝❤❡r❝❤é✱ ♠❛✐s ✐❧ s❡♠❜❧❡ s✉✣s❛♥t ❧✬❡✛❡t ❞✬✉t✐❧✐s❡r ❧❛ t❛♥❣❡♥t❡✳ ▲❛ ✜❣✉r❡ ✸✳✶✾ ♠♦♥tr❡ ❞❡s rés✉❧t❛ts ❞❡ ❝❡tt❡ ♠ét❤♦❞❡ ❞❛♥s ❧❡ ♣❧❛♥ ✐♠❛❣❡ ❡t ❞❛♥s ❧✬❡s♣❛❝❡ 3D✳ ✸✳✸✳✷ ❆♥❛❧②s❡ ❞❡s ❣r❛❞✐❡♥ts ▲✬❛♣♣r♦❝❤❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ❝♦♥s✐st❡ à ❛♥❛❧②s❡r ❧❡s ❣r❛❞✐❡♥ts ❤♦r✐③♦♥t❛✉① ❞❡ ❧✬✐♠❛❣❡✳ ❉❛♥s ❝❡tt❡ ❛♥❛❧②s❡ ♥♦✉s ❝❤❡r❝❤♦♥s ✉♥❡ ✈❛r✐❛t✐♦♥ ❞❡s ♥✐✈❡❛✉① ❞❡ ❣r✐s ❞❛♥s ❧✬✐♠❛❣❡ ❛✈❡❝ ✉♥❡ ❧❛r❣❡✉r s✐♠✐❧❛✐r❡ à ❧❛ ❧❛r❣❡✉r ❞✉ r❛✐❧ ❡t ❝❡s ❣r❛❞✐❡♥ts ❞♦✐✈❡♥t ❛✈♦✐r ✉♥❡ ♦r✐❡♥t❛t✐♦♥ s✐♠✐❧❛✐r❡✳ ◆♦✉s ❛✈♦♥s ♣✉ ✈♦✐r ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✺ ❝♦♠♠❡ ét❛✐t ♣♦ss✐❜❧❡ ❞✬✉t✐❧✐s❡r ✉♥ ✜❧tr❛❣❡ ❛♥❣✉❧❛✐r❡ ♣♦✉r ♠✐❡✉① ❝✐❜❧❡r ❧❡ s❡✉✐❧❧❛❣❡ ❞❡ ❈❛♥♥②✳ P❧✉s ♣ré❝✐sé♠❡♥t✱ ♥♦✉s ❝❤❡r❝❤♦♥s ❞❛♥s ❧✬✐♠❛❣❡ ❞❡s ❣r❛❞✐❡♥ts é❝❛rtés ❞❡ ❧❛ ❧❛r❣❡✉r ❞✉ r❛✐❧ ❡t q✉✐ ♦♥t ✉♥❡ ♦r✐❡♥t❛t✐♦♥ s✐♠✐❧❛✐r❡ ❝♦♠♠❡ ❡①♣♦sé ❞❛♥s ❧❡ ♣s❡✉❞♦✲❝♦❞❡ ✸✳✸✳✶✳ ▲❡ rés✉❧t❛t ❞❡ ♥♦tr❡ ❛♣♣r♦❝❤❡ ❡st r❡♣rés❡♥té ❞❛♥s ❧❡s ✜❣✉r❡s ✸✳✷✵ ❡t ✸✳✷✶✱ ♣♦✉r ✉♥❡ ❧✐❣♥❡ ❤♦r✐③♦♥t❛❧❡ ❞❡ ❧✬✐♠❛❣❡ ❡t ♣♦✉r t♦✉t❡ ❧✬✐♠❛❣❡ r❡s♣❡❝t✐✈❡♠❡♥t✳ ❈❡♣❡♥❞❛♥t✱ ❝♦♠♠❡ ❡①♣❧✐q✉é ❞❛♥s ❧❛ s❡❝t✐♦♥ ✸✳✷✱ ❧✬❛♥❛❧②s❡ ❞❡s ❣r❛❞✐❡♥ts ❞❛♥s ❧✬✐♠❛❣❡ r❡st❡ ✉♥❡ tâ❝❤❡ ❝r✉❝✐❛❧❡ ❞❛♥s ❧❛ r❡❝❤❡r❝❤❡ ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡✳ ❉❡ ♣❧✉s✱ ❧❛ ♣rés❡♥❝❡ ❞✉ t❛♣✐s ❞❡ tr❛♥s♠✐ss✐♦♥ ❜❧❛♥❝ r❡♥❞ ❞✐✣❝✐❧❡ ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡ s❡✉✐❧s ♣♦✉r ❞ét❡r♠✐♥❡r ❧❡s ❣r❛❞✐❡♥ts ❞❛♥s ❧✬✐♠❛❣❡✳ ❆❧❣♦r✐t❤♠ ✸✳✸✳✶✿ ❆♣♣r♦❝❤❡ ♣r♦♣♦sé❡✭✮ GH ❝♦♠♠❡♥t✿ ❖❜t❡♥t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts ❤♦r✐③♦♥t❛❧s ❞❡ ❧✬✐♠❛❣❡ G ❝♦♠♠❡♥t✿ ❖❜t❡♥t✐♦♥ ❞❡ ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts ❞❡ ❧✬✐♠❛❣❡ ❢♦r i ← IMAGE❴HEIGHT t♦ HORIZONT❴LINE ❞♦    f = GH(i, :) x = 1 ✇❤✐❧❡ x < IMAGE❴W IDT H ❞♦    ✐❢ f(x) is maximum & f(x) > SEUIL t❤❡♥    x2 = x + 1 ✇❤✐❧❡ x2 < IMAGE❴W IDT H & x2 < (x + taille❴rail + marge) ❞♦    ✐❢ f(x2) is mimimum & f(x2) < −SEUIL & G(i, x) et G(i, x2) sont similaires t❤❡♥ ( P oint de contour = (x + x2)/2 ❝♦♠♠❡♥t✿ P♦✐♥t ❞❡ ❝♦♥t♦✉r ❞❡t❡❝té x2 = x2 + 1 x = x + 1 P♦✉r ♠✐❡✉① é✈❛❧✉❡r ❧✬❡✣❝❛❝✐té ❞❡ ❝❡tt❡ t❡❝❤♥✐q✉❡✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞❡ ❝♦♥❢r♦♥t❡r ❧❛ ♣❡rt✐♥❡♥❝❡ ❧❛ ♠ét❤♦❞❡ ♣r♦♣♦sé❡ ❡t ❧❛ t❡❝❤♥✐q✉❡ ❉♦● à ❧❛ ✈ér✐té t❡rr❛✐♥✳ ▲✬❡①❡♠♣❧❡ ❞❡ ✈ér✐té t❡rr❛✐♥ ❡①♣♦sé ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✷✷ ❡st ❝♦♠♣♦sé ❞❡ ❞❡✉① r❛✐❧s✱ ❞❡✉① t❛♣✐s ❡t ❞❡✉① r❛✐❧s ❞❡ ❣✉✐❞❛❣❡✳ ➱t❛♥t ❞♦♥♥é q✉❡ ❧❡s ❞❡✉① t❡❝❤♥✐q✉❡s ♥♦✉s ❞♦♥♥❡♥t ♣♦✉r rés✉❧t❛t ❧❡ ❝❡♥tr❡ ❞❡s ❝♦♥t♦✉rs ❝♦♥s✐❞érés ❝♦♠♠❡ ✉♥ ♣♦ss✐❜❧❡ r❛✐❧✱ ❝✬❡st ❧❡ ♥♦♠❜r❡ ❞❡ ♣♦✐♥ts ♦❜t❡♥✉s q✉❡ ♥♦✉s ❛✈♦♥s ❛♥❛❧②sé✳ ▲❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉r q✉✐ ❝♦rr❡s♣♦♥❞❡♥t ❝♦rr❡❝t❡♠❡♥t à ❧❛ ♣♦s✐t✐♦♥ ❞❡s r❛✐❧s ♦✉ t❛♣✐s s♦♥t ❝♦♥s✐❞érés ❝♦♠♠❡ ✓✈r❛✐✲♣♦s✐t✐❢s✔✱ ❧❡s ❛✉tr❡s s♦♥t ❝♦♥s✐❞érés ✓❢❛✉①✲♣♦s✐t✐❢s✔✳ P✉✐sq✉❡ ❧❡ ❜✉t ❡st ❞❡ ❝❛r❛❝tér✐s❡r ❧❡s r❛✐❧s ❡t ❧❡s t❛♣✐s✱ ♣❧✉s ♥♦✉s ❛✈♦♥s ❞❡ ♣♦✐♥ts ❞✐s♣♦♥✐❜❧❡s✱ ♣❧✉s ♣ré❝✐s s❡r❛ ❧❡ rés✉❧t❛t✳ ❊♥ r❡✈❛♥❝❤❡✱ ✉♥ ♥♦♠❜r❡ ✐♠♣♦rt❛♥t ❞❡ ✓❢❛✉①✲♣♦s✐t✐❢s✔ ♣❡✉t ♥♦✉s ❛♠❡♥❡r à ❞❡s rés✉❧t❛ts ✐♥❡①❛❝ts✳ P✉✐sq✉❡ ❧❡s ❞❡✉① t❡❝❤♥✐q✉❡s ❡①✐❣❡♥t ❞✬✉t✐❧✐s❡r ✉♥ s❡✉✐❧ ♣♦✉r ré❞✉✐r❡ ❧❡ ❜r✉✐t✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ❧❡ ♠ê♠❡ ❝r✐tèr❡ ♣♦✉r ❧❡ ❞ét❡r♠✐♥❡r✳ ◆♦✉s ❛✈♦♥s ❞é✜♥✐ q✉❡ s❡✉❧❡s ❧❡s ✈❛r✐❛t✐♦♥s ❞❡ ♥✐✈❡❛✉ ❞❡ ❣r✐s s✉♣ér✐❡✉r❡s à 8 s❡r♦♥t ♣r✐s❡s ❡♥ ❝♦♠♣t❡✳ ❈❡❧❛ ✈❡✉t ❞✐r❡ q✉❡ ❧❡s très ❢❛✐❜❧❡s ✈❛r✐❛t✐♦♥s ♥❡✺✹ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❋✐❣✉r❡ ✸✳✶✾ ✕ ❘és✉❧t❛ts ❞✬✐♥t❡r♣♦❧❛t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❡s r❛✐❧s✳ ❉❛♥s ❧❡s ✐♠❛❣❡s ❞❡ ❣❛✉❝❤❡✱ ♥♦✉s ♣♦✉✈♦♥s ♦❜s❡r✈❡r ❧❛ ♣❛r❛❜♦❧❡ ❞ét❡❝té❡ ❡♥ r♦✉❣❡✱ ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ r❡♣rés❡♥té❡ ♣❛r ✉♥ ♣♦✐♥t ❞❡ ❝♦✉❧❡✉r ❝②❛♥ ❡t ❧❛ t❛♥❣❡♥t❡ à ❝❡ ♣♦✐♥t ❡①tr❛♣♦❧é❡ à ❧✬✐♥✜♥✐ ❡♥ ❥❛✉♥❡✳ ▲❡s ✐♠❛❣❡s ❞❡ ❧❛ ❝♦❧♦♥♥❡ ❞r♦✐t❡ r❡♣rés❡♥t❡♥t ❧❛ ♣♦s✐t✐♦♥ ❞❡s ♣✐①❡❧s ❞❛♥s ❧❡ ♣❧❛♥ 3D✱ ♦ù ❧❡s ♣♦✐♥ts ❜❧❡✉s s♦♥t ❧❡s ❣r❛❞✐❡♥ts ❞ét❡r♠✐♥és ❝♦♠♠❡ ❝❛♥❞✐❞❛ts à ❛♣♣❛rt❡♥✐r à ❧❛ ✈♦✐❡✱ ❧❡s ♣♦✐♥ts r♦✉❣❡s r❡♣rés❡♥t❡♥t ❧❛ ❝♦✉r❜❡ ♦❜t❡♥✉❡ ❡t ❧❡s ♣♦✐♥ts ♠❛❣❡♥t❛ ❧❛ t❛♥❣❡♥t❡ ❞❡ ❝❡tt❡ ❝♦✉r❜❡ à ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥✳✸✳✸✳ ❆♣♣r♦❝❤❡ r❡t❡♥✉❡ ✺✺ ❋✐❣✉r❡ ✸✳✷✵ ✕ ❘és✉❧t❛ts ❞❡ ❧✬❛♥❛❧②s❡ ❞❡s ❣r❛❞✐❡♥ts ♣r♦♣♦sé❡ ♣♦✉r ❞ét❡❝t❡r ❧❡s r❛✐❧s✳ ▲✬✉t✐❧✐s❛t✐♦♥ ❞❡ ❧❛ ♠ét❤♦❞❡ ♣r♦♣♦sé❡ ♣❡r♠❡t ❞❡ ♠❡ttr❡ ❡♥ ✈❛❧❡✉r ❧❡s r❛✐❧s ❡t ❧❡s ❛✉tr❡s str✉❝t✉r❡s ❞❡ ❧❛ ✈♦✐❡✳ ▲❡ s✐❣♥❛❧ ❞❡ s♦rt✐❡ ✈❛✉t 1 ♣♦✉r ✐♥❞✐q✉❡r ❧❡ ❝❡♥tr❡ ❞✬✉♥ ❣r❛❞✐❡♥t ❞❡ ❧❛r❣❡✉r w q✉✐ ❛ ❞❛♥s s❡s ❡①tré♠✐tés ❞❡✉① ❛♥❣❧❡s ❞✬♦r✐❡♥t❛t✐♦♥ s✐♠✐❧❛✐r❡s✳ ❈♦♠♠❡ ♣♦✉r ❧❛ ♠ét❤♦❞❡ ♣ré❝é❞❡♥t❡✱ ❝❡rt❛✐♥❡s ♦♠❜r❡s ❞❡ ❧✬✐♠❛❣❡ ♦♥t été ❡①tr❛✐ts ❞❡ ❢❛ç♦♥ ❡rr♦♥é❡✳ ❙✐ ❧❡s r❛✐❧s s♦♥t ♣❧✉s s♦♠❜r❡s q✉❡ ❧✬❡♥✈✐r♦♥♥❡♠❡♥t✭❧❛ ♥✉✐t ❧❡s r❛✐❧s ♥❡ r❡✢èt❡♥t ♣❛s ❧❛ ❧✉♠✐èr❡ ✈❡rs ❧❛ ❝❛♠ér❛✮ ✐❧ s✉✣t ❞✬✐♥✈❡rs❡r ❧❡ ❙❊❯■▲✱ ♣♦✉r tr♦✉✈❡r ❧❡s ③♦♥❡s ♣❧✉s s♦♠❜r❡s✳ ❋✐❣✉r❡ ✸✳✷✶ ✕ ❘és✉❧t❛ts ❞❡ ❧✬❛♥❛❧②s❡ ❞❡s ❣r❛❞✐❡♥ts ♣r♦♣♦sé❡ ♣♦✉r ❞ét❡❝t❡r ❧❡s r❛✐❧s✳ ❉❛♥s ❝❡t ✐♠❛❣❡✱ ❧❡s ♣♦✐♥ts ❡♥ r♦✉❣❡ r❡♣rés❡♥t❡♥t ❧❡ ❝❡♥tr❡ ❞❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉rs ♦❜t❡♥✉s à ♣❛rt✐r ❞❡ ❧✬❛♥❛❧②s❡ ❞❡s ❣r❛❞✐❡♥ts ♣r♦♣♦sé❡ s❛♥s ❛✈♦✐r ❛♣♣❧✐q✉é ❛✉❝✉♥ s❡✉✐❧✳ ▲✬✐♠❛❣❡ ♠♦♥tr❡ q✉❡ ❧❡s r❛✐❧s s♦♥t ❜✐❡♥ ❡①tr❛✐ts ❣râ❝❡ à ❝❡tt❡ t❡❝❤♥✐q✉❡✳ ❈❡♣❡♥❞❛♥t✱ ✐❧ ② ❛ ❞✬❛✉tr❡s ❞ét❡❝t✐♦♥s q✉✐ ♥❡ ❝♦rr❡s♣♦♥❞❡♥t ♣❛s ❛✉① r❛✐❧s✳ ◆♦✉s ♣r♦♣♦s♦♥s ✉♥❡ ♠ét❤♦❞❡ ❞❡ ✜❧tr❛❣❡ ❛ ♣♦st❡r✐♦r✐ ❞❡ s❡s ❞ét❡❝t✐♦♥s ❡rr♦♥é❡s✳✺✻ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ s❡r♦♥t ♣❛s r❡t❡♥✉❡s✳ ❈❡tt❡ ❞✐✛ér❡♥❝❡ ❞❡ 8 ❡♥ ♥✐✈❡❛✉① ❞❡ ❣r✐s✱ ♣❡✉t êtr❡ ❝♦♥s✐❞éré❡ ❝♦♠♠❡ ✉♥ s❡✉✐❧ très ❢❛✐❜❧❡ ❝❛r ❡❧❧❡ r❡♣rés❡♥t❡ ✉♥❡ ✈❛r✐❛t✐♦♥ ❞❡ 3.125% ❞❛♥s ✉♥❡ ✐♠❛❣❡ ❞❡ ✷✺✻ ❜✐ts✳ ✭❛✮ ❱ér✐té t❡rr❛✐♥ ❞❡ ❧❛ ♣♦s✐t✐♦♥ ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡✳ ✭❜✮ ❱ér✐té t❡rr❛✐♥ ❡t ❧❡ ♠❛sq✉❡ ❛♣♣❧✐q✉é ♣♦✉r ❧❛ r❡❝❤❡r❝❤❡ ❞❡s ❣r❛❞✐❡♥ts✳ ❋✐❣✉r❡ ✸✳✷✷ ✕ ❱ér✐té t❡rr❛✐♥ ❞❡ ❧✬✐♠❛❣❡ à ❛♥❛❧②s❡r ❡t ❧❡ ♠❛sq✉❡ ❛♣♣❧✐q✉é✳ ❊♥ ❝♦♥s✐❞ér❛♥t ✉♥ ♣♦✐♥t ❞❡ ❝♦♥t♦✉r ♣❛r r❛✐❧ ❡t ♣❛r t❛♣✐s ♣♦✉r ❝❤❛q✉❡ ❧✐❣♥❡ ❤♦r✐③♦♥t❛❧❡ ❞❡ ❧✬✐♠❛❣❡✱ ❧❡ ♥♦♠❜r❡ t♦t❛❧ ❞❡ ♣♦✐♥ts ❞❡ ❝❡tt❡ ✈ér✐té t❡rr❛✐♥ ❡st ❞❡ ✶✺✸✹ ♣♦✐♥ts✳ ▲❛ t❛✐❧❧❡ ❞❡ ❧✬✐♠❛❣❡ ❡st ❞❡ 480 × 640 ♣✐①❡❧s✳ ❉❡ ❝❡ ❢❛✐t✱ ❧❡s r❛✐❧s ❡t ❧❡s t❛♣✐s ♦❝❝✉♣❡♥t ✉♥ ✽✳✺✪ ❞❡ ❧✬✐♠❛❣❡✱ ❞❡♣✉✐s ❧❛ ❧✐❣♥❡ 480 ❥✉sq✉✬à ❧❛ ❧✐❣♥❡ ❞❡ ❧✬❤♦r✐③♦♥ 198✳ ▲❡ ♠❛sq✉❡ ré❞✉✐t ❧❛ ③♦♥❡ ❞❡ r❡❝❤❡r❝❤❡ à ✉♥ ✹✵✪ ❞❡ ❧✬✐♠❛❣❡✳ ❯♥❡ ❝♦♠♣❛r❛✐s♦♥ ❞❡s rés✉❧t❛ts ❞❡s ❞❡✉① t❡❝❤♥✐q✉❡s ❡♥ ✉t✐❧✐s❛♥t ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❞❡ ♥♦♠❜r❡ ❞❡ ♣♦✐♥ts ❞ét❡❝tés ❞❛♥s ❧✬✐♠❛❣❡ ♣❛r r❛♣♣♦rt ❛✉ ♥♦♠❜r❡ ❞❡s ♣♦✐♥ts ❞❛♥s ❧❛ ✈ér✐té t❡rr❛✐♥ ❡st ❡①♣♦sé❡ ❞❛♥s ❧❡ t❛❜❧❡❛✉ ✸✳✸✳ P♦✉r ❝❡❧❛✱ ✉♥❡ s❡❝t✐♦♥ ❞❡ ✶✵✵ ✐♠❛❣❡s ❡♥ ❧✐❣♥❡ ❞r♦✐t❡ ❛ été ❝❤♦✐s✐❡✳ ◆♦✉s ❝♦♠♣❛r♦♥s ❧❡ ♥♦♠❜r❡ ❞❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉rs ❞ét❡❝tés ❡t ❧❡ ♥♦♠❜r❡ ❞❡ ♣♦✐♥ts ❡rr♦♥és✳ P♦✉r ❡①❛♠✐♥❡r ❧❛ r♦❜✉st❡ss❡ ❞❡s ❞❡✉① t❡❝❤♥✐q✉❡s ✈✐s à ✈✐s ❞✉ ❜r✉✐t✱ ♥♦✉s ❛✈♦♥s ✐♥s♣❡❝té t♦✉t❡ ❧✬✐♠❛❣❡✱ ❝❡ q✉✐ ♥♦✉s ♣❡r♠❡t ❛✉ss✐ ❞❡ ✈ér✐✜❡r ❧✬❡✣❝❛❝✐té ❞✉ ♠❛sq✉❡✳ ◆♦✉s ❛✈♦♥s ❞é❝♦♠♣♦sé ❧❡s ❢❛✉ss❡s ❞ét❡❝t✐♦♥s ❡♥ ❞❡✉①✱ ❞❛♥s ❧✬✐♠❛❣❡ ❝♦♠♣❧èt❡ ❞✬✉♥❡ ♣❛rt✱ à ❧✬✐♥tér✐❡✉r ❞✉ ♠❛sq✉❡ ❞✬❛✉tr❡ ♣❛rt✳ ❉❛♥s ❧❛ ✜❣✉r❡ ✸✳✷✸ ♥♦✉s ♣♦✉✈♦♥s ✈♦✐r ❧❛ ✈❛r✐❛t✐♦♥ ❞❡s t❛✉① ❞❡ ❞ét❡❝t✐♦♥ ♣♦✉r ❧❡s 100 ✐♠❛❣❡s sé❧❡❝t✐♦♥♥é❡s✳ ❉❛♥s ❧❡ t❛❜❧❡❛✉ ✸✳✸ ♥♦✉s tr♦✉✈♦♥s ❧❡s ✈❛❧❡✉rs ♠♦②❡♥♥é❡s s✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✐♠❛❣❡s✳ ❚❛❜❧❡❛✉ ✸✳✸ ❱❛❧❡✉rs ♠♦②❡♥s ❞❡ t❛✉① ❞❡ ❞ét❡❝t✐♦♥s ❞❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉r ♣♦✉r ✶✵✵ ✐♠❛❣❡s✳ ❱r❛✐ ♣♦s✐t✐❢s ❚♦t❛❧ ❞❡ ❋❛✉① ♣♦s✐t✐❢s ❋❛✉① ♣♦s✐t✐❢s ❛✈❡❝ ♠❛sq✉❡ ❉♦● ✻✶✳✷✶ ✪ ✶✹✺✳✺ ✪ ✹✹✳✻✺ ✪ ❆♥❛❧②s❡ ❞❡ ●r❛❞✐❡♥ts ✼✹✳✵✶ ✪ ✺✽✳✹✷ ✪ ✶✾✳✶✾ ✪ ➚ ❧❛ ✈✉❡ ❞❡s ✜❣✉r❡s ✸✳✶✻✱ ✸✳✷✶ ❡t ✸✳✷✸ ❡t ❞✉ t❛❜❧❡❛✉ ✸✳✸✱ ♥♦✉s ❝♦♥s✐❞ér♦♥s q✉❡ ❧❡ ✜❧tr❛❣❡ ❉♦●✱ ♠ê♠❡ s✬✐❧ ♦✛r❡ ❞❡ très ❜♦♥s rés✉❧t❛ts✱ s♦✉✛r❡ ❞✬✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡s ❢❛✉①✲♣♦s✐t✐❢s✳ ❉❡ ♣❧✉s✱ ❝❡s ❢❛✉ss❡s ❞ét❡❝t✐♦♥s ♦♥t ❞❡s ❢♦r♠❡s très ❧✐♥é❛✐r❡s ❝❡ q✉✐ ♣❡✉① ♥♦✉s ✐♥❞✉✐r❡ à ❧❡s ❝♦♥s✐❞ér❡r ❝♦♠♠❡ ❞❡s r❛✐❧s✳ ❊♥ ✜♥✱ ❝❡tt❡ t❡❝❤♥✐q✉❡ ♥❡ ♥♦✉s ♣❡r♠❡t ♣❛s ❞❡ ❣❛r❞❡r ❧✬✐♥❢♦r♠❛t✐♦♥ ❞❡ ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts ❞❛♥s ❧✬✐♠❛❣❡✱ ❝❡ q✉✐ ❝♦♠♠❡ ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✺ ❛✐❞❡ à ❞✐s❝r✐♠✐♥❡r ❧❡s ❞✐✛ér❡♥ts ❝♦♥t♦✉rs ✐rré❣✉❧✐❡rs ♣rés❡♥ts ❞❛♥s ❧✬✐♠❛❣❡ ❡t ❡①♣❧✐q✉❡ ♣♦✉rq✉♦✐ ❧❛ t❡❝❤♥✐q✉❡ ♣r♦♣♦sé❡ ♠♦♥tr❡ ❞❡s ♠❡✐❧❧❡✉rs rés✉❧t❛ts✳ ❊♥ rés✉♠é✱ ❧❛ t❡❝❤♥✐q✉❡ ♣r♦♣♦sé❡ ❡st ❜❛sé❡ ❞❛♥s ❧❛ r❡❝❤❡r❝❤❡ ❞❡s ❣r❛❞✐❡♥ts ❞❛♥s ❧✬✐♠❛❣❡✱ s✉♣é✲ r✐❡✉rs à ✉♥ s❡✉✐❧ ❢❛✐❜❧❡✱ é❝❛rtés ❞✬✉♥❡ ❞✐st❛♥❝❡ ✓✇✔ ❡t ❛✈❡❝ ✉♥❡ ♦r✐❡♥t❛t✐♦♥ s❡♠❜❧❛❜❧❡✳✸✳✸✳ ❆♣♣r♦❝❤❡ r❡t❡♥✉❡ ✺✼ ❋✐❣✉r❡ ✸✳✷✸ ✕ ❈♦♠♣❛r❛t✐❢ ❞✉ ♥♦♠❜r❡ ❞❡ ✓❱P ✿ ✈r❛✐✲♣♦s✐t✐❢s✔ ❡t ✓❋P ✿ ❢❛✉①✲♣♦s✐t✐❢s✔ ♣♦✉r ❧❡s t❡❝❤♥✐q✉❡s ❞❡ ❞✐✛ér❡♥❝❡ ❞❡s ❣❛✉ss✐❡♥♥❡s ✭❉♦●✮ ❡t ❧❛ ♠ét❤♦❞❡ ♣r♦♣♦sé❡✳ ✸✳✸✳✸ ❘❡❝❤❡r❝❤❡ ❞✉ ♠♦❞è❧❡ ❞❛♥s ❧✬❡s♣❛❝❡ ✸❉ ❯♥❡ ❢♦✐s q✉❡ ❧❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉rs s♦♥t ❞ét❡r♠✐♥és✱ ❧❡ tr❛✐t❡♠❡♥t ♣r✐♥❝✐♣❛❧ ❝♦♥s✐st❡ à ❧❡s ♠❡ttr❡ ❡♥ ❝♦rr❡s♣♦♥❞❛♥❝❡ ❛✈❡❝ ✉♥ ♠♦❞è❧❡ ♣ré❞é✜♥✐ ❞é❝r✐✈❛♥t ❧❛ ❝♦✉r❜✉r❡ ❞❡ ❧❛ ✈♦✐❡ ❢❡rré❡✳ ▲❡ ♠♦❞è❧❡ ❝❤♦✐s✐ ❡st ✉♥ ♣♦❧②♥ô♠❡ ❞❡ ✷è♠❡ ❞é❣ré❡ ❬❑❛s❦❡ ❡t ❛❧✳ ✶✾✾✼❪✱ ❬❏✉♥❣ ✫ ❑❡❧❜❡r ✷✵✵✹❪ ❡t ❬❈❤♦✐ ❡t ❛❧✳ ✷✵✶✷❪✳ ❖♥ ♣❡✉t ❝♦♥s✐❞ér❡r q✉❡ ❝❡ ♣♦❧②♥ô♠❡ ❡st s✉✣s❛♥t ♣♦✉r ❝❛r❛❝tér✐s❡r ❧❛ ❝♦✉r❜✉r❡ ❞❡ ❧❛ ✈♦✐❡ ❞❛♥s ❧❡s ❧✐♠✐t❡s ❞✉ ❝❤❛♠♣ ❞❡ ✈✐s✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ ❞û ❛✉① ❝♦♥tr❛✐♥t❡s ❞❡ r❛②♦♥ ❞❡ ❝♦✉r❜✉r❡ ❡①✐st❛♥t ❞❛♥s ❧❡s ❧✐❣♥❡s ❱❆▲✳ P♦✉r ❜✐❡♥ ❡①♣❧♦✐t❡r ❧❡s ❝♦♥tr❛✐♥t❡s ❞❡ ❧❛ ✈♦✐❡✱ ✭❧❛r❣❡✉r✱ r❛②♦♥ ❞❡ ❝♦✉r❜✉r❡ ♠✐♥✐♠✉♠✱ ❡t❝✮ ♥♦✉s tr❛♥s❢♦r♠♦♥s ❧❡s ♣♦✐♥ts ❞❡s ❝♦♥t♦✉rs ♦❜t❡♥✉s ❡♥ ❞❡s ♣♦✐♥ts 3D s✐t✉és ❞❛♥s ❧❡ ♠♦♥❞❡ ré❡❧ ❣râ❝❡ à ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❧❛ rétr♦✲♣r♦❥❡❝t✐♦♥ ♦❜t❡♥✉❡ à ♣❛rt✐r ❞✉ ♠♦❞è❧❡ ❝♦♠♣❧❡t s❛♥s ❞✐st♦rs✐♦♥ ✭éq✉❛t✐♦♥ ✷✳✷✮✳ ❉✬❛✉tr❡s t❡❝❤♥✐q✉❡s tr❛♥s❢♦r♠❡♥t ❝♦♠♣❧èt❡♠❡♥t ❧✬✐♠❛❣❡ ♣♦✉r ♦❜t❡♥✐r ✉♥❡ tr❛♥s❢♦r♠é❡ ✐♥✈❡rs❡ ❝♦♠♣❧èt❡✱ ♠❛✐s ❡♥ tr❛♥s❢♦r♠❛♥t s❡✉❧❡♠❡♥t ❧❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉r ♥♦✉s ❛✈♦♥s ✉♥ ❣❛✐♥ ❞✉ t❡♠♣s ❞❡ ❝❛❧❝✉❧ très ✐♠♣♦rt❛♥t✳ ▲✬❤②♣♦t❤ès❡ ❞✉ ♠♦♥❞❡ ♣❧❛♥ ❡st r❡t❡♥✉❡ ♣♦✉r ♣♦✉✈♦✐r ré❛❧✐s❡r ❝❡tt❡ rétr♦✲ ♣r♦❥❡❝t✐♦♥✳ ▲✬✐♠♣❛❝t ❞❡ ❝❡tt❡ ❤②♣♦t❤ès❡ ❡♥ ♣rés❡♥❝❡ ❞❡s ♣❡♥t❡s ❡st ❛♥❛❧②sé ❞❛♥s ❧❛ s❡❝t✐♦♥ ✸✳✸✳✺✳✶✳ ❈✬❡st ❞❛♥s ❝❡ ♥✉❛❣❡ ❞❡s ♣♦✐♥ts 3D q✉❡ ♥♦✉s ❛❧❧♦♥s ❝❤❡r❝❤❡r ❧❡s ❝♦❡✣❝✐❡♥ts ❞✉ ♠♦❞è❧❡ ❞❡ ❧❛ ✈♦✐❡✳ P♦✉r ❛❥✉st❡r ❧❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉rs ❛✉ ♠♦❞è❧❡✱ ♥♦✉s ❛✈♦♥s ❝❤♦✐s✐ ❞✬❛♣♣❧✐q✉❡r ❧❛ ♠ét❤♦❞❡ ❞❡ ✈♦t❡ ♣r♦❜❛❜✐❧✐st❡ ❞❡ ❘❆◆❙❆❈ ✭❘❆◆❞♦♠ ❙❆♠♣❧❡ ❈♦♥s❡♥s✉s✮❬❋✐s❝❤❧❡r ✫ ❇♦❧❧❡s ✶✾✽✶❪✱ q✉✐ ❡st ❝♦✉r❛♠✲ ♠❡♥t ✉t✐❧✐sé❡ ♣♦✉r ❞❡s ❛❥✉st❡♠❡♥ts r♦❜✉st❡s à ❞❡s ♠♦❞è❧❡s ❡♥ ♣rés❡♥❝❡ ❞❡ ❜r✉✐t✳ ❊♥ ♦✉tr❡✱ ❝❡tt❡ ♠ét❤♦❞❡ ❛ été ❝♦♥ç✉❡ ❛✜♥ ❞❡ ré❞✉✐r❡ ❧❡ t❡♠♣s ❞❡ ❝❛❧❝✉❧ ❞❡s ♠ét❤♦❞❡s ❞❡ ✈♦t❡s ❝❧❛ss✐q✉❡s ❝♦♠♠❡ ❧❛ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤✳ ▲❡s ét❛♣❡s ❞❡ ❝❡t ❛❧❣♦r✐t❤♠❡ ♣♦✉r tr♦✉✈❡r ✉♥ ♣♦❧②♥ô♠❡ ❞❡ ❞❡❣ré n s♦♥t ❧❡s s✉✐✈❛♥t❡s ✿ ✕ ❖♥ ❝❤♦✐s✐t ❛❧é❛t♦✐r❡♠❡♥t n + 1 ♣♦✐♥ts ♣❛r♠✐ ❧✬❡♥s❡♠❜❧❡✳ ✕ ❖♥ ❝❛❧❝✉❧❡ ❧❡s ♣❛r❛♠ètr❡s ❞✉ ♣♦❧②♥ô♠❡ ♣❛ss❛♥t ♣❛r ❝❡s ♣♦✐♥ts✳ ✕ P❛r ❝❛❧❝✉❧ ❞❡ ❧❛ ❞✐st❛♥❝❡ ❞❡s ❛✉tr❡s ♣♦✐♥ts✱ ♦♥ ❞ét❡r♠✐♥❡ ❧❡s ✓♣♦✐♥ts ♣r♦❝❤❡s✔ ❞✉ ♠♦❞è❧❡ ✭✐♥❧✐❡rs ❞❡ ❧✬❛♥❣❧❛✐s✮ ❛②❛♥t ✉♥❡ ❞✐st❛♥❝❡ ✐♥❢ér✐❡✉r❡ à ✉♥ s❡✉✐❧ ❞❡ t♦❧ér❛♥❝❡ ♣ré❞é✜♥✐✳ ✕ ❙✐ ❧❡ ♥♦♠❜r❡ ❞✬✐♥❧✐❡rs ❡st s✉✣s❛♥t✱ ❛❧♦rs ♦♥ ❝❛❧❝✉❧❡ ❧✬❡rr❡✉r ♣❛r r❛♣♣♦rt à t♦✉t ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣♦✐♥ts✳ ✕ ❙✐ ❧✬❡rr❡✉r t♦t❛❧❡ ❞✉ ♠♦❞è❧❡ ❡st ✐♥❢ér✐❡✉r❡ à ❧✬❡rr❡✉r ❞✉ ♠❡✐❧❧❡✉r ♠♦❞è❧❡ ♣ré❝é❞❡♥t✱ ❝❡ ♠♦❞è❧❡✲❝✐ ❡st ❛ss✐❣♥é ❝♦♠♠❡ ❧❡ ♥♦✉✈❡❛✉ ♠❡✐❧❧❡✉r ♠♦❞è❧❡ ❡t ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣♦✐♥ts ♣r♦❝❤❡s ✭✐♥❧✐❡rs✮ ❡st✺✽ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❣❛r❞é ✭❝♦♥s❡♥s✉s ♣♦✐♥ts✮✳ ✕ ❖♥ r❡❝♦♠♠❡♥❝❡ ❧❛ ♣r♦❝é❞✉r❡ ❛✈❡❝ ✉♥ ♥♦✉✈❡❧ ❡♥s❡♠❜❧❡ ❞❡ ♣♦✐♥ts ❥✉sq✉✬à ✉♥ ♥♦♠❜r❡ ♠❛①✐♠✉♠ ❞❡ t❡♥t❛t✐✈❡s✳ ✸✳✸✳✸✳✶ ◆♦♠❜r❡ ❞✬✐tér❛t✐♦♥s ❞❡ ❘❆◆❙❆❈ ▲❡ ♥♦♠❜r❡ ♠✐♥✐♠❛❧ ❞✬✐tér❛t✐♦♥s ♥é❝❡ss❛✐r❡s ♣♦✉r q✉❡ ❧❡ ✓♠❡✐❧❧❡✉r ♠♦❞è❧❡✔ ♥❡ ❝♦♥t✐❡♥♥❡ q✉❡ ❞❡s ✧✐♥❧✐♥❡rs✧ ❛✉ s❡✉✐❧ ❞❡ ♣r♦❜❛❜✐❧✐té P ❞♦♥♥é ♣❡✉t êtr❡ ❞ét❡r♠✐♥é ❞❡ ❢❛ç♦♥ t❤é♦r✐q✉❡✳ ❙✐ ♦♥ ❞és✐❣♥❡ ♣❛r W ❧❛ ♣r♦❜❛❜✐❧✐té ❞❡ ❝❤♦✐s✐r à ❝❤❛q✉❡ ✐tér❛t✐♦♥ ✉♥ ✐♥❧✐♥❡r ✈❛❧❛❜❧❡ ❡t q✉❡ ❧❡s n ♣♦✐♥ts ♥é❝❡ss❛✐r❡s à ❞é✜♥✐r ❧❛ ❢♦♥❝t✐♦♥ s♦✐❡♥t sé❧❡❝t✐♦♥♥és ❞❡ ❢❛ç♦♥ ✐♥❞é♣❡♥❞❛♥t❡✱ ❞❛♥s ❝❡ ❝❛s✱ ❧❛ ♣r♦❜❛❜✐❧✐té ♣♦✉r q✉❡ ❧❡s n ♣♦✐♥ts s♦✐❡♥t t♦✉s ❞❡s ✐♥❧✐♥❡rs ❡st ❞❡ Wn✱ ❡t (1 − Wn) ❡s ❧❛ ♣r♦❜❛❜✐❧✐té q✉✬❛✉ ♠♦✐♥s ✉♥ ❞❡ ❝❡s ♣♦✐♥ts ♥❡ ❢❛ss❡ ♣❛s ♣❛rt✐❡ ❞❡s ✐♥❧✐♥❡rs à ❝❤❛q✉❡ t✐r❛❣❡✳ ▲❛ ♣r♦❜❛❜✐❧✐té ❞❡ r❡♣r♦❞✉✐r❡ ✉♥ t❡❧ t✐r❛❣❡ ✐♠♣❛r❢❛✐t K ❢♦✐s ❡st ❞♦♥♥é❡ ♣❛r ❧✬éq✉❛t✐♦♥ ✸✳✺✳ ❊❧❧❡ ❝♦rr❡s♣♦♥❞ à ❧❛ ♣r♦❜❛❜✐❧✐té ♣♦✉r q✉❡ ❧✬❛❧❣♦r✐t❤♠❡ ♥❡ sé❧❡❝t✐♦♥♥❡ ❛✉❝✉♥ é❝❤❛♥t✐❧❧♦♥ ❞❡ n ✐♥❧✐♥❡rs à ❧❛ ❢♦✐s✳ ❊❧❧❡ ❡st ❛❧♦rs é❣❛❧❡ à (1 − P)✱ ❞✬♦ù ❧✬é❣❛❧✐té s✉✐✈❛♥t❡ ✿ (1 − Wn ) K = 1 − P ✭✸✳✺✮ ♦ù W = Nombre de points valables Nombre total de points ✭✸✳✻✮ ❉❛♥s ♥♦tr❡ ❝❛s✱ ✐❧ s✉✣t ❞❡ ❞❡✉① ♣♦✐♥ts ♣✉✐sq✉❡ ♥♦✉s ❝❤❡r❝❤♦♥s à ❛❥✉st❡r ❞❡s ♣❛r❛❜♦❧❡s ♣❛ss❛♥t ♣❛r ✉♥ ♣♦✐♥t ❞é❥à ❝♦♥♥✉ ✿ ❝❡❧✉✐ q✉✐ ❝♦rr❡s♣♦♥❞ à ❧❛ ♣♦s✐t✐♦♥ ❞✉ r❛✐❧ ❞❛♥s ❧❛ ♣❛rt✐❡ ❜❛s❡ ❞❡ ❧✬✐♠❛❣❡ tr❛♥s❢♦r♠é❡ ❞❛♥s ❝❡s ✈❛❧❡✉rs 3D✳ ◆♦✉s ✜①♦♥s é❣❛❧❡♠❡♥t ✉♥❡ ♣r♦❜❛❜✐❧✐té P = 0.999999 q✉❡ ❞❛♥s Kn ✐tér❛t✐♦♥s ❧❡s ❝♦❡✣❝✐❡♥ts ❞❡ ❧❛ ❝♦✉r❜❡ s❡r♦♥t ❞ét❡❝tés✳ P♦✉r ❞ét❡r♠✐♥❡r W✱ ❝♦♥s✐❞ér♦♥s ❧❡ ❝❛s ♣❧✉s ❝♦♠♣❧✐q✉é ❝♦♥s✐st❡ à tr♦✉✈❡r ❧❛ ♣❛r❛❜♦❧❡ ❞✬✉♥ r❛✐❧ ✭❞r♦✐t ♦✉ ❣❛✉❝❤❡✮ ❡♥ ♣rés❡♥❝❡ ❞❡ t♦✉s ❧❡s é❧é♠❡♥ts ❞❡ ❧❛ ✈♦✐❡✱ à s❛✈♦✐r✱ ❧❡s ❞❡✉① ♣✐st❡s ❞❡ r♦✉❧❡♠❡♥t✱ ❧❡s ❞❡✉① t❛♣✐s ❡t ❧❡s r❛✐❧s ❞❡ ❣✉✐❞❛❣❡✱ t♦✉s ♣rés❡♥ts ❞❛♥s ❧✬✐♠❛❣❡ ❞❡♣✉✐s ❧❛ ♣❛rt✐❡ ❜❛ss❡ ❥✉sq✉✬❛✉ ♣♦✐♥t ❞❡ ❢✉✐t❡✱ ❝♦♠♠❡ ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✷✹✳ ❉❛♥s ❝❡ ❝❛s✱ ❝❤❛q✉❡ é❧é♠❡♥t ❞❡ ❧❛ ✈♦✐❡ ❛♣♣♦rt❡r❛ ❧❡ ♠ê♠❡ ♥♦♠❜r❡ ❞❡ ♣♦✐♥ts M à ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣♦✐♥ts 3D ❡t ❧❛ ♣r♦❜❛❜✐❧✐té ❲ ❡st ❞é✜♥✐❡ ♣❛r ✸✳✻✳ ❋✐♥❛❧❡♠❡♥t✱ ❡♥ s✉❜st✐t✉❛♥t ❞❛♥s ✸✳✻ ❡t ✸✳✺✱ ❧❛ ♣r♦❜❛❜✐❧✐té W = 1/6 ❡t ❧❡ ♥♦♠❜r❡ ❞❡s ✐tér❛t✐♦♥s K ♦♣t✐♠❛❧ rés✉❧t❡ ❞❡ 490 ✭✈♦✐r ✸✳✼ ❡t ✸✳✽✮✳ W = M 6 · M = 1 6 ✭✸✳✼✮ K = log(1 − P) log(1 − Wn) = log(1 − 0.999999) log(1 − 1 6 2 ) ≈ 490 ✭✸✳✽✮ ❆✈❡❝ ❝❡tt❡ ❝♦♥s✐❞ér❛t✐♦♥ ✐❞é❛❧❡✱ ❧❡ ♥♦♠❜r❡ ❞✬✐tér❛t✐♦♥s ♣♦✉r ♦❜t❡♥✐r ❧❡ ♠♦❞è❧❡ ♥❡ ❞é♣❡♥❞ ♣❛s ❞❡ ❧❛ t❛✐❧❧❡ ❞❡ ❧✬✐♠❛❣❡ ♥✐ ❞❡ ❧✬✐♥❝❧✐♥❛✐s♦♥ ❞❡ ❧❛ ❝❛♠ér❛✳ ❙✐ ♠❛✐♥t❡♥❛♥t ♥♦✉s ♣r❡♥♦♥s ❡♥ ❝♦♠♣t❡✱ ❧❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉r ❡rr♦♥és✱ ❝❡✉① q✉✐ ♥✬❛♣♣❛rt✐❡♥♥❡♥t ♣❛s à ❧❛ ✈♦✐❡✱ s♦✐t ❡♥✈✐r♦♥ ✉♥ ✷✵✪ ❞✉ ♥♦♠❜r❡ ❞❡s ♣♦✐♥ts ❞❡ ❧❛ ✈ér✐té t❡rr❛✐♥ ✭t❛❜❧❡❛✉ ✸✳✸✮✱ ❧❛ ♥♦✉✈❡❧❧❡ ♣r♦❜❛❜✐❧✐té W ❡st ❞❡ 1 7.2 ❡t ❧❡ ♥♦♠❜r❡ ❞✬✐tér❛t✐♦♥s ♣❛ss❡ à K ≈ 710✳✸✳✸✳ ❆♣♣r♦❝❤❡ r❡t❡♥✉❡ ✺✾ ✭❛✮ ■♠❛❣❡ ♦r✐❣✐♥❛❧❡✳ ✭❜✮ ❱ér✐té t❡rr❛✐♥✳ ✭❝✮ ❉ét❡❝t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts ❞❛♥s ❧❛ ✈ér✐té t❡r✲ r❛✐♥✳ ✭❞✮ P♦✐♥ts ❞❛♥s ❧❡ r❡♣èr❡ ✸❉✳ ❋✐❣✉r❡ ✸✳✷✹ ✕ ❱ér✐té t❡rr❛✐♥ ❡t s❛ rétr♦✲♣r♦❥❡❝t✐♦♥✳ ✸✳✸✳✸✳✷ ❙❝♦r❡ ❞✉ ♠♦❞è❧❡ ❉❛♥s ❧✬❛❧❣♦r✐t❤♠❡ ❞❡ ❘❆◆❙❆❈✱ à ❝❤❛q✉❡ ❡st✐♠❛t✐♦♥ ✉♥ ❥❡✉ ❛❧é❛t♦✐r❡ ❞❡ ❞♦♥♥é❡s ❡st t❡sté ❡t ✐❧ ❧✉✐ ❝♦rr❡s♣♦♥❞ ✉♥ s❝♦r❡ ♣♦✉r ❧❡s ♣❛r❛♠ètr❡s ♦❜t❡♥✉s✳ ▲❡ ❥❡✉ ❞❡ ♣❛r❛♠ètr❡s ❛②❛♥t ❧❡ s❝♦r❡ ❧❡ ♣❧✉s é❧❡✈é ❡st r❡t❡♥✉ ❝♦♠♠❡ ❧❡ rés✉❧t❛t ❞❡ ❧✬❡st✐♠❛t✐♦♥✳ ◆♦r♠❛❧❡♠❡♥t✱ ❧❡ ✈♦t❡ ❡st ❜❛sé s✉r ❧❡ ♥♦♠❜r❡ ❞❡ ♣♦✐♥ts ❞♦♥t ❧❛ ❞✐st❛♥❝❡ ❛✉ ♠♦❞è❧❡ ❡st ✐♥❢ér✐❡✉r❡ à ✉♥ s❡✉✐❧ ❞♦♥♥é ✭✉♥❡ t♦❧ér❛♥❝❡ ♠✐♥✐♠❛❧❡✮✳ ❈♦♠♠❡ ❝❡ ❝r✐tèr❡ ♣❡✉t ❞♦♥♥❡r ❞❡s ❢❛✉① rés✉❧t❛ts s✐ ♥♦✉s ♣r❡♥♦♥s ❞❡ ❢❛ç♦♥ ✐♥❞é♣❡♥❞❛♥t❡ ❝❤❛q✉❡ r❛✐❧✱ ♥♦✉s ♣r♦♣♦s♦♥s q✉❡ ❧❡ t❡st ❞✬❛♣♣❛rt❡♥❛♥❝❡ ♣r❡♥♥❡ ❡♥ ❝♦♠♣t❡ ❧✬❡①✐st❡♥❝❡ ❞❡ t♦✉s ❧❡s é❧é♠❡♥ts ❞❡ ❧❛ ✈♦✐❡✳ ❈❡❧❛ ♥♦✉s ♣❡r♠❡ttr❛ ❞❡ ré❞✉✐r❡ ❧❡ ♥♦♠❜r❡ ❞❡s ❢❛✉ss❡s ❞ét❡❝t✐♦♥s✱ ❝❛r ❧❡ ♠❡✐❧❧❡✉r ♠♦❞è❧❡ s❛t✐s❢❡r❛ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣♦✐♥ts ❞✉ ♥✉❛❣❡ ♦❜t❡♥✉✳ ❆✉tr❡♠❡♥t ❞✐t✱ à ❝❤❛q✉❡ ✐tér❛t✐♦♥✱ ✉♥❡ ❢♦✐s ❞ét❡r♠✐♥é ✉♥ ♠♦❞è❧❡ ♥♦✉s ❝❛❧❝✉❧♦♥s ❧❛ ♣♦s✐t✐♦♥ t❤é♦r✐q✉❡ ❞❡s ❛✉tr❡s str✉❝t✉r❡s ♣❛r r❛♣♣♦rt ❛✉ ♠♦❞è❧❡ ✭❧❡ r❛✐❧ ♦♣♣♦sé✱ ❧❡s t❛♣✐s ❡t ❧❡s r❛✐❧s ❞❡ ❣✉✐❞❛❣❡✮✳ ◆♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ✉♥❡ ❢♦♥❝t✐♦♥ ❣❛✉ss✐❡♥♥❡ ♣♦✉r ♣♦♥❞ér❡r ❧✬❡rr❡✉r ❞❡s ♠♦❞è❧❡s ✐tér❛t✐❢s ❞❡ ❧✬❛❧❣♦r✐t❤♠❡ ❞❡ ❘❆◆❙❆❈ ♣♦✉r ❝❤❛q✉❡ str✉❝t✉r❡ ❞❡ ❧❛ ✈♦✐❡✳ ❈❡s ❢♦♥❝t✐♦♥s s♦♥t ❝❛r❛❝tér✐sé❡s ♣❛r ✉♥❡ ❞❡♥s✐té ❞❡ ♣r♦❜❛❜✐❧✐té s✉✐✈❛♥t ❧❛ ❧♦✐ ♥♦r♠❛❧❡✱ ❝❡♥tré❡ s✉r ❧❛ ♣♦s✐t✐♦♥ ❞❡ ❝❤❛q✉❡ str✉❝t✉r❡✳ ■❧ ❢❛✉t é❣❛❧❡♠❡♥t t❡♥✐r ❝♦♠♣t❡ ❞✉ ❢❛✐t q✉❡ ❧❛ rés♦❧✉t✐♦♥ s♣❛t✐❛❧❡ ❛♣rès ✉♥❡ rétr♦✲♣r♦❥❡❝t✐♦♥ ✈❛r✐❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡✱ ❝✬❡st✲à✲❞✐r❡ q✉❡ ♣♦✉r ❧❡s ♣♦✐♥ts ♣r♦❝❤❡s ✭❝❡✉① ❞❡ ❧❛ ♣❛rt✐❡ ❜❛ss❡ ❞❡ ❧✬✐♠❛❣❡✮✱ ❧❛ rés♦❧✉t✐♦♥ s♣❛t✐❛❧❡ ❡st ❜♦♥♥❡ ✭q✉❡❧q✉❡s ♠♠ ❡♥tr❡ ✷ ♣✐①❡❧s✮✱ ❡t ♣❧✉s ♦♥ ♠♦♥t❡ ❞❛♥s ❧✬✐♠❛❣❡ ✈❡rs ❧❡ ♣♦✐♥t ❞❡ ❢✉✐t❡✱ ♣❧✉s ❣r❛♥❞ ❡st ❧✬é❝❛rt ❡♥ ❞✐st❛♥❝❡ ❞❡ ❞❡✉① ♣✐①❡❧s ❝♦♥t✐❣✉s✳ ❉❡ ❝❡ ❢❛✐t✱ ♥♦✉s ♣r♦♣♦s♦♥s q✉❡ ❧❡s ❣❛✉ss✐❡♥♥❡s ❛✐❡♥t ✉♥ é❝❛rt t②♣❡ ✈❛r✐❛♥t ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡✳ ❈❡t é❝❛rt t②♣❡ s❡r❛ ♣❧✉s ♣❡t✐t ♣♦✉r ❧❡s ♣♦✐♥ts ♣r♦❝❤❡s ❡t ♣❧✉s ❧❛r❣❡ ♣♦✉r ❧❡s ♣♦✐♥ts ♣❧✉s ❧♦✐♥t❛✐♥s✱ ♠❛✐s s❛♥s ❥❛♠❛✐s s✉♣❡r♣♦s❡r ❝♦♠♣❧èt❡♠❡♥t ❞❡✉① ❣❛✉ss✐❡♥♥❡s ❛❞❥❛❝❡♥t❡s✳ ▲❡s ✈❛❧❡✉rs ❞✬é❝❛rt t②♣❡ ♦♥t été ❞ét❡r♠✐♥é❡s ❛ ♣r✐♦r✐ ❞❡ ❢❛ç♦♥ ❧✐♥é❛✐r❡ à ♣❛rt✐r ❞❡ ❧❛ ❝♦✉♣❡✻✵ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ tr❛♥s✈❡rs❛❧❡ ❞❡ ❧❛ ✈♦✐❡ ✭✜❣✉r❡ ✸✳✶✮ ♦ù ❧❛ ❞✐st❛♥❝❡ ♠✐♥✐♠❛❧❡ ❡♥tr❡ ❧❡s r❛✐❧s ❡t ❧❡s t❛♣✐s ❡st ❞❡ 0, 255 m✳ ▲❛ ❧❛r❣❡✉r ❞❡s ❣❛✉ss✐❡♥♥❡s ❞♦✐t êtr❡ ✐♥❢ér✐❡✉r❡ à ❝❡t é❝❛rt❡♠❡♥t ♣♦✉r ❜✐❡♥ sé♣❛r❡r ❝❤❛q✉❡ str✉❝t✉r❡ ❡t ❛✈♦✐r ✉♥ rés✉❧t❛t ❞✉ ♠♦❞è❧❡ ♣❧✉s ♣ré❝✐s✳ ▲❛ ✈❛r✐❛t✐♦♥ ❞❡ ❧✬é❝❛rt t②♣❡ ♣r❡♥❞ ❡♥ ❝♦♠♣t❡ ❝❡s ❞✐st❛♥❝❡s ♠✐♥✐♠❛❧❡ ❡t ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s✱ ❡t ✐❧ ❡st ♣❧✉s é❧❡✈é ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡✱ s❛♥s ❥❛♠❛✐s ❛ss♦❝✐❡r ❞❡✉① ❣❛✉ss✐❡♥♥❡s ✈♦✐s✐♥❡s✳ ▲❛ ✜❣✉r❡ ✸✳✷✺ ♠♦♥tr❡ ❧✬❡①❡♠♣❧❡ ❞❡s 6 ❣❛✉ss✐❡♥♥❡s q✉✐ s❛t✐s❢♦♥t ❧❡ ♠✐❡✉① ❧❡s ♣♦✐♥ts 3D ❞❡ ❧❛ ✜❣✉r❡ ✸✳✷✹✳ P❛r ❝♦♥séq✉❡♥t✱ ❧❛ ❢♦♥❝t✐♦♥ ❞❡ s❝♦r❡ ♣♦✉r ✉♥❡ ❣❛✉ss✐❡♥♥❡ ❡st ❞é✜♥✐❡ ♣❛r ❧✬éq✉❛t✐♦♥ ✸✳✾✱ ❡t ❧❡ s❝♦r❡ t♦t❛❧ ❞✉ ♠♦❞è❧❡ s❡r❛ ❧❛ s♦♠♠❡ ❞❡s s❝♦r❡s ♣♦✉r ❝❤❛❝✉♥❡ ❞❡s ❣❛✉ss✐❡♥♥❡s ❝❛❧❝✉❧é❡s ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ♣rés❡♥❝❡ ♦✉ ♣❛s ❞❡ ❧❛ str✉❝t✉r❡ ❞❛♥s ❧✬✐♠❛❣❡✳ Score(Mk) = X N i=1 1 σ(di) √ 2π exp − (pi − (Mk(pi) + Sj ))2 2(σ(di))2 ✭✸✳✾✮ ♦ù ✿ ✕ Mk ❡st ❧❡ ♠♦❞è❧❡ k ❞❡ ❧❛ sér✐❡ ❞❡ K ♠♦❞è❧❡s ❛❧é❛t♦✐r❡s ❞✉ ❘❆◆❙❆❈✱ ✕ N ✿ ❡st ❧❡ ♥♦♠❜r❡ t♦t❛❧ ❞❡ ♣♦✐♥ts 3D✱ ✕ pi ✿ ❡st ✉♥ ♣♦✐♥t i ❞✉ ♥✉❛❣❡ ❞❡ ♣♦✐♥ts✱ ✕ Sj ❡st ❧❛ ❞✐st❛♥❝❡ ❡♥tr❡ ❧❡ ♠♦❞è❧❡ ❡t ❧❛ str✉❝t✉r❡ j✱ ♦ù j ∈ [1, S] ❡t S ❡st ❧❡ ♥♦♠❜r❡ ❞❡ str✉❝t✉r❡s ♣r✐s❡s ❡♥ ❝♦♠♣t❡✳ ✕ σ(di) ✿ r❡♣rés❡♥t❡ ❧✬é❝❛rt t②♣❡ ❞❡ ❧❛ ❣❛✉ss✐❡♥♥❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ ❞✉ ♣♦✐♥t pi ScoreT otal(Mk) = X S i=1 Score(Mk)i ✭✸✳✶✵✮ ❋✐❣✉r❡ ✸✳✷✺ ✕ ✳ ❘é♣r❡s❡♥t❛t✐♦♥ ❞❡s ✻ ❣❛✉ss✐❡♥♥❡s ❛✈❡❝ ✉♥ é❝❛rt t②♣❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡✳ ❉❡ ❝❡ ❢❛✐t✱ ❞❛♥s ❧❡ ♣r♦❝❡ss✉s ✐tér❛t✐❢ ❧❡ ♠❡✐❧❧❡✉r ♠♦❞è❧❡ s❡r❛ ❝❡❧✉✐ q✉✐ ❛ ✉♥ s❝♦r❡ ♣❧✉s é❧❡✈é✳✸✳✸✳ ❆♣♣r♦❝❤❡ r❡t❡♥✉❡ ✻✶ ✸✳✸✳✸✳✸ ❘❆◆❙❆❈ ♣♦✉r ❝❤❛q✉❡ r❛✐❧ ❈♦♠♠❡ ✐♥❞✐q✉é ♣ré❝é❞❡♠♠❡♥t✱ ❧❡s ✈❛r✐❛t✐♦♥s ❞❡ ❝❤❛♥❣❡♠❡♥t ❞❡ ♣❡♥t❡ ❞❛♥s ❧❡ ♠✐❧✐❡✉ ❢❡rr♦✈✐❛✐r❡ s♦♥t ❧✐♠✐té❡s✱ ❝❡ q✉✐ ❢❛✐t q✉✬♦♥ ♥❡ tr♦✉✈❡r❛ ♣❛s ❞❡ ❝❛s ❝♦♠♠❡ ❧❡s ❡①❡♠♣❧❡s ❞❡ ❧❛ ✜❣✉r❡ ✸✳✶✶✳ ❈❡♣❡♥✲ ❞❛♥t✱ ❞❡s ❝❤❛♥❣❡♠❡♥ts ❞❡ ♣❡♥t❡ ♠ê♠❡ ❢❛✐❜❧❡s ✈♦♥t ✐♥tr♦❞✉✐r❡ ❞❡s ❞é❢♦r♠❛t✐♦♥s ❞❛♥s ❧❡s ♥✉❛❣❡s ❞❡ ♣♦✐♥ts ♦❜t❡♥✉s✳ P♦✉r s✉r♠♦♥t❡r ❝❡tt❡ ❞✐✣❝✉❧té✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞✬♦❜t❡♥✐r ✉♥ ♠♦❞è❧❡ ♣♦✉r ❝❤❛q✉❡ r❛✐❧ ❡t ❞❡ ré❛❧✐s❡r ❡♥s✉✐t❡ ✉♥❡ tr❛♥s❧❛t✐♦♥ ✈❡rs ❧❡ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡ ❞❡s ♠❡✐❧❧❡✉rs ♣♦✐♥ts r❡t❡♥✉s✳ ▲❡s ét❛♣❡s à s✉✐✈r❡ s♦♥t ✿ ❘❆◆❙❆❈ ♣♦✉r ❝❤❛q✉❡ r❛✐❧ ❡♥ t❡♥❛♥t ❡♥ ❝♦♠♣t❡ ❞❡ ❧❛ ♣rés❡♥❝❡ ❞❡ t♦✉t❡s ❧❡s str✉❝t✉r❡s ❀ ❧❛ tr❛♥s❧❛t✐♦♥ ❞❡s ♠❡✐❧❧❡✉rs ♣♦✐♥ts ✭❧❡s ✐♥❧✐❡rs✮ ✈❡rs ❧❡ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡✱ ❡t ✜♥❛❧❡♠❡♥t ✉♥❡ ré❣r❡ss✐♦♥ ❞❡s ♠♦✐♥❞r❡s ❝❛rrés ♣♦✉r ♦❜t❡♥✐r ❧❛ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ❝♦✉r❜❡ q✉✐ ❞é✜♥✐t ❧❡s r❛✐❧s✳ ❯♥ ❡①❡♠♣❧❡ ❞✉ rés✉❧t❛t ♦❜t❡♥✉ ❛✈❡❝ ❘❆◆❙❆❈ ♣♦✉r ♦❜t❡♥✐r ❧❡s r❛✐❧s ❞❡ ❞r♦✐t❡ ❡t ❞❡ ❣❛✉❝❤❡ ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✷✻✳ ✭❛✮ ❘❆◆❙❆❈ ♣♦✉r ❧❡ r❛✐❧ ❞❡ ❣❛✉❝❤❡✳ ✭❜✮ ❘❆◆❙❆❈ ♣♦✉r ❧❡ r❛✐❧ ❞❡ ❞r♦✐t❡✳ ❋✐❣✉r❡ ✸✳✷✻ ✕ ❘❆◆❙❆❈ ✐♥❞✐✈✐❞✉❡❧s ♣♦✉r ❝❤❛q✉❡ r❛✐❧✳ ❉❛♥s ❝❡s ❞❡✉① ✐♠❛❣❡s ♥♦✉s ♣♦✉✈♦♥s ✈♦✐r ❡♥ ❜❧❡✉ ❧❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉rs r❡♣r❡s❡♥tés ❛✈❡❝ ❧❡s ❝♦♦r❞♦♥é❡s 3D✳ ❊♥ ✈❡rt✱ ❧❡s ♣♦✐♥ts ❝♦♥s✐❞érés ❛♣♣❛rt❡♥❛♥t ❛✉ ♠♦❞è❧❡ tr♦✉✈é ✭❧❡s ✐♥❧✐❡rs✮✳ ▲❡s tr❛✐ts ♠❛❣❡♥t❛ r❡♣rés❡♥t❡♥t ❧❡s ❝❡♥tr❡s ❞❡s ❞❡✉① ❣❛✉ss✐❡♥♥❡s ✉t✐❧✐sé❡s ♣♦✉r tr♦✉✈❡r ❧❡ ♠♦❞è❧❡✳ ❯♥❡ ❢♦✐s ♦❜t❡♥✉ ❝❤❛q✉❡ r❛✐❧✱ ❧❡s ✐♥❧✐❡rs ❞❡ ❝❤❛q✉❡ ♠♦❞è❧❡ s♦♥t ❞é♣❧❛❝és ✈❡rs ❧❡ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡ ❧✬é❝❛rt❡♠❡♥t ❞❡s r❛✐❧s ❛✈❡❝ ❧✬♦❜❥❡❝t✐❢ ❞✬♦❜t❡♥✐r ❧✬éq✉❛t✐♦♥ ❞❡ ❝❡♥tr❛❧❡ ❞❡ ❧❛ ♣❛r❛❜♦❧❡ ❝❤❡r❝❤é❡✳ P♦✉r ❝❡❧❛✱ ✉♥❡ ré❣r❡ss✐♦♥ ❞❡s ♠♦✐♥❞r❡s ❝❛rrés ❡st ré❛❧✐sé❡ ❞❛♥s ❧❡ ♥♦✉✈❡❛✉ ❡♥s❡♠❜❧❡ ❞❡ ♣♦✐♥ts✳ ❈❡tt❡ ré❣r❡ss✐♦♥ ❛✉r❛ ❧❛ ♣❛rt✐❝✉❧❛r✐té ❞✬êtr❡ ♣♦♥❞éré❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ ❞❡s ♣♦✐♥ts✳ P❧✉s ❧❡ ♣♦✐♥t ❡st ❧♦✐♥✱ ♣❧✉s ❢❛✐❜❧❡ ❡st s♦♥ ❞✬✐♥✢✉❡♥❝❡ ❞❛♥s ❧❡ rés✉❧t❛t ❞❡ ❧❛ ❝♦✉r❜❡✳ ▲✬♦❜❥❡❝t✐❢ ❡st ❞❡ ré❞✉✐r❡ ❧❡s ❡rr❡✉rs ❡t ❞❡ ❞♦♥♥❡r ♣❧✉s ❞✬✐♠♣♦rt❛♥❝❡ ❛✉① ♣♦✐♥ts ♣r♦❝❤❡s✳ ❈❡ ♣♦✐❞s Wi ❡st ❞é✜♥✐ ❞❛♥s ❧✬éq✉❛t✐♦♥ ✸✳✶✶✳ W SS = Pn i=1 Wir 2 i , Wi = 1 Di , r2 i = yi − f(xi , β) ✭✸✳✶✶✮ ♦ù n r❡♣rés❡♥t❡ ❧❡ ♥♦♠❜r❡ t♦t❛❧ ❞❡ ♣♦✐♥ts r❡t❡♥✉s ♣❛r ❘❆◆❙❆❈ ❡t Di ❧❛ ❞✐st❛♥❝❡ ❛✉ r❡♣èr❡ OW = (0, 0, 0) ❞✉ ♣♦✐♥t pi ✳ ❯♥ ❡①❡♠♣❧❡ ❞❡ ❧❛ tr❛♥s❧❛t✐♦♥ ❞❡s ✐♥❧✐❡rs ❞❡ ❘❆◆❙❆❈ ♣♦✉r ❝❤❛q✉❡ r❛✐❧ ❡t ❧✬♦❜t❡♥t✐♦♥ ❞❡ ❧❛ ♣❛r❛❜♦❧❡ ❝❡♥tr❛❧❡ ❡st ❡①♣♦sé ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✷✼✳ ❈❡tt❡ ét❛♣❡ ✜♥❛❧❡ ❞❡ ré❣r❡ss✐♦♥ ♣❛r ♠♦✐♥❞r❡s ❝❛rrés✻✷ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ✭❛✮ ❈♦♥s❡♥s✉s ❞❡s ♣♦✐♥ts r❡t❡♥✉s ❛✈❡❝ ❘❆◆❙❆❈ ❛✈❡❝ t♦✉s ❧❡s r❛✐❧s ❞é♣❧❛❝és ❛✉ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡✳ ✭❜✮ P❛r❛❜♦❧❡ ♦❜t❡♥✉❡ ❛✈❡❝ ré❣r❡ss✐♦♥ ❞❡s ♠♦✐♥❞r❡s ❝❛rrés ♣♦♥❞éré❡✳✳ ❋✐❣✉r❡ ✸✳✷✼ ✕ ❘é❣r❡ss✐♦♥ ❞❡s ♠♦✐♥❞r❡s ❝❛rrés ❞❡s rés✉❧t❛ts ❞❡ ❘❆◆❙❆❈✳ ▲❡s ✐♥❧✐❡rs r❡t❡♥✉s ♣❛r ❘❆◆❙❆❈ ♣♦✉r ❝❤❛q✉❡ r❛✐❧ s♦♥t r❡♣rés❡♥tés ❡♥ ✈❡rt ❞❛♥s ❧✬✐♠❛❣❡ ✸✳✷✼❛ ❡t ✸✳✷✼❜✳ ❈❡s ♣♦✐♥ts s♦♥t ❞é♣❧❛❝és ✈❡rs ❧❡ ❝❡♥tr❡ ❞❡ ❧❛ ✈♦✐❡ ✉♥❡ ❞✐st❛♥❝❡ é❣❛❧❡ à ❧❛ ♠♦✐t✐é ❞❡ ❧❛ ❧❛r❣❡✉r ❞❡ ❧❛ ✈♦✐❡✳ ❯♥❡ ❢♦✐s ❞é♣❧❛❝és ✭♣♦✐♥ts ♥♦✐rs ❞❛♥s ❧❡s ❞❡✉① ✐♠❛❣❡s✮✱ ❧❛ ♣❛r❛❜♦❧❡ q✉❡ ❝❛r❛❝tér✐s❡ ❧❛ ❝♦✉r❜✉r❡ ❞❡ ❧❛ ✈♦✐❡ ❡st ❞é✜♥✐❡ à ♣❛rt✐r ❞✬✉♥❡ ré❣r❡ss✐♦♥ ❞❡ ♠♦✐♥❞r❡s ❝❛rrés ♣♦♥❞éré❡ ✭r❡♣rés❡♥té❡ ❡♥ ♠❛❣❡♥t❛ ❞❛♥s ❧✬✐♠❛❣❡ ✸✳✷✼❜✮✳ ♥♦✉s ♣❡r♠❡t ❞❡ ♥♦✉s ❛✛r❛♥❝❤✐r ❞❡s ♣r♦❜❧è♠❡s ❞❡s ❝❤❛♥❣❡♠❡♥ts ❢❛✐❜❧❡s ❞❡ ♣❡♥t❡s✳ ✸✳✸✳✹ ❉é♣❡♥❞❛♥❝❡ t❡♠♣♦r❡❧❧❡ P✉✐sq✉❡ ♥♦✉s ❝❤❡r❝❤♦♥s à ré❛❧✐s❡r ✉♥ s②stè♠❡ t❡♠♣s ré❡❧✱ ❞❡✉① ❘❆◆❙❆❈s ❞❡ ✼✶✵ ✐tér❛t✐♦♥s ❝❤❛❝✉♥✱ à ✉♥❡ ❝❛❞❡♥❝❡ ❞❡ ✷✺ ✐♠❛❣❡s ♣❛r s❡❝♦♥❞❡ ♥❡ s❡♠❜❧❡ ♣❛s ❧✬♦♣t✐♦♥ ♦♣t✐♠❛❧❡✳ P❛r ❝♦♥séq✉❡♥t✱ ♥♦✉s ❛✈♦♥s ♦♣t✐♠✐sé ❧❛ r❡❝❤❡r❝❤❡ ❞❡s r❛✐❧s ❡♥ ❛❥♦✉t❛♥t ❞❡ ❧❛ ❞é♣❡♥❞❛♥❝❡ t❡♠♣♦r❡❧❧❡✳ P✉✐sq✉❡ ❧❡s tr❛✐♥s s♦♥t ❣✉✐❞és ✐❧ ❡st ❢❛❝✐❧❡ ❞✬✐♥tr♦❞✉✐r❡ ❝❡tt❡ ❝❛✉s❛❧✐té ❡♥ ❝♦♥♥❛✐ss❛♥t ❧❡ ♠♦❞è❧❡ ❞✉ tr❛✐♥✳ ❈♦♠♠❡ ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✷✳✺ ❡t ❧✬éq✉❛t✐♦♥ ✷✳✶ ❧✬❛♥❣❧❡ ❡♥tr❡ ❧❛ ❝❛✐ss❡ ❡t ❧✬❛①❡ ❞❡ ❧❛ ✈♦✐❡ ✓❧❡ ❧❛❝❡t ψcaisse✔ ♣❡✉t êtr❡ ♦❜t❡♥✉ s✐ ♦♥ ❝♦♥♥❛ît à t♦✉t ✐♥st❛♥t ❧❡s ♣♦s✐t✐♦♥s ❛✈❛♥t ❡t ❛rr✐èr❡ ❞❡ ❧❛ ❝❛✐ss❡ ✭✈❡❝t❡✉rs t1 ❡t t2✮✳ ❈❡tt❡ ❝♦♠♣ré❤❡♥s✐♦♥ ♥♦✉s ♣❡r♠❡t ❞✬♦❜t❡♥✐r ✉♥❡ r❡❧❛t✐♦♥ ❡♥tr❡ ❧✬❛①❡ ❞❡ ❧❛ ✈♦✐❡ ❡t ❧✬❛①❡ ❞✬♦r✐❡♥✲ t❛t✐♦♥ ❞❡ ❧❛ ❝❛♠ér❛ ♣♦✉r ré❛❧✐s❡r ❧❛ rétr♦✲♣r♦❥❡❝t✐♦♥ ❞❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉rs ❞ét❡❝tés ❞❛♥s ✉♥ r❡♣èr❡ ✜①❡✱ ❞❛♥s ❧❡q✉❡❧ ♥♦✉s ♣♦✉✈♦♥s ✐♥tr♦❞✉✐r❡ ❧❛ ❞é♣❡♥❞❛♥❝❡ t❡♠♣♦r❡❧❧❡✳ ❙✐ ♥♦✉s ❛rr✐✈♦♥s à ❛✉❣♠❡♥t❡r ❧❛ ♣r♦❜❛❜✐❧✐té W ❞✉ t✐r❛❣❡ ❛✉ s♦rt✱ ❧❡ ♥♦♠❜r❡ ❞✬✐tér❛t✐♦♥s s❡ ✈❡rr❛ ré❞✉✐t s✐❣♥✐✜❝❛t✐✈❡♠❡♥t✳ P❛r ❡①❡♠♣❧❡✱ s✐ ♠❛✐♥t❡♥❛♥t W = 0.5 ❡t ❧❛ ♣r♦❜❛❜✐❧✐té ❞❡ tr♦✉✈❡r ❧❡s ❝♦❡✣❝✐❡♥ts P = 0.999999 r❡st❡ ❧❛ ♠ê♠❡✱ ❧❡ ♥♦♠❜r❡ t♦t❛❧ ❞✬✐tér❛t✐♦♥s ❞❡ ❘❆◆❙❆❈ ❞❡s❝❡♥❞ à ✹✽✳ ❈❡❝✐ ♣❡r♠❡ttr❛ ❞✬❛✉❣♠❡♥t❡r ❝♦♥s✐❞ér❛❜❧❡♠❡♥t ❧❛ ✈✐t❡ss❡ ❞✬❡①é❝✉t✐♦♥ ❞❡ ❧✬❛❧❣♦r✐t❤♠❡✳ ▲❛ s♦❧✉t✐♦♥ ❛♣♣♦rté❡ ❛✉ ♣r♦❜❧è♠❡ ❝✐té ❝✐✲❞❡ss✉s ❝♦♥s✐st❡ à sé♣❛r❡r ❧❡s ♣♦✐♥ts ❝❛♥❞✐❞❛ts à ❛♣♣❛r✲ t❡♥✐r ❛✉ ♠♦❞è❧❡ ❞❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣♦✐♥ts ♦❜t❡♥✉s ❛✈❡❝ ❧❛ rétr♦✲♣r♦❥❡❝t✐♦♥✳ ❈❡❧❛ ✈❡✉t ❞✐r❡✱ ré❛❧✐s❡r ✉♥❡ r❡❝❤❡r❝❤❡ ❡♥❝♦r❡ ❝✐❜❧é❡ ❞✉ ♠♦❞è❧❡✳ ■❧ ❡①✐st❡ ❞✬❛✉tr❡s ♣r♦♣♦s✐t✐♦♥s ❞✬❛♠é❧✐♦r❛t✐♦♥ ❞❡ ❘❆◆❙❆❈ ❝♦♠♠❡ ❧❛ ✈❡rs✐♦♥ ❛❞❛♣t❛t✐✈❡ ❞❡ ❬❇♦✉❧❛❛ss❛❧ ✷✵✶✵❪✱ ♦ù ❧❡ ♥♦♠❜r❡ ❞✬✐tér❛t✐♦♥s ❡st ❛❞❛♣té ❛✉ ❢✉r ❡t à ♠❡s✉r❡ ❞❡ ❝❤❛q✉❡ ✐tér❛t✐♦♥✱ ♠❛✐s ♥♦tr❡ ❜♦♥♥❡ ❝♦♥♥❛✐ss❛♥❝❡ ❛ ♣r✐♦r✐ ❞❡s ❞♦♥♥é❡s ♥♦✉s ♣❡r♠❡t ❞❡✸✳✸✳ ❆♣♣r♦❝❤❡ r❡t❡♥✉❡ ✻✸ ré❞✉✐r❡ ❡♥❝♦r❡ ♣❧✉s ❧❡ ♥♦♠❜r❡ ❞✬✐tér❛t✐♦♥s✳ ❯♥❡ ❢♦✐s q✉❡ ❧❛ ♣♦s✐t✐♦♥ ❞❡s r❛✐❧s ❡st ❞ét❡r♠✐♥é❡ ♣❛r ❧❛ ♠ét❤♦❞❡ ❞é❝r✐t❡✱ ❞❛♥s ❧✬✐♠❛❣❡ s✉✐✈❛♥t❡ ♥♦✉s ♣♦✉✈♦♥s ✜❧tr❡r ❧❡ ♥✉❛❣❡ ❞❡ ♣♦✐♥ts 3D ♣♦✉r ❣❛r❞❡r s❡✉❧❡♠❡♥t ❧❡s ♣♦✐♥ts ❛♣♣❛rt❡♥❛♥t ❛✉① r❛✐❧s✳ ◆♦✉s ♣r♦♣♦s♦♥s ❞❡ ❞é✜♥✐r ❞❡✉① ③♦♥❡s ❞❡ ✜❧tr❛❣❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ♣♦s✐t✐♦♥ ❞✉ r❛✐❧ ❞❛♥s ❧✬✐♠❛❣❡ ♣ré❝é❞❡♥t❡✳ ❯♥❡ r❡♣rés❡♥t❛t✐♦♥ ❞❡ ❝❡s ❞❡✉① ③♦♥❡s ❡st ♠♦♥tré❡ ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✷✽✳ ❈❡ ✜❧tr❛❣❡ ♥♦✉s ♣❡r♠❡ttr❛ ❞❡ ré❞✉✐r❡ ❧❡ ♥♦♠❜r❡ ❞❡s ♣♦✐♥ts à t❡st❡r ❞❡ ❢❛ç♦♥ ❛❧é❛t♦✐r❡ ❡t ♣❛r ❝♦♥séq✉❡♥t ❛✉❣♠❡♥t❡r ❧❛ ♣r♦❜❛❜✐❧✐té W ❞❡ sé❧❡❝t✐♦♥♥❡r ✉♥ ♣♦✐♥t ❛♣♣❛rt❡♥❛♥t ❛✉ ♠♦❞è❧❡✳ ❈❡tt❡ ❛♣♣r♦❝❤❡ ❛ été ♣rés❡♥té❡ ❞❛♥s ✉♥ ❛rt✐❝❧❡ ✐♥t❡r♥❛t✐♦♥❛❧ ❡t ✐❧ s❡ tr♦✉✈❡ ❞❛♥s ❧✬❛♥♥❡①❡ ❆rt✐❝❧❡ ■❚❙❈ ✷✵✶✷✳ ❈❡♣❡♥❞❛♥t✱ ♣♦✉r ❧✬é✈❛❧✉❛t✐♦♥ ❞✉ s❝♦r❡ ❞❡s ♥♦✉✈❡❛✉① ♠♦❞è❧❡s✱ ♥♦✉s ❣❛r❞♦♥s t♦✉s ❧❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉rs ♣♦✉r ❞ét❡r♠✐♥❡r ❧❡ ♠❡✐❧❧❡✉r ♠♦❞è❧❡ ❡♥ t❡♥❛♥t ❝♦♠♣t❡ ❞❡ t♦✉t❡s ❧❡s str✉❝t✉r❡s ❞❡ ❧❛ ✈♦✐❡✳ ❋✐❣✉r❡ ✸✳✷✽ ✕ ❋✐❧tr❛❣❡ t❡♠♣♦r❡❧ ♣♦✉r ❧❡s ♥✉❛❣❡s ❞❡s ♣♦✐♥ts✳ ❉❛♥s ❝❡tt❡ ✐♠❛❣❡ ♥♦✉s ♣♦✉✈♦♥s ✈♦✐r ❧❡ ✜❧tr❛❣❡ t❡♠♣♦r❡❧ ré❛❧✐sé ❞❛♥s ❧❡s ♥✉❛❣❡s à ♣❛rt✐r ❞✉ ♠♦❞è❧❡ ❞❡ r❛✐❧s ❞ét❡❝té ❞❛♥s ❧✬✐♠❛❣❡ ♣ré❝é♥❞❡♥t❡✳ ❈❡ ♠♦❞è❧❡ ♣♦✉r ❝❤❛q✉❡ r❛✐❧ ❡st r❡♣rés❡♥té ❡♥ r♦✉❣❡ ❡t ❡♥ ♥♦✐r ❧❛ ③♦♥❡ ❞❡ ✜❧tr❛❣❡✳ ❚♦✉s ❧❡s ♣♦✐♥ts ❡♥ ❞❡❤♦rs ❞❡ ❝❡tt❡ ③♦♥❡ ♥❡ s❡r♦♥t ♣❛s ♣r✐s ❡♥ ❝♦♠♣t❡ ♣♦✉r sé❧❡❝t✐♦♥♥❡r ❧❡s ♣♦✐♥ts ❛❧é❛t♦✐r❡s ❞✉ ♣r♦❝❡ss✉s ❞❡ ❘❆◆❙❆❈✳ ✸✳✸✳✺ ❉ét❡r♠✐♥❛t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ❯♥❡ ❢♦✐s q✉❡ ❧❡s r❛✐❧s ♦♥t été ❡①tr❛✐ts✱ ❧❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉rs r❡t❡♥✉s ♣❡✉✈❡♥t êtr❡ ❛♥❛❧②sés ♣♦✉r ❞ét❡r♠✐♥❡r ❥✉sq✉✬à q✉❡❧❧❡ ❞✐st❛♥❝❡ s♦♥t ✈✐s✐❜❧❡s ❧❡s r❛✐❧s ❛✈❡❝ ❧✬♦❜❥❡❝t✐❢ ❞❡ ❞é✜♥✐r ✉♥❡ ③♦♥❡ ✓❧✐❜r❡ ❞✬♦❜st❛❝❧❡s✔✳ P♦✉r ♣♦✉✈♦✐r ❞ét❡r♠✐♥❡r ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡✱ ♥♦✉s ❛✈♦♥s ❜❡s♦✐♥ ❞❡ ❝♦♥♥❛îtr❡ ❧❛ ❞✐str✐❜✉t✐♦♥ s♣❛t✐❛❧❡ ❡♥ 3D ❞✬✉♥❡ ❧✐❣♥❡ ✈❡rt✐❝❛❧❡ ♣❛r❢❛✐t❡ ❞❛♥s ❧✬✐♠❛❣❡ à ♣❛rt✐r ❞❡ ❧❛ rétr♦✲♣r♦❥❡❝t✐♦♥✳ ▲❛ ✜❣✉r❡ ✸✳✷✾ ♥♦✉s ♠♦♥tr❡ ❧❛ ❝♦✉r❜❡ q✉❡ s✉✐t ❧❛ rétr♦✲♣r♦❥❡❝t✐♦♥✱ ♦✉ ❧✬é❝❛rt❡♠❡♥t ❡♥tr❡ ❞❡✉① ♣♦✐♥ts ❛✉❣♠❡♥t❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡✳ P♦✉r ♣♦✉✈♦✐r ❞ét❡r♠✐♥❡r ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥✱ ♥♦✉s ✉t✐❧✐s♦♥s ❝❡tt❡ rés♦❧✉t✐♦♥✳ P♦✉r ❝❡❧❛✱ ♥♦✉s ❛✈♦♥s ✜①é ✉♥ s❡✉✐❧✳ ❙✐ ❞❛♥s ❧❡s ♣♦✐♥ts ❞❡s ❝♦♥t♦✉rs r❡t❡♥✉s ❧❛ rés♦❧✉t✐♦♥ s♣❛t✐❛❧❡ ❞✬✉♥ ♣♦✐♥t D ❡st ✶✵✪ s✉♣ér✐❡✉r❡ à ❧❛ rés♦❧✉t✐♦♥ ❞❡ ❧❛ ❝♦✉r❜❡ ❞❡ ❧❛ ✜❣✉r❡ ✸✳✷✾✱ à ♣❛rt✐r ❞❡ ❝❡tt❡ ❞✐st❛♥❝❡✱ ❧❡s ❛✉tr❡s ♣♦✐♥ts s♦♥t ❝♦♥s✐❞érés ❝♦♠♠❡ ❞✉ ❜r✉✐t✳ ▲❡s r❛✐❧s s❡r♦♥t s❡✉❧❡♠❡♥t ❡①tr❛✐ts ❥✉sq✉✬à ❧❛ ❞✐st❛♥❝❡ D✳✻✹ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❋✐❣✉r❡ ✸✳✷✾ ✕ ❘és♦❧✉t✐♦♥ ❡♥ ♠ètr❡s ❞❡s ♣✐①❡❧s ✈❡rt✐❝❛✉① ❞❡ ❧✬✐♠❛❣❡ ❞❡♣✉✐s ❧❛ ♣❛rt✐❡ ❜❛ss❡ ❥✉sq✉✬à ❧❛ ❧✐❣♥❡ ❞✬❤♦r✐③♦♥ ✳ ❉❡ ♣❧✉s✱ à ♣❛rt✐r ❞❡ ❝❡tt❡ rés♦❧✉t✐♦♥✱ ♥♦✉s ♣♦✉✈♦♥s ❛♥❛❧②s❡r ❧❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉rs r❡t❡♥✉s ❝♦♠♠❡ ❛♣♣❛rt❡♥❛♥t ❛✉ ♠♦❞è❧❡ ✐♥❧✐❡rs ❡t ❞ét❡r♠✐♥❡r ❧❡s ♣❛rt✐❡s ♣♦✉r ❧❡sq✉❡❧❧❡s ✐❧ ❡①✐st❡ ✉♥ ♠❛♥q✉❡ ❞✬✐♥❢♦r♠❛t✐♦♥✳ ◆♦♥ s❡✉❧❡♠❡♥t ❝❡tt❡ ❛♥❛❧②s❡ ❞❡s ♣♦✐♥ts ♥♦✉s ♣❡r♠❡t ❞❡ ❞ét❡r♠✐♥❡r ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡✱ ❡❧❧❡ ♣❡✉t s❡ ré✈é❧❡r ❝♦♠♠❡ ✉♥ ♣♦ss✐❜❧❡ ❞ét❡❝t❡✉r ❞❡ ♣❡t✐ts ♦❜st❛❝❧❡s s✉r ❧❡s ♣✐st❡s ❞❡ r♦✉❧❡♠❡♥t✳ ▲❛ ♣rés❡♥❝❡ ❞❡s ❞✐s❝♦♥t✐♥✉✐tés ❞❛♥s ❧❡s ✐♥❧✐❡rs ♣❡✉t êtr❡ ♦❝❝❛s✐♦♥♥é❡ ♣❛r ❞❡s ♦❝❝❧✉s✐♦♥s ❞✉❡s à ❞❡s ♦❜st❛❝❧❡s ♦✉ s✐♠♣❧❡♠❡♥t à ❝❛✉s❡ ❞❡s ♦♠❜r❡s✳ ❈♦♥s✐❞ér❡r ❧❡s ❞✐s❝♦♥t✐♥✉✐tés ❞❡s r❛✐❧s ❝♦♠♠❡ ✉♥ ♣♦ss✐❜❧❡ ♦❜st❛❝❧❡ s✉r ❧❡ r❛✐❧ ❛ été ♣rés❡♥té ♣❛r ❬❘✉❞❡r ❡t ❛❧✳ ✷✵✵✸❪ ❞❛♥s ❧❛ s❡❝t✐♦♥ ✷✳✶ ✭➱t❛t ❞❡ ❧✬❛rt ❞❡s s②stè♠❡s ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❢❡rr♦✈✐❛✐r❡s✮✳ ✸✳✸✳✺✳✶ ❊✛❡ts ❞❡s ❝❤❛♥❣❡♠❡♥t ❞❡ ♣❡♥t❡ ❯♥ ❛✉tr❡ ❧✐♠✐t❛t✐♦♥ ❞❡ ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡ ❧✬❤②♣♦t❤ès❡ ❞✉ ♠♦♥❞❡ ♣❧❛♥ ❡st ❧✬❡rr❡✉r ✐♥tr♦❞✉✐t❡ ❞❛♥s ❧❡s ♠❡s✉r❡s ❞❡s ❞✐st❛♥❝❡s ❞❡ ❧❛ rétr♦✲♣r♦❥❡❝t✐♦♥✳ ▲❡ ❢❛✐t q✉❡ ❧❡ tr❛✐♥ s❡ tr♦✉✈❡ ❞❛♥s ✉♥ ❝❤❛♥❣❡♠❡♥t ❞❡ ♣❡♥t❡ ✐♥tr♦❞✉✐t ❞❡s ❢❛✐❜❧❡s ❝❤❛♥❣❡♠❡♥ts ❞❛♥s ❧❛ ♣♦s✐t✐♦♥ ❞❡ ❧❛ ♣r♦❥❡❝t✐♦♥ ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡ q✉✐ ♣❡✉✈❡♥t s❡ tr❛❞✉✐r❡ ♣❛r ❞❡s ❡rr❡✉rs ✐♠♣♦rt❛♥ts ❞❡ ♠❡s✉r❡ ❞❡ ❞✐st❛♥❝❡✳ ◆♦✉s ❛❧❧♦♥s ❛♥❛❧②s❡r ❧❡s ❡✛❡ts ✐♥tr♦❞✉✐ts ❞❛♥s ❧✬✐♠❛❣❡ ♣♦✉r ❧❡ ❝❛s ❞✬✉♥ tr❛✐♥ q✉✐ ♣❛ss❡ ❞✬✉♥❡ ♣❡♥t❡ ♥✉❧❧❡ ✵ ✪ à ❧❛ ♣❡♥t❡ ♠❛①✐♠❛❧❡ ❞✉ tr❛❝é ❞❡ ❧❛ ❧✐❣♥❡✳ ❉❛♥s ❧❡ ❝❤❛♣✐tr❡ ♣ré❝é❞❡♥t✱ ♥♦✉s ❛✈♦♥s ❡①tr❛✐t ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ ❧❛ ✈♦✐❡ ❞✬❖r❧②❱❛❧ q✉❡ ❧❛ ♣❡♥t❡ ♠❛①✐♠❛❧❡ ❡st ❞❡ P = 7% ❡t q✉❡ ❧❡ r❛②♦♥ ❞❡ ❝♦✉r❜✉r❡ ✈❡rt✐❝❛❧ ♠✐♥✐♠❛❧✱ ❝❡❧✉✐ q✉✐ ♥♦✉s ♣❡r♠❡ttr❛ ❞✬❛tt❡✐♥❞r❡ ❧❛ ♣❡♥t❡ ♠❛①✐♠❛❧❡ ♣❧✉s r❛♣✐❞❡♠❡♥t ❡st Rmin = 600m✳ ➚ ♣❛rt✐r ❞❡ ❧❛ ✜❣✉r❡ ✸✳✸✵ ♥♦✉s ♣♦✉✈♦♥s ❞ét❡r♠✐♥❡r ❧❛ ❧♦♥❣✉❡✉r ❞❡ ❧❛ ❝♦r❞❡ ❞❡ r❛❝❝♦r❞❡♠❡♥t ❡♥tr❡ ❧✬❤♦r✐③♦♥t❛❧❡ ❡t ❧❛ ♣❡♥t❡ ♠❛①✐♠❛❧❡✳ ❆✐♥s✐✱ ❞❡ ❧❛ ♠ê♠❡ ✜❣✉r❡ ♥♦✉s ♦❜t❡♥♦♥s ♣❛r tr✐❣♦♥♦♠étr✐❡✱ à ♣❛rt✐r ❞❡s tr✐❛♥❣❧❡s ❢♦r♠és ♣❛r ❧❛ ♣r♦❧♦♥❣❛t✐♦♥ ❞✉ r❛②♦♥ ❞❡ ❝♦✉r❜✉r❡ ❡t ❧✬✐♥t❡rs❡❝t✐♦♥ ❛✈❡❝ ❧❛ ♣❡♥t❡✱ q✉❡ ♣♦✉r ♥✬✐♠♣♦rt❡ q✉❡❧❧❡ ✈❛❧❡✉r ❞❡ ❘✱ ψ ≈ α✱ s✐ ♥♦✉s ❝♦♥s✐❞ér♦♥s q✉❡ α << 1✱ ❝♦♠♠❡ ♠♦♥tr❡♥t ❧❡s éq✉❛t✐♦♥s ❞❡ ✸✳✶✷✳ triangle de ψ : ψ = ∀R = π − β − π 2 triangle de β : β = π − α − π 2 ✭✸✳✶✷✮ ▲❛ ❧♦♥❣✉❡✉r ❞❡ ❧✬❛r❝ ❞❡ r❛❝❝♦r❞❡♠❡♥t s✬❡①♣r✐♠❡ ♣❛r ❧✬éq✉❛t✐♦♥ ✸✳✶✸✱ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ♣❡♥t❡ P ❡t ❞❡ ❘ ✿ l = ψR = ❛t❛♥(P)R ✭✸✳✶✸✮✸✳✸✳ ❆♣♣r♦❝❤❡ r❡t❡♥✉❡ ✻✺ ❋✐❣✉r❡ ✸✳✸✵ ✕ ❘❡♣rés❡♥t❛t✐♦♥ ❞✉ ❝❤❛♥❣❡♠❡♥t ❞❡ ♣❡♥t❡ ❯♥❡ ❢♦✐s ❝♦♥♥✉ ❧✬❛♥❣❧❡ ❞❡ r❛❝❝♦r❞❡♠❡♥t✱ ♥♦✉s ♣♦✉✈♦♥s r❡♣rés❡♥t❡r ❧❡s ❞✐✛ér❡♥ts ❝❛s✳ ▲❛ ✜❣✉r❡ ✸✳✸✶ ♥♦✉s ♠♦♥tr❡ ❞✬✉♥ ❝ôté ❧✬❛♥❛❧②s❡ ❞❡ ♣r♦❥❡❝t✐♦♥ ❡t ❧❛ rétr♦✲♣r♦❥❡❝t✐♦♥ ❞❡ tr♦✐s ❝❛s ✿ ✕ ❊♥ ❜❧❡✉✱ ❧❛ ♣r♦❥❡❝t✐♦♥ q✉❛♥❞ ❧❛ tr❛❥❡❝t♦✐r❡ ❡st ♣❧❛t❡✱ ❧❛ ❝♦✉r❜❡ ❞❡ s❛ ❝♦t❡ ❡t s❛ rétr♦✲♣r♦❥❡❝t✐♦♥✳ ✕ ❊♥ r♦✉❣❡✱ ❧❡ ♠ê♠❡s ❝♦✉r❜❡s ♠❛✐s ❝❡tt❡ ❢♦✐s✱ ✐❧ ❡①✐st❡ ✉♥❡ ♣❡♥t❡ ♣♦s✐t✐✈❡ ❞❡ ✼ ✪ ❛✈❡❝ ✉♥ r❛❝❝♦r❞❡♠❡♥t ❛✈❡❝ ❧❡ r❛②♦♥ Rmin ❞❡✈❛♥t ❧❡ tr❛✐♥✳ ✕ ❊♥ ✈❡rt✱ ♣♦✉r ✉♥❡ ♣❡♥t❡ ♥é❣❛t✐✈❡ ❞❡ ✼ ✪✱ ❛✉ss✐ r❛❝❝♦r❞é❡ ❛✈❡❝ Rmin✳ ❉❡ ❧✬❛✉tr❡ ❝ôté✱ ♥♦✉s ❛✈♦♥s ❧❡s rétr♦✲♣r♦❥❡❝t✐♦♥s ❞❡s ♣♦✐♥ts ❡♥ ❝♦♥s✐❞ér❛♥t ❧✬❤②♣♦t❤ès❡ ❞✉ ♠♦♥❞❡ ♣❧❛♥✳ ◆♦✉s ♣♦✉✈♦♥s ✈♦✐r q✉❡ ❧✬❡rr❡✉r ❝♦♠♠✐s❡ ❡♥ ❞✐st❛♥❝❡✱ s✉rt♦✉t ♣♦✉r ❧❡ ❝❛s ❞✬✉♥❡ ♣❡♥t❡ ♣♦s✐t✐✈❡✱ ♣❡✉t êtr❡ très ✐♠♣♦rt❛♥t✳ ❈❡♣❡♥❞❛♥t✱ ♣✉✐sq✉❡ ❞❛♥s ♥♦tr❡ ♠ét❤♦❞❡ ❞❡ r❡❝❤❡r❝❤❡ ❞❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉r ♥♦✉s ❛♣♣❧✐q✉♦♥s ❞é❥à ✉♥❡ ❧♦❣✐q✉❡ ❞❡ ♣r♦❥❡❝t✐♦♥ ❞❡ ❧❛ ❧❛r❣❡✉r ❞❡s r❛✐❧s✱ wrailpixels ±marge✱ ❞❛♥s ❧❡ ❝❛s ❞✬✉♥ ❝❤❛♥❣❡♠❡♥t ❞❡ ♣❡♥t❡✱ ♥♦✉s ♥✬❛❧❧♦♥s ♣❛s ❞ét❡❝t❡r ❧❛ t♦t❛❧✐té ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡ ❝❛r ❧❛ ❧❛r❣❡✉r ♥✬❡st ♣❛s r❡s♣❡❝té❡✳ ▼ê♠❡ s✐ ❝❡tt❡ ❛♣♣r♦❝❤❡ ♥♦✉s ❧✐♠✐t❡r❛ ❡♥ ❞✐st❛♥❝❡ ❞❡ ❞ét❡❝t✐♦♥✱ ❡❧❧❡ ♥♦✉s ♣❡r♠❡ttr❛ ❞❡ ré❞✉✐r❡ ❧✬❡rr❡✉r ❞❡ ❞ét❡r♠✐♥❛t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ ♣❛r rétr♦✲♣r♦❥❡❝t✐♦♥✳ ◆♦✉s ❛❧❧♦♥s ❛♥❛❧②s❡r ❧❛ r❡❧❛t✐♦♥ ❡♥tr❡ ❧❛ ♠❛r❣❡ ✐♥tr♦❞✉✐t❡ ❞❛♥s ❧❡s ❧❛r❣❡✉rs ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡ ❡t ❧❡s ❞✐st❛♥❝❡s ❞❡ ❞ét❡❝t✐♦♥s✳ ❘❛♣♣❡❧♦♥s ❧❛ ❢♦r♠✉❧❡ ✷✳✶✸ ✿ f = TimageD Tobjet q✉✐ r❡❧✐❡ ❧❛ t❛✐❧❧❡ ❞❡ ❧✬♦❜❥❡t ré❡❧ ❡t ❧❛ t❛✐❧❧❡ ❞❛♥s ❧✬✐♠❛❣❡✳ ➚ ♣❛rt✐r ❞❡ ❝❡tt❡ ❢♦r♠✉❧❡✱ ❞❡ ❧❛ ✜❣✉r❡ ✸✳✸✶✱ ❡t ❡♥ ❝♦♥s✐❞ér❛♥t q✉❡ ❧❡s r❛②♦♥s ❞❡ ❝♦✉r❜✉r❡ s♦♥t s✉♣ér✐❡✉rs à ❧❛ ❞✐st❛♥❝❡ ❞❡ ❞ét❡❝t✐♦♥✱ ♥♦✉s ♣♦✉✈♦♥s ❞é✜♥✐r ❧❡s éq✉❛t✐♦♥s ✸✳✶✹✱ ♦ù ♥♦✉s ✈♦②♦♥s q✉❡ ❧❛ ♠❛r❣❡ ❡♥ ♣✐①❡❧s ❝♦rr❡s♣♦♥❞ à ❧❛ ♠❛r❣❡ ❡♥ ♠ètr❡s ❞❛♥s ❧✬❡rr❡✉r ❞❡ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ ✿ wplat = kufTrail Dplat ; wpente = kufTrail Dpente ; wpente ≤ wplat(1 + M arge); Dplat = x sin θ ; Dpente = x 0 sinθ ; x 0 = x 1+Marge ♦ù w ❡st ❧❛ ❧❛r❣❡✉r ❞✉ r❛✐❧ ❡t ku ❡st ❧❡ ❢❛❝❡✉r ❞✬é❝❤❡❧❧❡ ✭♣✐①❡❧✴♠♠✮ ✭✸✳✶✹✮✻✻ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ✭❛✮ Pr♦❥❡❝t✐♦♥ ❞❡s ❞✐✛ér❡♥t❡s ♣❡♥t❡s ❞❛♥s ❧✬✐♠❛❣❡✳ ✭❜✮ ❘étr♦✲♣r♦❥❡❝t✐♦♥ ❞❡s ♣♦✐♥ts ❡♥ s✉♣♣♦✲ s❛♥t ✉♥ ♠♦♥❞❡ ♣❧❛♥✳ ✭❝✮ ❈♦t❡s ❞❡s ❞✐✛ér❡♥t❡s tr❛❥❡❝t♦✐r❡s ♣r♦❥❡té❡s✳ ❋✐❣✉r❡ ✸✳✸✶ ✕ ➱✈❛❧✉❛t✐♦♥ ❞❡ ❧✬❡rr❡✉r ❞❡ rétr♦✲♣r♦❥❡❝t✐♦♥ ❞✉❡ à ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❧✬❤②♣♦t❤ès❡ ❞✉ ♠♦♥❞❡ ♣❧❛♥✳ ✳ ▲❡ r❛②♦♥ ❞❡ r❛❝❝♦r❞❡♠❡♥t ❞❡ ✶✺✵✵ ♠ètr❡s ❡t ♣❡♥t❡ ✜♥❛❧❡ ❞❡ ✼✪✳ ❋✐❣✉r❡ ✸✳✸✷ ✕ ❙❝❤é♠❛ ♣♦✉r tr♦✉✈❡r ❧❛ ♣❡♥t❡ ♠❛①✐♠❛❧❡ s✉♣♣♦rté❡✳✸✳✹✳ ❘és✉❧t❛ts ✻✼ P❛r ❝♦♥séq✉❡♥❝❡✱ ❧❛ ♠❛r❣❡ ✉t✐❧✐sé❡ ❞❛♥s ❧❛ r❡❝❤❡r❝❤❡ ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡ ❡st ❞✐r❡❝t❡♠❡♥t ❧❛ ♠❛r❣❡ ❞✬❡rr❡✉r ❞❡ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ ❞é✜♥✐❡ ❞❛♥s ❧❡s ♦❜❥❡❝t✐❢s ❞✉ s②stè♠❡ ✐♥❢ér✐❡✉r❡ à ✶✵ ✪✳ ❈♦♠♠❡ ❡①♣❧✐q✉é ♣ré❝é❞❡♠♠❡♥t✱ ❝❡tt❡ ❝♦♥tr❛✐♥t❡ ❞❛♥s ❧❛ ♣ré❝✐s✐♦♥ ❞❡ ❧❛ ❞✐st❛♥❝❡ ♥♦✉s ❧✐♠✐t❡ ❧❛ ❞✐st❛♥❝❡ ❞❡ ❞ét❡❝t✐♦♥ ❡♥ r✉♣t✉r❡ ❞❡ ♣❡♥t❡✳ ❉❛♥s ❧✬éq✉❛t✐♦♥ ✸✳✶✺ ♥♦✉s ♣♦✉✈♦♥s ♠❡ttr❡ ❡♥ r❡❧❛t✐♦♥ ❧❡ ❝❤❛♥❣❡♠❡♥t ❞❡ ❝♦t❡ ♠❛①✐♠✉♠ hc ❛✈❡❝ ❧❡ ❝❡r❝❧❡ ❞❡ r❛❝❝♦r❞❡♠❡♥t ❞❡ r❛②♦♥ R ❣râ❝❡ à ❧❛ ✢è❝❤❡ ❞❡ ❧❛ ❝♦r❞❡ s♦✉s✲t❡♥❞✉❡ ♣❛r ❧✬❛r❝ ❞❡ ❧♦♥❣✉❡✉r 2 × L ✱ ♦ù L ❝♦rr❡s♣♦♥❞ à ❧❛ ❧♦♥❣✉❡✉r ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ❡♥ ♣❡♥t❡✳ hc = M 1+M h; hc = fleche ` ; Lmax ≈ corde 2 ; Lmax = p (2 ∗ R − fleche ` )fleche ` ✭✸✳✶✺✮ P♦✉r ♥♦s ✈❛❧❡✉rs ❞❡ ❤❛✉t❡✉r ❞❡ ❧❛ ❝❛♠ér❛ h ≈ 2 m✱ ❞❡ r❛②♦♥ ♠✐♥✐♠❛❧ ❞❡ ❝♦✉r❜✉r❡ ✈❡rt✐❝❛❧❡ Rmin = 600 m✱ ❧❛ ❧♦♥❣✉❡✉r ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ❡♥ ♣❡♥t❡ ❡st ❞❡ Lmax = 17.77 m✳ ▲❛ r❡❧❛t✐♦♥ ♦❜t❡♥✉❡ ❞❛♥s ❧✬éq✉❛t✐♦♥ ✸✳✶✺ ♥♦✉s ♠♦♥tr❡ q✉❡ ♣❧✉s ❤❛✉t❡ ❡st ❧❛ ❝❛♠ér❛✱ ♣❧✉s ❣r❛♥❞❡ s❡r❛ ❧❛ ❞✐st❛♥❝❡ ❞❡ ❞ét❡❝t✐♦♥ ❡♥ ❝❤❛♥❣❡♠❡♥t ❞❡ ♣❡♥t❡ ♣♦✉r ❧❛ ♠ê♠❡ ♠❛r❣❡ ❞✬❡rr❡✉r ❞❡ ❞ét❡❝t✐♦♥ ❞❡ ❞✐st❛♥❝❡✳ ❈❡tt❡ ❞✐st❛♥❝❡ ♠✐♥✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ❡st s✉♣ér✐❡✉r à ❧❛ ❞✐st❛♥❝❡ ❞✬❛rrêt ♠❛①✐♠❛❧❡ ❡♥ ❛rrêt ❞✬✉r❣❡♥❝❡ ❞❡ 12 m ❞é✜♥✐❡ ❞❛♥s ❧❡ ❝❤❛♣✐tr❡ ♣ré❝é❞❡♥t✳ ✸✳✹ ❘és✉❧t❛ts ❆✈❡❝ ❧✬♦❜❥❡❝t✐❢ ❞❡ ♠♦♥tr❡r ❧❡s rés✉❧t❛ts ❞✬❡①tr❛❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ♥♦✉s ♣r♦♣♦s♦♥s ❞❡ r❡❝♦♥str✉✐r❡ ❧❡ ❝❤❡♠✐♥ s✉✐✈✐ ♣❛r ❧❡ tr❛✐♥ à ♣❛rt✐r ❞❡ ❧✬❡st✐♠❛t✐♦♥ ❞❡ ❧❛ tr❛❥❡❝t♦✐r❡ ❞❡ ❧❛ ❝❛♠ér❛ ♣❛r r❛♣♣♦rt à ✉♥ r❡♣èr❡ ✐♥✐t✐❛❧✳ ❈❡ r❡♣èr❡ ♣❡✉t êtr❡ ♣❛r ❡①❡♠♣❧❡✱ ❝♦♠♠❡ ♥♦✉s ❧✬❛✈♦♥s ❞é✜♥✐✱ ❧❛ ♣r❡♠✐èr❡ ✐♠❛❣❡ ❞✬✉♥❡ séq✉❡♥❝❡✳ ❈♦♠♠❡ ❧❡ s②stè♠❡ ❣é♥ér❛❧ ❞♦✐t êtr❡ ❛✉t♦♥♦♠❡✱ ♥♦✉s ♥❡ ❞✐s♣♦s♦♥s ♣❛s ❞❡s ✐♥❢♦r♠❛t✐♦♥s r❡❧❛t✐✈❡s ❛✉ ♠♦✉✈❡♠❡♥t ❞✉ tr❛✐♥✳ P♦✉r ❝❡tt❡ r❛✐s♦♥ ♥♦✉s ❛✈♦♥s ❞é✈❡❧♦♣♣é ✉♥ ♣r♦❝é❞é ♣♦✉r ❞ét❡r♠✐♥❡r ❧❡ ♠♦✉✈❡♠❡♥t ❞✉ tr❛✐♥ à ♣❛rt✐r ❞❡s ✐♠❛❣❡s ❞❡ ❧❛ ❝❛♠ér❛✳ ▲❡s t❡❝❤♥✐q✉❡s ❞❡ ❧♦❝❛❧✐s❛t✐♦♥ ✈✐s✉❡❧❧❡ ♣❡✉✈❡♥t êtr❡ ❞✐✈✐sé❡s ❡♥ ❞❡✉① ❣r♦✉♣❡s ✿ ❧❡s ♠ét❤♦❞❡s ❜❛sé❡s s✉r ❧❡s ♣♦✐♥ts ❞✬✐♥térêts ❡t ❧❡s ♠ét❤♦❞❡s ❞✐r❡❝t❡s ❬▼❡✐❧❧❛♥❞ ✷✵✶✷❪✳ ▲❡s ♠ét❤♦❞❡s ❜❛sé❡s s✉r ❧✬❡①tr❛❝t✐♦♥ ❞❡ ♣♦✐♥ts ❞✬✐♥térêts ❢❡❛t✉r❡✲❜❛s❡❞✱ ❝❤❡r❝❤❡♥t à ❡①tr❛✐r❡ ❞❡s ♣r✐♠✐t✐✈❡s ✈✐s✉❡❧❧❡s ❧♦❝❛❧❡s ❞❛♥s ❧❡s ✐♠❛❣❡s✱ t❡❧❧❡s q✉❡ ❧❡s ♣♦✐♥ts ❞❡ ❍❛rr✐s ❬❍❛rr✐s ✫ ❙t❡♣❤❡♥s ✶✾✽✽❪ ♦✉ ❧❡s ❙■❋❚ ❬▲♦✇❡ ✷✵✵✹❪✳ ❯♥❡ ét❛♣❡ ❞✬❛♣♣❛r✐❡♠❡♥t ❡st ❡♥s✉✐t❡ ❡✛❡❝t✉é❡✱ ❝✬❡st✲à✲❞✐r❡ ♠❡ttr❡ ❡♥ ❝♦rr❡s♣♦♥❞❛♥❝❡ ✉♥✲à✲✉♥ ❧❡s ♣♦✐♥ts ❞✬✐♥térêts ❞❡ ❝❤❛q✉❡ ✐♠❛❣❡✳ P♦✉r ❝❡❧❛ ✐❧ ❡st ♥é❝❡ss❛✐r❡ ❞✬✉t✐❧✐s❡r ✉♥❡ ♠❡s✉r❡ ❞❡ s✐♠✐❧❛r✐té ❡♥tr❡ ❧❡s ♣r✐♠✐t✐✈❡s✳ ▲❡s ♠ét❤♦❞❡s ❞✐r❡❝t❡s ✐♠❛❣❡✲❜❛s❡❞ ♥✬♦♥t ♣❛s ❞❡ ♣❤❛s❡ ❞❡ sé❧❡❝t✐♦♥ ❞❡ ♣♦✐♥ts ❞✬✐♥térêt ♦✉ ❞❡ ♣r✐♠✐t✐✈❡s ✈✐s✉❡❧❧❡s✳ ▲❡ ♠♦✉✈❡♠❡♥t ❞❡ ❧❛ ❝❛♠ér❛ ❡st ❞✐r❡❝t❡♠❡♥t ♦❜t❡♥✉ ❡♥ ♠✐♥✐♠✐s❛♥t ❧❡s ❡rr❡✉rs ❞✬✐♥t❡♥s✐té ❝♦♠♠✉♥❡s ❛✉① ❞❡✉① ✐♠❛❣❡s à ❧✬❛✐❞❡ ❞✬✉♥❡ tr❛♥s❢♦r♠❛t✐♦♥ ♣❛r❛♠étr✐q✉❡✳ ❉❛♥s ❝❡ ❝❛s ❧✬❡st✐♠❛t✐♦♥ ❞✉ ♠♦✉✈❡♠❡♥t ❡t ❧❛ ♠✐s❡ ❡♥ ❝♦rr❡s♣♦♥❞❛♥❝❡ ❞❡s ♣✐①❡❧s s✬❡✛❡❝t✉❡♥t s✐♠✉❧t❛♥é♠❡♥t ❧♦rs ❞❡ ❧✬♦♣t✐♠✐s❛t✐♦♥✳ ❉❛♥s ❧❛ ♠❛❥♦r✐té ❞❡s ❝❛s✱ ❝❡ t②♣❡ ❞❡ t❡❝❤♥✐q✉❡ ❡st ✉t✐❧✐sé ♣♦✉r ❧❡ s✉✐✈✐ ❞✬✉♥❡ s✉r❢❛❝❡ ♣❧❛♥❛✐r❡✳ ❇✐❡♥ q✉❡ ❧❡s ♠ét❤♦❞❡s ✐♥❞✐r❡❝t❡s ♠♦♥tr❡♥t ❞❡ très ❜♦♥s rés✉❧t❛ts✱ ♣♦✉r ❧❡ ❝❛s ❢❡rr♦✈✐❛✐r❡ ✐❧ ❡st ♣♦ss✐❜❧❡ q✉❡ ♣♦✉r ❝❡rt❛✐♥s ❝❛s✱ ✐❧ ♥✬❡①✐st❡ ♣❛s s✉✣s❛♠♠❡♥t ❞❡s ♣r✐♠✐t✐✈❡s ❞❛♥s ❧❡s ✐♠❛❣❡s✱ ♣❛r ❡①❡♠♣❧❡ ❞❛♥s ❧❡s t✉♥♥❡❧s ♦✉ ♣❡♥❞❛♥t ❧❛ ♥✉✐t✳ ❆✉ss✐✱ ✐❧ ❢❛✉t s✬❛ss✉r❡r q✉❡ ❧❡s ♣r✐♠✐t✐✈❡s ❞ét❡❝té❡s s♦♥t ❞❡s ♣♦✐♥ts ✜①❡s✳ ◆♦✉s ❛✈♦♥s ❞♦♥❝ r❡t❡♥✉ ❧❡s ♠ét❤♦❞❡s ✐♠❛❣❡✲❜❛s❡❞ ♣♦✉r ❞ét❡r♠✐♥❡r ❧❡s ❞é♣❧❛❝❡♠❡♥ts s✉✐✈✐s ♣❛r ❧❡ tr❛✐♥ ❡♥tr❡ ❝❤❛q✉❡ ✐♠❛❣❡✳ P✉✐sq✉❡ ❝❡s ♠ét❤♦❞❡s s♦♥t ❧♦✉r❞❡s ❡♥ ❝❛❧❝✉❧s✱ ♥♦✉s ❛✈♦♥s ❞é✜♥✐ ✉♥❡ ③♦♥❡ ❞❡ r❡❝❤❡r❝❤❡ ré❞✉✐t❡ ♣❧✉s ❝♦♥✈❡♥❛❜❧❡ ♣♦✉r ❞ét❡r♠✐♥❡r ❧❡ ❞é♣❧❛❝❡♠❡♥t ❞✉ tr❛✐♥✳ ❈❡tt❡ ③♦♥❡ ❡st✻✽ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ s✐t✉é❡ ✐♠♠é❞✐❛t❡♠❡♥t ❞❡✈❛♥t ❧❡ tr❛✐♥ ❡t ❝♦✉✈r❡ ❧✬❡♥tr❡✲❛①❡ ❞❡ ❧❛ ✈♦✐❡✳ ❈❡tt❡ ❛♣♣r♦❝❤❡ ♠♦♥tr❡ ❞❡ très ❜♦♥s rés✉❧t❛ts ❞❛♥s ❧❡s tr❛✈❛✉① ❢❡rr♦✈✐❛✐r❡s ❞❡ ❬❈❤❛♥t♦♥ ✷✵✵✽❪✳ ❉❡ ♣❧✉s✱ ❞❛♥s ❝❡tt❡ ③♦♥❡ ❧❛ ❝❛♠ér❛ ❣❛r❛♥t✐t ✉♥❡ rés♦❧✉t✐♦♥ q✉✐ ♣❡r♠❡ttr❛ ❞❡ ❞ét❡r♠✐♥❡r ❧❡ ❞é❝❛❧❛❣❡ ❡♥tr❡ ❞❡✉① ✐♠❛❣❡s s✉❝❝❡ss✐✈❡s ❛✈❡❝ ❡①❛❝t✐t✉❞❡✳ ▲✬❛♣♣r♦❝❤❡ ❝♦♥s✐st❡ à ✉t✐❧✐s❡r ❝❡tt❡ ♣♦rt✐♦♥ ❞❡ ❧✬✐♠❛❣❡ ❡t à s✉♣♣r✐♠❡r ❧❛ ❞é❢♦r♠❛t✐♦♥ ❞❡ ♣❡rs♣❡❝✲ t✐✈❡ ❣râ❝❡ à ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡ ❧❛ ❚r❛♥s❢♦r♠é❡ ❡♥ ❱✉❡ ❞✬❖✐s❡❛✉✱ ❝❛r✱ ❞❛♥s ❧✬✐♠❛❣❡ rés✉❧t❛♥t❡✱ ❧❡s ❧✐❣♥❡s ♣❛r❛❧❧è❧❡s ❞❛♥s ❧❡ ♠♦♥❞❡ ré❡❧ ✭❧❡s r❛✐❧s✮ ✈♦♥t r❡st❡r ♣❛r❛❧❧è❧❡s✳ ▲❛ ③♦♥❡ sé❧❡❝t✐♦♥♥é❡ ❡st ❞é✜♥✐❡ ♣❛r ❧❛ ♣♦s✐t✐♦♥ ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡✳ ❯♥❡ ❢♦✐s ❞ét❡r♠✐♥é❡ ❧❛ ❢♦♥❝t✐♦♥ q✉✐ ❝❛r❛❝tér✐s❡ ❧❛ ❝♦✉r❜❡ ❞❡ ❧❛ ✈♦✐❡✱ ♥♦✉s sé❧❡❝t✐♦♥♥♦♥s ✉♥❡ ③♦♥❡ ❞é✜♥✐❡ ❡♥tr❡ ✉♥❡ ❞✐st❛♥❝❡ ❡♥ ♠ètr❡s ❞❡ D ❡t D + 1 ❛✈❡❝ ✉♥❡ ❧❛r❣❡✉r s✉✣s❛♥t❡ ♣♦✉r ❝♦✉✈r✐r ❧✬❡♥tr❡✲❛①❡ ❞❡ ❧❛ ✈♦✐❡✳ ❯♥❡ ✐♠❛❣❡ r❡♣rés❡♥t❛t✐✈❡ ❞❡ ❝❡tt❡ ③♦♥❡ ❡t ❧✬✐♠❛❣❡ ♦❜t❡♥✉❡ ❛♣rès ❧❛ tr❛♥s❢♦r♠é❡ ■P▼ ❡st ❡①♣♦sé❡ ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✸✸✳ ✭❛✮ ❩♦♥❡ à ❛♥❛❧②s❡r ♣♦✉r ♦❜t❡♥✐r ❧❡ ❞é♣❧❛❝❡♠❡♥t✳ ✭❜✮ ■♠❛❣❡ s❛♥s ❞é❢♦r♠❛t✐♦♥ ♣❡rs♣❡❝t✐✈❡ ✉t✐✲ ❧✐sé❡ ♣♦✉r ❧❡ ❝❛❧❝✉❧ ❞✉ ❞é❝❛❧❛❣❡✳ ❋✐❣✉r❡ ✸✳✸✸ ✕ ■❧❧✉str❛t✐♦♥ ❞❡ ❧❛ ♠ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❝❛❧❝✉❧❡r ❞✬❛✈❛♥❝❡♠❡♥t✳ ❉❡ ❢❛ç♦♥ q✉❡ ❧❡ tr❛✐♥ ❛✈❛♥❝❡✱ ❞❛♥s ❧❡s ✐♠❛❣❡s ♦❜t❡♥✉❡s ❛✈❡❝ ❧❛ tr❛♥s❢♦r♠é❡ ❡♥ ✈✉❡ ❞✬♦✐s❡❛✉ ❧❡s r❛✐❧s ❛♣♣❛r❛✐ss❡♥t ❡♥ ♠♦✉✈❡♠❡♥t✳ ▲❡ ❞é❝❛❧❛❣❡ ❡♥tr❡ ❝❡s ✐♠❛❣❡s ❞é♣❡♥❞ ❞❡ ❧✬❛✈❛♥❝❡♠❡♥t ❞✉ tr❛✐♥✳ ❯♥ ❡①❡♠♣❧❡ ❞❡ ❞❡✉① ✐♠❛❣❡s s✉❝❝❡ss✐✈❡s ❡t ❧❡✉r ❞é❝❛❧❛❣❡ ❡st ❡①♣♦sé ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✸✹✳ ❈❡ ❞é❝❛❧❛❣❡ ♣❡✉t êtr❡ ❞ét❡r♠✐♥é ♣❛r ❞❡s ♠ét❤♦❞❡s ❞✐t❡s ✐♠❛❣❡✲❜❛s❡❞✳ P♦✉r ♠❡s✉r❡r ❧❡ ❞é♣❧❛❝❡♠❡♥t r❡❧❛t✐❢ ❡♥tr❡ ❞❡✉① ✐♠❛❣❡s s✉❝❝❡ss✐✈❡s✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ❧✬✐♥t❡r✲❝♦rré❧❛t✐♦♥✳ ❈♦♠♠❡ ❧❡s ❞❡✉① ✐♠❛❣❡s ♦♥t été ♦❜t❡♥✉❡s à ♣❛rt✐r ❞❡ ❧❛ ❢♦♥❝t✐♦♥ q✉✐ ❞é✜♥✐t ❧❡s r❛✐❧s✱ ❧❡ s❡✉❧ ❞é♣❧❛❝❡♠❡♥t à ❝♦♥s✐❞ér❡r ❡st ✈❡rt✐❝❛❧✱ ❝❡ q✉✐ ♥♦✉s ♣❡r♠❡ttr❛ ❞❡ ré❞✉✐r❡ ❧❡ ❝♦ût ❞❡ ❝❛❧❝✉❧ ❞❡ ❧❛ ❝♦rré❧❛t✐♦♥✳ ▲❛ ❢♦♥❝t✐♦♥ ❞✬✐♥t❡r✲❝♦rré❧❛t✐♦♥✱ ❞♦♥t ❡st ❞é❞✉✐t ❧❡ ❞é❝❛❧❛❣❡ ❡♥tr❡ ❧❡s ✐♠❛❣❡s ❡st ❞♦♥♥é❡ ♣❛r ❧❛ ❢♦r♠✉❧❡ ❣é♥ér❛❧❡ ✸✳✶✻ ✿ h(p) = X inf − inf xi · yi−p ✭✸✳✶✻✮ ♦ù xi ❡t yi s♦♥t ❧❡s ♣✐①❡❧s ❞❡s ♣r❡♠✐❡r ❡t s❡❝♦♥❞ ✈❡❝t❡✉rs ❞❡ ♠❡s✉r❡✳ ▲✬❛❧❣♦r✐t❤♠❡ ❞é✈❡❧♦♣♣é ❛ ♣♦✉r ♦❜❥❡❝t✐❢ ❞❡ r❡❝❤❡r❝❤❡r ❧❛ ✈❛❧❡✉r ❞✉ ❞é♣❧❛❝❡♠❡♥t ✈❡rt✐❝❛❧ q✉✐ ♠❛①✐♠✐s❡ ❧✬♦♣ér❛t❡✉r ❞✬✐♥t❡r✲ ❝♦rré❧❛t✐♦♥ h(p)✳ P♦✉r ❝❡❧❛ ❝❤❛q✉❡ ♣❛✐r❡ ❞❡ ❧✐❣♥❡s ✈❡rt✐❝❛❧❡s ❞❡s ❞❡✉① ✐♠❛❣❡s s❡r❛ ✐♥t❡r✲❝♦rré❧é❡ ♣♦✉r✸✳✹✳ ❘és✉❧t❛ts ✻✾ ♦❜t❡♥✐r ❧❡ ❞é❝❛❧❛❣❡✳ ❯♥ ❡①❡♠♣❧❡ ❞❡ rés✉❧t❛t ❞❡ h(p) ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✸✺✳ ❉❛♥s ❝❡ ❝❛s✱ ❧❡ ❞é♣❧❛❝❡♠❡♥t ❞ét❡r♠✐♥é ❡st ❞❡ ✶✺ ♣✐①❡❧s✳ ❈♦♥♥❛✐ss❛♥t ❧❛ t❛✐❧❧❡ ❞❡ ❧✬✐♠❛❣❡ ■P▼ ❡t s❛ ❝♦rr❡s♣♦♥❞❛♥❝❡ ❡♥ ♠ètr❡s✱ ♥♦✉s ♣♦✉✈♦♥s ❞ét❡r♠✐♥❡r ❧✬❛✈❛♥❝❡♠❡♥t ❞✉ tr❛✐♥ à ♣❛rt✐r ❞✉ ❞é❝❛❧❛❣❡ ❞❡s ✐♠❛❣❡s✳ ❋✐❣✉r❡ ✸✳✸✹ ✕ ❈♦♠♣❛r❛✐s♦♥ ❡♥tr❡ ❞❡✉① ✐♠❛❣❡s s✉❝❝❡ss✐✈❡s ♣♦✉r ❞ét❡r♠✐♥❡r ❧✬❛✈❛♥❝❡♠❡♥t ❞✉ tr❛✐♥✳ ❋✐❣✉r❡ ✸✳✸✺ ✕ ❈♦rré❧❛t✐♦♥ ❞❡s ❧✐❣♥❡s ✈❡rt✐❝❛❧❡s ❞❡s ✐♠❛❣❡s ❞❡ ❧❛ ✜❣✉r❡ ✸✳✸✹✳ ▲❡ ❞é❝❛❧❛❣❡ t❤é♦r✐q✉❡ ❡st ❞❡ ✶✺ ♣✐①❡❧s✳ ❋✐❣✉r❡ ✸✳✸✻ ✕ ■♠❛❣❡ ❛ér✐❡♥♥❡ ❞✉ ♣❛r❝♦✉rs ❡♥tr❡ ❖r❧② ❖✉❡st ❡t ❖r❧② ❙✉❞✳ ▲❡ ❞é❜✉t ❡t ❧❛ ✜♥ ❞✉ ♣❛r❝♦✉rs s♦♥t ✐♥❞✐q✉és ♣❛r ❞❡s ✢è❝❤❡s r♦✉❣❡s✳ ❈❡tt❡ ♣❛rt✐❡ ❛ér✐❡♥♥❡ ❞✉ ♠❡tr♦ ❖r❧②❱❆▲ ❡♥tr❡ ❧❡s st❛t✐♦♥s ❖r❧②❖✉❡st ❡t ❖r❧②❙✉❞ ❞é♣❛rts ❡t ♣r✐♥❝✐♣❛❧❡♠❡♥t ré❛❧✐sé❡ ❡♥ ✈✐❛❞✉❝✳ ▲❡ ♣❛r❝♦✉rs t♦t❛❧ ❡st ❞❡ ✺✼✵ ♠ètr❡s ❡t ❧❛ ✈✐t❡ss❡ ♠❛①✐♠❛❧❡ ❛tt❡✐♥t❡ ❡st ❞❡ ✶✼ ♠✴s✳ ▲❛ ✜❣✉r❡ ✸✳✸✽ ♠♦♥tr❡ ❧✬❡①tr❛❝t✐♦♥ ❞❡s r❛✐❧s s♦✉s ❞✐✛ér❡♥t❡s ❝♦♥❞✐t✐♦♥s✳✼✵ ❈❤❛♣✐tr❡ ✸✳ ❉ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ❋✐❣✉r❡ ✸✳✸✼ ✕ ❖❞♦♠étr✐❡ ✈✐s✉❡❧❧❡ ♦❜t❡♥✉❡ à ♣❛rt✐r ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s✳ ❉❛♥s ❝❡tt❡ ✐♠❛❣❡ ♥♦✉s ♣♦✉✈♦♥s ✈♦✐r ❧❡ ♣❛r❝♦✉rs r❡❝♦♥str✉✐t ♣❛r ❧✬♦❞♦♠étr✐❡ ✈✐s✉❡❧❧❡ ✭❡♥ ♠❛❣❡♥t❛✮ ❡t ❧❡ ♣❛r❝♦✉rs ♦❜t❡♥✉ à ♣❛rt✐r ❞❡s ❞♦♥♥é❡s ●P❙ ❞❡ ●♦♦❣❧❡ ▼❛♣s✳ ▲❡ ❞é❝❛❧❛❣❡ ❡♥ ❞✐st❛♥❝❡ ✜♥❛❧❡ ❡♥tr❡ ❧❡s ❞❡✉① ❞♦♥♥é❡s ❡st ❞❡ ✼✳✾✹ ♠ètr❡s ♣♦✉r ✉♥ ♣❛r❝♦✉rs t♦t❛❧ ❞❡ ✺✼✵ ♠ètr❡s✳ ❈❡tt❡ ❡rr❡✉r ♣❡✉t êtr❡ ❞✉❡ ❛✉① ❛♣♣r♦①✐♠❛t✐♦♥s ❞❡ ❧❛ ❝♦✉r❜✉r❡ ❞❡ ❧❛ ✈♦✐❡ ♣❛r ✉♥❡ ♣❛r❛❜♦❧❡✳ ▲❡ rés✉❧t❛t r❡st❡ t♦✉t❡❢♦✐s très s❡♠❜❧❛❜❧❡ ❛✉ ♣❛r❝♦✉rs ré❡❧ ❞✉ tr❛✐♥✳✸✳✹✳ ❘és✉❧t❛ts ✼✶ ✭❛✮ ✳ ✭❜✮ ✳ ✭❝✮ ✳ ✭❞✮ ✳ ✭❡✮ ✳ ✭❢✮ ✳ ❋✐❣✉r❡ ✸✳✸✽ ✕ ❘és✉❧t❛ts ❞❡ ❧✬❡①tr❛❝t✐♦♥ ❞❡s r❛✐❧s ♣♦✉r ❞✐✛ér❡♥ts s❝é♥❛r✐♦s ❞❡ ✈♦✐❡✳ ✳❈❤❛♣✐tr❡ ✹ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ❙♦♠♠❛✐r❡ ✹✳✶ ▼♦t✐✈❛t✐♦♥s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼✸ ✹✳✷ ▲❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼✺ ✹✳✸ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼✼ ✹✳✸✳✶ ❯t✐❧✐s❛t✐♦♥ ❞❡ ❧❛ tr❛♥s❢♦r♠é❡ ❇✐r❞ ❡②❡s✬ ✈✐❡✇ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼✼ ✹✳✸✳✷ ❉❡s❝r✐♣t❡✉r ✿ ❚❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼✽ ✹✳✸✳✸ ❉❡s❝r✐♣t❡✉r ✿ ❍✐st♦❣r❛♠♠❡ ❞❡ ❣r❛❞✐❡♥ts ♦r✐❡♥tés ✭❍❖●✮ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✶ ✹✳✹ ❘és✉❧t❛ts ❞❡ ❞ét❡❝t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✹ ✹✳✹✳✶ ▼❛❝❤✐♥❡s à ✈❡❝t❡✉rs ❞❡ s✉♣♣♦rt ✭❙❱▼✮ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✹ ✹✳✹✳✷ ▼❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ❡t ❝♦✉r❜❡ ❘❖❈ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✺ ✹✳✹✳✸ ❘és✉❧t❛ts ❞✉ ❞❡s❝r✐♣t❡✉r ❜❛sé ❡♥ ❚❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✻ ✹✳✹✳✹ ❘és✉❧t❛ts ♦❜t❡♥✉s ❛✈❡❝ ❍❖● ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✼ ✹✳✺ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞✉ t②♣❡ ❞✬❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ✳ ✳ ✳ ✽✾ ✹✳✺✳✶ ❙❱▼ ♠✉❧t✐✲❝❧❛ss❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✵ ✹✳✺✳✷ ❉❡s❝r✐♣t❡✉r ♣r♦♣♦sé ✿ ❍❖● ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✵ ✹✳✺✳✸ ❘és✉❧t❛ts ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✷ ✹✳✶ ▼♦t✐✈❛t✐♦♥s ❯♥ ♣♦✐♥t ✐♠♣♦rt❛♥t ❞❡ ♥♦tr❡ r❡❝❤❡r❝❤❡ ❡st ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡✳ ❊❧❧❡ ♣❡r♠❡ttr❛ ❞❡ ❞ét❡r♠✐♥❡r ❧❛ ③♦♥❡ ❧✐❜r❡ ❞✬♦❜st❛❝❧❡s s✉r ❝❤❛❝✉♥❡ ❞❡s ✷ ✈♦✐❡s✱ t❛♥t ❡♥ ❛✈❛❧ ❞✬✉♥ ❛✐❣✉✐❧❧❛❣❡ ❞✐✈❡r❣❡♥t q✉✬❡♥ ❛♠♦♥t ❞✬✉♥ ❛✐❣✉✐❧❧❛❣❡ ❝♦♥✈❡r❣❡♥t ✭❞✉ ♣♦✐♥t ❞❡ ✧❝r♦✐s❡♠❡♥t ❜♦♥✧ ❛✉ ❝♦❡✉r ❞✬❛✐❣✉✐❧❧❡✮✳ ❘❡✲ ♠❛rq✉❡ ✿ ❝♦♥tr❛✐r❡♠❡♥t à ❧❛ ✈♦✐❡ ❝♦✉r❛♥t❡ ♦ù ✉♥ ✧❢❛✉① ♥é❣❛t✐❢✧ ✭♥♦♥ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡s r❛✐❧s✮ ❡st ✐♥t❡r♣rété ❝♦♠♠❡ ❧❛ ♣rés❡♥❝❡ ❞✬✉♥ ♦❜st❛❝❧❡✱ ❧❛ ♥♦♥ ❞ét❡❝t✐♦♥ ❞✬✉♥ ❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ♣❡✉t ✧♠❛sq✉❡r✧ ✉♥ ♦❜st❛❝❧❡ ✿ ❡❧❧❡ s❡r❛ ❞♦♥❝ ❛ss♦❝✐é❡ à ❧❛ ❞ét❡❝t✐♦♥ ❞✉ ❢❡✉ ❞❡ s✐❣♥❛❧✐s❛t✐♦♥ q✉✐ ♣r♦tè❣❡ ❧✬❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ❡t à ❧❛ ❞ét❡r♠✐♥❛t✐♦♥ ❞❡ s♦♥ ét❛t✳ ❈❡ ❞❡r♥✐❡r ♣♦✐♥t ♥✬❡st ♣❛s tr❛✐té ❞❛♥s ❝❡ tr❛✈❛✐❧✳ ❉✬❛✉tr❡ ♣❛rt✱ ♣♦✉r ❞❡s r❛✐s♦♥s ♣r❛t✐q✉❡s ❡t é❝♦♥♦♠✐q✉❡s✱ ♣♦✉r ❝❡rt❛✐♥s t②♣❡s ❞❡ ❧✐❣♥❡s ❢❡rr♦✈✐❛✐r❡s ✐❧ ♣♦✉rr❛✐t êtr❡ ❡♥✈✐s❛❣❡❛❜❧❡ ❞❡ r❡♠♣❧❛❝❡r ✉♥❡ ♣❛rt✐❡ ♦✉ t♦✉t ❧✬éq✉✐♣❡♠❡♥t ❞❡ ♣♦s✐t✐♦♥♥❡♠❡♥t ♣❧❛❝é ❛✉ ❧♦♥❣ ❞❡ ❧❛ ✈♦✐❡ ♣❛r ❞❡s ❝❛♣t❡✉rs ❜❛s ❝♦ût ❝♦♠♠❡ ❞❡s ❝❛♠ér❛s ❞❡rr✐èr❡ ❧❡ ♣❛r❡✲❜r✐s❡✳ ▲❛ ♣♦s✐t✐♦♥ ❛❜s♦❧✉❡ ❞✉ ✈é❤✐❝✉❧❡ ❞❛♥s ✉♥❡ ✈♦✐❡ ♣❡✉t êtr❡ ❞ét❡r♠✐♥é❡ ❣râ❝❡ à ❧❛ ❞ét❡❝t✐♦♥ ❡t ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ❝♦♠❜✐♥é❡s ❛✈❡❝ ✉♥ r❡♣ér❛❣❡ s✉r ❝❛rt❡ ♥✉♠ér✐q✉❡✱ ❡♥ ❛♥❣❧❛✐s ♠❛♣ ♠❛t❝❤✐♥❣✳ ❬●❡✐st❧❡r ✫ ❇♦❤r✐♥❣❡r ✷✵✵✹❪✳ ❯♥❡ ❞❡s ❧✐♠✐t❛t✐♦♥s ❞❡ ♥♦tr❡ s②stè♠❡ ❝♦♥❝❡r♥❡ ❧✬❛rr✐✈é❡ ❞✬✉♥ ♠étr♦ à ✉♥ ❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ❞✐✈❡r✲ ❣❡❛♥t✳ ▲❡ s②stè♠❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ❞é❝r✐t ❛✉ ❝❤❛♣✐tr❡ ♣ré❝é❞❡♥t ❡st ❝♦♥❢r♦♥té à ❧❛ ❞✐✣❝✉❧té ❞❡ ❞ét❡r♠✐♥❡r ❞❡✉① ❝❤❡♠✐♥s ❧✐❜r❡s ❞✬♦❜st❛❝❧❡s✳ P♦✉r ❝❡❧❛✱ ✐❧ ❞❡✈r❛✐t ❞ét❡❝t❡r ❧❡s ✷ ♣❛✐r❡s ❞❡ r❛✐❧s✳ ❈❡♣❡♥❞❛♥t✱ ❧❛ ♠ét❤♦❞❡ ♣r♦♣♦sé❡ ❞❛♥s ♥♦s tr❛✈❛✉① ❞❡ t❤ès❡ ♣♦✉r ❧✬❡①tr❛❝t✐♦♥ ❞❡s r❛✐❧s ♣r❡♥❞ ❡♥✼✹ ❈❤❛♣✐tr❡ ✹✳ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ❝♦♠♣t❡ s❡✉❧❡♠❡♥t ✉♥❡ ♣❛✐r❡ ❞❡ r❛✐❧s✳ ▲✬♦❜❥❡❝t✐❢ ❞❡ ❝❡tt❡ ♣❛rt✐❡ ❞❡ ♥♦tr❡ ét✉❞❡ ❡st ❞❡ ❞ét❡❝t❡r ❧❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ❛✈❛♥t ❞❡ ❧❡s tr❛✈❡rs❡r✳ ❉❡ ♣❧✉s✱ ✐❧ ❢❛✉t r❡❝♦♥♥❛✐tr❡ s❛ ♥❛t✉r❡✱ ❝✬❡st✲à✲❞✐r❡✱ s✐ ❝✬❡st ✉♥ ❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ❝♦♥✈❡r❣❡♥t❡ ♦✉ ❞✐✈❡r❣❡♥t❡ ❡t s❛ ❞✐r❡❝t✐♦♥ ❞r♦✐t❡ ♦✉ ❣❛✉❝❤❡✳ ❯♥❡ ❢♦✐s ❧✬❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ❞ét❡❝té ❡t r❡❝♦♥♥✉✱ ♥♦✉s ♣♦✉✈♦♥s ♠♦❞✐✜❡r ❧❛ str❛té❣✐❡ ❞✬❡①tr❛❝t✐♦♥ ❞❡s r❛✐❧s✱ ❡♥ ❝❤❡r❝❤❛♥t ❧❡s ✷ ♣❛✐r❡s ❞❡ r❛✐❧s✳ ▲❛ ✜❣✉r❡ ✹✳✶ ♥♦✉s ♠♦♥tr❡ ✉♥ ❡①❡♠♣❧❡ ❞❡ ❧❛ ✈✉❡ ♣❡rç✉❡ ❞❡♣✉✐s ❧✬❛✈❛♥t ❞✉ ♠étr♦ à ❧✬❛rr✐✈é❡ ❞❡ ❞✐✛ér❡♥ts ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡✳ ❊♥ ♦✉tr❡✱ ❧❡ ♠❛♣ ♠❛t❝❤✐♥❣ ♣♦✉rr❛✐t s❡ ré❛❧✐s❡r à ♣❛rt✐r ❞❡ ❧❛ ❝❛rt❡ r❡❝♦♥str✉✐t❡ ♣❛r ♥♦tr❡ s②stè♠❡ ❡t ♠♦♥tré❡ ♣ré❝é❞❡♠♠❡♥t ❞❛♥s ❧❛ ✜❣✉r❡ ✸✳✸✼ ❞❡ ❧❛ s❡❝t✐♦♥ ✸✳✹ ❡t ✉♥❡ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡✳ ❆✐♥s✐✱ ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❞✉ ♠étr♦ ♣❡✉t êtr❡ ré❛❧✐sé❡ ♣❛r tr♦♥ç♦♥s à ♣❛rt✐r ❞✉ s②stè♠❡ ❞❡ ✈✐s✐♦♥ ❝❡ q✉✐ ré❞✉✐t ❧❡ ♥♦♠❜r❡ ❞❡s ❜❛❧✐s❡s ♥é❝❡ss❛✐r❡s✱ ♦✉ ♣❡✉t êtr❡ s✐♠♣❧❡♠❡♥t ❝♦♠♠❡ ✉♥ s②stè♠❡ ❞❡ r❡❞♦♥❞❛♥❝❡✳ ✭❛✮ ❆♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ❞✐✈❡r❣❡♥t à ❣❛✉❝❤❡✳ ✭❜✮ ❆♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ❞✐✈❡r❣❡♥t à ❞r♦✐t❡✳ ❋✐❣✉r❡ ✹✳✶ ✕ ❆♠❜✐❣ü✐tés ❞❡ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s à ❧✬❛♣♣r♦❝❤❡ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ❞✐✈❡r❣❡♥ts✳ ❆❝t✉❡❧❧❡♠❡♥t✱ ✐❧ ❡①✐st❡ ♣❡✉ ❞❡ tr❛✈❛✉① ❞❡ ❞ét❡❝t✐♦♥ ❡t ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ✭❡♥ ❛♥❣❧❛✐s t✉r♥♦✉t✮✳ ▲❡ ♣❧✉s r❡♠❛rq✉❛❜❧❡ ❡st ❧✬ét✉❞❡ ❞❡ ❬❲♦❤❧❢❡✐❧ ✷✵✶✶❪ ré❛❧✐sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ❡t ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡✳ ❈❡ s②stè♠❡ ❛♥❛❧②s❡ ✉♥❡ ♣❛rt✐❡ ❞❡ ❧✬✐♠❛❣❡ à ❧❛ r❡❝❤❡r❝❤❡ ❞❡s r❛✐❧s ❡t ✉♥❡ ❢♦✐s ❞ét❡❝tés ✐❧s s♦♥t ❛♣♣❛r✐és✳ ▲❛ ♣♦s✐t✐♦♥ ❞❡s r❛✐❧s ❞❛♥s ❧✬✐♠❛❣❡ ❡st tr❛♥s❢♦r♠é❡ ❡♥ ❝♦♦r❞♦♥♥é❡s ❣❧♦❜❛❧❡s ✸❉ ❛✈❡❝ ✭❩❂✵✮✱ ❡t à ♣❛rt✐r ❞❡ ❝❡s ❞❡r♥✐èr❡s✱ ✐❧ ❡st ♣♦ss✐❜❧❡ ❞❡ r❡❝ré❡r ✉♥❡ ❝❛rt❡ ❞❡s r❛✐❧s ❡t r❡❝♦♥♥❛✐tr❡ ❧❛ ♣rés❡♥❝❡ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡✳ ▲❛ ✜❣✉r❡ ✹✳✷ ♠♦♥tr❡ ❞❡s ❡①❡♠♣❧❡s ❞❡ ❝❡tt❡ t❡❝❤♥✐q✉❡✳ ▲✬✉♥❡ ❞❡s ♣r✐♥❝✐♣❛❧❡s ❧✐♠✐t❛t✐♦♥s ❞❡ ❝❡tt❡ ❛♣♣r♦❝❤❡ ❡st q✉❡ ❧✬❛♥❛❧②s❡ s✬❡✛❡❝t✉❡ s✉r ✉♥❡ ♣❛rt✐❡ ré❞✉✐t❡ ❞❡ ❧✬✐♠❛❣❡✱ ❝❛r ❧❛ ♠ét❤♦❞❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts ❡st ❧♦✉r❞❡ ❡♥ ❝❛❧❝✉❧ ♣✉✐sq✉✬❡❧❧❡ ❡st ❜❛sé❡ s✉r ❧❡s ✈❛❧❡✉rs ♣r♦♣r❡s ❞❡ ❧✬✐♠❛❣❡ ❡♥ ♥✐✈❡❛✉ ❞❡ ❣r✐s✳ ❉❡ ♣❧✉s✱ ❧❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ s♦♥t ❞ét❡❝tés à ♣❛rt✐r ❞❡ ❧❛ ❝❛rt❡ r❡❝♦♥str✉✐t❡✱ ❡t ♣❛s ❞✐r❡❝t❡♠❡♥t ❞❛♥s ❧✬✐♠❛❣❡✳✹✳✷✳ ▲❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ✼✺ ❋✐❣✉r❡ ✹✳✷ ✕ ❉ét❡❝t✐♦♥ ❞❡s ❛✐❣✉✐❧❧❡s à ♣❛rt✐r ❞❡ ❧❛ ❝❛rt❡ ✸❉ ✭❩❂✵✮ r❡❝♦♥str✉✐t❡✳ ■♠❛❣❡ ❡①tr❛✐t❡ ❞❡ ❬❲♦❤❧❢❡✐❧ ✷✵✶✶❪✳ ✹✳✷ ▲❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ▲❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ♣❡r♠❡tt❡♥t ❞✬❛✐❣✉✐❧❧❡r ✉♥ ✈é❤✐❝✉❧❡ s✉r ✉♥❡ ❛✉tr❡ ✈♦✐❡✳ P♦✉r ❧❡s ♠étr♦s ❱❆▲✱ ❧❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ s♦♥t ❞❡ t②♣❡ ❣✉✐❞❛❣❡ ❝❡♥tr❛❧ ❝♦♠♠❡ ❧❡ ♠♦♥tr❡ ❧❛ ✜❣✉r❡ ✹✳✸✳ ▲❡ s②stè♠❡ à ❣✉✐❞❛❣❡ ❝❡♥tr❛❧ ❝♦♥s✐st❡ à ❞✐s♣♦s❡r ❞❛♥s ❧✬❛①❡ ❞❡ ❧❛ ✈♦✐❡ ✉♥❡ ♦r♥✐èr❡ s✐t✉é❡ s♦✉s ❧❡ ♥✐✈❡❛✉ ❞❡s ♣✐st❡s ❞❡ r♦✉❧❡♠❡♥t✱ ❞❛♥s ❧❛q✉❡❧❧❡ s✬❡♥❣❛❣❡ ✉♥ ❣❛❧❡t✱ à ❛①❡ ❤♦r✐③♦♥t❛❧✱ s♦❧✐❞❛✐r❡ ❞✉ ❝❛❞r❡ ❞❡ ❧✬❡ss✐❡✉ ❞✉ ✈é❤✐❝✉❧❡✳ ▲✬♦r♥✐èr❡ ❡st ❝♦♥st✐t✉é❡ ❞❡ ❞❡✉① r❛✐❧s ✜①és s✉r ❧❡ r❛❞✐❡r ❡t ❡s♣❛❝és ❛✉ ♥✐✈❡❛✉ ❞❡s ❝❤❛♠♣✐❣♥♦♥s ❞❡ ✺ ❝♠✱ ❞✬✉♥❡ ❛✐❣✉✐❧❧❡ ❡♥ ❛❝✐❡r ❞❡ 6 ♠ètr❡s ❞❡ ❧♦♥❣ ❡t ❞✬♦r❣❛♥❡s ❞❡ ❝♦♠♠❛♥❞❡s ✭✉♥ ❣r♦✉♣❡ ❞❡ ♠❛♥÷✉✈r❡ ❤②❞r❛✉❧✐q✉❡ ❡t ✉♥❡ ❛r♠♦✐r❡ ❞❡ ❝♦♠♠❛♥❞❡✮✳ ▲❡s ❡♥tré❡s ❡t ❧❡s s♦rt✐❡s ❞❡ ❧✬♦r♥✐èr❡ s✬❡✛❡❝t✉❡♥t ♣❛r ❞❡s s✐✤❡ts ❞❡ 20 cm ❞✬♦✉✈❡rt✉r❡ q✉✐ t✐❡♥♥❡♥t ❝♦♠♣t❡ ❞❡s ❝❛s ❧❡s ♣❧✉s ❞é❢❛✈♦r❛❜❧❡s ❞❡ ♣rés❡♥t❛t✐♦♥ ❞❡s ❣❛❧❡ts ❞❛♥s ❧✬♦r♥✐èr❡✳ ▲❛ ♣❛rt✐❡ s✉♣ér✐❡✉r❡ ❞❡ ❧✬♦r♥✐èr❡ ❡st ❛✉ ♠ê♠❡ ♥✐✈❡❛✉ q✉❡ ❧❡s ♣✐st❡s ❞❡ r♦✉❧❡♠❡♥t✳ ✭❛✮ ❊①❡♠♣❧❡ ❞✬♦r♥✐èr❡ ♦✉ r❛✐❧ ❝❡♥tr❛❧ ❞❡ ❣✉✐❞❛❣❡✳ ✭❜✮ ❖r♥✐èr❡ ❛✈❡❝ ✉♥ ❣❛❧❡t ❡♥❣❛❣é✳ ❋✐❣✉r❡ ✹✳✸ ✕ ❘❡♣rés❡♥t❛t✐♦♥ ❞❡s é❧é♠❡♥ts ❞✬✉♥ ❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡✳ ▲❡ ❝❤♦✐① ❞❡ ❧❛ ❞✐r❡❝t✐♦♥ s✬❡✛❡❝t✉❡ ♣❛r ✉♥❡ ❛✐❣✉✐❧❧❡ s✐t✉é❡ à ❧✬✐♥tér✐❡✉r ❞❡ ❧✬♦r♥✐èr❡ ❡t q✉✐ ♦r✐❡♥t❡ ❧❡✼✻ ❈❤❛♣✐tr❡ ✹✳ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ✭❛✮ Pr✐♥❝✐♣❡ ❞❡ ❢♦♥❝t✐♦♥♥❡♠❡♥t ❞❡ ❧✬❛✐❣✉✐❧❧❡ ✐♥séré❡ ❞❛♥s ❧✬♦r♥✐èr❡ ✭❜✮ ❱✉❡ ❡♥ ❞ét❛✐❧ ❞✬✉♥❡ ❛✐❣✉✐❧❧❡✳ ❋✐❣✉r❡ ✹✳✹ ✕ ❘❡♣rés❡♥t❛t✐♦♥ ❞✬✉♥ ❛✐❣✉✐❧❧❡ ❡t s♦♥ s❝❤é♠❛✳ ✈é❤✐❝✉❧❡ ❡♥ ✈♦✐❡ ❞✐r❡❝t❡ ♦✉ ❡♥ ✈♦✐❡ ❞é✈✐é❡✳ ▲❡ s❝❤é♠❛ ❞❡ ❧❛ ✜❣✉r❡ ✹✳✹ ✐❧❧✉str❡ ❝❡ ♣r✐♥❝✐♣❡✳ ◆♦✉s ♣♦✉✈♦♥s ♥♦✉s r❡♥❞r❡ ❝♦♠♣t❡ q✉❡ ❞ét❡r♠✐♥❡r ❧❡ ♣♦s✐t✐♦♥♥❡♠❡♥t ❞❡ ❧✬❛✐❣✉✐❧❧❡ ❞❡♣✉✐s ❧❛ ❝❛❜✐♥❡ ❞✉ ❝♦♥❞✉❝t❡✉r ♥✬❡st ♣❛s ✉♥❡ tâ❝❤❡ ❢❛❝✐❧❡✳ ❊♥ ❝♦♥séq✉❡♥❝❡✱ à ❧✬❛rr✐✈é❡ ❞✬✉♥ ❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ❞✐✈❡r❣❡♥t✱ ❧❡ s②stè♠❡ ❞❡ ✈✐s✐♦♥ ♥❡ ♣❡✉t ♣❛s ❞ét❡r♠✐♥❡r ✈❡rs q✉❡❧❧❡ ❞✐r❡❝t✐♦♥ ❡st ❞✐s♣♦sé❡ ❧✬❛✐❣✉✐❧❧❡ ❛✈❛♥t ❞❡ tr❛✈❡rs❡r ❧✬❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡✳ ❈❡❝✐ ❡st ✉♥❡ ❞❡s r❛✐s♦♥s ♣♦✉r ❧❡sq✉❡❧❧❡s ♥♦✉s ❛✈♦♥s ❞é✈❡❧♦♣♣é ✉♥ s②stè♠❡ ❞❡ ❞ét❡❝t✐♦♥ ❡t ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ❞✬❛✐❣✉✐❧❧❡s✳ ▲❡s ❞✐✛ér❡♥ts t②♣❡s ❞✬❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ♣rés❡♥ts s✉r ❧❛ ❧✐❣♥❡ ❖r❧②❱❆▲ s♦♥t ✿ ✕ ❧❡s ❜r❛♥❝❤❡♠❡♥ts✱ q✉✐ ❝♦♠♣♦rt❡♥t ✉♥ s❡✉❧ ❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ❀ ✕ ❧❡s ❝♦♠♠✉♥✐❝❛t✐♦♥s ❞❡ ✈♦✐❡ ✭s✐♠♣❧❡s ♦✉ ❝r♦✐sé❡s✮✱ q✉✐ ❝♦♠♣♦rt❡♥t ✷ ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ❀ ✕ ❧❛ ❥♦♥❝t✐♦♥ ❡♥ ❨✳ ❈❡♣❡♥❞❛♥t✱❧❛ ♠ét❤♦❞❡ ♣r♦♣♦sé❡ ❛ été ♣❡♥sé❡ ♣♦✉r ♣♦✉✈♦✐r êtr❡ ❛❞❛♣t❛❜❧❡ ❛✉① ✈♦✐❡s ❢❡rré❡s ❝❧❛ss✐q✉❡s✱ ♣❛r ❡①❡♠♣❧❡ ❡♥ r❡❝♦♥♥❛✐ss❛♥t ❧❡s ✷ r❛✐❧s ❝ôt❡✲à✲❝ôt❡ q✉❡ ❧✬♦♥ ✈♦✐t ❜✐❡♥ s✉r ❧❛ ✜❣✉r❡ ✹✳✷✳ ▲❡ r❛✐❧ ❞❡ ❣✉✐❞❛❣❡ ❡♥ st❛t✐♦♥ ❯♥ ❝❛s ♣❛rt✐❝✉❧✐❡r ❞✬✉s❛❣❡ ❞✬✉♥ r❛✐❧ ❝❡♥tr❛❧ ❤♦rs ❧❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ❝✬❡st ✓❧❡ r❛✐❧ ❝❡♥tr❛❧ ❡♥ st❛t✐♦♥✔✳ ❈❡ r❛✐❧ ❛ ♣♦✉r ♦❜❥❡❝t✐❢ ❞❡ ❧✐♠✐t❡r ❧❛ r♦t❛t✐♦♥ ❞❡ ❧❛ ❝❛✐ss❡ ❞❛♥s ❧❡s ③♦♥❡s ❞❡ st❛t✐♦♥ ♣♦✉r ♣❡r♠❡ttr❡ ✉♥ ❛❥✉st❡♠❡♥t ❞✉ ❣❛❜❛r✐t ❞❡s ✈é❤✐❝✉❧❡s ♣❛r r❛♣♣♦rt ❛✉① q✉❛✐s✱ ❡♥ ♣❛rt✐❝✉❧✐❡r ❡♥ ❝❛s ❞❡ ❝r❡✈❛✐s♦♥ ❞✬✉♥ ♣♥❡✉ ♣♦rt❡✉r ♦✉ ❞❡ ❣✉✐❞❛❣❡✳ ▲❛ ✜❣✉r❡ ✹✳✺ ♠♦♥tr❡ ✉♥ ❡①❡♠♣❧❡ ❞❡ ❝❡ r❛✐❧✳✹✳✸✳ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ✼✼ ❋✐❣✉r❡ ✹✳✺ ✕ ❘❛✐❧ ❞❡ ❣✉✐❞❛❣❡ ❡♥ st❛t✐♦♥ ✹✳✸ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ P✉✐sq✉❡ ❞❛♥s ❧❡ ❝❛s ❞✬ét✉❞❡✱ ❧❛ ✈♦✐❡ à ❛♥❛❧②s❡r s❡ ❝❛r❛❝tér✐s❡ ♣❛r ❧❛ ♣rés❡♥❝❡ ❞✬✉♥ r❛✐❧ ❝❡♥tr❛❧ ❞❡ ❣✉✐❞❛❣❡ ❞❛♥s ❧❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ q✉✐ ♣❡r♠❡t ❞❡ ❢❛✐r❡ ❜❛s❝✉❧❡r ❧❡ ♠étr♦ ❞✬✉♥❡ ♣✐st❡ ❞❡ r♦✉❧❡♠❡♥t à ❧✬❛✉tr❡✱ ❝❡tt❡ ❝❛r❛❝tér✐st✐q✉❡ ♥♦✉s ♣❡r♠❡ttr❛ ❞ét❡r♠✐♥❡r à ♣❛rt✐r ❞✉ s②stè♠❡ ❞❡ ✈✐s✐♦♥ q✉❡ ❧❡ ♠étr♦ s✬❛♣♣r♦❝❤❡ ❞✬✉♥ ❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡✳ P♦✉r ❢❛❝✐❧✐t❡r ❧❛ tâ❝❤❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡ ❝❡ r❛✐❧ ❞❛♥s ❧✬✐♠❛❣❡✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞❡ t✐r❡r ♣r♦✜t ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s✳ ❈❡❝✐ ♥♦✉s ♣❡r♠❡ttr❛ ❞❡ ré❞✉✐r❡ ❧❛ ③♦♥❡ ❞❡ r❡❝❤❡r❝❤❡ ❞✉ r❛✐❧ ❝❡♥tr❛❧ ❞❡ ❣✉✐❞❛❣❡✳ ❆✐♥s✐✱ ✉♥❡ ❢♦✐s ❞ét❡r♠✐♥é❡ ❧❛ ♣♦s✐t✐♦♥ ❞❡s r❛✐❧s✱ ♥♦✉s ♣♦✉✈♦♥s ❛♥❛❧②s❡r ❧❛ ♠♦r♣❤♦❧♦❣✐❡ ❞❡ ❧✬❡♥tr❡✈♦✐❡ à ✉♥❡ ❝❡rt❛✐♥❡ ❞✐st❛♥❝❡ à ❧✬❛✈❛♥t ❞✉ ♠étr♦✳ ▲✬♦❜❥❡❝t✐❢ ❡st ❞✬✐❞❡♥t✐✜❡r ❧❛ ♣rés❡♥❝❡ ❞✉ r❛✐❧ ❞❡ ❣✉✐❞❛❣❡ ❝❡♥tr❛❧ ❛✈❛♥t ❞✬② ❛rr✐✈❡r✳ ❈❡tt❡ ❞✐st❛♥❝❡ s❡r❛ ❝❤♦✐s✐❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ rés♦❧✉t✐♦♥ s♣❛t✐❛❧❡ ❞❡ ❧❛ ❝❛♠ér❛✳ P✉✐sq✉❡ ❧❛ ♠♦r♣❤♦❧♦❣✐❡ ❞❡ ❧❛ ✈♦✐❡ ❡st ❡ss❡♥t✐❡❧❧❡♠❡♥t ❝♦♥st❛♥t❡✱ ❧✬✉t✐❧✐s❛t✐♦♥ ❞✬✉♥ ❞❡s❝r✐♣t❡✉r ❧♦✲ ❝❛❧ ♣❡✉t ❞♦♥♥❡r ❞❡ très ❜♦♥s rés✉❧t❛ts✳ ▲✬❛♥❛❧②s❡ ❞❡s ❞❡s❝r✐♣t❡✉rs ❧♦❝❛✉① ❜❛sés s✉r ❞❡s ❤✐st♦❣r❛♠♠❡s ❞❡ ❣r❛❞✐❡♥ts ♦r✐❡♥tés ❡♥ ❛♥❣❧❛✐s ❍✐st♦❣r❛♠ ♦❢ ❖r✐❡♥t❡❞ ●r❛❞✐❡♥ts✭❍❖●✮ ❡st très ré♣❛♥❞✉❡ ❡t ❡✣❝❛❝❡ ❝♦♠♠❡ ❧❡ ♠♦♥tr❡♥t ❧❡s ❡①♣ér✐❡♥❝❡s ♦❜t❡♥✉❡s ❛✉ s❡✐♥ ❞✉ ❈❆❖❘ ❬❩❛❦❧♦✉t❛ ✫ ❙t❛♥❝✐✉❧❡s❝✉ ✷✵✶✶❪ ❡t ❬❩❛❦❧♦✉t❛ ❡t ❛❧✳ ✷✵✶✶❪ ré❛❧✐sé❡s ♣♦✉r ❧❛ ❝❛r❛❝tér✐s❛t✐♦♥ ❡t ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ♣❛♥♥❡❛✉① r♦✉t✐❡rs✳ ❊♥ ❝♦♥séq✉❡♥❝❡✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ❧❡s ❍❖● ❡t ❧❡ t❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ ❝♦♠♠❡ t❡❝❤♥✐q✉❡s ❞❡ ❝❛✲ r❛❝tér✐s❛t✐♦♥ ❞❡ ❧❛ ré❣✐♦♥ ❞✬✐♥térêt✳ ❈❡s ❞❡✉① ❞❡s❝r✐♣t❡✉rs s♦♥t ❛❝t✉❡❧❧❡♠❡♥t ✉t✐❧✐sés ❝♦✉r❛♠♠❡♥t ♣❛r ❧❛ ❝♦♠♠✉♥❛✉té ❞❡ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❢♦r♠❡s ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ♦✉ ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞✬♦❜❥❡ts✳ ✹✳✸✳✶ ❯t✐❧✐s❛t✐♦♥ ❞❡ ❧❛ tr❛♥s❢♦r♠é❡ ❇✐r❞ ❡②❡s✬ ✈✐❡✇ ❆✈❡❝ ❧✬♦❜❥❡❝t✐❢ ❞✬❤♦♠♦❣é♥é✐s❡r ❧❡s ✐♠❛❣❡s ❞❡s ❞✐✛ér❡♥ts t②♣❡s ❞✬❛✐❣✉✐❧❧❡s✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞✬♦❜✲ t❡♥✐r ✉♥❡ ✐♠❛❣❡ ❡♥ ✈✉❡ ✈♦❧ ❞✬♦✐s❡❛✉ ❞✬✉♥❡ ♣♦rt✐♦♥ ❞❡ ❧❛ ✈♦✐❡ à ❧✬❛✈❛♥t ❞✉ ♠étr♦✳ ❈❡tt❡ ♣♦rt✐♦♥ r❡❝t❛♥❣✉❧❛✐r❡ ❛✉r❛ ✉♥❡ ❧❛r❣❡✉r q✉✐ ❝♦✉✈r✐r❛ ✉♥ ♣❡✉ ♣❧✉s q✉❡ ❧✬é❝❛rt❡♠❡♥t ❞❡s r❛✐❧s ❡t 1 ♠ètr❡ ❞❡ ❤❛✉t❡✉r✳ ➚ ♣❛rt✐r ❞❡ ❧❛ tr❛♥s❢♦r♠é❡ ❡♥ ✈✉❡ ❞✬♦✐s❡❛✉✱ ♥♦✉s ♣♦✉✈♦♥s ♦❜t❡♥✐r ❞❡s ✐♠❛❣❡s ■P▼ ✭■♥✈❡rs❡ P❡rs♣❡❝t✐✈❡ ▼❛♣♣✐♥❣✮ ❞❛♥s ❧❡sq✉❡❧❧❡s ❧❛ ❞é❢♦r♠❛t✐♦♥ ❡♥ ♣❡rs♣❡❝t✐✈❡ ❛ ❞✐s♣❛r✉✱ ❝♦♠♠❡ ❧❡ ♠♦♥tr❡ ❧❛ ✜❣✉r❡ ✹✳✻✳ ▲✬❡✛❡t ❞✬❛✈♦✐r ❞❡s ✐♠❛❣❡s ❞❡ ❧❛ ♠ê♠❡ t❛✐❧❧❡ ❡t ❛✈❡❝ ❞❡s ❝❛r❛❝tér✐st✐q✉❡s s✐♠✐❧❛✐r❡s ♥♦✉s✼✽ ❈❤❛♣✐tr❡ ✹✳ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ♣❡r♠❡ttr❛ ❞❡ ♠✐❡✉① ❞✐✛ér❡♥❝✐❡r ❧❛ ♠♦r♣❤♦❧♦❣✐❡ ❞❡ ❧✬❡♥tr❡✈♦✐❡ ♣♦✉r ❧❡s ✐♠❛❣❡s q✉✐ ❝♦♥t✐❡♥♥❡♥t ❧❡ r❛✐❧ ❝❡♥tr❛❧ ❞❡ ❣✉✐❞❛❣❡ ❡t ❧❡s ✐♠❛❣❡s s❛♥s✳ ✭❛✮ ■♠❛❣❡ ❡♥ ♣❡rs♣❡❝✲ t✐✈❡✳ ✭❜✮ P❡rs♣❡❝t✐✈❡ s✉♣✲ ♣r✐♠é❡✳ ❋✐❣✉r❡ ✹✳✻ ✕ ❚r❛♥s❢♦r♠❛t✐♦♥ ❡♥ ✈✉❡ ❞✬♦✐s❡❛✉✳ ■♠❛❣❡ ❡①tr❛✐t❡ ❞❡ ❬▼❛✐r❡ ✫ ❇✐❣❞❡❧✐ ✷✵✶✵❪ ❯♥ ❡①❡♠♣❧❡ ❞❡ ❧❛ ③♦♥❡ ❝❤♦✐s✐❡ ♣♦✉r ❞ét❡r♠✐♥❡r ❧❛ ♣rés❡♥❝❡ ❞✬✉♥ ❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ❡st ♣rés❡♥té ❞❛♥s ❧❛ ✜❣✉r❡ ✹✳✼ ♣❛r ✉♥ r❡❝t❛♥❣❧❡ r♦✉❣❡✳ ▲❡s ✐♠❛❣❡s ■P▼ ♦❜t❡♥✉❡s s♦♥t ❛✉ss✐ r❡♣rés❡♥té❡s ❡t ♥♦✉s ♣♦✉✈♦♥s ✈♦✐r ❝♦♠♠❡♥t✱ à ♣❛rt✐r ❞❡ ❝❡tt❡ tr❛♥s❢♦r♠❛t✐♦♥ ❧❡s ✐♠❛❣❡s ❞❡✈✐❡♥♥❡♥t ❤♦♠♦❣è♥❡s ❡t ✐♥❞é♣❡♥❞❛♥t❡s ❞❡ ❧❡✉r ❢♦r♠❡ ❞✬♦r✐❣✐♥❡ ✭❧✐❣♥❡ ❞r♦✐t❡✱ ✈✐r❛❣❡✱ ❡t❝✮✳ ✹✳✸✳✷ ❉❡s❝r✐♣t❡✉r ✿ ❚❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ ▲✬❛♣♣r♦❝❤❡ ♣❛r ❝♦rré❧❛t✐♦♥ ✭t❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣✱ ❡♥ ❛♥❣❧❛✐s✮❬❇r✉♥❡❧❧✐ ✷✵✵✾❪ ❡st ❜❛sé❡ s✉r ✉♥❡ ♠❡✲ s✉r❡ ❞❡ s✐♠✐❧❛r✐té ❡♥tr❡ ❧✬✐♠❛❣❡ ❡t ✉♥ ♠♦❞è❧❡ ❞❡ ❧✬♦❜❥❡t r❡❝❤❡r❝❤é✳ ❈❡tt❡ t❡❝❤♥✐q✉❡ ❛ été ❝♦✉r❛♠♠❡♥t ✉t✐❧✐sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ♣❛r ✈✐s✐♦♥✱ r❡❝♦♥♥❛✐ss❛♥❝❡ ❢❛❝✐❛❧❡ ❡t ♠ê♠❡ ♣♦✉r ❞❡s tâ❝❤❡s ❞❡ ❝♦♠♣t❛❣❡ ❞✬♦❜❥❡ts ❞❛♥s ❧❡ ♠✐❧✐❡✉ ✐♥❞✉str✐❡❧ ❬❉❤❛r♣✉r❡ ❡t ❛❧✳ ✷✵✶✸❪ ❡t ❬❆❦s♦② ❡t ❛❧✳ ✷✵✵✹❪✳ ❈❡tt❡ t❡❝❤♥✐q✉❡ ❝❤❡r❝❤❡ à ♠❡ttr❡ ❡♥ é✈✐❞❡♥❝❡ ❧❡s ré❣✐♦♥s ❞❡ ❧✬✐♠❛❣❡ r❡ss❡♠❜❧❛♥t ❧❡ ♣❧✉s à ❧✬♦❜❥❡t r❡❝❤❡r❝❤é ♣❛r ❧❡ ❝❛❧❝✉❧ ❞✬✉♥❡ ♠❡s✉r❡ ❞❡ ❝♦rré❧❛t✐♦♥✳ ❙♦♥ ♣r✐♥❝✐♣❡ ❡st très s✐♠♣❧❡ ✿ ✐❧ ❝♦♥s✐st❡ ❡♥ ❧❛ ♠✐s❡ ❡♥ ❝♦rr❡s♣♦♥❞❛♥❝❡ ❞✬✉♥ ♠♦❞è❧❡ ❞❡ ❧✬♦❜❥❡t ❞é✜♥✐ ♣❛r ✉♥ t❡♠♣❧❛t❡ T✱ q✉✐ ♥✬❡st r✐❡♥ ❞✬❛✉tr❡ q✉✬✉♥❡ ✐♠❛❣❡ ❞❡ ❧✬♦❜❥❡t ❧✉✐✲♠ê♠❡✱ ♣❛r ❝♦♥✈♦❧✉t✐♦♥ ❞✉ ♠♦❞è❧❡ ❛✈❡❝ ❧✬✐♠❛❣❡ I✳ P♦✉r ❝❤❡r❝❤❡r ❧❡ t❡♠♣❧❛t❡ T(x, y) ❞❡ t❛✐❧❧❡ (nx, ny) t♦✉t ❛✉ ❧♦♥❣ ❞❡s ❞❡✉① ❞✐♠❡♥s✐♦♥s ❞❡ ❧✬✐♠❛❣❡ I(x, y) ❞❡ t❛✐❧❧❡ mx, my ♦ù nx < mx ❡t ny < my✱ ❧❛ ❝♦rré❧❛t✐♦♥ ❝r♦✐sé❡ ♥♦r♠❛❧✐sé❡ γ(u, v) ❡st ❝❛❧❝✉❧é❡ ♣♦✉r ❝❤❛q✉❡ ♣♦✐♥t (u, v) ♣♦✉r I ❡t T ❝♦♠♠❡ ❧❡ ♠♦♥tr❡ ❧✬éq✉❛t✐♦♥ ✹✳✶ ✿ γ(u, v) = P x P y [I(x, y) − µ(I(u, v)).[T(x − u, y − v) − µ(T)]] rP x P y [I[(x, y) − µ(I(u, v))]2. P x P y [T(x − u, y − v) − µ(T)]2 ✭✹✳✶✮ ♦ù u ∈ 1, ..., mx − nx + 1✱ v ∈ 1, ..., my − ny + 1 ❡t µ(I(u, v)) r❡♣rés❡♥t❡ ❧❛ ✈❛❧❡✉r ♠♦②❡♥♥❡ ❞❡ I(x, y) ❞❛♥s ❧❛ s❡❝t✐♦♥ à ❝♦rré❧❡r✱ ❡t µ(T) ❧❛ ♠♦②❡♥♥❡ ❞✉ t❡♠♣❧❛t❡ T✳ P✉✐sq✉❡ ❧❡ ❞é♥♦♠✐♥❛t❡✉r ❞❡ ✹✳✶ ❡st ❧❛ ✈❛r✐❛♥❝❡ ❞❡s ❞❡✉① ✐♠❛❣❡s I(x, y)−µ(I(u, v) ❡t T(x−u, y−u)−µ(T)✱ ❧❛ ❝♦rré❧❛t✐♦♥ ❝r♦✐sé❡ ♥♦r♠❛❧✐sé❡ ❡st ♣❛rt✐❝✉❧✐èr❡♠❡♥t ❡✣❝❛❝❡ ♣♦✉r ❝♦♠♣❛r❡r ❧✬✐♠❛❣❡ ❡t ❧❡ ♠♦❞è❧❡✱ ❝❛r ❡❧❧❡ ❡st r♦❜✉st❡ ❛✉① ✈❛r✐❛t✐♦♥s ❧♦❝❛❧❡s ❞✬✐♥t❡♥s✐té✳ ▲✬✐♥t❡r✈❛❧❧❡ ❞❡s rés✉❧t❛ts ❞❡ γ(u, v) ❡st [−1.0, 1.0]✱ ♦ù ✉♥❡ ✈❛❧❡✉r ❞❡ 1 ❝♦rr❡s♣♦♥❞ à ✉♥❡ ♣❛r❢❛✐t❡ ❝♦rr❡s♣♦♥❞❛♥❝❡✳ ❈❡❝✐ ❢❛✐t q✉❡ ♣♦✉r ❞ét❡r♠✐♥❡r ❧❛ ♣rés❡♥❝❡ ❞✬✉♥ ♦❜❥❡t ✐❧ ❢❛✉t ❞é✜♥✐r ✉♥ s❡✉✐❧ ❞❡ r❡ss❡♠❜❧❛♥❝❡✳ ❯♥ ❡①❡♠♣❧❡ ❞❡ ❝♦rré❧❛t✐♦♥ ❝r♦✐sé❡ ❜✐❞✐♠❡♥s✐♦♥♥❡❧❧❡ ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✹✳✽✳ ▲❡ ♠❛①✐♠✉♠ ❞❡ ❧❛ ✜❣✉r❡ ✹✳✽❝ r❡♣rés❡♥t❡ ❧❛ ♣♦s✐t✐♦♥ (u, v) ♣♦✉r ❧❛q✉❡❧❧❡ ❧❛ ❝♦rr❡s♣♦♥❞❛♥❝❡ ❡♥tr❡ ❧✬✐♠❛❣❡ I ❡t ❧❡ t❡♠♣❧❛t❡ T ❡st ♠❛①✐♠❛❧❡✳✹✳✸✳ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ✼✾ ✭❛✮ ■♠❛❣❡ ❡♥ ♣❡rs♣❡❝t✐✈❡ ❛✈❡❝ ✉♥ ✈✐r❛❣❡ à ❣❛✉❝❤❡✳ ✭❜✮ ■P▼ r❡❝♦♥str✉✐t✳ ✭❝✮ ■♠❛❣❡ ❡♥ ♣❡rs♣❡❝t✐✈❡ ❛✈❡❝ ✉♥ ✈✐r❛❣❡ à ❞r♦✐t❡ ✭❞✮ ■P▼ r❡❝♦♥str✉✐t✳ ✭❡✮ ■♠❛❣❡ ❡♥ ♣❡rs♣❡❝t✐✈❡ ❡♥ ❧✐❣♥❡ ❞r♦✐t❡✳ ✭❢✮ ■P▼ r❡❝♦♥str✉✐t✳ ❋✐❣✉r❡ ✹✳✼ ✕ ❊①tr❛❝t✐♦♥ ❞❡ ❧❛ ③♦♥❡ ❞❡ r❡❝❤❡r❝❤❡ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ❡t ❧✬✐♠❛❣❡ ■P▼ ♦❜t❡♥✉❡✳ ❈❡♣❡♥❞❛♥t✱ ❧❡ ✭t❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ s♦✉✛r❡ ❞✬✉♥❡ s❡♥s✐❜✐❧✐té à ❧❛ ✈❛r✐❛♥❝❡ ✐♥tr❛✲❝❧❛ss❡ ❡t ❛✉① ❝❤❛♥✲ ❣❡♠❡♥ts ❞❡ ♣♦✐♥ts ❞❡ ✈✉❡✳ ❉❡ ♣❧✉s✱ ❝❡s ♠ét❤♦❞❡s r❡❧❛t✐✈❡♠❡♥t s✐♠♣❧❡s à ♠❡ttr❡ ❡♥ ÷✉✈r❡ s♦♥t ❧♦✉r❞❡s ❡♥ t❡♠♣s ❞❡ ❝❛❧❝✉❧✳ P♦✉r s✉r♠♦♥t❡r ❝❡s ✐♥❝♦♥✈é♥✐❡♥ts✱ ♥♦✉s ❛✈♦♥s ♣r♦✜té ❞❡ ❧❛ ❝♦♥♥❛✐ss❛♥❝❡ ❛✲♣r✐♦r✐ ❞❡ ❧❛ ✈♦✐❡ ❡t ❞❡ ❧✬❤♦♠♦❣é♥é✐s❛t✐♦♥ ♦❜t❡♥✉❡ ❛✈❡❝ ❧❡s ✐♠❛❣❡s ■P▼✳ ❈✬❡st✲à✲❞✐r❡✱ ❧❡s ❞é♣❧❛❝❡♠❡♥ts (u, v) s✉✐✈✐s ♣❛r ❧❡✽✵ ❈❤❛♣✐tr❡ ✹✳ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ✭❛✮ ■♠❛❣❡ I ✭❜✮ ❚❡♠♣❧❛t❡ ✭❝✮ P❧❛♥ ❞❡ ❝♦rré❧❛t✐♦♥ ❝r♦✐sé❡ γ(u, v) ❋✐❣✉r❡ ✹✳✽ ✕ ❘és✉❧t❛t ❞❡ ❧❛ ❝♦rré❧❛t✐♦♥ ❝r♦✐sé❡ ♥♦r♠❛❧✐sé❡✳ t❡♠♣❧❛t❡ ✈♦♥t êtr❡ ré❞✉✐ts ❛✉ ♠✐♥✐♠✉♠✱ ❡t ♣✉✐sq✉❡ t♦✉s ❧❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ s♦♥t éq✉✐♣és ❞✉ r❛✐❧ ❞❡ ❣✉✐❞❛❣❡ ❝❡♥tr❛❧ ♦✉ ♦r♥✐èr❡✱ ❝✬❡st s❡✉❧❡♠❡♥t ❧❛ ♣❛rt✐❡ ❝❡♥tr❛❧❡ ❞❡ ❝❡s ✐♠❛❣❡s q✉✐ s❡r❛ ❛♥❛❧②sé❡✳ ◆♦✉s ❛✈♦♥s ❞é✜♥✐ ❝♦♠♠❡ ♦❜❥❡t ❧❡ r❛✐❧ ❝❡♥tr❛❧ ❡t ♥♦✉s ❧✬❛✈♦♥s ❛ss♦❝✐é à ✉♥ t❡♠♣❧❛t❡ T✱ ❡t ❧❡s ❞é♣❧❛❝❡♠❡♥ts (u, v) s❡ ❧✐♠✐t❡r♦♥t ❛✉① ❛❧❡♥t♦✉rs ❞❡ ❧❛ ♣♦s✐t✐♦♥ t❤é♦r✐q✉❡ ❞✉ r❛✐❧ ❞❡ ❣✉✐❞❛❣❡ ❞❛♥s ❧❛ ♣❛rt✐❡ ❝❡♥tr❛❧❡ ❞❡ ❧✬✐♠❛❣❡ ■▼P✳ ❉❡ ♣❧✉s✱ ♣✉✐sq✉❡ t♦✉t❡s ❧❡s ✐♠❛❣❡s ❛✉r♦♥t ❧❛ ♠ê♠❡ t❛✐❧❧❡ ❡t q✉❡ ❧❡ r❛✐❧ ❝❡♥tr❛❧ ♦❝❝✉♣❡r❛ t♦✉t ♦✉ ✉♥❡ ♣❛rt✐❡ ❞❡ ❧✬✐♠❛❣❡✱ ❧❡s ❞é♣❧❛❝❡♠❡♥ts ✈❡rt✐❝❛✉① ❞❡ T ♥❡ s❡r♦♥t ♣❧✉s ♥é❝❡ss❛✐r❡s✱ ❝❡ q✉✐ ré❞✉✐t ❝♦♥s✐❞ér❛❜❧❡♠❡♥t ❧❡ t❡♠♣s ❞❡ ❝❛❧❝✉❧✳ ▲❛ ✜❣✉r❡ ✹✳✾ ♠♦♥tr❡ ✉♥ ❡①❡♠♣❧❡ ❞✬✐♠❛❣❡ ■P▼✱ ❞❡ ❧❛ ♣❛rt✐❡ ❞✬✐♠❛❣❡ à ❛♥❛❧②s❡r ❡t ❞✉ t❡♠♣❧❛t❡ T✳ ✭❛✮ s❡❝t✐♦♥ ❞✉ ✈✉❡ ❞✬♦✐ss❡❛✉ ✭❜✮ P❛rt✐❡ ❝❡♥tr❛❧❡ ✭❝✮ ❚❡♠♣❧❛t❡ ❋✐❣✉r❡ ✹✳✾ ✕ ❚r❛♥s❢♦r♠❛t✐♦♥ ❡♥ ✈✉❡ ❞✬♦✐s❡❛✉ ❈♦♠♠❡ ✐♥❞✐q✉é ♣ré❝é❞❡♠♠❡♥t✱ ♣❧✉s ❧❛ ✈❛❧❡✉r ❞❡ γ(u, v) ❡st ♣r♦❝❤❡ ❞❡ 1✱ ♣❧✉s ❧❛ r❡ss❡♠❜❧❛♥❝❡ ❡♥tr❡ ❧✬✐♠❛❣❡ ❡t ❧❡ ♠♦❞è❧❡ ❡st ❣r❛♥❞❡✳ ❊♥ ♣r♦✜t❛♥t ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ ❧✬♦❜❥❡t à r❡❝♦♥♥❛✐tr❡✱ à s❛✈♦✐r ❞❡✉① r❛✐❧s ✈❡rt✐❝❛✉① é❝❛rtés ❞✬✉♥❡ ♣❡t✐t❡ ❞✐st❛♥❝❡✱ ♥♦✉s ♣♦✉✈♦♥s ✈♦✐r s✉r ❧❛ ✜❣✉r❡ ❄❄ q✉❡ ❧✬❛✉t♦✲❝♦rré❧❛t✐♦♥ ❞✉ t❡♠♣❧❛t❡ ❛ ✉♥❡ ❢♦r♠❡ s♣é❝✐✜q✉❡✳ ▲❡s ❞❡✉① r❛✐❧s ❞❡ ❧✬♦r♥✐èr❡ ❢♦♥t ❛♣♣❛r❛✐tr❡ ❞❡✉① ♣✐❝s s②♠étr✐q✉❡s ❞❡ ❝❤❛q✉❡ ❝ôté ❞✉ ♣✐❝ ♣r✐♥❝✐♣❛❧ ❝♦♠♠❡ ♦♥ ♣❡✉t ❧❡ ✈♦✐r s✉r ❧❛ ✜❣✉r❡ ✹✳✶✵✳ ▲❡ ♣✐❝ ♣r✐♥❝✐♣❛❧ ❝♦rr❡s♣♦♥❞ à ❧❛ ♣♦s✐t✐♦♥ (u, v) ♣♦✉r ❧❛q✉❡❧❧❡ ❧❛ r❡ss❡♠❜❧❛♥❝❡ ❡st ♣❛r❢❛✐t❡✱ ❡t ❧❡s ❞❡✉① ♣✐❝s ❧❛tér❛✉①✱ ❝♦rr❡s♣♦♥❞❡♥t ❛✉① ❞é♣❧❛❝❡♠❡♥ts ♦ù ❧❡ r❛✐❧ ♦♣♣♦sé ❞✉ t❡♠♣❧❛t❡ ❞é♣❧❛❝é ❡st s✉♣❡r♣♦sé ❛✉ r❛✐❧ ♦♣♣♦sé ❞❡ ❧✬✐♠❛❣❡✳ ❉♦♥❝✱ à ♣❛rt✐r ❞❡ ❧❛ ré♣♦♥s❡ ❞✬❛✉t♦✲❝♦rré❧❛t✐♦♥ ♥♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ❝♦♠♠❡ ❞❡s❝r✐♣t❡✉r ❧❛ s♦♠♠❡ ❞❡ ❝❡s 3 s♦♠♠❡ts ♠♦✐♥s ❧❛ s♦♠♠❡ ❞❡s ✈❛❧❡✉rs ❞❡ 2 ✈❛❧❧é❡s✱ ❝♦♠♠❡ ✐♥❞✐q✉é ❞❛♥s ❧✬éq✉❛t✐♦♥ ✹✳✷✳ P✉✐sq✉✬✐❧ ❢❛✉t ❞ét❡r♠✐♥❡r ✉♥ s❡✉✐❧ ❞❡ r❡ss❡♠❜❧❛♥❝❡✱ ♥♦tr❡ ♦❜❥❡❝t✐❢ ❛✈❡❝ ❝❡ ❞❡s❝r✐♣t❡✉r ❡st ❞❡ ♣r♦✜t❡r ❞❡ ❧❛ ❢♦r♠❡ ❞❡ ♥♦tr❡ ♦❜❥❡t ♣♦✉r ❛♠é❧✐♦r❡r ❧❡s rés✉❧t❛ts ❞❡ ❞ét❡❝t✐♦♥✳✹✳✸✳ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ✽✶ ❋✐❣✉r❡ ✹✳✶✵ ✕ ❆✉t♦✲❝♦rré❧❛t✐♦♥ ❞✉ t❡♠♣❧❛t❡✳ ❋✐❣✉r❡ ✹✳✶✶ ✕ ❈♦♠♣❛r❛t✐✈❡ ❡♥tr❡ ❧❛ ✈❛❧❡✉r ♠❛①✐♠❛❧❡ ❞❡ ❧❛ ❝♦rré❧❛t✐♦♥ ❝r♦✐sé❡ ❡t ❧❡ ❞❡s❝r✐♣t❡✉r ♣r♦♣♦sé ♣♦✉r ✉♥❡ sér✐❡ ❞❡ ❝♦rré❧❛t✐♦♥s ❝r♦✐sé❡s✳ ▲❡s ♣♦✐♥ts ❜❧❡✉s r❡♣rés❡♥t❡♥t ❧❡ rés✉❧t❛t ♣♦✉r ❞❡s ✐♠❛❣❡s s❛♥s r❛✐❧ ❞❡ ❣✉✐❞❛❣❡✱ ❡t ❧❡s ♣♦✐♥ts r♦✉❣❡s✱ ❧❡s ✐♠❛❣❡s ❞❛♥s ❧❡sq✉❡❧❧❡s ✐❧ ② ❡♥ ❛✳ Descripteur= X 3 i=1 pic − X 2 i=1 vallee´ ✭✹✳✷✮ ❈♦♠♠❡ ❛tt❡♥❞✉✱ ❧❡s ✜❣✉r❡s ❞❡ ✹✳✶✶ ♠♦♥tr❡♥t ❧✬❛♠é❧✐♦r❛t✐♦♥ ❞✉ ♣♦✉✈♦✐r ❞❡ ❞✐s❝r✐♠✐♥❛t✐♦♥ ❡♥tr❡ ❧❛ s✐♠♣❧❡ ❝♦rré❧❛t✐♦♥ ❝r♦✐sé❡ ❡t ❧❡ ❞❡s❝r✐♣t❡✉r ♣r♦♣♦sé✳ ✹✳✸✳✸ ❉❡s❝r✐♣t❡✉r ✿ ❍✐st♦❣r❛♠♠❡ ❞❡ ❣r❛❞✐❡♥ts ♦r✐❡♥tés ✭❍❖●✮ ❈❡ ❞❡s❝r✐♣t❡✉r ♣r♦♣♦sé ♣❛r ❬❉❛❧❛❧ ✫ ❚r✐❣❣s ✷✵✵✺❪ ❡st ✉t✐❧✐sé ♣r✐♥❝✐♣❛❧❡♠❡♥t ❡♥ ✈✐s✐♦♥ ♣❛r ♦r✲ ❞✐♥❛t❡✉r ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ♣✐ét♦♥s ❡t ❞✬♦❜❥❡ts✳ ■❧ s✬❡st ré✈é❧é ♣❛rt✐❝✉❧✐èr❡♠❡♥t ❡✣❝❛❝❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ♣❡rs♦♥♥❡s✱ ❝❛r ❧✬❛♣♣❛r❡♥❝❡ ❧♦❝❛❧❡ ❡t ❧❛ ❢♦r♠❡ ❞✬✉♥ ♦❜❥❡t ♣❡✉✈❡♥t êtr❡ ❞é❝r✐t❡s ♣❛r ❧❛ ❞✐str✐❜✉t✐♦♥ ❞✬✐♥t❡♥s✐té ❡t ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡ s❡s ❣r❛❞✐❡♥ts✳ ▲✬❤✐st♦❣r❛♠♠❡ ❡st ✉♥ ♦✉t✐❧ q✉✐ ♥♦✉s ♣❡r♠❡t ❞❡ r❡♣rés❡♥t❡r ❧❛ ré♣❛rt✐t✐♦♥ ❞✬✉♥❡ ✈❛r✐❛❜❧❡ s✉r ✉♥❡ ♣♦♣✉❧❛t✐♦♥✳ ❉❛♥s ❧❡ ❝❛s ❞❡ ❍❖●✱ ❝❡tt❡ ✈❛r✐❛❜❧❡ ❡st ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts ❡t ❧❛ ♣♦♣✉❧❛t✐♦♥ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣✐①❡❧s ❞❡ ❧✬✐♠❛❣❡✳ ❍❖● ❞é✜♥✐t ❛❧♦rs ❞❛♥s ✉♥❡ ré❣✐♦♥ ✭❜❧♦❝✮ ❧❡s ♣r♦♣♦rt✐♦♥s ❞❡ ♣✐①❡❧s ❞♦♥t ❧✬♦r✐❡♥t❛t✐♦♥ ❞✉ ❣r❛❞✐❡♥t ❛♣♣❛rt✐❡♥t à ✉♥ ❝❡rt❛✐♥ ✐♥t❡r✈❛❧❧❡ ✭❜✐♥✮✳ ❈❡s ♣r♦♣♦rt✐♦♥s ❝❛r❛❝tér✐s❡♥t ❧❛ ❢♦r♠❡ ♣rés❡♥t❡ ❞❛♥s ❝❡tt❡ ré❣✐♦♥ ❛✉ ♣♦✐♥t q✉❡ ❧❡ ❍❖● ♣❡✉t ❛❧♦rs êtr❡ ✉t✐❧✐sé ❡♥ t❛♥t q✉❡ ❞❡s❝r✐♣t❡✉r ❞❡ ❢♦r♠❡✳ P♦✉r ♦❜t❡♥✐r ❝❡ ❞❡s❝r✐♣t❡✉r✱ ❧✬✐♠❛❣❡ ❡st ❞✐✈✐sé❡ ❞❡ ❢❛ç♦♥ ❞❡♥s❡ ❡♥ Ncolonne × Mligne ❜❧♦❝s✱ ❡t ❝❡s ❜❧♦❝s s♦♥t ❡♥s✉✐t❡ ❞✐✈✐sés à ❧❛ ❢♦✐s ❡♥ ❝❡❧❧✉❧❡s✳ ▲❡ ♥♦♠❜r❡ ❞❡ ❜❧♦❝s ❡t ❞❡ ❝❡❧❧✉❧❡s s♦♥t ❛❧♦rs ❞❡s ✈❛r✐❛❜❧❡s à ❝❤♦✐s✐r ❞ès ❧❛ ♣r❡♠✐èr❡ ét❛♣❡ ❞❡ ❧✬❛❧❣♦r✐t❤♠❡✳ ❯♥ ❡①❡♠♣❧❡ ❞✬✉♥❡ ❞✐✈✐s✐♦♥ ❡st ♠♦♥tré ❞❛♥s ❧✬✐♠❛❣❡ ✹✳✶✷❛✳✽✷ ❈❤❛♣✐tr❡ ✹✳ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ✭❛✮ ❉✐✈✐s✐♦♥ ❞❡ ❧✬✐♠❛❣❡ ❡♥ ❜❧♦❝s ❡t ❝❡❧❧✉❧❡s✳ ✭❜✮ ❘és✉❧t❛t ❞❡ ❞ét❡❝t✐♦♥ ❞❡s ♣❡rs♦♥♥❡s à ♣❛rt✐r ❞❡ ❍❖● ❋✐❣✉r❡ ✹✳✶✷ ✕ ❊①❡♠♣❧❡ ❞❡ ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❍❖● ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ♣✐ét♦♥s✳ P♦✉r ❝❤❛q✉❡ ♣✐①❡❧ ❞❡ ❧✬✐♠❛❣❡ ♥♦✉s ❛♣♣❧✐q✉♦♥s ✉♥ ♠❛sq✉❡ H✭❙♦❜❡❧✮ ♣✉✐s HT ♣♦✉r ♦❜t❡♥✐r ❧❡s ❣r❛❞✐❡♥ts ❤♦r✐③♦♥t❛✉① ❡t ✈❡rt✐❝❛✉① Gx ❡t Gy r❡s♣❡❝t✐✈❡♠❡♥t✳ Gx =   +1 0 −1 +2 0 −2 +1 0 −1   ∗ I et Gy =   +1 +2 +1 0 0 0 −1 −2 −1   ∗ I ✭✹✳✸✮ ❖♥ ♦❜t✐❡♥t ❧❛ ♠❛❣♥✐t✉❞❡ ❞✉ ❣r❛❞✐❡♥t G = q Gx 2 + Gy 2 ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts Θ = tan−1 (Gx, Gy)✳ ▲❡ ✈❡❝t❡✉r ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ❡st ❡♥s✉✐t❡ ❢♦r♠é ♣♦✉r ❝❤❛q✉❡ ❝❡❧❧✉❧❡✱ ❝✬❡st✲à✲❞✐r❡✱ ❞❡s ❤✐st♦❣r❛♠♠❡s ❞❡s ❣r❛❞✐❡♥ts ♦r✐❡♥tés ❞❛♥s ❧❛ ❝❡❧❧✉❧❡ ♦ù ❧✬❛♠♣❧✐t✉❞❡ s❡rt ❞❡ ♣♦✐❞s✳ P✉✐s ♦♥ ❝♦♥❝❛tè♥❡ ❧❡s ❤✐st♦✲ ❣r❛♠♠❡s ❞❡s ❝❡❧❧✉❧❡s ❞❛♥s ❧❡ ❜❧♦❝ ♣♦✉r ✜♥❛❧❡♠❡♥t✱ ♥♦r♠❛❧✐sé ❡♥ ✐♥t❡♥s✐té ❝❤❛q✉❡ ❜❧♦❝✳ ❯♥ ❜♦♥ ❝♦♠♣r♦♠✐s ❞♦✐t êtr❡ tr♦✉✈é ❡♥tr❡ ❧❛ t❛✐❧❧❡ ❞❡s ❝❡❧❧✉❧❡s ❡t ❧❛ t❛✐❧❧❡ ❞❡s ❜❧♦❝s✳ ❊♥ ❡✛❡t✱ s✐ ❧❡ ♥♦♠❜r❡ ❞❡ ❝❡❧❧✉❧❡s ❞❛♥s ✉♥ ❜❧♦❝ ❡st é❧❡✈é✱ ❧❡ ❞❡s❝r✐♣t❡✉r ❡st ♣ré❝✐s✳ ❆✉ss✐✱ ♣♦✉r ♦❜t❡♥✐r ♣❧✉s ❞✬✐♥❢♦r♠❛t✐♦♥✱ ✐❧ ❡st r❡❝♦♠♠❛♥❞é ❞❡ ❝❤❡✈❛✉❝❤❡r ❧❡s ❜❧♦❝s ❬❉❛❧❛❧ ✫ ❚r✐❣❣s ✷✵✵✺❪✳ ❈♦♠♠❡ ❧❛ t❛✐❧❧❡ ❞❡ ❧✬✐♠❛❣❡ ■P▼ ❡st ❞é❥à ré❞✉✐t❡✱ ♥♦✉s ❛✈♦♥s ❞é❝✐❞é ❞✬✉t✐❧✐s❡r ✉♥❡ s❡✉❧❡ ❝❡❧❧✉❧❡ ♣❛r ❜❧♦❝ ♣♦✉r ♦❜t❡♥✐r ❧❡ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖● s♦✉❤❛✐té✳ ◆♦✉s ❛✈♦♥s t❡sté ❧❡s ❝♦♠❜✐♥❛✐s♦♥s ❞✉ ♥♦♠❜r❡ ❞❡ ❝♦❧♦♥♥❡s✴❧✐❣♥❡s ♣♦✉r ❞ét❡r♠✐♥❡r ❧❛ ♠❡✐❧❧❡✉r❡ ❝♦♠❜✐♥❛✐s♦♥ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥✳ ◗✉❛♥t à ❧✬❡①tr❛❝t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts ❞❡ ❧✬✐♠❛❣❡✱ ❛✉ ❧✐❡✉ ❞✬✉t✐❧✐s❡r ❙♦❜❡❧✱ ♥♦✉s ❛✈♦♥s ❝❤♦✐s✐ ❞✬✉t✐❧✐s❡r ❧✬♦♣ér❛t❡✉r ❞é✈❡❧♦♣♣é ♣❛r ❬❆♥❞♦ ✷✵✵✵❪ ❝❛r ✐❧ ❛ été r❡❝♦♥♥✉ ♣♦✉r êtr❡ ♦♣t✐♠✉♠ à ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❧❛ ♥♦r♠❡ ❡t ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts✳ ▲✬éq✉❛t✐♦♥ ✹✳✹ ♠♦♥tr❡ ❧❡ ♠❛sq✉❡ ❞❡ ❝❡t ♦♣ér❛t❡✉r 3 × 3✳ M =   −0.112737 0 0.112737 −.274526 0 .274526 −0.112737 0 0.112737   ✭✹✳✹✮ P✉✐sq✉❡ ♥♦tr❡ ♠♦t✐❢ ♣rés❡♥t❡ ✉♥ ❛①❡ ❞❡ s②♠étr✐❡✱ ♥♦✉s ♣♦✉✈♦♥s ❧✐♠✐t❡r ❧❡s ♦r✐❡♥t❛t✐♦♥s ❞❡s ❣r❛✲ ❞✐❡♥ts à ❧✬✐♥t❡r✈❛❧❧❡ [0..π]✳ ❈❡t ❡s♣❛❝❡ ❛ été ❡♥s✉✐t❡ ❞✐✈✐sé ❡♥ Nbin = 5 ✐♥t❡r✈❛❧❧❡s✱ ❡t ♣❧✉s ♣ré❝✐sé♠❡♥t✱ ♣✉✐sq✉❡ ♥♦✉s ❝❤❡r❝❤♦♥s à ❞ét❡r♠✐♥❡r ❧❛ ♣rés❡♥❝❡ ❞✉ r❛✐❧ ❞❡ ❣✉✐❞❛❣❡✱ ♥♦✉s ❛✈♦♥s ❝❤♦✐s✐ ❧❡s ✐♥t❡r✈❛❧❧❡s s✉✐✈❛♥t❡s [0 − 15; 15 − 80; 80 − 100; 100 − 165; 165 − 180]◦ ❝♦♠♠❡ ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✹✳✶✸✳ ▲❡s ✜❣✉r❡s ✹✳✶✹ ❡t ✹✳✶✺ ♥♦✉s ♠♦♥tr❡♥t ❧✬❡①tr❛❝t✐♦♥ ❞✉ ❞❡s❝r✐♣t❡✉r ❍❖● ♣♦✉r ❧❛ ♣❛rt✐❡ ❝❡♥tr❛❧❡ ❞❡s ✐♠❛❣❡s ■▼P✳ ▲❛ ✜❣✉r❡ ✹✳✶✹❜ r❡♣rés❡♥t❡ ❍❖● ❣râ❝❡ à ✉♥ ❣r❛♣❤❡ ❞❡s ✢è❝❤❡s ♣♦✉r ❝❤❛q✉❡ ❜❧♦❝✱ ♦ù ❧❛ ❞✐r❡❝t✐♦♥ ❝♦rr❡s♣♦♥❞ à ❧✬♦r✐❡♥t❛t✐♦♥ ❞❡ ❧✬✐♥t❡r✈❛❧❧❡ ❡t ❧✬❛♠♣❧✐t✉❞❡ ❛✉ rés✉❧t❛t ❞❡ ❧❛ ♥♦r♠❛❧✐s❛t✐♦♥ ❞✉ ❜❧♦❝✳ P✉✐s ✹✳✶✹❝ ♠♦♥tr❡ ❧❡ ♠ê♠❡ ❞❡s❝r✐♣t❡✉r ❞❛♥s s❛ ❢♦r♠❡ ❞✬❤✐st♦❣r❛♠♠❡s✳ ❉❛♥s ❝❡t ❡①❡♠♣❧❡✱ ♥♦✉s ♠♦♥tr♦♥s ❧❡ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖● ♣♦✉r ❊①tr❛❝t✐♦♥ ❞❡ ❍❖● 3 × 1 ❡t ✉♥❡ s❡✉❧❡ ❝❡❧❧✉❧❡ ♣❛r ❜❧♦❝✳ ◆♦✉s ♣♦✉✈♦♥s ✈♦✐r q✉❡ ❧✬❛♠♣❧✐t✉❞❡ ❞❡ ❧✬✐♥t❡r✈❛❧❧❡ ❬80◦ − 100◦ ❪ ❡st ❢❛✐❜❧❡ q✉❛♥❞ ❧❡s ✐♠❛❣❡s ♥❡ ❝♦♥t✐❡♥♥❡♥t ♣❛s ❧❡ r❛✐❧ ❝❡♥tr❛❧✱ ❛❧♦rs q✉❡ ♣♦✉r ❧❡s ✐♠❛❣❡s ■P▼ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡✱ ❧✬❛♠♣❧✐t✉❞❡ ❞❡ ❝❡t ✐♥t❡r✈❛❧❧❡ ❡st ♣❧✉s ✐♠♣♦rt❛♥t❡ q✉❡ ❧❡s ❛✉tr❡s✳✹✳✸✳ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ✽✸ ❋✐❣✉r❡ ✹✳✶✸ ✕ ■♥t❡r✈❛❧❧❡s ❞é✜♥✐s ♣♦✉r ❢♦r♠❡r ❧✬❤✐st♦❣r❛♠♠❡ ❞❡ ❍❖● ✭❛✮ ■P▼ ❞❡ ❧❛ ③♦♥❡ à ❛♥❛❧②s❡r ✭❜✮ ❍❖● ❛✈❡❝ ✢è❝❤❡s✳ ✭❝✮ ❍✐st♦❣r❛♠♠❡s ❞❡ ❍❖●✳ ✭❞✮ ■P▼ ❞❡ ❧❛ ③♦♥❡ à ❛♥❛❧②s❡r ✭❡✮ ❍❖● ❛✈❡❝ ✢è❝❤❡s ✭❢✮ ❍✐st♦❣r❛♠♠❡s ❞❡ ❍❖● ❋✐❣✉r❡ ✹✳✶✹ ✕ ❊①tr❛❝t✐♦♥ ❞❡ ❍❖● ✸ ❝♦❧♦♥♥❡s ♣♦✉r ❞❡s ✐♠❛❣❡s ■▼P s❛♥s r❛✐❧ ❞❡ ❣✉✐❞❛❣❡✳ ✭❛✮ ■P▼ ❞❡ ❧❛ ③♦♥❡ à ❛♥❛❧②s❡r ✭❜✮ ❍❖● ❛✈❡❝ ✢è❝❤❡s ✭❝✮ ❍✐st♦❣r❛♠♠❡s ❞❡ ❍❖● ✭❞✮ ■P▼ ❞❡ ❧❛ ③♦♥❡ à ❛♥❛❧②s❡r ✭❡✮ ❍❖● ❛✈❡❝ ✢è❝❤❡s ✭❢✮ ❍✐st♦❣r❛♠♠❡s ❞❡ ❍❖● ❋✐❣✉r❡ ✹✳✶✺ ✕ ❊①tr❛❝t✐♦♥ ❞❡ ❍❖● ✸ ❝♦❧♦♥♥❡s ♣♦✉r ❞❡s ✐♠❛❣❡s ■▼P ❛✈❡❝ r❛✐❧ ❞❡ ❣✉✐❞❛❣❡✳✽✹ ❈❤❛♣✐tr❡ ✹✳ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ✹✳✹ ❘és✉❧t❛ts ❞❡ ❞ét❡❝t✐♦♥ ◆♦✉s ❛✈♦♥s é✈❛❧✉é ♥♦s ❞❡s❝r✐♣t❡✉rs ❛✈❡❝ ❧❛ ❜❛s❡ ❞✬✐♠❛❣❡s ♦❜t❡♥✉❡ ❧♦rs ❞❡ ♥♦s ❡♥r❡❣✐str❡♠❡♥ts ❞❛♥s ❧✬❖r❧②❱❆▲ ❡t à ❘❡♥♥❡s✳ ❈❡tt❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❝♦♥t✐❡♥t ❞❡s ❡①❡♠♣❧❡s ❞❡ ❞✐✛ér❡♥ts ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ❛✉① ❛♣♣❛r❡♥❝❡s ❞✐✛ér❡♥t❡s ❡t ❞❛♥s ❞❡s s❝è♥❡s ❡t ❞❡s ❝♦♥❞✐t✐♦♥s ❞❡ ❧✉♠✐♥♦s✐té très ❞✐✈❡rs❡s ✭✈♦✐r ✜❣✉r❡ ✹✳✷✽✮✳ ▲❡ ♥♦♠❜r❡ t♦t❛❧ ❞❡s ✐♠❛❣❡s ■▼P ❡st ❞❡ 9515 ❞♦♥t 4949 s♦♥t ❞❡s ✐♠❛❣❡s ❡①tr❛✐t❡s ❞❛♥s ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡✳ P♦✉r ❧✬❛♣♣r❡♥t✐ss❛❣❡ s✉♣❡r✈✐sé ♥♦✉s ❛✈♦♥s ✉t✐❧✐sé s❡✉❧❡♠❡♥t 30✪ ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s✳ P♦✉r é✈❛❧✉❡r ♥♦s ❞❡s❝r✐♣t❡✉rs✱ ♥♦✉s ❛❧❧♦♥s ❧❡s t❡st❡r sé♣❛ré♠❡♥t ❡t ❡♥s❡♠❜❧❡ ❡♥ ✉t✐❧✐s❛♥t ❧❡ ❝❧❛ss✐✜❝❛t❡✉r ✓▼❛❝❤✐♥❡s à ✈❡❝t❡✉r ❞❡ s✉♣♣♦rt✔ ❛✈❡❝ ❞✐✛ér❡♥ts t②♣❡s ❞❡ ❢♦♥❝t✐♦♥s ❞❡ ❦❡r♥❡❧✳ ▲❡s rés✉❧t❛ts s❡r♦♥t ❛♥❛❧②sés ❣râ❝❡ à ❧❛ ♠❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ❡t ❧❡s ❝♦✉r❜❡s ❘❖❈✳ ✹✳✹✳✶ ▼❛❝❤✐♥❡s à ✈❡❝t❡✉rs ❞❡ s✉♣♣♦rt ✭❙❱▼✮ ▲❡s ♠❛❝❤✐♥❡s à ✈❡❝t❡✉rs ❞❡ s✉♣♣♦rt ♦✉ sé♣❛r❛t❡✉rs à ✈❛st❡ ♠❛r❣❡ ✭❡♥ ❛♥❣❧❛✐s ❙✉♣♣♦rts ❱❡❝t♦rs ▼❛❝❤✐♥❡s ❙❱▼✮✱ s♦♥t ❞❡s ❝❧❛ss✐✜❝❛t❡✉rs r❡♣♦s❛♥t s✉r ✉♥ ♣r♦❝❡ss✉s ❞✬❛♣♣r❡♥t✐ss❛❣❡ ❞é✈❡❧♦♣♣é ❞❛♥s ❧❡s ❛♥♥é❡s ✶✾✾✵ ❡t s♦♥t ❧❛r❣❡♠❡♥t ✉t✐❧✐sé❡s ❞❡♣✉✐s ♣♦✉r ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❢♦r♠❡s✱ ❧❛ ré❣r❡ss✐♦♥ ❡t ❧✬❡st✐♠❛t✐♦♥ ❞❡ ❞❡♥s✐té✳ ▲❡ ♣r✐♥❝✐♣❡ ❞❡s ❙❱▼ ❝♦♥s✐st❡ à ❞ét❡r♠✐♥❡r ✉♥❡ ❢♦♥❝t✐♦♥ ❧✐♠✐t❡✱ sé♣❛r❛♥t ❛✉ ♠✐❡✉① ❧❡s ❞❡✉① ❝❧❛ss❡s✳ P♦✉r ♦♣t✐♠✐s❡r ❧❛ sé♣❛r❛t✐♦♥✱ ❙❱▼ ❝❤❡r❝❤❡ ❧✬❤②♣❡r♣❧❛♥ ♣♦✉r ❧❡q✉❡❧ ❧❛ ❞✐st❛♥❝❡ ❡♥tr❡ ❧❛ ❢r♦♥t✐èr❡ ❞❡s ❞❡✉① ❣r♦✉♣❡s ❡t ❧❡s ♣♦✐♥ts ❧❡s ♣❧✉s ♣r♦❝❤❡s ❡st ♠❛①✐♠❛❧❡✱ ❝✬❡st ❧❡ ♣r✐♥❝✐♣❡ ❞❡ ♠❛①✐♠✐s❛t✐♦♥ ❞❡ ❧❛ ♠❛r❣❡✳ ◆♦✉s ❛❧❧♦♥s ❞é✈❡❧♦♣♣❡r ❜r✐è✈❡♠❡♥t ❝❡s ❞✐✛ér❡♥ts ♣♦✐♥ts ❞❛♥s ❧❡s ♣❛r❛❣r❛♣❤❡s q✉✐ s✉✐✈❡♥t✳ P♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡ ❞♦♥♥é❡s✱ ❝♦♥s✐❞ér♦♥s ❧✬❡s♣❛❝❡ RN ❞❡s é❝❤❛♥t✐❧❧♦♥s✳ ❯♥ ♣♦✐♥t ❞❛♥s ❝❡t ❡s♣❛❝❡ s❡r❛ ♥♦té x = (x1; x2; ...; xN )✳ ❉❛♥s ❧❡ ❝❛s q✉✐ ♥♦✉s ✐♥tér❡ss❡✱ ❧❛ ❞ét❡❝t✐♦♥ ❞✉ r❛✐❧ ❝❡♥tr❛❧✱ ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❡st ❜✐♥❛✐r❡ ✿ ❧❛ ❝❧❛ss❡ ♦❜❥❡t ✭r❛✐❧ ❞❡ ❣✉✐❞❛❣❡✮ ❡t ❧❛ ❝❧❛ss❡ ♥♦♥✲♦❜❥❡t ✭♥♦♥✲r❛✐❧ ♦✉ ❡♥tr❡✲ ✈♦✐❡✮✳ P♦✉r ❞❡s ❞♦♥♥é❡s sé♣❛r❛❜❧❡s✱ ❧✬éq✉❛t✐♦♥ f ❞❡ ❧✬❤②♣❡r♣❧❛♥ q✉✐ sé♣❛r❡ ❧❡s ❝❧❛ss❡s ♣❡✉t êtr❡ é❝r✐t❡ ♣❛r ✹✳✺ ❡t ❧✬❤②♣❡r♣❧❛♥ ❡st ❝❛❧❝✉❧é ❞❡ ❢❛ç♦♥ à ♠❛①✐♠✐s❡r s❛ ♠❛r❣❡ ❛✈❡❝ ❧❡s ❞♦♥♥é❡s ❞✬❛♣♣r❡♥t✐ss❛❣❡ ♣♦s✐t✐✈❡s ❡t ♥é❣❛t✐✈❡s✳ f(x) = w T x + b ✭✹✳✺✮ ♦ù w ❡st ✉♥ ❝♦❡✣❝✐❡♥t ✈❡❝t♦r✐❡❧ ❡t b ❡st ✉♥ ❝♦❡✣❝✐❡♥t s❝❛❧❛✐r❡✳ ❈❡tt❡ ❢♦♥❝t✐♦♥ ❞é✜♥✐t✱ ✈✐❛ ❧❡ ✈❡❝t❡✉r w✱ ✉♥ ❤②♣❡r♣❧❛♥ ❞❛♥s ❧✬❡s♣❛❝❡ RN ✳ ❈❡ t②♣❡ ❞❡ ❝❧❛ss✐✜❝❛t❡✉r ❡st ❞✐t ❧✐♥é❛✐r❡✳ P❧✉s✐❡✉rs ❤②♣❡r♣❧❛♥s ❝♦♥✈✐❡♥♥❡♥t✱ ♣❛r♠✐ ❡✉①✱ ✐❧ ❡♥ ❡①✐st❡ ✉♥ ✉♥✐q✉❡ q✉✐ ♣❡r♠❡t ❞✬♦❜t❡♥✐r ✉♥❡ ♠❛r❣❡ ❞❡ sé♣❛r❛t✐♦♥ ♠❛①✐♠❛❧❡ ❡♥tr❡ ❧❡s ❞❡✉① ❝❧❛ss❡s ❞❡ ♣♦✐♥ts✳ ▲❛ ♠❛r❣❡ ❡st ❧❛ ❞✐st❛♥❝❡ ♠✐♥✐♠❛❧❡ ❡♥tr❡ ❧❛ s✉r❢❛❝❡ ❞❡ ❞é❝✐s✐♦♥ ❡t ❧❡s é❝❤❛♥t✐❧❧♦♥s xi ✭q✉✐ s♦♥t s✉♣♣♦sés êtr❡ t♦✉s ❝♦rr❡❝t❡♠❡♥t ❝❧❛ss✐✜és ♣❛r ❝❡tt❡ s✉r❢❛❝❡ ❞❡ ❞é❝✐s✐♦♥✮✳ ▲❛ ❝❧❛ss❡ ❞❡ ❝❡s é❝❤❛♥t✐❧❧♦♥s ❡st ♥♦té❡ yi ✱ ❛✈❡❝ yi ❂ ✶ s✬✐❧ s✬❛❣✐t ❞✬✉♥ ♦❜❥❡t ❡t yi ❂ ✲✶ s✐♥♦♥✳ P❛r ❛✐❧❧❡✉rs✱ ❙❱▼ ❛✉t♦r✐s❡ ❧❡s t❡❝❤♥✐q✉❡s ❞✐t❡s ❦❡r♥❡❧✲♠❡t❤♦❞s✳ ❈❡s t❡❝❤♥✐q✉❡s ✉t✐❧✐sé❡s ❞❛♥s ❧❡ ❝❛s ❞❡ ❞♦♥♥é❡s ♥♦♥✲sé♣❛r❛❜❧❡s ✭❝✬❡st✲à✲❞✐r❡ ❛✉ ❝❛s ♦ù ❧❡s é❝❤❛♥t✐❧❧♦♥s ❞♦♥♥és ❞✉r❛♥t ❧✬❛♣♣r❡♥t✐ss❛❣❡ ♥❡ ♣❡✉✈❡♥t êtr❡ sé♣❛rés ♣❛r ✉♥ ❤②♣❡r♣❧❛♥✮✱ ♣❡r♠❡tt❡♥t ❞❡ ♣r♦❥❡t❡r ❧❡s ❞♦♥♥é❡s ❞❛♥s ❞❡s ❡s♣❛❝❡s ❞❡ ❞✐♠❡♥s✐♦♥s s✉♣ér✐❡✉r❡s✱ ❞❡ ❢❛ç♦♥ ✐♠♣❧✐❝✐t❡ ✈✐❛ ✉♥❡ ❢♦♥❝t✐♦♥ ❞é✜♥✐❡ ♣❛r ✉♥ ♥♦②❛✉ ♦✉ ❦❡r♥❡❧ φ✳ ▲✬✐♠♣❧é♠❡♥t❛t✐♦♥ ❙❱▼ ❞✉ ❝❧❛ss✐✜❝❛t❡✉r ✉t✐❧✐sé ❞❛♥s ♥♦s tr❛✈❛✉① ❡st ❜❛sé❡ s✉r ❧❛ ❧✐❜r❛✐r✐❡ ▲■❇❙❱▼ ❬❈❤❛♥❣ ✫ ▲✐♥ ✷✵✶✶❪✳✹✳✹✳ ❘és✉❧t❛ts ❞❡ ❞ét❡❝t✐♦♥ ✽✺ ✹✳✹✳✷ ▼❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ❡t ❝♦✉r❜❡ ❘❖❈ ▲❛ ♠❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ❡st ✉♥ t❛❜❧❡❛✉ à ❞♦✉❜❧❡ ❡♥tré❡ ❝❛❧❝✉❧é ❡♥ ❝♦♠♣❛r❛♥t ❧❡s rés✉❧t❛ts ✐ss✉s ❞❡ ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❧❡s ❝❧❛ss❡s ❞✬❛♣♣r❡♥t✐ss❛❣❡ ❞é✜♥✐❡s✳ ❙✉r ❧❛ ❞✐❛❣♦♥❛❧❡✱ ♦♥ tr♦✉✈❡ ❞♦♥❝ ❧❡s ✈❛❧❡✉rs ❜✐❡♥ ❝❧❛ssé❡s ❡t ❤♦rs ❞❡ ❧❛ ❞✐❛❣♦♥❛❧❡ ❧❡s é❧é♠❡♥ts ♠❛❧ ❝❧❛ssés✳ ▲❡s ❝♦❧♦♥♥❡s ❞❡ ❧❛ ♠❛tr✐❝❡ r❡♣rés❡♥t❡♥t ❧❡s ❝❧❛ss❡s ❞✬❛♣♣r❡♥t✐ss❛❣❡ ✭✈ér✐té t❡rr❛✐♥✮✱ ❧❡s ❧✐❣♥❡s✱ ❧❡s ❝❧❛ss❡s ✐ss✉❡s ❞❡ ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥✳ ▲❛ s♦♠♠❡ ❞❡s ✈❛❧❡✉rs s✉r ✉♥❡ ❝♦❧♦♥♥❡ ❞♦♥♥❡ ❧❡ ♥♦♠❜r❡ ❞✬❡①❡♠♣❧❛✐r❡s t❤é♦r✐q✉❡s ❞❡ ❧❛ ❝❛té❣♦r✐❡✳ ❯♥ ❡①❡♠♣❧❡ ❞❡ ♠❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ❡st ♠♦♥tré ❞❛♥s ❧❡ t❛❜❧❡❛✉ ✹✳✶✳ ❚❛❜❧❡❛✉ ✹✳✶ ▼❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ t❤é♦r✐q✉❡ ❈♦♥❞✐t✐♦♥ P♦s✐t✐✈❡ ◆é❣❛t✐✈❡ ❚❡st P♦s✐t✐❢ ❱r❛✐ P♦s✐t✐❢ ✭❱P✮ ❋❛✉① P♦s✐t✐❢ ✭❋P✮ Pré❝✐s✐♦♥ ◆é❣❛t✐❢ ❋❛✉① ◆é❣❛t✐❢ ✭❋◆✮ ❱r❛✐ ◆é❣❛t✐❢ ✭❱◆✮ ❱❛❧❡✉r Pré❞✐❝t✐✈❡ ◆é❣❛t✐✈❡ ❙❡♥s✐❜✐❧✐té ❙♣é❝✐✜❝✐té ❊①❛❝t✐t✉❞❡ ❉✉ t❛❜❧❡❛✉ ✹✳✶✱ ♥♦✉s ❞ét❛✐❧❧♦♥s ❝❤❛❝✉♥❡ ❞❡s ✈❛r✐❛❜❧❡s st❛t✐st✐q✉❡s ♥é❝❡ss❛✐r❡s ♣♦✉r é✈❛❧✉❡r ♥♦s rés✉❧t❛ts ✿ Sensibilite´ = Rappel = V P V P + F N ✭✹✳✻✮ Specif icit ´ e´ = V N V N + F P ✭✹✳✼✮ P recision ´ = V P V P + F P ✭✹✳✽✮ V aleur P redictive Negative ´ = V N V N + F N ✭✹✳✾✮ Exactitude = V P + V N V P + F P + V N + F N ✭✹✳✶✵✮ ▲❛ s❡♥s✐❜✐❧✐té ❞✬✉♥ t❡st ♠❡s✉r❡ s❛ ❝❛♣❛❝✐té à ❞♦♥♥❡r ✉♥ rés✉❧t❛t ♣♦s✐t✐❢ ❧♦rsq✉✬✉♥❡ ❤②♣♦t❤ès❡ ❡st ✈ér✐✜é❡✳ ❊❧❧❡ s✬♦♣♣♦s❡ à ❧❛ s♣é❝✐✜❝✐té✱ q✉✐ ♠❡s✉r❡ ❧❛ ❝❛♣❛❝✐té ❞✬✉♥ t❡st à ❞♦♥♥❡r ✉♥ rés✉❧t❛t ♥é❣❛t✐❢ ❧♦rsq✉❡ ❧✬❤②♣♦t❤ès❡ ♥✬❡st ♣❛s ✈ér✐✜é❡✳ ▲❛ ✈❛❧❡✉r ♣ré❞✐❝t✐✈❡ ❞✬✉♥ t❡st ❡st ❧❛ ♣r♦❜❛❜✐❧✐té q✉✬✉♥❡ ❝♦♥❞✐t✐♦♥ s♦✐t ♣rés❡♥t❡ ❡♥ ❢♦♥❝t✐♦♥ ❞✉ rés✉❧t❛t ❞❡ ❝❡ t❡st✳ ▲❛ ✈❛❧❡✉r ♣ré❞✐❝t✐✈❡ ♣♦s✐t✐✈❡ ♦✉ ♣ré❝✐s✐♦♥ ❡st ❧❛ ♣r♦❜❛❜✐❧✐té q✉❡ ❧❛ ❝♦♥❞✐t✐♦♥ s♦✐t ♣rés❡♥t❡ ❧♦rsq✉❡ ❧❡ t❡st ❡st ♣♦s✐t✐❢✳ ▲❛ ✈❛❧❡✉r ♣ré❞✐❝t✐✈❡ ♥é❣❛t✐✈❡ ❡st ❧❛ ♣r♦❜❛❜✐❧✐té q✉❡ ❧❛ ❝♦♥❞✐t✐♦♥ ♥❡ s♦✐t ♣❛s ♣rés❡♥t❡ ❧♦rsq✉❡ ❧❡ t❡st ❡st ♥é❣❛t✐❢✳ ❋✐♥❛❧❡♠❡♥t ❧✬❡①❛❝t✐t✉❞❡ ❣❧♦❜❛❧❡ ❞✉ s②stè♠❡ r❡♣rés❡♥t❡ ❧❛ ❝❛♣❛❝✐té ❞❡ ❜✐❡♥ ❝❧❛ss✐✜❡r ❧❡s ❝❧❛ss❡s ❝❡♣❡♥❞❛♥t✱ ♣❡✉t êtr❡ ✉♥❡ ♠❡s✉r❡ ❛♠❜✐❣ü❡ s✐ ❧❡s ❝❧❛ss❡s ♥❡ s♦♥t ♣❛s ♣♦♥❞éré❡s✳ ▲❛ ❝♦✉r❜❡ ❘❖❈ ❞❡ ❧✬❛♥❣❧❛✐s ❘❡❝❡✐✈❡r ❖♣❡r❛t✐♥❣ ❈❤❛r❛❝t❡r✐st✐❝ ❬❉❡❧❛❝♦✉r ❡t ❛❧✳ ✷✵✵✺❪ ❡st ✉♥ ♦✉t✐❧ ❞✬é✈❛❧✉❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ♠♦❞è❧❡s ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ✐♥❞é♣❡♥❞❛♥ts q✉✐ ♣❡r♠❡t ❞❡ ✈✐s✉❛❧✐s❡r ❧❡s ♣❡r❢♦r♠❛♥❝❡s ❞✬✉♥ s❡✉❧ ❝♦✉♣ ❞✬÷✐❧ ❡t ♦♣ér❛t✐♦♥♥❡❧ ♠ê♠❡ ❞❛♥s ❧❡s ❝❛s ❞❡s ❞✐str✐❜✉t✐♦♥s très ❞éséq✉✐❧✐❜rés✳ ▲✬✐❞é❡ ❞❡ ❧❛ ❝♦✉r❜❡ ❘❖❈ ❡st ❞❡ ❢❛✐r❡ ✈❛r✐❡r ❧❡ ✓s❡✉✐❧✔ ❞❡ ✶ à ✵✳ P♦✉r ❝❤❛❝✉♥❡ ❞❡ ❝❡s ✈❛r✐❛t✐♦♥s✱ ♦♥ ❝❛❧❝✉❧❡ ❧❛ s❡♥s✐❜✐❧✐té ❡t ❧❛ s♣é❝✐✜❝✐té ❞❡ ❧✬❡①❛♠❡♥ ❛✉ s❡✉✐❧ ✜①é✳ ❈❤❛q✉❡ ✈❛❧❡✉r ❞✉ s❡✉✐❧ ❡st ❛ss♦❝✐é❡ à ✉♥ ❝♦✉♣❧❡ ✭❙❡♥s✐❜✐❧✐té✱ ❙♣é❝✐✜❝✐té✮ q✉❡ ❧✬♦♥ r❡♣♦rt❡ ❞❛♥s ✉♥ ❣r❛♣❤✐q✉❡ s✉r ✉♥ ♣❧❛♥ ♦rt❤♦♥♦r♠é ♦ù ❧❡s ❛❜s❝✐ss❡s ✭①✮ r❡♣rés❡♥t❡♥t ✭✶✲ ❙♣é❝✐✜❝✐té✮ ✈❛r✐❛♥t ❞❡ ✵ à ✶ ❡t ♦ù ❧❡s ♦r❞♦♥♥é❡s ✭②✮ r❡♣rés❡♥t❡♥t ✭❙❡♥s✐❜✐❧✐té✮✳ ❈❡ ❣r❛♣❤❡ t❤é♦r✐q✉❡ ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✹✳✶✻✳ ➚ ❧❛ ✈✉❡ ❞❡ ❧❛ ❝♦✉r❜❡ t❤é♦r✐q✉❡✱ ✉♥ t❡st ❛✈❡❝ ✉♥ ❢♦rt ♣♦✉✈♦✐r ❞✐s❝r✐♠✐♥❛♥t ♦❝❝✉♣❡r❛ ❧❛ ♣❛rt✐❡ s✉♣ér✐❡✉r❡ ❣❛✉❝❤❡ ❞✉ ❣r❛♣❤✐q✉❡✳ ❯♥ t❡st ❛✈❡❝ ✉♥ ♣♦✉✈♦✐r ❞✐s❝r✐♠✐♥❛♥t ♠♦✐♥s ♣✉✐ss❛♥t ♠♦♥tr❡r❛ ✉♥❡ ❝♦✉r❜❡ ❘❖❈ q✉✐ s✬❛♣❧❛t✐r❛ ✈❡rs ❧❛ ♣r❡♠✐èr❡ ❞✐❛❣♦♥❛❧❡ ❞✉ ❣r❛♣❤✐q✉❡✳✽✻ ❈❤❛♣✐tr❡ ✹✳ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ❋✐❣✉r❡ ✹✳✶✻ ✕ ❚r♦✐s s❝é♥❛r✐♦s ♣♦ss✐❜❧❡s ❞✬✉♥❡ ❝♦✉r❜❡ ❘❖❈ ❯♥ t❡st ✐❞é❛❧ ✭❆✮ ❞♦♥♥❡ ✉♥❡ sé♣❛r❛t✐♦♥ ♥❡tt❡ ❡♥tr❡ ❧❡s ❞❡✉① ❝❧❛ss❡s ♦✛r❛♥t ❛✐♥s✐ ✉♥❡ ❝♦✉r❜❡ ❘❖❈ ♣❛ss❛♥t ♣❛r ❧❡ ❝♦✐♥ s✉♣ér✐❡✉r ❣❛✉❝❤❡✳ ❯♥ t❡st s❛♥s ❛✉❝✉♥❡ ❞✐s❝r✐♠✐♥❛t✐♦♥ ✭❈✮ ❞♦♥♥❡ ✉♥❡ ❝♦✉r❜❡ ❛❧❧❛♥t ❞✉ ♣♦✐♥t ❞❡ ❝♦♦r❞♦♥♥é❡s ✭✵✱✵✮ ❛✉ ♣♦✐♥t ✭✶✱✶✮✳ ❍❛❜✐t✉❡❧❧❡♠❡♥t✱ ❧❛ ❝♦✉r❜❡ ♣❛ss❡ q✉❡❧q✉❡ ♣❛rt ❡♥tr❡ ❝❡s ❞❡✉① ❡①trê♠❡s ✭❇✮✳ ◆♦✉s ✉t✐❧✐s❡r♦♥s ❞♦♥❝ ❧❛ ❝♦✉r❜❡ ♣♦✉r ❞é❝✐❞❡r q✉❡❧ ❡st ❧❡ s❡✉✐❧ q✉✐ ♦✛r❡ ❧❡ ♠❡✐❧❧❡✉r ❝♦♠♣r♦♠✐s ❡♥tr❡ s❡♥s✐❜✐❧✐té ❡t s♣é❝✐✜❝✐té✳ ■❧ s✬❛❣✐r❛ ❞✉ s❡✉✐❧ ♦ù ❧❛ ❝♦✉r❜❡ ❘❖❈ ♠♦♥tr❡ ✉♥ ♣♦✐♥t ❞✬✐♥✢❡①✐♦♥✳ ●râ❝❡ à ❧✬❛♥❛❧②s❡ ❞❡s ❝♦✉r❜❡s ❘❖❈ ❞❡s ❞✐✛ér❡♥ts ❝❧❛ss✐✜❡✉rs✱ ♥♦✉s ♣♦✉rr♦♥s ♣♦✉r ♠❡ttr❡ ❡♥ é✈✐❞❡♥❝❡ q✉❡❧ ❡st ❧❡ t❡st q✉✐ ♣♦ssè❞❡ ❧❡ ♠❡✐❧❧❡✉r ♣♦✉✈♦✐r ❞✐s❝r✐♠✐♥❛♥t✳ ✹✳✹✳✸ ❘és✉❧t❛ts ❞✉ ❞❡s❝r✐♣t❡✉r ❜❛sé ❡♥ ❚❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ P♦✉r ❞ét❡r♠✐♥❡r ❧❛ ❝❛♣❛❝✐té ❞❡ ❞ét❡❝t✐♦♥ ❞✉ ❞❡s❝r✐♣t❡✉r ♣r♦♣♦sé✱ ♥♦✉s ❛❧❧♦♥s ❧❡ ❝♦♠♣❛r❡r ❛✈❡❝ ✉♥❡ ❝♦rré❧❛t✐♦♥ ❝r♦✐sé❡ s✐♠♣❧❡✳ ❈✬❡st✲à✲❞✐r❡✱ ♥♦tr❡ ❞❡s❝r✐♣t❡✉r D = P 3 i=1 pic− P 2 i=1 vallee´ ❡♥ ❝♦♠♣❛r❛✐s♦♥ ❛✈❡❝ ❧❛ ✈❛❧❡✉r ❞✉ ♠❛①✐♠❛❧❡ ❞❡ γ(u, v) ✭❚❡♠♣❧❛t❡ ▼❛t❝❤✐♥❣ ❝❧❛ss✐q✉❡✮✳ ▲❡ t②♣❡ ❞❡ ❝❧❛ss✐✜❡✉r ✉t✐❧✐sé ❡st ✉♥ ❙❱▼ ❧✐♥é❛✐r❡✳ ▲❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❛ été ét✐q✉❡té❡ ♠❛♥✉❡❧✲ ❧❡♠❡♥t✱ ❡t ♣♦✉r ❧✬❡♥tr❛î♥❡♠❡♥t ♥♦✉s ❛✈♦♥s ❝❤♦✐s✐ ❞✬✉t✐❧✐s❡r s❡✉❧❡♠❡♥t ✸✵ ✪ ❞❡s ✐♠❛❣❡s✳ ❈❡❧❛ ♥♦✉s ❢❛✐t ✉♥ t♦t❛❧ ❞❡ ✶✸✻✾ ✐♠❛❣❡s ❛✈❡❝ r❛✐❧ ❝❡♥tr❛❧ ❞❡ ❣✉✐❞❛❣❡ ❡t ✶✹✽✹ s❛♥s r❛✐❧ ❞❡ ❣✉✐❞❛❣❡ ♣♦✉r ❧❛ ♣❤❛s❡ ❞✬❛♣♣r❡♥t✐ss❛❣❡ ❡t ✸✹✻✹ ❡t ✸✶✾✻ ♣♦✉r ❧❛ ♣❤❛s❡ ❞❡ t❡st r❡s♣❡❝t✐✈❡♠❡♥t✳ ■❧ ét❛✐t ♣♦ss✐❜❧❡ ❞✬❛❥♦✉t❡r ❞✬❛✉tr❡s ✐♠❛❣❡s s❛♥s r❛✐❧ ❞❡ ❣✉✐❞❛❣❡✱ ♠❛✐s ❝❡❧❛ ♥✬❛ ♣❛s été ❢❛✐t ♣♦✉r éq✉✐❧✐❜r❡r ❧❡s é❝❤❛♥t✐❧❧♦♥s✳ ▲❛ ✜❣✉r❡ ✹✳✶✼ ✐❧❧✉str❡ ❧❡s ❝♦✉r❜❡s ❘❖❈ ❞❡s ❞❡✉① ❞❡s❝r✐♣t❡✉rs✳ ◆♦✉s ♣♦✉✈♦♥s ✈♦✐r q✉❡ ❧❡ ❞❡s❝r✐♣✲ t❡✉r ♣r♦♣♦sé ♣rés❡♥t❡ ❞❡s rés✉❧t❛ts ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ♠❡✐❧❧❡✉rs ❡t ❞é♣❛ss❡ ❧❡ ♣♦✉✈♦✐r ❞✐s❝r✐♠✐♥❛♥t ❞✉ s✐♠♣❧❡ ❚❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣✳ ▲❛ ♠❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ♣♦✉r ❧❡ rés✉❧t❛t ❞❡ ❧❛ s✐♠♣❧❡ ❝♦rré❧❛t✐♦♥ ❝r♦✐sé❡ ❡st ♠♦♥tré❡ ❞❛♥s ❧❡ t❛❜❧❡❛✉ ✹✳✷ ❡t ❧❛ ♠❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ♣♦✉r ♥♦tr❡ ❞❡s❝r✐♣t❡✉r ❞❛♥s ❧❛ t❛❜❧❡ ✹✳✸✳ ❚❛❜❧❡❛✉ ✹✳✷ ▼❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ♣♦✉r ❧❛ ❝♦rré❧❛t✐♦♥ ❝r♦✐sé❡ ❈♦♥❞✐t✐♦♥ P♦s✐t✐✈❡ ◆é❣❛t✐✈❡ ❚❡st P♦s✐t✐❢ ✷✼✼✵ ✹✼✼ ✵✳✽✺✸✶ ◆é❣❛t✐❢ ✻✾✹ ✷✼✶✾ ✵✳✼✾✻✼ ✵✳✼✾✾✼ ✵✳✽✺✵✽ ✵✳✽✷✹✷✹✳✹✳ ❘és✉❧t❛ts ❞❡ ❞ét❡❝t✐♦♥ ✽✼ ❋✐❣✉r❡ ✹✳✶✼ ✕ ❈♦✉r❜❡ ❘❖❈ ❝♦♠♣❛r❛t✐✈❡ ❡♥tr❡ ❧❡ ❚❡♠♣❧❛t❡ ▼❛t❝❤✐♥❣ ❡t ❧❡ ❞❡s❝r✐♣t❡✉r ♣r♦♣♦sé ▲❛ ❝♦✉r❜❡ ❜❧❡✉❡ ré♣r❡s❡♥t❡ ❧❛ ❘❖❈ ♣♦✉r ❧✬✉t✐❧✐s❛t✐♦♥ ❞✉ ❚❡♠♣❧❛t❡ ▼❛t❝❤✐♥❣ ❝❧❛ss✐q✉❡✱ ❡t ❧❛ ❝♦✉r❜❡ r♦✉❣❡ r❡♣rés❡♥t❡ ❧❛ ❘❖❈ ♣♦✉r ❧❡ ❞❡s❝r✐♣t❡✉r ♣r♦♣♦sé ❚❛❜❧❡❛✉ ✹✳✸ ▼❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ♣♦✉r ❧❡ ❞❡s❝r✐♣t❡✉r ♣r♦♣♦sé ❈♦♥❞✐t✐♦♥ P♦s✐t✐✈❡ ◆é❣❛t✐✈❡ ❚❡st P♦s✐t✐❢ ✸✵✵✷ ✸✺✽ ✵✳✽✾✸✺ ◆é❣❛t✐❢ ✹✻✷ ✷✽✸✽ ✵✳✽✻ ✵✳✽✻✻✻ ✵✳✽✽✽ ✵✳✽✼✻✾ ✹✳✹✳✹ ❘és✉❧t❛ts ♦❜t❡♥✉s ❛✈❡❝ ❍❖● P♦✉r ❧❡ ❞❡s❝r✐♣t❡✉r ❍❖●✱ ♥♦✉s ❛✈♦♥s ré❛❧✐sé ❞✐✛ér❡♥ts t❡sts ♣♦✉r ♣♦✉✈♦✐r ❞ét❡r♠✐♥❡r ❧❡ ♠❡✐❧❧❡✉r ♥♦♠❜r❡ ❞❡s ❜❧♦❝s ❞❡ ❍❖●✳ ❱✉ q✉❡ ♥♦✉s ❝❤❡r❝❤♦♥s à ❝❛r❛❝tér✐s❡r ❧❡ r❛✐❧ ❝❡♥tr❛❧ ❞❡ ❣✉✐❞❛❣❡✱ ❧❡ ♥♦♠❜r❡ ❞❡s ❧✐❣♥❡s ❡t ❝♦❧♦♥♥❡s ❞❡ ❍❖● ❛ ✈❛r✐é ❡♥tr❡ ✶ ❡t ✸✳ ▲❛ ✜❣✉r❡ ✹✳✶✽ ♠♦♥tr❡ ✉♥ ③♦♦♠ ❞❡ ❧❛ ❝♦✉r❜❡ ❘❖❈ ♣♦✉r ❧❡s ❞✐✛ér❡♥t❡s ❝♦♠❜✐♥❛✐s♦♥s ❞❡ ❧✐❣♥❡s ❡t ❝♦❧♦♥♥❡s✳ ▲❡s tr♦✐s ❝♦♠♣♦s✐t✐♦♥s ❞❡s ❜❧♦❝s ✭❝♦❧♦♥♥❡ × ❧✐❣♥❡✮ q✉✐ ❞♦♥♥❡♥t ❧❡s ♠❡✐❧❧❡✉rs rés✉❧t❛ts s♦♥t 3 × 1✱ 3 × 2 ❡t 3 × 3✳ ➱t❛♥t ❞♦♥♥é q✉❡ ❧❛ t❛✐❧❧❡ ❞✉ ❞❡s❝r✐♣t❡✉r ❛✉❣♠❡♥t❡ ❛✈❡❝ ❧❡ ♥♦♠❜r❡ ❞❡ ❜❧♦❝s✱ ❡t q✉❡ ❧❡s rés✉❧t❛ts ♦❜t❡♥✉s s♦♥t s❡♠❜❧❛❜❧❡s ♣♦✉r ❞✐✛ér❡♥ts ❞❡s❝r✐♣t❡✉rs✱ ♦♥ r❡t✐❡♥❞r❛ ❧❡ ❞❡s❝r✐♣t❡✉r ❧❡ ♣❧✉s s✐♠♣❧❡✳ ▲❡s rés✉❧t❛ts ❞❡ ❞ét❡❝t✐♦♥ ♣♦✉r ❧❡s ❞❡s❝r✐♣t❡✉rs ❍❖● 3×1 ❡t 3×2 s♦♥t ♠♦♥trés ❞❛♥s ❧❡s ♠❛tr✐❝❡s ❞❡ ❝♦♥❢✉s✐♦♥ ✹✳✹ ❡t ✹✳✺ r❡s♣❡❝t✐✈❡♠❡♥t✳ ▲❡ s❡✉✐❧ ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ✉t✐❧✐sé ❡st ❝❡❧✉✐ q✉✐ ♣♦rt❡ ❧❡ ♠❡✐❧❧❡✉r ❝♦♠♣r♦♠✐s ❡♥tr❡ s❡♥s✐❜✐❧✐té ❡t s♣é❝✐✜❝✐té ❞ét❡r♠✐♥é à ♣❛rt✐r ❞❡s ❝♦✉r❜❡s ❘❖❈✳ ❚❛❜❧❡❛✉ ✹✳✹ ▼❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ♣♦✉r ❧❡ ❞❡s❝r✐♣t❡✉r ❍❖● 3 × 1 ❈♦♥❞✐t✐♦♥ P♦s✐t✐✈❡ ◆é❣❛t✐✈❡ ❚❡st P♦s✐t✐❢ ✸✸✷✾ ✶✵✽ ✵✳✾✻✽✻ ◆é❣❛t✐❢ ✶✸✺ ✸✵✽✽ ✵✳✾✺✽✶ ✵✳✾✻✶✵ ✵✳✾✻✻✷ ✵✳✾✻✸✺✽✽ ❈❤❛♣✐tr❡ ✹✳ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ❋✐❣✉r❡ ✹✳✶✽ ✕ ❈♦✉r❜❡s ❘❖❈ ❞❡ ❞ét❡❝t✐♦♥ ♣♦✉r ❞✐✛ér❡♥ts ❞❡s❝r✐♣t❡✉rs ❍❖●✳ ❊♥ ❢♦♥❝t✐♦♥s ❞✉ ♥♦♠❜r❡ ❞❡ ❜❧♦❝s ❡t ❧❡✉r ❞✐s♣♦s✐t✐♦♥✱ ❧❡ ♣♦✉✈♦✐r ❞✐s❝r✐♠✐♥❛t♦✐r❡ ❞❡ ❍❖● ✈❛r✐❡✳ ▲❡s ♠❡✐❧❧❡✉r❡s ❝♦♠❜✐♥❛✐s♦♥s s♦♥t 3 × 1✱ 3 × 2 ❡t 3 × 3 ❚❛❜❧❡❛✉ ✹✳✺ ▼❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ♣♦✉r ❍❖● 3 × 2 ❈♦♥❞✐t✐♦♥ P♦s✐t✐✈❡ ◆é❣❛t✐✈❡ ❚❡st P♦s✐t✐❢ ✸✸✸✸ ✶✵✻ ✵✳✾✻✾✷ ◆é❣❛t✐❢ ✶✸✶ ✸✵✾✵ ✵✳✾✺✾✸ ✵✳✾✻✷✷ ✵✳✾✻✻✽ ✵✳✾✻✹✹ ❈❡rt❛✐♥s ❞❡s ❢❛✉① ♥é❣❛t✐❢s s❡ ♣r♦❞✉✐s❡♥t ❛✉ ♠✐❧✐❡✉ ❞❡ ❧✬❛♣♣❛r❡✐❧❧❛❣❡ ❞❡ ✈♦✐❡✱ q✉❛♥❞ ❧❡s r❛✐❧s tr❛✈❡rs❡♥t ❧❡ ❝❡♥tr❡ ❞❡ ❧✬❛✐❣✉✐❧❧❡✳ ❈❡❝✐ ❡①♣❧✐q✉❡ q✉❡ ❧❡ rés✉❧t❛t ❞✉ t❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ s♦✐t ♣❧✉s ❢❛✐❜❧❡ ❡t ❡♥ ♠ê♠❡ t❡♠♣s ❧❡s ❜♦r❞s ❞❡s r❛✐❧s ❢♦♥t ✈❛r✐❡r ❧❡s ♦r✐❡♥t❛t✐♦♥s ❞✉ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖●✳ ▲❛ ✜❣✉r❡ ✹✳✶✾ ♠♦♥tr❡ ❞❡s ❡①❡♠♣❧❡s ❞❡s ❡rr❡✉rs ❞❡ ❞ét❡❝t✐♦♥✳ ❈❡♣❡♥❞❛♥t✱ ❧❛ ♣❧✉♣❛rt ❞❡s ❢❛✉① ♣♦s✐t✐❢s s♦♥t ✐s♦❧és✱ ❝❡ q✉✐ ❧❡s r❡♥❞ ❢❛❝✐❧❡s à ❞ét❡❝t❡r✳ ❯♥ s✐♠♣❧❡ ✜❧tr❛❣❡ ❞❛♥s ❧❡ t❡♠♣s ♣❡r♠❡ttr❛ ❧❡s s✉♣♣r✐♠❡r✳ ❆✉ss✐✱ ♥♦✉s ❛✈♦♥s ét✐q✉❡té ❧❡s ✐♠❛❣❡s ❝♦♥t❡♥❛♥t ❧❡ r❛✐❧ ❞❡ ❣✉✐❞❛❣❡ ❡♥ st❛t✐♦♥ ❝♦♠♠❡ ♥é❣❛t✐❢s✳ ❚♦✉t❡❢♦✐s✱ ❧❡ s②stè♠❡ ❧❡ ❞ét❡❝t❡ ❝♦♠♠❡ ✉♥ r❛✐❧✱ ❝❡ q✉✐ ♣r♦❞✉✐t ❞❡ ♥♦♠❜r❡✉① ❢❛✉① ♣♦s✐t✐❢s✳ ❯♥ ❡①❡♠♣❧❡ ❞❡ ❝❡ t②♣❡ ❞❡ ❢❛✉① ♣♦s✐t✐❢ ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✹✳✶✾❛✳ ❈❡ t②♣❡ ❞❡ ❢❛✉① ♣♦s✐t✐❢ ❡st ✉♥ ❝❛s à tr❛✐t❡r à ♣❛rt✱ s♦✐t ❡♥ ✉t✐❧✐s❛♥t ❧❛ ❧♦❝❛❧✐s❛t✐♦♥✱ s♦✐t ❡♥ r❡❝❤❡r❝❤❛♥t ❧❛ ♣rés❡♥❝❡ ❞✬✉♥ q✉❛✐✳ ❊♥ r❡✈❛♥❝❤❡✱ ❧❡ s❡✉✐❧ ❞❡ ♣r♦❜❛❜✐❧✐té ❞✉ ❝❧❛ss✐✜❡✉r ❙❱▼ ♣❡✉t êtr❡ ♣♦s✐t✐♦♥♥é ♣♦✉r ❛✈♦✐r ✉♥ r❛♣♣❡❧ ❞❡ ✶✵✵ ✪ ❛✉ ❞étr✐♠❡♥t ❞❡ ❧❛ ♣ré❝✐s✐♦♥ ❡t ❧❡ s②stè♠❡ ❢♦✉r♥✐r❛ ❡♥ ❣✉✐s❡ ❞❡ ré♣♦♥s❡ ❞❡s ♥♦♠❜r❡✉s❡s ❞ét❡❝t✐♦♥s ❡rr♦♥é❡s ❡♥ ♣❧✉s ❞❡ ❝❡❧❧❡s ♣❡rt✐♥❡♥t❡s✱ ✐❧ s❡r❛ ❞♦♥❝ ❞✐✣❝✐❧❡♠❡♥t ❡①♣❧♦✐t❛❜❧❡✳ ❈❡♣❡♥❞❛♥t✱ ❣râ❝❡ à ✉♥ ✜❧tr❛❣❡ t❡♠♣♦r❡❧✱ ♦✉ ♠ê♠❡ ❧✬✉s❛❣❡ ❞❡ ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ♦✉ ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❢❡✉① ❞❡ s✐❣♥❛❧✐s❛t✐♦♥ ♣❡r♠❡ttr❛ ❞❡ ré❛❧✐s❡r ✉♥❡ s✉♣♣r❡ss✐♦♥ ❞❡s ❢❛✉① ♣♦s✐t✐❢s ❡t ♣❛r ❝♦♥séq✉❡♥t ❛✉❣♠❡♥t❡r ❧❛ ♣ré❝✐s✐♦♥✳ ❚♦✉s ❧❡s ❝r♦✐s❡♠❡♥ts s♦♥t éq✉✐♣és ❞❡s ❢❡✉① ❞❡ s✐❣♥❛❧✐s❛t✐♦♥✱ ❞♦♥❝ ✉♥❡ ❝♦♠❜✐♥❛✐s♦♥ ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❢❡✉① s❡♠❜❧❡ ❝♦❤ér❡♥t ♣♦✉r ❛♠é❧✐♦r❡r ❧❡ t❛✉① ❞❡ ❞ét❡❝t✐♦♥ ❞❡s ❝r♦✐ss❡♠❡♥ts ❯♥ ❞❡r♥✐❡r t❡st ❛ été ré❛❧✐sé ❡♥ ❝♦♠❜✐♥❛♥t ❧❡s ❞❡✉① ❞❡s❝r✐♣t❡✉rs ❬❙♦♥❣ ❡t ❛❧✳ ✷✵✵✽❜❪ ♠❛✐s ❝♦♠♠❡ ❧❡ ♠♦♥tr❡ ❧❛ ✜❣✉r❡ ✹✳✷✵✱ ❧❡s rés✉❧t❛ts ♦❜t❡♥✉s ♥❡ s❡♠❜❧❡♥t ♣❛s ❜❡❛✉❝♦✉♣ ♣❧✉s ❡✣❝❛❝❡s q✉❡ ❍❖●✳ ❈❡❧❛ ❝♦♥✜r♠❡ q✉❡ ❧✬❛♣♣❛r❡♥❝❡ ❡t ❧❛ ❢♦r♠❡ ❧♦❝❛❧❡ ❞✬✉♥ ♦❜❥❡t ❞❛♥s ✉♥❡ ✐♠❛❣❡ ♣❡✉✈❡♥t êtr❡ ❞é❝r✐t❡s✹✳✺✳ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞✉ t②♣❡ ❞✬❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ✽✾ ✭❛✮ ❋❛✉① ♣♦s✐t✐❢ ❞❡ ❞ét❡❝t✐♦♥✳ ✭❜✮ ❋❛✉① ♥é❣❛t✐❢ ❞❡ ❞ét❡❝t✐♦♥✳ ❋✐❣✉r❡ ✹✳✶✾ ✕ ❊rr❡✉rs ❞❡ ❞ét❡❝t✐♦♥ ❞✬❛✐❣✉✐❧❧❡ ♣❛r ❧❛ ❞✐str✐❜✉t✐♦♥ ❞❡ ❧✬✐♥t❡♥s✐té ❞✉ ❣r❛❞✐❡♥t ♦✉ ❧❛ ❞✐r❡❝t✐♦♥ ❞❡s ❝♦♥t♦✉rs✳ ✭❛✮ ❘❖❈ ❝♦♠♣❛r❛t✐✈❡ ❞❡ t❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣✱ ❍❖● 3 × 1✱ ❡t ❧❡✉r ❝♦♠❜✐♥❛✐s♦♥✳ ✭❜✮ ❩♦♦♠ ❞❡ ❧❛ ✜❣✉r❡ ✭❛✮✳ ❋✐❣✉r❡ ✹✳✷✵ ✕ ➱✈❛❧✉❛t✐♦♥ ❞❡ ❧✬❛♣♣♦rt s✐♠✉❧t❛♥é ❞❡s ❞❡✉① ❞❡s❝r✐♣t❡✉rs✳ ▲❡s tr❛✈❛✉① ré❛❧✐sés ❞❛♥s ❝❡ ❞♦♠❛✐♥❡ ♦♥t ❞♦♥♥é ❧✐❡✉ à ✉♥❡ ♣✉❜❧✐❝❛t✐♦♥ ✐♥t❡r♥❛t✐♦♥❛❧❡ ❞❛♥s ■❊❊❊ ■❈■❘❚ ✷✵✶✸ ■♥t❡r♥❛t✐♦♥❛❧ ■❊❊❊ ❈♦♥❢❡r❡♥❝❡ ♦♥ ■♥t❡❧❧✐❣❡♥t ❘❛✐❧ ❚r❛♥s♣♦rt❛t✐♦♥ ✐♥t✐t✉❧é ❘❛✐❧ ❛♥❞ ❚✉r♥♦✉t ❞❡t❡❝t✐♦♥ ✉s✐♥❣ ❣r❛❞✐❡♥t ✐♥❢♦r♠❛t✐♦♥ ❛♥❞ t❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ ✭✈♦✐r ❆♥♥❡①❡ ❆✳✷✮✳ ✹✳✺ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞✉ t②♣❡ ❞✬❛♣♣❛✲ r❡✐❧ ❞❡ ✈♦✐❡ P♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞✉ t②♣❡ ❞✬❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡✱ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❡st ❧❛ ♠ê♠❡ q✉❡ ♣ré❝é❞❡♠✲ ♠❡♥t✱ ♣❛r ❝♦♥tr❡✱ ❝❡tt❡ ❢♦✐s✲❝✐✱ s❡✉❧❡s ❧❡s ✐♠❛❣❡s ❝♦♥t❡♥❛♥t ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ♦♥t été ❣❛r❞é❡s✳ ▲❡s ❞✐✛ér❡♥ts t②♣❡s ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ♣rés❡♥ts ❞❛♥s ❧❡s s②stè♠❡s ❱❆▲✱ ♣❡✉✈❡♥t êtr❡ ré❞✉✐ts à ✺ ❝❧❛ss❡s✳ ❉❡✉① ❞✐✈❡r❣❡♥ts✱ ❞❡✉① ❝♦♥✈❡r❣❡♥ts ❡t ✉♥ ♣♦✉r ❧✬❛rr✐✈é❡ ❡t s♦rt✐❡ ❞❡ ❧✬❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡✳ ▲❡ ♥♦♠❜r❡ t♦t❛❧ ❞❡s ✐♠❛❣❡s ■▼P ❛✈❡❝ ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ❡st ❞❡ ✹✾✹✾ ♦ù ✷✶✼✾ s♦♥t ❞❡ ❧❛ ❝❧❛ss❡ ✶✱ ✶✶✵✵ s♦♥t ❞❡ ❧❛ ❝❧❛ss❡ ✷✱ ✸✹✹ s♦♥t ❞❡ ❧❛ ❝❧❛ss❡ ✸✱ ✼✸✵ s♦♥t ❞❡ ❧❛ ❝❧❛ss❡ ✹ ❡t ✺✾✻ s♦♥t ❞❡ ❧❛ ❝❧❛ss❡ ✺✳ ❱✉ ❧❡ ❢❛✐❜❧❡ ♥♦♠❜r❡ ❞✬é❝❤❛♥t✐❧❧♦♥s✱ ♣♦✉r ❧✬❛♣♣r❡♥t✐ss❛❣❡ s✉♣❡r✈✐sé ♥♦✉s ❛✈♦♥s ✉t✐❧✐sé s❡✉❧❡♠❡♥t ✸✵✪ ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ♣♦✉r ❝❤❛q✉❡ ❝❧❛ss❡✱ ❝❡❝✐ ♣♦✉r é✈✐t❡r ✉♥ s✉r❡♥tr❛î♥❡♠❡♥t ✭❧❡ ♠♦❞è❧❡ ❝♦❧❧❡ ♣❛r❢❛✐t❡♠❡♥t ❛✉① ❞♦♥♥é❡s✮ ❡t ✉♥ ❞étr✐♠❡♥t ❞❡s ♣ré❝✐s✐♦♥s ❢✉t✉r❡s✳✾✵ ❈❤❛♣✐tr❡ ✹✳ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ❋✐❣✉r❡ ✹✳✷✶ ✕ ■♠❛❣❡s ■P▼ ♣♦✉r ❧❡s ✺ ❝❧❛ss❡s ❞✬❛✐❣✉✐❧❧❛❣❡ ✹✳✺✳✶ ❙❱▼ ♠✉❧t✐✲❝❧❛ss❡ ➚ ❧✬♦r✐❣✐♥❡✱ ❧❡s ❙❱▼s ♦♥t été ❝♦♥ç✉s ❡ss❡♥t✐❡❧❧❡♠❡♥t ♣♦✉r ❧❛ sé♣❛r❛t✐♦♥ ❞❡ 2 ❝❧❛ss❡s✳ ❈❡♣❡♥✲ ❞❛♥t✱ ♣❧✉s✐❡✉rs ❛♣♣r♦❝❤❡s ♣❡r♠❡tt❡♥t ❞✬ét❡♥❞r❡ ❝❡t ❛❧❣♦r✐t❤♠❡ ❛✉① ❝❛s ❞❡ ♣❧✉s✐❡✉rs ❝❧❛ss❡s✳ ❈❡s s❝❤é♠❛s s♦♥t ❛♣♣❧✐❝❛❜❧❡s à t♦✉t ❝❧❛ss✐✜❝❛t❡✉r ❜✐♥❛✐r❡✱ ❡t ♥❡ s♦♥t ❞♦♥❝ ♣❛s s♣é❝✐✜q✉❡s ❞❡s ❙❱▼ ❬❍s✉ ✫ ▲✐♥ ✷✵✵✷❪✳ ❯♥ ❈♦♥tr❡ ❚♦✉s ✭✶✈s❆ ✿ ❖♥❡ ✈❡rs✉s ❆❧❧✮ P♦✉r ❝❤❛q✉❡ ❝❧❛ss❡✱ ✐❧ ❢❛✉t ❞ét❡r♠✐♥❡r ✉♥ ❤②♣❡r♣❧❛♥ sé♣❛r❛♥t ❝❡❧❧❡✲❝✐ ❞❡ t♦✉t❡s ❧❡s ❛✉tr❡s ❝❧❛ss❡s✳ ❆✐♥s✐✱ ♣♦✉r ▼ ❝❧❛ss❡s✱ ❧❡ ♥♦♠❜r❡ t♦t❛❧ ❞❡ ❢♦♥❝t✐♦♥s ❞❡ ❞é❝✐s✐♦♥ ❡st M✳ P♦✉r ❝❤❛q✉❡ ❢♦♥❝t✐♦♥ ❞❡ ❞é❝✐s✐♦♥✱ t♦✉s ❧❡s ❡①❡♠♣❧❡s ❛♣♣❛rt❡♥❛♥t à ❧❛ ❝❧❛ss❡ ❝♦♥s✐❞éré❡ s♦♥t ét✐q✉❡tés ♣♦s✐t✐✈❡♠❡♥t ✭✰✶✮ ❡t t♦✉s ❧❡s ❡①❡♠♣❧❡s ♥✬❛♣♣❛rt❡♥❛♥t ♣❛s à ❧❛ ❝❧❛ss❡ s♦♥t ét✐q✉❡tés ♥é❣❛✲ t✐✈❡♠❡♥t ✭✲✶✮✳ ❊♥ ♣❤❛s❡ ❞❡ t❡st✱ ❧❡ ❝❧❛ss✐✜❝❛t❡✉r ❞♦♥♥❛♥t ❧❛ ✈❛❧❡✉r ❞❡ ❝♦♥✜❛♥❝❡ ✭❡✳❣ ❧❛ ♠❛r❣❡✮ ❧❛ ♣❧✉s é❧❡✈é❡ r❡♠♣♦rt❡ ❧❡ ✈♦t❡✳ ❆✐♥s✐✱ ♣♦✉r ❝❤❛q✉❡ ❡①❡♠♣❧❡ ❞❡ t❡st✱ M ✈❛❧❡✉rs ❞❡ s♦rt✐❡ f i(x) ❛✈❡❝ (i = 1, ...M) s♦♥t ❞✐s♣♦♥✐❜❧❡s✳ ❯♥ ❝♦♥tr❡ ✉♥ ✭✶✈s✶ ✿ ❖♥❡ ✈❡rs✉s ❖♥❡✮ P♦✉r ❝❡tt❡ ❞❡✉①✐è♠❡ ♠ét❤♦❞❡✱ ❛✉ ❧✐❡✉ ❞✬❛♣♣r❡♥❞r❡ M ❢♦♥❝t✐♦♥s ❞❡ ❞é❝✐s✐♦♥s ♣♦✉r ❞✐✛ér❡♥❝✐❡r ❧❡s ❝❧❛ss❡s✱ ✐❝✐ ❝❤❛q✉❡ ❝❧❛ss❡ ❡st ❞✐s❝r✐♠✐♥é❡ ❞✬✉♥❡ ❛✉tr❡✳ ❆✐♥s✐ M(M − 1) 2 ❢♦♥❝t✐♦♥s ❞❡ ❞é❝✐s✐♦♥s s♦♥t ♥é❝❡ss❛✐r❡s ❡t ❝❤❛❝✉♥❡ ❞✬❡♥tr❡ ❡❧❧❡s ❡✛❡❝t✉❡ ✉♥ ✈♦t❡ ♣♦✉r ❧✬❛✛❡❝t❛t✐♦♥ ❞✬✉♥ ♥♦✉✈❡❛✉ ♣♦✐♥t x✳ P♦✉r ❝❤❛q✉❡ ❢♦♥❝t✐♦♥ ❞❡ ❞é❝✐s✐♦♥✱ ❞❡✉① ❝❧❛ss❡s s♦♥t ❝♦♠♣❛ré❡s✳ ❚♦✉s ❧❡s ❡①❡♠♣❧❡s ❛♣♣❛rt❡♥❛♥t à ❧❛ ❝❧❛ss❡ ❝♦♥s✐❞éré❡ s♦♥t ét✐q✉❡tés ♣♦s✐t✐✈❡♠❡♥t ✭✰✶✮ ❡t t♦✉s ❧❡s ❡①❡♠♣❧❡s ❛♣♣❛rt❡♥❛♥t à ❧✬❛✉tr❡ ❝❧❛ss❡ s♦♥t ét✐q✉❡tés ♥é❣❛t✐✈❡♠❡♥t ✭✲✶✮✳ ❊♥ ♣❤❛s❡ ❞❡ t❡st✱ ❧✬é❝❤❛♥t✐❧❧♦♥ à ❝❧❛ss❡r ❡st ❛♥❛❧②sé ♣❛r ❝❤❛q✉❡ ❝❧❛ss✐✜❝❛t❡✉r ❡t ✉♥ ✈♦t❡ ♠❛❥♦r✐t❛✐r❡ ♣❡r♠❡t ❞❡ ❞ét❡r♠✐♥❡r s❛ ❝❧❛ss❡✳ ✹✳✺✳✷ ❉❡s❝r✐♣t❡✉r ♣r♦♣♦sé ✿ ❍❖● P✉✐sq✉❡ ❧❡ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖● ❡st ❝❛r❛❝tér✐sé ♣❛r s❛ ❣r❛♥❞❡ ❝❛♣❛❝✐té à ❞✐s❝r✐♠✐♥❡r ❧❡s ❢♦r♠❡s✱ ❡♥ ♣❛rt✐❝✉❧✐❡r ❧❡s ♣✐ét♦♥s ❬❉❛❧❛❧ ✫ ❚r✐❣❣s ✷✵✵✺❪ ❡t ❧❡s ♣❛♥♥❡❛✉① r♦✉t✐❡rs ❬❩❛❦❧♦✉t❛ ❡t ❛❧✳ ✷✵✶✶❪✱ ♥♦✉s ❛✈♦♥s ❞é❝✐❞é ❞✬✉t✐❧✐s❡r ❝❡ ❞❡s❝r✐♣t❡✉r ♣♦✉r ré❛❧✐s❡r ♥♦tr❡ ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡✳✹✳✺✳ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞✉ t②♣❡ ❞✬❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ✾✶ ❚❡sts ré❛❧✐sés ❛✈❡❝ P②r❛♠✐❞❡ ❞✬❍✐st♦❣r❛♠♠❡s ♦r✐❡♥tés ❞❡ ●r❛❞✐❡♥ts ✭P❍❖●✮ ❬❇♦s❝❤ ❡t ❛❧✳ ✷✵✵✼❪ ♥♦✉s ♣rés❡♥t❡ ✉♥❡ ✈❛r✐❛♥t❡ ❞❡ ❍❖●✱ ❧❡ P❍❖● ✭❞❡ ❧✬❛♥❣❧❛✐s P②r❛♠✐❞ ♦❢ ❍✐s✲ t♦❣r❛♠s ♦❢ ❖r✐❡♥t❡❞ ●r❛❞✐❡♥ts✳ ❈❡ ❞❡s❝r✐♣t❡✉r ❡st ♣rés❡♥té ❝♦♠♠❡ ♣❧✉s ♣ré❝✐s q✉❡ ❧❡ ❍❖● ♣✉✐sq✉✬✐❧ ❧✉✐ ❛♣♣♦rt❡ ✉♥ ❛s♣❡❝t s♣❛t✐❛❧ s✉♣♣❧é♠❡♥t❛✐r❡✱ ❧✬♦❜t❡♥t✐♦♥ ❞❡s ❍❖● à ❞✐✛ér❡♥t❡s é❝❤❡❧❧❡s✳ ▲❛ ✜❣✉r❡ ✹✳✷✷ ♠♦♥tr❡ ❧❡ ❝❛❧❝✉❧ ❞✉ P❍❖● s✉r ❧❡s ❞✐✛ér❡♥ts ♥✐✈❡❛✉① ❞❡ ❞é❝♦♠♣♦s✐t✐♦♥✱ ❡♥ ♣❛rt✐❝✉❧✐❡r ♣♦✉r ❧❡ ♥✐✈❡❛✉ ❞❡ ❞é❝♦♠♣♦s✐t✐♦♥ L = 2✳ ❉❡ ♣❧✉s✱ s❡❧♦♥ s♦♥ ❝ré❛t❡✉r ❬❇♦s❝❤ ❡t ❛❧✳ ✷✵✵✼❪✱ P❍❖● ♠♦♥tr❡ ❞❡ très ❜♦♥s rés✉❧t❛ts ❞❡ r❡❝♦♥♥❛✐s✲ s❛♥❝❡ ❞❡s ❢♦r♠❡s✳ ❙♦♥ ❡✣❝❛❝✐té ❛ été ♣r♦✉✈é ❞❛♥s ❧❡s tr❛✈❛✉① ❞❡ ❬P✉t❤♦♥ ✷✵✶✸❪ ♣♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ♣❛♥♦♥❝❡❛✉① r♦✉t✐❡rs ❡♥ ✹ ❣r♦✉♣❡s ✿ ✓❚❡①t❡✔ ✓❋❧è❝❤❡✔ ✓P✐❝t♦❣r❛♠♠❡✔ ❡t ✓▼✐①t❡✔✳ ▲✬♦❜t❡♥t✐♦♥ ❞❡ P❍❖● ♣❡✉t êtr❡ ❞é❝r✐t❡ ❝♦♠♠❡ s✉✐t ✿ ❆✉ ♥✐✈❡❛✉ l✱ ❧✬✐♠❛❣❡ ❡st s✉❜❞✐✈✐sé❡ ❡♥ 4 l s♦✉s✲ré❣✐♦♥s✳ ❉❛♥s ❝❤❛❝✉♥❡ ❞✬❡❧❧❡✱ ❧✬✐♠❛❣❡ ❞❡s ❝♦♥t♦✉rs ❡st s②♥t❤ét✐sé❡ ❡♥ ✉♥ ❤✐st♦❣r❛♠♠❡ ❞❡ ❞❡ B ✐♥t❡r✈❛❧❧❡s ❞✬♦r✐❡♥t❛t✐♦♥ ❞❡ ❣r❛❞✐❡♥ts ♣♦♥❞érés ♣❛r ❧❡✉r ❛♠♣❧✐t✉❞❡✳ ❈❡s ✐♥t❡r✈❛❧❧❡s s♦♥t ❞é✜♥✐s ❞❡ ❧❛ ♠ê♠❡ ❢❛ç♦♥ q✉❡ ♣♦✉r ❍❖●✱ B ❝♦♥t❡♥❡✉rs ♣♦✉r ❞❡s ❣r❛❞✐❡♥ts s✐❣♥és ♦✉ ♥♦♥ s✐❣♥és✳ ▲❡ ❞❡s❝r✐♣t❡✉r ❣❧♦❜❛❧ ❝♦rr❡s♣♦♥❞ à ❧❛ ❝♦♥❝❛té♥❛t✐♦♥ ❞❡s ✈❡❝t❡✉rs ♦❜t❡♥✉s ♣♦✉r ❝❤❛q✉❡ ♥✐✈❡❛✉✱ s♦✐t ✉♥❡ ❞✐♠❡♥s✐♦♥ t♦t❛❧❡ B P l∈L 4 l ✳ ❊♥✜♥✱ ✉♥❡ ♥♦r♠❛❧✐s❛t✐♦♥ ❡st ❡✛❡❝t✉é❡ s✉r ❧❡ ✈❡❝t❡✉r ❝♦♠♣❧❡t✳ ❈♦♥tr❛✐r❡♠❡♥t à ❧✬❛♣♣r♦❝❤❡ ♣r♦♣♦sé❡ ♣❛r ❬❉❛❧❛❧ ✫ ❚r✐❣❣s ✷✵✵✺❪ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ♣✐ét♦♥s✱ ✐❧ ♥✬② ❛ ♣❛s ❞❡ r❡❝♦✉✈r❡♠❡♥t ❞❡s ❜❧♦❝s✱ ♥✐ ❞❡ ♣❛rt✐t✐♦♥♥❡♠❡♥t ♣❧✉s ✜♥ ❡♥ ❝❡❧❧✉❧❡s ♥✐ ❞❡ ♥♦r♠❛❧✐s❛t✐♦♥ ♣❛r ❜❧♦❝s✳ ✭❛✮ ❧❂✵ ✭❜✮ ❧❂✶ ✭❝✮ ❧❂✷ ✭❞✮ ❍✐st♦❣r❛♠♠❡ ♣♦✉r ❧❂✵ ✭❡✮ ❍✐st♦❣r❛♠♠❡ ♣♦✉r ❧❂✶ ✭❢✮ ❍✐st♦❣r❛♠♠❡ ♣♦✉r ❧❂✷ ❋✐❣✉r❡ ✹✳✷✷ ✕ ●é♥ér❛t✐♦♥ ❞✬✉♥ P❍❖● ♣♦✉r ✉♥❡ ✐♠❛❣❡✳ B = 8✱ L = 3✳ ➚ ❝❤❛q✉❡ ♥✐✈❡❛✉ l✱ ❧✬✐♠❛❣❡ ❡st ❞é❝♦♠♣♦sé❡ ❡♥ 4 s♦✉s✲ré❣✐♦♥s ♣♦✉r ❧❡sq✉❡❧❧❡s ✉♥ ❤✐st♦❣r❛♠♠❡ ❞✬♦r✐❡♥t❛t✐♦♥ ❞❡ ❣r❛❞✐❡♥ts s✉r B ✐♥t❡r✈❛❧❧❡s ❡st ♦❜t❡♥✉✳ ▲❛ ❝♦♥❝❛té♥❛t✐♦♥ ❞❡ t♦✉s ❧❡s ✈❡❝t❡✉rs ❞❡ ❝❤❛q✉❡ ♥✐✈❡❛✉ ❢♦r♠❡ ❧❡ ❞❡s❝r✐♣t❡✉r ✜♥❛❧✳ ▲❛ ♥♦r♠❛❧✐s❛t✐♦♥ ❡st ré❛❧✐sé❡ ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞✉ ✈❡❝t❡✉r✳ P✉✐sq✉❡ ♥♦s ✐♠❛❣❡s ■P▼ ♦♥t ✉♥❡ t❛✐❧❧❡ ré❞✉✐t❡✱ 32 × 256 pixels✱ ♥♦✉s ❛✈♦♥s ❧✐♠✐té ❧❡ ♥✐✈❡❛✉ ♠❛①✐♠❛❧ ❞❡ P❍❖● à ▲❂✸✳ ❉❡s ♥✐✈❡❛✉① ❞❡ ❞✐✈✐s✐♦♥ ❡♥ ❜❧♦❝s s✉♣♣❧é♠❡♥t❛✐r❡s ♥♦✉s ❞♦♥♥❡r❛✐❡♥t ❞❡s ❞❡s❝r✐♣t❡✉rs ♣❧✉s ❣r❛♥❞s q✉❡ ❧❛ ❧✬✐♠❛❣❡ ❞✬❡♥tré❡ ❡❧❧❡✲♠ê♠❡✳ ▲❡ ♥♦♠❜r❡ ❞✬✐♥t❡r✈❛❧❧❡s ❛ été ✜①é à 8 ♣♦✉r ❞❡s ❣r❛❞✐❡♥ts ♥♦♥✲s✐❣♥és✳ ▲✬✉s❛❣❡ ❞❡s ❣r❛❞✐❡♥ts s✐❣♥és ♥✬❛♣♣♦rt❡r❛ ♣❛s ❞✬✐♥❢♦r♠❛t✐♦♥ s✉♣♣❧é♠❡♥t❛✐r❡ ♣♦✉r ❞✐✛ér❡♥❝✐❡r ♥♦s 5 t②♣❡s ❞❡s ❝❧❛ss❡s✳ ▲❡s ♣r❡♠✐èr❡s ❞é♠❛r❝❤❡s ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ❛✈❡❝ P❍❖● ♥♦✉s ♦♥t ❞♦♥♥é ❞❡ ❜♦♥s rés✉❧t❛ts ❝♦♠♠❡ ❧❡ ♠♦♥tr❡ ❧❛ ✜❣✉r❡ ✹✳✷✸✱ ♦ù ♥♦✉s ♠♦♥tr♦♥s ❧✬❡①❛❝t✐t✉❞❡ ❣❧♦❜❛❧❡ ❞✉ ❝❧❛ss✐✜❡✉r ♠✉❧t✐✲❝❧❛ss❡ ♣♦✉r ❞❡✉① ♠ét❤♦❞❡s✱ ❙❱▼ 1vs1 ❡t 1vsA✳✾✷ ❈❤❛♣✐tr❡ ✹✳ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ❋✐❣✉r❡ ✹✳✷✸ ✕ ❘és✉❧t❛ts ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ♣♦✉r ❧❡ ❞❡s❝r✐♣t❡✉r P❍❖●✳ ✳ P♦✉r ❝❡tt❡ ❝❧❛ss✐✜❝❛t✐♦♥✱ ❧❡ ♥♦♠❜r❡ ❞❡ ❜✐♥s ✉t✐❧✐sé ❡st ❞❡ 8 ❛✈❡❝ ❞❡s ❣r❛❞✐❡♥ts ♥♦♥✲s✐❣♥és✳ ▲❛ ❜❛rr❡ r♦✉❣❡ ♥♦✉s ♠♦♥tr❡ ❧❡s rés✉❧t❛ts ❛✈❡❝ ✉♥ ❝❧❛ss✐✜❡✉r ❙❱▼ ✶✈s✶ ❡t ❧❛ ✈❡rt❡ ❙❱▼ ✶✈s❆❧❧✳ ▲✬❛❜s❝✐ss❡ r❡♣rés❡♥t❡ ❧❡ ❞❡❣ré ❞❡ ♣r♦❢♦♥❞❡✉r ❞❡ P❍❖●✳ ❱✉ ❧❡s ❜♦♥s rés✉❧t❛ts ♦❜t❡♥✉s ❛✈❡❝ P❍❖●✱ ♥♦✉s ❛✈♦♥s ❝♦♥s✐❞éré q✉❡ ♥♦s ✐♠❛❣❡s ■P▼ ét❛♥t t♦✉❥♦✉rs ✈✉❡s ❞❡♣✉✐s ❧❡ ♠ê♠❡ ♣♦✐♥t✱ ♥♦✉s ♣♦✉✈♦♥s ♠✐❡✉① ❝✐❜❧❡r ❧❡ ♣♦s✐t✐♦♥♥❡♠❡♥t ❞❡s ❜❧♦❝s ❞❡ ❍❖● ♣♦✉r ❞✐✛ér❡♥❝✐❡r ❧❡s ❝❧❛ss❡s✳ ❈♦♥tr❛✐r❡♠❡♥t ❛✉ ❞é❝♦✉♣❛❣❡ ❞❡ P❍❖●✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞❡ ré❛❧✐s❡r ✉♥ ❞é❝♦✉♣❛❣❡ ❝❧❛ss✐q✉❡ ❞❡ ❍❖●✱ s❛♥s ❝❤❡✈❛✉❝❤❡♠❡♥t✳ ❈❡tt❡ ❢♦✐s✱ ❧❡s ❝♦♥t❡♥❡✉rs ✭❜✐♥s✮ ❞❡ ❍❖●✱ ♦♥t été ❞é✜♥✐s ❝♦♠♠❡ ✐♥❞✐q✉é ❞❛♥s ❧✬éq✉❛t✐♦♥ ✹✳✶✶✱ ✉♥ t♦t❛❧ ❞❡ 10 ❜✐♥s✱ ❛✈❡❝ ❧✬♦❜❥❡❝t✐❢ ❞❡ ♠❡ttr❡ ❡♥ ✈❛❧❡✉r ❧❛ ♣rés❡♥❝❡ ❞❡s r❛✐❧s ❝♦♥✈❡r❣❡♥ts ❡t ❞✐✈❡r❣❡♥ts✳ ( [0 − 10; 10 − 30; 30 − 50; 50 − 70; 70 − 85; 85 − 95; 95 − 110; 110 − 130; 130 − 150; 150 − 170; 170 − 180] ✭✹✳✶✶✮ P♦✉r ❞ét❡r♠✐♥❡r ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦❧♦♥♥❡s✴❧✐❣♥❡s ❞❡ ❍❖●✱ ♥♦✉s ❛✈♦♥s t❡sté ❞✐✛ér❡♥t❡s ❝♦♠❜✐♥❛✐✲ s♦♥s✳ ❯♥ ❡①❡♠♣❧❡ ❞❡ ♣❛rt✐t✐♦♥ ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✹✳✷✹✱ ♣♦✉r ❍❖● 5 × 2✳ ✭❛✮ ❉✐✈✐s✐♦♥ ❡♥ ❜❧♦❝s ❞❡ ❧✬✐♠❛❣❡ ■P▼✳ ✭❜✮ ❉❡s❝r✐♣t❡✉r ❍❖● ✭5 ❝♦❧♦♥♥❡s × 2 ❧✐❣♥❡s ✮✳ ❋✐❣✉r❡ ✹✳✷✹ ✕ ❉✐✈✐s✐♦♥ ❡♥ ❜❧♦❝s ❞❡ ❧✬✐♠❛❣❡ ■P▼ ❡t ❝♦♥❝❛té♥❛t✐♦♥ ❞❡s ❤✐st♦❣r❛♠♠❡s ♣♦✉r ❢♦r♠❡r ❧❡ ❞❡s❝r✐♣t❡✉r✳ ✹✳✺✳✸ ❘és✉❧t❛ts ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ P♦✉r ❞ét❡r♠✐♥❡r ❧❡ ❜♦♥ ♥♦♠❜r❡ ❞❡ ❜❧♦❝s✱ ♥♦✉s ❛✈♦♥s t❡sté ❞✐✛ér❡♥t❡s ❝♦♠❜✐♥❛✐s♦♥s ❞❡s ❝♦✲ ❧♦♥♥❡s✴❧✐❣♥❡s✱ ❡t ❧❡✉r rés✉❧t❛t ❞✬❡①❛❝t✐t✉❞❡ ❣❧♦❜❛❧❡ ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✹✳✷✺✳ ◆♦✉s ♣♦✉✈♦♥s ✈♦✐r q✉✬à ♣❛rt✐r ❞✬✉♥ ❝❡rt❛✐♥ ♥♦♠❜r❡ ❞❡ ❝♦❧♦♥♥❡s✱ ❧❡ rés✉❧t❛t ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ♣❧❛❢♦♥♥❡ ❡t s❡ ✈♦✐t ♠ê♠❡ ré❞✉✐t✳ ▲❡ ♠❡✐❧❧❡✉r ❞❡s❝r✐♣t❡✉r ❡st ✼ ❝♦❧♦♥♥❡s ❡t ✸ ❧✐❣♥❡s✳ P♦✉r ♠✐❡✉① ❛♥❛❧②s❡r ❧❡s ♣❡r❢♦r♠❛♥❝❡s ❞✉ ❝❧❛ss✐✜❡✉r✱ ♥♦✉s ❡①❛♠✐♥♦♥s s❛ ré♣♦♥s❡ ✐♥❞✐✈✐❞✉❡❧❧❡ ♣♦✉r ❝❤❛q✉❡ ❝❧❛ss❡✳ P♦✉r ❝❡❧❛✱ ♥♦✉s r❡♣rés❡♥t♦♥s ❧❛ ❝♦✉r❜❡ ❘❖❈ Pré❝✐s✐♦♥✲❘❛♣♣❡❧✳ ❈❡tt❡ ❝♦✉r❜❡ ♥♦✉s ♣❡r♠❡t ❞❡ ♠❡ttr❡ ❡♥ é✈✐❞❡♥❝❡ ❞❡✉① ❛s♣❡❝ts ❞❡ ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ✿✹✳✺✳ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞✉ t②♣❡ ❞✬❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ✾✸ ❋✐❣✉r❡ ✹✳✷✺ ✕ ➱❧❡❝t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞❡ ❧✐❣♥❡s ❡t ❞❡ ❝♦❧♦♥♥❡s ♣♦✉r ❧❡ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖●✳ ◆♦✉s ♣♦✉✈♦♥s ✈♦✐r ❝♦♠♠❡♥t ✈❛r✐❡ ❧✬❡①❛❝t✐t✉❞❡ ♣♦✉r ❧❡s ❞❡✉① ❝❧❛ss✐✜❡✉rs ❙❱❙ 1vs1 ❡t ❙❱▼ 1vsA ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞❡ ❝♦❧♦♥♥❡s ❞❡ ❧✐❣♥❡s ❞✉ ❞❡s❝r✐♣t❡✉r ❍❖●✳ ❙❱▼ 1vs1 s❡ ♣rés❡♥t❡ ♣❧✉s ❡✣❝❛❝❡ q✉❡ 1vsA ♣♦✉r t♦✉t ❧❡s ❝❛s✳ ▲❛ ♠❡✐❧❧❡✉r❡ ❡①❛❝t✐t✉❞❡ ❡st ♦❜t❡♥✉❡ ♣♦✉r ✼ ❝♦❧♦♥♥❡s ❡t ✷ ❧✐❣♥❡s✳ ▲❛ t❛✐❧❧❡ ✜♥❛❧❡ ❞✉ ♠❡✐❧❧❡✉r ❞❡s❝r✐♣t❡✉r ❡st ❞❡ 7 × 3 × 10 = 210✳ ▲✬❡①❛❝t✐t✉❞❡ ❡st ❞❡ 98.98% ✕ ▲❡ t❛✉① ❞❡ ♣ré❝✐s✐♦♥ ♦✉ ❧❛ ♣r♦♣♦rt✐♦♥ ❞❡s ✈r❛✐s ♣♦s✐t✐❢s ❞❛♥s ❧❡s ✐♠❛❣❡s t❡sté❡s ✕ ❧❡s t❛✉① ❞❡ r❛♣♣❡❧ ♦✉ ❧❛ ♣r♦♣♦rt✐♦♥ ❞❡ ❝❧❛ss❡s ❜✐❡♥ ❞ét❡r♠✐♥é❡s ♣❛r♠✐ t♦✉t❡s ❧❡s ✐♠❛❣❡s ♣ré✲ s❡♥t❡s ❞❛♥s ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s✳ ▲❡s ❝♦✉r❜❡s ❘❖❈ ❞❡ ❧❛ ✜❣✉r❡ ✹✳✷✻ ♦♥t été ♦❜t❡♥✉❡s ❡♥ ❢❛✐s❛♥t ✈❛r✐❡r ❧❡ s❡✉✐❧ ❞❡ ♣r♦❜❛❜✐❧✐té ❞✬❛♣♣❛rt❡♥✐r ❛✉① ♣♦s✐t✐❢s ♣♦✉r ❝❤❛❝✉♥ ❞❡s ❙❱▼ ❞✉ ❝❧❛ss✐✜❡✉r ♠✉❧t✐✲❝❧❛ss❡✳ P❧✉s ❧❡ s❡✉✐❧ ❡st ❤❛✉t✱ ♠❡✐❧❧❡✉r❡ ❡st ❧❛ ♣ré❝✐s✐♦♥ ❡t ♣✐r❡ ❧❡ r❛♣♣❡❧✳ ❋✐❣✉r❡ ✹✳✷✻ ✕ ❈♦✉r❜❡ Pré❝✐s✐♦♥✲❘❛♣♣❡❧ ♦❜t❡♥✉❡ ♣♦✉r ❙❱▼ 1vs1 ❛✈❡❝ ❞❡s❝r✐♣t❡✉r ❍❖● 7 × 3 ♣♦✉r ❝❤❛❝✉♥❡ ❞❡s ❝❧❛ss❡s✳ ▲❛ ✜❣✉r❡ ✹✳✷✽ ♠♦♥tr❡ ❞✐✛ér❡♥ts ❡①❡♠♣❧❡s ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡✳ ❆✜♥ ❞✬é✈❛❧✉❡r q✉❛♥t✐t❛t✐✈❡♠❡♥t ❧❡s ❡rr❡✉rs ❞❡ ❝♦♥❢✉s✐♦♥ ❡♥tr❡ ❝❧❛ss❡s✱ ♥♦✉s ❛♥❛❧②s♦♥s ❧❛ ♠❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥✳ P♦✉r ❧❡ ♣r♦❜❧è♠❡ ❞♦♥♥é à C = 5 ❝❧❛ss❡s✱ ❧❛ ♠❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ♦❜t❡♥✉❡ ❞✐s♣♦s❡ ❞❡ C 2 = 25 ♣♦s✐t✐♦♥s✱ ❝♦♥t❡♥❛♥t ❧❡s C ❜♦♥♥❡s ❝❧❛ss✐✜❝❛t✐♦♥s s✉r ❧❛ ❞✐❛❣♦♥❛❧❡ ♣r✐♥❝✐♣❛❧❡✱ ❡t C(C − 1)✾✹ ❈❤❛♣✐tr❡ ✹✳ ❉ét❡❝t✐♦♥ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❝r♦✐s❡♠❡♥ts ❋✐❣✉r❡ ✹✳✷✼ ✕ ❊rr❡✉rs ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥✳ ❡rr❡✉rs ♣♦ss✐❜❧❡s ❤♦rs ❞❡ ❧❛ ❞✐❛❣♦♥❛❧❡✳ P♦✉r ❧❡ ♠❡✐❧❧❡✉r ❝❧❛ss✐✜❡✉r ❙❱▼ 1vs1 ❡t ✉♥ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖● 7 × 3 ❧❛ ♠❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ❡st ❧❡ t❛❜❧❡❛✉ ✹✳✻ ❡①♣♦s❡ ❧❡s ♣❡r❢♦r♠❛♥❝❡s✳ ❚❛❜❧❡❛✉ ✹✳✻ ▼❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ♣♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ❛✐❣✉✐❧❧❡s ❈❧❛ss✐✜❡✉r ❝✳✶ ❝✳✷ ❝✳✸ ❝✳✹ ❝✳✺ ❘❛♣♣❡❧ ❱ér✐té t❡rr❛✐♥ ❝✳✶ 1511 6 0 1 7 99.08% ❝✳✷ 6 762 0 2 0 98.96% ❝✳✸ 2 0 235 2 1 97.92% ❝✳✹ 4 0 1 505 0 99.02% ❝✳✺ 1 0 2 0 414 99.28% Pré❝✐s✐♦♥ 99.15% 99.22% 98.74% 99.02% 98.10% 98.98% ▲❛ ♣❧✉♣❛rt ❞❡s ❡rr❡✉rs ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ✐♥t❡r❝❧❛ss❡ s❡ ♣r♦❞✉✐s❡♥t ❞❛♥s ❧❡s ❝r♦✐s❡♠❡♥ts ❝r♦✐sés ✭❞♦✉❜❧❡ ❝♦♠♠✉♥✐❝❛t✐♦♥ ❡♥tr❡ ✷ ✈♦✐❡s✮✳ ❉❛♥s ❧✬✐♠❛❣❡ ■▼P✱ ❧❡s ❞❡✉① ✈♦✐❡s s♦♥t ✈✐s✐❜❧❡s ❡t ♣♦✉rt❛♥t ❧❡ ❝❧❛ss✐✜❡✉r ❛ ❞✉ ♠❛❧ à ♣r❡♥❞r❡ ✉♥❡ ❞é❝✐s✐♦♥✳ ❯♥ ❡①❡♠♣❧❡ ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✹✳✷✼✳ ❉❡ très ❜♦♥s rés✉❧t❛ts ♣ré❧✐♠✐♥❛✐r❡s ♦♥t été ♦❜t❡♥✉s ♣♦✉r ❧❡s ❞✐✛ér❡♥t❡s ❝❧❛ss❡s✳ ▲❡ r❛♣♣❡❧ ♠✐♥✐✲ ♠✉♠ ❛tt❡✐♥t ❡st ❞❡ 97.92% ❡t ❧❛ ♣ré❝✐s✐♦♥ ✾✽✳✶✵✪ s✉r ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ✸✹✻✷ ✐♠❛❣❡s ❛✈❡❝ ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡✳ ▲✬❛♣♣r♦❝❤❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ♣♦✉rr❛✐t ❛✉ss✐ s✬✉t✐❧✐s❡r ♣♦✉r ❧❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ❢❡rré❡ tr❛❞✐t✐♦♥♥❡❧❧❡✱ ❝❛r ❧❛ ♣rés❡♥❝❡ ❞❡ ❧❛ ♥♦✉✈❡❧❧❡ ✈♦✐❡ ✐♥tr♦❞✉✐t é❣❛❧❡♠❡♥t ❞❡s ✈❛r✐❛t✐♦♥s ❞❛♥s ❧❡s ❣r❛❞✐❡♥ts ❞❡ ❧✬✐♠❛❣❡✳ ❈❡s tr❛✈❛✉① ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ❞✬❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ♦♥t ❞♦♥♥é ❧✐❡✉ à ✉♥❡ ♣✉❜❧✐❝❛t✐♦♥ ✐♥t❡r♥❛t✐♦♥❛❧❡ ❞❛♥s ■❊❊❊ ■❚❙❈ ✷✵✶✸ ✶✻t❤ ■♥t❡r♥❛t✐♦♥❛❧ ■❊❊❊ ❈♦♥❢❡r❡♥❝❡ ♦♥ ■♥t❡❧❧✐❣❡♥t ❚r❛♥s♣♦rt❛t✐♦♥ ❙②st❡♠s ✐♥t✐t✉❧é❡ ❚✉r♥♦✉t ❞❡t❡❝t✐♦♥ ❛♥❞ ❝❧❛ss✐✜❝❛t✐♦♥ ✉s✐♥❣ ♠♦❞✐✜❡❞ ❍❖● ❛♥❞ t❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ ✭✈♦✐r ❆♥♥❡①❡ ❆✳✸✮✳✹✳✺✳ ▼ét❤♦❞❡ ♣r♦♣♦sé❡ ♣♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞✉ t②♣❡ ❞✬❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ✾✺ ✭❛✮ ✳ ✭❜✮ ✳ ✭❝✮ ✳ ✭❞✮ ✳ ✭❡✮ ✳ ✭❢✮ ✳ ❋✐❣✉r❡ ✹✳✷✽ ✕ ❘és✉❧t❛ts ❞❡ ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞✬❛✐❣✉✐❧❧❛❣❡ ♣♦✉r ❧❡s ❞✐✛ér❡♥t❡s ❝❧❛ss❡s✳ Classe 1; Classe 2; Classe 3; Classe 4; Classe 5; ❡t Sans aiguille❈❤❛♣✐tr❡ ✺ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ✿ tr❛✐♥s ❙♦♠♠❛✐r❡ ✺✳✶ ■♥tr♦❞✉❝t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✼ ✺✳✶✳✶ ❙②stè♠❡s ❡♥ ❝♦♠♠❡r❝✐❛❧✐s❛t✐♦♥ ✐♥❞✉str✐❡❧❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✾ ✺✳✷ ❇❛s❡ ❞❡ ❞♦♥♥é❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✵ ✺✳✸ ❙é❧❡❝t✐♦♥ ❞✉ ❞❡s❝r✐♣t❡✉r ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✷ ✺✳✸✳✶ ❉❡s❝r✐♣t❡✉rs ❧♦❝❛✉① ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✷ ✺✳✸✳✷ ❆♥❛❧②s❡ ❣❧♦❜❛❧❡ ✿ ❍✐st♦❣r❛♠♠❡ ❞❡ ❣r❛❞✐❡♥ts ♦r✐❡♥tés ✭❍❖●✮ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✻ ✺✳✹ ❘és✉❧t❛ts ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✼ ✺✳✶ ■♥tr♦❞✉❝t✐♦♥ ❊♥ ❝❡ q✉✐ ❝♦♥❝❡r♥❡ ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❡t ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s s✉r ❧❛ ✈♦✐❡ ❢❡rré❡✱ ✐❧ ❡①✐st❡ ♣❧✉s✐❡✉rs ❛♣♣r♦❝❤❡s ❛✈❡❝ ❞✐✛ér❡♥ts t②♣❡s ❞❡ ❝❛♣t❡✉rs ❝♦♠♠❡ ✐❧❧✉stré ❞❛♥s ❧❡ ❝❤❛♣✐tr❡ ✷✳ ❉❡ ♣❧✉s✱ ♥♦✉s ❛✈♦♥s ♣✉ ❧❡s ❝❧❛ss✐✜❡r ❡♥ ❞❡✉① ❣r❛♥❞s ❣r♦✉♣❡s ✿ ❝❡✉① éq✉✐♣és ❞❡ ❝❛♣t❡✉rs ♣❛ss✐❢s t❡❧s q✉❡ ❧❡s s②stè♠❡s ❞❡ ✈✐s✐♦♥ ❡t ❝❡✉① éq✉✐♣és ❞❡ ❝❛♣t❡✉rs ❛❝t✐❢s t❡❧s q✉❡ ❧❡s r❛❞❛rs ❡t ❧❡s té❧é♠ètr❡s ❧❛s❡rs✳ ❉✬❛✉tr❡ ♣❛rt✱ ❧❡ ❝r✐tèr❡ ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❞é♣❡♥❞ ❞❡ ❧❡✉r ♥❛t✉r❡✳ ▲❛ ❞é✜♥✐t✐♦♥ ❧❛ ♣❧✉s ❣é♥ér❛❧❡ ❡st ❞❡ ❝♦♥s✐❞ér❡r ❝♦♠♠❡ ♦❜st❛❝❧❡ ♥✬✐♠♣♦rt❡ q✉❡❧ ♦❜❥❡t q✉✐ ❣ê♥❡ ❧❡ ❝❤❡♠✐♥ ❞✉ ✈é❤✐❝✉❧❡✱ ❝❡♣❡♥❞❛♥t ❝❡❝✐ ✐♥❞✉✐t ✉♥❡ ♣❧✉s ❣r❛♥❞❡ ❝♦♠♣❧❡①✐té ❛❧❣♦r✐t❤♠✐q✉❡✳ ▲❛ ❞❡✉①✐è♠❡ s❡ ❧✐♠✐t❡ à ❝♦♥s✐❞ér❡r ❝♦♠♠❡ ♦❜st❛❝❧❡s ❧❡s ❛✉tr❡s ✈é❤✐❝✉❧❡s ❡t✱ ♣✉✐sq✉❡ ❧❡✉r ❞é✜♥✐t✐♦♥ ❡st ❜✐❡♥ ❞é✜♥✐❡✱ ✐❧ ❡st ❛❧♦rs ♣♦ss✐❜❧❡ ❞❡ ❢❛✐r❡ ✉♥❡ r❡❝❤❡r❝❤❡ ❞❡s ♣❛tr♦♥s s♣é❝✐✜q✉❡s ❝♦♠♠❡ ❧❛ ❢♦r♠❡ ❡t ❧❛ s②♠étr✐❡✳ ❊♥✜♥✱ ✐♥❞é♣❡♥❞❛♠♠❡♥t ❞❡ ❧❛ ❞é✜♥✐t✐♦♥ ❞❡ ❧✬♦❜st❛❝❧❡✱ ❞❡✉① ❛♣♣r♦❝❤❡s ❞❡ ❞ét❡❝t✐♦♥ ❣râ❝❡ à ❧❛ ✈✐s✐♦♥ ♣❛r ♦r❞✐♥❛t❡✉r s♦♥t ❡♥✈✐s❛❣❡❛❜❧❡s ✿ ❧✬❛♣♣r♦❝❤❡ ♠♦♥♦ ❝❛♠ér❛ ❡t ❧✬❛♣♣r♦❝❤❡ ♠✉❧t✐ ❝❛♠ér❛✳ ▲❡s ❛♣♣r♦❝❤❡s ♠♦♥♦✲❝❛♠ér❛ ♣r♦❝è❞❡♥t à ❧✬❛♥❛❧②s❡ ❞❡ ❝❡rt❛✐♥❡s ♣r✐♠✐t✐✈❡s ❡①tr❛✐t❡s ❞❛♥s ♣❧✉s✐❡✉rs ✐♠❛❣❡s ❝♦♥sé❝✉t✐✈❡s✳ ❈❡s ♣r✐♠✐t✐✈❡s ♣❡✉✈❡♥t êtr❡ ❞❡s ré❣✐♦♥s t❡①t✉ré❡s✱ ❞❡s ♣♦✐♥ts ❞❡ ❝♦♥t♦✉r ♦✉ ❞❡s ③♦♥❡s ❡♥ ♠♦✉✈❡♠❡♥t✳ ▲❛ ♣❡rt❡ ❞❡ ❧✬✐♥❢♦r♠❛t✐♦♥ ❞❡ ♣r♦❢♦♥❞❡✉r ❡st ❧❛ ♣r❡♠✐èr❡ ❝♦♥séq✉❡♥❝❡ ❞❡ ❧❛ ♣r♦❥❡❝t✐♦♥ ❞✉ ♣❧❛♥ ❞✬✉♥ ♠♦♥❞❡ tr✐❞✐♠❡♥s✐♦♥♥❡❧ s✉r ✉♥ ❝❛♣t❡✉r ✷❉ ✭♣❧❛♥ ✐♠❛❣❡✮✳ ❈❡s ♠ét❤♦❞❡s ♦♥t s②sté♠❛t✐q✉❡♠❡♥t r❡❝♦✉rs à ❞❡s ❝♦♥♥❛✐ss❛♥❝❡s ❛ ♣r✐♦r✐ s✉r ❧✬❡♥✈✐r♦♥♥❡♠❡♥t ♦✉ s✉r ❧❛ t②♣♦❧♦❣✐❡ ❡t ❧❛ ❣é♦♠étr✐❡ ❞❡s ♦❜st❛❝❧❡s à ❞ét❡❝t❡r✳ ▲❡s ❛♣♣r♦❝❤❡s ♠✉❧t✐✲❝❛♠ér❛ ❡①♣❧♦✐t❡♥t ❧❛ s❡❣♠❡♥t❛t✐♦♥ ❞✬✉♥❡ ❝❛rt❡ ❞❡s ❞✐s♣❛r✐tés ❝❛❧❝✉❧é❡s à ♣❛rt✐r ❞❡ ❧✬❛♥❛❧②s❡ ❞❡s ✐♠❛❣❡s ❢♦✉r♥✐❡s ♣❛r ✉♥ stéré♦s❝♦♣❡ ét❛❧♦♥♥é✱ ❝♦♠♠❡ ❝✬❡st ❧❡ ❝❛s ❞❡ ❧❛ ❱✲ ❞✐s♣❛r✐té✱ ✉♥❡ r❡♣rés❡♥t❛t✐♦♥ ♣r♦♣♦sé❡ ♣❛r ❬▲❛❜❛②r❛❞❡ ❡t ❛❧✳ ✷✵✵✷❪✳ ❈❡tt❡ r❡♣rés❡♥t❛t✐♦♥ ❡①♣❧♦✐t❡ ✉♥❡ ❤②♣♦t❤ès❡ ❞❡ ♠♦♥❞❡ ♣❧❛♥✱ ❡t r❡♣rés❡♥t❡ ❧✬❛❝❝✉♠✉❧❛t✐♦♥ ❞❡ ❧❛ ❞✐s♣❛r✐té ❝❛❧❝✉❧é❡ s✉r ❝❤❛❝✉♥❡ ❞❡s ❧✐❣♥❡s ❞❡ ❧✬✐♠❛❣❡✳ ▲❡s ❝❛rt❡s ❞❡s ❞✐s♣❛r✐tés s♦♥t ❣é♥ér❛❧❡♠❡♥t ét❛❜❧✐❡s s✉r ♣❧✉s✐❡✉rs tr❛♠❡s s✉❝❝❡ss✐✈❡s ❛✜♥ ❞❡ ❣❛r❛♥t✐r ✉♥❡ ❝❛❞❡♥❝❡ r❛✐s♦♥♥❛❜❧❡ ❞❡s tr❛✐t❡♠❡♥ts ❡t ❛✐♥s✐ r❡s♣❡❝t❡r ❧❛ ❝♦♥tr❛✐♥t❡ ❞✉ t❡♠♣s ré❡❧ r❡q✉✐s❡ ♣♦✉r ✉♥ ♦r❣❛♥❡ ❞❡ sé❝✉r✐té✳ ❆✐♥s✐✱ ❬❉♦♦③❡ ❡t ❛❧✳ ✶✾✾✽✱ ▲♦✉❛❤❞✐ ❡t ❛❧✳ ✷✵✵✷❪ ♥♦✉s ♣rés❡♥t❡♥t ❞❡s ♣r♦❥❡ts ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s s✉r ❧❛ ✈♦✐❡ ❢❡rré❡ ❞é✈❡❧♦♣♣és à ♣❛rt✐r ❞❡ stéré♦✈✐s✐♦♥✳ ❉❡ ♣❧✉s✱ ❡♥ ✈✐s✐♦♥ ❛rt✐✜❝✐❡❧❧❡ ❡t tr❛✐t❡♠❡♥t ❞✬✐♠❛❣❡s✱ ❧❡s s②stè♠❡s ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜❥❡ts ❡①✐❣❡♥t✱ ❡♥ ❣é♥ér❛❧✱ ❞❡s ❛❧❣♦r✐t❤♠❡s ❝♦♠♣❧❡①❡s✳ ❯♥❡ r❡❝❤❡r❝❤❡ ❡①❤❛✉st✐✈❡ ❞❛♥s ✉♥❡ ✐♠❛❣❡ ❝♦♠♣❧èt❡ ♣❡✉t✲✾✽ ❈❤❛♣✐tr❡ ✺✳ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ✿ tr❛✐♥s êtr❡ ❡♥✈✐s❛❣é❡ ♣♦✉r ❞❡s ❛♣♣❧✐❝❛t✐♦♥s ❞❡ t②♣❡ ♦✛✲❧✐♥❡ ♦✉ ❞✬❛✉tr❡s✱ ♦ù ❧❡ t❡♠♣s ré❡❧ ♥✬❡st ♣❛s ✉♥❡ ❝♦♥tr❛✐♥t❡✳ ▲❡s s②stè♠❡s ❞❡ ❞ét❡❝t✐♦♥ ❞❡s ♦❜st❛❝❧❡s ❡♠❜❛rq✉és✱ ❞❡ ❧❡✉r ❝ôté✱ ❞♦✐✈❡♥t êtr❡ ❝♦♥ç✉s ♣♦✉r é✈❛❧✉❡r ❧❡✉r ❡♥✈✐r♦♥♥❡♠❡♥t à ✉♥❡ ✈✐t❡ss❡ t❡❧❧❡ q✉❡✱ ❞❛♥s ❧❡ ❝❛s ❞✉ ❞é❝❧❡♥❝❤❡♠❡♥t ❞✬✉♥❡ ❛❧❛r♠❡✱ ❧❡ s②stè♠❡ ♣✉✐ss❡ ❛✈♦✐r ✉♥ t❡♠♣s ❞❡ ré❛❝t✐♦♥ ❝♦♠♣❛t✐❜❧❡ ❛✈❡❝ ❧❡s ♣❡r❢♦r♠❛♥❝❡s ❞❡♠❛♥❞é❡s✳ ❉❡ ♥♦♠❜r❡✉① tr❛✈❛✉① ♦♥t été ♠❡♥és ❞❛♥s ❧❡ ❝❛❞r❡ ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡s ❛✐❞❡s à ❧❛ ❝♦♥❞✉✐t❡✱ ❡t t♦✉t ♣❛rt✐❝✉❧✐èr❡♠❡♥t ❞❡ ❧❛ ❢♦♥❝t✐♦♥ ❞❡ ❞ét❡❝t✐♦♥ ❡t ❞❡ s✉✐✈✐ ❞❡s ♦❜st❛❝❧❡s✳ ❆♣rès ❛✈♦✐r ❛♥❛❧②sé ♣❧✉✲ s✐❡✉rs ❞✬❡♥tr❡ ❡✉①✱ ♥♦✉s ♣♦✉✈♦♥s ét❛❜❧✐r ❧❡ t❛❜❧❡❛✉ ✺✳✶ ♠♦♥tr❛♥t q✉❡❧q✉❡s ❛✈❛♥t❛❣❡s ❡t ✐♥❝♦♥✈é♥✐❡♥ts ❬❇❡rt♦③③✐ ❡t ❛❧✳ ✷✵✵✵❪✳ ❚❛❜❧❡❛✉ ✺✳✶ ❈♦♠♣❛r❛t✐❢ ❞❡s ♠ét❤♦❞❡s ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✳ ❚❡❝❤♥✐q✉❡ ❆✈❛♥t❛❣❡s ■♥❝♦♥✈é♥✐❡♥ts ❆♥❛❧②s❡ ❞✬✉♥❡ s❡✉❧❡ ✐♠❛❣❡ ❙♦❧✉t✐♦♥ ❛❧❣♦r✐t❤♠✐q✉❡ s✐♠♣❧❡ ❡t r❛♣✐❞❡✳ ■♥❞é♣❡♥✲ ❞❛♥❝❡ ❞❡s ♠♦✉✈❡♠❡♥ts ❞✉ ✈é❤✐❝✉❧❡✳ ▼❛♥q✉❡ ❞✬✐♥❢♦r♠❛t✐♦♥ ❞❡ ♣r♦❢♦♥❞❡✉r s✐ ♦♥ ♥✬❛ ♣❛s ❢❛✐t ❞✬❤②♣♦t❤ès❡✳ ■♥❡✣✲ ❝❛❝❡ q✉❛♥❞ ❧❡s ♦❜st❛❝❧❡s ♥❡ ❝♦rr❡s♣♦♥❞❡♥t ♣❛s ❛✉ ♠♦❞è❧❡✳ ❋❧✉① ♦♣t✐q✉❡ ✭❊❣♦ ♠♦t✐♦♥✮ ❉ét❡❝t✐♦♥ ❞❡s ♦❜st❛❝❧❡s ❣é♥é✲ r✐q✉❡s✳ ❊①✐❣❡❛♥t ❡♥ ♣✉✐ss❛♥❝❡ ❞❡ ❝❛❧✲ ❝✉❧s✳ ❙❡♥s✐❜❧❡ ❛✉① ♠♦✉✈❡✲ ♠❡♥ts ❞✉ ✈é❤✐❝✉❧❡✳ ➱❝❤❡❝ s✐ ❧✬♦❜st❛❝❧❡ ❡t ❧❡ ✈é❤✐❝✉❧❡ ♦♥t ✉♥❡ ✈✐t❡ss❡ ❢❛✐❜❧❡✳ ❙téré♦ ✈✐s✐♦♥ ❉ét❡❝t✐♦♥ ❞❡s ♦❜st❛❝❧❡s ❣é✲ ♥ér✐q✉❡s✳ P❡r♠❡t ✉♥❡ r❡❝♦♥s✲ tr✉❝t✐♦♥ ✸❉✳ ❚rès ❡①✐❣❡❛♥t ❡♥ ♣✉✐ss❛♥❝❡ ❞❡ ❝❛❧❝✉❧s✳ ❙❡♥s✐❜❧❡ ❛✉① ♠♦✉✈❡✲ ♠❡♥ts ❞✉ ✈é❤✐❝✉❧❡ ❡t ❞é❣r❛❞❛✲ t✐♦♥ ❞❡ ❧✬ét❛❧♦♥♥❛❣❡✳ ❊♥ s❡ ❜❛s❛♥t s✉r ❧❡ t❛❜❧❡❛✉ ✺✳✶ ❡t ❧❡ ❢❛✐t q✉❡ ♥♦tr❡ ❞✐s♣♦s✐t✐❢ ❛ été ❞é✜♥✐ ❡♥ ♠♦♥♦✈✐s✐♦♥✱ ♥♦✉s ♣r♦♣♦s♦♥s ❧❛ t❡❝❤♥✐q✉❡ ❞✬❛♥❛❧②s❡ ✐♠❛❣❡ ♣❛r ✐♠❛❣❡ ♣♦✉r ❞ét❡❝t❡r ✉♥❡ r❛♠❡ s✉r ❧❛ ✈♦✐❡✳ ❈♦♠♠❡ ♥♦✉s tr❛✈❛✐❧❧♦♥s ❛✈❡❝ ❞❡s s②stè♠❡s ❞❛♥s ✉♥ s✐t❡ ♣r♦♣r❡ ✐♥té❣r❛❧✱ ❧❡s ♦❜st❛❝❧❡s ♣♦t❡♥t✐❡❧s à ❞ét❡❝t❡r s❡r♦♥t ❧❡s ❛✉tr❡s r❛♠❡s✱ ❝❡ q✉✐ ♥♦✉s ♣❡r♠❡ttr❛ ❞❡ ❢❛✐r❡ ✉♥❡ r❡❝❤❡r❝❤❡ ❞❡s ♣❛tr♦♥s s♣é❝✐✜q✉❡s ❝♦♠♠❡ ❧❛ ❢♦r♠❡ ❡t ❧❛ s②♠étr✐❡✳ ▲❛ ♣❧✉♣❛rt ❞❡s s②stè♠❡s ❞❡ ❞ét❡❝t✐♦♥ ❞❡s ✈é❤✐❝✉❧❡s ♣❛r ♠♦♥♦✈✐s✐♦♥ tr❛✈❛✐❧❧❡♥t ❣é♥ér❛❧❡♠❡♥t ❡♥ ❞❡✉① ét❛♣❡s ✿ ❧❛ ❣é♥ér❛t✐♦♥ ❞❡ ❧✬❤②♣♦t❤ès❡ ❡t ❧❛ ✈ér✐✜❝❛t✐♦♥ ❞❡ ❧✬❤②♣♦t❤ès❡✳ ▲❛ ♣r❡♠✐èr❡ ❝♦♥s✐st❡ ❡♥ ✉♥❡ r❡❝❤❡r❝❤❡ r❛♣✐❞❡ à tr❛✈❡rs ❧✬✐♠❛❣❡ ❛✜♥ ❞❡ ❞ét❡r♠✐♥❡r ❞❡s ♣♦rt✐♦♥s ♣❧✉s ♣❡t✐t❡s s✉s❝❡♣t✐❜❧❡s ❞✬êtr❡ ❞❡s ✈é❤✐❝✉❧❡s✳ ❈❡tt❡ r❡❝❤❡r❝❤❡ ❡st ♣r✐♥❝✐♣❛❧❡♠❡♥t ❜❛sé❡ s✉r ❝❡rt❛✐♥❡s ❝❛r❛❝tér✐st✐q✉❡s q✉❡ ♣♦✉rr♦♥t ❛✈♦✐r ❧❡s ✈é❤✐❝✉❧❡s✱ t❡❧❧❡s q✉❡ ❧❛ ❝♦✉❧❡✉r ❬❚s❛✐ ❡t ❛❧✳ ✷✵✵✼❪✱ ❧✬♦♠❜r❡ ❬❚③♦♠❛❦❛s ✫ ✈♦♥ ❙❡❡❧❡♥ ✶✾✾✽❪✱ ❞❡s ❣r❛❞✐❡♥ts ✈❡rt✐❝❛✉① ❬❙♦♥❣ ❡t ❛❧✳ ✷✵✵✽❛❪ ♦✉ ❧❡ ✢✉① ❞❡s ✐♠❛❣❡s s✉❝❝❡ss✐✈❡s ❬❏❛③❛②❡r✐ ❡t ❛❧✳ ✷✵✶✶❪✳ ❙✐ ✉♥❡ t❡❝❤♥✐q✉❡ ❞✬❡①♣❧♦r❛t✐♦♥ ❜❛sé❡ s✉r ❞❡s ❢❡♥êtr❡s ❣❧✐ss❛♥t❡s ❡st ✉t✐❧✐sé❡✱ ❧❡ ♥♦♠❜r❡ ❞❡s ❢❡♥êtr❡s à é✈❛❧✉❡r ♣❡✉t êtr❡ é♥♦r♠❡✳ ▲❛ s❡❝♦♥❞❡ ét❛♣❡✱ ❧❛ ♣rés❡♥❝❡ ❞❡s ✈é❤✐❝✉❧❡s✱ ❡st t❡sté❡ ♣♦✉r ❞✐✛ér❡♥t❡s t❛✐❧❧❡s✱ ❡t ❣é♥ér❛❧❡♠❡♥t ❡st ré❛❧✐sé❡ ❛✈❡❝ ✉♥ ❝❧❛ss✐✜❡✉r ❜✐♥❛✐r❡✱ ❧❡q✉❡❧ ❛ été ❡♥tr❛î♥é ❛✈❡❝ ❞❡s ✐♠❛❣❡s ❞❡ ✈é❤✐❝✉❧❡s ❡t ❞❡ ♥♦♥✲✈é❤✐❝✉❧❡s✳ ❈♦♠♠❡ ♥♦✉s ♥♦✉s s❡r✈♦♥s ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡✱ ❧❛ ♣r❡♠✐èr❡ ét❛♣❡ s❡ ✈♦✐t s✐♠♣❧✐✜é❡✱ s❡✉❧❡s ❧❡s ♣❛rt✐❡s ❞❡ ❧✬✐♠❛❣❡ ♦ù ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ ♥✬❛rr✐✈❡ ♣❧✉s à ❞✐st✐♥❣✉❡r ❧❡s r❛✐❧s s❡r♦♥t ❝♦♥s✐❞éré❡s ❝♦♠♠❡ ♦❜st❛❝❧❡s✳ ▲❡ ❢❛✐t ❞❡ ♥❡ ♣❛s ré❛❧✐s❡r ❞❡s r❡❝❤❡r❝❤❡s ❡①❤❛✉st✐✈❡s à tr❛✈❡rs ❧✬✐♠❛❣❡ ❡♥ ❝❤❡r❝❤❛♥t ❞❡s ✐♥❞✐❝❡s ❞❡s tr❛✐♥s à t♦✉t❡s ❧❡s ♣♦s✐t✐♦♥s ❡t é❝❤❡❧❧❡s ♣♦ss✐❜❧❡s ✭s❧✐❞✐♥❣ ✇✐♥❞♦✇ ❡♥ ❛♥❣❧❛✐s✮✱ ❡♥tr❛î♥❡ ✉♥❡ ré❞✉❝t✐♦♥ ❞✉ t❡♠♣s ❞❡ ❝❛❧❝✉❧ ❡t ❝♦♠♠❡ ♠♦✐♥s ❞✬❤②♣♦t❤ès❡s s♦♥t t❡sté❡s✳ ▲❛ ♣r♦❜❛❜✐❧✐té ❞❡ t♦♠❜❡r s✉r ❞❡s ❢❛✉ss❡s ❞ét❡❝t✐♦♥s ❡st ♣❧✉s ❢❛✐❜❧❡✳ ❈❡rt❛✐♥s tr❛✈❛✉① ✉t✐❧✐s❡♥t ❞✐✛ér❡♥t❡s ♣r✐♠✐t✐✈❡s ♣♦✉r ❞é✜♥✐r ❧❡s ③♦♥❡s ❞✬✐♥térêt ✭❘❖■✮ ❬❳❛✈✐❡r ✷✵✵✸❪✺✳✶✳ ■♥tr♦❞✉❝t✐♦♥ ✾✾ ♦ù ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ✈é❤✐❝✉❧❡s r♦✉t✐❡rs ❝♦♠❜✐♥❡ ✉♥ ♠♦❞✉❧❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡s ✈♦✐❡s✱ ❧❛ r❡❝♦♥str✉❝t✐♦♥ ❞❡ ❧❛ ❣é♦♠étr✐❡ ✸❉ ❞❡ ❧❛ r♦✉t❡✱ ✉♥ ♠♦❞✉❧❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡ ❧✬♦♠❜r❡ ❡t ✉♥ ♠♦❞✉❧❡ ❞❡ ❧♦❝❛❧✐s❛t✐♦♥ ❞❡ ❧❛ s②♠étr✐❡✳ P❛r❝❡ q✉❡ ♥♦tr❡ s②stè♠❡ ❡st ✉♥❡ ✈❡rs✐♦♥ s✐♠♣❧✐✜é❡ ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ✈é❤✐❝✉❧❡s r♦✉t✐❡rs ❣râ❝❡ à ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡✱ ♥♦✉s ♣♦✉rr♦♥s ❞é✜♥✐r ✉♥❡ ③♦♥❡ ❧✐❜r❡ ❞✬♦❜st❛❝❧❡s ❡t ❧❛ ré❣✐♦♥ ❞✬✐♥térêt ♣♦✉r ❧❛q✉❡❧❧❡ ♥♦✉s ❛❧❧♦♥s ✈ér✐✜❡r ❧✬❤②♣♦t❤ès❡ ❡♥ ❞é❝❧❡♥❝❤❛♥t ✉♥❡ r❡❝❤❡r❝❤❡ ❞❡s tr❛✐♥s✳ ❈❡tt❡ ❘❖■✱ s❡r❛ s✐♠♣❧❡♠❡♥t ✉♥ r❡❝t❛♥❣❧❡ ❛✈❡❝ ❧❛ t❛✐❧❧❡ ❞✬✉♥ tr❛✐♥ à ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞✬❡①tr❛❝t✐♦♥ ❞❡s r❛✐❧s✱ ❡♥ ✉t✐❧✐s❛♥t ❧❡s ❧♦✐s ❞❡ ♣r♦❥❡❝t✐♦♥s ❞❡ ❧✬éq✉❛t✐♦♥ ✷✳✷✳ ✭❛✮ ❊①tr❛❝t✐♦♥ ❞❡ ✈♦✐❡ ❡t ❞ét❡r♠✐♥❛t✐♦♥ ❞❡ ❧❛ ❘❖■✳ ✭❜✮ ❘❖■✳ ❋✐❣✉r❡ ✺✳✶ ✕ ❉ét❡r♠✐♥❛t✐♦♥ ❞❡ ❧❛ ❘❖■ à ♣❛rt✐r ❞❡ ❧✬❡①tr❛❝t✐♦♥ ❞❡ r❛✐❧s✳ ▲❛ ✜❣✉r❡ ✺✳✶ ♠♦♥tr❡ ✉♥ ❡①❡♠♣❧❡ ❞❡ ❧❛ ❘❖■ ❞é✜♥✐❡✳ ▲❡ ❢❛✐t ❞✬✉t✐❧✐s❡r ❧✬❡①tr❛❝t✐♦♥ ❞❡ ✈♦✐❡ ❝♦✉r❛♥t❡ ♣♦✉r ❞é✜♥✐r ❧❛ ❘❖■ ♥♦✉s ♣❡r♠❡t ❞✬é✈✐t❡r ❞✬❛✈♦✐r ❞❡s ❢❛✉ss❡s ❛❧❛r♠❡s ✭❢❛✉① ♣♦s✐t✐❢s✮ à ❝❛✉s❡ ❞❡s ❞ét❡❝t✐♦♥s ❞❡s tr❛✐♥s ❞✬✉♥❡ ✈♦✐❡ ♣❛r❛❧❧è❧❡✳ ❊♥ ♦✉tr❡✱ ❧❛ s❡✉❧❡ ❞✐✛ér❡♥❝❡ ✈✐s✉❡❧❧❡ ❡♥tr❡ ❞❡✉① tr❛✐♥s q✉✐ ❝✐r❝✉❧❡♥t ❡♥ ❞✐r❡❝t✐♦♥ ♦♣♣♦sé❡ ❡st ❧❛ ❝♦✉❧❡✉r ❞❡s ♣❤❛r❡s ❞❡ ❧❛ r❛♠❡✳ ✺✳✶✳✶ ❙②stè♠❡s ❡♥ ❝♦♠♠❡r❝✐❛❧✐s❛t✐♦♥ ✐♥❞✉str✐❡❧❧❡ ▲❡s s②stè♠❡s ❞❡ ♣ré✈❡♥t✐♦♥ ❞❡ ❝♦❧❧✐s✐♦♥s ❞é✈❡❧♦♣♣és ❞❛♥s ❧❡ ❞♦♠❛✐♥❡ ❛✉t♦♠♦❜✐❧❡ s♦♥t ❜❛sés ♣r✐♥❝✐♣❛❧❡♠❡♥t s✉r ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡s ❝❛♣t❡✉rs ❛❝t✐❢s ❝♦♠♠❡ ❧❡ ❘❆❉❆❘ ♦✉ ❧❡ ▲■❉❆❘✱ ♣❛r❢♦✐s ❛ss♦❝✐és à ✉♥❡ ❝❛♠ér❛✳ ❈❡s ❝❛♣t❡✉rs ❛❝t✐❢s ♦♥t été ❞é❝r✐ts ♣❧✉s ❡♥ ❞ét❛✐❧ ❞❛♥s ❧❛ s❡❝t✐♦♥ ✷✳✷✳❯♥ rés✉♠é ❞❡s ♣r✐♥❝✐♣❛❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❡t ❛❝t✐♦♥s ♠❡♥é❡s ♣❛r ❝❡s s②stè♠❡s ❡st ♠♦♥tré ❞❛♥s ❧❡ t❛❜❧❡❛✉ ✺✳✷✳ ❈❡s ❞♦♥♥é❡s ♦♥t été ❡①tr❛✐t❡s ❞✉ ❊✉r♦♣❡❛♥ ◆❡✇ ❈❛r ❆ss❡ss♠❡♥t Pr♦❣r❛♠ ✭❊✉r♦ ◆❈❆P✮✱ ❝✬❡st✲à✲❞✐r❡ ❧❡ ✓♣r♦❣r❛♠♠❡ ❞✬é✈❛❧✉❛t✐♦♥ ❡✉r♦♣é❡♥♥❡ ❞❡s ❛✉t♦♠♦❜✐❧❡s✔✱❬◆❈❆P ✷✵✶✸❪✳✶✵✵ ❈❤❛♣✐tr❡ ✺✳ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ✿ tr❛✐♥s ❚❛❜❧❡❛✉ ✺✳✷ ❙②stè♠❡s ✐♥❞✉str✐❡❧s ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❡♥ ❝♦♠♠❡r❝✐❛❧✐s❛t✐♦♥✳ ❈♦♥str✉❝t❡✉r ❆♣♣❧✐❝❛t✐♦♥ ➱q✉✐♣❡♠❡♥t ❱✐t❡ss❡ ✭❦♠✴❤✮ ❆❝t✐♦♥s ❱♦❧✈♦ ❱✐❧❧❡ ❘❛❞❛r ❡t ❝❛♠ér❛ ❏✉sq✉✬à ✸✺ ❋r❡✐♥❛❣❡ ❞✬✉r❣❡♥❝❡ ✭❋❯✮ ❋♦r❞ ❱✐❧❧❡ ▲❛s❡r ❡t ❝❛✲ ♠ér❛ ❏✉sq✉✬à ✸✵ ❋❯ ❍♦♥❞❛ ❱✐❧❧❡ ❡t ❛✉t♦r♦✉t❡ ❘❛❞❛r ➚ ♣❛rt✐r ❞❡ ✶✺ ✸ ♣❤❛s❡s ✿ ❆❧❛r♠❡✱ ♣ré✲ ♣❛r❛t✐♦♥ ❞❡s ❢r❡✐♥s ❡t ❋❯ ▼❡r❝❡❞❡s ❆✉t♦r♦✉t❡ ✸ ❘❛❞❛rs ❊♥tr❡ ✸✵✲✷✵✵ ✷ ♣❤❛s❡s ✿ ❆❧❛r♠❡ ❡t ❋❯ ❉❛♥s t♦✉s ❧❡s ❝❛s✱ ❧❡s ❝♦♥str✉❝t❡✉rs ❞✬❛✉t♦♠♦❜✐❧❡s ♣r✐✈✐❧é❣✐❡♥t ❧♦❣✐q✉❡♠❡♥t ✓❧✬✐♥❛❝t✐♦♥✔ s✉r ❧✬❛❝✲ t✐♦♥ ♣✉✐sq✉✬✐❧ s✬❛❣✐t ❞✬❛ss✐st❛♥❝❡ à ❧❛ ❝♦♥❞✉✐t❡ ❡t q✉❡ ❧❡✉r r❡s♣♦♥s❛❜✐❧✐té ♣♦✉rr❛✐t êtr❡ ❡♥❣❛❣é❡ ❡♥ ❝❛s ❞✬❛❝❝✐❞❡♥t ❞û à ✉♥ ❢r❡✐♥❛❣❡ ❞✬✉r❣❡♥❝❡ ✐♥t❡♠♣❡st✐❢✳ ❈❡♣❡♥❞❛♥t✱ à ♥♦tr❡ ❝♦♥♥❛✐ss❛♥❝❡✱ ❛✉❝✉♥ s②stè♠❡ ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ♥✬❡st ♦♣ér❛t✐♦♥♥❡❧ s✉r ✉♥ ♠étr♦ ❡♥t✐èr❡♠❡♥t ❛✉t♦♠❛t✐q✉❡✳ ✺✳✷ ❇❛s❡ ❞❡ ❞♦♥♥é❡s P♦✉r ♣♦✉✈♦✐r ré❛❧✐s❡r ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡s tr❛✐♥s✱ ✐❧ ❡st ♥é❝❡ss❛✐r❡ ❞❡ ❞é✈❡❧♦♣♣❡r ✉♥ ❝❧❛ss✐✜❡✉r ❛✈❡❝ ✉♥ ❛♣♣r❡♥t✐ss❛❣❡ s✉♣❡r✈✐sé✱ ❞♦♥❝ ♥♦✉s ❛✈♦♥s ❜❡s♦✐♥ ❞✬✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❛✈❡❝ ❞❡s ❡①❡♠♣❧❡s ♣♦s✐t✐❢s ❡t ♥é❣❛t✐❢s✳ P♦✉r ♦❜t❡♥✐r ❧❡s ✐♠❛❣❡s ❞✉ ❣r♦✉♣❡ ❞❡s ♥é❣❛t✐❢s✱ ♥♦✉s ❛✈♦♥s ✉t✐❧✐sé ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ♣✉❜❧✐q✉❡ ❱❖❈✷✵✶✷ ❬❊✈❡r✐♥❣❤❛♠ ❡t ❛❧✳ ❪ s♣é❝✐❛❧❡♠❡♥t ❝♦♥ç✉❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❡t r❡❝♦♥✲ ♥❛✐ss❛♥❝❡ ❞❡s ♦❜❥❡ts✳ ■❧ ❡①✐st❡ ✹ t②♣❡s ❞❡ ❣r❛♥❞❡s ❝❧❛ss❡s ✿ ♣❡rs♦♥♥❡s✱ ❛♥✐♠❛✉①✱ ✈é❤✐❝✉❧❡s ❡t ♦❜❥❡ts ❞✬✐♥tér✐❡✉r✳ ❈❡♣❡♥❞❛♥t✱ ♥♦✉s ❛✈♦♥s s❡✉❧❡♠❡♥t ✉t✐❧✐sé ❧❛ ❝❧❛ss❡ ✓✈é❤✐❝✉❧❡✔ ❡♥ ♣❛rt✐❝✉❧✐❡r ❧❡s ✐♠❛❣❡s ❞❡s ✈♦✐t✉r❡s ❡t ❞❡s ❜✉s✱ ❝❛r s♦✉s ❝❡rt❛✐♥s ♣♦✐♥ts ❞❡ ✈✉❡✱ ❧❡✉r ❢♦r♠❡ ♣❡✉t r❡ss❡♠❜❧❡r à ✉♥ tr❛✐♥✳ P♦✉r ❛✈♦✐r ❞❡s ✐♠❛❣❡s ♣❧✉s ❞ét❛✐❧❧é❡s ❡t é✈✐t❡r ❞❡ t❡♥✐r ❝♦♠♣t❡ ❞❡ ❧✬❡♥✈✐r♦♥♥❡♠❡♥t ❞❡ ❧✬✐♠❛❣❡✱ ♥♦✉s ❛✈♦♥s ❝❤♦✐s✐ ❞✬❡①tr❛✐r❡ ❧❡s ✈♦✐t✉r❡s ❡t ❧❡s ❜✉s ❣râ❝❡ à ❧❛ ✈ér✐té t❡rr❛✐♥ ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s✳ ❯♥ ❡①❡♠♣❧❡ ❞❡ ❝❡tt❡ ❡①tr❛❝t✐♦♥ ❡st ♠♦♥tré ❞❛♥s ❧❛ ✜❣✉r❡ ✺✳✷✳ ❆✐♥s✐✱ ♣♦✉r ✐♥❝ré♠❡♥t❡r ❧❡ ♥♦♠❜r❡ ❞✬✐♠❛❣❡s ♥é❣❛t✐✈❡s✱ ♥♦✉s ❛✈♦♥s ✉t✐❧✐sé ❧❛ ❜❛s❡ ❞✬✐♠❛❣❡s ❞❡ ✈♦✐t✉r❡s ❞❡ ❧✬■◆❘■❆ ❝❛r ❞❛t❛ s❡t ✭✉t✐❧✐sé❡ ❞❛♥s ❧❡s tr❛✈❛✉① ❞❡ ❬❈❛r❜♦♥❡tt♦ ❡t ❛❧✳ ✷✵✵✽❪✮ ❛✐♥s✐ q✉❡ ❞❡s ✐♠❛❣❡s ♣r✐s❡s s✉r ❞✐✛ér❡♥ts s✐t❡s ✇❡❜✳ ❈❡s ❞❡r♥✐èr❡s ♦♥t été ❛❥♦✉té❡s ❛✈❡❝ ❧✬♦❜❥❡❝t✐❢ ❞❡ ❞♦♥♥❡r ❡♥❝♦r❡ ♣❧✉s ❞❡ ✈❛r✐❛❜✐❧✐té ❛✉① ♥é❣❛t✐❢s ❡t ❝♦♠♣r❡♥♥❡♥t ♣r✐♥❝✐♣❛❧❡♠❡♥t ❞❡s ✐♠❛❣❡s ❞❡ ♣♦rt❡s✱ ❞❡ ❢❡♥êtr❡s✱ ❞❡ ✈♦✐t✉r❡s✱ ❞❡ ❜✉s ❡t ♠ê♠❡ ❞✬❛✉tr❡s t②♣❡s ❞❡ tr❛✐♥s✳ ▲❛ ✜❣✉r❡ ✺✳✹ ♠♦♥tr❡ q✉❡❧q✉❡s ❡①❡♠♣❧❡s ❞❡s ✐♠❛❣❡s ✉t✐❧✐sé❡s ♣♦✉r ❡♥tr❛î♥❡r ❡t t❡st❡r ♥♦tr❡ ❛❧❣♦r✐t❤♠❡ ❞✬❛♣♣r❡♥t✐ss❛❣❡✳ ▲❡s ♣♦s✐t✐❢s ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s s♦♥t ❞❡s ✐♠❛❣❡s ❞✉ ♠étr♦ ❱❆▲ ❞❛♥s s❡s ❞✐✛ér❡♥t❡s ✈❡rs✐♦♥s✳ Pr✐♥❝✐♣❛❧❡♠❡♥t ❧❡ ♠étr♦ ❡st ✈✉ ❞❡ ❢❛❝❡✱ ♠❛✐s ❝❡rt❛✐♥❡s ✐♠❛❣❡s ♦♥t ✉♥❡ ♦r✐❡♥t❛t✐♦♥ ❞✐✛ér❡♥t❡✱ ❝♦♠♠❡ ❝❡❧❛ ♣♦✉rr❛✐t ❛rr✐✈❡r ❞❛♥s ✉♥ ❝❛s ré❡❧✳ ▲❛ ✜❣✉r❡ ✺✳✸ ♠♦♥tr❡ ❧❡s ✐♠❛❣❡s ❞✉ ❱❆▲ ✉t✐❧✐sé❡s✳ ▲✬♦r✐❣✐♥❡ ❞❡ ❝❡s ✐♠❛❣❡s ❡st très ❞✐✈❡rs❡✱ ♣r✐♥❝✐♣❛❧❡♠❡♥t ❝❡ s♦♥t ❞❡s ✐♠❛❣❡s ♦❜t❡♥✉❡s ❧♦rs ❞❡ ♥♦s ❛❝q✉✐s✐t✐♦♥s à ❜♦r❞ ❞❡ ❧✬❖r❧② ❱❆▲ ❡t à ❘❡♥♥❡s✳ ❈❡♣❡♥❞❛♥t✱ ❞✬❛✉tr❡s ❛♣♣❛rt✐❡♥♥❡♥t à ❞❡s ✈✐❞é♦s ♦✉ ❞❡s ♣❤♦t♦s ❞✬■♥t❡r♥❡t✳ ❈❡❝✐ ❝♦♥tr✐❜✉❡ à ❛✈♦✐r ✉♥❡ ❞✐✈❡rs✐té ❞❛♥s ❧❡s ✐♠❛❣❡s✱ ❝❛r ❡❧❧❡s ♦♥t été ♦❜t❡♥✉❡s ❛✈❡❝ ❞✐✛ér❡♥ts ❛♣♣❛r❡✐❧s ❡t s♦✉s ❞✐✛ér❡♥t❡s ❝♦♥❞✐t✐♦♥s ❞✬é❝❧❛✐r❛❣❡✳ ▲❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❝♦♠♣t❡✱ ❛✉ t♦t❛❧ ✽✽✹ ♣♦s✐t✐❢s ❡t ✽✾✻ ♥é❣❛t✐❢s✱ ❡♥ ❣é♥ér❛♥t ❞❡s ✐♠❛❣❡s s②♠é✲ tr✐q✉❡s ✈❡rt✐❝❛❧❡s à ♣❛rt✐r ❞❡s ✐♠❛❣❡s ❞✬♦r✐❣✐♥❡✱ ❡♥ ❛♥❣❧❛✐s ✢♦♣♣❡❞ ✐♠❛❣❡s✳✺✳✷✳ ❇❛s❡ ❞❡ ❞♦♥♥é❡s ✶✵✶ ✭❛✮ ■♠❛❣❡ ❞✬♦r✐❣✐♥❡✳ ✭❜✮ ❇✉s ❡①tr❛✐t✳ ✭❝✮ ■♠❛❣❡ ❞✬♦r✐❣✐♥❡✳ ✭❞✮ ❱♦✐t✉r❡ ❡①tr❛✐t❡✳ ❋✐❣✉r❡ ✺✳✷ ✕ ❖❜t❡♥t✐♦♥ ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s à ♣❛rt✐r ❞❡ ❱❖❈✷✵✶✷ ❬❊✈❡r✐♥❣❤❛♠ ❡t ❛❧✳ ❪✳ ❋✐❣✉r❡ ✺✳✸ ✕ ■♠❛❣❡s ❞❡s tr❛✐♥s ✓♣♦s✐t✐❢s✔✳ ❋✐❣✉r❡ ✺✳✹ ✕ ■♠❛❣❡s ❞❡s ✓♥é❣❛t✐❢s✔✳✶✵✷ ❈❤❛♣✐tr❡ ✺✳ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ✿ tr❛✐♥s ✺✳✸ ❙é❧❡❝t✐♦♥ ❞✉ ❞❡s❝r✐♣t❡✉r ▲❡s ♠ét❤♦❞❡s ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ♦♥t ♣♦✉r ❜✉t ❞✬✐❞❡♥t✐✜❡r ❧❡s ❝❧❛ss❡s ❛✉①q✉❡❧❧❡s ❛♣♣❛rt✐❡♥♥❡♥t ❞❡s ♦❜❥❡ts à ♣❛rt✐r ❞❡ ❝❡rt❛✐♥s tr❛✐ts ❞❡s❝r✐♣t✐❢s✱ ❡t ❞❛♥s ❝❡tt❡ s❡❝t✐♦♥✱ ♥♦✉s ❛❧❧♦♥s sé❧❡❝t✐♦♥♥❡r ❧❡ ♠❡✐❧❧❡✉r ❞❡s❝r✐♣t❡✉r q✉✐ s✬❛❞❛♣t❡ à ♥♦tr❡ ❛♣♣❧✐❝❛t✐♦♥✳ ❈❡ ❝❤♦✐① ❝♦♥s✐st❡ à ✐❞❡♥t✐✜❡r ❧❡s ✈❛r✐❛❜❧❡s ♣❡rt✐♥❡♥t❡s✱ ❝❛r s✐ ❧❛ sé❧❡❝t✐♦♥ ❞❡s ✈❛r✐❛❜❧❡s ❡st ré❛❧✐sé❡ ❞❡ ♠❛♥✐èr❡ ❛♣♣r♦♣r✐é❡✱ ❧❛ ♣❡r❢♦r♠❛♥❝❡ ❞✉ ♠♦❞è❧❡ ❞❡ ❞✐s❝r✐♠✐♥❛t✐♦♥ ♣❡✉t êtr❡ ❢♦rt❡♠❡♥t ❛♠é❧✐♦ré❡✳ ◆♦✉s ♣♦✉✈♦♥s ❞✐st✐♥❣✉❡r ❞❡✉① ❢❛ç♦♥s ❞✬❡①tr❛✐r❡ ❝❡s ❝❛r❛❝tér✐st✐q✉❡s✱ ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❣❧♦❜❛❧❡s q✉✐ s♦♥t ❝❛❧❝✉❧é❡s s✉r t♦✉t❡ ❧✬✐♠❛❣❡ ❡t ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❧♦❝❛❧❡s q✉✐ s♦♥t ❝❛❧❝✉❧é❡s ❛✉t♦✉r ❞❡ ♣♦✐♥ts ❞✬✐♥térêt✳ ▲❡s ❝❛r❛❝tér✐st✐q✉❡s ❧♦❝❛❧❡s ♦✉ ♣♦✐♥ts ❞✬✐♥térêt s♦♥t ❞✐st✐♥❝t❡s✱ r♦❜✉st❡s ❛✉① ♦❝❝❧✉s✐♦♥s ✭❝❛r ✐❧ ② ❡♥ ❛ ❜❡❛✉❝♦✉♣ ❞❛♥s ✉♥❡ ✐♠❛❣❡ ♦✉ ✉♥❡ ré❣✐♦♥✮ ❡t q✉✬❡❧❧❡s ♥❡ ♥é❝❡ss✐t❡♥t ♣❛s ❞❡ s❡❣♠❡♥t❛t✐♦♥✳ ▲❡s ❝❛r❛❝tér✐st✐q✉❡s ❣❧♦❜❛❧❡s ✉t✐❧✐s❡♥t ❧✬❡♥s❡♠❜❧❡ ❞❡ ❧✬✐♠❛❣❡✱ ❝♦♠♠❡ ❧❛ t❡①t✉r❡✱ ❧❛ ❝♦✉❧❡✉r✱ ❧❡s ❤✐st♦❣r❛♠♠❡s✳ ▲❡ ♣❧✉s ❝♦♥♥✉ ❡st ❧✬❤✐st♦❣r❛♠♠❡ ❞❡ ●r❛❞✐❡♥ts ❖r✐❡♥tés ✭❍❖●✮✳ ❈❡♣❡♥❞❛♥t✱ ❛✉❝✉♥ ♠♦②❡♥ ♥❡ ♣❡r♠❡t ❞❡ ❞✐st✐♥❣✉❡r ❧✬♦❜❥❡t ❞❡ s♦♥ ❢♦♥❞✱ ❝❛r ❧❡s ❞♦♥♥é❡s ✉t✐❧✐sé❡s ❛♣♣❛rt✐❡♥♥❡♥t ❛✉① ❞❡✉① ❝❛té❣♦r✐❡s✳ P❛r ❛✐❧❧❡✉rs✱ ❧❡ ❢❛✐t ❞❡ ré❞✉✐r❡ ❧❡ ♥♦♠❜r❡ ❞❡ ✈❛r✐❛❜❧❡s ♣❡r♠❡t é❣❛❧❡♠❡♥t ❞❡ ré❞✉✐r❡ ❧❡ t❡♠♣s ❞❡ ❝❛❧❝✉❧✱ ❛s♣❡❝t ♥♦♥ ♥é❣❧✐❣❡❛❜❧❡ ♣♦✉r ✉♥ s②stè♠❡ t❡♠♣s ré❡❧✳ ✺✳✸✳✶ ❉❡s❝r✐♣t❡✉rs ❧♦❝❛✉① ▲❛ ❞ét❡❝t✐♦♥ ❞❡ ♣♦✐♥ts ❞✬✐♥térêt ❞❛♥s ❧❡s ✐♠❛❣❡s ❡st ❞❡ ♣❧✉s ❡♥ ♣❧✉s ✉t✐❧✐sé❡ ❛✜♥ ❞❡ ❢❛❝✐❧✐t❡r ❞❡ ♥♦♠❜r❡✉s❡s tâ❝❤❡s ❝♦♠♠❡ ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞✬♦❜❥❡ts✱ ❧✬❛ss❡♠❜❧❛❣❡ ❞✬✐♠❛❣❡s✱ ❧❛ ♠♦❞é❧✐s❛t✐♦♥ ✸❉✱ ❧❛ r❡❝❤❡r❝❤❡ ❞✬✐♠❛❣❡ ♣❛r ❧❡ ❝♦♥t❡♥✉ ❡t ♠ê♠❡ ❧❡ tr❛❝❦✐♥❣ ✈✐❞❡♦✳ ❉❡ ❢❛ç♦♥ ❣é♥ér❛❧❡✱ ❧❡s tr❛✈❛✉① s✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ♣♦✐♥ts ❞✬✐♥térêt ♦♥t ❝♦♠♠❡♥❝é à ♣❛rt✐r ❞❡s tr❛✈❛✉① ❞❡ ❬❍❛rr✐s ✫ ❙t❡♣❤❡♥s ✶✾✽✽❪ ♣♦✉r ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✬✉♥ ❞ét❡❝t❡✉r ❞❡ ❝♦✐♥s ❡t ❞❡ ❝♦♥t♦✉rs✱ s✉✐✈✐s ♣❛r ❧❡ ❞❡ ❞ét❡❝t❡✉r ❞❡ ❜❧♦❜s ✭♣❡t✐t❡s ré❣✐♦♥s ✉♥✐❢♦r♠❡s q✉✐ s❡ ❞é♠❛rq✉❡♥t✮ ❝♦♠♠❡ ❧❡ ❙■❋❚ ❞❡ ❧✬❛♥❣❧❛✐s ❙❝❛❧❡✲■♥✈❛r✐❛♥t ❋❡❛t✉r❡s ✐♥tr♦❞✉✐t ♣❛r ❬▲♦✇❡ ✶✾✾✾❪ ❡t ✜♥❛❧❡♠❡♥t ❧❡s ❙❯❘❋s ❞❡ ❧✬❛♥❣❧❛✐s ❙♣❡❡❞❡❞✲❯♣ ❘♦❜✉st ❋❡❛t✉r❡s ♣r♦♣♦sés ♣❛r ❬❇❛② ❡t ❛❧✳ ✷✵✵✻❪✱ ✉♥❡ ✈❛r✐❛♥t❡ ♣❧✉s r❛♣✐❞❡ ❞❡ ❙■❋❚✳ ❈❡s ❛❧❣♦r✐t❤♠❡s ❝❤❡r❝❤❡♥t à ✐s♦❧❡r ❧❡s ré❣✐♦♥s ❞❡ ❧✬✐♠❛❣❡ q✉✐ ♣rés❡♥t❡♥t ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ✈✐s✉❡❧❧❡s r❡♠❛rq✉❛❜❧❡s✱ ❝♦♠♠❡ ❧❡s ❜♦r❞s✱ ❧❡s ❝♦✐♥s ❡t ❧❡s ❜❧♦❜s ❞❡ ❧✬✐♠❛❣❡✱ ❡t ❧❡✉r q✉❛❧✐té ❡st ♠❡s✉ré❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ ❝❛♣❛❝✐té à r❡tr♦✉✈❡r ❧❡s ♠ê♠❡s ♣♦✐♥ts ❞✬✐♥térêt ❞✬✉♥ ♦❜❥❡t ❞❛♥s ✉♥❡ s❝è♥❡ ❧♦rsq✉❡ ❧❡s ❝♦♥❞✐t✐♦♥s ❞❡ ✈✐s✉❛❧✐s❛t✐♦♥ ❝❤❛♥❣❡♥t ✿ ✐♥✈❛r✐❛♥ts à ✉♥ ❝❤❛♥❣❡♠❡♥t ❞✬é❝❤❡❧❧❡✱ à ❧❛ r♦t❛t✐♦♥✱ à ❧❛ ♣❡rs♣❡❝t✐✈❡ ♦✉ ❛✉ ❝❤❛♥❣❡♠❡♥t ❧é❣❡r ❞❡ ♣♦✐♥t ❞❡ ✈✉❡✳ ❙■❋❚ ❡st ✉♥ ❞ét❡❝t❡✉r ❞❡ ♣♦✐♥ts ❞✬✐♥térêt ✐♥✈❛r✐❛♥t ❛✉① ❝❤❛♥❣❡♠❡♥ts ❞✬é❝❤❡❧❧❡ ❝♦♠❜✐♥é ❛✈❡❝ ✉♥ ❞❡s❝r✐♣t❡✉r ❜❛sé s✉r ❧❛ ❞✐str✐❜✉t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts ❝❛❧❝✉❧és s✉r ❧❛ ré❣✐♦♥ ❞✬✐♥térêt✳ ◗✉❛♥t à ❙❯❘❋✱ ✐❧ s❡ ❜❛s❡ s✉r ❧❡ ♣r✐♥❝✐♣❡ ❞❡s ✐♠❛❣❡s ✐♥té❣r❛❧❡s ❬❱✐♦❧❛ ✫ ❏♦♥❡s ✷✵✵✶❪ ♣♦✉r ❛❝❝é❧ér❡r ❧❡s ❝❛❧❝✉❧s ❡t ❞é❝r✐t ❧❛ ❞✐str✐❜✉t✐♦♥ ❞❡s ré♣♦♥s❡s à ✉♥❡ ♦♥❞❡❧❡tt❡ ❞❡ ❍❛❛r ❞❛♥s ❧❡ ✈♦✐s✐♥❛❣❡ ❞✉ ♣♦✐♥t ❞✬✐♥térêt✳ ▲❛ ✜❣✉r❡ ✺✳✽ ♠♦♥tr❡ ❧✬❡①tr❛❝t✐♦♥ ❞❡s ❙❯❘❋s ♣♦✉r ❞❡s ✐♠❛❣❡s ❢❡rr♦✈✐❛✐r❡s✳ ▲✬✐♠❛❣❡ ✐♥té❣r❛❧❡ ❡st ✉♥❡ r❡♣rés❡♥t❛t✐♦♥ s♦✉s ❧❛ ❢♦r♠❡ ❞✬✉♥❡ ✐♠❛❣❡ ♥✉♠ér✐q✉❡ ❡t ✉♥ ❛❧❣♦r✐t❤♠❡✱ ♣❡r♠❡tt❛♥t ❞❡ ❝❛❧❝✉❧❡r r❛♣✐❞❡♠❡♥t ❞❡s s♦♠♠❡s ❞❡ ✈❛❧❡✉rs ❞❛♥s ❞❡s ③♦♥❡s r❡❝t❛♥❣✉❧❛✐r❡s✳ ❆✐♥s✐✱ ❝❡s t②♣❡s ❞❡ ❞❡s❝r✐♣t❡✉rs s♦♥t très ❡✣❝❛❝❡s ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❡t ❧❡ s✉✐✈✐ t❡♠♣♦r❡❧ ❞❡s ♦❜st❛❝❧❡s ❝♦♠♠❡ ❧❡ ♠♦♥tr❡♥t ❧❡s tr❛✈❛✉① ❞❡ ❬▲❡❢❛✉❞❡✉① ✷✵✶✸❪ ❣râ❝❡ à ❧❛ stéré♦✈✐s✐♦♥✱ ❡t ♠ê♠❡ ♣♦✉r ❧❛ ré✲✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡s ♣❡rs♦♥♥❡s ❛✈❡❝ ❞✐✛ér❡♥t❡s ❝❛♠ér❛s ❬❍❛♠❞♦✉♥ ✷✵✶✵❪✳ ❱✐♦❧❛ ❡t ❏♦♥❡s✱ ♦♥t ♣r♦♣♦sé ❍❛❛r✲❧✐❦❡ ❢❡❛t✉r❡s ✉♥ ❞❡s❝r✐♣t❡✉r ❡t ✉♥ ❝❧❛ss✐✜❡✉r ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ✈✐s❛❣❡s ❬❱✐♦❧❛ ✫ ❏♦♥❡s ✷✵✵✶❪✳ ▲❡✉r ❛♣♣r♦❝❤❡ ❡st ❜❛sé❡ s✉r ✉♥❡ ✈❛r✐❛t✐♦♥ ❞❡s ♦♥❞❡❧❡tt❡s ❞❡ ❍❛❛r ♦❜t❡♥✉❡s ♣❛r ❧❛ ❞✐✛ér❡♥❝❡ ❡♥tr❡ ❞❡✉① ré❣✐♦♥s ❞✬✉♥ ♠♦❞è❧❡ r❡❝t❛♥❣✉❧❛✐r❡ ❝♦♠♠❡ ❧❡ ♠♦♥tr❡ ❧❛ ✜❣✉r❡ ✺✳✺❛✳ ❈❡s ❝❛r❛❝tér✐st✐q✉❡s s❡ ❝❛❧❝✉❧❡♥t r❛♣✐❞❡♠❡♥t ❣râ❝❡ à ❧❛ ♣r♦♣r✐été ❞❡s ✐♠❛❣❡s ✐♥té❣r❛❧❡s✳ ▲✬❡①✲ tr❛❝t✐♦♥ ❞❡s ❝❛r❛❝tér✐st✐q✉❡ ❍❛❛r✲❧✐❦❡ s✬♦❜t✐❡♥t ❡♥ ❢❛✐s❛♥t ❧❛ ❞✐✛ér❡♥❝❡ ❡♥tr❡ ❧❛ s♦♠♠❡ ❞❡s ♣✐①❡❧s ❞❡✺✳✸✳ ❙é❧❡❝t✐♦♥ ❞✉ ❞❡s❝r✐♣t❡✉r ✶✵✸ ❧❛ ③♦♥❡ ❜❧❛♥❝❤❡ ❡t ❞❡ ❧❛ s♦♠♠❡ ❞❡ ❧❛ ③♦♥❡ ❢♦♥❝é❡✳ ❊♥s✉✐t❡ ❧❡s ♠❡✐❧❧❡✉r❡s ❝❛r❛❝tér✐st✐q✉❡s s♦♥t sé❧❡❝✲ t✐♦♥♥é❡s ♣❛r ✉♥ ❛❧❣♦r✐t❤♠❡ ❞❡ ❜♦♦st✐♥❣✳ ❈❡❝✐ ❝♦♥s✐st❡ à ❛ss❡♠❜❧❡r ♣❧✉s✐❡✉rs ❝❧❛ss✐✜❡✉rs ❢❛✐❜❧❡s ❛✜♥ ❞✬♦❜t❡♥✐r ✉♥ ❝❧❛ss✐✜❡✉r à ❢♦rt❡ ❝❛♣❛❝✐té✳ ❉❡ ♣❧✉s✱ ✐❧s ✉t✐❧✐s❡♥t ✉♥❡ ✈❛r✐❛♥t❡ ❞✬✉♥ ❛❧❣♦r✐t❤♠❡ ❞✬❆❞❛✲ ❇♦♦st ❡♥ ♠♦❞❡ ❝❛s❝❛❞❡ ❬❇❛r❝③❛❦ ❡t ❛❧✳ ✷✵✵✽❪✳ ▲❛ ❝♦♥✜❣✉r❛t✐♦♥ ❡♥ ❝❛s❝❛❞❡ ♦✛r❡ ✉♥❡ ❣r❛♥❞❡ é❝♦♥♦♠✐❡ ❡♥ t❡♠♣s ❞❡ ❝❛❧❝✉❧✱ ❝❛r ❧❡s ♣r❡♠✐❡rs ❝❧❛ss✐✜❡✉rs ♣❡r♠❡ttr♦♥t ❞❡ ✜❧tr❡r ❧❡ ♣❧✉s ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ♥é✲ ❣❛t✐❢s s❛♥s ❜❡s♦✐♥ ❞❡ t❡st❡r t♦✉s ❧❡s ❝❧❛ss✐✜❡✉rs ❢❛✐❜❧❡s✳ ▲❡s ❝❛s❝❛❞❡s ❛②❛♥t ❞❡s ❧✐♠✐t❛t✐♦♥s✱ ❝♦♠♠❡ ❧❛ ❞ét❡r♠✐♥❛t✐♦♥ ❡♠♣✐r✐q✉❡ ❞❡s ❜♦♥s t❛✉① ❞❡s ❢❛✉① ♣♦s✐t✐❢s à ❝❤❛q✉❡ ét❛♣❡✱ ❧❡✉r t❡♠♣s ❞✬❡♥tr❛✐♥❡♠❡♥t ❡st ❧❡♥t✱ ❡t ✜♥❛❧❡♠❡♥t ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡s ❝❛s❝❛❞❡s ♣❡✉t ré❞✉✐r❡ ❧❡s ♣❡r❢♦r♠❛♥❝❡s ❣❧♦❜❛❧❡s ❞✉ s②stè♠❡ ❬❍❛r③❛❧❧❛❤ ✷✵✶✶❪✳ ✭❛✮ ❊①❡♠♣❧❡ ❞❡s ♠❛sq✉❡s ❞❡ r❡❝t❛♥❣❧❡s t✐rés ❞❡ ❬❱✐♦❧❛ ✫ ❏♦♥❡s ✷✵✵✶❪✳ ✭❜✮ ❘❡❝t❛♥❣❧❡s ❍❛❛r ♣♦s✐t✐♦♥♥és ❞❛♥s ❧✬✐♠❛❣❡ ❋✐❣✉r❡ ✺✳✺ ✕ ❊①❡♠♣❧❡ ❞❡ ❧✬❡①tr❛❝t✐♦♥ ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ ❍❛❛r ▲❛ ✜❣✉r❡ ✺✳✻❛ ♥♦✉s ♠♦♥tr❡ ❧❡s ♣r✐♥❝✐♣❛❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ ❍❛❛r r❡t❡♥✉❡s ♣❛r ❧❡ ❜♦♦st✐♥❣ ❛♣rès ✉♥ ❛♣♣r❡♥t✐ss❛❣❡ s✉r ❞❡s ✈♦✐t✉r❡s ❬▲❡❡ ✷✵✵✼❪✳ ▲❛ ✜❣✉r❡ ✺✳✻❜ ♥♦✉s ♠♦♥tr❡ ✉♥❡ ✈❛r✐❛t✐♦♥ ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ ❍❛❛r✱ ❜❛sé❡ ❞❛♥s ❧❡s ❈♦♥tr♦❧ P♦✐♥ts❬❆❜r❛♠s♦♥ ❡t ❛❧✳ ✷✵✵✼❪ s♦♥t ❧❡s ❈♦♥♥❡❝t❡❞ ❈♦♥tr♦❧ P♦✐♥ts✳ ▲❡s ❈♦♥tr♦❧ P♦✐♥ts s♦♥t ❝♦♥st✐t✉és ❞❡ ❞❡✉① ❣r♦✉♣❡s ❞❡ ♣♦✐♥ts ✭♣♦s✐t✐❢s ❡t ♥é❣❛t✐❢s✮✱ ♦ù ✉♥ ❡①❡♠♣❧❡ ❡st ❝❧❛ssé ♣♦s✐t✐❢✱ s✐ ❧❛ ❞✐✛ér❡♥❝❡ ❡♥tr❡ ❧❛ ✈❛❧❡✉r ♠✐♥✐♠❛❧❡ r❡♣rés❡♥té❡ ♣❛r ✉♥ ♣✐①❡❧ ♣♦s✐t✐❢ ❡s ❧❛ ✈❛❧❡✉r ♠❛①✐♠❛❧❡ ❞✬✉♥ ♣✐①❡❧ ♥é❣❛t✐❢✭❡t ✐♥✈❡rs❡♠❡♥t✮ ❡st s✉♣ér✐❡✉r❡ à ✉♥ s❡✉✐❧✳ ▲✬✐❞é❡ ❞❡s ❈♦♥♥❡❝t❡❞ ❈♦♥tr♦❧ P♦✐♥ts ❡st ❞❡ ré❞✉✐r❡ ❧❡ t❡♠♣s ❞❡ ❝❛❧❝✉❧ ❡t ❞✬❛❥♦✉t❡r ❞❡s ❝♦♥tr❛✐♥t❡s ❞❡ s②♠étr✐❡ ❡t t♦♣♦❧♦❣✐q✉❡s ❛✉① ❝❛r❛❝tér✐st✐q✉❡s✱ ❛ ❝♦♥s✐sté ❞✬❛❥♦✉t❡r ✉♥❡ ❝♦♥tr❛✐♥t❡ ❞❡ ❝♦♥♥❡①✐té s✉r ✉♥ ✈♦✐s✐♥❛❣❡ ❞❡ ✽✱ ❝❡ q✉✐ ✐♠♣❧✐q✉❡ q✉❡ ❝❤❛q✉❡ ♣♦✐♥t ❞♦✐t t♦✉❝❤❡r ❛✉ ♠♦✐♥s ✉♥ ❛✉tr❡ ♣❛r ✉♥ ❝♦✐♥✳ ❈❡s tr❛✈❛✉① ♥♦✉s ♣rés❡♥t❡♥t ❞❡s t❛✉① ❞❡ ❞ét❡❝t✐♦♥ ❞❡ ✈♦✐t✉r❡s ❛✉① ❛❧❡♥t♦✉rs ❞❡ ✾✵ ✪✳ ❯♥ ❞❡s ❡①❡♠♣❧❡s ❞✬✉t✐❧✐s❛t✐♦♥ ❞❡s ♣♦✐♥ts ❞✬✐♥térêt ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ✈♦✐t✉r❡s ✈✉❡s ❞❡ ♣r♦✲ ✜❧ ❡st ♣rés❡♥té ♣❛r ❬❇❞✐r✐ ❡t ❛❧✳ ✷✵✵✾❪✳ ■❧ ♥♦✉s ♣r♦♣♦s❡ ✉♥❡ ✈❛r✐❛♥t❡ ❞❡ ❙❯❘❋ q✉❡ ♥♦✉s ♣♦✉✈♦♥s tr♦✉✈❡r ❞❛♥s ❧❛ ❧✐❜r❛✐r❡ ❈❆▼❊▲▲■❆ ❬❙t❡✉① ✷✵✵✶❪✱ ❡t ✉♥ ❝❧❛ss✐✜❡✉r ❆❞❛❜♦st✐♥❣ ♣♦✉r ❞ét❡r♠✐♥❡r ❧❡s ♣♦✐♥ts ❞✬✐♥térêt ❛♣♣❛rt❡♥❛♥t à ❞❡s ✈♦✐t✉r❡s✱ s✉✐✈✐ ❞✬✉♥❡ ❛♥❛❧②s❡ ❜❛sé❡ sûr ❍♦✉❣❤✱ ♣♦✉r ❞ét❡r♠✐♥❡r ❧❛ ♣♦s✐t✐♦♥ ❞❡s ♣♦✐♥ts ❡t ❞é❝✐❞❡r s✐ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣♦✐♥ts ❞ét❡❝tés ❢♦r♠❡♥t ✉♥❡ ✈♦✐t✉r❡✳ ▲❡s rés✉❧t❛ts ❛tt❡✐❣♥❡♥t ✉♥❡ ♣ré❝✐s✐♦♥ ❞❡ ✾✺✪✳ ▲❛ ✜❣✉r❡ ✺✳✼ ♥♦✉s ♠♦♥tr❡ ✉♥ ❡①❡♠♣❧❡✳ ❖r✱ ❞❛♥s ❞❡s ❝♦♥t❡①t❡s ♣❡rt✉r❜és ❡t ♥♦t❛♠♠❡♥t ❜r✉✐tés✱ ❧❡s ♣❡r❢♦r♠❛♥❝❡s ❞❡ ❝❡s ❞❡s❝r✐♣t❡✉rs ❧♦❝❛✉① r❡st❡♥t ❢❛✐❜❧❡s ♣❛r r❛♣♣♦rt ❛✉① ❞❡s❝r✐♣t❡✉rs ❣❧♦❜❛✉① q✉✐ tr❛✈❛✐❧❧❡♥t s✉r ❧✬✐♠❛❣❡ ❡♥t✐èr❡✳ ❉❡ ♣❧✉s✱ ❧❡ ♥♦♠❜r❡ ❞❡ ♣♦✐♥ts ✈❛r✐❡ ❞✬✉♥❡ ✐♠❛❣❡ à ✉♥❡ ❛✉tr❡✱ ❡t ♥é❝❡ss✐t❡ ✉♥❡ ❜♦♥♥❡ rés♦❧✉t✐♦♥ ❞❡ ❞é♣❛rt s✉r ❧✬✐♠❛❣❡✱ ❝❡ q✉✐ ❞❛♥s ✉♥ ❡♥✈✐r♦♥♥❡♠❡♥t ❡①t❡r♥❡ ❡t ♣♦✉r ❞❡s ❣r❛♥❞❡s ❞✐st❛♥❝❡s ♥✬❡st ♣❛s t♦✉❥♦✉rs ♣♦ss✐❜❧❡✳ ▲✬❛s♣❡❝t s♣❛t✐❛❧ ❡st é❣❛❧❡♠❡♥t ♣❡r❞✉ ❡t ❧❛ ♣♦s✐t✐♦♥ r❡❧❛t✐✈❡ ❞❡s ♣♦✐♥ts ♥✬❡st ♣❛s ❝♦♥s❡r✈é❡✳ ▲✬✉t✐❧✐s❛t✐♦♥ ❞❡s ♣♦✐♥ts ❞✬✐♥térêt ✐♠♣❧✐q✉❡ ❞✬❛✈♦✐r ✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ❞❡s❝r✐♣t❡✉rs✱ ❝❡ q✉✐ ♣❡✉t ❝♦♥❞✉✐r❡ à ❞❡ ❢❛✉① ❛♣♣❛r✐❡♠❡♥ts ❡t ♣❛r ❝♦♥séq✉❡♥t à ❞❡ ❢❛✉ss❡s ❞ét❡❝t✐♦♥s✳ ❉❡ ♣❧✉s✱ ♥♦✉s ♥❡ ♣♦✉✈♦♥s ♣❛s ❣❛r❛♥t✐r q✉❡ ❧❡s ♣♦✐♥ts ❞✬✐♥térêt s♦✐❡♥t t♦✉❥♦✉rs ✈✐s✐❜❧❡s ❞❛♥s t♦✉t❡s ❧❡s ❝♦♥❞✐t✐♦♥s ❞✬é❝❧❛✐r❛❣❡ à ❧❛ ❞✐st❛♥❝❡ ❞❡ ❞ét❡❝t✐♦♥ q✉❡ ♥♦✉s ✈♦✉❧♦♥s ❛tt❡✐♥❞r❡✳ ❈❡s r❛✐s♦♥s ♥♦✉s ♦❜❧✐❣❡♥t à é❝❛rt❡r ❝❡ t②♣❡ ❞❡ ❞❡s❝r✐♣t❡✉rs ♣♦✉r ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡ ❞❡s❝r✐♣t❡✉rs✶✵✹ ❈❤❛♣✐tr❡ ✺✳ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ✿ tr❛✐♥s ✭❛✮ ▼❡✐❧❧❡✉r❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ ❍❛❛r ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ✈♦✐t✉r❡s✳ ✭❜✮ ◆✲❈♦♥♥❡①✐t② ❈♦♥tr♦❧ P♦✐♥ts r❡t❡♥✉s ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ✈♦✐t✉r❡s✳ ❋✐❣✉r❡ ✺✳✻ ✕ ■♠❛❣❡s ❡①tr❛✐t❡s ❞❡ ❬❙t❛♥❝✐✉❧❡s❝✉ ❡t ❛❧✳ ✷✵✵✾❪ ❡t ❬▲❡❡ ✷✵✵✼❪✳ ❋✐❣✉r❡ ✺✳✼ ✕ ❉ét❡❝t✐♦♥ ❞❡s ✈♦✐t✉r❡s à ♣❛rt✐r ❞❡s ♣♦✐♥ts ❞✬✐♥térêt✳ ❬❇❞✐r✐ ❡t ❛❧✳ ✷✵✵✾❪ ▲✬✐♠❛❣❡ ❞❡ ❣❛✉❝❤❡ ♠♦♥tr❡ ❧✬✐♠❛❣❡ ♦r✐❣✐♥❛❧❡✳ ▲✬✐♠❛❣❡ ❝❡♥tr❛❧❡ ♠♦♥tr❡ ❧❡s ❡①tr❛❝t✐♦♥s ❞❡s ♣♦✐♥ts ❞✬✐♥térêt✱ ❡t ❧✬✐♠❛❣❡ ❞❡ ❞r♦✐t❡ ❧❡s ♣♦✐♥ts ❞✬✐♥térêt rét❡♥✉s ❝♦♠♠❡ ❞❡s ♣♦✐♥ts ❛♣♣❛rt❡♥❛♥t à ❞❡s ✈♦✐t✉r❡s ❡t ❧❡s ❞ét❡❝t✐♦♥s ❞❡s ✈♦✐t✉r❡s ❛♣rès ❛✈♦✐r ❛♥❛❧②sé ❧❛ ♣♦s✐t✐♦♥ ❞❡s ♣♦✐♥ts ❣râ❝❡ à ✉♥❡ ♠ét❤♦❞❡ s❡♠❜❧❛❜❧❡ à ❧❛ tr❛♥s❢♦r♠é❡ ❞❡ ❍♦✉❣❤✳✺✳✸✳ ❙é❧❡❝t✐♦♥ ❞✉ ❞❡s❝r✐♣t❡✉r ✶✵✺ ✭❛✮ P♦✐♥ts ❞✬✐♥térêt ❙❯❘❋ ♣♦✉r ❧❡ tr❛✐♥ ✭❜✮ P♦✐♥ts ❞✬✐♥térêt ♣♦✉r ❧❛ s❝è♥❡✳ ✭❝✮ ❆♣♣❛r✐❡♠❡♥t ❡♥tr❡ ♣♦✐♥ts ❞✬✐♥térêt ❞❡ ❞❡✉① ✐♠❛❣❡s✳ ✭❞✮ ❈♦rr❡s♣♦♥❞❛♥❝❡ ❞❡s ♣♦✐♥ts ❛♣rès ❛♣♣❛r✐❡♠❡♥t ❛✈❡❝ ❘❆◆❙❆❈ ♣♦✉r é❧✐♠✐♥❡r ❧❡s ❢❛✉① ❛♣♣❛r✐❡♠❡♥ts✳ ❋✐❣✉r❡ ✺✳✽ ✕ ❊①tr❛❝t✐♦♥ ❞❡s ♣♦✐♥ts ❙❯❘❋ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✳ ❈❡tt❡ ✐♠❛❣❡ ♥♦✉s ♠♦♥tr❡ ❧✬✉s❛❣❡ ❞❡s ♣♦✐♥ts ❞✬✐♥térêt ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s✳ ❉✬❛❜♦r❞✱ ✐❧ ❢❛✉t ❝❛r❛❝tér✐s❡r ❧✬♦❜❥❡t ♣❛r ❞❡s ♣♦✐♥ts ❙❯❘❋ ✭s✉❜✜❣✉r❡ ✭❛✮✮✳ ❊♥ s❡❝♦♥❞ ❧✐❡✉✱ ✐❧ ❢❛✉t ❡①tr❛✐r❡ ❧❡s ♣♦✐♥ts ❞✬✐♥térêt ❞❛♥s ❧❛ s❝è♥❡ ❡t tr♦✉✈❡r ❞❡s ♣♦✐♥ts r❡ss❡♠❜❧❛♥ts ❡♥tr❡ ❧❛ s❝è♥❡ ❡t ❧✬♦❜❥❡t ✭s✉❜✐❢✉❣r❡ ✭❜✮❡t✭❝✮✮✳ ●râ❝❡ à ❧❛ ❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❧❛ ❞✐str✐❜✉t✐♦♥ s♣❛t✐❛❧❡ ❞❡s ♣♦✐♥ts ❞❛♥s ❧✬✐♠❛❣❡ ❞✬♦r✐❣✐♥❡✱ ♥♦✉s ♣♦✉✈♦♥s é❧✐♠✐♥❡r ❧❡s ♠❛✉✈❛✐s ❛♣♣❛r✐❡♠❡♥ts ✭s✉❜✜❣✉r❡ ✭❞✮✮✳ ◆♦✉s ♣♦✉✈♦♥s ✈♦✐r q✉✬✐❧ ❡①✐st❡ ✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ♣♦✐♥ts q✉✐ ♦♥t été ❛♣♣❛r✐és ❛✉ ❞é❜✉t✱ ♠❛✐s q✉✐ ✜♥❛❧❡♠❡♥t ♦♥t été é❧✐♠✐♥és✳ ❊♥ ♦✉tr❡✱ ❝❡rt❛✐♥s ❞❡s ♣♦✐♥ts ❞✬✐♥térêt s❡ ❝♦♥❝❡♥tr❡♥t ❞❛♥s ❞❡s ♣❡t✐ts ❞ét❛✐❧s ❞✉ tr❛✐♥✱ ❝♦♠♠❡ ❧❡ ♥✉♠ér♦ ♦✉ ❧❡ ♠♦❞è❧❡✱ q✉✐ s♦✉s ❝❡rt❛✐♥❡s ❝♦♥❞✐t✐♦♥s ✭ré✢❡ts✱ ❞✐st❛♥❝❡✱✳✳✳✮✱ ♥❡ s❡r♦♥t t♦✉❥♦✉rs ✈✐s✐❜❧❡s✳✶✵✻ ❈❤❛♣✐tr❡ ✺✳ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ✿ tr❛✐♥s ❣❧♦❜❛✉①✳ ❈❡♣❡♥❞❛♥t✱ ✐❧s ♣❡✉✈❡♥t êtr❡ ✉t✐❧✐sés ❞❛♥s ❞❡s ❛♣♣❧✐❝❛t✐♦♥s ❢✉t✉r❡s ♣♦✉r ❛✉❣♠❡♥t❡r ❧✬❡✣❝❛❝✐té ❞✉ ❞❡s❝r✐♣t❡✉r ❣❧♦❜❛❧✳ ✺✳✸✳✷ ❆♥❛❧②s❡ ❣❧♦❜❛❧❡ ✿ ❍✐st♦❣r❛♠♠❡ ❞❡ ❣r❛❞✐❡♥ts ♦r✐❡♥tés ✭❍❖●✮ ❈♦♠♣t❡ t❡♥✉ ❞❡ ❧❛ ♥é❝❡ss✐té ❞✬✉♥ s②stè♠❡ t❡♠♣s ré❡❧ ❞❛♥s ❧❡ ❞♦♠❛✐♥❡ ❞❡s ■❚❙✱ ❧❛ ♠❛❥♦r✐té ❞❡s ❞❡s❝r✐♣t❡✉rs ✉t✐❧✐sés ❛❝t✉❡❧❧❡♠❡♥t s♦♥t ♣❡✉ ❣♦✉r♠❛♥❞s ❡♥ ♣✉✐ss❛♥❝❡ ❞❡ ❝❛❧❝✉❧s✱ ❝♦♠♠❡ ❧❛ s②♠étr✐❡ ❞❡ ❧❛ ♣❛rt✐❡ ❛rr✐èr❡ ❞❡s ✈é❤✐❝✉❧❡s✱ ♣❛r ❡①❡♠♣❧❡ ❬❇r♦❣❣✐ ❡t ❛❧✳ ✷✵✵✹❪✳ ❊♥ r❡✈❛♥❝❤❡✱ ❬❆rr♦s♣✐❞❡ ❡t ❛❧✳ ✷✵✶✷❪ ♥♦✉s ❞é♠♦♥tr❡ q✉❡ ❧❛ s②♠étr✐❡ ❡st ✉♥ ❞❡s❝r✐♣t❡✉r ♣♦ssé❞❛♥t ✉♥❡ ❝❛♣❛❝✐té ❧✐♠✐té❡ ♣♦✉r ❞✐s❝r✐♠✐♥❡r ❧❡s ✐♠❛❣❡s ❛✈❡❝ ✈é❤✐❝✉❧❡s ❞❡s ✐♠❛❣❡s s❛♥s✳ ▲❛ ✜❣✉r❡ ✺✳✾ ♥♦✉s ♠♦♥tr❡ ❧❛ ❞✐str✐❜✉t✐♦♥ s♣❛t✐❛❧❡ ❞✬✉♥ ❞❡s❝r✐♣t❡✉r ❞❡ s②♠étr✐❡ ♣♦✉r ✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❞❡s ✈♦✐t✉r❡s ❡t ♥♦♥✲✈♦✐t✉r❡s✳ P♦✉r ❝❡tt❡ r❛✐s♦♥ ✐❧s ♦♥t ♣r♦♣♦sé ❞✬✉t✐❧✐s❡r ✉♥ ❞❡s❝r✐♣t❡✉r ❜❛sé s✉r ❍❖●✱ ❝❛r ❧❛ ♣❛rt✐❡ ❛rr✐èr❡ ❞❡s ✈♦✐t✉r❡s s❡ ❝❛r❛❝tér✐s❡ ♣❛r ❞❡s ❣r❛❞✐❡♥ts ✈❡rt✐❝❛✉① ❡t ❤♦r✐③♦♥t❛✉① ✭❧❛ ♣❧❛q✉❡ ❞✬✐♠♠❛tr✐❝✉❧❛t✐♦♥✱ ❧❛ ✈✐tr❡ ❛rr✐èr❡✱ ❡t❝✮✳ ❯♥❡ ❛♥❛❧②s❡ ❞✉ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖●✱ ❞❡s ❛♠♣❧✐t✉❞❡s ❡t ❞❡s ❞✐st❛♥❝❡s ❡♥tr❡ ❝❡rt❛✐♥s ❜✐♥s ❡st ré❛❧✐sé❡ ♣♦✉r ♦❜t❡♥✐r ✉♥ ❞❡✉①✐è♠❡ ❞❡s❝r✐♣t❡✉r✳ ▲❡s rés✉❧t❛ts ♦❜t❡♥✉s ❞❛♥s ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❛tt❡✐❣♥❡♥t ❡♥ ♠♦②❡♥♥❡ ✉♥ ✾✷✳✹✽✪ ❞✬❡①❛❝t✐t✉❞❡✳ ❋✐❣✉r❡ ✺✳✾ ✕ ❉✐str✐❜✉t✐♦♥ ❞✉ ❞❡s❝r✐♣t❡✉r ❞❡ s②♠étr✐❡ t❡sté ♣❛r ❬❆rr♦s♣✐❞❡ ❡t ❛❧✳ ✷✵✶✷❪✳ ❱✉ ❧❡s rés✉❧t❛ts ♦❜t❡♥✉s ❞❛♥s ❧❡s tr❛✈❛✉① ❞❡ ❬❆rr♦s♣✐❞❡ ❡t ❛❧✳ ✷✵✶✷❪ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ✈♦✐t✉r❡s ❡t ❧❡s tr❛✈❛✉① ❞❡ ❬❍❛r③❛❧❧❛❤ ✷✵✶✶❪ ♣♦✉r ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ♠✉❧t✐✲❝❧❛ss❡✱ ♥♦✉s ♣r♦♣♦s♦♥s ❞✬✉t✐❧✐s❡r ❧❡ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖● ♣♦✉r ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❧❛ ❢♦r♠❡ ❞✉ tr❛✐♥ ❞❛♥s ♥♦s ✐♠❛❣❡s ❘❖■ sé❧❡❝t✐♦♥♥é❡s à ♣❛rt✐r ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡✳ ❙✐ ❧❛ ✈♦✐❡ ♥✬❡st ♣❧✉s ✈✐s✐❜❧❡ à ❝❛✉s❡ ❞✬✉♥ tr❛✐♥✱ ❧❛ s✐❧❤♦✉❡tt❡ ❞✉ tr❛✐♥ ♣❡✉t êtr❡ ❡♥❝❛❞ré❡ ❞❛♥s ❧❛ ❘❖■✱ ❝❡ q✉✐ ♥♦✉s ♣❡r♠❡ttr❛ ❞✬❛✈♦✐r ✉♥ ❞❡s❝r✐♣t❡✉r ✜①❡ ❡t ♣❛r ❝♦♥séq✉❡♥t ✉♥❡ ❜♦♥♥❡ ❞✐str✐❜✉t✐♦♥ ❞❡s ❜❧♦❝s ❡t ❝❡❧❧✉❧❡s ❞✉ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖●✱ q✉✐ ♣❡r♠❡ttr❛ ❞❡ ❝❛r❛❝tér✐s❡r ❧❡ ♣r♦✜❧ ❞✉ ♠étr♦✳ P♦✉r ♦❜t❡♥✐r ❧❡ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖●✱ ✐❧ ❡st ♥é❝❡ss❛✐r❡ ❞❡ ✜①❡r ❝❡rt❛✐♥s ♣❛r❛♠ètr❡s ❝♦♠♠❡ ❧❡ ♥♦♠❜r❡ ❞❡s ❜❧♦❝s✱ ❞❡s ❝❡❧❧✉❧❡s✱ ❞❡s ❜✐♥s ❡t ❧✬✐♥t❡r✈❛❧❧❡ ❞❡s ♦r✐❡♥t❛t✐♦♥s✳ ▲❛ ✈❡rs✐♦♥ ❞❡ ❍❖● ✉t✐❧✐sé❡✱ ❡♥ t❡r♠❡s ❞❡ ❞✐str✐❜✉t✐♦♥ ❞❡s ❜❧♦❝s✴❝❡❧❧✉❧❡s ❡st ❞❡ ✶ ❝❡❧❧✉❧❡ ♣❛r ❜❧♦❝✳ ▲❛ ✜❣✉r❡ ✺✳✶✵ ♥♦✉s ♠♦♥tr❡ ✉♥ ❡①❡♠♣❧❡ ❞✬❡①tr❛❝t✐♦♥ ❞❡ ❍❖● ♣♦✉r ✉♥❡ ✐♠❛❣❡ ❡♥ ♣rés❡♥❝❡ ❞✬✉♥ tr❛✐♥✳ ❈❡tt❡ r❡♣rés❡♥t❛t✐♦♥ ❡t ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❍❖● ♦♥t été ♦❜t❡♥✉❡s ❣râ❝❡ à ❧❛ ❧✐❜r❛✐r✐❡ ❱▲❋❡❛t ❬❱❡❞❛❧❞✐ ✫ ❋✉❧❦❡rs♦♥ ✷✵✵✽❪✳ ◆♦✉s ♣♦✉✈♦♥s ✈♦✐r ❝♦♠♠❡♥t ❧❡s ❞✐✛ér❡♥ts ❜✐♥s ❞❡ ❍❖● ♣❡r♠❡tt❡♥t ❞❡ ❞✐st✐♥❣✉❡r ❧❛ s✐❧❤♦✉❡tt❡ ❞✉ tr❛✐♥✳ ❈❡♣❡♥❞❛♥t✱ ♣♦✉r ♥♦tr❡ ❞❡s❝r✐♣t❡✉r✱ ♥♦✉s ✉t✐❧✐s❡r♦♥s ❧❛ ✈❡rs✐♦♥ ❝❧❛ss✐q✉❡ ❞❡ ❍❖●✱ ❞ét❛✐❧❧é❡ ♣ré✲ ❝é❞❡♠♠❡♥t ❞❛♥s ❧❛ s❡❝t✐♦♥ ✹✳✸✳✸ ❛✈❡❝ ❧❡s ❜✐♥s ❞✐str✐❜✉és ❝♦♠♠❡ ❞❛♥s ❧✬éq✉❛t✐♦♥ ✹✳✶✶✳ ▲❛ t❛✐❧❧❡ ❞✉ ❞❡s❝r✐♣t❡✉r ♣♦✉r ♥♦tr❡ ❞✐str✐❜✉t✐♦♥ s✉✐t ❧❛ ❢♦r♠✉❧❡ ✺✳✶✱ ♦ù Nbins = 10✳ T aille descripteur HOG = Nblocs verticaux × Nblocs horizontaux × Ncellules par bloc × Nbins ✭✺✳✶✮✺✳✹✳ ❘és✉❧t❛ts ✶✵✼ ❈❡♣❡♥❞❛♥t✱ ♣❧✉s ❧❡ ♥♦♠❜r❡ ❞❡s ❝❡❧❧✉❧❡s ❡st ❣r❛♥❞✱ ♠♦✐♥s ❧❡ ❞❡s❝r✐♣t❡✉r ❡st r♦❜✉st❡ ❛✉① ❞é♣❧❛✲ ❝❡♠❡♥ts ✈❡rt✐❝❛✉① ❡t ❤♦r✐③♦♥t❛✉① ❡t ✐❧ ❡st ♣❧✉s ❝♦ût❡✉① ❡♥ t❡♠♣s ❞❡ ❝❛❧❝✉❧ ❡t ❡♥ ♠é♠♦✐r❡✳ ❊♥ ♣❛rt✐❝✉❧✐❡r✱ s✐ ❧❡ tr❛✐♥ ♥✬❡st ♣❛s ❝❡♥tré ❞❛♥s ❧❛ ❘❖■ à ❝❛✉s❡ ❞✬✉♥❡ ♠❛✉✈❛✐s❡ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ♦✉ ✉♥ ♣r♦❜❧è♠❡ ❞✬é❝❤❡❧❧❡ ✭❝❤❛♥❣❡♠❡♥t ❞❡ ♣❡♥t❡✮✱ ❧❡s ❜❧♦❝s ❞❡ ❍❖● ♥❡ s❡r♦♥t ♣❛s ♣♦s✐t✐♦♥♥és ❡①❛❝t❡♠❡♥t ❞❛♥s ❧❛ ♣♦s✐t✐♦♥ s♦✉❤❛✐té❡ ❡t ❧❡ ❝❧❛ss✐✜❡✉r r✐sq✉❡ ❞❡ ❞♦♥♥❡r ✉♥ rés✉❧t❛t ♥é❣❛t✐❢✳ ❈❡❝✐ ♥♦✉s ♦❜❧✐❣❡ à tr♦✉✈❡r ✉♥ ❝♦♠♣r♦♠✐s ❡♥tr❡ ❧❡ ♥♦♠❜r❡ ❞❡s ❜❧♦❝s ❡t ❧✬❡①❛❝t✐t✉❞❡ ❞✉ ❝❧❛ss✐✜❡✉r✳ ✭❛✮ ■♠❛❣❡ ♦r✐❣✐♥❛❧❡✳ ✭❜✮ ❍❖● ✶✺ ❧✐❣♥❡s ✶✵ ❝♦✲ ❧♦♥♥❡s✳ ✭❝✮ ❍❖● ✽ ❧✐❣♥❡s ✺ ❝♦✲ ❧♦♥♥❡s✳ ✭❞✮ ❍❖● ✹ ❧✐❣♥❡s ✸ ❝♦✲ ❧♦♥♥❡s✳ ❋✐❣✉r❡ ✺✳✶✵ ✕ ❉❡s❝r✐♣t❡✉r ❞❡ ❍❖●✳ ▲❛ ✜❣✉r❡ ♠♦♥tr❡ ❧✬❡①tr❛❝t✐♦♥ ❞✉ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖● ❞❛♥s ✉♥❡ ✐♠❛❣❡ ❘❖■ ❡♥ ♣rés❡♥❝❡ ❞✬✉♥ tr❛✐♥✳ ▲❡s ♦r✐❡♥t❛t✐♦♥s s♦♥t ♣r✐s❡s ♥♦♥✲s✐❣♥é❡s ❛✈❡❝ ✉♥ t♦t❛❧ ❞❡ ✽ ♦r✐❡♥t❛t✐♦♥s ♣❛r ❝❡❧❧✉❧❡✳ ▲❛ ✜❣✉r❡ ✭❜✮ ♠♦♥tr❡ ❧❡ rés✉❧t❛t ❞✉ ❞❡s❝r✐♣t❡✉r ♦❜t❡♥✉ ❛✈❡❝ ✉♥❡ ❝♦♥✜❣✉r❛t✐♦♥ ❞❡ t❛✐❧❧❡ ❞❡ ❜❧♦❝ ❞❡ ✶✵ ♣✐①❡❧s✳ ▲❛ ✜❣✉r❡ ✭❝✮ ♣♦✉r ✉♥❡ t❛✐❧❧❡ ❞❡ ❜❧♦❝ ❞❡ ✷✵ ♣✐①❡❧s ❡t ✜♥❛❧❡♠❡♥t ✭❞✮ ♣♦✉r ✹✵ ♣✐①❡❧s✳ ◆♦✉s ♣♦✉✈♦♥s ✈♦✐r q✉❡ ♣❧✉s ❧❡ ❜❧♦❝ ❡st ❣r❛♥❞✱ ♠♦✐♥s ❧✬✐♥❢♦r♠❛t✐♦♥ ❛♣♣♦rté❡ ♣❛r ❧❡ ❞❡s❝r✐♣t❡✉r ❡st ❞ét❛✐❧❧é❡✳ P❧✉s ♣❡t✐t ❡st ❧❡ ❜❧♦❝✱ ♣❧✉s ❣r❛♥❞ s❡r❛ ❧❡ ❞❡s❝r✐♣t❡✉r✳ ✺✳✹ ❘és✉❧t❛ts ❆✜♥ ❞✬é✈❛❧✉❡r ❧❡s ♣❡r❢♦r♠❛♥❝❡s ❞❡ ❧✬❛♣♣r♦❝❤❡ ♣rés❡♥té❡ ❞❛♥s ❝❡ ❝❤❛♣✐tr❡✱ ♥♦✉s ❛✈♦♥s ♣r♦❝é❞é à ❞❡s ❡①♣ér✐♠❡♥t❛t✐♦♥s ❡t é✈❛❧✉❛t✐♦♥s ❡①❤❛✉st✐✈❡s s✉r ❞❡s ✐♠❛❣❡s ✐ss✉❡s ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s q✉✬♦♥ ❛ ❝réé❡✱ ♣r♦✈❡♥❛♥t ❞❡s ✈✐❞é♦s ❛❝q✉✐s❡s ❧♦rs ❞❡ ♥♦s ❡①♣ér✐♠❡♥t❛t✐♦♥s ❞❛♥s ❧❡ t❡rr❛✐♥ ❛✐♥s✐ q✉❡ ❞❡ ✈✐❞é♦s ❡t ❞✬✐♠❛❣❡s ❞✬■♥t❡r♥❡t✳ ❉❛♥s ✉♥ ♣r❡♠✐❡r t❡♠♣s✱ ♥♦✉s ❛✈♦♥s t❡sté ❧✬❡✣❝❛❝✐té ❞❡s ❞✐✛ér❡♥t❡s ❞✐str✐❜✉t✐♦♥s ❞✉ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖● ❛✈❡❝ ❧❡s ✐♠❛❣❡s ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s✳ P♦✉r ❧❡ ♠❛tér✐❛❧✐s❡r✱ ✐❧ ❡st ♥é❝❡ss❛✐r❡ ❞❡ ré❛❧✐s❡r ✉♥ ❛♣♣r❡♥t✐ss❛❣❡ s✉♣❡r✈✐sé ♣♦✉r ❧❡q✉❡❧ ♥♦✉s ♥✬❛✈♦♥s sé❧❡❝t✐♦♥♥é q✉❡ ✸✵✪ ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ♣♦✉r ❧✬❡♥tr❛î♥❡♠❡♥t ❡t ✼✵ ✪ ♣♦✉r ❧❛ ♣❤❛s❡ ❞❡ t❡st✳ ❉❛♥s ✉♥❡ s❡❝♦♥❞❡ ét❛♣❡✱ ♥♦✉s ❛❧❧♦♥s t❡st❡r ❧❡ ❝❧❛ss✐✜❡✉r ❛✈❡❝ ❞❡s ✐♠❛❣❡s ✐ss✉❡s ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s✳ ❈♦♠♠❡ ✐♥❞✐q✉é✱ ✉♥❡ ❢♦✐s ❧❡s r❛✐❧s ❞ét❡❝tés✱ ♥♦✉s ❡①tr❛②♦♥s ✉♥❡ ✐♠❛❣❡ à ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡✱ ❝❛r s✐ ❧❛ ✈♦✐❡ ♥✬❡st ♣❧✉s ✈✐s✐❜❧❡✱ ❡❧❧❡ ♣❡✉t êtr❡ ❝♦✉✈❡rt❡ ♣❛r ✉♥ tr❛✐♥✳ ❈❡s ✐♠❛❣❡s ❘❖■ s♦♥t ❛❧♦rs é✈❛❧✉é❡s ♣❛r ♥♦tr❡ ❞ét❡❝t❡✉r ♣♦✉r ❞ét❡r♠✐♥❡r ❧❛ ♣rés❡♥❝❡ ♦✉ ♥♦♥ ❞✬✉♥ tr❛✐♥✳ P♦✉r ❞ét❡r♠✐♥❡r ❧❛ q✉❛❧✐té ❞✉ ❞❡s❝r✐♣t❡✉r ❡t ❞✉ ❝❧❛ss✐✜❡✉r✱ ♥♦✉s ✉t✐❧✐s♦♥s ❧❡s ♠❡s✉r❡s ❞❡ ♣ré❝✐s✐♦♥ ❡t ❞❡ s❡♥s✐❜✐❧✐té ♦✉ r❛♣♣❡❧ ✭éq✉❛t✐♦♥s ✺✳✷ ❡t ✺✳✸✮ ✿ P recision ´ = V P V P + F P ✭✺✳✷✮ Sensibilite´ = Rappel = V P V P + F N ✭✺✳✸✮ ❆✜♥ ❞✬❤♦♠♦❣é♥é✐s❡r ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❡t ❞✬❛✈♦✐r ✉♥ ❞❡s❝r✐♣t❡✉r ❞❡ ❧❛ ♠ê♠❡ t❛✐❧❧❡ ♣♦✉r t♦✉t❡s ❧❡s ✐♠❛❣❡s✱ t♦✉t❡s ♦♥t été r❡✲❞✐♠❡♥s✐♦♥♥é❡s à ✉♥❡ t❛✐❧❧❡ ✜①❡ ❞❡ 150 × 100 ♣✐①❡❧s✱ ❡♥ r❡s♣❡❝t❛♥t ❧❡ r❛t✐♦ ❤❛✉t❡✉r✴❧❛r❣❡✉r ❞✉ tr❛✐♥✳✶✵✽ ❈❤❛♣✐tr❡ ✺✳ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ✿ tr❛✐♥s ❈♦♠♠❡ ❧❡ ❞❡s❝r✐♣t❡✉r ❝❤♦✐s✐ ❡st ✉♥ ❞❡s❝r✐♣t❡✉r ❣❧♦❜❛❧✱ ♥♦✉s ❞❡✈♦♥s ❞ét❡r♠✐♥❡r ❧❛ ❞✐str✐❜✉t✐♦♥ ❞❡s ❜❧♦❝s ❞❡ ❍❖● q✉✐ ❞♦♥♥❡ ❧❡s ♠❡✐❧❧❡✉rs rés✉❧t❛ts ❡♥ t❡r♠❡s ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥✳ ▲❛ ✜❣✉r❡ ✺✳✶✶ ♠♦♥tr❡ ❧❡s rés✉❧t❛ts ❞✬❡①❛❝t✐t✉❞❡ ♣♦✉r ❞✐✛ér❡♥t❡s ❝♦♥✜❣✉r❛t✐♦♥s ❞❡ ❍❖● ♦ù ❧❡ ♥♦♠❜r❡ ❞❡s ❧✐❣♥❡s ❡t ❝♦❧♦♥♥❡s ✈❛r✐❡ ♣r♦❣r❡ss✐✈❡♠❡♥t✳ ▲❡ t✐r❛❣❡ ❛❧é❛t♦✐r❡ ❞❡ ❧❛ ❜❛s❡ ❞✬❛♣♣r❡♥t✐ss❛❣❡ ❛ été r❡♣r♦❞✉✐t ✶✵ ❢♦✐s ❡t ❧❡s ♣❡r❢♦r♠❛♥❝❡s ♦♥t été ♠♦②❡♥♥é❡s✳ ◆♦✉s ❛✈♦♥s ✉t✐❧✐sé ✉♥ ❝❧❛ss✐✜❡✉r ❙❱▼ à ♥♦②❛✉ ❧✐♥é❛✐r❡✳ ❋✐❣✉r❡ ✺✳✶✶ ✕ ➱❧❡❝t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞❡ ❧✐❣♥❡s ❡t ❞❡ ❝♦❧♦♥♥❡s ♣♦✉r ❧❡ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖●✳ ◆♦✉s ♣♦✉✈♦♥s ✈♦✐r ❝♦♠♠❡♥t ✈❛r✐❡ ❧✬❡①❛❝t✐t✉❞❡ ❞✉ ❝❧❛ss✐✜❡✉r ❙❱▼ ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞❡ ❝♦❧♦♥♥❡s ❡t ❞❡ ❧✐❣♥❡s ❞✉ ❞❡s❝r✐♣t❡✉r ❍❖●✳ ▲❛ ♠❡✐❧❧❡✉r❡ ❞✐str✐❜✉t✐♦♥ ❡♥ t❡r♠❡s ❞✬❡①❛❝t✐t✉❞❡ ❡st ✶✵ ❧✐❣♥❡s ❡t ✶✵ ❝♦❧♦♥♥❡s✳ ❈❡♣❡♥❞❛♥t✱ ❧❡ ❣r❛♣❤❡ ♠♦♥tr❡ q✉❡ ❞❡s ❞❡s❝r✐♣t❡✉rs ♣❧✉s ♣❡t✐ts ❝♦♠♠❡ ✼ ❧✐❣♥❡s ❡t ✹ ❝♦❧♦♥♥❡s ❞♦♥♥❡♥t ❞❡s rés✉❧t❛ts s✐♠✐❧❛✐r❡s✳ ▲❛ ♠❡✐❧❧❡✉r❡ ❡①❛❝t✐t✉❞❡ ♣♦✉r ✼ ❧✐❣♥❡s ❡t ✹ ❝♦❧♦♥♥❡s ❡st ❞❡ 98.98% ▲❛ ✜❣✉r❡ ✺✳✶✶ ♥♦✉s ♠♦♥tr❡ ❝♦♠♠❡♥t ❧✬❡①❛❝t✐t✉❞❡ ❞✉ ❝❧❛ss✐✜❡✉r ❛✉❣♠❡♥t❡ ❡♥ ♠ê♠❡ t❡♠♣s q✉❡ ❧❡ ♥♦♠❜r❡ ❞❡s ❝❡❧❧✉❧❡s ❛✉❣♠❡♥t❡✳ ❈❡♣❡♥❞❛♥t✱ ♣❧✉s ♣❡t✐t ❡st ❧❡ ❜❧♦❝✱ ♣❧✉s ❣r❛♥❞ s❡r❛ ❧❡ ❞❡s❝r✐♣t❡✉r ❡t ♠♦✐♥s s❡♥s✐❜❧❡ s❡r❛ ❝❡❧✉✐✲❝✐ à ❞❡s ❞é♣❧❛❝❡♠❡♥ts✳ ❯♥ ❜♦♥ ❝♦♠♣r♦♠✐s ♣❡✉t✲êtr❡ ❞❡ ❝❤♦✐s✐r ❝♦♠♠❡ ♠❡✐❧❧❡✉r❡ ❝♦♥✜❣✉r❛t✐♦♥ ❞❡ ❍❖●✱ ✼ ❧✐❣♥❡s ❡t ✹ ❝♦❧♦♥♥❡s✱ ❝❡ q✉✐ ❢❛✐t ✉♥ ❜❧♦❝ ❞✬✉♥❡ t❛✐❧❧❡ ❞❡ 20 × 25 ♣✐①❡❧s✳ P♦✉r ❝❡tt❡ ❝♦♥✜❣✉r❛t✐♦♥ ❧❡ rés✉❧t❛t ❞❡ ❞ét❡❝t✐♦♥ ♣♦✉r ❧❛ ♣❤❛s❡ ❞❡ t❡st ❡st ❞❡ ✾✽✳✾✽✪ ❞✬❡①❛❝t✐t✉❞❡ ❡t ❞❡ ✾✾✳✸✻✪ ❞❡ s❡♥s✐❜✐❧✐té✳ P♦✉r ♣♦✉✈♦✐r ♠✐❡✉① ❛♥❛❧②s❡r ❧❡s ♣❡r❢♦r♠❛♥❝❡s ❞✉ ❞❡s❝r✐♣t❡✉r ❡t ❞✉ ❝❧❛ss✐✜❡✉r✱ ♥♦✉s ❛♥❛❧②s♦♥s ❧❛ ❝♦✉r❜❡ ♣ré❝✐s✐♦♥✴r❛♣♣❡❧ ❡①♣♦sé❡ ❞❛♥s ❧❛ ✜❣✉r❡ ✺✳✶✷✳ ❈❡tt❡ ❝♦✉r❜❡ ❡st ♦❜t❡♥✉❡ ❡♥ ❢❛✐s❛♥t ✈❛r✐❡r ❧❡ s❡✉✐❧ ❞❡ ❞ét❡❝t✐♦♥ ❞✉ ❙❱▼✳ P❧✉s ❝❡ s❡✉✐❧ ❡st ❤❛✉t✱ ♠❡✐❧❧❡✉r❡ s❡r❛ ❧❛ ♣ré❝✐s✐♦♥ ❡t ♣✐r❡ ❧❡ r❛♣♣❡❧✳ ❈❡♣❡♥❞❛♥t✱ ❧❡ ❝❤♦✐① ❞✉ ♣♦✐♥t ❞❡ ❢♦♥❝t✐♦♥♥❡♠❡♥t ❞é♣❡♥❞r❛ ❞❡ ❧✬❛♣♣❧✐❝❛t✐♦♥✳ ◆♦✉s ♣♦✉✈♦♥s ✈♦✐r q✉❡ s✐ ♥♦✉s ❡①✐❣❡♦♥s ❞✉ ❝❧❛ss✐✜❡✉r ❞✬❛✈♦✐r ✉♥ r❛♣♣❡❧ ❞❡ ✶✵✵ ✪✱ ❝✬❡st✲à✲❞✐r❡✱ ♥♦✉s ♥✬❛❝❝❡♣t♦♥s ❛✉❝✉♥ ❢❛✉① ♥é❣❛t✐❢✱ ❧❛ ♣ré❝✐s✐♦♥ ❞❡s❝❡♥❞ à s❡✉❧❡♠❡♥t ✾✼✪✳ ❆✜♥ ❞✬é✈❛❧✉❡r q✉❛♥t✐t❛t✐✈❡♠❡♥t ❧❡s ❡rr❡✉rs ❞❡ ❞ét❡❝t✐♦♥ ❞❡ tr❛✐♥s✱ ♥♦✉s ♣♦✉✈♦♥s ❡①♣❧♦✐t❡r ❧❛ ♠❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ❞✉ t❛❜❧❡❛✉ ✺✳✸✳ ❙❡✉❧❡♠❡♥t ✹ ✐♠❛❣❡s ❞❡s tr❛✐♥s ♥✬♦♥t ♣❛s été ❜✐❡♥ ❞ét❡❝té❡s✱ ❡t ✹ ✐♠❛❣❡s ♦♥t été ❞ét❡❝té❡s ❝♦♠♠❡ ❢❛✉① ♣♦s✐t✐❢s✳ ❈❡♣❡♥❞❛♥t✱ ❝❡s ✐♠❛❣❡s ❝♦rr❡s♣♦♥❞❡♥t à ❞❡s ✈r❛✐ ♥é❣❛t✐❢s ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s q✉✐ ❝♦rr❡s♣♦♥❞❡♥t à ❞❡s ❡①❡♠♣❧❡s ❞❡ tr❛✐♥s✳ ❈❡❝✐ ❢❛✐t q✉❡ ❧❡✉r s✐❧❤♦✉❡tt❡ r❡ss❡♠❜❧❡ ❜❡❛✉❝♦✉♣ à ❧❛ s✐❧❤♦✉❡tt❡ ❞❡ ♥♦tr❡ ♠étr♦ ❱❆▲✳ ▲❡s ❡①❡♠♣❧❡s ❞❡ ❝❡s ✐♠❛❣❡s s♦♥t ❞♦♥♥és ❞❛♥s ❧❡s ✜❣✉r❡s ✺✳✶✸ ❡t ✺✳✶✹ r❡s♣❡❝t✐✈❡♠❡♥t✳✺✳✹✳ ❘és✉❧t❛ts ✶✵✾ ❋✐❣✉r❡ ✺✳✶✷ ✕ ❈♦✉r❜❡ Pré❝✐s✐♦♥✲❘❛♣♣❡❧ ♦❜t❡♥✉❡ ♣♦✉r ❙❱▼ ❛✈❡❝ ❧❡ ❞❡s❝r✐♣t❡✉r ❍❖● 7 × 4✳ ❚❛❜❧❡❛✉ ✺✳✸ ▼❛tr✐❝❡ ❞❡ ❝♦♥❢✉s✐♦♥ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s tr❛✐♥s ❈❧❛ss✐✜❡✉r P❛s ❞❡ tr❛✐♥ ❚r❛✐♥ ❘❛♣♣❡❧ ❱ér✐té t❡rr❛✐♥ P❛s ❞❡ tr❛✐♥ 623 4 99.36% ❚r❛✐♥ 4 614 99.35% Pré❝✐s✐♦♥ 99.36% 99.35% 99.36% ❋✐❣✉r❡ ✺✳✶✸ ✕ ■♠❛❣❡s ❞❡s ❢❛✉① ♥é❣❛t✐❢s✳ ❋✐❣✉r❡ ✺✳✶✹ ✕ ■♠❛❣❡s ❞❡s ❢❛✉① ♣♦s✐t✐❢s✳ ■❧ ❛✉r❛✐t été ✐♥tér❡ss❛♥t ♥é❛♥♠♦✐♥s ❞❡ t❡st❡r ♥♦s ❛❧❣♦r✐t❤♠❡s s✉r ❞❡s ❜❛s❡s ❞❡ ❞♦♥♥é❡s ré❡❧❧❡s ❞❛♥s ❞❡s ❝❛s ❝r✐t✐q✉❡s✳ ▼❛❧❤❡✉r❡✉s❡♠❡♥t✱ ♥♦✉s ♥❡ ❞✐s♣♦s♦♥s ♣❛s ❞❡ t❡❧❧❡s ❜❛s❡s ❞❡ ❞♦♥♥é❡s ❡t ♥✬❛✈♦♥s ♣❛s ❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❧✬❡①✐st❡♥❝❡ ❞❡ t❡❧❧❡s ❜❛s❡s ❞❛♥s ❧❛ ❝♦♠♠✉♥❛✉té✳ ❋✐♥❛❧❡♠❡♥t✱ ♥♦✉s ♣rés❡♥t♦♥s ❧❡s rés✉❧t❛ts ❞❡ ✹✶✵✶ ✐♠❛❣❡s ♦❜t❡♥✉❡s ❞❡s ✈✐❞é♦s ❞❡ ❧✬❖r❧② ❱❆▲ ❛♣rès ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡✳ ❚♦✉t❡s s♦♥t ❞❡s ✐♠❛❣❡s s❛♥s tr❛✐♥✱ ❝❛r ❞❛♥s ♥♦s ❡①♣ér✐♠❡♥t❛t✐♦♥s✱ ♥♦✉s ♥✬❛✈♦♥s ❡✉ ❧✬♦♣♣♦rt✉♥✐té ❞✬❛✈♦✐r ✉♥ tr❛✐♥ ❡♥ ❢❛❝❡ ❞❛♥s ❧❛ ♠ê♠❡ ✈♦✐❡✳ ▲❡ ❝❧❛ss✐✜❡✉r ❞é✈❡❧♦♣♣é ❞♦♥♥❡ ❝♦♠♠❡ rés✉❧t❛t ♣♦✉r ❝❡s ✐♠❛❣❡s ✉♥❡ ❡①❛❝t✐t✉❞❡ ❞❡ ✶✵✵ ✪✱ ❝✬❡st✲à✲❞✐r❡✱ t♦✉t❡s ❧❡s ✐♠❛❣❡s ♦♥t été ❝❧❛ss✐✜é❡s ❝♦♠♠❡ ✓♥♦♥ tr❛✐♥s✔✳ ❉❡s ❡①❡♠♣❧❡s ❞❡ ❝❡s ✐♠❛❣❡s ❘❖■ ❡①tr❛✐t❡s à ♣❛rt✐r ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ s♦♥t ♣rés❡♥tés ❞❛♥s ❧❛ ✜❣✉r❡ ✺✳✶✺✳✶✶✵ ❈❤❛♣✐tr❡ ✺✳ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ✿ tr❛✐♥s ❋✐❣✉r❡ ✺✳✶✺ ✕ ■♠❛❣❡s ❘❖■ ♦❜t❡♥✉❡s à ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡✳ ❚♦✉t❡s ❝❡s ✐♠❛❣❡s ♦♥t été ❝❧❛ss✐✜és ❝♦rr❡❝t❡♠❡♥t ❝♦♠♠❡ ♥♦♥✲tr❛✐♥✳❈❤❛♣✐tr❡ ✻ ❈♦♥❝❧✉s✐♦♥s ❙♦♠♠❛✐r❡ ✻✳✶ ❈♦♥❝❧✉s✐♦♥s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✶✶ ✻✳✷ ❚r❛✈❛✉① ❢✉t✉rs ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✶✸ ✻✳✶ ❈♦♥❝❧✉s✐♦♥s ◆♦✉s ❛✈♦♥s ❞✬❛❜♦r❞ ♣rés❡♥té ✉♥ ét❛t ❞❡ ❧✬❛rt s✉r ❧❡s s②stè♠❡s ❞❡ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❡t ❞✬❡①✲ tr❛❝t✐♦♥ ❞❡ r❛✐❧s ♣♦✉r ❧❡s tr❛✐♥s✳ ▲❛ ♣❧✉♣❛rt ❞✬❡♥tr❡ ❡✉① s♦♥t ❞❡s s②stè♠❡s ♠✉❧t✐✲❝❛♣t❡✉rs ❡t ✉t✐❧✐s❡♥t ❞❡s ✐♥❢♦r♠❛t✐♦♥s ❡①t❡r♥❡s t❡❧❧❡s q✉❡ ❧❛ ✈✐t❡ss❡ ❞✉ tr❛✐♥✱ ❧❛ ❢♦r♠❡ ❞❡ ❧❛ ✈♦✐❡ ❡t ❧❡s é❧é♠❡♥ts q✉✐ ❧❛ ❝♦♠♣♦s❡♥t✳ ➚ ♣❛rt✐r ❞❡ ❝❡t ét❛t ❞❡ ❧✬❛rt✱ ♥♦✉s ❛✈♦♥s ♣r♦♣♦sé ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✬✉♥ ❛❧❣♦r✐t❤♠❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ✐♥❞é♣❡♥❞❛♥t ❜❛sé s✐♠♣❧❡♠❡♥t s✉r ❧✬❛♥❛❧②s❡ ❞❡s ❣r❛❞✐❡♥ts ❞❡ ❧✬✐♠❛❣❡ ❡t ❛✈❡❝ ✉♥ très ❢❛✐❜❧❡ s❡✉✐❧✳ ▲❛ ♣r❡♠✐èr❡ ♣❛rt✐❡ ❞❡ ♥♦tr❡ ét✉❞❡ s✬❡st ❝❡♥tré❡ s✉r ❧✬ét❛❧♦♥♥❛❣❡ ❞❡s ♣❛r❛♠ètr❡s ❡①tr✐♥sèq✉❡s ❞❡ ❧❛ ❝❛♠ér❛ ❛♣rès s♦♥ ✐♥st❛❧❧❛t✐♦♥ ❞❡rr✐èr❡ ❧❡ ♣❛r❡✲❜r✐s❡ ❞✉ tr❛✐♥✱ ❝❛r ♣❡✉ ❞❡ tr❛✈❛✉① ♦♥t été ❞é✈❡❧♦♣♣és ♣♦✉r ♦❜t❡♥✐r ❞❡ ♠❛♥✐èr❡ s✐♠♣❧❡ ❝❡s ♣❛r❛♠ètr❡s ❞❛♥s ❧❡ ♠✐❧✐❡✉ ❢❡rr♦✈✐❛✐r❡✳ ◆♦✉s ❛✈♦♥s ❞♦♥❝ ❞é✈❡❧♦♣♣é ✉♥ s②stè♠❡ ❝♦♠♣❧❡t ❞✬ét❛❧♦♥♥❛❣❡ ❞❡s ❝❛♠ér❛s à ♣❛rt✐r ❞❡ ❧❛ ♠♦r♣❤♦❧♦❣✐❡ ❞❡ ❧❛ ✈♦✐❡ ❡♥ ❧✐❣♥❡ ❞r♦✐t❡✳ ❈❡ s②stè♠❡ ♣❡r♠❡ttr❛ ❞❡ ré❞✉✐r❡ ❞❡s ❝♦♥tr❛✐♥t❡s ❞❡ ♠❛✐♥t❡♥❛♥❝❡ ❞❡s ❢✉t✉r❡s ❝❛♠ér❛s ✐♥st❛❧❧é❡s ❞❛♥s ❞❡s tr❛✐♥s ❡t ❛✐♥s✐ ❞❡ s✐♠♣❧✐✜❡r ❧❡✉r ✐♥st❛❧❧❛t✐♦♥✳ ▲❡s rés✉❧t❛ts ❞✬ét❛❧♦♥♥❛❣❡ ♦❜t❡♥✉s ❛✈❡❝ ❧❛ ♠ét❤♦❞❡ ♣r♦♣♦sé❡ ♦♥t ✉♥❡ ♣ré❝✐s✐♦♥ s✉✣s❛♥t❡ ♣♦✉r ❧❡s ❛♣♣❧✐❝❛t✐♦♥s ❛✉①q✉❡❧❧❡s ❡st ❞❡st✐♥é❡ ❧❛ ❝❛♠ér❛✳ P❛r ❧❛ s✉✐t❡✱ ♥♦✉s ❛✈♦♥s ❞é✜♥✐ ✉♥ s②stè♠❡ ❣é♥ér✐q✉❡ ❡t r♦❜✉st❡ ♣♦✉r ❧✬❡①tr❛❝t✐♦♥ ❡t ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s✳ ❈❡tt❡ ❛♣♣r♦❝❤❡ ❡st ❜❛sé❡ s✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❣r❛❞✐❡♥ts ❞❛♥s ❧✬✐♠❛❣❡ à ♣❛rt✐r ❞❡s s✐♠♣❧❡s ❝♦♥tr❛✐♥t❡s ❣é♦♠étr✐q✉❡s s♣é❝✐✜q✉❡s ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ ❧❛ ✈♦✐❡ ❢❡rré❡✳ ◆♦✉s ❛♥❛❧②s♦♥s ❞✬❛❜♦r❞ ❧❛ ♣♦s✐t✐♦♥ ❞✉ ♣♦✐♥t ❞❡ ❢✉✐t❡ ❞❡s r❛✐❧s ♣♦✉r ❞ét❡r♠✐♥❡r ✉♥❡ ré❣✐♦♥ ❞✬✐♥térêt à ♣❛rt✐r ❞✬✉♥ ♠❛sq✉❡ ❛❞❛♣t❛t✐❢✳ P❛r ❧❛ s✉✐t❡✱ ❧✬✐♠❛❣❡ ❞❡s ❣r❛❞✐❡♥ts ❡st ❛♥❛❧②sé❡ ♣♦✉r sé❧❡❝t✐♦♥♥❡r ❞❡s ♣♦✐♥ts r❡ss❡♠❜❧❛♥t à ❞❡s r❛✐❧s✱ ♣✉✐s ♥♦✉s ❧❡s tr❛♥s❢♦r♠♦♥s ❡♥ ❝♦♦r❞♦♥♥é❡s ✸❉✱ ♦ù ❧❛ r❡❝❤❡r❝❤❡ ❞✉ ♠♦❞è❧❡ ❞❡ r❛✐❧s ❡st ré❛❧✐sé❡ ♣♦✉r ❝❤❛q✉❡ r❛✐❧ à ♣❛rt✐r ❞❡ ❧✬❛❧❣♦r✐t❤♠❡ ❞❡ ❘❆◆❙❆❈✳ ❈❡❝✐ ♣❡r♠❡t ❞❡ ré❞✉✐r❡ ❧❡ t❡♠♣s ❞❡ ❝❛❧❝✉❧✱ ❝❛r s♦♥t s❡✉❧❡♠❡♥t rétr♦✲♣r♦❥❡tés ❧❡s ♣♦✐♥ts r❡ss❡♠❜❧❛♥t à ❞❡s r❛✐❧s ❛✉ ❧✐❡✉ ❞❡ ❝♦♥str✉✐r❡ ✉♥❡ ✐♠❛❣❡ ❝♦♠♣❧èt❡ ❡♥ ❜✐r❞✲❡②❡✬s ✈✐❡✇✳ ❉❡ ♣❧✉s✱ ❧✬❡✛❡t ❞✬✉t✐❧✐s❡r ❞❡✉① ❘❆◆❙❆❈ ✐♥❞é♣❡♥❞❛♥ts ♣♦✉r ❝❤❛q✉❡ r❛✐❧ ♥♦✉s ♣❡r♠❡t ❞❡ ré❞✉✐r❡ ❧❡s ❡rr❡✉rs ❞❛♥s ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s q✉❛♥❞ ❧✬❤②♣♦t❤ès❡ ❞✉ ♠♦♥❞❡ ♣❧❛t ♥✬❡st ♣❛s r❡s♣❡❝té❡✳ ◆♦✉s ❛✈♦♥s ❛✉ss✐ ♣r♦♣♦sé ❞❡ ❝❛❧❝✉❧❡r ❧❡ ❞é♣❧❛❝❡♠❡♥t ❞✉ tr❛✐♥ à ♣❛rt✐r ❞❡ ❧❛ ✈✐❞é♦ ❞✐r❡❝t❡♠❡♥t✳ ❈❡ ❞é♣❧❛❝❡♠❡♥t ❧✐é à ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ♣❡r♠❡t ❞❡ r❡❝♦♥str✉✐r❡ ❧❡ ♣❛r❝♦✉rs s✉✐✈✐ ♣❛r ❧❡ tr❛✐♥✳ ▼ê♠❡ s✐ ❧❡s ❡st✐♠❛t✐♦♥s ❞❡ ❧❛ ✈♦✐❡ à ♣❛rt✐r ❞✬✉♥ ♣♦❧②♥ô♠❡ ❞✬♦r❞r❡ ✷ ♥❡ ❞♦♥♥❡♥t ♣❛s ❡①❛❝t❡♠❡♥t ❧❡s ♠ê♠❡s r❛②♦♥s ❞❡ ❝♦✉r❜✉r❡ ✐♥st❛♥t❛♥és✱ ❧❛ r❡❝♦♥str✉❝t✐♦♥ ✜♥❛❧❡ s✬❛♣♣r♦❝❤❡ ❞❡ ❧❛ ré❛❧✐té✳ ❊♥ ♣❧✉s✱ ❧❡ ❢❛✐t ❞✬❛✈♦✐r ❞é✜♥✐ ✉♥ ♠♦❞è❧❡ ❞✉ tr❛✐♥ ❡t ❞❡ ❝♦♥♥❛îtr❡ s♦♥ ❛✈❛♥❝❡♠❡♥t ❞❛♥s ❧✬❡s♣❛❝❡ ♣❡r♠❡t ❞❡ ♠✐❡✉① ✜❧tr❡r t❡♠♣♦r❡❧❧❡♠❡♥t ❧❡s ❞♦♥♥é❡s ♣♦✉r ré❞✉✐r❡ ❧❡ ♥♦♠❜r❡ ❞✬✐tér❛t✐♦♥s ❞❡ ❘❆◆❙❆❈✳ ❉❛♥s ✉♥❡ tr♦✐s✐è♠❡ ♣❛rt✐❡✱ ♥♦✉s ❛✈♦♥s ♣r♦♣♦sé ✉♥❡ ♠ét❤♦❞❡ ✐♥é❞✐t❡ ❞❡ ❞ét❡❝t✐♦♥ ❞✬❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ❜❛sé❡ s✉r ❧✬❛♥❛❧②s❡ ❞❡ ❧✬❡♥tr❡✈♦✐❡ à ♣❛rt✐r ❞❡s ✐♠❛❣❡s s❛♥s ❧❛ ❞é❢♦r♠❛t✐♦♥ ❞❡ ♣❡rs♣❡❝t✐✈❡ ❡t✶✶✷ ❈❤❛♣✐tr❡ ✻✳ ❈♦♥❝❧✉s✐♦♥s ✉♥❡ ❡①tr❛❝t✐♦♥ ❞✉ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖●✳ ▲❡ ❢❛✐t ❞✬✉t✐❧✐s❡r ✉♥❡ ✐♠❛❣❡ r❡❝t❛♥❣✉❧❛✐r❡ s❛♥s ♣❡rs♣❡❝t✐✈❡ s✐♠♣❧✐✜❡ ❧❛ t❛❝❤❡ ❝❛r ❧❛ ✈♦✐❡ s❡ ♣rés❡♥t❡ t♦✉❥♦✉rs ♣❧✉s ❤♦♠♦❣è♥❡✳ ▲❛ t❡❝❤♥✐q✉❡ ❜❛sé❡ ❞❛♥s ❧❡ t❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ ❛ ❞♦♥♥é ❞❡ ♠♦✐♥s ❜♦♥s rés✉❧t❛ts q✉❡ ❧❡ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖●✱ ♣r✐♥❝✐♣❛❧❡♠❡♥t à ❝❛✉s❡ ❞❡s ✈❛r✐❛t✐♦♥s ❞❡ t❡①t✉r❡ ❞❡ ❧✬❡♥tr❡✈♦✐❡✳ ◆♦✉s ❛✈♦♥s ❡♥s✉✐t❡ ♣r♦♣♦sé ❞✬ét❡♥❞r❡ ❧✬ét✉❞❡ à ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡ ❧✬❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ s❛ ♥❛t✉r❡✱ ❝❛r ✐❧ ♣❡✉t êtr❡ ❝♦♥✈❡r❣❡♥t ♦✉ ❞✐✈❡r❣❡♥t✳ ◆♦✉s ❛✈♦♥s ♣r♦♣♦sé ❞✬✉t✐❧✐s❡r ❧❛ ♠ê♠❡ ✐♠❛❣❡ ■P▼ s❛♥s ❞é❢♦r♠❛t✐♦♥ ❞❡ ♣❡rs♣❡❝t✐✈❡✱ ❡t ✉♥ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖● ♣♦✉r ♠❡ttr❡ ❡♥ ✈❛❧❡✉r ❧❡s ♦r✐❡♥t❛t✐♦♥s ❞❡s ✈♦✐❡s ❞✐✈❡r❣❡♥t❡s ♦✉ ❝♦♥✈❡r❣❡♥t❡s✳ P❧✉s✐❡✉rs ❝❧❛ss✐✜❝❛t❡✉rs ♦♥t été t❡stés ❡t ✜♥❛❧❡♠❡♥t ✉♥ ❝❧❛ss✐✜❡✉r ❙❱▼ ♠✉❧t✐✲❝❧❛ss❡ ❛✈❡❝ ❧❛ ♠ét❤♦❞❡ ✶✲✈s✲✶ ❛ été r❡t❡♥✉✳ ▲❡s rés✉❧t❛ts ♦❜t❡♥✉s ♠♦♥tr❡♥t q✉✬✐❧ ❡st ❡✣❝❛❝❡ ❞❡ ❝❧❛ss✐✜❡r ❧❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ à ♣❛rt✐r ❞✉ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖● ❛✈❡❝ ✉♥ r❛♣♣❡❧ ♠✐♥✐♠✉♠ ❞❡ ✾✼✳✾✷ ✪ ❡t ✉♥❡ ♣ré❝✐s✐♦♥ ♠✐♥✐♠❛❧❡ ❞❡ ✾✽✳✶✵ ✪✳ ❉❛♥s ✉♥ ❞❡r♥✐❡r t❡♠♣s✱ ♥♦✉s ❛✈♦♥s ❝♦♥ç✉ ✉♥❡ ❛r❝❤✐t❡❝t✉r❡ ❝♦♠♣❧èt❡ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❞❛♥s ❧❛ ✈♦✐❡ ❝♦✉r❛♥t❡✳ ❈❡tt❡ ♠ét❤♦❞❡ ❡st ❜❛sé❡ s✉r ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ q✉✐ ♥♦✉s ♣❡r♠❡t ❞❡ ❞ét❡r♠✐♥❡r ✉♥❡ ③♦♥❡ ❧✐❜r❡ ❞✬♦❜st❛❝❧❡s ❥✉sq✉✬à ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥✳ ▲❛ ❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❧✬❡♠♣❧❛❝❡♠❡♥t ❞❡ ❧❛ ✈♦✐❡ ♣❡r♠❡t ❞❡ ♥❡ ♣❛s ré❛❧✐s❡r ✉♥ s❧✐❞✐♥❣ ✇✐♥❞♦✇ à ❞✐✛ér❡♥t❡s é❝❤❡❧❧❡s ♣♦✉r ❞ét❡r♠✐♥❡r ❧❛ ♣rés❡♥❝❡ ❞✬✉♥ tr❛✐♥✳ ❉❡ ♣❧✉s✱ ♠♦✐♥s ❞✬✐♠❛❣❡s s♦♥t t❡sté❡s✱ ♣❧✉s ❢❛✐❜❧❡ ❡st ❧❛ ♣r♦❜❛❜✐❧✐té ❞❡ ❢❛✉ss❡s ❞ét❡❝t✐♦♥s✱ ♣❛r ❡①❡♠♣❧❡ ❧❛ ❞ét❡❝t✐♦♥ ❞✬✉♥ tr❛✐♥ ❞❛♥s ✉♥❡ ❛✉tr❡ ✈♦✐❡✳ ◆♦✉s ♣r♦♣♦s♦♥s ❞♦♥❝ ❞✬é✈❛❧✉❡r ❧✬❤②♣♦t❤ès❡ ❞❡ ❧❛ ♣rés❡♥❝❡ ❞✬✉♥ tr❛✐♥ à ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡s r❛✐❧s ❡♥ ✉t✐❧✐s❛♥t ✉♥ ❝❧❛ss✐✜❡✉r ❜✐♥❛✐r❡ ❙❱▼ ❡t ✉♥ ❞❡s❝r✐♣t❡✉r ❞❡ ❍❖●✳ ❯♥ r❛♣♣❡❧ s✉♣ér✐❡✉r à ✾✾ ✪ ❡t ✉♥❡ ♣ré❝✐s✐♦♥ s✉♣ér✐❡✉r❡ à ✾✽ ✪ ✐♥❞✐q✉❡♥t ❞❡ ❜♦♥♥❡s ♣❡r❢♦r♠❛♥❝❡s ♣♦✉r ❧❡ ❝❧❛ss✐✜❡✉r ❛✈❡❝ ❧❡s ❞♦♥♥é❡s ❞❡ t❡st ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s✳ P♦✉r ❧❡ s②stè♠❡ ❝♦♠♣❧❡t✱ ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡ s✉✐✈✐❡ ❞❡ ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ✐♠❛❣❡s ❘❖■ ❡①tr❛✐t❡s ❛✉✲❞❡❧à ❞❡ ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ❞❡ r❛✐❧s✱ ❧❡ ❝❧❛ss✐✜❡✉r t❡sté s✉r ❞❡s ✐♠❛❣❡s s❛♥s tr❛✐♥s✱ ❛rr✐✈❡ à ❧❡s ❝❧❛ss✐✜❡r t♦✉t❡s ❝♦rr❡❝t❡♠❡♥t✱ s❛♥s ❛✉❝✉♥❡ ❢❛✉ss❡ ❛❧❛r♠❡✳ ▲❛ ✜❣✉r❡ ✻✳✶ ♥♦✉s ♠♦♥tr❡ ✉♥ s❝❤é♠❛ ❣é♥ér❛❧ ❞✉ s②stè♠❡ ❝♦♠♣❧❡t✱ ❛✈❡❝ ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❧❛ ✈♦✐❡✱ ❧✬❛♥❛❧②s❡ ❞✬✉♥❡ ♣❛rt✐❡ ❞❡ ❧✬❡♥tr❡✈♦✐❡ à ✉♥❡ ❝❡rt❛✐♥❡ ❞✐st❛♥❝❡ à ❧✬❛✈❛♥t ❞✉ tr❛✐♥ ♣♦✉r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ❡t ✉♥❡ ❡①tr❛❝t✐♦♥ ❞❡ ❧❛ ❘❖■ à ❧❛ ❞✐st❛♥❝❡ ♠❛①✐♠❛❧❡ ❞❡ ❞ét❡❝t✐♦♥ ♣♦✉r t❡st❡r ❧✬❤②♣♦t❤ès❡ ❞❡ ❧❛ ♣rés❡♥❝❡ ❞✬✉♥ tr❛✐♥✳ ❋✐❣✉r❡ ✻✳✶ ✕ ❙❝❤é♠❛ ❞❡s tr❛✈❛✉① ré❛❧✐sés ❡t tr❛✈❛✉① ❢✉t✉rs✳✻✳✷✳ ❚r❛✈❛✉① ❢✉t✉rs ✶✶✸ ✻✳✷ ❚r❛✈❛✉① ❢✉t✉rs ❖♥ ♣❡✉t ❡♥✈✐s❛❣❡r ♣❧✉s✐❡✉rs ♣❡rs♣❡❝t✐✈❡s ♣♦✉r ❧❡s tr❛✈❛✉① ♣rés❡♥tés ❞❛♥s ❝❡tt❡ t❤ès❡✱ t❛♥t s✉r ❧❡ ♣❧❛♥ ✐♥❞✉str✐❡❧ q✉❡ s✉r ❧❡ ♣❧❛♥ r❡❝❤❡r❝❤❡✳ ■❧ s❡r❛✐t ✐♥tér❡ss❛♥t ❞✬ét❡♥❞r❡ ❝❡s ♠ét❤♦❞❡s ♣♦✉r ❞✬❛✉tr❡s t②♣❡s ❞❡ ❝❛♠ér❛s ❝♦♠♠❡ ❧❡s ❝❛♠ér❛s ❞❡ ✓❍❛✉t❡ ❘❛♥❣❡ ❉②♥❛♠✐q✉❡✔ ♦✉ ❞❡s ✓❝❛♠ér❛s ❞❡ ❧✉♠✐èr❡ str✉❝t✉ré❡✔✳ P❛r ❡①❡♠♣❧❡✱ ♦♥ ♣♦✉rr❛✐t ❞é✜♥✐r ✉♥❡ ♠ét❤♦❞❡ ♣♦✉r ♠✐❡✉① é✈❛❧✉❡r ❧❛ t♦❧ér❛♥❝❡ ❛✉① ❢❛✉ss❡s ❞ét❡❝t✐♦♥s ❞❡s r❛✐❧s ♦✉ ❧✬✉t✐❧✐s❛t✐♦♥ ❞✬✉♥ ✜❧tr❡ ❞❡ ❑❛❧♠❛♥ ♣♦✉r ♦❜t❡♥✐r ❞❡s rés✉❧t❛ts ♣❧✉s ✜♥s ❡t ♣ré❝✐s ❞❛♥s ❧❡s ❣r❛♥❞❡s ❞✐st❛♥❝❡s✳ ❆✉ss✐✱ ✐❧ s❡r❛✐t ❡♥✈✐s❛❣❡❛❜❧❡ ❞❡ ❞é✈❡❧♦♣♣❡r r❛♣✐❞❡♠❡♥t ❛✈❡❝ ❧❛ ♠ê♠❡ t❡❝❤♥✐q✉❡ ❞✬❡①tr❛❝t✐♦♥ ❞❡s r❛✐❧s ❧❛ r❡❝❤❡r❝❤❡ ❞❡ ❧❛ ✈♦✐❡ s❡❝♦♥❞❛✐r❡ ✉♥❡ ❢♦✐s q✉❡ ❧❡ tr❛✐♥ s✬❛♣♣r♦❝❤❡ ❞✬✉♥ ❛♣♣❛r❡✐❧ ❞❡ ✈♦✐❡ ❞✐✈❡r❣❡♥t✳ P✉✐sq✉❡ ❧❡ s②stè♠❡ ♥❡ ❝♦♥♥❛✐t ♣❛s à ❧✬❛✈❛♥❝❡ ❧❛ ❞✐r❡❝t✐♦♥ à s✉✐✈r❡✱ ❧✬♦❜❥❡❝t✐❢ ❡st ❞❡ ❞ét❡r♠✐♥❡r ❛✉ss✐ ✉♥❡ ③♦♥❡ ❧✐❜r❡ ❞✬♦❜st❛❝❧❡s ❞❛♥s ❧❡s ❞❡✉① ✈♦✐❡s✳ ❉❡ ♣❧✉s✱ ✐❧ s❡r❛✐t ✐♥tér❡ss❛♥t ❞✬ét❡♥❞r❡ ❧❛ r❡❝❤❡r❝❤❡ ❞❡s ♦❜st❛❝❧❡s à ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ♣✐ét♦♥s ❝❛r✱ ❛❝t✉❡❧❧❡♠❡♥t✱ ❧❡s ❞❡r♥✐❡rs tr❛✈❛✉① ❞❡ ❞ét❡❝t✐♦♥ ❞❡ ♣✐ét♦♥s ♠♦♥tr❡♥t ❞❡s rés✉❧t❛ts ♣r♦♠❡tt❡✉rs✳ ❉✉ ❝ôté ✐♥❞✉str✐❡❧✱ ❧❛ ❞ét❡❝t✐♦♥ ❡t r❡❝♦♥♥❛✐ss❛♥❝❡ ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ♣♦✉rr❛✐t s✬✉t✐❧✐s❡r ♣♦✉r ✉♥❡ ❧♦❝❛❧✐s❛t✐♦♥ ✈✐s✉❡❧❧❡ s❛♥s ❛✈♦✐r à ❛❥♦✉t❡r ❞❡s ❛♠❡rs ✈✐s✉❡❧s s❡❝♦♥❞❛✐r❡s✳ ▲✬✉t✐❧✐s❛t✐♦♥ ❞✬✉♥❡ ❝❛rt❡ ✈✐rt✉❡❧❧❡ ❞❡ ❧❛ ✈♦✐❡ ❛✈❡❝ ❧❡ ♣♦s✐t✐♦♥♥❡♠❡♥t ❞❡s ❛♣♣❛r❡✐❧s ❞❡ ✈♦✐❡ ♣❡r♠❡ttr❛✐t ❞❡ ❞ét❡r♠✐♥❡r ❧❛ ♣♦s✐t✐♦♥ ❞✉ tr❛✐♥ ❞❡ ❢❛ç♦♥ ♣ré❝✐s❡ ❞❛♥s ❞✐✛ér❡♥ts tr♦♥ç♦♥s✳ ❈❡tt❡ ❢♦♥❝t✐♦♥ ♣♦✉rr❛✐t s✬✉t✐❧✐s❡r s♦✉s ❝❡rt❛✐♥❡s ❝♦♥❞✐t✐♦♥s ❞❡ sé❝✉r✐té ❢❡rr♦✈✐❛✐r❡ ♣♦✉r✱ ♣❛r ❡①❡♠♣❧❡✱ ❡♥✈♦②❡r ❧❡s tr❛✐♥s s✉r ❧❡s ✈♦✐❡s ❞❡ ❣❛r❛❣❡ ♦✉ ❞❛♥s ❧✬❛t❡❧✐❡r ❡♥ ♠♦❞❡ ❛✉t♦♠❛t✐q✉❡✱ q✉❛♥❞ ✐❧ ♥✬❡st ♣❛s ♣♦ss✐❜❧❡ ❞✬✉t✐❧✐s❡r ❝❡rt❛✐♥s s②stè♠❡s ❞❡ ♣♦s✐t✐♦♥♥❡♠❡♥t ❝♦♠♠❡ ❧❡ ●P❙ ♦✉ ♣♦✉r ré❞✉✐r❡ ❧❡ ♥♦♠❜r❡ ❞❡s ❜❛❧✐s❡s ❛✉ s♦❧✳ ➱❣❛❧❡♠❡♥t✱ ❧❛ ❞ét❡❝t✐♦♥ ❞❡ tr❛✐♥s ♣♦✉rr❛✐t s✬✉t✐❧✐s❡r ♣♦✉r ❞ét❡r♠✐♥❡r ❧❛ ❞✐st❛♥❝❡ ❛✉ tr❛✐♥ ♣ré❝é✲ ❞❡♥t ♣♦✉r ❞❡s ♠❛♥÷✉✈r❡s ❞✬❛❝❝♦st❛❣❡ ♦✉ ♣♦✉r ❛♣♣r♦❝❤❡r ❛✉ ♠❛①✐♠✉♠ ❧❡s tr❛✐♥s s✉r ❧❡s ✈♦✐❡s ❞❡ ❣❛r❛❣❡✳ ❆✐♥s✐✱ ❧❡s ❢❡✉① ❞❡ s✐❣♥❛❧✐s❛t✐♦♥ ♣❡✉✈❡♥t êtr❡ ❞ét❡❝tés✳ ❊♥✜♥✱ ✐❧ s❡r❛✐t ✉t✐❧❡ ❞❡ t❡st❡r ♥♦s tr❛✈❛✉① s✉r ❞✬❛✉tr❡s ❜❛s❡s ❞❡ ❞♦♥♥é❡s ♣❧✉s ét❡♥❞✉❡s ❡t s♦✉s ❞✐✛ér❡♥t❡s ❝♦♥❞✐t✐♦♥s ♠été♦r♦❧♦❣✐q✉❡s✱ ♦✉ ❛✈❡❝ ❞✬❛✉tr❡s t②♣❡s ❞❡ ♣❛r❝♦✉rs ❝♦♠♠❡ ❞❡s t✉♥♥❡❧s ♦✉ ✈♦✐❡s ❞❡ ❣❛r❛❣❡✳❆♥♥❡①❡ P✉❜❧✐❝❛t✐♦♥s ❙♦♠♠❛✐r❡ ❆✳✶ ❆rt✐❝❧❡ ■❚❙❈ ✷✵✶✷ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✶✻ ❆✳✷ ❆rt✐❝❧❡ ■❈■❘❚ ✷✵✶✸ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✷✶ ❆✳✸ ❆rt✐❝❧❡ ■❚❙❈ ✷✵✶✸ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✷✼ ❈♦♥❢ér❡♥❝❡s ✐♥t❡r♥❛t✐♦♥❛❧❡s ❛✈❡❝ ❝♦♠✐té ❞❡ r❡❧❡❝t✉r❡ ✶✳ ❘❛✐❧ ❡①tr❛❝t✐♦♥ t❡❝❤♥✐q✉❡ ✉s✐♥❣ ❣r❛❞✐❡♥t ✐♥❢♦r♠❛t✐♦♥ ❛♥❞ ❛ ♣r✐♦r✐ s❤❛♣❡ ♠♦❞❡❧✱ ❏♦r❣❡ ❈♦rs✐♥♦ ❊s♣✐♥♦✱ ❇♦❣❞❛♥ ❙t❛♥❝✐✉❧❡s❝✉✱ ■❚❙❈ ✷✵✶✷ ✶✺t❤ ■♥t❡r♥❛t✐♦♥❛❧ ■❊❊❊ ❈♦♥❢❡r❡♥❝❡ ♦♥ ■♥t❡❧❧✐❣❡♥t ❚r❛♥s♣♦rt❛t✐♦♥ ❙②st❡♠s ✷✳ ❘❛✐❧ ❛♥❞ ❚✉r♥♦✉t ❞❡t❡❝t✐♦♥ ✉s✐♥❣ ❣r❛❞✐❡♥t ✐♥❢♦r♠❛t✐♦♥ ❛♥❞ t❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣✱ ❏♦r❣❡ ❈♦rs✐♥♦ ❊s♣✐♥♦✱ ❇♦❣❞❛♥ ❙t❛♥❝✐✉❧❡s❝✉✱ P❤✐❧✐♣♣❡ ❋♦r✐♥✱ ■❈■❘❚ ✷✵✶✸✱ ✶st ■♥t❡r♥❛t✐♦♥❛❧ ■❊❊❊ ❈♦♥❢❡r❡♥❝❡ ♦♥ ■♥t❡❧❧✐❣❡♥t ❘❛✐❧ ❚r❛♥s♣♦rt❛t✐♦♥ ✸✳ ❚✉r♥♦✉t ❞❡t❡❝t✐♦♥ ❛♥❞ ❝❧❛ss✐✜❝❛t✐♦♥ ✉s✐♥❣ ♠♦❞✐✜❡❞ ❍❖● ❛♥❞ t❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣✱ ❏♦r❣❡ ❈♦rs✐♥♦ ❊s♣✐♥♦✱ ❇♦❣❞❛♥ ❙t❛♥❝✐✉❧❡s❝✉✱ ■❚❙❈ ✷✵✶✸ ✶✻t❤ ■♥t❡r♥❛t✐♦♥❛❧ ■❊❊❊ ❈♦♥❢❡r❡♥❝❡ ♦♥ ■♥t❡❧❧✐❣❡♥t ❚r❛♥s♣♦rt❛t✐♦♥ ❙②st❡♠s ✹✳ ❙❛❢❡ ◆❛✈✐❣❛t✐♥❣ ❙②st❡♠ ❢♦r ■♥❞♦♦r ❊♥✈✐r♦♥♠❡♥ts✱ ❏♦r❣❡ ❈♦rs✐♥♦ ❊s♣✐♥♦✱ ❇r✉♥♦ ❙t❡✉①✱ ❖✉ss❛♠❛ ❊❧ ❍❛♠③❛♦✉✐✱ ■❈❆❘❆ ✷✵✶✶ ✺t❤ ■♥t❡r♥❛t✐♦♥❛❧ ❈♦♥❢❡r❡♥❝❡ ♦♥ ❆✉t♦♠❛t✐♦♥✱ ❘♦❜♦t✐❝s ❛♥❞ ❆♣♣❧✐❝❛t✐♦♥s ✺✳ ❆✉t♦♥♦♠♦✉s ◆❛✈✐❣❛t✐♦♥ ❛♥❞ ▼❛♣♣✐♥❣ ✇✐t❤ ❈♦r❡❙▲❆▼✱❖✉ss❛♠❛ ❊❧ ❍❛♠③❛♦✉✐✱ ❏♦r❣❡ ❈♦rs✐♥♦ ❊s♣✐♥♦✱ ❇r✉♥♦ ❙t❡✉①✱ ❘❡❝❡♥t ❆❞✈❛♥❝❡s ✐♥ ❘♦❜♦t✐❝s ❛♥❞ ❆✉t♦♠❛t✐♦♥✱♣❛❣❡s ✭✾✶✲✶✵✶✮✱ ❙♣r✐♥❣❡r ❇❡r❧✐♥ ❍❡✐❞❡❧❜❡r❣A comparative study of rail extraction techniques Jorge Corsino Espino1 and Bogdan Stanciulescu2 Abstract— This paper presents a comparative study of different rail detection techniques as well as a new method based on an efficient algorithm without any empirical thresholds. The main problem with rail detection is that both the track-bed and and the exterior conditions (weather/light conditions) vary along the path. On the other hand, there are properties that can be exploited to improve the conventional lane detection. We present an edge detection based on the estimated position of the rails that follows the rail edges upwards in the image, determining a free-from-obstacles space. The existing techniques are also analyzed and compared. I. INTRODUCTION Trains are considered one of the safest means of transportation. Unfortunately, accidents still often occur due to the fatigue of the driver, the bad weather conditions or other factors. The safety can be improved using intelligent systems that provide additional information about the exact location of the train, its speed and the upcoming obstacles. This can be accomplished by installing sensors along the tracks, which can be expensive at a large scale. An alternative is to install embarked cameras at the front of the train to support the driver. There are many constraints imposed on such systems, such as the cost and resource efficiency as well as the realtime performance. Rail extraction is one of the fundamental tasks in an onboard computer vision system for trains. It can be useful for the positioning and the speed estimation of the trains as well as the obstacle detection. However it faces many challenges such as the bad illumination and poor visibility in tunnels or under bad weather conditions. Our goal is to automatically find the rails in order to determinate the free path in front of the train using only image processing. A. The environment The rubber-tyred metro is a rapid transportation system that uses a mix of road and rail technology. The vehicle has wheels which run on rolling pads inside guide bars for traction, as well as the traditional railway steel wheels with deep flanges on steel tracks for guidance. Further, the pads are also often used for communication or control structures such as duct cables and drains. The environment is particularly challenging in train systems since there are several parallel rails, a richly textured 1 J. Corsino Espino with SIEMENS SAS Infrastructure & Cities. 150, Avenue de la Republique, 92323 Chatillon cedex, FRANCE ´ jorge.corsino-espino at siemens.com 2 B. Stanciulescu with Mines ParisTech, Center of Robotics (CAOR). 60, boulevard Saint Michel, 75272 Paris cedex 06, FRANCE. bogdan.stanciulescu at mines-paristech.com Paper 16th April Fig. 1. Driver’s view with a fixed camera placed behind the windshield. track-bed as well as frequent variations in illumination, rail equipment and tunnels as shown in figures 1, 2 and 3. The complexity of the track-bed makes the rail detection difficult due to the large quantity of straight segments and the shadows of the guidance tracks produced on the pads. This task is more complex at night or on cloudy days because of the variation of the color of the rails. Further, detecting dark rails over dark surfaces is harder than detecting bright lines on a dark road as in the road lane detection systems. B. Previous works Some studies [1], [2] show that the lane marking detection techniques, used in intelligent vehicles, can also be applied to the rail detection in certain applications. Both the lanemarkings and the rail tracks are represented as a group of lines. Furthermore, the curvatures in both applications tend to have a large radius, barely changing over small distances. However, the textured structure of the track-bed, due to ballast, grass and sleepers, as opposed to the uniform asphalt background of the lane-markings, makes the rails more difficult to detect. Furthermore, the reflective nature of the steel causes larger variations due to shadows and changes in illumination. Previous works have exploited the aforementioned characteristics of the railway tracks to detect them. In [3], the line segments, extracted using the edge detection, are matched to a set of track models. A probability measure designates the corresponding match using the Chamfer similarity metric. However, the edge detection is sensitive to the fine tuning of the parameters. Nassu et al. apply a hill-climbing approach for the parameter selection. The feasibility and efficiency of this approach is also limited by the choice and the number of rail segment models. In [4], the lines representing the tracks are also extracted. This is performed using quadratic programming. The initial ✶✶✻ ❆♥♥❡①❡ ✳ P✉❜❧✐❝❛t✐♦♥s ❆✳✶ ❆rt✐❝❧❡ ■❚❙❈ ✷✵✶✷segments at the bottom of the image are extended by adding neighboring candidate segments which fulfill several constraints, such as the pixel value distribution, the angles of the gradients and the distance between the tracks. The empirical choice of parameters renders the system less generic and more sensitive to variations. Kaleli et al. [5] also perform a preliminary edge detection to extract track candidates. They then use the Hough transform to merge the line segments into longer lines. Further, they use a dynamic programming approach to simultaneously detect the right and left tracks by ensuring the predefined width between them. In the anti-collision system presented in [6], the image is warped into a birds eye view to obtain parallel tracks, as opposed to the detection of the rail crossings in the vanishing point at the horizon. The parameter selection is initialized with the help of a human operator that designates the search region of the rails. The lines are extracted using a Hough transform. In [7], the switches at the railway crossings are detected. The eigenvalues of the gradients computed over image patches are used to identify homogeneous and textured regions. The former are discarded, while the latter are filtered according to the gradient angles. Only a restricted area of the image is examined to reduce the computational overhead. The calculation of the covariance and the eigenvalues can be expensive at a large scale. In this paper, we propose a rail detection method for rubber-tyred trains, by iteratively selecting local maxima in the gradient image using a sliding window approach. We test our method on challenging sequences with several parallel rails, richly textured background and infrastructure as well as illumination variations due to shadows and tunnels. The system computes the length of the free obstacle space in front of the train. The remainder of the paper is organized as follows: in Section 2, we give an overview of some problems for existing techniques. In Section 3, we describe the proposed system; in Section 4, we present some experimental results. Finally, in Section 5, we summarize the conclusions and give an outlook on future work. II. COMPARISON OF EXISTING TECHNIQUES The most common techniques used for road lane and rail detection are edges extraction and lines detection in the images. In this paper, we analyze both these techniques and compared the results obtained. A. Edge detection Edge detection is an effective image processing tool that extracts image information and characteristics. Before applying the edge detection, it is important to filter the image to smooth out any noise arising from the image capturing. This noise can lead to the detection of false edges by the detector [8]. Futhermore, the lighting conditions vary along the track surface and the shadows caused by trees or tunnels. The quality of the resulting edges depend on the thresholds used. Fig. 2. Different results using Canny algorithm and varying the thresholds. Fig. 3. Mismatching of a rail. The shadow produces a hard edge and the right rail is not well detected. In some cases, a simple shadow on the image can produce the mismatching of a rail, as shown in figure 3. When using the Canny edge detector [8] with a low threshold, we can generate a maximum amount of edges. To reduce the computational overhead, only the gradients with an angle in a range are kept. This range is determined by the perspective projection of a right track and a curved track at its minimun radius at different distances [9]. These filtred edges are kept as possible track candidates. As seen in figure 4, the number of edges are reduced to only a few (highlighted in red). This technique filters a large amount of edges. Nevertheless, the angular conditions are strict and sometimes the relative angle of the gradient in the pixel grid does not match the angle of the line in the image. ❆✳✶✳ ❆rt✐❝❧❡ ■❚❙❈ ✷✵✶✷ ✶✶✼Fig. 4. Canny filter with low threshold and filtered edges (in red) using the angle gradients. Fig. 5. Lanes detected with Hough Lines Transform. B. Hough Transform Choilane et al. [10] use the Hough Transform combined with a Kalman filter to detect lines on the road. The model of the road in the Hough space and the vanishing point extraction allow for the detection of the road lines with a good performance and on challenging sequences. For the rubber-tyred rail detection in this paper, the Hough line detector can be used to find the vanishing point with a good performance. Detecting the shape of the rails is less efficient as a result of the many lines obtained. The need of thresholds on the Hough line transform does not always produce the best results. Further, the filtering of all the lines is computionally inefficient. Figure 5 shows the Hough line transform with all dectected lines. C. Watershed Good results in rail track segmentation are obtained using the Watershed technique [11]. However, due to aspects such as the high computational requirements as well as the presence of shadows or dark tunnels, the track segmentation is interrupted as shown in figure 6. III. PROPOSED APPROACH AND EXPERIMENTAL RESULTS Many of the existing approaches rely on empirically defined thresholds and fine-tuned parameters. To develop a more generic approach, we propose to use a sliding window Fig. 6. Watershed segmentation. Left: an accurate rail track segmentation. Right: an example showing the influence of a tunnel entrance on the segmentation result. Fig. 7. Sliding window from bottom to up. and a local maxima selection to make the rail detection more robust to changes in illumination, shadows and occlusions. Our algorithm is organised as follows: firstly, the gradient image is computed inside the sliding windows. Then we search for maxima and minima in the gradient image to find edges. From these edges, rails are extracted and compared with an expected position. We continue moving the sliding window over the image upwards. (See figure 7 for an overview of the movement of the sliding window). In the first step, a sliding window with a decreasing width is passed vertically over the image, starting at the bottom. The starting position of the rails at the bottom of the image is assumed to be constant and known, since the embarked camera is fixed and the width of the rails is constant. For each row in the sliding window, the edges are analyzed to find the correspondence with the predicted shape at this position. This local analysis allows us to detect low contrast edges. The next sliding window is centred with respect to the new detected rail position. To eliminate false alarms and avoid the deviation of the iterative search process, each new point detected as a track is compared to the previous points in the sliding window. The only points kept are those that minimize the mean square error with respect to the approximating line that represents them are kept. To make sure that the retained points are correct, they have to correspond with the projective straight line of the attended rail. ✶✶✽ ❆♥♥❡①❡ ✳ P✉❜❧✐❝❛t✐♦♥sFig. 8. Gradients inside the sliding windows for each side of the track. The window is centered with respect to where the rail edge is detected. The difference between its position and the maximum gradient detected, allows for the tracking of the position of the rails over the image This straight line has a decreasing length, larger at the bottom and smaller in far distances, allowing to approximate a curve to segments of straight lines depending on the distance from the camera. The estimated position is obtained using the perspective transformation between the real world and the 2D image [9]. For this, a calibrated camera and the knowledge of the expected shape is needed. Because the radius of the curvature is limited, we can always assume having a straight line in front of the train to initiate the algorithm. This straight line is then adapted to follow the track vertically across the image. The objective of this straight line is to determine the evolution of the rails over the image. It is calculated using the retained edges as rails and determines the next position of the slidings window in the rails over the image. This exploration is performed for the four edges of the rails. It allows us to determine the correct position of the rails over the image. Figure 8 shows the edges in the four sliding windows for each rail side. The center of the window is the predicted position of the rail and the maximum gradients are the edges of the rails. With this dynamic progression, we can overcome segments of rails with dark shadows where our local maxima selection does not detect any edge. The search process is stopped when the the vanishing point is reached or when the rails are not well detected, due to an obstacle covering them. Our sequences consist of videos taken 30 frames per second recorded using a camera with 5 mm focal length and 1/3 inch sensor size fixed behind the windshield at 2.78 m from the ground. The image size is 480 by 640 pixels. Figures 9, 10 and 11 illustrate the extraction of straight tracks from the bottom to the top of the image for curved rails. Fig. 9. Extracted rails Fig. 10. Extracted rails in curve Fig. 11. Extracted rails in curve IV. CONCLUSION AND FUTURE WORKS In this paper, a comparison of various techniques for rail extraction are presented and a new generic and robust approach is introduced. Our algorithm uses edge detection and applies simple geometric constraints provided by the rail characteristics. This allows to reduce both the cost in the computational load, as well the error in the detection of the rails. Future works will include a learning approach for the pattern recognition in the area around the rails to improve the detection performance in presence of unusual objects i.e. ❆✳✶✳ ❆rt✐❝❧❡ ■❚❙❈ ✷✵✶✷ ✶✶✾obstacles on the trackbed. We plan on publishing our dataset shortly, to enable a comparison of new and existing approaches on a public benchmark, since no such dataset is currently available. REFERENCES [1] J. McCall and M. Trivedi, “Video-based lane estimation and tracking for driver assistance: survey, system, and evaluation,” Intelligent Transportation Systems, IEEE Transactions on, vol. 7, no. 1, pp. 20 –37, march 2006. [2] V. Kastrinaki, M. Zervakis, and K. Kalaitzakis, “A survey of video processing techniques for traffic applications,” Image and Vision Computing, vol. 21, pp. 359–381, 2003. [3] B. Nassu and M. Ukai, “Rail extraction for driver support in railways,” in Intelligent Vehicles Symposium (IV), 2011 IEEE, june 2011, pp. 83 –88. [4] F. Maire, “Vision based anti-collision system for rail track maintenance vehicles,” in Advanced Video and Signal Based Surveillance, 2007. AVSS 2007. IEEE Conference on, sept. 2007, pp. 170 –175. [5] F. Kaleli and Y. Akgul, “Vision-based railroad track extraction using dynamic programming,” in Intelligent Transportation Systems, 2009. ITSC ’09. 12th International IEEE Conference on, oct. 2009, pp. 1 –6. [6] F. Maire and A. Bigdeli, “Obstacle-free range determination for rail track maintenance vehicles,” in Control Automation Robotics Vision (ICARCV), 2010 11th International Conference on, dec. 2010, pp. 2172 –2178. [7] J. Wohlfeil, “Vision based rail track and switch recognition for self-localization of trains in a rail network,” in Intelligent Vehicles Symposium (IV), 2011 IEEE, june 2011, pp. 1025 –1030. [8] J. Canny, “A computational approach to edge detection,” Pattern Analysis and Machine Intelligence, IEEE Transactions on, vol. PAMI- 8, no. 6, pp. 679 –698, nov. 1986. [9] R. I. Hartley and A. Zisserman, Multiple View Geometry in Computer Vision, 2nd ed. Cambridge University Press, ISBN: 0521540518, 2004. [10] K. Choi, K. Min, S. Lee, W. Park, Y. Seo, and Y. Hong, “Lane tracking in hough space using kalman filter.” [11] S. Beucher and M. Bilodeau, “Road segmentation and obstacle detection by a fast watershed transformation,” in Intelligent Vehicles’ 94 Symposium, Proceedings of the. IEEE, 1994, pp. 296–301. ✶✷✵ ❆♥♥❡①❡ ✳ P✉❜❧✐❝❛t✐♦♥sRail and turnout detection using gradient information and template matching Jorge Corsino Espino SIEMENS S.A.S. SWE RC-FR IC-MOL RA R&D 92320 Chatillon, France jorge.corsino-espino@siemens.com Bogdan Stanciulescu Robotic Center Mines ParisTech 75272 Paris, France bogdan.stanciulescu@mines-paristech.com Philippe Forin SIEMENS S.A.S. SWE RC-FR IC-MOL RA R&D 92320 Chatillon, France philippe.forin@siemens.com Abstract—This paper presents a railway track and turnout detection algorithm which is not based on an empirical threshold. The railway track extraction is based on an edge detection using the width of the rolling pads. This edge detection scheme is then used as an input to the RANSAC algorithm to determine the model of the rails. The turnout detection scheme is based on the Histogram of Oriented Gradient (HOG) and Template Matching (TM). The results show (i) reliable performance for our railway track extraction scheme and (ii) a correction rate of 97.31 percent for the turnout detection scheme using a Support Vector Machine (SVM) classifier. Keywords—Rails detection, Turnout detection I. INTRODUCTION Trains are considered one of the safest means of transportation. Unfortunately, accidents still often occur due to driver’s tiredness, bad weather conditions or other factors. Safety can be improved using intelligent systems that provide additional information about the exact location of the train, its speed and upcoming obstacles. This can be accomplished by installing sensors along the tracks but it can be expensive at a large scale. A more cost efficient approach is to install on-board cameras at the front of the train to support the driver. There are many constraints imposed on systems improving safety such as cost, resource efficiency as well as real-time performance. Rail recognition and extraction is one of the fundamental tasks in an on-board computer vision system for trains. It can be useful for trains positioning and speed estimation as well as obstacle detection. However, it faces many challenges such as bad illumination and poor visibility in tunnels or under bad weather conditions. Railway turnouts are characterized by complex rails extraction scenarios. For this reason, this paper proposes an approach for rails and turnout detection using only image processing to determine a free path in front of the train. The remainder of the paper is organized as follows: in Section 2 we describe the state of the art; in Section 3, we give an overview of the proposed system; in Section 4, we detail the proposed system for rails extraction; in Section 5, we present the approach for turnout detection; in Section 6 we present some experimental results. Finally, in Section 7, we summarize the conclusions and give an outlook on future works. II. PREVIOUS WORK Some studies [1], [2] show that the lane marking detection techniques, used in intelligent vehicles, can also be applied to the rail detection in certain applications. Both the lanemarkings and the rail tracks are represented as a group of lines. Furthermore, the curvatures in both applications tend to have a large radius, barely changing over small distances. However, the textured structure of the track-bed, due to ballast, grass and sleepers, as opposed to the uniform asphalt background of the lane-markings, makes the rails more difficult to detect. Furthermore, the reflective nature of the steel causes larger variations due to shadows and changes in illumination. Previous works have exploited the aforementioned characteristics of the railway tracks to detect them. In [3], the line segments, extracted using the edge detection, are matched to a set of track models. A probability measure designates the corresponding match using the Chamfer similarity metric. However, the edge detection is sensitive to the fine tuning of the parameters. Nassu et al. apply a hill-climbing approach for the parameter selection. The feasibility and efficiency of this approach is also limited by the choice and the number of rail segment models. In [4], the lines representing the tracks are also extracted. This is performed using quadratic programming. The initial segments at the bottom of the image are extended by adding neighbouring candidate segments which fulfil several constraints. The empirical choice of parameters renders the system less generic and more sensitive to variations. Kaleli et al. [5] also perform a preliminary edge detection to extract track candidates. They then use the Hough transform to merge the line segments into longer lines. Further, they use a dynamic programming approach to simultaneously detect the right and left tracks by ensuring the predefined width between them. In the anti-collision system presented in [6], the image is warped into a bird’s eye view to obtain parallel tracks, as opposed to the detection of the rail’s crossings in the vanishing point at the horizon. The parameter selection is initialized with the help of a human operator that designates the search region of the rails. The lines are extracted using a Hough transform. In [7], the switches at the railway crossings are detected. The eigenvalues of the gradients computed over image patches are used to identify homogeneous and textured regions. The ❆✳✷✳ ❆rt✐❝❧❡ ■❈■❘❚ ✷✵✶✸ ✶✷✶ ❆✳✷ ❆rt✐❝❧❡ ■❈■❘❚ ✷✵✶✸former is discarded, while the latter is filtered according to the gradient angles. Only a restricted area of the image is examined to reduce the computational overhead. The calculation of the covariance and the eigenvalues can be expensive at a large scale. In this paper, we propose a rail detection method for rubber-tyred trains, using the RANdom SAmple Consensus (RANSAC) [8] algorithm iteratively, selecting the best model from frame to frame. We test our method on challenging sequences with several parallel rails, richly textured background as well as illumination variations due to shadows and tunnels. At the same time, the system detects turnout sections over the rails to change the approach of RANSAC. For that the system analyzes the area between rails, searching for the presence of a guidance rail in turnouts. III. OVERVIEW OF THE METHOD A. The environment Rubber-tyred metro is a rapid transportation system that uses a mix of road and rail technology. The vehicle has wheels which run on rolling pads inside guide bars for traction, as well as the traditional railway steel wheels with deep flanges on steel tracks for guidance. Further, the pads are also often used for communication or control structures such as duct cables and drains. The environment is particularly challenging in train systems since there are several parallel rails, a richly textured track-bed, rail’s equipment and tunnels as shown in Fig. 1. The complexity of track-bed makes rail detection difficult due to the large quantity of straight segments and the shadows of the guidance tracks produced on the pads. As seen in Fig. 1, the rolling pads and other structures are close to each other. This task is more complex at night or on cloudy days because of rails’ color variation. Further, detecting dark rails over dark surfaces is harder than detecting bright lines on a dark road as in the road lane detection systems. B. Rails Geometry Rails geometry describes tracks’ layouts with specific alignments, curvature warp, rail gauge etc. In our case the principal characteristics are: • Minimum horizontal curve radius: 12m • Minimum vertical curve radius: 200m • Maximum slope: 12% • Width of rolling pads w = 250mm • Standard rails gauge g = 1650mm Movement tolerance of the rail vehicle • Banking: from 0% to 13% (0, 55%/m) • Roll: < 2 ◦/s • Pitch: < 2 ◦/s • Yaw:+/ − 3 ◦/s Fig. 1. Driver’s view with a fixed camera placed behind the wind-shield and vertical section of track bed and its distances. Turnouts are used to divide or merge tracks into two or more tracks. The purpose of crossings is to allow tracks to intersect at the same level. In our case, turnouts are equipped with a central switch to guide the train over the turnout. This switch is like a central rail of guidance. An example of our turnout is shown in Fig. 1. Assuming that the track-bed is planar, we can compute an inverse rectifying homography that maps the center camera image to a bird’s eye” point of view. Formally, we chose a train-centric coordinate system as follows: +Z is forward, +X is right and +Y is up. The X position of the center of the rails is modeled as a quadratic function in the ground plane such as: X(z) = az 2 + bz + c. Given the width of the rails (w), the standard gauge (g) and the inverse rectifying homography (Hr) for the trackbed where Y = 0, we can immediately derive the location X of the left and right rails’ edges for any Z. C. Camera A forward-facing camera was installed behind the wind shield at a height h of 2.78m above the trackbed surface and with a tilt angle of θ = 10 ◦ . Our sequences consist of videos taken at 30f ps recorded by a camera with 5mm focal length and 1/3inch sensor size. The image resolution is 480 by 640 pixels. D. Rails and turnout detection approach Although the goal of this work is turnout detection, it is crucial to first detect the rails. It starts by detecting the center of the rails at the bottom of the image. Then the image’s gradients are analyzed to find the rails candidates. These points p(u, v) are then converted with the Homography (Hr) to 3D points P(X, Y, Z). It is in this space where we fit the best model of the rails. For this purpose we propose to use RANSAC. In order to reduce the number of edges and keeping only the rails, other operations are exploited: masking, binarization, gradient angle analysis and filtering. Our algorithm is organized as follows: 1) Center of rails detection 2) Masking ✶✷✷ ❆♥♥❡①❡ ✳ P✉❜❧✐❝❛t✐♦♥s3) Gradient analysis 4) Homography 5) RANSAC a) Left RANSAC b) Right RANSAC c) Central parabola 6) Vanishing point of rails IV. PROPOSED APPROACH FOR RAILS DETECTION A. Edged-based rails detection The most common techniques used for road lane and rail detection are edge extraction and lines detection in the images. Many of the existing approaches rely on empirically defined thresholds and fine-tuned parameters. We propose to develop a more generic approach to find rails’ edges, searching for local maxima and minima gradient separated by a width of w. Before applying the edge detection, it is important to filter the image to smooth out any noise arising from the image capturing. This noise can lead to the detection of false edges. We can generate a maximum amount of edges as rails candidates, but to reduce the computational overhead, only almost parallel gradients, (having similar angle orientation) are kept. Therefore, horizontal and vertical gradients are analyzed. We generate a binary image with the center position of edges found, considering them as rails candidates. This image is then filtered by a neighbouring mask of size 4x4. As seen in Fig. 2, the number of edges is reduced to only a few, filtering a large amount of erroneous edges and simplify the next steps. This technique makes rail detection more robust to changes in illumination, shadows and occlusions because there is no threshold applied to gradient magnitude. B. Masking In order to speed up the algorithm and to reduce the number of edges we apply a mask over the image. This mask defines a region of interest with the track’s shape but with a bigger width. To place appropriately this mask, it is necessary to know the rails’ position. For that, the vanishing point (VP) of the rails is calculated and used as the end point of our mask. The VP of the rails is obtained by analyzing the tangent to detected rails at its maximum curve. As reminder, the tangent of a function is given by the equation (1) T(x) = f 0 (a)(x − a) + f(a) (1) An example of the mask can be seen in Fig. 3. For the first frames, the mask is not applied until we have determined a good rails detection. C. Fitting the rails From the precedent binary image, we obtain the retroprojection points P(X, Y, Z) for every rails candidate and store them in vector M to extract the rails in the rolling plane. For this purpose we decided to apply an iterative procedure to reduce error detection probability. We firstly use RANSAC to Fig. 2. Process of extracting edges rails candidates.First image is the input image. Second one shows the rails candidates obtained with the gradient analysis. Third image is the filtred image by neighbouring 4x4. Fig. 3. Example of mask. detect left and right rail independently. RANSAC is a robust estimation technique based on the principle of hypotheses, generation and verification, fitting models in the presence of many data outliers. For each search, we impose some conditions to the RANSAC algorithm as stated below: 1) Randomly select three points at different distances Z reducing the probability of a wrong model and the number of iterations. 2) Estimate the model m fitting these three initial inliers. 3) Check model: Verify that the radius of curvature corresponds to the rails’ layout. 4) Find the number of M’s data items that fit the model with a tolerance t, avoiding to accept other track-pad ❆✳✷✳ ❆rt✐❝❧❡ ■❈■❘❚ ✷✵✶✸ ✶✷✸structure as a rail. 5) Calculate the model’s error considering its rail’s partner. As the rail’s gauge is constant, we can calculate the model’s error found at a distance g. 6) Repeat 1-5 L times To calculate the model’s error, we consider the opposite track. Using two Gaussians separated by a width gauge (g), and centered over the rails all along Z distances, we calculate the error of all M’s points to the Gaussians. The best fitted model will have the minimum error. Considering the presence of vertical curves (slopes) and vibrations of the rail’s vehicle, the homography (Hr) can produce errors in converting p(u, v) to P(X, Y, Z). This is why we decided to analyze each rail separately to obtain the rails’ central function curve. From each RANSAC, we keep the inliers and then we translate them to the rails’ center. Once the translation is done, a new model is obtained by weighted least squares (equation 2). Weights depend on distance Z. Using this translation of both inliers to the rails’ center, the algorithm can lead to small changes in the flat world assumption. The process of fitting the model is shown in Fig. 4. For the next frame, as the position of rails is known, we can pre filtrate the new M vector to reduce the RANSAC process. This rail extraction method is efficient and robust. An example of edge rails tracker working accurately is shown in Fig. 9. W SS = Xn i=1 Wir 2 i , W i = 1 Dzi , r2 i = y−f(xi , β) (2) V. PROPOSED APPROACH FOR TURNOUT DETECTION The use of bird-eye view makes the detection of turnouts easier because tracks appear parallel, have constant width and are mainly vertical. Besides, every pixel appears in world coordinates. In presence of a turnout, there is a central rail to guide the train over it. The purpose of turnout detection is to determine their position before reaching them. Once rails are detected, we get the bird-eye view of rails at a distance Z between 10m and 12m with an offset of 1m, obtaining an unwrap image of 2x2m. Some examples of rails bird-eye view at 10m are shown in Fig. 5. We consider to analyze the center of the unwrap image, because in all turnouts there is a central rail. Hence we propose two techniques to find this rail: Template image matching and Histogram of oriented gradients (HOG). A. Template matching Template image matching [9] consist of finding a small part of an image which matches a template image. A basic problem of template matching is to determine the position of a given pattern in an image. In our case, the position of the center rail in the bird-eye view image is almost constant. Another problem is to determine how much the image and template’s brightness can vary due to lighting and exposure conditions. Therefore images have to be normalized first. This can be done at every step by subtracting the mean and dividing by the standard deviation. Fig. 4. Retro-projection of edges to fit models with RANSAC. First image shows the result of RANSAC for the left rail. Second is the result for right rail. Third image shows the translation of both inliers Fig. 5. Bird-eye view images of rails at 10m. On the top, bird-eye image of simple rails. At the bottom, with turnouts. ✶✷✹ ❆♥♥❡①❡ ✳ P✉❜❧✐❝❛t✐♦♥sFig. 6. At left the template image for center rail detection. At right an example of a center rail in bird-eye view Fig. 7. Auto cross correlation of the template. Fig. 8. Maximum value of correlation peak for 50 images without turnout and 50 with turnout. Fig. 9. Correlation feature extracted for 50 images without turnout and 50 with turnout. Given the center rail’s template t as shown in Fig. 6, the idea of the algorithm is to calculate normalized crosscorrelations of template and sub-image line per line. Then correlation is calculated as a sum of whole linears correlations. Figure 7 shows the result of the template’s auto-cross correlation. This result is characterized by 3 peaks and 2 valleys. Taking as correlation feature the value of the center peak (cross-correlation coefficient), we can distinguish between images with and without turnout. But if we take the sum of these 3 peaks and the 2 valleys the distance between two classes is bigger, as shown in figures 8 and 9. Hence, we use this sum as correlation feature to determine the presence of a central rail (turnout) or not. Corr feature = X 3 i=1 peak + X 2 i=1 valley (3) Diagnosis Positive Negative Total Test Positive 526 32 568 Negative 110 4603 4713 Total 636 4635 5271 TABLE I. B. HOG Histogram of Oriented Gradients [10] is a feature descriptor that gives local shape information often well described by the distribution of intensity gradients or edge directions. The technique counts occurrences of gradient orientation in localized portions of an image. Each pixel votes for an orientation according to the closest bin in the range. Our bins range is defined from 0 do 180 with 5 bins [15; 80; 100; 135; 180]. In the voting rule, we do not use the gradient’s amplitude to avoid noise in illumination changes. We use just one cell for HOG algorithm because the bird-eye view has a reduced size and we only analyze the area enclosed by the rails. As expected, in presence of a turnout, HOG reveals vertical gradient of center rail and the spatial distribution of bins is centered in the 3rd bin. Otherwise, all bins have a similar amplitude. VI. RESULTS Our algorithm was tested using different videos of the metro line OrlyVal in a cloudy day. In these videos the train rolls over 6 different turnouts. As explained, it is necessary to extract rails before detecting turnouts. The mean of rails’ maximum distance detected is 25 meters. This distance is limited by the low resolution of the camera. Fitting results under different circumstances are shown in Fig. 9. Blue color presents the fitted model for each rail and green color shows the central rails curve. All along the videos, rails extraction is done accurately. For turnout detection, we use as a classifier a Support Vector Machine (SVM) trained with less than 1/3 of data base images. The SVM input is the correlation feature and 3 bins of HOG (15-80; 80-100;100-135) for each frame. We dispose over a total of 5271 images for test and SVM gives the following results: a correction rate of 97.31%, a sensitivity of 92.6% and a specificity of 97.67%. Table 1 shows the confusion matrix. Most of false alarms are isolated, so a tracking over frames could improve detection results. The false negatives are produced exactly by images where rolling pads are merged with the center rail (center of turnout). VII. CONCLUSION AND FUTURE WORKS In this paper, a new generic and robust system for railway track and turnout detection is described. In our approach, an edge detection is used with simple geometric constraints provided by the rail characteristics. This leads to a reduction of the computational load and error rate in railway track detection. While the train is moving, the area between both railway tracks is analyzed to detect turnouts at a distance of 10m using the bird-eye view. Results show a very good performance ❆✳✷✳ ❆rt✐❝❧❡ ■❈■❘❚ ✷✵✶✸ ✶✷✺Fig. 10. Results for rails extraction in different situations. in railway turnout detection by using template matching and HOG. Future works will include: (i) the search of secondary rails when a turnout is found by changing the approach in RANSAC and (ii) the use of detected railway turnouts for topological trains mapping and localization. ACKNOWLEDGEMENTS Jorge Corsino Espino gratefully acknowledges the support of SIEMENS S.A.S. Infrastructure & Cities, Division Mobility and Logistics and the Mines ParisTech Robotic Center. REFERENCES [1] J. McCall and M. Trivedi, “Video-based lane estimation and tracking for driver assistance: survey, system, and evaluation,” Intelligent Transportation Systems, IEEE Transactions on, vol. 7, no. 1, pp. 20 –37, march 2006. [2] V. Kastrinaki, M. Zervakis, and K. Kalaitzakis, “A survey of video processing techniques for traffic applications,” Image and Vision Computing, vol. 21, pp. 359–381, 2003. [3] B. Nassu and M. Ukai, “Rail extraction for driver support in railways,” in Intelligent Vehicles Symposium (IV), 2011 IEEE, june 2011, pp. 83 –88. [4] F. Maire, “Vision based anti-collision system for rail track maintenance vehicles,” in Advanced Video and Signal Based Surveillance, 2007. AVSS 2007. IEEE Conference on, sept. 2007, pp. 170 –175. [5] F. Kaleli and Y. Akgul, “Vision-based railroad track extraction using dynamic programming,” in Intelligent Transportation Systems, 2009. ITSC ’09. 12th International IEEE Conference on, oct. 2009, pp. 1 –6. [6] F. Maire and A. Bigdeli, “Obstacle-free range determination for rail track maintenance vehicles,” in Control Automation Robotics Vision (ICARCV), 2010 11th International Conference on, dec. 2010, pp. 2172 –2178. [7] J. Wohlfeil, “Vision based rail track and switch recognition for selflocalization of trains in a rail network,” in Intelligent Vehicles Symposium (IV), 2011 IEEE, june 2011, pp. 1025 –1030. [8] M. A. Fischler and R. C. Bolles, “Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography,” Commun. ACM, vol. 24, no. 6, pp. 381–395, Jun. 1981. [Online]. Available: http://doi.acm.org/10.1145/358669.358692 [9] R. Brunelli, Template Matching Techniques in Computer Vision: Theory and Practice. Wiley Publishing, 2009. [10] N. Dalal and B. Triggs, “Histograms of oriented gradients for human detection,” in In CVPR, 2005, pp. 886–893. ✶✷✻ ❆♥♥❡①❡ ✳ P✉❜❧✐❝❛t✐♦♥sTurnout detection and classification using a modified HOG and template matching Jorge Corsino Espino1 and Bogdan Stanciulescu2 Abstract— This paper presents a railway track and turnout detection and turnout classification algorithm. The railway track extraction is based on an edge detection using the width of the rolling pads. This edge detection scheme is then used as an input to the RANSAC algorithm to determine the model of the rails knowing their gauge. The turnout detection scheme is based on the Histogram of Oriented Gradient (HOG) and Template Matching (TM). The turnout classification is based on HOG. The detection results show (i) reliable performance for our railway track extraction scheme; (ii) a correction rate of 97.31 percent for the turnout detection scheme using a Support Vector Machine (SVM) classifier. The turnout classification has correction rate of 98.72 percent using SVM. I. INTRODUCTION Trains are considered one of the safest means of transportation. Unfortunately, accidents still often occur due to driver’s tiredness, bad weather conditions or other factors. Safety can be improved using intelligent systems that provide additional information about the exact location of the train, its speed and upcoming obstacles. This can be accomplished by installing sensors along the tracks but it can be expensive at a large scale. A more cost efficient approach is to install on-board cameras at the front of the train to support the driver. Rail recognition and extraction is one of the fundamental tasks in an on-board computer vision system for trains. It can be useful for trains positioning and speed estimation as well as for obstacle detection, determining the region of interest to search obstacles. However, it faces many challenges such as bad illumination and poor visibility in tunnels or under bad weather conditions. Furthermore, approaching to a turnout, the system has to analyze both directions to determine both tracks as free obstacle path. Railway turnouts are characterized by complex rails extraction scenarios. For this reason, this paper proposes an approach for rails and turnout detection and classification using only image processing to determine a free path in front of the train. The paper is organized as follows: in Section 2 we describe the state of the art; in Section 3, we give an overview of the proposed system; in Section 4, we detail the proposed system for rails extraction; in Section 5, we present the approach *This work was supported by Mines-ParisTech and SIEMENS S.A.S. 1 Jorge Corsino Espino is a Phd student in Mathematics and Computer Vision Science, SIEMENS S.A.S. Infrastructure & Cities, Division Mobility and Logistics, 92320 Chatillon, France jorge.corsino-espino@siemens.com 2Bogdan Stanciulescu is a researcher and professor with the Robotics center, Mines-ParisTech, 75272 Paris, France bogdan.stanciulescu@mines-paristech.fr for turnout detection; in Section 6, we present the approach for turnout classification; in Section 7 we present some experimental results. Finally, in Section 8, we summarize the conclusions and give an outlook on future works. II. PREVIOUS WORK Some studies [1], [2] show that the lane marking detection techniques, used in intelligent vehicles, can also be applied to the rail detection in certain applications. Both the lanemarkings and the rail tracks are represented as a group of lines. Furthermore, the curvatures in both applications tend to have a large radius, barely changing over small distances. However, the textured structure of the track-bed, due to ballast, grass and sleepers, as opposed to the uniform asphalt background of the lane-markings, makes the rails more difficult to be detected. Furthermore, the reflective nature of the steel causes larger variations due to shadows and changes in illumination. Previous works have exploited the aforementioned characteristics of the traditional railway tracks to detect them as detailed in [3]. In [4], the switches at the railway crossings are detected. The eigenvalues of the gradients computed over image patches are used to identify homogeneous and textured regions. The former is discarded, while the latter is filtered according to the gradient angles. Only a restricted area of the image is examined to reduce the computational overhead. The calculation of the covariance and the eigenvalues can be expensive at a large scale. In this paper, we propose a rail detection method for rubber-tyred trains, using the RANdom SAmple Consensus (RANSAC) [5] algorithm iteratively, selecting the best model from frame to frame. We test our method on challenging sequences with several parallel rails, richly textured background as well as illumination variations due to shadows and tunnels. At the same time, the system detects turnout sections over the rails to change the approach of RANSAC. In order to detect turnouts the system analyzes the area between rails, searching for the presence of a guidance rail of turnouts. III. OVERVIEW OF THE METHOD A. The environment Rubber-tyred metro is a rapid transportation system that uses a mix of road and rail technology. The vehicle has wheels which run on rolling pads inside guide bars for traction, as well as the traditional railway steel wheels with deep flanges on steel tracks for guidance. ❆✳✸✳ ❆rt✐❝❧❡ ■❚❙❈ ✷✵✶✸ ✶✷✼ ❆✳✸ ❆rt✐❝❧❡ ■❚❙❈ ✷✵✶✸The environment is particularly challenging in train systems because of rail’s equipment and tunnels. Besides rubbertyred metro has a richly textured track-bed as shown in Fig. 1. The complexity of this track-bed makes rail detection difficult due to the large quantity of straight segments and the shadows of the guidance bars produced on the pads. As seen in Fig. 1, the rolling pads and other structures are close to each other. This task is more complex at night or on cloudy days because of rails’ color variation. B. Rails Geometry Rails geometry describes tracks’ layouts with specific alignments, curvature warp, rail gauge, etc. In our case the principal characteristics are: • Minimum horizontal curve radius: 20m • Minimum vertical curve radius: 200m • Maximum slope: 12% • Width of rolling pads w = 250mm • Standard rails gauge g = 1650mm Movement tolerance of the rail vehicle • Banking: from 0% to 13% (0, 55%/m) • Roll: < 2 ◦/s • Pitch: < 2 ◦/s • Yaw:+/ − 3 ◦/s Turnouts are used to divide or merge tracks into two or more tracks. The purpose of crossings is to allow tracks to intersect at the same level. In our case, turnouts are equipped with a central switch to guide the train over the turnout. This switch is like a central rail of guidance. An example of this kind of turnout is shown in Fig. 1. Knowing these characteristics we can assume that the track-bed is planar in the camera field of view. Computing an inverse rectifying homography that maps the center camera image to a ”bird’s-eye” point of view. Formally, we chose a train-centric coordinate system as follows: +Z is forward, +X is right and +Y is up. The curve f(z) representing the center of the rails can be modelled as a quadratic function in the ground plane such as: f(z) = az 2 + bz + c. Given rails’ width (w), the standard gauge (g) and the inverse rectifying homography (Hr) [6] for the trackbed where Y = 0, we can immediately derive the locations X of left and right rails for any Z. C. Camera A forward-facing camera was installed behind the wind shield at a height h of 2.78m above the trackbed surface and with a tilt angle of θ = 10 ◦ . Our sequences consist of videos taken at 30f ps recorded by a camera with 6.2mm focal length and 1/3inch sensor size. The image resolution is 480 by 640 pixels. D. Rails and turnout detection and turnout classification approach Although the goal of this work is turnout detection and classification, it is crucial to detect rails at first. It starts by detecting the center of the rails at the bottom of the image. Then the image’s gradients are analyzed to find the Fig. 1. Driver’s view with a fixed camera placed behind the wind-shield and vertical section of track bed and its distances. rails candidates. These points p(u, v) are then converted with the Homography (Hr) to 3D points P(X, Y, Z)Z=0. It is in this space where we fit the best model of the rails. For this purpose we propose to use RANSAC. In order to reduce the number of edges and keeping only the rails, other operations are exploited: masking, binarization, gradient angle analysis and filtering. Once rails have been detected, turnout detection is launch, searching for central rail of guidance. Then we classify the turnout between 5 classes. Our algorithm is organized as follows: 1) Center of rails detection 2) Masking 3) Gradient analysis 4) Homography: p(u, v) to P(X, Y, Z) 5) RANSAC a) Left rail RANSAC b) Right rail RANSAC c) Central parabola 6) Vanishing point of rails 7) Turnout detection (SVM) a) Template matching b) HOG 8) Turnout Classification (SVM) a) HOG of bird’s-eye view sub-image IV. PROPOSED APPROACH FOR RAILS DETECTION A. Edged-based rails detection The most common techniques used for road lane and rail detection are edge extraction and lines detection in the images. Many of the existing approaches rely on empirically defined thresholds and fine-tuned parameters. We propose to develop a more generic approach to find rails’ edges, searching for local maxima and minima gradient separated by a width of w. Before applying the edge detection, it is important to filter the image to smooth out any noise arising ✶✷✽ ❆♥♥❡①❡ ✳ P✉❜❧✐❝❛t✐♦♥sFig. 2. Process of extracting edges rails candidates.First image is the input image. Second one shows the rails candidates obtained with the gradient analysis. Third image is the filtred image by neighbouring 4x4. Fig. 3. Example of mask. from the image capturing. This noise can lead to the detection of false edges. We can generate a maximum amount of edges as rails candidates, but to reduce the computational overhead, only almost parallel gradients, (having similar edge orientation) are kept. Therefore, horizontal and vertical gradients are analyzed. We generate a binary image with the center position of edges found, considering them as rails candidates. This image is then filtered by a neighbouring mask of size 4x4. As seen in Fig. 2, the number of edges is reduced to only a few, filtering a large amount of erroneous edges and simplifying next steps. B. Masking In order to speed up the algorithm and to reduce the number of edges we apply a mask over the image. This mask defines a region of interest with the track’s shape but with a bigger width. To place appropriately this mask, it is necessary to know the rails’ position at the bottom of the image and at a far distance. For that, the vanishing point (VP) of the rails is calculated and used as the end point of our mask. The VP of the rails is obtained by analyzing the tangent to detected rails at its maximum curve. As remainder, the tangent of a curve at a point a is given by the equation (1) T(x) = f 0 (a)(x − a) + f(a) (1) An example of the mask can be seen in Fig. 3. For the first frames, the mask is not applied until we have determined a good rails detection. This mask reduces de computational cost and the probability to find erroneous rails. C. Fitting the rails From the precedent binary image, we obtain the retroprojection points P(X, Y, Z) for every rails candidate and store them in vector M to extract the rails in the rolling plane. For this purpose we decided to apply an iterative procedure to reduce error detection probability. We firstly use RANSAC to detect left and right rail independently. RANSAC is a robust estimation technique based on the principle of hypotheses, generation and verification, fitting models in the presence of many data outliers. For each search, we impose some conditions to the RANSAC algorithm as stated below: 1) Randomly select three points at different distances Z reducing the probability of a wrong model and the number of iterations. 2) Estimate the model m fitting these three initial inliers. 3) Check model: Verify that the radius of curvature corresponds to the rails’ layout. 4) Find the number of M’s data items that fit the model with a tolerance t, avoiding to accept other track-pad structure as a rail. 5) Calculate the model’s error considering its rail’s partner. As the rail’s gauge is constant, we can calculate the model’s error found at a distance g. 6) Repeat 1-5 L times To calculate the model’s error, we consider the opposite track. Using two Gaussians separated by a width gauge (g), and centered over the rails all along Z distances, we calculate the error of all M’s points to the Gaussians. The best fitted model will have the minimum error. Considering the presence of vertical curves (slopes) and vibrations of the rail’s vehicle, the homography (Hr) can produce errors in converting p(u, v) to P(X, Y, Z). This is why we decided to analyze each rail separately to obtain the rails’ central function curve. From each RANSAC, we keep the inliers and then we translate them to the rails’ center. Once the translation is done, a new model is obtained by weighted least squares (equation 2). Weights depend on distance Z. Using this translation of both inliers to the rails’ center, the algorithm can lead to small changes in the flat world assumption. The process of fitting the model is shown in Fig. 4. For the next frame, as the position of rails is known, we can pre filtrate the new M vector to reduce the RANSAC process. This rail extraction method is efficient and robust. An example of edge rails tracker working accurately is shown in Fig. 9. W SS = Xn i=1 Wir 2 i , W i = 1 Dzi , r2 i = yi−f(xi , β) (2) ❆✳✸✳ ❆rt✐❝❧❡ ■❚❙❈ ✷✵✶✸ ✶✷✾Fig. 4. Retro-projection of edges to fit models with RANSAC. First image shows the result of RANSAC for the left rail. Second is the result for right rail. Third image shows the translation of both inliers Fig. 5. Bird-eye view images of rails at 10m. On the top, bird’s-eye image of simple rails. At the bottom, with turnouts. V. PROPOSED APPROACH FOR TURNOUT DETECTION The use of bird-eye view makes the detection of turnouts easier because tracks appear parallel, have constant width and gauge, and are mainly vertical. Besides, every pixel appears in world coordinates. For rubber-tyred metro, in presence of a turnout, there is a central rail to guide the train over it. The purpose of turnout detection is to determine their position before reaching them. Knowing its emplacement, rails detection system can search for the new pair of rails going to right of left. Once rails are detected we get the bird’s-eye view of rails at a distance Z between 10m and 12m with a lateral offset of 1m, obtaining an unwrap image of 2x2m. Some examples of rails bird’s-eye view at 10m are shown in Fig. 5. We consider to analyze the center of the unwrap image, because in our case all turnouts have a central rail. Hence we propose two techniques to find this rail: Template image matching and Histogram of oriented gradients (HOG). A. Template matching Template image matching [7] consist of finding a small part of an image which matches a template image. A basic problem of template matching is to determine the position of Fig. 6. At left the template image for center rail detection. At right an example of a center rail in bird’s-eye view Fig. 7. Auto cross correlation of the template. a given pattern in an image. In our case, the position of the center rail in the bird’s-eye view image is almost constant. Another problem is to determine how much the image and template’s brightness can vary due to lighting and exposure conditions. Therefore images have to be normalized first. This can be done at every step by subtracting the mean and dividing by the standard deviation. Given the center rail’s template t as shown in Fig. 6, the idea of the algorithm is to calculate normalized crosscorrelations of template and sub-image line per line. Then correlation is calculated as a sum of whole lines correlations. Fig. 7 shows the result of the template’s auto-cross correlation. This result is characterized by 3 peaks and 2 valleys. Taking as correlation feature the value of the center peak (cross-correlation coefficient), we can distinguish between images with and without turnout. But if we take the sum of these 3 peaks and the 2 valleys (equation 3) the discrimination power between two classes is bigger, as shown in figures 8 and 9. Hence, we can use this sum as correlation feature to determine the presence of a central rail (turnout) or not. Corr feature = X 3 i=1 peak + X 2 i=1 valley (3) B. HOG Histogram of Oriented Gradients [8] is a feature descriptor that gives local shape information often well described by the distribution of intensity gradients or edge directions. The technique counts occurrences of gradient orientation in localized portions of an image. Each pixel votes for an orientation according to the closest bin in the range. Our bins range is defined from 0 do 180 with 5 bins centred in [7.5; 50; 90; 115; 157.5]. We use just one cell for HOG algorithm because the bird’s-eye view has a reduced size and we only analyze a small area enclosed by the rails. The optimum 3x3 mask (equation 4) to obtain gradients is based in [9]. ✶✸✵ ❆♥♥❡①❡ ✳ P✉❜❧✐❝❛t✐♦♥sFig. 8. Maximum value of correlation peak for 50 images without turnout and 50 with turnout. Fig. 9. Correlation feature extracted for 50 images without turnout and 50 with turnout. M =   −0.112737 0 0.112737 −.274526 0 .274526 −0.112737 0 0.112737   (4) As expected, in presence of a turnout, HOG reveals vertical gradient of the center rail and the spatial distribution of bins is centered in the 3rd bin. Otherwise all bins have a similar amplitude. In Fig. 10 we can see the distribution of bin’s amplitudes for images with and without turnout. VI. PROPOSED APPROACH FOR TURNOUT CLASSIFICATION Facing and trailing are terms used to describe railway turnouts in respect to whether they are divergent or convergent respectively. When a train traverses a turnout in a facing direction, it may diverge onto either of the two routes. When travelled in a trailing direction, the two routes converge onto each other. With the purpose of classify turnouts we decided to analyse the whole bird’s eye view image using HOG. Knowing the distribution of gradients’ orientations in this image we can classify the turnout in 5 classes. 1) Arriving/Leaving a turnout (just central rail is presented) 2) Right-hand facing turnout. 3) Left-hand facing turnout. 4) Left-hand trailing turnout. 5) Right-hand trailing turnout. Our bins’ range is defined from 0 do 180 degrees with 5 bins centred in [25; 67.5; 90; 112.5; 155]. Because of unwrap characteristics image, the orientation of leaving/arrival rails in turnout have the same angle. In our case, we only kept the 3 central bins for our HOG feature. Analyzing the shape of turnouts in the bird’s-eye view we chose 12 non overlapped cells. As classifier we propose to use SVM multi class, building 5 binary classifiers using the method one-versus-all. Fig. 10. Distribution of HOG bin’s amplitude for 50 images without turnout and 50 with turnout. Fig. 11. Shape of 5 classes of turnout to classify in the bird’s-eye view image. Fig. 12. HOG(12 cells,3 central bins) for right-hand trailing turnout. Fig. 13. HOG(12 cells,3 central bins) for left-hand facing turnout. VII. RESULTS Our algorithm was tested using different videos of the metro line OrlyVal in a cloudy day. In these videos the train rolls over 6 different turnouts. As explained, it is necessary to extract rails before detecting turnouts. The mean of rails’ maximum distance detected is 25 meters. This distance is limited by the low resolution of the camera. Fitting results under different circumstances are shown in Fig. 14. Green lines present the fitted model for each rail and. All along the videos, rails extraction is done accurately. For turnout detection we use as a classifier a Support Vector Machine (SVM) trained with less than 1/3 of data base images. As feature to detect the presence of central switch we use a correlation feature and 3 bins of HOG [15 − 80; 80 − 100; 100 − 135] for each frame. This feature is the input to the SVM classifier. We dispose over a total of 5271 images for test and SVM gives the following results: a correction rate of 97.31%, a sensitivity of 92.6% and a specificity of 97.67%. Table I shows the confusion matrix. Most of false alarms are isolated, so a tracking over frames could improve detection results. The false negatives are produced exactly by images where rolling pads are merged with the center rail (center of turnout). Finally, for turnout ❆✳✸✳ ❆rt✐❝❧❡ ■❚❙❈ ✷✵✶✸ ✶✸✶TABLE I CONFUSION MATRIX FOR TURNOUT DETECTION Output Positive Negative Total Input Positive 526 32 568 Negative 110 4603 4713 Total 636 4635 5271 TABLE II CONFUSION MATRIX FOR TURNOUT CLASSIFICATION Output c.1 c.2 c.3 c.4 c.5 Total Input c.1 3504 0 1 0 1 3506 c.2 14 41 0 0 1 56 c.3 1 0 10 0 0 11 c.4 7 1 0 10 1 19 c.5 18 2 0 0 63 83 Total 3544 44 11 10 66 3675 classification we use a SVM multi class classifier, using the structure one versus all[10]. The feature a modified HOG of bird’s-eye view sub-image. We use less than 1/3 of turnout images to train SVM. As our database is reduced, we decided to add to class 1 all the frames without turnout as the global shape of pads is the same (2 vertical pads). In this case, we obtain a total correct rate of 98.72 percent for all classes. Table II shows its confusion matrix. Most of errors between turnout classes are due to double turnouts, where tracks merge and separate in the same turnout. Theses errors are isolated so as before, a tracking over frames can suppress them increasing the accuracy. In Fig. 14 we can see different turnout detection and its classification. Yellow lines represents the area analyzed in bird’s-eye view to detect and classify turnouts. VIII. CONCLUSION AND FUTURE WORKS In this paper a new generic and robust system for railway track and turnout detection and turnout classification is described. In our approach, an edge detection is used with simple geometric constraints provided by the rail characteristics. This leads to a reduction of the computational load and error rate in railway track detection. While the train is moving, just a section of the area between both railway tracks is analyzed to detect turnouts using its bird’s-eye view. Once a turnout is detected it is classified using HOG as input for a SVM multi-class classifier. Results show a very good performance in railway turnout detection and classification by using template matching and HOG. Future works will include: (i) the search of secondary rails when a facing turnout is found by changing the approach in RANSAC and (ii) the use of detected railway turnouts for topological trains mapping and localization. ACKNOWLEDGEMENTS Jorge Corsino Espino gratefully acknowledges the support of SIEMENS S.A.S. Infrastructure & Cities, Division Mobility and Logistics in Chatillon, specially to Philippe Forin, and the Mines ParisTech Robotic Center. Fig. 14. Results for rails extraction, turnout detection and classification under different situations. Class 1; Class 2; Class 3; Class 4; Class 5; and N one turnout REFERENCES [1] J. McCall and M. Trivedi, “Video-based lane estimation and tracking for driver assistance: survey, system, and evaluation,” Intelligent Transportation Systems, IEEE Transactions on, vol. 7, no. 1, pp. 20 –37, march 2006. [2] V. Kastrinaki, M. Zervakis, and K. Kalaitzakis, “A survey of video processing techniques for traffic applications,” Image and Vision Computing, vol. 21, pp. 359–381, 2003. [3] J. Espino and B. Stanciulescu, “Rail extraction technique using gradient information and a priori shape model,” in Intelligent Transportation Systems (ITSC), 2012 15th International IEEE Conference on, 2012, pp. 1132–1136. [4] J. Wohlfeil, “Vision based rail track and switch recognition for self-localization of trains in a rail network,” in Intelligent Vehicles Symposium (IV), 2011 IEEE, june 2011, pp. 1025 –1030. [5] M. A. Fischler and R. C. Bolles, “Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography,” Commun. ACM, vol. 24, no. 6, pp. 381–395, Jun. 1981. [6] A. Agarwal, C. V. Jawahar, and P. J. Narayanan, “A Survey of Planar Homography Estimation Techniques,” Centre for Visual Information Technology, International Institute of Information Technology, Hyderabad, India, Tech. Rep., 2005. [7] R. Brunelli, Template Matching Techniques in Computer Vision: Theory and Practice. Wiley Publishing, 2009. [8] N. Dalal and B. Triggs, “Histograms of oriented gradients for human detection,” in In CVPR, 2005, pp. 886–893. [9] S. Ando, “Consistent gradient operators,” Pattern Analysis and Machine Intelligence, IEEE Transactions on, vol. 22, no. 3, pp. 252–265, 2000. [10] C.-W. Hsu and C.-J. Lin, “A comparison of methods for multiclass support vector machines,” 2002. ✶✸✷ ❆♥♥❡①❡ ✳ P✉❜❧✐❝❛t✐♦♥s❇✐❜❧✐♦❣r❛♣❤✐❡ ❬❆❜r❛♠s♦♥ ❡t ❛❧✳ ✷✵✵✼❪ ❨♦t❛♠ ❆❜r❛♠s♦♥✱ ❇r✉♥♦ ❙t❡✉① ❡t ❍✐❝❤❛♠ ●❤♦r❛②❡❜✳ ❨❡t ❊✈❡♥ ❋❛st❡r ✭❨❊❋✮ r❡❛❧✲t✐♠❡ ♦❜❥❡❝t ❞❡t❡❝t✐♦♥✳ ■♥t❡r♥❛t✐♦♥❛❧ ❥♦✉r♥❛❧ ♦❢ ✐♥t❡❧❧✐❣❡♥t s②st❡♠s t❡❝❤♥♦❧♦❣✐❡s ❛♥❞ ❛♣♣❧✐❝❛t✐♦♥s✱ ✈♦❧✳ ✷✱ ♥♦✳ ✷✱ ♣❛❣❡s ✶✵✷✕✶✶✷✱ ✷✵✵✼✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✵✸✳✮ ❬❆❦s♦② ❡t ❛❧✳ ✷✵✵✹❪ ▼✳❙✳ ❆❦s♦②✱ ❖✳ ❚♦r❦✉❧ ❡t ■✳❍✳ ❈❡❞✐♠♦❣❧✉✳ ❆♥ ✐♥❞✉str✐❛❧ ✈✐s✉❛❧ ✐♥s♣❡❝t✐♦♥ s②st❡♠ t❤❛t ✉s❡s ✐♥❞✉❝t✐✈❡ ❧❡❛r♥✐♥❣✳ ❏♦✉r♥❛❧ ♦❢ ■♥t❡❧❧✐❣❡♥t ▼❛♥✉❢❛❝t✉r✐♥❣✱ ✈♦❧✳ ✶✺✱ ♥♦✳ ✹✱ ♣❛❣❡s ✺✻✾✕ ✺✼✹✱ ✷✵✵✹✳ ✭❈✐té ❡♥ ♣❛❣❡ ✼✽✳✮ ❬❆♥❞♦ ✷✵✵✵❪ ❙✳ ❆♥❞♦✳ ❈♦♥s✐st❡♥t ❣r❛❞✐❡♥t ♦♣❡r❛t♦rs✳ P❛tt❡r♥ ❆♥❛❧②s✐s ❛♥❞ ▼❛❝❤✐♥❡ ■♥t❡❧❧✐❣❡♥❝❡✱ ■❊❊❊ ❚r❛♥s❛❝t✐♦♥s ♦♥✱ ✈♦❧✳ ✷✷✱ ♥♦✳ ✸✱ ♣❛❣❡s ✷✺✷✕✷✻✺✱ ✷✵✵✵✳ ✭❈✐té ❡♥ ♣❛❣❡ ✽✷✳✮ ❬❆rr♦s♣✐❞❡ ❡t ❛❧✳ ✷✵✶✷❪ ❏♦♥ ❆rr♦s♣✐❞❡✱ ▲✉✐s ❙❛❧❣❛❞♦ ❡t ❏❛✈✐❡r ▼❛r✐♥❛s✳ ❍❖●✲❧✐❦❡ ❣r❛❞✐❡♥t✲❜❛s❡❞ ❞❡s❝r✐♣t♦r ❢♦r ✈✐s✉❛❧ ✈❡❤✐❝❧❡ ❞❡t❡❝t✐♦♥✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡s ❙②♠♣♦s✐✉♠ ✭■❱✮✱ ✷✵✶✷ ■❊❊❊✱ ♣❛❣❡s ✷✷✸✕✷✷✽✳ ■❊❊❊✱ ✷✵✶✷✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✵✻✳✮ ❬❇❛❧❧❛r❞ ✶✾✽✶❪ ❉❛♥❛ ❍ ❇❛❧❧❛r❞✳ ●❡♥❡r❛❧✐③✐♥❣ t❤❡ ❍♦✉❣❤ tr❛♥s❢♦r♠ t♦ ❞❡t❡❝t ❛r❜✐tr❛r② s❤❛♣❡s✳ P❛t✲ t❡r♥ r❡❝♦❣♥✐t✐♦♥✱ ✈♦❧✳ ✶✸✱ ♥♦✳ ✷✱ ♣❛❣❡s ✶✶✶✕✶✷✷✱ ✶✾✽✶✳ ✭❈✐té ❡♥ ♣❛❣❡s ✶✽✱ ✸✷✱ ✸✸ ❡t ✹✹✳✮ ❬❇❛r❝③❛❦ ❡t ❛❧✳ ✷✵✵✽❪ ❆♥❞r❡ ▲❈ ❇❛r❝③❛❦✱ ▼❛rt✐♥ ❏ ❏♦❤♥s♦♥ ❡t ❈❤r✐s ❍ ▼❡ss♦♠✳ ❊♠♣✐r✐❝❛❧ ❡✈❛✲ ❧✉❛t✐♦♥ ♦❢ ❛ ♥❡✇ str✉❝t✉r❡ ❢♦r ❛❞❛❜♦♦st✳ ■♥ Pr♦❝❡❡❞✐♥❣s ♦❢ t❤❡ ✷✵✵✽ ❆❈▼ s②♠♣♦s✐✉♠ ♦♥ ❆♣♣❧✐❡❞ ❝♦♠♣✉t✐♥❣✱ ♣❛❣❡s ✶✼✻✹✕✶✼✻✺✳ ❆❈▼✱ ✷✵✵✽✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✵✸✳✮ ❬❇❛r❣❡t♦♥ ✷✵✵✾❪ ❆❧❡①❛♥❞r❡ ❇❛r❣❡t♦♥✳ ❋✉s✐♦♥ ♠✉❧t✐✲s♦✉r❝❡s ♣♦✉r ❧✬✐♥t❡r♣rét❛t✐♦♥ ❞✬✉♥ ❡♥✈✐r♦♥♥❡✲ ♠❡♥t r♦✉t✐❡r✳ P❤❉ t❤❡s✐s✱ ➱❝♦❧❡ ◆❛t✐♦♥❛❧❡ ❙✉♣ér✐❡✉r❡ ❞❡s ▼✐♥❡s ❞❡ P❛r✐s✱ ✷✵✵✾✳ ✭❈✐té ❡♥ ♣❛❣❡s ✹✽ ❡t ✺✵✳✮ ❬❇❛② ❡t ❛❧✳ ✷✵✵✻❪ ❍❡r❜❡rt ❇❛②✱ ❚✐♥♥❡ ❚✉②t❡❧❛❛rs ❡t ▲✉❝ ❱❛♥ ●♦♦❧✳ ❙✉r❢ ✿ ❙♣❡❡❞❡❞ ✉♣ r♦❜✉st ❢❡❛t✉r❡s✳ ■♥ ❈♦♠♣✉t❡r ❱✐s✐♦♥✕❊❈❈❱ ✷✵✵✻✱ ♣❛❣❡s ✹✵✹✕✹✶✼✳ ❙♣r✐♥❣❡r✱ ✷✵✵✻✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✵✷✳✮ ❬❇❞✐r✐ ❡t ❛❧✳ ✷✵✵✾❪ ❚❛♦✉✜❦ ❇❞✐r✐✱ ❋❛❜✐❡♥ ▼♦✉t❛r❞❡✱ ◆✐❝♦❧❛s ❇♦✉r❞✐s ❡t ❇r✉♥♦ ❙t❡✉①✳ ❆❞❛❜♦♦st ✇✐t❤ ✧❑❡②♣♦✐♥t Pr❡s❡♥❝❡ ❋❡❛t✉r❡s✧ ❢♦r ❘❡❛❧✲❚✐♠❡ ❱❡❤✐❝❧❡ ❱✐s✉❛❧ ❉❡t❡❝t✐♦♥✳ ❈♦❘❘✱ ✈♦❧✳ ❛❜s✴✵✾✶✵✳✶✷✼✸✱ ✷✵✵✾✳ ✭❈✐té ❡♥ ♣❛❣❡s ✶✵✸ ❡t ✶✵✹✳✮ ❬❇❡rt♦③③✐ ❡t ❛❧✳ ✷✵✵✵❪ ▼❛ss✐♠♦ ❇❡rt♦③③✐✱ ❆❧❜❡rt♦ ❇r♦❣❣✐ ❡t ❆❧❡ss❛♥❞r❛ ❋❛s❝✐♦❧✐✳ ❱✐s✐♦♥✲❜❛s❡❞ ✐♥t❡❧✲ ❧✐❣❡♥t ✈❡❤✐❝❧❡s ❙t❛t❡ ♦❢ t❤❡ ❛rt ❛♥❞ ♣❡rs♣❡❝t✐✈❡s✳ ❘♦❜♦t✐❝s ❛♥❞ ❆✉t♦♥♦♠♦✉s s②st❡♠s✱ ✈♦❧✳ ✸✷✱ ♥♦✳ ✶✱ ♣❛❣❡s ✶✕✶✻✱ ✷✵✵✵✳ ✭❈✐té ❡♥ ♣❛❣❡s ✹✶ ❡t ✾✽✳✮ ❬❇❡✉❝❤❡r ✶✾✾✹❪ ❙❡r❣❡ ❇❡✉❝❤❡r✳ ❲❛t❡rs❤❡❞✱ ❤✐❡r❛r❝❤✐❝❛❧ s❡❣♠❡♥t❛t✐♦♥ ❛♥❞ ✇❛t❡r❢❛❧❧ ❛❧❣♦r✐t❤♠✳ ■♥ ▼❛t❤❡♠❛t✐❝❛❧ ♠♦r♣❤♦❧♦❣② ❛♥❞ ✐ts ❛♣♣❧✐❝❛t✐♦♥s t♦ ✐♠❛❣❡ ♣r♦❝❡ss✐♥❣✱ ♣❛❣❡s ✻✾✕✼✻✳ ❙♣r✐♥❣❡r✱ ✶✾✾✹✳ ✭❈✐té ❡♥ ♣❛❣❡ ✹✺✳✮ ❬❇❡✉❣✐♥ ✷✵✵✻❪ ❏✉❧✐❡ ❇❡✉❣✐♥✳ ❈♦♥tr✐❜✉t✐♦♥ à ❧✬é✈❛❧✉❛t✐♦♥ ❞❡ ❧❛ sé❝✉r✐té ❞❡s s②stè♠❡s ❝♦♠♣❧❡①❡s ❞❡ tr❛♥s♣♦rt ❣✉✐❞é✳ P❤❉ t❤❡s✐s✱ ❯♥✐✈❡rs✐té ❞❡ ❱❛❧❡♥❝✐❡♥♥❡s ❡t ❞✉ ❍❛✐♥❛✉t✲❈❛♠❜r❡s✐s✱ ✷✵✵✻✳ ✭❈✐té ❡♥ ♣❛❣❡ ✹✸✳✮ ❬❇♦s❝❤ ❡t ❛❧✳ ✷✵✵✼❪ ❆♥♥❛ ❇♦s❝❤✱ ❆♥❞r❡✇ ❩✐ss❡r♠❛♥ ❡t ❳❛✈✐❡r ▼✉♥♦③✳ ❘❡♣r❡s❡♥t✐♥❣ s❤❛♣❡ ✇✐t❤ ❛ s♣❛t✐❛❧ ♣②r❛♠✐❞ ❦❡r♥❡❧✳ ■♥ Pr♦❝❡❡❞✐♥❣s ♦❢ t❤❡ ✻t❤ ❆❈▼ ✐♥t❡r♥❛t✐♦♥❛❧ ❝♦♥❢❡r❡♥❝❡ ♦♥ ■♠❛❣❡ ❛♥❞ ✈✐❞❡♦ r❡tr✐❡✈❛❧✱ ♣❛❣❡s ✹✵✶✕✹✵✽✳ ❆❈▼✱ ✷✵✵✼✳ ✭❈✐té ❡♥ ♣❛❣❡ ✾✶✳✮ ❬❇♦✉❣✉❡t ✷✵✵✻❪ ❏❡❛♥✲❨✈❡s ❇♦✉❣✉❡t✳ ❈♦♠♣❧❡t❡ ❈❛♠❡r❛ ❈❛❧✐❜r❛t✐♦♥ ❚♦♦❧❜♦① ❢♦r ▼❛t❧❛❜✱ ✷✵✵✻✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✽✳✮ ❬❇♦✉❧❛❛ss❛❧ ✷✵✶✵❪ ❍❛❦✐♠ ❇♦✉❧❛❛ss❛❧✳ ❙❡❣♠❡♥t❛t✐♦♥ ❡t ♠♦❞é❧✐s❛t✐♦♥ ❣é♦♠étr✐q✉❡ ❞❡ ❢❛ç❛❞❡s ❞❡ ❜ât✐✲ ♠❡♥ts à ♣❛rt✐r ❞❡ r❡❧❡✈és ❧❛s❡r t❡rr❡str❡s✳ P❤❉ t❤❡s✐s✱ ❯♥✐✈❡rs✐té ❞❡ ❙tr❛s❜♦✉r❣✱ ✷✵✶✵✳ ✭❈✐té ❡♥ ♣❛❣❡ ✻✷✳✮ ❬❇r♦❣❣✐ ❡t ❛❧✳ ✷✵✵✹❪ ❆✳ ❇r♦❣❣✐✱ P✳ ❈❡rr✐ ❡t P✳❈✳ ❆♥t♦♥❡❧❧♦✳ ▼✉❧t✐✲r❡s♦❧✉t✐♦♥ ✈❡❤✐❝❧❡ ❞❡t❡❝t✐♦♥ ✉s✐♥❣ ❛rt✐✜❝✐❛❧ ✈✐s✐♦♥✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡s ❙②♠♣♦s✐✉♠✱ ✷✵✵✹ ■❊❊❊✱ ♣❛❣❡s ✸✶✵✕✸✶✹✱ ❏✉♥❡ ✷✵✵✹✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✵✻✳✮✶✸✹ ❇✐❜❧✐♦❣r❛♣❤✐❡ ❬❇r♦❣❣✐ ✶✾✾✺❪ ❆❧❜❡rt♦ ❇r♦❣❣✐✳ ❘♦❜✉st r❡❛❧✲t✐♠❡ ❧❛♥❡ ❛♥❞ r♦❛❞ ❞❡t❡❝t✐♦♥ ✐♥ ❝r✐t✐❝❛❧ s❤❛❞♦✇ ❝♦♥❞✐t✐♦♥s✳ ■♥ ❈♦♠♣✉t❡r ❱✐s✐♦♥✱ ✶✾✾✺✳ Pr♦❝❡❡❞✐♥❣s✳✱ ■♥t❡r♥❛t✐♦♥❛❧ ❙②♠♣♦s✐✉♠ ♦♥✱ ♣❛❣❡s ✸✺✸✕✸✺✽✳ ■❊❊❊✱ ✶✾✾✺✳ ✭❈✐té ❡♥ ♣❛❣❡ ✹✶✳✮ ❬❇r✉♥❡❧❧✐ ✷✵✵✾❪ ❘♦❜❡rt♦ ❇r✉♥❡❧❧✐✳ ❚❡♠♣❧❛t❡ ♠❛t❝❤✐♥❣ t❡❝❤♥✐q✉❡s ✐♥ ❝♦♠♣✉t❡r ✈✐s✐♦♥ ✿ ❚❤❡♦r② ❛♥❞ ♣r❛❝t✐❝❡✳ ❲✐❧❡② P✉❜❧✐s❤✐♥❣✱ ✷✵✵✾✳ ✭❈✐té ❡♥ ♣❛❣❡ ✼✽✳✮ ❬❈❛♥♥② ✶✾✽✻❪ ❏♦❤♥ ❈❛♥♥②✳ ❆ ❝♦♠♣✉t❛t✐♦♥❛❧ ❛♣♣r♦❛❝❤ t♦ ❡❞❣❡ ❞❡t❡❝t✐♦♥✳ P❛tt❡r♥ ❆♥❛❧②s✐s ❛♥❞ ▼❛❝❤✐♥❡ ■♥t❡❧❧✐❣❡♥❝❡✱ ■❊❊❊ ❚r❛♥s❛❝t✐♦♥s ♦♥✱ ♥♦✳ ✻✱ ♣❛❣❡s ✻✼✾✕✻✾✽✱ ✶✾✽✻✳ ✭❈✐té ❡♥ ♣❛❣❡s ✸✷ ❡t ✹✸✳✮ ❬❈❛r❜♦♥❡tt♦ ❡t ❛❧✳ ✷✵✵✽❪ P❡t❡r ❈❛r❜♦♥❡tt♦✱ ●②✉r✐ ❉♦r❦ó✱ ❈♦r❞❡❧✐❛ ❙❝❤♠✐❞✱ ❍❡♥❞r✐❦ ❑ü❝❦ ❡t ◆❛♥❞♦ ❉❡ ❋r❡✐t❛s✳ ▲❡❛r♥✐♥❣ t♦ r❡❝♦❣♥✐③❡ ♦❜❥❡❝ts ✇✐t❤ ❧✐tt❧❡ s✉♣❡r✈✐s✐♦♥✳ ■♥t❡r♥❛t✐♦♥❛❧ ❏♦✉r♥❛❧ ♦❢ ❈♦♠♣✉t❡r ❱✐s✐♦♥✱ ✈♦❧✳ ✼✼✱ ♥♦✳ ✶✲✸✱ ♣❛❣❡s ✷✶✾✕✷✸✼✱ ✷✵✵✽✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✵✵✳✮ ❬❈❡rr✐ ✫ ●r✐s❧❡r✐ ✷✵✵✺❪ P✳ ❈❡rr✐ ❡t P✳ ●r✐s❧❡r✐✳ ❋r❡❡ ❙♣❛❝❡ ❉❡t❡❝t✐♦♥ ♦♥ ❍✐❣❤✇❛②s ✉s✐♥❣ ❚✐♠❡ ❈♦rr❡✲ ❧❛t✐♦♥ ❜❡t✇❡❡♥ ❙t❛❜✐❧✐③❡❞ ❙✉❜✲♣✐①❡❧ ♣r❡❝✐s✐♦♥ ■P▼ ■♠❛❣❡s✳ ■♥ ❘♦❜♦t✐❝s ❛♥❞ ❆✉t♦♠❛t✐♦♥✱ ✷✵✵✺✳ ■❈❘❆ ✷✵✵✺✳ Pr♦❝❡❡❞✐♥❣s ♦❢ t❤❡ ✷✵✵✺ ■❊❊❊ ■♥t❡r♥❛t✐♦♥❛❧ ❈♦♥❢❡r❡♥❝❡ ♦♥✱ ♣❛❣❡s ✷✷✷✸✕✷✷✷✽✱ ❆♣r✐❧ ✷✵✵✺✳ ✭❈✐té ❡♥ ♣❛❣❡ ✹✻✳✮ ❬❈❤❛♥❣ ✫ ▲✐♥ ✷✵✶✶❪ ❈❤✐❤✲❈❤✉♥❣ ❈❤❛♥❣ ❡t ❈❤✐❤✲❏❡♥ ▲✐♥✳ ▲■❇❙❱▼ ✿ ❛ ❧✐❜r❛r② ❢♦r s✉♣♣♦rt ✈❡❝t♦r ♠❛❝❤✐♥❡s✳ ❆❈▼ ❚r❛♥s❛❝t✐♦♥s ♦♥ ■♥t❡❧❧✐❣❡♥t ❙②st❡♠s ❛♥❞ ❚❡❝❤♥♦❧♦❣② ✭❚■❙❚✮✱ ✈♦❧✳ ✷✱ ♥♦✳ ✸✱ ♣❛❣❡ ✷✼✱ ✷✵✶✶✳ ✭❈✐té ❡♥ ♣❛❣❡ ✽✹✳✮ ❬❈❤❛♥t♦♥ ✷✵✵✽❪ ❘✐❝❤❛r❞ ❈❤❛♥t♦♥✳ ❚r❛✐♥ ✈✐❞❡♦ ♣♦s✐t✐♦♥✐♥❣✳ ■♥st✐t✉t✐♦♥ ♦❢ ❘❛✐❧✇❛② ❙✐❣♥❛❧ ❊♥❣✐♥❡❡rs ❆❙P❊❈❚✱ ✷✵✵✽✳ ✭❈✐té ❡♥ ♣❛❣❡ ✻✽✳✮ ❬❈❤❡♥ ✫ ❲❛♥❣ ✷✵✵✻❪ ◗✐❛♥❣ ❈❤❡♥ ❡t ❍♦♥❣ ❲❛♥❣✳ ❆ ❘❡❛❧✲t✐♠❡ ▲❛♥❡ ❉❡t❡❝t✐♦♥ ❆❧❣♦r✐t❤♠ ❇❛s❡❞ ♦♥ ❛ ❍②♣❡r❜♦❧❛✲P❛✐r ▼♦❞❡❧✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡s ❙②♠♣♦s✐✉♠✱ ✷✵✵✻ ■❊❊❊✱ ♣❛❣❡s ✺✶✵✕✺✶✺✱ ✷✵✵✻✳ ✭❈✐té ❡♥ ♣❛❣❡ ✺✸✳✮ ❬❈❤♦✐ ❡t ❛❧✳ ✷✵✶✷❪ ❍✲❈ ❈❤♦✐✱ ❏✲▼ P❛r❦✱ ❲✲❙ ❈❤♦✐ ❡t ❙✲❨ ❖❤✳ ❱✐s✐♦♥✲❜❛s❡❞ ❢✉s✐♦♥ ♦❢ r♦❜✉st ❧❛♥❡ tr❛❝❦✐♥❣ ❛♥❞ ❢♦r✇❛r❞ ✈❡❤✐❝❧❡ ❞❡t❡❝t✐♦♥ ✐♥ ❛ r❡❛❧ ❞r✐✈✐♥❣ ❡♥✈✐r♦♥♠❡♥t✳ ■♥t❡r♥❛t✐♦♥❛❧ ❏♦✉r♥❛❧ ♦❢ ❆✉t♦♠♦t✐✈❡ ❚❡❝❤♥♦❧♦❣②✱ ✈♦❧✳ ✶✸✱ ♥♦✳ ✹✱ ♣❛❣❡s ✻✺✸✕✻✻✾✱ ✷✵✶✷✳ ✭❈✐té ❡♥ ♣❛❣❡s ✺✸ ❡t ✺✼✳✮ ❬❉❛❧❛❧ ✫ ❚r✐❣❣s ✷✵✵✺❪ ◆❛✈♥❡❡t ❉❛❧❛❧ ❡t ❇✐❧❧ ❚r✐❣❣s✳ ❍✐st♦❣r❛♠s ♦❢ ❖r✐❡♥t❡❞ ●r❛❞✐❡♥ts ❢♦r ❍✉♠❛♥ ❉❡t❡❝t✐♦♥✳ ■♥ ■♥ ❈❱P❘✱ ♣❛❣❡s ✽✽✻✕✽✾✸✱ ✷✵✵✺✳ ✭❈✐té ❡♥ ♣❛❣❡s ✽✶✱ ✽✷✱ ✾✵ ❡t ✾✶✳✮ ❬❉❡❧❛❝♦✉r ❡t ❛❧✳ ✷✵✵✺❪ ❍ ❉❡❧❛❝♦✉r✱ ❆ ❙❡r✈♦♥♥❡t✱ ❆ P❡rr♦t✱ ❏❋ ❱✐❣❡③③✐ ❡t ❏▼ ❘❛♠✐r❡③✳ ▲❛ ❝♦✉r❜❡ ❘❖❈ ✭r❡❝❡✐✈❡r ♦♣❡r❛t✐♥❣ ❝❤❛r❛❝t❡r✐st✐❝✮ ✿ ♣r✐♥❝✐♣❡s ❡t ♣r✐♥❝✐♣❛❧❡s ❛♣♣❧✐❝❛t✐♦♥s ❡♥ ❜✐♦❧♦❣✐❡ ❝❧✐♥✐q✉❡✳ ■♥ ❆♥♥❛❧❡s ❞❡ ❜✐♦❧♦❣✐❡ ❝❧✐♥✐q✉❡✱ ✈♦❧✉♠❡ ✻✸✱ ♣❛❣❡s ✶✹✺✕✶✺✹✱ ✷✵✵✺✳ ✭❈✐té ❡♥ ♣❛❣❡ ✽✺✳✮ ❬❉❤❛r♣✉r❡ ❡t ❛❧✳ ✷✵✶✸❪ ❏❛②❞❡♦ ❑✳ ❉❤❛r♣✉r❡✱ ▼✳ ❇✳ P♦t❞❛r ❡t ▼❛♥♦❥ P❛♥❞②❛✳ ❆rt✐❝❧❡ ✿ ❈♦✉♥t✐♥❣ ❖❜❥❡❝ts ✉s✐♥❣ ❈♦♥✈♦❧✉t✐♦♥ ❜❛s❡❞ P❛tt❡r♥ ▼❛t❝❤✐♥❣ ❚❡❝❤♥✐q✉❡✳ ■♥t❡r♥❛t✐♦♥❛❧ ❏♦✉r♥❛❧ ♦❢ ❆♣✲ ♣❧✐❡❞ ■♥❢♦r♠❛t✐♦♥ ❙②st❡♠s✱ ✈♦❧✳ ✺✱ ♥♦✳ ✽✱ ♣❛❣❡s ✶✹✕✶✾✱ ❏✉♥❡ ✷✵✶✸✳ P✉❜❧✐s❤❡❞ ❜② ❋♦✉♥❞❛t✐♦♥ ♦❢ ❈♦♠♣✉t❡r ❙❝✐❡♥❝❡✱ ◆❡✇ ❨♦r❦✱ ❯❙❆✳ ✭❈✐té ❡♥ ♣❛❣❡ ✼✽✳✮ ❬❉♦♠✐♥✐q✉❡ ✫ ❊r✐❝ ✶✾✾✽❪ ▼❡✐③❡ ❉♦♠✐♥✐q✉❡ ❡t ❇r❛ss❛rt ❊r✐❝✳ ❈❛❧✐❜r❛t✐♦♥ ❞✉ ❝❛♣t❡✉r ❞❡ ✈✐s✐♦♥ ♦♠✲ ♥✐❞✐r❡❝t✐♦♥♥❡❧❧❡ ✿ ❙❨❈▲❖P✳ ■♥ ❉✐♣❧♦♠❡ ❞✬❊t✉❞❡s ❆♣♣r♦❢♦♥❞✐❡s✱ ❈♦♥tr♦❧❡ ❞❡s ❙②stè♠❡s✳ ❯♥✐✈❡rs✐té ❞❡ ❈♦♠♣✐è❣♥❡✱ ✶✾✾✽✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✹✳✮ ❬❉♦♦③❡ ❡t ❛❧✳ ✶✾✾✽❪ ❉✳ ❉♦♦③❡✱ ▲✳ ❑❤♦✉❞♦✉r ❡t ❈✳ ❱✐❡r❡♥✳ ❖❜st❛❝❧❡ ❞❡t❡❝t✐♦♥ ✐♥ ❢r♦♥t ♦❢ ❛✉t♦♠❛t✐❝ tr❛✐♥s ❜② ❧✐♥❡❛r st❡r❡♦ ✈✐s✐♦♥✳ ■♥ ❈♦♠♣✉t❡rs ✐♥ ❘❛✐❧✇❛②s ❱■✱ ✈♦❧✉♠❡ ❚❤❡ ❇✉✐❧t ❊♥✈✐r♦♥♠❡♥t ✈♦❧✉♠❡ ✸✼✳ ❈✳ ❆✳ ❇❘❊❇❇■❆✱ ❲❡ss❡① ■♥st✐t✉t❡ ♦❢ ❚❡❝❤♥♦❧♦❣②✱ ❯♥✐t❡❞ ❑✐♥❣❞♦♠✒ ✶✾✾✽✳ ✭❈✐té ❡♥ ♣❛❣❡s ✶✼ ❡t ✾✼✳✮ ❬❊s♣✐♥♦ ❡t ❛❧✳ ✷✵✶✶❪ ❏♦r❣❡ ❈♦rs✐♥♦ ❊s♣✐♥♦✱ ❇r✉♥♦ ❙t❡✉① ❡t ❖❊ ❍❛♠③❛♦✉✐✳ ❙❛❢❡ ♥❛✈✐❣❛t✐♥❣ s②st❡♠ ❢♦r ✐♥❞♦♦r ❡♥✈✐r♦♥♠❡♥ts✳ ■♥ ❆✉t♦♠❛t✐♦♥✱ ❘♦❜♦t✐❝s ❛♥❞ ❆♣♣❧✐❝❛t✐♦♥s ✭■❈❆❘❆✮✱ ✷✵✶✶ ✺t❤ ■♥t❡r♥❛t✐♦♥❛❧ ❈♦♥❢❡r❡♥❝❡ ♦♥✱ ♣❛❣❡s ✹✶✾✕✹✷✸✳ ■❊❊❊✱ ✷✵✶✶✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✵✳✮ ❬❊✉r♦♣é❡♥❡ ✷✵✵✸❛❪ ❈♦♠♠✐ss✐♦♥ ❊✉r♦♣é❡♥❡✳ ◆♦r♠❡ ❊✉r♦♣é❡♥❡ ◆❋ ❊◆ ✺✵✶✷✻ ❆♣♣❧✐❝❛t✐♦♥s ❢❡rr♦✲ ✈✐❛✐r❡s ✲ ❙♣é❝✐✜❝❛t✐♦♥ ❡t ❞é♠♦♥str❛t✐♦♥ ❞❡ ❧❛ ✜❛❜✐❧✐té✱ ❞❡ ❧❛ ❞✐s♣♦♥✐❜✐❧✐té✱ ❞❡ ❧❛ ♠❛✐♥t❡♥❛❜✐❧✐té ❡t ❞❡ ❧❛ sé❝✉r✐té✱ ▼❛✐ ✷✵✵✸✳ ✭❈✐té ❡♥ ♣❛❣❡ ✹✳✮❇✐❜❧✐♦❣r❛♣❤✐❡ ✶✸✺ ❬❊✉r♦♣é❡♥❡ ✷✵✵✸❜❪ ❈♦♠♠✐ss✐♦♥ ❊✉r♦♣é❡♥❡✳ ◆♦r♠❡ ❊✉r♦♣é❡♥❡ ◆❋ ◆❊ ✺✵✶✷✾ ❆♣♣❧✐❝❛t✐♦♥ ❋❡rr♦✲ ✈✐❛✐r❡s ❙②sté♠❡s ❞❡ s✐❣♥❛❧✐s❛t✐♦♥✱ ❞❡ té❧é❝♦♠♠✉♥✐❝❛t✐♦♥ ❡t ❞❡ ❚r❛✐t❡♠❡♥t ❙②stè♠❡s é❧❡❝tr♦✲ ♥✐q✉❡s ❞❡ sé❝✉r✐té ♣♦✉r ❧❛ s✐❣♥❛❧✐s❛t✐♦♥✱ ▼❛✐ ✷✵✵✸✳ ✭❈✐té ❡♥ ♣❛❣❡ ✹✳✮ ❬❊✈❡r✐♥❣❤❛♠ ❡t ❛❧✳ ❪ ▼✳ ❊✈❡r✐♥❣❤❛♠✱ ▲✳ ❱❛♥ ●♦♦❧✱ ❈✳ ❑✳ ■✳ ❲✐❧❧✐❛♠s✱ ❏✳ ❲✐♥♥ ❡t ❆✳ ❩✐ss❡r♠❛♥✳ ❚❤❡ P❆❙❈❆▲ ❱✐s✉❛❧ ❖❜❥❡❝t ❈❧❛ss❡s ❈❤❛❧❧❡♥❣❡ ✷✵✶✷ ✭❱❖❈✷✵✶✷✮ ❘❡s✉❧ts✳ ❤tt♣ ✿✴✴✇✇✇✳♣❛s❝❛❧✲ ♥❡t✇♦r❦✳♦r❣✴❝❤❛❧❧❡♥❣❡s✴❱❖❈✴✈♦❝✷✵✶✷✴✇♦r❦s❤♦♣✴✐♥❞❡①✳❤t♠❧✳ ✭❈✐té ❡♥ ♣❛❣❡s ✶✵✵ ❡t ✶✵✶✳✮ ❬❋✐s❝❤❧❡r ✫ ❇♦❧❧❡s ✶✾✽✶❪ ▼❛rt✐♥ ❆✳ ❋✐s❝❤❧❡r ❡t ❘♦❜❡rt ❈✳ ❇♦❧❧❡s✳ ❘❛♥❞♦♠ s❛♠♣❧❡ ❝♦♥s❡♥s✉s ✿ ❛ ♣❛r❛❞✐❣♠ ❢♦r ♠♦❞❡❧ ✜tt✐♥❣ ✇✐t❤ ❛♣♣❧✐❝❛t✐♦♥s t♦ ✐♠❛❣❡ ❛♥❛❧②s✐s ❛♥❞ ❛✉t♦♠❛t❡❞ ❝❛rt♦❣r❛♣❤②✳ ❈♦♠♠✉♥✳ ❆❈▼✱ ✈♦❧✳ ✷✹✱ ♥♦✳ ✻✱ ♣❛❣❡s ✸✽✶✕✸✾✺✱ ❥✉♥ ✶✾✽✶✳ ✭❈✐té ❡♥ ♣❛❣❡ ✺✼✳✮ ❬❋r✐ts❝❤ ❡t ❛❧✳ ✷✵✶✸❪ ❏❛♥♥✐❦ ❋r✐ts❝❤✱ ❚♦❜✐❛s ❑✉❡❤♥❧ ❡t ❆♥❞r❡❛s ●❡✐❣❡r✳ ❆ ◆❡✇ P❡r❢♦r♠❛♥❝❡ ▼❡❛s✉r❡ ❛♥❞ ❊✈❛❧✉❛t✐♦♥ ❇❡♥❝❤♠❛r❦ ❢♦r ❘♦❛❞ ❉❡t❡❝t✐♦♥ ❆❧❣♦r✐t❤♠s✳ ■♥ ■♥t❡r♥❛t✐♦♥❛❧ ❈♦♥❢❡r❡♥❝❡ ♦♥ ■♥t❡❧❧✐❣❡♥t ❚r❛♥s♣♦rt❛t✐♦♥ ❙②st❡♠s ✭■❚❙❈✮✱ ✷✵✶✸✳ ✭❈✐té ❡♥ ♣❛❣❡ ✸✾✳✮ ❬●❛♥❣♥❡t ❡t ❛❧✳ ✶✾✽✹❪ ▼✐❝❤❡❧ ●❛♥❣♥❡t✱ ❉✐❞✐❡r P❡r♥② ❡t P❤✐❧✐♣♣❡ ❈♦✉❡✐❣♥♦✉①✳ P❡rs♣❡❝t✐✈❡ ♠❛♣♣✐♥❣ ♦❢ ♣❧❛♥❛r t❡①t✉r❡s✳ ❈♦♠♣✉t❡rs ✫ ●r❛♣❤✐❝s✱ ✈♦❧✳ ✽✱ ♥♦✳ ✷✱ ♣❛❣❡s ✶✶✺✕✶✷✸✱ ✶✾✽✹✳ ✭❈✐té ❡♥ ♣❛❣❡s ✶✻ ❡t ✹✸✳✮ ❬●❛r❝✐❛ ❡t ❛❧✳ ✷✵✵✺❪ ❏✳❏✳ ●❛r❝✐❛✱ ❈✳ ▲♦s❛❞❛✱ ❋✳ ❊s♣✐♥♦s❛✱ ❏✳ ❯r❡♥❛✱ ❆✳ ❍❡r♥❛♥❞❡③✱ ▼✳ ▼❛③♦✱ ❈✳ ❉❡ ▼❛r③✐❛♥✐✱ ❆✳ ❏✐♠❡♥❡③✱ ❊✳ ❇✉❡♥♦ ❡t ❋✳ ❆❧✈❛r❡③✳ ❉❡❞✐❝❛t❡❞ s♠❛rt ■❘ ❜❛rr✐❡r ❢♦r ♦❜st❛❝❧❡ ❞❡t❡❝t✐♦♥ ✐♥ r❛✐❧✇❛②s✳ ■♥ ■♥❞✉str✐❛❧ ❊❧❡❝tr♦♥✐❝s ❙♦❝✐❡t②✱ ✷✵✵✺✳ ■❊❈❖◆ ✷✵✵✺✳ ✸✶st ❆♥♥✉❛❧ ❈♦♥❢❡r❡♥❝❡ ♦❢ ■❊❊❊✱ ♣❛❣❡ ✻✱ ✷✵✵✺✳ ✭❈✐té ❡♥ ♣❛❣❡ ✸✳✮ ❬●❡✐st❧❡r ✫ ❇♦❤r✐♥❣❡r ✷✵✵✹❪ ❆ ●❡✐st❧❡r ❡t ❋ ❇♦❤r✐♥❣❡r✳ ❉❡t❡❝t✐♦♥ ❛♥❞ ❝❧❛ss✐✜❝❛t✐♦♥ ♦❢ t✉r♥♦✉ts ✉s✐♥❣ ❡❞❞② ❝✉rr❡♥t s❡♥s♦rs✳ P✉❜❧✐❝❛t✐♦♥ ♦❢ ✿ ❲■❚ Pr❡ss✱ ✷✵✵✹✳ ✭❈✐té ❡♥ ♣❛❣❡ ✼✸✳✮ ❬●s❝❤✇❛♥❞t♥❡r ❡t ❛❧✳ ✷✵✶✵❪ ▼✐❝❤❛❡❧ ●s❝❤✇❛♥❞t♥❡r✱ ❲♦❧❢❣❛♥❣ Pr❡❡ ❡t ❆♥❞r❡❛s ❯❤❧✳ ❚r❛❝❦ ❞❡t❡❝t✐♦♥ ❢♦r ❛✉t♦♥♦♠♦✉s tr❛✐♥s✳ ■♥ ❆❞✈❛♥❝❡s ✐♥ ❱✐s✉❛❧ ❈♦♠♣✉t✐♥❣✱ ♣❛❣❡s ✶✾✕✷✽✳ ❙♣r✐♥❣❡r✱ ✷✵✶✵✳ ✭❈✐té ❡♥ ♣❛❣❡s ✹✷✱ ✹✸✱ ✹✽ ❡t ✺✶✳✮ ❬❍❛♠❞♦✉♥ ✷✵✶✵❪ ❖♠❛r ❍❛♠❞♦✉♥✳ ❉ét❡❝t✐♦♥ ❡t ré✲✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡ ♣✐ét♦♥s ♣❛r ♣♦✐♥ts ❞✬✐♥térêt ❡♥tr❡ ❝❛♠ér❛s ❞✐s❥♦✐♥t❡s✳ P❤❉ t❤❡s✐s✱ ➱❝♦❧❡ ♥❛t✐♦♥❛❧❡ s✉♣ér✐❡✉r❡ ❞❡s ♠✐♥❡s ❞❡ P❛r✐s✱ ✷✵✶✵✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✵✷✳✮ ❬❍❛♥❝♦❝❦ ❡t ❛❧✳ ✶✾✾✽❪ ❏♦❤♥ ❍❛♥❝♦❝❦✱ ▼❛rt✐❛❧ ❍❡❜❡rt ❡t ❈❤✉❝❦ ❚❤♦r♣❡✳ ▲❛s❡r ✐♥t❡♥s✐t②✲❜❛s❡❞ ♦❜s✲ t❛❝❧❡ ❞❡t❡❝t✐♦♥✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❘♦❜♦ts ❛♥❞ ❙②st❡♠s✱ ✶✾✾✽✳ Pr♦❝❡❡❞✐♥❣s✳✱ ✶✾✾✽ ■❊❊❊✴❘❙❏ ■♥t❡r♥❛t✐♦♥❛❧ ❈♦♥❢❡r❡♥❝❡ ♦♥✱ ✈♦❧✉♠❡ ✸✱ ♣❛❣❡s ✶✺✹✶✕✶✺✹✻✳ ■❊❊❊✱ ✶✾✾✽✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✾✳✮ ❬❍❛rr✐s ✫ ❙t❡♣❤❡♥s ✶✾✽✽❪ ❈❤r✐s ❍❛rr✐s ❡t ▼✐❦❡ ❙t❡♣❤❡♥s✳ ❆ ❝♦♠❜✐♥❡❞ ❝♦r♥❡r ❛♥❞ ❡❞❣❡ ❞❡t❡❝t♦r✳ ■♥ ❆❧✈❡② ✈✐s✐♦♥ ❝♦♥❢❡r❡♥❝❡✱ ✈♦❧✉♠❡ ✶✺✱ ♣❛❣❡ ✺✵✳ ▼❛♥❝❤❡st❡r✱ ❯❑✱ ✶✾✽✽✳ ✭❈✐té ❡♥ ♣❛❣❡s ✻✼ ❡t ✶✵✷✳✮ ❬❍❛r③❛❧❧❛❤ ✷✵✶✶❪ ❍❡❞✐ ❍❛r③❛❧❧❛❤✳ ❈♦♥tr✐❜✉t✐♦♥ à ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❡t à ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❞ ❄♦❜❥❡ts ❞❛♥s ❧❡s ✐♠❛❣❡s✳ P❤❉ t❤❡s✐s✱ ❯♥✐✈❡rs✐té ❞❡ ❈❛❡♥✱ ✷✵✶✶✳ ✭❈✐té ❡♥ ♣❛❣❡s ✶✵✸ ❡t ✶✵✻✳✮ ❬❍❛②❦✐♥ ✶✾✾✹❪ ❙✐♠♦♥ ❍❛②❦✐♥✳ ◆❡✉r❛❧ ♥❡t✇♦r❦s ✿ ❛ ❝♦♠♣r❡❤❡♥s✐✈❡ ❢♦✉♥❞❛t✐♦♥✳ Pr❡♥t✐❝❡ ❍❛❧❧ P❚❘✱ ✶✾✾✹✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✼✳✮ ❬❍s✉ ✫ ▲✐♥ ✷✵✵✷❪ ❈❤✐❤✲❲❡✐ ❍s✉ ❡t ❈❤✐❤✲❏❡♥ ▲✐♥✳ ❆ ❈♦♠♣❛r✐s♦♥ ♦❢ ▼❡t❤♦❞s ❢♦r ▼✉❧t✐❝❧❛ss ❙✉♣♣♦rt ❱❡❝t♦r ▼❛❝❤✐♥❡s✱ ✷✵✵✷✳ ✭❈✐té ❡♥ ♣❛❣❡ ✾✵✳✮ ❬❏❛③❛②❡r✐ ❡t ❛❧✳ ✷✵✶✶❪ ❆✳ ❏❛③❛②❡r✐✱ ❍♦♥❣②✉❛♥ ❈❛✐✱ ❏✐❛♥❣ ❨✉ ❩❤❡♥❣ ❡t ▼✳ ❚✉❝❡r②❛♥✳ ❱❡❤✐❝❧❡ ❉❡t❡❝t✐♦♥ ❛♥❞ ❚r❛❝❦✐♥❣ ✐♥ ❈❛r ❱✐❞❡♦ ❇❛s❡❞ ♦♥ ▼♦t✐♦♥ ▼♦❞❡❧✳ ■♥t❡❧❧✐❣❡♥t ❚r❛♥s♣♦rt❛t✐♦♥ ❙②st❡♠s✱ ■❊❊❊ ❚r❛♥s❛❝t✐♦♥s ♦♥✱ ✈♦❧✳ ✶✷✱ ♥♦✳ ✷✱ ♣❛❣❡s ✺✽✸✕✺✾✺✱ ❏✉♥❡ ✷✵✶✶✳ ✭❈✐té ❡♥ ♣❛❣❡ ✾✽✳✮ ❬❏✉♥❣ ✫ ❑❡❧❜❡r ✷✵✵✹❪ ❈❧❛✉❞✐♦ ❘♦s✐t♦ ❏✉♥❣ ❡t ❈❤r✐st✐❛♥ ❘♦❜❡rt♦ ❑❡❧❜❡r✳ ❆ r♦❜✉st ❧✐♥❡❛r✲♣❛r❛❜♦❧✐❝ ♠♦❞❡❧ ❢♦r ❧❛♥❡ ❢♦❧❧♦✇✐♥❣✳ ■♥ ❈♦♠♣✉t❡r ●r❛♣❤✐❝s ❛♥❞ ■♠❛❣❡ Pr♦❝❡ss✐♥❣✱ ✷✵✵✹✳ Pr♦❝❡❡❞✐♥❣s✳ ✶✼t❤ ❇r❛③✐❧✐❛♥ ❙②♠♣♦s✐✉♠ ♦♥✱ ♣❛❣❡s ✼✷✕✼✾✳ ■❊❊❊✱ ✷✵✵✹✳ ✭❈✐té ❡♥ ♣❛❣❡ ✺✼✳✮ ❬❑❛s❦❡ ❡t ❛❧✳ ✶✾✾✼❪ ❆①❡❧ ❑❛s❦❡✱ ❉✐❞✐❡r ❲♦❧❢ ❡t ❘❡♥❡ ❍✉ss♦♥✳ ▲❛♥❡ ❜♦✉♥❞❛r② ❞❡t❡❝t✐♦♥ ✉s✐♥❣ st❛✲ t✐st✐❝❛❧ ❝r✐t❡r✐❛✳ ■♥ ■♥t❡r♥❛t✐♦♥❛❧ ❈♦♥❢❡r❡♥❝❡ ♦♥ ◗✉❛❧✐t② ❜② ❆rt✐✜❝✐❛❧ ❱✐s✐♦♥✱ ◗❈❆❱✾✱ ♣❛❣❡s ✷✽✕✸✵✳ ❈✐t❡s❡❡r✱ ✶✾✾✼✳ ✭❈✐té ❡♥ ♣❛❣❡ ✺✼✳✮✶✸✻ ❇✐❜❧✐♦❣r❛♣❤✐❡ ❬❑❛ss ❡t ❛❧✳ ✶✾✽✽❪ ▼✐❝❤❛❡❧ ❑❛ss✱ ❆♥❞r❡✇ ❲✐t❦✐♥ ❡t ❉❡♠❡tr✐ ❚❡r③♦♣♦✉❧♦s✳ ❙♥❛❦❡s ✿ ❆❝t✐✈❡ ❝♦♥t♦✉r ♠♦❞❡❧s✳ ■♥t❡r♥❛t✐♦♥❛❧ ❥♦✉r♥❛❧ ♦❢ ❝♦♠♣✉t❡r ✈✐s✐♦♥✱ ✈♦❧✳ ✶✱ ♥♦✳ ✹✱ ♣❛❣❡s ✸✷✶✕✸✸✶✱ ✶✾✽✽✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✼✳✮ ❬❑❛✇❛♠✉r❛ ❡t ❛❧✳ ✷✵✶✶❪ ❆✳ ❑❛✇❛♠✉r❛✱ ❨✳ ❨♦s❤✐♠✐ts✉✱ ❑✳ ❑❛❥✐t❛♥✐✱ ❚✳ ◆❛✐t♦✱ ❑✳ ❋✉❥✐♠✉r❛ ❡t ❙✳ ❑❛✲ ♠✐❥♦✳ ❙♠❛rt ❝❛♠❡r❛ ♥❡t✇♦r❦ s②st❡♠ ❢♦r ✉s❡ ✐♥ r❛✐❧✇❛② st❛t✐♦♥s✳ ♣❛❣❡s ✽✺✕✾✵✱ ✷✵✶✶✳ ✭❈✐té ❡♥ ♣❛❣❡ ✸✳✮ ❬❑♦❧♠♦❣♦r♦✈ ✫ ❩❛❜✐❤ ✷✵✵✷❪ ❱❧❛❞✐♠✐r ❑♦❧♠♦❣♦r♦✈ ❡t ❘❛♠✐♥ ❩❛❜✐❤✳ ▼✉❧t✐ ❝❛♠❡r❛ s❝❡♥❡ r❡❝♦♥str✉❝✲ t✐♦♥ ✈✐❛ ❣r❛♣❤ ❝✉ts✳ ■♥ ❈♦♠♣✉t❡r ❱✐s✐♦♥ ❊❈❈❱ ✷✵✵✷✱ ♣❛❣❡s ✽✷✕✾✻✳ ❙♣r✐♥❣❡r✱ ✷✵✵✷✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✹✳✮ ❬▲❛❜❛②r❛❞❡ ❡t ❛❧✳ ✷✵✵✷❪ ❘❛♣❤❛❡❧ ▲❛❜❛②r❛❞❡✱ ❉✐❞✐❡r ❆✉❜❡rt ❡t ❏✲P ❚❛r❡❧✳ ❘❡❛❧ t✐♠❡ ♦❜st❛❝❧❡ ❞❡t❡❝t✐♦♥ ✐♥ st❡r❡♦✈✐s✐♦♥ ♦♥ ♥♦♥ ✢❛t r♦❛❞ ❣❡♦♠❡tr② t❤r♦✉❣❤✧ ✈✲❞✐s♣❛r✐t②✧ r❡♣r❡s❡♥t❛t✐♦♥✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡ ❙②♠♣♦s✐✉♠✱ ✷✵✵✷✳ ■❊❊❊✱ ✈♦❧✉♠❡ ✷✱ ♣❛❣❡s ✻✹✻✕✻✺✶✳ ■❊❊❊✱ ✷✵✵✷✳ ✭❈✐té ❡♥ ♣❛❣❡ ✾✼✳✮ ❬▲❛✐❧❧❡r ✶✾✾✸❪ ❈❛s✐♠✐r ▲❛✐❧❧❡r✳ ●✉✐❞❛❣❡ ♣❛r ✈✐s✐♦♥ ❛rt✐✜❝✐❡❧❧❡ ❞✬✉♥ ✈é❤✐❝✉❧❡ ❛✉t♦♥♦♠❡ s✉r r♦✉t❡ ♠❛tér✐❛❧✐sé❡ ♣❛r ❧❛ s✐❣♥❛❧✐s❛t✐♦♥ ❤♦r✐③♦♥t❛❧❡✳ ❆♣♣❧✐❝❛t✐♦♥ à ❧❛ ♣r♦t❡❝t✐♦♥ ❞❡s ❝❤❛♥t✐❡rs ♠♦❜✐❧❡s ❞✬❡♥tr❡t✐❡♥ ❞✉ rés❡❛✉ r♦✉t✐❡r✳ P❤❉ t❤❡s✐s✱ ✶✾✾✸✳ ✭❈✐té ❡♥ ♣❛❣❡ ✹✶✳✮ ❬▲❡❡ ✷✵✵✼❪ ❉❛✈✐❞ ❈ ▲❡❡✳ ❇♦♦st❡❞ ❈❧❛ss✐✜❡r ❢♦r ❈❛r ❉❡t❡❝t✐♦♥✱ ✷✵✵✼✳ ✭❈✐té ❡♥ ♣❛❣❡s ✶✵✸ ❡t ✶✵✹✳✮ ❬▲❡❢❛✉❞❡✉① ✫ ◆❛s❤❛s❤✐❜✐ ✷✵✶✷❪ ❇❡♥❥❛♠✐♥ ▲❡❢❛✉❞❡✉① ❡t ❋❛✇③✐ ◆❛s❤❛s❤✐❜✐✳ ❘❡❛❧✲t✐♠❡ ✈✐s✉❛❧ ♣❡r❝❡♣✲ t✐♦♥ ✿ ❞❡t❡❝t✐♦♥ ❛♥❞ ❧♦❝❛❧✐s❛t✐♦♥ ♦❢ st❛t✐❝ ❛♥❞ ♠♦✈✐♥❣ ♦❜❥❡❝ts ❢r♦♠ ❛ ♠♦✈✐♥❣ st❡r❡♦ r✐❣✳ ■♥ ■❚❙❈ ✷✵✶✷ ✲ ✶✺t❤ ■♥t❡r♥❛t✐♦♥❛❧ ■❊❊❊ ❈♦♥❢❡r❡♥❝❡ ♦♥ ■♥t❡❧❧✐❣❡♥t ❚r❛♥s♣♦rt❛t✐♦♥ ❙②st❡♠s✱ ♣❛❣❡s ✺✷✷ ✕ ✺✷✼✱ ❆♥❝❤♦r❛❣❡✱ ❊t❛ts✲❯♥✐s✱ ❙❡♣ ✷✵✶✷✳ ■❊❊❊✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✹✳✮ ❬▲❡❢❛✉❞❡✉① ✷✵✶✸❪ ❇❡♥❥❛♠✐♥ ▲❡❢❛✉❞❡✉①✳ ❉♦❝t♦r❛t P❛r✐s❚❡❝❤✳ P❤❉ t❤❡s✐s✱ ➱❝♦❧❡ ♥❛t✐♦♥❛❧❡ s✉♣ér✐❡✉r❡ ❞❡s ♠✐♥❡s ❞❡ P❛r✐s✱ ✷✵✶✸✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✵✷✳✮ ❬▲✐✉ ❡t ❛❧✳ ✶✾✾✵❪ ❨✳ ▲✐✉✱ ❚✳❙✳ ❍✉❛♥❣ ❡t ❖✳❉✳ ❋❛✉❣❡r❛s✳ ❉❡t❡r♠✐♥❛t✐♦♥ ♦❢ ❝❛♠❡r❛ ❧♦❝❛t✐♦♥ ❢r♦♠ ✷✲❉ t♦ ✸✲❉ ❧✐♥❡ ❛♥❞ ♣♦✐♥t ❝♦rr❡s♣♦♥❞❡♥❝❡s✳ P❛tt❡r♥ ❆♥❛❧②s✐s ❛♥❞ ▼❛❝❤✐♥❡ ■♥t❡❧❧✐❣❡♥❝❡✱ ■❊❊❊ ❚r❛♥s❛❝t✐♦♥s ♦♥✱ ✈♦❧✳ ✶✷✱ ♥♦✳ ✶✱ ♣❛❣❡s ✷✽✕✸✼✱ ✶✾✾✵✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✹✳✮ ❬▲♦✉❛❤❞✐ ❡t ❛❧✳ ✷✵✵✷❪ ❑❤♦✉❞♦✉r ▲♦✉❛❤❞✐✱ ❆♠❜❡❧❧♦✉✐s ❙❡❜❛st✐❡♥✱ ❱✐❡r❡♥ ❈❤r✐st♦♣❤❡ ❡t P❛s❝❛❧ ❉❡✲ ❧♦♦❢✳ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ❞❡✈❛♥t ❧❡s ✈é❤✐❝✉❧❡s ❞❡ tr❛♥s♣♦rts ❣✉✐❞és✳ ❯t✐❧✐s❛t✐♦♥ ❞✬✉♥ r❛❞❛r ❝♦♦♣ér❛t✐❢ ❡t ❞✬✉♥ stéré♦s❝♦♣❡ ♦♣t✐q✉❡✳ ■♥ ■♥str✉♠❡♥t❛t✐♦♥ ▼❡s✉r❡ ▼❡tr♦❧♦❣✐❡ ❈❛♣t❡✉rs ❡t ❚r❛✐t❡♠❡♥t ❞✉ s✐❣♥❛❧ ♣♦✉r ❧❡s tr❛♥s♣♦rts ❣✉✐❞és✱ ✈♦❧✉♠❡ ✷✱ ♣❛❣❡s ✽✶✕✶✶✻✳ ▲❛✈♦s✐❡r✱ ✷✵✵✷✳ ✭❈✐té ❡♥ ♣❛❣❡s ✶✼ ❡t ✾✼✳✮ ❬▲♦✇❡ ✶✾✾✾❪ ❉❛✈✐❞ ● ▲♦✇❡✳ ❖❜❥❡❝t r❡❝♦❣♥✐t✐♦♥ ❢r♦♠ ❧♦❝❛❧ s❝❛❧❡✲✐♥✈❛r✐❛♥t ❢❡❛t✉r❡s✳ ■♥ ❈♦♠♣✉t❡r ✈✐s✐♦♥✱ ✶✾✾✾✳ ❚❤❡ ♣r♦❝❡❡❞✐♥❣s ♦❢ t❤❡ s❡✈❡♥t❤ ■❊❊❊ ✐♥t❡r♥❛t✐♦♥❛❧ ❝♦♥❢❡r❡♥❝❡ ♦♥✱ ✈♦❧✉♠❡ ✷✱ ♣❛❣❡s ✶✶✺✵✕✶✶✺✼✳ ■❡❡❡✱ ✶✾✾✾✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✵✷✳✮ ❬▲♦✇❡ ✷✵✵✹❪ ❉❛✈✐❞ ● ▲♦✇❡✳ ❉✐st✐♥❝t✐✈❡ ✐♠❛❣❡ ❢❡❛t✉r❡s ❢r♦♠ s❝❛❧❡✲✐♥✈❛r✐❛♥t ❦❡②♣♦✐♥ts✳ ■♥t❡r♥❛t✐♦♥❛❧ ❥♦✉r♥❛❧ ♦❢ ❝♦♠♣✉t❡r ✈✐s✐♦♥✱ ✈♦❧✳ ✻✵✱ ♥♦✳ ✷✱ ♣❛❣❡s ✾✶✕✶✶✵✱ ✷✵✵✹✳ ✭❈✐té ❡♥ ♣❛❣❡ ✻✼✳✮ ❬▼❛❜r♦✉❦ ✷✵✶✵❪ ❍❛❜✐❜ ❍❛❞❥ ▼❛❜r♦✉❦✳ ■♥tr♦❞✉❝t✐♦♥ à ❧❛ sé❝✉r✐té ❡t à ❧✬❛♥❛❧②s❡ ❞❡s r✐sq✉❡s t❡❝❤♥♦✲ ❧♦❣✐q✉❡s ❡t ❤✉♠❛✐♥s✳ ■♥ ❆❝t❡s ❞✉ ❙②♠♣♦s✐✉♠ ■♥t❡r♥❛t✐♦♥❛❧ s✉r ❧❛ ▼❛✐♥t❡♥❛♥❝❡ ❡t ❧❛ ▼❛îtr✐s❡ ❞❡s ❘✐sq✉❡s✱ ✷✵✶✵✳ ✭❈✐té ❡♥ ♣❛❣❡s ✹ ❡t ✺✳✮ ❬▼❛✐r❡ ✫ ❇✐❣❞❡❧✐ ✷✵✶✵❪ ❋ré❞ér✐❝ ▼❛✐r❡ ❡t ❆❜❜❛s ❇✐❣❞❡❧✐✳ ❖❜st❛❝❧❡✲❢r❡❡ r❛♥❣❡ ❞❡t❡r♠✐♥❛t✐♦♥ ❢♦r r❛✐❧ tr❛❝❦ ♠❛✐♥t❡♥❛♥❝❡ ✈❡❤✐❝❧❡s✳ ■♥ ❈♦♥tr♦❧ ❆✉t♦♠❛t✐♦♥ ❘♦❜♦t✐❝s ✫ ❱✐s✐♦♥ ✭■❈❆❘❈❱✮✱ ✷✵✶✵ ✶✶t❤ ■♥t❡r♥❛t✐♦♥❛❧ ❈♦♥❢❡r❡♥❝❡ ♦♥✱ ♣❛❣❡s ✷✶✼✷✕✷✶✼✽✳ ■❊❊❊✱ ✷✵✶✵✳ ✭❈✐té ❡♥ ♣❛❣❡s ✶✽ ❡t ✼✽✳✮ ❬▼❛r ❡t ❛❧✳ ✷✵✶✶❪ ◆✳❙✳❙✳ ▼❛r✱ P✳❑✳❉✳❱✳ ❨❛r❧❛❣❛❞❞❛ ❡t ❈✳ ❋♦♦❦❡s✳ ❉❡s✐❣♥ ❛♥❞ ❞❡✈❡❧♦♣♠❡♥t ♦❢ ❛✉t♦✲ ♠❛t✐❝ ✈✐s✉❛❧ ✐♥s♣❡❝t✐♦♥ s②st❡♠ ❢♦r P❈❇ ♠❛♥✉❢❛❝t✉r✐♥❣✳ ❘♦❜♦t✐❝s ❛♥❞ ❈♦♠♣✉t❡r✲■♥t❡❣r❛t❡❞ ▼❛♥✉❢❛❝t✉r✐♥❣✱ ✈♦❧✳ ✷✼✱ ♥♦✳ ✺✱ ♣❛❣❡s ✾✹✾ ✕ ✾✻✷✱ ✷✵✶✶✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✹✳✮ ❬▼❛ss✐♠♦ ❡t ❛❧✳ ✷✵✵✵❪ ❇❡rt♦③③✐ ▼❛ss✐♠♦✱ ❇r♦❣❣✐ ❆❧❜❡rt♦ ❡t ❋❛s❝✐♦❧✐ ❆❧❡ss❛♥❞r❛✳ ❱✐s✐♦♥✲❜❛s❡❞ ✐♥✲ t❡❧❧✐❣❡♥t ✈❡❤✐❝❧❡s ✿ ❙t❛t❡ ♦❢ t❤❡ ❛rt ❛♥❞ ♣❡rs♣❡❝t✐✈❡s✳ ❘♦❜♦t✐❝s ❛♥❞ ❆✉t♦♥♦♠♦✉s ❙②st❡♠s✱ ✈♦❧✳ ✸✷✱ ♥♦✳ ✶✱ ♣❛❣❡s ✶ ✕ ✶✻✱ ✷✵✵✵✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✳✮❇✐❜❧✐♦❣r❛♣❤✐❡ ✶✸✼ ❬▼❡✐❧❧❛♥❞ ✷✵✶✷❪ ▼❛①✐♠❡ ▼❡✐❧❧❛♥❞✳ ❈❛rt♦❣r❛♣❤✐❡ ❘●❇✲❉ ❞❡♥s❡ ♣♦✉r ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ✈✐s✉❡❧❧❡ t❡♠♣s✲ ré❡❧ ❡t ❧❛ ♥❛✈✐❣❛t✐♦♥ ❛✉t♦♥♦♠❡✳ P❤❉ t❤❡s✐s✱ ❊❝♦❧❡ ◆❛t✐♦♥❛❧❡ ❙✉♣ér✐❡✉r❡ ❞❡s ▼✐♥❡s ❞❡ P❛r✐s✱ ✷✵✶✷✳ ✭❈✐té ❡♥ ♣❛❣❡ ✻✼✳✮ ❬▼♦❝❦❡❧ ❡t ❛❧✳ ✷✵✵✸❪ ❙ ▼♦❝❦❡❧✱ ❋r❛♥❦ ❙❝❤❡r❡r ❡t P❡t❡r ❋ ❙❝❤✉st❡r✳ ▼✉❧t✐✲s❡♥s♦r ♦❜st❛❝❧❡ ❞❡t❡❝t✐♦♥ ♦♥ r❛✐❧✇❛② tr❛❝❦s✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡s ❙②♠♣♦s✐✉♠✱ ✷✵✵✸✳ Pr♦❝❡❡❞✐♥❣s✳ ■❊❊❊✱ ♣❛❣❡s ✹✷✕✹✻✳ ■❊❊❊✱ ✷✵✵✸✳ ✭❈✐té ❡♥ ♣❛❣❡s ✶✺ ❡t ✶✻✳✮ ❬▼✉❛❞ ❡t ❛❧✳ ✷✵✵✹❪ ❆✳▼✳ ▼✉❛❞✱ ❆✳ ❍✉ss❛✐♥✱ ❙✳❆✳ ❙❛♠❛❞✱ ▼✳▼✳ ▼✉st❛✛❛ ❡t ❇✳❨✳ ▼❛❥❧✐s✳ ■♠♣❧❡♠❡♥✲ t❛t✐♦♥ ♦❢ ✐♥✈❡rs❡ ♣❡rs♣❡❝t✐✈❡ ♠❛♣♣✐♥❣ ❛❧❣♦r✐t❤♠ ❢♦r t❤❡ ❞❡✈❡❧♦♣♠❡♥t ♦❢ ❛♥ ❛✉t♦♠❛t✐❝ ❧❛♥❡ tr❛❝❦✐♥❣ s②st❡♠✳ ■♥ ❚❊◆❈❖◆ ✷✵✵✹✳ ✷✵✵✹ ■❊❊❊ ❘❡❣✐♦♥ ✶✵ ❈♦♥❢❡r❡♥❝❡✱ ✈♦❧✉♠❡ ❆✱ ♣❛❣❡s ✷✵✼✕✷✶✵ ❱♦❧✳ ✶✱ ◆♦✈ ✷✵✵✹✳ ✭❈✐té ❡♥ ♣❛❣❡ ✹✽✳✮ ❬◆❛♥❣t✐♥ ❡t ❛❧✳ ✷✵✵✺❪ P✳ ◆❛♥❣t✐♥✱ P✳ ❑✉♠❤♦♠ ❡t ❑✳ ❈❤❛♠♥♦♥❣t❤❛✐✳ ❱✐❞❡♦✲❜❛s❡❞ ♦❜st❛❝❧❡ tr❛❝❦✐♥❣ ❢♦r ❛✉t♦♠❛t✐❝ tr❛✐♥ ♥❛✈✐❣❛t✐♦♥✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❙✐❣♥❛❧ Pr♦❝❡ss✐♥❣ ❛♥❞ ❈♦♠♠✉♥✐❝❛t✐♦♥ ❙②st❡♠s✱ ✷✵✵✺✳ ■❙P❆❈❙ ✷✵✵✺✳ Pr♦❝❡❡❞✐♥❣s ♦❢ ✷✵✵✺ ■♥t❡r♥❛t✐♦♥❛❧ ❙②♠♣♦s✐✉♠ ♦♥✱ ♣❛❣❡s ✷✶✕✷✹✱ ✷✵✵✺✳ ✭❈✐té ❡♥ ♣❛❣❡ ✸✳✮ ❬◆❈❆P ✷✵✶✸❪ ❊❯❘❖ ◆❈❆P✳ ❊❯❘❖ ◆❈❆P ❛❞✈❛♥❝❡❞ ✿ ❆✉t♦♥♦♠♦✉s ❊♠❡r❣❡♥❝② ❇r❛❦✐♥❣✱ ❙❡♣t ✷✵✶✸✳ ✭❈✐té ❡♥ ♣❛❣❡s ✷ ❡t ✾✾✳✮ ❬◆✐❡t♦ ❡t ❛❧✳ ✷✵✵✼❛❪ ▼✳ ◆✐❡t♦✱ ▲✳ ❙❛❧❣❛❞♦✱ ❋✳ ❏❛✉r❡❣✉✐③❛r ❡t ❏✳ ❈❛❜r❡r❛✳ ❙t❛❜✐❧✐③❛t✐♦♥ ♦❢ ■♥✈❡rs❡ P❡rs♣❡❝t✐✈❡ ▼❛♣♣✐♥❣ ■♠❛❣❡s ❜❛s❡❞ ♦♥ ❘♦❜✉st ❱❛♥✐s❤✐♥❣ P♦✐♥t ❊st✐♠❛t✐♦♥✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡s ❙②♠♣♦s✐✉♠✱ ✷✵✵✼ ■❊❊❊✱ ♣❛❣❡s ✸✶✺✕✸✷✵✱ ❏✉♥❡ ✷✵✵✼✳ ✭❈✐té ❡♥ ♣❛❣❡s ✹✻ ❡t ✹✼✳✮ ❬◆✐❡t♦ ❡t ❛❧✳ ✷✵✵✼❜❪ ▼❛r❝♦s ◆✐❡t♦✱ ▲✉✐s ❙❛❧❣❛❞♦✱ ❋❡r♥❛♥❞♦ ❏❛✉r❡❣✉✐③❛r ❡t ❏✉❧✐❛♥ ❈❛❜r❡r❛✳ ❙t❛❜✐❧✐✲ ③❛t✐♦♥ ♦❢ ✐♥✈❡rs❡ ♣❡rs♣❡❝t✐✈❡ ♠❛♣♣✐♥❣ ✐♠❛❣❡s ❜❛s❡❞ ♦♥ r♦❜✉st ✈❛♥✐s❤✐♥❣ ♣♦✐♥t ❡st✐♠❛t✐♦♥✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡s ❙②♠♣♦s✐✉♠✱ ✷✵✵✼ ■❊❊❊✱ ♣❛❣❡s ✸✶✺✕✸✷✵✳ ■❊❊❊✱ ✷✵✵✼✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✾✳✮ ❬P❛r❦❡r ✷✵✶✵❪ ❏✐♠ ❘ P❛r❦❡r✳ ❆❧❣♦r✐t❤♠s ❢♦r ✐♠❛❣❡ ♣r♦❝❡ss✐♥❣ ❛♥❞ ❝♦♠♣✉t❡r ✈✐s✐♦♥✳ ❲✐❧❡②✳ ❝♦♠✱ ✷✵✶✵✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✻✳✮ ❬P❡rr♦❧❧❛③ ✷✵✵✽❪ ▼❛t❤✐❛s P❡rr♦❧❧❛③✳ ❉ét❡❝t✐♦♥ ❞✬♦❜st❛❝❧❡s ♠✉❧t✐✲❝❛♣t❡✉rs s✉♣❡r✈✐sé❡ ♣❛r stéré♦✈✐s✐♦♥✳ P❤❉ t❤❡s✐s✱ ❯♥✐✈❡rs✐té P✐❡rr❡ ❡t ▼❛r✐❡ ❈✉r✐❡✲P❛r✐s ❱■✱ ✷✵✵✽✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✵✳✮ ❬P♦♠❡r❧❡❛✉ ✶✾✾✺❪ ❉❡❛♥ P♦♠❡r❧❡❛✉✳ ❘❆▲P❍ ✿ ❘❛♣✐❞❧② ❛❞❛♣t✐♥❣ ❧❛t❡r❛❧ ♣♦s✐t✐♦♥ ❤❛♥❞❧❡r✳ ■♥ ■♥t❡❧✲ ❧✐❣❡♥t ❱❡❤✐❝❧❡s✬ ✾✺ ❙②♠♣♦s✐✉♠✳✱ Pr♦❝❡❡❞✐♥❣s ♦❢ t❤❡✱ ♣❛❣❡s ✺✵✻✕✺✶✶✳ ■❊❊❊✱ ✶✾✾✺✳ ✭❈✐té ❡♥ ♣❛❣❡ ✹✽✳✮ ❬Pr♦✈♦st ✷✵✵✺❪ ❏❡❛♥ Pr♦✈♦st✳ ❚r❛♥s♣♦rts ✐♥t❡❧❧✐❣❡♥ts✱ ❛✉t♦♠❛t✐s❛t✐♦♥ ❞❡s ❧✐❣♥❡s ❞❡ ♠étr♦✳ ◆♦t❡s ▼♦❞✉❧❡ ❞✬❊❚■❈✱ ❚❡❧❡❝♦♠ P❛r✐s❚❡❝❤✱ ✷✵✵✺✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✳✮ ❬P✉❤❧♠❛♥♥ ❡t ❛❧✳ ✷✵✵✹❪ ■✳ P✉❤❧♠❛♥♥✱ ❙✳ ❙❝❤✉ss❧❡r ❡t ❇✳ ❍✉❧✐♥✳ ■♠♣r♦✈❡♠❡♥ts ♦♥ ♦❜st❛❝❧❡ ❞❡t❡❝✲ t✐♦♥ ✐♥ t❤❡ ♣❛♥t♦❣r❛♣❤ ❣❛✉❣❡ ❞✉❡ t♦ t❤❡ r❡❝♦❣♥✐t✐♦♥ ♦❢ st❡❛❞② ❛r♠s✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡s ❙②♠♣♦s✐✉♠✱ ✷✵✵✹ ■❊❊❊✱ ♣❛❣❡s ✺✶✽✕✺✷✶✱ ✷✵✵✹✳ ✭❈✐té ❡♥ ♣❛❣❡ ✸✳✮ ❬P✉t❤♦♥ ✷✵✶✸❪ ❆♥♥❡✲s♦♣❤✐❡ P✉t❤♦♥✳ ❉ét❡r♠✐♥❛t✐♦♥ ❞❡ ❧❛ ✈✐t❡ss❡ ❧✐♠✐t❡ ♣❛r ❢✉s✐♦♥ ❞❡ ❞♦♥♥é❡s ❝❛r✲ t♦❣r❛♣❤✐q✉❡s ❡t ✈✐s✐♦♥ t❡♠♣s✲ré❡❧ ❡♠❜❛rq✉é❡s✳ P❤❉ t❤❡s✐s✱ ➱❝♦❧❡ ◆❛t✐♦♥❛❧❡ ❙✉♣ér✐❡✉r❡ ❞❡s ▼✐♥❡s ❞❡ P❛r✐s✱ ✷✵✶✸✳ ✭❈✐té ❡♥ ♣❛❣❡ ✾✶✳✮ ❬❘♦❞r✐❣✉❡③ ❡t ❛❧✳ ✷✵✶✷❪ ▲✳❆✳❋✳ ❘♦❞r✐❣✉❡③✱ ❏✳❆✳ ❯r✐❜❡ ❡t ❏✳❋✳❱✳ ❇♦♥✐❧❧❛✳ ❖❜st❛❝❧❡ ❞❡t❡❝t✐♦♥ ♦✈❡r r❛✐❧s ✉s✐♥❣ ❤♦✉❣❤ tr❛♥s❢♦r♠✳ ■♥ ■♠❛❣❡✱ ❙✐❣♥❛❧ Pr♦❝❡ss✐♥❣✱ ❛♥❞ ❆rt✐✜❝✐❛❧ ❱✐s✐♦♥ ✭❙❚❙■❱❆✮✱ ✷✵✶✷ ❳❱■■ ❙②♠♣♦s✐✉♠ ♦❢✱ ♣❛❣❡s ✸✶✼✕✸✷✷✱ ❙❡♣t ✷✵✶✷✳ ✭❈✐té ❡♥ ♣❛❣❡s ✹✹ ❡t ✹✺✳✮ ❬❘♦ss ✷✵✶✷❪ ❘✳ ❘♦ss✳ ❚r❛❝❦ ❛♥❞ t✉r♥♦✉t ❞❡t❡❝t✐♦♥ ✐♥ ✈✐❞❡♦✲s✐❣♥❛❧s ✉s✐♥❣ ♣r♦❜❛❜✐❧✐st✐❝ s♣❧✐♥❡ ❝✉r✈❡s✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❚r❛♥s♣♦rt❛t✐♦♥ ❙②st❡♠s ✭■❚❙❈✮✱ ✷✵✶✷ ✶✺t❤ ■♥t❡r♥❛t✐♦♥❛❧ ■❊❊❊ ❈♦♥❢❡r❡♥❝❡ ♦♥✱ ♣❛❣❡s ✷✾✹✕✷✾✾✱ ✷✵✶✷✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✸✳✮ ❬❘✉❞❡r ❡t ❛❧✳ ✷✵✵✸❪ ▼ ❘✉❞❡r✱ ◆ ▼♦❤❧❡r ❡t ❋❛r✉q✉❡ ❆❤♠❡❞✳ ❆♥ ♦❜st❛❝❧❡ ❞❡t❡❝t✐♦♥ s②st❡♠ ❢♦r ❛✉t♦✲ ♠❛t❡❞ tr❛✐♥s✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡s ❙②♠♣♦s✐✉♠✱ ✷✵✵✸✳ Pr♦❝❡❡❞✐♥❣s✳ ■❊❊❊✱ ♣❛❣❡s ✶✽✵✕✶✽✺✳ ■❊❊❊✱ ✷✵✵✸✳ ✭❈✐té ❡♥ ♣❛❣❡s ✶✻ ❡t ✻✹✳✮ ❬❙❛❧✈✐ ❡t ❛❧✳ ✷✵✵✷❪ ❏♦❛q✉✐♠ ❙❛❧✈✐✱ ❳❛✈✐❡r ❆r♠❛♥❣✉é ❡t ❏♦❛♥ ❇❛t❧❧❡✳ ❆ ❝♦♠♣❛r❛t✐✈❡ r❡✈✐❡✇ ♦❢ ❝❛♠❡r❛ ❝❛❧✐❜r❛t✐♥❣ ♠❡t❤♦❞s ✇✐t❤ ❛❝❝✉r❛❝② ❡✈❛❧✉❛t✐♦♥✳ P❛tt❡r♥ r❡❝♦❣♥✐t✐♦♥✱ ✈♦❧✳ ✸✺✱ ♥♦✳ ✼✱ ♣❛❣❡s ✶✻✶✼✕ ✶✻✸✺✱ ✷✵✵✷✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✼✳✮✶✸✽ ❇✐❜❧✐♦❣r❛♣❤✐❡ ❬❙❛s❛❦✐ ❡t ❛❧✳ ✶✾✾✾❪ ❆✳ ❙❛s❛❦✐✱ ❨✳ ❚❛♥❛❦❛ ❡t ❚✳ ■❝❤✐❦✉r❛✳ ❖♥✲❜♦❛r❞ s❡❧❢✲r❡❣✉❧❛t✐♥❣ ❛✉t♦♠❛t❡❞ ✈❡❤✐❝❧❡ ♦♣❡r❛t✐♦♥ s②st❡♠✳ ■♥ ❱❡❤✐❝✉❧❛r ❚❡❝❤♥♦❧♦❣② ❈♦♥❢❡r❡♥❝❡✱ ✶✾✾✾ ■❊❊❊ ✹✾t❤✱ ✈♦❧✉♠❡ ✸✱ ♣❛❣❡s ✷✷✾✽✕✷✸✵✷ ✈♦❧✳✸✱ ✶✾✾✾✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✽✳✮ ❬❙♦♥❣ ❡t ❛❧✳ ✷✵✵✽❛❪ ●✇❛♥❣ ❨✉❧ ❙♦♥❣✱ ❑✐ ❨♦♥❣ ▲❡❡ ❡t ❏♦♦♥ ❲♦♦♥❣ ▲❡❡✳ ❱❡❤✐❝❧❡ ❞❡t❡❝t✐♦♥ ❜② ❡❞❣❡✲ ❜❛s❡❞ ❝❛♥❞✐❞❛t❡ ❣❡♥❡r❛t✐♦♥ ❛♥❞ ❛♣♣❡❛r❛♥❝❡✲❜❛s❡❞ ❝❧❛ss✐✜❝❛t✐♦♥✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡s ❙②♠✲ ♣♦s✐✉♠✱ ✷✵✵✽ ■❊❊❊✱ ♣❛❣❡s ✹✷✽✕✹✸✸✳ ■❊❊❊✱ ✷✵✵✽✳ ✭❈✐té ❡♥ ♣❛❣❡ ✾✽✳✮ ❬❙♦♥❣ ❡t ❛❧✳ ✷✵✵✽❜❪ ❍②✉♥ ❖❤ ❙♦♥❣✱ ❙❛r❛ ❇♦❧♦✉❦✐ ❡t ❆♥❞r❡✇ ❨❡♥✳ ❉❡t❡❝t✐♦♥ ♦❢ ❙t♦♣ ❙✐❣♥s✳ ❈❙ ✷✷✸❇ Pr♦❥❡❝t ❘❡♣♦rt✱ ✷✵✵✽✳ ✭❈✐té ❡♥ ♣❛❣❡ ✽✽✳✮ ❬❙t❛❧❧❦❛♠♣ ❡t ❛❧✳ ✷✵✶✶❪ ❏♦❤❛♥♥❡s ❙t❛❧❧❦❛♠♣✱ ▼❛r❝ ❙❝❤❧✐♣s✐♥❣✱ ❏❛♥ ❙❛❧♠❡♥ ❡t ❈❤r✐st✐❛♥ ■❣❡❧✳ ❚❤❡ ●❡r♠❛♥ tr❛✣❝ s✐❣♥ r❡❝♦❣♥✐t✐♦♥ ❜❡♥❝❤♠❛r❦ ✿ ❛ ♠✉❧t✐✲❝❧❛ss ❝❧❛ss✐✜❝❛t✐♦♥ ❝♦♠♣❡t✐t✐♦♥✳ ■♥ ◆❡✉✲ r❛❧ ◆❡t✇♦r❦s ✭■❏❈◆◆✮✱ ❚❤❡ ✷✵✶✶ ■♥t❡r♥❛t✐♦♥❛❧ ❏♦✐♥t ❈♦♥❢❡r❡♥❝❡ ♦♥✱ ♣❛❣❡s ✶✹✺✸✕✶✹✻✵✳ ■❊❊❊✱ ✷✵✶✶✳ ✭❈✐té ❡♥ ♣❛❣❡ ✹✵✳✮ ❬❙t❛♥❝✐✉❧❡s❝✉ ❡t ❛❧✳ ✷✵✵✾❪ ❇♦❣❞❛♥ ❙t❛♥❝✐✉❧❡s❝✉✱ ❆♠❛✉r② ❇r❡❤❡r❡t ❡t ❋❛❜✐❡♥ ▼♦✉t❛r❞❡✳ ■♥tr♦❞✉❝✐♥❣ ♥❡✇ ❛❞❛❜♦♦st ❢❡❛t✉r❡s ❢♦r r❡❛❧✲t✐♠❡ ✈❡❤✐❝❧❡ ❞❡t❡❝t✐♦♥✳ ❛r❳✐✈ ♣r❡♣r✐♥t ❛r❳✐✈ ✿✵✾✶✵✳✶✷✾✸✱ ✷✵✵✾✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✵✹✳✮ ❬❙t❡✉① ✫ ❊❧ ❍❛♠③❛♦✉✐ ✷✵✶✵❪ ❇r✉♥♦ ❙t❡✉① ❡t ❖✉ss❛♠❛ ❊❧ ❍❛♠③❛♦✉✐✳ t✐♥②❙▲❆▼ ✿ ❆ ❙▲❆▼ ❛❧❣♦✲ r✐t❤♠ ✐♥ ❧❡ss t❤❛♥ ✷✵✵ ❧✐♥❡s ❈✲❧❛♥❣✉❛❣❡ ♣r♦❣r❛♠✳ ■♥ ❈♦♥tr♦❧ ❆✉t♦♠❛t✐♦♥ ❘♦❜♦t✐❝s ✫ ❱✐s✐♦♥ ✭■❈❆❘❈❱✮✱ ✷✵✶✵ ✶✶t❤ ■♥t❡r♥❛t✐♦♥❛❧ ❈♦♥❢❡r❡♥❝❡ ♦♥✱ ♣❛❣❡s ✶✾✼✺✕✶✾✼✾✳ ■❊❊❊✱ ✷✵✶✵✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✵✳✮ ❬❙t❡✉① ✷✵✵✶❪ ❇r✉♥♦ ❙t❡✉①✳ ❈❛♠❡❧❧✐❛ ▲✐❜r❛r②✱ ■♠❛❣❡ Pr♦❝❡ss✐♥❣ ✫ ❈♦♠♣✉t❡r ❱✐s✐♦♥ ❧✐❜r❛r②✳ ❤tt♣ ✿✴✴❝❛♠❡❧❧✐❛✳s♦✉r❝❡❢♦r❣❡✳♥❡t✴✱ ✷✵✵✶✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✵✸✳✮ ❬❙t✉r♠ ✷✵✵✽❪ P❡t❡r ❙t✉r♠✳ ◗✉❡❧q✉❡s ♥♦t❡s ♣♦✉r ❧❡s ❝♦✉rs ❞❡ ❱✐s✐♦♥ ♣❛r ❖r❞✐♥❛t❡✉r✱ ✷✵✵✽✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✽✳✮ ❬❙✉tt♦r♣ ✫ ❇✉❝❤❡r ✷✵✵✻❪ ❚❤♦rst❡♥ ❙✉tt♦r♣ ❡t ❚❤♦♠❛s ❇✉❝❤❡r✳ ❘♦❜✉st ✈❛♥✐s❤✐♥❣ ♣♦✐♥t ❡st✐♠❛t✐♦♥ ❢♦r ❞r✐✈❡r ❛ss✐st❛♥❝❡✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❚r❛♥s♣♦rt❛t✐♦♥ ❙②st❡♠s ❈♦♥❢❡r❡♥❝❡✱ ✷✵✵✻✳ ■❚❙❈✬✵✻✳ ■❊❊❊✱ ♣❛❣❡s ✶✺✺✵✕✶✺✺✺✳ ■❊❊❊✱ ✷✵✵✻✳ ✭❈✐té ❡♥ ♣❛❣❡ ✸✺✳✮ ❬❚✐❛♥ ❡t ❛❧✳ ✷✵✵✻❪ ▼✐♥ ❚✐❛♥✱ ❋✉q✐❛♥❣ ▲✐✉✱ ❲❡♥❤♦♥❣ ❩❤✉ ❡t ❈❤❛♦ ❳✉✳ ❱✐s✐♦♥ ❜❛s❡❞ ❧❛♥❡ ❞❡t❡❝t✐♦♥ ❢♦r ❛❝t✐✈❡ s❡❝✉r✐t② ✐♥ ✐♥t❡❧❧✐❣❡♥t ✈❡❤✐❝❧❡✳ ■♥ ❱❡❤✐❝✉❧❛r ❊❧❡❝tr♦♥✐❝s ❛♥❞ ❙❛❢❡t②✱ ✷✵✵✻✳ ■❈❱❊❙ ✷✵✵✻✳ ■❊❊❊ ■♥t❡r♥❛t✐♦♥❛❧ ❈♦♥❢❡r❡♥❝❡ ♦♥✱ ♣❛❣❡s ✺✵✼✕✺✶✶✳ ■❊❊❊✱ ✷✵✵✻✳ ✭❈✐té ❡♥ ♣❛❣❡ ✹✹✳✮ ❬❚s❛✐ ❡t ❛❧✳ ✷✵✵✼❪ ▲✉♦✲❲❡✐ ❚s❛✐✱ ❏✉♥✲❲❡✐ ❍s✐❡❤ ❡t ❑✉♦✲❈❤✐♥ ❋❛♥✳ ❱❡❤✐❝❧❡ ❞❡t❡❝t✐♦♥ ✉s✐♥❣ ♥♦r♠❛❧✐③❡❞ ❝♦❧♦r ❛♥❞ ❡❞❣❡ ♠❛♣✳ ■♠❛❣❡ Pr♦❝❡ss✐♥❣✱ ■❊❊❊ ❚r❛♥s❛❝t✐♦♥s ♦♥✱ ✈♦❧✳ ✶✻✱ ♥♦✳ ✸✱ ♣❛❣❡s ✽✺✵✕✽✻✹✱ ✷✵✵✼✳ ✭❈✐té ❡♥ ♣❛❣❡ ✾✽✳✮ ❬❚③♦♠❛❦❛s ✫ ✈♦♥ ❙❡❡❧❡♥ ✶✾✾✽❪ ❈❤r✐st♦s ❚③♦♠❛❦❛s ❡t ❲❡r♥❡r ✈♦♥ ❙❡❡❧❡♥✳ ❱❡❤✐❝❧❡ ❞❡t❡❝t✐♦♥ ✐♥ tr❛❢✲ ✜❝ s❝❡♥❡s ✉s✐♥❣ s❤❛❞♦✇s✳ ■♥ ■❘✲■◆■✱ ■◆❙❚■❚❯❚ ❋❯❘ ◆❯❊❘❖■◆❋❖❘▼❆❚■❑✱ ❘❯❍❘✲ ❯◆■❱❊❘❙■❚❆❚✳ ❈✐t❡s❡❡r✱ ✶✾✾✽✳ ✭❈✐té ❡♥ ♣❛❣❡ ✾✽✳✮ ❬❱❛③q✉❡③ ❡t ❛❧✳ ✷✵✵✹❪ ❏✳ ❱❛③q✉❡③✱ ▼✳ ▼❛③♦✱ ❏✳▲✳ ▲❛③❛r♦✱ ❈✳❆✳ ▲✉♥❛✱ ❏✳ ❯r❡♥❛✱ ❏✳❏✳ ●❛r❝✐❛✱ ❏✳ ❈❛❜❡❧❧♦ ❡t ▲✳ ❍✐❡rr❡③✉❡❧♦✳ ❉❡t❡❝t✐♦♥ ♦❢ ♠♦✈✐♥❣ ♦❜❥❡❝ts ✐♥ r❛✐❧✇❛② ✉s✐♥❣ ✈✐s✐♦♥✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡s ❙②♠♣♦s✐✉♠✱ ✷✵✵✹ ■❊❊❊✱ ♣❛❣❡s ✽✼✷✕✽✼✺✱ ✷✵✵✹✳ ✭❈✐té ❡♥ ♣❛❣❡ ✸✳✮ ❬❱❡❞❛❧❞✐ ✫ ❋✉❧❦❡rs♦♥ ✷✵✵✽❪ ❆✳ ❱❡❞❛❧❞✐ ❡t ❇✳ ❋✉❧❦❡rs♦♥✳ ❱▲❋❡❛t ✿ ❆♥ ❖♣❡♥ ❛♥❞ P♦rt❛❜❧❡ ▲✐❜r❛r② ♦❢ ❈♦♠♣✉t❡r ❱✐s✐♦♥ ❆❧❣♦r✐t❤♠s✳ ❤tt♣✿✴✴✇✇✇✳✈❧❢❡❛t✳♦r❣✴✱ ✷✵✵✽✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✵✻✳✮ ❬❱❡r❤✐❧❧❡ ✷✵✵✼❪ ❏❡❛♥✲◆♦ë❧ ❱❡r❤✐❧❧❡✳ ❘❡♣rés❡♥t❛t✐♦♥ é♥❡r❣ét✐q✉❡ ♠❛❝r♦s❝♦♣✐q✉❡ ❞✉ ♠étr♦ ❱❆▲ ✷✵✻ ❡t str✉❝t✉r❡s ❞❡ ❝♦♠♠❛♥❞❡ ❞é❞✉✐t❡s ♣❛r ✐♥✈❡rs✐♦♥✳ P❤❉ t❤❡s✐s✱ ❆rts ❡t ▼ét✐❡rs P❛r✐s❚❡❝❤✱ ✷✵✵✼✳ ✭❈✐té ❡♥ ♣❛❣❡ ✷✶✳✮ ❬❱✐♦❧❛ ✫ ❏♦♥❡s ✷✵✵✶❪ P❛✉❧ ❱✐♦❧❛ ❡t ▼✐❝❤❛❡❧ ❏♦♥❡s✳ ❘❛♣✐❞ ♦❜❥❡❝t ❞❡t❡❝t✐♦♥ ✉s✐♥❣ ❛ ❜♦♦st❡❞ ❝❛s❝❛❞❡ ♦❢ s✐♠♣❧❡ ❢❡❛t✉r❡s✳ ■♥ ❈♦♠♣✉t❡r ❱✐s✐♦♥ ❛♥❞ P❛tt❡r♥ ❘❡❝♦❣♥✐t✐♦♥✱ ✷✵✵✶✳ ❈❱P❘ ✷✵✵✶✳ Pr♦✲ ❝❡❡❞✐♥❣s ♦❢ t❤❡ ✷✵✵✶ ■❊❊❊ ❈♦♠♣✉t❡r ❙♦❝✐❡t② ❈♦♥❢❡r❡♥❝❡ ♦♥✱ ✈♦❧✉♠❡ ✶✱ ♣❛❣❡s ■✕✺✶✶✳ ■❊❊❊✱ ✷✵✵✶✳ ✭❈✐té ❡♥ ♣❛❣❡s ✶✵✷ ❡t ✶✵✸✳✮❇✐❜❧✐♦❣r❛♣❤✐❡ ✶✸✾ ❬❱♦✐s✐♥ ❡t ❛❧✳ ✷✵✵✹❪ ❱✐♥❝❡♥t ❱♦✐s✐♥✱ ❇r✉♥♦ ❊♠✐❧❡ ❡t ▼❛♥✉❡❧ ❆✈✐❧❛✳ ❉ét❡❝t✐♦♥ ❡t s✉✐✈✐ ❞❡ ♠❛rq✉❛❣❡s ❞❡ ❜♦r❞s ❞❡ ✈♦✐❡ ♣❛r ✈✐s✐♦♥ ❛rt✐✜❝✐❡❧❧❡✳ ❏♦✉r♥é❡s ❏❡✉♥❡s ❈❤❡r❝❤❡✉rs ❞✉ ▲❛❜♦r❛t♦✐r❡ ❱✐s✐♦♥ ❡t ❘♦❜♦t✐q✉❡✱ ✷✵✵✹✳ ✭❈✐té ❡♥ ♣❛❣❡ ✹✶✳✮ ❬❲❛♥❣ ❡t ❛❧✳ ✷✵✵✼❪ ❑✉♥❢❡♥❣ ❲❛♥❣✱ ❍✉❛ ❍✉❛♥❣✱ ❨✉❛♥t❛♦ ▲✐ ❡t ❋❡✐✲❨✉❡ ❲❛♥❣✳ ❘❡s❡❛r❝❤ ♦♥ ▲❛♥❡✲ ▼❛r❦✐♥❣ ❧✐♥❡ ❜❛s❡❞ ❝❛♠❡r❛ ❝❛❧✐❜r❛t✐♦♥✳ ■♥ ❱❡❤✐❝✉❧❛r ❊❧❡❝tr♦♥✐❝s ❛♥❞ ❙❛❢❡t②✱ ✷✵✵✼✳ ■❈❱❊❙✳ ■❊❊❊ ■♥t❡r♥❛t✐♦♥❛❧ ❈♦♥❢❡r❡♥❝❡ ♦♥✱ ♣❛❣❡s ✶✕✻✳ ■❊❊❊✱ ✷✵✵✼✳ ✭❈✐té ❡♥ ♣❛❣❡ ✸✵✳✮ ❬❲❡✐♥❡r ✶✾✼✸❪ P❡t❡r ❲❡✐♥❡r✳ ▲✐♥❡❛r ♣❛tt❡r♥ ♠❛t❝❤✐♥❣ ❛❧❣♦r✐t❤♠s✳ ■♥ ❙✇✐t❝❤✐♥❣ ❛♥❞ ❆✉t♦♠❛t❛ ❚❤❡♦r②✱ ✶✾✼✸✳ ❙❲❆❚✬✵✽✳ ■❊❊❊ ❈♦♥❢❡r❡♥❝❡ ❘❡❝♦r❞ ♦❢ ✶✹t❤ ❆♥♥✉❛❧ ❙②♠♣♦s✐✉♠ ♦♥✱ ♣❛❣❡s ✶✕✶✶✳ ■❊❊❊✱ ✶✾✼✸✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✽✳✮ ❬❲♦❤❧❢❡✐❧ ✷✵✶✶❪ ❏✳ ❲♦❤❧❢❡✐❧✳ ❱✐s✐♦♥ ❜❛s❡❞ r❛✐❧ tr❛❝❦ ❛♥❞ s✇✐t❝❤ r❡❝♦❣♥✐t✐♦♥ ❢♦r s❡❧❢✲❧♦❝❛❧✐③❛t✐♦♥ ♦❢ tr❛✐♥s ✐♥ ❛ r❛✐❧ ♥❡t✇♦r❦✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡s ❙②♠♣♦s✐✉♠ ✭■❱✮✱ ✷✵✶✶ ■❊❊❊✱ ♣❛❣❡s ✶✵✷✺ ✕✶✵✸✵✱ ❥✉♥❡ ✷✵✶✶✳ ✭❈✐té ❡♥ ♣❛❣❡s ✼✹ ❡t ✼✺✳✮ ❬❳❛✈✐❡r ✷✵✵✸❪ ❈❧❛❞② ❳❛✈✐❡r✳ ❈♦♥tr✐❜✉t✐♦♥s à ❧❛ ♥❛✈✐❣❛t✐♦♥ ❛✉t♦♥♦♠❡ ❞✬✉♥ ✈é❤✐❝✉❧❡ ❛✉t♦♠♦❜✐❧❡ ♣❛r ✈✐s✐♦♥✳ P❤❉ t❤❡s✐s✱ ❯♥✐✈❡rs✐té ❇❧❛✐s❡ P❛s❝❛❧ ❞❡ ❈❧❡r♠♦♥t✲❋❡rr❛♥❞✱ ✷✵✵✸✳ ✭❈✐té ❡♥ ♣❛❣❡ ✾✽✳✮ ❬❨❛♠❛s❤✐t❛ ❡t ❛❧✳ ✶✾✾✻❪ ❍✐r♦s❤✐ ❨❛♠❛s❤✐t❛✱ ❏✉♥ ◆❛❦❛♠♦t♦✱ ❨❛s✉s❤✐ ❑♦②❛♠❛ ❡t ▼❛s❛♥♦❜✉ ❙❛t♦✳ ❉❡✈❡❧♦♣♠❡♥t ♦❢ ❘❛✐❧✇❛② ❖❜st❛❝❧❡ ❉❡t❡❝t✐♦♥ ❙②st❡♠✳ ▼✐ts✉❜✐s❤✐ ❍❡❛✈② ■♥❞✉str✐❡s✱ ▲t❞✳ ❚❡❝❤✲ ♥✐❝❛❧ ❘❡✈✐❡✇✱ ✈♦❧✳ ✸✸✱ ♥♦✳ ✶✱ ✶✾✾✻✳ ✭❈✐té ❡♥ ♣❛❣❡ ✶✼✳✮ ❬❩❛❦❧♦✉t❛ ✫ ❙t❛♥❝✐✉❧❡s❝✉ ✷✵✶✶❪ ❋❛t✐♥ ❩❛❦❧♦✉t❛ ❡t ❇♦❣❞❛♥ ❙t❛♥❝✐✉❧❡s❝✉✳ ❲❛r♥✐♥❣ tr❛✣❝ s✐❣♥ r❡✲ ❝♦❣♥✐t✐♦♥ ✉s✐♥❣ ❛ ❍❖●✲❜❛s❡❞ ❑❞ tr❡❡✳ ■♥ ■♥t❡❧❧✐❣❡♥t ❱❡❤✐❝❧❡s ❙②♠♣♦s✐✉♠ ✭■❱✮✱ ✷✵✶✶ ■❊❊❊✱ ♣❛❣❡s ✶✵✶✾✕✶✵✷✹✳ ■❊❊❊✱ ✷✵✶✶✳ ✭❈✐té ❡♥ ♣❛❣❡ ✼✼✳✮ ❬❩❛❦❧♦✉t❛ ❡t ❛❧✳ ✷✵✶✶❪ ❋❛t✐♥ ❩❛❦❧♦✉t❛✱ ❇♦❣❞❛♥ ❙t❛♥❝✐✉❧❡s❝✉ ❡t ❖♠❛r ❍❛♠❞♦✉♥✳ ❚r❛✣❝ s✐❣♥ ❝❧❛ss✐✲ ✜❝❛t✐♦♥ ✉s✐♥❣ ❦❞ tr❡❡s ❛♥❞ r❛♥❞♦♠ ❢♦r❡sts✳ ■♥ ◆❡✉r❛❧ ◆❡t✇♦r❦s ✭■❏❈◆◆✮✱ ❚❤❡ ✷✵✶✶ ■♥t❡r♥❛✲ t✐♦♥❛❧ ❏♦✐♥t ❈♦♥❢❡r❡♥❝❡ ♦♥✱ ♣❛❣❡s ✷✶✺✶✕✷✶✺✺✳ ■❊❊❊✱ ✷✵✶✶✳ ✭❈✐té ❡♥ ♣❛❣❡s ✼✼ ❡t ✾✵✳✮INSTITUT DES SCIENCES ET TECHNOLOGIES Détection de rails, caractérisation de croisements et localisation de trains sur la trajectoire d’un métro automatique Résumé : Cette thèse porte sur la fonction de détection d’obstacles dans le domaine ferroviaire à partir de la vision par ordinateur. Il s’agit d’assurer une perception de l’environnement situé à l’avant du train afin de détecter et d’évaluer les distances des obstacles situés sur la voie. Nous avons donc proposé un module détection de rails à partir des images à niveaux de gris, pour déterminer une zone libre d’obstacles à l’avant du train. Cette détection est basée dans l’algorithme de RANSAC et une estimation de la voie par un polynôme de degré 2. Elle s’est montrée robuste à notre base de données et a permis de détecter les rails à des distances supérieures à la distance d’arrêt. Aussi, un algorithme d’étalonnage des caméras installées dans le train a été proposé à partir de la morphologie de la voie. Comme support de la reconnaissance de rails, nous présentons un module de détection et classi- fication des appareils de voie basé dans le descripteur Histogram of oriented gradients(HOG) extrait des images IPM (Inverse Perspective Mapping). Un classifieur SVM (Support Vector Machines) binaire a été utilisé pour la détection et un SVM multi-classe pour différencier les appareils de voie existants sur la ligne. Après avoir élaboré le module de détection des rails, nous avons implémenté un détecteur de trains. À partir d’un échantillon d’images de trains de la ligne en question et d’images négatives comme des voitures ou des bus, nous avons créé une base de données d’obstacles pour trouver un descripteur robuste qui arrive à décrire la forme des trains et permet à un classifieur SVM de discriminer les images et détecter les trains. Par la suite, ce classifieur est utilisé par le système global pour déterminer la présence d’un train au-delà de la détection de la voie. À la distance maximale de détection, un rectangle de la taille d’un train est extrait de l’image pour vérifier la présence d’un train. Ces rectangles font l’objet d’une classification au moyen de descripteurs globaux de type HOG et une structure SVM binaire. Cette étude permettra non seulement de déboucher sur des applications concrètes, mais surtout d’évaluer la maturité des technologies de traitements d’images pour réaliser des fonctions sûres appliquées aux systèmes ferroviaires. Mots clés : Détection de rails, Détection d’obstacles, Détection d’appareils de voie, Monovision, Étalonnage de la caméra, RANSAC, Trains Rails detection, turnouts characterisation and trains localization in an automated metro’s trajectory Abstract: This thesis deals with obstacle detection in a railway setting using computer vision. The main task is to provide perception of the environment in front of the train using an optical sensor to detect and evaluate distances to obstacles along the track path. We present a module for detecting rails from grayscale images to determine an obstacle-free zone in front of the train. This detection is based on the RANSAC algorithm and fitting the track to a second degree polynomial. The method has shown itself robust to our dataset and allows detecting the rails at distances greater than the emergency stopping distance. In addition, a method for calibrating the cameras installed on the train is proposed based on the morphology of the track. To supplement rail detection, we present a new module for detecting and classifying junctions based on the HOG descriptor extracted from Inverse Perspective Mapping (IPM) images. A Support Vector Machines (SVM) binary classifier was used for detection and a multi-class SVM for distinguishing the junctions along the rails. In the sequel, a train detector was implemented. Using a set of images of trains found on the studied line and negative images such as cars or buses, we have created a database of obstacles to find a robust descriptor which is able to model the form of trains and allows a SVM classifier to distinguish images and detect trains. Next this classifier is used by the overall system to determine the presence of a train in addition to detecting rails. At the maximum detection distance, a train-sized rectangle is extracted from the image in order to confirm the presence of a train. These rectangles are classified by means of HOG-type global descriptors and a binary SVM structure. In addition to its applications to concrete problems, this study permits to evaluate the maturity of image processing technologies for fail-safe railway systems. Keywords: Rail detection, Obstacle detection, Junction detection, Monocular vision, Camera calibration, RANSAC, Trains Conception et mise en oeuvre d’une architecture de communication pour mini-drones civils Ons Bouachir To cite this version: Ons Bouachir. Conception et mise en oeuvre d’une architecture de communication pour minidrones civils . Networking and Internet Architecture. Université Toulouse 3 Paul Sabatier (UT3 Paul Sabatier), 2014. French. HAL Id: tel-01092318 https://tel.archives-ouvertes.fr/tel-01092318 Submitted on 11 Dec 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es. Distributed under a Creative Commons Attribution - NonCommercial - NoDerivatives 4.0 International License&OWVFEFMPCUFOUJPOEV %0$503"5%&-6/*7&34*5²%&506-064& %ÏMJWSÏQBS 1SÏTFOUÏFFUTPVUFOVFQBS 5JUSF ²DPMF  EPDUPSBMF et discipline ou spécialité  6OJUÏEFSFDIFSDIF %JSFDUFVSUSJDF T EFʾÒTF Jury : 5)µ4& le Université Toulouse 3 Paul Sabatier (UT3 Paul Sabatier) Ons BOUACHIR mardi 02 Décembre 2014 Conception et mise en œuvre d'une architecture de communication pour minidrones civils EDSYS : Informatique 4200018 Groupe RESCO, Laboratoire TELECOM, École Nationale de l'Aviation Civile (ENAC) Congduc PHAM, Université de Pau, Rapporteur Thomas NOEL, Université de Strasbourg, Rapporteur Mounir FRIKHA, École supérieure de communication de Tunis, Examinateur Yacine GHAMRI-DOUDANE, Université de La Rochelle, Examinateur Bastien MANCINI, Delair-Tech Invité Fabien GARCIA, ENAC Directeur de thèse Thierry GAYRAUD, Université Toulouse 3 Paul Sabatier, Directeur de thèse Thierry GAYRAUD Fabien GARCIAConception et mise en œuvre d’une architecture de communication pour mini-drones civils Ons BOUACHIRiiR´esum´e Les drones, engins volants sans pilotes g´en´eralement appel´e UAV pour Unmanned Aerial Vehicle, ont longtemps ´et´e un outil militaire. Ces derni`eres ann´ees, l’av`enement de micro-drones, plus petits, l´egers et moins coˆuteux que leurs homologues a ´etendu l’utilisation des UAV au domaine civil. Afin d’am´eliorer les performances des drones sur de telles missions, des recherches sont men´ees afin de rendre les drones coop´eratifs. Une flotte de drones coop´eratifs serait alors capable de r´ealiser plus rapidement des missions plus complexes en partageant les diff´erentes tˆaches entre les UAV. Ce genre d’op´eration n´ecessite un niveau ´elev´e de coordination entre les drones rendu possible par un ´echange continu d’information entre eux et avec leur station de contrˆole. Cet ´echange permet aux contrˆoleurs d’ajuster la mission selon les circonstances. La communication est donc vue comme un enjeu majeur dans l’´evolution des op´erations de ce genre de syst`emes. Le r´eseau ad hoc est une solution prometteuse pour faire communiquer les drones entre eux et avec la station sol. Ses capacit´es d’auto-organisation lui permettent de fonctionner dans des situations difficiles comme des canyons urbains ou apr`es les catastrophes naturelles. Au cours d’une mission, une flotte de drones coop´eratifs, ayant chacun un rˆole diff´erent des autres, ´echange une vari´et´e de types de messages envoy´es entre les UAV sur la liaison descendante (des drones vers la station sol) et sur la liaison montante. Ces messages ont des priorit´es et des besoins en termes de la qualit´e de service (QdS) qui diff`erent selon la tˆache accord´ee `a l’´emetteur. Ces besoins peuvent varier selon le contenu du message et au cours du temps avec l’´evolution et le changement de la tˆache. Par cons´equent, la QdS doit ˆetre g´er´ee par un module conscient de ces ´evolutions et capable de s’adapter `a la variation des besoins et de fournir `a chaque trafic sa demande durant toute l’op´eration. Cette th`ese, financ´ee par le projet europ´een D3CoS, propose un syst`eme nomm´e DAN DCoS (Distributed Cooperative Systems) Ad hoc Network , offrant des garanties en termes de diff´erenciation de services selon une vari´et´e de crit`eres choisis par les applications comme la tˆache allou´ee `a l’´emetteur iiiiv et le contenu du message. Ce syst`eme permet de proposer aux agents collaboratifs diff´erents niveaux de QdS en fonction du type d’application utilis´ee qui peut ˆetre variable au cours du temps. DAN est compos´e d’un ensemble de modules permettant `a une application d’exprimer ces besoins en termes de QdS. Il permet, par la suite, de classifier les paquets ´emis selon la demande et le changement des besoins de l’application dans le but de garantir la QdS demand´ee et de respecter les priorit´es de chaque classe. Le syst`eme DAN devant ˆetre utilis´e en environnement r´eel, il a ´et´e ´evalu´e `a l’aide de deux moyens : la simulation et l’exp´erimentation r´eelle. Les simulations ont ´et´e r´ealis´ees dans un environnement r´ealiste en utilisant un mod`ele de mobilit´e reproduisant le mouvement des drones Paparazzi et nomm´e PPRZM pour (PaPaRazzi Mobility). PPRZM a ´et´e impl´ement´e et valid´e par une ´etude comparative avec le mod`ele de mobilit´e (Random Way-Point) et des traces de mouvements r´eels de drones Paparazzi. Par la suite, DAN a ´et´e ´evalu´e par des exp´erimentations r´eelles. Il a ´et´e impl´ement´e sur Linux embarqu´e sur des cartes Raspberry Pi int´egr´ees aux drones Paparazzi. Plusieurs tests ont ´et´e r´ealis´es permettant de valider les r´esultats obtenus par simulations. L’int´egration de ce de syst`eme aux drones Paparazzi permettra de faire ´evoluer les missions impliquant une flotte de drones puisque avant cette r´ealisation, des fonctionnalit´es comme l’´evitement de collisions ou l’allocation dynamique de tˆaches impliquaient directement la station sol, comme point de relai ou de prise de d´ecision. Le syst`eme propos´e permet de faciliter les ´echanges dans ce genre de missions tout en garantissant la QdS pour chaque drone.Abstract The UAVs (Unmanned Aerial Vehicle) have long been a military tool. In recent years, the advent of mini-UAVs, smaller, lighter and less expensive than their counterpart, extended the use of UAVs in civil domain. They offer the solution to many dangerous operations such as search and rescue of survivors after natural disasters, cartography, communication relaying between several areas of intervention of firefighters. UAVs replace piloted airplanes and helicopters which may avoid possible human casualties. In order to enhance the performance of UAVs, Researchesis being carried out to make cooperative aircraft. A swarm of cooperative UAVs sharing different tasks between drones, will be able to perform complex operation faster. Such a mission requires a high level of coordination between UAVs made possible by a frequent exchange of information between them and their control station. The ad hoc network is a promising solution to have the UAV communicate with each other (inside the swarm) and with the control station (outside the swam). It allows UAVs to perform in difficult situations such as mountains and after natural disasters. During a mission, a swarm of cooperative UAVs, having different role, exchanges a variety of message type between the aircraft and their control station. These messages may have different needs in term of quality of service (QoS) which varies with the task given to the transmitter. The needs of each UAV may vary depending on the content of the message and over time with the evolution of its task. Therefore, QoS must be managed by a module aware of these evolutions and able to provide each traffic requirements throughout the operation. This research work, financed by the European project D3CoS 1 , proposes a communication system, called DAN (DCoS (Distributed Cooperative System) Ad hoc Network), for a swarm of cooperative UAVs (Unmanned Aerial Vehicle). This system provides a service differentiation according to a variety of criteria chosen by applications such as the role or the task assigned to the node, the message, etc. DAN architecture is a combination of several QoS 1. http ://www.d3cos.eu/ vvi mechanisms created to be used in real environment with Paparazzi UAVs. Therefore, it was evaluated using two evaluation means : simulation and real experiments. Simulations were realized in realistic environment using a specific mobility model, called PPRZM (PaPaRaZzi Mobility). PPRZM is a stochastic mobility model that imitates Paparazzi UAVs movement designed and implemented for this study. It was validated using a comparative study between PPRZM, the well known mobility model RWP (Random Way-Point) and real Paparazzi UAV movement traces. In addition, DAN was evaluated by real experiments. It was implemented on embedded Linux on Raspberry Pi cards in order to be integrated to Paparazzi UAVs. Several tests were performed to validate the operation of the new Paparazzi communication system and the simulation results. This work creates a new communication system for Paparazzi system that can provide the suitable medium to operate UAVs over an ad hoc network and to respect the need of each agent in term of QoS.Remerciements Apr`es trois ans de travaux de recherche dans le cadre de cette th`ese, je tiens en ces quelques lignes `a exprimer ma reconnaissance envers tous ceux qui de pr`es ou de loin y contribu´e. J’exprime en premier lieu ma gratitude `a mes directeurs de th`ese. Fabien Garcia qui fut pour moi un directeur de th`ese tr`es attentif. Sa comp´etence, et sa rigueur scientifique m’ont beaucoup appris. Thierry Gayraud pour ses directives et ses conseils avis´es tout au long de cette th`ese. Mes sinc`ere remerciement vont aussi `a mon encadrant Nicolas Larrieu pour son soutien, ses relectures, sa gentillesse et ses conseils. Soyez assur´es de ma profonde gratitude. Je remercie les messieurs Congduc Pham et Thomas Noel pour avoir rapport´e ce manuscrit, ainsi que les messieurs Mounir Frikha, Yacine GhamriDoudane et Bastien Mancini pour avoir accept´e de juger mon travail. Mes vifs remerciements vont aussi `a tous ceux qui m’ont aid´e `a r´ealiser les exp´erimentations r´eelles sp´ecialement les membres de l’´equipe drones de l’ENAC. Je remercie toutes les personnes formidables que j’ai rencontr´ees `a l’ENAC. Je pense particuli`erement `a tous les membres de l’´equipe ResCo et sp´ecialement `a Alain Pirovano, notre adorable responsable d’´equipe, et les autres membres : Antoine, Fr´ed´eric, Jean-Aim´e, Mickael, Quentin, Slim et Stephano. Je ne saurais terminer sans remercier tous les stagiaires de cette ´equipe que j’ai crois´es durant ces derni`eres trois ann´ees, sp´ecialement ceux que j’ai eu l’occasion de superviser : Chifa et Alino´e et ceux avec qui j’ai partag´e mon bureau durant la r´edaction de ce manuscrit : Rita et Gilles. Mes sinc`eres remerciements et ma gratitude vont `a mes amis qui m’ont accompagn´e durant ces trois ans : Amel (ma ch`ere Moula ;) ), Amira, Hajer, Rihab, Madiha, Hasna et Anh. Enfin, les mots les plus simples ´etant les plus forts, j’adresse toute mon affection `a ma famille : mes chers parents et mon fr`ere Hedi. Je n’aurais rien fait de tout cela sans vous. viiviiiTable des mati`eres 1 Introduction 1 1.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.1.1 D3CoS . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.1.2 Drones dans des op´erations civiles . . . . . . . . . . . . 4 1.1.3 Syst`eme Paparazzi . . . . . . . . . . . . . . . . . . . . 8 1.2 Solutions pour les r´eseaux de communications . . . . . . . . . 10 1.2.1 R´eseaux satellite . . . . . . . . . . . . . . . . . . . . . 10 1.2.2 R´eseaux cellulaires . . . . . . . . . . . . . . . . . . . . 11 1.2.3 R´eseaux Ad hoc . . . . . . . . . . . . . . . . . . . . . . 12 1.2.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.3 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.4 Structure du m´emoire . . . . . . . . . . . . . . . . . . . . . . 16 2 R´eseaux ad hoc de drones 19 2.1 Taxonomie des MANET . . . . . . . . . . . . . . . . . . . . . 20 2.1.1 Les VANET . . . . . . . . . . . . . . . . . . . . . . . . 20 2.1.2 Les AANET . . . . . . . . . . . . . . . . . . . . . . . . 21 2.1.3 Les r´eseaux Ad hoc de drones . . . . . . . . . . . . . . 21 2.2 M´ecanismes pour les r´eseaux ad hoc de drones . . . . . . . . . 25 2.2.1 Niveau MAC . . . . . . . . . . . . . . . . . . . . . . . 25 2.2.2 Niveau routage . . . . . . . . . . . . . . . . . . . . . . 30 2.2.3 M´ecanismes de gestion de la QdS . . . . . . . . . . . . 39 2.3 Evaluation des r´eseaux ad hoc de drones . . . . . . . . . . . . 51 ´ 2.3.1 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . 51 2.3.2 Exp´erimentation r´eelle . . . . . . . . . . . . . . . . . . 59 3 Architecture DAN 63 3.1 Recueil d’exigences . . . . . . . . . . . . . . . . . . . . . . . . 64 3.2 Classes de trafic . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.3 L’architecture de DAN . . . . . . . . . . . . . . . . . . . . . . 68 3.3.1 API DAN . . . . . . . . . . . . . . . . . . . . . . . . . 69 ixx TABLE DES MATIERES ` 3.3.2 L’agent DAN . . . . . . . . . . . . . . . . . . . . . . . 70 3.3.3 Le contrˆoleur d’admission . . . . . . . . . . . . . . . . 71 3.3.4 Le classificateur . . . . . . . . . . . . . . . . . . . . . . 71 3.4 La signalisation de DAN . . . . . . . . . . . . . . . . . . . . . 72 3.5 Le Fonctionnement de DAN . . . . . . . . . . . . . . . . . . . 73 3.5.1 API DAN . . . . . . . . . . . . . . . . . . . . . . . . . 73 3.5.2 L’agent DAN . . . . . . . . . . . . . . . . . . . . . . . 76 3.5.3 Le contrˆoleur d’admission . . . . . . . . . . . . . . . . 77 3.5.4 Le classificateur . . . . . . . . . . . . . . . . . . . . . . 78 4 Evaluation des performances de DAN par simulation 81 ´ 4.1 Mod`ele de mobilit´e PPRZM . . . . . . . . . . . . . . . . . . . 82 4.1.1 Les mouvements des drones Paparazzi . . . . . . . . . 82 4.1.2 PPRZM . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4.1.3 Validation du mod`ele PPRZM . . . . . . . . . . . . . . 88 4.2 Evaluation de DAN . . . . . . . . . . . . . . . . . . . . . . . . 92 ´ 4.2.1 Evaluation du fonctionnement du Contrˆoleur d’admis- ´ sion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.2.2 Etude des minuteurs . . . . . . . . . . . . . . . . . . . 97 ´ 4.2.3 Performances g´en´erales de DAN . . . . . . . . . . . . . 106 4.2.4 Evaluation de l’impact de variation de la charge du ´ r´eseau . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 4.2.5 Evaluation avec d’ autres protocoles de routage . . . . 112 ´ 5 Impl´ementation et plate-formes de tests 117 5.1 Outils utilis´es . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 5.2 Impl´ementation de DAN . . . . . . . . . . . . . . . . . . . . . 119 5.3 R´esultats et discussion . . . . . . . . . . . . . . . . . . . . . . 121 5.3.1 Validation du fonctionnement du nouveau syst`eme de communication Paparazzi . . . . . . . . . . . . . . . . 123 5.3.2 Evaluation de DAN . . . . . . . . . . . . . . . . . . . . 127 ´ 6 Conclusions et perspectives 143 6.1 Travaux r´ealis´es . . . . . . . . . . . . . . . . . . . . . . . . . . 143 6.1.1 L’architecture DAN . . . . . . . . . . . . . . . . . . . . 144 6.1.2 Int´egration DAN au syst`eme Paparazzi . . . . . . . . . 145 6.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 6.2.1 Perspectives r´eseaux . . . . . . . . . . . . . . . . . . . 147 6.2.2 Op´erations pour les drones . . . . . . . . . . . . . . . . 149 A Annexe : Outils de simulation 167Table des figures 1.1 Communication coop´erative `a travers un drone relais . . . . . 6 1.2 Retransmission de communications par des drones collaboratifs 7 1.3 Communications dans un syst`eme de drones coop´eratifs . . . . 8 1.4 Communications satellites . . . . . . . . . . . . . . . . . . . . 10 1.5 Communications cellulaires . . . . . . . . . . . . . . . . . . . . 12 1.6 R´eseau Ad hoc . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.1 R´eseau Ad hoc v´ehiculaire . . . . . . . . . . . . . . . . . . . . 20 2.2 Communications ad hoc et communications centralis´ees . . . . 26 2.3 Le m´ecanisme CSMA/CA . . . . . . . . . . . . . . . . . . . . 27 2.4 Le sc´enario de LODMAC . . . . . . . . . . . . . . . . . . . . . 29 2.5 Les MPRs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.6 La transmission g´eographique gloutonne . . . . . . . . . . . . 34 2.7 M´ecanisme du protocole RGR . . . . . . . . . . . . . . . . . . 37 2.8 M´ethode de groupge . . . . . . . . . . . . . . . . . . . . . . . 38 2.9 Architecture hybride utilis´ee avec le protocole EHSR . . . . . 39 2.10 Mouvements de RWP . . . . . . . . . . . . . . . . . . . . . . . 53 2.11 Mouvements de RD . . . . . . . . . . . . . . . . . . . . . . . . 54 2.12 Mouvements de Gauss Markov avec trois valeurs de α . . . . . 55 2.13 Le principe de SRCM . . . . . . . . . . . . . . . . . . . . . . 56 3.1 Architecture de DAN . . . . . . . . . . . . . . . . . . . . . . . 70 3.2 Format des messages Reserve et Error . . . . . . . . . . . . . 72 3.3 Format du message Close . . . . . . . . . . . . . . . . . . . . 73 3.4 Exemple de fonctionnement de l’API DAN . . . . . . . . . . . 75 3.5 Diagramme de s´equencement de l’´etablissement et le rafraichissement des r´eservations . . . . . . . . . . . . . . . . . . . 77 3.6 Traitement de paquets par DAN . . . . . . . . . . . . . . . . . 79 4.1 Le mouvement rectiligne . . . . . . . . . . . . . . . . . . . . . 82 4.2 Le mouvement circulaire . . . . . . . . . . . . . . . . . . . . . 83 xixii TABLE DES FIGURES 4.3 Le mouvement oblong . . . . . . . . . . . . . . . . . . . . . . 84 4.4 Le mouvement Huit . . . . . . . . . . . . . . . . . . . . . . . . 84 4.5 Le mouvement balayage . . . . . . . . . . . . . . . . . . . . . 85 4.6 Traces r´eelles de trois drones Paparazzi . . . . . . . . . . . . . 85 4.7 Altitudes des trois drones Paparazzi utilis´es dans le graphe 4.6 86 4.8 Fonctionnement de PPRZM . . . . . . . . . . . . . . . . . . . 87 4.9 Exemple de calcul de m´etrique Frequency . . . . . . . . . . . . 89 4.10 Trajectoire suivie selon PPRZM . . . . . . . . . . . . . . . . . 91 4.11 Comparaison g´eom´etrique . . . . . . . . . . . . . . . . . . . . 93 4.12 Comparaison des performances du r´eseau . . . . . . . . . . . . 94 4.13 D´ebits mesur´es durant la simulation pour chaque flux de trafic 97 4.14 Taux de perte mesur´es avec chaque valeur de WTC pour les trois classes de trafic . . . . . . . . . . . . . . . . . . . . . . . 99 4.15 D´elais de bout en bout mesur´es avec les diff´erentes valeurs de WTC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 4.16 D´ebits de transmission mesur´es avec la variation de la dur´ee WTC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 4.17 Rapports entre le nombre de paquets de signalisation envoy´es et le nombre total de paquets Premium ´emis mesur´es avec les diff´erentes dur´ees de WTC . . . . . . . . . . . . . . . . . . . 102 4.18 Taux de perte mesur´es pour chaque classe de trafic durant les diff´erents tests . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 4.19 D´elais mesur´es pour chaque classe de trafic durant les diff´erentes simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4.20 D´ebit de transmission mesur´es pour les diff´erentes classes de trafic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4.21 Nombre de messages de signalisation ´echang´es au cours de chaque simulation . . . . . . . . . . . . . . . . . . . . . . . . . 105 4.22 Nombre de paquets par chaque file d’attente . . . . . . . . . . 107 4.23 D´ebit mesur´e durant la simulation pour les deux classes Premium et Best-effort . . . . . . . . . . . . . . . . . . . . . . . 108 4.24 Taux de perte mesur´e pour chaque classe de trafic . . . . . . . 110 4.25 D´elai mesur´e pour chaque classe de trafic . . . . . . . . . . . . 111 4.26 Moyennes de d´ebit de transmission mesur´ees pour les deux classes de trafic Premium et Best-effort . . . . . . . . . . . . . 112 4.27 Taux de perte mesur´es pour les diff´erentes classes de trafic . . 113 4.28 D´elai mesur´e pour chaque classe de trafic . . . . . . . . . . . . 113 4.29 D´ebits mesur´es pour les deux classes Best-effort et Premium avec les protocoles de routage OLSR et DSDV . . . . . . . . . 114 5.1 Quadricopt`ere Paparazzi . . . . . . . . . . . . . . . . . . . . . 118TABLE DES FIGURES xiii 5.2 Carte Raspberry Pi . . . . . . . . . . . . . . . . . . . . . . . . 118 5.3 Une cl´e Wi-Pi . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 5.4 l’int´egration de DAN au syst`eme Paparazzi . . . . . . . . . . . 120 5.5 Architecture du syst`eme Linux avec DAN . . . . . . . . . . . . 121 5.6 Extrait du diagramme de classe de l’agent DAN . . . . . . . . 122 5.7 Trajectoire des drones au cours de l’exp´erimentation . . . . . . 123 5.8 Capture d’´ecran de la station de contrˆole . . . . . . . . . . . . 124 5.9 Les valeurs TTL des paquets des deux drones G1 et HEN1 . . 125 5.10 D´ebit du trafic descendant . . . . . . . . . . . . . . . . . . . . 126 5.11 Sc´enario des exp´erimentations . . . . . . . . . . . . . . . . . . 128 5.12 D´ebits mesur´es pour les diff´erents flux de trafic . . . . . . . . 130 5.13 Taux de perte mesur´es pour chaque classe de trafic avec et sans DAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 5.14 D´elais mesur´es pour chaque classe de trafic avec et sans DAN 133 5.15 D´ebit mesur´e durant l’exp´erimentation sans DAN pour les classes Premium et Best-effort . . . . . . . . . . . . . . . . . . 134 5.16 D´ebit mesur´e durant l’exp´erimentation avec DAN pour les classes Premium et Best-effort . . . . . . . . . . . . . . . . . 135 5.17 D´ebits mesur´es pour les classes Premium et Best-effort . . . . 137 5.18 D´ebit mesur´e durant une exp´erimentation . . . . . . . . . . . 138 5.19 Nombre de paquets ICMP ´echang´es . . . . . . . . . . . . . . . 139 5.20 D´ebits mesur´es pour les deux classes Premium et Best-effort . 140 A.1 Captures ´ecran du simulateur OMNET++ . . . . . . . . . . . 168 A.2 Architecture d’un nœud utilisant le syst`eme DAN . . . . . . . 169 A.3 Architecture du module DAN classificateur . . . . . . . . . . . 169xiv TABLE DES FIGURESListe des tableaux 1.1 Avantages ou inconv´enients des syst`emes de communication . 14 2.1 Comparaison entre r´eseau de capteurs a´eriens et un r´eseau ad hoc de drones pour les syst`emes multi-drones . . . . . . . . . . 23 2.2 Comparaison VANET et UAANET . . . . . . . . . . . . . . . 24 2.3 Les protocoles de routage pour les UAANET . . . . . . . . . . 40 4.1 Sc´enario de la simulation . . . . . . . . . . . . . . . . . . . . . 92 4.2 Premier sc´enario . . . . . . . . . . . . . . . . . . . . . . . . . 95 4.3 Taux de perte mesur´e pour chaque Flux (%) . . . . . . . . . . 95 4.4 D´elai de bout en bout mesur´e pour chaque flux (ms) . . . . . 96 4.5 Temps d’attente dans la file d’attente pour chaque flux (ms) . 96 4.6 D´ebits mesur´es pour chaque flux de trafic . . . . . . . . . . . . 96 4.7 Deuxi`eme sc´enario . . . . . . . . . . . . . . . . . . . . . . . . 98 4.8 Troisi`eme sc´enario . . . . . . . . . . . . . . . . . . . . . . . . 106 4.9 Taux de perte mesur´e pour chaque classe de trafic (%) . . . . 106 4.10 D´elai de bout en bout mesur´e pour chaque classe de trafic . . 108 4.11 D´ebit mesur´e pour les deux classes de trafic Premium et Besteffort (Kbits/s) . . . . . . . . . . . . . . . . . . . . . . . . . . 108 4.12 Quatri`eme sc´enario . . . . . . . . . . . . . . . . . . . . . . . . 109 5.1 D´ebit g´en´er´e par les drones en kbits/sec . . . . . . . . . . . . 126 5.2 Taux de perte (%) mesur´es durant les diff´erentes p´eriodes de l’exp´erimentation . . . . . . . . . . . . . . . . . . . . . . . . . 127 5.3 Taux de perte mesur´e pour les diff´erents flux de trafic (%) . . 129 5.4 D´elais de bout en bout mesur´es pour les flux envoy´es (ms) . . 130 5.5 Taux de perte dues `a la congestion du r´eseau . . . . . . . . . . 132 5.6 D´ebit mesur´e pour les classes Premium et Best-effort durant les deux exp´erimentations (kbits/s) . . . . . . . . . . . . . . . 135 5.7 Taux de perte mesur´e pour chaque classe de trafic (%) . . . . 136 5.8 D´elai mesur´e pour chaque classe de trafic . . . . . . . . . . . . 137 xvxvi LISTE DES TABLEAUX 5.9 D´ebits mesur´es pour les deux classes Premium et Best-effort (kbits/s) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 5.10 D´elai mesur´e pour chaque classe de trafic (ms) . . . . . . . . . 140Chapitre 1 Introduction Contents 1.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . 2 1.1.1 D3CoS . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.1.2 Drones dans des op´erations civiles . . . . . . . . . 4 1.1.3 Syst`eme Paparazzi . . . . . . . . . . . . . . . . . . 8 1.2 Solutions pour les r´eseaux de communications . 10 1.2.1 R´eseaux satellite . . . . . . . . . . . . . . . . . . . 10 1.2.2 R´eseaux cellulaires . . . . . . . . . . . . . . . . . . 11 1.2.3 R´eseaux Ad hoc . . . . . . . . . . . . . . . . . . . 12 1.2.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . 13 1.3 Contributions . . . . . . . . . . . . . . . . . . . . . 14 1.4 Structure du m´emoire . . . . . . . . . . . . . . . . 16 Introduction Dans le cadre du projet europ´een, D3CoS 1 , ce travail de th`ese ´etudie l’architecture de communication appropri´ee pour une flotte de drones. Ce genre de syst`emes pr´esente des am´eliorations pour les performances des op´erations ordinaires et classiques de drones puisque plusieurs appareils collaborent entre eux afin de faciliter leur mission commune. Cette collaboration n´ecessite un niveau ´elev´e de coordination entre les diff´erents a´eronefs rendu possible par un ´echange continu e diff´erents types de donn´ees. Par cons´equent, un syst`eme de communication fiable doit ˆetre utilis´e pour faciliter la tˆache des 1. Designing Dynamic Distributed Cooperative Human-Machine Systems : http ://www.d3cos.eu/ 12 CHAPITRE 1. INTRODUCTION drones. La proposition de cette th`ese est ´etudi´ee par simulation ainsi que par des exp´erimentations r´eelles sur des mini-drones Paparazzi pr´esent´es dans ce chapitre. Ce chapitre pr´esente en premier lieu le contexte de cette th`ese. D’abord, il introduit le projet D3CoS et ses objectifs. Puis il pr´esente le domaine civil d’application de flottes de drones et donne des exemples de missions coop´eratives. Ensuite, il introduit le syst`eme d’auto-pilote Paparazzi. Dans la deuxi`eme partie de ce chapitre, diff´erents syst`emes de communication sont pr´esent´es afin de trouver le syst`eme le mieux adapt´e aux missions coop´eratives d’une flotte de drones. Par la suite, la contribution de cette th`ese est introduite dans la troisi`eme sous-section. Finalement, la quatri`eme sous-section pr´esente la structure de ce m´emoire. 1.1 Contexte 1.1.1 D3CoS Dans les derni`ere d´ecennies, la demande sur les transports (terrestres, a´eriens et maritimes) a connu une augmentation remarquable et rapide. Aujourd’hui, ils sont devenus un facteur clef de la soci´et´e modernes. La relation classique entre l’humain et la machine est bas´ee sur deux facettes du transport : le contrˆole des v´ehicules et le contrˆole du trafic. Les conducteurs des automobiles, les pilotes des a´eronefs, les contrˆoleurs de la circulation a´erienne et les officiers nautiques sont les responsables de la circulation des v´ehicules en toute s´ecurit´e mˆeme dans les zones les plus congestionn´ees ce qui peut causer, dans certaines situations, des d´egˆats humains et mat´eriels `a causent des capacit´es cognitives limit´ees de l’ˆetre humain. Aujourd’hui des innovations technologiques ont permis l’introduction de syst`emes d’assistance automatique dans ces tˆaches, apportant une interaction complexe entre humains et machines. Les mauvaises utilisations et les d´efauts de maitrise de ces innovations peuvent ˆetre aussi la cause des nouvelles erreurs humaines sources d’incidents voir d’accidents et des cons´equences d´esastreuses par exemple : la collision a´erienne d’Uberlingen ¨ 2 . La seule augmentation de l’automatisation des tˆaches n’est pas suffisante pour r´esoudre ces probl`emes. Ainsi, un meilleur niveau de coop´eration entre humains et machines avec un partage d’autorit´e entre eux doit aussi ˆetre envisag´e. Il manque aujourd’hui les ´el´ements clefs pour de nouvelles m´ethodes, des techniques et des outils qui vont au-del`a des syst`emes d’assistance tradition- 2. http ://www.securiteaerienne.com/la-collision-dueberlingen/1.1. CONTEXTE 3 nels et r´epondent `a l’ensemble des processus de d´eveloppement des syst`emes coop´eratifs. Ces ´el´ements clefs doivent ˆetre bas´es sur une perspective multiagents afin de relever les d´efis pos´es par les futurs environnements de circulation coop´erative. Le projet europ´een D3CoS, financ´e par l’initiative commune ARTEMIS 3 , vise `a d´evelopper des m´ethodes, des techniques et des outils (MTT : Methods, Technics and Tools) permettant de concevoir, d´evelopper et ´evaluer des syst`emes coop´eratifs multi-agents offrants aux op´erateurs humains et aux machines les moyens de partager les tˆaches assign´ees au syst`eme dans son ensemble. D3CoS vise `a int´egrer ces MTTs dans les processus de d´eveloppement du syst`eme industriel pour soutenir le d´eveloppement de syst`emes abordables et innovants de coop´eration homme-machine. Ces syst`emes coop´eratifs dynamiques distribu´es homme-machine sont appel´es DCoS (Distributed Cooperative Humain-Machine System). Pour faire face `a ce changement de paradigme d’une mani`ere r´ealiste, D3CoS s’est limit´e aux syst`emes coop´eratifs dans le domaine des transports dont deux tˆaches globales sont affect´ees : – Contrˆole d’un seul v´ehicule : Perspective de bord, o`u un v´ehicule effectue les tˆaches attribu´ees par un agent de bord(i.e. Un pilote de ligne avec un avion). – Contrˆole d’un trafic de v´ehicules : Perspective de la circulation, o`u un ensemble de v´ehicules est en comp´etition pour l’espace et le temps et ils r´esolvent leurs conflits en effectuant une collaboration spatiotemporelles (i.e. Un pilote contrˆolant une flotte de drones). D3CoS cible quatre domaines d’application : les avions pilot´es, les v´ehicules a´eriens sans pilote (drones), l’automobile et le maritime. Dans notre ´etude, nous allons nous focaliser sur le domaine des drones puisque depuis quelques ann´ees, l’av`enement de mini-drones, plus petits et moins couteux que leurs homologues, a ´etendue l’utilisation de ces a´eronefs au domaine civil afin de faciliter et am´eliorer les performances de certaines missions critiques. Les missions civiles de drones sont pr´esent´ees dans la section suivante. 3. Advanced Research and Technology in EMbedded Innovation Systems http ://www.artemis-ju.eu/4 CHAPITRE 1. INTRODUCTION 1.1.2 Drones dans des op´erations civiles Les drones, les engins volants sans pilotes (g´en´eralement appel´es UAV pour Unmanned Aerial Vehicle), sont utilis´es pour la premi`ere fois vers la fin de la premi`ere guerre mondiale par l’arm´ee am´ericaine. L’id´ee ´etait de guider des avions pilot´es `a distance sans le pilote dans le cockpit. Depuis, les drones sont devenus un sujet d’innovation dans diff´erents domaines et pour plusieurs types de missions [Blo]. Ils ont longtemps ´et´e un outil militaire, cependant, ces derni`eres ann´ees, leur utilisation a ´et´e ´etendue au domaine civil. Ils pr´esentent une solution prometteuse pour les missions les plus dangereuses, d´elicates et inadapt´ees aux pilotes humains. Ce qui permet de sauver des vies humaines puisqu’ils permettent de remplacer des avions et des h´elicopt`eres pilot´es. Grˆace au progr`es technologiques, les drones, aujourd’hui, existent en plusieurs dimension [dFB08] pour pouvoir s’adapter aux diff´erents types de mission. Il en existe des a´eronefs petits, l´egers, moins coˆuteux et capables de remplacer les humains dans plusieurs missions civiles comme la recherche et le sauvetage des survivants apr`es les catastrophes. En outre, ils sont utilis´es dans plusieurs op´erations de contrˆole de l’environnement et des ph´enom`enes naturels comme les ´emissions de gaz ou de liquide. Depuis quelques ann´ees, les chercheurs con¸coivent des applications pour les drones pour pouvoir op´erer d’une mani`ere plus autonome afin d’am´eliorer les performances de ces syst`emes et de simplifier au maximum la tˆache de l’op´erateur humain. 1.1.2.1 Op´erations traditionnelles Grˆace aux capteurs qui peuvent ˆetres int´egr´es dans l’a´eronef, les drones sont utilis´es dans diff´erentes missions. La premi`ere utilisation d’un drone dans une mission civile ´etait en 1969 par la NASA. Depuis, ils sont engag´es dans plusieurs tˆaches gouvernementales dont par exemple les op´erations de recherche des survivants apr`es les catastrophes naturelles, les accidents, notamment dans les conditions les plus difficiles comme les conditions m´etrologiques et les localisations g´eographiques inaccessibles ou dangereuses [LRGM10]. En outre, ils sont utilis´es dans des op´erations polici`eres comme le contrˆole de la circulation routi`ere. En effet, en Novembre 2010, la police allemande a utilis´e pour la premi`ere fois un drone pour contrˆoler des manifestations civiles 4 . Ces a´eronefs sont utiles aussi pour les pompiers. Grˆace aux capteurs infrarouges qui peuvent d´etecter le feu, les drones sont utilis´es pour d´ecouvrir les flammes dans les forˆets dans le but d’informer les pompiers `a temps. De 4. http ://www.bigbrotherawards.de/2011-en/.pol1.1. CONTEXTE 5 plus, ils servent dans plusieurs autres tˆaches comme la collecte des informations utilis´ees pour l’´evaluation des dommages ou pour la cr´eation et le suivi de la cartographie du feu en temps-r´eel ou comme la rediffusion des communications entre les pompiers et le centre de secours [CBM+05]. Les autorit´es am´ericaines ont d´ej`a utilis´e le drone Predator-B modifi´e avec une camera infrarouge afin de pouvoir aider les pompiers `a g´erer le feu des forˆets en Californie en 2007 5 . L’a´eronef transmettait des donn´ees pr´ecises en temps r´eel permettant d’anticiper la propagation du feu et de mieux exploiter les ressources. Les drones sont utilis´es aussi dans des missions de surveillance de grandes zones agricoles et mˆeme pour la pulv´erisation des r´ecoltes 6 . Ils peuvent servir, aussi, dans des tˆaches commerciales comme l’acquisition de donn´ees et d’images d’endroits inaccessibles et/ou dangereux, comme les r´egions sinistr´ees apr`es les catastrophes naturelles. Les images prises par le drones peuvent servir pour la cr´eation de cartes g´eographiques et mˆeme pour la r´ealisation de films 7 . Les drones marquent leur pr´esence aussi dans plusieurs domaines de recherches scientifiques comme l’environnement 8 , l’atmosph`ere 9 , la pollution [CSGM13, XLH+13], etc. Ils sont utilis´es pour r´ealiser des exp´erimentations et prendre des mesures comme la temp´erature et l’humidit´e. En outre, ils peuvent servir dans le domaine des communications et aider `a retransmettre les ´echanges entre deux groupes d’utilisateurs ´eloign´es comme en figure 1.1. En effet, `a cause de leur port´ee limit´ee, les r´eseaux sans fil peuvent avoir des probl`emes de connexion quand un ´equipement ou un groupe d’´equipements tentent d’envoyer une information vers d’autres utilisateurs ´eloign´es, en dehors de la port´ee de transmission de l’´emetteur. Ainsi, le drone am´eliore la connectivit´e dans le r´eseau en re-´emettant les messages transmis entre les deux extr´emit´es. Pour ce genre de missions, les drones doivent ˆetre contrˆol´es par un agent central, qui permet de diriger les op´erations en contrˆolant son ´evolution et l’´etat de l’a´eronef. Cet agent pilote et donne les instructions n´ecessaires aux a´eronefs en passant par une seule liaison de communication entre chaque drone et la station de contrˆole. Ces ´echanges sont assur´ees, par des communications point `a point et point `a multi-point (en ´etoile). 5. http ://machinedesign.com/news/newest-forest-firefighter-predator-uav 6. http ://www.gizmag.com/uav-crop-dusting/27974/ //2012 7. http ://www.fastcompany.com/1816578/unmanned-drones-go-from-afghanistan-tohollywood //2012 8. http ://www.aero-news.net/index.cfm ?do=main.textpost&id=aa628485-ba35-4bfe- 86ba-c94ea52ac38b //2005 9. http ://press.scanex.ru/index.php/en/news/item/4008-atmo //July 20136 CHAPITRE 1. INTRODUCTION Figure 1.1 – Communication coop´erative `a travers un drone relais 1.1.2.2 Op´erations coop´eratives Afin d’am´eliorer les performances des drones sur ces missions, des recherches sont men´ees afin de rendre les drones coop´eratifs. Une flotte de drones coop´eratifs serait alors capable de r´ealiser plus rapidement des missions plus complexe par le partage de diff´erentes tˆache entre eux. Les drones peuvent ˆetre responsables de l’´evolution de l’op´eration par l’acquisition de nouveaux comportement intelligents comme l’´evitement de collisions et la formation autonome du vol [RZH+04]. La coop´eration entre les drones permet de faciliter les missions usuelles et d’am´eliorer ses performances [YCBE10]. Ayant diff´erentes tˆaches, ils se compl`etent en collaborant pour atteindre un but commun comme par exemple les missions de retransmission des communications (figure 1.2), de cr´eation de cartes g´eographiques, de surveillance et les op´erations de recherche et de sauvetage. Cette collaboration est rendue possible par un niveau ´elev´e de coordination entre les drones atteint par un ´echange continu de donn´ees entre les drones tout au long de la mission. Par exemple, dans [RZH+04], une mission de surveillance d’une large zone g´eographique est pr´esent´ee pour ˆetre r´ealis´ee par un groupe de drones coop´eratifs. En ´echangeant des informations sur leurs positions g´eographiques, chaque a´eronef peut calculer son itin´eraire en fonction de celui des autres. Cet algorithme pr´esente une meilleure performance en termes de rapidit´e et fiabilit´e par rapport `a l’op´eration classique r´ealis´ee par un seul drone.1.1. CONTEXTE 7 Drones Nœuds du réseau terrestre Figure 1.2 – Retransmission de communications par des drones collaboratifs Plusieurs autres propositions ont ´et´e ´etudi´ees afin d’avoir une flotte de drones plus autonome qui peut se partager l’autorit´e et prendre des d´ecisions quand c’est n´ecessaire et mˆeme d’allouer les diff´erentes tˆaches entre les a´eronefs. En effet, dans [MYM01], les auteurs ont pr´esent´e une m´ethodologie pour cr´eer une strat´egie de recherche coop´erative mise en place par un groupe de drones. Cette m´ethodologie s’appuie sur l’´echange des informations concernant la mobilit´e de chaque a´eronef. Ces informations permettent aux drones d’avoir une id´ee de ce qui se passe autour d’eux et de calculer et de mettre `a jour leurs chemins de recherche. De plus, un algorithme d’estimation et de localisation des cibles pour un groupe de drones collaboratifs est propos´e dans [BVH07]. Cette m´ethode pr´esente de meilleurs r´esultats que ceux qui pourraient ˆetre obtenus avec un seul drone. Le projet CARUS [CLM+11] ´etudiait aussi l’utilisation d’une flotte de drones. Son but ´etait de montrer la faisabilit´e de l’utilisation de drones collaboratifs communicants dans une mission de surveillance de quelques points d’incident dans le but de r´esoudre des probl`emes techniques et humains. L’´echange des messages, dans cette ´etude, est r´ealis´e par une diffusion asynchrone entre les drones. La communication entre les agents joue un rˆole tr`es important dans ce8 CHAPITRE 1. INTRODUCTION Figure 1.3 – Communications dans un syst`eme de drones coop´eratifs genre d’op´eration puisque l’´evolution de la mission peut ˆetre affect´ee ou d´ecid´ee par l’´evolution d’une seule tˆache. Dans ce genre de syst`eme, deux types de liens de communications sont n´ecessaires : le lien entre les drones (drone-drones) et la liaison de communication entre les drones et la station de contrˆole (drone-sol) comme illustr´e par la figure 1.3. Cette nouvelle tendance d’utilisation des drones attirent plusieurs experts et amateurs de ces engins. Ils essaient, d’int´egrer ces fonctionnalit´es `a leurs syst`emes, et de cr´eer de nouvelles applications et de nouvelles missions. Le syst`eme Paparazzi, est l’un de ces syst`emes qui ne cesse d’´evoluer pour int´egrer des fonctions facilitant l’application des op´erations coop´eratives. 1.1.3 Syst`eme Paparazzi Cr´e´e par l’´equipe drones de l’ENAC 10 en 2003, Paparazzi [Pap] est un syst`eme complet de logiciels et de mat´eriel libre (open source) permettant de g´erer des syst`emes a´eriens sans pilotes (UAS pour Unmanned Aerial System). Il regroupe un auto-pilote pour diriger des a´eronefs `a voilure fixe ainsi que des multicopters, et une station sol qui contient des logiciels de planification de mission et de surveillance en utilisant une liaison de donn´ees bidirectionnelle pour le contrˆole et la t´el´em´etrie. 10. Ecole Nationale de l’Aviation Civile ´1.1. CONTEXTE 9 Aujourd’hui Paparazzi est utilis´e par des universit´es, des industriels ainsi que des amateurs partout dans le monde dans une grande vari´et´e d’a´eronefs, dont plusieurs ont ´et´e con¸cus sp´ecifiquement autour du syst`eme Paparazzi. Paparazzi permet de g´erer et de contrˆoler simultan´ement un ensemble de drones et continue `a ´evoluer pour faciliter la tˆache de contrˆole de plusieurs a´eronefs par un seul op´erateur. De plus, il permet de d´evelopper des applications civiles pour les drones grˆace aux diff´erents types de capteurs comme par exemple les appareils photo, les cam´eras vid´eo (en rajoutant un ´emetteur de vid´eo) et les capteurs m´et´eorologique. Afin de communiquer avec l’a´eronef, l’auto-pilote Paparazzi utilise une liaison bidirectionnelle pour garantir une t´el´em´etrie en temps-r´eel et pour pouvoir faire des r´eglages et envoyer des commandes durant le vol. La liaison descendante (de l’a´eronef vers la station sol), est consacr´ee `a la t´el´em´etrie. Elle contient des informations sur l’´etat de l’engin pour permettre l’´evolution de la mission de contrˆole comme par exemple la position g´eographique GPS de l’avion qui est envoy´ee et visualis´ee en temps r´eel au niveau de la station sol. Sur la liaison montante (de la station sol vers l’a´eronef), les messages de contrˆole `a distance ou les commandes sont envoy´es afin d’interagir avec le drone : par exemple, le changement de la direction ou du point d’acheminement de l’a´eronef. Le dispositif de liaison de donn´ees le plus utilis´e pour les syst`emes Paparazzi est la s´erie XBee. XBee s’appuie sur le standard 802.15.4 [Soc03], la base du Zigbee. Il fournit des communications point-`a-point et point-`a-multipoint (en ´etoile) avec un d´ebit qui ne d´epasse pas les 250 kbits/s. Ainsi, pour ´emettre de la vid´eo `a partir d’une cam´era embarqu´ee, il faut rajouter un transmetteur vid´eo. Paparazzi est reconnu pour ces qualit´es techniques et son coˆut relativement faible 11. Aujourd’hui, il envisage d’am´eliorer son syst`eme de communication par l’ajout de la fonctionnalit´e de relais d’information et d’´echange de communications inter-drones. La section suivante pr´esente des solutions de r´eseaux de communications permettant de communiquer les drones entre eux et avec la station de contrˆole. 11. http ://www.objectifnews.com/node/478 Publi´e en 200910 CHAPITRE 1. INTRODUCTION Figure 1.4 – Communications satellites 1.2 Solutions pour les r´eseaux de communications Grˆace au progr`es dans le domaine des t´el´ecommunications, on vit aujourd’hui dans un monde connect´e grˆace aux diff´erents types de technologies disponibles. En effet, il est possible de faire communiquer deux extr´emit´es distant `a l’aide d’une ou plusieurs technologies sans fil. Ainsi, pour faire communiquer plusieurs drones entre eux et avec leur(s) station(s) de contrˆole, plusieurs possibilit´es existent comme les communications satellites, cellulaires ou ad hoc. 1.2.1 R´eseaux satellite Afin de faire communiquer deux points tr`es ´eloign´es l’un de l’autre, situ´es dans des r´egions o`u il est impossible d’avoir une infrastructure fixe, les communications satellites sont la meilleure solution. Il existe deux types de satellites qui assurent la communication. Le premier type est le satellite g´eostationnaire ; il reste fixe par rapport `a une position g´eographique puisque il tourne autour de la terre avec la mˆeme vitesse que cette derni`ere. Ces satellites couvrent une zone g´eographique fixe bien1.2. SOLUTIONS POUR LES RESEAUX DE COMMUNICATIONS ´ 11 d´etermin´ee. Le deuxi`eme type de satellite est le satellite orbital qui, contrairement aux satellites stationnaires, couvre des zones g´eographiques diff´erentes puisque il se d´eplace sur une orbite autour de la terre. Ce type de communication est souvent utilis´e pour la t´el´evision, les communications a´eronautiques, maritimes militaires et les missions du contrˆole des diff´erentes zones g´eographiques sur la surface de la terre, etc. (figure 1.4) Les satellites peuvent assurer la communication aussi entre la station sol et le drone dans les syst`emes mono-drone. Par cons´equent, pour les syst`emes multi-drones, chaque a´eronef peut communiquer avec la station de base `a travers un satellite. Ainsi, les communications entre drones peuvent aussi passer de la mˆeme mani`ere. Cependant, cette approche a quelques point faibles comme par exemple l’importante latence de transmission et le coˆut de lacement du satellite. De plus, les drones ainsi que la station de contrˆole doivent ˆetre sur la ligne de vis´ee du satellite. En effet, pour certaines missions, des arbres ou des bˆatiments peuvent ˆetre des obstacles contre le signal ´echang´e entre les drones et leur satellite relais. Par ailleurs, la performance des syst`emes satellitaires est li´ee `a la puissance d’´emission des ´emetteurs au sol, ce qui peut ˆetre un inconv´enient pour les mini ou micro-drones qui sont ´equip´es avec des batteries `a faible capacit´e. 1.2.2 R´eseaux cellulaires Un autre type de communication, le plus utilis´e de nos jours, est les r´eseaux de communications cellulaires (figure 1.5). Bas´ee sur une topologie centralis´ee, cette technologie consiste `a d´ecouper un territoire en zone (cellules), chacune est desservie par une station de base (le point central). Toute les communications doivent passer par ce point central qui a pour rˆole de les acheminer `a leurs destinations. Les communications cellulaires sont la base des technologies de la t´el´ephonie mobile comme le GSM, GPRS, UMTS, LTE [Mis04] et les communications de donn´ees sans fil comme le Wi-Fi et le WiMAX ([BGL08], [Ete08]) puisque ils offrent une extrˆeme libert´e pour les utilisateurs nomades. Contrairement aux r´eseaux satellitaires, les r´eseaux cellulaires utilisent des ´emetteurs de faible puissance. Pour cela, il peuvent ˆetre une solution pour faire communiquer les drones en utilisant l’infrastructure des op´erateurs t´el´ephoniques d´ej`a existante pour ´eliminer les contrainte de la port´ee et de la mobilit´e. Cependant, le coˆut de communication n’est pas n´egligeable dans ce cas d’utilisation, mˆeme avec l’installation d’une nouvelle infrastructure. En plus,12 CHAPITRE 1. INTRODUCTION Figure 1.5 – Communications cellulaires il est difficile de couvrir toute les zones et de garder cette infrastructure dans certains cas comme apr`es les catastrophes naturelles. 1.2.3 R´eseaux Ad hoc Contrairement aux r´eseaux satellites ou cellulaires, les r´eseaux ad hoc mobiles (MANET pour Mobile Ad hoc NETwork) ne n´ecessitent pas une infrastructure fixe (des antennes relais ou satellite) pour acheminer les messages d’un nœud vers un autre (figure 1.6). Le principe des r´eseaux ad hoc est bas´e sur la coop´eration entre les diff´erents nœuds du r´eseau. En effet, chaque nœud communique directement avec ses voisins qui se chargent de retransmettre les messages jusqu’`a leur destination. Chaque nœud est un relais qui permet de retransmettre les paquets `a leurs destination finale. Cette coop´eration permet aux nœuds de bouger librement ce qui peut causer des changements fr´equents et rapides de la topologie du r´eseau. Un changement qui peut causer la coupure de lien et en mˆeme temps la cr´eation de nouveaux . Ainsi, pour faire face aux changements dynamiques, fr´equents et rapides de la topologie, le syst`eme ad hoc n´ecessite des protocoles de communications sp´ecifiques puisque c’est un syst`eme autonome qui a le pouvoir de s’organiser automatiquement. Les protocoles de routage sont un exemple de ces protocoles. Ils sont responsables de d´etecter ce changement brusque et d’´etablir des chemins vers chaque destination. En effet, un chemin est la liste1.2. SOLUTIONS POUR LES RESEAUX DE COMMUNICATIONS ´ 13 Figure 1.6 – R´eseau Ad hoc des nœuds interm´ediaires (relais) `a traverser par un paquet afin d’atteindre sa destination finale. Par cons´equent, les r´eseaux ad hoc sont bien adapt´es aux syst`emes de communication mobiles, dynamiques, ayant une topologie distribu´ee maill´ee, sans oublier leurs coˆuts raisonnable puisqu’ils ne n´ecessitent aucune infrastructure fixe. 1.2.4 Discussion Dans les syst`emes a´eronautiques coop´eratifs sans pilote, plusieurs drones collaborent entre eux pour achever un but commun. Ces syst`emes exigent une coordination totale entre leurs diff´erents agents. Par cons´equent, les a´eronefs doivent avoir une id´ee actualis´ee en temps r´eel sur l’´etat et le d´eroulement des tˆaches des autres avions afin d’assurer la coordination entre eux et de pouvoir adapter leurs tˆaches `a ce changement si n´ecessaire, comme par exemple le syst`eme TARF [TBV13] ´etudi´e pour les drones Paparazzi. Il s’agit d’une fonction dynamique permettant aux drones de s’auto-allouer de nouvelles tˆaches en cas d’´ev´enements soudains comme l’atterrissage d’urgence de l’un des a´eronefs. Par cons´equent, les drones doivent ´echanger r´eguli`erement des messages entre eux dans un environnement mobile dynamique. Pour cela, il faut choisir le syst`eme de communication le plus adapt´e aux caract´eristiques des syst`emes de mini-drones coop´eratifs.14 CHAPITRE 1. INTRODUCTION Le tableau 1.1 compare l’utilisation des diff´erents syst`emes de communication pr´esent´es dans les sections pr´ec´edentes dans le contexte de flotte de drones. Syst`eme de communication Avantages et/ou Inconv´enients sur les r´eseaux de mini-drones Communications satellite – Latence d’´emission – Coˆut ´elev´e – Puissance d’´emission importante Communications cellulaires – Coˆut ´elev´e – Indisponibilit´e de l’infrastructure dans des situations critiques Communication ad hoc – Coˆut faible – Moins de contraintes sur la mobilit´e Table 1.1 – Avantages ou inconv´enients des syst`emes de communication Les mini-drones sont caract´eris´es par un poids l´eger, une capacit´e de charge limit´ee, et une capacit´e en ´energie restreinte. En effet, un micro-drone ne peut pas supporter trop de charge puisque plus le mat´eriel est l´eger plus l’engin peut atteindre de hautes altitudes et plus son endurance est longue [CYCG07]. Par ailleurs, les drones sont con¸cus pour ˆetre utilis´es dans les endroits les plus dangereux et les plus difficiles `a atteindre par l’homme. Il est dif- ficile d’avoir une couverture cellulaire dans ces endroits `a cause de la complexit´e d’impl´ementation des relais fixes dans ces lieux. De plus, apr`es les catastrophes naturelles, ces infrastructures risquent d’ˆetre endommag´es. En outre, il ne faut pas oublier le coˆut ´elev´e de cette infrastructure et de sa maintenance ou mˆeme le coˆut de l’utilisation des relais d´ej`a impl´ement´es par les op´erateurs de t´el´ephonie mobile. Par cons´equent, les r´eseaux ad hoc sont bien adapt´es pour le r´eseau de communications d’une flotte de drones. 1.3 Contributions Le r´eseau ad hoc est une solution raisonnable pour faire communiquer les drones entre eux, `a l’int´erieur d’une flotte, et avec la station sol tout en respectant leur libert´e de mouvement. De plus, les r´eseaux ad hoc sont rentables par rapport aux autres r´eseaux qui n´ecessitent une infrastructure1.3. CONTRIBUTIONS 15 couteuse qui, dans certaines situations, risque d’ˆetre endommag´ees. Pour les syst`emes multi-agents, o`u diff´erentes entit´es collaborent ensemble pour atteindre un but commun, plusieurs tˆaches compl´ementaires sont attribu´ees `a chaque agent. Ces tˆaches ont diff´erents niveaux d’importance ou de priorit´e et chacune d’eux n´ecessite des informations sp´ecifiques et offre des r´esultats diff´erents des autres. En appliquant ce genre de paradigme sur une flotte de drones, chaque a´eronef aura une tˆache d’un niveau d’importance ou de priorit´e diff´erents des autres. En cons´equence, les drones ´echangeront une vari´et´e de types de messages selon leurs r´esultats et leurs besoins. Ainsi, chaque drone aura des demandes sp´ecifiques en termes de communication. Par exemple, dans le cadre de missions de contrˆole d’une zone g´eographique, une flotte de drones collabore en contrˆolant chacun une petite section. Ces drones transmettent de la vid´eo ainsi que la temp´erature mesur´ee `a la station de contrˆole. La temp´erature qui est une information envoy´ee r´eguli`erement est moins gourmande en ressources que la vid´eo. De plus, le drone qui s’occupe de la section la plus dangereuse doit envoyer une vid´eo avec une meilleure qualit´e que les autres, ainsi ce trafic n´ecessite plus de d´ebit. Ces besoins peuvent ´evoluer au cours du temps, puisque les tˆaches de chaque drone peuvent changer `a n’importe quel instant. Le syst`eme de communication utilis´e pour ce genre de mission doit ˆetre conscient de ces besoins ainsi que de leur ´evolution au cours du temps. Il doit ˆetre capable de diff´erencier le service et fournir `a chaque classe de trafic la qualit´e de service demand´ee. Nous proposons dans cette th`ese une architecture de communication con¸cue pour r´epondre `a ces exigences. Cette architecture est adapt´ee aux r´eseaux des flottes de drones coop´eratifs. Elle est ´etudi´ee pour pouvoir r´ealiser ce genre de syst`eme avec Paparazzi. En effet, elle est impl´ement´ee sur des drones r´eels Paparazzi et test´ee dans un environnement r´eel. Avant son int´egration au syst`eme Paparazzi, les performances de cette architecture de communication sont ´evalu´ees par simulation en utilisant le simulateur de r´eseau OMNET++. Cette simulation est r´ealis´ee dans un environnement proche de la r´ealit´e afin de pr´edire les probl`emes qui peuvent affecter le syst`eme dans son environnement r´eel. Pour cette raison, un mod`ele de mobilit´e reproduisant les mouvements r´eels de drones Paparazzi est cr´ee. L’objectif de cette ´etude est de cr´eer un nouveau syst`eme de communication Paparazzi permettant de contrˆoler une flotte de drone coop´eratifs tout en respectant les diff´erents besoins en terme de communication pour chaque a´eronef afin de garantir les meilleures performances pour les op´erations.16 CHAPITRE 1. INTRODUCTION 1.4 Structure du m´emoire Ce m´emoire est organis´e en six chapitres. Le premier pr´esente le travail r´ealis´e durant cette th`ese ainsi que son cadre d’application et de d´eploiement. Le deuxi`eme introduit les r´eseaux ad hoc de drones et pr´esente ces caract´eristiques par rapport aux autres classes des MANET. Par la suite, il pr´esente les diff´erents techniques et protocoles abord´es dans ce cadre d’´etudes dans le but de pouvoir choisir les protocoles MAC et routage qui r´epondent `a nos exigences. Ensuite, il pr´esente les diff´erents m´ecanismes de gestion de la qualit´e de service (QdS) dans les r´eseaux filaires et ad hoc utilis´es au niveau MAC et routage ainsi que des structures de diff´erenciation de service. La suite de ce chapitre pr´esente les deux moyens que nous allons utiliser pour ´evaluer l’architecture de communication propos´ee : la simulation et l’exp´erimentation r´eelle. Pour cette raison, il pr´esente les diff´erents mod`eles de mobilit´e utilis´es pour les simulations des syst`emes de communication ad hoc dans le but de cr´eer un environnement de simulation r´ealiste. Ensuite, il introduit des plateformes de tests des flottes de drones d´ej`a r´ealis´ees. Le troisi`eme chapitre r´esume les exigences des syst`emes de drones coop´eratifs et pr´esente, par la suite, l’architecture de communication que nous proposons dans ce m´emoire et d´etaille le fonctionnement de chacun de ses modules. Le quatri`eme chapitre est d´edi´e `a l’´etude d’´evaluation des performances de l’architecture de communication propos´ee par simulation. Il est organis´ee en deux sections. La premi`ere section pr´esente le mod`ele de mobilit´e que nous avons cr´e´e dans le but de reproduire les mouvements de drones Paparazzi et construire un environnement de simulation proche de la r´ealit´e. Nous d´etaillons le principe de ce mod`ele ainsi que l’´etude r´ealis´ee pour valider son fonctionnement. Par la suite, la deuxi`eme section aborde l’´etude par simulation r´ealis´ee pour le syst`eme de communication propos´e : elle pr´esente les diff´erents sc´enarios et analyse leurs r´esultats. Dans le cinqui`eme chapitre, les exp´erimentations r´eelles r´ealis´ees sont abord´ees. Ces exp´erimentations permettent d’´evaluer et valider le fonctionnement de notre proposition dans son environnement de d´eploiement r´eel. D’abord, nous d´etaillons les diff´erentes modifications mat´erielles et logicielles r´ealis´ees pour le syst`eme Paparzzi afin de pouvoir d´eployer notre architecture de communication. Par la suite, nous d´etaillons les sc´enarios des diff´erents tests r´ealis´es et nous analysons les r´esultats obtenus. Le dernier chapitre conclue ce m´emoire. Il r´esume le travail effectu´e ainsi que les contributions. Il est suivi d’un ensemble de perspectives pouvant permettre de compl´eter ce travail et d’explorer de nouvelles id´ees prometteuses1.4. STRUCTURE DU MEMOIRE ´ 17 pour les domaines des r´eseaux de communication et des drones. Conclusion Afin de r´eussir une mission con¸cue pour une flotte de drones coop´eratifs, un ´echange de donn´ees continue est n´ecessaire permettant d’atteindre un niveau de coordination ´elev´e entre les a´eronefs et leur station de contrˆole. Par cons´equent, la communication joue un rˆole important dans la r´eussite de ces op´erations. Les r´eseaux ad hoc sont une solution prometteuse pour les communications entre les drones et avec la station sol. Au cours d’une op´eration collaborative, les drones jouent diff´erents rˆoles et ´echangent une vari´et´e de messages demandant diff´erents besoins en termes qualit´e de service (d´ebit, d´elai, pertes, etc.). Par cons´equent, un syst`eme de communication conscient de ces demandes doit ˆetre utilis´e pour g´erer les ressources dans le r´eseau. Ce chapitre a introduit le contexte de cette th`ese et a donn´e des exemples sur les missions con¸cues pour des flottes de drones civils. Ensuite, une discussion autour des diff´erents syst`emes de communication a ´et´e pr´esent´ee afin de trouver le syst`eme appropri´e. Finalement, notre contribution a ´et´e introduite. Le chapitre suivant pr´esente les diff´erentes propositions ´etudi´ees pour faire communiquer les drones `a l’int´erieure d’une flotte.18 CHAPITRE 1. INTRODUCTIONChapitre 2 R´eseaux ad hoc de drones Contents 2.1 Taxonomie des MANET . . . . . . . . . . . . . . 20 2.1.1 Les VANET . . . . . . . . . . . . . . . . . . . . . . 20 2.1.2 Les AANET . . . . . . . . . . . . . . . . . . . . . 21 2.1.3 Les r´eseaux Ad hoc de drones . . . . . . . . . . . . 21 2.2 M´ecanismes pour les r´eseaux ad hoc de drones 25 2.2.1 Niveau MAC . . . . . . . . . . . . . . . . . . . . . 25 2.2.2 Niveau routage . . . . . . . . . . . . . . . . . . . . 30 2.2.3 M´ecanismes de gestion de la QdS . . . . . . . . . . 39 2.3 Evaluation des r´eseaux ad hoc de drones . . . . 51 ´ 2.3.1 Simulation . . . . . . . . . . . . . . . . . . . . . . 51 2.3.2 Exp´erimentation r´eelle . . . . . . . . . . . . . . . . 59 Introduction Les r´eseaux ad hoc pr´esentent une solution pour les communications entre les drones `a l’int´erieur d’une flotte et avec la station de contrˆole. En effet, l’´echanger de donn´ees entre les diff´erents nœuds dans un r´eseau ad hoc, ne n´ecessite pas un ´el´ement central responsable de l’acheminement des communications comme le satellite ou les antennes relais utilis´ees dans les r´eseaux cellulaires. Il existe diff´erentes classes de MANET classifi´ees selon des caract´eristiques en termes d’utilisations et de d´eploiement. Par cons´equent, chaque classe a ses propres exigences et besoins en termes de communication. Ce chapitre pr´esente les diff´erentes classes de MANET et compare leurs caract´eristiques dans la premi`ere section. Par la suite, il se focalise sur les 1920 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ r´eseaux ad hoc de drones et pr´esente les diff´erents m´ecanismes ´etudi´es pour permettre aux drones d’´echanger des donn´ees `a travers un r´eseau ad hoc. La troisi`eme section de ce chapitre pr´esente deux moyens d’´evaluation des performances des syst`emes de communication qui sont la simulation et l’exp´erimentation r´eelle. 2.1 Taxonomie des MANET Les MANET sont adapt´es aux r´eseaux distribu´es moyennement dense qui permettent de d´efinir des routes entre les diff´erents nœuds. Chaque syst`eme peut ˆetre caract´eris´e par des propres crit`eres comme les conditions de son environnement d’application (densit´e, interf´erence, changement de topologie, etc), la capacit´e des ´equipements utilis´es (port´ee radio, autonomie, ´energie, etc). Par cons´equent, il existe plusieurs sous-classes de MANET classifi´ees selon leurs utilisations, objectifs, d´eploiements ou types de communications. Les r´eseaux ad hoc v´ehiculaires VANET (Vehicular Ad hoc NETwork) ainsi que les r´eseaux ad hoc a´eronautiques AANET (Aeronautical Ad hoc NETwork) sont deux classes de MANET. 2.1.1 Les VANET Les VANET sont les r´eseaux de communications ad hoc au sein d’un groupe de v´ehicules dans le but de communiquer entre eux et avec des ´equipements fixes `a port´ee (figure 2.1). Ce qui caract´erise cette classe de Figure 2.1 – R´eseau Ad hoc v´ehiculaire r´eseau par rapport aux autres est la mobilit´e des nœuds. En effet, les v´ehicules tendent `a se d´eplacer ensemble d’une mani`ere organis´ee suivant des routes bien d´efinies. Ce mouvement est loin d’ˆetre au hasard, puisque le choix des2.1. TAXONOMIE DES MANET 21 trajectoires pour atteindre une position g´eographique est limit´e. Il d´epend du nombre des chemins disponibles. Un autre crit`ere sp´ecifique des VANET est l’´energie. Contrairement aux autres ´equipements des MANET, les v´ehicules n’ont aucune contrainte sur l’´energie. Les VANET sont la clef des syst`emes v´ehiculaires du futur, dans lesquels les v´ehicules communiquent entre eux pour fournir des informations concernant la situation du trafic (comme l’´etat de la circulation, les travaux sur les routes, les accidents, etc.) aux conducteurs et aux autorit´es concern´ees. 2.1.2 Les AANET Les r´eseaux ad hoc a´eronautiques sont pr´esent´es comme une solution pour augmenter la s´ecurit´e des vols puisque les syst`emes de communication solbord existant comme les communications satellites ou bande L sont limit´es en termes de capacit´e, de couverture et de coˆut de d´eploiement. En effet, l’utilisation des avions comme des relais permet d’´etendre la port´ee des avions et de pouvoir propager ses donn´ees jusqu’une station sol [Bes13]. Ce syst`eme peut ˆetre utile pour des services pour les passagers ou pour les compagnies a´eriennes comme l’enregistrement de la boite noires en temps r´eel. Les AANET et les VANET se ressemblent beaucoup en ce qui concerne la mobilit´e et l’´energie puisque les avions aussi suivent des trajectoires bien d´efinies entre chaque point de d´epart et point d’arriv´ee et n’ont pas de contrainte d’´energie. Ces deux classes ont des diff´erences au niveau de la vitesse et l’altitude. En effet, contrairement aux v´ehicules qui circulent sur le sol, les avions suivent des chemins dans diff´erents niveaux d’altitude et avec des vitesses beaucoup plus importantes. En se basant sur ces ressemblances, des chercheurs trouvent que les AANETs et VANET appartiennent `a la mˆeme cat´egorie comme en [RPG13]. . 2.1.3 Les r´eseaux Ad hoc de drones Les UAANET (UAV Ad hoc NETwork ), les r´eseaux ad hoc de drones d´efinit une nouvelle forme de MANET o`u les nœuds sont des drones qui permettent de retransmettre les messages vers leurs destinations. En effet, r´ecemment des recherches ont ´et´e men´ees permettant de cr´eer des syst`emes multi-drones collaboratifs comme dans [MRM11] ou dans [BVH07] o`u plusieurs drones coop`erent entre eux afin d’accomplir une mission avec des meilleures performances. Ces syst`emes collaboratifs n´ecessitent l’´etablissement22 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ de communications inter-drones pour assurer la coordination entre les diff´erents agents du syst`eme comme l’´echange de positions g´eographiques pour l’´evitement de collisions ou pour la re-planification autonome de tˆaches entre les agents d’une mission. Les r´eseaux ad hoc de drones peuvent ˆetre appliqu´es aux syst`emes o`u plusieurs drones sont utilis´es, un seul drone ne peut pas cr´eer un r´eseau ad hoc. 2.1.3.1 Comparaison r´eseaux de capteurs et UAANET i. Rappel sur les r´eseaux de capteurs Le r´eseaux de capteurs, WSN (Wireless Sensor Network), est un groupe de micro-capteurs qui contrˆolent et collectent des informations sur les conditions de diff´erents endroits comme par exemple la temp´erature, l’humidit´e, la pollution, le sens et la direction du vent. Le succ`es de ces syst`emes est dˆu au faible coˆut des capteurs, leur petite taille et leur efficacit´e dans plusieurs domaines puisque il en existe plusieurs types. Par contre, les WSN sont tr`es limit´es en ´energie ce qui n´ecessite l’utilisation de protocoles de communication ´economes en ´energie. ii. La comparaison Dans la litt´erature, un autre nom d´esignant les r´eseaux ad hoc de drones est utilis´e. Il s’agit du r´eseau de capteurs a´eriens (Aerial Sensor Network) comme dans [PZ09], dans [QKWS+10] ou dans [GHWL13]. Cependant, cette application est diff´erente des syst`emes multi-drones collaboratifs puisque c’est un r´eseau de capteurs mobiles ou les capteurs sont embarqu´es dans des drones. Ils collectent les donn´ees et les retransmettent vers un point de collecte, souvent au sol. La diff´erence entre ce syst`eme et les UAANET se r´esume en trois point (tableau 2.1). – Premi`erement, le rˆole des drones est diff´erent dans les deux cas d’utilisation puisque dans les r´eseaux de capteurs a´eriens, le drone a un rˆole passif, il n’est qu’un simple transporteur de capteur, alors que pour les UAANET les drones sont des agents du syst`eme, acteurs de leurs propres tˆaches et programm´es selon des fonctions complexes afin d’assurer la coordination du syst`eme et mˆeme de prendre des d´ecisions. Ainsi, ils ont leurs propres besoins d’information et de communication ; – Deuxi`emement, le sens du trafic est l’une des diff´erences entre les r´eseaux de capteurs a´eriens et les UAANET puisque dans le premier syst`eme le trafic passe uniquement des capteurs vers le point de collecte tandis que dans un UAANET le trafic peut passer dans tous les sens : entre2.1. TAXONOMIE DES MANET 23 les drones, des drones vers la station sol et de la station sol vers les drones, ce qui cr´ee un r´eseau plus dynamique et plus charg´e ; – Le troisi`eme point de diff´erence est la densit´e. En effet, la densit´e de nœuds dans les r´eseaux de capteurs traditionnel est beaucoup plus importante que la densit´e des drones dans les syst`emes multi-drones. Crit`eres R´eseau de capteur a´erien UAANET Rˆole des drones passif actif Sens du trafic un seul sens plusieurs sens Densit´e +++ + Energie ´ - - - - Table 2.1 – Comparaison entre r´eseau de capteurs a´eriens et un r´eseau ad hoc de drones pour les syst`emes multi-drones Comparaison VANET et UAANET Les UAANET sont une classe des MANET, elle h´erite de ses caract´eristiques de conceptions et diff`ere des autres classes par certaines sp´ecificit´es. En effet, en comparant UAANET avec VANET on trouve plusieurs diff´erences : – Mobilit´e et changement de topologie : contrairement aux v´ehicules qui se d´eplacent ensemble suivant des chemins pr´ed´etermin´es (des routes, des autoroutes ou des rails), les drones ont la libert´e de bouger librement selon leurs plans de vol et parfois selon l’´evolution de leurs tˆaches. Il est, donc, difficile de pr´edire les mouvements d’un drone puisque mˆeme avec un plan de vol pr´ed´etermin´e, il y a toujours des changements impr´evus `a cause des conditions de l’environnement ou de l’´evolution de la mission. En outre, chaque drone peut avoir son propre plan de vol modifiable selon les exigences de la mission ce qui cause le changement soudain, fr´equent et parfois rapide de la topologie du r´eseau entrainant la perturbation de connections `a cause de la rupture soudaine et la cr´eation des liens entre les a´eronefs [YKB11]. Ce crit`ere est la diff´erence majeure entre UAANET et les autres MANET ; – Altitude et ligne de vision : dans les VANET, les nœuds bougent proche du sol, pratiquement `a la mˆeme hauteur. Par cons´equent, il est difficile d’avoir une ligne de vision directe entre chaque ´emetteur et r´ecepteur. Par contre, puisque les drones volent `a une certaine altitude, il est possible d’avoir tr`es souvent une ligne de vision entre les a´eronefs24 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ [BST13] ; – Energie ´ : les UAANET, comme la majorit´e des classes de MANET, ont des sources d’´energie tr`es limit´ee, ainsi ces syst`emes n´ecessitent des protocoles de communications qui ´economisent de l’´energie afin d’augmenter leurs dur´ees de vie. Cette contrainte est valide uniquement pour les petit drones. Cependant, dans les VANET, le r´eseau ne n´ecessite pas des protocoles ´economisant de l’´energie puisque les communications entre les engins sont support´es par les batteries des v´ehicules, donc ils n’ont aucun probl`eme d’autonomie ; – Densit´e du r´eseau : il est possible de trouver une dizaine de voitures par route, et quelques centaines de v´ehicules dans les auto-routes ce qui explique que les VANET sont en g´en´eral des r´eseaux tr`es denses contrairement aux UAANET o`u le syst`eme multi-drone comporte uniquement quelques drones. Caract´eristique VANET UAANET Mobilit´e en groupe oui non Type du mouvement organis´e suivant des al´eatoire selon l’environnement routes pr´e-d´efinies et l’´evolution de la mission Vitesse rapide moins rapide Source d’´energie suffisante limit´ee Ligne de vision rarement plus souvent Densit´e du r´eseau importante faible Table 2.2 – Comparaison VANET et UAANET Une autre exigence des UAANET est le passage `a l’´echelle. En effet, la collaboration entre plusieurs drones permet d’am´eliorer les performances du syst`eme par rapport aux syst`emes mono-drone. Pour certaines missions, l’am´elioration des performances du syst`eme est li´ee au nombre d’a´eronefs impliqu´es. Par exemple, les auteurs dans [YCBE10] montrent que plus que le nombre de drones impliqu´es dans des missions de recherche et de sauvetage est grand, plus la mission est rapide. Une fois appliqu´e, ce syst`eme permettra aux utilisateurs de drones de cr´eer de nouvelles applications tr`es innovantes.2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 25 2.2 M´ecanismes pour les r´eseaux ad hoc de drones Pour les missions de drones collaboratifs, la communication entre les diff´erents engins joue un rˆole tr`es important afin d’assurer la coordination totale et garantir une meilleure performance. Le syst`eme de communication pour ce genre de mission doit faire face `a un autre d´efi, il s’agit d’acheminer chaque message `a sa destination avec la qualit´e demand´ee en termes de d´elais, de pertes et de d´ebit. Cette section pr´esente les techniques et les protocoles de communication d´ej`a utilis´es et propos´es pour assurer la communication dans les UAANET. 2.2.1 Niveau MAC Le r´eseau ad hoc est un syst`eme auto-organis´e d’engins connect´es `a travers des liaisons sans fil. Dans ce genre de r´eseaux, le canal de transmission radio est strictement contrˆol´e `a cause de la bande passante disponible limit´ee par rapport aux r´eseaux filaires. De plus, d’autres facteurs peuvent r´eduire la capacit´e de la bande passante comme l’interf´erence et la congestion sans oublier que le support de communication sans fil peut ˆetre sujet `a des erreurs lors de l’´emission des signaux. Pour cette raison, un contrˆole sp´ecial et strict par des protocoles de contrˆole d’acc`es au support (MAC pour Medium Access Control) est n´ecessaire. Le niveau MAC est responsable de certains m´ecanismes tr`es sp´ecifiques comme la cr´eation des trames, l’adressage, le contrˆole d’erreur et la r´esolution des conflits d’acc`es au canal entre les diff´erents nœuds du r´eseau. Cette section introduit les protocoles les plus utilis´es pour les MANET. Par la suite, elle ´etudie des proposition pour les UAANET. 2.2.1.1 Dans les MANET Malgr´e les sp´ecificit´es d’un UAANET par rapport aux autres classes des MANET, il partage avec eux plusieurs similitudes en ce qui concerne les exigences de conception puisque finalement ils sont tous des sous-classes des MANET. En effet, il est possible d’utiliser pour les UAANET la norme IEEE 802.11 (Wi-Fi). Le Wi-Fi est un standard de communication sans fil utilis´e pour les MANET puisque il peut op´erer en deux modes : le mode ad hoc (figure 2.2 (b)) et le mode centralis´e (figure 2.2 (a)) o`u les nœuds ´echangent des informations `a travers un ou plusieurs ´equipements centraux, appel´es point d’acc`es.26 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ (a) Communications centralisées (b) Communications Ad hoc Figure 2.2 – Communications ad hoc et communications centralis´ees Pour avoir acc`es au canal, deux fonctions peuvent ˆetre utilis´ees : la fonction de coordination par point PCF (Point Coordination Function) utilis´ee pour les r´eseaux centralis´ees et la fonction de coordination distribu´ee DCF (Distributed Coordination Function) qui est plus flexible puisqu’elle peut ˆetre utilis´ee sur n’importe quelle architecture de r´eseau. DCF est bas´ee sur le m´ecanisme CSMA/CA (Carrier Sense Multiple Access avec Collision Avoidance). Avec ce m´ecanisme, chaque nœud doit ´ecouter le canal avant d’´emettre afin d’´eviter les ´emissions simultan´ees de plusieurs stations ce qui conduit `a des collisions. Le CSMA/CA est tr`es ef- ficace dans le cas de voisins cach´es qui sont des nœuds du mˆeme r´eseau situ´es hors de port´ee radio de l’autre qui, par cons´equent, ne peuvent pas d´etecter leurs ´emissions. Ainsi, avant d’´emettre les donn´es, chaque ´emetteur et r´ecepteur utilisant le m´ecanisme CSMA/CA doivent ´echanger quelques messages afin d’informer les voisins de la transmission `a venir comme illustr´e par la figure 2.3. L’´emetteur doit initialiser le dialogue par l’envoi d’une requˆete d’´emission RTS (Request To Send) qui est une requˆete d’acc`es au canal. Recevant le message RTS, l’´emetteur r´epond avec le message CTS (Clear To Send) indiquant que le nœud est prˆet `a recevoir les donn´ees. Les autres voisins ´ecoutant ces deux messages ou l’un d’eux, selon leurs positions, d´ecalent leurs ´emissions puisqu’ils sont au courant que le canal est occup´e. Apr`es cet ´echange, les donn´ees peuvent ˆetre envoy´ees en toute s´ecurit´e sans aucun risque de collision. Malgr´e la popularit´e du standard 802.11 dans les r´eseaux ad hoc, il pr´esente quelques inconv´enients puisqu’il ne supporte pas la QdS. En effet, il ne comporte pas de m´ecanismes de diff´erentiation de service qui permettent de garantir la bande passante n´ecessaire pour les trafics les plus prioritaires.2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 27 Retarder l’émission Figure 2.3 – Le m´ecanisme CSMA/CA Ces m´ecanismes peuvent ˆetre essentiels dans un r´eseau comme UAANET o`u diff´erents types de messages sont ´echang´es. Il existe plusieurs versions du Wi-Fi avec des am´eliorations au niveau des performances. Tout a commenc´e avec le standard IEEE 802.11b qui fournit un d´ebit entre 5.5 et 11 Mbits/s. Cette version est tr`es utilis´ee pour les UAANET. En effet, elle a ´et´e utilis´ee dans [TBH04], [KLHH05] et [MMN+]. Une nouvelle am´elioration du Wi-Fi a donn´e naissance au standard IEEE 802.11a qui offre un d´ebit th´eorique ´egal `a 54 Mbits/s. Il a ´et´e utilis´e pour un r´eseau UAANET dans [CHKV06]. Plusieurs autres protocoles sont utilis´es pour les r´eseaux MANET comme, Bluetooth [Blu], HiperLAN [Kru92], ou encore MH-TRACE (Multi-Hop Time Reservation using Adaptive Control for Energy Efficiency) [TH05] pr´esent´e ult´erieurement. 2.2.1.2 Dans les UAANET Pour les communications des drones avec la station sol, d’autres standards peuvent ˆetre utilis´es comme le IEEE 802.15.4 , un des r´eseaux sans fil personnel WPAN (Wireless Personnal Area Network). Il d´efinit le niveau physique et MAC du Zigbee, utilis´e dans plusieurs applications du r´eseau de capteurs et aussi dans le syst`eme Paparazzi pour connecter le drone `a28 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ la station de contrˆole. L’inconv´enient majeur de ce protocole est qu’il a un d´ebit tr`es faible (250 kbits/s) par rapport au Wi-Fi. Par cons´equent, il ne supporte pas les trafics temps r´eel comme les donn´ees multim´edia malgr´e sa capacit´e `a ´etablir des connexions `a travers une longue distance. Dans [AD10a], un nouveau protocole MAC con¸cu pour les UAANET est propos´e, il est nomm´e AMUAV (Adaptive MAC protocol for UAV ). Ce protocole est con¸cu pour ˆetre utilis´e sur des drones ´equip´es par deux types d’antennes : directionnelle et omni-directionnelle. En effet, les antennes directionnelles ont plusieurs avantages par rapport aux antennes omnidirectionnelles puisqu’elles rayonnent avec une puissance d’´emission plus importante dans une seule direction ce qui permet d’optimiser l’utilisation de l’espace, d’am´eliorer la fiabilit´e de transmission des donn´ees, d’´etendre la port´ee de transmission ainsi que d’´economiser la consommation d’´energie [BJ12]. Le rˆole d’AMUAV est d’organiser l’utilisation des antennes selon le type des paquets envoy´es : les paquets de contrˆole (RTS, CTS et ACK) sont ´emis `a travers l’antenne omnidirectionnelle alors que les paquets de donn´ees sont envoy´es par l’antenne directionnelle. Malgr´e l’am´elioration qu’offre cette proposition pour le d´ebit de transmission, le d´elai et le taux d’erreur dans les syst`emes multi-drones, elle reste couteuse puisque basiquement les drones sont ´equip´es d’un seul type d’antenne. Une autre proposition pour utiliser des antennes directionnelles est d´etaill´ee dans [TB13], nomm´ee LODMAC (Location Oriented Directional MAC protocol). Cette proposition est bas´ee sur la d´ecouverte des voisins et elle est con¸cue pour ˆetre utilis´ee dans des r´eseaux de drones avec une plateforme `a haute altitude HAP (High altitude platform) qui est un a´eronef quasistationnaire `a une altitude stratosph´erique (jusqu’`a 25 km) permettant de fournir des services de communication ou de supervision pour une dur´ee de quelques jours `a quelques semaines. Par rapport au syst`emes au sol ou satellite, un HAP a l’avantage d’ˆetre facile `a d´eployer et d’avoir une large couverture permettant une connexion avec une ligne de vision directe. La proposition de [TB13] est ´etudi´ee dans le sc´enario dans lequel le HAP survole un r´eseau de drones pour pouvoir communiquer directement avec chaque a´eronef du r´eseau qui ´echange du trafic avec les autres drones et la station de contrˆole au sol `a travers un r´eseau ad hoc (figure 2.4). LODMAC, est adapt´e `a ce sc´enario. En effet, il n´ecessite trois antennes directionnelles pour chaque drone. La premi`ere est utilis´ee pour la d´ecouverte des voisins `a travers les communications avec le HAP. La deuxi`eme est utilis´ee pour ´echanger des message de contrˆole comme RTS ou CTS. La troisi`eme est utilis´ee pour les ´emissions de donn´ees. Les trois antennes sont synchronis´ees et g´er´ees par le protocole LODMAC propos´e.2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 29 Figure 2.4 – Le sc´enario de LODMAC Dans [CYL+13], un autre protocole MAC pour les UAANET bas´e sur le principe des transmissions sans fil en duplex int´egral (Full-duplex) est pr´esent´e. En effet, les r´eceptions et les ´emissions dans les liaisons sans fil ne peuvent pas ˆetre simultan´ees, soit l’une, soit l’autre. En plus, la r´eception des signaux de diff´erents ´emetteurs ne permet pas de recevoir correctement les messages `a cause des collisions et d’interf´erence. Cependant, des recherches ont rendu possible la r´eception de plusieurs signaux de diff´erents ´emetteurs MPR (Multi-packet reception) en utilisant le standard IEEE 802.15.4 [CJS+10], [LZH12]. Le principe du protocole MAC propos´e dans [CYL+13] est de permettre aux drones d’avoir des communications sans fil en duplex int´egral et en MPR afin d’´echanger fr´equemment des messages de contrˆole contenant des informations sur l’´etat du canal CSI (Channel State Information). Les simulations ont montr´e l’efficacit´e de cette proposition sur les performances du r´eseau. Pour notre cas, Nous devons choisir un protocole MAC qui ne doit pas ˆetre couteux puisque le syst`eme Paparazzi est un syst`eme libre utilisant des mat´eriels pas couteux. De plus, la capacit´e de son canal doit satisfaire les besoins du trafic `a ´echanger. Pour ces raisons, nous optons pour le Wi-Fi. La section suivante pr´esente les protocoles de routage propos´es pour les30 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ UAANET. 2.2.2 Niveau routage Afin d’acheminer une information entre deux drones distants, un ou plusieurs nœuds interm´ediaires dans le r´eseau coop`erent entre eux par la retransmission des donn´ees jusqu’`a leurs destinations. En effet, les protocoles de routage sont responsables de choisir la meilleure route vers la destination qui minimise les collisions, les interf´erences, ou encore le d´elai. Il existe une grande diversit´e de protocoles de routage. Plusieurs protocoles se basent sur les adresses IP pour d´esigner les nœuds alors que d’autres se basent sur leurs positions g´eographiques. Diff´erentes taxonomies sont propos´ees pour classifier les protocoles de routage comme dans [LZH+06]. La classification traditionnelle des protocoles de routage est bas´ee sur la mani`ere de d´ecouvrir la topologie du r´eseau. Elle d´efinit plusieurs classes, les plus populaires sont les r´eactifs, les pro-actifs, les hybrides et les g´eographiques. Les protocoles pr´esent´es dans cette section sont propos´es pour les r´eseaux ad hoc de drones. 2.2.2.1 Protocoles de routage utilisant l’adressage IP i. Les protocoles de routage r´eactifs Ceux sont les protocoles qui ´etablissent des routes uniquement `a la demande. Un nœud d´esirant communiquer avec un autre, cherche une route dans sa table de routage. S’il en trouve une, il passe directement `a l’´emission, sinon il initie une phase de d´ecouverte de route. Une route vers une destination est maintenue jusqu’`a ce que la destination devienne inaccessible ou jusqu’`a ce que la route soit expir´ee, c’est `a dire elle n’est plus utilis´ee depuis une certaine p´eriode. Le principal inconv´enient de ce type de protocole est leur r´eaction lente face au changement de topologie. AODV AODV (Ad hoc On-Demand Distance Vector ) [PR99a] est un protocole de routage r´eactif. Il utilise trois messages de contrˆole pour d´eterminer les routes. – RREQ (Route Request) : la requˆete envoy´ee pour demander des itin´eraires ; – RREP (Route Reply) : la r´eponse aux RREQ ; – RERR (Route Error ) : le message d’erreur utilis´e pour signaler que une route n’est plus disponible.2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 31 AODV-DTN AODV est la base de plusieurs autres protocoles con¸cus pour diff´erentes classes de r´eseau y compris les UAANET. En effet, dans [LPG06], les auteurs pr´esentent une combinaison de AODV et un protocole de routage tol´erant au d´elai DTN (Delay Tolerant Network) pour un syst`eme hybride drones et nœuds au sol. Un r´eseau DTN est un r´eseau qui supporte les anomalies temporaires de communication et les latences de plusieurs minutes. Son principe est de stocker et transmettre (Store and Forward). En effet, les routeurs, dans un r´eseau DTN, se permettent de garder les paquets temporairement quand ils ne trouvent pas de solution pour les router, jusqu’`a l’´etablissement d’une nouvelle route. Ces r´eseaux permettent de limiter le taux de perte du trafic ´echang´e. AODV-DTN est utilis´e dans des syst`emes ayant plusieurs drones qui assurent la connexion entre des groupes disjoints de nœuds mobiles au sol. Sa strat´egie de routage est d’utiliser AODV comme le protocole sous-jacent avec un l´eger support du DTN afin de cr´eer un protocole coh´erent adapt´e `a ce genre de syst`emes. En effet, AODV est utilis´e au niveau sol pour router les messages des nœuds mobiles des diff´erents groupes au sol alors que le routage DTN est appliqu´e entre les drones qui se permettent de garder les paquets jusqu’`a l’´etablissement des routes vers les destinations suite aux mouvements des a´eronefs. Ce protocole est d´edi´e aux syst`emes qui tol`erent les d´elais, ainsi, il ne peut pas ˆetre utilis´e pour ´echanger des trafics temps-r´eel (comme les flux interactifs). Time-slotted AODV Dans [FHS07], une autre proposition de protocole bas´ee sur AODV est pr´esent´ee, (A Time-Slotted On-Demand Routing Protocol) d´efinie pour les r´eseaux de drones. Ce protocole a pour but l’augmentation de la fiabilit´e des communications puisqu’il est propos´e pour ˆetre utilis´e avec la fonctionnalit´e complexe de formation de vol autonome. Cette fonctionnalit´e n´ecessite une collaboration entre les drones par l’´echange des donn´ees entre eux. Time-slotted AODV permet d’affecter des cr´eneaux temporels pour chaque nœud afin d’´emettre ses paquets vers son voisin. L’´evaluation de ce protocole montre que, par rapport `a AODV, il permet de r´eduire le taux de perte des paquets dues aux collisions ce qui augmente la fiabilit´e du syst`eme. ii. Protocoles de routage pro-actifs Contrairement aux protocoles r´eactifs, les protocoles pro-actifs d´eterminent les routes p´eriodiquement et ind´ependamment du trafic. Ce type de protocole ´evalue les routes au sein du r´eseau d’une mani`ere continue en maintenant ses32 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ donn´ees concernant les itin´eraires vers chaque nœud du r´eseau, coh´erentes et `a jour. Par cons´equent, le chemin de n’importe quel paquet `a transmettre est d´ej`a connu et peut ˆetre utilis´e imm´ediatement. En effet, tous les nœuds stockent des informations de routage qui sont mises `a jour `a chaque changement dans la topologie du r´eseau. Le principal inconv´enient de cette cat´egorie est la quantit´e importante d’informations utilis´ees pour la maintenance des tables des routages. OLSR OLSR (Optimized Link State Routing Protocol) [MCL+01] est un exemple des protocoles pro-actif. Il maintient les routes dans une table mise `a jour `a travers l’´emission p´eriodique des paquets Hello. En effet, OLSR utilise deux types de messages : – le message Hello : utilis´e pour d´etecter les voisins directs, situ´es `a la port´ee de communication de l’´emetteur. Il contient la liste des voisins connus. Ce message est p´eriodiquement retransmis vers les voisins des voisins (voisins `a deux-sauts) ; – le message de contrˆole de la topologie est utilis´e p´eriodiquement pour la maintenance des informations du syst`eme r´ecolt´ees. Cet ´echange permet `a chaque nœud de calculer des routes vers chaque destination bien qu’il surcharge le r´eseau. Afin de r´eduire l’interf´erence caus´ee par ce fonctionnement, la m´ethode MPR (Multi-Point Relays) est utilis´ee. Les MPRs sont des nœuds s´electionn´es pour retransmettre les messages vers leurs voisins afin de r´eduire le nombre de retransmission dans le r´eseau. En plus ils ont un rˆole principal dans le routage et la s´election des chemins entre chaque source et sa destination. En g´en´eral, les MPRs sont les voisins `a un saut qui couvrent le maximum des voisins `a deux sauts (figure 2.5). DOLSR Comme AODV, OLSR est la base d’autres propositions comme DOLSR (Directional Optimized Link State Routing) pr´esent´e dans [AD10b]. Ce protocole est con¸cu pour ˆetre utilis´e avec des antennes directionnelles et en intercouches (cross layer ). La technique d’inter-couches permet de communiquer entre deux couches qui ne sont pas voisines ainsi que de lire et de contrˆoler les param`etres des autres couches. Par cons´equent, elle permet de concevoir conjointement plusieurs protocoles de diff´erents niveaux. Cette approche est consid´er´ee comme une m´ethode efficace pour am´eliorer les performances d’un r´eseau sans fil. Le but de DOLSR est de diminuer le nombre des MPRs afin d’am´eliorer2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 33 Figure 2.5 – Les MPRs les performances des r´eseaux ad hoc entre les drones en termes de d´elais de bout en bout, trafic de contrˆole et d’interf´erence. Nous remarquons que la majorit´e des protocoles de routage r´eactifs et proactifs propos´es pour les UAANET sont des descendants des deux protocoles AODV et OLSR. Cela est caus´e par le nombre limit´e des ´etudes r´ealis´ees pour cette classe de r´eseau jusqu’`a pr´esent. 2.2.2.2 Protocoles de routage g´eographiques Les protocoles de routage g´eographiques sont des protocoles qui font r´ef´erences aux nœuds dans le r´eseau par leurs postions g´eographiques et non pas par leurs adresses IP. Ces positions sont suppos´ees ˆetre connues par tous les nœuds grˆace `a un ´echange p´eriodique d’informations entre eux permettant de cr´eer des tables de localisation des voisins. Par cons´equent, un ´emetteur peut choisir un relais, le plus proche de la destination, pour acheminer les paquets en se basant sur des crit`eres g´eographiques comme la distance euclidienne (dans la transmission g´eographique gourmande greedy geographic forwarding). L’application des protocoles g´eographiques en r´ealit´e semble ˆetre complexe puisque c’est compliqu´e de connaitre les positions g´eographiques de34 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ tous les autres nœuds du r´eseau par un ´echange de donn´ees ou mˆeme par l’utilisation d’un serveur centralis´e responsable de diffuser des donn´ees de localisions. En r´ealit´e, dans un r´eseau mobile, il est difficile de garantir que tous les nœuds restent `a l’int´erieur de la port´ee radio du serveur ou encore qu’ils re¸coivent tous les ´echanges des autres voisins sans oublier la complexit´e du calcul de la position g´eographique. GPSR GPSR (Greedy Perimeter Stateless Routing) [KK00] est un exemple de ces protocoles. Il permet de marquer les paquets avec la positon g´eographique de leurs destinations et par la suite chaque nœud ´emetteur peut faire un choix optimal de son prochain saut en se basant sur la m´ethode gloutonne (greedy) : le voisin ayant la position g´eographique la plus proche de celle de la destination finale du paquet comme dans la figure 2.6. Emetteur Récepteur Nœuds intermédiaires Distance entre le Récepteur et le nœud intermédiaire Figure 2.6 – La transmission g´eographique gloutonne Dans le cas o`u un nœud ´echoue `a trouver un relais optimal vers la destination, GPSR se r´etablit par le routage autour du p´erim`etre de la r´egion. Dans [HBM07], une ´etude comparative par simulation de trois protocoles de routage : un g´eographique (GPSR), un r´eactif (AODV) et un pro-actif (OLSR), dans le contexte d’un r´eseau ad hoc de drones, montre que GPSR offre de meilleures performances que les autres protocoles en termes de taux de livraison et de d´elai des paquets ´echang´es. En utilisant GPSR, les auteurs de [LMB09] proposent de b´en´eficier des ´echanges des positions g´eographiques r´ealis´es par le protocole de routage2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 35 pour am´eliorer les performances de la mission de recherche. Ce protocole, nomm´e USMP (UAV Search Mission Protocol), se base sur les informations g´eographiques de routage pour r´esoudre le conflit entre les trajectoires des a´eronefs. USMP permet d’am´eliorer l’efficacit´e de la recherche en terme de couverture et de minimiser les changements de direction des drones. GPMOR Dans [LSLY12], un nouveau protocole de routage g´eographique a ´et´e propos´e pour les r´eseaux ad hoc de drones hautement dynamique. Contrairement `a la m´ethode classique qui se base sur les informations de localisation des nœuds, cette proposition, nomm´ee GPMOR (Geographic Position Mobility Oriented Routing), essaye en plus de pr´edire le mouvement des drones qui bougent suivant le mod`ele de mobilit´e Gauss-Markov [CBD02]. En effet, chaque drone est suppos´e conscient de sa localisation g´eographique grˆace au syst`eme GPS. Il ´echange p´eriodiquement sa position avec ses voisins directs uniquement. Etant donn´e que la p´eriode entre deux ´echanges est fix´ee ´ `a quelques secondes afin de diminuer l’interf´erence, les a´eronefs essayent de pr´edire le mouvement de leurs voisins et de d´efinir leurs nouvelles positions durant cet intervalle de temps. Par cons´equent, il est possible de s´electionner le relais optimal vers la destination qui peut, elle mˆeme, changer de position entre temps. La comparaison de ce protocole avec d’autres protocoles de routages g´eographiques comme GPSR montre que GPMOR est meilleur en termes de latence et de taux de livraison de paquets puisque le syst`eme d’adressage utilis´e pour router les paquets (les positions g´eographiques) est plus fiable. LAROD Un autre protocole de routage g´eographique est propos´e dans [KNT08]. Ce protocole, nomm´e LAROD (Location Aware Routing for Opportunistic Delay Tolerant), est un protocole de routage tol´erant au d´elai. LAROD a ´et´e ´evalu´e par simulation dans le contexte d’un sc´enario r´ealiste d’une mission de reconnaissance collaborative. Il a pour but la d´ecouverte du chemin le plus court vers chaque destination en choisissant un ou plusieurs relais. En effet, l’ensemble des voisins qui garantissent un minimum de progr`es vers la destination sont des relais potentiels. Chaque drone ´emetteur diffuse les paquets vers ses relais potentiels qui d´eclenchent des minuteurs de dur´ees choisies al´eatoirement. Seul le premier a´eronef ayant le minuteur expir´e peut rediffuser le paquet vers ses voisins. Les autres, ´ecoutant la transmission, retirent leurs copies du paquet. Dans le cas o`u un drone n’arrive pas `a trouver un relais permettant de garantir un progr`es36 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ vers le drone cible, il r´eagit selon le principe DTN d´efini pr´ec´edemment. Les paquets restent stock´es temporairement jusqu’`a ce que la mobilit´e de l’a´eronef cr´ee d’autres chemins. Une fois que le paquet a atteint sa destination, celle-ci r´epond par un acquittement afin d’empˆecher les transmissions ind´efinies des paquets entre les nœuds. Ce protocole n’est pas robuste puisque en cas o`u un nœud ´echoue pour une raison quelconque, tous les paquets stock´es dans ce nœud vont ˆetre perdus `a moins d’avoir d’autres copies dupliqu´ees dans d’autres nœuds. 2.2.2.3 Protocoles de routage hybrides Les protocoles de routage hybrides combinent diff´erents types de m´ecanismes. Ils peuvent b´en´eficier ainsi des avantages de chacun. RGR L’article [SSHK+11] pr´esente une ´etude de performances de GPSR dans le contexte du r´eseau ad hoc de drones. Cette ´etude montre que dans le cas d’un r´eseau ou les a´eronefs sont dispers´es, GPSR rencontre des probl`emes de fiabilit´e. Pour cette raison, les mˆemes auteurs ont propos´e dans [Shi11] un protocole de routage hybride comme une solution pour la d´efaillance de GPSR dans le contexte de r´eseaux de drones coop´eratifs. Il s’agit d’une combinaison entre le principe de routage g´eographique gourmand (greedy geographic forwarding) et le protocole de routage r´eactif AODV. Ce protocole est nomm´e RGR (Reactive-Greedy-Reactive routing protocol). Chaque drone ´emetteur ´etablit une route vers la destination en se basant sur la m´ethode r´eactive de AODV. En cas o`u un nœud de cette route ne parvient pas `a trouver un chemin `a cause de la mobilit´e, il passe `a la m´ethode g´eographique (figure 2.7). Le paquet est achemin´e ainsi vers le voisin le plus proche g´eographiquement de la destination finale. Le passage de l’adressage IP `a l’adressage g´eographique semble compliqu´e puisque chaque cat´egorie n´ecessite un ´echange sp´ecifique de donn´ees et de diff´erents m´ecanismes de traitement et de calcul. 2.2.2.4 Protocole de routage hi´erarchique Un autre type de protocoles qui peut ˆetre efficace pour les UAANET est la famille des protocoles hi´erarchiques qui permet d’am´eliorer le passage `a l’´echelle dans le r´eseau. Ce type de protocole se base sur la r´epartition des nœuds en des groupes (cluster ) selon des crit`eres comme la mission, l’altitude ou la zone g´eographique. Chaque groupe ´elit un nœud comme tˆete de groupe2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 37 Y a -t-il une route réactive ? Mécanise Réactif (AODV) Greedy Forwording (1 saut) Oui Non Destination Prochain Saut Figure 2.7 – M´ecanisme du protocole RGR TG (Cluster Head) qui doit ˆetre connect´e directement aux autres membres du groupe et il est responsable de la communication avec les autres groupes `a travers leurs TGs (figure 2.8) Ce genre de protocole peut ˆetre hybride en combinant diff´erents types de m´ecanismes pour router les informations `a l’int´erieur d’un groupe (entre les nœuds du mˆeme groupe) et `a l’ext´erieur des groupes (entre les diff´erents TGs). EHSR [XHG+01] (The Extended Hierarchical State Routing) est un exemple de protocole hi´erarchique hybride. Il est utilis´e dans des sc´enarios o`u les drones sont des relais pour des nœuds terrestres (figure 2.9). Dans ce cas les nœuds sont group´es selon leurs altitudes : les drones forment un premier groupe et les nœuds terrestres forment les autres groupes comme pr´esent´e dans la figure 2.9. Deux m´ethodes de routage sont utilis´ees pour router les paquets `a l’int´erieur et `a l’ext´erieur des groupes. En effet, pour communiquer entre les diff´erents groupes, le m´ecanisme de routage de vecteur de distance est utilis´e alors que pour les communications locales, inter-groupe, le routage `a ´etat de lien est appliqu´e. La diff´erence entre le routage de vecteur de distance et le routage `a ´etat de lien est que le premier choisi la meilleure route en fonction de la distance qui d´efinie le nombre de sauts vers la destination, alors que le deuxi`eme s´electionne sa meilleure route en se basant sur la qualit´e de chaque lien sur le chemin. Ces deux types pr´esentent une autre classification de protocoles de routage bas´ee sur la mani`ere de s´electionner la meilleure route.38 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ Groupe Tête de groupe Figure 2.8 – M´ethode de groupge Discussion Comme pr´esent´e dans le tableau 2.3, chaque protocole de routage ´etudi´e dans cette section a une sp´ecificit´e. En effet, la majorit´e, est ´etudi´ee pour ˆetre appliqu´ee dans des conditions sp´ecifiques comme EHSR ou AODV-DTN qui n´ecessitent une architecture hybride entre des drones et d’autres groupes de nœuds au sol, ou encore DOLSR qui n´ecessite deux types d’antenne. De plus, l’application r´eelle de certains autres protocoles semble tr`es complexe comme RGR qui combine deux types d’adressage ou GPMOR qui se base sur la pr´ediction des mouvements des nœuds selon la loi de GaussMarkov. Ce protocole n’est pas applicable avec d’autres mod`ele de mobilit´e al´eatoire. De plus, dans la r´ealit´e, les mouvements de drones peuvent ˆetre diff´erents du mod`ele de mobilit´e Gauss-Markov. Dans notre ´etude, nous avons besoin d’un protocole de routage qui consomme le minimum de bande passante et qui n’utilise pas des fonctionnalit´es complexes puisque nous envisageons d’impl´ementer notre architecture sur des vrais drones Paparazzi. Par cons´equent, AODV est le protocole appropri´e pour nos exigences puisqu’il est r´eactif et impl´ement´e sur Linux ainsi2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 39 Figure 2.9 – Architecture hybride utilis´ee avec le protocole EHSR que la majorit´e des simulateurs r´eseau. Nous optons pour l’impl´ementation AODV-UU [GSB09] car elle est disponible pour la simulation ainsi que pour le syst`eme Linux. Cette section a pr´esent´e les protocoles de routage ´etudi´es pour les r´eseaux ad hoc de drones. La section suivante se focalise sur la qualit´e de service, l’une des exigences des UAANET. 2.2.3 M´ecanismes de gestion de la QdS La qualit´e de service (QdS) est une ´evaluation du comportement du r´eseau en terme des performances de services offerts comme le d´elai de bout en bout, le taux de perte, le d´ebit ou encore la variation de d´elai (la gigue). Elle repr´esente les exigences du service qui doivent ˆetre garanties par le r´eseau. De plus, avec un grand nombre d’utilisateurs qui utilisent une vari´et´e d’applications, des m´ecanismes de gestion de la QdS permettent de diff´erentier les services et d’am´eliorer le comportement du r´eseau selon les besoins de chaque application. Par exemple, les applications temps r´eel comme le trafic interactif et les vid´eos conf´erences n´ecessitent plus de d´ebit et moins de d´elai que d’autre type d’applications comme l’´echange d’e-mail ou le transfert de fichiers. Dans les r´eseaux ad hoc de drones, la QdS est un ´el´ement primordial pour garantir de meilleures performances des missions puisque au cours d’une op´eration, les types de messages ´echang´es entre les drones diff`erent selon le rˆole que joue l’a´eronef dans l’´evolution de la situation et selon les ´equipements40 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ Classe Protocole R´ef´erence Commentaires R´eactive AODV [PR99a] Impl´ementation r´eelle AODV-DTN [LPG06] Architecture de r´eseau hybride Time-slotted AODV [FHS07] Solution fiable pour missions de formation de vol Pro-active OLSR [MCL+01] Impl´ementation r´eelle DOLSR [AD10b] Utilisation de deux types d’antennes G´eographique GPSR [KK00] R´ealisation complexe GPMOR [LSLY12] Applicatiopn avec le mod`ele de mobilit´e Gauss-Markov LAROD [KNT08] Protocole non robuste pour les op´erations de recherche et reconnaissance Hybride RGR [Shi11] Complexit´e de la combinaison entre adressage IP et g´eographique EHSR [XHG+01] Architecture de r´eseaux hybride Table 2.3 – Les protocoles de routage pour les UAANET et les capteurs qui y sont embarqu´es. En effet, les drones ´equip´es par des cam´eras, qui r´ealisent des tˆaches de surveillance ou de recherche, ´emettant du trafic temps r´eel n´ecessitent plus de d´ebit et moins de d´elai que les drones ´equip´es par des thermom`etres qui sont sensibles aux pertes et demandent un maximum de fiabilit´e. Par cons´equent, le syst`eme de communication doit ˆetre capable de respecter les exigences de chaque message et de chaque service dans le r´eseau et de partager ´equitablement les ressources entre les drones. La diff´erentiation du trafic et l’assurance de la QdS sont les responsabilit´es des diff´erents niveaux du mod`ele OSI. Cette section pr´esente diff´erents m´ecanismes de gestion de la QdS ´etudi´es pour les r´eseaux filaires, MANET et UAANET 2.2.3.1 Dans les r´eseaux filaires i. Couche transport Plusieurs ´etudes ont ´et´e r´ealis´ees autour de la cr´eation de protocoles et de m´ecanismes qui permettent d’am´eliorer la QdS au niveau transport. Le protocole TCP (Transmission Control Protocol) [TCP81], est un exemple de2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 41 ces protocoles. Il a ´et´e con¸cu pour garantir une communication de bout en bout fiable. Le protocole XTP (Xpress Transfer Protocol) [XTP92] est un autre protocole de transmission fiable con¸cu pour les applications temps-r´eel et `a haut-d´ebit comme le transfert du trafic interactif. Il fournit diff´erentes fonctionnalit´es comme le contrˆole de trafic, le contrˆole de d´ebit, le contrˆole d’erreur et l’ordonnancement des messages `a priorit´es diff´erentes. De plus, le protocole SCTP (Stream Control Transmission Protocol) [RS07] est un protocole de transmission fiable con¸cu pour transporter la signalisation du r´eseau t´el´ephonique commut´e (Public Switched Telephone Network (PSTN)) sur IP. Il offre la fiabilit´e, la remise en ordre des s´equences, et le contrˆole de congestion. Il existe aussi un protocole de transmission pour les trafics temps-r´eel qui ont des contraintes sur les d´elais. Il s’agit du protocole RTP (Real-time Transport Protocol). Il est utilis´e principalement pour les transmissions voix sur IP ou vid´eo conf´erence. RTP fonctionne en mode unidirectionnel ce qui permet de limiter la consommation des ressources r´eseau dans le but d’augmenter consid´erablement le d´ebit obtenu par les applications utilisant ce protocole. ii. Couche r´eseau Afin de pouvoir cr´eer diff´erents types de service autre que le service au mieux (Best-effort), qui est le service basique du protocole internet (IP) permettant de transporter les donn´ees sans aucune garantie sur la fiabilit´e ou sur les performances du trafic, deux approches sont utilis´ees : l’ing´enierie de tra- fic et la gestion de files d’attentes. L’ing´enierie de trafic comprend diff´erentes m´ethodes et techniques pour optimiser les ressources et g´erer le trafic dans le r´eseau en choisissant, vers chaque destination, la meilleure route qui garantie la QdS demand´ee par le service. Le protocole MPLS [RAV01] (Multi-Protocol Label Switching ) est l’un des protocoles utilis´es dans l’ing´enierie de trafic. Il combine l’intelligence du routage IP avec les performances de la commutation. MPLS permet de cr´eer un chemin d’acc`es sp´ecifique pour chaque s´equence de donn´ees identifi´ee par une ´etiquette (label) coll´ee sur chaque paquet. Cette m´ethode permet d’´economiser ainsi le temps n´ecessaire pour un routeur afin de rechercher l’adresse du nœud suivant sur la route. iii. IntServ et DiffServ Pour pouvoir diff´erencier les services, il faut utiliser des m´ecanismes de gestion des files d’attente pour chaque paquet. Ces m´ecanismes sont : la mise en file d’attente (Queuing) qui g`ere le temps d’attente dans la file et l’ordonnancement (Scheduling) qui est le processus permettant de donner42 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ acc`es aux ressources. La m´ethode FIFO (premier entr´e premier servi First In First Out) est l’algorithme le plus simple de gestion de file d’attente. Il existe des mod`eles de fournitures de QdS combinant plusieurs mecansimes de gestion de QdS dans le but de diff´erencier le service et am´eliorer la QdS pour chaque classe comme IntServ [BCS94] (Integrated Services) et Diff- Serv [BBC+98] (Differentiated Services). Ces deux structures ont ´et´e standardis´ees au sein de l’IETF (Internet Engineering Task Force) 1 . IntServ est la premi`ere architecture propos´ee pour am´eliorer la QdS pour l’Internet. Elle permet de g´erer des flux entiers de donn´ees et a pour but de garantir les besoins du trafic temps-r´eel. Ces flux, appel´es micro-flux, sont identifi´es par le protocole utilis´e (UDP ou TCP) et leurs adresses et num´eros de port source et destination. Avec IntServ, les ressources sont r´eserv´ees au niveau de chaque routeur sur le chemin pour chaque flux de trafic afin de fournir une garantie de bout en bout. La r´eservation de ressource est assur´ee par une signalisation de bout en bout g´er´ee par le protocole RSVP [BEB+97] (Resources Setup Reservation Protocol). RSVP et IntServ sont bas´es sur un m´ecanisme (Soft State). Ce m´ecanisme consiste `a garder une id´ee sur l’´etat du r´eseau au niveau de chaque routeur qui g`ere un contrˆoleur d’admission permettant d’accepter ou de rejeter la demande du service selon les donn´ees sur l’´etat actuel du r´eseau. DiffServ est un mod`ele de QdS qui permet de r´eserver les ressources `a l’avance sans ´echanger de signalisation en rempla¸cant la granularit´e par flux d’IntServ par la granularit´e par agr´egats. En effet, DiffServ d´efinit plusieurs cat´egories de classe de service. Chaque classe de service d´efinie sa fa¸con de traitement demand´ee en terme d’un ensemble de param`etres (bande passante, d´elai, etc) pour le domaine DiffServ. Le domaine DiffServ comporte deux types de routeurs : – Les routeurs d’extr´emit´e (Edge Routers) : ils sont situ´es sur les bords du domaine (les premiers `a entrer en contact avec les flux), et ils sont charg´es de traitements complexes comme la classification et le marquage ainsi que le mise en forme du trafic ; – Les routeurs de cœur (Core Routers) : les routeurs interm´ediaires dans le r´eseau. Ils ont un rˆole plus simple qui consiste `a acheminer des paquets selon leurs marquages. Les routeurs traitent chaque paquet selon son marquage. Pour cela ils utilisent une vari´et´e de strat´egies de planification et de gestion de file d’attente 1. http ://www.ietf.org/2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 43 au cours de l’acheminement des paquets vers leurs destinations d´efinissant le comportement PHB (Per Hop Behavior ). Le PHB propose trois classes de service : – Expedited Forwarding (EF) : la classe de trafics qui ont des contraintes sur les d´elais. Elle est id´eale pour les flux interactifs ; – Assured Forwarding (AG) : l’ensemble de trafics qui exigent une garantie sur la livraison ; – Le trafic ordinaire ou Best-effort. 2.2.3.2 Dans les MANET Dans les MANET, la mission de garantir la QdS demand´ee est plus d´elicate que dans les r´eseaux filaires `a cause des ressources limit´ees du canal sans fil et la courte dur´ee de vie du lien entre les nœuds. En effet, `a cause de la mobilit´e des nœuds, la topologie du r´eseau change fr´equemment g´en´erant la cr´eation de nouveau liens et la rupture d’autres soudainement. Ce ph´enom`ene peut ˆetre la cause d’une fluctuation du d´elai de transmission. De plus, les nœuds dans un MANET agissent en mˆeme temps comme un terminal sans fil ordinaire qui peut recevoir et ´emettre des messages et comme un routeur en retransmettant les messages des autres ´emetteurs vers ses voisins. Pour cela, ce genre de r´eseau est plus complexe qu’un simple r´eseau filaire notamment en terme de congestion. Par cons´equent, les m´ecanismes de fourniture de la QdS con¸cus pour les r´eseaux filaires comme IntServ ou DiffServ ne sont pas adapt´es aux MANET. Plusieurs propositions ont ´et´e ´etudi´ees afin d’am´eliorer la QdS dans ce genre de r´eseau dans les diff´erents niveaux. Les protocoles pr´esent´es dans cette section sont propos´es pour les MANET en g´en´eral. Comme par exemple l’´etude r´ealis´ee dans [AHAN05] au niveau transport. Elle permet de r´esumer une vari´et´e d’´etudes r´ealis´ees pour am´eliorer les performances du protocole TCP dans les MANET. Elles proposent une solution des probl`emes comme l’incapacit´e de TCP `a connaitre la cause de la perte qui peut ˆetre un probl`eme au niveau de la route, ou un probl`eme de congestion du r´eseau. i. Niveau r´eseau Un protocole de routage `a QdS a pour but l’am´elioration des performances du r´eseau. Il permet de d´efinir les routes en se basant sur des crit`eres et des informations qui concernent la QdS (le d´ebit ou le d´elai) comme dans [LCT+05] o`u un protocole de routage hybride appel´e MAR (Mobile Agent Routing) est propos´e. Il fournit une connectivit´e fiable dans des sc´enarios militaires en choisissant la meilleure route vers la destination en terme de la44 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ QdS. Le probl`eme majeur de ces protocoles est la consommation de la bande passante et l’interf´erence caus´ee par l’´echange des informations sur l’´etat des routes. Ces ´echanges ont pour but de maintenir une vision mise `a jour de la qualit´e des liens dans le r´eseau qui change tr`es souvent `a cause du dynamisme des nœuds. De plus, le niveau r´eseau permet de g´erer les files d’attente dans le but de respecter les priorit´es entre les paquets ´emis. Ce paragraphe pr´esente des protocoles de routage permettant d’´etablir des routes en se basant sur des donn´ees sur la qualit´e des liens afin d’am´eliorer la QdS dans les MANET. BPQMRP Un protocole de routage permettant d’am´eliorer la QdS est pr´esent´e dans [QAKQ11] nomm´e PBQMRP (Position Based QoS Multi-cast Routing Protocol). Il s’agit d’un protocole de routage multi-cast qui permet de s´electionner la route qui offre la meilleure QdS en termes de bande passante et du d´elai d’un nœud source vers un ensemble de destinations. BPQMRP se base sur la m´ethode de r´epartition de nœuds en groupe clustering (figure 2.8) dans des zones hexagonales de mˆemes dimensions. L’´evaluation des performances de ce protocole montre qu’il permet d’am´eliorer le taux de perte dans le r´eseau et de diminuer l’interf´erence caus´ee par les messages de contrˆole. AOMDV Dans le mˆeme contexte, [MD01] pr´esente une autre proposition de protocole de routage dans le but d’am´eliorer la QdS du r´eseau. Il s’appelle AOMDV (Ad hoc Multi-path Distance Vector ) et il propose une modification du protocole r´eactif AODV. Il s’adapte aux r´eseaux dynamiques o`u les liens entre les nœuds ont une faible dur´ee de vie causant les ruptures fr´equentes et soudaines des routes. AOMDV est caract´eris´e par une r´ecup´eration rapide et efficace face `a la rupture brusque des liens et au changement rapide de la topologie puisque il permet de trouver plusieurs routes vers la destination au cours de la phase d’´etablissement de routes et contrairement `a AODV, il garde toutes ces donn´ees dans sa table de routage. Par la suite, AOMDV trouve rapidement une alternative de la route ´echou´ee vers la destination et permet de parvenir `a une am´elioration remarquable en terme de d´elai de bout en bout et de r´eduire l’interf´erence caus´ee par les messages de contrˆole de routage. CEDAR De mˆeme, CEDAR [SSB99] (Core-Extraction Distributed Ad hoc Routing)2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 45 est un protocole r´eactif permettant d’am´eliorer la qualit´e de service en terme de bande passante. Il est bas´e sur la notion du cœur du r´eseau qui est un sous-r´eseau form´e par un certain nombre de nœuds permettant de couvrir le reste du r´eseau. Afin de limiter les ´echanges circulant dans le r´eseau et consommant la bande passante, uniquement les nœuds du cœur du r´eseau transmettent les donn´ees de contrˆole sur l’´etat des liens. CEDAR est bas´e sur trois composantes essentielles : – l’extraction du cœur du r´eseau : phase de s´election d’un groupe r´eduit de nœuds responsables de l’´etablissement des routes et leur maintenance ; – propagation d’´etat de lien : informations `a jour au niveau de chaque nœud du cœur. Ces informations contiennent la liste des liens stables, `a forte bande passante ; – calcul de route : Le plus court chemin qui satisfait la bande passante demand´ee est s´electionn´e en se basant sur les donn´ees enregistr´ees au niveau du nœud cœur correspondant au sous-r´eseau de l’´emetteur. CEDAR est un protocole qui n’offre pas une garantie sur la bande passante puisque il ne fait pas de la r´eservation de ressource. Il permet d’offrir une route stable vers les destinations qui risque d’ˆetre un peu compliqu´e dans le cas de grand r´eseau dynamique o`u le nombre de liens ayant une qualit´e tr`es variante est important. AODV-QoS Un autre protocole r´eactif QdS est AODV QoS pr´esent´e dans [PR99b]. Cette proposition est une modification du protocole de routage AODV afin de garantir une meilleure QdS en termes de d´elai et de bande passante puisque elle consiste `a rajouter une extension dans les messages de contrˆole contenant des informations sur le lien. Afin de garantir la bande passante demand´ee, la requˆete AODV RREQ transporte la valeur de la bande passante demand´ee. Chaque nœud recevant ce message compare la valeur transf´er´ee avec la capacit´e du lien. Si elle est plus grande, le paquet est d´etruit. Par cons´equent, chaque nœud recevant la r´eponse RREP compare sa capacit´e avec la valeur transf´er´ee et garde le minimum des deux valeurs. QOLSR De mˆeme pour OLSR, une am´elioration a ´et´e propos´ee en [MBAAP02] afin d’avoir un routage `a base de QdS en ajoutant des extensions `a ses messages de contrˆole en termes de d´elai et de bande passante. De plus, QOLSR am´eliore aussi le concept des nœuds MPR puisqu’il en rajoute la fonctionna-46 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ lit´e du contrˆole d’admission. En effet, les MPRs sont responsables d’accepter ou de refuser des flux afin de garantir que le flux d’un nouvel utilisateur ne d´egrade pas les flux existant. Pour faciliter cette tˆache, une valeur seuil globale est fix´ee pour la consommation de la bande passante. En cas de saturation, aucun trafic n’est accept´e jusqu’au d´echargement du r´eseau. ii. Niveau MAC Un protocole MAC `a QdS permet de fournir les propres besoins en terme de QdS pour chaque nœud dans le r´eseau partageant le mˆeme canal avec ses autres voisins, sans affecter les besoins des autres nœuds. WAVE Le standard IEEE 802.11p [WAKP08] est un exemple de protocole MAC `a QdS, connu sous le nom de WAVE (Wireless Access in Vehicular Environment). Il utilise la fonction EDCA (Enhanced Distributed Channel Access) qui a pour principe la diff´erentiation du trafic en des cat´egories avec des priorit´es diff´erentes. Ce protocole a une importance remarquable pour les applications sensibles au d´elai comme la transmission de la voix ou les trafics interactifs. MH-TRACE De plus, [TH03] pr´esente un protocole MAC QdS nomm´e MH-TRACE (The Multi-Hop Time Reservation using Adaptive Control for Energy Effi- ciency). Ce protocole combine les avantages du syst`eme distribu´e et ceux du syst`eme centralis´e en adoptant la m´ethodologie de groupage de nœuds clustering (figure 2.8). MH-TRACE se base sur le principe de la communication sur des tranches de temps bien d´efinies pour chaque ´emetteur (TDMA pour Time Division Multiple Access) afin de limiter les collisions entre les paquets ´emis par les tˆetes de groupe. TDMA est un m´ecanisme utilis´e dans les r´eseaux GSM et satellite permettant `a de multiples utilisateurs de partager la mˆeme fr´equence du canal en r´epartissant le temps d’utilisation en un cycle de tranches (time slot). Chaque tranche est allou´ee `a un ´emetteur. Chaque nœud ´emet durant sa propre tranche de temps, et entre, par la suite, dans une phase de veille pour le reste du cycle. L’acc`es au canal pour les nœuds du mˆeme groupe est g´er´e et contrˆol´e par le nœud en tˆete de groupe qui a pour but de limiter le taux de collision entre les paquets. L’avantage majeur de MH-TRACE est qu’il fournit de la QdS aux applications temps-r´eel comme la transmission de la voix ou la conf´erence vid´eo grˆace `a sa m´ethode de gestion de la dur´ee d’´emission et sa m´ethode coordonn´ee d’acc`es au canal. De plus, il permet d’am´eliorer l’efficacit´e ´energ´etique du r´eseau puisque les2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 47 nœuds peuvent entrer en veille plus souvent. Le syst`eme MH-TRACE est exploit´e dans [TH05] afin de cr´eer une architecture inter-couche (cross layer ) pour des transmissions en multicast, MC-TRACE (Multicasting Time Reservation using Adaptive Control for Energy Efficiency). Cette architecture est con¸cue principalement pour la transmission de la voix afin de r´eduire la dissipation de l’´energie durant l’´emission et le repos du nœud. iii. Solutions de fourniture de la QdS D’autre structures, con¸cues entre le niveau MAC et routage, sont propos´ees pour les r´eseaux ad hoc afin de diff´erentier le trafic et de garantir la QdS. Ces mod`eles permettent de r´eserver les ressources n´ecessaires pour chaque flux prioritaire en se basant sur la signalisation. En effet, la signalisation a pour but la r´eservation, le rafraˆıchissement et la lib´eration des ressources dans le r´eseau. Le transfert de la signalisation doit ˆetre fiable et de haute priorit´e pour pouvoir garantir la QdS `a tout moment. De plus, les messages de la signalisation ne doivent pas avoir un coˆut ´elev´e permettant de consommer davantage de la bande passante. Il existe deux types de signalisation : une signalisation in-band, qui utilise l’entˆete IP du paquet de donn´ees pour signaler les ressources demand´ees, et une signalisation out-of-band qui utilise des paquets de contrˆole sp´ecifiques. La signalisation out-of-band a un coˆut plus important ce qui consomme davantage des ressources dans le r´eseau. RSVP est un exemple de protocole de signalisation out-of-band. Protocole de signalisation INSIGNIA INSIGNIA [LC98], (In-Band Signaling Support for QoS In Mobile Ad hoc Networks), est le premier protocole de signalisation propos´e pour les r´eseaux ad hoc. Il est bas´e sur le principe de la signalisation in-band. Avec la collaboration d’un contrˆoleur d’admission, INSIGNIA est un support pour la QdS pour les services temps r´eel. Il permet aux paquets ayant des besoins en termes de QdS d’exprimer leurs demandes dans un champ sp´ecifique ajout´e `a l’entˆete IP. En effet, chaque nœud d´esirant ´emettre un trafic exig´e en termes de QdS, commence `a envoyer les paquets de donn´ees en mode Best-effort jusqu’`a la r´eception de la notification d’acceptation de la r´eservation. Ces paquets contiennent dans leurs en-tˆetes la demande de r´eservation. La demande de r´eservation comporte la valeur de la bande passante d´esir´ee ainsi que la valeur de la bande passante minimale en dessous de laquelle le flux ne souhaite pas descendre. Chaque nœud interm´ediaire recevant ces messages d´ecide d’accepter la r´eservation soit avec la bande passante optimale,48 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ minimale ou la d´egrader en Best-effort. Au cours de l’´emission des donn´ees, la r´eservation peut ˆetre modifi´ee : augment´ee `a la valeur optimale ou d´egrad´ee `a la valeur minimale, en modifiant l’en-tˆete IP et elle est rafraichie avec le passage des paquets de donn´ees. Une fois la r´eservation de la route est ´etablie, le champ ajout´e `a l’entˆete IP est utilis´e pour ´echanger l’´etat des liens. De l’autre cot´e, le nœud r´ecepteur envoie r´eguli`erement des rapports sur la qualit´e du lien permettant `a l’´emetteur de modifier son d´ebit d’´emission. INSIGNIA est un protocole de signalisation qui n´ecessite d’ˆetre associ´e `a un contrˆoleur d’admission pour pouvoir affecter les ressources aux flux prioritaires. Bien que le principe de INSIGNIA permette de limiter le coˆut de la signalisation afin d’´etablir, adapter et restaurer des r´eservations, il n´ecessite une modification de l’entˆete IP ce qui est une possibilit´e trop complexe `a r´ealiser pour l’impl´ementation r´eelle que nous allons r´ealiser. FQMM Le premier mod`ele de QdS propos´e pour MANET est le mod`ele FQMM [XYLC00] (Flexible QoS Model for MANET). Il combine `a la fois les deux structures IntServ et DiffServ. Il s’appuie ainsi, sur un sch´ema hybride de la granularit´e par flux de IntServ pour g´erer le trafic le plus prioritaire et par classe de DiffServ pour les autres trafics dans un r´eseau constitu´e au maximum d’une cinquantaine de nœuds mobiles, formant un domaine Diff- Serv. FQMM utilise les m´ecanises de IntServ pour r´eserver la bande passante n´ecessaire pour les flux prioritaires. La limitation de l’application de IntServ permet de conserver les ressources dans le r´eseau. Selon le sens des trafics, les nœuds peuvent avoir des rˆoles diff´erents comme dans DiffServ : – Nœud d’entr´e (Ingress Node) : est le nœud source, il est le point d’entr´ee du trafic ; – Nœuds de cœur (Core node) : sont les nœuds interm´ediaires ; – Nœud de sortie (Egress Node) : est le nœud destination. La classification du trafic est r´ealis´ee au niveau des nœuds d’entr´ee alors que la QdS est fournie tout au long du trajet, au niveau de chaque nœud du cœur selon le PHB de chaque paquet (au niveau du champ de DiffServ dans l’entˆete IP) jusqu’`a arriver au nœud destination. Le but de FQMM est de pouvoir interfacer le r´eseau avec l’Internet puisqu’il utilise les m´ecanismes du r´eseau filaire. SWAN [GsAS02] pr´esente un autre mod`ele de gestion de la QdS nomm´e, SWAN (Stateless Wireless Ad hoc Network). SWAN est une structure sans ´etat2.2. MECANISMES POUR LES R ´ ESEAUX AD HOC DE DRONES ´ 49 bas´ee sur des algorithmes de contrˆole distribu´es permettant d’assurer une diff´erentiation des services dans les r´eseaux ad hoc en deux classes : Besteffort (sans contraintes sur la QdS) et temps-r´eel (trafic UDP avec contraintes sur la QdS). Il contrˆole le trafic Best-effort afin de garantir la priorit´e totale au trafic temps r´eel. Le contrˆole d’admission est r´ealis´e au niveau de la source. En effet, un message de signalisation traverse la route vers la destination permettant de sonder la bande passante disponible dans le r´eseau et retournant vers l’´emetteur. Recevant un bilan sur la qualit´e des liens sur la route, la source prend la d´ecision concernant l’admission de flux ou non. Une fois un ´emetteur d´ecide de la possibilit´e d’´emettre un trafic temps-r´eel, chaque nœud interm´ediaire doit faire passer ce trafic en priorit´e en contrˆolant le trafic Best-effort. En cas de congestion, les bits ECN (Explicit Congestion Notification) de l’entˆete IP sont marqu´es afin de permettre `a la source de r´einitialiser son m´ecanisme de contrˆole d’admission. Si la route ne dispose pas d’assez de bande passante, le trafic est supprim´e. SWAN utilise un classificateur permettant de diff´erentier les deux classes de trafic et contrˆoler le d´ebit du trafic Best-effort. Un m´ecanisme de contrˆole du trafic Best-effort n’est pas suffisant pour garantir la QdS demand´ee par les flux admis. En effet, les flux temps r´eel eux mˆeme peuvent causer la congestion du r´eseau et la d´egradation de la qualit´e des autres trafics. De plus, il n’y a pas de limite d’admission de trafic tempsr´eel ce qui peut mˆeme causer la perte totale du trafic Best-effort g´en´erant un vrai probl`eme puisque tous les messages de contrˆole de routage et de la couche d’acc`es sont consid´er´es dans cette approche comme du trafic Best-effort. 2.2.3.3 Dans les UAANET Au cours d’une op´eration coop´erative, les drones ´echangent diff´erents types de messages avec une vari´et´e de priorit´es. En effet, des trafics de mˆeme protocole, ayant la mˆeme destination et les mˆemes num´eros de port peuvent avoir diff´erents besoins en terme de QdS. De plus, les besoins d’un mˆeme trafic peuvent ´evoluer au cours du temps. Ces exigences sont dues au fait que les drones peuvent jouer diff´erents rˆoles au cours de l’op´eration. Certains drones accomplissent des tˆaches plus critiques que les autres et n´ecessitent un traitement de donn´ees plus prioritaire ce qui justifie que les trafics ´echang´es dans le r´eseau peuvent ˆetre trait´es diff´eremment. En outre, la tˆache d’un drone peut changer au cours du temps selon les circonstances de la mission. Par cons´equent, ses besoins en termes de QdS peuvent varier aussi. Quelques propositions sont ´etudi´ees sp´ecialement pour les r´eseaux de50 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ drones. En effet, [SFS+04a] propose un protocole de routage conscient des besoins QdS des drones. Il permet de d´efinir des priorit´es entre les paquets selon le protocole et l’´emetteur. Par la suite, ces priorit´es sont respect´ees au cours de l’acheminement des donn´ees ce qui permet d’am´eliorer le d´ebit et le d´elai essentiellement pour le trafic le plus prioritaire. Une autre proposition dans [BT11] permet d’am´eliorer la QdS selon la tˆache effectu´ee pour le drone. Cette solution est ´etudi´ee dans le cas o`u une flotte de drones op`ere ensemble d’une mani`ere synchronis´ee et change de tˆache simultan´ement. Les passages d’une tˆache `a l’autre sont g´er´es et contrˆol´es par la station de contrˆole. Etant donn´e que l’architecture du r´eseau est hi´erarchique, les drones sont ´ organis´es en groupes. Pour chaque groupe, le drone ayant la meilleure qualit´e de lien avec la station sol est choisi comme SuperNode, est responsable de l’acheminement du trafic entre les nœuds de ces groupes et la station sol. Cette proposition d´efinit la liste des tˆaches `a effectuer par la flotte de drones et les ordonne selon les besoins de chacune en terme de QdS : les tˆache qui n´ecessitent des exigences ´elev´ees de QdS et d’autre qui n´ecessitent des exigences moins ´elev´ees. Le syst`eme de gestion de la QdS est compos´e par le processus de gestion de motif (Process Pattern Manager ) qui contient la liste des tˆaches et le gestionnaire de files d’attente. Il peut ˆetre utilis´e en deux modes : – Au niveau des nœuds ordinaires (qui ne sont pas des SuperNode) : la gestion de QdS est appliqu´ee pour les propres paquets du nœud (le trafic sortant) ; – Au niveau du SuperNode : la gestion est appliqu´ee pour les paquets retransmis (trafic rout´e) ; Pour chaque paquet sortant, le gestionnaire des files d’attente consulte le gestionnaire des tˆaches pour d´eterminer le traitement n´ecessaire durant la tˆache en cours et la file d’attente appropri´ee. Le champ ToS de l’entˆete IP est utilis´e pour marquer les paquets. Au niveau du SuperNode, les paquets sont trait´es selon le marquage de leurs champs ToS. Cette proposition permet d’am´eliorer les performances du r´eseau ad hoc de drones dans un cas sp´ecifique o`u les tˆaches des a´eronefs sont pr´ed´efinies et respect´ees durant toute l’op´eration. Cependant, dans un cas plus dynamique o`u les drones sont plus interactifs et ont des tˆaches qui s’adaptent aux circonstances, le processus de pr´e-d´efinition la liste des tˆaches sera plus complexe. Dans [SFS+04b], les auteurs proposes un prototype d’une mission coop´erative pour une flotte de drones consciente de la QdS disponible dans le r´eseau. En effet, les drones utilise un logiciel qui permet d’adapter la qualit´e2.3. EVALUATION DES R ´ ESEAUX AD HOC DE DRONES ´ 51 d’image envoy´ee selon l’´etat de la mission et du r´eseau. La QdS est l’une des exigences des r´eseaux ad hoc de drones qui n´ecessite l’utilisation de certains m´ecanismes adapt´es `a ce genre de syst`eme. Par cons´equent, des ´etudes d´edi´ees doivent ˆetre r´ealis´ees permettant de garantir la Qds demand´ee dans un environnement r´eel. Discussion Ces diff´erents mod`eles de fourniture de QdS (FQMM et SWAN) permettent de diff´erencier le trafic globalement en deux cat´egories : temps-r´eel qui a la priorit´e absolue et le reste de trafic (Best-effort). Cette mani`ere de gestion de QdS peut aboutir, dans des situations de congestion, `a la p´enalisation et la d´egradation du trafic Best-effort. L’architecture de communication pour les UAANET doit ˆetre capable de fournir chaque trafic ses besoins en terme de QdS tout en pr´eservant le trafic Best-effort. Cette section a pr´esent´e les diff´erents m´ecanismes utilis´es afin de diff´erentier les services d’un r´eseau et de garantir la QdS demand´ee dans des syst`emes filaires et sans fil. Une ´etape tr`es importante de la cr´eation de nouveaux syst`emes, la validation et l’´evaluation de performances, est pr´esent´ee dans la section suivante. 2.3 Evaluation des r´eseaux ad hoc de drones ´ L’´evaluation des performances d’un syst`eme de communication est une ´etape importante dans le processus de cr´eation de nouvelles propositions notamment dans le contexte des r´eseaux de drones. En effet, cette ´evaluation permet, non seulement d’´evaluer les performances du syst`eme, mais aussi de pr´edire les probl`emes possibles qui peuvent affecter le syst`eme une fois d´eploy´e dans un environnement r´eel. Par cons´equent, plusieurs am´eliorations peuvent ˆetre ´etudi´ee pour le syst`eme afin de l’adapter aux conditions de l’environnement r´eel. Plusieurs moyens permettent d’´evaluer les syst`emes de communication comme la simulation, l’´emulation, la mod´elisation math´ematique ou encore l’exp´erimentation r´eelle. Pour notre ´etude, nous optons pour la simulation ainsi que l’exp´erimentation r´eelle. 2.3.1 Simulation La simulation est la mod´elisation du comportement du r´eseau dans un environnement virtuel. Les protocoles et les exp´erimentations sont d´efinis dans des fichiers modifiables et sont reproductibles.52 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ La simulation a une grande popularit´e dans les ´etudes de performance des syst`emes de communication. Elle permet de cr´eer, dans un monde virtuel, tous les composants de l’environnement r´eel comme les positions des nœuds, leurs mouvements, la zone et les protocoles de communications. Pour avoir une meilleure ´etude de performances des syst`emes, il faut r´ealiser les simulation dans un environnement proche de la r´ealit´e. Le mod`ele de mobilit´e, le mod`ele de propagation des signaux, les att´enuations sont des composants de l’environnement virtuel de la simulation. Dans notre ´etude, nous nous focalisons sur les mod`eles de mobilit´e qui font diff´erer les r´eseaux ad hoc de drones des autres r´eseaux ad hoc. 2.3.1.1 Mod`eles de mobilit´e Le mod`ele de mobilit´e d´efinit les trajectoires des nœuds ainsi que leurs vitesses. Il permet au simulateur de calculer les positions g´eographiques des nœuds `a chaque instant au cours de la simulation. Ces positions permettent de mesurer les distances entre les diff´erents nœuds afin de d´efinir les liaisons entre eux. De plus, dans le cas des r´eseaux ad hoc, la mobilit´e des nœuds permet de modifier fr´equemment la topologie du r´eseau en causant la cr´eation de nouveaux liens et la rupture d’autres. En effet, en changeant de position, des nœuds se rapprochent d’autres nœuds et s’´eloignent d’autres. En cons´equence, de nouveaux liens se cr´eent et d’autres sont d´etruits. Cette modification peut ˆetre fr´equente, brusque et rapide causant la perturbation de la connexion. Le mod`ele de mobilit´e permet de traduire ce changement de topologie dans l’environnent virtuel de la simulation. Dans [CBD02], les auteurs ont r´ealis´e une ´etude permettant de comparer le comportement du protocole de routage DSR en utilisant une vari´et´e de mod`eles de mobilit´e. Les r´esultats montrent que les performances de DSR en termes de d´elai, taux de livraison et interf´erence ont ´et´e fortement in- fluenc´ees par le changement du mod`ele de mobilit´e. Par cons´equent, pour r´ealiser une meilleure ´etude de performances il faut choisir le mod`ele de mobilit´e le plus proche de la r´ealit´e des mouvements des nœuds. En effet, plus les mouvements des nœuds du r´eseau dans le mod`ele sont proches de la r´ealit´e, plus la simulation r´eseau a des chances d’aboutir `a des r´esultats proches de la r´ealit´e et donc d’ˆetre utile. Ainsi, pour pouvoir ´evaluer un protocole de communication ad hoc de drones, il faut cr´eer un mod`ele de mobilit´e r´ealiste. i. Mod`eles de mobilit´e pour les MANET Cette partie pr´esente les mod`eles de mobilit´e les plus utilis´es utilis´e pour2.3. EVALUATION DES R ´ ESEAUX AD HOC DE DRONES ´ 53 les MANET. Elle fait l’objet d’un projet de Master r´ealis´e dans le contexte de cette th`ese. Random Way-Point Plusieurs chercheurs ´etaient conscients de la n´ecessit´e de l’utilisation d’un mod`ele de mobilit´e r´ealiste et ont propos´e des mod`eles de mobilit´e proches de leurs cas d’utilisation. Cependant, le mod`ele le plus utilis´e reste le Random Way-Point (RWP) [CBD02] qui se base sur des mouvements rectilignes vers des positions destinations choisis al´eatoirement au cours de la simulation. Figure 2.10 – Mouvements de RWP Chaque nœud choisit al´eatoirement une destination dans la surface de simulation et une vitesse. Ensuite, il se dirige vers cette destination suivant une trajectoire rectiligne avec la vitesse d´ej`a choisie. Une fois arriv´e `a sa destination, le nœud s’arrˆete pour une dur´ee de temps avant de r´eit´erer le mˆeme processus. (figure 2.10) Random Direction Random Direction (RD) [Roy10] est un autre mod`ele de mobilit´e con¸cu pour les MANET. Dans ce mod`ele, chaque nœud choisit al´eatoirement une direction, qui est un angle entre 0 et π, et une vitesse. Par la suite, il se d´eplace dans la direction choisie jusqu’`a atteindre le bord de la surface de simulation o`u il prend une pause. Une fois le temps de pause termin´e, le nœud choisit al´eatoirement une nouvelle direction et une nouvelle vitesse et r´ep`ete le mˆeme processus. (figure 2.11)54 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ Figure 2.11 – Mouvements de RD Gauss-Markov Ce mod`ele peut s’adapter aux diff´erents niveaux de hasard [Roy10] (c’est- `a-dire totalement al´eatoire, partiellement al´eatoire ou d´eterministe selon la corr´elation temporelle) `a travers un param`etre de r´eglage du degr´e de hasard α, avec 0≤ α ≤ 1. Initialement, une vitesse et une direction sont assign´ees aux diff´erents nœuds mobiles. Pour des intervalles de temps fixes, le mouvement a lieu en mettant `a jour la vitesse et la direction. Plus pr´ecis´ement, les valeurs de la vitesse et de la prochaine position au n`eme instant sont calcul´ees `a partir de celles du (n-1)`eme. Pour s’assurer qu’un nœud ne reste pas trop longtemps pr`es du bord de la zone de simulation, les nœuds sont pouss´es loin du bord quand ils sont `a moins d’une certaine distance du bord. Les valeurs de la vitesse, de la direction et de la position `a chaque instant, d´ependent des valeurs de l’instant pr´ec´edent ce qui cr´ee un mouvement plus r´egulier des nœuds. La figure 2.12 pr´esente le mouvement d’un nœud selon le mod`ele GaussMarkov avec trois valeurs diff´erentes du param`etre de r´eglage du degr´e du hasard α. Quand α est ´egal `a 1, le mouvement est lin´eaire. Le nœud garde les valeurs de la vitesse et de la direction initiales. Ces valeurs ne sont modifi´ees que sur les bords de la zone de simulation. Manhattan Manhattan [Roy10], est un autre mod`ele de mobilit´e con¸cu pour les VANET. Il a ´et´e principalement ´etudi´e pour le mouvement dans les zones ur-2.3. EVALUATION DES R ´ ESEAUX AD HOC DE DRONES ´ 55 α=0 (a) α=0.8 (b) α=1 (c) Figure 2.12 – Mouvements de Gauss Markov avec trois valeurs de α baines o`u les rues sont organis´ees d’une certaine mani`ere. Ce mod`ele utilise une topologie des routes repr´esent´ee par une grille. Chaque nœud mobile se d´eplace dans une direction horizontale ou verticale suivant la carte urbaine. A l’intersection des routes, le mobile peut tourner `a gauche, `a droite ou continuer tout droit. La s´election des mouvements des routes suit une approche probabiliste. En effet, la probabilit´e de continuer tout droit est de 0.5 tandis que tourner `a gauche ou `a droite est de 0.25 pour chaque direction. La vitesse du nœud mobile `a un intervalle de temps d´epend de la vitesse de l’intervalle de temps pr´ec´edent. Elle est aussi limit´ee par la vitesse du nœud qui pr´ec`ede sur le mˆeme chemin. De plus, deux nœuds dans la mˆeme voie doivent ˆetre `a une distance de s´ecurit´e SD (Safe Distance), la vitesse du nœud suivant ne pouvant pas exc´eder le premier. Ce mod`ele de mobilit´e est plus adapt´e aux sc´enario des mouvements v´ehiculaire. ii. Mod`eles de mobilit´e pour les UAANET Bien que la mobilit´e soit l’une des caract´eristiques des r´eseaux ad hoc de drones, il existe quelque mod`eles de mobilit´e permettant d’imiter le mouvement d’une flotte de drones. Distributed Pheromone Repel Mobility Model Dans [KNt06], les auteurs ont propos´e deux mod`eles de mobilit´e con¸cus pour des missions de reconnaissance : un mod`ele al´eatoire Random Mobility56 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ Model et un autre distribu´e Distributed Pheromone Repel Mobility Model. Ces mod`eles de mobilit´e se basent sur trois actions : – aller tout droit ; – tourner `a droite (-45o ) ; – tourner `a gauche (45o ). Avec le Random Mobility Model, chaque drone choisit son mouvement en se basant sur des probabilit´es fixes. Alors qu’avec le Distributed Pheromone Repel Mobility Model une carte contenant les informations sur les mouvements des autres drones est utilis´ee pour guider les a´eronefs. Cette carte est cr´e´ee grˆace `a des ´echanges entre les drones concernant les zones scann´ees par les autres engins. Par cons´equent, chaque nœud d´ecide de tourner `a droite, `a gauche ou de continuer tout droit. SRCM Dans [WGWW10], Les auteurs pr´esentent un autre mod`ele de mobilit´e con¸cu pour les r´eseaux ad hoc de drones, bas´e sur des mouvements semicirculaires nomm´e SRCM Semi-Random Circular Movement. Ce mod`ele est id´eal pour les r´eseaux dans lesquels les drones survolent une localisation fixe afin de collecter des informations. Les positions initiales des nœuds leurs permettent de tourner autour d’un seul point fixe O, le centre de la zone circulaire C, chacun sur son cercle (figure 2.13). V0 V2 V1 C O Figure 2.13 – Le principe de SRCM Chaque nœud fixe une valeur de vitesse al´eatoire et choisi une position sur son cercle, tout en gardant le mˆeme sens d’avancement (sens trigonom´etrique2.3. EVALUATION DES R ´ ESEAUX AD HOC DE DRONES ´ 57 ou le sens contraire). A l’arriv´ee `a sa destination, il reste fixe pour une dur´ee de temps fixe. Par la suite il reprend son chemin vers la position de sa nouvelle destination. Une fois que le nœud a compl´et´e le tour de son cercle, il refait la mˆeme proc´edure sur un autre cercle (de centre 0 et situ´e `a l’int´erieur du cercle C ), choisi al´eatoirement. Mod`ele de mobilit´e pour plates-formes a´eriennes Les auteurs de [XWNF13] ont propos´e un autre mod`ele de mobilit´e pour les plates-formes a´eriennes bas´e aussi sur le mouvement circulaire. Chaque nœud tourne autour une position choisie al´eatoirement avec une vitesse fixe jusqu’il choisit une autre position. Ce mod`ele est capable de changer l’altitude durant le vol en deux approches. Dans la premi`ere, l’altitude est corr´el´ee avec les autres d´eplacements alors que dans la deuxi`eme approche, les trois dimensions sont ind´ependantes. La corr´elation entre les trois dimensions g´en`ere des mouvements avec une large variation d’altitude. Ce mod`ele est bien adapt´e `a des sc´enarios de vol pour des applications militaires ou des spectacles. Alors que la deuxi`eme approche, qui garde les trois dimension x, y et z ind´ependants, permet d’avoir moins de variation d’altitude. Ce mod`ele est mieux adapt´e aux applications civiles et commerciales. 2.3.1.2 Validation d’un nouveau mod`ele de mobilit´e La question de la validit´e d’un mod`ele de mobilit´e est peu abord´ee dans la litt´erature. Certains auteurs qui ont d´evelopp´e de nouveaux mod`eles, les ont compar´e aux mod`eles usuels comme dans [ESB+04]. Ils ont r´ealis´e une comparaison du comportement du nouveau mod`ele de mobilit´e r´ealiste au comportement de plusieurs autres mod`eles de mobilit´e. Les crit`eres utilis´es dans cette ´etude sont la distribution spatiale des nœuds sur la zone de simulation, le taux de perte et le d´elai de transmission de donn´ees. Les deux mod`eles de mobilit´e pr´esent´es dans [KNt06] ont ´et´e compar´es ensemble pour ´etudier les performances de l’un par rapport `a l’autre en utilisant comme m´etriques : la couverture et la connectivit´e des nœuds. Dans [MM06], le nouveau mod`ele de mobilit´e a ´et´e valid´e en se basant sur la comparaison avec les traces de mouvement r´eel. Les m´etriques utilis´ees pour cette ´evaluation sont : – La dur´ee de contact : la dur´ee de temps durant lequel deux nœuds sont `a la port´e l’un de l’autre ; – Le nombre d’inter-contact : la fr´equence et la probabilit´e d’ˆetre en contact directe avec la destination du paquet.58 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ D’autres chercheurs pr´ef`erent la mod´elisation math´ematique comme dans [XWNF13] et [WGWW10]. De plus, on trouve diff´erents m´etriques utilis´es pour ´etudier les propri´et´es statistiques des mod`eles de mobilit´e ([YPD07],[ZHR04],[TTV07]) : Nous proposons une classification de ces m´etriques en deux cat´egories : g´eom´etrique et performance r´eseau. La cat´egorie g´eom´etrique ou spatiale qui permet d’´etudier l’aspect physique du mouvement (les trajectoires) et son impact sur la topologie du r´eseau, comme : – Distribution spatiale des nœuds : repr´esente graphiquement la densit´e des nœuds dans la zone de simulation. Elle permet de v´erifier si la distribution est homog`ene ou concentr´ee autour du centre ; – Degr´e de d´ependance spatiale : pr´esente le degr´e de corr´elation de vitesse de chaque nœud avec ses voisins ; – Degr´e de d´ependance temporelle : d´etermine le degr´e de variation de la vitesse et de la direction du nœud au cours du temps. Cette valeur est faible si la vitesse et la direction sont faiblement corr´el´ees au cours du temps ; – Vitesse relative : mesure la diff´erence entre les vitesses de deux nœuds. Elle donne une indication sur le dynamique du r´eseau ; – Dur´ee de lien : mesure la moyenne de temps durant lequel il existe un lien radio entre deux nœuds ; – Taux de changement du lien : fait r´ef´erence aux changements de la topologie par le changement des ´etats des liens entre les nœuds. En effet, si un lien entre deux hˆotes est ´etabli, on consid`ere que l’´etat du lien est actif. Si le lien a ´et´e rompu `a cause du mouvement du nœud, l’´etat du lien est consid´er´e inactif. La cat´egorie performance du r´eseau permet d’´evaluer l’impact du mouvement sur les performances des protocoles de communication. Elle groupe des mesures comme le taux de perte des paquets ou le d´elai de transmission. Malgr´e les diff´erents facteurs de la simulation (comme par exemple les mod`eles de mobilit´e) existants, l’environnement virtuel cr´e´e par les simulateurs r´eseaux ne peut pas stimuler certains caract´eristiques et facteurs de l’environnement r´eel comme par exemple, les ´echecs techniques qui peuvent affecter n’importe quel nœud du r´eseau, ou encore la puissance de r´eception qui reste constante dans la simulation `a n’importe quel distance `a l’int´erieur de la port´ee radio de l’´emetteur.2.3. EVALUATION DES R ´ ESEAUX AD HOC DE DRONES ´ 59 2.3.2 Exp´erimentation r´eelle Bien que l’exp´erimentation r´eelle soit difficile `a r´ealiser, elle reste utile et n´ecessaire pour ´evaluer les performances d’un syst`eme dans son environnement r´eel. La r´ealisation d’une exp´erimentation avec des drones n´ecessite des mat´eriels comme les a´eronefs et la station sol ainsi que de la pr´esence des humains pour piloter et contrˆoler les drones. De plus, la r´ealisation d’une exp´erimentation r´eelle peut ˆetre difficile `a cause de plusieurs facteurs comme [BDJH04] : – le coˆut : il limite le nombre de drones qu’on peut utiliser pour r´ealiser une exp´erimentation ; – la flexibilit´e : elle handicape la r´ealisation des sc´enarios ainsi que leur r´ep´etition sur un grand nombre de fois ; – surveillance du r´eseau : il doit avoir le minimum d’impact possible sur le d´eroulement de l’exp´erimentation. Ainsi, il est n´ecessaire d’utiliser le minimum de la capacit´e du processeur embarqu´e ainsi que de la bande passante disponible dans le r´eseau. Malgr´e toutes ces difficult´es l’exp´erimentation r´eelle reste une ´etape importante dans le processus de cr´eation des syst`emes de communication. L’article [BDJH04] pr´esente une exp´erimentation r´ealis´ee pour des petits drones (10kg). Elle a pour but l’´evaluation du r´eseau ad hoc de drones utilisant DSR comme protocole de routage et le standard 802.11b au niveau MAC. Cette exp´erimentation a mis en ´evidence quelques d´efaillances de DSR, comme les probl`emes de routage rencontr´es avec la mobilit´e des nœuds notamment sa lente r´eaction face `a l’´echec des routes. Dans [XSX+10], les auteurs ont r´ealis´e une exp´erimentation afin de valider le fonctionnement d’un algorithme de formation de vol par un ´echange de donn´ees `a travers un r´eseau ad hoc. Elle a montr´e la faisabilit´e, la validit´e et l’efficacit´e de l’utilisation d’un r´eseau ad hoc pour des fonctionnalit´es coop´eratives. Dans le cadre du projet CARUS [CLM+11], une exp´erimentation a ´et´e r´ealis´ee en utilisant cinq drones. Cette r´ealisation avait pour but de montrer la faisabilit´e de l’utilisation d’une flotte de drones autonomes et coop´eratifs. Les ´echanges entres les drones sont r´ealis´es par une diffusion asynchrone de donn´ees. La simulation et l’exp´erimentation r´eelle peuvent ˆetre r´ealis´ees ensemble afin de b´en´eficier des avantages des deux. En effet, la premi`ere pr´esente une ´etude facile `a r´ealiser et reproductible malgr´e certaines limites d’imitation de l’environnement r´eel. Ces limites peuvent ˆetre rattrap´ees par des60 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´ exp´erimentations r´eelles permettant de valider les r´esultats obtenus par la simulation. Par cons´equent, la simulation et l’exp´erimentation r´eelle se compl`etent pour une validation fiable de nouveaux protocoles de communication. Conclusion Les r´eseaux ad hoc sont caract´eris´es par une vari´et´e de caract´eristiques comme la capacit´e des nœuds utilis´es en termes d’autonomie, ´energie, port´ee radio et processeur, ou encore la densit´e, la topologie du r´eseau et la mobilit´e. Par cons´equent, ils sont class´es selon leurs applications, objectifs, d´eploiement, ou types de communications. Les r´eseaux ad hoc de drones (UAANET) est l’une des classes de MANET qui pr´esente le cas d’une flotte de drones qui coop`erent entre eux afin d’accomplir une mission. Ce genre de r´eseau a des sp´ecificit´es par rapport aux autres classes de MANET comme la mobilit´e Pour les UAANET, la communication joue un rˆole tr`es important dans le d´eroulement d’une op´eration puisque certains messages ´echang´es peuvent ˆetre critiques et le choix des protocoles de communication utilis´es peut affecter le d´eroulement des missions des drones. Par cons´equent, un syst`eme de communication fiable doit ˆetre utilis´e. Certains protocoles de communication de niveau MAC et routage ont ´et´e propos´es pour ˆetre utilis´es dans ce cas. La majorit´e est propos´ee pour des conditions bien sp´ecifiques, comme les protocoles qui fonctionnent avec des types d’antenne ou de d´eplacement sp´ecifiques. Certains autre protocoles n´ecessitent des capacit´es de calcul qui semble complexe par rapport `a la capacit´e limit´ee des mini-drones. Par cons´equent, notre choix de protocole s’est dirig´e vers des protocoles qui ne n´ecessitent pas des conditions sp´ecifiques et qui peuvent ˆetre impl´ement´e sur un syst`eme Linux. Nous optons pour le standard IEEE 802.11 pour le niveau MAC et le protocole AODV pour le routage des donn´ees. L’impl´ementation AODV-UU est choisie puisqu’elle est disponible `a la fois pour le simulateur r´eseau ainsi que pour le syst`eme Linux. En outre, les UAANET ont une exigence en terme de QdS. Effectivement, au cours d’une op´eration, les drones ´echangent diff´erents types de trafic selon la tˆache de l’´emetteur ou encore le protocole utilis´e. Par cons´equent, le syst`eme de communication utilis´e pour les UAANET doit ˆetre capable de diff´erentier le trafic et garantir diff´erents niveau de QdS. Des m´ecanismes utilis´es pour la gestion de la QdS dans les r´eseau ad hoc ont ´et´e pr´esent´e dans la deuxi`eme section de ce chapitre. Les mod`eles de fourniture de QdS FQMM et SWAN permettent de diff´erencier le trafic globalement en deux2.3. EVALUATION DES R ´ ESEAUX AD HOC DE DRONES ´ 61 cat´egories : temps-r´eel qui a la priorit´e absolue et le reste de trafic (Besteffort). Dans des situations de congestion, o`u les nœuds ´echangent trop de trafic temps-r´eel, le trafic Best-effort risque d’ˆetre p´enalis´e et d´egrad´e ou encore d’ˆetre inexistant. L’architecture de communication pour les UAANET doit ˆetre capable de fournir chaque trafic ses besoins en terme de QdS tout en pr´eservant le trafic Best-effort. Pour ce genre d’´etudes, il est tr`es recommand´e d’´evaluer les performances du syst`eme afin de pr´edire les probl`emes possibles qui peuvent l’affecter dans des conditions r´eelles. La simulation et l’exp´erimentation r´eelle sont deux moyens compl´ementaires permettant de valider un nouveau protocole de communication. En effet, l’exp´erimentation r´eelle est plus difficile `a r´ealiser. La simulation permet de cr´eer un environnement virtuel permettant d’imiter la r´ealit´e mais avec des limites. Le mod`ele de mobilit´e est l’une des bases de cet environnement virtuel qui doit ˆetre tr`es fid`ele au mouvement r´eel des nœuds puisqu’il traduit le changement de la topologie du r´eseau. Par la suite, il traduit la perturbation de connexion entre les drones. Par cons´equent, un mod`ele de mobilit´e reproduisant le vrai mouvement des drones est n´ecessaire. Le chapitre suivant pr´esente l’architecture de communication DAN (DCoS Ad hoc Network) permettant de diff´erentier le trafic et de garantir pour chaque classe les QdS demand´ees dans le contexte de r´eseau ad hoc de drones.62 CHAPITRE 2. RESEAUX AD HOC DE DRONES ´Chapitre 3 Architecture DAN Contents 3.1 Recueil d’exigences . . . . . . . . . . . . . . . . . 64 3.2 Classes de trafic . . . . . . . . . . . . . . . . . . . 67 3.3 L’architecture de DAN . . . . . . . . . . . . . . . 68 3.3.1 API DAN . . . . . . . . . . . . . . . . . . . . . . . 69 3.3.2 L’agent DAN . . . . . . . . . . . . . . . . . . . . . 70 3.3.3 Le contrˆoleur d’admission . . . . . . . . . . . . . . 71 3.3.4 Le classificateur . . . . . . . . . . . . . . . . . . . . 71 3.4 La signalisation de DAN . . . . . . . . . . . . . . 72 3.5 Le Fonctionnement de DAN . . . . . . . . . . . . 73 3.5.1 API DAN . . . . . . . . . . . . . . . . . . . . . . . 73 3.5.2 L’agent DAN . . . . . . . . . . . . . . . . . . . . . 76 3.5.3 Le contrˆoleur d’admission . . . . . . . . . . . . . . 77 3.5.4 Le classificateur . . . . . . . . . . . . . . . . . . . . 78 Introduction Ce chapitre pr´esente une architecture de communication pour les r´eseaux ad hoc de drones coop´eratifs, nomm´e DAN (DCoS Ad hoc Network). Elle est capable de s’adapter aux diff´erentes exigences des applications en terme de QdS et `a leurs ´evolutions au cours du temps ainsi que de garantir une diff´erenciation de service. DAN combine des m´ecanismes de gestion de QdS ind´ependamment des protocoles MAC et routage pour pouvoir s’adapter aux diff´erents syst`emes multi-agents coop´eratifs. A partir de l’´etude de l’existant pr´esent´ee dans le ` 6364 CHAPITRE 3. ARCHITECTURE DAN chapitre pr´ec´edent, nous avons choisi le protocole de routage AODV et le standard IEEE 802.11 pour ˆetre utilis´es dans cette architecture de communication. L’objectif de la conception de cette architecture ne s’arrˆete pas au niveau de la proposition dans la litt´erature. L’un des objectifs de la conception de cette architecture est la r´ealisation et l’int´egration aux drones Paparazzi r´eels. Pour cette raison, nous avons essay´e de simplifier au maximum le fonctionnement et la combinaison de ces m´ecanismes pour faciliter leur impl´ementation r´eelle. Ce chapitre pr´esente dans la premi`ere section les exigences de conception de cette architecture de communication. A partir de l’analyse de ces ` exigences, des classes de services sont d´efinies dans la deuxi`eme section. Par la suite, la troisi`eme section pr´esente les diff´erents modules qui constituent l’architecture DAN. Ensuite, la signalisation utilis´ee dans ce syst`eme est introduite dans la quatri`eme section. Finalement, le fonctionnement de toute l’architecture est d´etaill´e dans la derni`ere section de ce chapitre. 3.1 Recueil d’exigences En tant que classe des MANET, le r´eseau ad hoc de drones h´erite de ses limites et ses probl`emes. En effet, le canal de transmission sans fil est caract´eris´e par ses ressources limit´ees ainsi que sa sensibilit´e aux interf´erences et aux obstacles. En outre, le r´eseau ad hoc de petits drones a d’autres sp´ecificit´es qui doivent ˆetre prises en compte lors de la cr´eation et l’´evaluation de nouveaux protocoles de communication pour les UAANET. Les petits drones ont une autonomie tr`es faible, leur source d’´energie limit´ee ne tient au maximum qu’une vingtaine de minutes. Au cours d’une op´eration r´ealis´ee par une flotte de drones, chaque a´eronef peut ˆetre affect´e `a une tˆache sp´ecifique comme la surveillance d’une zone g´eographique bien d´etermin´ee ou la recherche d’une cible pr´ecise. Ces tˆaches peuvent n´ecessiter des donn´ees sp´ecifiques en entr´ee permettant de diriger son ´evolution et envoyer diff´erents types de messages comme r´esultats. Dans les op´erations coop´eratives, l’´evolution de chaque tˆache peut d´ependre des autres tˆaches obligeant les drones `a ´echanger des donn´ees entre eux. En cons´equence, les drones ´echangent plusieurs types de message dans toute les directions (entre eux et avec la station de contrˆole). A partir de l’´etude des fichiers d’enregistrement de trafics envoy´es au ` cours des vols r´eels, nous avons pu constater diff´erents types de message que nous avons class´e selon leurs contenus comme suit.3.1. RECUEIL D’EXIGENCES 65 Certains messages sont ´echang´es entre les drones et leur station de contrˆole comme : – Informations du syst`eme (IS) : elles sont envoy´es du drone vers la station de contrˆole (liaison descendante). Ces messages contiennent des informations sur l’´etat des a´eronefs (batterie, position g´eographique, niveau de service, etc). Il s’agit d’un ´echange entre les couches hautes du syst`eme ; – Informations de l’op´eration (IO) : elles sont envoy´es ´egalement des drones vers la station sol. Ces messages peuvent avoir une vari´et´e de contenus comme la temp´erature, la localisation, la pression, ou le multim´edia (son, image ou vid´eo). Selon la mission, ces messages ont des priorit´es diff´erentes par rapport aux autres types de trafic. Il s’agit aussi d’un ´echange entre les couches hautes du syst`eme ; – Consignes de l’op´eration (CO) : elles sont envoy´es de la station de contrˆole vers les drones (liaison montante). Ces messages contiennent des ordres pour modifier la direction d’un a´eronef, passer `a une autre tˆache, modifier la qualit´e d’image envoy´ee, finir l’op´eration et revenir, etc. Cet ´echange est r´ealis´e entre les couches hautes du syst`eme ; – Messages de contrˆole (MC) : ils sont envoy´es par les protocoles de communication (Routage, ARP, etc). Il s’agit d’un ´echange entre les couches basses dans les deux directions (de la station de contrˆole vers les drones et inversement). Puisque le syst`eme communique `a travers un r´eseau ad hoc, tous ces messages peuvent passer par un ou plusieurs nœuds interm´ediaires dans le but d’atteindre leur destination finale. Cependant, d’autres messages doivent ˆetre ´echang´es entre les drones comme : – Information de syst`eme (IS) : elles sont ´echang´es selon la mission et les fonctionnalit´es des drones comme la localisation g´eographique ou la direction des voisins permettant de modifier les circonstance de la tˆache. (Par exemple les ´echanges de positions g´eographiques afin de recr´eer le vol, allouer les tˆaches ou ´eviter les collisions) ; – Information de l’op´eration (IO) : certaines missions n´ecessitent l’´echange des r´esultats des tˆaches des autres drones pour pouvoir adapter leurs objectifs comme dans [SFS+04b] o`u les drones adaptent leurs niveaux de qualit´e d’image envoy´es en fonction de l’importance de ses donn´ees et celles des autres qui peut varier au cours du temps selon leurs r´esultats de recherche ; – Messages de contrˆole (MC) : message de contrˆole r´eseau (routage, ARP, MAC, ICMP, etc).66 CHAPITRE 3. ARCHITECTURE DAN Par cons´equent, la priorit´e de chaque type de message peut varier selon la mission, l’´emetteur, le type et le contenu du message. Les demandes de chaque type de trafic en terme de QdS sont diff´erentes, certains exigent le minimum de d´elai, d’autres ont besoin du maximum de d´ebit ou de plus de fiabilit´e. En outre, quelques ´echanges n´ecessitent une garantie stricte sur la QdS. Puisque les circonstances d’une op´eration ´evoluent au cours du temps, les rˆoles et les tˆaches des a´eronefs peuvent changer. Par cons´equent, leurs demandes en termes de QdS peut varier. Par cons´equent, la classification usuelle du trafic selon le type de protocole utilis´e dans certaines propositions ´etudi´ees dans le chapitre pr´ec´edent n’est pas suffisante pour ce syst`eme. La QdS, dans ce genre de syst`eme doit ˆetre g´er´ee par un module : 1. Capable de s’adapter `a la variation des tˆaches des drones ainsi qu’`a leurs besoins en terme de QdS ; 2. Capable de respecter les exigences de chaque message lors de l’´emission. Les besoins QdS doivent ˆetre fix´es par un module conscient du rˆole r´ealis´e et du degr´e d’importance de ses donn´ees (s’il s’agit d’une information critique ou non). Ces caract´eristiques peuvent ˆetre regroup´ees dans les fonctionnalit´es du niveau applicatif. En effet, chaque application peut reconnaitre les situations critiques et les ´echanges qui en r´esultent. Par cons´equent, selon la d´ecision prise par l’application, les autres modules de l’architecture de communication doivent respecter les exigences de chaque trafic. L’objectif est de pouvoir diff´erencier les paquets et allouer les ressources n´ecessaires pour chaque classe. L’´evaluation de ce syst`eme doit ˆetre r´ealis´ee dans des conditions r´ealistes afin de pr´edire les probl`emes possibles qui peuvent l’affecter dans un environnement r´eel. Pour notre cas, nous avons choisi deux moyens pour ´etudier notre syst`eme de communication. En premier temps, il sera ´etudi´e par simulation. Par la suite, dans un deuxi`eme temps, il sera valid´e par des exp´erimentations r´eelles. La simulation doit ˆetre r´ealis´ee dans un environnement proche de la r´ealit´e. En cons´equence, puisque la mobilit´e est une particularit´e tr`es importante pour les r´eseaux ad hoc, un mod`ele de mobilit´e sp´ecifique reproduisant les mouvements de drones doit ˆetre utiliser. Ce mod`ele doit pouvoir g´en´erer une vari´et´e de cas de situations possibles. De plus, cette architecture de communication doit ˆetre test´ee et utilis´ee en environnement r´eel. En cons´equence, une plateforme de test doit ˆetre3.2. CLASSES DE TRAFIC 67 cr´e´ee en utilisant de vrais drones Paparazzi ainsi que leur station de contrˆole permettant de les faire communiquer `a travers un r´eseau Ad hoc conscient de leurs besoins de QdS. 3.2 Classes de trafic Comme pr´esent´e dans la section pr´ec´edente, il existe plusieurs types de messages ´echang´es entre les drones et la station de contrˆole, group´es essentiellement en quatre cat´egories (IS, MC, IO et CO). Les messages de la cat´egorie CO sont des messages critiques permettant de modifier le d´eroulement de l’op´eration. Ils doivent ˆetre achemin´es le plus tˆot possible et avec le maximum de fiabilit´e. Certains messages de la cat´egorie IS peuvent ˆetre critiques aussi, permettant d’informer la station de contrˆole sur les difficult´es rencontr´ees par les drones. Par cons´equent, ces messages permettent de limiter les probl`emes techniques. De plus, cette cat´egorie contient des messages envoy´es p´eriodiquement. La perte de certains de ces messages ne cause pas de soucis pour l’avancement de la mission. Au contraire, il est pr´ef´erable de perdre ces messages que les recevoir avec un grand d´elai. La cat´egorie de messages IO contient des messages li´es `a la tˆache de l’a´eronef qui peuvent avoir des besoins modifiables au cours du temps. Cette cat´egorie de trafic d´etermine diff´erentes exigences de QdS. En effet, elle contient des messages envoy´es p´eriodiquement qui peuvent supporter quelques pertes ou les d´elais comme les messages de la classe IS. De plus, elle peut avoir des messages critiques qui demande plus de fiabilit´e comme la classe CO. Aussi, elle regroupe des flux de trafic temps-r´eel qui n´ecessitent un d´ebit fixe et une garantie stricte sur la QdS. Le trafic de la cat´egorie MC permet d’´etablir les liaisons entre les diff´erents nœuds. Ce trafic joue un rˆole important pour la continuit´e de l’op´eration. Ainsi, il ne doit pas ˆetre p´enalis´e par les autres flux. Par cons´equent, trois classes de trafic sont d´efinies permettant de regrouper les diff´erents types de messages : Le trafic Urgent C’est la classe des messages critiques. La r´eception avec d´elai ou la perte de ces messages peuvent causer des probl`emes pour tout le syst`eme. Par cons´equent, ce type de trafic n´ecessite le minimum de d´elai et le maximum de fiabilit´e. Essentiellement, les messages de la classe Urgent sont des messages68 CHAPITRE 3. ARCHITECTURE DAN sporadiques, envoy´es uniquement en cas de n´ecessit´e comme par exemple un r´esultat important, un changement de direction imm´ediat, une situation critique comme le niveau de l’´energie d’un drone. Cette classe de trafic est sensible aux pertes et aux d´elais et elle a la priorit´e absolue. Le trafic Premium C’est la classe des flux de trafic qui ont des exigences QdS en termes de taux de perte, d´elai et d´ebit. Elle n´ecessite une r´eservation de ressource pour avoir une garantie stricte sur la QdS. Le trafic temps-r´eel est un exemple de trafic de cette classe. Le trafic Best-effort Cette classe groupe le reste du trafic qui ne demande aucune garantie sur la QdS. D’ailleurs, pour les messages p´eriodiques, il est pr´ef´erable de perdre des paquets que de les recevoir avec un grand d´elai pour garantir que le syst`eme soit `a jour. Les messages de localisation g´eographique et certains messages IO comme les valeurs de la temp´erature ou la pression mesur´ees sont des exemples du trafic Best-effort. Chaque type d’´echange est class´e dans l’une de ces trois classes pr´esent´ees ci-dessus. Le choix de la classe est r´ealis´e par l’application et peut ˆetre modifi´e plusieurs fois au cours de l’op´eration selon les circonstances. Ainsi, La classification du trafic est ind´ependante du protocole utilis´e (UDP ou TCP). Un trafic TCP peut ˆetre class´e en Premium et un trafic UDP peut ˆetre un Best-effort et inversement. La section suivante pr´esente l’architecture de communication permettant aux applications de g´erer la classification de leurs trafics et permettant de respecter les exigences de chaque classe de trafic. 3.3 L’architecture de DAN Cette section pr´esente les diff´erents modules constituant l’architecture de communication DAN. DAN (DCoS Ad hoc Network), est un syst`eme de communication pour les r´eseaux ad hoc de drones capable de diff´erencier le service. Il groupe un3.3. L’ARCHITECTURE DE DAN 69 ensemble de modules et de m´ecanismes permettant de r´epondre aux exigences des UAANET. Ces modules permettent aux applications d’exprimer les besoins de chaque flux g´en´er´e `a travers une API (Application Programming Interface) sp´ecifique (figure 3.1) selon des crit`eres pr´ed´efinis comme le contenu du message. En se basant sur ces consignes, les autres modules diff´erentient les paquets, et garantie diff´erents niveau de QdS. DAN diff´erentie le trafic en trois classes : Urgent, Premium et Best-effort. La classe de trafic Urgent contient des messages critiques envoy´es d’une mani`ere sporadique avec la plus haute priorit´e (par exemple : message indiquant le niveau tr`es bas d’une batterie). Ces messages exigent un d´elai faible et une fiabilit´e ´elev´ee. La classe Premium regroupe les trafics exigeants en termes de QdS. Les flux multim´edia est un exemple de ces trafics. Ils n´ecessitent une r´eservation de ressources permettant de leur fournir une garantie stricte sur la QdS. Avec DAN, les ressources sont r´eserv´ees avec un protocole de signalisation qui contient des messages de r´eservation et de signalisation d’erreurs. Ce protocole a pour but l’´etablissement et la fermeture des r´eservations. De plus, il permet de notifier l’´emetteur en cas d’erreurs. DAN se base sur les paquets de donn´ees envoy´es pour rafraichir ces r´eservations. En effet, chaque nœud sur la route garde une id´ee sur l’´etat de la r´eservation (soft-state). Cette vision est mise `a jour par la simple r´eception des paquets de donn´ees ce qui permet de limiter la consommation des ressources du r´eseau pour la signalisation. Les deux classes de trafic Premium et Urgent subissent un contrˆole de d´ebit au niveau du nœud source afin d’´eviter le cas de congestion totale caus´ee par une exag´eration d’´emission de ces deux cat´egories de trafic. Tous ces m´ecanismes sont r´ealis´es par des modules de fourniture de la QdS. Comme pr´esent´e dans la figure 3.1, DAN est compos´e d’une API sp´ecifique permettant de connecter l’application aux autres modules qui sont : l’agent DAN, le contrˆoleur d’admission et le classificateur des paquets. 3.3.1 API DAN En plus des sockets classiques d’UDP et TCP, utilis´es pour ´echanger les donn´ees, l’API DAN utilise des sockets sp´ecifiques permettant d’´echanger des messages contenant les informations des flux. Ces sockets supportent quatre types d’´echanges : – la commande de r´eservation (Reservation Command) : c’est le message qui indique la classe du trafic `a ´emettre. Il contient aussi les exigences70 CHAPITRE 3. ARCHITECTURE DAN Figure 3.1 – Architecture de DAN du flux Premium en terme de d´ebit ; – l’autorisation d’´emission (Send Reply) : ce message est envoy´e par l’agent DAN en r´eponse `a la demande de r´eservation en cas d’admission ; – l’arrˆet de l’´emission (Stop Reply) : si l’agent DAN n’arrive pas `a r´eserver les ressources n´ecessaires pour le flux, il notifie l’application par un Stop Reply contenant la valeur de d´ebit que peut ˆetre garantie par le r´eseau. Par la suite, l’application a le choix d’annuler l’´emission ou de n´egocier la r´eservation puisqu’elle a la possibilit´e de r´eduire ses demandes en fonction des ressources disponibles et r´etablir une nouvelle r´eservation ; – la commande de fermeture de r´eservation (Close Command) : elle est envoy´ee par l’application `a la fin de l’´emission des donn´ees, ce message permet de lib´erer les ressources r´eserv´ees pour ce flux dans le r´eseau. Le fonctionnement de l’API sera d´etaill´e dans la section 3.5. 3.3.2 L’agent DAN L’agent DAN est responsable des autres modules constituant cette architecture. De plus, il est le contact direct de l’application. Il re¸coit les demandes en termes de QdS `a travers l’API. Par la suite, il d´efinit le plan de fonctionnement des autres modules.3.3. L’ARCHITECTURE DE DAN 71 En cas d’insuffisance de ressources, l’agent DAN notifie l’application qui prend une d´ecision concernant la d´egradation de la qualit´e demand´ee ou l’annulation de l’´emission. En outre, ce module est responsable de l’´emission et la r´eception des paquets de signalisation. En effet, il initialise la proc´edure de r´eservation et traite les paquets re¸cus en se basant sur les donn´ees fournies par les autres modules. Une liste des flux r´eserv´es est gard´ee au niveau de l’agent DAN. Elle fournie les informations n´ecessaires aux autres modules sur les coordonn´ees des flux Premium admis ainsi que les messages de type Urgent. Au niveau de chaque nœud source, l’agent DAN est responsable du contrˆole de d´ebit des deux classes de trafic Urgent et Premium afin d’´eviter les cas de congestion extrˆeme. 3.3.3 Le contrˆoleur d’admission Le module de contrˆoleur d’admission (CA) est responsable des prises de d´ecisions concernant l’admission de nouveaux flux. En effet, ce module est conscient des ressources localement disponibles puisqu’il garde une id´ee sur la capacit´e localement consomm´ee (les ressources d´ej`a allou´ees). D’apr`es les ´etudes des fichiers d’enregistrement des donn´ees des vols et en se basant sur les directions de l’´equipe des d´eveloppeurs du syst`eme Paparazzi de l’ENAC, nous avons constat´e que le trafic Best-effort repr´esente 63% de la totalit´e du trafic ´echang´e alors que la trafic Premium ne repr´esente que 22%. En cons´equence, la capacit´e totale allou´ee au trafic Premium dans le r´eseau est fix´ee dans le but de pr´eserver le trafic Best-effort. Elle repr´esente la quantit´e maximale de bande passante r´eserv´ee aux trafics Premium et elle d´epend de la capacit´e du canal de transmission. Cette valeur est ´egale `a 20% de la capacit´e totale du canal. 3.3.4 Le classificateur En obtenant les renseignements sur les flux de l’agent DAN, le module classificateur traite les priorit´es entre les diff´erents paquets qui doivent ˆetre ´emis en mettant en œuvre des strat´egies de marquage des paquets, d’ordonnancement, de planification et de mise en file d’attente. Il retarde l’´emission de certains paquets pour laisser le passage aux autres en suivant les renseignement de l’agent DAN. Le fonctionnement de tous ces modules est d´etaill´e dans la section 3.5.72 CHAPITRE 3. ARCHITECTURE DAN La section suivante pr´esente le protocole de signalisation utilis´e pour r´eserver les ressources dans le r´eseau pour les flux de la classe Premium. 3.4 La signalisation de DAN Dans le but de r´eserver des ressources pour le trafic Premium, DAN se base sur un ´echange de trois types de messages permettant d’´etablir des r´eservations, de les fermer et de notifier le nœud source en cas d’erreurs. Ces r´eservations sont rafraˆıchies par la r´eception des paquets data des flux concern´es afin de limiter la circulation des messages de contrˆole dans le r´eseau. Les trois types de messages ´echang´es sont : le message de r´eservation, nomm´e Reserve, le message de fermeture, nomm´e Close et le message d’erreur, nomm´e Error. Ces messages sont encapsul´es directement dans IP. Le message de r´eservation (Reserve) Le message Reserve est envoy´e du nœud source vers la destination. La route suivie par ce message est la mˆeme qui sera s´electionn´ee pour le transfert des paquets data. Le but de (Reserve) est d’annoncer aux nœuds interm´ediaires les besoins de flux arrivant afin d’allouer les ressources n´ecessaires. Il contient la valeur du d´ebit optimal permettant de garantir la qualit´e de trafic demand´ee (champ Bw du message) ainsi que les cordonn´ees du flux (adresse source, adresse destination, num´ero de port source et num´ero de port destination) (figure 3.2). Entête IP Type Adr_Dest Prt_Dest Adr_Src Prt_Src Bw 8 bits 32 bits 16 bits 32 bits 16 bits 16 bits Figure 3.2 – Format des messages Reserve et Error Le message d’erreur (Error) Ce type de message est envoy´e vers le nœud source afin de lui signaler des erreurs dans deux cas : – un des nœuds interm´ediaires ne peut pas allouer les ressources n´ecessaires ; – suite `a un changement de topologie, le trafic traverse une nouvelle route n’ayant pas de ressource allou´ee pour ce flux.3.5. LE FONCTIONNEMENT DE DAN 73 Dans les deux situations, le message d’erreur contient la valeur de d´ebit disponible localement au niveau du nœud concern´e par le probl`eme ainsi que les coordonn´ees du flux (figure 3.2). Le message de fermeture de r´eservation (Close) Ce message a pour but d’annoncer aux nœuds interm´ediaires, sur la route vers la destination, la fermeture de la r´eservation. Par cons´equent, il permet de lib´erer les ressources d´ej`a r´eserv´ees. Ce message contient uniquement les coordonn´ees du flux concern´e (figure 3.3). Entête IP Type Adr_Dest Prt_Dest Adr_Src Prt_Src 8 bits 32 bits 16 bits 32 bits 16 bits Figure 3.3 – Format du message Close Comme pr´esent´e dans les figures 3.2 et 3.3, ces trois messages sont encapsul´es directement dans IP. Le rafraichissement d’une r´eservation est r´ealis´e par la r´eception des paquets de donn´ees du flux concern´e. Tant que le nœud re¸coit des paquets de donn´ees ayant les mˆemes coordonn´ees que le flux r´eserv´e, il consid`ere que la r´eservation est toujours maintenue. Ce choix est pris dans le but de limiter la circulation d’autres types de message de signalisation. La section suivante d´etaille les ´etapes suivies par DAN afin de garantir la diff´erentiation de trafic. 3.5 Le Fonctionnement de DAN Apr`es avoir pr´esent´e les diff´erents modules qui constituent l’architecture DAN ainsi que la signalisation utilis´ee pour r´eserver les ressources n´ecessaires, cette section d´etaille le fonctionnement de chaque module de DAN. 3.5.1 API DAN Quand un nœud tente d’´emettre un trafic, l’application concern´ee, suppos´ee consciente des besoins de ce flux, communique avec l’agent DAN par74 CHAPITRE 3. ARCHITECTURE DAN des ´echanges sp´ecifiques `a travers l’API de DAN. Le but de cet ´echange est de lui fournir les renseignements n´ecessaires sur le flux `a ´emettre. Chaque application demande la cr´eation d’un socket de l’API DAN en utilisant la commande DAN Socket(). A l’aide de la commande ` Bind(), elle le lie `a ses deux extr´emit´es (l’application et l’agent DAN). L’application initialise l’´echange par la commande Reservation Command(), qui contient les cordonn´ees du trafic `a ´emettre ainsi que sa classe du trafic. Si ce trafic est un flux Premium, la commande doit contenir aussi la valeur de la bande passante optimale demand´ee. Dans le cas d’un flux Urgent ou Best-effort, L’application commence `a ´emettre les donn´ees imm´ediatement apr`es cette commande, par contre elle doit attendre l’autorisation de l’agent dans le cas de flux Premium. Suite `a la r´eception de la commande de r´eservation, l’agent DAN initialise une proc´edure de r´eservation de ressources dans le r´eseau (cette proc´edure est d´etaill´ee dans le paragraphe 3.5.2). Selon les r´esultats de cette proc´edure, deux r´eponses pour l’application sont possibles : – la r´eponse Send Reply() qui autorise `a l’application d’accomplir son ´emission puisque sa demande a ´et´e admise ; – la r´eponse n´egative Stop Reply(). Elle indique l’´echec de la r´eservation et contient la quantit´e des ressources disponibles dans le r´eseau. Dans le deuxi`eme cas, l’application a la possibilit´e de n´egocier en r´eduisant ses demandes selon les ressources disponibles, si possible, dans le but de r´etablir une nouvelle r´eservation. A la fin de l’´emission d’un flux, la commande Close Command() doit ˆetre envoy´ee vers l’agent DAN afin de lib´erer les ressources r´eserv´es. La figure 3.4 illustre un exemple de situation permettant d’expliquer le fonctionnement de l’API. Apr`es la cr´eation du socket entre l’API et l’agent, l’application initialise une r´eservation de ressources pour un flux Premium qui a besoin de la quantit´e Bw1 de la bande passante. Apr`es l’´etablissement de la r´eservation dans le r´eseau, l’agent DAN r´epond par Send Reply(). Ainsi, l’application commence sa transmission de donn´ees `a travers les sockets UDP et TCP. D´etectant une erreur dans le r´eseau, l’agent notifie l’application par Stop Command() contenant la quantit´e des ressources disponibles dans le r´eseau Bw2. Dans ce cas, l’application d´ecide de n´egocier avec le r´eseau. Elle accepte de d´egrader sa qualit´e de trafic et demande d’´etablir une nouvelle proc´edure de r´eservation. Si l’application d´esire modifier la classe ou les demandes de son flux, elle peut notifier `a tout moment l’agent DAN par la commande Reservation Command().3.5. LE FONCTIONNEMENT DE DAN 75 Application L’agent DAN Etablissement d’une réservation Transmission de données Décision de négociation Etablissement d’une réservation Transmission de données Libération des ressources dans le réseau Figure 3.4 – Exemple de fonctionnement de l’API DAN A la fin de la transmission, L’application envoie une ` Close Command() `a l’agent dans le but de lib´erer les ressources r´eserv´ees. L’API DAN permet `a l’application d’ˆetre le maitre de la situation et de d´ecider d’annuler l’´emission si elle demande une QdS ferme pour son trafic ou de n´egocier les ressources disponibles dans le r´eseau. De plus, elle lui permet de modifier les besoins de chaque flux `a tout moment au cours de la mission dans le but d’adapter le syst`eme `a l’´evolution de la tˆache du nœud au cours du temps. La sous-section suivante pr´esente la suite de la proc´edure de r´eservation des ressources pour un flux Premium r´ealis´e par l’agent DAN.76 CHAPITRE 3. ARCHITECTURE DAN 3.5.2 L’agent DAN Apr`es la r´eception d’une commande de r´eservation Reservation Command(), pour un flux Premium, l’agent DAN initialise une proc´edure de r´eservation de ressources dans le r´eseau en envoyant le message de signalisation Reserve contenant la quantit´e de la bande passante optimale demand´ee. Ce message est envoy´e en unicast vers le prochain nœud interm´ediaire de la route vers la destination. Comme indiqu´e dans la section pr´ec´edente, le message Reserve contient les cordonn´ees de la destination et du nœud source. Apr`es l’´emission du message Reserve, l’agent DAN attend durant un intervalle WTS (Wait To Send). Si au cours de cet intervalle de temps aucun message d’erreur n’est re¸cu, l’agent suppose que la r´eservation est ´etablie et r´epond `a l’application par un Send Reply() pour autoriser l’´emission du flux. Au niveau de chaque nœud interm´ediaire, l’agent DAN consulte le contrˆoleur d’admission dans le but d’avoir sa d´ecision concernant l’admission ou le refus de ce flux. Dans le cas o`u le nœud peut fournir les ressources n´ecessaires, l’agent met `a jour sa liste de flux r´eserv´es et retransmet le message Reserve au nœud suivant. Dans le cas contraire, o`u le nœud ne peut pas fournir les ressources n´ecessaires, il rejette le message Reserve et envoie un message Error `a la source contenant la quantit´e de la bande passante disponible localement ce qui offre une deuxi`eme chance `a la source pour n´egocier et r´eserver les ressources disponibles. Lorsque l’agent DAN du nœud source re¸coit le message d’erreur, il notifie imm´ediatement l’application avec le message Stop Reply et la valeur de la bande passante disponible. Au cours de la transmission des donn´ees, les nœuds mobiles continuent `a bouger entrainant la cr´eation de nouvelles routes et le changement d’autres. Avec le changement des routes, des nœuds peuvent recevoir du trafic Premium sans r´eservation pr´ealable. Dans ce cas, le nœuds traite le paquet comme du Best-effort et envoie un message d’erreur, de type Error , `a la source contenant la quantit´e de bande passante disponible dans le but de r´etablir une nouvelle r´eservation. Une r´eservation est maintenue pour une p´eriode WTC (Wait To Clear), et elle est rafraichie avec la r´eception des paquet du flux de donn´ees comme pr´esent´e dans le diagramme de s´equencement 3.5. En effet, l’agent d´efinit pour chaque flux Premium r´eserv´e un minuteur WTC r´einitialis´e avec la r´eception de chaque paquet de donn´ees du trafic concern´e. Apr`es une dure WTC de la r´eception du dernier paquet de donn´ees (`a l’expiration du minu-3.5. LE FONCTIONNEMENT DE DAN 77 teur), le nœud consid`ere que la r´eservation est ferm´ee. Apr`es l’expiration de l’intervalle WTC ou `a la r´eception d’un message Close, la r´eservation est annul´ee et les ressources sont lib´er´ees. Agent DAN Nœud Intermédiaire Agent DAN Nœud Intermédiaire Contrôle de l’admission WTS WTC WTC Transmission de données Annulation de la réservation Application Agent DAN Nœud source Figure 3.5 – Diagramme de s´equencement de l’´etablissement et le rafraichissement des r´eservations Cette sous-section a d´etaill´e le fonctionnement de l’agent DAN qui permet de r´eserver les ressources pour les flux Premium. La sous-section suivante explique le fonctionnement du contrˆoleur d’admission. 3.5.3 Le contrˆoleur d’admission Comme expliqu´e dans la section pr´ec´edente, nous avons choisi de fixer la capacit´e maximale allou´ee aux flux Premium dans le r´eseau dans le but de r´eserver une quantit´e fixe pour le trafic Best-effort qui constitue la grande portion du trafic Paparazzi. Pour garantir la QdS demand´ee, le contrˆoleur d’admission DAN garde une id´ee sur l’´etat du canal de transmission. A la r´eception de chaque demande de `78 CHAPITRE 3. ARCHITECTURE DAN r´eservation Premium, le contrˆoleur d’admission compare la bande passante demand´ee avec la quantit´e des ressources disponibles (la quantit´e de bande passante r´eserv´ee pour le trafic Premium restante), si elle est plus petite, le flux sera admis sinon il sera rejet´e. Le contrˆoleur d’admission est le module qui prend les d´ecisions concernant l’admission d’un flux ou non. Il permet d’allouer des ressources pour les flux Premium dans la limite de la capacit´e totale allou´ee `a cette classe dans le r´eseau afin de garantir la QdS demand´ee pour chaque flux de trafic Premium. La diff´erenciation entre un flux Premium admis et les autres est r´ealis´e au niveau du module classificateur pr´esent´e dans la sou-section suivante. 3.5.4 Le classificateur En se basant sur les donn´ees de flux collect´ees au niveau de l’agent DAN, le classificateur diff´erencie chaque paquet et le marque selon la classe demand´ee par son application. Le marquage des paquets est r´ealis´e au niveau du champ ToS (Type Of Service) de l’entˆete IP. L’avantage de cette technique qu’elle est simple `a r´ealiser. Pour les paquets Premium, les nœuds interm´ediaires doivent se baser, en plus du champ TOS, sur les donn´ees de l’agent DAN afin de v´erifier la d´ecision d’admission prise pour ce flux. Les paquets des flux Premium non admis sont consid´er´es comme du trafic Best-effort. A chaque fois, que ` le classificateur re¸coit un paquet de donn´ees d’un flux Premium admis, il informe l’agent afin de rafraichir sa r´eservation et r´einitialiser son minuteur WTC. Les paquets sont envoy´es ainsi vers l’une des trois files d’attentes d´efinies pour chaque classe de trafic (Urgent, Premium, et Best-effort). La file de la classe Urgent est la plus prioritaires alors que la file du trafic Best-effort est la moins prioritaire ce qui permet de cr´eer la diff´erence entre les trois cat´egories de trafic lors de la vidange des files. Un ordonnanceur respectant ces priorit´es est utilis´e (figure 3.6). A chaque ` fois qu’il tente de retirer un nouveau paquet pour l’´emettre, il commence toujours par v´erifier les files les plus prioritaire. Par cons´equent, tant qu’il existe des paquets `a ´emettre dans ces files, les autres paquets seront retard´es. En cas de congestion, cette gestion des files d’attente peut aboutir `a la saturation de la file la moins prioritaire (Best-effort) qui a une taille fixe. Dans ce cas, la file commence `a rejeter les paquets en exc`es. Les paquets de signalisation ainsi que les paquets de routage sont consid´er´es comme du trafic Urgent dans le but de garantir le minimum de d´elai et de pertes pour ces ´echanges.3.5. LE FONCTIONNEMENT DE DAN 79 Source locale Interfaces Régulation de Trafic Classification Urgent Premium Best-effort + ++ +++ Ordonnance ment Décision CA ? Figure 3.6 – Traitement de paquets par DAN Conclusion Ce chapitre a pr´esent´e l’architecture DAN qui r´epond aux exigences des syst`emes de drones coop´eratifs. En effet, ce genre de syst`eme ´echange une vari´et´e de type de message qui a diff´erents besoins de Qds. Ces besoins peuvent varier au cours du temps avec l’´evolution des circonstances de l’op´eration des drones. Apr`es une ´etude de ces exigences et des types de messages qui peuvent ˆetre ´echang´es au cours d’une op´eration d’une flotte de drones, nous avons d´efinie trois cat´egorie de trafic : une classe pour le trafic Urgent qui contient les messages critiques, une classe Premium pour les flux qui ont des demandes strictes en termes de QdS et une classe pour le trafic Best-effort qui n’a aucune exigence sur la QdS. L’architecture DAN regroupe des m´ecanismes de fourniture de QdS choisis pour pouvoir s’adapter `a ce genre de syst`eme et aux autres protocoles MAC et routage ainsi que pour pouvoir l’impl´ementer facilement sur de vrais drones Paparazzi puisqu’elle ne n´ecessite pas des modifications complexes (comme pour la modification de l’entˆete IP propos´e par INSIGNIA).80 CHAPITRE 3. ARCHITECTURE DAN DAN est adapt´e `a l’environnement et aux trafics Paparazzi puisqu’il diff´erencie le trafic en trois classes diff´erentes, contrairement `a la majorit´e des mod`eles propos´es dans la litt´erature qui donne la priorit´e absolue aux trafics temps-r´eel quitte `a bloquer totalement les ´echanges Best-effort. DAN offre la haute priorit´e `a la classe Urgent, cependant, la d´efinition de cette classe ne la permet pas de saturer le canal puisqu’elle contient des messages ´echang´es sporadiquement. De plus, DAN garantit la QdS pour les flux Premium par des r´eservations de ressources sans p´enaliser et d´egrader le trafic Best-effort. En effet, nous avons fix´e la capacit´e totale allou´ee pour le trafic Premium dans le r´eseau. Cette valeur d´epasse la quantit´e de flux Premium du trafic Paparazzi et elle sert `a ´eviter les situations d’exag´eration afin de pr´eserver le trafic Best-effort. DAN se base sur les deux type de granularit´e par flux et par classe pour assurer les besoins des flux Premium ainsi que des autres classes de trafic Urgent et Best-effort. Ce principe permet de limiter les ´echanges de signalisation dans le r´eseau puisque DAN ne r´eserve des ressources que pour les flux Premium ce qui permet de conserver la bande passante dans le r´eseau. En outre, grˆace `a son API, DAN permet `a chaque application de n´egocier la qualit´e de son trafic et mˆeme de modifier les besoins `a tout moment. Cela diff´erencie DAN des autres structures de gestion de QdS classiques qui se basent sur le type de protocole pour diff´erencier le trafic tout au long de l’´echange.Chapitre 4 Evaluation des performances de ´ DAN par simulation Contents 4.1 Mod`ele de mobilit´e PPRZM . . . . . . . . . . . . 82 4.1.1 Les mouvements des drones Paparazzi . . . . . . . 82 4.1.2 PPRZM . . . . . . . . . . . . . . . . . . . . . . . . 85 4.1.3 Validation du mod`ele PPRZM . . . . . . . . . . . 88 4.2 Evaluation de DAN . . . . . . . . . . . . . . . . . 92 ´ 4.2.1 Evaluation du fonctionnement du Contrˆoleur d’ad- ´ mission . . . . . . . . . . . . . . . . . . . . . . . . 93 4.2.2 Etude des minuteurs . . . . . . . . . . . . . . . . . 97 ´ 4.2.3 Performances g´en´erales de DAN . . . . . . . . . . 106 4.2.4 Evaluation de l’impact de variation de la charge ´ du r´eseau . . . . . . . . . . . . . . . . . . . . . . . 109 4.2.5 Evaluation avec d’ autres protocoles de routage . . 112 ´ Introduction Ce chapitre pr´esente l’´etude de l’´evaluation des performances r´ealis´ee pour l’architecture DAN par simulation. La simulation est un moyen d’´evaluation des performances de syst`emes de communication et de pr´edire les probl`emes possibles qui peuvent l’affecter en environnement r´eel. DAN a ´et´e ´etudi´ee en utilisant le simulateur OMNET++. Afin de cr´eer un environnement de simulation proche de la r´ealit´e, nous avons d´evelopp´e un mod`ele de mobilit´e reproduisant les mouvements r´eels des 8182CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ drones Paparazzi. Ce mod`ele est pr´esent´e dans la premi`ere section de ce chapitre. La deuxi`eme section de ce chapitre pr´esente les diff´erents sc´enarios simul´es dans le but d’´evaluer les performances de DAN ainsi que leurs r´esultats. 4.1 Mod`ele de mobilit´e PPRZM Etant donn´e que les traces r´eelles n’offrent pas la possibilit´e de faire va- ´ rier des param`etres de simulations dont par exemple la dur´ee ou le nombre de drones utilis´es `a cause de la complexit´e d’obtention une vari´et´e de ces donn´ees, il est plus judicieux d’utiliser un mod`ele de mobilit´e qui reproduit le mouvement r´eel des drones Paparazzi dans le but d’´etudier divers cas possibles. 4.1.1 Les mouvements des drones Paparazzi D’apr`es l’´equipe de d´eveloppement du syst`eme Paparazzi de l’ENAC, ainsi que l’´etude des fichiers d’enregistrement des donn´ees de vols r´eels, les drones Paparazzi ont cinq types de mouvements possibles, nous l’avons nomm´e comme suit : Mouvement rectiligne Il s’agit du mouvement rectiligne vers une position de destination. Le drone a la possibilit´e de faire des allers-retours rectilignes en effectuant un tour complet pour faire demi-tour `a chaque extr´emit´e. Ce mouvement est d´efini `a partir de deux positions qui sont la position initiale et la position destination (figure 4.1). Figure 4.1 – Le mouvement rectiligne4.1. MODELE DE MOBILIT ` E PPRZM ´ 83 Mouvement circulaire Le drone survole une position fixe suivant une trajectoire circulaire (figure 4.2). Les mouvements circulaires sont d´efinis par la position du centre et le rayon de la trajectoire. Pour les drones Paparazzi, le rayon Rc est une valeur fixe pour tous les mouvements circulaire, alors que la position du centre est une variable choisie pour chaque mouvement permettant de localiser ce mouvement dans la zone. RC Figure 4.2 – Le mouvement circulaire Le drone initie son mouvement par le point du cercle le plus proche de sa position actuelle. Ce point est l’intersection entre le cercle et la droite qui passe par son centre et la position du drone (figure 4.2). Mouvement oblong Ce mouvement est form´e par des allers-retours rectilignes d´ecal´es entre deux points fixes avec un demi-tour une fois pass´e chaque point (figure 4.3). Ces deux points permettent de situer le mouvement dans la zone. Les rayons des deux demi-cercles ont la mˆeme valeur que le rayon Rc du mouvement circulaire. Le drone initie son mouvement par l’intersection entre le premier demicercle de centre C1 et le mouvement rectiligne (Point rouge sur la figure 4.3). Mouvement Huit Le mouvement Huit a le mˆeme principe que le mouvement oblong. La seule diff´erence est que les allers-retours du mouvement Huit se croisent (figure 4.4) ;84CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ Rc Figure 4.3 – Le mouvement oblong Figure 4.4 – Le mouvement Huit Comme le mouvement oblong, le Huit se produit autour de deux points localisant la trajectoire avec la mˆeme valeur de rayon que les mouvements circulaire et oblong. Le drone initie son mouvement par l’intersection entre le premier demi-cercle de centre C1 et le mouvement rectiligne (Point rouge sur la figure 4.4). Mouvement balayage Ce mouvement r´ealise des allers-retours d´ecal´es d’une mani`ere continue permettant de couvrir la surface d’un rectangle d´esign´e par deux de ses coins oppos´es (figure 4.5). Les d´eviations du drone sont r´ealis´ees par des demicercles de rayon Rs diff´erents du rayon Rc. La position de d´epart est l’un des deux points d´efinissant la localisation du mouvement. Une fois arriv´e `a l’autre coin du rectangle `a balayer, le drone reprend son chemin en le d´ecalant par un demi-rayon Rs.4.1. MODELE DE MOBILIT ` E PPRZM ´ 85 Rs Figure 4.5 – Le mouvement balayage 4.1.2 PPRZM Le mod`ele de mobilit´e PPRZM (PaPaRaZzi Mobility) reproduit ces mouvements au niveau du simulateur r´eseau afin de cr´eer un d´eplacement de nœuds r´ealiste. Il a ´et´e d´efini selon les indications de l’´equipe d´eveloppeur du syst`eme Paparazzi `a l’ENAC ainsi que l’´etude des traces de mouvements r´eels. Au d´ebut de chaque simulation, tous les nœuds se concentrent dans la mˆeme position initiale qui repr´esente le point de d´ecollage des drones. Par la suite, ils initialisent leurs mouvements par une phase de d´ecollage pour atteindre les altitudes choisies al´eatoirement pour chaque drone (maximum 8 m). Chaque a´eronef garde son altitude fixe durant toute la dur´ee de simulation. Les figures 4.6 et 4.7 pr´esentent graphiquement des traces de mouvements r´eels de trois drones Paparazzi. Figure 4.6 – Traces r´eelles de trois drones Paparazzi86CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ Figure 4.7 – Altitudes des trois drones Paparazzi utilis´es dans le graphe 4.6 Au cours de la simulation, chaque drone choisit al´eatoirement un type de mouvement. Par la suite il fixe ses deux caract´eristiques : – la localisation : selon le type de mouvement choisi, le drone fixe la zone d’action d´efinie par les positions centrales dans le cas des mouvements circulaire, oblong et Huit ou les positions initiales et finales dans le cas des mouvements rectiligne et balayage ; – La vitesse : c’est une valeur al´eatoire uniforme choisie entre 15 m/s et 25 m/s. Les rayons des mouvements circulaire, oblong et Huit ont une valeur commune diff´erente de celle du rayon du mouvement balayage. Ces valeurs sont d´efinies au d´ebut de la simulation comme un param`etre d’entr´ee (pour le cas r´eel des drones Paparazzi, le rayon des circulaire, oblong, et Huit est de 80 m alors que le rayon du mouvement balayage est de 75m). Apr`es avoir choisi al´eatoirement un type de mouvement ainsi que sa localisation dans la zone de simulation, le drone calcule la position optimale pour initialiser le mouvement. Il se dirige vers cette position par un mouvement rectiligne. Une fois arriv´e, le drone commence son mouvement choisi (figure 4.8). Ces diff´erentes ´etapes sont reproduites p´eriodiquement durant toute la dur´ee de la simulation. Les diff´erents types de mouvements ont une probabilit´e plus ou moins grande de se reproduire. Par exemple, si les mouvements circulaire, oblong et balayage se produisent chacun 30% du temps, Huit et rectiligne se produisent chacun uniquement 5% du temps. Le choix du type de mouvement n’a aucune relation avec le choix pr´ec´edent. Ces probabilit´es sont param´etrables au d´ebut de chaque simulation. Cependant, d’apr`es les experts Paparazzi et l’observation des traces de mouvements r´eels, pour le cas g´en´eral des drones Paparazzi, les mouvements circulaire, oblong et Scan sont les mouvements les plus produits. Ce mod`ele4.1. MODELE DE MOBILIT ` E PPRZM ´ 87 type de mouvement Sélectionner un aléatoirement Choisir ses caractéristiques aléatoirement Trouver la position initiale Se déplacer vers la position initiale •Rectiligne •Circulaire •Oblong •Huit •Balayage •Rectiligne •Localisation •Vitesse Effectuer le mouvement choisi Figure 4.8 – Fonctionnement de PPRZM de mobilit´e peut ˆetre utilis´e pour l’´evaluation des syst`emes de communication dans le contexte d’une flotte de drones coop´eratifs. Les valeurs des probabilit´es allou´ees `a chaque type de mouvement sont modifiables (comme un param`etre d’entr´ee) dans le but d’offrir plus de degr´e de libert´e `a l’utilisateur pour adapter le mod`ele `a son application. Par exemple, pour ´etudier les performances du syst`eme dans le cadre d’une mission de collecte d’information autour d’une position fixe, il suffit de fixer la probabilit´e du mouvement circulaire ´egal `a 1 et celles de tous les autres mouvements `a 0.88CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ 4.1.3 Validation du mod`ele PPRZM Comme pr´esent´e dans le deuxi`eme chapitre, il n’existe pas une m´ethode commune permettant de valider et ´evaluer un mod`ele de mobilit´e. De plus, une grande vari´et´e de crit`eres est utilis´ee pour ´evaluer les nouveaux mod`eles. En cons´equence nous avons fix´e une m´ethode permettant de comparer le comportement de PPRZM avec les traces de mouvement de drones Paparazzi r´eels. 4.1.3.1 M´ethode de validation Pour ´etudier le comportement de PPRZM, nous avons class´e les m´etriques utilis´ees en deux cat´egories : g´eom´etrique et performances r´eseau. La cat´egorie g´eom´etrique ou spatiale permet d’´etudier l’aspect physique du mouvement (les trajectoires) et son impact sur la topologie du r´eseau alors que la cat´egorie li´ee aux performances du r´eseau permet d’´evaluer l’influence du mouvement sur le comportement des protocoles de communication. Pour notre ´etude, nous avons choisi de comparer le comportement de PPRZM avec le comportement du mod`ele RWP (Random Way-Point) ainsi qu’avec des traces de mouvements r´eels de drones Paparazzi. Pour cela nous avons s´electionn´e cinq mesures g´eographiques et cinq mesures de performances r´eseau pour r´ealiser une comparaison compl`ete. M´etriques g´eographiques Cinq mesures ont ´et´e s´electionn´ees : – La moyenne des cases vides (EmptyCells) : cette m´etrique consiste `a diviser l’espace en cases de mˆeme taille. Le nombre de cases est ´egal au nombre de mobiles. Par cons´equent, les nœuds sont distribu´es uniform´ement, si en moyenne un drone est localis´e par case. Cette mesure calcule la moyenne du nombre des cases vides au cours du temps. Elle se r´ef`ere `a l’uniformit´e de distribution des drones dans l’espace de simulation ; – La fr´equence de passage par une case (Frequency) : Cette m´etrique se base sur le mˆeme principe de division de la zone ´etudi´ee en des cases. Elle compte le nombre de fois qu’un drone traverse une case. Elle calcule ensuite la moyenne sur le nombre des cases visit´es puis la moyenne sur l’ensemble des drones. La valeur de Frequency est tr`es importante si chaque drone ne visite qu’un nombre restreint de cases (figure 4.9). Cette m´etrique donnent une id´ee sur l’uniformit´e de mouvement de chaque drone.4.1. MODELE DE MOBILIT ` E PPRZM ´ 89 0 0 0 0 0 3 3 0 0 4 4 0 0 0 0 0 Figure 4.9 – Exemple de calcul de m´etrique Frequency La figure 4.9 pr´esente un exemple de zone de simulation divis´ee en grille, chaque cellule contient la fr´equence de passage d’un drone par cette case. Frequency de chaque cellule est le rapport de la fr´equence par le nombre des cellules visit´ees (soit 4 dans ce cas) ; – Le nombre de voisins(Neighbor) : c’est la moyenne du nombre des voisins par a´eronef. Deux nœuds sont dits voisins si l’un se trouve `a l’int´erieur de la port´ee de communication de l’autre. Cette m´etrique souligne la possibilit´e de cr´eation d’un r´eseau multi-saut. Une valeur importante du nombre de voisins peut affecter les performances du r´eseau puisque ¸ca renforce l’interf´erence ; – Les rencontres (Meeting) : elle compte le nombre de liens cr´e´es et rompus entre les nœuds au cours de la simulation. Cette m´etrique vise `a cerner la stabilit´e du r´eseau. Plus cette valeur est importante, moins le r´eseau est stable ; – Regroupement des nœuds (Clustering) : elle permet de savoir si un mod`ele a tendance `a regrouper les nœuds dans des zones s´epar´ees. Elle compte le nombre de voisins d’un mobile et le compare au nombre des voisins de ses voisins. Plus le rapport est important plus cette mesure est ´elev´ee, les nœuds ayant tendance `a s’agglutiner. Ces m´etriques r´ev`elent les caract´eristiques spatiales de la topologie du r´eseau. Elles donnent une intuition de la difficult´e que peut avoir le protocole de communication utilis´e (comme la possibilit´e ou non de cr´eer un r´eseau multi-saut, ou la possibilit´e de cr´eer des groupes d´econnect´es au sein du mˆeme r´eseau, etc). Cependant, elles ne montrent pas l’influence de ce comportement sur les performances du syst`eme. Pour cette raison, nous avons choisi d’autres m´etriques capables d’´etudier les performances du r´eseau.90CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ M´etriques des performances r´eseau Cinq m´etriques permettant d’´etudier les performances du r´eseau ont ´et´e s´electionn´ees : – Taux de livraison (Delivery Ratio) : c’est la comparaison entre le nombre de paquets re¸cus et le nombre de paquets ´emis au total. Cette m´etrique calcule la moyenne sur le nombre de drones ; – Le d´elai de bout en bout (End To End Delay) : elle calcule la valeur moyenne des ´ecarts entre l’´emission et la r´eception de chaque paquet de donn´ees ´echang´e dans le r´eseau ; – Nombre de saut (HopCount) : c’est la valeur moyenne des nombres de nœuds interm´ediaires utilis´es pour acheminer chaque paquet `a sa destination ; – D´ebit dans le r´eseau (Rate) : elle mesure le nombre de bits ´emis par intervalle de temps ; – Le nombre de paquet RREQ : cette m´etrique est sp´ecifique au protocole de routage AODV utilis´e. Elle consiste `a calculer le nombre de paquets de routage RREQ envoy´es dans le but de donner une estimation sur la difficult´e d’´etablissement d’une route dans le r´eseau. Ces m´etriques peuvent avoir diff´erents poids qui sont d´efinis selon les besoins de l’application du mod`ele de mobilit´e. Pour notre ´etude, nous visons `a valider le mod`ele dans le cas g´en´eral. Pour cette raison, nous posons que toutes les mesures s´electionn´ees aient le mˆeme poids. 4.1.3.2 R´esultats de la validation PPRZM est impl´ement´e en C++ sous OMNET++. Une trajectoire d’un nœud selon le mod`ele impl´ement´e est pr´esent´ee dans la figure 4.10. Ce mod`ele est valid´e par une comparaison de comportement avec les traces r´eelles et le mod`ele de mobilit´e le plus utilis´e RWP (Random WayPoint). Le mˆeme sc´enario, pr´esent´e dans le tableau 4.1, est utilis´e avec les trois mod`eles de mobilit´e. Comme avec les traces r´eelles, les drones restent immobiles dans leurs positions initiales durant les premi`eres 10 secondes. Par la suite, ils commencent `a bouger jusqu’`a la fin de la simulation. Durant toute la simulation, les drones ´echangent des messages UDP de 64 octets `a chaque seconde `a travers un r´eseau ad hoc utilisant le protocole de routage AODV ce qui nous a permis de mesurer les performances du r´eseau en termes de d´elai de bout en bout, taux de livraison, etc. Les r´esultats sont pr´esent´es dans des kiviats dans le but de faciliter la comparaison entre les diff´erents mod`eles utilis´es. Ces diagrammes pr´esentent4.1. MODELE DE MOBILIT ` E PPRZM ´ 91 100 200 300 400 500 600 700 800 900 0 100 200 300 400 500 600 700 800 900 0 10 20 30 40 50 60 Node0 Figure 4.10 – Trajectoire suivie selon PPRZM les r´esultats en fonction de la valeur maximale obtenue pour chaque m´etrique (parmi les r´esultats des trois mod`eles de mobilit´e). La figure 4.11 pr´esente les r´esultats g´eom´etriques des trois mod`eles PPRZM, RWP ainsi que les traces r´eelles des drones Paparazzi. Au premier coup d’œil au graphique, nous observons les diff´erents comportements des trois mod`eles simul´es ce qui confirme que chaque mod`ele a un impact unique sur le syst`eme. Les mesures EmptyCells, Frequency et Meeting du mod`ele PPRZM sont les plus proches de celles des traces r´eelles (Par exemple, EmptyCells du PPRZM est ´egale `a 93% de la valeur obtenue avec les traces r´eelles contre 85% pour RWP). Globalement, il est possible de dire que PPRZM g´en`ere un comportement plus proche de celui des mouvements r´eels des drones Paparazzi puisque il a trois r´esultats plus proches `a ceux des traces r´eelles que le mod`ele RWP. La figure 4.12, pr´esente les mesures des performances du r´eseau pour les trois mod`eles PPRZM, RWP et les traces r´eelles. Le diagramme de kiviat, montre aussi la diff´erence du comportement entre les trois mod`eles de mobilit´e. PPRZM r´ealise trois meilleurs r´esultats que RWP sur cinq : End To End Delay, Rreq number et le Hop Count (Pour RREQ Number, PPRZM r´ealise 95% du nombre de Rreq envoy´e avec les traces r´eelles, alors que RWP ´echange 112%). Globalement, PPRZM a un comportement proche de celui des mouvements r´eels des drones Paparazzi.92CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ Nombre de drones 40 Dur´ee de la simulation 1000 sec Zone de la simulation 1500 m x 1500 m Protocole de routage ´evalu´e AODV Protocole MAC 802.11 Capacit´e du canal 54 Mbps Trafic par drone UDP (64 Octets/s) Port´ee de transmission 100 m Vitesse valeur al´eatoire uniforme entre [15 mps, 25 mps] PPRZM Rayon du mouvement balayage 75 m Rayon des autres mouvements circulaires 80 m Table 4.1 – Sc´enario de la simulation PPRZM met en œuvre certains types de mouvement qui ne sont pas pris en compte par RWP comme le mouvement circulaire autour d’une position fixe (circulaire) ou le fait de refaire le mˆeme mouvement dans la mˆeme zone durant un intervalle de temps. De plus, PPRZM est un mod`ele stochastique permettant de varier les param`etres de simulation et de g´en´erer une diversit´e de cas possibles ce qui est difficile `a r´ealiser avec les traces r´eelles. 4.2 Evaluation de DAN ´ Cette section pr´esente l’´etude de DAN par simulation. Cette ´etude a pour but l’´evaluation de DAN ainsi que la validation du fonctionnement de ses m´ecanismes dans diff´erentes situations. Pour cela, cinq sc´enarios ont ´et´e d´efinis : – 1er sc´enario : une validation du fonctionnement du contrˆoleur d’admission et la capacit´e du syst`eme `a respecter les d´ecisions concernant l’admission d’un flux Premium ; – 2`eme sc´enario : une ´etude permettant de borner les dur´ees des minuteurs WTC et WTS ; – 3`eme sc´enario : une ´etude des performances de DAN dans un r´eseau congestionn´e ; – 4`eme sc´enario : une ´evaluation du comportement de DAN en variant la charge dans le r´eseau ;4.2. EVALUATION DE DAN ´ 93 Clustering EmptyCells Frequency Meet ing Neighbor ttt RWP ttt PPRZM ttt Real Traces Figure 4.11 – Comparaison g´eom´etrique – 5`eme sc´enario : une validation du fonctionnement de DAN avec d’autres protocoles de routage. Le trafic ´echang´e est en UDP afin de pouvoir mesurer les pertes. Toutes ces simulations sont lanc´ees plusieurs fois dans le but de g´en´erer une vari´et´e de cas possibles. Les r´esultats pr´esent´es dans cette section sont la moyenne des r´esultats de toutes ces r´ep´etitions. 4.2.1 Evaluation du fonctionnement du Contrˆoleur ´ d’admission Le but de cette ´etude est de valider le fonctionnement du contrˆoleur d’admission de DAN. Plus pr´ecis´ement, elle ´etudie la capacit´e de DAN `a prendre des d´ecisions d’admission (accepter ou refuser une demande de r´eservation de ressources) ainsi que sa capacit´e `a respecter cette d´ecision et `a fournir la QdS demand´ee `a chaque flux Premium admis. Pour cette raison, nous avons fix´e un sc´enario permettant de r´ealiser cette ´etude. Un nœud ´emetteur envoie vers un nœud r´ecepteur trois flux Premium avec des demandes en termes de QdS sup´erieures `a la capacit´e totale du syst`eme (Tableau 4.2). Uniquement deux flux peuvent ˆetre admis par le contrˆoleur d’admission94CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ DeliveryRat io EndToEndDelay HopCount Rate RREQ ttt RWP ttt PPRZM ttt Real Traces Figure 4.12 – Comparaison des performances du r´eseau (soit le 1er et le 2eme, soit le 2eme et le 3eme). L’admission est r´ealis´ee selon l’ordre chronologique de r´eception des requˆetes de r´eservation. L’application du flux non admis par le contrˆoleur d’acc`es, sera inform´ee par l’incapacit´e du syst`eme `a garantir la QdS demand´ee. Pour cette ´etude, nous consid´erons que l’application continuera `a ´emettre du trafic avec la qualit´e demand´ee durant toute la simulation bien qu’elle soit consciente de l’insuffisance des ressources. Par cons´equent, le syst`eme va devoir faire face `a un trafic Premium non admis. Cette hypoth`ese permet d’´etudier le comportement de DAN `a la r´eception du trafic Premium qui n’a pas ´et´e admis par le contrˆoleur d’admission. Cette section pr´esente les r´esultats de cette simulation en termes de taux de perte, de d´elais de bout en bout et de d´ebit de transmission. Taux de perte Diff´erents facteurs peuvent causer des pertes de paquets durant l’acheminement d’un trafic de la source vers sa destination comme la congestion du r´eseau, l’interf´erence et les collisions entre les paquets. Pour bien ´etudier le fonctionnement des m´ecanismes de DAN nous nous int´eressons aux pertes dans le syst`eme en g´en´eral en nous focalisant sur les pertes dues `a la congestion des files d’attentes.4.2. EVALUATION DE DAN ´ 95 Nombre de nœuds 2 Capacit´e du canal radio 54 Mbps Capacit´e maximale du Premium (dans le CA) 20 Mbps Flux Premium 1 10 Mbps : 1250 Octets chaque 1 ms Flux Premium 2 5 Mbps : 1250 Octets chaque 2 ms Flux Premium 3 15 Mbps : 1125 Octets chaque 0,6 ms Dur´ee de la simulation 650 sec Table 4.2 – Premier sc´enario Flux 1 Flux 2 Flux 3 Pertes dues `a la congestion 0 0 55.05 Pertes totales 1.7894 1.7895 56.201 Table 4.3 – Taux de perte mesur´e pour chaque Flux (%) Le tableau 4.3 pr´esente le taux de perte mesur´e pour chaque flux de trafic. Nous remarquons une grande diff´erence entre les taux de pertes g´en´eraux mesur´es pour le flux 3 (56.2%) et les taux de perte des flux 1 et 2 (1,78% pour chacun). Cet ´ecart est dˆu `a la diff´erence de traitement des trois flux par les files d’attentes. En effet, la congestion du syst`eme n’a caus´e aucune perte de paquets des flux 1 et 2 bien qu’elle a caus´e la destruction de 55% des paquets du flux 3. Il est ´evident que les trois flux n’ont pas ´et´e trait´es par la mˆeme file d’attente bien qu’ils sont les trois de la classe Premium. Cela s’explique par le fait que le syst`eme ne consid`ere que les flux 1 et 2 comme Premium et il consid`ere le flux 3 comme un trafic Best-effort puisque il s’agit d’un flux Premium non admis. Par cons´equent, le syst`eme retarde l’´emission de ces paquets dans le but de garantir la priorit´e des autres flux, ce qui congestionne le syst`eme et cause les pertes. D´elai de bout en bout Le d´elai de bout en bout est la dur´ee de transfert d’un paquet entre l’´emetteur et son r´ecepteur final. Plus pr´ecis´ement, c’est la somme de la dur´ee de propagation du paquet le long du chemin vers la destination et de la dur´ee de traitement r´ealis´e par le syst`eme (comme la dur´ee d’attente dans les files). Le tableau 4.4 pr´esente les d´elais de bout en bout mesur´es pour les diff´erents flux. La diff´erence entre les trois flux est tr`es remarquable (13496CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ Flux1 Flux2 Flux3 D´elai de bout en bout (ms) 1.61 1.45 134.16 Table 4.4 – D´elai de bout en bout mesur´e pour chaque flux (ms) ms pour le flux 3 et environ 1.5 ms pour les flux 1 et 2). Cette diff´erence montre que le syst`eme retarde les paquets du flux 3 pour garantir la priorit´e demand´ee aux autres flux. Flow1 Flow2 Flow3 Temps d’attente (ms) 0.27 0.3 133.1 Table 4.5 – Temps d’attente dans la file d’attente pour chaque flux (ms) Le tableau 4.5 confirme cette hypoth`ese. Il repr´esente le temps d’attente des paquets de chaque flux dans leurs files d’attente. Les paquets du flux 3 doivent attendre en moyenne 133 ms avant d’ˆetre ´emis alors que les paquets des flux 1 et 2 n’attendent que 0,3 ms. Ces r´esultats confirment la conclusion que DAN garantit la QdS demand´ee aux flux Premium admis par le contrˆoleur d’admission. D´ebit de transmission Les valeurs pr´esent´ees sur la courbe 4.13 sont les moyennes, sur des intervalles de 10 sec, du d´ebit mesur´e chaque 0,1 sec au niveau du r´ecepteur. La figure 4.13 ainsi que le tableau 4.6 pr´esentent les d´ebits mesur´es pour les flux 1, 2 et 3. Min Max Moyenne Flux 1 et 2 14999,7 15000,61,23 15000 Flux 3 7471 7510,8 7494,577 Table 4.6 – D´ebits mesur´es pour chaque flux de trafic Les r´esultats montrent que le d´ebit de chaque flux 1 et 2 a ´et´e respect´e (15 Mbits/s pour les deux) alors que le d´ebit du flux 3 a ´et´e d´egrad´e de moiti´e. Les r´esultats de cette ´etude montrent une diff´erence de traitement entre les trois flux de trafic Premium re¸cus. En effet, ayant re¸cu les demandes de r´eservation de ressources des flux 1 et 2 en premier, le CA accepte l’admission de ces flux et r´eserve les ressources n´ecessaires. En cons´equence, le syst`eme4.2. EVALUATION DE DAN ´ 97 7000 8000 9000 10000 11000 12000 13000 14000 15000 16000 0 100 200 300 400 500 600 700 Débit (kbit s/sec) sec Débit= f(t ) Flux 3 Flux 1 et 2 Figure 4.13 – D´ebits mesur´es durant la simulation pour chaque flux de trafic n’a plus la capacit´e n´ecessaire pour l’admission de troisi`eme flux. Pour cette raison, il a trait´e ses paquets comme Best-effort puisque nous avons admis pour ce sc´enario que l’application continue `a ´emettre son trafic mˆeme en absence de ressources n´ecessaires. Le flux 3 a ´et´e retard´e dans le but de garantir la priorit´e demand´ee aux flux admis. Ainsi, il a le taux de perte et le d´elai de bout en bout les plus ´elev´es. De plus, son d´ebit a ´et´e d´egrad´e afin de garantir les ressources n´ecessaires pour les flux 1 et 2. Cette ´etude montre que DAN est capable d’accepter et de refuser les demandes de r´eservation de ressources pour les trafics Premium dans les limites de sa capacit´e. En outre, il offre aux flux Premium admis par le contrˆoleur d’admission leurs besoins en termes de pertes, de d´elais de bout en bout et de d´ebit de transmission. 4.2.2 Etude des minuteurs ´ Cette ´etude a pour but de borner la dur´ee des deux minuteurs WTS et WTC. Comme pr´esent´e dans le chapitre 3, WTS est la dur´ee d’attente par l’agent DAN d’un message d’erreur apr`es avoir lanc´e une demande de r´eservation de ressources pour un flux Premium. Une fois expir´e, l’agent consid`ere que sa demande a ´et´e admise et informe l’application pour commencer `a ´emettre son trafic. Le minuteur WTC est la dur´ee maximale d’attente de rafraichissement de98CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ r´eservation. Si la dur´ee de WTC d’un flux Premium s’´ecoule sans r´eception d’un paquet data permettant de rafraichir sa r´eservation, le nœud consid`ere que la r´eservation est annul´ee et lib`ere les ressources. Nombre de nœuds 10 Mod`ele de mobilit´e PPRZM Protocole de routage AODV-UU Protocole MAC 802.11 Capacit´e du canal 54 Mbits/s Capacit´e maximale du trafic Premium 11 Mbits/s Trafic Urgent/nœud 500 Octets : envoy´e al´eatoirement chaque [1s,3s] Trafic Premium/nœud 760 Kbits/s : 950 Octets chaque 10 ms Trafic Best-effort /nœud 4 Mbits/s 500 Octets chaque 1ms Zone de simulation 600 m x 600 m Port´ee radio 100m Table 4.7 – Deuxi`eme sc´enario Pour ces deux ´etudes, nous avons utilis´e le sc´enario pr´esent´e dans le tableau 4.7. Tous les nœuds ´emettent leurs trafics vers une seule destination qui est la station sol. 4.2.2.1 Le minuteur WTC La valeur de WTS a ´et´e fix´e `a 1 sec durant cette simulation puisque cette valeur est suffisamment grande pour ne pas congestionner le r´eseau par des flux Premium non admis par le contrˆoleur d’admission ce qui est valid´e par l’application cibl´ee. Le minuteur WTC est responsable de la mise `a jour des donn´ees du syst`eme. Par cons´equent, cette dur´ee ne doit pas ˆetre grande puisque le syst`eme risque de rejeter des r´eservations de nouveau flux Premium en se basant sur des donn´ees qui ne sont pas mises `a jour. Nous avons fait varier la valeur WTC (1 sec, 1.5 sec, 2 sec, 3 sec, 5 sec, 10 sec et 20 sec) dans le but d’´etudier l’influence de cette variation sur les performances du syst`eme. Ces valeurs sont choisies puisque dans notre sc´enario chaque drone ´echange 100 paquets Premium par seconde. La pertes de 100 paquets est suffisante pour fermer une r´eservation. En cons´equence,4.2. EVALUATION DE DAN ´ 99 0 10 20 30 40 50 60 70 80 0 2 4 6 8 10 12 14 16 18 20 Pert es(%) WTC(sec) Pert es= f(WTC) Urgent Prem ium Best -Effort Figure 4.14 – Taux de perte mesur´es avec chaque valeur de WTC pour les trois classes de trafic Les dur´ees fix´ees pour cette simulation sont suffisantes pour d´ecider l’annulation des reservations. Taux de perte La figure 4.14 pr´esente les taux de perte mesur´es avec chaque valeur de WTC pour les trois classes de trafic. Nous remarquons que la variation de la dur´ee de WTC n’affecte pas les mesures de pertes des classe Urgent et Best-effort qui gardent pratiquement les mˆemes valeurs avec les diff´erents tests r´ealis´es, contrairement aux pertes de la classe Premium qui augmente l´eg`erement avec l’augmentation de la dur´ee de WTC. En effet, durant la simulation les nœuds changent de positions, ainsi, leurs paquets suivent de nouvelles routes autres que celles d´ej`a r´eserv´ees. En gardant les donn´ees du r´eseau au niveau de chaque nœud durant une dur´ee WTC importante, les nouveau voisins risquent de voir leurs demandes de r´eservation rejet´ees. Ce qui augmente le taux de perte de cette classe. D´elai de bout en bout La figure 4.15 pr´esente les d´elais de bout en bout mesur´es avec les diff´erentes valeurs de WTC pour les trois classes de trafic. Les deux classes Urgent et Best-effort gardent les mˆemes valeurs de d´elais100CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0 2 4 6 8 10 12 14 16 18 20 Délais(sec) WTCm(sec) Délai= f(WTC) Urgent Prem ium Best -Effort Figure 4.15 – D´elais de bout en bout mesur´es avec les diff´erentes valeurs de WTC avec les diff´erentes simulations r´ealis´ees. Par contre, le d´elais de bout en bout de la classe Premium augmente l´eg`erement avec l’augmentation de la dur´ee de WTC. D´ebit de transmission D’apr`es les courbes de la figure 4.16, qui pr´esentent les moyennes de d´ebits de transmission mesur´ees pour les classes Premium et Best-effort durant ces diff´erentes simulations, la variation de la dur´ee de WTC affecte le d´ebit de la classe Premium qui diminue en augmentant cette dur´ee. Cette diminution est caus´ee par le rejet des r´eservations pour les flux Premium, ce qui diminue le d´ebit du trafic Premium dans le r´eseau. La signalisation ´echang´ee Apr`es l’expiration de WTC, le nœud annule la r´eservation et lib`ere les ressources. Il existe deux causes pour que le minuteur WTC ne soit pas rafraichi : – l’´emetteur a termin´e son ´emission mais le nœud n’a pas re¸cu le message DAN Close ; – `a cause de la mobilit´e, l’´emetteur s’´eloigne du nœud et change de route vers la destination.4.2. EVALUATION DE DAN ´ 101 4 6 8 10 12 14 16 0 2 4 6 8 10 12 14 16 18 20 Débit (kbit s/sec) WTCo(sec) Débit= f(WTC) Prem ium Best -Effort Figure 4.16 – D´ebits de transmission mesur´es avec la variation de la dur´ee WTC Dans le deuxi`eme cas, l’´emetteur peut tenter d’utiliser l’ancienne route une autre fois. Dans ce cas, il y aura un ´echange de messages de signalisation entre les deux mobiles puisque `a la r´eception des paquets de donn´ees d’un tra- fic Premium non admis par le contrˆoleur d’admission, le nœud doit informer la source par un message d’erreur pour qu’elle initialise la r´eservation. Pour cette raison, nous avons ´etudi´e l’influence de la variation de la dur´ee WTC sur le nombre de messages de signalisation ´echang´es durant toute la simulation. La figure 4.17 pr´esente les rapports entre le nombre de paquets de signalisation envoy´es durant toute une simulation et le nombre total de paquets Premium ´emis, mesur´es avec chaque valeur de la dur´ee de WTC. Autrement dit, cette figure pr´esente le nombre de paquets de signalisation par un paquet de donn´ees Premium envoy´e. La courbe montre que, lorsque la dur´ee de WTC augmente, le nombre de paquets de signalisation diminue l´eg`erement, ce se qui s’explique par le fait que, lorsque on augmente la dur´ee de WTC, les r´eservations sont maintenues pour des dur´ees plus longues au cours desquelles des mobiles peuvent changer rapidement de position. Par cons´equent, il y a moins d’´echange de message de signalisation dans le r´eseau.102CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ 3e-05 4e-05 5e-05 6e-05 7e-05 8e-05 9e-05 0 2 4 6 8 10 12 14 16 18 20 pktDAN/PktPremium WTC (sec) pktDAN/PktPremium=f(WTC) Figure 4.17 – Rapports entre le nombre de paquets de signalisation envoy´es et le nombre total de paquets Premium ´emis mesur´es avec les diff´erentes dur´ees de WTC Cette ´etude montre que la dur´ee du minuteur WTC affecte les performance du trafic Premium. Cette valeur ne doit pas ˆetre importante afin de garantir une mise `a jour suffisamment fr´equente du syst`eme. De plus, elle ne doit pas ˆetre tr`es faible pour diminuer les ´echanges de signalisation dans le r´eseau. Pour la suite de notre ´etude, nous fixons la valeur de WTC `a 2 sec puisque les r´esultats montrent que cette valeur a donn´e de meilleurs r´esultats par rapport aux autres dur´ees ´etudi´ees. 4.2.2.2 Le minuteur WTS Cette ´etude a pour but de borner la dur´ee du minuteur WTS. Cette valeur doit ˆetre inf´erieure `a celle du WTC, sinon les nœuds sources risquent de commencer `a ´emettre leurs premiers paquets Premium apr`es l’expiration des r´eservations. La valeur de WTC est fix´ee `a 2 sec pour varier la valeur de WTS (0.01 sec, 0.1 sec, 0.5 sec, 1 sec, 1.5 sec et 2 sec) et ´etudier l’impact de cette variation sur les performances du syst`eme et pouvoir choisir la dur´ee optimale. Taux de perte La figure 4.18 pr´esente les taux de perte mesur´es pour chaque classe de trafic avec les diff´erentes dur´ees de WTS.4.2. EVALUATION DE DAN ´ 103 0 10 20 30 40 50 60 70 80 0.010.1 0.5 1 1.5 2 Pert es(%) WTSB(sec) Pert es= f(WTS) Urgent Prem ium Best -Effort Figure 4.18 – Taux de perte mesur´es pour chaque classe de trafic durant les diff´erents tests Nous remarquons une l´eg`ere am´elioration au niveau du taux de perte de la classe Premium d´e 0.1 sec. Cela est dˆu au fait qu’apr`es l’expiration de WTS, le nœud commence directement `a ´emettre le trafic. Avec une tr`es faible dur´ee de WTS, le nœud peut commencer `a ´emettre son trafic mˆeme avant l’´etablissement de la r´eservation ce qui augmente les risques de traiter les paquets d´ej`a envoy´es comme un trafic Best-effort. D´elai de bout en bout La figure 4.19 pr´esente les d´elais de bout en bout mesur´es pour chaque classe de trafic avec les diff´erentes dur´ees de l’intervalle WTS. La figure montre une l´eg`ere am´elioration au niveau du d´elai mesur´e pour la classe Best-effort puisque, durant l’intervalle WTS, le syst`eme a moins de paquets Premium `a ´emettre, ce qui diminue la charge des files d’attente et par cons´equent, am´eliore le temps d’attente des paquets Best-effort dans leur file. D´ebit de transmission La figure 4.20 pr´esente les moyennes des d´ebits mesur´es pour les deux classes de trafic Premium et Best-effort avec les diff´erentes dur´ees de l’intervalle WTS. Nous remarquons une l´eg`ere am´elioration pour le d´ebit de la classe Best-104CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.01 0.1 0.5 1 1.5 2 Délais(sec) WTS(sec) Délai= f(WTS) Urgent Prem ium Best -Effort Figure 4.19 – D´elais mesur´es pour chaque classe de trafic durant les diff´erentes simulations 6000 8000 10000 12000 14000 16000 18000 0.010.1 0.5 1 1.5 2 Débit (kbit s/sec) WTS-(sec) Débit= f(WTS) Prem ium Best -Effort Figure 4.20 – D´ebit de transmission mesur´es pour les diff´erentes classes de trafic4.2. EVALUATION DE DAN ´ 105 4e-05 4.2e-05 4.4e-05 4.6e-05 4.8e-05 5e-05 5.2e-05 5.4e-05 5.6e-05 5.8e-05 6e-05 0.01 0.1 0.5 1 1.5 2 pktDAN/PktPrem ium WTSf(sec) pktDAN/PktPrem ium = f(WTS) Figure 4.21 – Nombre de messages de signalisation ´echang´es au cours de chaque simulation effort due aux mˆemes causes expliqu´ees pr´ec´edemment. Trafic de signalisation La figure 4.21 pr´esente la variation du rapport entre le nombre de paquets de signalisation ´emis et le nombre de paquets de donn´ees Premium envoy´es en fonction de la variation de la dur´ee WTS. La courbe montre une diminution du nombre de messages de signalisation envoy´es durant la simulation (pour les valeurs de 0,1 sec ≤ WTS ≤ 2 sec), ce qui s’explique par la fait qu’avec une courte dur´ee de WTS, la source peut commencer `a ´emettre ses paquets Premium avant la r´eception du message d’erreur DAN Error. En cons´equence, le nombre de messages de signalisation augmente pour la r´e-´emission du message d’erreur. Avec les dur´ees plus longues de WTS, les paquets risquent de traverser de nouvelles routes autres que celles d´ej`a r´eserv´ees, ce qui oblige les nœuds `a ´echanger davantage de messages de signalisation. Cette ´etude permet de borner la dur´ee de l’intervalle WTS. Cette valeur doit ˆetre entre 0,1 sec et la dur´ee de WTC. Pour le reste de notre ´etude, nous fixons la dur´ee de WTS `a une seconde, puisque cette valeur est sup´erieure `a la dur´ee du d´elai d’aller-retour dans le r´eseau (la valeur moyenne calcul´ee est ´egal `a 275ms) et inf´erieure `a la valeur WTC d´ej`a choisie. De plus, elle106CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ est valid´ee par l’application cibl´ee puisque nous remarquons sur les courbes pr´esent´ees pr´ec´edemment (figures 4.20 et 4.21) que cette valeur r´ealise les meilleurs r´esultats en termes de d´ebit et de la signalisation ´echang´ee par rapport aux autres dur´ees. 4.2.3 Performances g´en´erales de DAN Cette ´etude a pour but d’´evaluer les performances de DAN dans un r´eseau congestionn´e. Le tableau 4.8 pr´esente le sc´enario de cette simulation. Nombre de nœuds 11 Mod`ele de mobilit´e PPRZM Protocole de routage AODV-UU Protocole MAC 802.11 Capacit´e du canal 54 Mbits/s Capacit´e maximale du Premium 11 Mbits/s Trafic Urgent/nœud 500 Octets : envoy´es al´eatoirement chaque [1s,3s] Trafic Premium/nœud 760 Kbits/s : 950 Octets chaque 10 ms Trafic Best-effort /nœud 4 Mbits/s : 500 Octets chaque 1ms Zone de simulation 600 m x 600 m Port´ee radio 100m Table 4.8 – Troisi`eme sc´enario Tous les nœuds ´emettent le mˆeme trafic vers une seule station sol. Taux de perte Le tableau 4.9 pr´esente les taux de perte calcul´es pour chaque classe de trafic. Urgent Premium Best-effort Pertes dues `a la congestion 0 0 74.678 Pertes totales 7.79 8.04 76.614 Table 4.9 – Taux de perte mesur´e pour chaque classe de trafic (%) Les r´esultats montrent une grande diff´erence entre les pertes de la classe Best-effort et celles des classes Urgent et Premium. En effet, les m´ecanismes4.2. EVALUATION DE DAN ´ 107 de gestion de trafic retardent l’´emission des messages Best-effort afin de garder la priorit´e des autres classes. Ainsi, ces paquets saturent la file d’attente qui commence `a les rejeter. Nombre de paquets par file d'attente La file Best-Effort La file Premium La file Urgent Temps (sec) 0 0 20 20 40 40 60 60 80 80 100 100 120 120 140 140 160 160 180 180 200 200 220 220 240 240 260 260 280 280 300 300 0 0 20 20 40 40 60 60 80 80 100 100 120 120 Nombre de paquet Figure 4.22 – Nombre de paquets par chaque file d’attente La figure 4.22 pr´esente le nombre de paquets par file d’attente obtenue au cours de la simulation. Elle confirme que la file Best-effort ´etait satur´ee durant toute la dur´ee de la simulation, ce qui explique que le taux de perte dˆu `a la congestion de la classe Best-effort est ´egal `a 74,67% alors qu’il est nul pour les trafics Urgent et Premium. Malgr´e la gestion de trafic de DAN, les r´esultats montrent des pertes au niveau des classes Urgent et Premium (7,69% et 8,14% ainsi que 76,61% pour la classe Best-effort). Ces pertes sont caus´ees par des probl`emes li´es au r´eseau comme des interf´erence et des collisions. D´elai de bout en bout Le tableau 4.10 pr´esente les d´elais de bout en bout mesur´es pour chaque classe de trafic. Il montre l’impact de la gestion de la QdS sur le trafic Besteffort qui r´ealise un d´elais de 397 ms contre 20 ms et 28 ms pour les deux classe Premium et Urgent.108CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ Urgent Premium Best-effort D´elai de bout en bout 0.016 0.02 0.397 Table 4.10 – D´elai de bout en bout mesur´e pour chaque classe de trafic La saturation du canal de transmission a un effet aussi sur l’augmentation des d´elais. En effet, chaque nœud doit attendre son rˆole pour pouvoir ´emettre ses paquets ce qui peut tarder lorsque le canal partag´e est satur´e. D´ebit de transmission La figure 4.23 et le tableau 4.11 pr´esentent les d´ebits mesur´es pour les deux classes de trafic Premium et Best-effort. Pour cette ´etude, le d´ebit est mesur´e chaque 0,1 seconde. Les valeurs pr´esent´ees sont les moyennes sur des intervalles de 1 seconde. 2000 4000 6000 8000 10000 12000 14000 16000 18000 20000 22000 24000 0 50 100 150 200 250 300 Débit (kbit s/sec) TempsE(sec) Débit= f(t ) Prem ium Best -Effort Figure 4.23 – D´ebit mesur´e durant la simulation pour les deux classes Premium et Best-effort Min Max Moyenne Premium 2993 8876 8268,449 Best-effort 12332,31 22888 20762,538 Table 4.11 – D´ebit mesur´e pour les deux classes de trafic Premium et Best-effort (Kbits/s)4.2. EVALUATION DE DAN ´ 109 La courbe montre que le syst`eme a r´eussi `a offrir le d´ebit demand´e par le trafic Premium (670 Kbits/s par nœud). Nous remarquons aussi que le d´ebit du trafic Best-effort a subi plus de fluctuations que le d´ebit du trafic Premium qui a gard´e les mˆemes valeurs durant toute la simulation. Cela montre que DAN garantit le d´ebit demand´e par les flux Premium. Cette ´etude montre l’efficacit´e de DAN dans le cas des r´eseaux congestionn´es puisqu’il respecte les QdS demand´ees par chaque classe de trafic. Il offre des taux de perte et des d´elais plus faibles pour le trafic Urgent et garantit le d´ebit optimal demand´e par les flux Premium. Malgr´e l’efficacit´e de DAN `a diff´erentier le trafic et `a g´erer la QdS dans les situations de congestion, il ne peut rien faire face aux collisions et aux interf´erences qui ont caus´e quelques pertes au niveau des deux classes Premium et Urgent. 4.2.4 Evaluation de l’impact de variation de la charge ´ du r´eseau Cette ´etude a pour but d’´evaluer les performances de DAN en augmentant `a chaque fois le nombre d’´emetteurs dans un r´eseau `a multi-saut. Nombre de nœuds 10 Protocole de routage AODV-UU Protocole MAC 802.11 Capacit´e du canal 54 Mbits/s Capacit´e maximale du Premium 11 Mbits/s Trafic Urgent/nœud 500 Octets : envoy´es al´eatoirement chaque [1s,3s] Trafic Premium/nœud 760 Kbits/s : 950 Octets chaque 10 ms Trafic Best-effort /nœud 4 Mbits/s : 500 Octets chaque 1ms Zone de simulation 600 m x 600 m Port´ee radio 100m Table 4.12 – Quatri`eme sc´enario Le tableau 4.12 pr´esente le sc´enario de cette simulation. Le nombre d’´emetteurs varie avec chaque test dans le but de modifier la charge du r´eseau et ils ´emettent tous leurs trafics vers une seule station de contrˆole.110CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ 0 10 20 30 40 50 60 70 80 1 2 3 4 5 6 7 8 9 10 Pertes(%) Nombre d'émetteurs Pertes=f(Nombre d'émetteurs) Urgent Premium Best-Effort Figure 4.24 – Taux de perte mesur´e pour chaque classe de trafic Taux de perte La figure 4.24 pr´esente les taux de perte de chaque classe de trafic mesur´es avec les diff´erents nombres d’´emetteurs. La courbe montre une diff´erence remarquable entre le taux de perte de la classe Best-effort et ceux des autres classes. De plus, les pentes des courbes sont totalement diff´erentes. En effet, le taux de perte des deux classes de trafic Premium et Urgent augmente tr`es lentement contrairement `a celui du trafic Best-effort qui augmente rapidement. Ces r´esultats montrent que, mˆeme quand la charge dans le r´eseau augmente, DAN garantit un taux de perte tr`es faible pour les deux classes prioritaires Urgent et Premium. D´elai de bout en bout La figure 4.25 pr´esente les d´elais de bout en bout mesur´es pour chaque classe de trafic avec les diff´erents nombres d’´emetteurs. Pour des r´eseaux peu charg´es, (1 ou 2 ´emetteurs), les r´esultats ne montrent pas une diff´erence de d´elais entre les trois classes. Pourtant, `a chaque fois que la charge augmente dans le r´eseau, le d´elai de bout en bout de la classe Best-effort augmente rapidement alors que les deux autres classes ´evoluent lentement en gardant les valeurs du d´elai les plus faibles. En effet, plus il y a des paquets Premium et Urgent qui circulent dans le r´eseau plus la dur´ee d’attentes des paquets Best-effort dans leur file d’attente augmente.4.2. EVALUATION DE DAN ´ 111 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 1 2 3 4 5 6 7 8 9 10 Délai(s) Nombre d'émetteurs Délai =f(Nombre d'émetteurs) Urgent Premium Best-Effort Figure 4.25 – D´elai mesur´e pour chaque classe de trafic Ces r´esultats montrent que DAN garantit un d´elai de bout en bout tr`es faible pour les deux classes de trafic Premium et Urgent comme requis. D´ebit de transmission La figure 4.26 pr´esente les valeurs moyennes de d´ebit de transmission mesur´ees pour les deux classes Premium et Best-effort en faisant varier le nombre d’´emetteurs dans le r´eseau. Elle montre que le d´ebit de la classe Premium augmente d’une mani`ere lin´eaire avec le nombre d’´emetteur, ce qui montre que le syst`eme est capable de fournir le d´ebit n´ecessaire pour ces flux. Cette augmentation ne menace pas le d´ebit du trafic Best-effort grˆace au seuil fix´e par le contrˆoleur d’admission. En effet, comme dans l’´etude 4.2.1 o`u les flux Premium d´epassent la capacit´e totale allou´ee `a cette classe, le syst`eme n’admet les demandes de r´eservation que dans les limites de la capacit´e totale allou´ee au trafic Premium. Le reste du trafic est trait´e comme Best-effort. Cette ´etude montre que DAN est capable de s’adapter `a la charge du r´eseau et de garantir une diff´erentiation de services. Il fournit les QdS demand´ees en termes de d´elais de bout en bout et de taux de perte pour les messages Urgent ainsi que de garantir le d´ebit de transmission requis pour chaque flux Premium. Ces QdS sont respect´ees mˆeme en variant la charge dans un r´eseau `a multi-saut des nœuds mobiles.112CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ 0 2000 4000 6000 8000 10000 12000 14000 16000 18000 1 2 3 4 5 6 7 8 9 10 Débits(Kbits/sec) (Nombre d'émetteurs) Débit=f(Nombre d'émetteurs) Premium Best-Effort Figure 4.26 – Moyennes de d´ebit de transmission mesur´ees pour les deux classes de trafic Premium et Best-effort 4.2.5 Evaluation avec d’ autres protocoles de routage ´ L’une des exigences de conception de DAN est de fonctionner ind´ependamment du protocole MAC et du protocole de routage ce qui permet de l’adapter `a n’importe quel syst`eme d’agents coop´eratifs. Cette ´etude a pour but d’´evaluer le fonctionnement de DAN avec des protocoles de routage autres que AODV pour valider cette exigence. Pour cette raison, nous avons lanc´e le mˆeme sc´enario que l’´etude 4.2.3 mais en utilisant deux autres protocoles de routage : OLSR et DSDV qui sont des protocoles de routage pro-actifs. Taux de perte La figure 4.27 pr´esente les taux de perte mesur´es pour chaque classe de trafic avec les deux protocoles de routage. Le graphe montre une diff´erence remarquable entre les pertes de la classe Best-effort (78,88% et 77,51%) et celles des classes Premium et Urgent (entre 10,21% et 4,28% pour la classe Urgent et 10,62% et 6,9% pour les flux Premium). Ces r´esultats montrent que DAN permet d’obtenir les taux de perte les plus faibles pour les classes Urgent et Premium ind´ependamment du protocole de routage.4.2. EVALUATION DE DAN ´ 113 0 10 20 30 40 50 60 70 80 Urgent Prem ium Best-Effort OLSR DSDV 4.48 78.86 77.51 10.21 10.62 6.90 Pertes ()) Figure 4.27 – Taux de perte mesur´es pour les diff´erentes classes de trafic D´elai de bout en bout La figure 4.28 pr´esente les d´elais de bout en bout mesur´es pour les diff´erentes classes de trafic avec les deux protocoles de routage OLSR et DSDV. 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 Urgent Prem ium Best -Effort OLSR DSDV 0.37 0.34 0.0106 0.013 0.0127 0.0125 Délaisé(s) Figure 4.28 – D´elai mesur´e pour chaque classe de trafic Elle montre la grande diff´erence entre les d´elais mesur´es pour le trafic Best-effort (0,34 sec et 0,37 sec) et ceux mesur´es pour les deux autres classes de trafic (environ 0,012 sec). Ces r´esultats confirment que DAN offre le d´elai le plus faible pour les trafics Urgent et Premium ind´ependamment du protocole de routage. D´ebit de transmission La figure 4.29 pr´esente les moyennes des valeurs de d´ebits mesur´ees pour les classes de trafic Premium et Best-effort avec les deux protocoles de routage OLSR et DSDV.114CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´ 0 2000 4000 6000 8000 10000 12000 14000 16000 18000 20000 Prem ium Best -Effort OLSR DSDV 7577.41 16880.68 18634.33 7119.91 Débitb(kbits/sec) Débits Figure 4.29 – D´ebits mesur´es pour les deux classes Best-effort et Premium avec les protocoles de routage OLSR et DSDV Les r´esultats montrent que DAN respecte le d´ebit demand´e par les flux Premium avec les diff´erents protocoles de routages. Cette ´etude montre que DAN peut s’adapter `a n’importe quel protocole de routage pour diff´erencier le trafic et garantir la QdS demand´ee pour chaque classe. Conclusion Ce chapitre a pr´esent´e l’´etude de performance de DAN par simulation. Cette ´etude a ´et´e r´ealis´ee dans un environnement proche de la r´ealit´e en utilisant le mod`ele de mobilit´e PPRZM. PPRZM reproduit les mouvements r´eels des drones Paparazzi d’une mani`ere al´eatoire. Il met en œuvre certains types de mouvements qui ne sont pas pris en compte par les autres mod`eles de mobilit´e usuels comme le mouvement de balayage d’une zone g´eographique ou le fait de refaire le mˆeme mouvement dans la mˆeme zone durant un intervalle de temps. Nous avons choisi d’utiliser ce mod`ele de mobilit´e puisque dans le cas d’une flotte de drones, l’obtention des traces de plusieurs a´eronefs est difficile `a cause du nombre limit´e de drones et la complexit´e de lancement des vols. PPRZM offre la possibilit´e de faire varier les param`etres de simulation comme la dur´ee du sc´enario ou le nombre de drones utilis´es, dans le but d’´etudier une diversit´e de cas possibles. Par cons´equent, nous avons pu cr´eer des sc´enarios de simulation difficiles `a r´ealiser avec des drones r´eels (comme le nombre ´elev´e de drones par test).4.2. EVALUATION DE DAN ´ 115 Les r´esultats de l’´etude de DAN montrent qu’il diff´erentie le service en trois classes : Urgent, Premium et Best-effort et qu’il garantit diff´erent niveau de QdS. En effet, Il offre le taux de perte et le d´elai les plus faibles pour les messages Urgent et garantit le d´ebit de transmission demand´e pour chaque flux Premium mˆeme dans les r´eseaux congestionn´es. Le chapitre suivant pr´esente l’impl´ementation de DAN sur des drones r´eels ainsi que les exp´erimentations r´ealis´ees.116CHAPITRE 4. EVALUATION DES PERFORMANCES DE DAN PAR SIMULATION ´Chapitre 5 Impl´ementation et plate-formes de tests Contents 5.1 Outils utilis´es . . . . . . . . . . . . . . . . . . . . . 118 5.2 Impl´ementation de DAN . . . . . . . . . . . . . . 119 5.3 R´esultats et discussion . . . . . . . . . . . . . . . 121 5.3.1 Validation du fonctionnement du nouveau syst`eme de communication Paparazzi . . . . . . . . . . . . 123 5.3.2 Evaluation de DAN . . . . . . . . . . . . . . . . . 127 ´ Introduction Comme pr´esent´e dans le Chapitre 1, les communications entre les drones Paparazzi et la station sol ´etaient ´etablies `a travers un module XBee 802.15.4 supportant les communications point `a point et point `a multi-points. Sur la liaison montante (de la station sol (GCS pour Ground Control Station) vers les drones), les messages sont ´emis en diffusion. Par la suite, selon le contenu, c’est `a chaque drone de d´ecider s’il le traite ou non. Sur la liaison descendante (du drone vers l’unique station de contrˆole), les messages ´etaient envoy´es en unicast. Ce chapitre pr´esente l’op´eration d’int´egration de DAN au syst`eme Paparazzi dans les deux premi`eres sections. Par la suite, les diff´erentes exp´erimentations r´ealis´ees ainsi que leurs r´esultats sont d´etaill´es dans la troisi`eme section. 117118CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´ 5.1 Outils utilis´es L’int´egration est r´ealis´ee sur des quadricopt`eres Paparazzi (figure 5.1). Ces drones ont ´et´e modifi´es en ajoutant une carte Raspberry Pi 1 qui utilise la distribution Linux Raspbian 2 , ce qui nous a permis d’utiliser une impl´ementation existante du protocole de routage AODV-UU [GSB09] pour Linux. Figure 5.1 – Quadricopt`ere Paparazzi Afin de r´ealiser ce syst`eme, deux modifications majeures ont ´et´e n´ecessaires, une au niveau logiciel et l’autre au niveau mat´eriel. Figure 5.2 – Carte Raspberry Pi Du point de vue mat´eriel, plusieurs modifications ont ´et´e r´ealis´ees. En effet, les cartes Raspberry, avec leurs boitiers, ont ´et´e attach´ees `a chaque quadricopt`ere (comme sur la figure 5.1 o`u on voit le quadricopt`ere Paparazzi qui se pose sur le boitier de la carte Raspberry Pi). Pour cela, il ´etait 1. http ://www.raspberrypi.org/ 2. http ://www.raspbian.org/5.2. IMPLEMENTATION DE DAN ´ 119 n´ecessaire de modifier la carte m´emoire SD en micro-SD afin de garantir un meilleur m´ecanisme de verrouillage. Le but de cette modification est d’´eviter la perte de la liaison avec la carte caus´ees par des vibrations durant le vol. La carte Raspberry est aliment´ee directement `a partir de la batterie du drone. Au niveau MAC et physique nous utilisons des cl´es Wi-Pi (figure 5.3) qui offrent une connexion avec la norme IEEE 802.11g. Son canal de transmission a une capacit´e th´eorique de 54 Mbits/s et permet de connecter des mobiles `a une port´ee de 75 m qui peut s’´elever `a environ 200 m sur une vision directe. Figure 5.3 – Une cl´e Wi-Pi D’autres logiciels ont ´et´e d´evelopp´es permettant d’agir comme une interface entre le syst`eme de communication traditionnel de Paparazzi et les paradigmes du r´eseau ad hoc (adressage IP) et de passer du principe de diffusion sur la liaison montante et unicast sur la liaison descendante en unicast sur les deux liaisons. La figure 5.4 pr´esente le nouveau syst`eme Paparazzi. Dans ce syst`eme, DAN est utilis´e au niveau de chaque drone pour assurer les communications entre eux et avec la station sol `a travers un r´eseau ad hoc. Au niveau de la station de contrˆole, DAN est impl´ement´e sur une carte Raspberry connect´ee au module Link de la station `a travers une liaison s´erie. Ce module, qui assure les communications avec le r´eseau, est li´e avec les autres fonctionnalit´es de la station de contrˆole, comme SRV (le serveur de donn´ees), `a travers un bus IVY 3 . IVY est un bus logicielle permettant de communiquer des processus en diff´erents langage (C, C++, Java, Python, Perl, Unix et Mac OS). 5.2 Impl´ementation de DAN DAN est impl´ement´e en C++, dans l’espace utilisateur du syst`eme linux en utilisant la librairie libnl (Netlink Protocol Library) (figure 5.5) ainsi que 3. http ://www.eei.cena.fr/products/ivy/120CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´ IVY GCS TARF Link DAN DAN SRV Station de contrôle Paparazzi Drone 1 Drone 2 DAN Liaison Série IP 802.11 IP 802.11 Figure 5.4 – l’int´egration de DAN au syst`eme Paparazzi les m´ecanismes du syst`eme Linux permettant de g´erer la QdS [lin]. Cette librairie permet de g´erer les fonctionnalit´es du noyau `a partir de l’espace utilisateur. Libnl met en œuvre des principes fondamentaux n´ecessaires pour utiliser le protocole Netlink [SKKK03] qui permet de communiquer le noyau et l’espace utilisateur, essentiellement pour ´echanger des donn´ees sur le r´eseau et permet de r´ealiser des fonctionnalit´es comme la construction des messages, l’envoi et la r´eception de donn´ees. La commande Iproute est un exemple des utilit´es qui utilisent le protocole Netlink. De plus Libnl offre des moyens permettant de g´erer la plateforme Netfilter. Netfilter est une plateforme du noyau Linux qui offre une vari´et´e d’options pour manipuler la r´eception et l’´emission des paquets du r´eseau. Autrement dit, Netfilter permet de filtrer les paquets re¸cus ou `a ´emettre. Afin de simplifier l’utilisation du standard C++ et les communications entre les diff´erents processus du syst`eme nous avons utiliser la librairie boost 4 . La figure 5.5 sch´ematise l’architecture du syst`eme Linux contenant DAN. Elle montre que dans l’espace utilisateur, les applications communiquent avec 4. http ://www.boost.org/5.3. RESULTATS ET DISCUSSION ´ 121 Application Application Application DAN Librairie Libnl routes, interfaces Système de routage (adressage, réseaux, etc) Netlink (API Noyau) Système Netfilter (gestion de la file d’attente, etc) API DAN Espace utilisateur Noyau AODV-UU Figure 5.5 – Architecture du syst`eme Linux avec DAN DAN `a travers des sockets de l’API DAN. DAN, impl´ement´e dans l’espace utilisateur, communique avec le noyau en utilisant la librairie Libnl dans le but de g´erer les plate-formes Netfilter et Netlink. Le protocole de routage AODV-UU, impl´ement´e aussi dans l’espace utilisateur, g`ere les fonctionnalit´es de routage du noyaux Linux. La figure 5.6 pr´esente un extrait du diagramme de classe du l’agent DAN. Elle sch´ematise les relations entre la classe Agent DAN et les autres classes comme les classes DAN Msg ou DAN Flow. 5.3 R´esultats et discussion Cette section pr´esente les r´esultats des exp´erimentations r´ealis´ees pour valider et ´evaluer les performances du nouveau syst`eme de communication de Paparazzi. Elle est divis´ee en deux parties : la premi`ere a pour but la validation du syst`eme de communication ad hoc (les modifications r´ealis´ees, le routage impl´ement´e, etc) et la deuxi`eme sert `a ´evaluer les performances de DAN dans un environnement r´eel.122CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´ DAN_Agent -FlowList_ -AC_ -Classifier_ -TcTimer_ -TsTimer_ -Logger_ ₊Process_DAN_Msg() ₊Handle_msg() ₊Set_FlowList() ₊Send_Up() ₊Send_Down() ₊Receive() DAN_Msg -Msg_Type -Reserveation_ -Close_ -Error_ -Msg_body DAN_Resrvation -DANFlowID_ -Bw_ DAN_Close -DANFlowID_ DAN_Error -DANFlowID_ -Bw_ Reservation_ Close_ Error_ DAN_Logger ₊LogFlowList() ₊Log_DAN_Msg() TcTimer -DAN_Flow_ID_ ₊SetTimer() ₊Expire() TsTimer -DAN_Flow_ID_ ₊SetTimer() ₊Expire() TsTimer_ TcTimer_ Logger_ DAN_FlowList ₊Update() ₊CheckFlow() -DAN_Flow_ DAN_Flow -DAN_Flow_Id_ -Bw_ DAN_Flow_ID -Src_adr_ -Dest_adr_ -Src_port_ -Dest_port_ FlowList_ Figure 5.6 – Extrait du diagramme de classe de l’agent DAN5.3. RESULTATS ET DISCUSSION ´ 123 5.3.1 Validation du fonctionnement du nouveau syst`eme de communication Paparazzi Les Premiers tests r´ealis´es avaient pour but de montrer la possibilit´e de contrˆoler le syst`eme Paparazzi `a travers un r´eseau ad hoc. Pour cela, nous avons utilis´e deux drones. Ces drones se d´eplacent selon la trajectoire pr´esent´ee dans la figure 5.7. Figure 5.7 – Trajectoire des drones au cours de l’exp´erimentation L’exp´erimentation est r´ealis´ee sur cinq phases autour du bˆatiment Yeager de l’ENAC (de longueur 85 m). A l’instant t0, les deux drones restent stationnaires `a cot´e de la station sol durant environ 30 secondes (Phase 0). Par la suite, ils avancent ensemble dans la mˆeme direction (Phase 1). Une fois arriv´e `a l’extr´emit´e, l’un des deux drones reste stationnaire dans sa position alors que l’autre continu son chemin derri`ere le bˆatiment afin de perdre le lien direct entre lui et la station sol (Phase 2). Cette coupure de liaison force le r´eseau `a router les paquets `a travers le deuxi`eme a´eronef. Ce sc´enario est choisi pour pouvoir perdre la connexion entre la station sol et l’un des drones. En effet, la port´ee des cartes MAC utilis´ee est de l’ordre de 200 m en vision directe. Ainsi, nous avons choisi d’utiliser le bˆatiment comme obstacle.124CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´ En arrivant `a l’autre extr´emit´e du bˆatiment, le drone reste stationnaire dans sa position durant 30 secondes avant de faire un demi-tour et revenir `a cot´e de l’autre a´eronef (Phase3). Par la suite, les deux drones reviennent `a leurs positions initiales `a cot´e de la station sol. En plus de trafic Paparazzi ´echang´e entre les drones et la station sol nous avons utilis´e au niveau de chaque machine : ping pour mesurer le d´elai du r´eseau et tcpdump pour enregistrer le trafic. Ces captures permettent de calculer le d´elai, le taux de perte ainsi que le d´ebit de transmission dans le r´eseau. Figure 5.8 – Capture d’´ecran de la station de contrˆole La figure 5.8 est une capture d’´ecran de la station de contrˆole r´ealis´ee `a la fin de l’exp´erimentation. Elle permet de distinguer les deux trajectoires suivies des deux drones nomm´es G1 (en bleu) et HEN1 (en rouge). Tous les r´esultats pr´esent´es dans cette section partagent le mˆeme axe temporaire qui commence avec le lancement de tcpdump au niveau de la station sol. Apr`es 40 secondes, les drones commencent `a bouger. Ils atteignent l’extr´emit´e5.3. RESULTATS ET DISCUSSION ´ 125 du bˆatiment `a t= 100 secondes et autour de 140 secondes, HEN1 arrive `a la position la plus ´eloign´ee de sa trajectoire. IL revient `a cot´e du drone G1 `a l’instant 160 secondes. Ces informations, obtenues de la station sol qui enregistre toutes les donn´ees de vol, sont coh´erentes avec les mesures r´ealis´ees pour le r´eseau comme pr´esent´e dans les courbes de la figure 5.9. 62 62.5 63 63.5 64 64.5 65 0 20 40 60 80 100 120 140 160 180 200 TTL Temps (s) TTL Le drone G1 62 62.5 63 63.5 64 64.5 65 0 20 40 60 80 100 120 140 160 180 200 TTL Temps TTL Le drone HEN1 Figure 5.9 – Les valeurs TTL des paquets des deux drones G1 et HEN1 Les courbes pr´esentent le contenu du champ TTL (Time To Live). Les paquets transmis sans routage ont une valeur TTL de 64 alors que les autres voient diminuer cette valeur avec chaque passage `a travers un nœud interm´ediaire. Le routage au niveau de G1 est r´ealis´e entre 111 secondes et 159 secondes puisque durant cet intervalle de temps la valeur de TTL passe `a 63. D´ebit de transmission Le d´ebit est mesur´e pour le trafic descendant envoy´e de chaque drone vers la station sol. Les courbes de la figure 5.10 pr´esentent le d´ebit de trafic envoy´e par126CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´ (a) Temps (s) Débit (kbits/sec) envoyé reçu G1 (b) Temps (s) Débit (kbits/sec) envoyé reçu HEN1 Figure 5.10 – D´ebit du trafic descendant chaque drone, mesur´e `a l’´emission, au niveau de chaque drone, et `a la r´eception, au niveau de la station sol. Le d´ebit est mesur´e chaque 0,1 seconde, par la suite leur moyennes sur des intervalles de 1 secondes sont calcul´ees. Le tableau 5.1 pr´esente les valeurs minimales, maximales et moyennes des d´ebits mesur´es au niveau de chaque drone et de la station sol. Min Max Moyenne A partir de G1 ` 1993 4360 3140.03 A partir de HEN1 ` 0 5999 956.96 Table 5.1 – D´ebit g´en´er´e par les drones en kbits/sec Les r´esultats montrent que le d´ebit envoy´e par le drone G1 est sup´erieur `a celui envoy´e par le drone HEN1. Cela est dˆu au fait qu’un filtre suppl´ementaire d’estimation d’altitude est activ´e sur G1 ce qui causent la g´en´eration de plus de donn´ees. Les courbes de la figure 5.10b montrent l’effet de la perte de liaison directe entre HEN1 et la station sol, traduit par la diff´erence entre le d´ebit ´emis par le drone et le d´ebit re¸cu par la station sol qui commence avec le passage de HEN1 derri`ere le bˆatiment.5.3. RESULTATS ET DISCUSSION ´ 127 Taux de perte Le taux de perte est calcul´e pour les p´eriodes avec et sans routage par la comparaison des captures de trafic r´ealis´ees par tcpdump. Le tableau 5.2 pr´esente ces r´esultats. Taux de perte Source Destination Sans routage Avec routage Totale Station sol G1 0.13 3.73 1.03 Station sol HEN1 0.38 43.44 9.72 G1 Station sol 0 0.71 0.15 HEN1 Station sol 1.68 23.55 7.04 Table 5.2 – Taux de perte (%) mesur´es durant les diff´erentes p´eriodes de l’exp´erimentation Les pertes sont concentr´es au d´ebut de la phase avec routage et apr`es sa fin. En effet, des paquets sont envoy´es directement de la station sol vers le drone HEN1 alors qu’il est situ´e hors de sa port´ee. Cette erreur est caus´ee par AODV qui ne d´etecte pas les pertes de connexion imm´ediatement et peut avoir des situations d’instabilit´e au niveau de sa table de routage. Toutes ces pertes sont dues `a des probl`emes de routage puisque aucun paquet n’a ´et´e perdu par congestion au niveau G1. Cette exp´erimentation nous a permis de valider le fonctionnement du nouveau syst`eme Paparazzi avec toutes les modifications mat´erielles et logicielle, ainsi que son contrˆole `a travers un r´eseau ad hoc. Ce syst`eme permet de passer de l’architecture de communication en ´etoile utilis´e par Paparazzi vers une structure en maille permettant de transmettre les messages vers les drones identifi´es par leurs adresses IP. 5.3.2 Evaluation de DAN ´ A cause de la perte de l’un des quadricopt`eres modifi´es suite `a un accident, ` nous avons ´et´e oblig´e de r´ealiser nos exp´erimentations avec un seul drone, l’autre a ´et´e remplac´e par une carte Raspberry Pi. Cette carte ´echange un vrai trafic Paparazzi produit par un g´en´erateur de trafic que nous avons cr´e´e sp´ecialement pour ces exp´erimentations. Il g´en`ere des paquets conformes aux vrais messages Paparazzi en se basant sur les donn´ees enregistr´ees dans les fichiers log des anciens vols r´eels. Le but de cette exp´erimentation est d’´etudier et de valider le fonctionnement de DAN dans un environnement r´eel. Pour cette raison, quatre sc´enarios128CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´ ont ´et´e d´efinis permettant chacun d’´etudier un cas de fonctionnement sp´ecifique : – 1er sc´enario : r´ealisation du mˆeme sc´enario de validation de fonctionnement du contrˆoleur d’admission ´evalu´e par simulation dans la section 4.2.1 ; – 2eme sc´enario : une ´evaluation du fonctionnement de DAN dans le cas d’une saturation totale du canal de transmission. Ces r´esultats sont compar´es aux r´esultats du mˆeme sc´enario obtenu sans DAN ; – 3eme sc´enario : une ´evaluation de DAN dans le cadre des ´echanges Paparazzi. Durant cette exp´erimentation, les nœuds ´echangent des vid´eos en temps r´eel en plus du trafic Paparazzi. Le trafic est envoy´e dans un seul sens ; des nœuds vers la station sol ; – 4`eme sc´enario : r´ealisation du sc´enario 3 avec des ´echanges entre les nœuds et la station de contrˆole d’une part et entre les nœuds d’autres part. Pour les sc´enarios 2, 3 et 4 nous avons essay´e de garder le mˆeme principe que l’exp´erimentation pr´ec´edente (figure 5.11). Deux nœuds s’´eloignent simultan´ement de la station sol. Par la suite, l’un d’eux s’arrˆete alors que l’autre continue son chemin et perd sa liaison directe avec la station sol. Apr`es une courte p´eriode dans cet ´etat, les nœuds reviennent ensemble `a leurs positions initiales. 1 2 1 2 1 2 Figure 5.11 – Sc´enario des exp´erimentations 5.3.2.1 Validation du fonctionnement du contrˆoleur d’admission Cette exp´erimentation a pour but la validation des m´ecanismes de DAN pour la gestion des demandes Premium d´epassant sa capacit´e. Pour cela, le sc´enario simul´e dans la section 4.2.1 est r´eutilis´e ; deux nœuds fixes sont situ´es `a la port´ee l’un de l’autre (un ´emetteur et un r´ecepteur). La source a trois flux Premium `a envoyer qui d´epassent sa capacit´e totale : – Premium 1 : 10 Mbits/s ;5.3. RESULTATS ET DISCUSSION ´ 129 – Premium 2 : 5 Mbits/s ; – Premium 3 : 15 Mbits/s. La capacit´e totale du Premium dans le r´eseau est fix´ee `a 20 Mbits/s. L’admission est r´ealis´ee selon l’ordre chronologique de r´eception des requˆetes de r´eservation de ressources. Th´eoriquement, le CA peut accepter uniquement deux trafics (soit le 1 et le 2, soit le 2 et le 3). La troisi`eme application sera notifi´ee dans le but de pouvoir initialiser une proc´edure de n´egociation avec le r´eseau. Uniquement pour cette exp´erimentation, nous consid´erons que le flux non admis par le contrˆoleur d’admission continue `a ´emettre son trafic sans d´egradation de qualit´e, dans le but d’´etudier la r´eaction de DAN face `a ce trafic Premium non admis par le contrˆoleur d’admission. Taux de Perte Le tableau 5.3 pr´esente les taux de perte mesur´es pour les diff´erentes classes de trafic. Flux 1 et Flux2 Flux 3 Pertes dues `a la congestion 0 56.12 Pertes totales 0.5 60.32 Table 5.3 – Taux de perte mesur´e pour les diff´erents flux de trafic (%) Les flux 1 et 2 trait´es comme flux Premium ont perdu 0,5% de leurs paquets alors que le flux 3 qui n’a pas r´eussi a r´eserver les ressources n´ecessaires, a ´et´e consid´er´e comme un trafic Best-effort et il a perdu 60,32% de la totalit´e de ses paquets. Ces pertes sont dues aux plusieurs facteurs comme les collisions, la congestion ou mˆeme des probl`emes li´es aux mat´eriels. Les pertes par congestion du syst`eme sont caus´ees par le rejet des paquets suite `a la saturation de la file d’attente appropri´ee `a cette classe de trafic. La diff´erence entre les trois flux est remarquable (0% pour les flux 1 et 2 et 56,12% pour le flux 3). Nous remarquons que le flux 3 a ´et´e trait´e comme du trafic Best-effort puisqu’il n’a pas ´et´e admis par le contrˆoleur d’admission. D´elai de bout en bout Le d´elai de bout en bout est d´efini par le temps de transfert d’un paquet de bout en bout (entre l’´emetteur et le r´ecepteur). Il tient compte du temps de propagation du paquet le long du chemin vers sa destination ainsi que du temps de traitement au niveau des deux extr´emit´es et de chaque nœud interm´ediaire (comme le temps pass´e dans les files d’attente, etc).130CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´ Le tableau 5.4 pr´esente les d´elais mesur´es pour les flux ´echang´es dans le r´eseau. Flux 1 et Flux 2 Flux 3 D´elai de bout en bout (ms) 1.346 71.409 Table 5.4 – D´elais de bout en bout mesur´es pour les flux envoy´es (ms) Nous remarquons une grande diff´erence entre le d´elai mesur´e pour le flux 1 et 2 (1,346 ms) et celui mesur´e pour le flux 3 (71,409 ms). En effet, l’´emission des paquets du flux 3, consid´er´es comme du trafic Best-effort, est retard´ee afin de respecter la priorit´e accord´ee aux paquets Premium. D´ebit de transmission La figure 5.12 pr´esente le d´ebit mesur´e pour chaque flux de trafic. Ces valeurs sont mesur´ees chaque seconde. 0 2000 4000 6000 8000 10000 12000 14000 16000 0 100 200 300 400 500 600 débit (kbits/sec) Flux 3 Temps (sec) Débit=f(t) Flux 1 et 2 Figure 5.12 – D´ebits mesur´es pour les diff´erents flux de trafic Les courbes montrent une diff´erence remarquable entre le d´ebit des flux 1 et 2 et le d´ebit de flux 3 et confirme le fait que le flux 3 est consid´er´e comme un trafic Best-effort, contrairement aux flux 1 et 2 qui b´en´eficient des d´ebits demand´es.5.3. RESULTATS ET DISCUSSION ´ 131 Cette exp´erimentation montre la capacit´e de DAN `a contrˆoler les ´emissions de flux Premium, `a respecter les priorit´es entre les classes de trafic et `a garantir les ressources n´ecessaires pour les flux Premium admis. 5.3.2.2 Test de saturation de canal Les m´ecanismes de gestion de QdS doivent g´erer le cas de congestion du r´eseau tout en garantissant les priorit´es et la QdS demand´ee pour chaque classe de trafic. Cette exp´erimentation a pour but d’´etudier le fonctionnement de DAN dans un cas de congestion du r´eseau afin de valider ses m´ecanismes. Pour saturer le canal, nous avons utilis´e le mˆeme sc´enario d´ecrit pr´ec´edemment, deux nœuds envoient du trafic vers une seule station sol. Chaque nœud ´emet un trafic constitu´e de : – Urgent : 7 kbits/s ; – Premium : 5 Mbits/s ; – Best-effort : 15 Mbits/s. La capacit´e totale du Premium est fix´ee `a 10 Mbits/s. Ce sc´enario est r´ealis´e deux fois ; une premi`ere fois avec les m´ecanismes de gestion de QdS de DAN et une deuxi`eme avec le syst`eme de communication ad hoc ordinaire (sans les m´ecanismes QdS de DAN) dans le but de pouvoir comparer les r´esultats obtenus qui sont pr´esent´es dans les paragraphes suivants. Taux de perte Les figures 5.13 pr´esentent le taux de perte par classe de trafic mesur´es pour chaque syst`eme (avec et sans DAN). La premi`ere constations concernant ce graphe 5.13b est l’ordonnancement des barres de l’histogramme. Le taux de perte le plus faible est accord´e `a la classe Urgent alors que la classe Besteffort pr´esente le plus de pertes. Cela montre que DAN respecte les priorit´es entre les diff´erentes classes de trafic. De plus nous remarquons, une am´elioration au niveau du taux des pertes du trafic Premium qui passe de 50,37% `a 37,175%. Cette am´elioration est due au fait que la classe Premium est plus prioritaire que la classe Best-effort. En effet, avec DAN, les paquets Best-effort laissent la priorit´e d’´emission aux paquets Premium. Par cons´equent, ils se cumulent dans la file d’attente en attendant leur tour pour ˆetre ´emis et causent la saturation. Chaque file d’attente a une capacit´e de stockage limit´ee. Une fois satur´ee, elle commence `a jeter les nouveaux paquets Best-effort arrivant. En cons´equence, le nombre de paquets Best-effort d´etruits par la file d’attente `a cause de la congestion augmente (passe de 41,60% `a 54,350%) alors que ceux de la classe Premium et la classe Urgent diminuent.132CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´ Sans DAN (a) 0 10 20 30 40 50 60 Urgent Prem ium Best -Effort Pert es (%) Pert es 32 50.37 41.69 Avec DAN (b) 0 10 20 30 40 50 60 Urgent Prem ium Best-Effort Pert es (%) Pert es 17 37.175% 54.359 Figure 5.13 – Taux de perte mesur´es pour chaque classe de trafic avec et sans DAN En plus de la congestion, ces pertes sont caus´ees par d’autres ph´enom`enes comme la perte de connectivit´e et les collisions dues aux interf´erences. La figure 5.5 pr´esente le taux de perte caus´ees uniquement par congestion. Ces pertes sont mesur´ees au niveau de chaque file d’attente : Taux de perte par congestion = N ombre de paquets detruits ´ N ombre de paquets total Urgent Premium Best-effort Pertes dues `a la congestion 0 0 31.928 Table 5.5 – Taux de perte dues `a la congestion du r´eseau Aucun paquet des deux classes Urgent et Premium n’a ´et´e d´etruit par congestion.5.3. RESULTATS ET DISCUSSION ´ 133 D´elai de bout en bout Le d´elai est calcul´e en se basant sur les fichiers d’enregistrement de trafic. Nous calculons l’intervalle de temps entre le moment de r´eception (au niveau du r´ecepteur final) et le moment d’´emission (au niveau du nœud source). La figure 5.14 pr´esente les d´elais de bout en bout calcul´es pour chaque classe de trafic durant les deux exp´erimentations r´ealis´ees (sans et avec DAN). Sans DAN (a) 0 50 100 150 200 250 300 350 400 Urgent Prem ium Best -E ort Délai7(ms) Délai 429.5245 382.44 378.139 Avec DAN (b) 0 100 200 300 400 500 600 700 Urgent Prem ium Best -Effort Délai.(ms) Délai 202.3 596 711.6 Figure 5.14 – D´elais mesur´es pour chaque classe de trafic avec et sans DAN Comme pour les taux de perte, la premi`ere chose que nous remarquons est l’organisation du format des barres de l’histogramme 5.14b. Il est clair que la classe Urgent a le d´elai le plus faible (202,3 ms) alors que la classe Best-effort a le d´elai le plus important (711,6 ms). En effet, pour respecter la priorit´e entre les diff´erentes classes de trafic, le syst`eme retarde l’´emission des paquets Best-effort. Ces paquets doivent attendre leurs tours d’´emission jusqu’`a ce que les files Premium et Urgent soient vides ce qui explique l’´ecart entre les d´elais des diff´erentes classes de trafic.134CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´ Sans DAN, les paquets sont trait´es de la mˆeme mani`ere, ind´ependamment de leurs classes de trafic. Par cons´equent, il n’y a pas de diff´erence entre les d´elais mesur´es. Par contre, sur la figure 5.14a, nous remarquons que les messages de la classe Urgent ont un d´elai plus ´elev´e que les autres (un d´elai de 429,5245 ms pour les paquets Urgent et un d´elai de l’ordre de 380 ms pour les deux autres classes). Cela s’explique par le fait que les paquets Urgent sont un ph´enom`ene rare puisque le nombre de paquets Urgent envoy´es est beaucoup moins important que celui des classes Premium et Best-effort ce qui p´enalise le calcul des moyennes. La saturation du canal a aussi un effet sur l’augmentation des valeurs du d´elai puisque chaque nœud doit attendre la lib´eration du canal pour pouvoir ´emettre son trafic. D´ebit de transmission Les courbes 5.15 et 5.16 pr´esentent les valeurs de d´ebit mesur´ees durant les deux exp´erimentations (sans et avec DAN) pour les classes Premium et Best-effort. Les valeurs pr´esent´ees sont les moyennes calcul´ees sur des intervalles de 10 secondes pour des valeurs de d´ebit mesur´ees chaque seconde. 500 1000 1500 2000 2500 3000 0 100 200 300 400 500 600 700 800 Débit=(kbits/sec) Prem ium Best-Effort Débit===f(t) Time=(s) Figure 5.15 – D´ebit mesur´e durant l’exp´erimentation sans DAN pour les classes Premium et Best-effort Le tableau 5.6 pr´esente les valeurs minimales, maximales ainsi que les moyennes de valeurs de d´ebit mesur´ees. Il est clair que le d´ebit de la classe Premium est fortement am´elior´e grˆace aux m´ecanismes de gestion de QdS. En effet, la valeur moyenne de d´ebit de la classe Premium est pass´e de 1,374 Mbits/s (avec le syst`eme sans DAN) `a5.3. RESULTATS ET DISCUSSION ´ 135 0 2000 4000 6000 8000 10000 12000 0 100 200 300 400 500 600 700 800 Débit=(kbits/sec) Prem ium Best-Effort Débit==f(t) Temps=(sec) Figure 5.16 – D´ebit mesur´e durant l’exp´erimentation avec DAN pour les classes Premium et Best-effort 8,769 Mbits/s (avec DAN). La forme de la courbe de d´ebit mesur´e pour la classe Premium dans la figure 5.16 montre que DAN a r´eussi `a garantir le d´ebit quasi-stable pour ces flux. Min Max Moyenne Sans DAN Premium 910,31 2236,1 1374,75 Best-effort 999,95 2595,08 1495,86 Avec DAN Premium 7827,64 10015,42 8769,07 Best-effort 0 5093,06 1376,44 Table 5.6 – D´ebit mesur´e pour les classes Premium et Best-effort durant les deux exp´erimentations (kbits/s) Cette exp´erimentation permet de tester l’architecture de DAN dans un cas extrˆeme de saturation du canal. Les r´esultats obtenus montrent que DAN est capable de g´erer la QdS dans un r´eseau congestionn´e. Il classifie le trafic selon la classe demand´ee et respecte les diff´erentes demandes de chaque cat´egorie de trafic. En effet, avec DAN, le trafic de classe Urgent b´en´eficient de la plus haute priorit´e : du d´elai de bout en bout ainsi que du taux de perte les plus faibles. De plus, DAN respecte le d´ebit demand´ee de la classe Premium.136CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´ 5.3.2.3 Evaluation dans le contexte Paparazzi ´ Cette exp´erimentation a pour but d’´etudier l’influence de DAN sur un r´eseau ´echangeant le trafic Paparazzi en plus d’un trafic de transmission vid´eo de qualit´e HD (Haute D´efinition) en temps r´eel. Les deux nœuds utilis´es dans cette exp´erimentation ´emettent leurs trafics dans un seul sens ; vers la station sol (liaison descendante). Le trafic vid´eo est de capacit´e 1.5 Mbits/s. Il est cr´e´e par un g´en´erateur de trafic CBR (Constant Bit Rate) ´emettant des paquets UDP de taille fixe (187,5 Octets chaque 1 ms). L’exp´erimentation a dur´e 800 secondes et nous a permis de calculer le taux de perte, le d´elai ainsi que le d´ebit de chaque classe de trafic. Taux de perte Les r´esultats montrent que ce trafic ne congestionne pas le r´eseau. En effet, le taux de perte caus´ee par congestion au niveau des files d’attentes est ´egal `a z´ero. Dans ce cas, les pertes mesur´ees (pr´esent´ees dans le tableau 5.7) sont la cause des probl`emes de r´eseau, comme les collisions ou les pertes de connectivit´e entre les nœuds dues `a une instabilit´e au niveau du protocole de routage. Urgent Premium Best-effort Pertes dues `a la congestion 0 0 0 Pertes totales 1.2 8.67 9.5 Table 5.7 – Taux de perte mesur´e pour chaque classe de trafic (%) D´elai de bout en bout Contrairement au taux de perte, le d´elai de bout en bout peut cr´eer la diff´erence dans ce cas. En effet, bien que ce trafic ne congestionne pas les files d’attente, il les oblige `a retarder l’´emission de certains paquets dans le but de respecter la priorit´e de chaque classe de trafic. Le tableau 5.8 pr´esente les d´elais de bout en bout mesur´es pour les diff´erentes classes de trafic durant cette exp´erimentation. Nous remarquons une diff´erence entre le d´elai de la classe Best-effort (26 ms) et celui des deux classes Urgent et Premium (environ 2,7 ms pour chacune) suite au retardement de l’´emission des paquets Best-effort par le syst`eme afin de respecter la priorit´e des autres classes.5.3. RESULTATS ET DISCUSSION ´ 137 Urgent Premium Best-effort D´elai de bout en bout (ms) 2.702 2.729 26.479 Table 5.8 – D´elai mesur´e pour chaque classe de trafic D´ebit de transmission La figure 5.17 et le tableau 5.9 pr´esentent le d´ebit mesur´e durant l’exp´erimentation pour les deux classes de trafic Premium et Urgent. Ces valeurs sont calcul´ees de la mˆeme mani`ere que pour les autres exp´erimentations. Nous mesurons le d´ebit `a chaque seconde. Par la suite, nous calculons la moyenne sur des intervalles de 5 secondes. 0 500 1000 1500 2000 2500 3000 3500 0 100 200 300 400 500 600 700 800 Débit=(kbits/sec) Prem ium Best-Effort Débit=f(t) Temps=(sec) Figure 5.17 – D´ebits mesur´es pour les classes Premium et Best-effort Min Max Moyenne Premium 2220.8 3206 2742,93 Best-effort 500 1989,4 1417,041 Table 5.9 – D´ebits mesur´es pour les deux classes Premium et Best-effort (kbits/s) Les r´esultats montrent que le syst`eme a r´eussi `a fournir le d´ebit optimal pour les flux Premium.138CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´ Comme toutes les autres exp´erimentations, ce sc´enario a ´et´e r´ealis´e plusieurs fois dans le but d’avoir diff´erents cas possibles. Ce qui nous a permis de remarquer que les performances de DAN se d´egradent dans une seule situation. Il s’agit du cas o`u le r´eseau rencontre des probl`emes de connectivit´e. La figure 5.18 pr´esente le d´ebit mesur´e durant une exp´erimentation rencontrant ce probl`eme. Elle montre une baisse de d´ebit pour les deux flux entre 300 sec et 500 sec. 0 500 1000 1500 2000 2500 3000 0 100 200 300 400 500 600 700 800 DébitT(kbits/sec) Prem ium Best-Effort TempsT(sec) Débit=f(t) Figure 5.18 – D´ebit mesur´e durant une exp´erimentation Cette variation est due `a des probl`emes de connexion dans le r´eseau qui peuvent ˆetre caus´es par le protocole de routage ou par des facteurs de mat´eriels. En effet, la figure 5.19, qui pr´esente le nombre de paquets ICMP ´echang´es dans le r´eseau, montre que durant cette p´eriode (300 sec et 500 sec), le nombre de paquets re¸cus est quasi-nul durant cet intervalle de temps. En cons´equence, il est clair que le r´eseau a rencontr´e des probl`emes de connectivit´e entre les nœuds durant cet intervalle de temps. Cette exp´erimentation montre que DAN diff´erencie le trafic ´echang´e dans le syst`eme Paparazzi sans am´elioration de la connectivit´e dans le r´eseau. En effet, il garantit la haute priorit´e (taux de perte et d´elai de bout en bout les plus faibles) pour la classe Urgent ainsi que le d´ebit optimal pour la classe Premium dans la limite de la connectivit´e et des ressources disponibles entre5.3. RESULTATS ET DISCUSSION ´ 139 0 s 100 s 150 s 200 s 250 s 300 s 350 s 400 s 450 s 500 s Paquets Figure 5.19 – Nombre de paquets ICMP ´echang´es les diff´erents nœuds. 5.3.2.4 Evaluation dans le contexte Paparazzi avec des ´echanges ´ dans diff´erentes directions Le but de cette exp´erimentation est d’´etudier l’influence de DAN sur le syst`eme Paparazzi dans le cas o`u les nœuds ´echangent du trafic entre eux et avec la station sol. Ce cas d’´echange cr´ee plus de points de congestion dans le r´eseau. Le trafic utilis´e pour cette exp´erimentation est le mˆeme que celui utilis´e pour l’exp´erimentation pr´ec´edente : trafic Paparazzi en plus de flux vid´eo HD en temps r´eel pour chaque ´emetteur. Les trafics Urgent ainsi que le trafic Premium sont envoy´es des nœuds vers la station sol. Le trafic Best-effort est ´emis entre les nœuds et entre les nœuds et la station sol. Comme pour l’exp´erimentation pr´ec´edente, ce trafic ne congestionne pas le r´eseau. Pour cette raison, nous n’allons pas pr´esenter les taux de perte relev´es. D´elai de bout en bout Le tableau 5.10 pr´esente le d´elai de bout en bout mesur´e pour chaque classe de trafic. Nous remarquons une grande diff´erence entre le d´elai de la classe Urgent (2,4 ms) et celui de la classe Best-effort (30 ms). Cela est dˆu au fait que140CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´ Urgent Premium Best-effort D´elai de bout en bout (ms) 2.4 3.55 30 Table 5.10 – D´elai mesur´e pour chaque classe de trafic (ms) DAN retarde l’´emission des paquets Best-effort pour privil´egier les paquets des classes les plus prioritaires. DAN respecte la diff´erentiation de services et les exigences de chaque classe en termes de d´elai de bout en bout mˆeme dans ce cas de le trafic. 0 500 1000 1500 2000 2500 3000 3500 0 100 200 300 400 500 600 700 800 Débit (kbits/sec) Prem ium Be Débit=f(t) Temps (sec) Figure 5.20 – D´ebits mesur´es pour les deux classes Premium et Best-effort D´ebit de transmission La figure 5.20 pr´esente les d´ebits mesur´es durant l’exp´erimentation des deux classes de trafic Premium et Best-effort. La courbe montre que le d´ebit demand´e pour la classe Premium a ´et´e respect´e. Les r´esultats de cette exp´erimentation montrent que DAN peut s’adapter aux diff´erentes situations de trafic, tout en garantissant une diff´erenciation entre les services utilis´es. DAN est un syst`eme ind´ependant des protocoles MAC et routage.5.3. RESULTATS ET DISCUSSION ´ 141 Conclusion Ce chapitre a pr´esent´e les modifications logicielles et mat´erielles r´ealis´ees dans le but d’int´egrer DAN au syst`eme Paparazzi. Cette int´egration a abouti `a un syst`eme de communication permettant de faciliter le contrˆole d’une flotte de drones coop´eratifs par la station sol, en offrant le support n´ecessaire qui respecte les besoins de diff´erents types de donn´ees ´echang´es `a travers un r´eseau ad hoc. Ce syst`eme diff´erencie le trafic et garantie diff´erents niveau de QdS. Afin d’´evaluer les performances de ce syst`eme dans son environnement r´eel, nous avons r´ealis´e une vari´et´e d’exp´erimentations. Les r´esultats montrent que DAN r´epond aux exigences du syst`eme. Il diff´erencie le service et garantie la QdS demand´ee pour chaque classe. En effet, il limite les pertes des deux classes Urgent et Premium grˆace `a son m´ecanisme d’ordonnancement qui ´elimine les pertes par congestion et garantit le d´elai de bout en bout le plus faible pour ces deux cat´egories de trafic. De plus, il respecte le d´ebit demand´e par les flux Premium grˆace au m´ecanisme de r´eservation de ressources. DAN est un syst`eme qui ne demande pas des modifications complexes au niveau de l’architecture de communication usuelle et qui r´epond au exigence du syst`eme de flotte de drones coop´eratifs.142CHAPITRE 5. IMPLEMENTATION ET PLATE-FORMES DE TESTS ´Chapitre 6 Conclusions et perspectives Contents 6.1 Travaux r´ealis´es . . . . . . . . . . . . . . . . . . . 143 6.1.1 L’architecture DAN . . . . . . . . . . . . . . . . . 144 6.1.2 Int´egration DAN au syst`eme Paparazzi . . . . . . 145 6.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . 147 6.2.1 Perspectives r´eseaux . . . . . . . . . . . . . . . . . 147 6.2.2 Op´erations pour les drones . . . . . . . . . . . . . 149 Ce chapitre r´esume les diff´erentes contributions r´ealis´ees dans le cadre de cette th`ese et pr´esente des id´ees qui peuvent ˆetre trait´ees comme une continuit´e de ce travail. 6.1 Travaux r´ealis´es L’utilisation d’une flotte de drones dans des missions civiles coop´eratives n´ecessite un syst`eme de communication permettant de contrˆoler chaque a´eronef et le connecter `a la station de contrˆole ainsi qu’aux autres drones afin de pouvoir ´echanger diff´erents types de donn´ees. Les r´eseaux ad hoc sont une solution pour garantir un niveau ´elev´e de coordination entre les diff´erents agents de ce syst`eme. Le but de cette th`ese est de cr´eer une nouvelle structure de communication permettant d’offrir au syst`eme Paparazzi un support conscient des besoins de chaque ´emetteur, permettant de faciliter le contrˆole d’une flotte de drones au cours d’une mission coop´erative. Cette structure est capable de r´epondre aux exigences du syst`eme en termes de QdS. En effet, elle doit diff´erencie le 143144 CHAPITRE 6. CONCLUSIONS ET PERSPECTIVES trafic selon les besoins de chaque drone qui peuvent ˆetre variables au cours du temps. Dans ce genre de situations, les drones jouent diff´erents rˆoles dans l’avancement de l’op´eration et ´echangent divers types de message. Par cons´equent, ils ont des besoins sp´ecifiques en termes de communication qui peuvent ´evoluer au cours du temps. Par exemple, les messages contenant des informations critiques sur l’´etat du syst`eme n´ecessitent un maximum de fiabilit´e. Ces messages doivent b´en´eficier du taux de perte et du d´elai de bout en bout les plus faibles. A partir de l’´etude de fichiers d’enregistrement de trafics ´echang´es entre ` les drones Paparazzi et la station de contrˆole, nous avons pu classifier les messages en trois cat´egories essentielles : une premi`ere classe Urgent pour les messages critiques qui n´ecessitent la priorit´e absolue, une deuxi`eme classe Premium destin´ee aux flux de trafic ayant des demandes strictes en termes de QdS et une troisi`eme classe Best-effort qui englobe le reste du trafic qui n’a aucune exigence de QdS. Afin de valider le fonctionnement de ce syst`eme, il est n´ecessaire d’´evaluer ses performances afin de pr´edire les probl`emes qui peuvent l’affecter en environnement r´eel. Pour notre ´etude nous nous sommes bas´e sur deux moyens d’´evaluations qui sont la simulation et l’exp´erimentation r´eelle. 6.1.1 L’architecture DAN DAN est l’architecture de communication que nous proposons en r´eponse aux exigences pr´esent´ees dans la section pr´ec´edente. Elle groupe des m´ecanismes de gestion de QdS permettant de diff´erentier le trafic et de garantir les besoins demand´ees pour chaque classe. La sp´ecificit´e de DAN est d’offrir `a l’application la possibilit´e de g´erer les besoins en QdS de ses flux grˆace `a son API permettant d’´echanger des informations concernant la capacit´e du r´eseau. Par cons´equent, c’est `a l’application seule de d´ecider d’annuler son ´emission ou de d´egrader sa qualit´e et de n´egocier avec le r´eseau. DAN permet au niveau applicatif d’exprimer les besoins de chaque flux en termes de QdS. Ainsi, Il re¸coit des renseignements sur chaque flux `a ´emettre pour pouvoir le classer et marquer ses paquets selon sa cat´egorie de trafic. Par la suite, un algorithme d’ordonnancement est utilis´e permettant de retarder l’´emission des classes les moins prioritaires pour respecter la priorit´e des autres classes. Pour la cat´egorie Premium, DAN offre une garantie stricte sur la QdS grˆace `a son m´ecanisme de r´eservation de ressources. Le but de limiter l’utilisation6.1. TRAVAUX REALIS ´ ES´ 145 de la signalisation uniquement pour la classe Premium est d’´economiser la capacit´e du r´eseau. Afin de respecter la QdS sans p´enaliser la classe Best-effort qui repr´esente plus de 60% du trafic ´echang´e, nous avons fix´e la capacit´e totale du trafic Premium dans le syst`eme. Plus pr´ecis´ement, il s’agit d’une limitation du maximum de bande passante utilisable pour les flux Premium (cette valeur est ´egale `a 20% de la capacit´e totale du canal de transmission). DAN est capable de garantir la QdS demand´ee pour chaque flux dans la limite de cette capacit´e. Bien que dans d’autres situations, cette m´ethode puisse ˆetre la cause d’un gaspillage de bande passante puisqu’elle oblige les flux `a respecter leur limite de d´ebit, mˆeme s’il n’y a pas de congestion, elle est adapt´ee `a notre syst`eme qui ´echange plus de trafic Best-effort que de Premium car elle permet de ne pas d´egrader les autres flux. Afin de cr´eer un environnement proche de la r´ealit´e permettant d’´etudier les performances de DAN et de pr´edire les probl`emes qui peuvent affecter le syst`eme dans un environnement r´eel, nous avons con¸cu un mod`ele de mobilit´e reproduisant les vrais mouvements d’un drone Paparazzi, PPRZM. PPRZM met en œuvre des types de mouvement qui ne sont pas pris en compte par les autres mod`eles de mobilit´e ordinaires (comme la r´ep´etition d’un mˆeme mouvement plusieurs fois dans la mˆeme zone ou les mouvements d’aller-retour, etc). Nous avons choisi d’utiliser ce mod`ele de mobilit´e puisque dans le cas d’une flotte de drones, l’obtention des traces de plusieurs a´eronefs est difficile `a cause de la complexit´e de lancement de plusieurs vols. PPRZM offre la possibilit´e de faire varier les param`etres de simulation comme la dur´ee du sc´enario ou le nombre de drones utilis´es dans le but d’´etudier une diversit´e de cas possibles. Ce qui nous a permis de cr´eer des sc´enarios de simulation difficiles `a r´ealiser avec des drones r´eels ¸c cause, par exemple, du nombre ´elev´e d’a´eronefs utilis´es. 6.1.2 Int´egration DAN au syst`eme Paparazzi Une ´etape importante de cette th`ese, est l’int´egration de DAN au syst`eme Paparazzi. Cette int´egration permettra au syst`eme Paparazzi de passer de sa m´ethode de contrˆole classique en ´etoile `a travers un r´eseau 802.15.4 supportant des ´emissions point `a multi-points (sur la liaison montante) et point `a point (sur la liaison descendante), vers une autre m´ethode utilisant un r´eseau maill´e offrant la possibilit´e d’adresser chaque nœud par une adresse IP. Pour la r´ealisation, des modifications mat´erielles et logicielles ont ´et´e n´ecessaires afin de pouvoir impl´ementer l’architecture DAN et de l’int´egrer au syst`eme de communication de Paparazzi.146 CHAPITRE 6. CONCLUSIONS ET PERSPECTIVES Ce nouveau syst`eme de communication a ´et´e ´etudi´e par des exp´erimentations r´eelles dans plusieurs situations. Les r´esultats de ces ´etudes montrent que DAN est capable de r´epondre aux exigences du syst`eme. En effet, il diff´erentie le service et garantit la QdS demand´ee pour chaque classe de trafic. Pour les messages de la classe Urgent, il offre la priorit´e absolue se traduisant par un taux de perte et un d´elai de bout en bout les plus faibles et garantit le d´ebit demand´e pour chaque flux de trafic Premium. Pour ces deux classes, DAN r´eduit au maximum les pertes puisque il ´elimine les pertes dues `a la congestion du syst`eme. En outre, les r´esultats montrent que mˆeme dans les r´eseaux les plus congestionn´es, DAN g`ere la situation sans trop p´enaliser le trafic Best-effort. Apr`es avoir r´ealis´e notre ´etude avec deux moyens diff´erents : la simulation et les exp´erimentations r´eelles, nous pouvons comparer les deux, loin des d´efinitions et des comparaisons th´eoriques explicit´ees dans la litt´erature. Nous avons rencontr´e quatre diff´erences majeurs : – Impl´ementation du syst`eme : l’impl´ementation du nouveau module ou protocole au niveau d’un simulateur r´eseau est plus simple qu’une impl´ementation r´eelle puisqu’elle est plutˆot guid´ee, en utilisant des modules virtuels (des classes) imitant les fonctionnalit´es de l’architecture de communication (IP, applications, UDP, ARP, etc.) alors que pour l’impl´ementation r´eelle, il fallait traiter diff´erents processus et choisir les librairies qui aident `a manipuler l’architecture Linux ; – Les sc´enarios : les sc´enarios de simulation sont caract´eris´es par leur simplicit´e de r´ealisation et leur flexibilit´e. En effet, ils supportent la d´efinition de situations d´elicates avec un nombre de drones ´elev´e, plusieurs r´ep´etitions, longues dur´ees de simulation, etc. Au contraire, les sc´enarios d’exp´erimentation r´eelles sont moins flexibles notamment pour le nombre de mobiles, les r´ep´etitions et le lancement qui n´ecessitent la pr´esence de plusieurs personnes et des facteurs m´etrologiques convenables (pas de pluie et pas de vents forts) ; – Contrˆole des r´esultats : avec le simulateur, l’enregistrement de l’historique du syst`eme est r´ealis´e d’une mani`ere automatique sans aucun coˆut pour le syst`eme ´etudi´e. Par contre, ces donn´ees peuvent couter cher pour les exp´erimentations r´eelles en termes de m´emoire et de bande passante (si elles sont collect´ees en temps r´eel). Dans ce cas, il faut optimiser les donn´ees `a enregistrer au maximum pour ne pas affecter les performances du syst`eme ; – Facteurs affectant les r´esultats : plusieurs facteurs ne sont pas pris en compte par le simulateur r´eseau pourtant ils ont une influence sur les performances du syst`eme comme la capacit´e du canal de transmission qui se d´egrade ´enorm´ement dans le cas r´eel alors que pour le simu-6.2. PERSPECTIVES 147 lateur elle garde sa valeur th´eorique, les batteries limit´ees, les pannes mat´erielles ou logicielles et mˆeme les ´echecs et l’instabilit´e du protocole de routage qui peuvent causer des pertes de connectivit´e dans le vrai syst`eme. En outre, nous avons remarqu´e la sensibilit´e du syst`eme sans fil r´eel face aux interf´erences et aux obstacles ainsi que l’impact de la distance entre les nœuds sur la qualit´e des liens entre eux. Toutes ces diff´erences entre la simulation et les exp´erimentations r´eelles montrent que ces deux moyens sont compl´ementaires. En effet, la simulation facilite la r´ealisation d’´etudes de sc´enarios d´elicats alors que l’exp´erimentation r´eelle met le syst`eme dans son environnement d’application r´eel entour´e de tous les obstacles qui peuvent affecter ses performances. La r´ealisation de l’architecture DAN a abouti `a une plate-forme de test qui peut ˆetre utilis´ee pour la r´ealisation d’autres exp´erimentations pour des protocoles de communication con¸cus pour les drones. 6.2 Perspectives Si cette th`ese apporte des am´eliorations dans le cadre des communications pour les drones l´eger civils, plusieurs pistes de travaux futurs se dessinent. 6.2.1 Perspectives r´eseaux Cette section pr´esente des id´ees et des am´eliorations possibles pour renforcer les travaux r´ealis´es dans le domaine de la recherche r´eseau. Protocole de routage muti-chemin Il serait int´eressant d’associer l’architecture DAN avec un protocole de routage multi-chemin, qui permet d’´etablir plusieurs routes entre chaque source et destination. AOMDV est un exemple de ces protocoles. Il permet d’´etablir des routes disjointes qui ne partagent aucun nœud interm´ediaire entre chaque source et sa destination. AOMDV permet d’am´eliorer les performances de AODV en termes de d´elai et ´echanges de messages de contrˆole dans le r´eseau. Avec un grand nombre de nœuds, cette proposition offre `a DAN la possibilit´e de r´epartir la charge dans le r´eseau selon la classe et les besoins du trafic en termes de QdS. En effet, dans le cas d’´echec de r´eservation de ressources pour un flux Premium, le syst`eme peut tenter directement une148 CHAPITRE 6. CONCLUSIONS ET PERSPECTIVES nouvelle r´eservation en passant par une route alternative. En cons´equence, entre chaque nœud source et sa destination, les paquets Premium peuvent traverser diff´erentes routes. Cette am´elioration permettra de r´epartir la charge dans de grands r´eseaux ce qui am´eliore les performances du syst`eme en termes de d´elai, de pertes et de d´ebit pour les deux classes de trafic Premium et Best-effort. QdS et interf´erences Pour mieux adapter DAN aux grands r´eseaux dynamiques, il pourrait ˆetre compl´et´e par un m´ecanisme permettant d’estimer la bande passante disponible localement en tenant compte des interf´erence caus´ees par les voisins. Afn de respecter toutes les exigences de conception de l’architecture DAN, ce m´ecanisme doit ˆetre ind´ependant du niveau MAC et doit consommer le minimum de ressources possibles. Deux possibilit´e peuvent ˆetre utilis´ees ainsi : – Emission de signalisation sp´ecifique p´eriodiquement par le contrˆoleur ´ d’admission pour sonder la qualit´e du canal ; – Utilisation des messages de contrˆole du protocole de routage comme indication sur la qualit´e du canal ; – Utilisation des mesures passives sur le trafic re¸cu. Ces m´ecanismes permettent d’augmenter la certitude de l’estimation du d´ebit disponible localement au niveau de chaque nœud ce qui am´eliore les performances du syst`eme notamment dans les r´eseaux tr`es dynamique. Adaptation de la dur´ee du minuteur utilis´e par DAN avec d’autres application Dans le but d’adapter DAN `a d’autres sc´enarios d’utilisation, la dur´ee de l’intervalle WTC pourrait varier avec chaque flux de trafic Premium. En effet, elle pourrait prendre en compte l’intervalle de temps qui s´epare l’´emission de deux paquets de donn´ees cons´ecutifs ou encore le temps de traitement au niveau de chaque nœud interm´ediaire puisque cette dur´ee varie selon la capacit´e du syst`eme utilis´e. Cette am´elioration permettrait de fixer une dur´ee maximale d’attente en fonction des caract´eristiques de chaque flux et la capacit´e des nœuds dans le r´eseau. Simulations et mod`ele de mobilit´e Afin de garantir un environnement de simulation pour les r´eseaux ad hoc de drones, plus proche de la r´ealit´e, le mod`ele de mobilit´e PPRZM pourrait ˆetre compl´et´e par des modifications. Tout d’abord, il pourrait g´en´erer des mouvements pour un essaim de drones (swarm). Plus pr´ecis´ement, les drones6.2. PERSPECTIVES 149 auront la possibilit´e de bouger en coordination totale : de r´ealiser le mˆeme mouvement, au mˆeme moment mais chacun dans sa position. De plus, il est possible de compl´eter PPRZM aussi par d’autres mouvements non support´es par les drones Paparazzi qui impliquent une variation de l’altitude (comme les rotations en spirale verticale en montant ou descendant). 6.2.2 Op´erations pour les drones Cette th`ese apporte des nouveaut´es dans le cadre des communications de drones civils ce qui permet de cr´eer de nouvelles op´erations et de d´evelopper de nouvelles capacit´es complexes puisqu’elle offre une m´ethode plus simple pour contrˆoler les a´eronefs en garantissant les besoins en termes de QdS pour chaque service. Tout d’abord, ce travail a abouti `a un nouveau syst`eme de communication pour l’auto-pilote Paparazzi qui peut ˆetre mis en disposition de toute la communaut´e qui utilise ce syst`eme libre. En cons´equence, il permettra de r´ealiser les missions con¸cues pour les flottes de drones et n´ecessitant ce moyen de contrˆole des drones. En outre, il serait int´eressant d’optimiser les fonctionnalit´es du syst`eme Paparazzi qui ´etaient utilis´ees auparavant avec le syst`eme de contrˆole en ´etoile comme par exemple l’´evitement de collision puisque les drones ne communiquaient pas ensemble directement, c’est la station de contrˆole qui d´etectait la possibilit´e d’avoir une collision en recevant p´eriodiquement les positions des a´eronefs, et par la suite, elle informait les a´eronefs concern´es pour qu’ils l’´evitent. De plus, ce nouveau syst`eme pourrait ˆetre utilis´e pour tester de nouvelles fonctionnalit´es qui permettront d’utiliser les drones dans de nouvelles missions plus performantes. Ces fonctionnalit´es pourront changer leurs modes de fonctionnement selon la disponibilit´e des ressources dans le r´eseau puisqu’elles peuvent ˆetre `a jour de la capacit´e du r´eseau grˆace `a ses ´echanges `a travers l’API DAN. Par exemple, le drone peut modifier la r´esolution de sa vid´eo ´emise en fonction de la capacit´e du r´eseau.150 CHAPITRE 6. CONCLUSIONS ET PERSPECTIVESPublications Conf´erences internationales avec comit´e de lecture – Ouns BOUACHIR, Fabien GARCIA, Nicolas LARRIEU, Thierry GAYRAUD. Ad hoc Network QoS Architecture For Cooperative Unmanned Aerial Vehicles (UAVs). Wireless Days (WD), 2013 IFIP , vol., no., pp.1,4, 13-15 Nov. Valencia, Spain 2013. – Ouns Bouachir, Alinoe Abrassart, Fabien Garcia, Nicolas Larrieu. A Mobility Model For UAV Ad hoc Network. 2014 International Conference on Unmanned Aircraft Systems (ICUAS) May 27-30, 2014. Orlando, FL, USA Conf´erences nationales – Ouns BOUACHIR, Fabien GARCIA, Nicolas LARRIEU, Thierry GAYRAUD. Conception et Impl´ementation d’une Architecture de Communication pour Agents Mobiles Coop´eratifs. 14`eme Congr`es des Doctorants EDSYS (Ecole Doctorale Syst`emes), Tarbes, France, ´ 2013 Rapports techniques – 2 d´elivrables pour le projet D3CoS. 151152 CHAPITRE 6. CONCLUSIONS ET PERSPECTIVESAcronymes AANET Aeronautical Ad hoc Network ACK Acquittement AG Assured Forwarding AMUAV Adaptive MAC protocol for UAV AODV Ad hoc On-Demand Distance Vector AOMDV Ad hoc Multi-path Distance Vector API Application Programming Interface PBQMRP Position Based QoS Multi-cast Routing Protocol CA Contrˆoleur d’admission CEDAR Core-Extraction Distributed Ad hoc Routing CO Consigne de l’Op´erateur CSI Channel State Information CSMA/CA Carrier Sense Multiple Access avec Collision Avoidance CTS Clear To Send D3CoS Designing Dynamic Distributed Cooperative Human-Machine Systems DAN DCoS Ad hoc Network DCF Distributed Coordination Function DCoS Distributed Cooperative Human-Machine Systems DiffServ Differentiated Services DOLSR Directional Optimized Link State Routing DSDV Destination-Sequenced Distance Vector DSR Dynamic Source Routing DTN Delay Tolerant Network ECN Explicit Congestion Notification 153154 CHAPITRE 6. CONCLUSIONS ET PERSPECTIVES EDCA Enhanced Distributed Channel Access EF Expeditd Forwarding EHSR Extended Hierarchical State Routing FIFO First In First Out FQMM Flexible QoS Model for MANETs GCS Ground Control Station GPMOR Geographic Position Mobility Oriented Routing GPRS General Packet Radio Service GPS Global Positioning System GPSR Greedy Perimeter Stateless Routing GSM Global System for Mobile Communications HAP High altitude platform HiperLAN High Performance radio LAN IETF Internet Engineering Task Force INSIGNIA In-Band Signaling Support for QoS In Mobile Ad hoc Networks IntServ Integrated Services IO Informations de l’Op´eration IP Internet Protocol IS Informations du Syst`eme LAROD Location Aware Routing for Opportunistic Delay Tolerant Libnl Netlink Protocol Library LODMAC Location Oriented Directional MAC protocol LTE Long Term Evolution MAC Media Access Control MAR Mobile Agent Routing MANET Mobile Ad hoc Network MC Messages de Contrˆole MC-TRACE Multicasting Time Reservation using Adaptive Control for Energy Efficiency MH-TRACE Multi-Hop Time Reservation using Adaptive Control for Energy Efficiency MPLS Multi-Protocol Label Switching MPR Multi-packet reception6.2. PERSPECTIVES 155 MTT Methods, Techniques and tools OMNET++ Objective Modular Network Testbed in C++ OSLR Optimized Link State Routing Protocol PCF Point Coordination Function PHB Per Hop Behavior PPRZM Paparazzi Mobility PSTN Public Switched Telephone Betwork QdS Qualit´e de Service RD Random Direction RGR Reactive-Greedy-Reactive routing protocol RREQ Route Request RREP Route Reply RERR Route Error RSVP Resources Setup Reservation Protocol RTP Real-time Transport Protocol RTS Request To Send RWP Random Way-Point SCTP Stream Control Transmission Protocol SD Safe Distance SRCM Semi-Random Circular Movement SWAN Stateless Wireless Ad hoc Network TARF Task Agent Resource Function TCP Transmission Control Protocol TDMA Time DivisionMultiple Access TG Tˆete de groupe ToS Type os Service TTL Time To Live UAANET UAV Ad hoc Network UAV Unmanned Aerial System UAV Unmanned Aerial Vehicle UDP User Datagrame Protocol UMTS Universal Mobile Telecommunications System156 CHAPITRE 6. CONCLUSIONS ET PERSPECTIVES USMP UAV Search Mission Protocol VANET Vehicular Ad hoc Network WAVE Wireless Access in Vehicular Environment WiMAX Worldwide Interoperability for Microwave Access WPAN Wireless Personnal Area Network WSN Wireless Sensor Network WTC Wait To Clear WTS Wait To Send XTP Xpress Transfer ProtocolBibliographie [AD10a] A.I. Alshbatat and Liang Dong. Adaptive mac protocol for uav communication networks using directional antennas. In International Conference on Networking, Sensing and Control (ICNSC), IEEE, 2010. [AD10b] A.I. Alshbatat and Liang Dong. Cross layer design for mobile ad-hoc unmanned aerial vehicle communication networks. In International Conference on Networking, Sensing and Control (ICNSC), IEEE, 2010. [AHAN05] A. Al Hanbali, E. Altman, and P. Nain. A survey of tcp over ad hoc networks. Communications Surveys Tutorials, IEEE, 7(3) :22–36, Third 2005. [BBC+98] S. Blake, D. Black, M. Carlson, E. Davies, Z. Wang, and W. Weiss. An architecture for differentiated services. IETF RFC 2475, December 1998. [BCS94] R. Braden, D. Clark, and S. Shenker. Integrated services in the internet architecture. RFC 1633, Jun. 1994. [BDJH04] Timothy X Brown, Sheetalkumar Doshi, Sushant Jadhav, and Jesse Himmelstein. Test bed for a wireless network on small uavs. pages 20–23, 2004. [BEB+97] R. Braden, L. Zhang Ed., S. Berson, S. Herzog, and S. Jamin. Resource reservation protocol (rsvp). IETF RFC 2205, September 1997. [Bes13] Frederic Besse. Reseaux ad hoc aeronautiques. PhD thesis, Ecole Nationale de l’Aviation Civile (ENAC), 2013. [BGL08] Sunghyun Choi Byeong Gi Lee. Broadband Wireless Access and Local Networks : Mobile WiMax and WiFi. Artech House mobile communications series, 2008. [BJ12] O. Bazan and M. Jaseemuddin. A survey on mac protocols for wireless adhoc networks with beamforming antennas. Com- 157158 BIBLIOGRAPHIE munications Surveys Tutorials, IEEE, 14(2) :216–239, Second 2012. [Blo] John David Blom. Unmanned Aerial Systems : A Historical Perspective, chapter 1 and 2, pages 1–12 and 45–49. CreateSpace Independent Publishing Platform (September 1, 2010). [Blu] Bluetooth. https ://www.bluetooth.org/en-us. [BST13] Ilker Bekmezci, Ozgur Koray Sahingoz, and Samil Temel. Flying ad-hoc networks (fanets) : A survey. Ad Hoc Networks, 11(3) :1254–1270, 2013. [BT11] P.-B. Bok and Y. Tuchelmann. Context-aware qos control for wireless mesh networks of uavs. In Computer Communications and Networks (ICCCN), 2011 Proceedings of 20th International Conference on, pages 1–6, July 2011. [BVH07] Brett Bethke, Mario Valenti, and Jonathan How. Cooperative vision based estimation and tracking using multiple uavs. In Conference of Cooperative Control and Optimization, 2007. [CBD02] Tracy Camp, Jeff Boleng, and Vanessa Davies. A survey of mobility models for ad hoc network research. In Wireless Communications mobile Computing (WCMC) : Special Issue On Mobile Ad hoc Networking, Research, Trends and Applications, volume 2, pages 483–502, 2002. [CBM+05] D.W. Casbeer, R.W. Beard, T.W. McLain, Sai-Ming Li, and R.K. Mehra. Forest fire monitoring with multiple small uavs. In American Control Conference, 2005. Proceedings of the 2005, volume 5, 8-10, pages 3530– 3535, June 2005. [CHKV06] Chen-Mou Cheng, Pai-Hsiang Hsiao, H. T. Kung, and D. Vlah. Performance measurement of 802.11a wireless links from uav to ground nodes with various antenna orientations. In International Conference on Computer Communications and Networks, ICCCN, 2006. [CJS+10] Jung Il Choi, Mayank Jain, Kannan Srinivasan, Philip Levis, and Sachin Katti. Achieving single channel, full duplex wireless communication. In ACM MobiCom’10 (Chicago, IL), 2010. [CLM+11] S. Chaumette, R. Laplace, C. Mazel, R. Mirault, A. Dunand, Y. Lecoutre, and J-N Perbet. Carus, an operational retasking application for a swarm of autonomous uavs : First return on experience. In Military Communications Conference, 2011- MILCOM, 2011.BIBLIOGRAPHIE 159 [CSGM13] DE Cook, PA Strong, SA Garrett, and RE Marshall. A small unmanned aerial system (uas) for coastal atmospheric research : preliminary results from new zealand. Journal of the Royal Society of New Zealand, 43(2) :108–115, 2013. [CYCG07] James R. Clapper, JohnJ. Young, James E. Cartwright, and John G. Grimes. Unmanned systems roadmap 2007-2032. Technical report, Departement of Defense, USA, 2007. [CYL+13] Yegui Cai, F.R. Yu, Jun Li, Yifeng Zhou, and L. Lamont. Medium access control for unmanned aerial vehicle (uav) adhoc networks with full-duplex radios and multipacket reception capability. Vehicular Technology, IEEE Transactions on, 62(1) :390–394, Jan 2013. [dFB08] M. de Fatima Bento. Unmanned aerial vehicles. wo18.15 rking paper Inside GNSS, available on : http ://www.insidegnss.com/auto/janfeb08-wp.pdf, January/February 2008. [ESB+04] D.C. Engelhart, Anand Sivasubramaniam, C.L. Barrett, M.V. Marathe, J.P. Smith, and M. Morin. A spatial analysis of mobility models : application to wireless ad hoc network simulation. In Simulation Symposium, 2004. Proceedings. 37th Annual, pages 35–42, April 2004. [Ete08] K. Etemad. Overview of mobile wimax technology and evolution. Communications Magazine, IEEE, 46(10) :31–40, October 2008. [FHS07] J. Hope Forsmann, Robert E. Hiromoto, and John Svoboda. A time-slotted ondemand routing protocol for mobile ad hoc unmanned vehicle systems. Unmanned System Technology IX, SPIE, 6561, 2007. [GHWL13] Zhaoquan Gu, Qiang-Sheng Hua, Yuexuan Wang, and F.C.M. Lau. Reducing information gathering latency through mobile aerial sensor network. In INFOCOM, 2013 Proceedings IEEE, pages 656–664, April 2013. [GsAS02] A. Veres Gahng-seop Ahn, Andrew T. Campbell and Li-H. Sun. Swan : Service differentiation in stateless wireless ad hoc networks. In Proc. IEEE Infocom, 2002. [GSB09] S. Gowrishankar, S.K. Sarkar, and T. G. Basavaraju. Performance analysis of aodv, aodvuu, aomdv and raodv over ieee 802.15.4 in wireless sensor networks. In Computer Science and160 BIBLIOGRAPHIE Information Technology, 2009. ICCSIT 2009. 2nd IEEE International Conference on, pages 59–63, Aug 2009. [HBM07] M.T. Hyland and M.A. Temple B.E. Mullins, R.O. Baldwin. Simulation-based performance evaluation of mobile ad hoc routing protocols in a swarm of unmanned aerial vehicles. In 21st International Conference on Advanced Information Networking and Applications Workshops, AINAW, 2007. [KK00] Brad Karp and H. T. Kung. Gpsr : Greedy perimeter stateless routing for wireless networks. In Proceedings of the 6th annual international conference on Mobile computing and networking, MobiCom, 2000. [KLHH05] T. Karhima, P. Lindroos, M. Hall, and S.-G. Haggman. A link level study of 802.11b mobile ad-hoc network in military environment. In Military Communications Conference, MILCOM, IEEE, 2005. [KNt06] Erik Kuiper and Simin Nadjm-tehrani. Mobility models for uav group reconnaissance applications. In in Proceedings of International Conference on Wireless and Mobile Communications. IEEE Computer Society. IEEE, 2006. [KNT08] E. Kuiper and S. Nadjm-Tehrani. Geographical routing in intermittently connected ad hoc networks. In 22nd International Conference on Advanced Information Networking and Applications - Workshops. AINAW, 2008. [Kru92] J. Kruys. Hiperlan, applications and requirements. In Third IEEE International Symposium on Personal, Indoor and Mobile Radio Communications, 1992. Proceedings, PIMRC ’92, pp.133-138, 19-21 Oct, 1992. [LC98] Seoung-Bum Lee and Andrew T. Campbell. Insignia : In-band signaling support for qos in mobile ad hoc networks. In Workshop on Mobile Multimedia Communication MoMuc, 1998. [LCT+05] R. Levy, P.S. Carlos, A. Teittinen, L.S. Haynes, and C.J. Graff. Mobile agents routing-a survivable ad-hoc routing protocol. In Military Communications Conference, 2005. MILCOM . IEEE, 2005. [lin] Linux advanced routing & traffic control. http ://www.lartc.org/. [LMB09] R.L. Lidowski, B.E. Mullins, and R.O. Baldwin. A novel communications protocol using geographic routing for swarmingBIBLIOGRAPHIE 161 uavs performing a search mission. In IEEE International Conference on Pervasive Computing and Communications, PerCom, 2009. [LPG06] M. Le, Joon-Sang Park, and M. Gerla. Uav assisted disruption tolerant routing. In Military Communications Conference, IEEE MILCOM, 2006. [LRGM10] L. Lin, M. Roscheck, M. A. Goodrich, and B. S. Morse. Supporting wilderness search and rescue with integrated intelligence : Autonomy and information at the right time and the right place. In Twenty-Fourth AAAI Conference on Artificial Intelligence, AAAI, 2010. [LSLY12] Lin LIN, Qibo SUN, Jinglin LI, and Fangchun YANG. A novel geographic position mobility oriented routing strategy for uavs. Journal of Computational Information Systems, 8 :709– 716, 2012. [LZH+06] Myung Jong Lee, Jianling Zheng, Xuhui Hu, Hsin hui Juan, Chunhui Zhu, Yong Liu, June Seung Yoon, and T.N. Saadawi. A new taxonomy of routing algorithms for wireless mobile ad hoc networks : the component approach. Communications Magazine, IEEE, 44(11) :116 –123, november 2006. [LZH12] Na Li, Weihong Zhu, and Haihua Han. Digital interference cancellation in single channel, full duplex wireless communication. In Wireless Communications, Networking and Mobile Computing (WiCOM), 2012 8th International Conference on, pages 1–4, Sept 2012. [MBAAP02] A. Munaretto, H. Badis, K. Al-Agha, and G. Pujolle. A linkstate qos routing protocol for ad hoc networks. In Mobile and Wireless Communications Network, 2002. 4th International Workshop on, pages 222–226, 2002. [MCL+01] P. Muhlethaler, T. Clausen, A. Laouiti, A. Qayyum, and L. Viennot. Optimized link state routing protocol for ad hoc networks. In IEEE International Multi Topic Conference, IEEE INMIC, 2001. [MD01] M.K. Marina and S.R. Das. On-demand multipath distance vector routing in ad hoc networks. In Ninth International Conference on Network Protocols, 2001. [Mis04] Ajay R. Mishra. Fundamentals of Cellular Network Planning and Optimisation : 2G/2.5G/3G ...Evolution to 4G, volume 4, Issue 6. 19 nov. 2004.162 BIBLIOGRAPHIE [MM06] Mascolo C. Musolesi M. A community based mobility model for ad hoc network research. In REALMAN ’06 Proceedings of the 2nd international workshop on Multi-hop ad hoc networks : from theory to reality, pages 31 – 38, 2006. [MMN+] Jodi A. Miller, Paul D. Minear, Albert F. Niessner, Anthony M. DeLullo, Brian R. Geiger, Lyle N. Long, and Joseph F. Horn. Intelligent unmanned air vehicle flight systems. In Journal of Aerospace Computing, Information, and Communication, Vol. 4, No. 5, 2007, pp. 816. [MRM11] F. Morbidi, C. Ray, and G.L. Mariottini. Cooperative active target tracking for heterogeneous robots with application to gait monitoring. In Intelligent Robots and Systems (IROS), 2011 IEEE/RSJ International Conference on, pages 3608–3613, Sept 2011. [MYM01] M.P. Marios, Y. Yanli, and Kevin M.P. A cooperative search framework for distributed agents. In Proceedings of the 2001 IEEE International Symposium on Intelligent Control, Mexico, 2001. [Pap] Paparazzi. http ://wiki.paparazziuav.org/wiki/Main Page. [PR99a] C.E. Perkins and E.M. Royer. Ad hoc on-demand distance vector routing. In 2nd IEEE Workshop on Mobile Computing Systems and applications, 1999. [PR99b] Charles E. Perkins and Elizabeth M. Royer. Ad hoc on demand distance vector (aodv) routing draft-ietf-manet-aodv- 02.txt. IETF Draft, November 1999. [PZ09] Aveek Purohit and Pei Zhang. Sensorfly : a controlled-mobile aerial sensor network. In Proceedings of the 7th ACM Conference on Embedded Networked Sensor Systems, pages 327–328, 2009. [QAKQ11] M.M. Qabajeh, A.H. Abdalla, O. Khalifa, and L.K. Qabajeh. A tree-based qos multicast routing protocol for manets. In 4th International Conference on Mechanisms (ICOM), IEEE, 2011. [QKWS+10] Markus Quaritsch, Karin Kruggl, Daniel Wischounig-Strucl, Subharata Bhattacharya, and Bernhard Rinner Mubarak Shah. Networked uavs as aerial sensor network for disaster management applications. e & i Elektrotechnik und Informationstechnik, 127, Issue 3 :56–63, 2010. [RAV01] E. Rosen and R. Callon A. Viswanathan. Multiprotocol label switching architecture. IETF RFC 3031, Jan. 2001.BIBLIOGRAPHIE 163 [Roy10] Radhika Ranjan Roy. Handbook of Mobile Ad Hoc Networks for Mobility Models. 2010. [RPG13] M. Royer, A. Pirovano, and F. Garcia. Survey on context-aware publish/subscribe systems for vanet. In 5th Intl Workshop on Communication Technologies for Vehicles May 14-15, 2013 - Lille (France), 2013. [RS07] Ed. R. Stewart. Stream control transmission protocol. IETF, RFC 4960, Septembre 2007. [RZH+04] A. Ryan, M. Zennaro, A. Howell, R. Sengupta, and J.K. Hedrick. An overview of emerging results in cooperative uav control. In 43rd IEEE Conference on Decision and Control, 2004. [SFS+04a] P. Sholander, G. Frank, Sean Swank, J.P. Loyall, and G. Duzan. Multi-layer, mission-aware qos management techniques for ip applications in a joint battlespace infosphere. In Military Communications Conference, 2004. MILCOM 2004. 2004 IEEE, volume 3, pages 1254–1260 Vol. 3, Oct 2004. [SFS+04b] P. Sholander, G. Frank, Sean Swank, J.P. Loyall, and G. Duzan. Multi-layer, mission-aware qos management techniques for ip applications in a joint battlespace infosphere. In Military Communications Conference, 2004. MILCOM 2004. 2004 IEEE, volume 3, pages 1254–1260 Vol. 3, Oct 2004. [Shi11] R. Shirani. Reactive-greedy-reactive in unmanned aeronautical ad-hoc networks : A combinational routing mechanism. Master’s thesis, Carleton University, available on : http ://www.csit.carleton.ca/˜msthilaire/Thesis/Rostam%20Shirani.pdf, 2011. [SKKK03] J. Salim, H. Khosravi, A. Kleen, and A. Kuznetsov. Linux netlink as an ip services protocol. IETF, RFC 3549, Juillet 2003. [Soc03] IEEE Computer Society. Ieee std. 802.15.4-2003, October . 2003. [SSB99] P. Sinha, R. Sivakumar, and V. Bharghavan. Cedar : a coreextraction distributed ad hoc routing algorithm. In INFOCOM ’99. Eighteenth Annual Joint Conference of the IEEE Computer and Communications Societies. Proceedings. IEEE, volume 1, pages 202–209 vol.1, Mar 1999. [SSHK+11] R. Shirani, M. St-Hilaire, T. Kunz, Yifeng Zhou, Jun Li, and L. Lamont. The performance of greedy geographic forwarding164 BIBLIOGRAPHIE in unmanned aeronautical ad-hoc networks. In Ninth Annual Communication Networks and Services Research Conference (CNSR), 2011. [TB13] S. Temel and I. Bekmezci. On the performance of flying ad hoc networks (fanets) utilizing near space high altitude platforms (haps). In Recent Advances in Space Technologies (RAST), 2013 6th International Conference on, pages 461–465, June 2013. [TBH04] S.Jadhav T.X. Brown, S. Doshi and J. Himmelstei. Test bed for a wireless network on small uavs. In AIAA, 3rd Unmanned Unlimited Technical conference, Chicago, IL, 2004. [TBV13] Tan Viet Anh Truong, Petr Benda, and Jiri Vokrinek. The task agent resource function application in uav domain. In AIAA GNC 2013, AIAA Guidance, Navigation and Control Conference, Boston : United States DOI : 10.2514/6.2013-4798, (2013). [TCP81] TCP. Transmission control protocol. IETF, RFC : 793, 1981. [TH03] B. Tavli and W.B. Heinzelman. Mh-trace : multihop time reservation using adaptive control for energy efficiency. In Military Communications Conference, 2003. MILCOM ’03. 2003 IEEE, volume 2, pages 1292–1297 Vol.2, Oct 2003. [TH05] B. Tavli and W.B. Heinzelman. Mc-trace : multicasting through time reservation using adaptive control for energy efficiency. In Military Communications Conference, 2005. MILCOM 2005. IEEE , pp.2672-2678 Vol. 4, 17-20 Oct, 2005. [TTV07] F. Theoleyre, R. Tout, and F. Valois. New metrics to evaluate mobility models properties. In Wireless Pervasive Computing, 2007. ISWPC ’07. 2nd International Symposium on, pages –, Feb 2007. [WAKP08] Y. Wang, A. Ahmed, B. Krishnamachari, and K. Psounis. Ieee 802.11p performance evaluation and protocol enhancement. In IEEE International Conference on Vehicular Electronics and Safety, 2008. ICVES 2008. Sept, 2008. [WGWW10] Wei Wanga, Xiaohong Guana, Beizhan Wangb, and Yaping Wangc. A novel mobility model based on semi-random circular movement in mobile ad hoc networks. Information Sciences, Volume 180, Issue 3 :399–413, 2010. [XHG+01] Kaixin Xu, Xiaoyan Hong, Mario Gerla, H. Ly, and D.L. Gu. Landmark routing in large wireless battlefield networks usingBIBLIOGRAPHIE 165 uavs. In Military Communications Conference, 2001. MILCOM 2001. Communications for Network-Centric Operations : Creating the Information Force. IEEE, 2001. [XLH+13] T. Xie, R. Liu, R.T. Hai, Q.H. Hu, and Q. Lu. Uav platform based atmospheric environmental emergency monitoring system design. Journal of Applied Sciences, 13 :1289–1296, 2013. [XSX+10] Ji Xiangyu, Wu Sentang, Liu Xiang, Du Yang, and Tang Jiqiang. Research and design on physical multi-uav system for verification of autonomous formation and cooperative guidance. In Electrical and Control Engineering (ICECE), 2010 International Conference on, pages 1570–1576, June 2010. [XTP92] XTP. Xpress transfer protocol. XTP Forum, version 3.6, January 1992. [XWNF13] J. Xie, Y. Wan, K. Namuduri, and J. Fu, S.and Kim. A comprehensive modeling framework for airborne mobility. In The Americain Institute of Aeronautics and Astronautics (AIAA) Conference, Boston, August 19-22, 2013. [XYLC00] Hannan Xiao, Winston K. G. Seah Y, Anthony Lo, and Kee Chaing Chua. A flexible quality of service model for mobile ad-hoc networks. In IEEE VTC2000-spring, pages 445–449, 2000. [YCBE10] E. Yanmaz, C. Costanzo, C. Bettstetter, and W. Elmenreich. A discrete stochastic process for coverage analysis of autonomous uav networks. In GLOBECOM Workshops (GC Wkshps), 2010 IEEE, pages 1777–1782, Dec 2010. [YKB11] E. Yanmaz, R. Kuschnig, and C. Bettstetter. Channel measurements over 802.11a-based uav-to-ground links. In GLOBECOM Workshops (GC Wkshps), 2011 IEEE, pages 1280–1284, Dec 2011. [YPD07] C. Yawut, B. Paillassa, and R. Dhaou. On metrics for mobility oriented self adaptive protocols. In Wireless and Mobile Communications, 2007. ICWMC ’07. Third International Conference on, pages 11–11, March 2007. [ZHR04] Qunwei Zheng, Xiaoyan Hong, and Sibabrata Ray. Recent advances in mobility modeling for mobile ad hoc network research. In Proceedings of the 42Nd Annual Southeast Regional Conference, ACM-SE 42, pages 70–75, New York, NY, USA, 2004. ACM.166 BIBLIOGRAPHIEAnnexe A Annexe : Outils de simulation Le simulateur r´eseau OMNET++ OMNET++ (Objective Modular Network Testbed in C++) 1 est une plateforme de simulation `a ´ev´enement libre d´evelopp´ee en C++. Il a ´et´e con¸cu pour simuler les r´eseaux de communication, les syst`emes multiprocesseurs et d’autres syst`emes distribu´es. Il peut ´egalement ˆetre ´etendu en mod´elisant d’autres syst`emes. C’est un outil modulaire, g´en´erique, flexible et bas´e composants. Il offre une librairie de classes de simulation C++ et un support GUI (Graphical User Interface) pour la visualisation graphique du r´eseau ainsi que son animation. Il contient entre autres un compilateur NED (Network description), une interface graphique (Tkenv), un invite de commande (Cmdenv), un outil graphique pour l’analyse des r´esultats de simulation (Dataset), etc (figure A.1). L’architecture de simulation avec OMNET++ est compos´ee de modules qui communiquent entre eux en ´echangeant des messages `a travers leurs interfaces li´ees par des connections. OMNET++ poss`ede des extensions externes qui lui permettent de fournir un support pour la simulation des r´eseaux sans fil tels que le plateformes INET, INETMANET ou encore MiXiM. Pour notre ´etude nous avons utilis´e la plateforme INET. Le mod`ele de simulation de DAN DAN ainsi que le mod`ele de mobilit´e PPRZM ont ´et´e impl´ement´es et simul´es avec OMENT++. Chaque nœud utilisant DAN contient dans son 1. http ://www.omnetpp.org/ 167168 ANNEXE A. ANNEXE : OUTILS DE SIMULATION Animation du scénario Animation au niveau d’un nœud (NED) Evolution (Tkenv) Analyse des résultats (Dataset) Figure A.1 – Captures ´ecran du simulateur OMNET++ architecture le module DAN-agent comme pr´esent´e dans la figure A.2. L’agent DAN est li´e aux niveaux r´eseau et applicatif qui peut ´emettre du trafic TCP et/ ou UDP. Chaque application peut communiquer avec DAN `a travers DAN API. Par la suite, l’agent DAN communique directement avec les autres modules ainsi qu’avec les niveau r´eseau pour envoyer et recevoir des messages de signalisation encapsul´es dans IP. La figure A.3 pr´esente l’architecture du module DAN classificateur. Il contient un module classificateur (class) qui permet de marquer les trafic si le nœud est l’´emetteur et d’affecter les paquets re¸cus `a l’une de ses trois files d’attente : Urgent, Premium et BE. Le type et la taille de la file ´etant des param`etres pour ce mod`ele, nous avons utilis´e pour nos simulations le type FIFO (First In First Out) et la taille 100 (nombre maximum de paquets) par file. Le module d’ordonnancement, nomm´e Ps, est responsable de retirer les paquets `a ´emettre des files d’attentes. Ce module est un ordonnancement qui169 Figure A.2 – Architecture d’un nœud utilisant le syst`eme DAN Figure A.3 – Architecture du module DAN classificateur170 ANNEXE A. ANNEXE : OUTILS DE SIMULATION permet de respecter les priorit´es des trois files d’attente (Priority Queing). Pour nos simulations, nous avons utilis´e le mod`ele de mobilit´e PPRZM cr´e´e pour imiter les mouvements r´eels de drones Paparzzi. Le reste des modules utilis´es pour l’architecture des nœuds sont les modules ordinaires propos´e par la plateforme INET. Planification d’une chaˆıne logistique: approche par satisfaction de contraintes dynamiques Mariem Trojet To cite this version: Mariem Trojet. Planification d’une chaˆıne logistique: approche par satisfaction de contraintes dynamiques. Automatic Control Engineering. INSA de Toulouse, 2014. French. HAL Id: tel-00996957 https://tel.archives-ouvertes.fr/tel-00996957 Submitted on 28 May 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´esTable des matières I Table des matières REMERCIEMENTS 1 INTRODUCTION GENERALE 3 CHAPITRE I.GESTION DES ACTIVITES DE PRODUCTION : CONTEXTE ET POSITIONNEMENT DU TRAVAIL DE RECHERCHE 7 I.1. Introduction 8 I.2. La gestion de production 8 I.2.1. Le système de production 9 I.2.2. Le système de gestion : structure décisionnelle multi-niveaux 11 I.2.3. Offres en logiciels pour la gestion de la production 16 I.3. Modèles de Planification – Ordonnancement 19 I.3.1. Planification : modèles par quantités 20 I.3.2. Ordonnancement : Modèles par dates 22 I.4. La Planification : un vecteur de hiérarchisation et d’intégration 24 I.4.1. Les approches multiniveaux : supports de la hiérarchisation verticale 24 I.4.2. Les processus de planification : supports de l’intégration horizontale 31 I.5. La chaîne logistique 35 I.5.1. Structure des chaînes logistiques 36 I.5.2. Catégories des chaînes logistiques 38 I.5.3. Gestion de la chaîne logistique (Supply Chain Management – SCM) 40 I.5.4. Offres en logiciels pour la gestion de la chaîne logistique (SCM) 42 I.6. Conclusion 44 CHAPITRE II.LES PROBLEMES DE SATISFACTION DE CONTRAINTES 45 II.1. Introduction 46 II.2. Le Problème de Satisfaction de contraintes (CSP) 47 II.2.1. Définitions et notions 47 II.2.2. Techniques de propagation de contraintes 50 II.2.3. Méthodes de résolution d’un CSP 52 Table des matières II II.2.4. CSP et optimisation 56 II.3. Problèmes de satisfaction de contraintes dynamiques (DCSP) 57 II.3.1.Définitions DCSP 57 II.3.2. DCSP et autres formalismes 59 II.3.3. CSP conditionnels 59 II.4. Résolution d’un CSP dynamique 60 II.4.1. Approche par réutilisation de solution 61 II.4.2. Approche par réutilisation du raisonnement 64 II.5. Conclusion 65 CHAPITRE III.APPROCHE INTEGREE POUR LA PLANIFICATION DYNAMIQUE : CONCEPTS ET MODELES 67 III.1. Introduction 68 III.2. Objectifs de l’étude 68 III.3. Approche proposée : structure décisionnelle à deux niveaux 70 III.3.1. Structure de la chaîne logistique considérée 70 III.3.2. Processus et leviers décisionnels considérés 73 III.4.Planification dynamique 74 III.4.1. Processus de prise de décision 74 III.4.2. Planification à horizon glissant 76 III.4.3. Procédure de planification 79 III.5. Modélisation du processus de planification dynamique 80 III.5.1.Modèle planification de la production : Premier niveau de décision 80 III.5.2. Modèle ordonnancement agrégé : Deuxième niveau de décision 84 III.5.3. Interaction énergétique entre les deux niveaux de décision 86 III.6. Conclusion 88 CHAPITRE IV.ANALYSE DE PERFORMANCE : DEMARCHE METHODOLOGIQUE 91 IV.1.Introduction 92 IV.2. Objectifs et Démarche 93 IV.2.1. Objectifs de l’analyse : Mesurer la stabilité et la robustesse 93 IV.2.2. Approche comparative : CSP statique vs CSP dynamique 95 IV.3. Procédures de résolution : CSP Statique et CSP Dynamique 95 IV.3.1. Procédure de résolution CSP statique 96 Table des matières III IV.3.2. Procédure de résolution CSP dynamique 98 IV.4. Indicateurs de performance 101 IV.4.1. Protocole d’évaluation de la performance 101 IV.4.2. Notions de Distance et de Poids de Perturbation 101 IV.4.3. Indicateurs de performance au niveau Site de production 103 IV.4.4. Indicateurs de performance au niveau chaîne logistique 105 IV.5. Conclusion 107 CHAPITRE V.EXPERIMENTATION NUMERIQUE ET EVALUATION DE L’APPROCHE 109 V.1. Introduction 110 V.2. Présentation du cas d’étude 110 V.2.1. Description de la structure et des données de la chaîne logistique 110 V.2.2. Problématique et scénarios considérés 113 V.3. Évaluation de la stabilité et robustesse au niveau Site de production 114 V.3.1. Expérimentation avec une variation de la demande 114 V.3.2. Expérimentation avec une variation de la capacité 120 V.3.3. Expérimentation avec une variation de re-planification 126 V.4. Analyse de sensibilité de la chaîne logistique : Résolution statique vs. dynamique 134 V.4.1. Sensibilité de la chaîne logistique face aux variations : niveau planification 135 V.4.2. Sensibilité de la chaîne logistique face aux variations : niveau ordonnancement 136 V.4.3. Sensibilité comparative de la planification /ordonnancement face aux variations 137 V.4.4. Sensibilité de la fonction objectif face aux variations 140 V.5. Conclusion 142 CONCLUSION GENERALE 143 REFERENCES BIBLIOGRAPHIQUES 147Table des matières IVListe des figures V Liste des figures Figure I.1. Interactions entre système de production, système de gestion et environnement [Dauzère-Pérès, 1992] ................................................................................................................ 9 Figure I.2. Vision systémique de la gestion d’un système de production [DespontinMonsarrat, 2004] ...................................................................................................................... 12 Figure I.3. Structure décisionnelle à trois niveaux [Dauzère-Pérès, 1992] ............................. 14 Figure I.4. Modélisation des décisions de planification dans le MRP II, d’après [Thomas, 2003] ......................................................................................................................................... 17 Figure I.5. Classification des modèles de lot-sizing [Rota, 1998] .......................................... 21 Figure I.6. Classification des problèmes d’ordonnancement : Modèles par dates [Lopez, 1991] ......................................................................................................................................... 23 Figure I.7.Procédure itérative [Fontan et Imbert, 1985] ......................................................... 28 Figure I.8. Méthode de résolution intégrée de Dauzère-Pérès [Wolosewicz, 2008] ............... 29 Figure I.9.SCP-Matrix [Stadtler et Kilger, 2005] ................................................................... 32 Figure I.10. La planification : support d’intégration horizontale ............................................ 34 Figure I.11. Représentation d’une chaîne logistique [Lee et Billington, 1993] ...................... 36 Figure I.12. Différentes structures de la chaîne logistique, [Mahmoudi, 2006] ..................... 38 Figure I.13. Exemple d’une entreprise multi-site [Thierry, 1994] .......................................... 39 Figure I.14. Positionnement de l'offre logicielle en SCM [Botta-Genoulaz, 2003] ................ 43 Figure II.1. Phase de propagation de contraintes [Lopez, 2001] ............................................ 53 Figure II.2. Les algorithmes de recherche CSP [Fischer, 2000] ............................................. 55 Figure II.3. Description du problème [Verfaillie et Jussien, 2005] ........................................ 62 Figure II.4. Méthode de recherche locale [Verfaillie et Jussien, 2005] .................................. 63 Figure II.5. Méthode par relaxation-affectation de variables [Verfaillie et Jussien, 2005] .... 64 Figure III.1. Processus de planification dynamique ............................................................... 70 Figure III.2. Structure de la chaîne ......................................................................................... 72 Figure III.3. Minimisation des en-cours [Moncel, 2010] ....................................................... 74 Figure III.4. Phases de prise de décision [Gharbi et al., 2009] ............................................... 75 Figure III.5. Processus de planification dynamique [Amrani-Zouggar, 2009] ................ 77 Figure III.6. Horizon de décision gelé, d’après [Thierry, 2003] ............................................. 78 Figure III.7. Approche proposée ............................................................................................. 79 Figure III.8. Interaction énergétique entre les deux niveaux de décision ............................... 88 Figure IV.1. Schéma d’actualisation d’un problème de planification .................................... 92 Figure IV.2. Algorithme de réparation .................................................................................... 99 Figure V.1. Gamme de fabrication des différents produits ................................................... 112 Figure V.2. Variation de la demande .................................................................................... 114 Figure V.3. Variation de la capacité à la période t = 13 ........................................................ 121 Figure V.4. Variation de re-planification en période t = 13 .................................................. 127Liste des figures VI Figure V.5. Variation de re-planification en période t = 14 .................................................. 127 Figure V.6. Poids de perturbation pour la variable I (Site 1) avec une variation de la demande ................................................................................................................................................ 134 Figure V.7. Evaluation de la robustesse au niveau chaîne logistique pour les 3 types de variation .................................................................................................................................. 135 Figure V.8. Evaluation de la stabilité au niveau chaîne logistique pour les 3 types de variation ................................................................................................................................................ 135 Figure V.9. Evaluation de la robustesse au niveau ordonnancement pour les 3 types de variation .................................................................................................................................. 136 Figure V.10. Evaluation de la stabilité au niveau ordonnancement pour les 3 types de variation .................................................................................................................................. 137 Figure V.11. Evaluation de la stabilité de la chaîne logistique par niveau de décision dans le cas d’une variation de la demande ......................................................................................... 138 Figure V.12. Evaluation de la stabilité de la chaîne logistique par niveau de décision dans le cas d’une variation de la capacité ........................................................................................... 138 Figure V.13. Evaluation de la stabilité de la chaîne logistique par niveau de décision dans le cas d’une variation de re-planification ................................................................................... 138 Figure V.14. Evaluation de la stabilité de la chaîne logistique par niveau de décision dans le cas d’une variation de la demande ......................................................................................... 139 Figure V.15. Evaluation de la stabilité de la chaîne logistique par niveau de décision dans le cas d’une variation de la capacité ........................................................................................... 139 Figure V.16. Evaluation de la stabilité de la chaîne logistique par niveau de décision dans le cas d’une variation de re-planification ................................................................................... 140 Figure V.17. Evaluation du coût dans le cas d’une variation de la demande ........................ 140 Figure V.18. Evaluation du coût dans le cas d’une variation de re-planification ................. 141 Figure V.19. Evaluation du coût dans le cas d’une variation de la capacité ......................... 141Liste des tableaux VII Liste des tableaux Tableau II.1. Données du problème ........................................................................................ 49 Tableau II.2. Effets des transformations élémentaires [Richaud, 2009] ................................. 58 Tableau IV.1. Tableau de synthèse des indicateurs de performance (niveau sites) .............. 106 Tableau IV.2. Tableau de synthèse des indicateurs de performance (niveau chaîne logistique) ................................................................................................................................................ 107 Tableau V.1. Délais et coûts de production des produits ...................................................... 111 Tableau V.2. Coûts unitaires de stockage et de rupture ........................................................ 111 Tableau V.3. Profil de la demande (première itération de planification : k = 1) .................. 111 Tableau V.4. Capacité des sites de production ..................................................................... 112 Tableau V.5. Résultats numériques dans le cas d’une variation de la demande : premier niveau de décision .................................................................................................................. 116 Tableau V.6. Résultats numériques dans le cas d’une variation de la demande : deuxième niveau de décision .................................................................................................................. 116 Tableau V.7. Variation de la demande : Evaluation de la perturbation au niveau sites (planification de la production) .............................................................................................. 117 Tableau V.8. Variation de la demande : Evaluation de la perturbation au niveau sites (ordonnancement agrégé) ....................................................................................................... 118 Tableau V.9. Résultats numériques dans le cas d’une variation de la capacité : premier niveau de décision .............................................................................................................................. 122 Tableau V.10. Résultats numériques dans le cas d’une variation de la capacité : deuxième niveau de décision .................................................................................................................. 122 Tableau V.11. Variation de la capacité : Evaluation de la perturbation au niveau sites (planification de la production) .............................................................................................. 123 Tableau V.12. Variation de la capacité : Evaluation de la perturbation au niveau sites (ordonnancement agrégé) ....................................................................................................... 124 Tableau V.13. Exemple de variation de re-planification ...................................................... 126 Tableau V.14. Résultats numériques dans le cas d’une variation de re-planification : niveau planification ............................................................................................................................ 129 Tableau V.15. Résultats numériques dans le cas d’une variation de re-planification : niveau ordonnancement agrégé .......................................................................................................... 129 Tableau V.16. Variation de re-planification : Evaluation de la perturbation au niveau sites (planification de la production) .............................................................................................. 130 Tableau V.17. Variation de re-planification : Evaluation de la perturbation au niveau sites (ordonnancement agrégé) ....................................................................................................... 131Remerciements 1 Remerciements Le travail présenté dans ce mémoire a été réalisé dans le cadre d’une convention de cotutelle de thèse entre l’Ecole Nationale d’Ingénieurs de Tunis (ENIT), d’une part, et l’Institut National des Sciences Appliquées de Toulouse (INSA) et le Laboratoire d’Analyse et d’Architecture des Systèmes (LAAS) du CNRS, d’autre part. Je remercie Messieurs Raja Chatila et Jean Arlat, directeurs successifs du LAAS depuis mon entrée, de m’avoir accueilli dans ce laboratoire. Je remercie également Messieurs Pierre Lopez et Christian Artigues, directeurs de recherche au CNRS de m’avoir accueilli et facilité mes séjours au sein du groupe Recherche Opérationnelle, Optimisation Combinatoire et Contraintes (ROC) dont ils ont eu la responsabilité, et Monsieur Ali Zghal pour m’avoir accueillie au sein de l’unité de recherche Mécanique des Solides, des Structures et Développement Technologique (UR MSSDT). Je remercie très sincèrement mes encadrants de thèse M. Pierre Lopez et M. Ali Zghal. Merci pour votre sympathie et votre constante bonne humeur. Je ne vous remercierai jamais assez pour vos encouragements dans les moments difficiles et votre soutien tout au long de cette thèse. Je tiens à remercier également et à exprimer ma profonde reconnaissance à mon encadrant scientifique, M. Fehmi H’Mida. Le suivi de mes travaux, vos conseils avisés et vos critiques m’ont permis de mener à bien ces travaux. Merci pour la confiance dont vous m’avez toujours témoigné. Je tiens à exprimer toute ma gratitude à M. Patrick Esquirol. Sa gentillesse, son expérience, son optimisme et ses encouragements m’ont beaucoup apporté et aidé durant ces quatre dernières années. Je tiens à le remercier plus particulièrement pour m’avoir aidé en matière de programmation informatique. J’exprime toute ma gratitude aux membres du jury qui m’ont fait l’honneur de juger ce travail de thèse : Messieurs Ouajdi Korbaa, Professeur à l’Institut Supérieur d’Informatique et des Techniques de Communication à Hammam Sousse et Rémy Dupas, Professeur à l’Université de Bordeaux en leur qualité de rapporteurs, Madame Farah Zeghal, Maître de conférences à l’Ecole Nationale d’Ingénieurs de Tunis, en sa qualité de président de jury. Remerciements 2 J’adresse ma sincère reconnaissance à Madame Hanen Bouchriha, Maître de conférences à l’Ecole Nationale d’Ingénieurs de Tunis d’avoir accepté d’examiner ce travail. Je souhaite remercier chaleureusement tous les membres de l’équipe ROC, permanents, doctorants et stagiaires. Ce fut un réel plaisir de travailler à vos côtés. Merci Boadu, Touria, Panwadee, Kata, Maria, Hassan. Je n’oublie pas non plus les anciens du groupe qui m’ont beaucoup aidé, merci à Wafa, Oumar et William. Mes remerciements s’adressent également à la secrétaire de l’équipe Christèle Mouclier. Aussi, je tiens à remercier mes amis en dehors du groupe, merci à Romaric, Imene, Ahmed, Fatma, Iskander. Merci également aux membres de l’unité de recherche MSSDT, et en particulier Messieurs Fethi Abassi et Frej Chaouachi. Je ne manquerai pas non plus de remercier mes collègues de l’Ecole Supérieure de Technologie et d’Informatique de Tunis – Tunisie. Finalement, je tiens à remercier mes très chers parents sans qui rien de tout cela n’aurait été possible. Merci surtout pour leur patience, leur courage et leur sacrifice. Comment ne pas remercier mon adorable sœur et mon adorable frère. Simplement merci…Introduction générale 3 Introduction générale A partir des années 90, l’évolution du contexte économique a amené les entreprises, dans un climat de concurrence mondialisée, à s’adapter au marché tout en améliorant la maîtrise du coût, de la qualité et du délai de fabrication des produits. Ainsi, et dans le but d’accroître leurs compétences, les entreprises ont opté pour une spécialisation de leurs activités et un recentrage métier. Elles s’organisent alors en réseaux pour externaliser leurs activités secondaires et développer une meilleure qualité de service à leurs clients. Ainsi, une chaîne logistique peut se définir comme la coopération de tous les partenaires industriels pour l’élaboration d’une famille de produits finis [François, 2007]. Les technologies de l’information et les systèmes d'information associés ont fortement influencé l’évolution des chaînes logistiques avec l’implantation d’outils support à la collaboration. Nous trouvons notamment : les APS (Advanced Planning System), les ERP (Enterprise Resource Planning), les MES (Manufacturing Execution Systems), etc. ([Galasso, 2007], [Gharbi, 2012]). Plusieurs outils sont alors développés afin d’aider aux prises de décision, du niveau le plus haut (stratégie générale de l’entreprise) au niveau le plus bas (fonctionnement des machines dans l’atelier de fabrication). Très souvent, les décisions tactiques (Planification) sont prises indépendamment des décisions opérationnelles (Ordonnancement). Les contraintes de capacité de l’atelier sont modélisées grossièrement dans le calcul du plan, ce qui implique souvent la non faisabilité d’un plan de production. De plus, ce plan n’est pas remis en cause par le niveau opérationnel après avoir été transmis. Pour pallier ce problème, quelques approches proposant l’intégration de niveaux hiérarchiques de décision existent dans la littérature. Notre travail s’intéresse à la planification tactique et opérationnelle d’une chaîne logistique et propose une approche décisionnelle à deux niveaux. Le modèle proposé intègre les décisions prises au niveau supérieur comme contraintes à respecter au niveau inférieur (niveau opérationnel) en vue de garantir la faisabilité du plan de production. Nous développons une structure intégrée dans le cadre d’une approche de satisfaction de contraintes. Ces deux niveaux seront modélisés sous forme d’un problème de satisfaction de Introduction générale 4 contraintes (CSP pour Constraint Satisfaction Problem). Le premier niveau de décision consiste à planifier les volumes de production de chaque site pour chaque produit, les volumes de production sous-traités ainsi que le nombre d’heures supplémentaires utilisées à chaque période de l’horizon de planification, tout en respectant la capacité pour les différents sites de production définie sous la forme d’un nombre d’heures de travail disponibles. Nous introduisons un coût correspondant à chaque type de décision et c’est en termes de coût qu’une solution est considérée comme plus favorable qu’une autre. Le deuxième niveau consiste à ordonnancer, pour chaque site, les dates de début des opérations de fabrication tout en respectant la limitation de la capacité des ressources de fabrication (nombre de machines). Le recours à une structure décisionnelle intégrée nous a conduit à établir une interaction entre les niveaux supérieur (planification) et inférieur (ordonnancement agrégé). En s’appuyant sur un horizon discrétisé en périodes, le niveau supérieur transmet au deuxième niveau, à chaque période t, les quantités à lancer en production sur chaque site s. Ces variables sont soumises à des contraintes dites de conservation d’énergie, qui doivent être satisfaites par le niveau inférieur de décision. Certaines données telles que les demandes clients, les ressources mises à disposition de la chaîne par chaque entité et les délais de production sont incertaines. Les éléments de la chaîne sont ainsi soumis à des perturbations et aléas divers. Ainsi, il ne suffit pas d’avoir des plans qui optimisent les coûts et les en-cours. Les plans de production successifs doivent être robustes et stables suite à des aléas dus aux variations de certaines données, c’est-à-dire permettant de minimiser les différences entre les quantités planifiées recalculées à chaque itération du processus de planification. C’est dans ce contexte de planification tactique et opérationnelle, dans un environnement dynamique, que s’insèrent nos travaux de thèse. L’objectif de cette thèse est donc de proposer une approche intégrée qui répond aux problèmes d’incohérence entre les décisions tactiques et opérationnelles et qui assure une planification et un ordonnancement optimal tout en assurant la robustesse et la stabilité de la solution face aux perturbations. Dans le but de minimiser l’effet des perturbations dues à ces incertitudes, les deux niveaux seront modélisés sous forme d’un problème de satisfaction de contraintes dynamique (DCSP pour Dynamic Constraint Satisfaction Problem). En effet, un DCSP P est une suite P0,…,Pn de CSP statiques où Pi+1 diffère de Pi par un ajout ou un retrait de contraintes, variables, Introduction générale 5 valeurs. Notre contribution par cette approche revient à utiliser la solution relative au problème initial Pi pour la résolution du problème Pi+1 sujet à des perturbations. L’approche est évaluée à l’aide d’indicateurs de performance en vue de quantifier les apports en termes de robustesse et de stabilité. Les expérimentations sont effectuées à l’aide du logiciel ECLi PSe 6.0 qui est une extension du langage Prolog incluant des bibliothèques de programmation par contraintes. Ces expérimentations sont menées sur la base d’un cas de planification de la production d’une chaîne logistique. Ce mémoire est organisé de la façon suivante. Le premier chapitre définit le contexte de notre étude et introduit la problématique générale à laquelle nous nous intéressons. Il reprend les notions de base de la gestion de production et propose une présentation des modèles de planification-ordonnancement de la production existant dans la littérature. Ensuite, un état de l’art des approches actuelles pour mettre en relation les décisions des niveaux planification et ordonnancement est présenté. Enfin, nous retraçons la nouvelle structuration des entreprises manufacturières sous la forme de chaîne logistique. Le deuxième chapitre traite de la programmation par contraintes, les principes sur lesquels elle repose et les différentes méthodes de résolution. Ensuite, nous présentons un état de l’art des CSP dynamiques et des autres différents types de problèmes dynamiques qui peuvent exister. Nous présentons aussi les différentes méthodes de résolution associées. Le troisième chapitre détaille les objectifs de l’étude. Nous présentons la structure de la chaîne logistique étudiée et les décisions qui y sont associées. Ensuite, nous étudions le processus de prise de décision et les différents délais correspondants. Enfin, nous introduisons le principe général du processus de planification dynamique à horizon glissant et nous proposons un modèle mathématique qui traduit notre approche intégrée de planification dynamique. Le quatrième chapitre est consacré à l’expérimentation numérique de la structure décisionnelle hiérarchisée. Nous présentons un outil de simulation basé sur deux méthodes de résolution, une méthode de résolution statique et une méthode de résolution dynamique. Puis, nous développons les indicateurs de performance employés pour le niveau planification et le niveau ordonnancement. Introduction générale 6 Le cinquième et dernier chapitre porte sur l’analyse du modèle de planification dynamique et l’évaluation des deux approches de résolution CSP Statique / CSP Dynamique, et leurs impacts sur la conduite d’une chaîne logistique. Les expérimentations sont réalisées au niveau des sites de production et au niveau global de la chaîne logistique. Une solution est évaluée par sa performance à assurer un certain niveau de stabilité (mesure de la distance de perturbation P N ) et de robustesse (mesure du poids de perturbation P E ). Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 7 CHAPITRE I. GESTION DES ACTIVITES DE PRODUCTION : CONTEXTE ET POSITIONNEMENT DU TRAVAIL DE RECHERCHEChapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 8 I.1.Introduction Ce chapitre a pour but de positionner notre travail dans le vaste domaine de recherche portant sur la gestion des activités de production. Notre axe de recherche se focalise sur la définition d’un outil d’aide à la décision pour la planification de la production dans un cadre de chaîne logistique. Pour définir précisément notre problématique, nous présentons les principales assises conceptuelles et méthodologiques issues d’un état de l’art des recherches académiques. La première partie reprend les notions de base de la gestion de production permettant de comprendre les intérêts et les enjeux intra et inter-entreprises. Elle permet de préciser notamment l'organisation d'un système de production, la structuration des décisions ainsi que l’offre des solutions logicielles. Les modèles de planification - ordonnancement de la production, issus de la littérature, font l’objet de la deuxième partie. La troisième partie est consacrée à la description des approches actuelles pour traiter le problème de planification dans sa dimension verticale et transversale, afin d'assurer une meilleure cohérence entre les niveaux de décision tactique et opérationnel. Dans la quatrième et dernière partie, nous présentons la nouvelle structuration des entreprises manufacturières sous la forme de chaîne logistique. I.2.La gestion de production Vincent Giard précise dans son ouvrage [Giard, 1988] que « la gestion de production a pour objet la recherche d’une organisation efficace de la production de biens et de services. Elle s’appuie sur un ensemble d’outils d’analyse et de résolution de problèmes qui visent à limiter les ressources nécessaires à l’obtention d’une production dont les caractéristiques technico-commerciales sont connues ». [Blondel, 1997] définit la gestion de production comme « la fonction qui permet de réaliser les opérations de production en respectant les conditions de qualité, délai, coûts qui résultent des objectifs de l’entreprise et dont le but est d’assurer un équilibre entre : les délais, le niveau d’emploi des ressources et le niveau des encours et des stocks » On sépare généralement le système de gestion où circule un flux d’informations, du système de production par lequel transite un flux de matières. Les interactions entre le Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 9 système de gestion, le système de production et son environnement extérieur peuvent être schématisée par la figure I.1. [Dauzère-Pérès, 1992]. Figure I.1.Interactions entre système de production, système de gestion et environnement [Dauzère-Pérès, 1992] I.2.1.Le système de production La notion de système de production a été définie par plusieurs auteurs dans la littérature scientifique. Nous rappelons ici la définition de quelques notions se rapportant aux systèmes de production, dans le contexte de la production de biens et de services. Bertallanffy caractérise un système comme « un ensemble d’éléments en interaction » [Bertallanffy, 1968]. Plus récemment, Lopez considère que « la production est une opération de transformation d’un ensemble de matières premières ou de composants en produits finis et qu’un système de production est constitué de l’ensemble des éléments qui interviennent dans cette transformation et qui correspondent aux moyens ou ressources (humaines ou technologiques)» [Lopez, 1991]. De son côté, Dauzère-Pérès définit un système de production comme étant « un ensemble des ressources nécessaires, tant humaines que matérielles, qui permettent de transformer des matières premières en produits finis intégrant aussi les moyens de stockage, et même parfois ceux de distribution » [Dauzère-Pérès, 1992]. Dans la littérature, il existe plusieurs typologies des systèmes de production ([Deschamps, 1994], [Roux 1997], [Giard, 2003]). Ces typologies sont notamment construites en fonction Décisions Système de gestion Système de production Fournisseurs Clients Flux de matériels Informations Flux d’informations Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 10 de la politique de production, du mode de production et de l’organisation du flux de production. La première typologie est déterminée par la politique de production. On distingue deux catégories : production à la commande et production pour stock. - La production à la commande : La production est qualifiée de production à la commande lorsque le processus de fabrication, l’achat des matières premières, composants et consommables sont déclenchés à la réception d’une commande ferme d'un client. Ces systèmes concernent principalement les entreprises proposant une grande variété de produits dont la demande est très aléatoire ou bien lorsque les produits à réaliser sont étroitement liés aux clients (faible standardisation). - La production pour stock : Une entreprise opte, en général, pour une organisation de production pour stock lorsqu'il est possible d'effectuer une prévision fiable de la demande. Ce type de système est envisagé pour des produits dont la gamme reste relativement stable, et lorsque la demande pour chaque produit est suffisamment importante et prévisible. La seconde typologie est déterminée par le mode d’organisation de la production. On distingue trois catégories : les systèmes de production unitaire, les systèmes de production en petite et moyenne séries et les systèmes de production en grande série. - Les systèmes de production unitaire : Ils s’intéressent à la fabrication d’un produit unique. Il est rare de constater la fabrication multiple du même produit. Ce type de production fait toujours l’objet d’un grand projet. Le type de production unitaire est rencontré par exemple dans un chantier naval (chaque navire fabriqué est unique), dans les entreprises de génie civil (construction d’un pont)… - Les systèmes de production en petite et moyenne séries : Pour ces structures, la production est relativement diversifiée et fait l’objet d’une production limitée. Dans ce mode d’organisation, les ressources assurant la même fonction technique sont réunies en un même lieu. Il peut s’agir d’entreprises de grande taille, dans le secteur automobile par exemple, mais aussi de PME manufacturières et de sous-traitance. - Les systèmes de production en grande série : Dans le cas où le nombre de produits à fabriquer est peu diversifié ou standardisé, on parle de production en grande série. Les moyens de production sont organisés sous forme de lignes de production spécifiques à Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 11 chaque produit (les équipements sont placés dans un ordre précis pour permettre à un produit de transiter par la même séquence de postes de travail). La troisième typologie est déterminée par l’organisation du flux de production. On distingue en général deux catégories : les systèmes de production continue et les systèmes de production discontinue. - Les systèmes de production continue : Ce type est retenu lorsqu’on traite des quantités importantes d’un produit ou d’une famille de produits. L’implantation est réalisée en ligne de production, ce qui rend le flux du produit linéaire. Dans ce type de production, les machines ou les installations sont dédiées au produit à fabriquer ce qui, en général, ne permet pas une grande flexibilité. En règle générale, ce type de production est accompagné d’une automatisation poussée des processus de production ainsi que des systèmes de manutention. Parmi les entreprises typiques utilisant ce type de système de production : les industries pétrochimiques, les cimenteries, etc. - Les systèmes de production discontinue : Ce type est retenu lorsque l’on traite des quantités relativement moyennes de nombreux produits variés, réalisés à partir d’un parc de machines à vocation générale. Dans ce type de production, les machines ou les installations sont capables de réaliser un grand nombre de travaux, elles ne sont pas spécifiques à un produit, ce qui donne une grande flexibilité. Les industries mécaniques et les entreprises de confection sont des entreprises de ce type. Ce travail de thèse s’intéresse aux entreprises manufacturières et étudie plus particulièrement le cas de la production à la commande, en petite et moyenne série avec flux de production discontinu. Après une description des principaux concepts et modes d’organisation des systèmes de production, le paragraphe suivant précise les notions générales du système de gestion de production définies dans un contexte intra-entreprises, celles-ci étant utiles pour comprendre la problématique associée à chaque entreprise. I.2.2.Le système de gestion : structure décisionnelle multi-niveaux Hétreux considère un système de gestion comme un système qui permet de « déterminer un ensemble de décisions assurant une organisation efficace de la production compte tenu des multiples contraintes internes ou externes à l’entreprise » [Hétreux, 1996]. Il peut être structuré en deux sous-systèmes [Lemoigne, 1974], [Huguet, 1994], [Hétreux, 1996] : Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 12 - Le sous-système d'information qui regroupe les informations, relatives au système de production et à son environnement, qui sont utilisées par le sous-système de décision ; - Le sous-système de décision qui élabore, à partir des informations disponibles dans le sous-système d'information, des décisions permettant d'assurer un fonctionnement convenable du système de production. Classiquement, le système de gestion de production exerce quatre principales activités (cf. figure I.2) [Despontin-Monsarrat, 2004] : gestion des données techniques, gestion des matières, gestion des données commerciales et gestion des données du travail. Figure I.2. Vision systémique de la gestion d’un système de production [Despontin-Monsarrat, 2004] - la gestion des données techniques qui recense les nomenclatures (listes des composants et/ou matières premières requis pour réaliser un produit donné) et les gammes opératoires (listes ordonnées d'opérations permettant de réaliser un produit donné)nécessaires à la fabrication des produits de l'entreprise. Cette gestion présente un aspect d'autant plus dynamique que la personnalisation des produits est forte, la réalisation étant alors systématiquement précédé d'une phase d'étude qui aboutit à la description détaillée du travail à réaliser. Ainsi, la notion de gamme opératoire n'existe véritablement que dans le contexte de productions en moyenne et grande séries. Dans Gestion des données techniques Gestion des matières Gestion des données commerciales Gestion des données du travail Suivi de fabrication Système physique de fabrication Stocks Clients Fournisseurs Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 13 le contexte de la petite série ou du projet unitaire, on utilise plutôt la notion de gamme générique, lorsqu'un certain niveau d'abstraction et de réutilisation est possible, ou plus généralement de structure de décomposition du travail lorsque le produit à réaliser présente un caractère unique ; - La gestion des matières qui assure l'approvisionnement en matières premières ou en composants semi-finis et le stockage des produits (finis ou semi-finis) fabriqués. Elle joue un rôle crucial dans le contexte d'une répartition des matières premières ou des produits entre plusieurs chaînes logistiques. En cas de pénurie due à des aléas, il faut en effet procéder à des arbitrages qui ne sont pas sans conséquence sur l'atteinte des objectifs liés aux clients ; - La gestion des données commerciales qui reçoit les commandes et négocie les prix, quantités et délais de livraison souhaités ; - La gestion des données du travail qui organise dans le temps la réalisation des opérations nécessaires à la fabrication des produits sur les ressources en prenant en compte les données techniques et commerciales ainsi que les retours du suivi de fabrication. Devant l’étendue et la complexité des décisions qui constituent un processus de gestion de la production, le recours à une structure hiérarchisée devient incontournable. L’architecture décisionnelle d’une entreprise est alors divisée en trois niveaux de décision (figure I.3). Il s’agit des niveaux stratégique, tactique et opérationnel correspondant respectivement à des horizons à long, moyen et court terme [Anthony, 1965]. Cette approche hiérarchisée permet de décomposer le problème global en une succession de sous-problèmes et par la suite de réduire le nombre de variables pour chaque niveau de décision [Lopez, 1991]. Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 14 Figure I.3. Structure décisionnelle à trois niveaux [Dauzère-Pérès, 1992] - Le niveau stratégique : Il concerne une vision à long terme. Les décisions à ce niveau sont de première importance et déterminent la politique majeure de l’entreprise. Prises par la direction générale de l'entreprise, elles concernent par exemple la mise au point des installations de production (la recherche de nouveaux partenaires industriels, la sélection des fournisseurs et sous-traitants, les décisions de positionnement de nouveaux sites ou de fermeture de certains sites ou leur délocalisation), la politique budgétaire, le choix du type de gestion de production (par ex. fabrication à la Niveau stratégique Atteinte des objectifsfixés par la straté- gie générale Satisfaction du marché Niveau tactique Atteinte des objectifs de qualité de service au client final fixés par le pilotage stratégique Satisfaction du client Niveau opérationnel Atteinte des objectifs de qualité du processus physique fixés par le pilotage tactique Satisfaction du produit Système de production Remises en cause des décisions Décisions Informations Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 15 commande, fabrication sur stock), le développement de nouveaux types de produits sont des décisions stratégiques ([Miller, 2001], [Galasso, 2007]). - Le niveau tactique : Ce niveau définit les conditions de satisfaction de la demande des clients (exprimée sous forme de prévisions ou de commandes) sous contrainte de satisfaction de la stratégie de pilotage définie au niveau supérieur. Il correspond aux décisions politiques à moyen terme d'une entreprise (de quelques semaines à quelques mois). Ces décisions sont du ressort des cadres de l'entreprise et portent sur les problèmes liés à la gestion des ressources de l’entreprise. A ce niveau, les données sont aussi agrégées, mais avec un niveau de détail plus fin que pour le niveau stratégique. Ces décisions tactiques traitent, principalement, des objectifs de volumes à produire par période (la période de planification varie principalement entre une semaine et un mois). A ce niveau, l’optimisation se fait par la maximisation ou la minimisation d’une fonction économique (généralement associée à des coûts), en se basant sur les leviers décisionnels disponibles pour l’entreprise ([Shapiro, 1998]). Certaines perturbations, telles que des fluctuations possibles de la demande ou des aléas de production, viennent parfois aussi compliquer le problème. Les décisions à moyen terme consistent aussi en des directives pour la production détaillée. - Le niveau opérationnel : Ce niveau assure le suivi et le contrôle du flux physique afin d’assurer la mise à disposition des produits par chaque maillon au maillon suivant, selon les conditions d’opérations définies au niveau tactique. A ce niveau, les décisions sont prises à court terme et à très court terme (hebdomadaire voire quotidien). Elles sont prises par les opérateurs de production. Les données sont ici beaucoup plus détaillées. La génération d’un plan détaillé de production et l'affectation des ouvriers sont, par exemple, des décisions du niveau opérationnel. Ces niveaux décisionnels portent sur des horizons de temps, des niveaux de détail et des volumes de production différents. Plus le niveau de décision est élevé, plus l'horizon de temps est long, plus les données sont imprécises et plus les modèles associés sont agrégés [Giard, 2003]. L’approche hiérarchisée permet de simplifier le processus global de décision. En effet, chaque niveau de décision correspond souvent à différents décideurs dans les entreprises. Cependant, cette décomposition hiérarchique des décisions pose de multiples problèmes et rend incontournable le recours à une forte cohésion entre les acteurs des différents niveaux. Les décisions prises à un niveau deviennent des contraintes à satisfaire par les niveaux inférieurs. Il faut donc s'assurer que, lorsque des décisions sont transmises au niveau inférieur, Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 16 elles soient cohérentes avec les contraintes de ce niveau, c'est-à-dire qu'il soit possible de mettre effectivement en œuvre ces décisions [Wolosewicz, 2008]. Le travail présenté dans ce mémoire concerne les niveaux tactique (planification) et opérationnel (ordonnancement). I.2.3. Offres en logiciels pour la gestion de la production Les technologies de l’information et les systèmes d’information associés ont fortement influencé l’évolution des systèmes de production dans l’implémentation d’outils support à la collaboration. Le volume important de données ainsi que les calculs considérables à réaliser ont été grandement facilités par l'augmentation de la capacité des ordinateurs. On trouve notamment : les outils désormais classiques de GPAO (gestion de production assistée par ordinateur), puis les ERP (Entreprise Ressource Planning), les MES (Manufacturing Execution Systems), etc. 1.2.3.1. Les outils classiques de GPAO L’objet des progiciels de GPAO est de répondre à la plupart des fonctions assurées par la gestion de la production. « Les progiciels de GPAO utilisent une base de données techniques et sont décomposés en modules remplissant des fonctionnalités bien définies (gestion des données techniques, plans directeurs, calcul des besoins, ordonnancement, lancement, suivi des ordres de fabrication, gestion des stocks, gestion des achats et approvisionnements, calcul des coûts, etc.) » [Gharbi, 2012]. Ces logiciels sont basés sur des approches classiques de planification des activités de production telles que le MRP (Material Requirements Planning) qui permet de calculer les besoins en composants sans capacité et le MRP II (Manufacturing Resource Planning) qui intègre un système ajustant les niveaux de capacité. - La méthode MRP a été développée aux Etats-Unis dans les années 1965-1970 pour pallier aux limitations de la gestion traditionnelle des stocks [Orlicky, 1975]. Elle consiste à planifier, à partir des demandes fermes des clients ou de leurs prévisions, les besoins en composants et les ordres de fabrication. Néanmoins, cette approche présente certaines limites relatives à l’absence de contrôle de la capacité de production du système dont on cherche à planifier l’activité. En effet, un plan de charge incompatible avec les capacités de production amènera à un lissage de la production de façon à ce que le plan de production proposé soit réalisable. En cherchant à ajuster Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 17 la charge souhaitée et la capacité disponible des postes de charge, une évolution vers une deuxième version de la méthode, MRP II, a été proposée. - La méthode MRP II a été développée essentiellement pour ajuster la capacité de l’entreprise par rapport à la charge de production prévue. Etant donné que, dans la plupart des entreprises manufacturières, les décisions sont hiérarchisées comme on l’a vu ci-dessus, l’évolution vers MRP II a aussi permis une planification de la production depuis le long terme jusqu’au court terme [Courtois et al., 1995]. Pour ce faire, elle met en œuvre une séquence de plans (figure I.4), généralement résumée par les cinq grandes étapes suivantes ([Vob et Woodruff, 2006], [Vollman et al., 1997]) :le plan stratégique, le plan industriel et commercial (PIC), le plan directeur de production (PDP), la planification des besoins en composants (MRP) et le pilotage d’atelier. Figure I.4. Modélisation des décisions de planification dans le MRP II, d’après [Thomas, 2003] Planification Plan stratégique Plan industriel et commercial (PIC) Programme directeur de production (PDP) Calcul des Besoins Nets (MRP) Pilotage de l’atelier Planification Globale des capacités (usines, embauches…) Planification Globale des capacités (ressources critiques, postes goulots) Planification des Besoins en capacités (ressources détaillées) Contrôle des entrées / sorties ordonnancement des opérations Prévisions commandes Stocks produits finis Nomenclatures Stocks M.P et Sous-ensembles Postes de charge Gammes Gestion des données Gestion de la capacitéChapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 18 Les plans calculés aux différents niveaux décisionnels (figure I.4) ont un horizon temporel spécifique et un certain niveau de détail des données manipulées. Ces plans sont affinés successivement d’un niveau à l’autre pour produire la planification opérationnelle de la production, souvent qualifiée de pilotage d’atelier. En effet, à chaque niveau, le plan calculé à capacité infinie doit être ajusté avec la capacité finie existante pour obtenir ainsi un plan réalisable qui servira ensuite de cadre de décision pour l’élaboration du plan de l’étape de niveau inférieur. La généralisation du concept d’intégration de systèmes informatiques et des processus « métier » dans tous les domaines de l’entreprise a donné naissance aux ERP, extension du MRP II [Bourrières et al., 2005]. I.2.3.2.Les progiciels ERP Les ERP (Entreprise Ressource Planning ou encore PGI en français pour Progiciels de Gestion Intégrée), développés dans les années 70 et répandus à partir des années90, répondent à la problématique d’intégration et de synchronisation des informations de l’entreprise ([Monk, 2005], [Vob et Woodruff, 2006]). Ils permettent de gérer l’ensemble des processus d’une entreprise intégrant l’ensemble de ses fonctions comme la gestion des ressources humaines, la gestion financière et comptable, l’aide à la décision, la vente, la distribution, l’approvisionnement, la production ou encore du e-commerce. Un ERP est composé par un ensemble d’applications informatiques correspondant aux diverses fonctions citées précédemment de manière modulaire sachant que ces modules sont indépendants entre eux, tout en partageant une base de données unique et commune au sens logique. L’autre principe qui caractérise un ERP est l’usage de ce qu’on appelle un moteur de workflow qui permet, lorsqu’une donnée est enregistrée dans le système d’information, de la propager dans les modules qui en ont l’utilité, selon une programmation prédéfinie. I.2.3.3. Les systèmes MES Un Manufacturing Execution System (MES) est un système informatique dont les objectifs sont de collecter en temps réel les données de production de tout ou partie d'une usine ou d'un atelier. Ces données collectées permettent ensuite de réaliser un certain nombre d'activités d'analyse (traçabilité, contrôle de la qualité, suivi de production, ordonnancement, maintenance). Historiquement bien implantés dans les industries de type process, agro-Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 19 alimentaire et pharmaceutique en particulier (principalement pour des exigences de traçabilité), ces systèmes gagnent peu à peu d'autres secteurs d'activité, notamment les entreprises manufacturières. En permettant d'assurer le lien entre les deux systèmes informatisés existant dans l'entreprise, à savoir les systèmes comprenant les fonctions de gestion (GPAO, ERP, comptabilité...) et les systèmes de contrôle/commande assurant le pilotage en temps réel des ateliers de fabrication, les systèmes MES améliorent les activités de fabrication depuis l'ordre de fabrication jusqu'aux produits finis [Sakka, 2012]. Dans le cadre de cette thèse, nous nous intéressons aux niveaux tactique et opérationnel, plus particulièrement à la planification tactique et opérationnelle de la production. Très souvent, les décisions tactiques (Planification) sont prises indépendamment des décisions opérationnelles (Ordonnancement). Les contraintes de capacité de l’atelier sont modélisées grossièrement dans le calcul du plan, ce qui implique souvent la non faisabilité d’un plan de production. Pour pallier ce problème, nous proposons une approche hiérarchisée à deux niveaux de décision. I.3. Modèles de Planification – Ordonnancement La planification a pour objet de déterminer un programme prévisionnel de la production. Ces décisions imposent la prise en compte, au niveau de l’ordonnancement, de contraintes sur le processus de production (enchaînement des opérations de fabrication) et sur les ressources (contraintes de capacité). Dans le cadre d’une approche hiérarchique ([Miller, 2001], [Fontan et al., 2001]), on trouve essentiellement deux types de modèles associés respectivement à la planification et l’ordonnancement [Johnson et Montgomery, 1974] : - les modèles par “quantité” qui consistent à déterminer des quantités de produits à fabriquer par période de temps, - les modèles par “dates de début” qui consistent à déterminer les dates de début de tâches sur différentes ressources. Dans ce paragraphe, nous allons présenter le cadre générique de ces modèles (variables de décision et contraintes) ainsi que la typologie de chacun. Cette présentation est abordée indépendamment de la méthode de résolution. Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 20 I.3.1. Planification : modèles par quantités La planification est une décision tactique qui permet une programmation prévisionnelle de la production en s’appuyant sur une démarche d’optimisation des moyens de production dans le but de satisfaire les demandes aux moindres coûts. Elle constitue un lien entre les décisions stratégiques à long terme et les décisions opérationnelles à court terme. La planification part de certaines informations telles que les demandes clients (connues ou estimées), la capacité de production (par unité de temps, atelier ou machine), les informations sur les produits, les différents coûts (production, lancement, non satisfaction des demandes, sous-traitance, utilisation d’heures supplémentaires, stockage, rupture de stocks …). A ce niveau, le temps est divisé en intervalles de temps appelés périodes et les informations rassemblées permettent de définir des plans de production qui déterminent pour chaque période de l’horizon de planification, en général de quelques mois :  les quantités à produire pour chaque produit,  les quantités à sous-traiter pour chaque produit,  les niveaux de stocks en produits finis,  l’utilisation des ressources humaines et matérielles,  le nombre d’heures supplémentaires. Dans les modèles par quantités, le temps est divisé en intervalles de temps appelés périodes. Les variables de décision xi,t représentent les quantités de produits (et de sousproduits) i fabriquées pendant les périodes t. Les contraintes principales d’un problème de planification avec un modèle par quantités sont les suivantes [Thierry, 2003] : - les contraintes de succession:  les contraintes de conservation au niveau des stocks : ∀ ݅, ∀ ݐ, ܫ݅,ݐ+1 = ܫ݅,ݐ + ݐ,݅ݐݑ݋ − ݐ,݅݊݅ ݐ,݅ܫ avec la quantité de produit i en stock au début de la période t, ݅݊݅,ݐ la quantité de produit i arrivant dans le stock pendant la période t et ݐݑ݋݅,ݐ étant la quantité quittant ce stock pendant cette même période ;  les contraintes de respect de la nomenclature, en liaison avec les contraintes de conservation qui expriment le fait que, pour fabriquer un produit, il faut disposer ݅ ݐ,݆� . ܵא ݆ ݆,݅� = ݐ,݅ݐݑ݋ de ses composants avec �݅,݆ , la quantité de produit i nécessaire pour fabriquer un produit j et ܵ݅ la liste des produits j qui utilisent i. Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 21 - les contraintes de capacité : elles expriment la limitation des capacités des ressources. La ressource a une quantité ݎܥ,ݐ disponible, exprimée en unités de ressources.temps (machines.heures par exemple), et on ne peut pas utiliser plus que cette quantité. ∀݅, ∀ݐ, ݐ,ݎܥ ൑ ݐ,݅� ∗ ݅,ݎܾ ݎ ݁ݏ݈݅݅ݐݑ ݅/݅ ,ܾݎ,݅ étant la quantité de la ressource (exprimée dans la même unité que la capacité) utilisée pour la fabrication du produit i. - les contraintes de respect des dates de livraison : elles expriment le fait qu'une date de livraison est imposée par le client : on livre à la date de livraison la quantité de produit commandée pour cette date : ݐݑ݋݅,ݐ ݐ,݅݀ = ݐ,݅݀ avec la quantité de produit i demandée pour la période t. Les variantes de ce modèle constituent la famille des problèmes pléthoriques de dimensionnent de lots (lot-sizing problems). [Rota, 1998] présente une classification de ces modèles par quantités en fonction des niveaux de nomenclature, de la prise en compte des contraintes de ressources et de la demande (constante ou non) sur l’horizon de planification, comme le montre la figure suivante. Figure I.5. Classification des modèles de lot-sizing [Rota, 1998] Modèles de lot-sizing Nomenclature à un niveau Nomenclature multi-niveau Capacité infinie Capacité finie Capacité infinie Capacité finie Demande constante Demande variant dans le temps Demande constante Demande variant dans le temps EOQ WW ELSP CLSP CSLP DLSP MLLP MLCLP EOQ: Economic Order Quantity WW: Wagner-Whitin ELSP: Economic Lot-sizing and Scheduling Problem CLSP: Capacited Lot-Sizing Problem CSLP: Continuous Set-up Lot-sizing Problem DLSP: Discrete Lot-sizing and Scheduling Problem MLLP: Multi-Level Lot-sizing Problem MLCLP: Multi-Level Capacited Lot-sizing Problem Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 22 La classe de problèmes qui nous intéresse est le CLSP ou Capacited Lot-Sizing Problem. Il s’agit de déterminer les quantités à fabriquer (xi,t) pour les différents produits sur l’horizon de planification fini, de manière à satisfaire la demande en respectant les contraintes de capacité et minimiser un coût. I.3.2. Ordonnancement : Modèles par dates Résoudre un problème d'ordonnancement c'est trouver une adéquation entre un travail à effectuer, décrit sous la forme d'un ensemble de tâches interdépendantes, et les moyens disponibles pour sa réalisation [Esquirol et Lopez, 1999]. Il s’agira de produire les quantités (lots) déterminées à l’issue de la planification, dans les délais. Ces lots (ou ordres de fabrication) doivent traverser l’atelier de fabrication en subissant diverses opérations, dans un ordre fixe ou non afin d’obtenir des produits finis. Une opération (ou tâche) correspond au traitement d’un ordre de fabrication par une ressource. « Ordonnancer un ensemble de tâches, c’est programmer leur exécution en leur allouant les ressources requises et en fixant leurs dates de début » [Gotha, 1993]. Les contraintes principales du problème d’ordonnancement sont les contraintes de précédence qui définissent l’ordre d’exécution des ordres de fabrication, les contraintes de capacité qui expriment le fait que, sur chaque ressource, on ne peut exécuter qu’un nombre limité de tâches simultanément et les contraintes de respect des dates de livraison données aux clients. Les problèmes d’ordonnancement sont aussi caractérisés par des fonctions objectif à optimiser, par exemple : la date de fin de fabrication d’un ordre de fabrication ou de l’ensemble des ordres de fabrication (makespan), le retard algébrique par rapport à la date de fabrication souhaitée, etc. Dans les modèles par dates, les variables de décision sont les dates de début des tâches ti sur les différentes ressources. On définit une tâche comme étant une quantité de travail concernant la fabrication d'un produit caractérisée par sa durée d'exécution pi . Les contraintes principales du problème d’ordonnancement avec un modèle par dates sont les suivantes [Thierry, 2003] : - les contraintes de précédence se traduisent de la manière suivante : ∀݅, ∀݆, ݐ݆ − ݐ݅ ൒ ݅݌ = ݆݅ܽ ܿ݁ݒܽ ݆݅ܽ pour les contraintes de succession. Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 23 - les contraintes de capacité qui expriment le fait que, sur chaque ressource, on ne peut faire qu'un nombre limité de tâches simultanément. Parmi ces contraintes, on distingue : o les contraintes disjonctives qui concernent les ressources de capacité unitaire, ce sont des contraintes du type “tâche i avant tâche j” ou “tâche j avant tâche i” qui s’expriment comme une disjonction de contraintes de potentiels : ݐ݅ + ݌݅ ൑ ݅ݐ ൑ ݆݌ + ݆ݐ ݑ݋ ݆ݐ ; o les contraintes cumulatives dans le cas de ressources de capacité non unitaire. Il faut exprimer que, à chaque instant, les moyens nécessaires à l'exécution d'un certain nombre de tâches sont limités sur une unité de production. Ceci se ݎܥ ൑ ݎ,ݐ,݅ݍ ݅ ,ݎ ∀ ,ݐ ∀ : traduit par la contrainte suivante ݎ,ݐ,݅ݍ , étant la quantité de ressources utilisée pour l'exécution de la tâche i sur la ressource r à l'instant t et ݎܥ la capacité de la ressource r. - les contraintes de respect des dates de livraison : les dates de livraison données par le client doivent être respectées. Le modèle par dates de début exprime le fait que la date de fin d’une tâche doit être inférieure à la date échue concernant cette tâche. Ce qui se traduit par des contraintes de type : ݐ݅ + ݌݅ ൑ ߚ݆ ݆ߚ avec la date échue de la tâche i. Plusieurs classes de problèmes d’ordonnancement peuvent être envisagées. En effet, les ressources sont soit renouvelables soit consommables (figure I.6, [Lopez, 1991]). Dans le cas où elles sont renouvelables disjonctives, on définit un problème d’atelier (Ressource unique, Job shop, Flow shop, Open shop) et si elles sont renouvelables cumulatives, on définit un problème d’ordonnancement à ressources limitées (RCPSP, Resource-Constrained Project Scheduling Problem). Figure I.6. Classification des problèmes d’ordonnancement: Modèles par dates [Lopez, 1991] Pas de ressources Avec ressources Consommables Renouvelables Disjonctives Cumulatives Problèmes d’atelier Ressource unique Ressources multiples Une machine Flow shop Job shop Open shop Problème central Pas de ressources Avec ressources Consommables Renouvelables Disjonctives Cumulatives Problèmes d’atelier Ressource unique Ressources multiples Une machine Flow shop Job shop Open shop Problème centralChapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 24 Ces modèles par dates de début peuvent être utilisés au niveau opérationnel comme au niveau tactique dans la mesure où ils permettent de considérer chaque ressource individuellement, ou aussi l'unité de production (Poste de charge, Site de production) comme un ensemble de ressources capables de dispenser globalement une certaine quantité de service. Toutefois, on atteint les limites de cette agrégation lorsqu’il s’agit de production en moyenne ou grande séries et que le dimensionnement des lots (des quantités) est au centre du problème. Dans ce cas, ces modèles ne sont utilisés qu’au niveau opérationnel (ordonnancement à court terme) et ils sont couplés avec un modèle par quantités pour les décisions à moyen terme (planification). I.4. La Planification : un vecteur de hiérarchisation et d’intégration Une vision hiérarchique de la planification au sein d'une entreprise est indispensable, car elle permet de savoir et de décliner les objectifs verticalement sur les niveaux. Mais celle-ci, seule, ne permet pas à la planification d'être pilotée efficacement. Elle devra être complétée par une vision horizontale intégrant la notion client/fournisseur. Cette vision s’appuiera essentiellement sur la mise en œuvre d'une démarche processus, démarche transverse focalisée plus particulièrement sur les bénéficiaires le travail est réalisé. Dans ce paragraphe, nous présentons en première partie les approches multi-niveaux de la planification. Elles décrivent les structures décisionnelles liées à la planification et l’ordonnancement. En deuxième partie, nous présentons la vision verticale de la planification. I.4.1. Les approches multiniveaux : supports de la hiérarchisation verticale La complexité du problème de gestion de la production liée à un grand nombre de données à traiter a conduit à des programmes mathématiques de grande taille. Cette complexité importante explique le recours à l’utilisation de méthodes de décomposition issues de la programmation mathématique ou bien encore les techniques d’agrégation-désagrégation développées en optimisation mathématique [Fontan et al., 1997]. L’utilisation des structures multi-niveaux permet alors de réduire la complexité du modèle réduisant ainsi le temps de calcul associé à sa résolution. Cependant, cette procédure hiérarchisée n'est souvent pas cohérente [Wolosewicz, 2008]. En effet, la planification et l’ordonnancement sont deux modules traités habituellement indépendamment l’un de l’autre. En effet, les modèles de planification tiennent compte des contraintes de capacité de façon Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 25 trop agrégée et ne garantissent pas la faisabilité du plan de production lorsqu’il est transmis au niveau inférieur. Une conséquence de ces incohérences entre les décisions des deux niveaux est le non respect des délais qui devient une attente de plus en plus forte de la part des clients. Dans sa thèse, Hernandez Silva [Hernandez Silva, 2008] indique que les travaux de recherche dans le domaine de la mise en œuvre des structures décisionnelles peuvent se diviser en trois grandes classes : la planification hiérarchisée de la production, l’ordonnancement hié- rarchisé de la production et l’intégration de la planification et l’ordonnancement. Nous pré- sentons dans la suite les approches hiérarchisées de planification, les approches hiérarchisées d’ordonnancement ainsi que les approches intégrées de planification-ordonnancement. I.4.1.1. Approches hiérarchisées de planification et d’ordonnancement La décomposition hiérarchique du problème global a été largement adoptée par plusieurs auteurs. Cette décomposition s’appuie sur une structure décisionnelle hiérarchique où la solution obtenue par un niveau constitue une contrainte pour la résolution du problème au niveau inférieur. Elle consiste en des raffinements successifs de décisions (désagrégation des décisions).Au sommet de la hiérarchie, les données manipulées sont agrégées et les horizons temporels sont longs. Plus on descend dans la hiérarchie, plus les horizons temporels se raccourcissent et les données manipulées sont détaillées. Ces approches sont souvent associées à des mécanismes d’agrégation. i. Agrégation des données Le concept d’agrégation est généralement défini comme une forme d’abstraction par laquelle un ensemble de données ou de variables présentant des caractéristiques communes peut être remplacé par une donnée ou une variable agrégée [Fontan et al., 1997]. Nous distinguons une agrégation sur les matières qui vise à regrouper des produits ou des ressources ne se différenciant que par des caractéristiques jugées secondaires, en familles de produits ou en familles de machines, une agrégation sur le temps qui permet de regrouper un ensemble de périodes élémentaires consécutives dans une macro-période et une agrégation du travail qui permet de représenter différentes tâches élémentaires devant se succéder par une macro-tâche [Hernandez Silva, 2008]. Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 26 ii. Planification hiérarchisée de la production Nous trouvons la planification hiérarchisée de la production dans un grand nombre de travaux. L’une des toutes premières en planification hiérarchisée est l’approche de Hax et Bitran basée sur une agrégation des produits en types et familles [Bitran et Hax, 1977]. Un premier regroupement en famille est effectué pour les produits ayant des gammes de fabrication similaires et un second regroupement en type pour les familles ayant le même coût unitaire de production, le même coût de stockage et la même demande externe. La première étape de planification est réalisée moyennant une résolution par programmation linéaire. La capacité de production dans cette première étape est allouée aux différents types de produits. En deuxième étape, une désagrégation est effectuée sur la première période de l’horizon de planification. Pour chaque type, la production est répartie en familles. En troisième et dernière étape, la production de chaque famille est répartie entre les articles de sa famille. D’autres approches à deux niveaux basées sur une agrégation des produits existent. Nous pouvons citer par exemple les travaux de [Tsubone et al., 2002] et [Ashayeri et Selen, 2003]. [Mehra et al., 1996] propose aussi une structure du même type (à deux niveaux) où les produits sont agrégés en familles de produits, les machines en cellules et le temps en périodes. Mercé [Mercé, 1987] propose une approche de planification hiérarchisée à deux niveaux fondée sur une agrégation homogène des produits. La planification agrégée permet de définir, à chaque période et pour chaque produit agrégé, la quantité à produire de façon à satisfaire la demande agrégée et en minimisant les coûts associés à ce niveau. Elle est effectuée sur un horizon glissant découpé en périodes. La planification détaillée permet de répartir la production agrégée entre les différents produits d’une même classe, en vue de satisfaire la demande détaillée. Récemment, Gharbi [Gharbi et al., 2009] a proposé une approche fondée sur une structure à deux niveaux décisionnels. Le premier niveau effectue une planification agrégée en minimisant le coût global de production. Il établit ensuite « un plan de guidage » qui est transmis au niveau détaillé. Ce dernier effectue sa planification en suivant « au mieux » le plan de guidage et en prenant en compte les contraintes et données détaillées ignorées au niveau supérieur. Le niveau détaillé est formulé selon un programme linéaire. Au niveau agrégé, le modèle prend en compte les spécificités du processus décisionnel détaillé. Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 27 iii.Ordonnancement hiérarchisé de la production La plupart des travaux dans cette classe d’approches hiérarchisées s’inscrivent dans le domaine des systèmes informatiques [Wolf et Chen, 1995]. Cependant, nous trouvons quelques approches d’ordonnancement hiérarchisé dans le domaine des systèmes de production. Une agrégation sur les ressources est généralement appliquée. Dans ce cadre, nous citons par exemple les travaux de [Hernandez Silva, 2008]. Il propose une structure hiérarchisée où le niveau supérieur établit un macro-ordonnancement qui permet de positionner les ordres de fabrication et des opérations sur des périodes de manière à satisfaire au mieux les niveaux décisionnels retenus sur le moyen terme. Le niveau inférieur est chargé de réaliser un ordonnancement détaillé en positionnant finement (temps continu, horizon court-terme) les opérations de fabrication sur les ressources. Il est chargé de suivre au mieux le macro-ordonnancement généré par le niveau supérieur de décision ; voir aussi [Tsukiyama et al., 1998] ou [Tung et al., 1999] et les travaux de [Fontan et al., 2005]. Dans la suite, nous présentons quelques approches de la littérature qui s’inscrivent dans le cadre des approches intégrées de planification et d’ordonnancement. I.4.1.2. Approches intégrées de planification/ordonnancement Dans ces approches intégrées de planification et d’ordonnancement, le niveau supérieur détermine les tailles des lots et les niveaux inférieurs sont chargés de l’ordonnancement et de l’affectation des opérations sur les ressources ou les lignes de production. Etant donné la complexité posée par l'intégration de la planification et de l’ordonnancement, peu de recherches ont été faites dans ce domaine. Cette complexité est essentiellement relative à la taille des problèmes. Nous présentons dans ce qui suit diverses approches proposant l’intégration de niveaux hiérarchiques de décision existant dans la littérature. A partir d’un modèle hiérarchisé à deux niveaux, [Fontan et Imbert, 1985] ont développé une approche intégrée qui permet d’obtenir un plan de production sur un horizon prédéfini, et faisable sur la première période de cet horizon. Le premier niveau (niveau planification) génère un plan de production sur un horizon discrétisé en périodes, et un deuxième niveau (niveau ordonnancement) permet de vérifier si, à la première période, il correspond un ordonnancement satisfaisant ce plan. Cette méthode garantit la faisabilité du plan pour la première période de l’horizon. Les décisions générées par le premier niveau de décision seront remises en cause dans le cas où, au niveau inférieur, il n’existe pas d’ordonnancement Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 28 faisable pour la première période. Cette remise en cause est traduite par une augmentation du nombre d’heures de production de la première période ou une diminution du volume de fabrication dans cette même période. La procédure itérative prend fin à l’obtention d’un plan faisable (figure I.7). Figure I.7. Procédure itérative [Fontan et Imbert, 1985] Plus récemment, [Van Wassenhove et Potts, 1991] présentent un modèle général où les décisions liées au batching (regroupement en lots de production) et au lot-sizing (détermination de la taille des lots) doivent être prises simultanément avec celles définissant un ordonnancement. Le but est de mieux ordonnancer la production pour un plan déjà fixé pour des ateliers de type flow-shop et open-shop. Cependant, ils ne proposent aucune méthodologie permettant de résoudre ce problème. Dans la suite, nous présentons d’autres approches intégrées classées par leur méthode de résolution. Dauzère-Pérès et Lasserre ont développé un modèle et une méthode de résolution pour le problème global de planification et d’ordonnancement. L’approche développée permet de traiter de façon simultanée la planification et l’ordonnancement d’un atelier de type jobshop et garantit de plus la faisabilité du plan de production au niveau ordonnancement. Ils proposent un modèle intégré qui prend en compte les décisions de séquence et en considérant la capacité au niveau de l’ordonnancement ([Dauzère-Pérès et al., 1994], [Dauzère-Pérès et al., 2002]). Non Oui Désagrégation de la solution Informations utiles pour le niveau inférieur Résolution du modèle agrégé par programmation mathématique Révision des données par le niveau supérieur Résolution du modèle détaillé Fin Stop Niveau planification Niveau ordonnancementChapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 29  Le niveau tactique génère, à partir des demandes clients, un plan de production. Ce niveau assure qu’il existe un ordonnancement pour exécuter ce plan.  Le niveau opérationnel génère un ordonnancement à partir du plan de production calculé précédemment. Les auteurs proposent une procédure itérative (cf. figure I.7) où ils alternent entre :  la résolution optimale du module planification pour une séquence fixée des opérations (les contraintes de capacité sont exprimées pour une séquence fixée y de passage des produits sur les machines). Le plan calculé est faisable au moins pour l’ordonnancement utilisant la séquence y sur les machines. Le modèle est résolu par Programmation Linéaire ;  la résolution du module ordonnancement pour un plan de production fixé. Il s’agit de trouver une séquence y’ meilleure que la séquence y qui a permis de le calculer. Ce problème est résolu en utilisant une heuristique et ceci pour des raisons d’efficacité. Figure I.8. Méthode de résolution intégrée de Dauzère-Pérès [Wolosewicz, 2008] Cette méthode reste limitée en particulier dans le module planification : associer des variables binaires aux coûts et temps de lancement rend le modèle difficile à résoudre par un logiciel standard de programmation linéaire (CPLEX, XPRESS-MP, …), tout en maintenant des temps de calcul acceptables. Module Planification Module Ordonnancement Niveau Planification Niveau Ordonnancement Plan réalisable Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 30 [Sikora et al., 1996] proposent une approche intégrée de planification et d’ordonnancement qui résout le problème période par période sur tout l’horizon de planification. Ils adoptent une procédure itérative entre le problème de séquencer des opérations sur les ressources et celui de la détermination de la taille des lots pour une machine goulet. La procédure utilise une heuristique modifiée de Silver-Meal jusqu’au moment où la capacité est utilisée au maximum. [Giglio et Minciardi, 2002] décrivent aussi une approche intégrée pour la planification et l’ordonnancement. Le modèle qu’ils proposent est formulé par deux types de variables de décision : les variables continues pour le problème de dimensionnement de lots et les variables binaires pour la séquence des opérations sur les ressources. Toutes les variables binaires sont fixées et par la suite leur modèle est résolu à l’aide d’un outil standard de programmation linéaire. [Yan et al., 2004] propose une structure à deux niveaux où le niveau supérieur détermine un plan grossier de la production par un programme mathématique alors que le niveau inférieur réalise un ordonnancement à l’aide d’algorithmes de type tabou. [Timpe, 2004] développe un modèle de planification et d’ordonnancement intégré pour lequel il propose deux méthodes différentes de résolution, chacune d’elle correspondant à un niveau de décision. Le problème de dimensionnement de lots tenant compte du lancement de la production est résolu à l’aide d’un programme linéaire en variables mixtes et ceci en appliquant une procédure par séparation et évaluation. Ensuite, la programmation par contraintes a été utilisée pour la résolution du problème de séquencement. A une itération i de la procédure par séparation et évaluation, les produits sont affectés aux machines pour la période courante et le problème de séquencement est résolu. Les informations relatives au lancement de production sont transmises au programme linéaire pour la résolution des périodes suivantes. Dans sa thèse, [Wolosewicz, 2008] a utilisé le modèle proposé par Dauzère-Pérès et Lasserre comme modèle de départ pour son étude. Elle a ensuite proposé un nouveau modèle intégré de planification et d’ordonnancement qui permet de déterminer un plan de production pour un ordonnancement fixé. Le modèle prend en compte les contraintes classiques de planification (contraintes d’équilibre de stocks, contraintes liant les variables de production et les variables de lancement, minimisation de l’ensemble des coûts). Pour modéliser les contraintes correspondant à l’ordonnancement, elle a supposé que la séquence des opérations sur les machines est fixée (le graphe conjonctif associé est connu). Les contraintes de capacité Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 31 sont alors modélisées par les chemins du graphe conjonctif. Le nouveau modèle développé permet de calculer un plan de production pour une séquence des opérations fixée. Une heuristique lagrangienne a été appliquée pour la résolution du problème. Une borne inférieure du problème est calculée par la relaxation lagrangienne et une nouvelle heuristique de lissage de la production pour construire une solution réalisable et ainsi obtenir une borne supérieure. Dans le cadre de cette thèse, nous proposons une approche intégrée de planification et d’ordonnancement où le premier niveau de décision s’intéresse à la planification de la production à moyen terme. Cela consiste à planifier les volumes de produits à traiter, pour chaque produit, ainsi que les volumes de production sous-traités et le nombre d’heures supplémentaires utilisées à chaque période de l’horizon. Le deuxième niveau est associé à un ordonnancement agrégé. Cela consiste à planifier pour chaque site de production, sur un horizon de planification discrétisé en périodes plus courtes, les dates de début des opérations de fabrication tout en respectant la limitation de la capacité des ressources de fabrication (nombre de machines notamment). I.4.2.Les processus de planification : supports de l’intégration horizontale Pour rappel, un processus est « l'ensemble des activités reliées entre elles par des flux d'informations significatives et qui se combinent pour fournir un produit matériel ou immatériel important et bien défini » [Lorino, 1995]. Depuis une vingtaine d’années, l’entreprise a commencé à étudier et à manager ces processus. Les différentes évolutions et méthodes organisationnelles (Norme ISO 9001, BPR1 , chaîne logistique, Modèle SCOR2 , etc.) et informatiques (ERP, ECR3 , CPFR4 , BPM5 , etc.) ont conduit les managers à identifier et à définir leur organisation sous forme de processus. Dans ce contexte, la planification doit non seulement intégrer ses objectifs locaux de production au sein de ses décisions, mais aussi prendre en considération et coopérer avec les 1 BPR : Business Processus Reengineering, une remise en cause fondamentale et une redéfinition radicale des processus opérationnels pour obtenir une amélioration spectaculaire des principales performances en matière de coûts, de délai, de service et de qualité [Hammer et Champy, 1993]. 2 SCOR ; Supply Chain Operations Reference model, modèle composé de quatre niveaux, décrit les processus clés présents dans chaque entreprise au sein de la chaîne logistique. 3ECR : Efficient Customer Response, cadre collaboratif garantissant les liens et les enchaînements entre production, gestion des stocks, distribution et processus en contact avec le client de manière totalement continue. 4 CPFR : Collaborative Planning, Forecasting and Replenishment, cadre collaboratif désignant une démarche impliquant entreprise et fournisseur dans l'établissement de programmes d'approvisionnement fondés sur l'élaboration conjointe de prévisions des ventes. 5 BPM : Business Processus Management, démarche portant sur la modélisation, l’automatisation, la gestion et l’optimisation des processus métiers de l’entreprise.Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 32 activités amont et aval. La planification est ainsi amenée à être un support d’intégration et de coordination dans le cadre de l’approche processus de l’entreprise. Nous rappelons ici une classification des tâches de planification sur les quatre processus principaux d’une entreprise que sont : l’approvisionnement, la production, la distribution et la vente. Cette classification sous forme de matrice Processus / Niveaux de décision est proposée par [Stadtler et Kilger, 2005] (figure I.9). Figure I.9. SCP-Matrix [Stadtler et Kilger, 2005] Approvisionnement Production Distribution Vente Long-terme  Programme matières premières  Choix des fournisseurs  Coopération  Localisation des sites de production  Système de production  Structure physique de distribution  Programme produit  Planification stratégique de vente Moyen-terme  Planification des ressources humaines  MRP  Contrats  Programme directeur de production  Planification de la production  Planification de la distribution  Planification moyen terme de la vente Court-terme  Planification des ressources humaines  Commande des matières premières  Réapprovisionnement des entrepôts  Planification du transport  Planification court terme de la vente  Dimensionnement des lots  Ordonnancement  Contrôle de l’atelier Flux physique Flux d’informationChapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 33 I.4.2.1. Le processus Approvisionnement Le processus d’approvisionnement est l’ensemble des opérations qui permettent à l’entreprise de se procurer à l’extérieur tous les produits indispensables à la réalisation de ses activités de production. Il engendre deux activités intimement liées. La première activité est un choix sélectif des fournisseurs de l’entreprise. Ce choix peut se faire sur différents critères comme la qualité, le prix, les délais de réapprovisionnement des matières premières ou composants, mais aussi leur capacité de production, leur facilité à accepter une demande très variable, les conditions de livraison... La seconde activité du processus Approvisionnement consiste à passer les commandes des composants aux fournisseurs sélectionnés en fonction de la production à réaliser. I.4.2.2.Le processus Production Le processus Production concerne l’ensemble des activités permettant de transformer des matières premières en produits finis. L’objectif du processus Production est d’assurer la fabrication des produits requis tout en assurant la productivité de manière à être compétitif. La productivité est traduite par la capacité à produire dans un délai donné le plus possible de produits d’une qualité spécifiée, avec un coût de revient le plus faible possible. Les méthodes utilisées pour la gestion de la production cherchent à améliorer le flux des produits dans les ateliers de fabrication à travers la planification et l’ordonnancement. I.4.2.3.Le processus Distribution Le processus Distribution concerne la livraison des produits finis aux clients et reprend les questions d’optimisation des réseaux de distribution : l’organisation et le choix des moyens de transport, le choix du nombre d’étages (ou d’intermédiaires) dans le réseau de distribution ainsi que le positionnement des entrepôts et leur mode de gestion [François, 2007]. I.4.2.4.Le processus Vente Le processus de vente, géré par le service commercial, comprend diverses activités de l’entreprise, commençant par la commande du client jusqu’à la livraison du produit et l’établissement de la facture. Cependant, il exclut la fabrication du produit au sens large. Le processus de vente comprend aussi la détermination du prix, du délai et la rédaction du devis. Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 34 Les aspects marketing (analyse de marché, publicité, promotions, …) sont aussi gérés dans ce processus. Figure I.10. La planification : support d’intégration horizontale Ainsi, l’orientation processus a pour but d’améliorer la coordination et l’intégration de l’ensemble des activités liées à l’approvisionnement, la fabrication et à la commercialisation des produits. La coordination concerne la gestion des flux physique et informationnel véhiculés par ces processus. Elle repose sur l’utilisation des nouvelles technologies de l’information et de la communication qui permettent de véhiculer et de traiter l’information entre les différents processus. [Bourrières et al., 2005] soulignent que « la mondialisation des marchés, concernant aussi bien la clientèle que la concurrence ou les offreurs de technologie, devient une réalité pour la plupart des entreprises manufacturières. Pour y faire face, les entreprises tendent à s'allier à des fournisseurs, co-traitants ou entreprises clientes au sein de réseaux de partenariat ». Par exemple, dans une relation client-fournisseur, le processus Vente de l’entreprise « fournisseur » est en relation directe avec le processus Achat de l’entreprise « client ». C’est dans ce contexte de relations inter-entreprises qu’est apparue une nouvelle structuration en réseau des entreprises, connue sous le nom de « Chaîne Logistique ». Informer Planifier Livrer Approvisionner Produire Livrer Appros Entreprise Fournisseur (interne ou externe) externe) Client (interne ou externe)Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 35 I.5. La chaîne logistique La chaîne logistique est un champ d’étude important qui a donné lieu à une littérature très abondante. Il n’y a pas une définition universelle de ce terme. Nous citons ci-dessous quelques définitions, issues de la littérature scientifique. Relativement au rôle que joue une chaîne logistique dans le processus de transformation d’un produit, certains auteurs ([Lee et Billington, 1993], [Rota-Frantz et al., 2001], [La Londe et Masters, 1994]) assimilent une chaîne logistique à un réseau d’installations qui assure les fonctions d’approvisionnement en matières premières, de transformation de ces matières premières en composants puis en produits finis, et de distribution des produits finis vers le client (cf. figure I.11). [Tayur et al.,1999] définissent une chaîne logistique pour un produit donné comme un système de sous-traitants, de producteurs, de distributeurs, de détaillants et de clients entre lesquels s’échangent les flux matériels dans le sens des fournisseurs vers les clients et des flux d’information dans les deux sens. Pour d’autres ([Mentzer et al., 2001], [Génin, 2003], [Stadtler et Kilger, 2000]), la chaîne logistique est centrée sur l’entreprise. Elle est définie comme un réseau d’organisations ou de fonctions géographiquement dispersées sur plusieurs sites qui coopèrent, pour réduire les coûts et augmenter la vitesse des processus et activités entre les fournisseurs et les clients. Si l’objectif de satisfaction du client est le même, la complexité varie d’une chaîne logistique à l’autre. Parmi les différentes définitions, celle de Lee et Bellington nous semble la plus adaptée à notre problématique : « Une chaîne logistique est un réseau d'installations qui assure les fonctions d'approvisionnement en matières premières, de transformation de ces matières premières en composants puis en produits finis, et de distribution des produits finis vers le client » [Lee et Bellington, 2003]. Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 36 Figure I.11. Représentation d’une chaîne logistique [Lee et Billington, 1993] I.5.1. Structure des chaînes logistiques Il est important d’identifier une structure qui permet de caractériser les entités qui interagissent pour former une chaîne logistique [Mahmoudi, 2006]. Toutefois et vu la grande variété des types de fabrication et des périmètres des chaînes, il est difficile de cerner l’ensemble des cas réels des structures des chaînes logistiques [Galasso, 2007]. Dans la littérature scientifique, on distingue un ensemble de typologies usuelles, sur lesquelles sont fondées les modélisations existantes. [Huang et al., 2003] décomposent par exemple, ces structures en : série, dyadique, divergente, convergente et réseau. Les structures de base (figure I.12) sont présentées ci-dessous : - La structure série : Elle correspond à un procédé de fabrication linéaire et vertical. Cette structure peut être utilisée, par exemple, pour étudier l’influence de la propagation de l’information sur l’ensemble de la chaîne [Galasso, 2007]. - La structure dyadique : Elle peut être vue comme un cas particulier d’une chaîne logistique en série, limitée à 2 étages. Elle peut servir de base à l’étude de relations client/fournisseur ou donneur d’ordre/sous-traitant ([Huang et al., 2003], [Galasso, 2007]). Stockage Stockage Producteur Stockage Producteur Stockage Stockage Assembleur Distributeur Client Client Client Fournisseur FournisseurChapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 37 - La structure divergente : Elle permet de représenter un réseau de distribution où la matière part d’un point unique et se distribue à travers la chaîne. L’industrie électronique est un bon exemple de ce type de chaîne. Un exemple de configuration possible sera composé par un fournisseur de cristaux de silicium, les clients de rang 1 sont des constructeurs de puces, les clients de rang 2 sont des constructeurs de circuits intégrés et des assembleurs de téléphones mobiles en ce qui concerne le rang 3 [François, 2007]. - La structure convergente : Elle permet de modéliser un processus d’assemblage. Dans une chaîne convergente, la matière qui circule entre les sites converge vers un seul et même site qui est logiquement le lieu d’assemblage final. L’industrie automobile est un bon exemple de ce type de chaîne. Une usine de construction de voitures aura des fournisseurs d’équipements (carrosserie, siège, pare-brise, …) dans le rang 1, des fournisseurs de textile (pour les sièges, …) dans le rang 2, etc. [François, 2007]. - La structure réseau : Elle est une combinaison des deux structures précédentes. Elle permet de considérer à la fois les aspects approvisionnements et distribution, mais peut s’avérer plus complexe par le nombre d’acteurs impliqués, en particulier pour des produits complexes. [Lambert et Cooper, 2000] et [Min et Zhou, 2002] proposent de classer les acteurs en deux catégories (membres essentiels et membres secondaires) tels que les membres essentiels sont ceux qui contribuent à l’élaboration du produit. Afin d’optimiser le réseau, ils proposent de se concentrer sur les membres essentiels et même sur certaines relations uniquement notamment les fournisseurs les plus critiques. La structure réseau concerne par exemple l’industrie automobile dont, la partie amont est plutôt convergente alors que la partie aval est divergente. [François, 2007] indique que «la topologie d’une chaîne logistique est généralement de type « réseau », avec des ramifications plus ou moins grandes. En effet, une structure purement convergente signifie l’absence des réseaux de distribution pour la vente des produits. De même, une structure purement divergente est improbable, car cela signifierait que le produit fini ne découle que d’un fournisseur amont… ». Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 38 Figure I.12. Différentes structures de la chaîne logistique, [Mahmoudi, 2006] En plus de cet aspect structurel, les objectifs liés à la création de relations de partenariat donnent lieu à une terminologie bien particulière [Jagdev et al., 2003]. Nous présenterons dans le paragraphe suivant quelques grandes catégories de réseaux d’entreprises-partenaires en fonction des objectifs de ces groupements. I.5.2. Catégories des chaînes logistiques On distingue principalement trois formes d’entreprises-partenaires qui constituent des chaînes logistiques: - L’entreprise étendue : Elle désigne un partenariat durable entre plusieurs entreprises organisées, dans plusieurs cas, autour d’un grand donneur d’ordres et cela pour faire face à la concurrence dans le marché ; - L’entreprise virtuelle : Elle désigne un réseau d’entreprises géographiquement dispersées et juridiquement indépendantes collaborant dans le but d’atteindre un objectif auquel elles n’auraient pu répondre seules. La caractéristique majeure de ce type d’entreprise est qu’elle représente un réseau collaboratif temporaire. La Entreprise Grossiste Grossiste Détaillant Détaillant Divergente Détaillant Sous-traitant Donneur d’ordre Dyadique Entreprise Grossiste Grossiste Détaillant Détaillant Détaillant Fournisseur Fournisseur Fournisseur Fournisseur Fournisseur Réseau Entreprise Fournisseur Fournisseur Fournisseur Fournisseur Fournisseur Convergente Fournisseur Client Entreprise Grossiste Détaillant SérieChapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 39 durée de vie de cette collaboration est limitée à celle du marché visé ([Galasso, 2007], [Gharbi, 2012]). L’intérêt de ces entreprises virtuelles est donc de pouvoir cumuler les savoir-faire spécifiques des entreprises pour gérer la totalité du cycle de vie du projet (en incluant les phases de définition, conception, fabrication/réalisation, commercialisation, marketing…) [Nayak et al., 2001]. - L’entreprise multi-sites. Elle fait référence à des entreprises dont la production est répartie sur plusieurs sites distingués géographiquement (cf. figure I.13). Figure I.13. Exemple d’une entreprise multi-site [Thierry, 1994] Cette troisième forme est très émergente dans le monde industriel. Les entreprises multisites se trouvent dans plusieurs secteurs industriels tels que l’industrie automobile (Renault, Mercedes-Benz, etc.), l’industrie aérospatiale (Airbus, Dassault Aviation, etc.), l’industrie électronique et électrique (Schneider, Merlin Gerin, etc.). Dans un tel type d’entreprise, chaque site est considéré comme une entité autonome qui gère un certain nombre de ressources pour réaliser un ensemble d’activités de production qui relèvent de sa charge. Cette gestion de la production est souvent assurée par des outils informatisés propres au site considéré. La production globale de l’ensemble de l’entreprise s’effectue, ainsi, d’une manière distribuée en s’appuyant sur des mécanismes de coordination et de coopération entre les différents sites. Cependant, une telle organisation constitue, selon plusieurs cas d’études, une source d’inefficacité [Bourrières et al., 2005]. En fait, chaque système local assure le pilotage de sa Sous-Traitant de capacité Sous-Traitant de compétence Fournisseurs matières premières Clients Site1 11 Site n Site 2Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 40 production avec une vision restreinte de l’ensemble des ressources et des objectifs qui lui sont propres, ce qui n’assure pas forcément l’optimisation globale de la production à l’échelle de l’entreprise multi-sites dans son ensemble. De plus, malgré l’effort consenti pour améliorer les méthodes permettant de rendre plus fiables les processus de coordination et de coopération entre les différents sites, chaque système local ne parvient pas vraiment à prendre en compte les ressources des autres sites lors de la conduite de son processus de fabrication. Il en résulte alors, une mauvaise utilisation des ressources de l’entreprise multi-sites. Une telle inefficacité peut être la cause de problèmes divers tels que le retard de livraison ou bien le manque de réactivité aux opportunités de marché, et peut affecter sérieusement la compétitivité et la performance de l’entreprise. Le besoin d’appréhender la problématique de la gestion globale de la production dans un réseau d’entreprises et, plus particulièrement, dans un contexte d’entreprise multi-sites devient de plus en plus une exigence. Des travaux récents se sont intéressés à fournir des solutions à cette problématique : [Thierry, 1994], [Ozdamar et Barbarosoglu, 1999], [Camalot, 2000], [Bourrières et al., 2005]. I.5.3. Gestion de la chaîne logistique (Supply Chain Management – SCM) Le Supply Chain Management (SCM), ou gestion de la chaîne logistique intégrée a fait l’objet de nombreuses définitions dans la littérature anglo-saxonne. [Stadtler et Kilger, 2005] définissent le SCM comme : « La tâche d’intégrer les unités organisationnelles tout au long de la chaîne logistique et la coordination des flux physiques et d’informations dans le but de satisfaire la demande du client (final) en ayant pour but d’améliorer la compétitivité de la chaîne dans son ensemble ». Des synthèses sur le SCM ont été publiées dans [Tayur et al., 1999], [Tan, 2001] et [Croom et al., 2001]. On relève ici plusieurs définitions [Mentzer et al., 2001]. Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 41 [Jones et Riley, 1985] La gestion de la chaîne logistique est une approche intégrative pour s’accorder sur la planification et le contrôle du flux physique depuis les fournisseurs jusqu’à l’utilisateur final. [Simchi-Levi et al., 2003] La gestion des chaînes logistiques est un ensemble d'approches utilisées pour intégrer efficacement les fournisseurs, les producteurs, les distributeurs, de manière à ce que la marchandise soit produite et distribuée à la bonne quantité, au bon endroit et au bon moment dans le but de minimiser les coûts et d'assurer le niveau de service requis par le client. [Berry et al., 1994] La gestion de la chaîne logistique a pour but d’établir des relations de confiance, d’échanger des informations sur les besoins du marché, de développer des nouveaux produits et de réduire la base de fournisseurs d’une entreprise afin de libérer des ressources de gestion pour développer des relations significatives sur le long terme. [Thomas et Griffin, 1996] La gestion de la chaîne logistique est la gestion des flux de marchandises et d’informations à la fois dans et entre les sites tels que les points de vente, les centres de distribution et les usines de production et d’assemblage. [Tan et al., 1998] La gestion de la chaîne logistique englobe la gestion des approvisionnements et des marchandises depuis les fournisseurs de matières premières jusqu’au produit fini (et aussi de son éventuel recyclage). La gestion de la chaîne logistique se focalise sur la façon dont les entreprises utilisent les processus, la technologie et l’aptitude à améliorer la compétitivité de leurs fournisseurs. C’est une philosophie de management qui prolonge les activités classiques intra-entreprise, rassemblant l’ensemble des partenaires commerciaux avec un but commun d’optimisation et d’efficience. [Geunes et Chang, 2001] La gestion de la chaîne logistique est la coordination et l’intégration des activités de la chaîne logistique avec l’objectif d’atteindre un avantage compétitif viable. La gestion de la chaîne logistique comprend donc un large panel de problématiques stratégiques, financières et opérationnelles. Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 42 Tableau I.1. Définitions de la gestion de la chaîne logistique Les entreprises appartenant à une même chaîne logistique sont liées par des flux de produits, des flux d’informations et des flux financiers. Pour optimiser le fonctionnement de la chaîne logistique, les entreprises impliquées doivent se coordonner en tentant de satisfaire, d’une part, leurs objectifs locaux et, d’autre part, les objectifs globaux de la chaîne logistique. La gestion d’une chaîne logistique pose ainsi un problème de décision distribuée où les contextes et les objectifs propres aux différents acteurs de la chaîne diffèrent, malgré les intérêts communs partagés. I.5.4. Offres en logiciels pour la gestion de la chaîne logistique (SCM) Les exigences issues de la gestion efficace des chaînes logistiques et le besoin de réactivité ont rendu nécessaire l’adaptation des entreprises à de nouveaux modes de gestion de l’information. En particulier, les aspects humains sont de première importance pour que la collaboration se déroule dans de bonnes conditions. Néanmoins, l’implémentation d’outils support à la collaboration ne doit pas être négligée. Les technologies de l’information et de la communication (TIC) ont fortement influencé l’évolution des entreprises dans cette direction [Gunasekaran et al., 2006]. [Rota-Franz et al., 2001] Faire du “Supply Chain Management” signifie que l’on cherche à intégrer l’ensemble des moyens internes et externes pour répondre à la demande des clients. L’objectif est d’optimiser de manière simultanée, et non plus séquentielle, l’ensemble des processus logistiques. [Dominguez et Lashkari, 2004] L’intérêt du Supply Chain Management (SCM) est de faciliter les ventes en positionnant correctement les produits en bonne quantité, au bon endroit, et au moment où il y en a besoin et enfin à un coût le plus petit possible. Le principal objectif du SCM est d’allouer efficacement les ressources de production, distribution, transport et d’information, en présence d’objectifs conflictuels, dans le but d’atteindre le niveau de service demandé par les clients au plus bas prix. Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 43 Figure I.14. Positionnement de l'offre logicielle en SCM [Botta-Genoulaz, 2003] La figure I.14 présente un état des lieux sur les systèmes d’information et de communication utilisables par les entreprises, couvrant la majeure partie des besoins de l’entreprise sur les différents niveaux décisionnels. En effet, compte tenu du nombre de variables à traiter et de l’éclatement géographique des sites de production, les TIC sont au cœur de la gestion d’entreprise et de la chaîne logistique. On y trouve pour : La gestion de la logistique industrielle : APS (Advanced Planning and Scheduling), ERP (Entreprise Ressources Planning), les logiciels de GPAO (Gestion de Production Assistée par Ordinateur), MES (Manufacturing Execution System), etc. La gestion des entrepôts : Progiciels de gestion d’entrepôts (WMS Warehouse Management System) et les applications de gestion de stocks. La communication et échange de données inter-entreprises : Bon de commande, Facturation, réception en magasin, ordre d’expédition, niveau de stocks, etc. Cela repose sur des réseaux et standard EDI (Electronic Data Interchange), les CRM (Customer Relationship Management) et les AOM (Advanced Order Management). Optimisation du réseau logistique APS MES Planification production Planification distribution Planification transports CRM Prévisions ATP/CTP Gestion des achats GPAO Ordonnancement Gestion des stocks Gestion des transports ERP SRM Administration des ventes SCE WMS TMS AOM Acheter Fabriquer Distribuer Stocker Vendre Stratégique Tactique Opérationnel Exécution EDI / Internet Fournisseurs Années Mois Semaines Jours Clients Chapitre I. Gestion des activités de production : Contexte et positionnement du travail de recherche 44 La gestion de flotte : Logiciels d’optimisation de chargements, de tournées, d’itinéraires et de gestion de parc (TMS Transport Management System), GPS (Global Positioning System) de localisation des véhicules. La traçabilité des marchandises : Identification et localisation des produits, des lots de production, d’un contenant, etc. Elle met en œuvre des technologies d’identification (code-barres, RFID Radio Frequency IDentification) et de communication GPS. Notre travail de thèse s’inscrit dans l’évolution des ERP vers les APS. En effet, l’ERP étant un système transactionnel, il demande désormais d’être complété par des systèmes décisionnels ou d’aide à la décision dans un but d’optimisation dépassant les frontières de l’entreprise [François, 2007]. En réponse, un APS permet l’optimisation du flux matière pour des sites de production distants [Stadtler et Kilger, 2005]. Il est défini comme étant « une solution logicielle permettant de résoudre des problèmes de planification complexes en appliquant les techniques d’optimisation » [Wolosewicz, 2008]. Les APS peuvent notamment prendre en compte la capacité finie des ressources lors de la planification, simuler plusieurs scénarios de planification et gérer plusieurs sites de production, ce qui est nécessaire dans le cas des entreprises multi-sites ou des réseaux d’entreprises. I.6. Conclusion La gestion des chaînes logistiques touche différents niveaux décisionnels. Notre travail de thèse s’intéresse à la planification tactique et opérationnelle d’une chaîne logistique. Dans ce chapitre, nous avons élaboré une revue des approches de planification / ordonnancement et nous avons posé la fonction planification dans ses dimensions horizontale et transversale. Pour la planification dynamique d’une chaîne logistique, nous proposons une approche décisionnelle à deux niveaux. Le modèle proposé intègre les décisions prises au niveau supérieur comme contraintes à respecter au niveau inférieur (niveau opérationnel) en vue de garantir la faisabilité du plan de production. Il sera modélisé sous forme d’un Problème de Satisfaction de Contraintes (Constraint Satisfaction Problem, CSP). Ainsi, le chapitre suivant rappelle les notions de base des problèmes de satisfaction de contraintes, les mécanismes de résolution et les extensions dans un contexte dynamique. Chapitre II. Les problèmes de satisfaction de contraintes 45 CHAPITRE II. LES PROBLEMES DE SATISFACTION DE CONTRAINTES Chapitre II. Les problèmes de satisfaction de contraintes 46 II.1. Introduction Les problèmes de satisfaction de contraintes ou CSP (Constraint Satisfaction Problems) offrent un formalisme générique permettant la modélisation d’un grand nombre de problèmes d’optimisation combinatoire (planification, ordonnancement, conception, diagnostic, …). Sur le plan de la résolution, l’approche par satisfaction de contraintes combine des méthodes de recherche opérationnelle (théorie des graphes, programmation mathématique, méthodes exactes et approchées, etc.), avec des techniques issues de l’intelligence artificielle (algorithmes de recherche arborescente, algorithmes de propagation de contraintes, langages de programmation par contraintes, etc.). Résoudre un CSP consiste à affecter des valeurs aux variables du problème telles que toutes les contraintes soient satisfaites. En général, la résolution consiste à trouver une solution admissible (problème de satisfaisabilité) ou une solution de meilleur coût (problème d’optimisation). Les langages de programmation par contraintes donnent la possibilité de séparer nettement la modélisation et la résolution d'un CSP. Pour la modélisation, les langages permettent d'exprimer les contraintes de façon naturelle et déclarative, en faisant abstraction de l'exploitation qui en sera faite durant la résolution. Pour la résolution, les langages s'appuient sur des mécanismes (inférence sur les contraintes, filtrage des domaines) dédiés à chaque type de contraintes ; ils proposent également des stratégies de choix de variables et de choix de valeurs pour les variables, afin de guider efficacement la construction des solutions. Dans un contexte dynamique, par exemple dans un problème réel d’ordonnancement d’atelier où l’exécution est rarement conforme à la prévision (pannes machines, commandes urgentes ou annulées, etc.), un modèle CSP nécessite une modification successive des données du problème. La présence de ces aléas implique la nécessité d’introduire un caractère dynamique dans le modèle CSP. La notion de CSP dynamique a ainsi été introduite par [Dechter et Dechter, 1988] pour représenter la situation suivante : un CSP dynamique est une séquence de CSP où chaque élément diffère du premier par l’ajout ou le retrait de certaines contraintes. Pour la résolution des CSP dynamiques, la notion de stabilité des solutions successives devient importante. C’est le cas où le décideur, face à un aléa, désire repartir de la solution précédente pour fournir une nouvelle solution, en conservant si possible le maximum de décisions déjà prises, car la remise en cause d'une décision prend du temps et présente un coût Chapitre II. Les problèmes de satisfaction de contraintes 47 non négligeable. Nous aurons par la suite comme exigence de couvrir ce besoin de stabilité. Dans le cadre de cette thèse, le modèle développé s’inscrit dans l’approche de satisfaction de contraintes dynamiques. La première partie de ce chapitre présente les notions de base d’un problème de satisfaction de contraintes. La deuxième se focalise sur la présentation des problèmes de satisfaction de contraintes dynamiques. La dernière partie est destinée à la présentation des méthodes de résolution pour un problème de satisfaction de contraintes dynamiques. II.2. Le Problème de Satisfaction de contraintes (CSP) II.2.1. Définitions et notions Un problème de satisfaction de contraintes (CSP) est défini par la donnée d’un ensemble de variables, chacune associée à un domaine de valeurs, et d’un ensemble de contraintes qui mettent en relation les variables. De façon plus formelle [Montanari, 1974], [Mackworth, 1977], [Tsang, 1993], on définit un CSP par un triplet (X, D, C) tel que :  X = {X1, X2, …, Xn} est l’ensemble des variables du problème,  D = {D1, D2, …, Dn} est l’ensemble des domaines. A chaque variable Xi אX, 1 ≤ i ≤ n, est associé un domaine Diא D qui représente l’ensemble des valeurs possibles pour Xi,  C = {C1, C2, …, Cm} est l’ensemble des contraintes où une contrainte Ci est définie sur un ensemble de variables {X1, X2,…, Xn} appelé Var(Ci). Étant donné un CSP (X, D, C), la résolution consiste à affecter des valeurs aux variables de telle sorte que toutes les contraintes soient simultanément satisfaites. i. Domaines de calcul On parle de CSP discrets lorsque les variables de décision sont discrètes et les domaines finis et de CSP continus lorsque les domaines sont continus et les variables réelles. ii. Contrainte Une contrainte est une relation entre différentes variables. Cette variable peut être définie en extension ou en intension : Chapitre II. Les problèmes de satisfaction de contraintes 48  Pour définir une contrainte en extension, on énumère les n-uplets de valeurs appartenant à la relation. Par exemple, si les domaines des variables X1 et X2 contiennent les valeurs 0, 1 et 2, alors on peut définir la contrainte « X1 < X2 » en extension par « (X1 = 0 et X2 = 1) ou (X1 = 0 et X2 = 2) ou (X1 = 1 et X2 = 2) », ou encore par « (X1, X2)  {(0,1), (0,2), (1,2)} »,  Pour définir une contrainte en intension, on utilise des propriétés mathématiques connues. Par exemple: « X1 + X2 = 3 » ou encore « X1 + X2 < 2 ». L’arité d’une contrainte est le nombre de variables sur lesquelles elle porte. On dira que la contrainte est :  unaire si son arité est égale à 1, par exemple « X1 * X1 = 4 »,  binaire si son arité est égale à 2, par exemple « X1 ≠ X2 »,  ternaire si son arité est égale à 3, par exemple « X1 + X2< 3 * X3 – 4 »,  n-aire si son arité est égale à n (elle met en relation un ensemble de n variables). On distingue différents types de contraintes en fonction des domaines de valeurs des variables du problème :  Les contraintes numériques, portant sur des variables à valeurs numériques : une contrainte numérique est une égalité (=), une différence (≠) ou une inégalité (<, ≤, >, ≥) entre deux expressions arithmétiques. Sous ce type de contraintes, nous retrouvons : o Les contraintes numériques sur les réels, quand les variables de la contrainte peuvent prendre des valeurs réelles, par exemple une contrainte physique comme « U = R * I », o Les contraintes numériques sur les entiers, quand les variables de la contrainte ne peuvent prendre que des valeurs entières, par exemple une contrainte sur le nombre de personnes pouvant embarquer dans un avion, o Les contraintes numériques non linéaires, quand les expressions arithmétiques contiennent des produits de variables, ou des fonctions logarithmiques, exponentielles, etc. Par exemple, « X1 * X1 = 2 » ou « sinus(X1) + X3 * log(X2) = 4 », o Les contraintes booléennes, portant sur des variables à valeur booléenne (vrai ou faux). Une contrainte booléenne est une implication (=>), une équivalence (<=>) ou une non équivalence (<≠>) entre 2 expressions logiques. Par exemple « (non a) ou b => c » ou encore « non (a ou b) <=> (c et d) ».Chapitre II. Les problèmes de satisfaction de contraintes 49 Enfin, nous signalons que les extensions apportées au modèle CSP de base ont donné lieu à bien d'autres types de CSP que nous détaillerons dans la suite. iii.Vocabulaire utile L’approche CSP fait appel à un certain nombre de termes spécifiques. Pour une meilleure compréhension, nous rappelons les notions suivantes :  On appelle affectation le fait d'instancier certaines variables par des valeurs. On notera A = {(X1, V1),(X2, V2),...,(Xr, Vr)} l'affectation qui instancie la variable X1 par la valeur V1, la variable X2 par la valeur V2,..., et la variable Xr par la valeur Vr.  Une affectation est dite totale si elle instancie toutes les variables du problème ; elle est dite partielle si elle n'en instancie qu'une partie.  Une affectation A viole une contrainte Cj si toutes les variables de Cj sont instanciées dans A, et si la relation définie par Cj n'est pas vérifiée pour les valeurs des variables de Cj définies dans A.  Une affectation (totale ou partielle) est consistante si elle ne viole aucune contrainte, et inconsistante si elle viole une ou plusieurs contraintes.  Une solution est une affectation totale consistante, c'est-à-dire une valuation de toutes les variables du problème qui ne viole aucune contrainte. iv. Exemple CSP Considérons un problème d’ordonnancement comportant quatre activités (1, 2, 3 et 4) ayant chacune une date de début Si , une date de début au plus tôt ESi et au plus tard LSi et une durée Pi (tableau II.1). Activité ESi LSi Pi 1 0 7 3 2 2 6 2 3 1 10 4 4 4 13 1 Tableau II.1.Données du problème Chapitre II. Les problèmes de satisfaction de contraintes 50 Ces activités sont liées par les contraintes de précédence (notée de façon symbolique "" ci-après) :1 → 2, 1 → 3, 2 → 4 ݁ݐ 3 → 4. Notons que sur le plan numérique la contrainte de précédence ݅ → ݆ peut s'exprimer par la contrainteܵ݅ + ܲ݅ ൑ ݆ܵ .Ainsi, ce problème peut être modélisé comme un CSP (X, D, C) où : X = {S1, S2, S3, S4} D = {D1= [0, 7], D2= [2, 6], D3= [1, 10], D4= [4, 13]} C = {C1: S1 + 3 ≤ S2, C2: S1 + 3 ≤ S3, C3: S2 + 2 ≤ S4, C4: S3 + 4 ≤ S4} II.2.2. Techniques de propagation de contraintes Une solution d'un CSP est un ensemble d'instanciations des variables qui satisfait toutes les contraintes. Prouver qu'un CSP a une solution ou trouver une (ou toutes) les solutions d’un CSP reste un problème NP-complet dans le cas général. Pour pallier cette complexité de résolution, des mécanismes de propagation de contraintes peuvent être utilisés. Un grand nombre de ces méthodes ont donc été développées pour tenter de réduire le coût de résolution d’un CSP. Nous nous intéressons dans ce travail aux méthodes employées pour les CSP sur les domaines finis. Parmi ces méthodes, les plus populaires sont les techniques de renforcement de consistance qui visent à réduire l’espace de recherche avant et pendant la résolution. Les techniques de renforcement de consistance ont pour objet de filtrer les domaines. Ces techniques tentent d’éliminer des valeurs dans les domaines des variables pour lesquelles certaines contraintes ne peuvent être satisfaites (valeurs inconsistantes). Cela permet de réduire la taille des domaines et donc de limiter la taille de l'arbre de recherche en éliminant les branches qui portent ces valeurs inconsistantes. Le CSP résultant de ce filtrage est inclus dans le CSP initial, c’est-à-dire que son espace de recherche a été réduit tout en conservant l’ensemble des solutions. La consistance d’arc ou arc-consistance (Arc-Consistency ou AC) est définie pour les CSP binaires (chaque contrainte porte sur deux variables). Cette notion d’arc-consistance peut être étendue à k variables. On obtient alors la k-consistance. Lorsqu'on se limite à représenter les domaines des variables uniquement par leurs bornes inférieure et supérieure (soit un Chapitre II. Les problèmes de satisfaction de contraintes 51 intervalle) plutôt que par l’énumération des valeurs contenues dans le domaine, la propagation de contraintes se réduit à une consistance aux bornes (Bound-Consistency).  Arc-consistance : Soit Xi une variable et Vi une valeur de son domaine DXi. On dit que le couple (Xi , Vi) vérifie l’arc-consistance si et seulement si pour chaque contrainte C telle que Vi  var(C), il est possible de trouver une instanciation réalisable des variables de la contrainte C pour laquelle la valeur Vi est affectée à la variable Xi . Un domaine DXi vérifie l’arc-consistance si et seulement s’il est non vide et toutes ses valeurs vérifient l’arc-consistance. Un CSP vérifie l’arc-consistance si tous ces domaines vérifient l’arc-consistance. Le filtrage par arc-consistance consiste alors à éliminer les valeurs de variables qui ne peuvent pas localement (en se contentant d’observer la situation uniquement du point de vue de la contrainte traitée) figurer dans une solution.  k-consistance: Soit S = {Xi1, Xi2, …, Xik-1} un ensemble de k-1 variables. Une instanciation Is consiste à affecter à chaque variable Xij de S une valeur Vij de son domaine: Is= {(Xi1,Vi1), (Xi2,Vi2), …, (Xik-1,Vik-1)} On dit que Is= {(Xi1,Vi1), (Xi2,Vi2), …, (Xik-1,Vik-1)} vérifie la k-consistance si et seulement si pour toute variable supplémentaire Xik ב S, il existe au moins une valeur Vik  Dvik telle que l’instanciation {(Xi1,Vi1), (Xi2,Vi2), (Xik-1,Vik-1), …, (Xik,Vik)} soit localement consistante. Un sous-ensemble S = {Xi1, Xi2, …, Xik-1} vérifie la kconsistance si et seulement si toute instanciation de ses k-1 variables vérifie la kconsistance. Un CSP est k-consistant si et seulement si tout sous-ensemble de X de cardinal k-1 est k-consistant.  Consistance aux bornes : Une contrainte C vérifie la consistance aux bornes si et seulement si pour chaque variable Xi  var(C) de domaine DXi = [ai , bi], il existe au moins une valeur dans le domaine des autres variables de var(C) qui satisfait C lorsque Vi est instanciée à ai et lorsque Vi est instanciée à bi . Un CSP vérifie la consistance aux bornes si et seulement si toutes ses contraintes vérifient la consistance aux bornes. Chapitre II. Les problèmes de satisfaction de contraintes 52 Exemple : Reprenons les données du tableau II.1. Soit la contrainte C1: S1+ 3 ≤S2. C1n’est pas consistante aux bornes car en affectant à la variable S1, de domaine D1 = [0, 7], la valeur V1 = 7, il n’existe pas dans le domaine de la variable S2 de domaine D2 = [2, 6] une valeur qui satisfasse la contrainte C1. La valeur V1 = 7 doit donc être éliminée du domaine D1. II.2.3. Méthodes de résolution d’un CSP La résolution d’un CSP s'appuie sur des techniques de propagation de contraintes (le plus souvent un filtrage par arc-consistance et / ou par consistance aux bornes), une stratégie de recherche arborescente (phase de recherche de solutions) incluant un retour arrière en cas d'échec, et une heuristique d’instanciation (ordre sur les variables et ordre sur les valeurs). Chaque phase est réalisée au moyen d’algorithmes dédiés.  Phase de propagation de contraintes Le filtrage consiste à éliminer les valeurs des variables qui ne peuvent appartenir à aucune solution. Ceci permet d’éviter des calculs inutiles et permet de mener à une résolution plus rapidement. Lorsqu’un domaine de valeurs devient vide, on parvient à une incohérence et le problème n’admet par conséquent pas de solution. Le filtrage consiste donc au fur et à mesure de l’affectation des variables à s’assurer qu’il ne reste dans les domaines des variables non encore affectées que des valeurs ayant au moins un support pour les contraintes auxquelles elles sont associées. Plusieurs algorithmes de cohérence d’arc (AC) ont été proposés. En 1977, Macworth proposa AC-1 et surtout AC-3 [Macworth, 1977]. Depuis, plusieurs améliorations ont suivi et d’autres algorithmes ont été proposé tels que : AC-4 [Mohr et Henderson, 1986], AC-6, AC-7 et AC-2001 [Bessière et Régin, 2001], [Zhang et Yap, 2001], [Bessière et al., 2005]. La figure suivante (Figure II.1) montre la réduction des domaines des variables pendant la phase de propagation de contraintes. On présente un CSP à 4 variables {x, y, z, w} tel que Dx=Dy=Dz=Dw= {1, 2, 3, 4, 5}, auxquelles on impose 3 contraintes {C1, C2, C3}. Par exemple, initialement, Dx = {1, 2, 3, 4, 5} et après propagation de la contrainte C1, Dx est réduit à deux valeurs : Dx = {1, 2}. Le retrait des valeurs inconsistantes dans le domaine Dx déclenche à son tour le filtrage d'autres domaines, par le biais des autres contraintes. Ceci est réitéré tant qu'on peut prouver l'existence de valeurs inconsistantes, jusqu’à stabilisation Chapitre II. Les problèmes de satisfaction de contraintes 53 complète des domaines, qui deviennent alors minimaux. Ce processus s'apparente au mécanisme de déduction logique en chaînage avant par saturation (recherche de l'ensemble complet des déductions) les déductions consistant ici à éliminer les valeurs inconsistantes. Figure II.1. Phase de propagation de contraintes [Lopez, 2001]  Phase de recherche de solutions Elle consiste à élaborer des combinaisons de valeurs compatibles entre elles au regard de toutes les contraintes. Pour cela, les combinaisons sont construites progressivement, variable par variable, chaque étape étant caractérisée par une solution partielle. La génération cesse dès qu'une variable encore libre voit son domaine devenir vide (inconsistance) ; il faut alors être capable de remettre en cause un ou plusieurs choix précédents. Plusieurs algorithmes de CSP initial Dx= Dy= Dz= Dw= {1, 2, 3, 4, 5} C1 : X + 3 ≤ Y C2 : Z = 2 * X C3 : W = X * Y Propagation 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 C2 1 2 4 5 1 2 3 4 5 1 2 3 4 5 C3 1 2 4 5 2 4 1 2 3 4 5 C2 1 4 5 2 4 4 5 1 45 2 4 5 C1 X Y Z WChapitre II. Les problèmes de satisfaction de contraintes 54 recherche arborescente existent. On distingue par exemple : des méthodes de parcours complet comme Chronogical Backtracking (CB) [Bitner et Reingold, 1975], Limited Discrepancy Search (LDS) [Harvey et Ginsberg, 1995], et des méthodes incomplètes mais parfois plus efficaces comme Randomization and Restart [Gomes et al., 1998]. Certaines de ces méthodes sont des algorithmes hybrides, en ce sens qu’elles intègrent un certain niveau de filtrage avant chaque instanciation de variable dans le développement de l’arbre (Real-FullLook-Ahead, Forward-Checking [Harvey et Elliot, 1980], [Nadel, 1989], Maintaining ArcConsistency (MAC) [Sabin et Freuder, 1994]). Le Chronogical Backtracking ou retour arrière chronologique est une méthode de résolution issue de l’intelligence artificielle pour la résolution des CSP. Son algorithme considère les variables l’une après l’autre. Pour chaque variable, on cherche une valeur qui soit compatible avec toutes les valeurs données aux variables instanciées précédemment. Si une telle valeur existe, alors on passe à la variable suivante. Sinon, on revient sur la dernière variable instanciée pour essayer une autre valeur, et ainsi de suite, jusqu’à ce qu’on trouve une solution ou que l’on explore tout l’espace de recherche. Une autre méthode de recherche de solutions basée sur un parcours particulier de l’arbre de recherche est Limited Discrepancy Search [Harvey et Ginsberg, 1995] ou recherche à divergences limitées. A partir d’une heuristique d’instanciation donnant un ordre sur les variables et un ordre sur les valeurs des variables, une instanciation complète initiale est générée. Si cette « solution » s’avère en fait non admissible (ne respectant pas les contraintes du problème), on autorise la méthode à ne pas suivre les choix de l’heuristique d’instanciation pour certaines variables. Le fait de s’écarter des choix guidés par l’heuristique correspond à la notion de divergence. Les algorithmes utilisant la propagation de contraintes tentent d'éviter qu’une incohérence soit détectée tardivement, après qu’une grande partie de l’arbre de recherche a été explorée. En effet, ils n’acceptent une valeur V qu’après avoir vérifié que les domaines des variables futures ne deviennent pas vides (figure II.2). Chapitre II. Les problèmes de satisfaction de contraintes 55 L’algorithme forward-checking : Il applique une forme de consistance locale aux variables non encore instanciées. Les variables futures à instancier voient leur domaine de valeurs réduit par filtrage (par arc-consistance par exemple), ce qui par la suite permettra de limiter la recherche. Cependant, les seules variables futures qui sont soumises au filtrage sont limitées aux seules variables libres qui sont liées à la variable courante par au moins une contrainte : le filtrage n’est pas étendu aux autres variables. L’algorithme real-full-look-ahead : Il propose la même philosophie de filtrage que le forward-checking, mais préconise aussi le filtrage de toutes les variables futures à instancier. Le filtrage est donc beaucoup plus profond au cours de la recherche, ce qui se paie en général par un coût algorithmique plus élevé. Variables déjà instanciées Variables courantes à instancier Backtrack Forward - checking Real – full – look - ahead Variables futures à instancier Contraintes Figure II.2. Les algorithmes de recherche CSP [Fischer, 2000]  Heuristiques d’instanciation Les heuristiques d’ordre sont des règles qui déterminent l’ordre suivant lequel on va choisir les variables à instancier, et pour chacune l'ordre dans lequel on essaie les valeurs de son domaine courant. On distingue donc les heuristiques d’ordre sur les variables et les heuristiques d’ordre sur les valeurs. Un bon ordre permet de détecter les échecs le plus tôt possible et par la suite d’éviter l’exploration d’une grande partie de l’arbre de recherche en vain. A titre d'exemple on peut citer l’heuristique du domaine minimal qui préconise de choisir en premier la variable qui a le plus petit domaine courant ; concernant l'ordre sur les valeurs, on peut citer l’heuristique de l’échec au plus tôt (first-fail) qui consiste à attribuer à la variable choisie la valeur qui est susceptible de mener le plus tôt possible à un échec. Chapitre II. Les problèmes de satisfaction de contraintes 56 II.2.4. CSP et optimisation Résoudre un CSP peut consister à trouver une solution (satisfaisabilité), ou trouver une de meilleur coût (optimisation). Dans ce dernier cas, on parle plutôt de CSOP (Constraint Satisfaction and Optimization Problem). Un CSOP est défini par un quadruplet (X, D, C, Z), où X est un ensemble fini de variables, D est l’ensemble des domaines associés à ces variables, C est l’ensemble des contraintes qui portent sur ces variables et Z (le critère à optimiser) est une fonction de l'instanciation totale des variables du problème, qui prend ses valeurs dans un ensemble ordonné : ce critère permet ainsi de comparer deux solutions pour choisir celle qui est la meilleure. Toutes les méthodes exposées plus haut pour la recherche d'une solution d'un CSP s’appliquent également à la résolution des CSOP. Il s’agit de rechercher une solution satisfaisant toutes les contraintes du problème et qui, de plus, minimise ou maximise un critère donné. La résolution d’un CSOP peut être abordée de la manière suivante : Soit Z * la valeur minimale de Z sur l'ensemble des solutions du problème. L’approche la plus intuitive consiste à résoudre une succession de problèmes de décision P. Le problème de décision P est initialisé avec les contraintes du problème, sans tenir compte du critère d'optimisation, puis résolu. Si P est inconsistant, alors le problème d’optimisation n'a pas de solution ; sinon, soit  0 (X) une première instanciation de X qui est solution de P ; la meilleure solution  * (X) est initialement  * (X)   0 (X). Tant qu'on n'a pas exploré tout l'arbre de recherche des solutions, on tente de repartir du dernier point de choix non encore exploré pour trouver une nouvelle solution  k (X) en ajoutant la nouvelle contrainte Z( k (X)) < Z( * (X)) préalablement à toute nouvelle décision en ce point ; si on peut trouver cette nouvelle solution on actualise  * (X)   k (X) et on passe à l'étape suivante k+1 ; sinon, si aucun point de choix restant ne respecte la contrainte d'amélioration du critère, la recherche s'arrête. La dernière solution trouvée est donc prouvée solution optimale du problème. L'efficacité de cette méthode tient bien sûr pour beaucoup à l'efficacité du filtrage qu'engendre la propagation de la contrainte Z( k (X)) < Z(*(X)) avant chaque élaboration d'une nouvelle solution. Si ce filtrage est fort, la réduction de l'arbre de recherche peut être drastique ; sinon, si la contrainte d'amélioration du coût n'est pas très active sur le filtrage, la recherche complète se Chapitre II. Les problèmes de satisfaction de contraintes 57 heurte à une combinatoire trop élevée et doit être interrompue après un temps limite donné. Dans ce cas, l'optimalité n'est plus prouvée même si on peut démontrer expérimentalement que sur un grand nombre de cas la méthode retourne de très bonnes solutions voire des solutions optimales (en comparant le coût des solutions trouvées à celui de solutions optimales générées par d'autres méthodes exactes). II.3. Problèmes de satisfaction de contraintes dynamiques (DCSP) En dépit des avantages qu'il offre sur le plan de l'expressivité et de la modélisation des contraintes, le modèle CSP rencontre néanmoins des limites face à certains problèmes réels dans lesquels les données du problème sont soumises à des perturbations provenant de l’environnement ou d’autres agents. « C’est un modèle statique : le problème est défini dès le début du processus de la résolution et reste invariant tout au long de son déroulement : les variables, leurs domaines, les contraintes les liant sont connus à l’avance » [Elkhiary, 2003]. Ainsi, une modification du problème impliquant un ajout ou un retrait de contraintes, de variables ou un changement du domaine de valeurs d’une variable ne peut pas être traitée par un modèle de satisfaction de contraintes statique. Dans cette configuration, l’aspect dynamique d’un problème peut être formalisé de différentes façons. En effet, un DCSP (Dynamic Constraint Satisfaction Problem) permet d’adapter un CSP aux différentes perturbations qui peuvent survenir [Dechter et Dechter, 1988]. En revanche, d’autres formalismes tels que les CCSP (Conditional CSP) ([Mittal et Falkenhainer, 1990], [Sabin et Freuder, 1994]), les TCSP (Temporal CSP) [Schwalb et Dechter, 1991], les OCSP (Open CSP) [Faltings et Macho-Gonzalez, 2005], … permettent de prendre en compte des évolutions déjà intégrées au modèle. La partie suivante est dédiée à la présentation de ces formalismes liés aux problèmes dynamiques [Verfaillie et Jussien, 2005]. II.3.1.Définitions DCSP  Définition 1 Un problème de satisfaction de contraintes dynamique (Dynamic Constraint Satisfaction Problem ou DCSP) est une suite P0, P1, … de CSP classiques, tels que deux problèmes successifs Piet Pi+1 ne diffèrent que par l’ajout ou le retrait de certaines contraintes. Chapitre II. Les problèmes de satisfaction de contraintes 58  Définition 2 Un DCSP P est une séquence P0,…, Pn de CSP statiques telle que : ܲ݅+1 = � ܲ݅ ܲܵܥ → ܲܵܥ ∶ � où [Richaud, 2009] indique que « résoudre un DCSP revient à trouver une solution au CSP le plus récent (le dernier de la séquence). Du fait du caractère incrémental de la séquence, les solutions des autres CSP de la séquence peuvent être des solutions intermédiaires intéressantes. Ainsi l’efficacité des DCSP reposent sur l’utilisation de méthodes permettant d’exploiter efficacement le travail effectué aux étapes antérieures ». Pour savoir comment réutiliser le travail déjà fait nous nous intéressons dans la partie suivante aux transformations possibles pour passer d’un CSP Pi à un CSP Pi+1 = µ(Pi). En effet, Si le CSP Pi+1 est obtenu à partir du CSP Pi après le retrait d’une ou plusieurs contraintes, alors nous dirons que Pi+1 est une relaxation de Pi . De même, si nous passons du CSP Pi au CSP Pi+1en ajoutant une ou plusieurs contraintes, alors nous dirons que Pi+1est une restriction de Pi . Aussi, les domaines peuvent être vus comme des contraintes unaires ; retirer ou ajouter une variable revient à modifier toutes les contraintes dans lesquelles la variable apparaît ([Dechter et Dechter, 1988], [Vareilles, 2005], [Verfaillie et Schiex, 1995], [Richaud, 2009]). Le tableau suivant présente l’ensemble des modifications possibles d’un CSP tel que P’ = μ(P) avec P = (X,D,C) et P’ = (X’,D’,C’), sur l’ensemble des solutions. Transformation de P à P’ C’ Ajout d’une contrainte c Restriction Retrait d’une contrainte c Relaxation Ajout d’une valeur val Relaxation Retrait d’une valeur val Restriction Ajout d’une variable var Relaxation Retrait d’une variable var ? Tableau II.2. Effets des transformations élémentaires [Richaud, 2009] Chapitre II. Les problèmes de satisfaction de contraintes 59 II.3.2. DCSP et autres formalismes Comme nous l’avons indiqué précédemment et contrairement aux DCSP, d’autres formalismes liés aux problèmes dynamiques permettent de prendre en compte des évolutions déjà intégrées au modèle. [Richaud, 2009] indique que « il faut différencier le formalisme des DSCP de celui des CSP qui modélisent un problème dynamique ». Il précise en outre que « le but du DCSP est d’adapter un CSP aux perturbations extérieures venant modifier le problème et non pas de prendre en compte des évolutions déjà intégrées au modèle ». Par exemple, les OCSP (Open CSP) sont des CSP qui intègrent des variables dont les domaines ne sont pas initialement connus. Dans ce sens, un OCSP peut être vu comme un DCSP dont toutes les modifications se traduisent par une extension des domaines et des contraintes [Faltings et Macho-Gonzalez, 2005]. De même, pour un CCSP (Conditional CSP), les modifications possibles sont intégrées au modèle. Aussi, un CCSP peut être considéré comme une restriction d’un DCSP dans lequel toutes les modifications possibles sont définies par les contraintes d’activation. D’autres formalismes CSP existent dans la littérature. Nous pouvons citer les MCSP (Mixed Constraint Satisfaction Problem) [Fargier et al., 1996], les SCSP (Stochastic Constraint Satisfaction Problem) [Walsh, 2002] et les BCSP (Branching Constraint Satisfaction Problem) [Fowler et Brown, 2000b], [Fowler et Brown, 2000a]. [Richaud, 2009] présente une description détaillée des différents formalismes existant dans la littérature. Les CSP conditionnels (CCSP) sont plus particulièrement présentés dans la suite de ce document. II.3.3. CSP conditionnels Les CSP conditionnels [Mittal et Falkenhainer, 1990]sont définis comme un triplet (V, D, C) où:  V = {ݒ1 2ݒ , , … , ݒ݈} est un ensemble fini de variables composé de deux sous-ensembles disjoints : o Un ensemble �ܽnon vide de variables initialement actives, o Un ensemble �݅ de variables initialement inactives ;  D = {݀1 ,݀2 ,…, ݈݀} est un ensemble fini de domaines de définition des variables de V ;  C = {ܿ1 , ܿ2 , …, ݈ܿ} est un ensemble fini de contraintes de deux natures possibles : o un ensemble ܥܥ= {ܥ1 ܿ 2ܥ , ܿ ݊ܥ , ... , ܿ } de contraintes de compatibilité, o un ensemble ܣܥ= {ܥ1 ܽ 2ܥ , ܽ ݊ܥ , ... , ܽ } de contraintes d’activation.Chapitre II. Les problèmes de satisfaction de contraintes 60 Les contraintes d’activation permettent d’ajuster un modèle de connaissances à un problème particulier par la prise en compte exclusive des éléments indispensables à sa résolution. Elles modifient la structure du modèle par l’ajout et le retrait d’éléments (variables et contraintes) suivant les différentes situations du problème. Les contraintes d’activation se définissent en deux parties : une prémisse (condition logique) et un conséquent (ajout ou retrait d’un ensemble d’éléments) liées par un opérateur d’implication →. Lorsque la prémisse est vérifiée, il y a application du conséquent : la structure du modèle est enrichie ou appauvrie en variables et contraintes. Sinon, sa structure reste inchangée [Vareilles, 2005].Ces contraintes sont composées d’une prémisse P(�݌ ) et d’un conséquent �ܿ . L’ensemble des variables �݌de la prémisse et l’ensemble des variables Vc du conséquent doivent être disjoints. Les contraintes d’activation de variables sont de la forme : ݌�)P ) → (dés)activation : �ܿ Chaque variable possède un état actif ou inactif qui indique si celle-ci doit être ou non prise en compte dans le problème courant. Les contraintes de compatibilité prennent part au filtrage lorsque toutes les variables sur lesquelles elles portent sont actives. Sinon, elles sont considérées comme trivialement satisfaites. Une solution d’un CSP conditionnel correspond à un ensemble de variables valuées, contenant obligatoirement l’ensemble �ܽdes variables initialement actives, respectant toutes les contraintes de compatibilité ܥܿ du modèle. II.4. Résolution d’un CSP dynamique Comme défini précédemment, un DCSP est une séquence de CSP statiques pour laquelle on souhaite trouver une solution. Pour trouver une solution on pourrait se concentrer sur chaque CSP et tenter de les résoudre indépendamment les uns des autres à l’aide des mé- thodes de résolution classiques. Ce serait passer à côte de la spécificité des DCSP : le caractère incrémental de la séquence de CSP. De plus il ne faut pas oublier qu’un DCSP s’inscrit dans le temps : souvent lorsque les perturbations surviennent, une partie de la solution a déjà été réalisé. On ne peut donc pas résoudre en dehors de son contexte. En pratique, on se limite généralement au CSP précédent. Il existe plusieurs façons d’exploiter les informations de la recherche précédente.Chapitre II. Les problèmes de satisfaction de contraintes 61 D’un point de vue global, deux approches distinctes apparaissent dans la littérature pour la résolution des DCSP. Les approches basées sur la mémorisation et la réutilisation des solutions (utiliser l’information qui est consistante), et celles basées sur la mémorisation et la réutilisation des raisonnements (utiliser l’information qui est inconsistante) ([Elkhiary, 2003], [Verfaillie et Schiex, 1994], [Trombettoni, 1993], [Richaud, 2009]). Dans le paragraphe suivant, nous présentons dans le détail ces différentes méthodes de résolution relatives aux CSP dynamiques. II.4.1. Approche par réutilisation de solution Cette approche consiste à mémoriser et à réutiliser des solutions de problèmes précédents. Si un problème Pi a été résolu et prouvé consistant, une solution Si de Pia été trouvée et enregistrée, une modification est survenue dans la définition du problème Pi créant le problème Pi+1, alors Si est aussi une solution de Pi+1 si Pi+1 est une relaxation de Pi , sinon (Pi+1 est une restriction de Pi) Si peut ne plus être une solution. L’approche de réutilisation de solution repose sur l’idée suivante : si Si est une solution du problème Pi , alors une solution du problème Pi+1 (qui est proche de Pi) serait proche de Si . Cette approche regroupe plusieurs méthodes parmi lesquelles, nous pouvons citer la recherche arborescente, la recherche locale et la méthode par relaxation-affectation de variables. Ces méthodes sont présentées ci-dessous. i. La recherche arborescente Cette méthode consiste à affecter en premier à chaque variable sa valeur dans la solution précédente : utiliser la solution du problème précédent comme heuristique de choix de la valeur dans le cadre de la recherche courante [Hentenryck et Provost, 1991]. Cette méthode a montré son efficacité et sa stabilité sur des problèmes soumis à des changements peu importants [Schiex et Fargier, 1995]. ii. La recherche locale Cette méthode a été proposée sous le nom de heuristic repair dans [Minton et Johnston, 1992]. Toutes les méthodes appartenant à l’approche de réutilisation de solution utilisent la solution précédente comme point de départ de la recherche. De ce fait, à chaque étape, la recherche locale va réparer l’instanciation courante pour la rendre consistante et explorer son Chapitre II. Les problèmes de satisfaction de contraintes 62 voisinage [Richaud, 2009]. Cette méthode consiste alors à choisir une variable v d’une contrainte insatisfaite par l’affectation courante, lui affecter une valeur val choisie parmi les valeurs non explorées et à fixer v (une variable fixée étant une variable dont l’affectation ne peut être modifiée que par backtrack [Verfaillie et Schiex, 1995]). A chaque variable choisie est affectée une valeur val non explorée, celle minimisant le nombre de contraintes en conflit [Minton et Johnston, 1992]. Pour bien illustrer cette approche, nous présentons l’exemple de la figure II.3 [Verfaillie et Jussien, 2005]. Nous nous basons sur un DCSP de quatre variables x, y, z et t de domaines respectifs {2}, {1,2,3}, {1,2,3} et {3,4} reliées par les contraintes suivantes : x 0, le problème revient à minimiser la quantité Ci , où Ci représente la date de fin de l’opération i ([Zaidi et al., 2010], [Mokhtari et al., 2012]). Exemple : si l’on considère 3 tâches telles que p1 = 3, p2 = 2, p3 = 6, alors l’ordonnancement 1 - 2 - 3 est tel que : C1 = p1 = 3, C2 = C1+p2 = 5, et C3 = C2 + p3 = 11 (cas a) de la figure III.3. Ainsi, on a : Ci = 19. Si l’on considère l’ordonnancement 2 - 1 - 3, alors il est tel que : Ci = 2 + 5 + 11 = 18 (cas b) de la figure III.3. Par rapport au cas a), la somme des dates de fin des tâches a diminué d’une unité et par la suite les encours ont diminué d’une unité. Figure III.3. Minimisation des en-cours [Moncel, 2010] III.4. Planification dynamique III.4.1. Processus de prise de décision Dans sa thèse, Hassen Gharbi indique que, dans un contexte industriel réel, la prise de décision est une action instantanée effectuée en passant par différentes phases et que ce caractère multi-phase est imposé par des contraintes techniques des moyens de production et des contraintes socio-économiques qui imposent des délais temporels avant lesquels une certaine décision ne peut être réalisée. Il cite des exemples de contraintes imposant des délais temporels sur les décisions comme les temps de préparation des composants nécessaires pour a) 1 2 3 0 5 11 2 1 3 0 2 11 b) Chapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 75 la production d’un produit p, les délais de préparation du personnel permanent ou intérimaire en cas de recours aux heures supplémentaires [Gharbi, 2012]. Ainsi, la prise de chacune des décisions du plan de production passe nécessairement par deux phases : la phase d’anticipation de la réalisation et la phase de réalisation effective de la décision. Si une décision est prise à une période τ, sa réalisation commence à τ + DA et finit à τ + DA + DR. DA est le délai d’anticipation et DR est le délai de réalisation (figure III.4). Figure III.4. Phases de prise de décision [Gharbi et al., 2009] i. La phase d’anticipation de la réalisation de la décision La phase d’anticipation est la phase qui précède la réalisation effective de la décision. Comme le montre la figure III.4, elle est caractérisée par une date de début τ et une durée (délai d’anticipation) DA. Ce besoin d’anticipation se retrouve notamment dans le recours à la sous-traitance. Un sous-traitant doit être prévenu à l’avance pour qu’il puisse organiser sa production et intégrer les éventuelles modifications de sa demande. ii. La phase de réalisation effective de la décision Elle correspond à la durée de la réalisation d’une décision qui peut durer un certain nombre de périodes. La date de fin de la phase d’anticipation (τ+DA) est la date de début de la phase de la réalisation d’une décision De. Elle s’achève après une durée de réalisation ou un délai d’obtention DR (figure III.4). Il est à noter que les délais d’obtention concernent essentiellement les décisions de fabrication et que les décisions organisationnelles telles que le recours aux heures supplémentaires sont mises en œuvre juste après la phase d’anticipation [Galasso, 2007]. Dans la suite, nous noterons par LPp, le délai d’obtention s’il s’agit d’une décision de production interne et par LSp le délai d’obtention s’il s’agit d’une décision de sous-traitance. τ τ + DA τ + DA + DR DA Etape d’anticipation de la décision De DR Etape de réalisation de la décision De Temps Chapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 76 III.4.2. Planification à horizon glissant Classiquement, la planification de la production permet de définir des plans de production couvrant un horizon de planification HP constitué de T périodes. Ces plans sont obtenus en partant de certaines données comme les demandes clients (généralement connues à court terme et seulement estimées à moyen terme), la capacité de production, les différents coûts ainsi que les informations sur le produit (nomenclature, délai d’obtention, …). Ces données sont généralement incertaines et pour limiter l’influence de cette incertitude, nous adoptons dans le cadre de cette thèse, un processus de planification dynamique qui nous permet de suivre et de contrôler la faisabilité des décisions prises. La planification dynamique s’inscrit dans le cadre d’une procédure à horizon glissant permettant une actualisation périodique des données. En effet, les décisions prises sur un horizon de planification HP de longueur T sont remises en cause à intervalles de temps réguliers et une nouvelle planification est calculée sur un nouvel horizon de même longueur mais décalé de Pa périodes, Pa étant le pas de planification. Ainsi, lors de la première planification (k = 0), les plans sont calculés : le décideur reçoit le plan de demande prévu sur le premier horizon de planification HP1 et détermine les différents plans sur l’ensemble des périodes appartenant à horizon HP1 . La mise à jour périodique des plans fait que toute nouvelle planification (k) est réalisée sur un horizon de temps HPk = φ, φ+1, φ+2,..., φ + T – 1 avec φ = k.Pa + 1, et k : numéro d’itération de la planification (figure III.5) [Amrani-Zouggar, 2009]. Le pas de planification Pa est le nombre de périodes qui sépare deux itérations successives de planification. Son choix est délicat. En effet, le pas de planification a une influence sur la stabilité et la réactivité de la solution. Selon [Galasso, 2007], le choix d’un pas de planification long entraîne le gel de décisions lointaines. Cela assure la stabilité des plans, mais les répercussions d’une modification de la demande ne se feront sentir que plus tardivement sur les autres acteurs de la chaîne. Dans [Thierry, 2003], l'auteur indique qu’en théorie la périodicité maximale envisageable correspond à la longueur de l’horizon de planification et qu’il est souvent souhaitable d’augmenter la fréquence de planification pour prendre en compte les aléas le plus tôt possible. Dans l’exemple de la figure III.5, nous décrivons un processus de planification dynamique avec un horizon de planification HP de taille T = 10 périodes et un pas de planification Pa = 2 périodes. Chapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 77 Figure III.5. Processus de planification dynamique [Amrani-Zouggar, 2009] Lorsque la planification est mise en œuvre en horizon glissant, seules les décisions correspondant au début de l’horizon de planification (horizon gelé HG) sont réellement implémentées. Un horizon gelé HG correspondant au délai d’anticipation de la décision considérée. Ces décisions sont dites « gelées » c’est-à-dire qu’elles ne peuvent être remises en cause par les planifications ultérieures. La présence d’un horizon gelé est intéressante pour limiter la nervosité du système en empêchant les modifications tardives qui perturbent les activités [Fontan et al., 2001]. Ainsi, [Galasso, 2007] considère qu’à chaque pas de planification et pour chaque type de décision, nous pouvons décomposer un horizon de planification en deux sous-horizons : un horizon gelé HG tel que : HG = {, +1,…, +DA- 1} et un horizon libre HL sur lequel, les décisions peuvent être remises en cause dans le but de réagir aux fluctuations. Dans la figure III.6, nous reprenons l’exemple précédent (figure III.5) avec un horizon de planification de 10 périodes, un pas de planification Pa de 2 périodes et un délai d’anticipation de la décision égal à 3. Les décisions 4 et 5 prises librement au premier pas de planification sont gelées et reportées sans modifications au deuxième pas de planification. Horizon de planification HP1 (Pa) Horizon de planificationHP0 Temps k=0 Temps k=1  T-1Chapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 78 Figure III.6. Horizon de décision gelé, d’après [Thierry, 2003] Horizon de planification (HP1 ) 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 Temps Planification n°3 Horizon de planification (HP3 ) 2 ème horizon gelé Planification n°2 Temps Planification n°1 1 er horizon gelé Horizon de décision libre Horizon de décision libre Horizon de planification (HP2 ) Temps 3 ème horizon gelé Horizon de décision libre Pa Pa 2 Planification précédente Décisions prises au premier pas de planification Décisions prises au deuxième pas de planification Décisions prises au troisième pas de planificationChapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 79 III.4.3. Procédure de planification Dans le cadre de cette thèse, nous proposons une procédure itérative (figure III.7) sur un horizon de planification HP sur lequel les demandes sont supposées connues. Un pas de planification Pa sépare deux itérations successives. Figure III.7. Approche proposée  Initialiser les données statiques du modèle  Initialiser les données dynamiques du modèle  Initialiser les stocks Mise à jour des paramètres dynamiques du modèle : (demande, capacité des ressources) k = k + 1 K = kmax ? k=1 Début Fin Prise en compte des décisions à l’étape de planification k Résolution sur l’horizon HP k = k.Pa+1..k.Pa+T Oui NonChapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 80 La procédure débute par une initialisation des différentes données statiques et dynamiques du problème ainsi que la définition des stocks initiaux. La première planification (k=1) est effectuée sur la base des données de l’horizon de planification correspondant HP1 (demandes, coûts, capacités) commençant à la période (T=1), avec HP1 = {1, 2, …, T}. On passe ensuite à la deuxième étape de planification (k=2) que l’on effectue sur la base des données actualisées de l’horizon HP2 commençant à la période (T+Pa), avec HP2 = {1+Pa, 2+Pa, …, T+Pa}. La deuxième itération de planification prend en compte les décisions prises à l’étape de planification précédente tels que : les décisions gelées à l’itération k=1sont reportées sans modifications à la deuxième itération de planification. Cette procédure itérative prend fin lorsque nous atteindrons le nombre maximum d’itérations (Kmax), avec : ܭ݉ܽ� = ܶ−ܦܪ ܣܲ +1 où HD est le nombre de périodes sur lesquelles la demande est supposée connue. III.5. Modélisation du processus de planification dynamique Dans ce paragraphe, nous présentons le modèle de planification dynamique développé. En suivant la structure du modèle en deux niveaux, nous commençons par la présentation du premier niveau. Il planifie la production en recherchant le meilleur compromis entre les leviers décisionnels disponibles liés aux aspects capacité et coût de production. Ensuite, nous décrivons le deuxième niveau d’ordonnancement agrégé des opérations de fabrication minimisant les en-cours. Le recours à une structure décisionnelle intégrée nous a conduit à établir une interaction entre les niveaux supérieur et inférieur de décision, mise en œuvre par des contraintes dites de conservation d’énergie. Elle est présentée à la troisième partie de ce paragraphe. III.5.1. Modèle planification de la production : Premier niveau de décision Ce modèle correspond au problème de planification à résoudre à chaque itération de planification ݇, sur l’horizon de planification HPk . Dans ce modèle, la demande est supposée connue sur l’ensemble de l’horizon de planification et est mise à jour à chaque itération de planification. Nous détaillons ci-dessous les paramètres, les variables de décision et les contraintes de ce niveau. Chapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 81 i. PARAMETRES  {p} =1..P: ensemble des produits finis p,  {s} =1..S : ensemble des sites de production de la chaîne logistique,  {Routagep} : séquence des sites de production sur lesquels passe le produit p,  Paramètres temporels  k: numéro d’itération de la planification,  T: nombre de périodes dans l’horizon de planification,  ܪܲ: horizon de planification, avec : ܪܲ = 1, 2, … , ܶ  ܩܪ: horizon gelé associé à chaque type de décision, avec : ܩܪ = 1, 2, … ,ܣܦ où DA est le délai d’anticipation de la décision  Pa (�): pas de planification (nombre de périodes qui sépare deux itérations successives de planification),  HD: nombre de périodes sur lesquelles la demande est supposée connue, avec : HD = (k max – 1) * Pa + T et : k max = nombre maximum d’itérations de planification  LPp, LSp: délais d’obtention du produit fini p lorsqu’il est respectivement fabriqué en interne ou sous-traité.  Paramètres statiques  Ct,s : capacité de production interne pour chaque site de production (nombre d’heures de travail disponibles),  STp,t,s : le volume de production maximal du produit p en sous-traitance en période t sur le site de production s, ݏ�ܽ݉ܪ  : nombre maximal d’heures supplémentaires pour chaque site de production, ݏ,݌ ℎ : durée de fabrication unitaire d’un produit p sur chaque site s, ݏ,݌݅  ∶ coût unitaire de stockage du produitp sur le site s, ݏ,݌�  ∶ coût unitaire de rupture du produit p sur le site s, ݏ,݌�  ∶ coût unitaire de fabrication du produit p sur le site s, ݏ,݌ݏ  : coût unitaire de sous-traitance du produit p sur le site s, Chapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 82 ݏ݁  : coût d’utilisation d’une heure supplémentaire sur un site s.  Paramètres dynamiques (mis à jour à chaque itération de planification k) ݐ,݌ܦ  ݇ : demande globale du produit fini p pour la période t. ii. VARIABLES DE DECISION A L’ITERATION k DE PLANIFICATION ݏ,ݐ,݌�  ݇ : quantité de produits p lancés en production interne en période t sur le site s, ݏ,ݐ,݌ܵ  ݇ : quantité de produits p lancés en sous-traitance interne en période t sur le site s, ݏ,ݐܪ  ݇ ∶ nombre d’heures supplémentaires utilisées en période t sur le site s, ݏ,ݐ,݌ܫ  ݇ ∶ niveaux de stock en fin de période t pour le produit fini p sur le site s, ݏ,ݐ,݌ܩ  ݇ : niveaux de rupture en fin de période t pour le produit fini p sur le site s, ܤ  ݇ ∶ variable binaire = 1 si la contrainte d’activation est vraie en période t, 0 sinon. iii. CONTRAINTES  Contrainte de conservation de stock ݏ,ݐ,݌ܫ ݇ ݏ,ݐ,݌ܩ - ݇ ݏ,1−ݐ,݌ܫ = ݇ ݏ,1−ݐ,݌ܩ - ݇ ݏ,ܲܮ−ݐ,݌� + ݇ ݏ,ܵܮ−ݐ,݌ܵ + ݇ ݐ,݌ܦ - ݇ ݌݁�ܽݐݑ݋ܴ א ݏ∀ ,݌ ∀ ݇ܲܪ א ݐ ∀, 1  Contrainte de limitation de la capacité ݏ,݌ℎ ܲ 1=݌ ݏ,ݐ,݌� ∗ ݏ,ݐܪ + ݏ,ݐܥ ൑ ݇ ݇ ݌݁�ܽݐݑ݋ܴ א ݏ ∀ ,݌∀ ݇ܲܪ א ݐ ∀, (2)  Contrainte de respect du volume de production maximal du sous-traitant ݏ,ݐ,݌ܵ ݏ,ݐ,݌ܶܵ ൑ ݇ ݌݁�ܽݐݑ݋ܴ א ݏ ∀ ,݌ ∀ ݇ܲܪ א ݐ ∀, (3)  Contrainte de respect du nombre d’heures supplémentaires maximal alloué par période ݏ,ݐܪ ݏ�ܽ݉ܪ ൑ ݇ ݇ܲܪ א ݐ ∀ ,ݏ ∀ (4)Chapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 83  Contrainte d’activation (désactivation) de l’action de sous-traitance ݐ,݌ܦ ∗ ݏ,݌ℎ ݇ ܲ 1=݌ ݏ,ݐܥ < ݏ,ݐܪ + ݇ ݏ,ܵܮ−ݐ,݌ܵ ⇒ ݇ ݇ܲܪ א ݐ∀ ,ܲ݁�ܽݐݑ݋ܴ א ݏ ∀ 0 < ݇ 5  Relations de passage entre deux itérations de planification k et k+1 ݏ,ݐ,݌� ݏ,ܽܲ+ݐ,݌� = 1+݇ ݇ ݇ܩܪ א ݐ ∀,ܲ݁�ܽݐݑ݋ܴ א ݏ ∀ ,݌ ∀ 6 ݏ,ݐ,݌ܵ ݏ,ܽܲ+ݐ,݌ܵ = 1+݇ ݇ ݇ܩܪ א ݐ ∀,ܲ݁�ܽݐݑ݋ܴ א ݏ∀ ,݌ ∀ 7 ݏ,ݐܪ ݏ,ܽܲ+ݐܪ = 1+݇ ݇ ݇ܩܪ א ݐ ∀,ܲ݁�ܽݐݑ݋ܴ א ݏ ∀ 8  Fonction objectif ݏ,ݐ,݌ܫ ∗ ݏ,݌݅ min ݇ ݆ ݌ ݁�ܽݐݑ݋ܴאݏ ݏ,݌� + ݏ,ݐ,݌ܩ ∗ ݏ,ݐ,݌� ∗ ݏ,݌� + ݇ ݇ ݏ,ݐ,݌ܵ ∗ ݏ,݌ݏ + ݐ,ݏܪ ∗ ݏ݁ + ݇ ݇ ܲ 1=݌ ܶ−1 0=ݐ ∀ ݇ 9 La contrainte (1) garantit la conservation de la matière : le stock au début de la période t ݏ,ݐ,݌ܫ ݇ moins le stock en rupture à la fin de la période t ݌ܩ,ݐ,ݏ ݇ est égal au stock au début de la période t – 1 ݌ܫ,ݐ−1,ݏ ݇ moins le stock en rupture à la fin de la période t – 1 ݌ܩ,ݐ−1,ݏ ݇ plus les quantités de produits p lancés en période (t – LP) �݌,ݐ−ܮܲ,ݏ ݇ plus les quantités de produits p sous-traités en période (t – LS) ܵ݌,ݐ−ܮܵ,ݏ ݇ sur le site s moins la demande en produit p sur la période t. La contrainte (2) permet de vérifier que, dans chaque période de l’horizon de planification ܪܲ et pour chaque site de production s, la capacité de production interne augmentée des heures supplémentaires est compatible avec la charge globale de production que doit assurer le site. La contrainte (3) assure le respect du volume de production maximal du sous-traitant. La contrainte (4) exprime le fait qu’à chaque période t, le volume d’heures supplémentaires utilisées ne doit pas dépasser la valeur maximale autorisée sur chaque site de production. Chapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 84 La contrainte (5) est une contrainte conditionnelle. Elle permet l’activation ou la désactivation de l’action de sous-traitance. En effet, si le nombre d’heures de travail nécessaire pour la réalisation de la demande en produits p dans la période t sur chaque site de production est supérieur à la capacité du site de production augmentée du nombre d’heures supplémentaires allouées, alors on a recours à la sous-traitance. Dans le détail, on a :  prémisse : le nombre d’heures de travail nécessaire pour la réalisation de la demande en produits p dans la période t est supérieur (respectivement inférieur) à la capacité (au sens large) du site de production  conséquent d’activation (respectivement désactivation) de l’action de soustraitance : ܵ݌,ݐ,ݏ ݏ,ݐ,݌ܵ 0 (respectivement < ݇ ݇ = 0). ݐ,݌ܦ ∗ ݏ,݌ℎ ݇ ܲ 1=݌ ݏ,ݐܥ < ݏ,ݐܪ + ݇ 1 = ݇ܤ ⇔ ݇ ܵ > 0 ⇔ ܤ݇ = 1 Les contraintes (6) à (8) formalisent la cohérence des décisions entre deux itérations de planification successives (k) et (k+1) et ce, pour toutes les décisions (production en interne, sous-traitance et allocation d’heures supplémentaires). Elles expriment l’égalité entre les valeurs engagées en anticipation et les valeurs qui seront mises en œuvre à la réalisation La fonction objectif (9) minimise la somme de tous les coûts sur tous les sites de production et sur toutes les périodes de l’horizon de planification ܪܲ. III.5.2. Modèle ordonnancement agrégé : Deuxième niveau de décision Le niveau inférieur établit un ordonnancement sur un horizon détaillé plus court que l’horizon de planification. Nous détaillons ci-dessous les paramètres, les variables de décision et les contraintes de ce niveau. i. PARAMETRES  {݌} =1..P : ensemble des produits finis p,  {ݏ} =1..S : ensemble des sites de production de la chaîne logistique,Chapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 85 ݌݁�ܽݐݑ݋ܴ}  }: liste ordonnée des sites de production sur lesquels passe le produit p,  TD : nombre de périodes dans l’horizon d’ordonnancement agrégé (TD < T), ܱ݇ܪ  : horizon d’ordonnancement agrégé à l’itération k {0..TD - 1},  K : nombre de périodes élémentaires dans une période, ݏܯ  : nombre maximal de machines pouvant être utilisées pour chaque site. ii. VARIABLES DE DECISION A L’ITERATION k POUR UNE PERIODE t, UN PRODUIT p ET UN SITE s ݏ,ݐ,݌ܾ݁ܦ  ݇ : date de début de l’opération de fabrication du produit p sur le site s en période t, ݏ,ݐ,݌݊݅ܨ  ݇ : date de fin de l’opération de fabrication du produit p sur le site sen période t, ݏ,ݐ,݌ܧ  ݇ : quantité consommée, par unité de ressource, pour la fabrication du produit p sur le site s, ݏ,ݐ,݌ܴ  ݇ : intensité de consommation de ressource de production ; correspond au nombre de machines allouées à la fabrication du produit p sur le site s, ݏ,ݐ,݌ܮ  ݇ : durée de fabrication du produit p sur le site s à la période t ; c’est une variable dépendante du nombre de machines allouées ܴ݌,ݐ,ݏ ݇ . iii. CONTRAINTES  Contrainte de consommation de ressources ݏ,ݐ,݌ܧ ݏ,ݐ,݌ܮ = ݇ ݇ ݏ,ݐ,݌ܴ ∗ ݇ ܱ݇ܪ א ݐ ∀ ,ܲ݁�ܽݐݑ݋ܴ א ݏ ∀ ,݌∀ (10)  Contraintes de limitation des capacités des sites ݏ,ݐ,݌ܴ ܲ ݇ ݏܯ ൑ 1=݌ ܱ݇ܪ א ݐ ∀ , ݌݁�ܽݐݑ݋ܴ ݏ݁ݐ݅ݏ א ݏ ∀ ,݌ ∀ (11) ݏ,ݐ,݌݊݅ܨ ܱ݇ܪ א ݐ ∀ ,( ݌݁�ܽݐݑ݋ܴ)ݏ݁ݐ݅ݏ א ݏ ∀ ,݌ ∀ ܭ ൑ ݇ (12)  Contraintes de précédence ݏ,ݐ,݌ܾ݁ܦ ′ ݏ,ݐ,݌ܾ݁ܦ ൒ ݇ ݏ,ݐ,݌ܮ + ݇ ݇ ݏ ,ݏ ∀ ,݌ ∀ ′ ܲ݁�ܽݐݑ݋ܴ ݏܿݎܽ א ܱ݇ܪ ݐ ∀ , (13) Chapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 86 Fonction objectif ݏ,ݐ,݌݊݅ܨ ) ݏmin⁡(max ݇ ) ݏݐ݅ݑ݀݋ݎܾܲܰ ݌=1 ∀ ݇ (14) La contrainte (10) exprime la relation existant entre la variation de la durée de fabrication du produit p sur le site s à la période t ݌ܮ,ݐ,ݏ ݇ en fonction du nombre de machines allouées ݏ,ݐ,݌ܴ pour sa réalisation ݇ . La contrainte (11) permet de vérifier qu’à chaque site de production s et à tout instant, le nombre total des machines utilisées par un ensemble d’opérations en cours d’exécution en période t ne dépasse pas une certaine capacité limite ݏܯ ݇ . La contrainte (12) permet de vérifier que toutes les opérations de fabrication en période t sont achevées au cours de la même période t de planification. La contrainte (13) impose un ordre entre deux opérations successives au sein d'une même gamme de fabrication pour chaque produit p. La fonction objectif (14) cherche à minimiser les en-cours. III.5.3. Interaction énergétique entre les deux niveaux de décision Le recours à une structure décisionnelle intégrée nous a conduit à établir une interaction entre les niveaux supérieur (planification) et inférieur (ordonnancement agrégé). En s’appuyant sur un horizon discrétisé en périodes, le premier niveau de décision (planification) transmet au niveau inférieur (ordonnancement agrégé), à chaque période t, les quantités ݏ,ݐ,݌�) ݇ ) à traiter sur chaque site s. Ces variables sont soumises à des contraintes de conservation d’énergie (équation 15), qui doivent être satisfaites par ce niveau inférieur de décision. ݏ,ݐ,݌ܧ ݏ,ݐ,݌ܮ = ݇ ݇ ݏ,ݐ,݌ܴ * ݏ,ݐ,݌� = ݇ ݇ ݏ,݌ℎ * ܱ݇ܪ א ݐ ∀ ,ܲ݁�ܽݐݑ݋ܴ א ݏ ∀ ,݌ ∀ (15) Il s’agit de gérer la production des sites de manière à suivre du mieux possible le plan généré par le niveau planification [Trojet et al., 2012]. Chapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 87 En effet, la contrainte (15) exprime l’égalité entre [la consommation de ressource] et [le travail correspondant à la quantité à lancer en période t]. Plus précisément, elle lie [la durée de fabrication du produit p ݌ܮ,ݐ,ݏ ݇ sur le site de production s et le nombre de ressources ݏ,ݐ,݌ܴ utilisées ݇ ] à la [quantité à lancer en fabrication du produit p sur le site s à la période t ݏ,ݐ,݌� ݇ , et à la durée opératoire nécessaire pour la fabrication d’une unité du produit p .[ ݏ,݌ℎ Dans l’exemple de la figure III.8, si nous considérons que Xp,2,s, décision générée par le premier niveau de décision, est la quantité à lancer en fabrication du produit p sur un site de production s à la deuxième période de l’horizon de planification HP, et que hp,s est la durée opératoire unitaire de fabrication du produit p sur un site s, alors la demande totale en énergie (consommation) Ep,2,s d’un produit p sur le site s, à la deuxième période de l’horizon de planification, est égale au produit de Xp,2,s et de hp,s. Cette demande en énergie est transmise au deuxième niveau de décision. Sa faisabilité est vérifiée par son égalité au produit du nombre de ressources (machines) affectées sur le site s pour la réalisation du produit p (Rp,2,s) par la durée totale de fabrication du produit p sur le site s (Lp,2,s). La flèche en pointillés indique le changement de la valeur de Xp,2,s en cas de non faisabilité. Cette interaction est réalisée au sein de la deuxième période de l’horizon de planification. Chapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 88 Figure III.8. Interaction énergétique entre les deux niveaux de décision III.6. Conclusion Dans ce chapitre, nous avons présenté la structure de la chaîne logistique adoptée dans le cadre de cette thèse. Cette chaîne est limitée à trois types d'acteurs : une entreprise composée de plusieurs sites de productions, un ensemble de clients et des sous-traitants. Ensuite, nous avons introduit deux délais qui caractérisent chaque type de décision à savoir les délais d’anticipation et les délais d’obtention et nous avons proposé et détaillé le principe d’un processus dynamique de planification qui intègre les différentes hypothèses et caractéristiques décisionnelles. Deuxième niveau de décision (Ordonnancement) T Xp,2,s Premier niveau de décision (Planification) (Ep,2,s) Avec, Ep,2,s = Xp,2,s * hp,s= Rp,2,s * Lp,2,s Interaction énergétique entre les deux niveaux de décision Rp,2,s Lp,2,s Opération de fabrication Date de début de l’opérationChapitre III. Approche hiérarchisée pour la planification dynamique : Concepts et modèle 89 Sur cette base, nous avons présenté l’approche de planification dynamique de la chaîne logistique étudiée. Cette approche est fondée sur une structure décisionnelle à deux niveaux. Le premier niveau, tactique, se base sur un horizon de planification à moyen terme. Il permet de générer des décisions relatives à la production (quantités de produits à traiter, quantités à sous-traiter, ajustement de la capacité) à partir de demandes prévisionnelles et à moindre coût. Ces décisions sont intégrées, sous la forme de contraintes dites de conservation d’énergie, qui assurent l'interaction avec le niveau inférieur. Ce dernier ordonnance de façon agrégée les opérations de fabrication en respectant au mieux ces contraintes en localisant leur début et leur fin au cours d'une période de planification. L’interaction énergétique assure la transmission de données entre les deux niveaux. Le chapitre suivant présente la démarche méthodologique pour analyser la performance de cette approche intégrée pour la planification dynamique. Chapitre IV. Analyse de performance : Démarche méthodologique 90Chapitre IV. Analyse de performance : Démarche méthodologique 91 CHAPITRE IV. ANALYSE DE PERFORMANCE : DEMARCHE METHODOLOGIQUEChapitre IV. Analyse de performance : Démarche méthodologique 92 IV.1. Introduction Ce chapitre porte sur la méthodologie développée pour analyser la performance du modèle de planification dynamique d’une chaîne logistique. Dans cette démarche, nous associons à chaque itération de planification k un CSP (P k ) correspondant au problème de planification à résoudre. Le problème (P k+1) constitue une actualisation du problème (P k ) par l’ajout ou le retrait de certaines contraintes issues de perturbations internes ou externes (figure IV.1). Nous considérons trois types de perturbations : variation de la demande, variation de la capacité et re-planification de la demande. Figure IV.1.Schéma d’actualisation d’un problème de planification Pour une actualisation donnée CSP (P k+1), nous appliquons, séparément, deux méthodes de résolution différentes : une méthode de résolution statique et une méthode de résolution dynamique. Une solution constitue un plan de planification – ordonnancement agrégé. La performance d’une solution est renseignée par l’ensemble des mesures de la stabilité et de la robustesse aux niveaux sites et au niveau de la chaîne logistique. Dans la première partie de ce chapitre, nous exposons les objectifs de l’analyse et l’approche comparative. Nous présentons ensuite les techniques de résolution et les indicateurs de performance formalisés. P 1 k = 1 Données initiales du problème P 2 k = 2 Données actualisées du problème P n k = n Données actualisées du problème k : itération de planification P k : CSP à l’itération de planification k …Chapitre IV. Analyse de performance : Démarche méthodologique 93 IV.2. Objectifs et Démarche IV.2.1. Objectifs de l’analyse : Mesurer la stabilité et la robustesse La performance d’une chaîne logistique est évaluée par l’ensemble des mesures de satisfaction des objectifs que se fixent les entreprises partenaires. Dans notre travail, les résultats numériques obtenus par différentes simulations sont comparés sur la base d’indicateurs de performance localement au niveau « Site ». Par la suite, ils sont déduits globalement au niveau « Chaîne logistique ». Ces mesures portent sur la quantification de la réorganisation induite par la modification d’un programme de production. Une solution est alors évaluée par la comparaison entre :  les décisions engagées, correspondantes au déroulement réel et prévu des activités de transformation du flux physique, et  les décisions du plan modifié, visant à réorganiser et à mettre à jour ces mêmes activités suite à un aléa. Pour une solution donnée, les résultats traduisent l’étendue du changement tant sur les décisions de planification (quantités à produire) que sur les décisions d’ordonnancement agrégé (dates de début des opérations). Ces résultats sont à la base du référentiel de mesure de performances utilisé dans la suite de ce chapitre pour évaluer la stabilité et la robustesse d’une solution, notions que nous définissons ci-dessous.  Définition de la Robustesse La littérature scientifique nous permet de distinguer plusieurs définitions de la notion de « robustesse » issues de plusieurs disciplines. Toutefois, les différentes définitions présentent un élément commun en associant généralement la notion de « robustesse » à celle d’incertitude, de risque et de prise de décision [Kleijnen, 2003]. Dans le domaine des statistiques, la robustesse est définie comme « une insensibilité à toutes déviations par rapport aux hypothèses » [Huber, 1981]. En recherche opérationnelle, et selon la même vision, Bertsimas et Sim définissent une résolution robuste comme étant une approche insensible aux incertitudes sur les données du problème. Cette approche permet de générer une solution ayant une performance proche de celle de la solution optimale malgré les variations des valeurs des données incertaines [Bertsimas et Sim, 2004]. En gestion de Chapitre IV. Analyse de performance : Démarche méthodologique 94 production, Zapfel [Zapfel, 1998] et Roy [Roy, 1998] utilisent une autre définition : « un plan tactique est robuste s’il permet de trouver un plan réalisable au problème de planification opérationnelle pour toutes les réalisations possibles de la demande ». Dans le même cadre, et dans le contexte d’approches hiérarchisées, Mercé et Fontan indiquent que « une décision agrégée est dite robuste si elle assure l’existence d’au moins une décision détaillée » [Mercé et Fontan, 2001], [Fontan et al., 2005]. Parmi les différentes définitions, celle de Taguchi nous semble la plus adaptée à notre problématique: « Un système est dit robuste s’il permet d’obtenir une faible dispersion des performances cibles malgré les variations des paramètres non contrôlables ». Les paramètres non contrôlables sont considérés comme les sources de variations dans un problème de décision [Taguchi, 1987]. Dans cette même optique, Génin s’est appuyé sur la définition de Taguchi pour définir la robustesse d’un plan de production. Il propose la définition suivante : « nous qualifions un plan de robuste si et seulement s’il fournit une faible dispersion de ses caractéristiques malgré les fluctuations perturbatrices des facteurs non contrôlables » [Génin, 2003]. Dans notre travail, la robustesse est approchée sous l’angle de l’aptitude d’une solution de planification/ordonnancement à assurer un niveau minimal de dispersion du programme de production initial face aux variations de certaines données (demande, capacité, etc.). Cette notion est employée pour quantifier la dispersion des valeurs modifiées par la variation d’une donnée, révélant ainsi la plus ou moins grande aptitude d’une solution à assurer la performance de robustesse.  Définition de la Stabilité [Durieux et Pierreval, 2003] indiquent que« le terme stabilité est généralement mis en opposition à celui de nervosité ».Stabilité et nervosité de la planification sont souvent traitées dans la littérature au niveau du calcul des besoins (MRP) [Yano et Carlson, 1987], [Ho, 1989], [Sridharan et Laforge, 1990], [Jensen, 1993], [Hei, 1998]. Calculer un programme directeur de production (PDP) revient à mettre en place un horizon glissant, ce qui implique de le recalculer avec une périodicité ∆ݐ ; par conséquent, ce type de pratique induit des variations dans les quantités de production résultantes. Selon [Herrera et Thomas, 2010], la stabilité (nervosité) d’un PDP est alors relative aux différences entre les quantités planifiées recalculées à chaque itération du processus. Celui-ci sera stable si celles-là sont peu Chapitre IV. Analyse de performance : Démarche méthodologique 95 importantes et instable dans le cas contraire. Pour [Vollman et al., 1997], « la nervosité est communément définie comme des changements significatifs dans les plans MRP, qui ont lieu même en cas de changement minime du niveau supérieur ou du PDP. Les changements concernent les quantités ou les périodes des ordres planifiés ». Il ressort que lorsque nous nous intéressons à la stabilité d’un système, nous cherchons à ne pas remettre en cause très souvent les décisions que nous aurions prises. Dans notre travail, nous aborderons la notion de stabilité en tant qu’aptitude d’une solution de planification/ordonnancement à assurer un certain niveau de continuité du programme de production initial face aux variations de certaines données (demande, capacité, etc.). Cette notion est employée pour compter le nombre de variables modifiées par une variation d’une donnée, révélant ainsi la plus ou moins grande aptitude d’une solution à assurer la performance de stabilité. IV.2.2. Approche comparative : CSP statique vs CSP dynamique L’analyse que nous avons menée vise à mettre en exergue les avantages et inconvénients incombant à chaque type de résolution (CSP statique et CSP dynamique) pour faire face à des variabilités types elles-mêmes simulées. Plus précisément, il s’agit d’étudier le comportement global de chaque résolution sous l’angle de la stabilité et la robustesse face à trois types de variations :  Variation de la demande client  Variation de la capacité de production  Variation de re-planification Basée sur un cas d’étude, l’approche comparative a porté sur les résultats aux niveaux « Planification » et « Ordonnancement agrégé », ainsi qu’aux niveaux « Site » et « Chaîne logistique ». Dans tous les cas, ces mesures comparatives sont calculées sur un même horizon. IV.3. Procédures de résolution : CSP Statique et CSP Dynamique Nous associons à chaque itération de planification (k) et sur un horizon de planification HP, un CSP P k . La résolution de chaque itération (k) est séparée de la résolution du CSP relatif à l’itération de planification (k-1). Les expérimentations sont effectuées à l’aide du Chapitre IV. Analyse de performance : Démarche méthodologique 96 logiciel ECLi PSe 6.0 qui est une extension du langage Prolog incluant des bibliothèques de programmation par contraintes. Dans ce cadre, deux méthodes de résolution sont employées. Nous décrivons dans les paragraphes suivants, la méthode de résolution CSP statique et la méthode de résolution CSP dynamique. IV.3.1. Procédure de résolution CSP statique Le problème étudié est un problème d’optimisation où l’objectif est donc de déterminer une solution associée à la minimisation d’une fonction objectif. Pour cela, nous utilisons une procédure de type séparation et évaluation (branch-and-bound). Cette méthode est basée sur une recherche arborescente d’une solution optimale dans un ensemble combinatoire de solutions possibles. Elle implique trois éléments principaux [Lalami, 2012] :  la séparation (branch) consiste à diviser un ensemble de solutions en sousensembles plus petits ;  l’évaluation (bound) permet d’évaluer les solutions d’un sous-ensemble de façon optimiste en majorant la valeur de la meilleure solution de ce sous-ensemble, ce qui permet d’éliminer de l’espace de recherche les sous-ensembles de solutions qui ne peuvent pas fournir une solution optimale ;  la stratégie de parcours permet de choisir le prochain sommet à séparer parmi l’ensemble des sommets de l’arborescence. La bibliothèque branch-and-bound d’ECLi PSe 6.0 fournit des prédicats génériques qui implémentent cette procédure et offre différentes stratégies de recherche :  Continue : après avoir trouvé une solution, continuer la recherche avec la nouvelle borne imposée sur le coût.  Restart : après avoir trouvé une solution, recommencer la recherche avec la nouvelle borne imposée sur le coût.  Dichotomic : après avoir trouvé une solution, diviser l’espace de recherche en deux et recommencer la recherche pour trouver une solution dans la partie inférieure ; si cela échoue, revenir à la partie supérieure et diviser de nouveau. Chapitre IV. Analyse de performance : Démarche méthodologique 97 Nous adoptons une stratégie de recherche du type Continue6 . Etant donné que le problème considéré est à deux niveaux de décision (planification et ordonnancement agrégé), deux critères d’optimisation différents (C1 et C2) sont considérés. Ainsi, à partir d’une solution qui optimise le premier critère C1 (minimisation du coût total de production) au niveau planification7 , nous recherchons une solution qui optimise le deuxième critère C2 (minimisation des en-cours) au niveau ordonnancement agrégé. Pour notre problème de planification, il s’agit de minimiser, respectivement, le coût au premier niveau de décision et les en-cours au deuxième niveau de décision. La bibliothèque ic d’ECLi PSe 6.0 fournit également des prédicats génériques pour la recherche de solutions et offre différentes méthodes de recherche qui peuvent être classifiées en des méthodes de recherche complètes et des méthodes de recherche incomplètes. Les solutions fournies dans le cadre de ce travail et pour toutes les expérimentations réalisées ont été générées à partir d’une méthode de recherche incomplète dite Credit search. Cette méthode explore le haut de l’arbre de la recherche complètement. Initialement, un montant donné de crédit est fixé. A chaque nœud de l’arbre, la première alternative obtient la moitié du crédit disponible, la seconde alternative aura le crédit restant et ainsi de suite. Lorsque le crédit est épuisé, on passe à une deuxième méthode de recherche : Bounded backtracking search avec un nombre de backtracks égal à 5. La variable est choisie selon l’heuristique Most_constrained (choix de la variable associée au plus petit ratio taille de domaine/nombre de contraintes dans lesquelles elle est impliquée). Concernant le choix des valeurs, nous faisons appel à la primitive indomain_split. Au premier appel, l’heuristique fixe la variable à la plus petite valeur dans son domaine. En cas de retourarrière, elle essaie la valeur qui suit dans le domaine, etc. D’autres heuristiques et d’autres méthodes de recherche peuvent être sélectionnées et programmées. 6 Formellement, la fonction optimisation est exprimée en ECLi PSe 6.0 par le prédicat suivant : bb_min(+Goal,?Cost,?Options). bb-min donne une seule solution de Goal qui minimise Cost avec une stratégie de recherche Continue comme Options. 7A titre d’exemple, pour le niveau planification, le prédicat suivant a été employé :bb_min(search(L1,0,most_constrained,indomain_split,credit(100,bbs(5)),[]),Cost_Total,bb_options{strat egy:continue}), avec : search(L1,0,most_constrained,indomain_split,credit(100,bbs(5)),[]), le Goal et Cost_Total le Cost.Chapitre IV. Analyse de performance : Démarche méthodologique 98 IV.3.2. Procédure de résolution CSP dynamique Dans cette partie, nous décrivons la procédure de résolution dynamique. Dans ce cadre, nous adoptons l’approche par réutilisation de solution, décrite dans le deuxième chapitre de cette thèse, pour la résolution des DCSP. Ainsi, la résolution d’un CSP (P k ) ne part pas de zéro mais de la solution relative au CSP (P k-1). Pour cela, nous utilisons les techniques de réparation et en particulier la technique de recherche locale dont le principe de base est le suivant :  Trouver une instanciation initiale pour toutes les variables du problème (leur donner des valeurs tentatives) ;  Trouver une contrainte en conflit (i.e. une contrainte qui ne satisfait pas les valeurs tentatives de ces variables), et instancier une variable de cette contrainte à sa nouvelle valeur (i.e. changer sa valeur tentative) ;  Instancier les variables restantes à leurs valeurs tentatives, lorsqu’il n’y a plus de contraintes en conflit. Dans notre travail, l’instanciation initiale des variables d’un problème (P k ) n’est autre que la solution du problème relative à l’itération de planification précédente (P k-1). Aussi, les contraintes d’un problème (P k ) ne sont pas toutes mises en conflit. Si nous considérons que Ck est l’ensemble des contraintes et Cconf l’ensemble des contraintes en conflit, alors : Cconf Ck. La bibliothèque Repair d’ECLi PSe 6.0 fournit des prédicats génériques qui implémentent la technique de recherche locale :  tent_set, pour instancier une variable à sa valeur tentative ;  conflict_constraint et term_variables retournent respectivement l’ensemble des contraintes qui sont en conflit et l’ensemble des variables de la contrainte en conflit ;  set_to_tent, permet d’instancier les variables qui n’appartiennent pas à des contraintes en conflit à leur valeur tentative. Chapitre IV. Analyse de performance : Démarche méthodologique 99 Etant donné que notre problème est un problème d’optimisation, nous combinons les techniques de recherche locale et les techniques de séparation et évaluation pour la recherche de la solution optimale. Le code suit le schéma de la figure IV.2. Figure IV.2. Algorithme de réparation Ainsi, nous avons mis en œuvre cette procédure qui est basée sur deux grandes étapes :  Instanciation de toutes les variables du problème à leur valeur tentative (set_tentative(X, K, G, S, Hsup)). Par exemple : la variable X est instanciée à sa valeur solve(Vars, Vars1) :- Vars = [X, K, G, Hsup, S], % variables du problème … set_tentative(X, K, G, Hsup, S), … bb_min(repair_ic(L1), Cost_Total, bb_options{strategy : continue}). set_tentative(X, K, G, Hsup, S):- X tent_set Tx, … S tent_set Ts. repair_ic(L1): - conflict_constraints(cr, List), (List = [ ] -> set_to_tent(L1), ; List = [Constraint|_] -> term_variables(Constraint, Vars), move(Vars), repair_ic(L1) ). move([Var1|Vars]):- get_max(Var1,Vmax), Var1 tent_get Value, (Value NewValue is (Value+1), Var1 tent_set NewValue ; move(Vars) ).Chapitre IV. Analyse de performance : Démarche méthodologique 100 tentative Tx (X tent_set Tx), la variable S est instanciée à sa valeur tentative Ts (S tent_set Ts), …  Recherche de solution à travers les techniques de réparation (repair_ic(Vars)). La recherche de solution (repair_ic(Vars)) est basée sur les étapes suivantes :  Pour cette instanciation initiale, on cherche, parmi les contraintes qui appartiennent à la liste cr, celles qui sont en conflit (contraintes non satisfaites). Pour ce faire, on utilise le prédicat : r_conflict cr. Il est à noter que cr est la liste des contraintes choisies pour la réparation (cr est un nom attribué à la liste).  Vérifier si la liste cr est vide (aucune contrainte de la liste n’est violée) ou non. Deux cas se présentent : a. Si oui (aucune contrainte en conflit), les variables seront affectées à leurs valeurs tentatives. Pour cela, le prédicat set_to_tent(Vars) est employé ; b. Sinon (la liste cr n’est pas vide, des contraintes en conflit existent) i. une contrainte de la liste cr sera choisie. Pour cela, le prédicat (List = [Constraint|_]) est employé ; ii. toutes les variables de la contrainte en conflit qui a été sélectionnée sont regroupées dans la liste Vars avec le prédicat term_variables(Constraint, Vars). Une variable (Var1) de la liste Vars sera modifiée (move(Vars)).Elle sera affectée à sa nouvelle valeur (Var1 tent_set NewValue). La nouvelle valeur est égale à l’ancienne valeur additionnée à 1 (NewValue is (Value+1)). Cette démarche s’arrête lorsque la contrainte sera satisfaite ou que la variable sera affectée à la limite supérieure de son domaine de définition.  La même procédure se répète jusqu’à l’obtention d’une solution ou d’un échec. Contrairement à la résolution CSP Statique qui aborde la recherche sans aucun point de départ défini, cette procédure de résolution CSP dynamique commence la recherche à partir d’une solution initiale tentative et relative au CSP (P k-1).Chapitre IV. Analyse de performance : Démarche méthodologique 101 IV.4. Indicateurs de performance IV.4.1. Protocole d’évaluation de la performance La démarche générale est basée sur l’évaluation de la performance suite à deux itérations successives telles que : la première itération (k) correspond au problème initial et la deuxième itération (k+1) correspond au même problème avec prise en compte d’aléas. La solution initiale (relative au problème initial) que nous notons par α k est obtenue par la méthode de résolution statique. La nouvelle solution (relative au problème avec prise en compte d’aléas) que nous notons par α k+1 est obtenue, distinctement et à des fins de comparaison, suivant les deux approches de résolution statique et dynamique. L’approche comparative est menée en considérant différents types d’aléas exprimés sous forme de variation de la demande, de la capacité et de re-planification. Pour chaque type de variation, nous simulons différents taux (20% de modifications, 40% de modifications, …). Pour évaluer l’étendue de la perturbation possible sur les activités de production, nous comparons les deux nouvelles solutions obtenues, distinctement par résolution statique et par résolution dynamique, par rapport à la solution initiale. Ainsi, nous introduisons les deux types d’indicateurs P N et P E : - P N correspond à la distance de perturbation et permet de mesurer la stabilité de la solution ; - P E correspond au poids de perturbation et permet de mesurer la robustesse de la solution. Ces deux indicateurs sont évalués au niveau planification et au niveau ordonnancement agrégé, ainsi qu’au niveau site de production et au niveau global de la chaîne logistique. IV.4.2. Notions de Distance et de Poids de Perturbation Pour rappel, un DCSP Θ est une suite P 0 , P 1 , … de CSP classiques, tels que deux problèmes successifs P k et P k+1 ne diffèrent que par l’ajout ou le retrait de certaines contraintes. Chapitre IV. Analyse de performance : Démarche méthodologique 102 Soit α k une solution à P k et α k+1une solution à P k+1 . Nous définissons � 1 comme l’ensemble de variables v tel que : l’instanciation h de v dans α k est différente de l’instanciation h’ de v dans α k+1 : � 1 ߙ ݇ ߙ , ′ℎ ≠ ℎ ݇ߙ א ′ℎ ݒ ݇ߙ א ℎ ݒ � א ݒ = 1+݇ Ainsi, la première fonction P N est définie par le cardinal de l’ensemble. Elle correspond à la distance de perturbation, connue dans la littérature mathématique comme la distance de Hamming : P N (α k+1 , α k ) = | � 1 ߙ ݇ ߙ , ݇+1 | 2 Nous définissons �ݒ 2 comme la différence numérique entre l’instanciation de v dans ߙ ݇ et l’instanciation de v dans ߙ ݇+1 : ݒ� 2 ߙ ݇ ߙ , ݇+1 = ℎ ݇ߙ א ℎ ݒ ∀ ℎ − ′ 1+݇ߙ א ′ℎ ݒ , 3 Ainsi, la deuxième fonction P E est définie comme la somme des valeurs absolues �ݒ 2 . Elle correspond au poids de perturbation : ܲ ܧ ߙ ݇ ߙ , ݒ� = 1+݇ 2 4 ݒ Etant donné que notre approche intégrée comporte deux niveaux, le plan de production est caractérisé par : - Des variables relatives à la planification des produits (premier niveau) comme le volume de production interne, le volume de production sous-traitée, les stocks, les arriérés, etc. - Des variables relatives à l’ordonnancement agrégé (deuxième niveau) comme les dates de début, le nombre de ressources nécessaires, les durées de fabrication des différents produits. Les indicateurs de performance que nous employons dans notre travail relèvent des deux niveaux énumérés ci-dessus et en particulier les volumes de production pour le niveau de planification et les dates de début des opérations pour le niveau d’ordonnancement agrégé. Chapitre IV. Analyse de performance : Démarche méthodologique 103 IV.4.3. Indicateurs de performance au niveau Site de production La gestion d’une chaîne logistique nécessite la disposition d’informations sur l’état courant des différents sites de production. Ainsi, la définition d’une solution de planification/ordonnancement retenue pour la chaîne logistique, et son évaluation sur le niveau local des sites de production constitue un moyen d’assurer un certain niveau de stabilité et de robustesse. IV.4.3.1. Stabilité et robustesse de la planification  Stabilité : Distance moyenne de perturbation Pour le premier niveau de décision correspondant à la planification, la distance moyenne de perturbation ܲܵ ܰ pour un site donné est calculée pour les variables �݌,ݐ,ݏ correspondant aux quantités des produits p lancés en production interne sur les différentes périodes t sur le site s. Elle est définie par la formule suivante : ܲܵ ߙ)ܰ ݇ ߙ , ݇+1) = |� 1 ߙ ݇ ߙ, ݇+1 | ܶ ∗ ݏܲ 5 avec : � 1 ߙ ݇ ߙ , ݇ߙ א ℎ/ݏ,ݐ,݌� | � א ݏݐ,݌� = 1+݇ ℎ/ݏ,ݐ,݌� & ′ א ߙ݇+1& ℎ ≠ ℎ′ ݏܲ ݏ ݁ݐ݅ݏ ݈݁ ݐ݊ܽݏݎ݁ݒܽݎݐ ݏݐ݅ݑ݀݋ݎ݌ ݁݀ ݁ݎܾ݉݋݊ ∶ ݏ݁݀݋݅ݎé݌ ݁݀ ݁ݎܾ݉݋݊ ∶ ܶ  Robustesse : Poids moyen de perturbation Pour ce même niveau de planification, le poids moyen de perturbation ܲܵ ܧ pour un site donné est calculé pour les variables �݌,ݐ,ݏ . Il est défini par la formule suivante : ܲܵ ܧ ߙ ݇ ߙ , ݇+1 = ݒ�| 2 ݒ | 6 ܶ ∗ ݏܲ avec : ݒ� 2 ߙ ݇ ߙ , ݇+1 = ℎ ݇ߙ א ℎ/ݏ,ݐ,݌� ∀ ℎ − ′ 1+݇ߙ א ′ℎ/ݏ,ݐ,݌� , ݏܲ ݏ ݁ݐ݅ݏ ݈݁ ݐ݊ܽݏݎ݁ݒܽݎݐ ݏݐ݅ݑ݀݋ݎ݌ ݁݀ ݁ݎܾ݉݋݊ ∶Chapitre IV. Analyse de performance : Démarche méthodologique 104 ݏ݁݀݋݅ݎé݌ ݁݀ ݁ݎܾ݉݋݊ ∶ ܶ IV.4.3.2. Stabilité et robustesse d’ordonnancement  Stabilité : Distance moyenne de perturbation Pour le deuxième niveau de décision correspondant à l’ordonnancement agrégé, la distance moyenne de perturbation ܲܵ ܰ pour un site donné est calculée pour les variables ܦܾ݁݌,ݐ,ݏ correspondant aux dates de début des opérations des produits p sur les différentes périodes t sur le site s. Elle est définie par la formule suivante : ܲܵ ߙ)ܰ ݇ ߙ , ݇+1) = � 1 ߙ ݇ ߙ, ݇+1 ܶ ∗ ݏܲ 7 avec : � 1 ߙ ݇ ߙ , ݇ߙ א ℎ/ݏ,ݐ,݌ܾ݁ܦ |� א ݏ,ݐ,݌ܾ݁ܦ = 1+݇ ℎ/ݏ,ݐ,݌ܾ݁ܦ & ′ א ߙ݇+1& ℎ ≠ ℎ′ ݏܲ ݏ ݁ݐ݅ݏ ݈݁ ݐ݊ܽݏݎ݁ݒܽݎݐ ݏݐ݅ݑ݀݋ݎ݌ ݁݀ ݁ݎܾ݉݋݊ ∶ ݏ݁݀݋݅ݎé݌ ݁݀ ݁ݎܾ݉݋݊ ∶ ܶ  Robustesse : Poids moyen de perturbation Pour ce même niveau d’ordonnancement, le poids moyen de perturbation ܲܵ ܧ pour un site donné est calculé pour les variables ܦܾ݁݌,ݐ,ݏ . Il est défini par la formule suivante : ܲܵ ܧ ߙ ݇ ߙ , ݇+1 = ݒ�| 2 ݒ | 8 ܶ ∗ ݏܲ avec : ݒ� 2 ߙ ݇ ߙ , ݇+1 = ℎ ݇ߙ א ℎ ݏ,ݐ,݌ܾ݁ܦ ∀ ℎ − ′ ℎ/ݏ,ݐ,݌ܾ݁ܦ, 1+݇ߙ א ′ ݏܲ ݏ ݁ݐ݅ݏ݈݁ ݐ݊ܽݏݎ݁ݒܽݎݐ ݏݐ݅ݑ݀݋ݎ݌ ݁݀ ݁ݎܾ݉݋݊ ∶ ݏ݁݀݋݅ݎé݌ ݁݀ ݁ݎܾ݉݋݊ ∶ ܶChapitre IV. Analyse de performance : Démarche méthodologique 105 IV.4.4. Indicateurs de performance au niveau chaîne logistique L’évaluation de la performance est une problématique largement étudiée dans la littérature récente sur la chaîne logistique. Ici, notre objectif est d’évaluer une solution de planification/ordonnancement de l’ensemble de la chaîne. Ainsi nous mettons en place des « mesures de performance » pour évaluer la stabilité et la robustesse globale de la solution. IV.4.4.1. Stabilité et robustesse de la planification  Stabilité : Distance moyenne de perturbation Pour le premier niveau de décision, correspondant à la planification, la distance moyenne de perturbation ܲܮܥ ܰ pour la chaîne logistique est la moyenne des distances moyennes de perturbation ܲܵ ܰ sur tous les sites. Elle est définie par la formule suivante : ܮܥܲ ܰ ݏ,ݐ,݌�) ݇ ) = ܲܵ ݏ,ݐ,݌�)ܰ ݇ ( ݏ ܵ 9 avec : S = nombre de sites de la chaîne logistique.  Robustesse : Poids moyen de perturbation Pour ce même niveau de planification, le poids moyen de perturbation ܲܮܥ ܧ pour la chaîne logistique est la moyenne des poids moyens de perturbation ܲܵ ܧ sur tous les sites. Il est défini par la formule suivante : ܮܥܲ ܧ ݏ,ݐ,݌�) ݇ ) = ܲܵ ܧ ݏ,ݐ,݌�) ݇ ( ݏ ܵ 10 avec : S = Nombre de sites de la chaîne logistique. IV.4.4.2. Stabilité et robustesse de l’ordonnancement  Stabilité : Distance moyenne de perturbation Pour le deuxième niveau de décision, correspondant à l’ordonnancement, la distance moyenne de perturbation ܲܮܥ ܧ pour la chaîne logistique est la moyenne des distances moyenne de perturbation ܲܵ ܰ sur tous les sites. Elle est définie par la formule suivante : ܮܥܲ ܰ ݏ,ݐ,݌ܾ݁ܦ) ݇ ) = ܲܵ ݏ,ݐ,݌ܾ݁ܦ)ܰ ݇ ( ݏ ܵ 11 Chapitre IV. Analyse de performance : Démarche méthodologique 106 avec : S = nombre de sites de la chaîne logistique.  Robustesse : Poids moyen de perturbation Pour ce même niveau de planification, le poids moyen de perturbation ܲܮܥ ܧ pour la chaîne logistique est la moyenne des poids moyens de perturbation ܲܵ ܧ sur tous les sites. Il est défini par la formule suivante : ܮܥܲ ܧ ݏ,ݐ,݌ܾ݁ܦ) ݇ ) = ܲܵ ܧ ݏ,ݐ,݌ܾ݁ܦ) ݇ ( ݏ ܵ 12 avec : S = nombre de sites de la chaîne logistique. Le tableau IV.1 et le tableau IV.2 présentent une récapitulation des différents types d’indicateurs utilisés pour les niveaux planification et ordonnancement agrégé aux niveaux sites de production et au niveau chaîne logistique respectivement. Indicateurs de performance au niveau Site de production Stabilité : distance de perturbation Robustesse : poids de perturbation Planification (Niveau 1) ܲܵ ݏ,ݐ,݌� ܰ ݇ = ݏ,ݐ,݌� ݏ,ݐ,݌� =/ 1+݇ ݇ ܶ ∗ ݏܲ ܲܵ ܧ ݏ,ݐ,݌� ݇ = ݏ,ݐ,݌�| ݏ,ݐ,݌� − 1+݇ ݇ | ܶ 1=ݐ ݌ ܶ ∗ ݏܲ Ordonnancement (Niveau 2) ܲܵ ݏ,ݐ,݌� ܰ ݇ = ݏ,ݐ,݌ܾ݁ܦ | ݏ,ݐ,݌ܾ݁ܦ =/ 1+݇ ݇ | ܶ ∗ ݏܲ ܲܵ ܧ ݏ,ݐ,݌ܾ݁ܦ ݇ = ݏ,ݐ,݌ܾ݁ܦ| ݏ,ݐ,݌ܾ݁ܦ − 1+݇ ݇ | ܶ 1=ݐ ݌ ܶ ∗ ݏܲ avec :  ܲܵ = Nombre de produits traversant le site s  T = Nombre de périodes Tableau IV.1. Tableau de synthèse des indicateurs de performance (niveau sites) Chapitre IV. Analyse de performance : Démarche méthodologique 107 Indicateurs de performance au niveau Chaîne logistique Stabilité : distance de perturbation Robustesse : poids de perturbation Planification (Niveau 1) ܮܥܲ ܰ ݏ,ݐ,݌�) ݇ ) = ܲܵ ݏ,ݐ,݌�)ܰ ݇ ( ݏ ܵ ܮܥܲ ܧ ݏ,ݐ,݌�) ݇ ) = ܲܵ ܧ ݏ,ݐ,݌�) ݇ ( ݏ ܵ Ordonnancement (Niveau 2) ܮܥܲ ܰ ݏ,ݐ,݌ܾ݁ܦ) ݇ ) = ܲܵ ݏ,ݐ,݌ܾ݁ܦ)ܰ ݇ ( ݏ ܵ ܮܥܲ ܧ ݏ,ݐ,݌ܾ݁ܦ) ݇ ) = ܲܵ ܧ ݏ,ݐ,݌ܾ݁ܦ) ݇ ( ݏ ܵ avec :  ܲܵ = Nombre de produits traversant le site s  T = Nombre de périodes Tableau IV.2. Tableau de synthèse des indicateurs de performance (niveau chaîne logistique) IV.5. Conclusion Dans ce chapitre, après avoir présenté les objectifs et notre démarche méthodologique, nous avons, dans un premier temps, détaillé les deux procédures de résolution que nous avons adoptées : la procédure de résolution statique et la procédure de résolution dynamique. Dans un second temps, et dans le but de caractériser la performance de notre approche, nous avons élaboré un ensemble d’indicateurs de performance. Ces indicateurs ont été divisés en deux catégories. La première catégorie regroupe les indicateurs qui caractérisent le plan établi au niveau planification. La deuxième catégorie concerne les indicateurs qui caractérisent le plan établi au niveau ordonnancement agrégé. Pour les deux niveaux de décision, les indicateurs permettent de mesurer la stabilité et la robustesse de la solution. Le chapitre suivant portera sur l’évaluation de notre approche par simulation dans un contexte caractérisé par des aléas. Toutes les expérimentations sont réalisées en suivant la Chapitre IV. Analyse de performance : Démarche méthodologique 108 procédure CSP statique et la procédure CSP dynamique. Pour la première, les différents problèmes de planification relatifs à des itérations successives sont résolus séparément et la solution relative à une itération de planification k ne constitue pas une base pour la résolution à l’itération suivante (k+1). La deuxième procédure est basée sur la mémorisation et la réutilisation des solutions et en particulier la méthode de recherche locale. Chapitre V. Expérimentation numérique et évaluation de l’approche 109 CHAPITRE V. EXPERIMENTATION NUMERIQUE ET EVALUATION DE L’APPROCHEChapitre V. Expérimentation numérique et évaluation de l’approche 110 V.1. Introduction Ce chapitre porte sur l’analyse du modèle de planification dynamique et l’évaluation des deux approches de résolution CSP Statique /CSP Dynamique, et leurs impacts sur la conduite d’une chaîne logistique. Face à un aléa, un plan de production solution génère, pour chacun des sites, les volumes de production pour le niveau de planification et les dates de début des opérations pour le niveau d’ordonnancement agrégé. Une solution est évaluée par sa performance à assurer un certain niveau de stabilité (mesure de la distance de perturbation P N ) et de robustesse (mesure du poids de perturbation P E ). Les expérimentations sont réalisées aux niveaux sites de production et au niveau global de la chaîne logistique. Le cadre est un cas d’étude de réseau de sites de production. Le problème de nature académique est choisi de complexité réduite pour éviter une inutile explosion des données et une difficulté d’analyse des résultats d’expérimentation. V.2. Présentation du cas d’étude V.2.1. Description de la structure et des données de la chaîne logistique La chaîne logistique se compose de plusieurs sites de production appartenant à une même entreprise, et réalisant différents types de produits. La réalisation d’un produit nécessite une succession d’opérations de fabrication, réalisée chacune sur un site donné. Il s’agit d'organiser la production de 5 produits finis (A, B, C, D et E), sur un horizon de planification de 18 périodes. Les délais d’obtention ainsi que les coûts unitaires associés aux décisions de production (interne, sous-traitée ou heures supplémentaires) sont indiqués dans le tableau V.1. Chapitre V. Expérimentation numérique et évaluation de l’approche 111 Type de décision Délai d’obtention Coût unitaire Production interne (LP) A 1 A 4 B 1 B 4 C 1 C 4 D 1 D 4 E 1 E 4 Sous-traitance (LS) A 2 A 10 B 2 B 10 C 2 C 10 D 2 D 10 E 2 E 10 Heures supplémentaires 1 12 Tableau V.1. Délais et coûts de production des produits Le tableau V.2 représente les coûts unitaires de stockage et de rupture de chaque produit. A B C D E Coût unitaire de stockage 8 8 8 8 8 Coût unitaire de rupture 20 20 20 20 20 Tableau V.2. Coûts unitaires de stockage et de rupture Le profil de la demande prévisionnelle relatif à la première itération de planification est présenté dans le tableau V.3. Demande t=1 t=2 t=3 t=4 t=5 t=6 t=7 t=8 t=9 t=10 t=11 t=12 t=13 t=14 t=15 t=16 t=17 t=18 A 50 55 42 90 62 43 49 50 68 95 86 50 90 62 43 43 49 50 B 60 42 68 85 73 56 50 60 48 55 63 51 72 68 53 59 50 52 C 72 60 55 43 92 33 35 75 50 68 59 60 35 75 50 71 60 32 D 65 55 60 68 59 50 52 40 80 63 82 43 42 90 62 48 35 63 E 30 30 48 35 63 71 60 32 65 75 53 56 59 50 52 42 90 62 Tableau V.3. Profil de la demande (première itération de planification : k = 1) Les capacités des éléments de production sont définies ci-dessous : - ݐܥ,ݏ=240 : la capacité de production interne pour chaque site de production est de 240 ut ; - ܪ݉ܽ�ݏ =30 : un contingent maximum de 30 heures supplémentaires peut être affecté pour chaque site de production ; Chapitre V. Expérimentation numérique et évaluation de l’approche 112 - STp,t,s = 50 : le volume de production maximal du produit p en sous-traitance en période t sur le site de production s est de 50 produits ; - hp,s = 1 : la fabrication d’une unité de produit p en interne sur chaque site s nécessite une unité de temps. Les 5 produits seront réalisés sur les différents sites de production (5 sites) selon les gammes indiquées sur la figure V.1. Produit Site 1 Site 2 Site 3 Site 4 Site 5 A X X X B X X X X C X X D X X X E X X X Figure V.1. Gamme de fabrication des différents produits Site 1 Site 2 Site 3 Site 4 Site 5 Capacité 5 4 5 3 5 Tableau V.4. Capacité des sites de production Chaque site est défini par sa capacité de production (en nombre de machines). Dans un souci de simplification, nous considérons que les différents sites utilisent des machines parallèles (tableau V.4). Site 1 Site 2 Site 3 Site 4 Site 5 A, B, C A, C, E B, D, E B, D, E A, B, DChapitre V. Expérimentation numérique et évaluation de l’approche 113 V.2.2.Problématique et scénarios considérés La chaîne logistique considérée s’inscrit dans le cadre d’un réseau de sites au sein duquel il existe un service logistique central assurant la planification et l’ordonnancement agrégé des charges de fabrication. Il s’agit de répartir et de coordonner les productions entre les sites tout en laissant à chaque site une autonomie au niveau de l’ordonnancement détaillé local. La description définie précédemment limite la complexité du problème sans pour autant restreindre le champ d’étude. Ainsi, différents phénomènes pratiques peuvent être explorés sur la base de ce cas d’étude. En effet, après avoir planifié la production sur les sites et engagé leur organisation sur un horizon donné, le service logistique central peut se retrouver, à une période t, face à :  une annulation imprévue d’une commande client pour un ou plusieurs produits ;  une chute de la capacité de production sur un ou plusieurs sites suite à des pannes machines ou grèves d’employés ;  un retard d’approvisionnements nécessaires à la production d’un ou plusieurs produits engendrant une re-planification de ces quantités à la période suivante t+1. Pour ces différents scénarios, le service logistique central sera amené à réorganiser la solution initiale avec le minimum de perturbation de la production engagée sur les différents sites et du planning annoncé aux différents intervenants. Dans ce cadre, nous menons trois séries d’expérimentations différentes qui correspondent respectivement à : (1) une variation de la demande ; (2) une variation de la capacité ; (3) une variation de re-planification à t+1. L’objectif est d’évaluer et de comparer la stabilité et la robustesse fournies par la résolution CSP statique et la résolution CSP dynamique face au même type et à la même taille d’une variation simulée. Chapitre V. Expérimentation numérique et évaluation de l’approche 114 V.3. Évaluation de la stabilité et robustesse au niveau Site de production V.3.1. Expérimentation avec une variation de la demande V.3.1.1. Scénario d’expérimentation Pour une période donnée (t = 13), la variation porte sur une chute de la demande. Cette simulation porte progressivement et cumulativement sur le produit 1, puis produit 2 jusqu’au produit 4. Sur chacun des produits la variation de la demande est d’une quantité égale à (- 10).Le taux de variation est égal au nombre de produits variés sur le nombre total de produits. - Taux de variation 20% : P1 de 90 à 80 - Taux de variation 40% : P1 de 90 à 80, et P2 de 72 à 62 - Taux de variation 60% : P1 de 90 à 80, et P2 de 72 à 62, et P3 de 35 à 25 - Taux de variation 80% : P1 de 90 à 80, et P2 de 72 à 62, et P3 de 35 à 25, et P4 de 42 à 32 Pour toutes ces mesures de variations, le taux de variation est considéré comme un scénario donné et non pas une grandeur de la variation. L’objectif est d’évaluer la performance suivant un axe de variation (figure V.2). Figure V.2. Variation de la demande Produit 1 Produit2Produit 3 Produit 4 Produit 5 0 20 40 60 80 100 Demande Variation de la demande, (t=13) Profil initial de la demande Modification 20% Modification 40% Modification 60% Modification 80%Chapitre V. Expérimentation numérique et évaluation de l’approche 115 V.3.1.2. Résultats expérimentaux Dans ce paragraphe, nous présentons une vue détaillée des résultats obtenus avec la première famille d’expérimentations (variation de la demande). Nous présentons les résultats dans le cadre d’une résolution statique et d’une résolution dynamique. Les tableaux V.5 et V.6 détaillent respectivement les résultats pour le niveau planification et le niveau ordonnancement agrégé. Chapitre V. Expérimentation numérique et évaluation de l’approche 116 Planification de la production : Premier niveau de décision Scénario Indicateur de robustesse : ܲܵ ܧ Indicateur de robustesse :ܲܵ ܧ Indicateur de stabilité : ܲܵ ܰ Indicateur de stabilité : ܲܵ ܰ Variation de la demande Variation(%) Résolution statique Chaîne logistique Résolution dynamique Chaîne logistique Résolution statique Chaîne logistique Résolution dynamique Site 1 Site Chaîne logistique 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 20% 23.0 22.7 25.5 22.7 22.4 23.3 0.19 0 0.19 0 0.19 0.11 0.44 0.43 0.44 0.43 0.39 0.43 0.02 0 0.02 0 0.02 0.01 40% 23.2 26.5 25.5 24.7 22.2 24.4 0 0 0 0 0 0 0.44 0.02 0.44 0.43 0.39 0.34 0 0 0 0 0 0 60% 23.4 22.9 25.7 22.9 22.2 23.4 0 0 0 0 0 0 0.44 0.43 0.44 0.43 0.39 0.43 0 0 0 0 0 0 80% 23.4 30.1 25.8 30.1 37.2 29.3 0 0 0 0 0 0 0.44 0.44 0.44 0.44 0.41 0.43 0 0 0 0 0 0 Tableau V.5. Résultats numériques dans le cas d’une variation de la demande : premier niveau de décision Ordonnancement agrégé de la production : Deuxième niveau de décision Scénario Indicateur de robustesse : ܲܵ ܧ Indicateur de robustesse : ܲܵ ܧ Indicateur de stabilité : ܲܵ ܰ Indicateur de stabilité : ܲܵ ܰ Variation de la demande Variation (%) Résolution statique Chaîne logistique Résolution dynamique Chaîne logistique Résolution statique Chaîne logistique Résolution dynamique Chaîne logistique Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 20% 0 32.8 72.1 196.8 255.8 111.5 0 0.1 1.11 7.31 8.85 3.47 0 0.22 0.74 1.24 1.24 0.68 0 0 0.04 0.09 0.1 0.04 40% 0.3 20.2 61.6 151 180 82.62 0 0 0.74 6.57 8.11 3.08 0.02 0.19 0.46 0.8 0.8 0.41 0 0 0.02 0.07 0.1 0.038 60% 0 19.9 50.8 134 169 74.74 0 0 0.74 6.57 8.11 3.08 0 0.17 0.5 0.76 0.8 0.44 0 0 0.02 0.07 0.1 0.038 80% 0 19.9 50.8 133 166 73.94 0 0 0.74 6.57 8.11 3.08 0 0.15 0.46 0.76 0.8 0.43 0 0 0.02 0.07 0.1 0.038 Tableau V.6. Résultats numériques dans le cas d’une variation de la demande : deuxième niveau de décision Chapitre V. Expérimentation numérique et évaluation de l’approche 117 0 10 20 30 modif. 20% modif. 40% modif. 60% modif. 80% P E(X) Site 1 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 2 Résolution statique Résolution dynamique Indicateur de robustesse : poids de perturbation Indicateur de stabilité : distance de perturbation Planification de la production : premier niveau de décision (variation de la demande) Tableau V.7. Variation de la demande : Evaluation de la perturbation au niveau sites (planification de la production) 0 20 40 P E(X) Site 2 Résolution statique Résolution dynamique 0 10 20 30 P E(X) Site 3 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 1 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 3 Résolution statique Résolution dynamique 0 20 40 P E(X) Site 4 Résolution statique Résolution dynamique 0 20 40 P E(X) Site 5 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 4 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 5 Résolution statique Résolution dynamiqueChapitre V. Expérimentation numérique et évaluation de l’approche 118 0 0,2 0,4 0,6 P N(Deb) Site 2 Résolution statique Résolution dynamique Tableau V.8. Variation de la demande : Evaluation de la perturbation au niveau sites (ordonnancement agrégé) Indicateur de robustesse : poids de perturbation Indicateur de stabilité : distance de perturbation Ordonnancement de la production : deuxième niveau de décision(variation de la demande) 0 0,2 0,4 P E(Deb) Site 1 Résolution statique Résolution dynamique 0 0,02 0,04 P N(Deb) Site 1 Résolution statique Résolution dynamique 0 20 40 P E(Deb) Site 2 Résolution statique Résolution dynamique 0 100 200 300 P E(Deb) Site 4 Résolution statique Résolution dynamique 0 0,5 1 1,5 P N(Deb) Site 4 Résolution statique Résolution dynamique 0 100 200 300 P E(Deb) Site 5 Résolution statique Résolution dynamique 0 0,5 1 1,5 P N(Deb) Site 5 Résolution statique Résolution dynamique 0 50 100 P E(Deb) Site 3 Résolution statique Résolution dynamique 0 0,5 1 P N(Deb) Site 3 Résolution statique Résolution dynamiqueChapitre V. Expérimentation numérique et évaluation de l’approche 119 V.3.1.3. Analyse des résultats Pour le niveau planification (tableau V.7), nous établissons les constatations suivantes : 1. Pour la résolution statique et pour chaque site de production, les deux indicateurs de performance (stabilité P N et robustesse PE ) évoluent dans le même sens. En effet, le poids de perturbation et la distance de perturbation évoluent en croissance avec l’évolution du taux de variation. 2. Pour la résolution dynamique, les indicateurs de performance tendent vers zéro indépendamment du taux de variation. 3. Avec la méthode de résolution statique, nous constatons que le poids de perturbation varie entre 22 et 37 pour tous les sites de production et la distance de perturbation varie entre 0.39 et 0.44. Il n’y a pas de grande différence entre les valeurs des indicateurs de performance d’un site à un autre. 4. Pour un même taux de variation, les deux indicateurs de performance évoluent indépendamment en se déplaçant d’un site à un autre et cela est vrai pour la résolution statique et pour la résolution dynamique. Les mêmes conclusions sont constatées au niveau ordonnancement (tableau V.8) : 1. Pour la résolution statique, le poids de perturbation et la distance de perturbation évoluent dans le même sens mais, à la différence de la planification, l’évolution est indépendante du taux de variation. 2. Pour la résolution dynamique, les indicateurs de performance tendent vers zéro indépendamment du taux de variation. 3. Une augmentation des valeurs des deux indicateurs de performance est remarquable en se déplaçant d’un site à un autre pour la résolution statique et la résolution dynamique. V.3.1.4. Interprétation des résultats 1. Dans le cadre de cette expérimentation, nous constatons que quel que soit le niveau de décision (planification ou ordonnancement agrégé) et pour tous les sites de production, les indicateurs de performance tendent vers zéro avec la résolution dynamique. Cette tendance peut être expliquée par la variation que nous avons simulée et que nous jugeons petite. En effet, une modification de 20% signifie qu’à une période donnée, nous considérons une chute de la demande d’une quantité égale à 10. Cependant, cette Chapitre V. Expérimentation numérique et évaluation de l’approche 120 même petite variation a entraîné une grande perturbation avec la résolution statique. Nous pouvons alors constater que la méthode de résolution dynamique est plus performante que la méthode de résolution statique. 2. Pour le niveau ordonnancement agrégé, nous remarquons une augmentation des valeurs des indicateurs de performance (P N et P E ) lorsqu’on se déplace du site 1 vers le site 5, pour la résolution statique comme pour la résolution dynamique (tableau V.8). Cela peut être expliqué par le fait que le passage des produits sur les sites se fait toujours dans le même sens (du site 1 vers le site 5, figure V.1). Et par la suite, les dates de début des opérations en sites en amont sont toujours inférieures aux dates de début des opérations sur les sites en aval, avec un effet d’accumulation des facteurs perturbateurs. V.3.2. Expérimentation avec une variation de la capacité V.3.2.1. Scénario d’expérimentation La deuxième série d’expérimentations porte sur une variation de la capacité des sites de production. Pour la période t = 13, cette simulation porte progressivement et cumulativement sur le site 1, puis site 2 jusqu’au site 4. Sur chacun des sites, la variation de la capacité est d’une quantité égale à (-1). Le taux de variation est égal au nombre de sites variés sur le nombre total de sites. - Taux de variation 20% : S1 de 5 à 4 - Taux de variation 40% : S1 de 5 à 4, et S2 de 4 à 3 - Taux de variation 60% : S1 de 5 à 4, et S2 de 4 à 3, et S3 de 4 à 3 - Taux de variation 80% : S1 de 5 à 4, et S2 de 4 à 3, et S3 de 4 à 3, et S4 de 3 à 2 Pour toutes ces mesures de variations, le taux de variation est considéré comme un scénario donné et non pas une grandeur de la variation. L’objectif est d’évaluer la performance suivant un axe de variation (figure V.3).Chapitre V. Expérimentation numérique et évaluation de l’approche 121 Figure V.3. Variation de la capacité à la période t = 13 Dans ce paragraphe, nous présentons une vue détaillée des résultats obtenus avec la deuxième famille d’expérimentations (variation de la capacité). Nous présentons les résultats dans le cadre d’une résolution statique et d’une résolution dynamique. Les tableaux V.9 et V.10 détaillent respectivement les résultats pour le niveau planification et le niveau ordonnancement agrégé. 0 1 2 3 4 5 Site 1 Site 2 Site 3 Site 4 Site 5 Capacité des sites Variation de la capacité, (t = 13) profil initial de la capacité des sites modification 20% modification 40% modification 60% modification 80%Chapitre V. Expérimentation numérique et évaluation de l’approche 122 Planification de la production : Premier niveau de décision Scénario Indicateur de robustesse : ܲܵ ܧ Indicateur de robustesse : ܲܵ ܧ Indicateur de stabilité : ܲܵ ܰ Indicateur de stabilité : ܲܵ ܰ Variation de la capacité Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 20% 24.3 26.3 25.7 25.4 22.2 24.8 0 0 0 0 0 0 0.43 0.37 0.44 0.41 0.39 0.41 0 0 0 0 0 0 40% 24.3 28.1 25.8 25.4 22.3 25.1 0 0 0 0 0 0 0.43 0.46 0.44 0.41 0.39 0.43 0 0 0 0 0 0 60% 24.3 28.1 31.4 25.4 26.5 27.1 0 0 0 0 0 0 0.43 0.46 0.5 0.41 0.46 0.45 0 0 0 0 0 0 80% 24.3 28.1 28.4 16.9 22.2 24.0 0 0 0 0 0 0 0.43 0.46 0.44 0.33 0.39 0.41 0 0 0 0 0 0 Tableau V.9. Résultats numériques dans le cas d’une variation de la capacité : premier niveau de décision Ordonnancement agrégé de la production : Deuxième niveau de décision Scénario Indicateur de robustesse : ܲܵ ܧ Indicateur de robustesse : ܲܵ ܧ Indicateur de stabilité : ܲܵ ܰ Indicateur de stabilité : ܲܵ ܰ Variation de la capacité Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 20% 0 20.8 72.6 163 195.8 90.44 0 4.78 6.91 33.6 35.1 16.0 0 0,19 0,54 0,94 1 0.53 0 0,06 0,11 0,26 0,3 0.14 40% 1.02 18.4 58 143 172 78.48 2.59 0 5.37 35.9 37.2 16.2 0,02 0,15 0,5 0,89 0,9 0.49 0,02 0 0,07 0,26 0,3 0.13 60% 1.02 18.4 58 143 174 78.88 3.33 5.11 4.93 14.7 16.3 8.87 0,02 0,15 0,5 0,87 0,9 0.48 0,04 0,02 0,09 0,13 0,1 0.07 80% 0 20.4 57 140 163 76.08 3.33 5.11 4.93 14.7 16.3 8.87 0 0,15 0,5 0,89 0,9 0.48 0,04 0,02 0,09 0,13 0,1 0.07 Tableau V.10. Résultats numériques dans le cas d’une variation de la capacité : deuxième niveau de décision Chapitre V. Expérimentation numérique et évaluation de l’approche 123 0 10 20 30 P E(X) Site 3 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 3 Résolution statique Résolution dynamique 0 10 20 30 P E(X) Site 4 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 4 Résolution statique Résolution dynamique 0 10 20 30 P E(X) Site 5 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P E(X) Site 5 Résolution statique Résolution dynamique Indicateur de robustesse : poids de perturbation Indicateur de stabilité : distance de perturbation Planification de la production : Premier niveau de décision (variation de la capacité) Tableau V.11.Variation de la capacité : Evaluation de la perturbation au niveau sites (planification de la production) 0 10 20 30 P E(X) Site 1 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 1 Résolution statique Résolution dynamique 0 10 20 30 P E(X) Site 2 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 2 Résolution statique Résolution dynamiqueChapitre V. Expérimentation numérique et évaluation de l’approche 124 Indicateur de robustesse : poids de perturbation Indicateur de stabilité : distance de perturbation Ordonnancement de la production : deuxième niveau de décision (variation de la capacité) Tableau V.12. Variation de la capacité : Evaluation de la perturbation au niveau sites (ordonnancement agrégé) 0 2 4 P E(Deb) Site 1 Résolution statique Résolution dynamique 0 0,05 P N(Deb) Site 1 Résolution statique Résolution dynamique 0 20 40 P E(Deb) Site 2 Résolution statique Résolution dynamique 0 0,1 0,2 P N(Deb) Site 2 Résolution statique Résolution dynamique 0 50 100 P E(Deb) Site 3 Résolution statique Résolution dynamique 0 100 200 P E(Deb) Site 4 Résolution statique Résolution dynamique 0 0,5 1 P N(Deb) Site 4 Résolution statique Résolution dynamique 0 100 200 300 P E(Deb) Site 5 Résolution statique Résolution dynamique 0 0,5 1 1,5 P N(Deb) Site 5 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(Deb) Site 3 Résolution statique Résolution dynamiqueChapitre V. Expérimentation numérique et évaluation de l’approche 125 V.3.2.2. Analyse des résultats Nous retrouvons des éléments similaires par rapport à l’expérimentation précédente. Pour le premier niveau de décision (tableau V.11), nous notons que : 1. Pour la résolution statique, sur chaque site de production, les deux indicateurs de performance (stabilité P N et robustesse PE ) sont en quasi-constance compte tenu de l’évolution du taux de la variation. 2. Pour la résolution dynamique, les indicateurs de performance tendent vers zéro indépendamment du taux de la variation. 3. Avec la résolution statique, nous constatons que la robustesse P E varie entre 22 et 28.5 pour tous les sites de production et la stabilité P N varie entre 0.39 et 0.47. Il n’y a pas de grande différence entre les valeurs des indicateurs de performance d’un site à un autre. 4. Pour un même taux de variation, les deux indicateurs de performance évoluent indépendamment en se déplaçant d’un site à un autre et cela est vrai pour la résolution statique et pour la résolution dynamique. De même, pour le deuxième niveau de décision (tableau V.12), nous pouvons constater que : 1. Pour la résolution statique, le poids de perturbation et la distance de perturbation évoluent dans le même sens ; une évolution principalement en décroissance pour les sites 2, 3, 4 et 5. Le site 1 cependant présente une allure particulière, les deux indicateurs de performance évoluant indépendamment du taux de variation. 2. Pour la résolution dynamique, les indicateurs de performance évoluent aussi dans le même sens mais indépendamment du taux de variation. Le site 1 présente aussi une allure particulière : il évolue en croissance avec le taux de variation. 3. Pour un même taux de perturbation, les valeurs des deux indicateurs de performance évoluent d’une façon remarquable en se déplaçant d’un site à un autre et cette constatation est vraie pour la méthode de résolution statique et la méthode de résolution dynamique. Chapitre V. Expérimentation numérique et évaluation de l’approche 126 V.3.2.3. Interprétation des résultats 1. Dans le cadre de cette expérimentation, nous constatons que quel que soit le niveau de décision (planification ou ordonnancement agrégé), la méthode de résolution dynamique affiche une meilleure performance. Cependant, au niveau ordonnancement, une exception est levée pour le site 1 où la résolution statique donne de meilleures performances (stabilité et robustesse) par rapport à la résolution dynamique. L’écart entre les deux résolutions reste néanmoins faible. 2. Pour le niveau ordonnancement agrégé, nous remarquons une augmentation des valeurs des indicateurs de performance (P N et P E ) lorsqu’on se déplace du site 1 vers le site 5, pour la résolution statique comme pour la résolution dynamique (tableau V.12). Comme nous l’avons expliqué précédemment dans le cas d’une variation de la demande, cette augmentation est due au fait que le passage des produits sur les sites se fait toujours dans le même sens (du site 1 vers le site 5, figure V.1), avec un effet d’accumulation des facteurs perturbateurs. V.3.3. Expérimentation avec une variation de re-planification V.3.3.1. Scénario d’expérimentation Le troisième type de variation porte sur une re-planification de la demande telle que : pour une période donné et, la variation porte sur une re-planification d’un produit en période t+1. L’exemple du tableau ci-dessous montre une re-planification du produit A en période t+1 et par la suite, la demande passe de 90 à 0 pour la période t et de 62 à (62+90) pour la période t+1. p … … … t t+1 t+2 Demande A 86 50 90 0 62 + 90 43 Tableau V.13.Exemple de variation de re-planification Ainsi, pour la période t = 13, cette simulation porte progressivement et cumulativement sur le produit 1, puis produit 2 jusqu’au produit 4. Sur chacun des sites la variation de replanification est d’une période égale (t+1 = 14). Le taux de variation est égal au nombre de produits variés sur le nombre total de produits. Chapitre V. Expérimentation numérique et évaluation de l’approche 127 La variation de re-planification en période t=13 et en période t=14 pour tous les produits sont présentés respectivement dans la figure V.4 et la figure V.5. Pour toutes ces mesures de variations, le taux de variation est considéré comme un scénario donné et non pas une grandeur de la variation. L’objectif est d’évaluer la performance suivant un axe de variation. Figure V.4. Variation de re-planification en période t = 13 Figure V.5. Variation de re-planification en période t = 14 modification 80% modification 60% modification 40% modification 20% Profil initial de la demande 0 10 20 30 40 50 60 70 80 90 Produit 1 Produit2 Produit 3 Produit 4 Produit 5 Demande Variation de re-planification, (t = 13) modification 80% modification 60% modification 40% modification 20% 0 20 40 60 80 100 120 140 160 Produit 1 Produit2 Produit 3 Produit 4 Produit 5 Demande Variation de re-planification, (t = 14) modification 80% modification 60% modification 40% modification 20% Profil initial de la demandeChapitre V. Expérimentation numérique et évaluation de l’approche 128 Dans ce paragraphe, nous présentons une vue détaillée des résultats obtenus avec la deuxième famille d’expérimentations (variation de re-planification). Nous présentons les résultats dans le cadre d’une résolution statique et d’une résolution dynamique. Les tableaux V.14 et V.15 détaillent respectivement les résultats pour le niveau planification et le niveau ordonnancement. Chapitre V. Expérimentation numérique et évaluation de l’approche 129 Planification de la production : Premier niveau de décision Scénario Indicateur de robustesse : ܲܵ ܧ Indicateur de robustesse : ܲܵ ܧ Indicateur de stabilité : ܲܵ ܰ Indicateur de stabilité : ܲܵ ܰ Variation de lareplanification Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 20% 20.0 26.3 22.5 24.9 25.5 23.9 0 0 0 0 0 0 0.43 0.37 0.43 0.43 0.39 0.41 0 0 0 0 0 0 40% 22.7 29.0 22.5 24.9 25.6 24.9 0 0 0 0 0 0 0.43 0.37 0.43 0.43 0.39 0.41 0 0 0 0 0 0 60% 31.3 29.0 23.8 24.9 25.6 26.9 0 0 0 0 0 0 0.43 0.37 0.43 0.43 0.39 0.41 0 0 0 0 0 0 80% 31.3 23.4 23.8 16.3 24.0 23.8 0 0 0 0 0 0 0.43 0.41 0.43 0.33 0.37 0.39 0 0 0 0 0 0 Tableau V.14. Résultats numériques dans le cas d’une variation de re-planification : niveau planification Ordonnancement agrégé de la production : Deuxième niveau de décision Scénario Indicateur de robustesse : ܲܵ ܧ Indicateur de robustesse : ܲܵ ܧ Indicateur de stabilité : ܲܵ ܰ Indicateur de stabilité : ܲܵ ܰ Variation de lareplanification Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 Site 1 Site 2 Site 3 Site 4 Site 5 20% 1,41 20,5 63,3 150 179 82.84 0 11,4 4,09 30,8 32,4 15.7 0,02 0,17 0,48 0,8 0,8 0.45 0 0,06 0,04 0,17 0,2 0.094 40% 1,41 23,2 61,9 160 188,4 86.98 0 0 0,74 6,57 8,11 3.08 0,04 0,26 0,61 0,87 0,9 0.5 0 0 0,02 0,07 0,1 0.038 60% 0,3 22,1 67,7 163 192,1 89.04 0 0 0,74 6,57 8,11 3.08 0,02 0,2 0,48 0,78 0,8 0.45 0 0 0 0,04 0,1 0.028 80% 0,3 23,9 56,8 149 174 80.8 0 0 0,74 6,57 8,11 3.08 0,02 0,2 0,57 1 1 0.55 0 0 0,02 0,07 0,1 0.038 Tableau V.15. Résultats numériques dans le cas d’une variation de re-planification : niveau ordonnancement agrégé Chapitre V. Expérimentation numérique et évaluation de l’approche 130 Indicateur de robustesse : poids de perturbation Indicateur de stabilité : distance de perturbation Planification de la production : premier niveau de décision(variation de re-planification) Tableau V.16. Variation de re-planification : Evaluation de la perturbation au niveau sites (planification de la production) 0 0,2 0,4 0,6 P N(X) Site 1 Résolution statique Résolution dynamique 0 20 40 P E(X) Site 1 Résolution statique Résolution dynamique 0 20 40 P E(X) Site 2 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 2 Résolution statique Résolution dynamique 0 10 20 30 P E(X) Site 3 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 4 Résolution statique Résolution dynamique 0 10 20 30 P E(X) Site 4 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 4 Résolution statique Résolution dynamique 0 10 20 30 P E(X) Site 5 Résolution statique Résolution dynamique 0 0,2 0,4 0,6 P N(X) Site 5 Résolution statique Résolution dynamiqueChapitre V. Expérimentation numérique et évaluation de l’approche 131 Indicateur de robustesse : poids de perturbation Indicateur de stabilité : distance de perturbation Ordonnancement de la production : deuxième niveau de décision (variation de re-planification) Tableau V.17. Variation de re-planification : Evaluation de la perturbation au niveau sites (ordonnancement agrégé) 0 1 2 P E(X) Site 1 Résolution statique Résolution dynamique 0 0,02 0,04 0,06 P N(X) Site 1 Résolution statique Résolution dynamique 0 10 20 30 P E(X) Site 2 Résolution statique Résolution dynamique 0 0,1 0,2 0,3 P N(X) Site 2 Résolution statique Résolution dynamique 0 100 200 P E(X) Site 3 Résolution statique Résolution dynamique 0 100 200 P E(X) Site 4 Résolution statique Résolution dynamique 0 0,5 1 1,5 P N(X) Site 4 Résolution statique Résolution dynamique 0 100 200 300 P E(X) Site 5 Résolution statique Résolution dynamique 0 0,5 1 1,5 P N(X) Site 5 Résolution statique Résolution dynamique 0 0,5 1 P N(X) Site 3 Résolution statique Résolution dynamiqueChapitre V. Expérimentation numérique et évaluation de l’approche 132 V.3.3.2. Analyse des résultats Pour le premier niveau de décision (tableau V.16), nous constatons que : 1. Pour la résolution statique, sur chaque site de production, le poids de perturbation et la distance de perturbation n’évoluent pas dans le même sens et l’évolution est indépendante du taux de variation. 2. Pour la résolution dynamique, les indicateurs de performance tendent vers zéro indépendamment du taux de variation. 3. Avec la méthode de résolution statique, nous constatons que le poids de perturbation varie entre 16 et 30 et la distance de perturbation varie entre 0.33 et 0.43 pour tous les sites de production. L’écart entre les valeurs des indicateurs de performance d’un site à un autre reste modeste. Pour le deuxième niveau de décision (tableau V.17), nous constatons que : 1. Pour la résolution statique, et comme pour le niveau planification, les indicateurs de performance n’évoluent pas dans le même sens. 2. Pour la résolution dynamique, les indicateurs de performance évoluent dans le même sens (plutôt en décroissance). 3. Pour les deux méthodes de résolution, et pour chaque taux de perturbation, les valeurs des indicateurs de performance évoluent en croissance en passant d’un site à un autre. V.3.3.3. Interprétation des résultats 1. Pour ce type de variation (variation de re-planification), nous pouvons constater que pour le niveau planification et le niveau ordonnancement, les deux indicateurs de performance n’évoluent pas dans le même sens avec la méthode de résolution statique. En effet, ce type de variation agit dans deux sens différents, il entraîne une annulation de la demande à une période (t=13) et une augmentation de la demande à la période suivante (t=14) et l’augmentation n’évolue ni en croissance ni en décroissance en fonction du taux de variation. Par exemple, une variation de la demande entraîne toujours une chute de la demande d’une valeur égale à 10 (d’un seul produit pour un taux de variation égal à 20% et de 4 produits pour un taux de variation égal à 80%). La variation de re-planification n’est pas donc constante en fonction du taux de la variation : une variation de 20% peut être plus Chapitre V. Expérimentation numérique et évaluation de l’approche 133 importante qu’une variation de 80%. Les comportements différents des indicateurs de performance peuvent alors s’expliquer par une variation de re-planification variable. 2. Bien que la perturbation soit assez importante si on la compare aux deux autres types de variation (variation de la demande et variation de la capacité), la résolution dynamique est bien meilleure que la méthode de résolution statique et cela pour les deux niveaux de décision (planification et ordonnancement). Conclusion : En examinant les résultats pour tous les types de variation, nous établissons les conclusions suivantes : 1. Pour les niveaux planification et ordonnancement agrégé, et pour les trois types de variations considérées, la résolution dynamique offre une stabilité et une robustesse meilleure que la résolution statique. Ceci conforte donc l’utilisation de la résolution dynamique. 2. Pour le niveau planification et avec la résolution dynamique, les indicateurs de performance tendent presque toujours vers zéro et ceci pour les trois séries d’expérimentations. Ceci peut s’expliquer par la stratégie de résolution que nous avons adoptée. En effet, l’idée était de partir de la solution précédente pour la réparation du problème ayant subi des perturbations. Pour cela, nous avons choisi de réparer les contraintes en conflit en augmentant progressivement les valeurs des variables (�݌,ݐ,ݏ ݇ ) d’une valeur égale à 1. Par la suite, la solution est très proche de la solution initiale. Afin de satisfaire ces objectifs de stabilité et robustesse, la résolution tolère la régulation sur d’autres variables. Par exemple, si nous considérons le cas de la variation de la demande avec un taux de variation égal à 20%, la demande en produit 1 sur la période (t= 13), est passé de 90 à 80 et la solution obtenue par une résolution dynamique montre que la régulation a porté sur la quantité en stock ݌ܫ,ݐ,ݏ ݇ . Cependant, la résolution dynamique reste toujours meilleure que la résolution statique même pour la variable (I) comme le montre la figure suivante (figure V.6).Chapitre V. Expérimentation numérique et évaluation de l’approche 134 Figure V.6. Poids de perturbation pour la variable I (Site 1) avec une variation de la demande 3. L’influence du taux de variation sur l’évolution des indicateurs de performance est différente suivant le type de la variation. Nous pouvons noter que les indicateurs de performance évoluent en croissance dans le cas de la variation de la demande et que le taux de variation n’a pas d’influence sur les deux autres types de variation. V.4. Analyse de sensibilité de la chaîne logistique : Résolution statique vs. dynamique Jusqu’à présent le travail s’est intéressé à l’évaluation de deux indicateurs de performance au niveau des sites de production. Le premier est un indicateur de stabilité. Ila permis de compter le nombre de variables ayant changé dans la nouvelle solution par rapport à la solution initiale. Les mesures ont été réalisées au niveau de chaque site de production pour chacune des grandeurs (X pour le niveau planification et Deb pour le niveau ordonnancement). Le deuxième est un indicateur de robustesse. Il a permis de mesurer la dispersion de la nouvelle valeur par rapport à sa valeur initiale et cela pour chaque site de production. Dans ce paragraphe, nous nous intéressons à l’analyse de sensibilité de toute la chaîne logistique à travers une formulation globale de la stabilité et de la robustesse (formules présentées au chapitre IV, paragraphe IV.4.4). En recherche opérationnelle, l’analyse de sensibilité consiste à déterminer si une solution est sensible à des modifications qui peuvent être apportées aux principaux paramètres du modèle. [Kelton, 1999] propose une définition similaire dans un contexte plus général dans la mesure où, pour lui, l’analyse de sensibilité est « une méthode qui permet d’estimer comment une modification d’un des facteurs d’entrée d’un système peut affecter la performance de celui-ci, c’est-à-dire quelle est la sensibilité d’une des sorties du système à la variation d’une entrée ». P E(I) Site 1 Résolution statique Résolution dynamiqueChapitre V. Expérimentation numérique et évaluation de l’approche 135 Ainsi, notre analyse de sensibilité porte notamment sur la détection des variations pour lesquelles il est important d’investir et de travailler sur leur réduction car elles ont un impact non négligeable sur la stabilité et la robustesse de la chaîne logistique. V.4.1. Sensibilité de la chaîne logistique face aux variations : niveau planification Dans ce paragraphe, nous nous intéressons particulièrement aux résultats relatifs au niveau planification. Figure V.7. Evaluation de la robustesse au niveau chaîne logistique pour les 3 types de variation Figure V.8. Evaluation de la stabilité au niveau chaîne logistique pour les 3 types de variation 0 5 10 15 20 25 30 35 Modification 20%Modification 40%Modification 60%Modification 80% P E(X) Planification de la production Variation de la demande (résolution statique) Variation de la capacité (résolution statique) Variation de la replanification (résolution statique) Variation de la demande (résolution dynamique) Variation de la capacité (résolution dynamique) Variation de la replanification (Résolution dynamique) 0 0,1 0,2 0,3 0,4 0,5 Modification 20% Modification 40% Modification 60% Modification 80% P N(X) Planification de la production Variation de la demande (Résolution statique) Variation de la capacité (Résolution statique) Variation de la re-planification (Résolution statique) Variation de la demande (Résolution dynamique) Variation de la capacité (résolution dynamique) Variation de la re-planification (Résolution dynamique)Chapitre V. Expérimentation numérique et évaluation de l’approche 136 En présence d’une variation, indépendamment de son type, la résolution statique offre une solution de planification ayant relativement le même niveau de distance (ܲܮܥ ܰ ) (figure V.7) et de poids de perturbation (ܲܮܥ ܧ ) (figure V.8) de la chaîne logistique. Cette perturbation garde pratiquement le même niveau avec la croissance du taux de modification (de 20% à 80%).Pour les variations de type demande, capacité et replanification, la résolution dynamique offre une planification stable (ܲܮܥ ܰ ≈ 0) et robuste (ܲܮܥ ≈ ܧ 0) de la chaîne logistique. V.4.2. Sensibilité de la chaîne logistique face aux variations : niveau ordonnancement Nous nous intéressons dans ce paragraphe à l’évaluation de la performance de la chaîne logistique pour différents types de variation au niveau ordonnancement agrégé. Figure V.9. Evaluation de la robustesse au niveau ordonnancement pour les 3 types de variation 0 20 40 60 80 100 120 Modification 20%Modification 40%Modification 60%Modification 80% P E(Deb) Ordonnancement de la production Variation de la demande (Résolution statique) variation de la capacité (Résolution statique) variation de la replanification (Résolution statique) Variation de la demande (Résolution dynamique) Variation de la capacité (Résolution dynamique) Variation de la replanification (Résolution dynamique)Chapitre V. Expérimentation numérique et évaluation de l’approche 137 Figure V.10. Evaluation de la stabilité au niveau ordonnancement pour les 3 types de variation Nous notons les mêmes constations que pour le niveau planification. En présence d’une variation, indépendamment de son type (figures V.9 et V.10), la résolution statique offre une solution d’ordonnancement ayant relativement le même niveau de distance (ܲܮܥ ܰ ) et de poids de perturbation (ܲܮܥ ܧ ) de la chaîne logistique. Cette perturbation garde sensiblement le même niveau avec la croissance du taux de modification (de 20% à 80%). Pour les variations de type demande, capacité et re-planification, la résolution dynamique offre une planification stable (ܲܮܥ ܰ ≈ 0) et robuste (ܲܮܥ ܧ ≈ 0) de la chaîne logistique. V.4.3. Sensibilité comparative de la planification /ordonnancement face aux variations  Résolution statique Nous nous intéressons dans le cadre de ce paragraphe à comparer l’influence de chaque type de variation sur la stabilité des deux niveaux de décision et cela au niveau de toute la chaîne logistique avec une méthode de résolution statique. 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 Modification 20% Modification 40% Modification 60% Modification 80% P N(Deb) Ordonnancement de production Variation de la demande (Résolution statique) Variation de la capacité (Résolution statique) Variation de la replanification (Résolution statique) Variation de la demande (Résolution dynamique) Variation de la capacité (Résolution dynamique) Variation de la replanification (Résolution dynamique)Chapitre V. Expérimentation numérique et évaluation de l’approche 138 Figure V.11. Evaluation de la stabilité de la chaîne logistique par niveau de décision dans le cas d’une variation de la demande Figure V.12. Evaluation de la stabilité de la chaîne logistique par niveau de décision dans le cas d’une variation de la capacité Figure V.13. Evaluation de la stabilité de la chaîne logistique par niveau de décision dans le cas d’une variation de re-planification Pour la variation de la demande et la variation de la capacité (figure V.11, figure V.12), la résolution statique offre une solution d’ordonnancement plus stable que la solution de planification. Par contre, pour la variation de re-planification (figure V.13), la solution de 0 0,1 0,2 0,3 0,4 0,5 Modification 20%Modification 40%Modification 60%Modification 80% P N Variation de la demande Planification de la production Ordonnance ment de la production 0 0,1 0,2 0,3 0,4 0,5 Modification 20% Modification 40% Modification 60% Modification 80% P N Variation de la capacité Planification de la production Ordonnancement de la production 0 0,1 0,2 0,3 0,4 0,5 0,6 Modification 20%Modification 40%Modification 60%Modification 80% P N Variation de la re-planification Planification de la production Ordonnanceme nt de la productionChapitre V. Expérimentation numérique et évaluation de l’approche 139 planification semble être plus stable. Néanmoins, les indicateurs de stabilité sont assez proches pour les deux niveaux. Nous pouvons constater ici l’apport de l’approche intégrée que nous avons modélisée où la solution d’ordonnancement dépend fortement de la solution de planification et essentiellement de la quantité fabriquée (X) et cela à travers les contraintes de conservation d’énergie.  Résolution dynamique Nous nous intéressons maintenant à comparer l’influence de chaque type de variation sur la stabilité des deux niveaux de décision et cela au niveau de toute la chaîne logistique avec une méthode de résolution dynamique. Figure V.14. Evaluation de la stabilité de la chaîne logistique par niveau de décision dans le cas d’une variation de la demande Figure V.15. Evaluation de la stabilité de la chaîne logistique par niveau de décision dans le cas d’une variation de la capacité 0 0,02 0,04 0,06 Modification 20%Modification 40%Modification 60%Modification 80% P N Variation de la demande Planification de la production Ordonnancement de la production 0 0,05 0,1 0,15 0,2 Modification 20% Modification 40% Modification 60% Modification 80% P N Variation de la capacité Planification de la production Ordonnancement de la productionChapitre V. Expérimentation numérique et évaluation de l’approche 140 Figure V.16. Evaluation de la stabilité de la chaîne logistique par niveau de décision dans le cas d’une variation de re-planification Indépendamment du type de la variation (figure V.14, figure V.15 et figure V.16), la résolution dynamique offre une solution de planification plus stable que la solution d’ordonnancement. Cette stabilité est plutôt relative à notre technique de résolution basée sur les réparations. En effet, les réparations n’ont pas porté sur toutes les contraintes du modèle mais sur certaines contraintes du premier niveau de décision. V.4.4. Sensibilité de la fonction objectif face aux variations Dans la partie précédente, nous avons évalué et comparé la stabilité et la robustesse de la solution au niveau de toute la chaîne logistique par type de variation et par niveau de décision suivant la méthode de résolution. Nous nous intéressons ici à l’évaluation du coût pour la méthode de résolution statique et la méthode de résolution dynamique et pour chaque type de variation. Figure V.17. Evaluation du coût dans le cas d’une variation de la demande 0 0,02 0,04 0,06 0,08 0,1 Modification 20% Modification 40% Modification 60% Modification 80% P N Variation de la re-planification Planification de la production Ordonnancement de la production 0 50000 100000 150000 Modif. 20% Modif. 40% Modif. 60% Modif. 80% Coût Variation de la demande Résolution statique Résolution dynamiqueChapitre V. Expérimentation numérique et évaluation de l’approche 141 Figure V.18. Evaluation du coût dans le cas d’une variation de re-planification Figure V.19. Evaluation du coût dans le cas d’une variation de la capacité V.4. 4.1.Analyse des résultats A partir des figures (V.17, V.18 et V.19), nous établissons les constatations suivantes : 1. Avec la méthode de résolution statique, les coûts évoluent indépendamment du taux de perturbation. 2. Avec la méthode de résolution dynamique, les coûts évoluent en croissance en fonction du taux de perturbation. 3. Indépendamment du type de la variation, les coûts sont plus élevés avec une méthode de résolution dynamique qu’avec une méthode de résolution statique. Cependant, l’écart entre les coûts calculés avec les deux méthodes de résolution n’est pas grand. 0 20000 40000 60000 80000 100000 120000 140000 Modif. 20%Modif. 40%Modif. 60%Modif. 80% Coût Variation de la re-planification Résolution statique Résolution dynamique 0 20000 40000 60000 80000 100000 120000 140000 Modif. 20% Modif. 40% Modif. 60% Modif. 80% Coût Variation de la capacité Résolution statique Résolution dynamiqueChapitre V. Expérimentation numérique et évaluation de l’approche 142 V.4.4.2. Interprétation des résultats Dans toutes les expérimentations, le coût calculé avec la méthode de résolution dynamique est plus élevé. Ceci est dû à la stratégie de recherche dynamique que nous avons choisie qui opte pour une solution plus stable sur le niveau de la planification de la production. En effet, dans le but d’avoir un plan de production le moins perturbé possible, les réparations des solutions ont porté davantage sur les stockages et les heures supplémentaires qui ont un coût plus élevé, d’où le coût global plus élevé avec la méthode de résolution dynamique. V.5. Conclusion Dans ce chapitre, nous avons étudié la performance de notre approche de planification dynamique en termes de stabilité et de robustesse. Ainsi, nous avons présenté les différentes séries d’expérimentations réalisées. Ces expérimentations ont porté sur une variation de la demande, une variation de la capacité et une variation de re-planification. Pour les trois cas étudiés et bien que les perturbations réalisées dans chacun d’eux ne soient pas importantes, nous pouvons conclure que la résolution dynamique a montré de meilleures performances sur le plan de la stabilité et la robustesse de la solution. Conclusion générale 143 Conclusion générale La gestion de la chaîne logistique est souvent confrontée à la présence d’incertitudes concernant des données comme la capacité des ressources, les délais, les demandes des clients… ce qui peut engendrer des perturbations des systèmes de production, pouvant parfois rendre les décisions planifiées inapplicables. Cette problématique a été posée en la cernant au sein d’une entreprise composée de plusieurs sites de production réalisant différents types d’opérations (fabrication, transformation, …) sur les produits. Elle constitue un maillon représentatif de la structure globale d’une chaîne logistique. Tenant compte de cela, nous avons proposé une approche intégrée à deux niveaux adoptant un processus de planification dynamique à horizon glissant tel que : le premier niveau de décision permet d’optimiser les coûts globaux de la production (la minimisation maximum des coûts) et le deuxième niveau établit un ordonnancement agrégé des opérations de fabrication des produits en minimisant les en-cours. Ainsi, les décisions de production relatives au premier niveau de décision sont actualisées à chaque pas de planification et sont transmises au deuxième niveau de décision. Ces décisions sont intégrées sous la forme de contraintes dites de conservation d’énergie, qui assurent l’interaction avec le niveau inférieur. Notre approche intégrée a été modélisée sous la forme d’un problème de satisfaction de contraintes dynamique. Dans ce cadre, nous associons à chaque itération de planification k un CSP (Pk) correspondant au problème de planification à résoudre. Le problème (Pk+1) constitue une actualisation du problème (Pk) par l’ajout ou le retrait de certaines contraintes issues de perturbations internes ou externes. En particulier, le premier niveau intègre des contraintes conditionnelles. Il se présente comme un outil d’aide à la décision en offrant la possibilité de choisir entre différents types de décision (la fabrication, la sous-traitance, les heures supplémentaires) dans le but de minimiser le coût total de la production. Le recours à la soustraitance a été conditionné par le dépassement de la charge globale de production définie par la capacité interne de l’entreprise et le nombre d’heures supplémentaires disponibles. Le niveau ordonnancement a aussi été modélisé sous la forme d’un problème de satisfaction de Conclusion générale 144 contraintes. En partant des décisions transmises par le niveau planification, il permet de déterminer les dates de début des opérations de fabrication de tous les produits sur les différents sites de productions. Une expérimentation de ce modèle a été effectuée sous le logiciel ECLi PSe 6.0, une extension du langage Prolog incluant des bibliothèques de programmation par contraintes. Ces expérimentations sont menées sur la base d’un cas de planification de la production d’une chaîne logistique. Les expérimentations ont porté sur la variation de la demande, la variation de la capacité et re-planification de la demande. Toutes les expérimentations sont réalisées par deux méthodes de résolution différentes : une méthode de résolution statique et une méthode de résolution dynamique. La performance d’une solution de planification/ordonnancement est renseignée par l’ensemble des mesures de la stabilité et de la robustesse. Pour cela, nous avons développé un ensemble d’indicateurs divisé en deux catégories : la première catégorie caractérise un ensemble d’indicateurs qui caractérisent le plan établi au niveau planification ; la deuxième catégorie concerne les indicateurs qui caractérisent le plan établi au niveau ordonnancement. Pour les différents types d’expérimentations réalisées et bien que les perturbations réalisées pour chacun de ces types ne soient pas très importantes, nous pouvons conclure que la méthode de résolution dynamique a montré de meilleures performances sur le plan de la stabilité et la robustesse de la solution. Différentes perspectives se dégagent de cette étude. Elles peuvent être regroupées en deux catégories. 1. La première catégorie est d’ordre méthodologique. Elle concerne essentiellement la structure de la chaîne logistique. Dans le cadre de ce travail, nous nous sommes limités au cas d’une entreprise qui se compose de plusieurs sites de production en interaction avec un ensemble de clients et de sous-traitants et où la distance entre les différents sites est négligeable. Il serait intéressant de se situer dans le cadre d’une entreprise multi-site et de considérer les contraintes de transport entre les différents sites de production. Conclusion générale 145 2. Une deuxième catégorie est d’ordre technique. - Une première perspective concerne l’algorithme de réparation que nous avons adopté. En effet, dans le cadre de ce travail, la réparation des contraintes non satisfaites après une certaine perturbation, est basée sur un changement des valeurs des variables appartenant à cette contrainte avec un pas toujours égal à 1 quelle que soit la contrainte. Il serait intéressant de développer des scénarios de réparation différents adaptés à chaque type de contrainte. - Les différentes expérimentations réalisées montrent la performance de la méthode de résolution par CSP dynamique par rapport à la méthode de résolution par CSP statique. Cependant, les perturbations réalisées sont peu diversifiées. Des perturbations portant sur d’autres aspects aideront à mieux caractériser les performances de l’approche dynamique. Il sera intéressant d’étudier l’influence d’autres paramètres liés à la planification comme le pas de planification, la longueur de l’horizon gelé où à la technique de résolution (examiner d’autres méthodes de recherche de solutions). - Un deuxième axe serait d’étudier des méthodes de résolution dynamique alternatives comme la programmation linéaire en nombres entiers ou les méta-heuristiques et d’analyser leur performance par rapport à la méthode de résolution par CSP dynamique. Références bibliographiques 146 Références bibliographiques 147 Références bibliographiques [Amrani-Zouggar, 2009] Amrani-Zouggar A., Impact des contrats d’approvisionnement sur la performance de la chaîne logistique : Modélisation et simulation. Thèse de doctorat, Université Bordeaux 1, 2009. [Anthony, 1965] Anthony R. N., Planning and Control Systems: A framework for analysis. Harvard University, Graduate School of Business Administration, Cambridge, Massachussets, 1965. [Ashayeri et Selen, 2003] Ashayeri J. et SelenW., Production planning model and a case study for the pharmaceutical industry in the Netherlands. International Journal of logistics: Research and applications, 6: 37-49, 2003. [Axsater et Jonsson, 1984] Axsater S. et Jonsson H., Aggregation and disaggregation in hierarchical production planning. European Journal of Operational Research, 17: 338-350, 1984. [Bellicha, 1993] Bellicha A., Maintenance of solution in a dynamic constraint satisfaction problem. In proceedings of applications of artificial intelligence in Engineering VIII, pages 261-274, 1993. [Berry et al., 1994] Berry D., Towill D.R. et Wadsley N., Supply Chain Management in the Electronics Products Industry. International Journal of Physical Distribution & Logistics Management, 24(10): 20-32, 1994. [Bertallanffy, 1968] Bertallanffy L., General System Theory. George Braziller, 1968. [Bertsimas et Sim, 2004] Bertsimas D. et Sim M., The Price of Robustness. Operations Research, 52: 35-53, 2004. [Bessière, 1991] Bessière C., Arc consistency in dynamic constraint satisfaction problems. In Proceedings of AAAI’91, Anaheim, CA, USA, pages 221-226, 1991. Références bibliographiques 148 [Bessière, 1992] Bessière C., Arc-consistency for non-binary dynamic CSPs. In Proceedings of ECAI’92, Vienna, Austria, pages 23-27, 1992. [Bessière et Régin, 2001] Bessière C. et Régin J., Refining the Basic Constraint Propagation Algorihm. In Proceedings of the 17th International Joint Conference on Artificial Intelligence (IJCAI’01), Seattle, WA, USA, pages 309-315, 2001. [Bessièreet al., 2005] Bessière C., Régin J., Yap R. et Zhang Y., An optimal coarse-grained arc consistency algorithm. Artificial Intelligence, 2(165): 165-185, 2005. [Bitner et Reingold, 1975] Bitner J. et Reingold E., Backtracking programming techniques. Communications of the ACM, 18(11): 651-656, 1975. [BitranetHax, 1977] Bitran G. et Hax A., On the design of hierarchical production planning systems. Decision Sciences, 8(1): 28-55, 1977. [Billaut et al., 2005] Billaut J.C., Moukrim A. et Sanlaville E. (sous la direction de), Flexibilité et robustesse en ordonnancement. Paris, Lavoisier. [Blondel, 1997] Blondel F., Gestion de la production. Dunod, 1997. [Botta-Genoulaz, 2003] Botta-Genoulaz V., Les systèmes d’information supports à la chaîne Logistique. Ecole d’été d’automatique - Gestion de la Chaîne Logistique, Session 24, Grenoble, France, 2003. [Bourrières et al., 2005] Bourrières J.P., Grabot B. et Mercé C., Pilotage des systèmes multisites de production : Outils industriels et méthodes avancées. Techniques de l'Ingénieur, S7662, 15 pages, 2005. [Camalot, 2000] Camalot J.P., Aide à la décision et à la coopération en gestion du temps et des ressources. Thèse de Doctorat, Institut National des Sciences Appliquées de Toulouse, Toulouse, France, 2000. [Chetouane, 1999] Chetouane F., Sur la robustesse dans les systèmes de production: application à la conduite d’un atelier à traitement de surfaces. Thèse de troisième cycle, INPG, Grenoble, juin 1999. Références bibliographiques 149 [Courtois et al., 1995] Courtois A., Martin-Bonnefous C. et Pillet M., Gestion de Production. Les éditions d’organisations, 3ème édition, Paris, 1995. [Croom et al., 2000] Croom S., Romano O. et Giannakis M., Supply chain management : an analytical framework for critical literature review. European Journal of Purchasing & Supply Management, 6: 67-83, 2000. [Dauzère-Pérès, 1992] Dauzère-Pérès S., Planification et ordonnancement de la production: une approche intégrée cohérente. Thèse de doctorat, Université Paul Sabatier de Toulouse, France, 1992. [Dauzère-Pérès et Lasserre, 1994] Dauzère-Pérès S. et Lasserre J.-B., Integration of lot sizing and scheduling decisions in a job-shop. European Journal of Operational Research, 75(2): 413-426, 1994. [Dauzère-Pérès et Lasserre, 2002] Dauzère-Pérès S. et Lasserre J.-B., On the importance of sequencing decisions in production planning and scheduling. International Transactions in Operational Research, 9(6): 779-793, 2002. [Debruyne, 1994] Debruyne R., DnAC-6.Technical Report 94054, LIRMM, 1994. [Debruyne, 1995] Debruyne R., Les algorithmes d’arc-consistance dans les CSP dynamiques. Revue d’Intelligence Artificielle, vol. 1, 9(3): 239-268, 1995. [Debruyne, 1996] Debruyne R., Arc-consistency in dynamic CSPs is no more prohibitive. In Proceedings of the 8th IEEE International Conference on Tools with Artificial Intelligence (ICTAI’96), pages 299–306, 1996. [Debruyneet al., 2003] Debruyne R., Ferrand G., Jussien N., Lesaint W., Louis S. et Tessier A., Correctness of constraint retraction algorithms. In Proceedings of the 16th International Florida Artificial Intelligence Research Society Conference (FLAIRS’03), St. Augustine, FL, USA, 2003. [Dechter et Dechter, 1988] Dechter R. et Dechter A., Belief maintenance in dynamic constraints networks. In Proceedings of the Seventh National Conference on Artificial Intelligence (AAAI’88), pages 37-42, 1988. Références bibliographiques 150 [Dechter, 1990] Dechter R., Enhancement schemes for constraint processing : Backjumping, learning and cut set decomposition. Artificial Intelligence, 41:273–312, 1990. [Despontin-Monsarrat, 2004] Despontin-Monsarrat E., Aide à la décision pour une coopération interentreprises dans le cadre de la production à la commande. Thèse de doctorat, Université Paul Sabatier, Toulouse, 2004. [Dolgui et Proth, 2006] Dolgui A. et Proth J.M., Les systèmes de production modernes. Volume 1, Lavoisier, Paris, 2006. [Dominguez et Lashkari, 2004] Dominguez H. et Lashkari R.S., Model for integrating the supply chain of an appliance company: a value of information approach, International Journal of Production Research, 42(11): 2113-2140, 2004. [Durieux et Pierreval, 2003] Durieux S. et Pierreval H., De la notion de robustesse dans les études de simulation. In Actes de la 4èmeConférence Francophone de Modélisation et Simulation (MOSIM’03), Toulouse, 2003. [Elkhiary, 2003] Elkhiary A., Outils d’aide à la décision pour des problèmes d’ordonnancement dynamiques. Thèse de doctorat, Ecole Nationale Supérieure des Techniques Industrielles et des Mines de Nantes, France, 2003. [Esquirol et Lopez, 1999] Esquirol P., et Lopez P., L’ordonnancement. Economica, Paris, 1999. [Faltings et Macho-Gonzalez, 2005] Faltings B. et Macho-Gonzalez S., Open Constraint programming. Artificial Intelligence, 161(1-2): 181-208, 2005. [Fargier et al., 1996] Fargier H., Lang J. et Schiex T., Mixed constraint satisfaction: A framework for decision problems under incomplete knowledge. In Proceedings of the 13th National Conf. on Artificial Intelligence (AAAI’96), pages 175-180, 1996. [Fischer, 2000] Fischer X., Stratégie de conduite du calcul pour l'aide à la décision en conception mécanique intégrée application aux appareils à pression. Thèse de doctorat, Ecole Nationale Supérieure d'Arts et Métiers, Bordeaux, 2000. Références bibliographiques 151 [Fontan et Imbert, 1985] Fontan G. et Imbert S., Interaction between the two levels of decision making in a job shop. Congrès EURO IV, Bologne, 1985. [Fontan et al., 1997] Fontan G., Mercé C. et Lasserre J., Concepts et outils pour les systèmes de production. Chapitre 3 de l’ouvrage collectif coordonné par J.-C. Hennet, Cépaduès Editions, 1997. [Fontan et al., 2001] Fontan G., Mercé C. et Erschler J., La planification des flux de production. In Performance Industrielle et Gestion des flux (P. Burlat, J.P. Campagne), Hermers Science Publications Traité IC2, 2001. [Fontan et al., 2005] Fontan G., Mercé C., Lasserre J.-B. et Hennet J.-C., Hierarchical scheduling for decision support, Journal of Intelligent Manufacturing, 16(2):235-242, 2005. [Fowler et Brown, 2000a] Fowler D. et Brown K., Branching constraint satisfaction problems for solutions robust under likely changes. In Principles and Practice of Constraint Programming, pages 500-504, 2000. [Fowler et Brown, 2000b] Fowler D. et Brown K., Branching constraint satisfaction problems. Technical report, Dept. of Computing Science, Univ of Aberdeen, 2000. [François, 2007] François J., Planification des chaînes logistiques : Modélisation du système décisionnel et performance. Thèse de doctorat, Université Bordeaux 1, 2007. [Galasso, 2007] Galasso F., Aide à la planification dans les chaînes logistiques en présence de demande flexible. Thèse de Doctorat, Institut National Polytechnique de Toulouse, 2007. [Ganeshan et al., 1998] Ganeshan R., Jack E., Magazine M.J. et Stephens P., A Taxonomic Review of Supply Chain Management Research. In Quantitative Models for Supply Chain Management, Kluwer Academic Publishers, Boston, pages 841-880, 1998. [Génin, 2003] Génin P., Planification tactique robuste avec usage d’un APS : Proposition d’un mode de gestion par plan de référence. Thèse de Doctorat, École des Mines de Paris, 2003. Références bibliographiques 152 [Geunes et Chang, 2001] Geunes J. et Chang B., Operations research models for supply chain management and design. In Encyclopaedia of Optimization, C.A. Floudas and P.M. Pardalos (Eds), Kluwer Academic Publishers, 4: 133-145, 2001. [Gharbi et al., 2009] Gharbi H., Merce C., Fontan G. et Moalla M., Supply Chain Hierarchical Planning Under Demand Uncertainty. IEEE, 2009. [Gharbi, 2012] Gharbi H., Planification réactive et robuste au sein d’une chaîne logistique. Thèse de Doctorat, Institut National des Sciences Appliquées de Toulouse, Toulouse, France, 2012. [Giard, 1988] Giard V., Gestion de la production. Economica, collection Gestion, 1988. [Giard, 2003] Giard V., Gestion de la production et des flux, Economica, 2003. [Giglio et Minciardi, 2002] Giglio D. et Minciardi R., Integration of production planning and scheduling in manufacturing systems. In IEEE International Conference on Systems, Man and Cybernetics, vol. 5, 2002. [Gomes et al., 1998] Gomes C., Selman B. et Kautz H., Boosting Combinatorial Search Through Randomization. In Proceedings of the 15th National Conference on Artificial Intelligence (AAAI’98), Madison, WI, USA, pages 431-437, 1998. [Gotha, 1993] Gotha, Les problèmes d’ordonnancement. RAIRO- Recherche opérationnelle/Operations Research, 27(1) : 77-150, 1993. [Grangeon, 2001] Grangeon N., Métaheuristiques et modèles d'évaluation pour le problème du flow shop hybride hiérarchisé : contexte déterministe et contexte stochastique. Thèse de l’université Blaise Pascal de Clermont-Ferrand, 2001. [Gunasekaran et al., 2006] Gunasekaran A., Ngai E.W.T et McGaughey R.E, Information technology and systems justification: A review for research and applications. European Journal of Operational Research, 173(3): 957-983, 2006. [Hammer et Champy, 1993] Hammer M. et Champy J., Le reengineering. Dunod, Paris, 1993. Références bibliographiques 153 [Haralick et Elliot, 1980] Haralick R. et Elliott G., Increasing Tree Search Efficiency for Constraint Satisfaction Problems. Artificial Intelligence, 14(3):263-313, 1980. [Harvey et Ginsberg, 1995] Harvey W. et Ginsberg M., Limited Discrepancy Search. In Proceedings of the 14th International Joint Conference on Artificial Intelligence (IJCAI’95), Montréal, Canada, pages 607-613, 1995. [Hentenryck et Provost, 1991] Hentenryck P.V. et Provost T.L., Incremental search in constraint logic programming. NewGener. Comput., 9: 257-275, 1991. [Hernandez-Silva, 2008] Hernandez-Silva J., Approche multi-niveau et ordonnancement d’activités dans un contexte de production à la commande. Thèse de doctorat, Institut National des Sciences Appliquées de Toulouse, France, 2008. [Herrera et Thomas, 2009] Herrera C. et Thomas A., Un modèle pour limiter la nervosité et l’instabilité du programme directeur de production. In 8 ème congrès international de génie industriel, Bagnères de Bigorre, France, 2009. [Hétreux, 1996] Hétreux G., Structures de décision multi-niveaux pour la planification de la production : Robustesse et cohérence des décisions. Thèse de doctorat, Institut National des Sciences Appliquées de Toulouse, France, 1996. [Heisig 1998] Heisig G., Planning stability under (s,S) inventory control rules. OR Spektrum 20(4): 215-228, 1998. [Ho, 1989] Ho C., Evaluating the impact of operating environments on MRP system nervousness. International Journal of Production Research, 27: 1115-1135, 1989. [Huang et al., 2003] Huang G.Q., Lau J.S.K. et Mak K.L., The Impacts of Sharing Production Information on Supply Chain Dynamics: A Review of the Literature. International Journal of Production Research, 41(7): 1483-1517, 2003. [Huber, 1981] Huber P.J., Robust Statistics. John Wiley & Sons, 1981. Références bibliographiques 154 [Huguet, 1994] Huguet M.J., Approche par contrainte pour l'aide à la décision et à la coopération en gestion de production. Thèse de doctorat, Institut National des Sciences Appliquées de Toulouse, France, 1994. [Jagdev et al., 2003] Jagdev H.S., Brennan A. et Browne J., Strategic decision making in modern manufacturing. Kluwer Academic Publishers, London, 2003. [Jensen, 1993] Jensen T., Measuring and improving planning stability of reorder point lotsizing policies. International Journal of Production Economics, 30-31: 167-178, 1993. [Johnson et Montgomery, 1974] Johnson L.A. et Montgomery D.C., Operations research in Production Planning, Scheduling, and Inventory Control. Wiley, 1974. [Jones et Riley, 1985] Jones T. et Riley D., Using inventory for competitive advantage through Supply Chain Management. International Journal of Physical Distribution and Material Management, 15(5): 16-26, 1985. [Jussien et Lhomme, 2002] Jussien N. et Lhomme O., Local search with constraint propagation and conflict-based heuristics. Artif. Intell., 139: 21-45, 2002. [Kelton, 1999] Kelton W.D., Designing Simulation Experiments. In Proceedings of the 1999 Winter Simulation Conference, pages 33-38, 1999. [Kleijnen et Gaury, 2003] Kleijnen J.P.C. et Gaury E., Short-term robustness of production management systems: A case study. European journal of operational research, 148: 452-465, 2003. [Lambert et Cooper, 2000] Lambert D.M. et Cooper M.C., Issues in Supply Chain Management. Industrial Marketing Management, 29: 65-83, 2000. [Lalami, 2012] Lalami M.E., Contribution à la résolution de problèmes d’optimisation combinatoire : méthodes séquentielles et parallèles. Thèse de doctorat, Université Paul Sabatier de Toulouse, France, 2012. Références bibliographiques 155 [La Londe et Masters, 1994] La Londe B.J. et Masters J.M., Emerging Logistics Strategies : Blueprints for the next century. International Journal of Physical Distribution and Logistics Management, 24(7): 35-47, 1994. [Lee et Billington, 1993] Lee H.L. et Billington C., Material management in decentralized supply chain. Operations Research, 41(5), 1993. [Lemoigne, 1974] Lemoigne J.L., Les systèmes de décision dans les organisations. Presses Universitaires de France, 1974. [Lopez, 1991] Lopez P., Approche énergétique pour l’ordonnancement de tâches sous contraintes de temps et de ressources. Thèse de doctorat, Université Paul Sabatier de Toulouse, France, 1991. [Lopez, 2001] Lopez P., Le concept de contraintes : propagation, satisfaction, programmation. « Contraintes » - GRP, Toulouse, France, 2001. [Lorino, 1995] Lorino P., Comptes et Récits de la Performance, Essai sur le pilotage de l'Entreprise. Editions d'Organisation, page 288, Paris, 1995. [Mackworth, 1977] Mackworth A.K., Consistency in networks of relations. Artif. Intell., 8(1) : 99-118, 1977. [Mahmoudi, 2006] Mahmoudi J., Simulation et gestion des risques en planification distribuée de chaînes logistiques : Application au secteur de l’électronique et des télécommunications. Thèse de doctorat, Ecole Nationale Supérieure de l’Aéronautique et l’Espace, 2006. [Mehra et al., 1996] Mehra A., Minis I. et Proth J.M., Hierarchical production planning for complex manufacturing systems. Advances in Engineering Software, 26: 209-218, 1996. [Mentzeret al., 2001] Mentzer J.T., Dewitt W., Keebler J.S., Min S., Nix N.W., Smith C.D. et Zacharia Z.G., Defining supply chain Management. Journal of Business Logistics, 22(2) : 1- 25, 2001. [Mercé, 1987] Mercé C., Cohérence des décisions en planification hiérarchisée. Thèse d’état de l’Université Paul Sabatier de Toulouse, 1987. Références bibliographiques 156 [Mercé et Fontan, 2001] Mercé C. et Fontan G., Hiérarchisation de la fonction planification. In Organisation et Gestion de Production (J. Erschler, B. Grabot), Hermès Sciences Publication, Traité IC2, 2001. [Miler, 2001] Miller T., Hierarchical operations and supply chain planning. Springer, 2001. [Min et Zhou, 2002] Min H. et Zhou G., Supply chain modeling: past, present and future. Computers & Industrial Engineering, 43: 231-249, 2002. [Minton et al., 1992] Minton S., Johnston M.D., Philips A.B. et Laird P., Minimizing conflicts: a heuristic repair method for constraint satisfaction and scheduling problems. Artificial Intelligence, 58:161–205, 1992. [Mittal et Falkenhainer, 1990] Mittal S. et Falkenhainer B., Dynamic constraint satisfaction problems. In AAAI’90, pages 25-32, Boston, US, 1990. [Mohr et Henderson, 1986] Mohr R. et Henderson T.C., Arc and path consistency revisited. Artificial Intelligence, 28: 225-233, 1986. [Mokhtari et al., 2013] Mokhtari H., Nakhai I. et Abadi K., Scheduling with an outsourcing option on both manufacturer and subcontractors. Computers and Operations Research, 40 : 1234-1242, 2013. [Moncel, 2010] Moncel J., Minimisation des encours sur une machine pour des tâches sujettes à des phénomènes d’usure ou d’apprentissage. In 11e congrès de la société française de recherche opérationnelle et d’aide à la décision (Roadef’10), page 171, 2010. [Monk, 2005] Monk E., Concepts in Enterprise Resource Planning. Course Technology 2nd ed., 2005. [Montanari, 1974] Montanari U., Networks of constraints: fundamental properties and application to picture processing. Information Science, 7, 1974. [Nadel, 1989] Nadel B., Constraint Satisfaction Algorithms. Computational Intelligence, 5: 188-299, 1989. Références bibliographiques 157 [Nayaket al., 2001] Nayak N., Bhaskaran K. et Das R., Virtual Enterprises - Building Blocks for Dynamic e-Business. In Proceedings of Information Technology for Virtual Enterprises workshop IEEE, pages 80–87, 2001. [Orlicky, 1975] Orlicky J.A., Material Requirements Planning. McGraw-Hill Book Co, New York, 1975. [Oustaloup, 1994] Oustaloup A., La robustesse : analyse et synthèse de commande robuste. Traité des nouvelles technologies, Hermès, série Automatique, Paris, 1994. [Ozdamar et Barbarosoglu, 2000] Ozdamar L. et Barbarosoglu G., An integrated lagrangean relaxation-simulated annealing approach to the multi-level multi-item capacitated lot sizing problem. International Journal of Production Economics, 68(3): 319-331, 2000. [Richaud, 2009] Richaud G., Outillage logiciel pour les problèmes dynamiques. Thèse de doctorat, Ecole Nationale Supérieure des Techniques Industrielles et des Mines de Nantes, France, 2009. [Rota, 1998] Rota K., Coordination temporelle de centres gérant de façon autonome des ressources : application aux chaînes logistiques intégrées en aéronautique. Thèse de doctorat, Sup’aéro, France, 1998. [Rota-Frantz et al., 2001] Rota-Frantz K., Bel G. et Thierry C., Gestion des flux dans les chaînes logistiques. In Performance Industrielle et gestion des flux, pages 153-187, Hermes Science, 2001. [Roy, 1998] Roy B., A missing link in operational research decision aiding: robustness analysis. Foundations of Computing and Decision Sciences, 23(3): 141-160, 1998. [Roy, 2005] Roy B., A propos de robustesse en recherche opérationnelle et aide à la décision. In Flexibilité et robustesse en ordonnancement, (J.-C Billaut, A. Moukrim, E. Sanlaville), Hermes Science Publications, Traité IC2, 2005. [Sabin et Freuder, 1994] Sabin D. et Freuder E., Contradicting conventional wisdom in constraint satisfaction. In Proceedings of the 11th European Conference on Artificial Intelligence (ECAI’94), Amsterdam, The Netherlands, pages 125-129, 1994. Références bibliographiques 158 [Sakka, 2012] Sakka O., Alignement sémantique entre référentiels d’entreprise - Application aux systèmes d’exécution de la fabrication (MES). Thèse de doctorat, Institut national des sciences appliquées de Lyon, 2012. [Schiex et al., 1995] Schiex T., Fargier H. et Verfaillie G., Valued constraint satisfaction problems: Hard and easy problems. In Proceedings of the 14th International Joint Conference on Artificial Intelligence (IJCAI’95), Montréal, Canada, pages 631-637, 1995. [Schwalb et Dechter, 1991] Schwalb E. et Dechter R., Processing disjunctions in temporal constraint networks. Artificial Intelligence, 49: 61–95, 1991. [Shapiro, 1998] Shapiro J., Bottom-up versus top-down approaches to supply chain modeling. In Quantitative Models for Supply Chain Management, Kluwer Academic Publishers, pages 739-759, 1998. [Simchi-Levi et al., 2003] Simchi-Levi D., Kamnisky P. et Simchi-Levi E., Designing and managing the supply chain: Concepts, strategies and case studies. McGraw-Hill/Irwin, New York, second edition, 2003. [Sikora et al., 1996] Sikora R., Chhajed D. et Shaw M., Integrating the lot-sizing and sequencing decisions for scheduling a capacitated flow line. Computers and Industrial Engineering, 30(4): 659-679, 1996. [Sridharan, 1990] Sridharan S.V. et Laforge R.L., An analysis of alternative policies to achieve schedule stability. Journal of Manufacturing and Operations Management, 3:53-73, 1990. [Stadtler et Kilger, 2005] Stadtler H. et Kilger C. (Ed.), Supply Chain Management and Advanced Planning. 3e ed. (Springer: Berlin), 2005. [Taguchi, 1987] Taguchi G., Orthogonal arrays and linear graph, American Supplier Institute press, 1987. [Tan, 2001] Tan K.C., A framework of supply chain management literature. European Journal of Purchasing and Supply Management, 7: 39-48, 2001. Références bibliographiques 159 [Tayur et al., 1999] Tayur S., Ganeshan R. et Magazine M., Quantitative models for supply chain management. Kluwer Academic Publishers, 1999. [Thierry, 2003] Thierry C., Gestion de chaînes logistiques, Modèles et mise en œuvre pour l’aide à la décision à moyen terme. Mémoire HDR, Université Toulouse 2, Le Mirail, 2003. [Thomas et Griffin, 1996] Thomas D.J. et Griffin P.M., Coordinated supply chain management. European Journal of Operational Research, 94: 1-15, 1996. [Thomas, 2003] Thomas A., Impact du concept de chaîne logistique sur les systèmes de gestion de production - Le nouveau rôle de la planification tactique et les nouveaux outils. Ecole d’été d’automatique – Gestion de la Chaîne Logistique, Session 24, Grenoble, France, 2003. [Timpe, 2004] Timpe C., Solving planning and scheduling problems with combined integer and constraint programming. OR Spectrum, 24(4): 431 -448, 2004. [Trojet et al., 2010] Trojet M., H’Mida F. et Lopez P., Project scheduling under resource constraints: Application of the cumulative global constraint in a decision support framework. Computers & Industrial Engineering, 61(2): 357-363, 2010. [Trombettoni, 1993] Trombettoni G., A constraint maintenance algorithm based on value propagation. In Poster in the 6th Portuguese Conference on Artificial Intelligence (EPIA’93), éd. Par Filgueras (Miguel) et Damas (Luis), page 360, Porto, Portugal, 1993. [Tsang, 1993] Tsang E., Foundations of constraint satisfaction. Academic Press INC, 1993. [Tsubone et al., 2002] Tsubone H., Ishikawa Y. et Yamamoto H., Production planning system for a combination of make-to-stock and make-to-order products. International Journal of Production Research, 40: 4835-4851, 2002. [Tung et al., 1999] Tung L., Lin L. et Nagi R., Multiple-objective scheduling for the hierarchical control of flexible manufacturing systems. The International Journal of Flexible Manufacturing Systems, 11: 379 - 409, 1999. Références bibliographiques 160 [Tsukiyama et al., 1998] Tsukiyama M., Mori K. et Fukuda T., Hierarchical distributed algorithm for large scale manufacturing systems. IFAC IFORS IMACS IFIP Symposium on large scale systems theory and applications, Patras, Greece, 1998. [Van Wassenhove et Potts, 1991] Van Wassenhove L. et Potts C.N., Integrating scheduling with batching and lot-sizing: A review of algorithms and complexity. Working paper n°91/10/TM, Insead, Fontainebleau, France, 1991. [Vareilles, 2005] Vareilles E., Conception et approches par propagation de contraintes : contribution à la mise en œuvre d’un outil d’aide interactif. Thèse de doctorat, Ecole des Mines d’Albi-Carmaux, France, 2005. [Verfaillie et Schiex, 1994a] Verfaillie G. et Schiex T., Solution reuse in dynamic constraint satisfaction problems. In Proceedings of the 12th National Conference on Artificial Intelligence (AAAI’94), pages 307-312, 1994. [Verfaillie et Schiex, 1994b] Verfaillie G. et Schiex T., Dynamic backtracking for dynamic constraint satisfaction problems. In Proceedings of the (ECAI’94) Workshop on Constraint Satisfaction Issues Raised by Practical Applications, pages 1-8, Amsterdam, 1994. [Verfaillie et Schiex, 1995] Verfaillie G. et Schiex T., Maintien de solutions dans les problèmes dynamiques de satisfaction de contraintes : bilan de quelques approches. In Revue d’Intelligence Artificielle, 9(3): 269-310, 1995. [Verfaillie et Jussien, 2005] Verfaillie G. et Jussien N., Constraint solving in uncertain and dynamic environments : A survey. Constraints, 10(3): 253-281, 2005. [Vincke, 2003] Vincke P., About Robustness Analysis. In Newsletters of the European Working Group “Multicriteria Aid for Decisions”, number 8 in 3, pages 7-9, 2003. [Vobet Woodruff, 2006] Vob S. et Woodruff D.L., Introduction to Computational Optimization Models for Production Planning in a Supply Chain. 2 nd edition Springer, 2006. [Vollmann et al., 1997] Vollmann T.E., Berry W.L. et Whybark D.C., Manufacturing planning and control systems. 4 th ed., McGraw-Hill Book Company, New York, NY, 1997. Références bibliographiques 161 [Wallace et Grimes, 2010] Wallace R.J. et Grimes D., Problem-structure versus solutionbased methods for solving dynamic constraint satisfaction problems. In Proceedings of the 22nd international conference on tools with artificial intelligence (ICTAI’10), IEEE, 2010. [Walsh, 2002] Walsh T., Stochastic constraint programming. In Proceedings of the 15th ECAI, European Conference on Artificial Intelligence, IOS, pages 111-115, Press, 2002. [Wolf et Chen, 1995] Wolf J. et Chen M., A hierarchical approach to parallel multiquery scheduling. IEEE Transactions on Parallel and Distributed systems, 6(6): 578-590, 1995. [Wolosewicz, 2008] Wolosewicz C., Approche intégrée en planification et ordonnancement de la production. Thèse de doctorat, Ecole Nationale Supérieure des Mines de Saint-Etienne, Gardanne, France, 2008. [Yan et al., 2004] Yan H., Zhang X. et Jiang M., Hierarchical production planning with demand constraints. Computers and industrial engineering, 46(3): 533-551, 2004. [Yano, 1987] Yano C.A. et Carlson R.C., Interaction between frequency of rescheduling and the role of safety stock in material requirements planning systems. International Journal of Production Research, 25: 221-232, 1987. [Zaidi et al., 2010] Zaidi M., Jarboui B., Loukil T. et Kacem I., Hybrid meta-heuristics for uniform parallel machine to minimize total weighted completion time. In 8 th International Conference of Modeling and Simulation, 2010. [Zapfel, 1998] Zapfel G., Customer-order-driven production: An economical concept for responding to demand uncertainty. International journal of production economics, 56/57, pages 699-709, 1998. [Zhang et Yap, 2001] Zhang Y. et Yap R., Making AC-3 an Optimal Algorithm. In Proceedings of the 17th International Joint Conference on Artificial Intelligence (IJCAI’01), Seattle, WA, USA, pages 316-321, 2001. 162 Titre : « Planification d'une chaîne logistique : Approche par satisfaction de contraintes dynamiques » Résumé : Le sujet de thèse porte sur la planification tactique et opérationnelle d’une chaîne logistique dans un contexte dynamique. Nous proposons un modèle de planification basé sur une structure décisionnelle à deux niveaux. Adoptant un processus dynamique permettant d’actualiser les données à chaque étape de planification, le premier niveau planifie la production en recherchant le meilleur compromis entre les leviers décisionnels disponibles liés aux aspects capacité et coût de production. Le deuxième niveau établit un ordonnancement agrégé des opérations de fabrication en minimisant les en-cours. Le recours à une structure décisionnelle intégrée nous a conduit à établir une interaction entre les niveaux supérieur et inférieur de décision, mise en œuvre par des contraintes dites de conservation d’énergie. Notre approche est modélisée sous la forme d’un problème de satisfaction de contraintes (CSP, Constraint Satisfaction Problem) et évaluée par simulation dans un contexte de données incertaines. Nous avons mené différentes expérimentations portant sur la variation de la demande, la variation de la capacité et la re-planification de la demande. Toutes les expérimentations sont réalisées par deux méthodes de résolution différentes : une méthode basée sur un CSP statique et une méthode basée sur un CSP dynamique. La performance d’une solution de planification/ordonnancement est renseignée par l’ensemble des mesures de la stabilité et de la robustesse. Les expérimentations réalisées offrent une démonstration de la performance de la méthode de résolution basée sur un CSP dynamique par rapport à la méthode statique. Mots-clés : Chaîne logistique, Planification / Ordonnancement, Approche intégrée, Problèmes de satisfaction de contraintes (CSP), CSP dynamique, Stabilité, Robustesse. Title: “Supply chain planning: A dynamic constraint satisfaction approach” Abstract: This work focuses on the supply chain operational and tactical planning problem in an uncertain environment. We propose a tactical planning model, based on a two-level decisional structure. Adopting a dynamic process, which enables data updating at each planning step, the first level performs a plan by searching for the best compromise between available decision-making levers for production costs and capacity. The second level establishes an aggregate scheduling of production tasks by minimizing the total weighted completion time. The use of an integrated decision structure involves interaction between the upper and lower decision levels constraints, implemented by constraints known as energy conservation constraints. Our approach is formulated according to a constraint satisfaction problem (CSP) and evaluated by simulation under uncertain data. For this, we have developed various experiments related to the variation of customer demand, resource capacity, and the re-planning of demand. All the experiments are carried out by two different methods: a method based on a static CSP and a method based on a dynamic CSP. The performance of a scheduling/planning solution is reported through a set of robustness and stability measurements. Results of experiments confirm the performance of the method based on a dynamic CSP. Keywords: Supply chain, Planning / Scheduling, Integrated approach, Dynamic Constraint Satisfaction, Stability, Robustness. Catalogage de petits d´ebris spatiaux en orbite basse par observations radars isol´ees Thibaut Castaings To cite this version: Thibaut Castaings. Catalogage de petits d´ebris spatiaux en orbite basse par observations radars isol´ees. Signal and Image processing. Institut National Polytechnique de Grenoble - INPG, 2014. French. HAL Id: tel-00955486 https://tel.archives-ouvertes.fr/tel-00955486v2 Submitted on 27 May 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.THÈSE pour obtenir le grade de DOCTEUR DE L’UNIVERSITÉ DE GRENOBLE Spécialité : Signal, Image, Parole, Télécoms Arrêté ministériel : 7 août 2006 présentée par Thibaut Castaings préparée au sein de l’Office National d’Études et de Recherches Aérospatiales (ONERA) et de l’École Doctorale Electronique Electrotechnique Automatique Traitement du Signal (EEATS) Catalogage de petits débris spatiaux en orbite basse par observations radars isolées Thèse soutenue publiquement le 21 Janvier 2014, devant le jury composé de : M. Olivier Michel, Président Institut National Polytechnique de Grenoble (Grenoble-INP) M. Thomas Schildknecht, Rapporteur Astronomical Institute of the University of Bern (AIUB) M. Frédéric Dambreville, Rapporteur Direction Générale de l’Armement (DGA) M. Pascal Faucher, Examinateur Centre National d’Études Spatiales (CNES) Mme Michèle Rombaut, Directrice de thèse Grenoble Images Parole Signal Automatique (GIPSA-Lab) M. Benjamin Pannetier, Co-directeur de thèse Office National d’Études et de Recherches Aérospatiales (ONERA) M. Florent Muller, Co-directeur de thèse Office National d’Études et de Recherches Aérospatiales (ONERA)Remerciements Je tiens à remercier les membres du jury pour le temps consacré à l’évaluation de ces travaux de thèse. Je suis tout particulièrement reconnaissant envers Messieurs Thomas Schildknecht et Frédéric Dambreville pour m’avoir fait l’honneur d’examiner mon manuscrit jusque dans les plus fins détails. Je remercie très sincèrement Monsieur Olivier Michel pour avoir présidé le jury de cette thèse et pour la grande intégrité dont il a fait preuve en maintenant sa présence lors de cette journée du 21 Janvier alors qu’il était fortement sollicité par ailleurs. De même, Monsieur Pascal Faucher m’a fait l’honneur de participer à ce jury malgré sa faible disponibilité. Les commentaires émis et les discussions que nous avons eues constituent autant de points de vue enrichissants, éclairés par les expertises respectives et la grande qualité des membres du jury. Je remercie très chaleureusement mon équipe encadrante, qui a su se montrer efficace et complémentaire : Benjamin Pannetier, pour son expertise en pistage qui va jusqu’à la connaissance parfaite d’ouvrages de référence. Sa mémorisation impressionnante du sommaire du Blackman et du Bar-Shalom est un indicateur fort de sa maîtrise sur le sujet et l’a rendu immédiatement très crédible à mes yeux alors néophytes. Je tiens par ailleurs à rendre justice au soutien moral que Benjamin m’a apporté (parfois même sans s’en rendre compte), quand le soutien technique était difficile du fait de la pluralité des domaines couverts. Florent Muller, pour son expertise système et ses connaissances en systèmes radars et modèles orbitaux. La rigueur, l’exigence vis-à-vis de soi, et une vraie passion pour le domaine spatial sont autant d’enseignements que j’ai reçus et qui, je l’espère, m’ont été transmis. Michèle Rombaut, pour son sens de la pédagogie et sa curiosité authentique pour tous les domaines scientifiques. Son ouverture d’esprit vis-à-vis des domaines qui ne sont pas directement liés aux siens et sa virtuosité dans l’art d’expliquer simplement ont été des éléments à mon sens fondamentaux pour conclure cette thèse. J’ai reçu au cours de ces trois années l’aide ponctuelle mais précieuse de nombreuses personnes. Je souhaite remercier très chaleureusement Bertrand Le Saux pour les conseils de grande qualité qu’il m’a donnés à des moments charnières. Il est important de mentionner qu’il est celui qui m’a incité à utiliser un algorithme de classi- fication binaire pour l’estimation du modèle statistique qui occupe maintenant une place centrale parmi les contributions de cette thèse. Grâce à sa très vaste culture et à son expérience, l’algorithme de classification a pu être mis en œuvre et exploité de iRemerciements manière efficace en un laps de temps très court, et fournir à ces travaux, par certains aspects, des garanties théoriques plus solides. Je souhaite également remercier très chaleureusement Nicolas Bérend pour un très important service logistique rendu. Par ailleurs, certaines analyses dont il a pu me faire part ont guidé certains choix pour les étapes de détermination d’orbite. La liste est longue, et pour éviter toute omission je laisse le soin aux personnes qui se reconnaîtront d’accepter mes plus sincères remerciements pour m’avoir prodigué les analyses et points de vue qui m’ont permis de progresser dans la problématique de cette thèse. Ces trois années passées à l’ONERA sont pour moi une mosaïque de belles rencontres et de moments exceptionnels. Outre leurs qualités scientifiques, je souhaite témoigner avant tout des grandes qualités humaines des personnes que j’ai côtoyées. J’ai choisi de faire cela en vous livrant quelques passages d’un journal que j’ai tenu lors de mes débuts en tant que doctorant. 1er jour : Je découvre mon superviseur. Il ressemble à Tom Cruise. Il me conduit au Bâtiment N, le nouveau fleuron de la flotte. Nous passons par un tunnel style « Zone 51 », les néons au plafond me font penser à une rampe de lancement. J’aperçois dans des alcôves des soi-disant maquettes de missiles. Je ne mords pas une seconde : nul doute que tout cet attirail est opérationnel. Tom me présente une multitude de geeks. Aucun ne donne l’impression d’avoir un profil psychologique standard. Il paraît que ces personnes ont passé les 20 dernières années dans un lieu conçu pour abriter un asile psychiatrique. J’aurais pu le deviner aux propos irrationnels que j’entends depuis que je suis arrivé. Des exosquelettes pour les vaches ? Pourquoi pas des cigarettes électroniques ! Je soupçonne quelque chose dans l’air qui altère le jugement. Il me faudra être prudent si je veux subsister. 6ème jour : Les geeks semblent s’habituer à ma présence. Je peux aller et venir dans les couloirs sans plus sentir ces regards mêlant à la fois suspicion et indifférence. Je commence à remarquer les particularités de certains. L’un d’eux me harcèle depuis plusieurs jours pour que je touche ses biceps. J’ai fini par céder et je comprends maintenant pourquoi. Leur fermeté est telle que je me suis fait une tendinite à l’index au premier contact. Je n’aurais su dire alors si cela était de la malveillance et n’en adoptai un comportement que plus méfiant à l’égard de cet individu, mais je compris plus tard que ces biceps étaient le symbole de l’effort physique, essentiel et vital, que j’ai enduré au cours de ces trois années sous la pression incessante de celui que je nommais pour moi-même « Coach ». Coach m’a aidé à me vider l’esprit et pour cela je lui suis reconnaissant, car l’équilibre est la clé. 10ème jour : Je remarque une sorte de dandy barbu lorsque celui-ci m’accuse gratuitement de ne pas savoir lire. N’étant pas assez familier avec les us et coutumes de cet endroit, je décide de ne pas prendre ombrage de ce commentaire et me convaincs que Dandy n’a pas une attitude hostile en dépit des apparences mais essaye bel et bien de se iimontrer amical. C’est avec le temps que Dandy et moi apprîmes à nous comprendre et je dois admettre aujourd’hui que Dandy fait partie des soutiens moraux sans lesquels ma barque se serait certainement échouée. 11ème jour : Je pense que certains individus vivent ici. Je n’ai jamais vu le geek à l’air sympathique arriver ou partir, il est toujours là. Je décide de tenter une expérience en le sollicitant pour une tâche triviale. Il s’en acquitte. Quiconque à sa place m’aurait refusé ce service. J’en déduis que cet être est doué d’une capacité d’empathie hors du commun et que pour cela, il est devenu le pilier du département. Sans lui tout s’effondre, j’en ai acquis la certitude. Cet ami m’a tiré du pétrin maintes fois, et le récit de ses exploits pourrait faire l’objet d’un livre malgré les quelques faux pas dont il s’est rendu coupable comme par exemple le consternant pistolet à bisous. 20ème jour : Je réalise que les doctorants fournissent un effort intense et perpétuel alors qu’ils sont peu considérés par la société. Ce constat m’est clairement apparu au fil de discussions avec deux individus plutôt discrets, l’un aux airs de philosophe, l’autre tenant des propos de grand voyageur marin. Sous leurs airs mystérieux, je ne saurais déterminer avec précision leur degré d’ironie : les doctorants se nourrissent-ils vraiment de pain rassis ? Je ne livrerai pas la réponse à cette question, mais avec le recul je peux affirmer que les doctorants s’endurcissent : ils deviennent solides, solidaires, et tous incroyablement optimistes malgré la tempête qui s’acharne. Aurélien, Joseph, Christophe, Laure, Guillaume, Pauline, Paul, Oana, Achille et les autres, vous m’avez montré la voie et soutenu, parfois malgré vous, dans les moments difficiles. Je ressens une nostalogie toute particulière quand je pense à Coco, mon co-bureau, et à tous ces moments inoubliables. Avec Coco, nous partagions nos joies, nos peines et nos ambitions. Quant à Isabelle, Hicham et Maxime, n’abandonnez pas le combat, défendez avec ferveur l’honneur des doctorants et transmettez leur trésor pour que jamais ne s’éteigne le flambeau. La méfiance de mes débuts laissa peu à peu la place à un sentiment de forte inté- gration. Le déjeuner, rituel toujours très convivial, et les autres moments de détente bien mérités qui rythment les journées m’ont permis de connaître les nombreux personnages qui font le DTIM. Les éclats de rires, les caricatures, les vannes gratuites, les conversations (souvent sans queue ni tête) sont ce que je retiens de tous ces bons moments. J’espère que vous serez convaincus du plaisir sincère que j’éprouve à me remémorer ces trois années pendant lesquelles vous m’avez accueilli. J’ai la chance d’avoir trouvé parmi vous des camarades précieux, sinon des amis. Hélas rien n’est éternel. Les doctorants défilent, le monde ne s’arrête pas. Et d’autres camarades à leur tour mêlent leurs destins au mien. iiiRemerciements Faux départ ! ivTable des matières Acronymes xi Lexique xiii Notations xv I Introduction 1 1 Contexte de la surveillance de l’espace 3 1.1 L’espace, un domaine critique . . . . . . . . . . . . . . . . . . . . . . 4 1.2 L’anti-collision, une application de la surveillance de l’espace . . . . . 5 1.2.1 La menace des débris spatiaux . . . . . . . . . . . . . . . . . . 5 1.2.2 Catalogage des débris en orbite basse . . . . . . . . . . . . . . 6 1.3 Systèmes existants . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.3.1 Le réseau de surveillance spatiale américain (U.S. Space Surveillance Network) . . . . . . . . . . . . . . . . . . . . . . . . 7 1.3.2 Les systèmes européens . . . . . . . . . . . . . . . . . . . . . . 9 1.4 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2 Paramétrage d’un radar pour la détection de petits objets 11 2.1 Principe fondamental et définitions . . . . . . . . . . . . . . . . . . . 12 2.2 Mode de balayage Track While Scan (TWS) . . . . . . . . . . . . . . 12 2.3 Émission pulsée versus émission continue . . . . . . . . . . . . . . . . 14 2.3.1 Cas du radar monostatique en émission pulsée . . . . . . . . . 14 2.3.2 Cas du radar bistatique en émission pulsée ou continue . . . . 16 2.4 Traitement du signal reçu . . . . . . . . . . . . . . . . . . . . . . . . 16 vTABLE DES MATIÈRES 2.4.1 Chaîne de détection . . . . . . . . . . . . . . . . . . . . . . . . 17 2.4.2 Non-détections et fausses alarmes . . . . . . . . . . . . . . . . 17 2.5 Influence de la fonction sur le choix de la longueur de l’onde émise . . 20 2.5.1 RSB en fonction des paramètres du radar et des cibles . . . . 20 2.5.2 Influence du FOR Ψ . . . . . . . . . . . . . . . . . . . . . . . 21 2.5.3 SER en fonction de la longueur de l’onde émise . . . . . . . . 21 2.6 Choix d’une configuration et d’un paramétrage de capteur envisageable 23 2.6.1 Choix d’une configuration monostatique pulsée . . . . . . . . . 23 2.6.2 Géométrie du champ de veille (Field Of Regard, FOR) . . . . 24 2.6.3 Précision des mesures . . . . . . . . . . . . . . . . . . . . . . . 25 2.7 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3 Modèles dynamiques et satellites en orbite basse 27 3.1 Systèmes de coordonnées usuels . . . . . . . . . . . . . . . . . . . . . 28 3.1.1 Référentiels géocentriques inertiel (ECI) et fixe (ECF) . . . . . 28 3.1.2 Référentiel Géodésique . . . . . . . . . . . . . . . . . . . . . . 28 3.2 Potentiel terrestre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.3 Le modèle képlérien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.3.1 Modèle simple . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.3.2 Dérive des paramètres orbitaux . . . . . . . . . . . . . . . . . 32 3.4 Le modèle SGP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.4.1 Modélisation du potentiel terrestre . . . . . . . . . . . . . . . 33 3.4.2 Modélisation paramétrique de la traînée atmosphérique . . . . 34 3.5 Le catalogue Space-Track . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.5.1 Format des éléments . . . . . . . . . . . . . . . . . . . . . . . 34 3.5.2 Distribution des paramètres orbitaux . . . . . . . . . . . . . . 35 3.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Conclusion de la première partie 37 II Synthèse et analyse des techniques existantes contriviTABLE DES MATIÈRES buant au catalogage 39 Introduction de la deuxième partie 41 4 Pistage 43 4.1 Pistage Monocible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.1.1 Modélisation paramétrique . . . . . . . . . . . . . . . . . . . . 44 4.2 Estimation d’un état à partir d’une piste existante . . . . . . . . . . . 45 4.3 Pistage multicible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.3.1 Approches bayésiennes . . . . . . . . . . . . . . . . . . . . . . 51 4.3.2 Approches non-bayésiennes . . . . . . . . . . . . . . . . . . . . 53 4.4 Choix d’un TO-MHT résultant des contraintes d’emploi . . . . . . . . 56 4.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5 Détermination d’orbite préliminaire 61 5.1 Problématique de la Détermination d’Orbite Initiale . . . . . . . . . . 62 5.2 Trois observations de position . . . . . . . . . . . . . . . . . . . . . . 63 5.2.1 Méthode de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . 63 5.2.2 Méthode de Herrick-Gibbs . . . . . . . . . . . . . . . . . . . . 64 5.3 Deux observations de position . . . . . . . . . . . . . . . . . . . . . . 65 5.3.1 Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 66 5.3.2 Méthode de Battin et révolutions multiples . . . . . . . . . . . 67 5.4 Méthode des débris virtuels (Virtual Debris) . . . . . . . . . . . . . . 68 5.4.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 5.4.2 Résultats publiés . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.5 Insuffisance des techniques existantes . . . . . . . . . . . . . . . . . . 70 5.5.1 Pour l’association initiale . . . . . . . . . . . . . . . . . . . . . 70 5.5.2 Pour la Détermination d’Orbite Initiale (IOD) . . . . . . . . . 71 5.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Conclusion de la deuxième partie 73 III Traitement des observations issues d’un radar à champ viiTABLE DES MATIÈRES de veille restreint pour le catalogage de petits débris 75 Positionnement 77 6 Association initiale par modélisation comportementale 81 6.1 Paires d’observations à une révolution d’intervalle . . . . . . . . . . . 82 6.1.1 Observations issues du capteur supposé . . . . . . . . . . . . . 83 6.2 Discrimination des paires d’observations . . . . . . . . . . . . . . . . 86 6.2.1 Structure de l’algorithme résultant . . . . . . . . . . . . . . . 86 6.2.2 Base d’apprentissage . . . . . . . . . . . . . . . . . . . . . . . 87 6.2.3 Estimation du support par One-Class SVM . . . . . . . . . . . 88 6.2.4 Calcul d’un rapport de vraisemblance . . . . . . . . . . . . . . 92 6.3 Évaluation préliminaire des performances . . . . . . . . . . . . . . . . 95 6.3.1 Fenêtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 6.3.2 Score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 6.3.3 Rappel et ambiguïté obtenus par fenêtrage et SPRT . . . . . . 98 6.4 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . 98 7 Initialisation du pistage 99 7.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 7.2 Approximation de l’orbite circulaire X4 . . . . . . . . . . . . . . . . . 102 7.2.1 Nécessité d’un bruit de modèle . . . . . . . . . . . . . . . . . 103 7.3 Association de troisièmes observations par transformation non-parfumée104 7.3.1 Prédiction des observations . . . . . . . . . . . . . . . . . . . 104 7.3.2 Fenêtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 7.4 Estimation d’orbite définitive X7 . . . . . . . . . . . . . . . . . . . . 105 7.4.1 Critère minimisé . . . . . . . . . . . . . . . . . . . . . . . . . 106 7.4.2 Implémentation de l’algorithme de Gauss-Newton . . . . . . . 106 7.4.3 Critère de convergence et de validité . . . . . . . . . . . . . . 108 7.5 Évaluation des performances . . . . . . . . . . . . . . . . . . . . . . . 108 7.5.1 Données de test . . . . . . . . . . . . . . . . . . . . . . . . . . 108 7.5.2 Convergence d’un algorithme de Gauss-Newton comme critère de validation . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 viiiTABLE DES MATIÈRES 7.5.3 Fenêtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 7.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . 112 8 Intégration du traitement multicible 113 8.1 Principe du Track-Oriented Multiple Hypothesis Tracker (TO-MHT) 114 8.1.1 Hypothèse fondamentale . . . . . . . . . . . . . . . . . . . . . 114 8.1.2 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 8.1.3 Formation des pistes . . . . . . . . . . . . . . . . . . . . . . . 115 8.1.4 Évaluation de la qualité individuelle des pistes . . . . . . . . . 116 8.1.5 Construction de solutions globales . . . . . . . . . . . . . . . . 120 8.1.6 Suppression de pistes au niveau global . . . . . . . . . . . . . 121 8.1.7 Mise-à-jour des états . . . . . . . . . . . . . . . . . . . . . . . 124 8.1.8 Fusion de pistes . . . . . . . . . . . . . . . . . . . . . . . . . . 124 8.2 Évaluation des performances . . . . . . . . . . . . . . . . . . . . . . . 125 8.2.1 Choix des critères d’évaluation . . . . . . . . . . . . . . . . . . 125 8.2.2 Choix des scénarios de test . . . . . . . . . . . . . . . . . . . . 126 8.2.3 Dégradation des observations . . . . . . . . . . . . . . . . . . 126 8.2.4 Évolution temporelle des critères de performance principaux . 127 8.2.5 Évolution temporelle des critères de performance annexes . . . 128 8.2.6 Sensibilité des paramètres de dimensionnement du radar . . . 129 8.2.7 Conclusion des tests de performance . . . . . . . . . . . . . . 132 8.3 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . 132 9 Modélisation de la complexité combinatoire 135 9.1 Analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 9.1.1 Modélisation paramétrique de la complexité combinatoire . . . 136 9.1.2 Modélisation paramétrique du nombre instantané de nouvelles pistes m(k) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 9.2 Calibration du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . 139 9.2.1 Détermination des paramètres liés à la performance du catalogage α, λ et κ . . . . . . . . . . . . . . . . . . . . . . . . . . 139 9.2.2 Détermination des paramètres liés au temps I1,min, I1,max, I2,min, I2,max, b1 et b2 . . . . . . . . . . . . . . . . . . . . . . . . . . 140 ixTABLE DES MATIÈRES 9.2.3 Détermination du coefficient de précision a1,2 . . . . . . . . . 141 9.3 Extrapolations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 9.3.1 Discussion sur la validité des prédictions . . . . . . . . . . . . 143 9.4 Systèmes à plusieurs capteurs . . . . . . . . . . . . . . . . . . . . . . 144 9.4.1 Système de deux capteurs opposés en longitude . . . . . . . . 145 9.4.2 Système de deux capteurs de même longitude . . . . . . . . . 145 9.4.3 Analyse et comparaison de performances . . . . . . . . . . . . 146 9.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Conclusions et perspectives 149 Communications scientifiques 155 Annexes 159 A Filtre optimal par corrélation 159 B Passage d’un référentiel terrestre fixe à un référentiel géodésique (et vice-versa) 161 C Équivalence entre les paramètres orbitaux képlériens et un couple position-vitesse 163 C.1 Passage d’un couple position-vitesse vers les paramètres orbitaux ké- plériens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 C.2 Passage des paramètres orbitaux képlériens vers un couple positionvitesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 D Association des détections issues du passage d’un objet dans le champ de veille 165 xAcronymes AT Active Tracking (poursuite active) BMEWS Ballistic Missile Early Warning System (système d’alerte avancée) DO Definitive Orbit (orbite définitive) ECF Earth Centered Fixed (référentiel géocentrique fixe) ECI Earth Centered Inertial (référentiel géocentrique inertiel) ENU East-North-Up (référentiel local Est-Nord-Haut) ESA European Space Agency ESAOGS ESA Optical Ground Station FFC Formation de Faisceaux par le Calcul FA Fausse Alarme FP Fausse Piste confirmée FOR Field Of Regard (champ de veille) FOV Field Of View (champ de vue) GEO Geosynchronous Earth Orbit GM-PHD Gaussian-Mixture Probabilistic Hypothesis Density GNN Global Nearest Neighbor HO-MHT Hypothesis-Oriented Multiple Hypothesis Tracker IOD Initial Orbit Determination (détermination d’orbite initiale) IO Initial Orbit (orbite initiale) JPDAF Joint-Probabilistic Data Association Filter LEO Low Earth Orbit (orbite basse) GRAVES Grand Réseau Adapté à la Veille Spatiale ISS International Space Station MHT Multiple Hypothesis Tracker PDAF Probabilistic Data Association Filter PHD Probabilistic Hypothesis Density PRI Période de Répétition de l’Impulsion xiAcronymes RSB Rapport Signal à Bruit SGP Simplified General Perturbations SPRT Sequential Probability Ratio Test SSN Space Surveillance Network SER Surface Équivalente Radar SVM Support Vector Machine (machine à vecteurs de support) TO-MHT Track-Oriented Multiple Hypothesis Tracker TWS Track-While-Scan USSTRATCOM US Strategic Command xiiLexique Arc Ensemble de détections issues du même objet lors d’un unique passage dans le champ de veille Arc court Arc dont on ne peut déduire une orbite précise du fait d’un faible nombre de détections, de leur proximité et de leurs erreurs de mesure Champ de veille Zone de l’espace parcourue par le champ de vue lors d’un balayage Champ de vue Zone de l’espace surveillée à un instant pontuel (i.e. faisceau) Détection Mesure de position lorsque le RSB dépasse un certain seuil Observation Arc court, i.e. une, ou deux observations fortement redondantes (proximité et erreur de mesure). Dans cette étude, nous choisissons arbitrairement d’utiliser les coordonnées de la première détection. Observabilité Caractère d’un système dynamique dont on peut déduire l’état à partir des observations disponibles Observation isolée Observation ne permettant pas l’observabilité du système dynamique sous-jacent Piste Séquence d’observations associées xiiiNotations Notations générales a Une lettre en italique indique un scalaire ou une fonction |a| Valeur absolue du scalaire a sgn(a) Signe du scalaire a f −1 Inverse de la fonction f a Une lettre en gras indique un vecteur kak Norme euclidienne du vecteur a M Une lettre capitale en gras indique une matrice MT Transposée de la matrice M M−1 Inverse de la matrice M |M| Déterminant de la matrice M . ′ Dérivée ˙. Dérivée temporelle ∂ Dérivée partielle ˆ. Estimée ¯. Prédiction ∧ Produit vectoriel Notations liées au fonctionnement d’un radar TPRI Période de répétition de l’impulsion ter Durée de propagation d’une impulsion τ Largeur temporelle de l’impulsion R Distance capteur-cible (cas monostatique) ∆R Erreur de mesure de la distance capteur-cible R˙ Vitesse projetée sur l’axe capteur-cible (vitesse radiale) ∆Φ Déphasage entre deux impulsions successives Re Distance émetteur-cible (cas bistatique) Rr Distance récepteur-cible (cas bistatique) R˙ β Vitesse projetée sur la bissectrice de l’angle β xvNotations β Angle émetteur-cible-récepteur dans le triangle bistatique θr Angle de visée de l’antenne de réception dans le triangle bistatique Lβ Ligne de base entre les sites d’émission et de réception c Vitesse de propagation de la lumière fe Fréquence de l’onde émise λe Longueur de l’onde émise RSB Rapport Signal à Bruit Pr Puissance du signal reçu PΣb Puissance du bruit Rréf Distance de référence PD Probabilité de détection PFA Probabilité de fausse alarme sD Seuil de détection appliqué au RSB b Signal aléatoire lié au bruit seul Σb Somme de réalisations de b P Puissance fournie Ge Gain de l’antenne d’émission Gr Gain de l’antenne de réception dPe Densité surfacique de puissance émise Se Surface de l’antenne d’émission Sr Surface de l’antenne de réception σ Surface équivalente radar L Facteur de perte ou de gain lié au trajet de l’onde k Constante de Boltzmann T Température équivalente de bruit thermique ∆F Largeur de bande après filtrage tp Durée d’un pointage tv Période de revisite N Nombre de pointages par balayage η Charge en poursuite βv Taux de recouvrement des faisceaux en veille Ψ Volume du champ de veille Θ Ensemble des paramètres du radar l Largeur de l’antenne (cas monostatique) ρ Mesure de distance capteur-cible θ Mesure d’azimut φ Mesure d’élévation σρ Précision de mesure radiale σθ Précision de mesure angulaire en azimut σφ Précision de mesure angulaire en élévation xviNotations liées aux différents référentiels u ECF X Premier vecteur unitaire d’un repère géocentrique fixe (suit la rotation de la Terre) u ECF Y Deuxième vecteur unitaire d’un repère géocentrique fixe u ECF Z Troisième vecteur unitaire d’un repère géocentrique fixe u ECI X Premier vecteur unitaire d’un repère géocentrique intertiel u ECI Y Deuxième vecteur unitaire d’un repère géocentrique inertiel u ECI Z Troisième vecteur unitaire d’un repère géocentrique inertiel RECF Repère du référentiel géocentrique fixe (ECF) RECI Repère du référentiel géocentrique intertiel (ECI) RENU Repère du référentiel local East-North-Up (ENU) θsidéral Angle de rotation de la Terre autour de l’axe polaire u ECF Z = u ECI Z ωsidéral Vitesse de rotation de la Terre autour de l’axe polaire u ECF Z = u ECI Z rsite Vecteur des coordonnées du capteur dans un repère ECF RuZ Rotation autour de l’axe uZ réq Rayon terrestre à l’équateur r Distance d’un point au centre de la Terre θgéo Longitude φgéo Latitude hgéo Altitude Notations liées aux modèles de dynamique orbitale fTS Force résultante de l’attraction gravitationnelle entre T et S dTS Distance entre T et S K Constante gravitationnelle universelle µ Paramètre gravitationnel terrestre standard mT Masse de T gradS Gradient selon S UT(S) Potentiel gravitationnel de T au point S J2 Harmonique zonale d’ordre 2 du potentiel terrestre Jn Harmonique zonale d’ordre n du potentiel terrestre Pn Polynome de Lagrange d’ordre n préf Pression de référence hréf Altitude de référence H Facteur d’échelle d’altitude adrag Accélération de traînée fSGP Fonction de propagation SGP xviiNotations r Vecteur position v Vecteur vitesse to Date des paramètres orbitaux ao Demi-grand axe no Mouvement moyen eo Excentricité io Inclinaison Ωo Longitude du nœud ascendant ωo Argument du périgée νo Anomalie vraie Mo Anomalie moyenne Eo Anomalie excentrique B∗ Coefficient de traînée Xto Jeu de paramètres orbitaux datés de to Notations liées au pistage x État d’un système z Observation f Fonction de propagation h Fonction d’observation ζ Bruit de modèle η Bruit d’observation F Matrice associée à la linéarisation de f H Matrice associée à la linéarisation de h V Matrice de covariance de ζ W Matrice de covariance de η ¯z Observation prédite ˜z Innovation, c’est-à-dire ˜z = ¯z − z S Matrice de covariance de l’innovation ˜z K Gain de Kalman X4 Vecteur d’état associé à une orbite circulaire X7 Vecteur d’état associé à une orbite SGP4 PXˆ Xˆ ,4 Matrice de covariance associée à l’estimée de X4 PXˆ Xˆ Matrice de covariance associée à l’estimée de X κi i-ème coefficient de la matrice diagonale D4 χ i i-ème sigma-point (transformation non-parfumée) ϕ i Poids associé au i-ème sigma-point (ransformation non-parfumée) xviiiq Pi Xˆ Xˆ ,4 i-ème colonne d’une matrice triangulaire L obtenue par la décomposition de Cholesky de la matrice PXˆ Xˆ ,4 ˆxk+1|k Estimation de x à l’instant k + 1 sachant les observations jusqu’à l’instant k d(., .) Distance statistique ou distance de Mahalanobis sF Seuil de fenêtrage Z Piste quelconque Zi i-ème piste d’observations dans un ensemble de pistes Z k Ensemble des observations accumulées jusqu’au scan k Z(k) Ensemble des observations du scan k mk Nombre d’observations au scan k z i k i-ème observation du scan k ˜zt Innovation jointe associée à la piste t (JPDAF) ˜zt i (k) Innovation de z i k vis-à-vis de la piste t (JPDAF) β t i (k) Probabilité d’appartenance de l’observation z i k à la piste t (JPDAF) hj j-ème hypothèse d’asociation d’observation à piste (HO-MHT) θ t i Hypothèse “la i-ème observation est issue du même objet que la piste t” θ t 0 Hypothèse “la piste t n’est corrélée avec aucune observation” v Fonction d’intensité (GM-PHD) mi Moyenne de la i-ème gaussienne (GM-PHD) Pi Covariance de la i-ème gaussienne (GM-PHD) w i Poids associé à la i-ème gaussienne (GM-PHD) J Nombre de cibles instantanné (GM-PHD) N Loi gaussienne d 2 Gij Fonction de coût (GNN) S Scénario d’association (0-1) A Matrice binaire d’appartenance des observations aux pistes (0-1) bS Vecteur binaire d’appartenance des pistes à un scénario d’association S (0-1) LZ Log-vraisemblance associée à la piste Z H1 Hypothèse “Toutes les observations de la piste sont issues du même objet” H0 Hypothèse contraire de H1, H0 = H1 sSPRT,1 Seuil en dessous duquel LZ indique que la piste Z est de mauvaise qualité sSPRT,2 Seuil au dessus duquel LZ indique que la piste Z est de bonne qualité α Erreur de type I (SPRT) β Erreur de type II (SPRT) xixNotations hcapteur Fonction de passage d’un référentiel ECI à un référentiel capteur fn Fonction composée hcapteur ◦ fSGP L Rapport de vraisemblance ∆L Incrément du rapport de vraisemblance tlatence Délai entre une association et l’évaluation de la piste texp. Délai d’expiration d’une piste après la dernière association S Solution faisable (ensemble de pistes compatibles) Notations liées à la détermination d’orbite initiale (IOD) r Vecteur position dans un référentiel ECI e Vecteur excentricité dans un référentiel ECI αcoplanaire Angle-seuil de coplanarité ∆ν Différence d’anomalies vraies ∆E Différence d’anomalies excentriques p “Paramètre” de l’ellipse y Rapport de deux aires permettant de retrouver p par substitutions successives (méthode de Gauss) x1, x2 Termes de substitutions successives (méthode de Gauss) α, δ Mesures d’angles dans un référentiel topocentrique (mesure télescope) Em Énergie mécanique ri Vecteur position associée à l’observation zi dans un ECI δp Angle signé formé par les vecteurs position d’une paire d’observations à une révolution d’intervalle p Produit vectoriel de r1 et r2 Notations liées à l’estimation εQ Erreur quadratique x0 État initial en entrée d’une boucle d’itérations ∆x Incrément de l’état d’un système dans une boucle d’itérations ε Vecteur des résidus tel que εQ = ε Tε Jε Matrice jacobienne de ε sC Seuil de convergence Notations liées à la première association x(i, j) Vecteur de description de la paire d’observations {zi , zj} r Rayon géodésique (distance au centre de la Terre) d’une observation xxτ Différence de temps entre les observations zi et zj λ Différence de longitude entre les observations zi et zj dr Valeur absolue de la différence de rayon géodésique entre deux observations drλ Longueur de l’arc de longitude entre deux observations dθ Valeur absolue de la différence d’azimut de détection entre deux observations f extr. Fonction de description d’une paire d’observations r ECI obs. Vecteur capteur-cible observé par le capteur dans un référenciel ECI r ECI capteur Vecteur position du capteur dans un référenciel ECI E Ensemble des paires d’observations quelconques F Ensemble des vecteurs de descriptions associés à des paires d’observations quelconques E1rév Ensemble des paires d’observations issues du même objet à une révolution d’intervalle F1rév Ensemble des vecteurs de descriptions associés aux paires d’observations issues du même objet à une révolution d’intervalle E sim 1rév Ensemble simulé des paires d’observations issues du même objet à une révolution d’intervalle F sim 1rév Ensemble simulé des vecteurs de descriptions associés aux paires d’observations issues du même objet à une révolution d’intervalle τmin(Θ) Valeur minimale de τ pour les observations issues du même objet à une révolution d’intervalle τmax(Θ) Valeur maximale de τ pour les observations issues du même objet à une révolution d’intervalle pF1rév Loi de probabilité associée à l’ensemble F1rév dans l’espace F Q(1 − ν) Quantile à 1 − ν d’un échantillon de F sim 1rév µ Mesure de volume (mesure de Lebesgue) : µ(C) est le volume de la région C g Fonction de décision de la One-Class SVM k Fonction noyau de la One-Class SVM γ Paramètre de la fonction de noyau gaussien αi Multiplieurs de Lagrange résultant de l’optimisation par One-Class SVM x n Fsim 1rév n-ième vecteur de support sélectionné par la One-Class SVM b Seuil de détection résultant de l’optimisation par One-Class SVM sFp Seuil associé à la méthode particulaire : proportion minimale de particules classifiées positives par la One-Class SVM D Matrice diagonale des écart-types associés aux distances entre les échantillons (fenêtres de Parzen-Rosenblatt) N(z) Nombre d’observations formant une paire valide avec l’observation z xxiNotations Li,j Log-vraisemblance associée à la paire d’observations {zi , zj} lp,i,j Log-vraisemblance associée à la p-ième paire de particules issues d’une paire d’observations {zi , zj} xp(i, j) Vecteur de description de la p-ième paire de particules issues d’une paire d’observations {zi , zj} Sc Ensemble des scores des associations correctes Sc¯ Ensemble des scores des associations incorrectes Notations liées à la complexité combinatoire NC GN Nombre de triplets d’observations formés instantanément b1 Distribution des intervalles de temps entre la première et la seconde observation d’une piste b2 Distribution des intervalles de temps entre la deuxième et la troisième observation d’une piste [I1,min, I1,max] Support de b1 [I2,min, I2,max] Support de b2 m(k) Nombre d’observations au scan k a Coefficient de précision d’une méthode de fenêtrage a1,2 Produit des coefficients de précision des méthodes de première et de deuxième association VF Volume d’une fenêtre de validation V Volume surveillé mFA Nombre moyen de fausses alarmes par scan mobj. Nombre moyen d’observations issues d’objets réels g(k) Taux d’objets catalogués jusqu’au scan k α Taux d’objets catalogués en fin de simulation λ Constante de décroissance κ Délai entre le début de la simulation et le suivi des premiers objets catalogués xxiiPremière partie Introduction 1Chapitre 1 Contexte de la surveillance de l’espace Le but de ce chapitre est de montrer que les moyens de surveillance de l’espace sont nécessaires et complexes. Pour cela, nous évoquons plusieurs activités emblématiques de l’espace. Ensuite, nous décrivons de manière succincte quelques systèmes de surveillance existants afin de représenter le niveau de technologie accessible en termes de capteurs physiques. Sommaire 1.1 L’espace, un domaine critique . . . . . . . . . . . . . . . . 4 1.2 L’anti-collision, une application de la surveillance de l’espace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.2.1 La menace des débris spatiaux . . . . . . . . . . . . . . . 5 1.2.2 Catalogage des débris en orbite basse . . . . . . . . . . . 6 1.3 Systèmes existants . . . . . . . . . . . . . . . . . . . . . . . 7 1.3.1 Le réseau de surveillance spatiale américain (U.S. Space Surveillance Network) . . . . . . . . . . . . . . . . . . . . 7 1.3.2 Les systèmes européens . . . . . . . . . . . . . . . . . . . 9 1.4 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . 9 31.1 L’espace, un domaine critique 1.1 L’espace, un domaine critique Depuis plusieurs décennies, les applications liées au domaine spatial sont devenues centrales dans les activités humaines. En effet, un grand nombre de programmes spatiaux civils et/ou militaires sont menés notamment à des fins de communication, de navigation, d’observation de la Terre ou de renseignement. Dans cette thèse, nous nous intéressons exclusivement aux orbites basses (altitude inférieure à 2000 Km), ou “Low Earth Orbits” (LEO), du fait de leur forte concentration en satellites actifs et débris et des risques associés [1, 2, 3]. La Figure 1.1 montre la concentration de débris spatiaux en fonction de leur altitude. Figure 1.1 – La concentration des débris spatiaux est critique sur les orbites basses. Une des applications les plus emblématiques des satellites artificiels est l’observation de la Terre. Les satellites d’observation de la Terre permettent d’observer de nombreux paramètres climatiques ou météorologiques à grande échelle, comme entre autres la couverture nuageuse ou l’état de la mer. Par exemple, le satellite Envisat avait notamment pour mission de mesurer la couleur des océans et des zones côtières pour évaluer certains paramètres océanologiques [4]. Les satellites d’observation de la Terre peuvent aussi assurer des missions dans la gestion de catastrophes. Par exemple, le satellite canadien Radarsat a déjà détecté et cartographié des déversements d’hydrocarbures, des zones sinistrées par un tremblement de terre ou un ouragan pour faciliter les opérations de Recherche et Sauvetage et permettre l’évaluation des dégâts [5]. De nombreuses autres applications civiles sont permises ou facilitées par l’utilisation de satellites, telles que par exemple les télécommunications et certaines missions scientifiques (géodésie, géodynamique, cosmologie, etc.). Naturellement, les fonctions de navigation, de télécommunication et d’observation de la Terre jouent également un rôle crucial dans les opérations militaires. Sur un théâtre d’opération par exemple, la localisation et le guidage précis des forces et moyens est un avantage stratégique important. Des satellites (programme Syracuse en France) permettent la transmission sécurisée de données pour les troupes déployées. Enfin, des images satellitaires à haute résolution peuvent être fournies 4Chapitre 1 : Contexte de la surveillance de l’espace par des satellites d’observation (comme le programme Hélios) avec une couverture mondiale et conformément au droit international pour, entre autres, le contrôle du respect des traités, l’alerte avancée ou encore le contrôle des armements. Des satellites d’écoute électromagnétique (le programme Elisa par exemple) permettent par exemple de repérer et d’identifier de manière préventive les moyens de défense radars d’autres pays. 1.2 L’anti-collision, une application de la surveillance de l’espace La pérennité des activités évoquées précédemment repose en grande partie sur la sûreté des installations spatiales. Notre dépendance vis-à-vis de ces installations fait alors de l’espace un domaine sensible. D’un point de vue civil ou militaire, ces satellites doivent notamment être à l’abri de collisions accidentelles. 1.2.1 La menace des débris spatiaux On regroupe sous le terme “débris spatiaux” tous les objets artificiels inactifs en orbite terrestre. Les éléments de lanceurs et les satellites inactifs constituent l’essentiel des gros débris (10 cm à 10 m), et leurs fragmentations suite à des collisions volontaires ou accidentelles, ou à des explosions en orbite génèrent un très grand nombre de débris plus petits (0.1 mm à 10 cm). Un grand nombre de particules de tailles inférieures existent [6]. Cela comprend notamment des gouttelettes de liquide de refroidissement (2 mm à 4 cm), des particules ferreuses issues de moteurs de fusées à propulseur solide (0.1 mm à 3 cm) ou encore des écailles de peinture (2 µm à 0.2 mm). Au cours du temps, le nombre de débris a fortement augmenté [7, 8] (Figure 1.2), notamment suite à des collisions accidentelles ou volontaires comme par exemple la destruction du satellite inactif Fengyun-1C lors d’un test de missile anti-satellite chinois en 2007 et la collision accidentelle entre les satellites Cosmos 2251 (Russie) et Iridium 33 (États-Unis). D’autres événements aux conséquences plus limitées peuvent être mentionnés, comme par exemple la collision accidentelle en 1996 entre ce qui a été identifié comme étant un morceau d’un lanceur Ariane-1 et le satellite de renseignement Cerise (France). La dangerosité des débris spatiaux est double. D’une part, il existe un risque immédiat de perte d’un satellite suite à une collision, et d’autre part la collision peut générer de nouveaux débris. Si la densité de débris en orbite dépasse un certain seuil, ceux-ci pourraient entraîner d’autres collisions en cascade et détruire les satellites actifs. La densité de débris attendrait alors un niveau tel qu’il ne serait plus envisageable de mettre de nouveaux satellites en orbite (syndrome Kessler [9]). Plusieurs facteurs peuvent causer la perte d’un satellite, mais le risque lié à une collision avec un débris prédomine si la densité de débris est importante. Actuelle- 51.2 L’anti-collision, une application de la surveillance de l’espace Figure 1.2 – Évolution du nombre de débris catalogués entre 1956 et 2010. Les sauts sont attribués à des collisions ou explosions catastrophiques. Crédit : NASA Orbital Debris Program Office. ment, le système de surveillance américain dénombre plus de 15 000 débris de plus de 5 cm, et l’on estime qu’il y aurait plusieurs centaines de milliers de débris de plus de 1 cm, très concentrés sur les orbites basses. Pour les gros débris, la tendance actuelle est de mettre en œuvre des moyens pré- ventifs visant à réduire le nombre de débris générés lors des lancements, comme par exemple la passivation des étages supérieurs des lanceurs [6] (c’est-à-dire vidanger les réservoirs et baisser leur pression, décharger les batteries, etc.). Par ailleurs, des moyens de désorbitation actifs sont également à l’étude [10]. Quant aux débris de moins de 1 mm (moins de 1 cm pour la face exposée de l’ISS), ils peuvent être contrés par le blindage des éléments critiques des installations spatiales. En revanche, une difficulté persiste pour contrer les petits débris (1 à 10 cm) puisque l’évitement semble être la seule option réaliste pour cette gamme de taille. L’évitement nécessite la connaissance des trajectoires du plus grand nombre possible de débris en orbite, ce qui peut être atteint grâce à des moyens de catalogage (c’est-à- dire de veille et de suivi) très onéreux. 1.2.2 Catalogage des débris en orbite basse Le catalogage consiste à observer les objets à l’aide de capteurs et à caractériser leurs trajectoires (orbites) sur une fenêtre de temps large, c’est-à-dire connaître leurs positions passées, présentes et futures, lorsqu’ils sont dans l’emprise du capteur ou en dehors. Cette fonction s’appuie sur deux aspects complémentaires : d’une part les capteurs physiques doivent détecter les objets d’intérêt de manière suffisamment fréquente et observer leurs positions et/ou vitesses de manière suffisamment précise pour que d’autre part des algorithmes de traitement de l’information puissent carac- 6Chapitre 1 : Contexte de la surveillance de l’espace tériser les trajectoires (calculs d’orbites) à partir des observations disponibles afin de pouvoir estimer les positions des objets (prédiction, filtrage ou rétrodiction). La connaissance des orbites des objets en orbite basse qui constitueraient le catalogue permettrait alors la prédiction de positions futures et une confrontation deux à deux pour l’anti-collision) ou encore la caractérisation de certains événements passés comme par exemple l’explosion en orbite d’un étage de fusée Ariane en 1986, qui aurait provoqué en 1996 la destruction du satellite français Cerise. Pour les orbites basses, le capteur radar est souvent l’option retenue face aux capteurs passifs car il ne dépend pas des conditions climatiques ou d’illumination (entre autres), bien que des systèmes mixtes radar et optique peuvent être envisagés pour couvrir le besoin sur certaines zones en altitude. Bien que sa conception soit très exigeante, un tel capteur est faisable grâce aux technologies actuelles malgré des contraintes en bilan énergétique très exigeantes. 1.3 Systèmes existants Aujourd’hui, la surveillance de l’espace est devenue un domaine aux enjeux majeurs, comme nous l’avons évoqué dans les sections précédentes. C’est pour cela que les États-Unis et les pays européens, entre autres, développent des capacités de surveillance de l’espace. La présentation générale de certains systèmes existants, américains ou européens, permet d’avoir une idée du niveau de technologie accessible en fonction des efforts de développement fournis. 1.3.1 Le réseau de surveillance spatiale américain (U.S. Space Surveillance Network) Les États-Unis disposent d’un réseau de systèmes optiques et radars (Space Surveillance Network, SSN) répartis à la surface du globe [11]. Pour les orbites basses, les radars FPS-85 et Cobra Dane déployés respectivement sur les sites de Eglin, Floride, et Shemya, Alaska, sont des systèmes dédiés à la surveillance de l’espace en complément d’autres systèmes dont la mission principale est l’alerte anti-balistique (Ballistic Missile Early Warning Systems, BMEWS). Ces capteurs utilisent des ré- seaux d’antennes phasées qui permettent de balayer rapidement une zone de l’espace. L’utilisation de tels réseaux est relativement souple puisque leur agilité permet de veiller sur une zone relativement large ou de pister plusieurs cibles de manière simultanée sans élément mécanique mobile. Le système FPS-85 [12] est le premier radar à réseau phasé dédié à la surveillance de l’espace. Il est faiblement bistatique (zone d’émission et zone de réception côte- à-côte) et ses antennes sont montées sur une structure de 44 m de haut occupant une surface au sol de 23 226 m2 (Figure 1.3). Son emprise, ou Field of Regard (FOR), s’étend sur 120˚en azimut et sur 105˚en élévation et lui permet de détecter des objets sur des arcs de trajectoire très longs. Le FPS-85 aurait la capacité de détecter des objets d’une taille de 6 cm environ en orbite 71.3 Systèmes existants basse (cette performance étant indicative compte tenu du fait qu’aucune valeur de référence de rapport signal à bruit n’y est associée, c’est-à-dire qu’on ne connaît pas les performances de détection et de fausse alarme) et de pister simultanément jusqu’à 200 objets présents dans son emprise. Figure 1.3 – Le FPS-85 est le premier radar à réseaux phasés dédié à la surveillance de l’espace. Il serait capable de détecter des objets d’un diamètre de 6 cm en orbite basse. Le FPS-108, ou Cobra Dane [13], est un radar à réseau phasé conçu initialement pour la surveillance d’essais de tirs de missiles balistiques soviétiques. Il est monostatique (zone d’émission et zone de réception confondues) et permet la détection d’objets spatiaux de 4 ou 5 cm en orbite basse. Depuis 2003, le Cobra Dane est connecté de manière permanente au SSN et maintient, en plus de sa mission principale anti-balistique, le balayage d’une zone du ciel large de 60˚en azimut et de 0.6˚en élévation afin d’apporter des détections supplémentaires [13]. La période de revisite de cette emprise n’est pas communiquée. Lors de tests précédents, le Cobra Dane a fourni environ 500 observations par jour correspondant à une centaine d’objets non catalogués en surveillant une zone dix fois plus large en élévation. Figure 1.4 – Le Cobra Dane est connecté de manière permanente au SSN depuis 2003, bien qu’il ait été conçu pour la surveillance d’essais de tirs de missiles balistiques sovié- tiques. 8Chapitre 1 : Contexte de la surveillance de l’espace Le SSN américain permet au Commandement Stratégique américain (USSTRATCOM) de fournir un catalogue d’objets spatiaux de manière discrétionnaire (catalogue Space-Track et modèle dynamique SGP [14]). Ce catalogue contient en effet les paramètres orbitaux de plus de 20 000 objets de diamètre supérieur à 5 cm en orbite autour de la Terre [8]. Parmi eux, plus de 11 000 sont sur des orbites basses (altitude inférieure à 2000 Km). 1.3.2 Les systèmes européens Certains pays européens ont développé des systèmes de surveillance de l’espace, tels que par exemple le radar imageur Tracking and Imaging Radar (TIRA). Cependant, le capteur français Grand Réseau Adapté à la Veille Spatiale (GRAVES), développé par l’Office National d’Études et de Recherches Aérospatiales (ONERA) et opéré par le Commandement de la Défense Aérienne et des Opérations Aériennes (CDAOA), constitue la capacité unique en Europe de cataloguer de nouveaux objets indépendamment du catalogue américain. Le capteur français GRAVES est un radar bistatique à émission continue monofréquence et à détection Doppler [15]. Il est constitué de quatre panneaux équirépartis en azimut tous les 45˚pour l’émission, et d’un réseau d’une centaine d’antennes omnidirectionnelles déployées à environ 400 Km du site d’émission (Figure 1.5). Chaque panneau génère un faisceau de 20˚verticalement et de 8˚horizontalement qui balaye 45˚en azimut, l’ensemble des 4 panneaux produisant un balayage horizontal continu. Un traitement des signaux issus des antennes de réception permet un pavage de la zone éclairée par Formation de Faisceaux par le Calcul (FFC) afin de situer avec plus de précision les objets détectés. Par ailleurs, le très faible couplage entre l’émission et la réception permet l’utilisation de matériel moins avancé technologiquement et moins onéreux que dans des systèmes monostatiques ou quasimonostatiques à performances égales en portée. En effet, les systèmes (quasi-) monostatiques à une émission pulsée nécessitent une puissance d’émission maximale plus élevée et sont fortement contraints technologiquement. En revanche, le radar du système GRAVES fournit des mesures d’angles et de vitesse radiale mais pas directement de mesure de distance. 1.4 Conclusion du chapitre Ce chapitre a permis dans un premier temps d’appuyer la nécessité de développer une capacité de surveillance spatiale. En effet, les systèmes spatiaux sont utilisés au cœur d’un grand nombre d’applications devenues indispensables. Ces systèmes doivent par conséquent être protégés des risques de collision avec les débris spatiaux. Par ailleurs, l’espace étant un domaine d’intérêt stratégique fort, une capacité de surveillance permet de se prémunir contre une utilisation potentiellement hostile de certains de ces systèmes. Les systèmes existants pour la surveillance des orbites basses, à titre d’exemple le 91.4 Conclusion du chapitre Figure 1.5 – Le site de réception du système GRAVES est composé d’un réseau d’une centaine d’antennes omnidirectionnelles. Un traitement des signaux issus des antennes de réception permet un pavage de la zone éclairée par Formation de Faisceaux par le Calcul (FFC). FPS-85 et le Cobra Dane, sont en général composés de capteurs de taille colossale, l’effort ayant été porté sur la conception du capteur physique. Par opposition, GRAVES est un système prouvant qu’un traitement de données plus sophistiqué permet de modifier l’équilibre entre l’effort porté sur le capteur et l’effort porté sur le traitement. Les travaux présentés dans cette thèse concernent le catalogage de petits objets en orbite basse. À partir des détections d’un capteur plus simple et moins complexe à mettre en œuvre que nous définissons au Chapitre 2, nous proposons des méthodes de traitement innovantes contribuant à l’apport d’une solution pour le catalogage de petits objets spatiaux. Nous montrons alors que l’utilisation d’algorithmes adaptés peut permettre l’exploitation de données issues d’un capteur physique moins complexe que les capteurs américains mentionnés pour atteindre des performances comparables. 10Chapitre 2 Paramétrage d’un radar pour la détection de petits objets Dans ce chapitre, nous choisissons une configuration particulière de radar monostatique à émission pulsée permettant la détection de petits objets grâce à un champ de veille réduit. Dans un premier temps, quelques notions fondamentales liées au fonctionnement d’un radar sont présentées. En particulier, la description de la chaîne de détection et de la mission permet d’introduire des notions de mesures disponibles et de performance de détection (probabilité de détection et taux de fausses alarmes). Ensuite, nous rappelons en quoi un compromis entre longueur d’onde émise et taille de l’emprise (champ de veille) peut permettre de faciliter la détection de petits objets. Enfin, nous adoptons un paramétrage de capteur pour la simulation de détections. Sommaire 2.1 Principe fondamental et définitions . . . . . . . . . . . . . 12 2.2 Mode de balayage Track While Scan (TWS) . . . . . . . 12 2.3 Émission pulsée versus émission continue . . . . . . . . . 14 2.3.1 Cas du radar monostatique en émission pulsée . . . . . . 14 2.3.2 Cas du radar bistatique en émission pulsée ou continue . 16 2.4 Traitement du signal reçu . . . . . . . . . . . . . . . . . . 16 2.4.1 Chaîne de détection . . . . . . . . . . . . . . . . . . . . . 17 2.4.2 Non-détections et fausses alarmes . . . . . . . . . . . . . . 17 2.5 Influence de la fonction sur le choix de la longueur de l’onde émise . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.5.1 RSB en fonction des paramètres du radar et des cibles . . 20 2.5.2 Influence du FOR Ψ . . . . . . . . . . . . . . . . . . . . . 21 2.5.3 SER en fonction de la longueur de l’onde émise . . . . . . 21 2.6 Choix d’une configuration et d’un paramétrage de capteur envisageable . . . . . . . . . . . . . . . . . . . . . . . . 23 2.6.1 Choix d’une configuration monostatique pulsée . . . . . . 23 2.6.2 Géométrie du champ de veille (Field Of Regard, FOR) . . 24 2.6.3 Précision des mesures . . . . . . . . . . . . . . . . . . . . 25 2.7 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . 25 112.1 Principe fondamental et définitions 2.1 Principe fondamental et définitions Le radar (RAdio Detection And Ranging) est un système qui permet de mesurer une ligne de visée et éventuellement une distance et/ou une fréquence Doppler associées à une cible en émettant une onde électromagnétique et en captant le signal réfléchi sur la cible [16, 17]. La Figure 2.1 schématise le trajet de l’onde émise dans le cas monostatique, i.e. l’émetteur et le récepteur sont confondus, et dans le cas bistatique, i.e. les positions de l’émetteur et du récepteur sont distinctes. Il existe également des systèmes multistatiques, i.e. comportant plusieurs sites d’émission et/ou de réception. Figure 2.1 – Trajet de l’onde émise entre la cible et la ou les antennes dans le cas monostatique (gauche), et le cas bistatique (droite). Pour la surveillance, le faisceau formé par le capteur (Field Of View, FOV) pointe une zone de l’espace (Field Of Regard, FOR) selon un maillage en un temps limité. Le nombre de pointages nécessaires pour couvrir toute la zone dépend du rapport entre les volumes du FOR et du FOV, sachant que le nombre de pointages possible est limité par la puissance disponible, la distance aux cibles (la durée minimale d’un pointage est conditionnée par le temps de propagation aller-retour de l’onde émise) et la cadence de veille. Figure 2.2 – Field Of Regard (FOR) et Field Of View (FOV) schématisés dans le cas d’un radar de veille monostatique grand champ. Le FOV, représenté par un faisceau bleu, pointe successivement sur chacune des cases du FOR en un temps limité avec d’éventuels recouvrements. 2.2 Mode de balayage Track While Scan (TWS) Un système de veille radar comprend deux parties complémentaires : l’une concerne le capteur physique, l’autre concerne le traitement des données issues de ce capteur. 12Chapitre 2 : Paramétrage d’un radar pour la détection de petits objets À l’interface entre ces deux aspects fondamentaux se trouvent les fonctions de gestion du pointage [18]. Pour assurer une mission de veille, un système radar oriente le FOV (faisceau) de manière à balayer la zone à surveiller en un temps limité. On distingue en particulier deux stratégies de balayage : le mode Track While Scan (TWS) dont GRAVES est un représentant utilise une routine de balayage fixe et n’alloue aucune ressource à la poursuite active (Figure 2.4) tandis qu’une variante de ce mode autorise la poursuite active, ou Active Tracking (AT), des objets nouvellement détectés (Figure 2.3) à l’instar du FPS-85. La Figure 2.5 illustre un parcours possible suivi par le FOV dans le cas TWS et dans le cas AT. Capteur physique Traitement de données Traitement du signal Estimation de trajectoire locale Antenne Gestion du pointage Association d’observations Gestion de pistes etc. signaux consignes prédictions observations Figure 2.3 – Diagramme de flux simplifié d’un système de veille radar avec poursuite active (Active Tracking, AT). Capteur physique Traitement de données Traitement du signal Antenne Gestion du pointage Association d’observations Gestion de pistes etc. signaux consignes observations Figure 2.4 – Diagramme de flux simplifié d’un système de veille radar sans poursuite active (Track While Scan). Dans le cas avec AT, l’intégration de fonctions d’association d’observations et d’estimation de trajectoires locales requises dans une boucle de rétroaction augmente la complexité du système en comparaison à une chaîne simple, comme dans le cas TWS. En effet, la variante TWS n’est pas confrontée à des problèmes complexes liés à la gestion des ressources du capteur, en plus de la difficulté propre à l’implémentation de telles fonctions. Par exemple, générer un faisceau pour suivre un objet en particulier implique une allocation de temps au détriment de la période de balayage. Par conséquent, un fonctionnement AT implique en général une capacité maximale d’objets présents dans le FOR. Le mode de fonctionnement TWS n’ayant pas ce genre de contrainte, la routine de pointage qui y est associée est indépendante et donc relativement simple. 132.3 Émission pulsée versus émission continue Figure 2.5 – Parcours possibles du FOV dans un repère capteur dans le cas de la veille (gauche) en Track While Scan et dans un cas de la veille avec Active Tracking (droite). Chaque case correspond à une ligne de visée. Chaque case rouge correspond à une détection. Dans le cas de la veille avec Active Tracking (droite), chaque case jaune correspond à une détection antérieure. 2.3 Émission pulsée versus émission continue Dans cette étude, nous faisons l’hypothèse d’un radar à émission pulsée. Nous donnons dans cette section les principaux éléments permettant de faire ce choix en décrivant les deux modes d’émission possibles. Les radars à émission pulsée temporellement permettent de mesurer une durée de propagation entre l’émission d’une impulsion et sa réception. Le signal en question doit être d’autant plus large dans le domaine fréquentiel (afin que l’impulsion soit courte) que l’on souhaite avoir une bonne résolution en distance (cf. Section 2.3.1), ce qui nécessite une puissance d’émission maximale plus élevée avec des contraintes technologiques assez fortes sur les émetteurs et récepteurs, notamment en termes de synchronisation et de découplage. Par conséquent, son émission implique en général un système plus complexe, plus coûteux et plus susceptible de générer des difficultés à se voir allouer la bande nécessaire. Par opposition, l’émission continue permet de restreindre l’émission à une bande fréquentielle étroite, mais pose des problèmes de couplage et d’isolation entre émission et réception. En général, une configuration multistatique est préférée dans le cas d’une émission continue, car la distance entre les sites d’émission et de réception permet de s’affranchir de ces contraintes. Alors que l’émission pulsée permet naturellement une mesure de distance et éventuellement une mesure de vitesse radiale par le calcul, l’émission continue permet une mesure de vitesse radiale et un calcul d’accélération radiale. L’émission continue peut néanmoins fournir une mesure de distance par modulation du signal (modulation de fréquence, par exemple), ce qui implique un élargissement de la bande de fréquence émise. 2.3.1 Cas du radar monostatique en émission pulsée Le principal intérêt d’un radar monostatique à émission pulsée est la possibilité de mesurer sa distance à la cible. Pour cela, une impulsion est émise avec une certaine Période de Répétition de l’Impulsion (TPRI) et l’on utilise la relation entre la distance 14Chapitre 2 : Paramétrage d’un radar pour la détection de petits objets R du capteur à la cible et la durée de propagation ter des impulsions. Temps Signal τ ter TPRI Figure 2.6 – La durée de propagation ter entre l’impulsion émise (puissance élevée) représentée en bleu et l’écho (puissance faible) représenté en rouge permet de calculer la distance R à la cible. En général, le radar n’émet pas pendant la période d’écoute (TPRI − τ ). La distance R est alors obtenue pour chaque impulsion d’après équation (2.1) à ∆R près, où c est la vitesse de la lumière et τ est la largeur temporelle de l’impulsion. R = cter 2 ∆R = cτ 2 (2.1) Dans le cadre de la surveillance de l’espace, la distance R est en général de l’ordre de plusieurs milliers de kilomètres, ce qui implique une conception du capteur et du traitement des données particulière en comparaison à d’autres applications plus “courantes” telles que la surveillance aérienne où les cibles sont distantes de quelques dizaines de kilomètres seulement. La vitesse radiale R˙ de la cible peut se mesurer à condition d’émettre plusieurs impulsions dans sa direction [16]. En effet, la vitesse radiale R˙ peut s’obtenir grâce au déphasage ∆Φ entre deux impulsions successives, par l’équation (2.2) où λe est la longueur de l’onde émise. R˙ = λe∆Φ 4πTPRI (2.2) Le déphasage ∆Φ étant limité à un domaine de largeur 2π, la vitesse radiale maximale mesurable sans ambiguïté vaut R˙ max = λe 2TPRI . De même, la portée maximale mesurable sans ambiguïté est de Rmax = cTPRI 2 , ce qui implique de trouver un compromis entre distance maximale et vitesse radiale maximale des objets d’intérêt [16]. Dans le cadre de la veille, on envisage rarement d’envoyer suffisamment d’impulsions dans la même direction sur une même période de balayage pour mesurer une vitesse radiale avec précision. En effet, le nombre d’impulsions émises dans chaque direction est limité par la période de balayage et la puissance disponible, en plus d’une grande distance aux cibles. 152.4 Traitement du signal reçu 2.3.2 Cas du radar bistatique en émission pulsée ou continue On appelle radar bistatique un radar dont les antennes d’émission et de réception sont séparées d’une distance Lβ. Il est possible d’utiliser une telle configuration avec une émission pulsée ou une émission continue. Dans le cas de l’émission pulsée, la relation entre la durée de propagation du signal et la distance parcourue est analogue au cas monostatique, comme le montre équation (2.3), où Re est la distance entre l’antenne d’émission et la cible, et Rr la distance entre l’antenne de réception et la cible. Cible Site d’émission Site de réception β θr Lβ Re Rr Figure 2.7 – Le triangle bistatique est formé par les sites d’émission et de réception et la position de la cible. Re + Rr = c × ter (2.3) On peut alors exprimer la distance Rr en se plaçant dans le triangle bistatique (triangle formé par la position de la cible et des deux sites du capteur), tel qu’en équation (2.4), où Lβ est la distance qui sépare le site d’émission du site de réception et θr l’angle de visée de l’antenne de réception dans le triangle bistatique. Rr = (Rr + Re) 2 − L 2 β 2(Rr + Re + Lβ sin θr) (2.4) Dans le cas d’une émission continue, on peut mesurer la fréquence Doppler bistatique fd et en déduire la vitesse R˙ β par équation (2.5), où fe est la fréquence d’émission et R˙ β la vitesse de la cible projetée sur la bissectrice de l’angle bistatique β (angle émission-cible-réception), tel que défini sur la Figure 2.7. fd = 2R˙ β c fe cos(β/2) (2.5) 2.4 Traitement du signal reçu La puissance reçue étant atténuée d’un facteur proportionnel à 1 R4 par rapport à la puissance émise, une chaîne de traitement est nécessaire afin de déterminer la 16Chapitre 2 : Paramétrage d’un radar pour la détection de petits objets présence ou non de l’impulsion émise dans le signal reçu. La conception d’une telle chaîne de traitement requiert la définition du Rapport Signal à Bruit RSB (équation (2.6)), c’est-à-dire le rapport entre la puissance du signal Pr et la puissance du bruit PΣb , utilisé comme critère de décision sur la présence d’une cible. La chaîne de traitement a pour but de maximiser le RSB à une distance de référence Rréf. RSB = Pr PΣb (2.6) 2.4.1 Chaîne de détection Une chaîne de détection classique simplifiée comporte une étape de mise en forme du signal reçu (amplification, filtrage, etc.), une étape de corrélation et une étape de seuillage (décision) [16], comme l’illustre la Figure 2.8. Dans cette section, nous faisons l’hypothèse d’un radar monostatique à émission pulsée, le cas bistatique à émission continue étant analogue. Mise en forme Corrélation Seuillage Signal émis Signal reçu Observations Figure 2.8 – Chaîne de détection classique d’un radar (émission pulsée) à corrélation. Pour maximiser le rapport signal à bruit RSB en sortie d’un bloc de mise en forme, on peut construire un filtre optimal au sens de la maximisation du RSB par corré- lation (cf. Annexe A). 2.4.2 Non-détections et fausses alarmes Afin de décider de la détection ou non d’une cible, un seuil de détection sD doit être défini par rapport au RSB. Cela implique un taux de fausses alarmes non-nul et une probabilité de non-détection non-unitaire, i.e. le niveau d’un signal dû au bruit seul peut franchir le seuil de détection, tandis qu’un écho trop faible peut ne pas le franchir. Par conséquent, les performances de détection d’un radar se définissent principalement par la probabilité de détection PD et la probabilité de fausse alarme PFA [16]. 172.4 Traitement du signal reçu RSB Densité de probabilité sD Absence de cible (bruit seul, p(Σb)) Présence de cible (bruit et écho) 1 − PD PFA Figure 2.9 – Densités de probabilité du RSB selon la présence ou l’absence de cible. La définition d’un seuil implique une probabilité de détection PD non-unitaire et une probabilité de fausse alarme PFA non-nulle. Expression de la probabilité de fausse alarme La probabilité de fausse alarme [16, 17] représente la probabilité que le système délivre une détection due non pas à la présence d’un objet dans le FOV mais au bruit. Si b est le signal aléatoire lié au bruit et normalisé par la puissance Pb du bruit, alors la densité du signal b en sortie du détecteur est donnée par équation (2.7), et équation (2.8) exprime la densité de la somme Σb de n réalisations bi du signal b. p(b) = e −b/Pb (2.7) p(Σb) = Σ n−1 b e −Σb (n − 1)! (2.8) La probabilité de fausse alarme PFA s’exprime alors tel que : PFA = Z ∞ sD p(Σb)dΣb = Z ∞ sD Σ n−1 b e −Σb (n − 1)! dΣb (2.9) La valeur du seuil de détection sD adéquate se déduit d’une valeur de PFA spécifiée par la mission ou par les limites du traitement de données aval. En général, PFA se déduit d’un taux de fausses alarmes voulu (par exemple, 1FA/s) et du nombre de tests à réaliser. Expressions de la probabilité de détection Pour calculer la probabilité de détection PD, il est nécessaire de faire une hypothèse de modèle de réflexion, c’est-à-dire sur la manière dont l’onde est réfléchie par l’objet. Cette réflexion est caractérisée par la Surface Équivalente Radar (SER) désignée par 18Chapitre 2 : Paramétrage d’un radar pour la détection de petits objets σ, qui correspond à la surface reflétant l’onde émise vers un récepteur. En général, on choisit un des quatre modèles de Swerling [19, 16], chaque modèle correspondant à un type de réflexion, c’est-à-dire à des propriétés statistiques des objets observés : – Swerling I décrit une rétro-diffusion constante sur n récurrences mais variable d’un balayage à l’autre. – Swerling II est analogue à Swerling I, les réalisations de σ étant indépendantes d’une récurrence à l’autre. – Swerling III correspond à plusieurs zones de réflexion disparates, constantes sur n récurrences mais variable d’un balayage à l’autre. – Swerling IV est analogue à Swerling III, les réalisations des σ étant indépendantes d’une impulsion à l’autre. Le choix du modèle de réflexion (densité de la SER σ) conditionne l’expression de la probabilité de détection PD. Par exemple, équation (2.10) exprime PD sous l’hypothèse d’un modèle Swerling I pour une unique impulsion (n = 1). PD, Swerling I = P  1 1+RSB  FA (2.10) Sachant une valeur de PFA on cherche à atteindre une valeur de RSB telle que PD est le plus haut possible. À titre d’exemple, la Figure 2.10 montre qu’il faut atteindre un RSB de l’ordre de 20 dB (pour une distance de référence Rréf) pour une PFA de 10−5 , si l’on souhaite obtenir une valeur de PD proche de 0,9 dans le cas d’un modèle de Swerling I pour une unique impulsion. 0 5 10 15 20 25 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 SNR (dB) PD PFA = 1.10−3 PFA = 1.10−5 PFA = 1.10−7 PFA = 1.10−9 Figure 2.10 – PD en fonction de RSB pour quatre valeurs de PFA selon un modèle de Swerling I pour une unique impulsion. 192.5 Influence de la fonction sur le choix de la longueur de l’onde émise 2.5 Influence de la fonction sur le choix de la longueur de l’onde émise Il s’agit maintenant d’identifier l’influence de la longueur de l’onde émise sur le RSB selon la fonction à remplir. Celle-ci dépend des paramètres du radar, des cibles et du milieu de propagation. 2.5.1 RSB en fonction des paramètres du radar et des cibles L’équation de propagation du radar (équation (2.11)) permet d’exprimer le RSB dans le cas de l’émission d’une seule impulsion tel qu’en équation (2.12) (on obtient une expression analogue dans le cas continu), où Pr est la puissance du signal reçu, P est la puissance fournie, Ge et Gr sont les gains des antennes d’émission et de réception, respectivement, λe est la longueur de l’onde émise, σ(fe) est la Surface Équivalente Radar (SER), R est la distance entre la cible et l’antenne d’émission ou de réception, L les pertes ou gains liés au parcours de l’onde (pertes atmosphériques, gain dû aux réflexions multiples, etc.) ou liées au système (pertes de traitement, etc.) et la quantité PΣb = kT∆F représente la puissance du bruit avec k la constante de Boltzmann, T la température équivalente de bruit thermique, ∆F la largeur de bande après filtrage. Pr = P GeGrλ 2 eσ(fe) (4π) 3R4L (2.11) RSB = Pr PΣb = P GtGrλ 2 eσ(fe) (4π) 3R4LPΣb (2.12) Une augmentation de fréquence d’émission pénalise fortement le RSB du fait d’un facteur λ 2 e au numérateur. Une augmentation de cette fréquence doit alors être compensée, par exemple par une augmentation de la puissance d’émission, afin de maintenir les performances en détection (PD et PFA). Dans le cadre de la veille, une augmentation en fréquence peut être compensée de manière équivalente par une ré- duction du champ de veille. C’est ce facteur d’échange que nous utilisons afin de maintenir une puissance totale émise limitée tout en jouant sur la dépendance en fe de la SER σ(fe). Par ailleurs, une intégration cohérente sur n impulsions améliore le RSB d’un facteur n au prix d’une durée de pointage tp = nTPRI [16, 17], ce qui justifie l’intérêt d’envoyer plusieurs impulsions dans chaque direction si le temps imparti le permet. Cependant, seulement une ou deux récurrences sont effectuées dans le cas de la surveillance de l’espace en général, du fait d’un budget temps limité et de la durée de propagation relativement longue. 20Chapitre 2 : Paramétrage d’un radar pour la détection de petits objets 2.5.2 Influence du FOR Ψ Le bilan en veille, obtenu à partir de l’équation (2.12) en exprimant notamment les gains Ge et Gr en fonction des surfaces des antennes et de la longueur d’onde, peut s’exprimer selon l’équation (2.13) où dPe est la densité surfacique de puissance émise, St la surface d’émission, Sr la surface de réception, η la charge de poursuite (dans le cas Active Tracking), β le recouvrement des faisceaux en veille, Ψ le FOR et tv la période de revisite. Cette équation met en évidence que le RSB ne dépend pas directement de la fré- quence d’émission (il en dépend cependant par l’intermédiaire de σ), et qu’il est limité par un FOR Ψ le plus grand possible et par une période de balayage tv la plus petite possible. Le nombre de pointages nécessaires pour couvrir l’intégralité du FOR Ψ est donné par équation (2.14). RSBveille = dPeSeSrσ(fe) 4πR4LPΣb × (1 − η)βtv Ψ (2.13) N = SeΨ βλ2 e (2.14) Dans le cadre d’une fonction de veille, le choix de la longueur d’onde λe conditionne le nombre de pointages nécessaires (car λe influence la taille du FOV) mais également l’ordre de grandeur de la SER σ, comme nous le voyons plus en détails dans la Section 2.5.3. Une variation de la longueur d’onde λe peut alors être compensée par une variation du volume de surveillance Ψ afin de maintenir le nombre de pointages nécessaires à une valeur acceptable (et donc la puissance totale nécessaire au balayage). 2.5.3 SER en fonction de la longueur de l’onde émise La SER d’un objet dépend de nombreux facteurs, notamment de sa taille, de sa forme, de son attitude, de son matériau mais également de la longueur de l’onde qui l’éclaire. En effet, des considérations simplificatrices d’électromagnétisme [20, 19] permettent de tracer les courbes présentées en Figure 2.11 dans le cas d’une sphère. Pour les objets de diamètre inférieur à 10 cm, il apparaît que le choix d’une fréquence d’émission de 1250 MHz devrait permettre d’obtenir une SER supérieure à celle que l’on obtiendrait en utilisant une fréquence d’émission de 435 MHz. Des travaux menées par la NASA fourniraient une relation entre la taille d’un objet, sa SER et la fréquence d’émission sous une hypothèse de sphéricité. Les SER d’un échantillon représentatif de petits débris ont été mesurées pour différentes attitudes, à différentes fréquences d’émission. Des modèles expérimentaux ont alors été recalés et une interpolation des mesures fournit les courbes présentées en Figure 2.12, où le diamètre efficace est la moyenne de trois épaisseurs d’un objet mesurées dans trois directions orthogonales [21]. 212.5 Influence de la fonction sur le choix de la longueur de l’onde émise Figure 2.11 – Surface Équivalente Radar théorique en fonction du diamètre d’une sphère parfaite, aux fréquences 435 MHz, 1250 MHz et 3200 MHz. Figure 2.12 – Surface Équivalente Radar empirique lissée en fonction du diamètre efficace d’objets représentatifs, aux fréquences 435 MHz, 1250 MHz et 3200 MHz. Ces expériences soutiennent l’hypothèse selon laquelle la SER d’une cible est fonction entre autres de son diamètre et de la fréquence de l’onde qui l’éclaire. Augmenter la fréquence d’émission conduit donc à diminuer le diamètre minimal des objets détectables à bilan égal. Cette augmentation de fréquence implique cependant une augmentation du nombre de pointages nécessaires (équation (2.14)). Sous une contrainte de période de balayage tv et de FOR Ψ fixes, davantage de puissance est alors nécessaire. Ce sur-coût peut cependant être compensé par exemple en réduisant la taille du FOR Ψ. En revanche, le nombre d’observations à chaque passage d’un objet dans leur FOR ainsi la fréquence de passage sont fortement réduits, ce qui rend plus difficile le traitement de données. 22Chapitre 2 : Paramétrage d’un radar pour la détection de petits objets 2.6 Choix d’une configuration et d’un paramé- trage de capteur envisageable Les performances du capteur physique sont contraintes par, entre autres, le type et la taille de ou des antennes, la puissance d’émission, la fréquence et la bande d’émission. La plupart des radars de surveillance spatiale américains sont le résultat d’efforts particuliers. En effet, c’est au prix de capteurs de grande taille comme le FPS-85 et Cobra Dane, que le SSN américain est capable de détecter et de suivre des objets relativement petits (de diamètre supérieur à 4 ou 5 cm). En revanche, le système français GRAVES adopte une stratégie différente du fait de spécifications et de contraintes différentes : le capteur physique, bistatique et à bande étroite, est comparativement de faible coût mais fournit des mesures de vitesse radiale (Doppler pour GRAVES vs distance pour le FPS-85 et Cobra Dane) dont sont déduites des positions sous la contrainte d’un nombre d’observations disponibles minimal. Nous choisissons d’adopter un mode de balayage Track-While-Scan (TWS) car cette stratégie est la plus simple d’un point de vue “système” (sans bouclage) (Figure 2.4). Les observations issues du capteur physique sont alors acheminées vers un centre de traitement de données dont le rôle est d’associer les observations entre elles et d’en déduire les orbites des objets détectés. Cela fait intervenir principalement des techniques de pistage multicible et d’orbitographie, dont les performances dépendent des moyens investis sur le capteur physique et de la nature des cibles. En effet, les performances en détection (détections et fausses alarmes), la précision des mesures, le nombre d’observations par traversée du champ de veille, la fréquence de traversée du champ de veille, etc., ont un impact fort sur les performances de l’algorithme de pistage. 2.6.1 Choix d’une configuration monostatique pulsée Nous faisons l’hypothèse de l’utilisation d’un radar monostatique à émission pulsée dans la suite de ce document. En effet, une observation délivrée par un radar à émission pulsée, i.e. deux angles et une distance, est une information riche car chaque observation fournit directement une connaissance de la position de l’objet contrainte sur les trois dimensions. Une mesure précise de vitesse radiale est difficile à envisager en complément d’une mesure de distance dans le cas d’un radar à émission pulsée pour la surveillance de l’espace, du fait d’un budget de temps limité et de la grande portée requise. En effet, d’une part le volume à surveiller (Field Of Regard, FOR) est très grand et doit être parcouru à une cadence assez rapide pour éviter que des objets y passent sans être détectés, si bien que très peu d’impulsions sont envoyées dans chaque direction et que, par conséquent, un calcul de vitesse radiale, s’il est possible, serait de faible pré- cision. D’autre part, la nécessité d’une grande portée impose le choix d’une Période de Répétition de l’Impulsion (TPRI) élevée, si bien que la vitesse radiale maximale admise sans ambiguïté serait trop faible pour s’appliquer aux objets en orbite basse. Par conséquent, nous considérons qu’un radar à émission pulsée fournit une mesure 232.6 Choix d’une configuration et d’un paramétrage de capteur envisageable de distance en plus de deux angles, mais pas de mesure de vitesse radiale. Par opposition, l’information fournie lors d’une unique observation par un radar à émission continue, i.e. deux angles et une vitesse radiale, est une information moins riche. En effet, la mesure de deux angles permet de contraindre la position possible de l’objet à une ligne de visée, tandis que la mesure de vitesse radiale n’est qu’une projection de la vitesse sur cette ligne de visée. Ni la position, ni la vitesse ne sont donc connues intégralement. Dans le cadre de la surveillance de l’espace, plusieurs observations successives de cette nature sont nécessaires afin de compléter la connaissance des positions de l’objet utiles à l’estimation d’orbite, ce qui impose des contraintes sur l’étendue du FOR. Sachant qu’un radar bistatique est potentiellement d’un moindre coût, adopter une configuration monostatique pulsée représente une hypothèse relativement forte mais permet dans un premier temps de développer des techniques plus intuitives, tout en gardant à l’esprit que ces techniques devront être adaptées à d’autres types de systèmes, si nécessaire. 2.6.2 Géométrie du champ de veille (Field Of Regard, FOR) La détection d’objets plus petits par l’augmentation de la fréquence d’émission impose une diminution de la taille du FOR à faisabilité équivalente, comme mentionné en Section 2.5.2. Par conséquent, on cherche à surveiller une zone de l’espace la plus petite possible tout en permettant au plus grand nombre d’objets possible de se trouver régulièrement dans le FOR et en interdisant la non-détection d’un objet lors d’une traversée due à une cadence de revisite trop faible vis-à-vis d’une étroitesse du FOR. Les objets en orbite basse ayant des orbites en général fortement inclinées (cf. Chapitre 3), nous choisissons un FOR orienté vers le plan équatorial, large de 160˚en azimut, afin de permettre la détection régulière d’un grand nombre d’objets, et large de 2˚en élévation, ce qui traduit la réduction du FOR recherchée. Nous positionnons arbitrairement le capteur à une latitude de 45˚N. Sa ligne de visée est orientée vers le Sud avec une élévation arbitraire de 20˚par rapport à l’horizon. Figure 2.13 – Schéma représentant la zone de l’espace surveillée (bleue) ainsi qu’une observation (rouge) issue d’un objet dont l’orbite (très inclinée) est représentée. Sachant que la vitesse d’un objet en orbite à une altitude constante de 150 Km est 24Chapitre 2 : Paramétrage d’un radar pour la détection de petits objets North ⊙Up East Élévation Azimuth c u ECF X u ECF Z North Up c Latitude Élévation de la ligne de visée O Figure 2.14 – Forme et orientation du FOR dans un référentiel East-North-Up (cf. Chapitre 3) de l’ordre de 8 Km/s, le FOR ainsi défini doit être revisité à une période de l’ordre de 10 s pour qu’aucun objet ne puisse le traverser sans être observé au moins une fois. Par ailleurs, compte tenu du volume de surveillance, on estime qu’un taux de fausses alarmes de 1 FA/s est une hypothèse raisonnable, ce qui induit en moyenne 10 FA/Scan. 2.6.3 Précision des mesures Si l’on choisit de se placer à une fréquence d’émission fe plus élevée (par exemple fe = 1 GHz), la Surface Équivalente Radar (SER) des objets plus petits augmente (Figure 2.12). Sachant la densité moyenne d’objets présents dans le FOR, et la géométrie de ce dernier, il faut atteindre une portée maximale de 4000 Km et l’on considère qu’une précision de mesure radiale σρ de 30 m et une précision de mesure angulaire σθ de 0,2˚sont suffisantes et atteignables (par exemple, le Cobra Dane fournit des mesures avec une précision de 3 m et de 0,05˚ à 1-sigma [13]). On peut calculer les ordres de grandeur de certains paramètres dimensionnants (∆F et l) liés à la précision de mesure grâce à l’équation (2.15) et l’équation (2.16), où c est la vitesse de la lumière (m/s), ∆F la largeur de bande émise (Hz), λ la longueur de l’onde émise (m) et l la largeur de l’antenne (m). σρ ≃ c 5∆F √ 2RSB m (2.15) σθ ≃ 50λe 1, 2l √ RSB deg (2.16) 2.7 Conclusion du chapitre Réduire la taille du FOR peut être une manière de faciliter la détection des objets plus petits tout en permettant le maintien d’une puissance totale émise limitée dans un contexte de veille à haute fréquence. Ainsi, nous avons exposé les hypothèses de travail que constituent les caractéristiques, notées Θ, de capteur choisies : 252.7 Conclusion du chapitre – Configuration monostatique pulsée, – Situé à 45˚N, ligne de visée orientée vers le Sud avec une élévation de 20˚, – FOR de 160˚×2˚, période de revisite de 10 s, – Mesure de position (ρ, θ, φ) avec des précisions de σρ =30 m et σθ = σφ =0,2˚, – Probabilité de détection moyenne PD =0,9 et taux de fausse alarme de 1 FA/s pour un bilan et une distance de référence. À partir de ce paramétrage Θ de capteur permettant la détection de petits objets, nous développons des algorithmes pour le catalogage permettant d’exploiter au mieux les données générées. Cette hypothèse de capteur permet également d’évaluer les algorithmes développés dans cette thèse avec un certain degré de réalisme, bien que certaines hypothèses simplificatrices soient adoptées (par exemple, la précision de mesure angulaire est gardée constante alors que ce paramètre est variable selon le RSB et l’angle d’observation pour les capteurs à réseau d’antennes phasées), et nous supposons les probabilités de détection constantes et égales à une valeur moyenne PD. 26Chapitre 3 Modèles dynamiques et satellites en orbite basse Dans ce chapitre, deux modèles paramétriques usuels pour l’orbitographie sont pré- sentés : le modèle képlérien simple, qui permet de visualiser facilement le mouvement des objets en orbite, et le modèle Simplified General Perturbations (SGP), qui permet une meilleure précision pour la simulation de trajectoires en orbite basse ainsi qu’une utilisation cohérente des données publiques du catalogue Space-Track. Ces modèles simples sont adaptés aux problématiques traitées dans cette thèse, tant en précision qu’en puissance de calcul nécessaire. Pour présenter ces modèles, quelques systèmes de coordonnées classiques sont rappelés dans un premier temps. Les équations du modèle képlérien de base ou avec J2 sont ensuite brièvement décrites, et le modèle SGP ainsi que le catalogue Space-Track sont présentés d’un point de vue pratique (sans la lourdeur des équations). Enfin, les répartitions des objets en orbite basse sur certains paramètres orbitaux sont présentées afin de cerner les particularités de la population d’objets que nous cherchons à cataloguer. Sommaire 3.1 Systèmes de coordonnées usuels . . . . . . . . . . . . . . 28 3.1.1 Référentiels géocentriques inertiel (ECI) et fixe (ECF) . . 28 3.1.2 Référentiel Géodésique . . . . . . . . . . . . . . . . . . . . 28 3.2 Potentiel terrestre . . . . . . . . . . . . . . . . . . . . . . . 29 3.3 Le modèle képlérien . . . . . . . . . . . . . . . . . . . . . . 30 3.3.1 Modèle simple . . . . . . . . . . . . . . . . . . . . . . . . 30 3.3.2 Dérive des paramètres orbitaux . . . . . . . . . . . . . . . 32 3.4 Le modèle SGP . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.4.1 Modélisation du potentiel terrestre . . . . . . . . . . . . . 33 3.4.2 Modélisation paramétrique de la traînée atmosphérique . 34 3.5 Le catalogue Space-Track . . . . . . . . . . . . . . . . . . . 34 3.5.1 Format des éléments . . . . . . . . . . . . . . . . . . . . . 34 3.5.2 Distribution des paramètres orbitaux . . . . . . . . . . . . 35 3.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . 36 273.1 Systèmes de coordonnées usuels 3.1 Systèmes de coordonnées usuels Décrire une trajectoire nécessite la définition de référentiels. En effet, la trajectoire d’un satellite peut être représentée au premier ordre par une ellipse dans un référentiel géocentrique inertiel tandis que la même trajectoire dans un référentiel géocentrique fixe fait apparaître une intertrace (un satellite ne survole pas la même zone d’une révolution à l’autre). De même, il peut être utile de caractériser dans un réfé- rentiel géodésique certains points particuliers de la trajectoire, comme par exemple la position du satellite à un instant t ou encore la latitude maximale survolée. 3.1.1 Référentiels géocentriques inertiel (ECI) et fixe (ECF) Un système de coordonnées classique et intuitif pour représenter les orbites est le référentiel Géocentrique Inertiel (ECI) à coordonnées cartésiennes ou polaires [22]. Son repère, orthogonal, est centré sur le centre de masse de la Terre et deux de ses axes sont dans le plan équatorial, le troisième axe étant l’axe polaire. Ces axes pointent vers des étoiles lointaines, ce qui rend leurs directions fixes dans l’espace de l’univers physique. La Terre est en rotation par rapport à ce repère. Le repère du référentiel Géocentrique Fixe (ECF) RECF est solidaire de la rotation de la Terre. Il est le résultat de la rotation du repère ECI RECI d’un angle θsidéral = ωsidéral∆t autour de l’axe polaire, où ωsidéral est la vitesse de rotation angulaire propre de la Terre dans un repère ECI et ∆t est le temps écoulé depuis une date de référence. L’équation (3.1), où RECF, resp. RECI, définit la matrice des vecteur du repère d’un référentiel ECF, resp. ECI, et RuZ (θsidéral) représente la matrice de rotation d’angle θsidéral autour de l’axe polaire uZ. RECF = RuZ (θsidéral)RECI (3.1) Nous négligeons ici les phénomènes de précession et de nutation (rotations de l’axe de rotation de la Terre autour d’axes proches), ces phénomènes n’ayant une influence significative que sur des échelles de temps supérieures à celle des scénarios traités dans cette thèse (quelques jours). 3.1.2 Référentiel Géodésique Le système de coordonnées géodésiques est également très répandu. Il utilise un axe orthogonal à un plan tangent passant par un point de la surface du globe pour définir l’altitude hgéo par rapport à la surface de la Terre ainsi que la latitude φgéo et la longitude θgéo, comme le décrit la Figure 3.2. Le repère local est un repère simple pour situer une observation par rapport au capteur associé. Le repère local considéré dans cette étude est centré sur le capteur avec un premier axe dans la direction de l’Est, un second axe dans la direction du Nord et un troisième axe vertical (repère East-North-Up). Pour passer de ce 28Chapitre 3 : Modèles dynamiques et satellites en orbite basse u ECI X u ECI Y u ECI Z u ECF X u ECF Y u ECF Z θsidéral Figure 3.1 – Le repère Géocentrique Fixe (ECF) RECF est le résultat de la rotation du repère ECI RECI d’un angle θsidéral. u ECF X u ECF Y u ECF Z S hgéo rfixe φgéo φfixe θfixe = θgéo Figure 3.2 – Le système de coordonnées géodésiques utilise un axe orthogonal à un plan tangent passant par un point de la surface du globe pour définir l’altitude hgéo ainsi que la latitude φgéo. repère à un repère ECF, on peut utiliser la composition de rotations définie par l’équation (3.2), où RENU est la matrice des vecteur du repère d’un référentiel local et rsite est le vecteur des coordonnées de l’origine du repère local. RECF =  − θgéo RuY π 2 − φgéo RuZ π 2  RENU + rsite (3.2) Les équations de passage entre le repère géodésique et le repère ECF sont données en Annexe B. 3.2 Potentiel terrestre L’attraction gravitationnelle permet la mise en orbite de satellites. Elle joue un rôle fondamental dans les modèles décrits par la suite. La loi de Newton exprime la force résultante fTS de l’attraction gravitationnelle entre deux masses ponctuelles T (par exemple la Terre) et S (par exemple un satellite), distantes de dTS par 293.3 Le modèle képlérien l’équation (3.3), où K est la constante gravitationnelle universelle. fTS = − KmTmS kdTSk 2 × dTS kdTSk (3.3) On définit le potentiel gravitationnel UT (S) de T pour tout point S par l’équation (3.4). fTS = gradS (UT (S)) (3.4) où dans le cas ponctuel, UT (S) s’exprime par l’équation (3.5). UT (S) = KmT kdTSk (3.5) La masse de la Terre est répartie sur son volume. On peut développer l’expression du potentiel terrestre U(r, φgéo) selon l’équation (3.6) [23], où µ = KmT est le paramètre gravitationnel terrestre standard, réq le rayon terrestre équatorial, r et φgéo sont respectivement la distance au centre et la latitude considérées, Jn est le coefficient harmonique zonal d’ordre n et Pn est le polynôme de Lagrange d’ordre n. UT(r, φgéo) = µ r " 1 − X∞ n=2  req r n JnPn (sin φgéo) # (3.6) À partir de l’expression (3.6), nous décrivons les modèles képlérien simple, képlérien avec J2 et SGP. 3.3 Le modèle képlérien 3.3.1 Modèle simple Le modèle képlérien simple ne considère que le premier terme du potentiel terrestre : UT, Kép.(r, φgéo) = µ r (3.7) Paramétrage classique Le modèle képlérien de base permet de décrire une orbite par une ellipse dans un référentiel ECI. Selon ce modèle, une orbite est représentée par sept paramètres (dont un paramètre indiquant la position du satellite sur l’ellipse). Le jeu de paramètres képlériens le plus classique comprend un paramètre de datation (to), deux paramètres de dimensions (ao, eo), trois paramètres d’orientation (io, Ωo, ωo) et un paramètre de position (νo) : 30Chapitre 3 : Modèles dynamiques et satellites en orbite basse – date associée à l’orbite to (s), – demi grand axe ao (m), – excentricité eo (sans unité), – inclinaison du plan orbital sur l’équateur io (˚), – longitude du noeud ascendant Ωo (˚), – argument du périgée ωo (˚), – anomalie vraie νo (˚), c’est-à-dire l’angle entre la position du satellite et un axe de référence. u ECI X u ECI Y u ECI Z io νo ωo Ωo Figure 3.3 – Le jeu de paramètres képlériens le plus classique comprend trois paramètres d’orientation (io, Ωo, ωo) et un paramètre de position (νo). Le paramètre de datation to permet de dater la position du satellite décrite par l’anomalie νo. De même, d’autres paramètres orbitaux peuvent varier sous l’effet de perturbations (moments supplémentaires du potentiel UT, traînée atmosphérique, etc.), ce qui impose de dater leurs valeurs. Paramètres alternatifs ou intermédiaires de calcul Dans la littérature [24, 25], plusieurs notions d’anomalies sont couramment utilisées : l’anomalie vraie νo, l’anomalie excentrique Eo et l’anomalie moyenne Mo. Nous utiliserons νo, Eo ou Mo selon le cas, sachant que ces trois anomalies représentent la même information (la position du satellite sur l’orbite). L’anomalie vraie νo correspond à l’angle entre l’axe du périgée (angle ωo) et la position géométrique réelle du satellite sur l’orbite comme l’indique la Figure 3.3. L’anomalie excentrique Eo est l’angle entre l’axe du périgée et la projection de la position réelle du satellite sur le cercle défini par une excentricité nulle (eo=0), les autres paramètres de l’orbite étant égaux par ailleurs. Enfin, l’anomalie moyenne Mo correspond à l’angle entre l’axe du périgée et la position du satellite si celui-ci avait une vitesse angulaire constante. Ces trois variantes sont liées par les équations suivantes : νo = 2 arctan s 1 + eo 1 − eo tan Eo 2 ! (3.8) Mo = Eo − eo sin Eo (3.9) 313.3 Le modèle képlérien Le calcul de Eo sachant Mo n’est pas trivial analytiquement. De même, nous utiliserons selon le cas le demi-grand axe ao ou le mouvement moyen no, que la troisième loi de Kepler permet de définir comme deux paramètres équivalents : no = s µ a 3 o (3.10) Par ailleurs, la connaissance des paramètres képlériens classiques est équivalente à la connaissance d’un vecteur position-vitesse. Les équations de passage sont indiquées en Annexe C. Propagation de l’orbite dans le temps Afin de prédire la position d’un satellite à l’instant to + ∆t sachant son orbite à un instant to, on intègre les paramètres variables sur ∆t. Dans le cas képlérien simple (sans J2) seul l’anomalie varie. Selon le paramètre choisi, la dérive moyenne est donnée par l’équation (3.11), l’équation (3.12) ou l’équation (3.13). M˙ o(t) = no (3.11) ν˙o(t) = ao r(t) !2 q 1 − e 2 o no (3.12) E˙ o(t) = ao r(t) no (3.13) En général, on préfère intégrer Mo et résoudre numériquement l’équation (3.9) en Eo. 3.3.2 Dérive des paramètres orbitaux Prendre en compte le second harmonique zonal (paramètre J2) permet d’affiner simplement le modèle képlérien de base. Le second harmonique zonal se traduit par les dérives des paramètres Ωo, ωo et νo. Les dérives moyennes de Ωo, ωo et νo (les dérives de ao, eo et io sont nulles en moyenne) s’expriment selon les équations (équation (3.14)-(3.16)), où réq est le rayon équatorial de la Terre. Ω˙ o = − 3 2 J2  réq ao 2 no cosio (1 − e 2 o ) 2 (3.14) ω˙o = 3 4 J2  réq ao 2 no 4 − 5 sin2 io (1 − e 2 o ) 2 (3.15) M˙ o = no + 3 4 J2  réq r 2 no 2 − 3 sin2 io (1 − e 2 o ) 3/2 (3.16) 32Chapitre 3 : Modèles dynamiques et satellites en orbite basse Par exemple, si l’on considère une orbite de mouvement moyen no = 15, 70406856 révolutions par jour, d’excentricité eo = 0, 0007976 et d’inclinaison io = 51, 6335˚, on peut calculer une dérive moyenne Ω˙ o de −2.5546˚par jour, soit en moyenne −0.1627˚par révolution. 3.4 Le modèle SGP Le modèle SGP résulte des travaux de Brouwer [26] et de Lane et Cranford [27, 28]. Ces travaux donnent lieu à des équations de propagation (calcul semi-analytique du couple {r, v} à partir de paramètres orbitaux) publiées en 1980 par Hoots et Roehrich [14]. Depuis lors, ces équations, utilisées pour la construction du catalogue Space-Track rendu public par USSTRATCOM, ont évolué sans pour autant que leurs modifications fassent l’objet de publications officielles. En 2006, Vallado, Crawford et Hujsak publient alors une version plus robuste de la fonction de propagation qui permet une propagation plus satisfaisante des éléments du catalogue Space-Track [29]. Le modèle SGP permet de prédire la position d’un objet sachant ses paramètres orbitaux avec une précision de l’ordre de 1 Km sur un jour. Ce modèle permet donc de simuler des trajectoires avec une précision suffisante pour la validation d’algorithmes de catalogage, c’est pourquoi nous avons choisi de l’utiliser dans cette thèse (version 2006 de Vallado [29]). De plus, ce modèle permet une utilisation cohérente des données publiques du catalogue américain Space-Track qui fournit ainsi un échantillon représentatif de la population de satellites en orbite basse. Par comparaison au modèle képlérien simple ou avec J2, SGP modélise plus finement l’influence du potentiel terrestre ainsi que l’effet de traînée sous l’hypothèse d’une densité atmosphérique à décroissance exponentielle, sphérique et invariante par rotation. 3.4.1 Modélisation du potentiel terrestre Le modèle SGP utilise les quatre premiers harmoniques zonaux du potentiel terrestre. L’équation (3.17) explicite le potentiel exprimé par l’équation (3.6) en négligeant les harmoniques zonaux d’ordre supérieur à J4. UT, SGP(r, φgéo) = µ r " 1 −  réq r 2 J2 2  3 sin2 φgéo − 1  −  réq r 3 J3 2  5 sin3 φgéo − 3 sin φgéo (3.17) −  réq r 4 J4 8  35 sin4 φgéo − 30 sin2 φgéo + 3 # Pour la Terre, les valeurs des coefficients de ces harmoniques zonaux sont les suivants, sachant que les coefficients d’ordre supérieur sont inférieurs à 10−6 en valeur absolue : 333.5 Le catalogue Space-Track µ = 3, 986 005.1014 m3 s −2 J2 = 0,001 082 625 J3 = -0,000 002 534 J4 = -0,000 001 623 Les harmoniques zonaux sont les composantes du potentiel terrestre dépendants de la latitude φgéo uniquement. D’autres composantes, dépendant à la fois de la longitude θgéo et de la latitude φgéo, peuvent intervenir pour davantage de précision dans des modèles plus complexes. 3.4.2 Modélisation paramétrique de la traînée atmosphé- rique Le phénomène de traînée (pression exercée par l’atmosphère dans le sens opposé au mouvement) est modélisé par un paramètre d’état supplémentaire B∗ et un modèle exponentiel de la pression atmosphérique P en fonction de l’altitude hgéo [27, 28], donné en équation (3.18), où p est la pression atmosphérique, hgéo l’altitude, préf et hréf une pression et une altitude de référence et H un facteur d’échelle. p(h) = préf exp − hgéo − hréf H ! (3.18) Le paramètre de traînée B∗ conditionne l’accélération de traînée adrag tel que l’exprime l’équation (3.19), où v est le vecteur vitesse de l’objet considéré dans un référentiel ECI. adrag = − 1 2B∗ p(hgéo)kvk v (3.19) 3.5 Le catalogue Space-Track Le SSN américain catalogue plus de 20 000 satellites dont plus de 11 000 en orbite basse. Ces objets sont de diamètre supérieur à 4 ou 5 cm en général. Le catalogue Space-Track est publié de manière discrétionnaire par USSTRATCOM et constitue la seule base de d’orbites réelles accessible librement (hormis le catalogue MASTER de l’ESA, qui quant à lui décrit des flux plutôt que des objets individuels). 3.5.1 Format des éléments Le catalogue Space-Track est constitué d’éléments formatés sur deux ou trois lignes (Two-Line Elements ou Three-Line Elements, TLE), chaque élément décrivant l’orbite d’un objet estimée à partir des observations du SSN américain (cf. Chapitre 1) en utilisant notamment le modèle SGP pour les orbites basses. Par exemple, le TLE : 34Chapitre 3 : Modèles dynamiques et satellites en orbite basse ISS (ZARYA) 1 25544U 98067A 04236.56031392 .00020137 00000-0 16538-3 0 5135 2 25544 51.6335 341.7760 0007976 126.2523 325.9359 15.70406856328903 décrit l’orbite de l’ISS (identifiant ZARYA) dont les paramètres sont : to = 04236,56031392 (UTC) (236,56031392ème jour de l’année 2004) no = 15,70406856 révolutions/jour eo = 0,0007976 io = 51,6335˚ Ωo = 341,7760˚ ωo = 126,2523˚ Mo = 325,9359˚ B∗ = 0,16538.10−3 r −1 éq où réq est le rayon terrestre à l’équateur. La catalogue Space-Track, utilisé avec une fonction de propagation fSGP (fournie par [14]), permet de calculer la position et vitesse (r, v)t à un instant t de chaque objet (associé à des paramètres orbitaux Xto ) qu’il contient. Leurs détections par un ou plusieurs capteurs peuvent alors être simulées et permettre la validation d’algorithmes de pistage. fSGP(Xto , t) = (r, v)Xto ,t (3.20) Dans la Partie III, la fonction fSGP est constamment utilisée pour simuler ou prédire des observations. 3.5.2 Distribution des paramètres orbitaux La population des objets en orbite basse se caractérise par une concentration nonuniforme selon l’altitude comme le montre la Figure 1.1 mais également par des inclinaisons particulières et des excentricités faibles. En effet, les histogrammes de la Figure 3.4 mettent en évidence que peu d’objets en orbite basse ont une inclinaison faible (inférieur à 50˚) et que la majorité des objets ont une excentricité faible (inférieure à 0,05), voire très faible. Les objets en orbite basse (altitude de l’apogée comprise entre 200 Km et 2000 Km) ont une période de révolution comprise entre 88 minutes et 127 minutes. Dans cette étude, nous faisons l’hypothèse fondamentale que le catalogue SpaceTrack fournit un échantillon représentatif des objets en orbite basse. En effet, les objets plus petits que sont les débris sont en général générés par de plus gros objets (cf. Chapitre 1). Ils conservent alors une énergie mécanique voisine et se trouvent par conséquent sur des orbites proches et/ou ré-entrent dans l’atmosphère. 353.6 Conclusion du chapitre Figure 3.4 – Distributions en altitude (de l’apogée), en inclinaison et en excentricité des objets en orbite basse présents dans le catalogue Space-Track. 3.6 Conclusion du chapitre La dynamique des objets que nous cherchons à cataloguer se modélise au premier ordre par un modèle képlérien. Les trajectoires résultantes de ces objets sont des ellipses de faibles excentricités et de fortes inclinaisons par rapport au plan équatorial dans un référentiel ECI, ce qui confirme le choix justifié dans le Chapitre 2 d’un capteur dont l’emprise est orientée vers l’équateur et large en azimut : la plupart des objets devraient être observés quand le capteur s’approche des longitudes des nœuds ascendants dans un référentiel ECI. Dans cette étude, nous utilisons en pratique le modèle SGP pour davantage de réalisme lors des simulations. En effet, la précision ce modèle en termes de trajectoire est adaptée à l’échelle de temps que l’on pressent puisque la plupart des objets devrait passer dans le champ de veille du capteur au moins une fois par jour. Par ailleurs, ce modèle permet de propager avec précision les éléments du catalogue Space-Track, lui-même représentatif de la population d’objets en orbite basse. 36Conclusion de la première partie La densité d’objets en orbite basse est critique et pose un problème pour la viabilité des installations spatiales présentes et futures. Pour l’observation de ces orbites, des moyens radars sont plus souvent envisagés car les conditions d’observation sont moins contraignantes en comparaison à des capteurs passifs. Les systèmes existants, comme par exemple le FPS-85 et le Cobra Dane ou encore GRAVES, démontrent la faisabilité de la surveillance des orbites basses par des moyens actifs, bien que leurs performances soient limitées en termes de taille minimale des objets catalogables. Les contraintes physiques du radar que nous avons évoquées ainsi que les résultats d’expérimentations menées par les américains nous ont permis de définir un paramé- trage de capteur radar hypothétique mais envisageable pour la détection de petits objets. La précision choisie en angulaire (azimut et élévation) de σθ=σφ=0,2˚est faible : elle génère des volumes d’incertitude d’environ 3,5 Km de rayon à 1-sigma à une distance de 1000 Km (env. 11,5 Km à 3-sigma). Dans ce cas, les observations rapprochées dans le temps et dans l’espace sont fortement redondantes et cela doit être compensé par des observations très nombreuses ou très espacées dans le temps. La réduction du champ de veille choisie permettant la détection d’objets plus petits à bilan comparable impose un nombre réduit (1 ou 2) d’observations par traversée, qui doivent alors être associées à des intervalles de temps relativement importants (plusieurs heures). À ce stade, nous pouvons anticiper la difficulté de l’orbitographie à partir de courtes traversées du champ de veille. En effet, une orbite comprend au moins sept paramètres, alors qu’une observation fournit seulement trois mesures datées et sans redondance : une distance en plus de deux angles avec des erreurs de mesure pouvant être importantes. Sachant le grand nombre d’objets (11 000 objets dans le catalogue Space-Track et l’on estime à entre 100 000 et 500 000 le nombre de petits objets de plus de 1 cm) en plus de la présence de fausses alarmes, tester toutes les combinaisons d’observations possibles et en déduire des orbites est rédhibitoire. Il faut donc développer et mettre en œuvre des méthodes de traitement de l’information permettant de réduire cette complexité combinatoire à un degré raisonnable. Cette thèse aborde par conséquent la résolution d’un cas typique de non-observabilité : l’état orbital d’un objet ne peut être calculé avec une précision suffisante à partir d’une seule traversée dans le FOR par manque d’information disponible. L’association de plusieurs traversées (observations) est alors nécessaire pour calculer les orbites permettant de suivre les objets de manière satisfaisante et implique une complexité combinatoire très forte du fait de la densité importante de détections et de 37Conclusion de la première partie fausses alarmes attendue. Pour contribuer à la résolution de ce problème, nous proposons dans cette thèse des méthodes de traitement de l’information mieux adaptées que les méthodes existantes, présentées dans la partie consacrée à l’état de l’art, dans le but de permettre la faisabilité d’un système de surveillance de l’espace tout en évitant une explosion de coût du capteur physique. 38Deuxième partie Synthèse et analyse des techniques existantes contribuant au catalogage 39Introduction de la deuxième partie Le catalogage a pour but de déterminer l’orbite du plus grand nombre possible d’objets présents avec une précision suffisante pour les missions associées. Pour cela, chaque objet doit être suivi, ou pisté, en associant en une séquence (piste) des observations dont il est la source sur plusieurs révolutions. Des techniques pour l’association d’observations et la détermination d’orbite existent et sont applicables dans le cas d’observations non-isolées, c’est-à-dire issues d’un capteur de grande emprise (champ de veille). Nous les distinguons en trois groupes : – le pistage monocible, qui consiste à estimer ou à mettre à jour l’état (les paramètres orbitaux) d’une piste dans un but de prédiction de position future par exemple, ou encore dans un but de filtrage du bruit de mesure, – le pistage multicible, dont le rôle est de filtrer les différentes hypothèses d’association possibles générées par une fonction tirant parti de la connaissance d’une orbite pour corréler de nouvelles observations à une piste existante, – la détermination d’orbite préliminaire, qui permet de calculer une orbite initiale à partir d’un jeu d’observations associées au préalable et permet ainsi d’initialiser le pistage. Les principales techniques existantes ont fait l’objet de nombreuses études et leurs robustesses ont été éprouvées dans de nombreuses applications. Pour chacune des problématiques, nous étudions les méthodes classiques et en déduisons si elles peuvent se décliner pour répondre aux problèmes posés par le catalogage par observations isolées. 41Chapitre 4 Pistage L’objectif du catalogage est de détecter et de suivre le plus grand nombre possible d’objets (la liste de leurs orbites constitue le catalogue). Cela peut être fait à partir des données provenant d’un capteur, c’est-à-dire dans notre cas des observations de position datées. Ces données sont dégradées notamment par un bruit de mesure, c’est pourquoi il est nécessaire de faire appel à une fonction de pistage monocible. La connaissance de techniques de pistage est donc indispensable pour justifier les choix liés au catalogage d’objets spatiaux. Ce chapitre définit dans un premier temps les techniques de pistage monocible comme un sous-ensemble des techniques de modélisation paramétriques. Les particularités de ces techniques vis-à-vis de la chronologie des observations ou de l’aspect temps-réel sont ensuite abordées à travers la présentation des techniques les plus utilisées telles que l’algorithme de Gauss-Newton et les filtres de Kalman. Ensuite, les approches les plus populaires pour le pistage multicible sont présentées dans une courte synthèse. Le choix du TO-MHT est enfin justifié au regard des spécificités du problème du catalogage d’objets spatiaux par observations isolées. Sommaire 4.1 Pistage Monocible . . . . . . . . . . . . . . . . . . . . . . . 44 4.1.1 Modélisation paramétrique . . . . . . . . . . . . . . . . . 44 4.2 Estimation d’un état à partir d’une piste existante . . . 45 4.3 Pistage multicible . . . . . . . . . . . . . . . . . . . . . . . 48 4.3.1 Approches bayésiennes . . . . . . . . . . . . . . . . . . . . 51 4.3.2 Approches non-bayésiennes . . . . . . . . . . . . . . . . . 53 4.4 Choix d’un TO-MHT résultant des contraintes d’emploi 56 4.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . 58 434.1 Pistage Monocible 4.1 Pistage Monocible Les techniques de pistage [30, 17, 31] par modélisation paramétrique utilisent un modèle dynamique du système afin de filtrer le bruit de mesure des observations. Ce modèle est paramétré selon un vecteur d’état qui représente l’orbite d’un objet dans le cadre de cette étude. Chaque objet en orbite basse est en effet caractérisé par des paramètres d’état (paramètres orbitaux) qui permettent d’estimer sa position au cours du temps grâce à un modèle dynamique (cf. Chapitre 3) choisi en fonction d’un compromis entre la précision du modèle et la précision des mesures. 4.1.1 Modélisation paramétrique L’état Xk d’un système désigne le vecteur des paramètres orbitaux à l’instant k et le vecteur d’observation zk désigne le vecteur des mesures délivrées par le capteur à l’instant k. Ces vecteurs sont liés par l’équation de modèle et l’équation d’observation qui sont définies de manière générale par les relations (4.1) et (4.2) : Xk+l = f(Xk, l) + ζk+l (4.1) zk = h(Xk) + ηk (4.2) où f(., l) est la fonction de transition de l’état Xk à l’instant k vers l’instant passé ou futur k + l, h est la fonction d’observation, ζ est un bruit de modèle additif (représente l’erreur entre le modèle et la réalité) et η est un bruit d’observation additif (représente l’erreur de mesure). L’espace des paramètres d’observation est lié au référentiel capteur dans lequel sont mesurées les distances, azimuts et élévations des détections. La composée h ◦ f est alors équivalente à la fonction hcapteur ◦ fSGP. Notons que fSGP 6= f car fSGP n’est pas un endomorphisme. Figure 4.1 – Schéma d’une orbite (courbe bleue) calculée à partir d’observations de position bruitées (disques rouges). Le modèle dynamique associé à une technique d’estimation permet de calculer la trajectoire de l’objet aux instants des observations (lissage), à des instants futurs (prédiction) ou à des instants passés (rétrodiction). Dans notre cas, le bruit associé au modèle SGP est infime en comparaison du bruit de mesure du capteur défini au Chapitre 2 sur l’échelle de temps considérée (quelque 44Chapitre 4 : Pistage jours). Pour la simulation, ce bruit représente l’écart de modèle entre l’outil qui simule les observations du capteur et l’algorithme qui résout le problème de pistage ou de catalogage. Quand les modèles utilisés sont strictement identiques, ce bruit est nul. Dans le cadre de cette étude, les versions du modèle SGP utilisées pour ces deux fonctions sont différentes : les observations sont simulées à l’aide d’un outil interne ONERA implémentant une version corrigée de SGP, et le problème de pistage est traité grâce à la version publiée par Vallado [29]. Cela induit un bruit de modèle non-nul mais de très faible amplitude par rapport au bruit de mesure. 4.2 Estimation d’un état à partir d’une piste existante Si l’on dispose de suffisamment d’observations, on peut estimer un état passé ou futur Xk+l dont on peut déduire une valeur d’observation prédite h(xk+l). L’objectif des techniques de filtrage paramétrique est d’évaluer l’erreur entre les mesures fournies par le capteur et les mesures prédites afin de corriger l’état. On cherche à estimer le mieux possible l’état du système à partir d’un jeu d’observations {zi} afin de réduire l’influence du bruit d’observation η et donc d’améliorer la connaissance des valeurs vraies des {zk} observés, comme l’illustre la Figure 4.1, ou d’améliorer la précision d’une observation prédite. L’estimation d’état consiste à optimiser un critère faisant intervenir les observations de la piste disponibles ainsi que le modèle dynamique. En général, le problème est rapporté à la minimisation d’une erreur quadratique, comme l’énonce l’équation (4.3), où εQ(x) est l’erreur quadratique dépendant de l’état x et n le nombre d’observations disponibles dans la piste. Xˆ = arg min x ( εQ(x) = Xn i=1 (¯zi(x) − zi) TP −1 zizi (¯zi(x) − zi) ) (4.3) Le terme P−1 zizi permet de normaliser chaque mesure de l’observation par son erreur de mesure, ce qui est indispensable notamment dans les cas où les éléments du vecteur d’observation ne sont pas homogènes (par exemple, une observation de position en coordonnées sphériques). Pour résoudre le problème formalisé par l’équation 4.3, on peut utiliser un algorithme de Gauss-Newton ou une méthode de type Kalman. Algorithme de Gauss-Newton L’algorithme de Gauss-Newton [32] permet de résoudre le problème d’estimation non-linéaire de l’équation (4.3) de manière itérative, à condition que la fonction εQ(x) soit différentiable sur un voisinage du minimum et que ce minimum soit un point stationnaire (ε ′ Q(Xˆ ) = 0). Cet algorithme itératif nécessite la connaissance a priori d’une valeur initiale de x relativement proche de la solution, car les conditions mentionnées ci-avant ne garantissent pas la convergence vers un minima global. Si 454.2 Estimation d’un état à partir d’une piste existante l’algorithme converge, ces conditions garantissent en effet que la limite de convergence est un extremum (minimum ou maximum) local. La résolution de ce problème consiste alors à déterminer un incrément ∆x à chaque itération pour converger vers la solution recherchée. On peut écrire le développement de Taylor au premier ordre de la dérivée première de ε au voisinage de x (k∆xk proche de 0) et déduire de l’équation (4.4) l’approximation de l’équation (4.5). ε ′ Q(x + ∆x) = ε ′ Q(x) + ε ′′ Q(x)∆x + O(k∆xk 2 ) (4.4) −ε ′ Q(x) = ε ′′ Q(x)∆x (4.5) En approchant les dérivées ε ′ et ε ′′ par, respectivement, Jεε et J T ε Jε, où ε est le vecteur de résidus tel que εQ = ε Tε et Jε est la matrice jacobienne de ε en x, on déduit une expression approchée de l’incrément ∆x : ∆x ≃ −(J T ε Jε) −1Jεε (4.6) L’algorithme consiste alors à incrémenter un état préliminaire x0 de quantités {∆xi} calculées grâce à l’équation (4.6) jusqu’à satisfaire un critère de convergence. L’utilisation de cet algorithme ne garantit pas la convergence en particulier si la valeur initiale x0 est trop éloignée de la solution. Le choix d’une valeur initiale x0 est donc particulièrement important et fait l’objet d’une littérature abondante dans le cadre de l’estimation d’orbite. εQ(x) x x3 x2 x1 x0 Figure 4.2 – Schéma représentant le comportement de l’algorithme de Gauss-Newton sur un domaine à une dimension. Une hypothèse quadratique est adoptée à chaque pas (développement en série de Taylor limité à l’ordre 2). L’incrément est calculé en fonction du minimum de la courbe quadratique déduite de la matrice jacobienne. 46Chapitre 4 : Pistage En général, cet algorithme a une convergence quadratique lorsque l’on s’approche de la solution, c’est-à-dire que l’on vérifie l’équation (4.7) pour k suffisamment grand, avec C une constante réelle : k∆xk+1k ≤ Ck∆xkk 2 (4.7) Ce comportement se vérifie quand la matrice J T ε Jε est définie positive. Si cette matrice est définie négative, alors l’algorithme converge vers un maxima. De nombreuses variantes de cet algorithme ont été proposées dans la littérature. On peut citer en particulier l’algorithme de Levenberg-Marquardt [32] qui interpole l’algorithme de Gauss-Newton avec une descente de gradient. En comparaison de l’algorithme de Gauss-Newton classique, cette interpolation permet d’augmenter la vitesse de convergence lorsque l’on est loin de la solution. En revanche, elle fait intervenir davantage de paramètres. Critères de convergence La définition d’un critère de convergence est nécessaire pour conditionner la sortie de la boucle d’itérations. Classiquement, le critère suivant s’applique : ∆xTP −1 xˆxˆ∆x < sC (4.8) Le choix de la valeur de sC est souvent fait dans l’hypothèse selon laquelle ∆x peut être vue comme la réalisation d’une variable aléatoire gaussienne de moyenne nulle et de variance Pxˆxˆ (à un facteur multiplicatif près). Dans ce cas, la quantité ∆xT(Pxˆxˆ) −1∆x suit une loi du Khi-2 au même titre que le carré de la distance de Mahalanobis définie par l’équation (4.14) [33]. D’autres critères de sortie de la boucle d’itérations peuvent être adoptés comme par exemple le rapport des normes de l’incrément et de l’état actuel défini par l’équation (4.9) ou encore le rapport de la différence des normes des résidus avant et après l’incrémentation de l’état sur la norme du résidu avant l’incrémentation de l’état, comme le montre l’équation (4.10). k∆xk kxk < sC (4.9) kε(x + ∆x)k − kε(x)k kε(x)k < sC (4.10) Dans ces cas, la valeur de sC est en général déterminée de manière empirique. Afin d’estimer la pertinence de la solution retournée par l’algorithme, la norme des résidus peut être testée. Sous une hypothèse gaussienne, le carré de cette norme correspond en effet à une loi du Khi-2 à m − 1 degrés de liberté, où m est le nombre total de mesures contenues dans l’ensemble des observations. 474.3 Pistage multicible Filtres de Kalman L’algorithme de Gauss-Newton est coûteux en temps de calcul car il nécessite le calcul de matrices jacobiennes pour chaque observation, à chaque itération, et doit être effectué à chaque fois qu’une observation devient disponible pour garder l’estimée à jour. Dans le cas d’applications en temps réel où les observations sont faites au cours du temps, on envisage en général l’utilisation d’un filtre de Kalman [34] qui permet de minimiser le même critère d’erreur quadratique, mais de manière récursive sur les observations. Sous réserve que le filtre soit correctement initialisé, ces calculs permettent d’obtenir une série d’estimées convergentes vers une solution qui minimise le critère de moindres carrés (4.3). En somme, une estimation est retournée sachant les n observations disponibles à un instant donné et une (n + 1)ème observation peut être traitée par un calcul simple pour mettre à jour l’estimée à l’instant où cette observation était disponible. Dans le cas linéaire, les fonctions f et h des équations (4.1) et (4.2) sont exprimées par des matrices Fk et Hk dépendant de l’instant k. En général, des hypothèses a priori permettent de caractériser les bruits de modèle et d’observation par des matrices de covariances particulières dépendant du modèle dynamique adopté. Les équations de modèle et d’observation s’expriment alors selon les formules (4.11) et (4.12), dans le cas d’ordre 1 (l = 1). Xk+1 = Fk+1Xk + ζk (4.11) zk+1 = Hk+1xk+1 + ηk+1 (4.12) Cependant le modèle SGP, requis pour utiliser le catalogue Space-Track, ne permet pas d’accéder aux quantités mathématiques nécessaires au fonctionnement d’un filtre de Kalman telles que les matrices Fk et Hk, ou encore les matrices de covariance des bruits ζk et ηk+1. Nous retenons alors l’algorithme de Gauss-Newton pour l’estimation d’orbite. 4.3 Pistage multicible Lorsque plusieurs sources d’observations sont présentes (plusieurs cibles et/ou fausses alarmes), le problème d’associer les observations en pistes se pose. Les méthodes pré- sentées dans cette section ont pour objectif d’associer les observations de manière séquentielle, c’est-à-dire d’associer de nouvelles observations à des pistes existantes à un instant k. Le pistage multicible se décompose alors en deux étapes : une étape d’estimation d’état et une étape d’association d’une nouvelle observation à une piste existante (séquence d’observations). Connaissant un certain nombre d’observations, on peut généralement estimer un état pour décrire la dynamique de la cible. Cela permet par la suite de prédire des observations faites par le capteur et de les associer ou non sur un critère de vraisemblance (car une nouvelle observation peut être issue d’une fausse alarme ou d’une autre cible) à la série d’observations, ou piste, utilisées 48Chapitre 4 : Pistage pour estimer l’état. Quand de nouvelles observations sont associées, on peut mettre à jour l’état des pistes concernées. Estimation Gauss-Newton Association Transformation non-parfumée Figure 4.3 – Le cycle association-estimation fait intervenir l’estimation des paramètres d’un modèle ainsi que des techniques d’association de nouvelles observations. Le cycle association-estimation fait intervenir l’estimation des paramètres d’un modèle ainsi que des techniques d’association de nouvelles observations, comme par exemple la méthode de Gauss-Newton et la transformation non-parfumée. À chaque nouvelle observation associée, une estimation plus précise est possible. Une estimation précise de l’état permet une association plus efficace, i.e. sans erreur (rejet d’observation correcte, inclusion de fausse alarme, etc.). Association d’observations à une piste existante L’association d’une ou de plusieurs observations se fait de manière usuelle par fenê- trage, c’est-à-dire que l’on définit une fenêtre de validation à partir d’un état estimé et de sa matrice de covariance propagés à l’instant de l’observation à tester [35]. La fenêtre est alors définie par l’équation (4.13), où d est une mesure de distance, ¯zk+l est la prédiction de l’observation à l’instant k + l obtenue à partir des observations disponibles, c’est-à-dire ¯zk+l = h(xk+l), et par l’intermédiaire d’un état estimé, zk+l est l’observation réelle et sF est un seuil. d(¯zk+l , zk+l) ≤ sF (4.13) Dans cette étude comme dans de nombreux cas, on fait l’hypothèse que les variables aléatoires mises en jeu sont gaussiennes. On choisit alors d’adapter une distance de Mahalanobis pour définir d tel qu’en équation (4.14), où P¯z¯z est la matrice de covariance de l’observation prédite et Pzz la matrice de covariance de l’observation réelle (matrice de covariance de l’erreur de mesure). d(¯z, z) = q (¯z − z) T(P¯z¯z + Pzz) −1 (¯z − z) (4.14) La quantité ¯z − z est appelée “innovation” et notée ˜z. Sa matrice de covariance S vaut P¯z¯z + Pzz. 494.3 Pistage multicible z 1 k z 2 k z 3 k z 4 k z 5 k ¯zk État propagé Figure 4.4 – Schéma d’une fenêtre de validation obtenue au scan k à partir d’une piste. Les observations représentées tombent à l’intérieur de cette fenêtre et sont donc compatibles avec la piste. Le calcul de ¯z peut se faire par l’utilisation simple de la fonction de transfert f et de la fonction d’observation h introduites dans les équations (4.1) et (4.2). En revanche, le calcul de la matrice de covariance P¯z¯z n’est pas direct : il fait intervenir soit une linéarisation de f et de h, soit une technique de Monte-Carlo (c’est-à-dire qu’on génère et propage des particules) ou encore une transformation “non-parfumée”. Transformation non-parfumée La transformation non-parfumée [36, 37] permet de reconstruire une densité de probabilité a posteriori à partir d’échantillons choisis (σ-points) de la densité a priori. Le principe sous-jacent de la transformation non-parfumée est de réduire la distribution a priori au nombre de points minimal permettant le calcul de ses moments statistiques. Les images de ces points par la fonction non-linéaire en question permettent alors de reconstruire avec une certaine précision la distribution a posteriori. Cette méthode étant implémentée dans le cadre de cette étude, nous la décrivons de manière plus détaillée au Chapitre 7. Le fenêtrage tel que nous le décrivons permet d’associer une ou plusieurs observations à une piste (série d’observations) existante. Les cas ambigus où plusieurs observations (issues d’objets ou de fausses alarmes) simultanées sont associées à une même piste peuvent être traités par les algorithmes de pistage multicible [30, 17, 31]. On distingue parmi ces algorithmes deux grandes classes d’algorithmes : les algorithmes bayésiens et les algorithmes non-bayésiens. Les algorithmes bayésiens font intervenir une moyenne pondérée par des probabilités alors que les méthodes nonbayésiennes fonctionnent sur un principe de minimisation de coût global sur un ensemble combinatoire. Dans les deux cas, une fonction de fenêtrage est utilisée de manière systématique afin restreindre le nombre d’observations compatibles avec les pistes existantes. On note z i k la i-ème observation acquise au scan k et Z(k) l’ensemble des observations issues du scan k. L’ensemble des observations accumulées jusqu’à l’instant k est noté Z k . Les équations (4.15) et (4.16), où mk désigne le nombre d’observations au scan k, formalisent ces définitions. 50Chapitre 4 : Pistage Z k = {Z(i)}i∈{1,...,k} (4.15) Z(k) = {z i k}i∈{1,...,mk} (4.16) 4.3.1 Approches bayésiennes Joint-Probabilistic Data Association Filter (JPDAF) Le JPDAF [38, 39] nécessite la connaissance du nombre d’objets présents et fait l’hypothèse que les pistes associées à ces objets sont initialisées. À chaque scan k, une innovation ˜zt (k) résultante de la moyenne pondérée des innovations liées à l’ensemble des observations contenues dans la fenêtre de validation (cf. Figure 4.4) est calculée pour chaque cible t, tel qu’en équation (4.17), où β t i (k) est la probabilité que la mesure i corresponde à la cible t et ˜zt i (k) est l’innovation au sens classique entre la prédiction de l’observation issue de la cible t et l’observation i du scan k. L’état de chaque cible est ensuite mis à jour selon les équations du filtre Probabilistic Data Association Filter (PDAF) classique disponibles dans la littérature et analogues à celles du filtre de Kalman. ˜zt (k) = Xmk i=1 β t i (k)˜zt i (k) (4.17) L’expression des probabilités {β t i (k)} fait intervenir plusieurs paramètres concernant en particulier les probabilités de détection de chaque cible ainsi que la distribution du nombre de fausses alarmes présentes dans le volume de surveillance. C’est également dans ces probabilités que l’on retrouve des considérations de faisabilité d’hypothèses d’association, c’est-à-dire les différents cas possibles d’association d’observations aux pistes sous la contrainte qu’aucune observation ne peut être associée à plusieurs pistes simultanément et que chaque piste ne peut être associée qu’à une observation au plus à un instant donné. Le JPDAF fait donc intervenir l’ensemble des observations compatibles (validées par une fenêtre) dans le calcul de l’état de chaque objet en évitant une décision tranchée quant aux associations des observations aux pistes à ce stade. En revanche, le raffinement des états des cibles au fur et à mesure que l’on accumule des observations permet un fenêtrage (décision) plus efficace. Hypothesis-Oriented Multiple Hypothesis Tracking (HO-MHT) Contrairement au JPDAF, le filtre HO-MHT [40, 39] (version classique du MHT) n’impose pas la connaissance du nombre de cibles présentes. En effet, son principal intérêt est qu’il permet de gérer l’apparition d’une nouvelle cible. Le HO-MHT se focalise sur les observations de manière récursive : à chaque scan, les hypothèses 514.3 Pistage multicible concernant l’origine des observations (piste existante, fausse alarme ou nouvelle piste) sont énumérées et leurs probabilités évaluées. ¯zZ2 ¯zZ1 z 2 k z 1 k z 3 k Z2 Z1 Figure 4.5 – Exemple de fenêtres de validation issues de pistes Z1 et Z2 à l’instant des observations z 1 k , z 2 k et z 3 k . Supposons par exemple l’existence de deux pistes Z1 et Z2 dont les fenêtres de validations au scan k valident les observations z 1 k pour Z1 et z 1 k , z 2 k et z 3 k pour Z2 comme l’indique la Figure 4.5. Sachant que les observations z 1 k , z 2 k et z 3 k peuvent représenter des fausses alarmes ou également de nouvelles pistes (Z3, Z4 et Z5, respectivement), on peut dénombrer 28 hypothèses d’association (h1, ..., h28). On évalue alors les probabilités P(θ t i |Z k ) où θ t i représente l’événement “l’observation i est issue de la cible t” en sommant les probabilités des hypothèses {hj} contenant θ t i , dans le but de mettre à jour les états des pistes par l’équation (4.18), où θ t 0 représente l’événement “la cible t n’a pas été détectée” et ˆx t i (k) est l’état de la cible t mis à jour avec l’observation i (ou propagé pour i = 0). ˆx t (k) = Xmk i=0 P(θ t i |Z k )ˆx t i (k) (4.18) Les probabilités des {hj}, nécessaires au calcul des {P(θ t i |Z k )}, s’obtiennent par des considérations sur les densités de probabilité de fausse alarme et d’apparition de nouvelles cibles. Une expression de la matrice de covariance mise à jour est par ailleurs disponible dans la littérature. L’arbre d’hypothèses obtenu est mis à jour de manière récursive et croît de manière exponentielle. Pour garder le nombre d’hypothèses sous contrôle, on abandonne l’optimalité du filtre (toutes les hypothèses d’associations étaient envisagées) en supprimant les hypothèses de probabilité négligeable et en fusionnant les hypothèses similaires (nombres de pistes égaux et états des pistes similaires). Une version “orientée piste” (Track-Oriented Multiple Hypothesis Tracking, TO-MHT) non-bayésienne du HO-MHT est implémentée dans le cadre de cette étude et décrite plus en détail dans la suite de ce chapitre. Gaussian-Mixture Probabilistic Hypothesis Density (GM-PHD) Le filtre PHD [41] est un algorithme récent qui a fait l’objet de nombreuses études. Cet algorithme permet de gérer l’apparition de nouvelles cibles ou leur disparition 52Chapitre 4 : Pistage en s’appuyant sur une fonction d’intensité vk définie sur l’espace d’état des cibles à chaque instant k. Dans sa variante Gaussian-Mixture PHD, chaque cible i est représentée par une gaussienne dans l’espace d’état, la somme de ces distributions formant la fonction d’intensité comme l’indique l’équation (4.20) où w i k pondère la gaussienne de moyenne mi k et de covariance Pi k associée à la i ème cible parmi Jk à l’instant k. vk(x) = X Jk i w i kN (x, mi k , P i k ) (4.19) À chaque récursion, chaque gaussienne est propagée aux instants des observations par propagation de sa moyenne et de sa covariance selon un filtre de Kalman qui utilise successivement chaque observation pour le calcul d’une innovation. Les gaussiennes générées par la combinaison de chaque cible avec chaque observation sont alors pondérées et celles dont les pondérations sont inférieures à un seuil sont supprimées afin d’éliminer les pistes mortes et les fausses alarmes. La fonction d’intensité devient alors : vk+1(x) = (1 − PD)vk+1|k(x) + X z JkX +1|k i=1 w i k+1(z)N (x, mi k+1(z), P i k+1) (4.20) où PD est la probabilité de détection, vk+1|k(x) est la fonction d’intensité obtenue par propagation de chaque gaussienne, w i k+1(z) et N (x, mi k+1(z), Pi k+1) sont respectivement le poids et la gaussienne estimée associés au couple {cible i, observation z}. Une expression de w i k+1(z), non-détaillée dans ce document, est disponible dans les articles de référence. 4.3.2 Approches non-bayésiennes Global Nearest Neighbor (GNN) Le principe du filtre GNN [42] repose sur la recherche de l’hypothèse d’association d’observation à piste de moindre coût à chaque scan, sachant qu’une observation ne peut être associée à plus d’une piste dans le scénario finalement retenu. Pour cela, une fonction de coût peut être définie telle que : d 2 Gij = d 2 ij + ln |Sij | (4.21) où dij est la distance de Mahalanobis définie en équation (4.14) entre l’observation i et l’observation prédite à partir de la piste j, et |Sij | est le déterminant de la matrice de covariance associée à l’innovation, ce dernier terme visant à pénaliser les pistes de moindre qualité. À l’arrivée de nouvelles observations, des fenêtres de validation (équation (4.13)) sont calculées à l’aide des pistes existantes afin de remplir une table d’association. 534.3 Pistage multicible Dans l’exemple illustré par la Figure 4.5, on obtient la table d’association suivante : z 1 k z 2 k z 3 k Z1 2 × × Z2 4 3 2 Z3 0 × × Z4 × 0 × Z5 × × 0 où “×” indique que l’observation n’est pas dans la fenêtre de validation calculée et Z3, Z4 et Z5 sont de nouvelles pistes éventuelles. Cette table permet de déduire un scénario de moindre coût en prolongeant le plus de pistes possible. En l’occurrence, on associe z 1 k à Z1, z 3 k à Z2 et z 2 k fait l’objet d’une nouvelle piste. Pour confirmer ou supprimer une piste, on peut utiliser une fonction de score cumulatif comme décrite en Section 8.1.4. D’autres fonctions de coût peuvent être adoptées comme par exemple l’opposé de la distance à la limite de la fenêtre de validation pour les observations valides tel que le définit l’équation (4.22), où sF est le seuil utilisé pour valider une mesure ou non. dGij = dij − sF (4.22) Formulation du problème avec la programmation entière 0-1 L’algorithme GNN est un cas particulier de résolution par programmation entière [39], qui consiste de manière générale à chercher le scénario d’association le moins coûteux sur plusieurs scans. Résoudre un problème de pistage multicible sur tous les scans devient rapidement très coûteux, c’est pourquoi on implémente en général une fenêtre temporelle glissante pour y chercher la meilleure combinaison. L’association d’observations étant catégorique dans le cas de cet algorithme, la condition selon laquelle une observation ne peut être associée à plusieurs pistes dans le scénario d’association retenu doit être respectée. On généralise alors le concept de faisabilité d’un scénario d’association grâce à un indicateur d’appartenance d’une observation à une piste et à un indicateur d’appartenance d’une piste à un scénario d’association. La condition de faisabilité d’un scénario d’association est respectée si : AbS ≤ 1 (4.23) où 1 est un vecteur dont les composantes valent 1, A désigne la matrice binaire d’appartenance d’observations aux pistes, bS désigne le vecteur binaire d’appartenance des pistes à un scénario d’association S : 54Chapitre 4 : Pistage A = {aij} tel que    aij = 1 si l’observation i est associable à la piste j, aij = 0 sinon. bS = {bi} tel que    bi = 1 si la piste i appartient au scénario S, bi = 0 sinon. (4.24) En construisant le vecteur λ dont chaque composante représente le coût individuel de chaque piste d’observations (par exemple la log-vraisemblance négative), on cherche à minimiser une fonction de coût global, ce qui revient à résoudre : min S b T S λ sous la contrainte AbS ≤ 1 (4.25) Ce problème mathématique classique peut se résoudre (éventuellement après transformation) par des algorithmes d’optimisation tels que ceux présentés par exemple dans [43]. Une synthèse de cette approche est proposée dans [39]. Track-Oriented Multiple Hypothesis Tracking (TO-MHT) Le TO-MHT a d’abord été proposé dans [44] et développé dans de nombreux ouvrages et articles tels que [17, 31, 45]. Cette approche, inspirée du HO-MHT, constitue une heuristique efficace et appliquée dans de nombreux cas. Nous implémentons un TO-MHT dans le cadre de cette étude, ce choix étant davantage justifié en Section 4.4. Des pistes d’observations potentiellement issues du même objet sont formées grâce à des fonctions de fenêtrage telle que la transformation non-parfumée, en levant la règle selon laquelle les observations ne peuvent appartenir à plusieurs pistes. Cela induit un grand nombre de scénarios d’associations que l’on filtre avant d’imposer à nouveau la règle temporairement levée pour former des hypothèses d’associations globales possibles. Filtrage au niveau piste Un critère de qualité tel que la log-vraisemblance est évalué grâce au très répandu Sequential Probability Ratio Test (SPRT) [46]. Pour cela, une log-vraisemblance LZ (que l’on appelle “score” dans ce contexte) est calculée pour chaque piste d’observations Z. LZ = log p(Z|H1) p(Z|H0) (4.26) où H1 est l’hypothèse “toutes les observations de Z sont issues du même objet” et H0 = H1. 554.4 Choix d’un TO-MHT résultant des contraintes d’emploi Ce score LZ est comparé à des seuils sSPRT,1 et sSPRT,2 dont les valeurs sont déterminées par les performances espérées de l’algorithme de pistage en termes de Fausses Pistes confirmées (FP), c’est-à-dire dans ce contexte une piste qui ne seraient pas issues d’un même objet et dont le score serait élevé (erreur de type I), et de pistes correctes supprimées, c’est-à-dire dans ce contexte une piste correcte qui aurait un score faible (erreur de type II). Les probabilités des erreurs de type I α et de type II β associées sont alors fixées. La valeur de α est en général choisie selon la probabilité qu’une fausse alarme (FA) produise une FP sur une certaine durée. Dans cette étude, nous souhaitons avoir un taux moyen de FP d’au plus une FP tous les 10 jours (choix arbitraire), ce qui mène à : α = Fausses pistes confirmées par jour Fausses alarmes par jour = 0, 1 86400 ∗ 10 = 1, 16.10−7 La valeur de la probabilité β d’erreur de type II est choisie en fonction de la capacité du système à garder en mémoire un grand nombre d’hypothèses d’associations. Nous fixons une valeur arbitraire β = 5.10−3 pour la mise en œuvre du SPRT dans cette étude (cf. Chapitre 8). Sachant α et β, les seuils du SPRT sont fixés tels que : sSPRT,1 = log β 1 − α = −5, 2983 (4.27) sSPRT,2 = log 1 − β α = 15.9669 (4.28) Une piste dont la vraisemblance est inférieure à sSPRT,1 est alors supprimée, tandis qu’une piste dont la vraisemblance est supérieure à sSPRT,2 est confirmée, c’est-à-dire que le risque d’erreur qui y est lié est contrôlé (notamment par α). Filtrage au niveau global Les combinaisons des pistes de bonne qualité peuvent être confrontées de plusieurs manières possibles. Le calcul des probabilités de chaque scénario d’association global, ou encore des méthodes plus empiriques telles que le N-scan pruning peuvent permettre d’éliminer des hypothèses d’association. Le TO-MHT est davantage détaillé au Chapitre 8 à l’occasion de son adaptation et implémentation dans le cadre de ces travaux. 4.4 Choix d’un TO-MHT résultant des contraintes d’emploi Le catalogage implique, par définition, que le nombre d’objets présents est inconnu alors que le JPDAF, ne permettant pas de prendre en compte l’apparition de nouvelles cibles, nécessite une connaissance a priori du nombre de cibles. Cela exclut d’emblée l’utilisation d’un filtre JPDAF pour la résolution de ce problème. 56Chapitre 4 : Pistage Les autres algorithmes présentés dans cette section autorisent l’apparition ou la disparition de cibles. Cependant, ils présentent des lacunes liées au problème à ré- soudre. Rappelons que le catalogage d’objets spatiaux par l’utilisation du capteur défini au Chapitre 2 implique principalement : – des observations isolées d’un même objet très espacées dans le temps, – un modèle dynamique très précis mais non-observable sans l’association préalable de plusieurs observations, – des mesures imprécises ne permettant pas de distinguer les objets volant en groupe (satellites en formation, groupes de débris, de particules, etc.). De plus, nous supposons que les objets sont non-manœuvrants de par leur petite taille, ce qui permet de ne considérer qu’un unique modèle dynamique (le modèle SGP). Le GM-PHD permet de mieux gérer les cas de pistage où les cibles sont proches dans l’espace d’observation en s’affranchissant de l’association d’observation à piste et en estimant le nombre d’objets présents, ce qui n’est pas une fonction nécessaire dans notre cas. Nous préférons par conséquent nous orienter vers des méthodes telles que le MHT ou faisant intervenir la programmation entière. La résolution par programmation entière est une méthode explicite au sens où l’on minimise directement le coût associé à l’association d’observations en pistes sur une fenêtre temporelle glissante. Cependant, l’éloignement temporel des observations issues d’un même objet implique une matrice d’association A de très grande taille (nouvelles pistes accumulées) et de structure très lacunaire (la quasi-totalité de ses éléments sont nuls) dans notre cas, puisque les cibles sont pour la plupart hors du champ de veille du radar. Cette méthode en l’état ne semble donc pas la plus adaptée au problème de catalogage d’objets spatiaux par observations isolées. Le HO-MHT a l’avantage de retarder la suppression d’hypothèses d’association jusqu’à ce que suffisamment d’information soit disponible pour le permettre avec un degré de certitude contrôlé. Cette particularité du MHT est adaptée au problème de catalogage par observations isolées car elle permet d’accumuler les hypothèses d’association possibles pendant le temps de non-observabilité des nouvelles pistes. En revanche, la rigidité du HO-MHT est un obstacle à l’adaptation correcte de cette algorithme à un problème peu conventionnel où notamment la quasi-totalité des objets à cataloguer est à chaque instant hors de l’emprise du capteur. Par conséquent, nous nous orientons dans cette étude vers une version plus souple et plus facilement adaptable du MHT, le Track-Oriented MHT (TO-MHT) [44, 17]. Le TO-MHT peut être vu comme une hybridation de la résolution par programmation entière et du HO-MHT dans le sens où cette méthode, non-bayésienne, optimise un ensemble de pistes d’observations tout en permettant de reporter les décisions qui seraient prises avec un degré de certitude faible jusqu’à l’arrivée des observations informatives. Le TO-MHT fournit alors une heuristique permettant de constituer de bons scénarios d’association sans passer par une énumération exhaustive des hypothèses, de garder en mémoire ou non des pistes en phase d’initialisation et de filtrer ces pistes à différents niveaux, comme nous le verrons par la suite. 574.5 Conclusion du chapitre 4.5 Conclusion du chapitre Une hypothèse forte faite dans ce chapitre est que le système que l’on cherche à estimer (c’est-à-dire l’orbite d’un objet pisté) est observable (c’est-à-dire qu’une solution unique existe pour le problème d’estimation) compte tenu des observations disponibles. Dans le cas du radar à champ de veille très étroit, les observations d’un même objet sont rares et très espacées dans le temps, ce qui implique un long délai d’observabilité pendant lequel un filtre de Kalman est susceptible de diverger si l’état estimé est mis à jour en temps réel. De plus, ces filtres nécessitent en général la connaissance d’une matrice de covariance de l’erreur de modèle, difficilement accessible dans le cas du modèle SGP que nous utilisons dans ces travaux. En somme, un filtre de Kalman étendu ou non-parfumé est plus complexe à mettre en œuvre qu’un algorithme de Gauss-Newton, plus lourd en temps de calcul certes, mais plus simple et plus robuste. Par ailleurs, la transformation non-parfumée serait la plus performante : elle évite le calcul de matrices jacobiennes et ne nécessite qu’un nombre réduit de particules, ce qui la rend à la fois précise et peu consommatrice en temps de calcul. Pour ces raisons, nous choisissons d’implémenter un algorithme de Gauss-Newton pour l’estimation d’orbite et une transformation non-parfumée pour l’association de nouvelles observations quand une orbite est disponible. L’adaptation de ces méthodes au cas des objets en orbite est décrite au Chapitre 7. Le catalogage nécessite d’implémenter ces méthodes dans un algorithme de pistage multicible. En termes de complexité combinatoire, les algorithmes de pistage multicible présentés sont sensiblement équivalents : dans tous les cas en effet, on quantifie la corrélation de chaque piste existante avec chaque nouvelle observation, que ce soit dans le but de les combiner dans une moyenne pondérée (algorithmes bayésiens) ou de prendre une décision tranchée d’association d’observation à piste (algorithmes non-bayésiens). Ces algorithmes reposent également tous sur une certaine perte d’optimalité pour assurer leur faisabilité. La première perte d’optimalité résulte de l’utilisation d’une fonction de fenêtrage, ce qui permet en effet de réduire le jeu de nouvelles observations pour chaque piste. La seconde perte d’optimalité évidente réside dans la suppression de pistes, qui permet d’une part de réduire le nombre de calculs de corrélation entre pistes et observations nécessaires et d’autre part d’obtenir des tables ou matrices d’association de taille raisonnable. Le choix d’un algorithme pour l’implémentation d’une fonction de catalogage d’objets spatiaux s’oriente vers le TO-MHT. Cette méthode non-bayésienne hérite du principe du HO-MHT dans le sens où elle permet de retarder une décision d’association tant que l’information disponible n’est pas suffisante, ce qui est un avantage important étant donné que les objets spatiaux sont observés par un capteur dont l’emprise est restreinte et génère des pistes dont on ne peut initialement déterminer l’orbite (état) avec précision. Le TO-MHT hérite également du caractère explicite de la méthode par programmation entière du fait qu’elle se concentre sur le traitement direct des pistes quitte à recalculer une solution globale à chaque itération pour les traiter dans leur ensemble. En permettant l’insertion facile de blocs de traitement des pistes, le TO-MHT fait preuve d’une grande adaptabilité. Les algorithmes de pistage multicible permettent de gérer des pistes en s’appuyant 58Chapitre 4 : Pistage sur des fonctions élémentaires d’association d’observation et d’estimation d’état. Cependant, les algorithmes décrits font l’hypothèse de pistes initialisées alors que par définition, une observation isolée ne permet pas de définir une orbite, et donc d’initialiser une piste. L’initialisation du pistage pour les objets spatiaux fait donc l’objet du chapitre suivant. 59Chapitre 5 Détermination d’orbite préliminaire L’initialisation d’une piste pour décrire la trajectoire d’un objet spatial est une diffi- culté majeure dans le cas d’observations isolées pour des raisons de non-observabilité de l’orbite compte tenu du peu d’information acquis à chaque traversée. Dans ce chapitre, nous présentons les méthodes classiques de calcul d’orbite à partir d’observations de position dans le but de cerner précisément les lacunes de l’état de l’art en termes d’initialisation de piste dans le cas d’observations isolées. Dans un premier temps, nous situons la Détermination d’Orbite Initiale (Initial Orbit Determination, IOD) dans le processus de pistage et identifions plus précisément la difficulté de la première association d’observations. Ensuite, quatre méthodes classiques pour l’IOD sont présentées ainsi que la seule tentative publiée à ce jour pour traiter le problème de catalogage de petits débris spatiaux par observations isolées. Sommaire 5.1 Problématique de la Détermination d’Orbite Initiale . . 62 5.2 Trois observations de position . . . . . . . . . . . . . . . . 63 5.2.1 Méthode de Gibbs . . . . . . . . . . . . . . . . . . . . . . 63 5.2.2 Méthode de Herrick-Gibbs . . . . . . . . . . . . . . . . . . 64 5.3 Deux observations de position . . . . . . . . . . . . . . . . 65 5.3.1 Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . 66 5.3.2 Méthode de Battin et révolutions multiples . . . . . . . . 67 5.4 Méthode des débris virtuels (Virtual Debris) . . . . . . . 68 5.4.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 5.4.2 Résultats publiés . . . . . . . . . . . . . . . . . . . . . . . 69 5.5 Insuffisance des techniques existantes . . . . . . . . . . . 70 5.5.1 Pour l’association initiale . . . . . . . . . . . . . . . . . . 70 5.5.2 Pour la Détermination d’Orbite Initiale (IOD) . . . . . . 71 5.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . 71 615.1 Problématique de la Détermination d’Orbite Initiale 5.1 Problématique de la Détermination d’Orbite Initiale Le cycle Association-Estimation décrit dans la Section 4.3 est valable lors de la mise-à-jour des pistes mais également lors de leur initialisation. Naturellement, il est nécessaire d’accumuler des observations (étape d’association) avant de pouvoir calculer une orbite (étape d’estimation). La Détermination d’Orbite Initiale (IOD) est le premier calcul d’orbite, souvent effectué à partir d’un nombre d’observations réduit. Quand davantage d’observations deviennent disponibles, on effectue un calcul d’Orbite Définitive (Definitive Orbit, DO) pour raffiner la connaissance de l’orbite à partir de l’Orbite Initiale (Initial Orbit, IO) et d’observations nouvellement acquises [47, 29, 48]. Association Accumulation du nombre minimal d’observations pour l’IOD Estimation Détermination d’orbite initiale Association Utilisation de l’orbite initiale et du modèle dynamique Premières observations Observations supplémentaires Vers Détermination d’OD Figure 5.1 – L’IOD nécessite d’avoir associé un nombre suffisant d’observations. Les autres observations ont été associées au préalable ou sont associées par la suite grâce à l’orbite initiale et au modèle dynamique. Les méthodes classiques d’IOD telles que la méthode de Gibbs et celle de HerrickGibbs peuvent être utilisées pour calculer une orbite à partir de trois observations de position issues d’un arc de trajectoire de longueur suffisante (capteur à large emprise). Par opposition, les méthodes de résolution du problème de Lambert 1 né- cessitent seulement deux observations de position qui peuvent être éloignées spatialement et dans le temps. Dans les deux cas, la quantité recherchée et le vecteur vitesse associé à l’une des positions connues. Ces méthodes supposent alors : – des observations correctement associées, – un bruit d’observation faible ou nul. On comprend alors que les méthodes d’IOD ne répondent pas au problème d’association initiale et que les sorties de ces algorithmes peuvent être imprécises en raison du bruit d’observation qui génère de la redondance entre deux observations spatialement proches. L’IOD reste cependant une étape essentielle pour le pistage d’objets spatiaux. Dans ce qui suit, nous présentons deux méthodes d’IOD à partir de trois observations 1. Résoudre le problème de Lambert consiste à relier deux positions par une orbite de transfert. 62Chapitre 5 : Détermination d’orbite préliminaire de position ainsi que deux méthodes de résolution du problème de Lambert dont une version permet de traiter le cas d’observations à une ou plusieurs révolutions d’intervalle. 5.2 Trois observations de position Les méthodes de Gibbs et de Herrick-Gibbs sont couramment utilisées pour l’IOD [49]. Ces méthodes font l’hypothèse de trois observations de position r1, r2 et r3, coplanaires dans un référentiel ECI. Compte tenu du bruit d’observation, une certaine erreur de coplanarité doit être admise. Les vecteurs sont supposés être également relativement proches spatialement et temporellement, c’est-à-dire en général issues d’une même traversée d’un objet dans le FOR du capteur. Le bruit d’observation pouvant être important avec notre capteur, la précision de l’orbite initiale obtenue est fortement dégradée, et ce d’autant plus que la proximité spatiale des observations bruitées implique une perte d’information (redondance). r1 r2 r3 Figure 5.2 – Trois observations de position datées permettent le calcul d’une orbite initiale. La précision de cette orbite dépend de la configuration du triplet d’observations (distances relatives, bruit d’observation, etc.). 5.2.1 Méthode de Gibbs La méthode de Gibbs est une méthode purement géométrique inspirée de la méthode de Gauss (non-détaillée dans ce document, cf. [24]) pour l’IOD à partir de trois lignes de visées (deux angles sans mesure de distance obtenues en général par des observations au télescope). L’objectif de cette méthode est le calcul d’un vecteurvitesse v associé à un vecteur-position r. Le couple position-vitesse (r, v) obtenu permet de remonter aux éléments orbitaux grâce au formulaire de l’Annexe C. Les trois vecteurs position r1, r2 et r3 sont supposés coplanaires, avec une certaine tolérance compte tenu du bruit d’observation. La première loi de Kepler permet de déduire l’expression d’un vecteur-vitesse associé à un vecteur-position : 635.2 Trois observations de position v = ± r µ ND  S + D ∧ r r  (5.1) où les trois vecteurs N, D et S (de normes N, D et S, respectivement) sont définis tels que : N = r3r1 ∧ r2 + r1r2 ∧ r3 + r2r3 ∧ r1 D = r1 ∧ r2 + r2 ∧ r3 + r3 ∧ r1 (5.2) S = (r2 − r3)r1 + (r3 − r1)r2 + (r1 − r2)r3 Ce résultat impose que les observations soient séquentielles, c’est-à-dire que l’on connaît leur ordre temporel (même si l’on n’utilise pas directement leurs dates). L’ambiguïté sur le signe de v se résout alors trivialement. On retrouve alors les valeurs des paramètres orbitaux képlériens classiques par le formulaire (C.1)-(C.6). Accessoirement, le vecteur excentricité e (vecteur de norme e qui pointe vers le périgée) est directement accessible par e = S∧N SD . La méthode de Gibbs étant purement géométrique, elle est préférée quand les trois observations sont réparties sur un arc relativement grand, car des angles trop faibles entre les vecteurs-position conduisent à des produits vectoriels quasi-nuls et sujets aux erreurs numériques. Dans la littérature [22], on évoque une limite empirique de 1˚en termes d’angle minimal entre les vecteurs d’observation (cela est également conditionné par la précision des mesures). Par ailleurs, la coplanarité des vecteurs-position utilisés peut se mesurer par un angle αcoplanaire défini par l’équation (5.3), auquel on impose en général d’être inférieur à 3˚pour la pertinence du résultat. αcoplanaire = 90˚ − arccos r2 ∧ r3.r1 kr2 ∧ r3kkr1k (5.3) 5.2.2 Méthode de Herrick-Gibbs À l’instar de la méthode de Gibbs, la méthode de Herrick-Gibbs permet de calculer le vecteur-vitesse v2 à partir de trois positions datées {(t1, r1),(t2, r2),(t3, r3)} avec t1 < t2 < t3. Cette méthode repose sur un principe analytique : elle fait appel à un développement limité de vecteurs position r(t) fonction du temps, ce qui implique des observations rapprochées dans le temps dans la mesure où le bruit d’observation le permet. En partant d’un développement en série de Taylor du vecteur-position r(t) de l’objet considéré autour de t2 à l’ordre 4, évalué en r1 et en r3, on aboutit au système d’équations (5.4)-(5.5). r1 = r2 + r ′ 2∆t12 + 1 2 r ′′ 2∆t 2 12 + 1 3!r (3) 2 ∆t 3 12 + 1 4!r (4) 2 ∆t 4 12 + ≀(∆t 4 12) (5.4) r3 = r2 + r ′ 2∆t32 + 1 2 r ′′ 2∆t 2 32 + 1 3!r (3) 2 ∆t 3 32 + 1 4!r (4) 2 ∆t 4 32 + ≀(∆t 4 32) (5.5) 64Chapitre 5 : Détermination d’orbite préliminaire avec ∆t12 = t1 − t2 et ∆t32 = t3 − t2. En manipulant ces équations et en utilisant l’équation du problème à deux corps r ′′ = − µ r 3 r, on peut démontrer que v2 s’exprime tel que : v2 = r ′ 2 = α r1 + β r2 + γ r3 (5.6) où α, β et γ sont fonction de ∆t12, ∆t13, ∆t23 et de µ : α = −∆t32 1 ∆t21∆t31 + µ 12r 3 1 ! (5.7) β = (∆t32 − ∆t21) 1 ∆t21∆t32 + µ 12r 3 2 ! (5.8) γ = ∆t21 1 ∆t32∆t31 + µ 12r 3 3 ! (5.9) À partir du couple {r2, v2}, on peut calculer les paramètres orbitaux képlériens classiques d’après le formulaire (C.1)-(C.6). L’utilisation de développements limités autour de t2 implique des observations très rapprochées dans le temps pour que l’approximation négligeant les termes ≀(∆t 4 12) et ≀(∆t 4 32) soit valable. La méthode de Herrick-Gibbs est donc complémentaire dans sont domaine d’application à la méthode de Gibbs. Dans [24], des études de cas démontrent que la méthode de Gibbs est plus précise quand les vecteurs-position forment des angles supérieurs à 5˚tandis que la méthode de Herrick-Gibbs est plus précise quand ces mêmes angles sont inférieurs à 1˚. Pour des écarts angulaires compris entre 1˚et 5˚, ces deux méthodes montrent des performances comparables. 5.3 Deux observations de position On appelle le “problème de Lambert” le problème de déterminer une orbite reliant une position initiale r0 à une position finale r1 en un temps ∆t. Résoudre ce problème nécessite de faire des hypothèses supplémentaires. En effet, deux positions peuvent être reliées par une infinité d’orbites képlériennes et un nombre de révolutions maximal entre les deux positions doit être fixé. La méthode de Gauss [50] est une méthode de résolution classique. Elle consiste à déterminer de manière numérique (itérations) un rapport d’aires y dont on déduit le vecteur vitesse v0 associé à la position initiale r0. Pour le cas où plusieurs révolutions sont possibles entre les deux positions, la méthode de Battin est une des méthodes les plus courantes. D’autres méthodes visant à s’affranchir des contraintes liées à la méthode de Gauss (notamment la condition de non-colinéarité) existent (par exemple, la méthode de Thorne [51]) mais ne sont pas décrites dans ce document car elles conservent les mêmes lacunes que les méthodes classiques pour notre problème particulier, c’est-à-dire que le bruit de mesure n’est pas pris en compte et que le coût de calcul n’est pas allégé. 655.3 Deux observations de position r1 r0 ∆ν Figure 5.3 – La résolution du problème de Lambert pour l’IOD consiste à déterminer une orbite reliant deux positions en un temps donné. En général, plusieurs solutions sont possibles en particulier quand on admet que l’objet a pu effectuer plusieurs révolutions. Dans le cas où l’objet effectue moins d’une révolution, on peut trouver deux solutions (sauf cas particulier où les vecteurs-position sont colinéaires). 5.3.1 Méthode de Gauss La méthode de Gauss pour résoudre le problème de Lambert s’appuie sur une expression du semi-paramètre p (avec les paramètres képlériens présentés au Chapitre 3 : p = a(1 − e 2 )), fonction de l’angle formé par r0 et r1, les normes de ces deux vecteurs ainsi que sur la différence d’anomalie excentrique ∆E. La connaissance du semi-paramètre p permet de remonter aux vitesses associées à r0 et r1. Tout le problème revient donc à la résolution de cette équations, dont les inconnues sont p et ∆E : p = 2r0r1 sin2 (∆ν/2) r0 + r1 − 2 √ r0r1 cos(∆ν/2) cos(∆E/2) (5.10) Des techniques plus ou moins classiques sont disponibles pour résoudre cette équation. Dans [24], le rapport y de l’aire balayée par le vecteur-position entre r0 et r1 et de l’aire du triangle formé par ces deux mêmes vecteurs est utilisé. Une expression de ce rapport peut se déduire de la loi des aires : y = √µp∆t r0r1 sin ∆ν (5.11) En y injectant l’expression (5.10), on obtient : y 2 = µ∆t 2 cos−2 (∆ν/2) 2r0r1  r0 + r1 − 2 √ r0r1 cos(∆ν/2) cos(∆E/2) (5.12) où nous rappelons que ∆E désigne la différence des anomalies excentriques (cf. Chapitre 3). L’équation (5.12) peut alors s’écrire sous une forme plus classique : y 2 = m l + x1 , avec    l = r0+r1 4 √r0r1 cos(∆ν/2) − 1 2 m = µ∆t 2 (2√r0r1 cos(∆ν/2))3 x1 = sin2 (∆E/4) (5.13) 66Chapitre 5 : Détermination d’orbite préliminaire Dans [50], il est démontré l’utilité d’une quantité x2 particulière, qui admet un développement en série entière de x1 pour ∆ν < 90˚ : x2 = ∆E − sin ∆E sin3 (∆E/2) = 4 3 1 + 6 x1 5 + 6 × 8 x 2 1 5 × 7 + 6 × 8 × 10 x 3 1 5 × 7 × 9 + ...! (5.14) et qui vérifie de plus : y 3 − y 2 = mx2 (5.15) En injectant l’équation (5.13) dans l’équation (5.15), on obtient : y = (l + x1)x2 + 1 (5.16) En partant d’une valeur arbitraire y = 1, on peut calculer des valeurs de x1 grâce à l’équation (5.13), puis de x2 grâce à l’équation (5.14), puis de y grâce à l’équation (5.16) et ce de manière itérative, ce qui permet de converger vers une valeur estimée de y (substitutions successives). On peut alors calculer p par l’équation (5.11), puis le vecteur-vitesse v0 associé à r0 : v0 = r1 − fr0 g , avec    f = 1 − r1 p (1 − cos ∆ν) g = r1r0 sin ∆ν √µp (5.17) Les quantités f et g sont issues d’une méthode de propagation particulière, détaillée dans [24]. D’autres méthodes de résolution sont disponibles dans la littérature. Cependant, elles nécessitent toutes une résolution numérique (boucle d’itérations) ce qui implique un coût de calcul plus important. 5.3.2 Méthode de Battin et révolutions multiples La méthode de Battin [52] permet de résoudre un problème de Lambert de manière plus robuste en reformulant les équations (5.13) et (5.15), de manière à déplacer la singularité en ∆ν = π de la méthode de Gauss à ∆ν = 2π. Les équations en y deviennent :    y 2 = m (l+x)(1+x) y 3 − y 2 = m ∆E−sin ∆E 4 tan3(∆E/2) (5.18) où l = tan2 ∆ν 2 , m = µ∆t 2 8r 3 0,p et x = tan2 ∆E 2 . La grandeur r0,p est introduite par Battin comme étant la moyenne entre le demi-grand axe de l’ellipse d’excentricité minimale et de la longueur du segment entre le foyer (de cette ellipse) et sa projection orthogonale sur la corde reliant les deux positions observées. Après une résolution par substitutions successives de ce système d’équations (de manière analogue à la résolution par méthode de Gauss), les vitesses aux positions observées peuvent être 675.4 Méthode des débris virtuels (Virtual Debris) retrouvées. Le détail du calcul permettant d’arriver à cette formulation est disponible en [24]. Cette formulation est particulièrement intéressante car elle s’étend aux cas de révolutions multiples [53]. En effet, si N est le nombre de révolutions entre r0 et r1, on peut reformuler le système d’équations (5.18) tel que :    y 2 = m (l+x)(1+x) y 3 − y 2 = mNπ+∆E−sin ∆E 4 tan3(∆E/2) (5.19) où N est le nombre de révolutions autorisé. Pour chaque valeur de N, le système d’équations a deux solutions. Il compte alors 2N + 1 solutions au total (on retrouve les équations originales de Battin pour N = 0, ce qui mène à une solution unique), que l’on peut obtenir par substitutions successives et par substitutions successives inverses. En effet, la méthode par substitutions successives mentionnée précédemment permet de converger vers une solution unique (point attractif), tandis que dans le cas où N > 0, l’autre solution existante constitue un point répulsif. L’inversion des substitutions successives a pour effet de faire de l’autre solution un point attractif à la condition que la valeur initiale soit correctement choisie. 5.4 Méthode des débris virtuels (Virtual Debris) Les méthodes d’IOD que nous évoquons dans les sections précédentes fournissent une orbite initiale à partir d’observations de position associées au préalable. Dans un contexte de trajectographie d’astéroïdes, la méthode des régions admissibles a été développée : elle consiste à définir les énergies possibles d’un astéroïde à partir d’une observation par un télescope. Cette méthode a été par la suite adaptée au cas du catalogage de petits débris spatiaux en orbite géostationnaire par observations optiques sur des arcs courts [54]. Les auteurs soutiennent que cette méthode est adaptable aux catalogage des objets en LEO grâce à des télescopes ou encore grâce à des radars à champ réduit. Il est donc indispensable de faire le point sur cette méthode dans cette thèse. 5.4.1 Principe L’algorithme des débris virtuels fait l’hypothèse qu’on est capable de mesurer quatre grandeurs dans un repère terrestre topocentrique inertiel lors d’une observation : deux angles (α, δ) et leurs dérivées ( ˙α, ˙δ) dans le cas du télescope électro-optique, deux angles (α, δ), la distance et sa dérivée (ρ, ρ˙) dans le cas du radar. Une observation renseigne alors sur quatre paramètres mécaniques et l’on cherche à en déterminer deux autres dans le but d’en déduire une orbite. Cette approche a été motivée notamment par la mise en œuvre d’un capteur électro-optique fournissant de telles mesures à l’observatoire du Teide (ESA Optical Ground Station). Dans la suite de ce document, nous décrivons le principe de la version destinée aux systèmes 68Chapitre 5 : Détermination d’orbite préliminaire radars. Le principe de la méthode repose sur la détermination d’une “région admissible” pour les paramètres d’observation manquants, i.e. le domaine possible dans le plan ( ˙α, ˙δ) dans le cas du radar, en s’appuyant sur une expression de l’énergie mécanique Em sous la contrainte Em < 0 (système lié). L’ensemble des valeurs du couple {α, ˙ ˙δ} vérifie : Em( ˙α, ˙δ) = z1α˙ 2 + z2 ˙δ 2 + z3α˙ + z4 ˙δ + z5 ≤ 0 (5.20) où les coefficients zi sont fonction des grandeurs connues. Le domaine des valeurs de {α, ˙ ˙δ} possibles est donc défini par la condition : Em,min ≤ Em( ˙α, ˙δ) ≤ 0 (5.21) où Em,min est défini par une valeur de demi-grand axe minimal amin. La région recherchée est donc bornée par deux ellipses concentriques d’équations Em( ˙α, ˙δ) = Em,min et Em( ˙α, ˙δ) = 0. E = 0 E = Emin α˙ ˙δ Figure 5.4 – La région recherchée est bornée par deux ellipses concentriques. Cette région est ensuite échantillonnée pour pallier le manque d’information disponible, puis propagée dans le but d’associer une seconde observation. Une fois le domaine réduit autant que possible par la prise en compte de contraintes supplémentaires (les trajectoires balistiques sont exclues, etc.), on l’échantillonne et on calcule l’orbite liée à chaque nœud. Chaque nœud représente alors un “débris virtuel” propagé dans l’espoir d’être corrélé avec une autre observation. 5.4.2 Résultats publiés La version “optique” de cette méthode a été testée sur des données issues de capteurs optiques et les résultats présentés et publiés dans [55] et [56]. Bien que ses auteurs 695.5 Insuffisance des techniques existantes soutiennent l’adaptabilité de cette méthode de cas du radar, aucune étude n’a été conduite pour le prouver. Cette méthode a été testée une première fois sur les données issues de la campagne d’acquisition du système ESA Optical Ground Station (ESAOGS) menée en 2007 sur les GEO et a permis de déterminer 109 orbites à partir de 3172 observations 4-D isolées (pas de vérité terrain). Une deuxième étude est disponible dans [57], et présente les résultats de l’application de la méthode des débris virtuels sur les données issues du même télescope en 2007, acquis sur une durée de 81 nuits. Sur 3177 observations isolées, 1503 ont été corrélées (pas de vérité terrain). 5.5 Insuffisance des techniques existantes 5.5.1 Pour l’association initiale La méthode des “Débris Virtuels” est une approche intéressante proposée dans [58, 57]. Elle permet à partir d’une unique observation de générer des particules sur les dimensions non-mesurées de l’espace d’observation afin de combler la méconnaissance de certaines composantes du vecteur d’état. La pertinence de cette méthode au cas d’un radar monostatique n’a pas été pleinement étudiée bien que l’idée d’une mesure à 4 dimensions ait été évoquée dans [58, 57]. Or, il semble difficile de mesurer conjointement une distance et une vitesse radiale du fait de contraintes en temps et en puissance liées au fonctionnement du capteur. Les équations montrées dans [58] ne sont donc pas valides dans les hypothèses de cette étude. Dans son principe, cette méthode comble le manque d’information disponible dans chaque observation isolée par la génération de particules que l’on propage par la suite (cette méthode s’apparente donc aux méthodes de filtrage particulaire). La généralité de cette méthode est plus ou moins préservée selon l’information a priori que l’on inclut dans la définition de la région “admissible” à échantillonner (par l’exemple un critère sur l’altitude du périgée). En revanche, la complexité algorithmique n’a pas été évaluée et pourrait être une faiblesse : générer et gérer (c’est-à-dire propager et corréler) des particules est en général une approche lourde et pourrait ne pas permettre d’associations efficaces (c’est-à-dire avec une ambiguïté faible) dans ce cas particulier. En effet, si deux observations quelconques permettent de déduire une ou plusieurs orbites dont les paramètres respectent les mêmes critères que ceux utilisés dans la définition de la région admissible, alors cette association est valide. Le nombre d’orbites valides résultant de l’application de cette méthode doit alors être estimé pour mesurer ses performances en termes de coût de calcul. 70Chapitre 5 : Détermination d’orbite préliminaire 5.5.2 Pour la Détermination d’Orbite Initiale (IOD) La complexité de la méthode d’IOD est un facteur important compte tenu notamment du bruit d’observation. En effet, le capteur dont nous faisons l’hypothèse implique que les observations peuvent être très proches dans un repère inertiel. Le bruit d’observation peut alors conduire, dans un nombre important de cas, à des résultats inexploitables. Cette difficulté peut être palliée par l’utilisation de particules (méthode de Monte-Carlo) qui consistent alors à déterminer une orbite grâce à une technique classique pour n paires ou triplets d’observations issus d’un tirage aléatoire sur chaque volume d’incertitude des observations disponibles dans le but de construire une distribution statistique dans l’espace des orbites. Il faut donc résoudre le problème n fois pour chaque jeu d’observations disponible pour prendre en compte l’influence du bruit d’observation. Pour les méthodes de type Lambert en particulier, cela est très coûteux en temps de calcul car ces méthodes impliquent une ou plusieurs boucles de substitutions successives pour la convergence de certains paramètres à estimer pour le calcul d’orbite. Disposer d’une méthode d’IOD moins coûteuse permettrait alors de compenser la lourdeur d’une méthode de Monte-Carlo pour prendre en compte le bruit d’observation et faciliterait l’estimation d’orbite initiale. 5.6 Conclusion du chapitre Dans ce chapitre, nous avons fait l’état des algorithmes de Détermination d’Orbite Initiale (IOD) les plus courants qui prennent en entrée des mesures de position. Quand trois observations de position sont disponibles, les méthodes de Gibbs ou de Herrick-Gibbs fournissent une solution directe sous certaines conditions : les observations doivent être relativement proches dans le temps, ne pas être colinéaires, être coplanaires avec le centre de masse de la Terre et peu bruitées. Quand seulement deux observations de position sont disponibles, alors la résolution du problème de Lambert associée demande un effort de calcul plus important : une résolution numérique faisant appel à une ou plusieurs boucles de substitutions successives est systématiquement utilisée dans les algorithmes que nous avons évoqués. Enfin, quand une unique observation de position est disponible, l’algorithme des “débris virtuels” peut éventuellement fournir une solution dans le cas d’observations optiques isolées pour les orbites géostationnaires mais n’a cependant jamais été testé pour des observations radars isolées d’objets en orbite basse. Les algorithmes présentés dans ce chapitre souffrent alors de limitations importantes : les contraintes d’utilisation sont fortes pour les méthodes de Gibbs ou de Herrick-Gibbs, le coût de calcul est important pour les méthodes de type Battin et la méthode des débris virtuel demanderait de grandes capacités calculatoires pour le calcul de régions admissibles et leur propagation sans pour autant fournir de ré- sultats probants. Dans tous les cas, le bruit d’observation n’est pas pris en compte. 71Conclusion de la deuxième partie Le maintien d’un catalogue d’objets en orbite basse peut se traiter par les méthodes existantes car il s’agit d’associer de nouvelles observations à des orbites précises et de mettre à jour ces orbites. La littérature sur ce sujet (pistage multicible, mise-à-jour de pistes) est abondante contrairement à la littérature traitant de l’initialisation de piste. L’initialisation de pistes est relativement simple quand on dispose d’un capteur dont le champ de veille est de grande emprise car des fonctions de type “chaînage de plots” [59] peuvent en général être appliquées le temps qu’une valeur du vecteur d’état soit disponible. L’initialisation du pistage par observations isolées est en revanche problématique car il est difficile d’associer les observations nécessaires à la Détermination d’Orbite Initiale (IOD) quand la densité de détection est élevée et que les observations d’un même objet se font à des intervalles de temps longs (1h) voire très longs (10h-24h). Cela peut en effet impliquer une complexité combinatoire exponentielle nécessitant une puissance de calcul inaccessible. En effet pour la détermination d’orbite initiale, les méthodes de Gibbs et de HerrickGibbs sont analytiques et requièrent l’association préliminaire de trois observations tandis que la méthode de Battin fait appel à des substitutions successives pour obtenir des solutions à partir de deux observations. Faute de méthode permettant l’association préliminaire des observations nécessaires à ces méthodes, la problématique d’initialisation de piste reste ouverte dans le cas des observations isolées. 100 150 200 250 10 20 30 azimut θ (˚) elevation φ (˚) 100 150 200 250 10 20 30 azimut θ (˚) elevation φ (˚) Figure 5.5 – Exemple d’observations simulées de l’objet “THOR ABLESTAR DEB” présent dans le catalogue Space-Track par un capteur à large champ de veille (gauche) et par un capteur à champ de veille étroit (droite). Ces observations sont accumulées sur une période de 9 heures dans un référentiel topocentrique sphérique East-North-Up (cf. Chapitre 3). Aucune fausse alarme n’a été ajoutée. Aucun bruit de mesure n’a été ajouté. La mesure en distance n’est pas représentée. 73Troisième partie Traitement des observations issues d’un radar à champ de veille restreint pour le catalogage de petits débris 75Positionnement De manière générale, de nombreux critères de performance peuvent intervenir dans une fonction de catalogage comme par exemple la couverture, le coût de calcul, la précision ou encore la réactivité : – La couverture est définie dans notre cas par la proportion d’objets catalogables par le système, – Le coût de calcul impacte essentiellement la faisabilité du système (c’est-à-dire que la puissance de calcul requise peut être très difficile à mettre en œuvre voire inatteignable). Cependant, les ressources informatiques sont actuellement et en général de moindre coût par comparaison aux composants du capteur physique, ce qui incite à chercher un compromis visant à renforcer les contraintes sur le traitement de données afin de relâcher les contraintes sur le capteur physique, – La précision des orbites calculées influence la fréquence d’observation nécessaire pour ne pas perdre un objet et assurer la fonction de catalogage mais également la qualité de produits dérivés du catalogue. Par exemple, l’imprécision des orbites issues d’un catalogue tel que Space-Track nécessite en général la mise en œuvre de moyens complémentaires pour l’alerte anti-collision, – La réactivité est définie par la latence entre l’instant où un nouvel objet est présent en orbite et l’instant où il est catalogué. Nous supposons dans cette étude que les débris spatiaux sont sur des orbites proches des satellites existants. Il s’agit donc de couvrir l’ensemble des orbites basses sachant que la majorité des objets à cataloguer ont une forte inclinaison et une faible excentricité en général (cf. Chapitre 3). Le coût de calcul est un élément critique dans notre cas : l’impossibilité de calculer un vecteur d’état complet à partir d’une seule traversée du champ de veille implique une complexité combinatoire importante et porte l’essentiel du problème de catalogage par observations isolées sur les premières associations d’observations à moyen et long terme (intervalles de temps de l’ordre de l’heure ou de la dizaine d’heures) pour l’initialisation du pistage de chaque objet. En effet, le nombre d’associations d’observations possibles est très grand : sans méthode heuristique efficace, il faudrait envisager C 2 N (2 parmi N) ou C 3 N (3 parmi N) cas à tester, où N désigne le nombre d’observations accumulées sur un intervalle de temps suffisamment grand pour que l’on puisse y trouver deux ou trois observations issues de chaque objet. Dans le cas du capteur défini au Chapitre 2 (revisite de 10 s et taux de fausse alarme de 1 FA/s) et d’environ 11 000 objets en orbite basse, on obtient environ 20 observations par scan. Si l’on considère que tous les objets présents passent dans le champ 77Positionnement de veille deux ou trois fois en 24 heures, alors il faut tester C 2 172800 (de l’ordre de 1, 5.1010) ou C 3 172800 (de l’ordre de 8, 6.1014) possibilités. Dans le cas d’un nombre d’objets de l’ordre de 100 000, on atteint C 3 8,7.105 = 1, 1.1017 hypothèses d’association à tester. Tester l’exactitude d’un triplet d’observations de position requiert au moins 20 000 FLOP (FLoating point OPerations) sous des hypothèses extrêmement optimistes. Tester C 3 8,7.105 = 1, 1.1017 triplets en 24h nécessite alors 2, 2.1021 FLOP, soit 2, 5.1016 FLOP/s en moyenne. Actuellement, une telle puissance informatique est loin d’être atteignable. De longs intervalles de temps entre les observations issues d’un même objet peuvent cependant être bénéfiques : si l’on suppose que l’on sait associer des observations à long terme alors le filtrage du bruit d’observation est efficace car la dynamique orbitale est relativement déterministe si l’objet ne manœuvre pas. Cela permettrait alors de relâcher des contraintes de précision de mesure. En revanche, la nécessité d’associer des observations sur de longs intervalles de temps entraîne nécessairement une perte de réactivité. Cela est de moindre importance car nous avons fait l’hypothèse que d’autres capteurs existants permettaient de cataloguer les objets manœuvrants, de taille plus importante, pour nous concentrer sur les objets plus petits et non-manœuvrants. La question de la réactivité est en effet plus cruciale lorsque l’on s’intéresse à des missions de surveillance dans un contexte militaire. Les travaux de cette thèse se concentrent par conséquent sur les méthodes d’association d’observations issues de mêmes objets à de longs intervalles de temps, sans connaissance a priori du vecteur d’état et en évitant le coût de calcul exponentiel qui résulterait du test de chaque association potentielle. Objectifs Cette thèse se pose quatre objectifs en vue de proposer un nouvel algorithme de catalogage et d’en étudier la faisabilité. Proposer une nouvelle technique de première association peu ambiguë L’association préalable de deux ou trois observations pour initialiser le pistage des objets en orbite est incontournable. Or, la méthode des Débris Virtuels, seule tentative publiée à ce jour, ne semble pas apporter de solution suffisante dans le cas d’observations radar au vu des analyses et résultats publiés par ses auteurs. Par conséquent, un autre moyen d’associer deux observations (dans un premier temps) tout en limitant la complexité combinatoire doit être trouvé. Proposer une méthode rapide de détermination d’orbite Les observations radars sont en général de faible précision. Le bruit d’observation peut alors avoir un impact significatif sur la qualité de l’orbite calculée, en particulier 78quand les observations sont spatialement proches. Or, la configuration de capteur choisie au Chapitre 2 ne permet d’observer les objets que sur de courtes portions d’orbites et impose alors de prendre en compte le bruit d’observation dans l’estimation d’orbite. Cela peut être fait par la génération de particules dans les volumes d’erreur des observations (méthode de type Monte-Carlo). Afin de compenser cette lourdeur, une méthode de détermination d’orbite de coût calculatoire adapté doit être élaborée. Évaluer les techniques proposées dans un contexte multicible L’obstacle principal à la faisabilité d’un système de catalogage utilisant un champ de veille étroit (nappe fine) réside dans la complexité combinatoire induite par les observations isolées et une forte densité de détection. L’efficacité des méthodes d’initialisation proposées dans cette thèse doit alors être évaluée dans un contexte multicible afin de déterminer notamment le taux de couverture atteint en simulation, la robustesse à certains paramètres (tels que les performances en détection ou la précision de mesure) et la complexité combinatoire résultante. Modéliser la complexité combinatoire La complexité combinatoire est évaluée pour des scénarios faisant intervenir quelques centaines d’objets (de 500 à 800 objets simulés). Or, la densité de détections réelle attendue serait bien plus élevée car on estime à plusieurs centaines de milliers le nombre de petits débris en orbite basse. Il est alors important d’essayer d’extrapoler les résultats obtenus à des scénarios plus complexes pour évaluer la faisabilité de l’algorithme à des densités de détections plus réalistes. Pour cela, nous nous fixons pour dernier objectif de modéliser les performances de l’algorithme de catalogage obtenu notamment en termes de complexité combinatoire. Cela permet par ailleurs d’identifier certains points de compromis ajustables en fonction de la présence ou non d’un second capteur. 79Chapitre 6 Association initiale par modélisation comportementale La Détermination d’Orbite Initiale (IOD) nécessite un jeu de deux ou trois observations préalablement associées. Dans le cas d’observations isolées, associer les premières observations n’est pas trivial car on ne peut pas calculer d’état (paramètres orbitaux) à partir de chaque observation pour les corréler entre elles. Ce chapitre présente alors une nouvelle méthode pour l’association de deux observations isolées. Pour cela, nous caractérisons les paires d’observations à une révolution d’intervalle dans un espace de paramètres bien choisi à partir de données extraites du catalogue Space-Track. Il s’agit alors de mettre en œuvre un algorithme capable d’apprendre les particularités de ce “motif” (les paires d’observations à une révolution d’intervalle) pour ensuite le reconnaître en ligne et filtrer les paires d’observations peu vraisemblables. Cela permet d’associer une paire d’observations avec une ambiguïté d’association faible, c’est-à-dire que chaque observation initiale donne lieu à un nombre relativement faible de paires d’observations potentiellement issues du même objet et limite ainsi la complexité combinatoire. Sommaire 6.1 Paires d’observations à une révolution d’intervalle . . . 82 6.1.1 Observations issues du capteur supposé . . . . . . . . . . 83 6.2 Discrimination des paires d’observations . . . . . . . . . 86 6.2.1 Structure de l’algorithme résultant . . . . . . . . . . . . . 86 6.2.2 Base d’apprentissage . . . . . . . . . . . . . . . . . . . . . 87 6.2.3 Estimation du support par One-Class SVM . . . . . . . . 88 6.2.4 Calcul d’un rapport de vraisemblance . . . . . . . . . . . 92 6.3 Évaluation préliminaire des performances . . . . . . . . . 95 6.3.1 Fenêtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 6.3.2 Score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 6.3.3 Rappel et ambiguïté obtenus par fenêtrage et SPRT . . . 98 6.4 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . 98 816.1 Paires d’observations à une révolution d’intervalle 6.1 Paires d’observations à une révolution d’intervalle La connaissance du couple position-vitesse étant équivalente à la connaissance d’une orbite képlérienne (cf. Chapitre 3), il est évident qu’une unique observation de position est insuffisante pour déterminer tous les paramètres orbitaux permettant de décrire le mouvement d’un objet en orbite. Une approche triviale est de générer des particules dans l’espace des vitesses pour former un ensemble de vecteurs positionvitesse possibles. Cette approche est reprise par la méthode des “Débris Virtuels”, déjà largement évoquée dans ce document, qui permet un échantillonnage équivalent efficace en prenant en compte des éléments de mécanique orbitale. Chaque particule est alors propagée et éventuellement corrélée à de nouvelles observations. L’approche proposée dans cette section est inverse : c’est à partir de paires d’observations particulières que l’on déduit une unique orbite (approchée et avec une certaine incertitude). La connaissance de cette orbite est alors suffisante, comme nous le prouvons au Chapitre 7, pour associer une troisième observation et initialiser le pistage. Il est donc question d’évaluer la corrélation de deux observations en contournant au mieux les considérations de mécanique orbitale (car cette voie a déjà été explorée par la méthode des Débris Virtuels). Cela revient à comparer deux observations de même nature (observations de position 3D), c’est-à-dire à analyser leur différence dans un repère donné. La différence, ou distance, entre deux observations peut prendre des valeurs quelconques si l’on ne considère aucun critère restrictif supplémentaire, c’est-à-dire qu’un très grand nombre de paires d’observations sont alors potentiellement corrélables (il est d’ailleurs possible que la méthode des Dé- bris Virtuels tombe dans ce défaut). C’est pour cette raison que nous choisissons de nous intéresser à un sous-ensemble de paires d’observations dont nous prouverons qu’il permet une ambiguïté d’association faible : l’ensemble des paires d’observations issues du même objet à une révolution d’intervalle. Pertinence L’étude préliminaire d’un ensemble d’observations issues d’une simulation des objets du catalogue Space-Track sur 30 jours nous permet de déduire les valeurs suivantes : – 11 807 objets passent dans le champ de veille, soit la quasi-totalité des objets en orbite basse contenus dans le catalogue Space-Track, – 37,36% des observations successives d’un même objet sont espacées d’environ une révolution, – 99,83% des objets passent dans le champ de veille à une révolution d’intervalle au moins une fois sur 30 jours. Cela démontre que les observations à une révolution d’intervalle sont relativement fréquentes et devraient permettre une bonne couverture de l’ensemble des objets en orbite basse. 82Chapitre 6 : Association initiale par modélisation comportementale 6.1.1 Observations issues du capteur supposé Les objets en orbite basse sont observés par un capteur tel que défini au Chapitre 2. Rappelons que celui-ci fournit trois mesures datées par observation, qui peuvent s’agencer dans le vecteur d’observation suivant : z =   t ρ θ φ   (6.1) où t est l’instant de l’observation z, ρ, θ et φ sont respectivement la mesure de distance capteur-cible, la mesure d’azimut et la mesure d’élévation. Les bruits associées sont σρ = 30 m et σθ = σφ = 0, 2˚. De par leur nature, ces observations peuvent s’exprimer dans des référentiels diffé- rents (référentiel capteur, géocentrique fixe ECF, géocentrique inertiel ECI, etc.). En revanche, le volume d’erreur d’observation n’est décrit de manière simple que dans le référentiel capteur. Choix des descripteurs d’une paire d’observations Choisir de décrire une paire par la distance cartésienne entre les observations qu’elle comporte est l’option la plus simple. Cependant, la symétrie de la distance cartésienne néglige l’information que comportent Θ (caractéristiques du capteur, notamment la forme et l’orientation du champ de veille) et les particularités de la population d’objets en orbite basse. Par conséquent, nous proposons un vecteur de description x(i, j) d’une paire d’observations comportant cinq composantes moins conventionnelles, désignées par τ , dr, drλ, dθ et r. Le rayon géocentrique r (ou l’altitude) étant un paramètre dont dépend en particulier τ , nous l’incluons dans le vecteur x(i, j). La fonction f extr. qui permet d’extraire x(i, j) d’une paire d’observations {zi , zj} se définit telle que : f extr. : R 4 × R 4 7−→ R 5 {zi , zj} =      ti ρi θi φi   ,   tj ρj θj φj      7−→ x(i, j) =   τ (zi , zj ) dr(zi , zj ) drλ(zi , zj ) dθ(zi , zj ) r(zi)   (6.2) où nous rappelons que ti désigne l’instant de l’observation zi , ρi la mesure de distance associée, θi et φi les mesures d’angles associées. Le paramètre τ est la différence des dates des observations, dr est la valeur absolue de la différence de rayon géocentrique, 836.1 Paires d’observations à une révolution d’intervalle drλ est la longueur de l’arc de longitude (cf. Figure 6.1), dθ est la valeur absolue de la différence d’azimut de détection : dr(zi , zj ) = |ri − rj | drλ(zi , zj ) = |λiri − λjrj | (6.3) dθ(zi , zj ) = |θi − θj | où r représente un rayon géocentrique lié à une observation et λ représente une longitude dans un référentiel ECI : r = krk = kr ECI obs. + r ECI capteurk (6.4) λ = arccos  rX rXY  avec r ECI obs. le vecteur observé capteur-cible dans un référentiel géocentrique inertiel (ECI), r ECI capteur le vecteur-position du capteur dans un référentiel ECI, rX la composante du vecteur r en u ECI X (vecteur unitaire du plan équatorial) et rXY la composante du vecteur r dans le plan équatorial {u ECI X , u ECI Y } (cf. Chapitre 3). La Figure 6.1 permet de mieux comprendre la géométrie des paramètres dr et drλ. u ECI X u ECI Z dr drλ λ ri rj zi zj O Figure 6.1 – Exemple de dr et de drλ dans un repère ECI. λ est la différence de longitudes des observations dans un repère ECI. Le choix du paramètre dr est motivé par la faible excentricité des orbites des objets (cf. Chapitre 3). En effet, la variation d’altitude est telle que r ∈ [ao(1 − eo), ao(1 + eo)], ce qui pour une excentricité eo faible, entraîne une plage de variation de rayon r étroite. Le choix du paramètre drλ est alors immédiat car il représente une dimension orthogonale et homogène à celle de dr. Le paramètre dθ impacte fortement les valeurs que peuvent prendre dr et drλ, notamment pour les observations à une révolution d’intervalle. Comme l’illustre la Figure 6.2, une plus petite valeur de dθ implique des valeurs de dr et de drλ plus petites en moyenne car les portions d’orbite observées sont plus proches. De même, dθ influence τ mais dans de moindres proportions. Enfin, les paramètres r et τ sont fortement liés par la troisième loi de Kepler. 84Chapitre 6 : Association initiale par modélisation comportementale Nous notons E l’ensemble des paires d’observations quelconques (issues du même objet ou non), et F l’ensemble des vecteurs x possibles : F = f extr.(E) (6.5) L’ensemble des paires d’observations à une révolution d’intervalle est un sous-ensemble de E que nous notons E1rév. Ensemble des paires d’observations à une révolution d’intervalle Nous justifions dans la section précédente l’intérêt des paires d’observations à une révolution d’intervalle : elles permettent, comme nous le prouvons dans la suite de ce document, d’associer des observations avec une faible ambiguïté. Nécessairement, un élément de E1rév comporte des observations issues d’un même objet (la notion d’une révolution d’intervalle n’aurait autrement pas de sens). Nous introduisons alors les deux hypothèses H1 et H0 portant de manière générale sur des pistes potentielles : – H1 : “les observations de la piste sont issues du même objet” ou dans le cas d’une piste de deux éléments “les observations zi et zj sont issues du même objet”, – H0 : “les observations de la piste ne sont pas issues du même objet” ou dans le cas d’une piste de deux éléments “les observations zi et zj ne sont pas issues du même objet”, Notons que H0 = H1. Dans un référentiel géocentrique inertiel (ECI), un objet en orbite passe par des positions proches d’une révolution à l’autre. C’est de cet aspect de pseudo-périodicité du mouvement que nous tirons avantage pour la corrélation d’observations. Par ailleurs, la forme et l’orientation du champ de veille du capteur dont nous faisons l’hypothèse (cf. Chapitre 2) sont choisies telles que les portions des orbites observées sont variables en fonction de l’azimut de détection (cf. Figure 6.2). Cela induit donc un facteur supplémentaire de variation de la position associée à une détection d’une révolution à la suivante. North ⊙Up S East Figure 6.2 – La forme et l’orientation du champ de veille (représenté en rouge) impliquent l’observation de portions d’orbites (représentées en bleu) différentes selon l’azimut de dé- tection. Formellement, on peut expliciter l’ensemble E1rév des paires d’observations issues du même objet à une révolution d’intervalle de la manière suivante : 856.2 Discrimination des paires d’observations E1rév = n {zi , zj} | H1(zi , zj ), τmin(Θ) ≤ τ (zi , zj ) ≤ τmax(Θ)o (6.6) où H1(zi , zj ) désigne l’assertion “les observations zi et zj sont issues du même objet”, τ (zi , zj ) est la différence temporelle en valeur absolue entre zi et zj , τmin(Θ) et τmax(Θ) sont les valeurs qui encadrent le temps d’une révolution. Comme nous l’indiquons dans la notation, ces bornes sont fonction des paramètres de forme et d’orientation du champ de veille du capteur, désignés par Θ. En orbite basse, une révolution dure au moins 88 minutes et au plus 127 minutes. Ces valeurs sont minorées ou majorées de 5% dans notre cas pour prendre en compte l’influence de Θ : τmin(Θ) = 88 × 60 × 0, 95 ≃ 5.103 s τmax(Θ) = 127 × 60 × 1, 05 ≃ 8.103 s 6.2 Discrimination des paires d’observations Nous cherchons maintenant à caractériser l’ensemble E1rév des paires d’observations issues d’un même objet à une révolution d’intervalle en estimant la densité de probabilité pF1rév d’une loi sous-jacente dans l’espace image de f extr., noté F. Pour cela, nous pouvons disposer, grâce à la simulation, d’un échantillon F sim 1rév = f extr.(E sim 1rév) (base d’apprentissage). La disponibilité d’échantillons de test permet d’appliquer d’une part une technique d’apprentissage (en l’occurrence nous utilisons un OneClass SVM) pour estimer le support de pF1rév et d’autre part une technique d’estimation de densité (en l’occurrence les fenêtres de Parzen-Rosenblatt) pour estimer les valeurs que prend pF1rév loin du contour de son support. Cela permet de tester l’appartenance au support de pF1rév d’un vecteur de description x(i, j) associé à une paire d’observations {zi , zj} à évaluer ainsi que de comparer sa log-vraisemblance Li,j à un seuil sSPRT,1 défini par le Sequential Probability Ratio Test (SPRT) à la Section 4.3.2. Nous avons défini l’ensemble E, l’ensemble E1rév et la fonction f extr.. Nous manipulons maintenant les ensembles suivants : F = f extr.(E) F1rév = f extr.(E1rév) (6.7) F sim 1rév = f extr.(E sim 1rév) 6.2.1 Structure de l’algorithme résultant La méthode proposée se décompose en deux étapes : une étape “hors-ligne”, où l’on met en forme une information a priori extraite d’une simulation s’appuyant 86Chapitre 6 : Association initiale par modélisation comportementale sur le catalogue existant Space-Track (dont nous rappelons qu’il serait lui-même un échantillon représentatif de la population de débris orbitaux), et une étape “enligne”, où l’on utilise cette information pour le filtrage de paires d’observations potentiellement issues du même objet, comme l’indique la Figure 6.3. Étape hors-ligne (apprentissage) Étape en-ligne Simulation f extr. One-Class SVM Parzen-Rosenblatt E sim 1rév F sim 1rév Fˆ 1rév pˆF1rév Observations disponibles f extr. {zi , zj} x(i, j) x(i, j) ∈ Fˆ 1rév ? sSPRT,1 ≤ Li,j ? oui rejet association valide non non oui Figure 6.3 – Vue d’ensemble de la méthode proposée pour la première association. Le One-Class SVM permet de discriminer les paires d’observations {zi , zj} selon l’appartenance de leurs descripteurs x(i, j) à une certaine région. Les fenêtres de Parzen-Rosenblatt permettent de discriminer les paires d’observations selon une mesure de vraisemblance Li,j . Sachant que F1rév ⊂ F (car E1rév ⊂ E et f extr. est continue), le support estimé Fˆ 1rév ne pourra être utilisé que dans le sens de la rejection de l’hypothèse H1 : “les observations zi et zj sont issues du même objet”. En effet : x(i, j) ∈ F1rév ⇒ {zi , zj} ∈ E1rév ⊂ E ⇔ H1 ∪ H1 (6.8) x(i, j) ∈ F/ 1rév ⇒ {zi , zj} ∈ E / 1rév ⇒ H1 (6.9) Le même raisonnement s’applique également à l’évaluation de la vraisemblance. Cela permet d’éliminer un très grand nombre de paires d’observations incorrectes, comme nous le voyons en Section 6.3. 6.2.2 Base d’apprentissage Les objets en orbite basse ne sont pas uniformément répartis dans l’espace des orbites. En effet, les excentricités des objets sont en moyenne faibles et les inclinaisons 876.2 Discrimination des paires d’observations fortes, en plus d’une concentration inégale selon l’altitude (Figure 3.4). De plus, les paramètres τmin et τmax caractérisant dans une certaine mesure l’ensemble E1rév dépendent de l’ensemble de paramètres intrinsèques au capteur Θ. De même, l’ensemble F1rév dans l’espace des paramètres τ , dr, drλ, dθ et r est fonction de Θ. Pour ne pas avoir à chercher une expression analytique de la relation, si tant est qu’elle existe, entre F1rév, les paramètres Θ et la distribution des objets en orbite basse dans l’espace des paramètres orbitaux, nous adoptons une approche numérique. Notre approche consiste alors à générer des éléments de E1rév grâce au catalogue Space-Track. Pour chaque orbite basse contenue dans le catalogue, nous simulons les observations de l’objet sur une période de 30 jours. Pour cela, la fonction fSGP mentionnée lors de la description du modèle SGP à la Section 3.4 est mise en œuvre. À chaque pas de temps, la position de l’objet est simulée et enregistrée si elle est dans le champ de veille du capteur (Field Of Regard, FOR). Parmi les observations disponibles en sortie de ce processus de simulation, nous ne conservons que les paires d’observations séparées d’un temps τ tel que 5.103 s ≤ τ ≤ 8.103 s. Les 16 552 paires d’observations extraites de ce processus forment alors un ensemble E sim 1rév d’échantillons simulés de E1rév, dont nous déduisons un ensemble F sim 1rév d’échantillons simulés de F1rév. 6.2.3 Estimation du support par One-Class SVM Nous cherchons à estimer F1rév, c’est-à-dire le support de pF1rév , afin de pouvoir déterminer si les observations d’une paire candidate sont potentiellement issues du même objet ou non. Cela revient à un problème de classification semi-supervisé : nous disposons d’un échantillon F sim 1rév à partir duquel il faut inférer une frontière permettant de discriminer des éléments de l’ensemble F, c’est-à-dire déterminer si un élément donné de F appartient à F1rév. L’algorithme One-Class Support Vector Machine (One-Class SVM) [60] est particulièrement adapté à notre problème d’estimation de support. Cet algorithme de classification est une version particulière de l’algorithme SVM bi-classe classique. Son principe consiste à utiliser l’origine comme le “prototype” de la classe H0 afin de déterminer une frontière autour des échantillons disponibles de la classe H1 (en l’occurrence les éléments de F sim 1rév). Cet algorithme permet d’estimer le (1 − ν)-quantile défini comme la région C de l’espace de volume minimal (au sens classique d’une mesure de Lebesgue µ) qui comprend au moins une proportion (1 − ν) de l’échantillon disponible F sim 1rév. Des éléments de F sim 1rév sont alors sélectionnés par l’algorithme afin de résoudre le problème d’optimisation sous contrainte : Q(1 − ν) = arg min C∈B(Rq),p(C)>1−ν µ(C) (6.10) où la région C correspond à une estimation de F1rév : C = Fˆ 1rév. Une méthode de résolution est fournie dans [60], où il est démontré que la règle de 88Chapitre 6 : Association initiale par modélisation comportementale décision à appliquer à un vecteur candidat x peut s’exprimer par : g(x) = sgn X n αik(x n Fsim 1rév , x) + b ! ∈ {−1; 1} (6.11) où k(., .) est une fonction noyau, {αi} un ensemble de multiplieurs de Lagrange et b un seuil résultant de l’optimisation effectuée par la One-Class SVM. Si g(x) = 1, alors x ∈ Fˆ 1rév ; si g(x) = −1, alors x ∈/ Fˆ 1rév. En définitive, le One-Class SVM prend en entrée : – les éléments de F sim 1rév, – le paramètre ν définissant la proportion minimale d’éléments de F sim 1rév inclus dans la région C à définir, – une fonction noyau k(., .) que l’on choisit en général et dans cette étude gaussien : k(x, y) = exp−kx−yk 2/γ (paramétrée par γ dans ce cas). En sortie, cet algorithme fournit une région de l’espace de F sim 1rév définie par : – un ensemble de “vecteurs de support” {x i Fsim 1rév }, – un ensemble de réels {αi} (définis comme des multiplieurs de Lagrange) associés aux vecteurs de support, – un seuil b. Afin de paramétrer au mieux la One-Class SVM, nous analysons les échantillons disponibles. Analyse de l’échantillon F sim 1rév L’observation des échantillons F sim 1rév dans ses sous-espaces nous permet d’observer une très faible corrélation des paramètres τ , dr et drλ. En revanche, il existe une corrélation nette entre τ et r, entre dr et dθ et entre drλ et dθ, comme le montrent les Figures 6.4, 6.5 et 6.6. 6,800 7,000 7,200 7,400 7,600 7,800 8,000 5,000 6,000 7,000 8,000 r (Km) τ (s) Figure 6.4 – Exemple de 500 échantillons de F1rév simulés dans le plan (r, τ ). Nous pouvons observer que τ varie en fonction de r comme le prévoit la troisième loi de Kepler, la dispersion sur l’axe τ pour une valeur de r fixe étant due à l’observation de portions d’orbites en général différentes d’une révolution à l’autre (Figure 6.2). 896.2 Discrimination des paires d’observations On observe également un défaut d’échantillons pour les valeurs de r comprises entre 7 500 Km et 7 700 Km dû à une faible densité de satellites à l’altitude correspondante (cf. Chapitre 1). 0 10 20 30 40 50 60 70 80 0 20 40 60 80 dθ (˚) dr (Km) Figure 6.5 – Exemple de 500 échantillons de F1rév simulés dans le plan (dθ, dr). 0 10 20 30 40 50 60 70 80 0 200 400 600 800 1,000 dθ (˚) drλ (Km) Figure 6.6 – Exemple de 500 échantillons de F1rév simulés dans le plan (dθ, drλ). Les échantillons sont nettement plus concentrés sur les faibles valeurs de dr du fait des valeurs d’excentricités en général faibles dans le catalogue Space-Track. Nous observons également une moyenne et une dispersion plus importante aux grandes valeurs de dθ, résultant de l’observation de portions d’orbites différentes (Figure 6.2). De même, nous observons une moyenne et une dispersion plus importante des valeurs de drλ aux grandes valeurs de dθ. Les trois paramètres τ , dr et drλ étant indépendants, nous choisissons de résoudre indépendamment le problème défini par l’équation (6.10) dans les trois sous-espaces (τ, r), (dr, dθ) et (drλ, dθ). Le support Fˆ 1rév estimé est alors l’union de trois supports déterminés dans chacun de ces plans. Une alternative à cela est de normaliser les vecteurs sur chaque dimension, mais cette option rend le paramétrage plus difficile car il faudrait manipuler un espace à 5 dimensions. Notons que pour les sous-espaces (dr, dθ) et (drλ, dθ), l’origine se situe sur la frontière entre H1 et H0. Ce défaut de la One-Class SVM (qui choisit arbitrairement l’origine 90Chapitre 6 : Association initiale par modélisation comportementale comme prototype de H0) est compensé par la méthode dite de “marge souple” (Soft Margin) qui permet de tolérer un recouvrement des classes H1 et H0. Paramétrage des One-Class SVM L’algorithme One-Class SVM tel que nous l’avons présenté prend deux paramètres en entrée : le paramètre ν, qui apparaît dans la formulation du problème d’optimisation (équation (6.10)), et le paramètre γ intervenant comme paramètre de dispersion dans un noyaux gaussien. Le paramètre γ est choisi notamment en fonction de la densité d’échantillons. Nous choisissons respectivement γ = 1, 25.10−3 , γ = 6, 67.10−6 et γ = 5.10−4 pour les plans (r, τ ), (dr, dθ) et (drλ, dθ) pour des données normalisées entre 0 et 1. Choisir des valeurs de ν proches de 0,05 (c’est-à-dire qu’on estime le support au 95%-quantile) permet d’obtenir des supports “physiquement” valides (c’est-à-dire les frontières obtenues respectent notamment un critère de continuité intuitif). 6,800 7,000 7,200 7,400 7,600 7,800 8,000 5,000 6,000 7,000 8,000 r (Km) τ (s) Figure 6.7 – Frontière déterminée par l’algorithme One-Class SVM à partir d’échantillons de F1rév simulés dans le plan (r, τ ), ν = 0, 05 et γ = 1, 25.10−3 . 0 10 20 30 40 50 60 70 80 0 20 40 60 80 dθ (˚) dr (Km) Figure 6.8 – Frontière déterminée par l’algorithme One-Class SVM à partir d’échantillons de F1rév simulés dans le plan (dθ, dr), ν = 0, 05 et γ = 6, 67.10−6 . 916.2 Discrimination des paires d’observations 0 10 20 30 40 50 60 70 80 0 200 400 600 800 1,000 dθ (˚) drλ (Km) Figure 6.9 – Frontière déterminée par l’algorithme One-Class SVM à partir d’échantillons de F1rév simulés dans le plan (dθ, drλ), ν = 0, 05 et γ = 5.10−4 . Le support estimé Fˆ 1rév est très étroit pour des valeurs faibles de dθ. Il est en effet large de moins de 100 Km sur l’axe drλ et de moins de 15 Km sur l’axe dr pour des valeurs de dθ inférieures à 10˚. Pour les valeurs les plus faibles de dθ, ces largeurs sont de l’ordre de, respectivement, 50 Km et et 5 Km. Cela confirme la nécessité d’utiliser des particules pour réduire l’impact du bruit d’observation car en effet, l’erreur d’observation aux distances considérées s’élève à environ 11,5 Km à 3-sigma. Pour pallier cela, nous générons des particules dans les volumes d’erreur des observations et évaluons la proportion de paires de particules p caractérisées par des vecteurs xp(i, j) appartenant à Fˆ 1rév. Si cette proportion est inférieure à un seuil sFp que nous fixons arbitrairement à 0,01, alors on rejète l’hypothèse H1 et l’on admet l’hypothèse H0. 6.2.4 Calcul d’un rapport de vraisemblance L’échantillon F sim 1rév contient davantage d’information à exploiter : nous expliquons ici comment la distribution de ces échantillons sur le support estimé Fˆ 1rév peut servir à discriminer les paires d’observations caractérisées par des vecteurs appartenant à Fˆ 1rév. Il s’agit d’évaluer le rapport de deux probabilités associées à la paire d’observations {zi , zj} à tester : la probabilité p(x(i, j)|H1) que les observations zi et zj soient issues du même objet (hypothèse H1) et la probabilité p(x(i, j)|H0) que les observations zi et zj ne le soient pas (hypothèse H0). Le logarithme de ce rapport de vraisemblance est alors comparé à un seuil sSPRT,1 dont la valeur est définie en équation (4.27) à la Section 4.3.2 selon le Sequential Probability Ratio Test (SPRT) [46]. D’une part, nous estimons la densité de probabilité pF1rév (.) = p(.|H1) à partir des échantillons simulés F sim 1rév et d’autre part, nous estimons la loi p(.|H0) grâce à certaines hypothèses simplificatrices courantes. Pour estimer pF1rév (.), nous utilisons dans cette étude la méthode des fenêtres de Parzen-Rosenblatt [61] qui fournissent une estimation ˆpF1rév (.) en sommant les lois 92Chapitre 6 : Association initiale par modélisation comportementale résultantes de la convolution d’une loi (en l’occurrence une loi gaussienne) avec chaque échantillon x n Fsim 1rév : pˆF1rév (x) = X n k  D−1 (x − x n Fsim 1rév )  = X n Ke −kD−1(x−x n Fsim 1rév )k 2 (6.12) où k(.) est la loi choisie gaussienne (et K un facteur de normalisation) et D est la matrice diagonale des écart-types des distances entre les échantillons sur chaque dimension. Dans [62], la distribution p(.|H0) est supposée uniformément égale à la densité de nouvelles observations et de fausses alarmes. Nous devons donc nous ramener à ce résultat en regroupant les paires d’observations dont la première observation est commune. Pour chaque observation zi , nous comptons le nombre N(zi) d’observations zj formant une paire valide avec zi , c’est-à-dire telle que x(i, j) ∈ Fˆ 1rév. Il suffit alors de calculer le rapport suivant pour estimer une valeur de p(x(i, j)|H0) en cohérence avec le résultat communément admis exposé dans [62] : pˆ(x(i, j)|H0) = N(zi) µ(Fˆ 1rév) (6.13) où µ est la fonction de mesure de volume figurant en équation (6.10). Finalement, la log-vraisemblance Li,j associé à une paire d’observations {zi , zj} se calcule par : Li,j = ln pˆ(x(i, j)|H1) pˆ(x(i, j)|H0) ! = ln   pˆF1rév (x(i, j)) N(zi) µ(Fˆ 1rév)   = ln µ(Fˆ 1rév) N(zi) × pˆF1rév (x(i, j))! (6.14) La comparaison de Li,j au seuil sSPRT,1 permet alors de filtrer les paires d’observations dont la vraisemblance est jugée insuffisante. Paramétrage des fenêtres de Parzen-Rosenblatt Nous appliquons les fenêtres de Parzen-Rosenblatt [61] sur les échantillons contenus dans les supports estimés dans les plans (τ, r), (dr, dθ) et (drλ, dθ). Pour chacun des plans, les deux coefficients de la diagonale de D sont choisis à partir des valeurs des écart-types des distances entre les échantillons sur chaque dimension (cela dé- pend notamment du nombre d’échantillons disponibles). Cela permet d’interpoler de manière efficace les valeurs non-comprises dans l’échantillon disponible. En revanche, nous ne souhaitons pas inclure l’information que nous considérons “trop spécifique” aux échantillons. Par exemple, la distribution de la densité d’objets en 936.2 Discrimination des paires d’observations fonction de l’altitude se retrouve dans le plan (τ, r), ce qui implique à tort une vraisemblance plus élevée pour les paires d’observations sur certaines plages d’altitude. De même, nous considérons qu’une discrimination selon dθ ne serait pas pertinente. Pour pallier cela, nous considérons les lois conditionnelles des variables τ , dr et drλ obtenues par normalisation des lois jointes par les lois marginales de r et de dθ : p(τ | r = r(zi)) = p(τ, r) p(r = r(zi)) (6.15) p(dr | dθ = dθ(zi , zj )) = p(dr, dθ) p(dθ = dθ(zi , zj )) (6.16) p(drλ | dθ = dθ(zi , zj )) = p(drλ, dθ) p(dθ = dθ(zi , zj )) (6.17) La décorrélation des trois variables τ , dr et drλ nous permet d’exprimer p(.|H1) = pˆF1rév (x(i, j)) sous forme de produit : pˆF1rév (x(i, j)) = p(τ (zi , zj ) ∩ dr(zi , zj ) ∩ drλ(zi , zj )| zi , zj ) = p(τ (zi , zj ) | r = r(zi)) × p(dr(zi , zj ) | dθ = dθ(zi , zj )) (6.18) × p(drλ(zi , zj ) | dθ = dθ(zi , zj )) Nous disposons maintenant de la distribution ˆpF1rév et d’une estimation de son support au 95%-quantile Fˆ 1rév. Ces éléments sont constants et peuvent donc être évalués sur un pavage de Fˆ 1rév. En pratique, l’approximation de Fˆ 1rév obtenue hors-ligne est alors lue pour discriminer les paires d’observations candidates et obtenir une valeur du rapport de vraisemblance associé. Cela permet un filtrage en-ligne très rapide, se limitant à seulement quelques calculs d’indices et quelques tests. Afin de prendre en compte les erreurs de mesure, le rapport de vraisemblance peut être déduit des vraisemblances associées à chaque particule par moyennage. Notons lp,i,j le rapport de vraisemblance associé à la p-ème paire de particules issues de la paire d’observations {zi , zj} : lp,i,j = µ(Fˆ 1rév) N(zi) × pˆF1rév (xp(i, j)) (6.19) où xp(i, j) désigne le vecteur de description de la paire de particules issue de {zi , zj}. Dans ce cas, la log-vraisemblance Li,j associé à {zi , zj} s’obtient par : Li,j = ln 1 P X p lp,i,j! = ln µ(Fˆ 1rév) N(zi) × P · X p pˆF1rév (xp(i, j))! (6.20) où P désigne le nombre total de particules générées. 94Chapitre 6 : Association initiale par modélisation comportementale 6.3 Évaluation préliminaire des performances Pour évaluer les performances de la méthode de première association proposée, les objets en orbite basse présents dans le catalogue Space-Track sont simulés sur une période de 3 jours et 10 fausses alarmes par scan sont ajoutées. Nous ne bruitons pas les scans ne comprenant pas d’observations issues d’objets réels pour alléger les calculs tout en gardant une densité de détection forte sur les scans “utiles”. Cela fournit 25 917 scans comprenant 491 127 détections regroupées en 416 554 observations (ou arcs courts : regroupe deux détections redondantes, c’est-à-dire très proches spatialement et sur des scans successifs) dans les conditions d’observations définies au Chapitre 2. La méthode proposée, appliquée sur ce jeu de données, génère 1 160 026 paires d’observations corrélées (les observations n’étant corrélées à aucune autre ne sont pas mémorisées). La vérité terrain nous permet de déduire les chiffres suivants : Nombre d’objets simulés 11 807 Observations (dont FA) 416 554 (259 170) Paires d’observations générées 1 160 026 Observations initiales issues d’un objet 93 096 Paires d’observations correctes 64 241 Objets correctement corrélés 11 039 Nous évaluons d’abord l’ambiguïté d’association moyenne obtenue par l’utilisation de la méthode de fenêtrage sur le jeu de 416 554 observations simulées. L’ambiguïté est le nombre d’associations possibles pour chaque observation initiale et permet d’évaluer la complexité combinatoire liée à cette étape, car chaque paire d’observations permet d’initialiser une piste. Nous étudions ensuite les distributions des scores (log-vraisemblance) obtenus pour les associations correctes et les associations incorrectes afin de vérifier que la valeur de seuil sSPRT,1 permet une discrimination efficace (compromis entre élimination des paires incorrectes et perte de paires correctes). Pour cela, nous utilisons la distance de Mahalanobis [33], qui est un outil permettant de quantifier la “séparabilité” entre deux échantillons sous hypothèse gaussienne. La séparabilité entre l’ensemble des scores associés aux paires correctes et l’ensemble des scores associés aux paires incorrectes est alors évaluée et interprétée. Enfin, le rappel et l’ambiguïté résultant des deux étapes de filtrage permettent d’évaluer dans une certaine mesure les performances de la méthode proposée, les performances finales étant évaluées dans un contexte multicible au Chapitre 8. 6.3.1 Fenêtrage Rappel Nous évaluons le rappel en comptant le nombre d’objets uniques fournissant au moins une paire d’observations correcte détectée grâce à la One-Class SVM. 956.3 Évaluation préliminaire des performances Le taux de rappel mesuré sur 3 jours est alors de 93,50% : Nombre d’objets correctement corrélés Nombre total d’objets présents = 11 039 11 807 = 93, 50% Les 1 160 026 paires d’observations sont constituées de 93 096 observations initiales corrélées à une observation issue du même objet dans 64 241 cas (formant alors une paire d’observations correcte). Nous évaluons alors un rendement de 69,00% : Nombre de paires d’observations correctes Nombre d’observations initiales corrélées à d’autres observations = 64 241 93 096 = 69, 00% Le taux de rappel (93,50%) prend une valeur proche de la valeur de ν choisie dans le paramétrage de la One-Class SVM (95%), ce qui tend à démontrer le bon fonctionnement de l’implémentation de la méthode de fenêtrage. Le rendement (69,00%) garantit quant à lui une certaine efficacité du processus. Ambiguïté L’objectif de cette méthode étant de réduire au mieux la complexité combinatoire, nous cherchons à évaluer la précision du fenêtrage, c’est-à-dire l’ambiguïté liée à la corrélation de plusieurs observations avec une observation initiale. Pour évaluer la précision du fenêtrage effectué, c’est-à-dire l’ambiguïté d’association moyen, nous comptons pour chaque observation initiale le nombre d’observations corrélées, en excluant les cas où aucune observation n’est corrélée. Nous obtenons ainsi un ensemble de valeurs dont les propriétés statistiques sont les suivantes : – Moyenne : 6,33 observations associées à une observation initiale, – Écart-type : 5,55 observations par observation initiale, – Maximum : 43 observations par observation initiale. 0 5 10 15 20 25 30 35 40 0 5 · 10−2 0.1 0.15 0.2 Nombre d’observations corrélées Probabilité Figure 6.10 – Distribution du nombre d’observations corrélées par observation initiale. La répartition du nombre d’observations corrélées par observation initiale est unimodale. La moyenne et l’écart-type permettent de quantifier la précision de la méthode de fenêtrage. 96Chapitre 6 : Association initiale par modélisation comportementale −14 −12 −10 −8 −6 −4 −2 0 2 4 6 0 5 10 15 Score Fréquence Figure 6.11 – Distributions des scores associés aux paires d’observations correctes (vert) et aux paires d’observations incorrectes (rouge) issues du fenêtrage. 6.3.2 Score Nous évaluons le score (c’est-à-dire la log-vraisemblance) tel que défini en équation (6.20) pour les paires d’observations corrélées correctes et les paires incorrectes. Nous calculons les moyennes et écart-types suivants pour ces deux ensembles. – Ensemble Sc des scores des paires d’observations correctes : – Moyenne : -0,42, – Écart-type : 2,29, – Ensemble Sc¯ des scores des paires d’observations incorrectes : – Moyenne : -3,71, – Écart-type : 2,81. Sous hypothèse gaussienne (cf. Figure 6.11), la séparabilité d(Sc, Sc¯) des deux ensembles Sc et Sc¯ est de 1,40 : d(Sc, Sc¯) = (nc + nc¯) (mc − mc¯) 2 ncσ 2 c + nc¯σ 2 c¯ = (63 750 + 1 096 276) (−0, 42 + 3, 71)2 63 750 ∗ 2, 292 + 1 096 276 ∗ 2, 812 = 1, 40 où nc et nc¯ représentent respectivement le nombre de corrélations correctes disponibles et le nombre de corrélations incorrectes disponibles, mc et mc¯ les moyennes de ces deux ensembles et σc et σc¯ leurs écart-types. Une séparabilité de 1,40 est équivalente à pouvoir affirmer que les deux échantillons analysés sont issus d’un processus différent avec une “confiance” de 76,33% (l’évaluation en 1,4 de la fonction cumulative de densité du χ 2 vaut 0,7633). Grâce à une telle séparabilité, le Sequential Probability Ratio Test (SPRT, cf. Section 4.3.2) permet de filtrer davantage d’observations par seuillage. En choisissant un seuil sSP RT,1 = −5, 2983 (cette valeur est justifiée à la Section 4.3.2), on peut filtrer 26,74% des paires d’observations incorrectes au prix de 2,61% des paires d’observations correctes. Le taux de rappel serait alors de 93,50*(1-2,61%) = 91,06% dans le cas le plus pessimiste. 976.4 Conclusion du chapitre 6.3.3 Rappel et ambiguïté obtenus par fenêtrage et SPRT Le rappel obtenu en pratique grâce à la méthode de fenêtrage et au SPRT est de 93,20% : Nombre d’objets correctement corrélés Nombre total d’objets présents = 11 004 11 807 = 93, 20% On obtient une précision finale telle que l’ambiguïté a pour propriétés statistiques : – Moyenne : 4,87 observations par observation initiale, – Écart-type : 4,02 observations par observation initiale, – Maximum : 30 observations par observation initiale. Le filtrage par SPRT permet donc de réduire de 23,06% le nombre d’observations corrélées à chaque observation initiale en moyenne (4,87 contre 6,33 observations corrélées par observation initiale). Cela est du même ordre que le gain de 26,74% prédit grâce à la Figure 6.11. De même, nous obtenons des gains significatifs sur l’écart-type et le maximum. Le taux de rappel a quant à lui faiblement diminué (de 93,50% à 93,20% au lieu de 91,06%), ce que l’on peu attribuer à une fréquence de passage suffisante et à un rendement relativement élevé (69,00%), c’est-à-dire que plusieurs paires d’observations correctes correspondent à un même objet (sur trois jours : 64 241 paires d’observations correctes pour 11 807 objets présents, c’est-à-dire 5,44 paires d’observations par objet en moyenne). 6.4 Conclusion du chapitre Nous proposons dans ce chapitre une nouvelle méthode permettant une première association d’observations sans calcul d’orbite en nous appuyant sur les observations simulées d’objets réels appartenant au catalogue Space-Track. La complexité combinatoire est gardée sous contrôle grâce à une modélisation des paires d’observations à une révolution d’intervalle qui rend possible une association peu ambiguë. De plus, la méthode proposée s’appuie sur une technique d’apprentissage et a un coût de calcul très faible lors de la mise en correspondance d’observations. En sortie de cet algorithme, nous obtenons un ensemble de paires d’observations à une révolution d’intervalle. Les paires d’observations correctement associées peuvent être confirmées lors d’une tentative d’initialisation, tandis que les paires fausses peuvent être filtrées. En effet, les prolonger grâce à un modèle dynamique permet d’évaluer leur vraisemblance vis-à-vis d’une trajectoire possible et d’observations supplémentaires, ce qui fait l’objet du chapitre suivant. 98Chapitre 7 Initialisation du pistage La Détermination d’Orbite Initiale (IOD) consiste de manière générale à estimer grossièrement une orbite à partir d’un nombre minimal d’observations pour fournir une valeur initiale à un algorithme d’optimisation utilisant la totalité des observations associées. L’IOD peut se faire avec une faible ambiguïté si l’on dispose de deux ou trois observations de position respectant certaines conditions de coplanarité (cf. méthodes de type Lambert ou de Herrick-Gibbs au Chapitre 3). Or, nous disposons maintenant de deux observations associées à une révolution d’intervalle. Cela ne suf- fit pas pour estimer de manière univoque les paramètres orbitaux de l’objet suivi du fait de la proximité des deux observations dans un référentiel inertiel (ECI) vis-à-vis des erreurs de mesure. Il est alors nécessaire d’associer davantage d’observations à une paire initiale pour déterminer ces paramètres orbitaux. Dans ce chapitre, nous proposons une méthode analytique permettant d’estimer une orbite circulaire (paramètres d’excentricité eo et ωo nuls) en tirant avantage des particularités d’une paire d’observations à une révolution d’intervalle. Le faible coût de calcul de cette méthode permet d’appliquer une technique de Monte-Carlo pour prendre en compte le bruit de mesure. L’orbite circulaire obtenue est ensuite utilisée pour associer une troisième observation permettant d’affiner la connaissance sur l’orbite réelle. Sommaire 7.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 7.2 Approximation de l’orbite circulaire X4 . . . . . . . . . . 102 7.2.1 Nécessité d’un bruit de modèle . . . . . . . . . . . . . . . 103 7.3 Association de troisièmes observations par transformation non-parfumée . . . . . . . . . . . . . . . . . . . . . . . 104 7.3.1 Prédiction des observations . . . . . . . . . . . . . . . . . 104 7.3.2 Fenêtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 7.4 Estimation d’orbite définitive X7 . . . . . . . . . . . . . . 105 7.4.1 Critère minimisé . . . . . . . . . . . . . . . . . . . . . . . 106 7.4.2 Implémentation de l’algorithme de Gauss-Newton . . . . . 106 7.4.3 Critère de convergence et de validité . . . . . . . . . . . . 108 7.5 Évaluation des performances . . . . . . . . . . . . . . . . . 108 997.5.1 Données de test . . . . . . . . . . . . . . . . . . . . . . . . 108 7.5.2 Convergence d’un algorithme de Gauss-Newton comme critère de validation . . . . . . . . . . . . . . . . . . . . . 109 7.5.3 Fenêtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 7.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . 112 100Chapitre 7 : Initialisation du pistage 7.1 Principe Les méthodes de type Lambert (cf. Chapitre 5) permettent de calculer des paramètres orbitaux képlériens à partir de deux observations seules. Lorsque l’on dispose de deux observations non-bruitées, ces méthodes fournissent 2n+1 orbites possibles, où n désigne le nombre de révolutions maximal que l’on autorise. Une paire d’observations permet donc une certaine observabilité des paramètres orbitaux képlériens. Ces méthodes font cependant intervenir des processus itératifs qui ne garantissent ni une convergence systématique, ni un coût de calcul faible ou même constant, et ne prennent pas en compte le bruit d’observation. Figure 7.1 – Schéma représentant des observations corrélées avec une paire d’observations initiale à des longitudes opposées. Une orbite képlérienne comprend au moins 6 paramètres : no, eo, io, Ωo, ωo et Mo (cf. Chapitre 3). Dans le cas d’une orbite circulaire, l’excentricité eo est nulle et l’argument du périgée ωo n’a plus de sens. Il reste donc quatre paramètres orbitaux à déterminer (no, io, Ωo et Mo). Rappelons également que le paramètre de traînée B∗ n’est observable que sur le long terme (plusieurs dizaines d’heures), sa valeur étant approximativement nulle quand les observations disponibles s’étalent sur une période courte. Nous posons X4 = [no, io, Ωo, Mo] T, X7 = [no, eo, io, Ωo, ωo, Mo, B∗] T, X désigne X4 ou X7. Nous proposons une méthode alternative tirant avantage des spécificités du problème : les observations sont espacées d’environ une révolution (le mouvement moyen no est donc presque connu) et les objets sont dans une grande majorité sur des orbites faiblement excentriques. Cette nouvelle méthode s’appuie alors sur l’estimation d’une orbite initiale circulaire pour chaque paire d’observations. À partir de l’estimation d’une telle orbite (estimée et covariance), des méthodes plus classiques, en l’occurrence la transformation non-parfumée et l’algorithme de Gauss-Newton, permettent d’associer davantage d’observations puis de déterminer une orbite définitive X7 (les paramètres orbitaux SGP). Les observations ne permettant pas une convergence de l’algorithme de Gauss-Newton sont rejetées. 1017.2 Approximation de l’orbite circulaire X4 Paires d’observations Calcul d’orbites circulaires Prédiction de l’observation z Nouvelles observations d(z¯, z) ≤ s1 ? (fenêtrage) Estimation de X7 Convergence ? {zi , zj} z oui rejet association valide non non oui Figure 7.2 – L’algorithme résultant fait intervenir deux tests pour garder la complexité combinatoire sous contrôle : le fenêtrage statistique et un critère de convergence de l’algorithme de Gauss-Newton. 7.2 Approximation de l’orbite circulaire X4 Nous disposons de paires d’observations bruitées et à environ une révolution d’intervalle, c’est-à-dire que les observations d’une paire sont proches spatialement dans un référentiel géocentrique inertiel (ECI). Le bruit est alors fortement défavorable à l’observabilité des paramètres orbitaux associés à chaque paire. En revanche, les observations d’une même paire sont espacées dans le temps (entre 88 et 127 minutes d’intervalle), ce qui a pour effet d’améliorer l’observabilité. Les paramètres d’une orbite circulaire peuvent se déterminer de manière analytique : no ≃ 2π + δp τ (7.1) io ≃ arccos p.u ECI Z kpk (7.2) Ωo ≃ π 2 ± arccos p.u ECI X kp.u ECI X + p.u ECI Y k (7.3) Mo ≃ ± arccos cos Ωo r1.u ECI X + sin Ωo r1.u ECI Y kr1k (7.4) où r1 et r2 sont les vecteurs-position associés à la paire d’observations {z1, z2} dans le référentiel cartésien ECI dont u ECI X , u ECI Y et u ECI Z sont les vecteurs unitaires, δp est l’angle signé formé par r1 et r2, τ est la différence temporelle entre z1 et z2. Enfin, p est le produit vectoriel de r1 et r2. Deux valeurs de X4 sont alors possibles, selon que l’objet éventuellement suivi ait fait plus ou moins d’une révolution (signe de δp, cf. Figure 7.3). Cela conduit alors à envisager deux pistes pour chaque paire d’observations. Le faible coût de ce calcul permet de prendre en compte le bruit d’observation. Pour cela, nous tirons aléatoirement (selon la même loi de probabilité de l’erreur) des 102Chapitre 7 : Initialisation du pistage r1 r2 −δ r2 r1 δ Figure 7.3 – Selon le cas, l’angle δp représente le secteur complémentaire à une révolution (gauche) ou le secteur supplémentaire à une révolution (droite). vecteurs-position dans le volume d’erreur de chaque observation et calculons des valeurs possibles de X4. La moyenne et la covariance de ces valeurs fournissent une estimée Xˆ 4 dotée d’une matrice de covariance PXˆ Xˆ ,4 qui permettent d’appliquer une méthode de fenêtrage pour l’association d’une troisième observation. 7.2.1 Nécessité d’un bruit de modèle L’orbite estimée {Xˆ 4, PXˆ Xˆ ,4 } est biaisée et ne permet pas en général le suivi de l’objet. En effet, l’approximation d’orbite circulaire induit nécessairement un biais dans l’estimation de X4 car deux paramètres (eo et ωo) sont négligés. Il est alors nécessaire d’ajouter une matrice diagonale constante, désignée par D4 = diag(κ1, κ2, κ3, κ4), à la matrice de covariance PXˆ Xˆ ,4 : PXˆ Xˆ ,4 ← PXˆ Xˆ ,4 + D4 (7.5) Cela permet de compenser le biais par une dilatation artificielle de la matrice de covariance. Les coefficients de D4 sont déterminés à partir de trajectoires issues du catalogue Space-Track. Leurs valeurs sont ajustées de manière à obtenir les corrélations voulues sur plusieurs cas. En l’occurrence, les valeurs suivantes fournissent le résultat escompté : κ1 (associé à no) = 8.10−9 rad/s κ2 (associé à io) = 8.10−3 rad κ3 (associé à Ωo) = 8.10−3 rad κ4 (associé à Mo) = 8.10−9 rad Ces valeurs se généralisent correctement à l’ensemble des objets simulés dans la suite de cette étude. 1037.3 Association de troisièmes observations par transformation non-parfumée 7.3 Association de troisièmes observations par transformation non-parfumée 7.3.1 Prédiction des observations Nous disposons maintenant d’une orbite circulaire estimée Xˆ 4 et de sa matrice de covariance PXˆ Xˆ ,4 . Il s’agit dans un premier temps de faire un fenêtrage statistique (cf. équation (4.14)) afin de déterminer les observations potentiellement corrélées à Xˆ 4. Pour cela, la transformation non-parfumée [36, 37] semble être un bon compromis entre précision et coût de calcul (cf. Chapitre 4.3), c’est pourquoi nous l’implémentons dans le cadre de cette thèse. Nous posons fnp = hcapteur◦fSGP, où hcapteur est la fonction de passage d’un référentiel ECI cartésien au référentiel capteur sphérique, et fSGP est la fonction qui calcule une position (la vitesse n’est pas observée par le capteur) dans un référentiel ECI à partir d’une orbite X, à la date de l’observation z dont nous cherchons à évaluer la corrélation. χ 0 χ 1 χ 3 χ 2 χ 4 fnp(χ 0 ) fnp(χ 1 ) fnp(χ 3 ) fnp(χ 2 ) fnp(χ 4 ) fnp Figure 7.4 – Dans le cas gaussien, les sigma-points définissent les moments statistiques de la densité a priori (ici la moyenne et la variance d’une variable à 2 dimensions). Leurs images par la fonction non-linéaire fnp permet d’estimer ces mêmes moments statistiques concernant la densité a posteriori. Sous une hypothèse gaussienne, on approche la distribution {Xˆ 4, PXˆ Xˆ ,4 } par 9 points (2n+1 points avec n = 4 la dimension de l’espace) pondérés par les poids {ϕ i}i∈{0,9}, comme le montre l’équation (7.7), où les χ i sont les “sigma-points”. Les sigma-points sont choisis tels que leur moyenne pondérée par les χ i est égale à la moyenne Xˆ 4 et que leur covariance pondérée de la même manière soit égale à la covariance PXˆ Xˆ ,4 : Xˆ 4 = X 9 i=0 ϕ iχ i (7.6) PXˆ Xˆ ,4 = X 9 i=0 ϕ i (χ i − Xˆ 4)(χ i − Xˆ 4) T Un jeu de sigma-points peut être obtenu en additionnant et soustrayant à la moyenne Xˆ 4 des vecteurs rendant compte de la covariance : 104Chapitre 7 : Initialisation du pistage i = 0 : χ 0 = Xˆ 4 , ϕ0 = 1 5 1 ≤ i ≤ 4 : χ i = Xˆ 4 + q Pi Xˆ Xˆ ,4 , ϕi = 1 10 5 ≤ i ≤ 9 : χ i = Xˆ 4 − q Pi Xˆ Xˆ ,4 , ϕi = 1 10 (7.7) où q Pi Xˆ Xˆ ,4 est la i-ème colonne d’une matrice triangulaire L obtenue par la décomposition de Cholesky de la matrice PXˆ Xˆ ,4 . La distribution a posteriori est déduite des images des sigma-points par la fonction fSGP. Cette estimation est non-biaisée et relativement robuste selon certaines études. Dans ce cas, l’observation propagée {z¯, Pz¯z¯} à partir de {Xˆ 4, PXˆ Xˆ ,4 } s’obtient par : ¯z = X 9 i=0 ϕ i fnp(χ i ) (7.8) P¯z¯z = X 9 i=0 ϕ i (fnp(χ i ) − ¯z)(fnp(χ i ) − ¯z) T 7.3.2 Fenêtrage Cette distribution permet de définir une fonction de fenêtrage permettant l’association de nouvelles observations {zi}, en utilisant la distance statistique (Mahalanobis, cf. équation (4.14)) entre la distribution {z¯, Pz¯z¯} ainsi estimée et la distribution de l’observation {zi , Pzz,j} (volume d’erreur centré sur l’observation). Le test suivant permet de corréler une observation zi à l’orbite {Xˆ 4, PXˆ Xˆ ,4 } : d(¯z, zi) = q (¯z − zi) T(P¯z¯z + Pzz,j ) −1 (¯z − zi) ≤ sF (7.9) Les observations valides permettent de prolonger la paire d’observation en triplet d’observations, chaque triplet permettant une tentative d’estimation d’orbite défi- nitive grâce à un algorithme de Gauss-Newton en prenant pour valeur initiale Xˆ 4. Nous appliquons également cette technique pour associer de nouvelles observations quand un état X7 est disponible. 7.4 Estimation d’orbite définitive X7 En théorie, un jeu de trois observations de position suffisamment espacées dans le temps et/ou dans l’espace (vis-à-vis du bruit d’observation) permettent le calcul de paramètres orbitaux sans ambiguïté (c’est-à-dire une solution unique). Dans la pratique, nous pouvons utiliser la paire d’observations à une révolution d’intervalle associée à une troisième observation pour estimer les paramètres orbitaux X7 = [no, eo, io, Ωo, ωo, Mo, B∗] T grâce à un algorithme de Gauss-Newton. 1057.4 Estimation d’orbite définitive X7 7.4.1 Critère minimisé Le capteur fournit des mesures en angle (θi , φi) et en distance (ρi) associées à une observation zi à la date ti et la fonction fSGP permet de prédire ces mesures à un instant ti à partir de paramètres orbitaux X : (hcapteur ◦ fSGP)(X, ti) = ¯zi =   ρ¯i ¯θi φ¯ i   X,ti (7.10) où hcapteur est la fonction de passage du référentiel ECI au référentiel capteur. Nous rapportons les observations prédites dans le référentiel capteur car cela permettant d’avoir une matrice de covariance de l’erreur Pzz = diag(σ 2 ρ , σ2 θ , σ2 φ ) de mesure constante. Nous minimisons alors l’erreur quadratique suivante : εQ(X) = Xn i=1 (¯ρi − ρi) 2 σ 2 ρ + ( ¯θi − θi) 2 σ 2 θ + (φ¯ i − φi) 2 σ 2 φ ! (7.11) où ¯ρi , ¯θi et φ¯ i sont les mesures prédites à l’instant ti de l’observation zi contenant les mesures ρi , θi et φi , et n est le nombre d’observations disponibles. L’algorithme de Gauss-Newton permet de minimiser εQ en fonction de X par un processus itératif. 7.4.2 Implémentation de l’algorithme de Gauss-Newton L’algorithme de Gauss-Newton permet d’estimer X de manière itérative. À chaque itération, X est incrémenté d’une valeur ∆X déterminée grâce à la jacobienne de la fonction fSGP évaluée en chaque observation disponible zi . La valeur initiale X0 de X prend les valeurs de X4 en no, io, Ωo et Mo et prend des valeurs nulles pour les paramètres eo, ωo et B∗. 106Chapitre 7 : Initialisation du pistage Algorithme 1 : Algorithme de Gauss-Newton itératif pour la détermination d’une orbite définitive. Données : Observations zi associées et leurs matrices de covariance Pzz,i. Entrées : Vecteur initial X0, seuil de convergence sC. Sorties : Estimation Xˆ minimisant l’erreur quadratique εQ et matrice de covariance PXˆ Xˆ associée. 1 Initialiser X ← X0 2 tant que k∆Xk kXk ≥ sC ou X = X0 faire 3 pour chaque zi faire 4 Prédire l’observation ¯zi à l’instant de zi 5 Former le vecteur de résidus εi tel que εi = ¯zi − zi 6 Calculer la matrice jacobienne Jε,i à l’instant de zi (différences finies) 7 Accumuler les matrices de covariance normalisées J T ε,iP−1 zizi Jε,i et J T ε,iP−1 zizi εi 8 fin 9 Calculer la matrice de covariance PXˆ Xˆ = (J T ε P−1 zz Jε) −1 et l’élémentaire ∆X = −PXˆ Xˆ J T ε P−1 zz ε 10 Actualiser le vecteur X ← X + ∆X 11 fin Calcul de la matrice jacobienne La matrice jacobienne Jε caractérise localement la variation d’une fonction multidimensionnelle, en l’occurrence le vecteur des résidus ε. Elle est définie formellement par l’équation (7.12), où i et j sont les indices des lignes et des colonnes de la matrice, X est le point auquel est évaluée la matrice jacobienne et les {xj} sont ses composantes. Jε(X) = " ∂εi ∂xj (x) # i,j (7.12) La fonction ε n’est pas analytique (car fSGP ne l’est pas). Une approximation des valeurs de la matrice jacobienne est alors calculée par méthode des éléments finis dont le principe repose sur la définition de la matrice jacobienne en tant que limite de la fonction matricielle définie en équation (7.13), où δx est un incrément, {δxj} ses composantes et α un réel. limα→0 " εi(X + αδx) − εi(X) αδxj # i,j = Jε(X) (7.13) Pour approcher une valeur de la matrice jacobienne en X, on définit un vecteur δx pour tenir compte des sensibilité relatives des paramètres et on fixe une valeur de α suffisamment petite de manière à approcher le mieux possible la matrice jacobienne sans impliquer de trop grandes erreurs numériques. 1077.5 Évaluation des performances 7.4.3 Critère de convergence et de validité Plusieurs critères de convergence sont possibles. Pour cette étude, le critère de sortie suivant permet de vérifier que l’incrément est petit par rapport au vecteur d’état afin de détecter la convergence : k∆Xk kXk < sC (7.14) où X est l’état estimé, ∆X est l’incrément associé à la dernière itération et sC est un seuil de convergence dont la valeur est fixée empiriquement à 1.10−5 . Dans le cas convergeant, nous vérifions que les mesures prédites appartiennent aux volumes d’erreurs des mesures observées : εQ(Xˆ ) < sε (7.15) En effet, si les trois observations ne sont pas issues du même objet, alors l’algorithme de Gauss-Newton peut converger vers une valeur associée à une erreur quadratique εQ, mais celle-ci dépasse en général un certain seuil sε. En l’occurrence, l’erreur quadratique εQ est la somme de 3n lois gaussiennes centrées et réduites. Le seuil sε peut alors être choisi en fonction d’une loi du Khi-2 à 3n degrés de libertés, mais pour des raisons pratiques, nous choisissons de fixer sε = 27n en considérant que ρ¯i−ρi σρ ≤ 3, θ¯ i−θi σθ ≤ 3 et φ¯ i−φi σφ ≤ 3 sont des conditions nécessaires à l’hypothèse H1 selon laquelle “les observations sont issues d’un même objet”. Sachant H1 : ρ¯i − ρi σρ ≤ 3 et ¯θi − θi σθ ≤ 3 et φ¯ i − φi σφ ≤ 3 (7.16) ⇒ (¯ρi − ρi) 2 σ 2 ρ + ( ¯θi − θi) 2 σ 2 θ + (φ¯ i − φi) 2 σ 2 φ ≤ 27 (7.17) ⇒ εQ(X) = Xn i=1 (¯ρi − ρi) 2 σ 2 ρ + ( ¯θi − θi) 2 σ 2 θ + (φ¯ i − φi) 2 σ 2 φ ! ≤ 27n = sε (7.18) Ce critère de validité joue un rôle très important pour la discrimination des pistes (séquences d’observations) car il permet de filtrer un grand nombre des fausses pistes. 7.5 Évaluation des performances 7.5.1 Données de test Pour évaluer les performances de la méthode de première association proposée, les objets en orbite basse présents dans le catalogue Space-Track sont simulés sur une 108Chapitre 7 : Initialisation du pistage période de 3 jours et 10 fausses alarmes par scan sont ajoutées. Cela fournit 25 917 scans comprenant 416 554 observations dans les conditions d’observations définies au Chapitre 2 (ces conditions sont identiques à celles du Section 6.3). Nous appliquons ensuite la méthode de première association proposée au Chapitre 6. Nous calculons deux orbites circulaires (cas δp ≥ 0 et cas δp ≤ 0) à partir de 5 000 paires d’observations obtenues. Il en résulte 10 000 orbites circulaires que nous propageons dans le temps pour corréler davantage d’observations sur une fenêtre de 36 heures. Les pistes obtenues permettent alors d’étudier l’ambiguïté moyenne (nombre d’observations corrélées par paire) de la méthode de seconde association ainsi que la pertinence des critères utilisés pour discriminer les pistes correctes des pistes incorrectes. 7.5.2 Convergence d’un algorithme de Gauss-Newton comme critère de validation Les tests effectués permettent de déduire le Tableau 7.1 qui indique la proportion de triplets corrects entraînant une convergence de l’algorithme de Gauss-Newton et la proportion de triplets incorrects entraînant une divergence. % (#) Triplets corrects Triplets incorrects Convergence 67,20 (678) 1,36 (201 715) Divergence 32,80 (331) 98,64 (14 631 621) Total 100,00 (1009) 100,00 (14 833 336) Tableau 7.1 – Taux de convergence et le taux de divergence pour les triplets d’observations corrects et les triplets d’observation incorrects sur un échantillon de test. La convergence de l’algorithme de Gauss-Newton est une condition nécessaire à la conformité d’une piste (comme nous le mentionnons en Section 7.4), mais ce n’est pas une condition suffisante. En effet, le Tableau 7.1 indique d’une part que plus de 67% des triplets corrects permettent une convergence, les autres triplets entraînant une divergence. Quant aux triplets incorrects, ils entraînent une divergence dans plus de 98% des cas. Nous déduisons du Tableau 7.1 que la convergence n’est pas un bon critère de validation des triplets d’observations corrects. Cependant, le nombre de triplets incorrects étant très grand devant le nombre de triplets corrects, nous faisons le choix d’invalider un triplet entraînant une divergence. Bien que nous perdons 32,80% des triplets corrects, nous éliminons un très grand nombre de triplets incorrects et gardons ainsi la complexité combinatoire sous contrôle. 1097.5 Évaluation des performances 7.5.3 Fenêtrage Rappel Sur les 3 jours simulés, la méthode d’association de troisièmes observations appliquée aux paires d’observations disponibles fournit des triplets d’observations corrects correspondant à 10 188 objets différents. Le rappel total est donc de 86,29% : Nombre d’objets correctement corrélés Nombre total d’objets présents = 10 188 11 807 = 86, 29% Le rappel propre de la méthode de première association était de 93,20%. Nous en déduisons que le rappel propre de la méthode de deuxième association est de 92,59%. Notons que ces valeurs de rappel sont des bornes inférieures des rappels réels. En effet, sur une durée de simulation plus longue, les objets non-suivis ont plus d’occasions d’être observés dans des conditions plus favorables à l’initialisation de piste. Ambiguïté Compter le nombre moyen de troisièmes observations corrélées à partir d’une paire d’observations et d’un état estimé X4 permet d’évaluer l’ambiguïté de la méthode d’association proposée. Ce nombre peut prendre des valeurs très disparates, comme l’indique la Figure 7.5 : – Moyenne : 1 161 observations par paire d’observations initiale, – Écart-type : 737 observations par paire d’observations initiale, – Maximum : 3 726 observations par paire d’observations initiale. 0 500 1,000 1,500 2,000 2,500 3,000 3,500 0 2 4 6 ·10−2 Nombre d’observations corrélées Probabilité d’occurrence Figure 7.5 – Distribution du nombre d’observations corrélées par paire d’observations pour des pistes quelconques. Le nombre d’hypothèses d’association de troisième observation testées est bien plus faible pour les pistes correctes : nous obtenons l’histogramme de la Figure 7.6 en comptant le nombre de troisièmes observations corrélées jusqu’à ce que l’on dispose d’une observation permettant la convergence d’un algorithme de Gauss-Newton et d’une quatrième observation issue du même objet corrélée grâce à l’état X7 estimé à partir du triplet d’observations correctes. Les propriétés statistiques de ce paramètre sont les suivantes : 110Chapitre 7 : Initialisation du pistage – Moyenne : 45,86 observations par paire d’observations initiale, – Écart-type : 61,10 observations par paire d’observations initiale, – Maximum : 409 observations par paire d’observations initiale. 0 50 100 150 200 250 300 350 400 0 0.2 0.4 Nombre d’observations corrélées Probabilité d’occurrence Figure 7.6 – Distribution du nombre d’observations corrélées par paire d’observations pour les pistes correctes. La grande ambiguïté est alors due aux pistes composées entre autres de fausses alarmes. Nous pouvons déduire des Figure 7.5 et Figure 7.6 que limiter à 200 le nombre de troisièmes observations à tester pour chaque paire d’observations initiale permettrait de limiter le nombre de pistes à tester en ne perdant que très peu de pistes initialisables. Le nombre de troisièmes observations candidates par paire d’observations initiale chute alors en moyenne à une valeur de 189,90 observations par paire. Intervalles de temps Il est intéressant d’évaluer les intervalles de temps entre les observations corrélées afin d’estimer la durée de vie d’une piste à initialiser. En effet, nous ne disposons pas d’une mesure de qualité de piste suffisante pour décider de la suppression de pistes en cours d’initialisation. Nous permettons alors aux pistes en cours d’initialisation d’expirer au-delà d’un certain temps, si aucune observation corrélée ne permet la convergence d’un algorithme de Gauss-Newton et l’association d’une quatrième observation. Nous avons représenté en Figure 7.7 les distributions des intervalles de temps entre une paire d’observations initiale (nous considérons la date de la seconde observation) et les troisièmes observations candidates dans le cas de convergences de l’algorithme de Gauss-Newton et dans le cas de divergences. Nous observons sur la courbe verte de la Figure 7.7 des pics correspondant aux demirévolutions de la Terre. Cela s’explique par les inclinaisons relativement élevées des objets en orbite basse : ils ne passent dans le champ de vue qu’à des longitudes quasiment opposées (longitudes proches des longitudes des nœuds ascendants et descendants). Nous pouvons supposer à ce stade que l’expiration d’une piste serait raisonnable après un temps texp. d’environ un jour. Quant à la courbe rouge, elle prend des valeurs plus élevées pour les grandes valeurs d’intervalle de temps, ce qui peut s’expliquer par la dégradation au cours du temps de la précision de l’orbite circulaire propagée. 1117.6 Conclusion du chapitre 5 10 15 20 25 30 35 0 2 · 10−2 4 · 10−2 6 · 10−2 8 · 10−2 0.1 Intervalle de temps (h) Probabilité d’occurrence association d’observations d’ascendance opposée association d’observations de même ascendance Figure 7.7 – Distributions des intervalles de temps entre une paire d’observations initiale et les troisièmes observations candidates permettant la convergence d’un algorithme de Gauss-Newton. La courbe verte représente les pistes correctes et la courbe rouge représente les pistes incorrectes. Les observations associées après un nombre entier (même ascendance) ou demi-entier (ascendance opposée) correspondent aux pics de la courbe verte. Rappelons que l’ascendance est le fait d’aller du Sud au Nord ou du Nord au Sud. 7.6 Conclusion du chapitre Dans ce chapitre et au Chapitre 6, nous proposons une nouvelle méthode permettant de définir des orbites associées aux objets détectés par le capteur en gardant la complexité combinatoire sous contrôle. Avec un taux de rappel d’au moins 86% et une complexité combinatoire raisonnable de l’ordre de 4, 87 × 189, 90 soit 924, 81 tripets d’observations par observation initiale, nous avons trouvé un compromis raisonnable en comparaison d’une approche par le test exhaustif des combinaisons d’observations possibles. Chacune des orbites est déterminée indépendamment des autres. L’initialisation de plusieurs pistes par objet est alors possible et il est nécessaire de mettre en œuvre une technique de pistage multicible pour ne retenir qu’une piste d’observation et une orbite par objet. De plus, les interférences possibles entre les pistes formées grâce à la méthode proposée peuvent jouer un rôle de discrimination supplémentaire pour filtrer ces pistes. Cette chaîne d’initialisation des pistes est alors mise en œuvre dans un algorithme de pistage multicible (en l’occurrence un TO-MHT) au chapitre suivant, afin d’évaluer les performances des méthodes proposées dans un cadre plus proche de conditions d’utilisation réelles. 112Chapitre 8 Intégration du traitement multicible Ce chapitre présente la mise en œuvre de la méthode d’initialisation de pistes à partir d’observations isolées dans un contexte multicible. Nous avons fait le choix d’un Track-Oriented Multiple Hypothesis Tracker (TOMHT) à partir d’une synthèse des algorithmes de pistage multicible existants au Chapitre 4. Les blocs fonctionnels, dépendant fortement du problème traité ainsi que de la dynamique associée aux cibles, sont identifiés et adaptés selon les particularités de la méthode d’initialisation proposée. Les performances de l’algorithme obtenu sont évaluées sur des scénarios de plusieurs centaines d’objets en orbite basse pour prouver l’efficacité de l’algorithme proposé. Sommaire 8.1 Principe du Track-Oriented Multiple Hypothesis Tracker (TO-MHT) . . . . . . . . . . . . . . . . . . . . . . . . 114 8.1.1 Hypothèse fondamentale . . . . . . . . . . . . . . . . . . . 114 8.1.2 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 8.1.3 Formation des pistes . . . . . . . . . . . . . . . . . . . . . 115 8.1.4 Évaluation de la qualité individuelle des pistes . . . . . . 116 8.1.5 Construction de solutions globales . . . . . . . . . . . . . 120 8.1.6 Suppression de pistes au niveau global . . . . . . . . . . . 121 8.1.7 Mise-à-jour des états . . . . . . . . . . . . . . . . . . . . . 124 8.1.8 Fusion de pistes . . . . . . . . . . . . . . . . . . . . . . . . 124 8.2 Évaluation des performances . . . . . . . . . . . . . . . . . 125 8.2.1 Choix des critères d’évaluation . . . . . . . . . . . . . . . 125 8.2.2 Choix des scénarios de test . . . . . . . . . . . . . . . . . 126 8.2.3 Dégradation des observations . . . . . . . . . . . . . . . . 126 8.2.4 Évolution temporelle des critères de performance principaux127 8.2.5 Évolution temporelle des critères de performance annexes 128 8.2.6 Sensibilité des paramètres de dimensionnement du radar . 129 8.2.7 Conclusion des tests de performance . . . . . . . . . . . . 132 8.3 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . 132 1138.1 Principe du Track-Oriented Multiple Hypothesis Tracker (TO-MHT) 8.1 Principe du Track-Oriented Multiple Hypothesis Tracker (TO-MHT) Un algorithme de pistage multicible, comme le TO-MHT, permet essentiellement de trier (confirmer ou supprimer) un ensemble de pistes issues d’un algorithme de pistage monocible tirant lui-même avantage d’un modèle dynamique. La fréquence des observations issues d’un même objet et la densité de détection vis-à-vis de la dynamique des objets nous ont amené à développer un traitement particulier pour l’initialisation de pistes. Les pistes résultantes sont en effet particulières : elles sont composées d’observations issues de scans non-contigus et le score évaluant la qualité d’une piste n’est pas disponible pour les pistes courtes (moins de quatre observations), ce qui nécessite une certaine adaptation du TO-MHT classique. 8.1.1 Hypothèse fondamentale Le TO-MHT adopte l’hypothèse selon laquelle une même observation ne peut pas être issue de deux cibles distinctes et une même cible ne peut générer deux observations distinctes sur un même scan. Cela se traduit algorithmiquement par la construction de clusters, c’est-à-dire d’ensembles de pistes dites “incompatibles” qui partagent une ou plusieurs observations, et dans la formulation d’une solution globale, c’est-à-dire de l’ensemble le plus vraisemblable de pistes dites “compatibles” qui ne partagent pas une même observation. Pour gérer les cas de cibles confondues, des adaptations spécifiques peuvent être apportées mais cela dépasse le cadre de notre étude. 8.1.2 Principe Le principe du TO-MHT est de garder en mémoire un grand nombre d’hypothèses d’association tant qu’aucune n’est suffisamment vraisemblable, c’est-à-dire de retarder les décisions de suppression de pistes jusqu’à ce que des observations informatives soient acquises. Pour cela, le TO-MHT prolonge des pistes existantes avec de nouvelles observations grâce à une fonction de fenêtrage. Dans un second temps, la qualité de chaque piste (séquence d’observations) est individuellement évaluée par une fonction de score décrite dans la Section 8.1.4. Les pistes survivantes sont alors combinées en clusters, puis en solutions globales dont on évalue la qualité pour éliminer les pistes dites de faible occurrence. Enfin, les états des pistes survivantes sont mis à jour grâce aux observations nouvellement associées et les pistes similaires sont fusionnées. Ce processus itératif est décrit par la Figure 8.1. Parmi les blocs fonctionnels présentés dans la Figure 8.1, on peut distinguer les blocs relatifs à un traitement individuel des pistes, c’est-à-dire les fonctions utilisées provenant d’algorithmes de pistage monocible. Le choix de ces fonctions est donc libre et doit être fait selon les particularités du problème. Rappelons que nous avons justifié au Chapitre 4 le choix d’une méthode de Gauss-Newton pour la mise-à-jour 114Chapitre 8 : Intégration du traitement multicible Structure du TO-MHT Formation des pistes La corrélation de chaque nouvelle observation avec chaque piste existante est évaluée. Chaque nouvelle observation fait l’objet d’une nouvelle piste. Évaluation de la qualité individuelle des pistes La qualité de chaque piste prolongée est évaluée. Les pistes de mauvaise qualité sont supprimées et les pistes de bonne qualité sont confirmées. Construction de solutions globales Les clusters sont calculés. Les pistes confirmées compatibles et leurs orbites sont extraites des clusters et constituent la sortie de l’algorithme. Suppression de pistes au niveau global Pour chaque paire de pistes incompatibles, la piste de moins bonne qualité est supprimée ou non selon l’état de confirmation de la piste de meilleure qualité. Fusion de pistes La similarité des orbites de chaque paire de pistes incompatible est évaluée. La piste de moins bonne qualité est supprimée selon le cas. Mise-à-jour des états Calcul ou mise-à-jour des orbites des pistes survivantes. Nouvelles observations Meilleur scénario Figure 8.1 – Schéma bloc représentant les principales étapes du TO-MHT. Les blocs bleus traitent les pistes individuellement tandis que les blocs roses traitent des ensembles de pistes. La souplesse de cette algorithme permet d’insérer et d’implémenter facilement des blocs fonctionnels comme par exemple une fonction de fusion de pistes. des états des pistes initialisées et une transformation non-parfumée pour le fenêtrage. 8.1.3 Formation des pistes L’étape de formation des piste comprend deux fonctions : la création de nouvelles pistes et la prolongation de pistes existantes. Créer une nouvelle piste consiste dans notre cas à une simple mise en mémoire de la nouvelle observation sous la forme d’une nouvelle piste contenant une unique observation. En revanche, associer les détections issues d’une même traversée permet 1158.1 Principe du Track-Oriented Multiple Hypothesis Tracker (TO-MHT) d’avoir à initialiser moins de nouvelles pistes. Dans cette étude, cette association est faite de proche en proche comme le décrit l’Annexe D. Les pistes sont prolongées en levant la condition selon laquelle une observation ne peut être issue de deux cibles distinctes. Par conséquent, on autorise les nouvelles observations à prolonger plusieurs pistes existantes, quitte à respecter à nouveau cette condition lors de la combinaison de pistes en solutions globales. Nous intégrons ici la méthode d’initialisation présentée au Chapitre 6. Pour cela, nous distinguons les pistes selon le nombre d’observations. En effet, si une piste contient une unique observation, alors la méthode de fenêtrage présentée au Chapitre 6 est appliquée, c’est-à-dire que l’on teste l’assertion “x(i, j) ∈ Fˆ 1rév”. Si en revanche la piste contient au moins deux observations, alors elle dispose d’un état X4 ou X7 et d’une matrice de covariance PXX que l’on peut propager grâce à une transformation non-parfumée et dont on peut déduire une fenêtre de validation. Dans ce cas, c’est une distance statistique entre l’observation prédite ¯zi et la nouvelle observation zi que l’on compare à un seuil sF (cf. Chapitre 4). Formation des pistes Chaîne classique Piste Unique observation zj ? One-Class SVM Nouvelle observation zi Transformation non-parfumée Nouvelle observation zi x(i, j) ∈ Fˆ 1rév ? d(¯zi , zi) ≤ sF ? Prolongation de la piste oui non oui oui Figure 8.2 – Détails du bloc de formation des pistes (cf. Figure 8.1). La chaîne classique représente la partie de l’algorithme traitée dans la littérature. 8.1.4 Évaluation de la qualité individuelle des pistes Chaque piste Z est constituée d’une séquence d’observations associées grâce à une fonction de fenêtrage donnant lieu au calcul de la probabilité p(Z|H1) lorsqu’elle dispose d’une orbite estimée X7. Calculer le rapport de vraisemblance (score) entre l’hypothèse H1 et l’hypothèse H0 permet alors d’évaluer la qualité d’une piste Z. Dans cette étude, nous utilisons le logarithme d’un rapport de vraisemblance défini par l’équation (8.1) (rappel de l’équation (4.26)), où p(Z|H1) est la probabilité des observations de la piste Z sachant qu’elles sont issues de la même cible (hypothèse 116Chapitre 8 : Intégration du traitement multicible H1) et p(Z|H0) est la probabilité des observations de la piste Z sachant qu’elles sont toutes des fausses alarmes (hypothèse H0 = H1). L = ln p(Z|H1) p(Z|H0) (8.1) La méthode classique du Sequential Probability Ratio Test (SPRT) [46] (cf. Section 4.3.2) est implémentée pour tirer avantage de ce score. Cette méthode consiste à comparer régulièrement le score associé à une piste Z à des seuils sSPRT,1 et sSPRT,2 afin de décider de sa suppression ou de sa confirmation. La mise-à-jour du score se fait de manière récursive lorsqu’une nouvelle observation z est associée à une piste existante Z, les bruits d’observation étant supposés indépendants [63] : Lk+1 = ln p(z|H1) × p(Z|H1) p(z|H0) × p(Z|H0) ! = ∆L + Lk (8.2) avec l’incrément ∆L tel que : ∆L = ln p(z|H1) p(z|H0) (8.3) La probabilité p(z|H1) est obtenue grâce à la distribution (supposée gaussienne) de l’observation prédite ¯z : p(z|H1) = e −d 2/2 (2π)M/2 q |S| (8.4) où d la distance de Mahalanobis entre l’observation z et l’observation ¯z prédite à partir de la piste, |S| est le déterminant de la matrice de covariance associée et M est la dimension du vecteur d’observation (c’est-à-dire 3 en l’occurrence). La probabilité p(z|H0) est la densité d’observations dans la cellule de résolution du capteur dont le volume est VC : p(z|H0) = 1 VC (8.5) En définitive : Lk+1 = Lk +    ln VC − 1 2 ln |S| − M ln(2π)+d 2 2 si la piste est prolongée par une nouvelle observation, ln(1 − PD) sinon. (8.6) où PD est la probabilité de détection du capteur. 1178.1 Principe du Track-Oriented Multiple Hypothesis Tracker (TO-MHT) Score d’association lié à l’orbite circulaire Le rapport de vraisemblance est un critère de qualité lorsque l’on dispose d’un état X7 précis. Lorsque l’on dispose d’un état {Xˆ 4, PXˆ Xˆ ,4 } (orbite circulaire nécessairement biaisée) déduit d’une paire d’observations par la méthode présentée au Chapitre 7, ce critère ne permet pas d’évaluer la qualité de l’association d’une troisième observation candidate car un biais apparaît dans la densité de probabilité de l’observation prédite {z¯, Pz¯z¯}. Dans cette section, nous justifions le choix de ne pas évaluer la qualité d’une association tant qu’on ne dispose pas d’une orbite précise, c’est-à-dire tant qu’un algorithme de Gauss-Newton ne converge pas. Pour cela, nous appliquons la méthode d’estimation d’orbite circulaire à un jeu d’observations issu de la simulation des objets du catalogue Space-Track et utilisons la transformation non-parfumée pour corréler davantage d’observations à chaque piste initiale. À chaque nouvelle association, nous évaluons le score d’association L défini de manière classique par l’équation (8.7) : Lk+1 = Lk + ln VC − 1 2 ln |S| − 3 ln(2π) + d 2 2 (8.7) où Lk est le score de la piste avant l’association (nul pour l’association initiale), VC le volume surveillé, |S| le déterminant de la matrice de covariance de l’innovation S = Pz¯z¯ + Pzz et d la distance statistique telle que définie en équation (7.9). Lorsqu’une nouvelle observation est associée à une piste existante, nous tentons d’estimer une orbite définitive X7 et, en cas de convergence de l’algorithme de GaussNewton, nous l’utilisons pour associer les observations suivantes et évaluer le score d’association. 1 2 3 4 5 6 7 8 9 10 11 12 0 20 40 60 80 Nombre de détections Rapport de vraisemblance cumulé Moyenne Moyenne±écart-type Faible observabilité de l’état Figure 8.3 – Dans cette simulation, c’est en général la quatrième observation qui permet la convergence de l’algorithme de Gauss-Newton. Les pistes de deux ou trois observations utilisent un état X4 tandis que les pistes de quatre observations ou plus utilisent un état X7 pour l’association de nouvelles observations. La Figure 8.3 représente le score cumulé en fonction de la longueur de la piste pour les pistes correctes. Nous observons que le score cumulatif stagne autour de zéro (voire diminue légèrement en moyenne) pour les pistes contenant moins de quatre 118Chapitre 8 : Intégration du traitement multicible observations. Cela exprime le biais de l’estimation de l’orbite circulaire : le score ne fournit pas un indicateur fiable de la qualité de la piste dans ce cas. Lorsque l’on dispose d’au moins quatre observations, l’algorithme de Gauss-Newton converge dans la plupart des cas et les incréments de score associés aux observations suivantes sont élevés. On déduit de cette analyse que le rapport de vraisemblance n’est pas pertinent si l’on ne dispose que d’une orbite circulaire (biaisée). Nous faisons donc le choix d’ignorer ce score dans la discrimination des pistes tant que le critère de convergence n’est pas respecté, en testant la convergence d’un algorithme de Gauss-Newton et en comparant l’erreur quadratique εQ à un seuil sε. Pour éviter de supprimer ou de confirmer des pistes à tort, le rapport de vraisemblance L n’est pas incrémenté tant qu’un état complet, c’est-à-dire un vecteur d’état X7, n’est pas disponible (L reste alors nul). Évaluation et suppression de pistes Chaîne classique Piste X4 disponible ? X7 disponible ? L0 ≤ sSPRT,1 ? L = 0 L + ∆L ≤ sSPRT,1 ? Suppression de la piste oui oui non non oui oui Figure 8.4 – Détails du bloc d’évaluation et suppression de pistes (cf. Figure 8.1). 100 150 200 250 10 20 30 t0 elevation φ (˚) 100 150 200 250 10 20 30 t0+10 s azimuth θ (˚) elevation φ (˚) Figure 8.5 – Exemple de fenêtre (rouge) validant des observations (bleu) sur des scans successifs. Le processus de suppression représenté en Figure 8.4 ne doit pas être effectué après la première association, mais après un temps de latence tlatence sous peine de supprimer à tort la piste qui pourrait être prolongée par une observation du second scan. Le processus représenté sur la Figure 8.4 ne doit pas être effectué à chaque scan 1198.1 Principe du Track-Oriented Multiple Hypothesis Tracker (TO-MHT) pour chaque piste. En effet, les objets sont hors du champ de veille la plupart du temps et les pistes sont par conséquent rarement mises à jour. De plus, les fenêtres de validation peuvent comprendre une zone de l’espace surveillée et une zone hors champ de veille. Ce processus d’évaluation de qualité de piste doit alors être effectué avec une certaine latence tlatence pour éviter la suppression d’une piste causée à tort par une mauvaise association alors qu’une association correcte est possible aux scans contigus. Nous avons déterminé empiriquement que la valeur tlatence = 10 mins convenait. Par ailleurs, les observations prédites et leurs fenêtres de validation sont la plupart du temps hors du champ de veille. Dans ces cas, la probabilité PD est nulle et l’incré- ment de score ∆L est par conséquent nul également. Une piste peut alors survivre très longtemps car la “certitude” d’une non-détection se présente rarement. Nous choisissons alors d’imposer un délai d’expiration : si une piste ne dispose pas d’un vecteur d’état X7 après une certaine durée texp., alors cette piste est supprimée. Nous avons déterminé qu’un objet passe en moyenne 3 fois dans le champ de veille en l’espace de 24 heures. Le choix texp. = 24 h permet alors une suppression effi- cace des pistes non-prolongées. Intuitivement, une piste d’observations issues d’un même objet serait supprimée à tort en phase d’initialisation avec une probabilité de (1 − PD) 2 qui correspond à la non-détection de deux passages suivant une première détection. 8.1.5 Construction de solutions globales Une solution globale S à un instant k à un problème de pistage multicible est un ensemble de pistes Z respectant la contrainte qu’aucune observation ne soit comprise simultanément dans plusieurs pistes. En pratique, les pistes existantes sont réparties en clusters [32] afin de traiter sé- parément plusieurs problèmes indépendants plus petits : un cluster est en effet un ensemble de pistes liées directement ou indirectement par une ou plusieurs observations communes. Par exemple, si une piste Z1 partage une ou plusieurs observations avec une piste Z2 et que Z2 partage une ou plusieurs observations avec une piste Z3, alors les pistes Z1, Z2 et Z3 sont dans le même cluster, que Z1 et Z3 partagent une observation commune ou non. La solution globale S permettant d’identifier le scénario réel est obtenue par agré- gation de solutions faisables (pistes ne partageant pas d’observations entre elles) propres à chaque cluster. De nombreuses solutions étant possibles, un critère permettant d’ordonner les solutions faisables est défini : un score peut être associé à chaque solution globale obtenue S afin de fournir en sortie de l’algorithme la meilleure solution. Le score LS est défini par la somme des scores des pistes contenues dans la solution S : LS = X Z∈S LZ (8.8) La log-vraisemblance n’étant pas un bon critère de qualité pour les pistes en cours 120Chapitre 8 : Intégration du traitement multicible d’initialisation, nous ne considérons que les pistes confirmées (c’est-à-dire avec un score supérieur au seuil sSPRT,2 et donc a fortiori permettant la convergence d’un algorithme de Gauss-Newton) pour construire les solutions globales et choisir la meilleure. 8.1.6 Suppression de pistes au niveau global Il s’agit ici d’évaluer la pertinence d’une piste vis-à-vis des autres pistes existantes. Pour cela, plusieurs méthodes sont possibles. La méthode du N-scan pruning consiste à supprimer les ramifications d’une piste antérieures à une date fixée en fonction de la date de la dernière observation associée à la piste de meilleur score. Une autre approche consiste à supprimer des pistes selon leur probabilité au niveau “global”, c’est-à-dire en prenant en compte l’interférence avec les autres pistes incompatibles ou pouvant coexister. Ces deux méthodes fournissent de bons résultats dans de nombreux problèmes de pistage multicible, mais nous déterminons dans cette section que la seule l’approche N-scan pruning est adaptée à notre cas en raison du comportement particulier de la log-vraisemblance individuelle des pistes (cf. Section 8.1.4). La définition d’une structure de données pour les pistes est nécessaire à la compré- hension de la méthode N-scan pruning. Structure de données des pistes Une piste Z est une suite d’observations associées z sur plusieurs scans (les scans sont en général non-contigus car les observations sont isolées). Une structure d’arbre (graphe acyclique orienté) permet d’organiser les pistes de manière efficace. En effet, les observations pouvant être référencées dans plusieurs pistes, elles sont organisées en arborescences dont chaque chemin du sommet à une feuille constitue une piste. Cette structure de données permet de garder en mémoire plusieurs hypothèses d’association le temps d’accumuler suffisamment d’information pour discriminer la piste la plus vraisemblable. Notons z j k la j-ème observation du k-ème scan et Zi représente la i-ème piste d’un ensemble. La Figure 8.6 fournit un exemple d’arborescence dont le sommet est la 3ème observation du scan 1. Cet ensemble de pistes ne peut correspondre qu’à un seul objet au plus (celui dont est issue l’observation z 3 1 ). Pour l’objet représenté par cette piste, huit pistes sont possibles et exclusives les unes des autres : Z1 : z 3 1 -z 6 540-z 4 4320, Z2 : z 3 1 -z 6 540-z 1 4320, Z3 : z 3 1 -z 1 540-z 2 4860, Z4 : z 3 1 -z 1 540-z 5 4860, Z5 : z 3 1 -z 1 540-z 6 4860, Z6 : z 3 1 -z 1 540-z 4 4320-z 5 4860, Z7 : z 3 1 -z 1 540-z 4 4320-z 1 4860, Z8 : z 3 1 -z 1 540-z 4 4320-z 3 4860. Ces pistes peuvent également ne représenter aucun objet notamment si l’observation 1218.1 Principe du Track-Oriented Multiple Hypothesis Tracker (TO-MHT) z 3 1 z 6 540 z 4 4320 ∅ z 1 4320 ∅ z 1 540 ∅ z 2 4860 z 5 4860 z 6 4860 z 1 4320 ∅ 4 z 5 4860 z 1 4860 z 3 4860 Scan 1 Scan 540 Scan 4320 Scan 4860 Figure 8.6 – Exemple d’arborescence. Les pistes ne sont pas nécessairement prolongées avec des observations à chaque scan. z 3 1 est une fausse alarme. N-scan pruning Le N-scan pruning est une méthode empirique qui consiste à supprimer les ramifi- cations antérieures aux N associations donnant lieu à la piste de meilleur score : il est en effet possible qu’une piste confirmée soit associée avec une fausse alarme, ce qui peut alors provoquer une divergence de l’algorithme de Gauss-Newton lors de la mise-à-jour de l’état et entraîner ainsi la suppression de la piste et la perte d’un objet déjà catalogué. Pour éviter cela, il convient de permettre la prolongation d’une piste à partir de son dernier élément mais également à partir des éléments situés en amont (jusqu’à un certain rang N). Dans notre cas, choisir N = 2, c’est-à-dire autoriser les ramifications d’une piste confirmée pour les deux derniers éléments de la piste, suffit. Notons également que dans le cas classique, les éléments constituant une piste appartiennent à des scans successifs, ce qui n’est en général pas le cas dans un contexte d’observations isolées. L’algorithme de N-scan pruning proposé dans [17] initialise de nouvelles pistes à partir des nœuds supprimés dans notre exemple de la Figure 8.7. Cela n’est pas jugé utile dans notre étude étant donné la grande vraisemblance des pistes confirmées. Suppression des pistes selon leur probabilité au niveau global Confronter les pistes issues de solutions faisables {Si} peut se faire en général par le calcul d’une probabilité d’occurrence dans les solutions obtenues grâce à l’équation (8.9), où J désigne le nombre de solutions extraites du cluster et LSi le score de la solution Si . 122Chapitre 8 : Intégration du traitement multicible z 3 1 z 6 540 z 4 4320 ∅ z 1 4320 ∅ z 1 540 ∅ z 2 4860 z 5 4860 z 6 4860 z 1 4320 ∅ 4 z 5 4860 z 1 4860 z 3 4860 Scan 1 Scan 540 Scan 4320 Scan 4860 Figure 8.7 – Exemple d’application du N-scan pruning sur une piste. Les nœuds verts forment les pistes confirmées, les nœuds entourés de bleu sont les extrémités des pistes que l’on s’autorise à prolonger (grâce aux états associés) et les nœuds barrés d’une croix rouge sont supprimés. P(Z) = X Si∋Z e LSi 1 + P J j=1 e LSj (8.9) Les pistes dont la probabilité d’occurrence est en dessous d’un certain seuil sH peuvent alors être supprimées. Nous voyons en Section 8.1.4 que la log-vraisemblance d’une piste en cours d’initialisation (disposant d’un vecteur d’état X4) n’est pas représentative de la qualité d’association. Cela impacte fortement les performances de cette méthode de filtrage par calcul de probabilité “globale” : par exemple, il est possible voire fréquent de traiter un cluster contenant des pistes confirmées de scores égaux à 5, par exemple, et des pistes en cours d’initialisation, de scores nul (cf. Chapitre 7). Exemple A : le cluster contient deux pistes incompatibles Z1 et Z2 (liées par une observation commune) de scores LZ1 = 0 et LZ2 = 5. Trois solutions sont faisables : S1 = {Z1}, S2 = {Z2}, S3 = {∅} et leurs scores sont LS1 = 0, LS2 = 5, LS3 = 0. Les probabilités globales de Z1 et de Z2 sont alors P(Z1) = 0, 007 et P(Z2) = 0, 97. Exemple B : le cluster contient deux pistes compatibles Z1 et Z2 (se trouvant dans le même cluster car une piste Z3 est incompatible avec Z1 et Z2) de scores LZ1 = 0 et LZ2 = 5. Quatre solutions sont faisables à partir de Z1 et Z2 : S1 = {Z1}, S2 = {Z2}, S3 = {Z1, Z2}, S4 = {∅} et leurs scores sont LS1 = 0, LS2 = 5, LS3 = 5, LS4 = 0. Les probabilités globales de Z1 et de Z2 sont alors P(Z1) = 0, 5 et P(Z2) = 0, 99. Dans ces deux exemples, nous constatons que le calcul de probabilité globale peut mener à une conclusion catégorique (Exemple A), c’est-à-dire que la piste de plus faible vraisemblance pourrait être supprimée car elle est incompatible avec une piste de forte vraisemblance, ou à une conclusion neutre (Exemple B) nullement informa- 1238.1 Principe du Track-Oriented Multiple Hypothesis Tracker (TO-MHT) tive. Une conclusion si catégorique est également peu informative compte tenu des scores individuels des pistes. Les vraisemblances des pistes confirmées prenant de fortes valeurs, cette méthode reviendrait à supprimer toutes les pistes en cours d’initialisation (score faible) et incompatibles avec la piste de plus fort score, ce qui revient à réduire la piste entière à la première piste permettant la convergence d’un algorithme de Gauss-Newton suivie d’une association valide (l’incrément ∆L est grand). Le même résultat serait obtenu avec une méthode de N-scan pruning pour N = 1. Par conséquent, nous déduisons de ces exemples simples que le processus de suppression de pistes par calcul de probabilités globales n’est pas adapté dans un contexte de forte disparité de scores entre les pistes non-confirmées. Nous choisissons cependant de ne pas initialiser une piste à partir d’une observation si celle-ci est associée à une piste confirmée car le score d’une piste confirmée permet d’avoir une très grande certitude quant à la conformité des associations. En revanche, la méthode du N-scan pruning, plus appropriée, est implémentée dans le cadre de cette étude. 8.1.7 Mise-à-jour des états À chaque itération, les états des pistes prolongées et survivantes sont mis à jour : – Quand la piste ne contient qu’une unique observation, l’état n’est pas calculable et aucune mise-à-jour n’est effectuée. – Quand la piste contient deux observations, alors la méthode d’IOD présentée au Chapitre 6 est utilisée et la piste est dotée d’un vecteur d’état X4 et d’une matrice de covariance associée. – Quand la piste contient trois observations, alors un algorithme de Gauss-Newton est effectué avec pour valeur initiale X4. Dans le cas d’une convergence, la piste est dotée d’un vecteur d’état X7. Dans le cas d’une divergence selon les critères définis au Section 7.4, la troisième observation de la piste est dissociée. 8.1.8 Fusion de pistes Un algorithme de pistage multicible peut générer des pistes redondantes, c’est-à-dire des pistes différentes produisant des états similaires ou proches associés à une même cible. Pour réduire au mieux le nombre de pistes redondantes, nous définissons une mesure de similarité (distance de Mahalanobis) [30] entre les états de deux pistes en utilisant les estimées des vecteurs d’état et des covariances associées : si cette similarité est supérieure à un certain seuil, alors la piste de plus faible score est supprimée. D’autres algorithmes sont disponibles dans la littérature, comme par exemple des méthodes de réduction de mélange gaussien [64] qui consistent à trouver le mélange d’un minimum de gaussiennes qui représente le mieux le mélange gaussien obtenu à partir des états d’un ensemble de pistes, mais le besoin (modeste) de fusion de 124Chapitre 8 : Intégration du traitement multicible pistes pour l’implémentation du TO-MHT ne justifie pas l’utilisation de méthodes aussi sophistiquées. Dans le cadre de cette étude, nous renonçons à fusionner les pistes en cours d’initialisation car les états calculés sont biaisés. Cela implique d’une part un biais dans la distance de Mahalanobis si celle-ci est utilisée comme mesure de similarité et d’autre part que l’on ne dispose pas d’un outil d’évaluation de qualité performant. En revanche, la distance de Mahalanobis et la log-vraisemblance fournissent une approche efficace pour la fusion éventuelle de deux pistes confirmées, car ces pistes sont dotées d’états bien définis et peu biaisés sur des fenêtres de temps relativement larges (quelques jours). Cette dernière approche est implémentée dans le cadre de cette étude et permet une fusion de pistes efficace. 8.2 Évaluation des performances L’implémentation proposée est mise en œuvre pour cataloguer un échantillon d’objets issus du catalogue Space-Track. Les détections de ces objets sont simulés dans l’hypothèse du capteur défini au Chapitre 2 : nous simulons les observations issues d’un radar sol fournissant des mesures de position (ρ, θ, φ) avec des précisions de σρ =30 m et σθ = σφ =0,2˚, situé à 45˚N et dont la ligne de visée est orientée vers le Sud avec une élévation de 20˚, utilisant un FOR de 160˚×2˚avec une période de revisite de 10 s et un taux de fausse alarme de 1 FA/s. 8.2.1 Choix des critères d’évaluation Quatre critères principaux d’évaluation de performances pour un algorithme de catalogage : la couverture, le coût de calcul, la précision et la réactivité (cf. Problé- matique). Dans cette étude, nous nous concentrons sur les objets non-manœuvrants car les objets manœuvrants peuvent être suivis par des systèmes existants. La réactivité n’est donc pas a priori le premier critère à satisfaire car la dynamique des débris spatiaux est relativement déterministe. En revanche, cela est à nuancer car détecter l’apparition de nouveaux débris le plus tôt possible peut être utile tant dans un contexte civil que militaire. La précision des orbites en sortie d’un algorithme de catalogage pourrait quant à elle être améliorée grâce à des méthodes d’estimation plus efficaces ou à un modèle dynamique plus précis, ce qui n’est pas le centre de nos préoccupations dans cette étude. Les critères de couverture et de coût de calcul sont alors nos principaux critères de performance. Dans cette thèse, la couverture est évaluée en mesurant la proportion d’objets catalogués (i.e. dont les pistes sont initialisées et mises à jour) en fin de simulation vis-à-vis du nombre d’objets simulés observés au moins une fois par le capteur. Sachant que les objets du catalogue Space-Track sont issus d’un système de capteurs réel (le SSN américain, cf. Chapitre 1), cataloguer 100% de ces objets en simulation reviendrait à atteindre les performances effectives du SSN américain en termes de 1258.2 Évaluation des performances couverture. L’évolution temporelle de ce rapport permet également d’évaluer la ré- activité dans une certaine mesure en mesurant le temps nécessaire pour atteindre une certaine proportion d’objets catalogués. Quant au coût de calcul, il est reflété dans une certaine mesure par la mémoire occupée par les pistes confirmées ou en cours d’initialisation, c’est-à-dire le nombre instantané d’hypothèses d’association à traiter. Évaluer le coût de calcul n’étant pas trivial, nous consacrons le Chapitre 9 à son étude. D’autres critères moins essentiels, tels que le taux de redondance ou la pureté des pistes (taux de fausses alarmes dans une piste confirmée), permettent de garantir le bon fonctionnement de l’algorithme dans son ensemble. 8.2.2 Choix des scénarios de test Avec en moyenne quatre passages dans le champ de veille par objet en 32 heures, simuler des objets du catalogue Space-Track sur une période de 6 jours est suffisant. Afin de pouvoir effectuer les tests en un temps raisonnable, nous simulons des échantillons de plusieurs centaines (400, 500, 600, 700 et 800) d’objets issus du catalogue Space-Track. Ces objets sont choisis tels qu’ils sont tous observés sur des scans contigus lors de la simulation de la totalité des objets du catalogue Space-Track. Cela permet d’éviter les objets qui seraient sur des orbites en opposition de phase et qui ne constitueraient pas une difficulté de pistage. Dans cette logique, nous avons sé- lectionné tous les objets passant dans le champ de veille du capteur simulé sur une durée d’environ 9 minutes. 8.2.3 Dégradation des observations Le capteur fournit des observations de position (ρ, θ, φ) associées à des erreurs de mesure à σρ=30 m et σθ = σφ=0,2˚. Les observations simulées sont individuellement bruitées (bruit gaussien) de manière indépendante sur chaque dimension. Une étude de robustesse au bruit de mesure en distance σρ est conduite en Section 8.2.6 car la précision de la mesure en distance est conditionnée par la largeur de bande disponible pour l’émission du signal radar, ce qui peut avoir un impact important sur la faisabilité du système compte tenu de contraintes environnementales. Nous fixons également un taux de Fausse Alarme (FA) de 1 FA/s équivalent à 10 FA/Scan en moyenne. 10 FA sont donc ajoutées sur chaque scan contenant au moins une détection issue d’un objet. Cela permet d’éviter de traiter des scans ne contenant que des FA tout en gardant une densité de détection élevée sur les scans informatifs : quand l’ensemble des objets du catalogue est simulé (environ 11 000 objets en orbite basse), on obtient en moyenne 18,95 détections par scan (8,95 détections sont alors issues d’un objet) et nous obtenons 11,26 détections par scan dans le cas d’un échantillon de 500 objets, ce qui est du même ordre de grandeur. Enfin, la probabilité de détection est fixée à PD = 1 dans un premier temps, et une étude de robustesse aux valeurs non-unitaires de PD est menée par la suite en 126Chapitre 8 : Intégration du traitement multicible Section 8.2.6. 8.2.4 Évolution temporelle des critères de performance principaux Couverture À chaque instant simulé, nous évaluons le nombre d’objets catalogués et suivis rapporté au nombre total d’objets simulés sans redondance. L’évolution temporelle de la proportion obtenue est représentée en Figure 8.8. 0 1 2 3 4 5 6 0 20 40 60 80 100 Temps (jours) Proportion d’objets suivis (%) 400 objets 500 objets 600 objets 700 objets 800 objets phase d’initalisation phase de mise-à-jour Figure 8.8 – Évolution temporelle du taux d’objets catalogués sans redondance. Nous observons trois phases dans l’évolution du taux d’objets suivis au cours du catalogage : – une phase d’amorçage entre 0 et 0,5 jours, pendant laquelle les pistes sont formées et accumulées sans qu’aucune piste ne dispose d’assez d’observations pour que sa qualité soit jugée suffisante pour la confirmer, – une phase de transition entre 0,5 et 3 jours (formant une phase d’initialisation avec la phase d’amorçage), pendant laquelle la majorité des objets sont catalogués, – une phase de mise-à-jour à partir de 3 jours, pendant laquelle les objets catalogués sont suivis et maintenus, tandis que de nouveaux objets donnant lieu à des observations moins fréquentes sont acquis progressivement. En 6 jours de temps simulé, nous atteignons dans tous les scénarios un taux d’objets catalogués de l’ordre de 85%. Cela est pertinent avec le taux de rappel obtenu dans l’évaluation de la méthode d’initialisation (86,29%) présentée au Section 7.5. Ce résultat ne permet pas d’estimer une valeur de couverture maximale ; il faudrait pour cela effectuer des simulations sur des intervalles de temps plus longs. Mémoire utilisée Le nombre de nœuds contenus dans l’ensemble des pistes existantes (cf. Figure 8.6) est évalué à chaque instant. Nous constatons que dans tous les scénarios le nombre de nœuds mémorisés stagne après environ 1 jour de temps simulé. Cela correspond au temps d’expiration texp. fixé à 24 h qui permet la suppression de pistes en cours d’initialisation n’étant corrélée à 1278.2 Évaluation des performances 0 1 2 3 4 5 6 0 2 4 ·104 Temps (jours) Nombre de nœuds en mémoire 400 objets 500 objets 600 objets 700 objets 800 objets Figure 8.9 – Évolution temporelle du nombre de nœuds gardés en mémoire au cours du catalogage. aucune nouvelle observation dans un intervalle de temps texp.. Ces courbes prouvent que la suppression de pistes permet de garder sous contrôle la mémoire nécessaire à l’algorithme. 8.2.5 Évolution temporelle des critères de performance annexes Quelques critères annexes permettent de vérifier le bon fonctionnement de l’algorithme implémenté tels que la redondance et les pertes de pistes confirmées. Redondance Nous évaluons la redondance des pistes confirmées, c’est-à-dire la proportion de pistes se rapportant à un même objet dans le scénario le plus vraisemblable. 0 1 2 3 4 5 6 0 1 2 Temps (jours) Proportion de pistes redondantes (%) 400 objets 500 objets 600 objets 700 objets 800 objets Figure 8.10 – Proportion de pistes se rapportant à un même objet dans le scénario le plus vraisemblable. 128Chapitre 8 : Intégration du traitement multicible La redondance reste inférieure à 1% sur la plupart du temps et tend à diminuer en fin de simulation. Ce paramètre prouve le bon fonctionnement des fonctions de fusion de pistes, notamment. Pertes Le taux de pertes (c’est-à-dire le taux d’objets suivis puis perdus) permet d’évaluer la robustesse de la méthode de suivi des objets. 0 1 2 3 4 5 6 0 1 2 Temps (jours) Taux d’objets perdus (%) 400 objets 500 objets 600 objets 700 objets 800 objets Figure 8.11 – Taux d’objets perdus cumulé. Nous observons un taux de pertes très faible : en effet, le taux de perte moyen sur 6 jours pour le scénario le plus défavorable (800 objets) est inférieur à 1% du cumul des pistes confirmées appartenant au scénario le plus vraisemblable au cours de la simulation. Ce paramètre est de plus pessimiste car il ne tient pas compte des objets re-catalogués par la suite. 8.2.6 Sensibilité des paramètres de dimensionnement du radar Influence de la probabilité de détection moyenne PD Il s’agit ici d’évaluer l’impact d’une dégradation du Rapport Signal à Bruit (RSB), ou d’une diminution de la puissance émise, qui se traduit par une diminution de la probabilité de détection moyenne PD (associée à un RSB et une distance de référence). Notons que la probabilité de détection dépend de nombreux facteurs liés au radar, aux conditions d’observation ainsi qu’à l’objet lui-même et notamment à sa Surface Équivalente Radar (SER). Dégrader le RSB peut donc conduire à rendre inaccessibles certains objets de SER faible. Cependant, supposer que la probabilité de détection associée à chaque situation est égale à une probabilité de détection moyenne PD nous permet de ne pas dimensionner d’autres paramètres du radar. Nous évitons ainsi de faire d’autres choix de dimensionnement qui constitueraient autant d’hypothèses fortes. Les performances de l’algorithme en fonction de la probabilité de détection moyenne PD sont alors évaluées dans un but de conception pour déterminer une valeur de 1298.2 Évaluation des performances PD permettant un catalogage conforme à des spécifications éventuelles et en déduire (si le même travail est effectué pour déterminer une valeur de probabilité de fausse alarme PF A) une valeur de RSB conditionnant la conception du capteur physique. 0 1 2 3 4 5 6 0 20 40 60 80 100 Temps simulé (jours) Proportion d’objets suivis (%) PD = 0, 6 PD = 0, 7 PD = 0, 8 PD = 0, 9 PD = 1 Figure 8.12 – Évolution du nombre d’objets catalogués en fonction du temps pour différentes probabilités de détection pour un scénario de 500 objets. Nous observons sur les courbes de la Figure 8.12 qu’une probabilité de détection moyenne PD plus faible dégrade principalement la réactivité du système de catalogage simulé. En effet, une diminution de la probabilité de détection fait diminuer le taux de couverture final (à la fin des 3 jours simulés) de quelques points de pourcentage dans nos hypothèses de travail. 0 1 2 3 4 5 6 0 1 2 3 ·104 Temps simulé (jours) Nombre de nœuds en mémoire PD = 0, 6 PD = 0, 7 PD = 0, 8 PD = 0, 9 PD = 1 Figure 8.13 – Évolution temporelle du nombre de nœuds gardés en mémoire au cours du catalogage pour différentes probabilités de détection pour un scénario de 500 objets. La Figure 8.13 met en évidence deux phénomènes : pour PD compris entre 1 et 0,8, on observe une diminution du nombre de nœuds gardés en mémoire que l’on peut attribuer à la diminution du nombre d’observations disponibles ; pour PD compris entre 0,8 et 0,7, on observe une progression plus lente vers un palier plus élevé. On en déduit par conséquent qu’il existe une valeur critique de PD comprise entre 0,7 et 130Chapitre 8 : Intégration du traitement multicible 0,8 qui dégrade non seulement la réactivité mais augmente également la complexité combinatoire. Influence de la précision de mesure de distance σρ La précision de la mesure en distance dépend de la bande de fréquence disponible pour le signal émis. Celleci est en général allouée en fonction de paramètres extérieurs comme par exemple des contraintes environnementales. L’étude de la robustesse de l’algorithme à la dégradation de la précision de mesure en distance permet alors de déterminer la précision en distance minimale (et donc la plus petite bande en fréquence) nécessaire au bon fonctionnement de l’algorithme de catalogage. 0 1 2 3 4 5 6 0 20 40 60 80 100 Temps simulé (jours) Proportion d’objets suivis (%) σρ = 30 m σρ = 100 m σρ = 1 Km σρ = 10 Km σρ = 50 Km Figure 8.14 – Évolution du nombre d’objets catalogués en fonction du temps pour différentes précisions en mesure de distance pour un scénario de 500 objets. 0 1 2 3 4 5 6 0 2 4 ·104 Temps simulé (jours) Nombre de nœuds en mémoire σρ = 30 m σρ = 100 m σρ = 1 Km σρ = 10 Km σρ = 50 Km Figure 8.15 – Évolution temporelle du nombre de nœuds gardés en mémoire au cours du catalogage pour différentes précisions en mesure de distance pour un scénario de 500 objets. Les performances de l’algorithme sont maintenues pour les valeurs de σρ inférieures à 1 Km et sont légèrement dégradées pour σρ = 10 Km. Les performances chutent pour σρ = 50 Km. Pour σρ = 50 Km, nous constatons par ailleurs que le taux 1318.3 Conclusion du chapitre d’objets suivis cumulé (c’est-à-dire tous les objets catalogués à un instant, qu’ils soient suivis ou perdus par la suite) avoisine les 72% en 6 jours. Environ 15% des objets sont alors suivis puis perdus en 6 jours. Pour σρ = 10 Km, seulement 3% des objets simulés sont suivis puis perdus en 6 jours. Nous en déduisons que la forte dégradation des performances dans le cas où σρ = 50 Km serait à attribuer à un manque de robustesse des fonctions de suivi et non à un manque de robustesse des fonctions d’initialisation. En revanche, la combinatoire semble fortement impactée par une dégradation de la précision de mesure en distance au-delà de σρ = 10 Km. 8.2.7 Conclusion des tests de performance L’évaluation de la robustesse de l’algorithme de catalogage proposé permet de constater les points suivants : – Les performances en couverture finale de l’algorithme d’initialisation ne semblent pas être impactées de manière significative par une dégradation de PD ou de σρ (nous attribuons la dégradation de performances à un manque de robustesse de la fonction de suivi dans le cas σρ = 50 Km). – La réactivité, en revanche, est relativement sensible à la dégradation de PD, – Les performances en complexité combinatoire semblent modérément impactées par une dégradation de PD et fortement impactées par une dégradation de σρ au-delà d’un certain seuil. Dans cette thèse, nous considérons un radar monostatique à émission pulsée (fournit une mesure de distance). Cette analyse montre que l’algorithme proposé pourrait également être utilisé avec un système radar bistatique à émission continue sans mesure de distance (cf. Chapitre 2) : en effet, le bistatisme d’un tel radar permet de calculer une intersection entre le champ de veille et la ligne de visée du récepteur. Dans le cas d’un champ de veille étroit, cette intersection définit un segment de taille relativement étroite en fonction de la géométrie du triangle bistatique et du champ de veille. Une valeur de σρ de 10 Km (les performances sont faiblement dégradées pour cette valeur en termes d’initialisation et de suivi), définit une loi gaussienne dont le support (centré) à 0,997 est un segment de 60 Km, qui pourrait être de l’ordre de l’intersection mentionnée. Cela appuie la pertinence de l’algorithme de catalogage proposé pour une utilisation avec un radar bistatique à émission continue et à champ de veille réduit. 8.3 Conclusion du chapitre La méthode d’initialisation de pistes proposée aux Chapitre 6 et Chapitre 7 est mise en œuvre dans un contexte multicible grâce à un Track-Oriented Multiple Hypothesis Tracker (TO-MHT) que nous adaptons aux particularité du problème de catalogage par observations isolées (par des ajustements de l’algorithme classique justifiés par l’analyse de résultats intermédiaires ou par d’autres constats). 132Chapitre 8 : Intégration du traitement multicible Les performances obtenues pour des scénarios de plusieurs centaines d’objets permettent de valider l’efficacité de l’algorithme d’initialisation proposé et appuient la faisabilité du système de catalogage proposé en évaluant notamment : – un taux de couverture de l’ordre de 80-85% au moins pour les scénarios simulés, – une complexité combinatoire gardée sous contrôle, – une réactivité de l’ordre de quelques jours pour cataloguer plus de 80% des objets présents, – une robustesse aux dégradations des performances de détection (PD) et de précision de mesure de distance (σρ). Nous montrons entre autres que la complexité combinatoire est gardée sous contrôle, mais nous ne sommes pas capables à ce stade de l’appréhender pour des densités de détections plus réalistes. Au chapitre suivant, un modèle de complexité combinatoire permettant d’extrapoler les résultats obtenus est proposé. 133Chapitre 9 Modélisation de la complexité combinatoire Nous présentons dans cette section une méthode permettant d’évaluer la complexité combinatoire en fonction de la densité de détections et de paramètres caractérisant la méthode de catalogage utilisée. La méthode de catalogage est évaluée sur des jeux de données simulés contenant peu d’objets (quelques centaines) par comparaison à une situation réelle où plusieurs dizaines de milliers, voire plusieurs centaines de milliers d’objets seraient présents. Aux densités d’observations testées, le catalogage montre de bonnes performances en termes de couverture mais la complexité combinatoire est difficile à évaluer. Nous mesurons en effet le nombre de nœuds gardés en mémoire au cours du catalogage et l’allure de la courbe présentée en Figure 8.9 est une bonne indicatrice sans pour autant pouvoir garantir un coût de calcul suffisamment faible à des densités de détection plus élevées. Sommaire 9.1 Analyse combinatoire . . . . . . . . . . . . . . . . . . . . . 136 9.1.1 Modélisation paramétrique de la complexité combinatoire 136 9.1.2 Modélisation paramétrique du nombre instantané de nouvelles pistes m(k) . . . . . . . . . . . . . . . . . . . . . . 138 9.2 Calibration du modèle . . . . . . . . . . . . . . . . . . . . 139 9.2.1 Détermination des paramètres liés à la performance du catalogage α, λ et κ . . . . . . . . . . . . . . . . . . . . . 139 9.2.2 Détermination des paramètres liés au temps I1,min, I1,max, I2,min, I2,max, b1 et b2 . . . . . . . . . . . . . . . . . . . . 140 9.2.3 Détermination du coefficient de précision a1,2 . . . . . . . 141 9.3 Extrapolations . . . . . . . . . . . . . . . . . . . . . . . . . 142 9.3.1 Discussion sur la validité des prédictions . . . . . . . . . . 143 9.4 Systèmes à plusieurs capteurs . . . . . . . . . . . . . . . . 144 9.4.1 Système de deux capteurs opposés en longitude . . . . . . 145 9.4.2 Système de deux capteurs de même longitude . . . . . . . 145 9.4.3 Analyse et comparaison de performances . . . . . . . . . . 146 9.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . 147 1359.1 Analyse combinatoire 9.1 Analyse combinatoire Le modèle de complexité combinatoire proposé cherche à évaluer le nombre d’algorithmes de Gauss-Newton effectués, c’est-à-dire le nombre de triplets d’observations NC GN formés instantanément au cours du catalogage. L’exécution d’un algorithme de Gauss-Newton lors d’une initialisation de piste est en effet l’élément déterminant la complexité combinatoire car l’estimation d’orbite circulaire et l’estimation d’orbite définitive (par l’algorithme de Gauss-Newton) ont un coût de calcul important lors de l’initialisation. Cependant, l’estimation d’orbite circulaire est effectuée sur chaque paire d’observations disponible (complexité en O(n 2 )) tandis que l’estimation d’orbite définitive se fait à partir de triplets issus des combinaisons possibles de paires et de troisièmes observations (complexité en O(n 3 )). Pour les densités d’observations élevées, l’algorithme de Gauss-Newton est donc exécuté un plus grand nombre de fois. De plus, cet algorithme implique une boucle itérative nécessitant le calcul de matrices jacobiennes, d’inversions de matrices et de produits matriciels. Le calcul le plus coûteux est la propagation d’orbite SGP (fonction fSGP), qui intervient dans le calcul des jacobiennes et dans le calcul des résidus. Dans l’algorithme de GaussNewton implémenté dans le cadre de cette thèse, nous pouvons compter jusqu’à 500 évaluations de la fonction fSGP dans le cas le plus défavorable, contre 15 évaluations pour une transformation non-parfumée. L’algorithme de Gauss-Newton est également utilisé dans la mise à jour de pistes constituées de plus de trois observations, mais le nombre d’utilisations sur de telles pistes est linéaire vis-à-vis nombre d’objets présents. Il est donc inutile d’en tenir compte dans notre modèle, qui permet alors d’évaluer la complexité combinatoire lorsqu’elle est la plus critique, c’est-à-dire lors de l’initialisation. 9.1.1 Modélisation paramétrique de la complexité combinatoire Dans cette étude, les différentes méthodes d’association utilisées pour le catalogage sont équivalentes à un fenêtrage : à partir d’une piste, une fenêtre de validation est calculée pour permettre la corrélation de nouvelles observations. Les fenêtres ont une dimension temporelle, c’est-à-dire qu’elles n’existent que sur un intervalle de temps limité comme l’indique la Figure 9.1. Nous pouvons alors calculer la distribution b1 des intervalles de temps entre la première et la seconde observation d’une piste et la distribution b2 des intervalles de temps entre la seconde observation d’une paire et une troisième observation valide. Ces distributions ont pour supports les intervalles [I1,min, I1,max] et [I2,min, I2,max], respectivement. 136Chapitre 9 : Modélisation de la complexité combinatoire 100 150 200 250 10 20 30 k0 Azimut θ (˚) Élévation φ (˚) k0 + I1,max 100 150 200 250 10 20 30 k0 + I1,min Azimut θ (˚) Élévation φ (˚) k0 + I2,max 100 150 200 250 10 20 30 k1 + I2,min Azimut θ (˚) Élévation φ (˚) Fenêtrage grâce à la OneClass SVM Fenêtrage grâce à la transformation nonparfumée Figure 9.1 – Des observations entre les scans k0 + I1,min et k0 + I1,max sont associées à une observation initiale issue du scan k0. Des observations entre les scans k1 + I1,min et k1 + I1,max sont associées à partir d’une paire d’observations dont la seconde observation est issue du scan k1 ∈ [k0 + I1,min, k0 + I1,max]. Les fenêtres de validation sont caractérisées par leur volume spatio-temporel et ne dépendent donc pas de la densité de détection. Nous notons respectivement a1 et a2 les moyennes du rapport du volume d’une fenêtre VF sur le volume surveillé V pour la première et la deuxième association : a = E  VF V  (9.1) où a désigne a1 ou a2 et VF se rapporte à la méthode de première association ou à la méthode de deuxième association. Ces coefficients évaluent la précision du fenêtrage. En effet, si l’on note m(k) le 1379.1 Analyse combinatoire nombre d’observations présentes au scan k, alors le nombre moyen de corrélations au scan k (si la fenêtre de validation y existe) est égal à a × m(k). Afin d’évaluer le nombre N d’observations corrélées à une piste existante (en cours d’initialisation) grâce à une fenêtre, nous intégrons la quantité a × m(k) selon la distribution des temps de corrélation b : N = a × I Xmax k=Imin b(k)m(k) (9.2) où b correspond à la pondération rendant compte de la distribution temporelle moyenne des corrélations et Imin et Imax désignent respectivement I1,min ou I2,min et I1,max ou I2,max. Le nombre de triplets d’observations futurs NF GN(k0) engendrés par les m(k0) observations du scan k0 peut alors s’écrire sous la forme suivante : N F GN(k0) = m(k0) × a1 I1X,max k1=I1,min b1(k1)m(k0 + k1) × a2 I2X,max k2=I2,min b2(k2)m(k0 + k1 + k2) ! (9.3) Nous cherchons à évaluer le nombre de triplets d’observations NC GN(kn) à l’instant kn, qui s’obtient en remplaçant k0 par kn − k1 − k2 après avoir distribué les termes dépendant de k0 dans la somme la plus imbriquée : N C GN(kn) = a1,2 m(kn) × I2X,max k2=I2,min b2(k2)m(kn − k2) × I1X,max k1=I1,min b1(k1)m(kn − k1 − k2) ! (9.4) avec a1,2 = a1a2. 9.1.2 Modélisation paramétrique du nombre instantané de nouvelles pistes m(k) Lors de l’implémentation de l’algorithme de pistage multicible TO-MHT, nous faisons le choix de ne pas initialiser de nouvelle piste à partir d’une nouvelle observation prolongeant une piste confirmée. Par conséquent, la densité de nouvelles observations disponibles m(k) varie en fonction du nombre d’objets catalogués à un instant k. Dans cette étude, nous modélisons le nombre moyen de nouvelles observations disponibles m(k) en fonction des performances obtenues en simulation et des nombres moyens d’observations associées aux objets réels (mobj.) et aux fausses alarmes (mFA) : 138Chapitre 9 : Modélisation de la complexité combinatoire m(k) = mFA + g(k) mobj. (9.5) où g(k) est la proportion d’observations correspondant à un objet réel non-suivi. Si l’on suppose que l’on initialise les pistes d’une proportion constante des objets non-catalogués NNC(k) à chaque instant, c’est-à-dire que NNC(k + 1) − NNC(k) = λNNC(k) avec NNC(k) le nombre instantané d’objets non-catalogués au scan k et λ une constante de décroissance, la fonction g(k) peut se modéliser de manière simple par une décroissance exponentielle. Les résultats obtenus en Figure 8.8 permettent d’identifier la fonction g(k) telle que : g(k) = α h 1 − e −λ(k−κ)H(k − κ) i (9.6) où α est le taux d’objets catalogués à la fin de la simulation, λ est la constante de décroissance, κ est le délai avant que les premiers objets soient catalogués et H est la fonction d’échelon unitaire. 9.2 Calibration du modèle Les paramètres du modèles sont déterminés grâce à des données issues de la simulation d’échantillons de 500 à 800 objets. 9.2.1 Détermination des paramètres liés à la performance du catalogage α, λ et κ L’algorithme décrit au Chapitre 8 est utilisé sur les données simulées à partir du catalogue. Cela nous permet de déterminer les valeurs de α, λ et κ en ajustant g(k) aux courbes de la Figure 8.8. 0 1 2 3 4 5 6 0 20 40 60 80 100 Temps simulé (jours) Proportion d’objets suivis (%) Courbe observée Courbe g(k) ajustée Figure 9.2 – Exemple d’ajustement de g(k) pour les points de la courbe observée correspondant au catalogage de 500 objets. 1399.2 Calibration du modèle Nous obtenons les valeurs suivantes : α (%) λ (j−1 ) κ (j) 500 objets 81,85 1,39 0,83 600 objets 80,50 1,21 0,83 700 objets 82,11 1,28 0,87 800 objets 82,50 1,30 0,88 Tableau 9.1 – Valeurs de α, λ et κ obtenues pour des scénarios de 500, 600, 700 et 800 objets. Les valeurs de paramètres obtenues pour les courbes associées aux scénarios de 500, 600, 700 et 800 objets sont très proches. Pour ces scénarios, les paramètres du modèle sont donc indépendants du nombre d’objets présents (et donc de la densité de détection associée à la présence d’objets). Nous supposons dans cette section que cela est vrai également pour un nombre quelconque d’objets, bien qu’il faudrait le confirmer pour une plus large plage de densités de détection. 9.2.2 Détermination des paramètres liés au temps I1,min, I1,max, I2,min, I2,max, b1 et b2 Les paramètres sont déterminés à partir de l’application de la méthode d’initialisation de piste sur les observations simulées des objets du catalogue Space-Track sur une durée de 3 jours). Nous pouvons alors observer des valeurs de I1,min, I1,max, I2,min, I2,max, b1 et b2 grâce aux courbes suivantes : 5800 6000 6200 6400 6600 6800 7000 7200 0 0,02 0,04 0,06 0,08 0,1 Intervalle de temps entre la première et la deuxième observation (s) Densité de première corrélation b1 Figure 9.3 – Densité de première corrélation b1 en fonction de l’intervalle de temps entre la première observation et la deuxième observation d’une piste. Nous relevons les valeurs suivantes : I1,min (borne inférieure de b1) = 5 620 s I1,max (borne supérieure de b1) = 7 330 s 140Chapitre 9 : Modélisation de la complexité combinatoire 25000 50000 75000 100000 0 0,02 0,04 0,06 0,08 0,1 Intervalle de temps entre la première et la troisième observation (s) Densité de deuxième corrélation b2 Figure 9.4 – Densité de deuxième corrélation b2 en fonction de l’intervalle de temps entre la première observation et la troisième observation d’une piste. Nous relevons les valeurs suivantes : I2,min (borne inférieure de b2) = 1 380 s I2,max (borne supérieure de b2) = 108 370 s 9.2.3 Détermination du coefficient de précision a1,2 Le coefficient de précision a1,2 peut être estimé en recalant une courbe théorique sur une courbe expérimentale de NC GN(k) (le nombre moyen instantané de triplets d’observations formés), pour un jeu d’observations issues de la simulation de 500 objets et en utilisant les paramètres α, λ, κ, I1,min, I1,max, I2,min, I2,max, b1 et b2 définis en amont. 0 1 2 3 0 1 2 3 4 Temps simulé (jours) Triplets formés N C GN (triplets/s) Courbe observée Courbe théorique Figure 9.5 – Courbe théorique et courbe observée associées à NC GN(k) sur 3 jours (phase d’initialisation). Le coefficient a1,2 est ajusté. La courbe prédite (équation (9.4)) et la courbe observée ont le même gabarit : le 1419.3 Extrapolations palier est d’amplitude égale (cela est le résultat direct de l’ajustement de a1,2) et elle atteignent la même valeur maximale à des instants proches. Nous obtenons les valeurs suivantes : a1,2 500 objets 3, 47.10−2 600 objets 3, 41.10−2 700 objets 3, 46.10−2 800 objets 3, 54.10−2 Tableau 9.2 – Valeurs de a1,2 obtenues pour des scénarios de 500, 600, 700 et 800 objets. Ces valeurs sont très proches et permettent de supposer que a1,2 ne dépend pas de m aux ordres de grandeurs considérés. Le modèle ainsi défini dans cette section permet d’estimer le nombre de triplets d’observations générés à chaque instant à partir d’observations passées et présentes, pour des densités de détection associées à la présence de 500 à 800 objets en orbite et de fausses alarmes. 9.3 Extrapolations Nous posons l’hypothèse que ce modèle et ce paramétrage restent valides pour des densités de détection plus importantes. Nous utilisons le modèle pour prédire la complexité générée par le catalogage des objets en orbite basse du catalogue Space-Track complet (plus de 11 000 objets), puis des 100 000 ou 500 000 objets de plus de 1 cm de diamètre attendus, avec un taux de fausses alarmes de 1 FA/s, soit mFA = 10 FA/scan. mFA (FA/Scan) mobj. (obs./Scan) N C GN max. (GN/s) N C GN palier (GN/s) 11 799 objets 10 8,06 173 56 100 000 objets 10 69,31 11 967 523 500 000 objets 10 341,55 1 041 097 20 243 Tableau 9.3 – Valeurs caractérisant les complexités combinatoires instantanées NC GN(k) pour les prédictions de 11 799, 100 000 et 500 000 objets. Nous distinguons plus nettement sur les courbes des Figure 9.6, Figure 9.7 et Figure 9.8 les deux sources de complexité combinatoire : – La densité d’observations issues d’objets présents ou simulés mobj. entraîne un pic de coût de calcul entre 24 et 30 heures après le début du catalogage. Ce pic est le résultat de l’augmentation du nombre de triplets (hypothèses d’association) avant qu’ils soient éliminés au fur et à mesure que les objets sont catalogués. En effet, 142Chapitre 9 : Modélisation de la complexité combinatoire 0 1 2 3 0 50 100 150 200 Temps (jours) Triplets formés N C GN (triplets/s) Figure 9.6 – Prédiction de la complexité combinatoire instantanée NC GN(k) résultant du catalogage de 11 799 objets en orbite basse (mFA = 10 FA/Scan, mobj. = 8, 06 observations/Scan). 0 1 2 3 0 0.5 1 1.5 ·104 Temps (jours) Triplets formés N C GN (triplets/s) Figure 9.7 – Prédiction de la complexité combinatoire instantanée NC GN(k) résultant du catalogage de 100 000 objets en orbite basse (mFA = 10 FA/Scan, mobj. = 68, 31 observations/Scan). les pistes confirmées associées aux objets catalogués permettent alors d’associer de nouvelles observations sans qu’une nouvelle piste soit initialisée. – La densité d’observations issues de fausses alarmes mFA entraîne un palier vers lequel le nombre de triplets formés instantané semble converger au-delà de 3 jours. En effet, les objets non-catalogués sont en minorité et de nouvelles pistes sont initialisées à partir de fausses alarmes. 9.3.1 Discussion sur la validité des prédictions La précision des complexités combinatoires prédites dans cette section ne sont pas évaluées. Nous devons par conséquent garder à l’esprit les considérations suivantes : – Nous faisons l’hypothèse que les performances de catalogage (α, λ, κ, a1,2) sont constantes pour toute densité de détection m(k). Or en pratique, il est vraisemblable qu’une densité de détection maximale au-delà de laquelle ces performances 1439.4 Systèmes à plusieurs capteurs 0 1 2 3 0 0.5 1 1.5 ·106 Temps (jours) Triplets formés N C GN (triplets/s) Figure 9.8 – Prédiction de la complexité combinatoire instantanée résultant du catalogage de 500 000 objets en orbite basse (mFA = 10 FA/Scan, mobj. = 341, 55 observations/Scan). se dégradent fortement existe, bien que nous ne sachions pas déterminer théoriquement sa valeur. – D’autres phénomènes impactant la complexité combinatoire peuvent exister mais ne pas être observables aux densités de détections utilisées pour le paramétrage du modèle, – Les hypothèses limitatives (excentricités des orbites faibles, altitudes bornées) que nous adoptons peuvent également avoir un impact sur la complexité combinatoire. Par conséquent, les prédictions effectuées peuvent se révéler imprécises et le risque qu’elles le soient augmente quand la valeur de mobj. utilisée pour la prédiction s’éloigne des valeurs utilisées pour la calibration (valeurs de mobj. associées aux scénarios simulés de 500, 600, 700 et 800 objets). Ces prédictions sont cependant informatives quant à l’intérêt de la méthode de pistage proposée en fournissant un ordre de grandeur de la complexité combinatoire de l’étape la plus coûteuse en temps de calcul. 9.4 Systèmes à plusieurs capteurs Les hypothèses faites dans cette étude permettent de supposer que le coût de réalisation du capteur physique est limité. De ce fait, un système à plusieurs capteurs pourrait être une option envisageable dans le but d’améliorer le critère de couverture, de complexité combinatoire ou encore de réactivité. Par exemple, le Space Surveillance Network (SSN) américain intègre plusieurs capteurs et le nouveau capteur de surveillance américain à l’étude prévoit deux ou trois sites répartis à la surface du globe. Nous disposons à ce stade des outils permettant une évaluation préliminaire de l’apport d’un second capteur identique au premier. Pour cela, nous évaluons les deux critères de performance que nous considérons essentiels pour le catalogage, à savoir la couverture et la complexité combinatoire, avec des observations simulées 144Chapitre 9 : Modélisation de la complexité combinatoire issues de deux systèmes de deux capteurs identiques en entrée de l’algorithme. L’optimisation du positionnement des deux capteurs est une question difficile qui peut faire l’objet de nombreux travaux. Dans le cadre de ces travaux, nous étudions uniquement les performances de catalogage de deux systèmes dont les deux capteurs sont positionnés sur des longitudes opposées ou sur une même longitude. 9.4.1 Système de deux capteurs opposés en longitude L’étude concernant les intervalles de temps entre paires d’observations initiales et troisièmes observations montre qu’un grand nombre de troisièmes observations candidates correspondent à une ascendance opposée à celle de la paire d’observations initiale (cf. Figure 7.7). Nous pouvons alors en déduire que situer un second capteur sur une longitude opposée au premier (cf. Figure 9.9) permettrait de réduire le temps nécessaire à l’observation d’une troisième observation correcte et ainsi accélérer la suppression des fausses pistes. Pour le second capteur, nous choisissons une latitude identique à celle du premier capteur. Cela permet de générer des paires d’observations grâce aux mêmes données que celles extraites grâce à la SVM (cf. Chapitre 6). Figure 9.9 – Schéma représentant les champs de veille de deux capteurs identiques positionnés à des longitudes opposées. 9.4.2 Système de deux capteurs de même longitude L’observabilité de l’orbite associée à un objet dépend en particulier des positions relatives (dans le temps et dans l’espace) des observations disponibles dans un réfé- rentiel ECI. Situer un second capteur sur une même longitude à une latitude proche permettrait d’associer rapidement une troisième observation associée à une portion d’orbite différente pour améliorer l’observabilité de l’orbite, tout en ayant les trois observations plus espacées spatialement dans un référentiel ECI. Nous choisissons de ne pas générer de paires d’observations à partir du second capteur afin de mieux évaluer son apport. La Figure 9.10 schématise cette configuration. L’initialisation de pistes est effectuée de manière indépendante avec chaque capteur comme l’indique la Figure 9.11, la corrélation d’une observation initiale avec une observation issue d’un autre capteur constituant un sujet d’étude en soi. 1459.4 Systèmes à plusieurs capteurs Figure 9.10 – Schéma représentant les champs de veille de deux capteurs identiques positionnés à une même longitude. Capteur 1 Capteur 2 Association initiale Association initiale Recherche d’orbite initiale X4 puis d’une orbite définitive X7 Figure 9.11 – L’initialisation est faite de manière indépendante sur les observations de chaque capteur. Les pistes interfèrent lorsqu’elles disposent d’une orbite circulaire X4. 9.4.3 Analyse et comparaison de performances Nous évaluons et comparons les critères de performance essentiels, à savoir la proportion d’objets suivis et le nombre instantané de triplets formés au cours du temps, pour un scénario de 500 objets simulés avec l’ajout de fausses alarmes. 0 1 2 3 0 20 40 60 80 100 Temps (jours) Proportion d’objets suivis (%) 1 capteur 2 capteurs opposés en longitude 2 capteurs de même longitude Figure 9.12 – Évolution temporelle de la proportion d’objets suivis pour un système à un capteur et pour deux systèmes à deux capteurs. La Figure 9.12 montre que la réactivité est améliorée de manière significative grâce à la présence d’un second capteur : la phase d’initialisation pour les systèmes à deux capteurs est réduite de moitié (le seuil de 80% est atteinte en 2 jours contre 4 pour le système à un capteur). 146Chapitre 9 : Modélisation de la complexité combinatoire 0 1 2 3 0 5 10 Temps (jours) Triplets formés (triplets/s) 1 capteur 2 capteurs opposés en longitude 2 capteurs de même longitude Figure 9.13 – Évolution temporelle du nombre instantané de triplets formés pour un système à un capteur et pour deux systèmes à deux capteurs. La Figure 9.13 montre en revanche que la complexité combinatoire est plus forte pour les systèmes à deux capteurs. Un second capteur implique en effet un plus grand nombre d’observations à combiner par unité de temps, ce qui implique une complexité supplémentaire qui n’est pas compensée par l’accélération espérée de la suppression de pistes incorrectes. Nous remarquons également que la complexité combinatoire associée au système de deux capteurs opposés en longitude est signi- ficativement plus élevée que celle associée au système dont les deux capteurs sont situés sur une même longitude. Cela pourrait être dû à une durée de vie des fausses pistes beaucoup plus courte dans le second cas, car la troisième association se ferait plus tôt pour les pistes correctes. Nous pouvons déduire de cette courte analyse que la réactivité peut être augmentée de manière significative grâce à un second capteur au détriment de la complexité combinatoire. 9.5 Conclusion du chapitre Nous avons étendu la méthode d’initialisation de pistes proposée au Chapitre 6 dans un contexte multicapteurs. La complexité combinatoire intrinsèque au système (capteur(s) physique(s) et méthode de catalogage) a été extrapolée à des densités de détection plus élevées que celles disponibles en simulation grâce à un modèle simple permettant de prédire le nombre instantané de triplets d’observations formés (et donc d’exécutions de l’algorithme de Gauss-Newton liées à l’initialisation de piste et à la découverte d’objets). Grâce à ces prédictions, nous pouvons anticiper dans une certaine mesure que la méthode proposée constitue une solution efficace au problème de combinatoire rencontré dans le catalogage par moyens d’observations isolées. La réflexion menée dans ce chapitre permet également de mettre en évidence le compromis entre complexité combinatoire et réactivité : en effet, réduire le nombre total d’observations disponibles par la réduction du champ de veille d’un capteur seul ou d’un ensemble de capteurs permet de réduire de manière importante le 1479.5 Conclusion du chapitre nombre de pistes possibles formées par la méthode proposée, au détriment de la réactivité. Par exemple, l’utilisation de deux capteurs implique une augmentation de la complexité mais un gain significatif en réactivité en réduisant le temps nécessaire à l’accumulation d’observations permettant de rendre une orbite observable. 148Conclusions et perspectives Les travaux menés dans cette thèse portent sur le catalogage de petits débris spatiaux en orbite basse par moyens d’observations isolées. L’étude d’une telle problématique nécessite la compréhension de certains éléments de contexte, comme par exemple les missions affectées à certains capteurs existants (Chapitre 1) ou leurs types et leurs complexités (Chapitre 2), afin d’identifier d’une part une configuration de capteur offrant un bon compromis entre puissance émise et taille des objets détectés (un capteur de complexité accessible), et d’autre part des critères de performances pour évaluer les algorithmes mis en œuvre (couverture, puissance de calcul requise, réactivité, etc.). Des méthodes de traitement de l’information classiques telles que les méthodes de pistage et de détermination d’orbite sont confrontées aux données simulées issues du capteur dont certains paramètres dimensionnants sont choisis au Chapitre 2. Cela permet de dégager une problématique précise, qui met en évidence le manque de techniques d’association initiale d’observations isolées. Au Chapitre 6, nous proposons une méthode d’association d’observations à une révolution d’intervalle exploitant le fait que les objets ne sont observés que sur certaines portions des ellipses définies par leurs orbites. Cela est un levier central permettant de jouer sur le point de compromis entre complexité et réactivité : en identifiant un “motif” particulier de paire d’observations pour initialiser les pistes, nous ignorons un grand nombre de combinaisons d’observations possibles (perte de réactivité) au profit d’une ambiguïté beaucoup plus favorable (diminution de la complexité combinatoire) avec un taux de rappel plus qu’acceptable. Cette méthode est complétée par un calcul d’orbite circulaire approximative permettant de traiter au mieux les paires d’observations résultantes et d’initialiser des pistes de manière efficace. La méthode d’initialisation proposée et évaluée au Chapitre 6 est intégrée dans un algorithme de pistage multicible (le TO-MHT) que nous adaptons aux particularités du problème. Les performances de l’algorithme obtenu sont évaluées notamment en termes de couverture et de réactivité, et l’évaluation de la complexité combinatoire résultante est conduite grâce à un modèle que nous proposons et paramétrons. Ces travaux, présentés au Chapitre 8, prouvent le bon fonctionnement et l’efficacité de l’algorithme de catalogage proposé pour traiter les observations radars issues d’un capteur à champ de veille restreint et ouvrent la voie à plusieurs axes de recherches brièvement discutés dans la suite de ce document. 149Conclusions et perspectives Contributions Une problématique peu connue Cette thèse aborde une problématique scientifique peu connue : le pistage d’objets spatiaux non-coopératifs sous de fortes contraintes d’observation (observations isolées). En effet, de nombreuses études concernant l’estimation de position ou de trajectoire ont été menées en considérant des capteurs inertiels embarqués couvrant les besoins des opérateurs de satellites, ce qui n’implique aucun problème d’association. Dans les cas où l’objet est non-coopératif, les capteurs au sol surveillent une large zone de l’espace, ce qui facilite l’association d’observations sur le long terme. En définitive, le pistage d’objets spatiaux se réduit souvent à des techniques d’orbitographie à partir d’un jeu d’observations nécessairement issues de l’objet d’intérêt ou préalablement associées sur un court terme. Cette thèse fournit alors des éléments pour explorer la problématique de l’association d’observations isolées, les problématiques connexes (contraintes de capteur, dynamique orbitale) ainsi que des méthodes applicables. Une solution originale aux aspects variés La démarche adoptée compartimente les différents aspects du catalogage en abordant les aspects “association” et “estimation” de l’initialisation sous un angle monocible, puis sous un angle multicible par l’implémentation d’un TO-MHT. La méthode de catalogage proposée emprunte et adapte des techniques existantes dans des domaines variés comme par exemple la classification (One-Class SVM), l’optimisation (Gauss-Newton), le pistage monocible (Transformation Non-Parfumée) et le pistage multicible (TO-MHT). Cela démontre que les techniques de traitement de l’information peuvent avoir un rôle central dans un domaine traditionnellement partagé entre les spécialistes de la mécanique orbitale et les radaristes. De plus, l’algorithme est évalué à partir d’objets spatiaux réels (le catalogue SpaceTrack) dont les détections sont simulées dans des hypothèses de capteur physique envisageable et grâce à un modèle dynamique de précision adaptée. Les performances obtenues appuient la faisabilité d’un tel système pour le catalogage de petits objets en orbite basse. L’observabilité, un concept étudié en filigrane Au coeur de ces travaux, nous abordons le concept de l’observabilité d’un état (ou observabilité de l’orbite). L’observabilité de l’orbite d’un objet est en effet au centre de nos préoccupations : nous cherchons tout au long de ces travaux à identifier la quantité d’information disponible minimale permettant la connaissance précise d’une orbite associée à un objet et à gérer la complexité combinatoire due à la non-observabilité d’une orbite lors d’une phase d’initialisation. Lors de la phase d’initialisation du pistage d’un objet, les méthodes proposées permettent d’exploiter au mieux l’information disponible à chaque instant pour en déduire un état partiel : 150– la méthode de première association permet d’exploiter une certaine observabilité issue de l’information portée individuellement par les deux observations isolées afin de réduire l’ambiguïté d’association, – la seconde association exploite une orbite (circulaire) approximative mais dont l’observabilité est forte et permet l’association d’une troisième observation, – enfin, l’algorithme de Gauss-Newton et le SPRT permettent d’atteindre une observabilité forte de l’orbite définitive. Une étude complète Un modèle de complexité combinatoire pour les méthodes de type “fenêtrage” a été proposé afin de vérifier l’efficacité de la méthode de catalogage en termes de temps de calcul. Cela permet d’évaluer ce critère complémentaire au taux de couverture et à la réactivité. De plus, des tests de robustesse à la dégradation de la probabilité de détection PD et de la précision de mesure en distance σρ ont été menés afin d’apporter des éléments préliminaires à d’éventuels travaux futurs. Nous en déduisons par exemple l’existence d’une valeur de σρ au-delà de laquelle la complexité combinatoire augmente fortement et les techniques de suivi doivent être robustifiées. Limites Une implémentation à optimiser La principale difficulté rencontrée dans la problématique de l’association d’observations isolées est d’ordre combinatoire (puissance de calcul limitée). Par conséquent, une implémentation efficace permettrait d’évaluer les performances de l’algorithme de catalogage proposé pour des scénarios comprenant davantage d’objets simulés (nous simulons le catalogage de 800 objets sur 6 jours alors que la simulation du catalogage de plusieurs milliers d’objets serait souhaitable) afin de mieux le valider ou d’observer des phénomènes non-linéaires peu visibles à ces densités de détection. Un modèle dynamique plus précis ainsi qu’un modèle de capteur plus réaliste peuvent être envisagés pour la simulation de détections. Validation du modèle de complexité combinatoire Le modèle de complexité combinatoire est validé grâce à seulement 4 points correspondant aux scénarios de 500, 600, 700 et 800 objets. Une estimation plus fiable des paramètres du modèle pourrait être obtenue avec davantage de données. Par ailleurs, l’exploitation de ce modèle pour prédire une complexité combinatoire instantanée suppose que les performances de l’algorithme ne se dégradent pas pour les densités de détection testées, ce que nous n’avons pu vérifier. 151Conclusions et perspectives Une méthode liée à une hypothèse de capteur La méthode de catalogage proposée est issue d’une réflexion menée à partir de l’hypothèse d’un capteur radar monostatique à émission pulsée dont les paramètres sont fixés au Chapitre 2. La validité de la méthode pour d’autres types de systèmes reste alors à explorer. Par ailleurs, le paramétrage nécessaire au bon fonctionnement de la méthode est relativement difficile, en particulier le paramétrage de la première mé- thode d’association malgré l’utilisation d’une One-Class SVM qui réduit le nombre de paramètres. Perspectives Les travaux menés dans cette thèse ouvrent la voie à plusieurs axes de recherche : – Faire varier sur le nombre de capteurs, leurs positions, la géométrie et l’orientation de leurs champs de veille permet de faire varier un point de compromis entre réactivité et complexité combinatoire sous une contrainte de couverture. – La corrélation entre une observation initiale et une observation issue d’un autre capteur est un sujet d’étude en soi et permettrait d’exploiter pleinement un système à deux capteurs pour réduire la complexité combinatoire. – La méthode proposée est associée à un certain type de capteur (émission pulsée pour mesurer la distance). D’autres types de capteurs pourraient permettre l’utilisation de cette méthode avec des contraintes moins fortes (et donc un coût de conception ou de réalisation plus faible). – Une modélisation plus poussée du coût de calcul nécessaire à la résolution d’un problème de catalogage difficile serait intéressante à des fins de conception. – Enfin, l’étude des performances de la méthode et son adaptation pour cataloguer les objets dont les orbites sont moins représentées dans le catalogue Space-Track (par exemple les objets d’excentricité plus forte) et pour les objets manœuvrants permettrait d’envisager une extension du domaine d’application de la méthode. Extension à un système de capteurs Nous illustrons en Section 9.4 le compromis entre réactivité et complexité combinatoire : davantage d’observations disponibles permettent de cataloguer de nouveaux objets plus rapidement au prix d’une complexité combinatoire plus élevée. Un système de plusieurs capteurs identiques (des capteurs différents impliqueraient autant de travaux de conception différents) peut par conséquent être avantageux mais implique une quantité beaucoup plus importante de paramétrages possibles notamment en termes de nombre de capteurs, de position, de géométrie et d’orientation des champs de veille. Le paramétrage d’un tel système peut être très complexe et né- cessiter le recours à des méthodes d’optimisation permettant d’accéder à un certain nombre de points de compromis selon les performances recherchées. De plus, la corrélation d’observations issues de capteurs différents lors de l’initialisation pourrait permettre de réduire de manière significative la complexité combina- 152toire. Dans notre étude, nous ne traitons en effet que le cas des observations issues du même objet à une révolution d’intervalle, cette caractéristique conditionnant la méthode de corrélation ainsi que le traitement des paires résultantes en aval. Extension à un capteur de différente nature Les tests de robustesse à la dégradation de la précision de mesure en distance σρ présentés en Section 8.2.6 montrent des performances peu dégradées pour des incertitudes de 60 Km à 3σ. Cela permet d’envisager le portage de la méthode de catalogage à d’autres types de capteurs disposant d’une mesure en distance mauvaise, voire inexistante. Par exemple, un radar bistatique à émission continue ne fournit aucune mesure de distance mais l’intersection entre la ligne de visée du ré- cepteur et la zone de l’espace éclairée par l’émetteur pourrait permettre d’encadrer une distance associée à une observation (cf. Figure 9.14). u ECF X u ECF Z T R Up North O Figure 9.14 – Exemple d’intersection entre le champs de veille et une ligne de visée associée à une observation dans le cas d’un radar bistatique. T désigne le transmetteur (ou émetteur) et R désigne le récepteur. La ligne rouge représente une ligne de visée sur laquelle les positions possibles de l’objet détecté sont indiquées par le segment en gras. De plus, ce type de type de système peut fournir une mesure de vitesse radiale qui pourrait être utilisée dans la discrimination d’hypothèses d’association. Modélisation du temps de calcul Nous proposons un modèle de complexité combinatoire pour la méthode de catalogage proposée et pour les méthodes d’association par fenêtrage de manière générale. Ce modèle permet d’estimer le nombre instantané de triplets d’observations formés. En associant à chaque triplet une quantité de calcul, nous pouvons évaluer la puissance calculatoire nécessaire au traitement en “temps réel” des triplets formés. Cette puissance calculatoire ne permet pas pour autant de définir le temps de traitement d’une nouvelle observation par l’algorithme de catalogage proposé. En effet, nous ne prenons pas en compte le temps nécessaire à la formation des pistes, c’est-à-dire à leur mise en mémoire et leur indexation dans une structure de données, car cela dépend essentiellement de l’architecture matérielle utilisée. Par ailleurs, le coût en calcul du traitement des paires d’observations peut ne pas être négligeable en fonction de la densité d’observations : le nombre de paires d’observations varie en O(n 2 ) 153Conclusions et perspectives alors que le nombre de triplets d’observations varie en O(n 3 ). Dans l’hypothèse où le coût de traitement d’une paire est plus élevé que le coût de traitement d’un triplet avec une densité d’observations peu élevée, le temps associé au traitement des paires d’observations pourrait avoir un impact significatif. Une modélisation plus poussée, c’est-à-dire tenant compte des paires d’observations ou faisant l’hypothèse d’une architecture matérielle, pourrait permettre une estimation précise du temps de calcul nécessaire au catalogage d’un scénario difficile à des fins de conception. 154Communications scientifiques Revues avec comité de lecture Castaings, T., Pannetier, B., Muller, F., Rombaut, M., "Track Initiation of Low-Earth-Orbit Objects using Statistical Modeling of Sparse Radar Observations," Soumis le 23 Juillet 2013 à IEEE Transactions on Aerospace and Electronic Systems Conférences avec comité de lecture Castaings, T., Pannetier, B., Muller, F., Rombaut, M., "Sparse data association for Low Earth Orbit tracking," 2012 IEEE Aerospace Conference, Big Sky, Montana, États-Unis Conférences sans comité de lecture Castaings, T., Pannetier, B., Muller, F., Rombaut, M., "Modeling the Combinatorial Complexity of a New Data Association Technique used with Narrow Fence-Type Radar Systems for Small LEO Debris Cataloging," IAF, 64th International Astronautical Congress, Pékin, Chine (2012) Castaings, T., Muller, F., Pannetier, B., Rombaut, M., "Track Initiation using Sparse Radar Data for Low-Earth-Orbit Objects," IAF, 63rd International Astronautical Congress, Naples, Italie (2012) 155Annexes 157Annexe A Filtre optimal par corrélation Pour maximiser le rapport signal à bruit RSB en sortie d’un bloc de mise en forme, on peut construire un filtre optimal (au sens de la maximisation du RSB) par corrélation en considérant le signal a(t) reçu en présence d’une cible et le signal b(t) reçu en l’absence de cible. On suppose que b(t) est un bruit blanc de transformée de Fourier B. Par ailleurs, on appelle h(t) la réponse impulsionnelle du filtre optimal recherché, A(f) et H(f) les transformées de Fourier de a(t) et h(t), respectivement. Après filtrage, la puissance PS du signal reçu en présence de cible s’exprime par (A.1), tandis que la puissance du bruit PB s’exprime par (A.2). PS = Z +∞ −∞ H(f)A(f)df 2 (A.1) PB = B 2 Z +∞ −∞ |H(f)| 2 df (A.2) En appliquant l’inégalité de Cauchy-Schwarz, on obtient une borne supérieure du rapport signal à bruit RSB défini par le rapport des puissances PS et PB et l’on remarque que l’égalité est atteinte si H(f) = A∗ (f), ce qui permet d’exprimer la valeur maximale de RSB selon (A.3). Le filtre optimal est alors le filtre de fonction de transfert H(f) = A∗ (f). RSBmax = PS PB max = R +∞ −∞ |A(f)| 2df B2 (A.3) Soit s(t) le signal temporel obtenu par le filtrage d’un signal reçu quelconque e(t) (contenant un écho et du bruit, ou du bruit seulement) par le filtre de fonction de transfert A∗ (f). Le théorème de Wiener-Khintchine permet d’écrire le signal temporel s(t) tel que (A.4), où T F −1 désigne la transformée de Fourier inverse et cea(t) la fonction de corrélation du signal e(t) avec le signal a(t) attendu en cas de présence d’une cible. s(t) = T F −1 (EA∗ ) = cea(t) (A.4) 159En présence d’une cible, on s’attend à recevoir un signal de forme similaire au signal émis, c’est-à-dire que l’on choisit a(t) égal au signal émis. La corrélation du signal reçu avec le signal émis constitue donc un moyen de filtrage optimal pour la détection. 160Annexe B Passage d’un référentiel terrestre fixe à un référentiel géodésique (et vice-versa) u ECF X u ECF Y u ECF Z S hgéo rfixe φgéo φfixe θfixe = θgéo Figure B.1 – Le système de coordonnées géodésiques utilise un axe orthogonal à un plan tangent passant par un point de la surface du globe pour définir l’altitude hgéo ainsi que la latitude φgéo. Le passage du référentiel géocentrique fixe au référentiel géodésique se fait grâce au formulaire (B.1)-(B.3), où θgéo, φgéo et hgéo sont la longitude, la latitude et l’altitude dans un repère géodésique, θfixe, φfixe et rfixe sont les coordonnées sphériques dans un référentiel géocentrique fixe et f est le facteur d’aplatissement de la Terre. θgéo = θfixe (B.1) φgéo = φfixe + sin(2φfixe) rfixe f + 1 r 2 fixe − 1 4rfixe ! sin(4φfixe)f 2 (B.2) hgéo = rfixe + req 1 − cos(2φfixe) 2 f +  1 4rfixe − 1 16 (1 − cos(4φfixe))f 2 − 1 ! (B.3) 161Le passage du référentuel géodésique au référentiel géocentrique fixe se fait grâce à l’équation (B.4), où N = √ req 1−(2−f 2) sin2 φgéo . rfixe =   (N + hgéo) cos(φgéo) cos(θgéo) (N + hgéo) cos(φgéo) sin(θgéo) (N(1 + f 2 − 2f) + hgéo) sin(φgéo)   (B.4) Les valeurs des paramètres géodésiques utilisées dans ces travaux sont celles du modèle WGS-84 (World Geodetic System) : req = 6 378 137 m f = 1/298,257 223 563 162Annexe C Équivalence entre les paramètres orbitaux képlériens et un couple position-vitesse Il existe une relation bijective entre les paramètres {a, e, i, Ω, ω, ν} et le couple position-vitesse {r, v}. Comme nous le verrons dans le Chapitre 5, certaines techniques d’estimation d’orbite visent alors à calculer la position et la vitesse à un instant t0, à partir des observations disponibles. Les formules de passages présentées ci-après permettent alors de remonter aux paramètres orbitaux képlériens classiques. Réciproquement, les formules de passage des paramètres orbitaux képlériens permettent de prédire des positions et vitesses à partir de paramètres orbitaux. Les formules de passage présentées dans cette section ne sont valables que pour le modèle képlérien classique. En effet, seules les équations de passage des paramètres orbitaux SGP vers un couple position-vitesse sont publiées. Pour le passage inverse, on utilise couramment des méthodes numériques comme le propose Vallado [29] et comme nous le verrons dans le Chapitre 5. Ces formules permettent néanmoins d’appréhender au premier ordre la relation entre les paramètres orbitaux et le couple position-vitesse associés à un objet. C.1 Passage d’un couple position-vitesse vers les paramètres orbitaux képlériens Si l’on dispose d’un couple position-vitesse {r, v}, le formulaire (C.1)-(C.6) permet de calculer les paramètres {a, e, i, Ω, ω, ν}, où les vecteurs ux, uy et uz constituent une base orthogonale dans un référentiel GI et h = r ∧ v et k = uz ∧ h sont des intermédiaires de calcul. 163C.2 Passage des paramètres orbitaux képlériens vers un couple position-vitesse a = µ 2 µ krk − kvk 2 (C.1) e = v ∧ h µ − r krk = kek (C.2) i = arccos h.uz khk ! (C.3) Ω =    arccos  k.uy khk  si k.ux ≥ 0 2π − arccos  k.ux khk  si k.ux < 0 (C.4) ω =    arccos  k.e kkkkek  si e.uz ≥ 0 2π − arccos  k.e kkkkek  si e.uz < 0 (C.5) ν = ω +    arccos  k.r kkkkrk  si r.uz ≥ 0 2π − arccos  k.r kkkkrk  si r.uz < 0 (C.6) C.2 Passage des paramètres orbitaux képlériens vers un couple position-vitesse Dans un référentiel GI, on peut exprimer le couple {r, v} grâce aux équations (C.7) et (C.8), où r, n et E sont des intermédiaires de calcul tels que r = a(1−e 2 ) (1+e cos ν) , n = q µ a 3 et {cos E = cos ν+e 1+e cos ν ,sin E = √ 1−e 2 sin ν 1+e cos ν }. r = r     sin Ω cos ν + cos Ω cosisin ν cos Ω cos ν + sin Ω cosisin ν sin isin ν     (C.7) v =     −na2 sin E r sin Ω + na2 √ 1−e 2 cos E r cos Ω cosi −na2 sin E r cos Ω + na2 √ 1−e 2 cos E r sin Ω cosi na2 √ 1−e 2 cos E r sin i     (C.8) 164Annexe D Association des détections issues du passage d’un objet dans le champ de veille Les observations (i.e. arcs courts) peuvent comprendre plusieurs détections fortement redondantes (rapprochées dans le temps et dans l’espace dans un référentiel ECI et fortement bruitées). En effet, la simulation permet d’estimer qu’environ 50% des arcs courts comprennent une unique détection, 45% comprennent deux détections, et 5% comprennent trois détections ou plus. Les méthodes proposées dans cette étude permettent de traiter les arcs courts comprenant une unique détection. Naturellement, les arcs courts comprenant plusieurs observations peuvent être traités comme plusieurs arcs comprenant une unique observation, mais cela augmente le nombre de pistes à initialiser et donc la complexité combinatoire. Ce problème peut être résolu en associant de proche en proche les détections issues d’une même traversée. Pour cela, nous utilisons deux composantes du vecteur de description x(i, j) associé à une paire d’observations défini au Chapitre 6 : xarc(i, j) =   dr(zi , zj ) drλ(zi , zj )   (D.1) où {zi , zj} est une paire de détections. Grâce à la simulation, nous générons un grand nombre de paires de détections successives {zi , zj} issues d’une même traversée et choisissons des seuils pour les valeurs de dr(zi , zj ) et de drλ(zi , zj ) tels que 95% des cas soient en dessous de ces seuils. Ainsi, nous sommes capables d’associer les détections issues d’une unique traversée sans ambiguïté aux densités de détection testées. Les arcs obtenus, ou observations, peuvent alors comprendre plusieurs détections, ce qui réduit le nombre de nouvelles pistes à initialiser. Dans cette étude, nous choisissons d’utiliser les mesures de la première détection quand une observation en comprend plusieurs. 165Bibliographie [1] O. of Science en Technological Policy, “Interagency report on orbital debris,” in The National Science and Technology Council, Commitee on Transportation Research and Development, 1995. [2] E. Pate-Cornell and M. Sachon, “Risks of particle hits during space walks in low earth orbit,” Aerospace and Electronic Systems, IEEE Transactions on, 2001. [3] E. Fletcher, “Space situational awareness : An analysis of threats, consequences and future solutions for europe’s security, safety and prosperity.,” tech. rep., European Space Agency, 2010. [4] ENVISAT AND ERS MISSIONS, Data Access Guide. [5] Operational Review : RADARSAT–1 & –2, 2010. [6] R. Walker, C. Martin, H. Stokes, J. Wilkinson, H. Sdunnus, S. Hauptmann, P. Beltrami, and H. Klinkrad, “Update of the ESA space debris mitigation handbook,” tech. rep., ESA, 2002. [7] D. Kessler, “Sources of orbital debris and the projected environment for future spacecraft,” Advances in Space Research, 1981. [8] E. G. Stansbery, “Growth in the number of ssn tracked orbital objects,” 55th International Astronautical Congress, Vancouver, Canada, 2004. [9] D. Kessler, “Collisional cascading : The limits of population growth in low earth orbit,” Advances in Space Research, 1991. [10] D. Gregory, J. Mergen, and A. Ridley, “Space debris elimination (spade) phase i final report,” tech. rep., Raytheon, BBN Technologies, University of Michigan, 2012. [11] P. W. J. Schumacher, “US naval space surveillance upgrade program 1999- 2003,” in 7th US/Russian Space Surveillance Workshop Proceedings, Naval Postgraduate School, CA, 2007. [12] J. E. Reed, “The AN/FPS-85 radar system,” Proceedings of the IEEE, 1969. [13] P. Chorman, “Cobra dane space surveillance capabilities,” in Proceedings of the 2000 Space Control Conference. [14] F. R. Hoots and R. L. Roehrich, “Models for propagation of norad element sets, spacetrack report no. 3,” tech. rep., US Air Force, 1980. [15] T. Michal, J. P. Eglizeaud, and J. Bouchard, “Graves : the new french system for space surveillance,” in Proceedings of the 4th European Conference on Space Debris (ESA SP-587), 2005. 167BIBLIOGRAPHIE [16] J. Darricau, Physique et théorie du radar. 1993. [17] S. S. Blackman and R. Popoli, Design and Analysis of Modern Tracking Systems. Artech House Radar Library, 1999. [18] R. B. Barrar and R. Deutsch, “Determination of satellite trajectories from trackwhile-scan radar measurements,” Military Electronics, IRE Transactions on, 1961. [19] E. F. Knott, J. F. Shaeffer, and M. T. Tuley, Radar Cross Section. Artech House Radar Library, 1985. [20] D. Deirmendjian, “Electromagnetic scattering on spherical polydispersions,” tech. rep., RAND Corporation, 1969. [21] C. L. Stokely, F. J. L. Jr., E. G. Stansbery, J. R. Benbrook, and Q. Juarez, “Haystack and hax radar measurements of the orbital debris environment ; 2003,” tech. rep., NASA Lyndon B. Johnson Space Center, 2006. [22] D. A. Vallado, Fundamentals of Astrodynamics and Applications, ch. 3.3. Microcosm Press, 4940 West 147th Street, Hawthorne, CA 90250-6708 USA and Springer, 233 Spring Street, New York, NY 10013 USA, 2007. [23] Cours de Mécanique céleste classique. Laboratoire d’Astronomie de l’Université de Lille 1 et IMCCE de l’Observatoire de Paris, 2002. [24] D. A. Vallado, Fundamentals of Astrodynamics and Applications. Microcosm Press, 4940 West 147th Street, Hawthorne, CA 90250-6708 USA and Springer, 233 Spring Street, New York, NY 10013 USA, 2007. [25] J. R. Raol and N. K. Sinha, “On the orbit determination problem,” Aerospace and Electronic Systems, IEEE Transactions on, 1985. [26] D. Brouwer, “Solution of the problem of artificial satellite theory without drag,” Astronomical Journal, 1959. [27] M. H. Lane, P. M. Fitzpatrick, and J. J. Murphy, “On the representation of air density in satellite deceleration equations by power functions with integral exponents,” tech. rep., Air Force Systems Command, 1962. [28] M. H. Lane and K. H. Cranford, “An improved analytical drag theory for the artificial satellite problem,” American Institute of Aeronautics and Astronautics, 1969. [29] D. A. Vallado, P. Crawford, R. Hujsak, and T. S. Kelso, “Revisiting spacetrack report no. 3,” tech. rep., American Institute of Aeronautics and Astronautics, 2006. [30] S. S. Blackman, Multiple Target Tracking with Radar Applications. Artech House, 1986. [31] Y. Bar-Shalom, Multitarget-Multisensor Tracking : Principle and Techniques. Burlington, MA : Academic Press, 1995. [32] S. Baase, Computer Algorithms : Introduction to Design and Analysis. Reading, MA : Addison-Wesley, 1978. [33] Probabilités analyse des données et statistique, ch. 14.4.5.2. Editions Technip, 2006. 168BIBLIOGRAPHIE [34] S. S. Blackman and R. Popoli, Design and Analysis of Modern Tracking Systems, ch. 3.3. Artech House Radar Library, 1999. [35] S. S. Blackman and R. Popoli, Design and Analysis of Modern Tracking Systems, ch. 6.3. Artech House Radar Library, 1999. [36] S. J. Julier, J. K. Uhlmann, and H. F. Durrant-Whyte, “A new approach for filtering nonlinear systems,” in Proceedings of the American Control Conference, Seattle, Washington, pages 1628-1632, 1995. [37] S. J. Julier, J. K. Uhlmann, and H. F. Durrant-Whyte, “A new method for the nonlinear transformation of means and covariances in nonlinear filters,” in Transactions on Automatic Control, IEEE, 2000. [38] S. S. Blackman and R. Popoli, Design and Analysis of Modern Tracking Systems, ch. 6.6. Artech House Radar Library, 1999. [39] J. Dezert, “Introduction au pistage multi-cibles multi-senseurs,” Septembre 2003. [40] Multitarget-Multisensor Tracking : Principle and Techniques, ch. 3.3. Burlington, MA : Academic Press, 1995. [41] B.-N. Vo and W.-K. Ma, “The gaussian mixture probability hypothesis density filter,” Signal Processing, IEEE Transactions on, 2006. [42] S. S. Blackman and R. Popoli, Design and Analysis of Modern Tracking Systems, ch. 6.4. Artech House Radar Library, 1999. [43] P. Gill, W. Murray, and M. Wright, Practical Optimization. Academic Press, New York, 1981. [44] T. Kurien, Issues in the Design of Practical Multitarget Tracking Algorithms. Ed. Y. Bar-Shalom, Artech House, 1990. [45] S. S. Blackman, “Multiple hypothesis tracking for multiple target tracking,” Aerospace and Electronic Systems Magazine, IEEE, 2004. [46] A. Wald, “Sequential tests of statistical hypotheses,” Annals of Mathematical Statistics, 1945. [47] J. Wright, “Optimal orbit determination,” in AAS/AIAA Spaceflight Mechanics Meeting, San Antonio, TX, USA, 2002. [48] J. R. Vetter, “Fifty years of orbit determination : Development of modern astrodynamics methods,” Johns Hopkins APL Technical Digest, 2007. [49] D. A. Vallado, Fundamentals of Astrodynamics and Applications, ch. 7.5. Microcosm Press, 4940 West 147th Street, Hawthorne, CA 90250-6708 USA and Springer, 233 Spring Street, New York, NY 10013 USA, 2007. [50] D. A. Vallado, Fundamentals of Astrodynamics and Applications, ch. 7.6.2. Microcosm Press, 4940 West 147th Street, Hawthorne, CA 90250-6708 USA and Springer, 233 Spring Street, New York, NY 10013 USA, 2007. [51] J. Thorne, “A complete series solution,” in AAS/AIAA Space Flight Mechanics Conference, Maui, HI, 2004. [52] D. A. Vallado, Fundamentals of Astrodynamics and Applications, ch. 7.6.4. Microcosm Press, 4940 West 147th Street, Hawthorne, CA 90250-6708 USA and Springer, 233 Spring Street, New York, NY 10013 USA, 2007. 169BIBLIOGRAPHIE [53] H. Shen and P. Tsiotras, “Using battin’s method to obtain multiple-revolution lambert’s solutions,” in Paper AAS-03-568 presented at the AAS/AIAA Astrodynamics Specialist Conference. Big Sky, MT., 2003. [54] G. Tommei, A. Milani, and A. Rossi, “Orbit determination of space debris : admissible regions,” Celestial Mechanics and Dynamical Astronomy, 2007. [55] G. Tommei, A. Milani, D. Farnocchia, and A. Rossi, “Correlation of space debris observations by the virtual debris algorithm,” in Proc. of the Fifth European Conference on Space Debris, 2009. [56] L. Dimare, D. Farnocchia, G. Gronchi, A. Milani, F. Bernardi, and A. Rossi, “Innovative system of very wide field optical sensors for space surveillance in the leo region,” in Proceedings of the Advanced Maui Optical and Space Surveillance Technologies Conference, 2011. [57] A. Milani, G. Tommei, D. Farnocchia, A. Rossi, T. Schildknecht, and R. Jehn, “Orbit determination of space objects based on sparse optical data,” Monthly Notices of Royal Astronomical Society, 2011. [58] D. Farnocchia, G. Tommei, A. Milani, and A. Rossi, “Innovative methods of correlation and orbit determination for space debris,” Celestial Mechanics and Dynamical Astronomy, 2010. [59] T. Furukawa, , F. Muraoka, and Y. Kosuge, “Multi-target and multi-sensor data fusion by rule-based tracking methodology,” in SICE ’98. Proceedings of the 37th SICE Annual Conference, 1998. [60] B. Schölkopf, J. C. Platt, J. Shawe-Taylor, A. J. Smola, and R. C. Williamson, “Estimating the support of a high-dimensional distribution,” Neural Computation, vol. 13, no. 7, pp. 1443–1471, 2001. [61] E. Parzen, “On estimation of a probability density function and mode,” Annals of Mathematical Statistics, 1962. [62] Y. Bar-Shalom, S. S. Blackman, and R. J. Fitzgerald, “Dimensionless score function for multiple hypothesis tracking,” Aerospace and Electronic Systems, IEEE Transactions on, 2007. [63] S. S. Blackman and R. Popoli, Design and Analysis of Modern Tracking Systems, ch. 6.2. Artech House Radar Library, 1999. [64] L. Y. Pao, “Multisensor multitarget mixture reduction algorithms for tracking,” Journal of Guidance, Control and Dynamics, 1994. 170Catalogage de petits débris spatiaux en orbite basse par observations radars isolées Les débris spatiaux sont devenus une menace considérable pour la viabilité des satellites opérationnels en orbite basse. Afin de pouvoir éviter des collisions accidentelles, des systèmes de surveillance de l’espace existent mais sont limités en performances de détection pour les objets de petite taille (diamètre inférieur à 10cm), ce qui pousse à l’étude de nouvelles solutions. Cette thèse a pour objectif d’appuyer la faisabilité d’un système radar au sol utilisant un champ de veille étroit pour le catalogage de petits débris en orbite basse. Un tel système fournirait en effet des observations dites « isolées », c’est-à-dire qu’une orbite n’est pas immédiatement déductible de chacune d’entre elles. Le grand nombre combinaisons nécessaires est alors prohibitif en termes de temps de calcul pour la résolution de ce problème de pistage. Nous proposons dans ces travaux une nouvelle méthode pour initialiser les pistes, c’est-à-dire associer des observations isolées avec une faible ambiguïté et en déduire des orbites précises. Les pistes ainsi obtenues sont combinées et filtrées grâce à un algorithme de pistage multicible que nous avons adapté aux particularités du problème. Avec un taux de couverture de plus de 80% obtenu en temps réel sur 3 jours pour des scé- narios de 500 à 800 objets en plus d’un fort taux de fausses alarmes, les performances de la méthode proposée tendent à prouver la faisabilité du système envisagé. Afin d’extrapoler les résultats obtenus à de plus fortes densités d’observations, nous proposons un modèle de complexité combinatoire calibré sur les performances de l’algorithme aux faibles densités. L’apport d’un second capteur identique est également étudié et met en évidence un point de compromis entre réactivité et complexité combinatoire, ce qui offre un degré de liberté supplémentaire dans la conception d’un tel système. Cataloging small debris in low-Earth-orbit using sparse radar data Space debris have become a significant threat to the viability of operational satellites in Low-Earth-Orbit. In order to avoid accidental collisions, space surveillance systems exist but their detection performance is limited for the small debris (less than 10cm). New solutions are then at study. This thesis aims at supporting the feasibility of a ground-based radar sensor with a narrow-fence type field of regard for the cataloging of the small space debris. Such a system would produce isolated observations, that is to say that an orbit is not directly available from each one of them. The large number of potential combinations is then computationally prohibitive for solving this tracking problem. In this work, we propose a new method for track initiation, i.e. associating isolated observations with little ambiguity and deduce accurate orbits. The obtained set of tracks are combined and filtered using an multitarget tracking algorithm that we have adapted to the peculiarities of the problem. With a coverage rate of more than 80% in real-time on 3 days for 500 to 800-objects scenarios in addition of a high false alarm rate, the performance of the proposed method supports the feasibility of the considered system. Aiming at extrapolating the obtained results to higher observation densities, we propose a combinatorial complexity model calibrated with the algorithm performance for low detection densities. The contribution of a second identical sensor is also assessed and reveals a possible trade-off between reactivity and combinatorial complexity, which offers an additional degree of freedom in the design of such a system. Evaluation analytique de la pr´ecision des syst`emes en virgule fixe pour des applications de communication num´erique Aymen Chakhari To cite this version: Aymen Chakhari. Evaluation analytique de la pr´ecision des syst`emes en virgule fixe pour des applications de communication num´erique. Signal and Image Processing. Universit´e de Rennes 1, 2014. French. HAL Id: tel-01097176 https://hal.inria.fr/tel-01097176 Submitted on 19 Dec 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.ANNÉE 2014 THÈSE / UNIVERSITÉ DE RENNES 1 sous le sceau de l’Université Européenne de Bretagne pour le grade de DOCTEUR DE L’UNIVERSITÉ DE RENNES 1 Mention : TRAITEMENT DU SIGNAL ET TÉLÉCOMMUNICATION Ecole doctorale MATISSE présentée par Aymen CHAKHARI préparée à l’unité de recherche CAIRN, IRISA, INRIA INSTITUT NATIONALE DE RECHERCHE EN INFORMATIQUE ET AUTOMATIQUE ENSSAT LANNION Evaluation analytique de la précision des systèmes en virgule fixe pour des applications de communication numérique Thèse à soutenir à Lannion le 7 Octobre 2014 devant le jury composé de : Kosai RAOOF Professeur, ENSIM Le Mans / rapporteur Christophe JEGO Professeur, ENSEIRB Bordeaux / rapporteur Meriem JAIDANE Professeur, U2S, ENIT Tunis / examinateur Daniel MENARD Professeur, IETR INSA Rennes / examinateur Pascal SCALART Professeur, ENSSAT Lannion / directeur de thèse Romuald ROCHER Maître de conférences, IRISA / co-directeur de thèse2Résumé Lors de la conception d’applications de traitement de signal, la démarche classique conduit le concepteur d’applications à utiliser dans un premier temps une arithmétique en virgule flottante pour éviter les problèmes liés à la précision des calculs. Cependant, l’implémentation de ces applications nécessite l’utilisation de l’arithmétique virgule fixe puisqu’elle est plus avantageuse en termes de contraintes de coût et de consommation. Par conséquent l’application conçue en arithmétique virgule flottante doit être convertie en arithmétique virgule fixe. Cette opération de conversion se révèle être fastidieuse, aussi des outils de conversion automatique de l’arithmétique virgule flottante vers celle en virgule fixe ont été mis en place afin de répondre aux exigences de temps de mise sur le marché de ces applications. Au sein de ce processus de conversion, l’une des étapes primordiales concerne l’évaluation de la précision de la spécification en virgule fixe. En effet, le changement du format des données de l’application s’effectue en éliminant des bits. Cette conversion conduit à la génération de bruits de quantification qui se propagent au sein du système et dégradent la précision des calculs en sortie de l’application. Par conséquent, cet abaissement dans la précision de calcul doit être maitrisé et évalué pour garantir l’intégrité de l’algorithme et répondre aux spécifications initiales de l’application. Traditionnellement, l’évaluation de la précision s’effectue par le biais de deux approches différentes. La première approche consiste à réaliser des simulations en virgule fixe de l’application afin d’en estimer ses performances. Ces approches basées sur la simulation nécessitent de grandes capacités de calculs et conduisent à des temps d’évaluation prohibitifs. Pour éviter ce problème, le travail mené dans le cadre de cette thèse se concentre sur des approches basées sur l’évaluation de la précision à travers des modèles analytiques. Ces modèles décrivent le comportement du système à travers des expressions analytiques qui permettent d’évaluer une métrique de précision bien définie. Plusieurs modèles analytiques ont été proposés pour évaluer la précision en virgule fixe des systèmes linéaires invariants dans le temps LTI (Linear Time Invariant) et des systèmes linéaires non-LTI non récursifs et récursifs. L’objectif de cette thèse est de proposer des modèles analytiques permettant l’évaluation de la précision des systèmes de communications numériques et des algorithmes de traitement numérique de signal formés d’opérateurs non lisses et non linéaires en terme du bruit. Dans un premier temps, des modèles analytiques pour l’évaluation de la précision des opérateurs de décision et leurs cascades et itérations sont proposés. Dans une seconde étape, une optimisation des largeurs de données est proposée pour l’implémentation matérielle en virgule fixe de l’égaliseur à retour de décision DFE (Decision Feedback Equalizer) en se basant sur les modèles analytiques proposés ainsi que pour les algorithmes de décodage itératif du type turbo-décodage et décodage-LDPC (Low-Density Parity-Check) selon une loi se quantification particulière. Le premier aspect de ce travail concerne la proposition de modèles analytiques pour l’évaluation de la précision des opérateurs non lisses de décision et de la cascade des opérateurs de décision. Par conséquent, la caractérisation de la propagation des erreurs de quantification dans la cascade d’opérateurs de décision est le fondement des modèles analytiques proposés. Ces modèles sont appliqués dans une seconde étape pour l’évaluation de la précision de l’algorithme de décodage sphérique SSFE (Selective Spanning with Fast Enumeration) utilisé pour les systèmes de transmission de type MIMO (Multiple-Input Multiple-Output). Dans une seconde étape, l’évaluation de la précision des structures itératives d’opérateurs de décision a fait l’objet d’intérêt. Une caractérisation des erreurs de quantification engendrées par l’utilisation de l’arithmétique en virgule fixe est introduite pour aboutir à des modèles analytiques permettant l’évaluation de la précision des applications de traitement numérique de signal incluant des structures itératives de décision. Une deuxième approche, basée sur l’estimation d’une borne supérieure de la probabilité d’erreur de décision dans le mode de convergence, est proposée pour l’évaluation de la précision de ces applications et ceci dans un but de réduire les temps d’évaluation. Ces modèles sont appliqués à la problématique de l’évaluation de la spécification virgule fixe de l’égaliseur à retour de décision DFE. Une extension de ces modèles est introduite pour l’évaluation du DFE dans sa version adaptative. Le second aspect de notre travail s’articule autour de l’optimisation des largeurs de données en virgule fixe. Ce processus d’optimisation est basé sur la minimisation de la probabilité d’erreur de décision dans le cadre d’une implémentation sur un FPGA (Field-Programmable Gate Array) de l’algorithme DFE complexe sous contrainte d’une précision donnée. Par conséquent, pour chaque spécification en virgule fixe, la précision est évaluée à travers les modèles analytiques proposés. L’estimation de la consommation des ressources et de la puissance sur le FPGA est ensuite obtenue à l’aide des outils de Xilinx pour faire un choix adéquat des largeurs des données en visant à un compromis précision/coût.La dernière étape de notre travail concerne la modélisation en virgule fixe des algorithmes de décodage itératif. Une modélisation de l’algorithme de turbo-décodage et du décodage LDPC est ensuite proposée. Cette approche intègre la structure particulière de ces algorithmes ce qui implique que les quantités calculées au sein du décodeur ainsi que les opérations, sont quantifiées suivant une approche itérative. De plus, la représentation en virgule fixe utilisée est différente de la représentation classique utilisant le nombre de bits accordé à la partie entière et la partie fractionnaire. L’approche proposée repose sur le couple dynamique et le nombre de bits total. De plus le choix de la dynamique engendre davantage de flexibilité pour les modèles en virgule fixe puisqu’elle n’est plus limitée uniquement à une puissance de deux. Dans une seconde étape, la réduction de la taille des mémoires par des techniques de saturation et de troncature est proposée afin d’être en mesure de cibler des architectures à faible-complexité. Finalement, l’analyse des performances en virgule fixe est faite à travers l’évaluation du taux d’erreur par paquet FER (Frame Error Ratio) en fonction du SNR (Signal to Noise Ratio).5Abstract In designing applications of signal processing, the traditional approach leads the designer of applications to use initially floating point arithmetic in order to avoid problems related to the accuracy of calculations. However, the implementation of these applications requires the use of fixed-point arithmetic because it is more advantageous in terms of constraints of cost and consumption. Therefore, the designed application in floating point arithmetic must be converted to fixed-point arithmetic. This conversion is tedious, so tools for automatic conversion of floating-point arithmetic to the fixed point were established to meet the requirements of time-to-market of these applications. In this conversion process, one of the basic steps concerns the evaluation of the accuracy of the fixed-point specification. Indeed, the change of the data format of the application is performed by removing bits. This conversion results in the generation of quantization noise propagating within the system and degrading the accuracy of calculations of the application output. Therefore, this reduction in the calculation accuracy must be mastered and evaluated in order to ensure the integrity of the algorithm and meet the initial requirements of the application. Traditionally, evaluation of accuracy is performed through two different approaches. The first approach is to perform simulations fixed-point implementation in order to assess its performance. These approaches based on simulation require large computing capacities and lead to prohibitive time evaluation. To avoid this problem, the work done in this thesis focuses on approaches based on the accuracy evaluation through analytical models. These models describe the behavior of the system through analytical expressions that evaluate a defined metric of precision. Several analytical models have been proposed to evaluate the fixedpoint accuracy of Linear Time Invariant systems (LTI) and of non-LTI non-recursive and recursive linear systems. The objective of this thesis is to propose analytical models to evaluate the accuracy of digital communications systems and algorithms of digital signal processing made up of non-smooth and non-linear operators in terms of noise. In a first step, analytical models for evaluation of the accuracy of decision operators and their iterations and cascades are provided. In a second step, an optimization of the data length is given for fixed-point hardware implementation of the Decision Feedback Equalizer DFE based on analytical models proposed and for iterative decoding algorithms such as turbo decoding and LDPC decoding-(Low-Density Parity-Check) in a particular quantization law. The first aspect of this work concerns the proposition analytical models for evaluating the accuracy of the non-smooth decision operators and the cascading of decision operators. So, the characterization of the quantization errors propagation in the cascade of decision operators is the basis of the proposed analytical models. These models are applied in a second step to evaluate the accuracy of the spherical decoding algorithm SSFE (Selective Spanning with Fast Enumeration) used for transmission MIMO systems (MultipleInput Multiple - Output). In a second step, the accuracy evaluation of the iterative structures of decision operators has been the interesting subject. Characterization of quantization errors caused by the use of fixed-point arithmetic is introduced to result in analytical models to evaluate the accuracy of application of digital signal processing including iterative structures of decision. A second approach, based on the estimation of an upper bound of the decision error probability in the convergence mode, is proposed for evaluating the accuracy of these applications in order to reduce the evaluation time. These models are applied to the problem of evaluating the fixed-point specification of the Decision Feedback Equalizer DFE. An extension of these models is introduced for the evaluation of DFE in its adaptive version. The second aspect of our work focuses on the optimization of fixed-point data widths. This optimization process is based on minimizing the decision error probability through the implementation on an FPGA (Field-Programmable Gate Array) of the complex DFE algorithm under the constraint of a given accuracy. Therefore, for each fixed-point specification, accuracy is evaluated through the proposed analytical models. The estimation of resources and power consumption on the FPGA is then obtained using the Xilinx tools to make a proper choice of the data widths aiming to a compromise accuracy/cost. The last step of our work concerns the fixed-point modeling of iterative decoding algorithms. A model of the turbo decoding algorithm and the LDPC decoding is then given. This approach integrates the particular structure of these algorithms which implies that the calculated quantities in the decoder and the operations are quantified following an iterative approach. Furthermore, the used fixed-point representation is different from the conventional representation using the number of bits accorded to the integer part and the fractional part. The proposed approach is based on the dynamic and the total number of bits. Besides, the dynamic choice causes more flexibility for fixed-point models since it is not limited to only a power oftwo. In a second step, the memory size reduction using saturation and truncation techniques is given in order to be able to target low - complexity architectures. Finally, the fixed-point performance analysis is done through the evaluation of Frame Error Ratio FER versus SNR (Signal to Noise Ratio) package.8Table des matières Introduction 1 Contexte de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Problématique de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Organisation de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1 Arithmétique virgule fixe 9 1.1 Les différents types de formats de données . . . . . . . . . . . . . . . . . . . . . . . 10 1.1.1 Représentation des nombres entiers . . . . . . . . . . . . . . . . . . . . . . . 11 1.1.2 Le format virgule fixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.1.3 Le format virgule flottante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.1.4 Comparaison arithmétiques virgule flottante et virgule fixe . . . . . . . . . 14 1.2 Modélisation du bruit de quantification . . . . . . . . . . . . . . . . . . . . . . . . 20 1.2.1 Processus de quantification . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.2.2 Signal à amplitude continue . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.2.3 Signal à amplitude discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 1.2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.3 Évaluation de la précision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.3.1 Les métriques de précision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.3.2 Les méthodes d’évaluation de la précision par simulation . . . . . . . . . . . 29 1.3.3 Les approches analytiques de l’évaluation de la précision . . . . . . . . . . . 32 1.3.4 Autres effets de la quantification . . . . . . . . . . . . . . . . . . . . . . . . 38 1.3.5 Bilan des deux approches . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 1.3.6 Les approches hybrides . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 2 Évaluation analytique de la précision des algorithmes de décodage sphérique 41 2.1 Les opérateurs lisses et non lisses . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.1.2 Les opérateurs lisses et non-lisses . . . . . . . . . . . . . . . . . . . . . . . . 43 2.1.3 La quantification d’un opérateur non lisse . . . . . . . . . . . . . . . . . . . 44 2.1.4 Identification d’un opérateur non lisse . . . . . . . . . . . . . . . . . . . . . 44 2.2 Modèle analytique pour l’opérateur de décision . . . . . . . . . . . . . . . . . . . . 47 2.2.1 Modélisation de l’opérateur de décision . . . . . . . . . . . . . . . . . . . . 47 2.2.2 La réponse à la perturbation . . . . . . . . . . . . . . . . . . . . . . . . . . 49 2.2.3 La probabilité d’erreur de décision . . . . . . . . . . . . . . . . . . . . . . . 50 2.3 Cascade d’opérateurs de décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 2.3.1 Propagation de l’erreur de quantification . . . . . . . . . . . . . . . . . . . . 55 2.3.2 Détermination analytique de la probabilité d’erreur en sortie de la cascade . 56 2.3.3 Analyse de la complexité du modèle analytique . . . . . . . . . . . . . . . . 59 2.4 Application du modèle à l’algorithme SSFE . . . . . . . . . . . . . . . . . . . . . . 60 2.4.1 Modèle du système MIMO . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 12.4.2 Présentation de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 2.4.3 Application du modèle analytique proposé . . . . . . . . . . . . . . . . . . . 64 2.4.4 Première approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 3 Évaluation de la précision de l’itération d’opérateur de décision 79 3.1 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 3.1.1 Caractéristiques de la propagation du bruit . . . . . . . . . . . . . . . . . . 80 3.2 Modèle analytique proposé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 3.2.1 Approche basée sur la résolution d’un système non linéaire à l’aide de l’algorithme de Newton-Raphson . . . . . . . . . . . . . . . . . . . . . . . . . . 81 3.2.2 Borne supérieure de la probabilité d’erreur . . . . . . . . . . . . . . . . . . 85 3.3 Évaluation de la précision de l’égaliseur à retour de décision . . . . . . . . . . . . . 88 3.3.1 Présentation de l’algorithme DFE . . . . . . . . . . . . . . . . . . . . . . . 88 3.3.2 Résultat pour le cas non adaptatif . . . . . . . . . . . . . . . . . . . . . . . 89 3.3.3 Solution proposée pour le cas adaptatif . . . . . . . . . . . . . . . . . . . . 90 3.4 Optimisation du format virgule fixe pour l’implémentation matérielle . . . . . . . . 94 3.4.1 Présentation de l’architecture . . . . . . . . . . . . . . . . . . . . . . . . . . 94 3.4.2 Implémentation sur FPGA . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 3.4.3 Les contraintes du choix du format de représentation . . . . . . . . . . . . . 97 3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 4 Évaluation de la précision du turbo décodage 103 4.1 L’optimisation de la largeur des données en virgule fixe . . . . . . . . . . . . . . . 104 4.1.1 Variantes du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4.1.2 Variable d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 4.1.3 Solution au problème d’optimisation de la longueur du mot de code . . . . 106 4.2 Optimisation du turbo décodage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 4.2.1 Présentation de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 4.2.2 Modélisation et design en virgule fixe . . . . . . . . . . . . . . . . . . . . . 111 4.2.3 Réduction de la taille de mémoire . . . . . . . . . . . . . . . . . . . . . . . 114 4.2.4 Performance du turbo décodeur . . . . . . . . . . . . . . . . . . . . . . . . . 116 4.3 Optimisation du décodage LDPC . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 4.3.1 Modélisation et design en virgule fixe d’un décodeur LDPC . . . . . . . . . 122 4.3.2 Réduction de la taille de mémoire . . . . . . . . . . . . . . . . . . . . . . . 124 4.3.3 Performance en virgule fixe du décodeur LDPC . . . . . . . . . . . . . . . . 124 4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 Conclusion et Perspectives 127 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 A Quantification uniforme et quantification double 129 A.1 Quantification uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 A.1.1 Quantification dans le domaine de la fonction caractéristique . . . . . . . . 129 A.2 La quantification double . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 B La méthode de Newton-Raphson pour la résolution des systèmes non linéaires133 B.1 Les systèmes non linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 2Table des figures 1 Cycle de conception d’une application de traitement numérique de signal . . . . . . 2 2 Les étapes d’implémentation en virgule fixe . . . . . . . . . . . . . . . . . . . . . . 3 1.1 Représentation des données en virgule fixe . . . . . . . . . . . . . . . . . . . . . . . 12 1.2 Représentation des données en virgule flottante . . . . . . . . . . . . . . . . . . . . 13 1.3 Comparaison de l’évolution du niveau de la dynamique pour les représentations virgule fixe et virgule flottante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.4 Effet du débordement utilisant la technique de l’enveloppe autour de la valeur . . . 16 1.5 Effet du débordement utilisant la technique de saturation . . . . . . . . . . . . . . 16 1.6 Processus de quantification par arrondi . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.7 Processus de quantification par troncature . . . . . . . . . . . . . . . . . . . . . . . 22 1.8 Modélisation de bruit de quantification additif . . . . . . . . . . . . . . . . . . . . 23 1.9 Densité de probabilité de la loi de troncature continue . . . . . . . . . . . . . . . . 23 1.10 Densité de probabilité de la loi d’arrondi continu . . . . . . . . . . . . . . . . . . . 24 1.11 Densité de probabilité de la loi de troncature discrète . . . . . . . . . . . . . . . . . 26 1.12 Densité de probabilité de la loi d’arrondi discrète . . . . . . . . . . . . . . . . . . . 26 1.13 Densité de probabilité de la loi d’arrondi convergente discrète . . . . . . . . . . . . 27 1.14 Mesure de la puissance de bruit de quantification causé par la virgule fixe . . . . . 31 1.15 Estimation analytique de l’erreur causée par les opérations en virgule fixe . . . . . 33 1.16 Modèle analytique du bruit de quantification . . . . . . . . . . . . . . . . . . . . . 33 1.17 Propagation du bruit de quantification vers la sortie du système . . . . . . . . . . . 36 1.18 Les temps d’optimisation des deux approches en fonction de nombre d’évaluation . 39 2.1 Graphe du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 2.2 Schéma d’un opérateur dans la précision infinie et la précision finie avec b bits . . . 45 2.3 Représentation d’un signal en virgule fixe avec une dynamique [−1, 1) ....... 46 2.4 Représentation d’un signal en virgule fixe avec une dynamique [−1, 1) ....... 46 2.5 Diagramme de la constellation 16-QAM . . . . . . . . . . . . . . . . . . . . . . . . 47 2.6 Fonctionnement de l’opérateur de décision . . . . . . . . . . . . . . . . . . . . . . . 48 2.7 Modèle de quantification d’un opérateur de décision . . . . . . . . . . . . . . . . . 49 2.8 Réponse à la perturbation à la frontière non lisse ; Cas A : x = xa, Cas B :x = xb . 49 2.9 Un système constitué d’un opérateur non lisse .................... 50 2.10 Probabilité d’erreur de décision totale : cas BPSK . . . . . . . . . . . . . . . . . . 53 2.11 Cascade de deux opérateurs de décision . . . . . . . . . . . . . . . . . . . . . . . . 54 2.12 Non validité du modèle analytique d’estimation de la probabilité d’erreur de décision dans le cas d’une cascade d’opérateurs de décision . . . . . . . . . . . . . . . . 55 2.13 Propagation de l’erreur de quantification dans un système composé de plusieurs opérateurs non lisses en cascade . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2.14 Propagation des erreurs non lisses (corrélées ou non corrélées) . . . . . . . . . . . . 59 2.15 Propagation des erreurs non lisses (corrélées et non corrélées) . . . . . . . . . . . . 61 2.16 Exemple d’un arbre de spanning SSFE avec m = [1, 1, 2, 4] .............. 62 2.17 Exemple d’une énumération rapide (ER) d’une constellation à 8 points . . . . . . . 63 2.18 Cascade d’opérateurs de décisions : cas de l’algorithme SSFE . . . . . . . . . . . . 64 32.19 Probabilité d’erreur de décision totale en fonction du rapport signal à bruit . . . . 67 2.20 Probabilité d’erreur de décision totale en fonction du rapport signal à bruit . . . . 71 2.21 Probabilité d’erreur de décision P3 ij dans le cas d’une puissance du bruit de quantification de 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 2.22 Probabilité d’erreur au niveau de l’antenne n˚3 de décision totale dans le cas d’une constellation 4-QAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 2.23 Probabilité d’erreur de décision totale dans le cas d’une constellation 4-QAM . . . 75 2.24 Probabilité d’erreur de décision P2 ij dans le cas d’une constellation 4-QAM . . . . . 76 2.25 Probabilité d’erreur de décision totale dans le cas d’une constellation 4-QAM . . . 77 2.26 Probabilité d’erreur de décision P1 ij dans le cas d’une constellation 4-QAM . . . . . 77 3.1 Système contenant une itération d’opérateur de décision . . . . . . . . . . . . . . . 80 3.2 Système composé d’itération d’opérateurs de décision . . . . . . . . . . . . . . . . . 83 3.3 Probabilité d’erreur de décision pour une constellation QPSK . . . . . . . . . . . . 85 3.4 Bloc-diagramme d’un égaliseur à retour de décision . . . . . . . . . . . . . . . . . . 89 3.5 Borne supérieure analytique et probabilité d’erreur de décision par simulation . . . 89 3.6 Structure de l’égaliseur : mode initial . . . . . . . . . . . . . . . . . . . . . . . . . . 91 3.7 Structure de l’égaliseur : mode final . . . . . . . . . . . . . . . . . . . . . . . . . . 91 3.8 Variation des coefficients des filtres de l’égaliseur . . . . . . . . . . . . . . . . . . . 93 3.9 Probabilité d’erreur de décision en fonction du nombre de bits . . . . . . . . . . . . 93 3.10 Architecture d’un égaliseur DFE à coefficients complexes . . . . . . . . . . . . . . . 94 3.11 Diagramme bloc de l’égaliseur DFE implémenté . . . . . . . . . . . . . . . . . . . . 95 3.12 Bloc diagramme de la procédure du test sur FPGA . . . . . . . . . . . . . . . . . . 96 3.13 Architecture du filtre forward .............................. 96 3.14 Entrée et sortie de l’égaliseur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 3.15 Probabilité d’erreur de décision en fonction des deux précisions . . . . . . . . . . . 98 3.16 Probabilité d’erreur de décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 3.17 Nombre de slice registres nécessaires pour obtenir une probabilité d’erreur de dé- cision de P0 = 10−3 avec une précision relative de 0.2. ................ 99 3.18 Nombre de slice lut nécessaires pour obtenir une probabilité d’erreur de décision de P0 = 10−3 avec une précision relative de 0.2..................... 100 3.19 Consommation de puissance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 3.20 Dispositif pour la mesure de la puissance . . . . . . . . . . . . . . . . . . . . . . . . 101 4.1 Turbo codeur de la norme 3GPP-LTE . . . . . . . . . . . . . . . . . . . . . . . . . 107 4.2 Exemple d’un treillis à 8 états . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 4.3 Les notations de BCJR dans le treillis . . . . . . . . . . . . . . . . . . . . . . . . . 108 4.4 Le principe du turbo décodage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 4.5 Fonction en escalier de conversion de la virgule flottante à la virgule fixe . . . . . . 111 4.6 Modèle virgule fixe du bloc SISO dans le turbo décodeur . . . . . . . . . . . . . . . 115 4.7 Analyse de la dynamique pour Nλch = 5 bits . . . . . . . . . . . . . . . . . . . . . 115 4.8 Effet de la quantification des entrées LLRs . . . . . . . . . . . . . . . . . . . . . . . 116 4.9 Analyse de la performance de l’algorithme de turbo-décodage en virgule fixe . . . . 117 4.10 Performance virgule fixe de bout en bout pour différentes valeurs de Aλch ..... 118 4.11 Exemple du graphe tanneur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 4.12 Matrice prototype du LDPC WIMAX 2/3a . . . . . . . . . . . . . . . . . . . . . . 120 4.13 Représentation du treillis à deux états d’une contrainte de vérification de parité avec dc = 5 ........................................ 121 4.14 Modèle virgule fixe du décodeur BCJR à 2-états . . . . . . . . . . . . . . . . . . . 122 4.15 Modèle virgule fixe du décodage à couche des codes LDPC . . . . . . . . . . . . . . 123 4.16 Effet de la quantification des entrées LLRs . . . . . . . . . . . . . . . . . . . . . . . 125 4.17 Effet de la quantification des métriques cumulées de chemin dans le processeur CN 125 4A.1 Domaine de la fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . 130 A.2 Quantification double . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 B.1 diagramme des cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 B.2 méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 56Liste des tableaux 1.1 Comparaison de la dynamique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.2 Comparaison du RSBQ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.3 Paramètres statistiques du bruit généré . . . . . . . . . . . . . . . . . . . . . . . . 28 3.1 État des séquences d’erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 4.1 Les paramètres du code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 4.2 Les paramètres virgule fixe optimaux du turbo-décodeur . . . . . . . . . . . . . . . 118 78Glossaire A Arrondi AC Arrondi Convergent APA Algorithmes de Projection Affine ASIC Application Specific Integrated Circuit ASIP Application Specific Instruction-set Processor CA2 Complément à 2 DSP Digital Signal Processor FIR Finite Impulse Response IIR Infinite Impulse Response LMS Least Mean Square LSB Last Significant Bit MCR Moindres Carrés Récursifs MSB Most Significant Bit NLMS Normalize Least Mean Square RLS Recursive Least-Square RSBQ Rapport Signal sur Bruit de Quantification T Troncature TNS Transmission Numérique du Signal 910Notations E Terme d’espérance q Pas de quantification x(n) Donnée scalaire à un instant n X(n) Donnée vectorielle à un instant n X(n) Donnée matricielle à un instant n mX Moyenne de la donnée X(n) scalaire ou matricielle µx Moyenne du scalaire x(n) σ2 x Variance du scalaire x(n) RXX(θ) = E[X(n)Xt (n − θ)] Matrice d’autocorrélation des données X(n) CXX(θ) = E ! (X(n) − mX) " Xt (n − θ) − mt X #$ Matrice de covariance des données X(n) 1112Introduction De nos jours, le Traitement Numérique de Signal ne cesse d’évoluer pour répondre aux exigences actuelles de plusieurs domaines tels que les télécommunications qui ont marqué une avancée impressionnante. De plus, les algorithmes de Traitement Numérique de Signal figurent dans diffé- rentes applications telles que le domaine médical, l’aéronautique, le multimédia et l’électronique grand public. L’évolution rapide de la technologie des semi-conducteurs a conduit à d’énormes innovations dans le domaine de conception des produits électroniques pour implanter des applications de plus en plus complexes. Les équipements électroniques disponibles sur les marchés d’aujourd’hui sont caractérisés par une concurrence entre les grandes entreprises d’électronique pour les rendre plus efficaces et multifonctionnels. Cela s’est manifesté par l’évolution rapide des réseaux radio mobile particulièrement avec la quatrième génération (ou 4G). Par conséquent, les équipements de ces normes intègrent différentes technologies de communication numérique (WIFI, Bluetooth, GPS,...) qui cohabitent ensemble au sein du même équipement avec plusieurs applications fondées sur des algorithmes de traitement numérique de signal. En conséquence, ces grandes firmes d’électronique se trouvent face à un cycle continu de conception et de livraison des produits. A chaque itération de ce cycle, les concepteurs ont besoin de travailler avec une très haute complexité technologique en visant en même temps à fournir davantage de valeur ajoutée au consommateur dans les meilleurs délais. Les smart-phones actuels avec la 4G sont un bon exemple d’un équipement électronique de télécommunication, de traitement de signal et de semi-conducteurs et qui nécessite de très hautes capacités de calcul pour accomplir les diverses applications qui sont embarquées dans ces équipement et assurer les performances demandées pour la voix et le trafic des données. De plus, ils sont équipés de plusieurs outils de multimédia tels que les caméras par exemple pour enregistrer des vidéos et jouer de la musique en temps réel. Tout cela est conçu sous les contraintes d’énergie et de temps. L’exemple des smart-phones peut être généralisé pour la conception des équipements électroniques modernes afin de à minimiser le coût du système en termes de surface de silicium, le profit de la consommation de puissance et le temps d’exécution sous contrainte de performances améliorées en termes de précision de calcul et du temps de réponse. Par conséquent, ces objectifs représentent "pour les concepteurs" un compromis entre les performances et le coût. En conséquence, il est très important de faire les choix adéquats à chaque étape de conception afin d’assurer les meilleurs performances possibles du système global. De plus, le temps de mise sur le marché (Time-to-market) de ces produits doit être réduit. Pour cette raison, la conception et le développement de ces applications nécessitent l’utilisation des outils de haut-niveau qui interviennent dans toutes les étapes du cycle de développement des applications de traitement numérique de signal et de communication numérique. Le rôle de ces outils est de fournir aux concepteurs des facilités d’implantation pour choisir la meilleure architecture à implémenter en permettant de passer d’un haut niveau d’abstraction à une caractérisation bas niveau. Également, le choix des opérateurs utilisés pour implémenter ces algorithmes influence très largement le compromis coût/performance. Les opérateurs en arithmétique virgule flottante et en arithmétique virgule fixe sont les deux choix les plus courants pour l’implémentation de toutes les opérations arithmétiques. Il convient de préciser que l’implémentation en arithmétique virgule fixe possède l’avantage d’une consommation de puissance inférieure à celle en arithmétique virgule flottante, mais aussi elle est marquée par une latence plus courte et des surfaces significativement plus petites. Par conséquent l’arithmétique en virgule fixe est un choix populaire pour l’implémenta- 12 Contexte de l’étude tion des algorithmes de traitement numérique de signal (TNS) qui possèdent des paramètres de performances rigoureux à achever et qui demandent des puissances de calcul élevées. Contexte de l’étude Le processus de conception des algorithmes de traitement numérique de signal s’effectue selon plusieurs étapes. Le concepteur est ainsi amené à faire le choix approprié en considérant plusieurs options disponibles à chaque étape du cycle de conception de l’application. Un choix particulier qui conduit à l’amélioration des performances du système est invariablement associé à l’augmentation indésirable du coût du système. Par conséquent, la prise de décision d’un bon choix est réalisé par l’intermédiaire d’un nombre d’itérations de vérification avant d’arriver au choix optimal. Les différentes étapes de conception d’une application de traitement numérique de signal sont décrites par la figure 1. Figure 1 – Cycle de conception d’une application de traitement numérique de signal La première étape de ce cycle est la définition du cahier de charge en spécifiant les différentes fonctions à accomplir par le système conçu ainsi que les différentes contraintes architecturales du système par rapport à la consommation d’énergie et au niveau temporel. L’étape suivante correspond à la conception de l’algorithme et la spécification d’une description complète de l’algorithme qui est une tâche donnée dans le contexte de cette thèse. A cette étape, des simulations sont effectuées pour vérifier les différents critères conçus à travers des outils tels que Matlab (Mathworks), Scilab (Inria). Ces simulations sont effectuées en utilisant l’arithmétique virgule flottante pour s’affranchir des problèmes de précision des calculs. Une fois l’algorithme est conçu, celui ci est décrit à l’aide d’un langage de programmation (C,C embarqué) et implanté dans le système embarqué. L’implantation peut être logicielle ou matérielle à travers les solutions architecturales tels que ASIC, FPGA ou DSP. L’étape suivante concerne la détermination d’une représentation convenable en virgule fixe. Cette tache est le centre d’intérêt de cette thèse. Les contraintes de coût et de consommation des systèmes embarqués conduisent à l’utilisation de l’arithmétique en virgule fixe puisqu’elles sont moindres par rapport à l’arithmétique virgule flottante car les largeurs des données de cette dernière sont plus larges qu’en format virgule fixe.Problématique de la thèse 3 Généralement, les données en virgule flottante sont codées sur 32 bits alors qu’en virgule fixe, elle sont codées sur 16 bits. Également, les opérateurs en virgule fixe sont moins complexes qu’en virgule flottante. Par contre, le temps de développement en virgule fixe est plus important car les formats des différentes données en virgule fixe doivent être optimisés et bien définis pour éviter le débordement au sein de l’application. Par conséquent une conversion de la logique virgule flottante vers l’arithmétique virgule fixe est effectuée. Cette tâche, longue, peut constituer 30% du temps d’implantation du système. De plus, elle conduit à de nombreuses erreurs et ainsi la représentation en virgule fixe doit garantir l’intégrité de l’application et satisfaire les contraintes de performance. Afin de répondre aux exigences du temps de mise sur le marché, cette conversion est automatisée à travers des outils de conversion automatique qui visent à répondre aux exigences de la précision pour maintenir les performances de l’algorithme tout en optimisant les coûts. Une fois qu’un format convenable de virgule fixe est sélectionné, le système est implémenté et une vérification des performances du système selon les critères de l’utilisateur est effectuée. Si les résultats sont satisfaisants, la conception est clôturée, sinon, toutes les étapes à partir de l’optimisation en arithmétique virgule fixe doivent être répétées pour compenser les lacunes du format virgule fixe précédent. Le bloc d’implémentation n’est pas détaillé dans la figure 1 afin de mettre l’accent sur l’élé- ment central de cette thèse. Dans la pratique, ce bloc est complexe et peut être séparé en plusieurs sous-blocs. Dans le cas d’une implémentation logicielle, il existe des compilateurs, tels que le compilateur GCC (GNU Compiler Collection), qui sont spécifiquement optimisés pour des architectures de processeurs spécifiques. Problématique de la thèse Il existe quatre tâches pour l’implémentation en arithmétique virgule fixe d’un système donné tel que montré par la figure 2. Figure 2 – Les étapes d’implémentation en virgule fixe La première tâche concerne l’estimation de la dynamique des signaux. En effet, une détermination de la dynamique est requise pour connaître l’intervalle des valeurs prises par les données.4 Problématique de la thèse Ensuite le nombre de bits accordé à la partie entière du format virgule fixe est déduit. En d’autres termes, cette première étape conduit à déterminer la position de la virgule qui doit permettre d’éviter la présence de débordements. En addition, un alignement de la virgule des opérandes est effectué par le biais des opérations de recadrage afin d’adapter les données à leurs dynamiques. Dans une seconde étape, l’optimisation en arithmétique virgule fixe nécessite de déterminer le nombre de bits à affecter à la partie fractionnaire. Ce nombre de bits résulte d’un compromis entre le coût d’implantation et la précision des calculs. La deuxième tâche concerne la mesure des pertes en précision causées par l’utilisation des opérateurs et des données en arithmétique virgule fixe. En effet, l’utilisation de l’arithmétique virgule fixe engendre des erreurs de calculs par rapport aux opérations réalisées en précision infinie. Par conséquent, l’évaluation de la précision des calculs est une étape primordiale dans le processus de conception des applications en format virgule fixe. Cette tâche constitue l’objet principal de ce travail de thèse, en particulier l’évaluation de la précision des systèmes de traitement numérique de signal et de communication numérique constitués d’opérateurs non lisses (un-smooth) et non linéaires en terme du bruit. L’évaluation de la précision se fait par le biais d’une métrique caractérisant les performances de la précision qui est généralement le Rapport Signal à Bruit de Quantification (RSBQ). Dans [82], une méthode est présentée pour déterminer la valeur minimale du RSBQ et par conséquent l’optimisation en arithmétique virgule fixe se fait sous une contrainte de précision obtenue par le biais de la valeur minimale du RSBQ. De plus, l’estimation des avantages du coût correspondant à l’utilisation du format virgule fixe constitue un défi à résoudre. En effet, l’objectif visé est de faire un compromis entre les pertes en précision et les gains en coût d’implémentation en respectant les contraintes de la conception et en faisant un choix optimisé du format virgule fixe. Dans le cas d’une implémentation logicielle sur un DSP ou bien un micro-contrôleur, l’architecture est fixée et les opérateurs sont prédéfinis sur une largeur bien précise. Néanmoins, les processeurs peuvent manipuler plusieurs types d’instructions telles que les instructions de type SWP (Sub-Word Parallelism) qui permettent d’accélérer les temps d’exécution en favorisant le parallélisme des opérations. D’autres part, les processeurs fournissent des instructions multipré- cisions permettant de traiter les données enregistrées en mémoire avec une précision plus élevée. Le temps d’exécution Texe de ce type d’instruction est alors plus important et le problème posé consiste à trouver le point optimum de fonctionnement correspondant au temps minimal d’exé- cution Texe satisfaisant également la contrainte de précision RSBQmin. En d’autres termes, le temps d’exécution Texe est minimisé tant que la contrainte de précision RSBQmin est satisfaite. Cette approche conduit au problème d’optimisation suivant : min B∈EB (Texe(B)) tel que RSBQ(B) ≥ RSBQmin (1) où B représente le vecteur contenant les largeurs des données présentes dans l’algorithme et EB désigne l’ensemble des largeurs supportées par le processeur. Le temps d’exécution du code dépend du type d’instruction choisi. L’implémentation matérielle sur un FPGA ou un ASIC est fondée sur une définition de l’architecture qui détermine le nombre d’opérateurs impliqués dans l’application. Particulièrement, la largeur des différents opérateurs arithmétiques est à fixer. Dans ce cas d’implémentation, l’objectif de la méthodologie est de minimiser le coût de l’architecture en termes de consommations de ressources et d’énergie sous contrainte d’une précision donnée des calculs. Les coûts locaux des éléments présents dans l’architecture conduisent à la minimisation du coût global Carch de l’architecture sous la contrainte de précision minimale exprimée par RSBQmin (équation 2). Une telle approche fera l’objet du troisième chapitre de cette thèse dédié à l’implémentation efficace sur FPGA de l’algorithme d’égalisation à retour de décision sous contrainte d’une probabilité d’erreur de décision minimale. min B∈EB (Carch(B)) tel que RSBQ(B) ≥ RSBQmin (2)Contributions 5 Les 2 méthodologies définies par les relations 1 et 2 font appel à une contrainte d’optimisation liée à l’évaluation de la précision des calculs en arithmétique virgule fixe. L’évaluation de cette précision constitue la pierre angulaire de ce travail de thèse. Deux approches différentes sont classiquement envisagées pour effectuer cette tâche : l’approche basée sur des simulations en arithmétique virgule fixe et l’approche basée sur des modèles analytiques permettant de caractériser la métrique de précision. Étant donné que la précision des calcul est évaluée à chaque itération du processus d’optimisation, l’approche par simulation engendre des temps d’optimisation prohibitifs. Par conséquent, pour limiter cet effet, des modèles analytiques ont été proposés pour évaluer la précision en virgule fixe des systèmes de communication numérique et de traitement numérique de signal. Dans ce dernier cas, la métrique de précision (RSBQ(B)) est calculée à chaque itération du processus ce qui nécessite la connaissance de son expression analytique en chaque point du graphe décrivant l’algorithme. Par conséquent, le temps d’évaluation est significativement réduit. Dans la littérature, des approches analytiques ([32], [69]) ont été proposées pour évaluer la précision des systèmes linéaires et invariants dans le temps (LTI), les systèmes non-LTI nonrécursifs dans [70] et également les systèmes LTI et non-LTI récursifs. L’objectif de ce travail de recherche est de proposer des modèles analytiques des systèmes de communication numérique et de traitement numérique de signal formés par des opérateurs non lisses et non linéaires en terme de bruit tels que les algorithmes de décodage sphérique, l’égalisation à retour de décision ou encore le turbo-décodage. De plus, des optimisations des largeurs des données en format virgule fixe pour ces applications ont été abordées en se basant sur les modèles analytiques proposés. Contributions Les travaux effectués durant cette thèse s’articulent autour trois grands piliers. Dans un premier temps, des modèles analytiques pour l’évaluation de la précision des systèmes constitués d’une cascade d’opérateurs non lisses de décision ont été proposées en collaboration avec les travaux de recherche effectués dans le cadre de la thèse de Karthick PARSHAR au sein de la même équipe CAIRN. Cette étude repose sur l’identification d’opérateurs non lisses et sur la caractérisation des bruit de quantification engendrés par ce type d’opérateurs. Dans une seconde étape, ce travail a été étendu à l’analyse du phénomène de propagation des erreurs de décision lorsque plusieurs opérateurs de décision sont utilisés en cascade. Ce travail nous a permis de définir un modèle analytique général permettant d’évaluer la précision de systèmes constitués d’une cascade d’opérateurs de décision comme, par exemple, les systèmes de communications numériques. Ainsi, les modèles analytiques proposés seront appliqués à l’évaluation des algorithmes de décodage sphérique tel que l’algorithme SSFE (Selective Spanning with Fast Enumeration). La seconde contribution de cette thèse concerne l’évaluation de la précision des systèmes de communication numérique basés sur l’itération d’opérateurs non lisses de décision. Cette étude a fait l’objet d’une approche analytique permettant l’évaluation de la précision en arithmétique virgule fixe lorsque l’itération d’opérateurs non lisses de décision converge en se basant sur la résolution d’un système d’équations non linéaires par la méthode de Newton-Raphson. Cependant, le temps d’évaluation de cette approche demeurant assez élevé pour des constellations à forte efficacité spectrale, nous proposons une approche alternative dans une seconde étape afin de remédier à ce problème. Cette dernière fournit une borne supérieure de la probabilité d’erreur de décision lorsque les systèmes convergent. Elle sera appliquée à l’évaluation de la précision de l’égaliseur à retour de décision. Enfin, la dernière contribution de cette partie concerne l’optimisation de l’implémentation en virgule fixe sur FPGA d’un égaliseur numérique à retour de décision ou DFE (Deision Feedback). Cette optimisation est effectuée sous une contrainte de précision exprimée à travers la probabilité d’erreur de décision. Ainsi, une architecture de DFE a été proposée permettant de fixer les largeurs des données de cet algorithme à partir d’un compromis entre la consommation en ressources matérielles et en énergie obtenue pour différentes contraintes de précision. Nous avons proposé une architecture en format virgule fixe du turbo décodeur qui utilise une6 Organisation de la thèse loi de quantification basée sur le couple (A, Nx) où A représente la dynamique de signal et Nx le nombre total de bits utilisés dans la représentation en virgule fixe du signal x à quantifier. Nous montrerons que ce schéma de quantification est plus flexible que la quantification classique représentée par le couple du nombre de bits pour la partie entière et le nombre de bits pour la partie fractionnaire (NI , NF ), sans tenir compte de la dynamique. En effet, dans les approches classiques, la dynamique est généralement limitée à une puissance de deux tandis que cette approche s’affranchit de cette restriction. Dans une seconde étape, nous avons visé à réduire la taille des mémoires utilisées dans l’implémentation du turbo décodeur afin de satisfaire la contrainte de faible complexité. Cette réduction est faite à travers des techniques de saturation et de troncature. Finalement, une évaluation des performances en arithmétique virgule fixe est réalisée par l’analyse des taux d’erreur par paquet FER (Frame Error Rate) en fonction du SNR (Signal to Noise Ratio). Des choix sur la largeur des données sont discutés afin de réaliser un compromis entre les solutions à hautes performances et celles à faibles complexités. L’ensemble de cette méthodologie a également été appliqué à la modélisation d’un décodeur LDPC en se basant sur le principe de fonctionnement du décodage-LDPC. Organisation de la thèse Cette thèse est constituée de quatre parties. Le premier chapitre est un chapitre introductif présentant les différents aspects des arithmétiques en virgule flottante et en virgule fixe avec une comparaison entre les deux arithmétiques en termes de plusieurs critères. Cette comparaison justifie l’intérêt de l’utilisation de la représentation en virgule fixe pour les systèmes embarqués et les algorithmes de traitement numérique de signal. Ensuite, les différentes approches pour l’évaluation de la précision en virgule fixe sont explicitées, en particulier les approches par simulation et les approches basées sur des modèles analytiques. Une comparaison entre ces deux approches est ensuite présentée ce qui conduira à justifier l’avantage de l’utilisation des modèles analytiques en termes d’optimisation du temps d’évaluation et des capacités de calcul. Le deuxième chapitre de cette thèse définit tout d’abord la notion d’opérateurs non lisses en proposant une technique pour les identifier. Nous présentons ensuite un modèle analytique pour l’évaluation de la précision d’un opérateur de décision non lisse. Dans une seconde étape le problème de la propagation des erreurs de décisions dans une cascade d’opérateurs de décision est abordé en proposant des modèles analytiques permettant l’évaluation de ce genre de configuration dans les systèmes de communication numérique. Ces modèles analytiques ont été appliqués à l’algorithme SSFE. La troisième partie de cette thèse est consacrée à la présentation des modèles analytiques permettant l’évaluation de la précision des itérations d’opérateurs de décision. En premier lieu, une étude est menée sur la caractérisation du phénomène de propagation des erreurs causées par l’opérateur de quantification utilisé dans une structure itérée. Deux modèles analytiques sont ensuite présentés pour évaluer la probabilité d’erreur de décision dans le mode de convergence. Ces modèles sont appliqués, dans une seconde étape, pour évaluer la précision de l’algorithme d’égalisation à retour de décision DFE tout en présentant une solution pour l’algorithme DFE adaptatif. La dernière partie de ce chapitre présente une optimisation en arithmétique virgule fixe des largeurs de données du DFE pour une implémentation sur un FPGA. Cette optimisation vise à minimiser le coût de l’architecture en termes de consommation des ressources et de puissance sous une contrainte de précision exprimée sous forme de probabilité d’erreur de décision. Le dernier chapitre de cette thèse présente des modélisations en arithmétique virgule fixe de deux algorithmes de décodage itératif. Nous présentons tout d’abord le principe du turbo décodage. Nous proposons ensuite un modèle en arithmétique virgule fixe pour ce décodeur en se basant sur des techniques de saturation et de troncature pour viser à des solutions à faible complexité. La dernière partie du chapitre est consacrée à l’évaluation expérimentale du modèle proposé à travers la mesure des performances en FER. De même, nous présentons dans la dernière partie le principe de décodage LDPC en proposant une architecture en format virgule fixe deOrganisation de la thèse 7 ce dernier. L’évaluation des performances en arithmétique virgule fixe du modèle proposé est effectuée à travers les résultats obtenus.8Chapitre 1 Arithmétique virgule fixe Sommaire 1.1 Les différents types de formats de données . . . . . . . . . . . . . . . . 10 1.1.1 Représentation des nombres entiers . . . . . . . . . . . . . . . . . . . . . 11 1.1.2 Le format virgule fixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.1.3 Le format virgule flottante . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.1.4 Comparaison arithmétiques virgule flottante et virgule fixe . . . . . . . 14 1.2 Modélisation du bruit de quantification . . . . . . . . . . . . . . . . . . 20 1.2.1 Processus de quantification . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.2.2 Signal à amplitude continue . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.2.3 Signal à amplitude discrète . . . . . . . . . . . . . . . . . . . . . . . . . 25 1.2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.3 Évaluation de la précision . . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.3.1 Les métriques de précision . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.3.2 Les méthodes d’évaluation de la précision par simulation . . . . . . . . . 29 1.3.3 Les approches analytiques de l’évaluation de la précision . . . . . . . . . 32 1.3.4 Autres effets de la quantification . . . . . . . . . . . . . . . . . . . . . . 38 1.3.5 Bilan des deux approches . . . . . . . . . . . . . . . . . . . . . . . . . . 38 1.3.6 Les approches hybrides . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 Cette partie est consacrée à la présentation des spécifications de l’arithmétique virgule fixe ainsi que des différentes techniques existantes pour évaluer la précision des systèmes virgule fixe. En effet, les arithmétiques virgule fixe et virgule flottante sont les arithmétiques binaires de données les plus utilisées sur les plates-formes informatiques modernes. La première partie de ce chapitre est consacrée à la description des différents types de codage. Les circuits en arithmétique virgule fixe ont existé depuis les premiers ordinateurs électroniques et les calculateurs. Choisir le format approprié en arithmétique virgule fixe a toujours été un sujet de préoccupation. Auparavant, ce choix était influencé principalement par des considérations liées à la puissance de calcul des processeurs mais également par des considérations sur la mémoire nécessaire en raison de la latence et du coût de celle-ci. La plupart des algorithmes numériques complexes devaient compter sur des tables précalculées durant les calculs. Aujourd’hui, la définition du format en virgule fixe d’un nombre est impactée par des considérations telles que la surface de silicium, le temps d’exécution et la consommation totale d’énergie du dispositif électronique. L’arithmétique virgule fixe répond bien à ces exigences par rapport à l’arithmétique flottante. Par contre, l’utilisation de l’arithmétique virgule fixe engendre la génération de bruits de quantification causés par les débordements lors du changement de format. Ces bruits, présentés dans la deuxième partie de ce chapitre, se propagent ensuite au sein du système global et conduisent à la modification de la qualité de l’application. Par conséquent, l’évaluation de la précision est une étape primordiale lors de la conversion de format flottant au format fixe afin de garantir l’intégrité de l’application. Il 910 Arithmétique virgule fixe est donc important de disposer de méthodologies d’évaluation de cette précision en arithmétique virgule fixe. Ce point fera l’objet de la troisième partie de ce chapitre. Il existe deux familles d’approches : l’approche d’évaluation par simulation qui est basée sur des simulations virgule fixe de l’application et l’approche d’évaluation analytique qui consiste à trouver des modèles analytiques basés sur des métriques. Nous menons ci-après une analyse des points forts de chacune de ces deux approches ce qui nous permettra de sélectionner l’approche retenue dans le cadre de ce travail. 1.1 Les différents types de formats de données Le choix d’une représentation binaire relève d’une problématique qui concerne toute plateforme numérique actuelle. Faire un choix d’une représentation ou d’une arithmétique représente une étape primordiale dans le développement d’une application numérique. Les arithmétiques virgule fixe et virgule flottante sont généralement utilisées dans un but de stockage ou de calcul. En général, les algorithmes de traitement numérique de signal demandent des capacités de calcul intensif. Par conséquent, le choix du bon format de représentation des nombres joue un rôle crucial pour une implémentation efficace de n’importe quel algorithme de traitement numérique de signal. Dans le calcul numérique, le système de numération spécifie la méthode selon laquelle les nombres sont représentés comme étant une séquence de chiffres binaires et il spécifie également les règles pour effectuer les opérations arithmétiques (ex. addition, multiplication etc.) entre ces nombres. Dans la plupart du temps, les calculs scientifiques donnent seulement une approximation de la valeur exacte qui serait obtenue avec une précision infinie. Ceci est une conséquence du nombre limité de bits utilisés dans le système de numération. Quel que soit l’arithmétique virgule fixe ou l’arithmétique virgule flottante utilisée, seulement un nombre fini de bits est utilisé pour la représentation des nombres réels. La précision limitée des standards de codage peut être évaluée selon deux perspectives diffé- rentes. La première concerne la précision des calculs déterminée par l’étape de quantification du système de numération (la distance entre deux nombres). Le second aspect est relatif à la variation de la dynamique maximale permise par la représentation. Cette variation de la dynamique d’un système de numération est donnée par l’ensemble des valeurs possibles qui peuvent être représentées. Elle est évaluée à travers le logarithme du quotient entre les amplitudes maximale et minimale du signal comme indiqué à l’équation (1.1). Par conséquent, la comparaison entre le codage en virgule flottante et en virgule fixe est fondée en particulier sur l’analyse de la précision numérique et la variation de la dynamique selon la relation : DdB = 20log10 %XMAX XMIN & . (1.1) Généralement, les algorithmes pour les systèmes embarqués sont développés en utilisant l’arithmétique virgule flottante afin d’éviter les problèmes liés à la longueur finie d’un mot de code. Ce processus valide l’intégrité de l’algorithme et vérifie si l’algorithme proposé répond bien au cahier des charges. Même si l’erreur inhérente à l’exactitude de calcul existe toujours, elle demeure faible par rapport à celle obtenue par l’arithmétique en virgule fixe. Par conséquent, le calcul en virgule flottante garantit une précision et une variation de dynamique suffisantes dans la plupart des cas. Néanmoins, la plupart des implémentations VLSI utilisent l’arithmétique en virgule fixe pour réduire la surface et la consommation d’énergie et obtenir un matériel rentable. En contrepartie, une dégradation de la précision des calculs est produite en raison du nombre limité de bits utilisés dans la représentation des données. En effet, l’utilisation du codage en virgule fixe introduit des bruits de quantification lors de l’élimination de bits à travers les opérations de saturation (arrondi) et troncature. En outre, cela conduit à l’apparition de débordements à chaque fois que la longueur du mot de code de la partie entière est insuffisante pour représenter l’ensemble de la variation de la dynamique.1.1 Les différents types de formats de données 11 Dans cette section, les différents types d’arithmétiques pour les systèmes numériques sont abordés. En premier lieu, l’arithmétique virgule flottante est introduite, ensuite, l’arithmétique virgule fixe est présentée en la comparant avec celle virgule flottante afin de montrer les avantages et les inconvénients de chacune de ces deux représentations. 1.1.1 Représentation des nombres entiers Numération simple de position Un entier p (compris entre 0 et BN − 1) est décomposé dans la base B d’une façon unique selon la formule suivante : p = N '−1 i=0 aiBi . (1.2) Les ai sont des chiffres compris entre 0 et B − 1. L’entier p est noté dans la base B de la façon suivante : (aN−1...a2a1a0)B ou tout simplement (aN−1...a2a1a0) si la base B a été prédéfinie auparavant. Ainsi la chaîne aN−1...a2a1a0 est nommée l’entier simple associé à p en base B (ESAB) selon : ESAB(aN−1...a2a1a0) = N '−1 i=0 aiBi . (1.3) Notation Signe - Valeur Absolue (SVA) La notation en numération simple d’un nombre signé correspond à la représentation de la valeur absolue de ce nombre en numération simple de position en ajoutant un symbole spécifiant le signe du nombre à représenter. L’inconvénient de cette représentation se manifeste par les opérations mathématiques effectuées sur des nombres respectant cette notation. En effet, à titre d’exemple, l’addition de deux nombres nécessite l’utilisation de deux algorithmes : un algorithme d’addition si les deux nombres possèdent le même signe et un algorithme de soustraction dans le cas contraire. Présentation en complément à la base Afin d’éviter le problème de prise en compte du signe des opérandes présent pour la notation SVA, le système de numération des entiers, en complément à la base B a été créé. Par conséquent dans le cas où B est une base paire, l’entier p = (aN−1...a2a1a0)B¯ est représenté de la façon suivante : – Si 0 ≤ p ≤ BN /2 − 1, la représentation est celle de l’équation (1.2) : ESAB(aN−1...a2a1a0) = p. – Si −BN /2 ≤ p ≤ −1, le codage est réalisé selon l’expression suivante : ESAB(aN−1...a2a1a0) = BN + p. Par conséquent, grâce à cette notation, on utilise un seul algorithme d’addition modulo BN pour réaliser l’addition de tous les entiers compris entre −BN /2 et BN /2. Si le signe du résultat de l’addition est différent de celui des opérandes, il en résulte un dépassement de capacité. Dans le cas où B = 2, cette notation est connue sous le nom de notation à complément à deux (CA2). 1.1.2 Le format virgule fixe Soit x un réel écrit sous la forme x = pK avec p un entier codé selon l’une des représentations décrites précédemment où K est appelé le facteur d’échelle. Ce facteur d’échelle est une puissance de la base B préalablement fixée : K = Bn . La position de la virgule peut alors être référencée par un entier n relativement au bit de poids faible (Least Significant Bit ou LSB) ou par un entier m relativement au bit de poids fort (Most Significant Bit ou MSB). Dans ce cas, le réel x peut se représenter selon la figure 1.1 où les deux entiers n et m représentent les distances entre la virgule et le LSB et le MSB (Most Signifiant Bit) respectivement.12 Arithmétique virgule fixe Figure 1.1 – Représentation des données en virgule fixe La figure 1.1 représente un codage en virgule fixe d’un nombre avec un bit de signe S, m bits pour la partie entière et n bits pour la partie fractionnaire. Le nombre de bits utilisés dans cette représentation est b = m + n + 1. Le format d’une donnée en virgule fixe est entièrement défini par la représentation choisie et la largeur de sa partie entière et de sa partie fractionnaire. Généralement, les nombres en arithmétique virgule fixe utilisent une représentation en complément à deux. La valeur d’un nombre est donnée par la relation suivante : x = −2mS + m '−1 i=−n bi2i . (1.4) Cette représentation possède des propriétés arithmétiques intéressantes pour les opérations d’addition et soustraction. En effet, même si les résultats intermédiaires d’une série d’additions sont en dehors du domaine de définition du codage, le résultat final sera correct si celui-ci appartient au domaine de définition du codage. De plus, l’implantation dans les processeurs numériques des opérateurs traditionnels utilisant ce code est simplifiée lorsque l’on utilise cette représentation. x = −2mS + m '−1 i=−n bi2i . (1.5) Par ailleurs, elle possède l’avantage de n’autoriser qu’une seule représentation possible pour 0. Par conséquent, le domaine des valeurs possibles n’est pas symétrique par rapport à l’origine, et il possède 2m+n valeurs négatives et 2m+n − 1 valeurs positives, soit : D = [−2m; 2m − 2−n]. (1.6) La notation en format virgule fixe est simple et permet d’effectuer les calculs rapidement. En contrepartie, comme le facteur d’échelle K est fixé, la notation en virgule fixe ne permet pas de représenter des nombres d’ordre de grandeur très différents. De plus, il n’est pas toujours facile de fixer a priori le facteur d’échelle si l’ordre de grandeur des valeurs prises par la donnée n’est pas connu par avance. La notation en virgule flottante permet de résoudre ces problèmes. 1.1.3 Le format virgule flottante Le système des nombres en virgule flottante est le standard de codage le plus utilisé lorsqu’une grande précision est requise. Il représente un nombre réel selon une notation scientifique avec une partie fractionnaire appelée mantisse et un facteur d’échelle appelé exposant, comme représenté dans la figure 1.2. L’exposant est défini comme une puissance de la base (typiquement 2 et 10) et il est utilisé comme un facteur d’échelle explicite qui change durant les calculs permettant ainsi1.1 Les différents types de formats de données 13 une dynamique large pour les valeurs représentées. La mantisse détermine la précision de nombre représenté. Figure 1.2 – Représentation des données en virgule flottante Soit x un réel signé écrit en format flottant dans la base B avec un signe S, une mantisse M et un exposant E. La valeur associée à ce réel est donnée par l’équation suivante : x = (−1)SMBE. (1.7) Comme le nombre de bits accordés à la mantisse et à l’exposant peut prendre un grand nombre de valeurs possibles, un format virgule flottante normalisé a été introduit. La norme IEEE pour l’arithmétique virgule fixe binaire (IEEE 745-2008) est utilisée dans la plupart des CPUs d’aujourd’hui. Elle spécifie le format virgule flottante et également les modes d’arrondis. Elle décrit non seulement comment les opérations arithmétiques doivent être effectuées, mais aussi le traitement des exceptions (division par zéro, les débordements,...). La valeur d’un nombre représenté selon le format virgule flottante de la norme IEEE 745 est calculée : x = (−1)S1M2E−biais. (1.8) La mantisse est normalisée pour représenter une valeur dans l’intervalle [1, 2]. Par conséquent, la valeur de son premier bit est fixée à 1 et devient implicite. La valeur de l’exposant est codée comme un nombre non signé. Alors, afin de représenter les nombres inférieurs à 1, un biais est introduit. Ce biais dépend du nombre de bits alloués à l’exposant : biais = 2Ne−1 − 1. Dans le cas d’un format de précision simple, le biais est 127 et la gamme de l’exposant est [−126, 127]. Pour la double précision, le biais est 1023 et l’exposant prend ses valeurs dans [−1022, 1023]. Il est à noter que la représentation d’un nombre n’est pas unique et les zéros à gauche de la mantisse dégradent la précision. Par exemple, considérons la base 10 avec 4 chiffres de mantisse, π peut être représenté par 0.031102 ou 3.142100. Ces deux représentations ne possèdent pas la même précision. Par conséquent, pour éviter cette ambiguïté, une représentation sans zéro à gauche est proposée et correspond à la représentation normalisée en virgule flottante. Dans ce cas, le premier bit de la mantisse représente le coefficient 1 2 et est fixé à 1. La valeur de ce bit est inchangée au cours du traitement et ne figure pas dans dans la représentation. Dans le cas où l’exposant est une puissance de deux (cas binaire), la mantisse et l’exposant sont codés avec une représentation en signe valeur absolue, la valeur de la donnée x est la suivante : x = 2u(−1)SM (1 2 + M '−1 i=1 Ci2−i−1 ) avec u = (−1)SE E '−1 i=1 di2i . (1.9) La valeur 0 n’est pas représentable selon l’équation (1.9). Par conséquent, le domaine de définition des valeurs représentables avec ce codage est l’union de deux sous-domaines donnés par l’expression suivante : DR = * − 2K; −2−K−1 +,* 2−K−1; 2K+ avec K = 2E−1 − 1. (1.10)14 Arithmétique virgule fixe L’écart minimal entre deux valeurs représentables par le code considéré détermine le pas de quantification dont la valeur varie en fonction de la valeur représentée. Pour les valeurs de x comprises dans l’intervalle [−2u, −2u−1] -[2u, 2u−1], le pas de quantification est égal à : q = 2u2−(M+1). (1.11) L’étape de quantification de la norme de codage en virgule flottante dépend de la valeur à représenter. En effet, lorsque la valeur de l’exposant augmente (respectivement diminue), la distance entre deux nombres successifs représentables devient plus importante (respectivement plus faible), i.e. le pas de quantification augmente (respectivement diminue) conformément à la relation d’ordre : 2−(M+1) < q | x | < 2−M. (1.12) Ainsi, la présence d’un facteur d’échelle explicite permet d’adapter le pas de quantification à la valeur de la donnée à coder. 1.1.4 Comparaison arithmétiques virgule flottante et virgule fixe Nous présentons dans cette section une comparaison entre le format virgule flottante et le format virgule fixe afin de mettre en évidence leurs avantages et inconvénients. Cette comparaison est fondée sur l’analyse de deux aspects. Le premier est l’aspect arithmétique et le deuxième est le coté implantation matérielle puisque l’objectif de cette thèse concerne l’évaluation de la précision et la recherche du format optimal de représentation conduisant à une implémentation matérielle efficace en termes de consommation d’énergie et de ressources. Comparaison d’un point de vue arithmétique La qualité du codage est analysée, d’un point de vue arithmétique, en évoquant la dynamique de chacun des deux codages et également le rapport signal à Bruit de quantification. Comparaison de la dynamique Une représentation efficace des nombres doit à la fois supporter une dynamique large mais également disposer d’une grande précision. En d’autres termes, la représentation d’un nombre devient plus polyvalente avec un rapport plus élevé de la dynamique et la précision. Typiquement, les deux formats virgule fixe et virgule flottante sont symétriques par rapport à leur espace des valeurs représentables. Donc, la dynamique dont l’expression est donnée par l’équation (1.1) est utilisée pour mesurer la fidélité du format. Plus la dynamique est importante, plus le débordement est faible. Dans le cas de la représentation en virgule flottante la dynamique s’exprime par l’équation (1.13) : DdB $ 20 log 10(22K+1) avec K = 2Ne−1 − 1. (1.13) Ne représente le nombre de bits accordés à l’exposant. Pour un format en simple précision où l’exposant est représenté par 8 bits, la dynamique devient : DdB = 20 log 10(2(28−1)) = 20log10(2255) $ 1535 dB. (1.14) Pour le format virgule fixe, la dynamique varie linéairement en fonction du nombre de bits, b, utilisé pour la représentation : DdB = 20log10 %XMAX XMIN & = 20log10 ( 2b−1 ) dB. (1.15) En appliquant les propriétés logarithmiques et des simplifications, la relation précédente devient : DdB = 20 (b − 1)log10(2) $ 6.02 (b − 1). (1.16)1.1 Les différents types de formats de données 15 La variation de la dynamique en fonction de la longueur du mot de code est plus importante pour les nombres en virgule flottante que pour les nombres en arithmétique virgule fixe. A titre d’exemple, dans le tableau 1.1 le format en précision simple est comparé avec différents types de représentation des données en format virgule fixe. Une différence importante entre les différents formats peut être observée. En effet, le format virgule fixe sur 128 bits possède significativement une petite dynamique par rapport à la représentation virgule flottante sur 32 bits. Format Dynamique (dB) Précision simple 1535 virgule fixe 16 bits 90 virgule fixe 32 bits 186 virgule fixe 64 bits 379 virgule fixe 128 bits 764 Table 1.1 – Comparaison de la dynamique Figure 1.3 – Comparaison de l’évolution du niveau de la dynamique pour les représentations virgule fixe et virgule flottante En comparant les équations (1.14) et (1.15), il est clair que la dynamique augmente exponentiellement pour le format virgule flottante et linéairement pour le format virgule fixe en fonction du nombre de bits accordés pour la représentation. Dans la figure 1.3, l’évolution de la dynamique en fonction du nombre de bits utilisés est présentée pour les deux formats virgule fixe et virgule flottante. Dans cet exemple, la taille de l’exposant représente le quart de la longueur totale du mot de code de la représentation. Nous pouvons observer que, lorsque la longueur d’un mot de code dépasse 16 bits, la dynamique du format virgule flottante devient plus large par rapport au format virgule fixe. Par conséquent, la représentation virgule flottante sur 32 bits peut être utilisée dans la plupart des applications sans aucun risque de débordement.16 Arithmétique virgule fixe Figure 1.4 – Effet du débordement utilisant la technique de l’enveloppe autour de la valeur Figure 1.5 – Effet du débordement utilisant la technique de saturation Le processus de codage d’un nombre en arithmétique virgule fixe correspond à une représentation d’une valeur réelle x par une autre valeur xˆ appartenant au domaine de codage. A chaque fois que le nombre réel à coder dépasse l’intervalle des valeurs permises par la norme de codage (ce qui veut dire que x /∈ * Xˆmin, Xˆmax+ ), un débordement se produit et une erreur est introduite. Il est alors nécessaire de définir une procédure de gestion de débordement afin d’être en mesure d’attribuer un mot de code dans cette situation. Deux techniques sont alors classiquement utilisées pour effectuer cette gestion du débordement. La première technique, décrite à la figure 1.4,1.1 Les différents types de formats de données 17 consiste à établir une enveloppe autour de la valeur du nombre réel à coder. Cette technique est équivalente à une arithmétique modulaire puisque toute valeur dépassant les bornes est remplacée par sa valeur modulo 2b. La deuxième méthode qui peut être appliquée est l’arithmétique de saturation. Dans ce cas, n’importe quelle valeur dépassant le domaine de codage est remplacée par le nombre représentable le plus proche (la borne maximale ou minimale). Cette technique est présentée par la figure 1.5. L’erreur introduite est plus petite que dans le cas de l’arithmétique modulaire. Cependant, à l’inverse de la technique de l’enveloppe autour de la valeur, l’implémentation de l’arithmétique de saturation nécessite une complexité matérielle plus importante et, par conséquent, son utilisation est limitée dans la pratique. Comparaison du rapport Signal à Bruit de Quantification Pour les applications de traitement numérique de signal (DSP), la précision des calculs est mesurée le plus souvent à travers le critère de Rapport Signal à Bruit de Quantification (RSBQ). Le RSBQ est défini par le rapport entre la puissance du signal (Px) et la puissance de l’erreur (Pe) due au bruit de quantification et il est généralement exprimé selon une échelle logarithmique : RSBQdB = 10log %Px Pe & = 10logE ! x2$ E [e2] . (1.17) Pour un signal x, sa puissance Px peut s’exprimer en fonction de sa dynamique linéaire Dx et du rapport Kx entre la racine carrée de la puissance Px et la dynamique Dx : Px = (KxDx) 2 . (1.18) Par conséquent, dans le cas de l’arithmétique virgule fixe, le RSBQ suit une relation linéaire en fonction de la dynamique, selon : RSBQdB = 20log(Dx) + 20log(Kx) − 10log(Pe) = DdB + 20log(Kx) − 10log(Pe) (1.19) Comme le format virgule fixe possède une quantification uniforme, le RSBQ dépend linéairement de l’amplitude du signal. Lorsque l’amplitude du signal augmente, le rapport bruit de quantification devient plus large et le RSBQ s’améliore. Considérons le cas d’un signal sinusoïdal à grande échelle avec une amplitude A = 2n. La variance du signal est : σ2 x = A2 2 . Le RSBQ devient : RSBQ = 20 log(2n .3 2 ) ≈ 1.76 + 6.02n dB. (1.20) Pour conclure, dans le cas de la représentation virgule fixe avec un signal utilisant la totalité de la dynamique disponible, chaque bit additionnel conduit à l’augmentation du RSBQ de 6 dB approximativement. Contrairement au cas de l’arithmétique virgule fixe, l’arithmétique virgule flottante possède l’avantage d’une étape de quantification proportionnelle à l’amplitude du signal. La valeur du RSBQ utilisant une échelle logarithmique est donnée par l’expression (1.21) et dépend du nombre de bits m utilisé pour la mantisse. En contre partie, le RSBQ de la représentation virgule flottante ne varie pas en fonction de l’amplitude du signal, il peut être considéré constant pour toutes les valeurs de x. RSBQ = 10 log(E ! x2$ evf ) = 10log(5.55 × 22m) ≈ 7.44 + 6.02m (1.21) Dans le tableau (1.2), une comparaison entre le RSBQ des deux formats virgule flottante et virgule fixe est présentée. Nous pouvons remarquer que, pour un même nombre de bits, l’arithmétique18 Arithmétique virgule fixe virgule fixe garantit un RSBQ plus large que celui de l’arithmétique virgule flottante si le nombre est correctement mis à l’échelle. Format RSBQ (dB) Précision simple 151 Précision double 326 virgule fixe 32 bits 194 virgule fixe 64 bits 387 Table 1.2 – Comparaison du RSBQ Comparaison pour les opérations de calcul D’après ce qui précède, il est clair que le format virgule flottante est plus performant que la représentation virgule fixe car il permet d’obtenir une dynamique suffisante et également une meilleure précision. Cependant, ce résultat est obtenu au prix d’une complexité des opérateurs arithmétiques. L’addition et la multiplication étant les deux opérations les plus génériques, nous étudions ci-après les coûts de réalisation de ces opérations. L’addition Le nombre en format virgule fixe est nativement dans le format binaire. Sous cette hypothèse, il est possible d’additionner deux nombres représentés en virgule fixe en utilisant un circuit d’entraînement de report d’addition simple après l’alignement des points binaires de deux nombres. L’effort total pour l’addition en arithmétique virgule fixe $a f ix est égal à l’effort (le coût de réalisation) de l’addition binaire $a : $ a f ix = $a. (1.22) Cependant, le format virgule flottante est avant tout un format compressé. Il est donc nécessaire tout d’abord de décompresser le nombre en virgule flottante afin d’avoir accès au signe, à l’exposant et à la mantisse. Ensuite, l’exposant doit être normalisé en comparant les bits dans la partie exposant des deux nombres et en décalant les bits de la mantisse d’une manière telle que les exposants soient égaux. Si le bit de signe est réglé, les bits de la mantisse sont convertis à leurs formes en complément à deux avant l’addition. Après l’addition, le résultat doit être converti au format complément à deux s’il est négatif. Comparativement, l’addition de deux nombres en arithmétique virgule fixe est relativement plus simple que l’addition en format virgule flottante. Soit $cmp l’effort nécessaire pour la comparaison des exposants et soit $cal l’effort demandé pour le calcul des compléments à deux des deux nombres, l’effort total pour réaliser une addition en virgule flottante $a f lt : $ a f lt = $a + $cmp + 2$cal. (1.23) Les efforts $a, $cmp et $cal sont tous de l’ordre de O (N) lorsque N est le nombre de bits accordés à la sortie de l’additionneur. Le temps pour la décompression du format virgule flottante est négligeable puisque cette opération est triviale du point de vue matériel. La multiplication La multiplication de deux nombres binaires signés au format virgule fixe nécessite l’utilisation d’un multiplicateur matériel. Le résultat de la multiplication possède davantage de bits dans son niveau de dynamique et sa précision. La position du point binaire du nombre résultant en arithmétique virgule fixe est déterminée en prenant en compte les positions du point binaire des deux nombres impliqués dans la multiplication. Habituellement, les bits les moins significatifs du résultat sont rejetés par divers modes d’arrondis ou de troncature pour obtenir le résultat final. Par la suite, l’effort total de la multiplication en format virgule fixe $m f ix est $m c’est à dire le coût correspondant à une multiplication binaire, soit : $ m f ix = $m. (1.24)1.1 Les différents types de formats de données 19 Dans le cas d’une multiplication entre des nombres représentés en virgule flottante, leurs exposants sont simplement additionnés, leurs mantisses et leurs bits de signe sont multipliés entre eux. L’effort total de la multiplication en virgule flottante $m f lt est : $ m f lt = $m + $a. (1.25) La complexité algorithmique d’une multiplication (cas virgule flottante) peut être supérieure à O(N2) et le temps pour l’addition est O(N) avec N est le nombre de bits accordés à la longueur du mot de code à la sortie du multiplicateur. Comparaison de point de vue implémentation matérielle et logicielle Chaque implémentation logicielle ou matérielle possède ses propres contraintes qui déterminent le choix de l’arithmétique la plus adaptée. Dans le cas d’une implémentation logicielle, les longueurs du mot de code sont fixées ou bien alors elles possèdent un nombre limité de représentations dans le format virgule flottante ou virgule fixe. Cependant, le format de la représentation en virgule fixe est flexible dans la mesure où le point binaire n’est pas fixe. Dans les plateformes logicielles typiques, les tailles d’un mot de code en arithmétique virgule fixe sont généralement d’un octet (8bits), moitié d’un mot (16 bits), un mot (32 bits) et aussi longue que mot double (64 bits). Les nombres en virgule flottante sont habituellement selon deux formats : soit la précision simple ou la précision double. De plus, il convient de préciser que les plateformes processeurs supportent les opérations des vecteurs de données SIMD (Single Instruction Multiple Data) [35]. De telles instructions fonctionnent sur un ensemble de données de même taille et de même type rassemblées en un bloc de données, d’une taille fixe, appelé vecteur. Il est alors possible de configurer le chemin de données selon une taille normalisée (le nombre de bits est généralement multiple de quatre ou huit) afin de contrôler plus précisément les longueurs des mots de code en arithmétique virgule fixe. L’implémentation matérielle ouvre également des horizons pour des unités en virgule flottante personnalisées [25] [27]. Dans [40], les spécifications des opérateurs en virgule flottante sont décrites en utilisant une bibliothèque C++ paramétrée d’opérateurs en virgule flottante. Il en résulte une génération automatique des implémentations optimales des opérateurs en virgule flottante dans le matériel de telle sorte que le temps de calcul est suffisamment petit pour atteindre la fréquence désirée de l’opération. L’impact du nombre de bits accordés à l’opérateur en virgule flottante sur le niveau de la dynamique et la précision de l’opération n’est pas aussi simple que dans le cas de système des nombres en virgule fixe. En définitive, il s’avère difficile de faire un choix entre le format virgule fixe et le format virgule flottante sans explorer explicitement toutes les opérations. Certaines stratégies [15] fournissent une bibliothèque paramétrable permettant de faire un choix entre les deux formats à partir de l’étude de différents compromis obtenus à partir de simulations. Dans [11] et [13], le niveau de la dynamique est considéré pour optimiser le format d’un nombre, i.e. minimiser la dynamique des calculs tout en contrôlant la précision à un niveau permettant de ne pas dépasser les coûts de la virgule flottante. Nous pouvons également remarquer que de nombreuses applications de traitement du signal sont linéaires et ces systèmes peuvent faire usage du facteur d’échelle et donc travailler avec une gamme dynamique normalisée. En outre, les applications de traitement du signal et en particulier les algorithmes de communications numériques sont conçus pour fonctionner en présence de bruit de canal dont la valeur est beaucoup plus grande par rapport au bruit de quantification introduit, même lorsqu’une quantification 16 bits est utilisée. Par conséquent, la précision requise pour la mise en œuvre de ces algorithmes n’est pas très stricte. Dans de telles circonstances, il est possible de profiter pleinement de la représentation à virgule fixe. Par conséquent, les applications de traitement numérique de signal et de communications numériques sont le domaine d’intérêt de cette thèse. Au lieu d’utiliser un arbre d’addition à virgule fixe, d’autres travaux [26] utilisent un système de représentation hybride où les nombres à additionner sont normalisés relativement au plus20 Arithmétique virgule fixe grand exposant et où l’addition à virgule fixe est utilisée pour ajouter la mantisse. Cela réduit l’effort de calcul de l’exposant à chaque fois. Une autre possibilité consiste à utiliser le format virgule fixe double. Dans ce cas, un seul bit est utilisé pour représenter l’exposant et la mantisse qui correspond à un nombre signé en virgule fixe. Une telle technique permet de réaliser un compromis entre dynamique et précision en étendant le concept de l’arithmétique virgule flottante. Une troisième alternative utilise un système de nombres en virgule flottante en bloc [24]. Dans ce cas, lorsqu’un groupe de nombres partagent un même exposant, la mantisse de ces nombres peut être différente. Cette technique a été implémentée pour des nombres en virgule flottante dans plusieurs algorithmes de traitement de signal [57] [73] dont notamment la bibliothèque DirectX pour les applications graphiques à haut niveau de dynamique. L’idée commune à toutes ces approches hybrides vise à tirer avantage de la grande plage de dynamique et la haute précision de la représentation en virgule flottante tout en conservant la flexibilité de la représentation en virgule fixe. Conclusion L’arithmétique virgule flottante présente l’avantage d’une dynamique et d’une précision supé- rieures à l’arithmétique virgule fixe. A l’opposé, l’arithmétique virgule fixe, plus flexible, possède des opérateurs moins complexes et conduit à des implémentations moins coûteuses en termes de consommation d’énergie et de ressources matérielles. Cependant, l’implantation en virgule fixe nécessite la maîtrise de la précision des calculs qui est évaluée par des méthodes de simulation ou par des méthodes analytiques que nous présenterons dans la section 1.3. Les méthodes analytiques nécessitent la modélisation des bruits de quantification, c’est pourquoi nous abordons ces notions dans la section suivante. 1.2 Modélisation du bruit de quantification La conversion de la représentation virgule flottante au format virgule fixe conduit à l’élimination de certains bits lors des calculs, ce qui engendre l’apparition de bruits de quantification. Dans cette section, la modélisation du bruit de quantification est évoquée. 1.2.1 Processus de quantification Le mécanisme d’assigner une séquence de chiffres binaires pour une représentation d’une valeur réelle (analogique) x est réalisé par le processus de quantification. L’opération de quantification est présentée dans (1.26), où la valeur du signal x est transformée en une représentation à virgule fixe notée par xˆ : x → xˆ = Q(x). (1.26) Il s’agit d’une procédure non linéaire qui génère une perte de précision puisque seulement un nombre fini de valeurs possibles peuvent être représentées. Plus précisément, lorsque b bits sont utilisés pour représenter un nombre en virgule fixe, 2b valeurs distinctes peuvent être représentées. L’erreur résultante de la différence entre la valeur réelle x et sa représentation en virgule fixe xˆ est appelée bruit de quantification : e(x) = x − x. ˆ (1.27) La résolution de la représentation, notée q, est donnée par la différence minimale entre deux valeurs consécutives représentables. Sa valeur est déterminée par la position du bit de poids le plus faible (LSB) (2−n). Deux modes de quantification sont particulièrement utilisés : la quantification par arrondi et celle par troncature.1.2 Modélisation du bruit de quantification 21 La quantification par arrondi Lorsque la quantification par arrondi est appliquée (figure 1.6), l’amplitude du signal est arrondie au niveau de quantification le plus proche. L’erreur maximale introduite est ±1 2LSB. Par conséquent, l’erreur de quantification introduite (e(x)) dans ce cas est bornée dans l’intervalle ! −q 2 , q 2 $ , soit : xˆ = Q(x) = ∆i + q 2 , ∀x ∈ ]∆i, ∆i+1] . (1.28) Figure 1.6 – Processus de quantification par arrondi La quantification par troncature La méthode de quantification par troncature (figure 1.7) consiste à choisir le niveau de quantification inférieur pour une représentation du signal. Par conséquent, l’erreur de quantification est toujours positive (e(x) ∈ ]0, q]) et un décalage est introduit. On a donc : xˆ = ∆i, ∀x ∈ ]∆i, ∆i+1] . (1.29)22 Arithmétique virgule fixe Figure 1.7 – Processus de quantification par troncature Supposons que le signal x à quantifier soit un signal aléatoire de densité de probabilité (FDP) continue px(x). La quantification de x engendre la génération d’un nouveau signal xˆ de densité de probabilité pxˆ(ˆx) discrète qui est constituée de M valeurs notées pi. Chaque pi est la probabilité que le signal x appartient à un intervalle Ii. Par conséquent, les bornes de l’intervalle Ii sont liées au mode de quantification utilisé (par arrondi ou par troncature). Les valeurs pi sont déterminées par : pi = / Ii px(x)dx. (1.30) Les valeurs discrètes pi sont séparées par le pas de quantification q. Par conséquent la fonction densité de probabilité (FDP) du signal xˆ est : pxˆ(ˆx) = ' M i=1 piδ(ˆx − iq). (1.31) Dans [93], Widrow a montré que lorsque la fonction caractéristique du signal d’entrée x, i.e. la transformée de Fourier de px(x), est nulle alors le signal xˆ peut être modélisé par les deux variables aléatoires (x, e) de densités de probabilité px(x) et pe(e). Par conséquent, le processus de quantification peut être modélisé par l’introduction d’un bruit additif. La sortie du quantificateur est alors égale à la somme du signal d’entrée x et de l’erreur de quantification comme représenté sur la figure 1.8.1.2 Modélisation du bruit de quantification 23 Figure 1.8 – Modélisation de bruit de quantification additif Nous étudierons, dans ce qui suit, plus en détail le bruit de quantification e en différenciant le cas d’un signal d’entrée à amplitude discrète ou à amplitude continue. 1.2.2 Signal à amplitude continue Soit x un signal à amplitude continue avec une FDP continue. Les différents intervalles Ii sont déterminés selon le mode de quantification choisi (arrondi ou troncature). Cas du mode quantification par troncature Dans ce cas, l’intervalle Ii est l’intervalle entre deux valeurs représentables par le codage : Ii = [xi, xi+1[. (1.32) Comme vu précédemment, e(x) ∈ [0, q[. Sa FDP est rectangulaire (figure 1.9), elle est donnée par l’équation : pe(e) = 1 q rect( e − q 2 q ). (1.33) Figure 1.9 – Densité de probabilité de la loi de troncature continue Dans ce cas, la moyenne, la variance et la puissance du bruit de quantification e sont données par les équations suivantes : µe = / ∞ −∞ e pE(e) de = / q 0 1 q e de = q 2 . (1.34)24 Arithmétique virgule fixe σ2 e = / ∞ −∞ (e − µe) 2 pE(e)de = / q 0 1 q ( e − q 2 )2 de = q2 12. (1.35) E(e2) = µ2 e + σ2 e = q2 3 . (1.36) Cas du mode quantification par arrondi Dans ce mode de quantification, l’intervalle Ii et la FDP du bruit de quantification e (figure 1.10) sont définis par : Ii =]pi − q 2 , pi + q 2 [ (1.37) pe(e) = 1 q rect( e q ) (1.38) Figure 1.10 – Densité de probabilité de la loi d’arrondi continu La variance et la moyenne de e s’expriment selon : µe = / ∞ −∞ e p(e)de = / q/2 −q/2 1 q e de = 0 (1.39) σ2 e = / ∞ −∞ (e − µe) 2 p(e)de = / q/2 −q/2 e2 q de = q2 12. (1.40) Sa puissance est alors seulement égale à sa variance de valeur q2 12 . Statistiques du bruit de quantification Auto-corrélation du bruit de quantification e Dans cette section, une étude de la corrélation entre deux bruits est présentée. Nous considérons deux variables aléatoires e1 et e2. La FDP conjointe des deux bruits est définie dans [96] par : pe1,e2 (e1, e2) = rect( e1 q )rect( e2 q )[px1,x2 (x1, x2) ∗ (f(e1).f(e2))] (1.41) où * désigne le produit de convolution. Dans [96], il a été montré que la FDP conjointe s’écrit : pe1,e2 (e1, e2) = 1 q rect( e1 q ) 1 q rect( e2 q ) = pe1 (e1)pe2 (e2). (1.42)1.2 Modélisation du bruit de quantification 25 Par conséquent, la FDP conjointe est décomposée en un produit des FDP des deux bruits indépendants. De plus, en supposant les processus aléatoires stationnaires, la fonction d’auto-corrélation Ree(θ) à un instant θ est définie par l’expression suivante : Ree(θ) = σ2 e δ(θ) + µ2 e. (1.43) avec δ distribution de Dirac. L’erreur de quantification est donc un bruit blanc. Pour une valeur nulle de θ, la puissance est retrouvée. Corrélation avec le signal Le moment d’ordre 2 du signal quantifié xˆ est étudié. Puisque xˆ = x + e, le moment d’ordre 2 est : E(ˆx2) = E(x2) + E(e2)+2E(xe). (1.44) D’autre part, le moment d’ordre 2 est la dérivée seconde de la fonction caractéristique à l’origine. Par conséquent la dérivée seconde de la fonction caractéristique de xˆ donne une nouvelle expression de la corrélation entre x et e, suivant : E(xe) = '∞ i=−∞ qΦ(−i 2π q ) (−1)i πi . (1.45) Donc si Φ(−i 2π q )=0 quelle que soit la valeur de i, l’erreur de quantification n’est pas corrélée au signal. Cette condition est vérifiée dès que le pas de quantification q est inférieur à l’écart-type du signal [96]. Dans le cas contraire, le bruit généré a une puissance supérieure à celle du signal et le bon fonctionnement du système n’est plus assuré. Conclusion Pour conclure, nous pouvons retenir que le bruit généré par la quantification d’un signal à amplitude continue est un bruit blanc, additif, non corrélé avec le signal et indépendant des autres signaux. De plus, sa distribution est uniforme sur son espace de représentation. 1.2.3 Signal à amplitude discrète Nous nous intéressons dans cette section à l’étude d’un signal à amplitude discrète dont la quantification est effectuée par élimination de plusieurs bits d’une donnée. Cette conversion conduit à la génération d’un bruit à amplitude discrète. Les caractéristiques de ce bruit diffèrent selon le mode de quantification considéré. Loi de quantification par troncature L’implantation de cette loi est très simple puisque seulement les bits les plus significatifs sont conservés. La figure 1.11 représente la distribution du bruit où k représente le nombre de bits éliminés.Un modèle fondé sur une équiprobabilité entre les valeurs 0 et 1 est présenté dans [31]. La moyenne et la variance de e sont données par les équations suivantes : µe = q 2 (1 − 2−k) (1.46) σ2 e = q2 12(1 − 2−2k). (1.47)26 Arithmétique virgule fixe Figure 1.11 – Densité de probabilité de la loi de troncature discrète Loi de quantification par arrondi Dans le cas où l’amplitude de signal est discrète, le domaine de représentation n’est pas centré sur 0. Par conséquent, le problème consiste à déterminer la valeur à affecter à une donnée sur la médiane d’un intervalle de représentation pi + q 2 . Cette valeur est fixée à la valeur supérieure représentable pi+1. Par conséquent, ce choix conduit à une moyenne non nulle de l’erreur et un biais plus faible que dans le mode de quantification par troncature. Le signal quantifié xˆ est donné par l’expression suivante : y = Q(x) =    pl si pl ≤ x 0 = [axmax, axmin] si a < 0. (1.62) Cette technique comporte une limitation importante liée à l’estimation pessimiste faite de l’intervalle de définition des données qui devient parfois très large car le résultat fourni est celui du pire cas puisque cette arithmétique ne prend pas en compte les corrélations entre les données. De plus, cette méthode ne s’applique que lorsque la sortie ne dépend que des valeurs d’entrée. Arithmétiques Affines (AA) L’arithmétique affine a été proposée dans [36] afin de s’affranchir des inconvénients de l’arithmétique d’intervalles, et particulièrement de la non prise en considération de la corrélation entre les données. Soit x une donnée décomposée de la façon suivante : x = x0 + 'n i=1 $ixi avec $i ∈ [−1, 1]. (1.63) Les symboles $i sont indépendants et représentent les coordonnées de x sur les composantes xi qui sont les bornes de x. Par conséquent, x0 est la moyenne des valeurs possibles prises par x. Le qualificatif affine vient du fait du développement d’une forme affine en fonction des symboles $i, lors de la propagation des intervalles de définition dans les opérations. L’intérêt de cette méthode est la prise en compte de la corrélation entre les différentes données. Soient x et y deux données décomposées de la façon suivante : x = x0 + 'n i=1 $ixi, (1.64)1.3 Évaluation de la précision 35 y = y0 + 'n i=1 $iyi. (1.65) Pour la somme de ces deux données, c’est une fonction affine des symboles $i : x + y = x0 + y0 + 'n i=1 $i(xi + yi). (1.66) En ce qui concerne l’opération de la multiplication, l’opération xy n’est plus une fonction affine car elle s’écrit selon : xy = x0y0 + 'n i=1 (x0yi + y0xi)$i + 'n i=1 xi$i 'n j=1 yj $j . (1.67) Afin de rendre l’opération sous une forme affine, une majoration du dernier terme de l’équation précédente est introduite par l’introduction de zn+1 tel que : zn+1 > 'n i=1 |xi| 'n j=1 |yj |. (1.68) Par conséquent la multiplication de x par y introduit le symbole $n+1 qui est le facteur associé à zn+1 et s’écrit sous cette forme : x + y = x0y0 + 'n i=1 (x0yi + y0xi)$i + zn+1$n+1. (1.69) Cette arithmétique fournit un intervalle plus fin que celui donné par l’arithmétique d’intervalles puisqu’elle utilise les corrélations spatiales entre les données. Cependant, cette technique produit parfois un intervalle trop lâche car elle ne tient pas compte des corrélations temporelles. Elle peut donc être limitée pour des applications de traitement du signal où les données sont temporellement corrélées (par exemple, les filtres FIR). Méthode basée sur la théorie de la perturbation Wadekar propose dans [91] une approche analytique pour évaluer les bornes de l’erreur de quantification basée sur un développement de Taylor d’ordre 2 de l’erreur en sortie. Soit un opérateur à deux entrées u et v et δu et δv les erreurs au pire cas sur ces données. La fonction de sortie de cet opérateur est f(u, v). L’erreur en sortie s’écrit comme suit : δf = ∂f ∂u(δu) + ∂f ∂v (δv) + 1 2! : ∂2f ∂u2 (δu) 2 + 2 ∂2f ∂u∂v (δuδv) + ∂2f ∂v2 (δv) 2 ; . (1.70) Cette approche, basée sur la propagation des bruits au sein du système, s’applique aussi bien sur des systèmes LTI que non-LTI. Cependant, elle ne peut être appliquée dans le cas de systèmes récursifs ainsi que celui des systèmes itératifs composés d’opérateurs non lisses et non linéaires en termes de bruit. Approches analytique de la puissance de bruit Le bruit engendré par la quantification d’un signal est donné par le modèle PQN. Les contributions du bruit causé par une quantification grossière des signaux déjà quantifiés suivent aussi les dynamiques du théorème de quantification. La puissance de quantification est calculée comme une fonction des moments de premier ordre et du second ordre du signal d’erreur de quantification. L’amplitude du bruit de quantification injecté dans le système par différentes opérations en arithmétique virgule fixe est déterminée selon le format virgule fixe choisi ainsi que le mode de quantification. Si le format virgule fixe est suffisamment large, aucun bruit de quantification est injecté.36 Arithmétique virgule fixe Propagation du bruit et théorie de la perturbation Le changement infinitésimal, créé en sortie du système en raison des calculs en arithmétique virgule fixe, n’affecte pas le comportement macroscopique total du système. L’application de la théorie de perturbation est essentiellement une alternative pour estimer approximativement l’impact de la quantification sous certaines circonstances. Les erreurs causées par le calcul avec des opérateurs en arithmétique virgule fixe sont des petites perturbations dont l’effet sur la sortie peut être maîtrisé avec un bon degré de précision à l’aide de techniques d’approximation linéaire. En effet, cette approximation introduit une tolérance envers les erreurs de quantification pour une application et pose la question de la petite taille du pas de quantification qui devrait être choisi pour être classifiée comme lisse (smooth). Mention contraire, on peut supposer que les quantificateurs sont lisses. En outre, l’opérateur luimême peut être considéré comme lisse ou non lisse en fonction de son comportement fonctionnel. Une opération est considérée comme lisse si la sortie est une fonction continue et différentiable de ses entrées. La technique de propagation du bruit basée sur la théorie des perturbations, tel que présenté dans la présente section, est applicable seulement aux systèmes comprenant des opérateurs lisses et quantificateurs lisses. Figure 1.17 – Propagation du bruit de quantification vers la sortie du système Considérons un opérateur binaire dont les entrées sont x et y et la sortie est z. Si les signaux d’entrée sont perturbés par les bruits bx et by pour obtenir respectivement xˆ et yˆ, la sortie est perturbée par bz pour obtenir zˆ. En d’autres termes, tant que l’opérateur en virgule fixe est lisse, l’impact de petites perturbations à l’entrée se traduit par une perturbation en sortie de l’opérateur sans aucune modification de son comportement macroscopique. Selon la théorie des perturbations, le bruit en sortie bz est une combinaison linéaire des bruits en entrée bx et by : bz = v1bx + v2by. (1.71) Dans ce cas, l’hypothèse sous-jacente est que les termes de bruit bx et by ne soient pas corrélés entre eux, ni avec les signaux d’entrée. Cette hypothèse découle de l’hypothèse suivante relative au modèle PQN de génération du bruit de quantification : le bruit de quantification est indépendant du signal. Les termes v1 et v2 sont obtenus à partir de l’approximation de Taylor du premier ordre de la fonction continue et différentiable f : z = f(x, y) $ f(x, y) + ∂f ∂x(x, y).(x − x) + ∂f ∂y (x, y).(y − y). (1.72) Par conséquent, les termes v1 et v2 sont donnés par : v1 = ∂f ∂x(x, y) v2 = ∂f ∂y (x, y). (1.73) Les termes v1 et v2 peuvent varier dans le temps. De plus, cette méthode n’est pas limitée uniquement aux opérations mais elle peut être appliquée au niveau fonctionnel sur tous les opé-1.3 Évaluation de la précision 37 rateurs appartenant à un même chemin de données et ainsi propager le bruit de quantification de la source jusqu’à la sortie. Soit y, le signal en sortie du système, le bruit correspondant by causé par la quantification est obtenu par la somme de la contribution individuelle des sources de bruit dans le système comme montré dans la figure 1.17. Si hi(n) représente la réponse impulsionnelle du chemin entre la i ème source de bruit et la sortie du système, la contribution de la source de bruit by est calculée par la somme de produits de convolution de la source de bruit et de la réponse impulsionnelle. Considérons un système comportant, à son entrée, N sources de bruit bi, i = 1, ..., N. Il existe alors N chemins indépendants entre chaque source de bruit présente en entrée et la sortie du système. La contribution de la source de bruit bi peut alors être calculée en prenant en compte la réponse impulsionnelle hi(k), k = 0, 1, ... du chemin entre la i ème source de bruit et la sortie du système. Le bruit global en sortie by s’exprime alors comme la somme des N produits de convolution individuels. Dans le cas où les réponses impulsionnelles varient dans le temps, il est donné par : by = ' N i=1 '∞ k=−∞ hi(k, n)bi(n − k) (1.74) où hi(k, n) représente le kième coefficient de la réponse impulsionnelle mesurée à l’instant n. La puissance du bruit en sortie est obtenue comme le moment du second ordre du bruit à la sortie du système et elle est donnée par : E[b2 y] = E([' Ne i=1 '∞ k=−∞ hi(k, n)bi(n − k))2] = ' Ne i=1 '∞ k=−∞ E[h2 i(k, n)]E[bi(n − k) 2] + ' Ne i=1 ' Ne j=1,j&=i '∞ k=−∞ '∞ l=−∞,l&=k E[hi(k, n)hj (l, n)]E[bi(n − k)bj (n − l)]. (1.75) L’expression précédente peut se mettre sous la forme d’une somme des paramètres statistiques de la source du bruit comme suit : E[b2 y] = ' Ne i=1 Kiσ2 bi + ' Ne i=1 ' Ne j=1,j&=i Lijµbiµbj (1.76) où µbi et σbi désignent respectivement la valeur moyenne et la variance du bruit présent à l’entrée numéro i. Les termes Ki et Lij sont constants et dépendent de la réponse impulsionnelle hi associée au chemin n˚i. Cette approche supporte les systèmes récursifs et non récursifs dans le cas des systèmes LTI (Linear-Time Invariant) et non-LTI. L’expression de ces coefficients est : Ki = '∞ k=−∞ E[h2 i(k)], (1.77) Lij = '∞ k=−∞ '∞ l=−∞ E[hi(k)hj (l)]. (1.78) Afin de déterminer les différentes réponses impulsionnelles caractérisant les relations entrées/sortie, le graphe flot de données est partitionné en plusieurs sous-graphes acycliques à des fins d’analyse. En utilisant le modèle de propagation, les fonctions des chemins de ces sous graphes sont déterminées dans le domaine de la transformée en Z. La fonction individuelle de chemin de chaque source de bruit jusqu’à la sortie est obtenue à l’aide de la combinaison des fonctions de ces sous-graphes par substitution de variable. Une autre technique basée sur l’arithmétique affine est proposée dans [54][44] respectivement pour les systèmes LTI et non-LTI. Cette technique consiste à définir une forme affine pour chaque38 Arithmétique virgule fixe source de bruit dans le système en prenant en compte sa valeur moyenne et sa variance. Profitant de l’avantage du modèle de propagation linéaire, les formes affines de bruit sont propagées à travers le système par simulations. Les valeurs de Ki et Lij sont obtenues par l’estimation des formes affines à partir de l’expression du bruit en sortie. Dans le cas d’un systèmes récursif, cette opération est répétée plusieurs fois jusqu’à obtenir convergence de la forme affine caractérisant le bruit en sortie. Dans [85], les coefficients de l’expression de la puissance de bruit en sortie dans l’équation (1.76) sont obtenus à partir du développement au second ordre de la différence entre les expressions du bruit en arithmétique virgule fixe et en arithmétique virgule flottante. Dans ce cas, les coefficients de Taylor sont directement liés aux coefficients Li et Kij présentés précédemment. Ils sont obtenus en résolvant un système d’équations linéaires en effectuant le minimum de simulations en virgule fixe ainsi qu’une seule simulation en virgule flottante. 1.3.4 Autres effets de la quantification Nous avons jusqu’à présent concentré notre analyse sur l’erreur de quantification engendrée par la représentation en arithmétique virgule fixe des données présentes en entrée d’un opérateur. Cependant, l’opération de quantification en arithmétique virgule fixe peut également modifier le comportement global d’un système notamment lorsque l’opération de quantification porte sur les paramètres décrivant ce système. Certains changements peuvent ainsi être particulièrement importants puisqu’ils peuvent affecter la stabilité du système dans certains cas. Ces effets sont étudiés essentiellement selon deux catégories. La première catégorie est l’impact de la quantification des paramètres du système. Dans [55], l’effet de la quantification des coefficients sur les bornes de l’intervalle du signal en sortie est déterminé. A partir des outils d’analyse de l’arithmétique d’intervalles et de l’arithmétique affine, il est ainsi démontré que, dans certains cas, la quantification des coefficients d’un système peut engendrer, en sortie du système, un bruit dont la puissance est plus importante que celle obtenue lors de la quantification des données présentes à l’entrée du système. L’effet de la quantification d’un coefficient sur la sensibilité d’un système global est également étudié dans le domaine de la transformée en z et celui de la transformée de Fourier par les auteurs de [45] et [87]. Enfin, signalons également l’approche proposée dans [51] permettant d’évaluer cette sensibilité à partir d’une technique relativement simple basée sur la simulation. L’effet non linéaire engendré par le processus de quantification peut également jouer un rôle fondamental dans le cas où le système comporte des boucles récursives. Cette situation constitue le cadre principal de ce travail de thèse, et plus particulièrement celui obtenu lorsque ces boucles sont constituées d’opérateurs non lisses tels que les opérateurs de décision. Ainsi, sous certaines conditions, des oscillations peuvent apparaître en sortie du système [71], [86]. Il est alors important de pouvoir détecter l’apparition de cycles limites engendrés par l’opération de quantification. D’autres travaux , e.g. [20], [21], et [90], précisent les conditions garantissant la stabilité asymptotique d’un système. Ces études sont essentiellement basées sur des approches par simulations en raison de la difficulté mathématique rencontrée pour obtenir des expressions analytiques. Aussi, afin de limiter le temps requis pour réaliser ces simulations de façon exhaustive [56], d’autres travaux [53] ont permis d’accélérer l’étape de simulation en utilisant conjointement des techniques d’analyse basées sur l’arithmétique affine. 1.3.5 Bilan des deux approches En premier lieu, les techniques statistiques par simulations en virgule fixe sont particulièrement intéressantes en raison de leur simplicité de réalisation mais également puisqu’elles s’appliquent directement à n’importe quel type de système (linéaire, non linéaire, bouclé, ...). Malheureusement, afin d’obtenir des résultats statistiquement significatifs, il est nécessaire de réaliser ces simulations sur un nombre important de données en entrée (Monte Carlo) ce qui conduit rapi-1.3 Évaluation de la précision 39 dement à des temps de simulation prohibitifs, et plus particulièrement lorsqu’il est nécessaire de balayer l’espace complet des formats en virgule fixe. L’autre approche est l’approche d’évaluation basée sur les modèles analytiques pour évaluer mathématiquement une métrique de précision. Cette approche est basée sur l’évaluation du comportement de bruit par le biais d’une expression mathématique dont le calcul n’est effectué qu’une seule fois. Une fois cette expression analytique disponible, les paramètres statistiques décrivant le bruit s’obtiennent directement et en une seule fois. Par conséquent le temps nécessaire pour l’évaluation de la précision est relativement limité puisqu’il correspond au coût de l’évaluation de cette expression analytique. Ce temps est donc nettement plus faible que celui requis par les approches basées sur la simulation en virgule fixe (cf. figure 1.18). Cependant, l’obtention d’une expression analytique décrivant les propriétés statistiques du bruit de quantification peut se révéler difficile pour certains types de systèmes notamment ceux possédant des opérateurs non lisses. Figure 1.18 – Les temps d’optimisation des deux approches en fonction de nombre d’évaluation 1.3.6 Les approches hybrides Afin d’accélérer les temps d’optimisation, des approches hybrides basées conjointement sur des modèles analytiques et sur des simulations ont été proposées [75]. Ces approches consistent à utiliser des modèles analytiques afin de décrire les éléments du système comportant des opérateurs élémentaires tels que additions, multiplications,..., mais également à utiliser la simulation pour évaluer le comportement d’opérateurs complexes tels que les opérateurs non lisses (un-smooth). Une étape d’évaluation sélective partitionne tout d’abord l’ensemble du système en plusieurs grappes d’opérateurs lisses séparées par des opérateurs non lisses. Pour chaque grappe d’opérateurs lisses, un modèle de sources de bruits est dérivé afin d’analyser l’effet des opérations de quantification, puis ces valeurs sont propagées à travers le système jusqu’à ce qu’un opérateur non lisse soit rencontré. Dans cette approche hybride, les grappes d’opérateurs lisses sont évaluées par le biais d’une approche analytique et les opérateurs non lisses sont évalués par le biais de simulations. Une telle approche permet d’utiliser pleinement les modèles analytiques pour estimer le comportement des blocs lisses, soit donc de bénéficier au maximum de leurs avantages.40 Arithmétique virgule fixe 1.4 Conclusion Nous avons vu dans ce chapitre les différentes types de codage de données et en particulier celui relatif à l’arithmétique en virgule fixe. Cette arithmétique possède d’immenses avantages pratiques essentiellement pour les applications de traitement numérique de signal. Cependant, elle conduit à la génération de bruit de quantification qui se propage au sein de l’application et modifient la précision des calculs. Ainsi, l’évaluation de la précision en virgule fixe est une étape primordiale dans la conception des systèmes en virgule fixe. Afin d’évaluer cette précision, deux approches fondamentales ont été présentées : l’approche par simulation et l’approche analytique. Cette dernière est basée sur l’évaluation d’une métrique de précision par le biais d’une expression mathématique ce qui permet de réduire le temps d’optimisation par rapport à celui requis par l’approche par simulation qui devient prohibitif lorsqu’il s’agit de balayer l’espace des formats en virgule fixe. Les techniques d’évaluation de la précision par les modèles analytiques restent cependant limitées à des systèmes comportant des opérateurs lisses. Par conséquent, il est in- évitable d’utiliser les techniques basées sur la simulation pour certaines applications (ou parties d’application) comportant des opérateurs non lisses (un-smooth operators). Une approche hybride basée sur la combinaison des deux approches pour les applications comportant des opérateurs non lisses a été proposée dans [75]. Toujours dans l’optique de l’amélioration des temps d’optimisation, nous proposons dans le prochain chapitre, une approche purement analytique d’évaluation de la précision pour les opérateurs non lisses qui sera appliquée à l’évaluation de la précision en virgule fixe des algorithmes de décodage sphérique tel que le SSFE (Selective Spanning with Fast Enumeration) composé d’opérateurs lisses et d’opérateurs non lisses (opérateurs de décision).Chapitre 2 Évaluation analytique de la précision des algorithmes de décodage sphérique Sommaire 2.1 Les opérateurs lisses et non lisses . . . . . . . . . . . . . . . . . . . . . . 42 2.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.1.2 Les opérateurs lisses et non-lisses . . . . . . . . . . . . . . . . . . . . . . 43 2.1.3 La quantification d’un opérateur non lisse . . . . . . . . . . . . . . . . . 44 2.1.4 Identification d’un opérateur non lisse . . . . . . . . . . . . . . . . . . . 44 2.2 Modèle analytique pour l’opérateur de décision . . . . . . . . . . . . . 47 2.2.1 Modélisation de l’opérateur de décision . . . . . . . . . . . . . . . . . . 47 2.2.2 La réponse à la perturbation . . . . . . . . . . . . . . . . . . . . . . . . 49 2.2.3 La probabilité d’erreur de décision . . . . . . . . . . . . . . . . . . . . . 50 2.3 Cascade d’opérateurs de décision . . . . . . . . . . . . . . . . . . . . . . 54 2.3.1 Propagation de l’erreur de quantification . . . . . . . . . . . . . . . . . . 55 2.3.2 Détermination analytique de la probabilité d’erreur en sortie de la cascade 56 2.3.3 Analyse de la complexité du modèle analytique . . . . . . . . . . . . . . 59 2.4 Application du modèle à l’algorithme SSFE . . . . . . . . . . . . . . . 60 2.4.1 Modèle du système MIMO . . . . . . . . . . . . . . . . . . . . . . . . . 61 2.4.2 Présentation de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . 62 2.4.3 Application du modèle analytique proposé . . . . . . . . . . . . . . . . . 64 2.4.4 Première approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Par rapport à la précision infinie, l’utilisation d’opérations en virgule fixe introduit un bruit de quantification qui modifie la valeur des nombres. Les erreurs de quantification dont les caracté- ristiques ne peuvent pas être déterminées par le modèle PQN sont classées comme des erreurs non lisses (un-smooth). En effet, ce modèle fonctionne correctement tant que le pas de quantification reste faible devant la dynamique du signal comme dans le cas des opérations en arithmétique virgule fixe. Dans le cas des opérateurs non lisses, les erreurs de quantification sont très grandes et souvent comparables à la dynamique du signal quantifié. Dans ce cas, les hypothèses de validité du modèle PQN ne sont plus vérifiées et donc le signal quantifié sera éloigné de la valeur vraie. Un modèle analytique visant à prédire les statistiques de l’erreur à la sortie d’un opérateur non lisse nécessite la connaissance du signal en entrée et les caractéristiques du bruit de quantification associé. De plus, en présence de plusieurs opérateurs non lisses, les caractéristiques de l’erreur de quantification ne sont pas uniquement corrélées avec le signal, mais aussi avec les autres erreurs issues des opérateurs non lisses précédents. Il convient de préciser que dans le cas des 4142 Évaluation analytique de la précision des algorithmes de décodage sphérique opérateurs non lisses, il n’existe pas de modèle analytique permettant d’évaluer leurs précisions en arithmétique virgule fixe. L’objectif de ce chapitre est de proposer un modèle analytique pour évaluer la précision de l’algorithme de décodage sphérique SSFE. Nous commençons par proposer, dans la première section, une étude des différents types d’opérateurs. Nous présentons dans la seconde partie un modèle analytique pour évaluer la précision d’un opérateur non lisse correspondant à l’opérateur de décision en se basant sur la probabilité d’erreur de décision causée par la quantification. La troisième partie du chapitre est consacrée à l’extension de cette méthode au cas d’une cascade d’opérateurs de décision. Enfin, le modèle analytique proposé sera appliqué, dans la dernière partie du chapitre, à l’algorithme de décodage sphérique SSFE. 2.1 Les opérateurs lisses et non lisses Dans cette section, nous présentons les différents types d’opérateurs présents dans les systèmes numériques en faisant la distinction entre opérateurs lisses et non lisses. 2.1.1 Introduction Généralement, les signaux présents en entrées d’un système numérique peuvent être considérés comme des processus aléatoires à temps discret [76], [84]. En revanche, les opérateurs présents dans un système peuvent souvent être traités comme des opérations déterministes qui produisent des processus aléatoires sur leurs sorties sous un environnement de signaux stochastiques [83]. A un instant donné t, chaque signal en entrée, en interne, ou en sortie, est considéré comme une variable aléatoire prenant ses valeurs dans un ensemble de réalisations qui lui est propre (possiblement différent de celui des autres entrées). Chacune de ces variables aléatoires possède une densité de probabilité pouvant varier au cours du temps. Dans ce cas, les signaux sont qualifiés de processus aléatoires non-stationnaires. Dans la réalité, un opérateur O possède un nombre fini K d’entrées représentées par un vecteur (x1, x2, ..., xK)t à l’instant t. Ce vecteur est traité comme un vecteur dont les composantes sont des variables aléatoires, possiblement non stationnaires. Par opérateur, nous entendons par exemple un simple additionneur ou bien, à l’extrême, un système complexe tel qu’un système de communication. Les entrées peuvent être des entrées classiques en chemin de données comme les entrées d’un additionneur, ou bien des entrées constantes comme les coefficients constants d’un filtre LTI ou des paramètres de mise à jour adaptatifs. A l’instant t, une réalisation d’ensemble du vecteur aléatoire (x1, x2, ..., xK)t devient un vecteur régulier appartenant à un domaine Ωt qui consiste en l’ensemble global de réalisations possibles à l’instant t. Dans le cas où des signaux booléens Vrai et Faux sont traités comme des nombres réels tel que 0 et 1 respectivement, Ωt est un sous ensemble de l’espace Euclidien RK de dimension K. Le vecteur aléatoire (x1, x2, ..., xK)t est considéré dans le domaine Ωt : (x1, x2, ..., xK)t ∈ Ωt. (2.1) Soit t>t1 > t2 > ... > 0 et supposons que le système commence à fonctionner à partir de l’instant t=0. A un instant t quelconque, la sortie d’un opérateur causal O dépend de toutes les entrées actuelles et précédentes {(x1, x2, ..., xK)t,(x1, x2, ..., xK)t1 , ...,(x1, x2, ..., xK)tN , ...,(x1, x2, ..., xK)0} et possiblement d’un état interne d’initialisation. Dans un système à échantillonnage régulier, l’instant ti correspond simplement à t − i. Les variables internes décrivant l’état initial sont traitées comme des entrées additionnelles apportées au système par des additionneurs à l’instant 0. Par soucis de concision, nous ne tiendrons pas compte de cet état interne d’initialisation. La sortie de O est donnée par fO(x1, x2, ..., xK, t) où fO est la fonction de transfert de O pouvant s’exprimer par : fO(x1, x2, ..., xK, t) = ΦO,t ((x1, x2, ..., xK)t,(x1, x2, ..., xK)t1 , ...,(x1, x2, ..., xK)0). (2.2)2.1 Les opérateurs lisses et non lisses 43 La fonctionnalité de O à l’instant t est uniquement exprimée par la fonction ΦO,t considérée comme la fonction de transfert instantanée de O à l’instant t. Dans ce cas le vecteur aléatoire des entrées de dimension K×(N+2) {(x1, x2, ..., xK)t,(x1, x2, ..., xK)t1 , ...,(x1, x2, ..., xK)tN ,(x1, x2, ..., xK)0} est désigné par le vecteur {ξ1, ξ2, ..., ξM} comme suit : ξ1 = x1(t), ξ2 = x2(t), ..., ξK = xK(t), ξK+1 = x1(t1), ξK+2 = x2(t1), ..., ξ2K = xK(t1), ... ξM−K+1 = x1(0), ξM−K+2 = x2(0), ..., ξM = xK(0). (2.3) avec M = K × (N + 2). Les quantités (ξ1, ξ2, ..., ξM) sont appelées les variables étendues de (x1, x2, ..., xK) à l’instant t par rapport à l’opérateur O. Par conséquent la sortie de l’opérateur O à l’instant t est réduite à : fO(x1, x2, ..., xK, t) = ΦO,t(ξ1, ξ2, ..., ξM). (2.4) En utilisant la relation (2.4), une valeur numérique de la sortie est disponible seulement avec une réalisation d’ensemble de vecteur aléatoire (ξ1, ξ2, ..., ξM). Les variables étendues correspondent également à un domaine étendu : (ξ1, ξ2, ..., ξM) ∈ Ωt × Ωt1 × ... × Ω0. (2.5) Il est important de noter que fO est une fonction déterministe. Lorsqu’un système est désigné physiquement, une fonction déterministe est souvent exécutée pour traiter certaines entrées aléatoires. Ceci est généralement accepté dans la modélisation des systèmes de traitement numérique de signal. Des exemples d’opérateurs (additionneur, multiplexeur, ...) sont manipulés selon cette modélisation dans [83]. En résumé, tous les facteurs aléatoires caractérisant la sortie d’un opérateur sont introduits par ses entrées aléatoires, alors que la fonction de transfert ΦO,t est une fonction déterministe connue (comme une fonction du temps t). 2.1.2 Les opérateurs lisses et non-lisses Le concept du caractère lisse d’un opérateur est à la base de la théorie des perturbations. Comme défini dans [83], une fonction déterministe ΦO,t est considérée comme lisse sur les signaux quantifiés si elle est continue et dérivable de n’importe quel degré sur un ensemble ouvert dans lequel les signaux arithmétiques font partie, quelles que soient les réalisations des signaux logiques.L’opération O est appelée lisse sur ses entrées arithmétiques, ou brièvement lisse. Dans [83], il a été montré que la dérivabilité de degré 3 est toujours suffisante afin de modéliser les effets de quantifications. Nous pouvons remarquer que le caractère lisse ou non lisse d’un opérateur n’a pas de sens lorsque ses entrées correspondent à des signaux logiques. En revanche, des opérateurs de base tels que additionneurs ou multiplieurs sont lisses. Considérons, par exemple, l’opérateur I inverseur dont la fonction de transfert est donnée par : fI (x, t) = ΦI,t(ξ1, ..., ξM)=1/ξ1. (2.6) Où ξ1 est un signal arithmétique. Il est clair que ΦI,t est lisse si ses entrées appartiennent à ] − ∞, 0[∩]0, +∞[. Par conséquent, cette fonction est lisse sur ce domaine et elle est considérée comme non lisse dans R puisqu’elle n’est plus de classe C1. De même, l’opérateur valeur absolue est lisse sur le même domaine mais pas sur R puisqu’elle n’est pas de classe C1. En fait, la plupart des opérations mathématiques sont lisses sur leurs domaines de définition. D’après ces définitions, les opérateurs de décision avec des entrées arithmétiques et des sorties logiques sont des opérateurs non lisses, mais, ils peuvent être traités comme lisses sur un domaine44 Évaluation analytique de la précision des algorithmes de décodage sphérique de définition bien particulier où les entrées appartiennent à la même région de décision. Les régions non lisses contiennent les entrées arithmétiques qui produisent différentes décisions en ajoutant une perturbation infiniment petite. De plus, d’après [83], un opérateur est non lisse sur un domaine donné si sa fonction caractéristique n’est pas de classe C1 sur ce domaine. 2.1.3 La quantification d’un opérateur non lisse En terme de quantification, nous pouvons considérer un opérateur comme non lisse si la dé- viation des statistiques actuelles de l’erreur issue de sa quantification est suffisamment importante devant les statistiques de l’erreur déterminée par le modèle PQN. Il convient de noter que si la fonction caractéristique de la FDP du signal en entrée est à bande limitée, l’erreur d’estimation est toujours présente. L’amplitude de cette erreur augmente en fonction du pas de quantification. L’acceptabilité de l’erreur est donc un paramètre défini par l’utilisateur. Un compromis doit être trouvé entre (i) l’introduction d’une erreur de quantification importante ce qui permet de considérer certains opérateurs quantifiés dans le système comme étant lisses, et (ii) la maîtrise d’une erreur de quantification limitée qui rend la plupart des opérateurs comme non lisses. Par ailleurs, sachant que l’un des opérateurs en arithmétique virgule fixe est lisse, nous pouvons en déduire le caractère lisse d’autres opérateurs de la connaissance de la largeur de bande du signal dans le domaine de sa fonction caractéristique. 2.1.4 Identification d’un opérateur non lisse Dans un scénario pratique, un système en arithmétique virgule fixe consiste en un certain nombre d’opérations de quantification. Les estimations analytiques obtenues en utilisant le modèle PQN peuvent être erronées lorsqu’elles sont appliquées sur la quantification d’un opérateur non lisse. Par conséquent, il est important de classifier les opérateurs comme lisses ou non lisses en se basant sur les caractéristiques du signal à quantifier et le pas de quantification. Nous proposons dans cette section une technique basée sur le calcul de la fonction caractéristique pour vérifier l’applicabilité du modèle PQN dans le cas de n’importe quel opérateur de quantification uniforme. Cette technique identifie les bornes du pas de quantification afin que le modèle PQM puisse être appliqué pour modéliser le comportement de l’erreur. Cette stratégie considère tout d’abord la totalité des opérations de quantification impliquées dans le graphe du système G constitué par Nop opérateurs reliés par Nc connexions (figure 2.1). Figure 2.1 – Graphe du système Un opérateur est représenté par l’un de ces nœuds et comporte des connexions multiples en entrée et une seule connexion en sortie. En cas d’implémentation utilisant une précision finie, une telle opération peut essentiellement être représentée par le schéma de l’opérateur suivi de l’opération de quantification. Les schémas de l’opération pour les deux précisions finie et infinie sont montrés par la figure 2.2.2.1 Les opérateurs lisses et non lisses 45 Figure 2.2 – Schéma d’un opérateur dans la précision infinie et la précision finie avec b bits Dans le cas d’une implémentation en arithmétique virgule fixe, les entrées des opérateurs sont aussi quantifiées. L’effet de la quantification de l’entrée est couvert par les quantificateurs présents à la sortie du nœud opérateur à partir duquel le signal provient. Par conséquent, un quantificateur peut être associé avec chaque signal. L’effet des entrées quantifiées a un impact sur le comportement de l’erreur à la sortie de l’opérateur considéré. Dans un tel scénario, il est possible d’avoir les effets de la double quantification (annexe A). Cependant, une quantification répétée ne change pas fondamentalement la dynamique. Ainsi, pour évaluer le caractère lisse de chaque opérateur quantifié, il suffit de travailler avec les statistiques des données en double précision à tous les points d’intérêt. La technique développée est présentée dans cette section. Cette technique commence par considérer que tous les opérateurs quantifiés avec un quanti- ficateur Qi sont lisses. Ensuite, des simulations en arithmétique virgule flottante, d’un ensemble exhaustif des vecteurs tests, sont utilisées afin de déterminer les caractéristiques de la FDP fxi (xi) du signal à l’entrée du i eme quantificateur Qi. D’autres techniques alternatives peuvent être utilisées pour estimer la FDP du signal comme par exemple les techniques analytiques présentées dans [75]. La seconde étape consiste en un test de déviation de l’erreur. Pour cela, il est tout d’abord nécessaire d’évaluer, soit analytiquement ou soit par simulation [92], le nombre minimal de bits b du quantificateur (Qb i = b) tels que la déviation $b i du i ème signal d’entrée soit quasi nulle, soit donc que l’opérateur quantifié avec Qi puisse être considéré comme lisse. Une fois ceci réalisé, l’utilisateur fixe un seuil τi correspondant à la tolérance autorisée sur l’erreur d’estimation. Ce seuil peut être spécifique à un quantificateur donné ou bien alors il peut être fixé de manière uniforme à une valeur donnée qui sera appliquée à l’ensemble des quantificateurs du système. Tant que la déviation par rapport au modèle PQN est plus petite que la tolérance à l’erreur (|$b i| < τi), le nombre de bits affectés continue à être décrémenté par 1 et la déviation par rapport au modèle PQN $b i est évaluée de nouveau pour la nouvelle longueur du mot de code affectée. $ b i = Evaluer(fxi , 2−b ). (2.7) Cette opération se répète sous forme d’une boucle. A chaque itération de la boucle, l’opérateur quantifié peut être considéré comme non lisse. Afin de réduire le nombre d’exécutions de la boule, il est également possible d’utiliser une variante de la méthode précédente qui consiste à remplacer l’opération de décrémentation binaire par une procédure de recherche binaire. Lorsque la déviation de l’erreur est supérieure à la tolérance (|$i| b ≥ τi), cela signifie que l’opérateur quantifié qui était lisse jusqu’à l’étape de quantification précédente devient maintenant non lisse. En d’autres termes, cette transition marque la frontière entre le pas de quantification lisse et non lisse pour le signal associé au i eme opérateur. Par conséquent, la valeur de b + 1 est affectée à Qi b afin de marquer la plus petite longueur du mot de code en vertu de laquelle l’opérateur peut être considéré comme lisse.46 Évaluation analytique de la précision des algorithmes de décodage sphérique Figure 2.3 – Représentation d’un signal en virgule fixe avec une dynamique [−1, 1) Afin de bien analyser le comportement de la déviation par rapport au modèle PQN, nous considérons un signal normalisé dans l’intervalle [−1, 1]. Son format virgule fixe est illustré par la figure 2.3. La figure 2.4 montre l’amplitude de l’erreur relative entre le modèle analytique PQN et les estimations de l’erreur obtenues par simulation. Nous considérons dans cette illustration trois FDP : la distribution uniforme, Laplacienne et Gaussienne. L’erreur relative entre le modèle PQN et la simulation est importante dans le cas Laplacien, et, dans une moindre mesure, pour une densité de probabilité gaussienne. Enfin, l’erreur relative devient faible, voire négligeable, dans le cas d’une loi uniforme. En effet, puisque la loi uniforme possède des valeurs réparties sur l’intervalle [−1, 1], par conséquent, sa quantification (avec le plus grand nombre de bits) préserve des formes uniformes et les valeurs de −1 ou 1 contribuent à la puissance totale de bruit. Tandis que, dans le cas de la distribution gaussienne, les valeurs sont plus denses près de la valeur de 0 et donc remises à zéro lorsque des pas de quantification larges sont utilisés. Ceci engendre une déviation large entre l’erreur estimée par le modèle PQN et l’erreur observée par simulation. Ce phénomène est plus visible dans le cas de la distribution Laplacienne où il y a plus de valeurs proches de 0 que dans le cas Gaussien. Comme le pas de quantification est réduit (davantage de bits sont affectés pour la précision), les valeurs ne sont pas remises à 0 et donc convergent à un comportement similaire. Figure 2.4 – Représentation d’un signal en virgule fixe avec une dynamique [−1, 1) Dans l’algorithme décrit précédemment, il est nécessaire d’enregistrer les statistiques de la valeur prise par chaque signal associé à un opérateur de quantification dans le système. En effet, la mémorisation des valeurs de tous les signaux à travers la totalité de la longueur de simulation peut consommer une grande quantité de mémoire et de temps, ce qui peut parfois conduire à une infaisabilité en pratique. Pour remédier à ce problème, il est possible de ne mémoriser qu’uniquement les statistiques des signaux associés à des opérateurs quantifiés soupçonnés d’être non-lisses.2.2 Modèle analytique pour l’opérateur de décision 47 2.2 Modèle analytique pour l’opérateur de décision Figure 2.5 – Diagramme de la constellation 16-QAM Il est fréquent de trouver un certain nombre d’opérateurs lisses et non lisses qui coexistent au sein des systèmes de traitement numérique de signal. Dans les systèmes de communication numérique, les opérateurs correspondent le plus souvent à des opérateurs de décisions QAM présents au sein des algorithmes de réception et ils coexistent avec d’autres opérateurs lisses en arithmétique virgule fixe. Citons à titre d’exemple les algorithmes de décodage sphérique tels le SSFE qui fera l’objet de la dernière partie de ce chapitre et et qui peut être considéré comme une application typique de la propagation du bruit de quantification lors d’une cascade d’opérateurs de décision. Il y a également les algorithmes d’égalisation tels que l’égaliseur à retour de décision qui sera présenté dans le prochain chapitre de cette thèse et qui est constitué d’une itération d’opérateurs de décision. Nous pouvons citer également les algorithmes de turbo décodage abordés dans le dernier chapitre. Bien que les erreurs lisses puissent être estimées en utilisant le modèle additif PQN, la réponse d’un opérateur de décision QAM à une perturbation par le bruit de quantification peut être non linéaire ce qui peut provoquer un large écart par rapport aux estimations obtenues par l’application du modèle de PQN. Par conséquent, il est nécessaire d’analyser l’erreur causée par une quantification d’un opérateur non lisse et estimer son effet sur la performance d’un système. En particulier, étant donné que les opérateurs lisses coexistent avec les opérateurs non lisses, il est nécessaire d’estimer les statistiques de l’erreur à la sortie d’un opérateur non lisse en raison de la perturbation du signal à son entrée. Dans cette partie, nous commençons par modéliser l’opérateur de décision ainsi que sa réponse à une perturbation et proposer un modèle analytique permettant de déterminer la probabilité d’erreur de décision causée par la quantification d’un signal en virgule fixe. Il convient de préciser également que ce travail a été fait en collaboration avec les travaux de recherche menés par K. Parashar [75] dans la même équipe CAIRN. 2.2.1 Modélisation de l’opérateur de décision Considérons le cas général d’un opérateur de décision au sein d’un système de communication numérique. Il s’agit d’un exemple typique d’un opérateur non lisse. La figure 2.5 montre la48 Évaluation analytique de la précision des algorithmes de décodage sphérique constellation 16-QAM avec les différentes régions correspondant à chaque symbole de la constellation. Le principe de fonctionnement d’un opérateur de décision QAM se base sur la différenciation des valeurs d’un signal QAM donné x à l’entrée de cet opérateur. Selon la valeur du signal à l’entrée, cet opérateur affecte à la sortie un symbole Si représentant la région Ri dans laquelle se situe la valeur du signal à l’entrée. Chaque région Ri possède une limite ri. Le symbole Si appartient à l’ensemble des symboles de la constellation S = {S1, S2, ..., SL}, avec Si ∈ RN . N est la dimension du signal transmis (N = 2 pour les signaux QAM). Le fonctionnement de l’opérateur de décision est défini par la figure 2.6. Par conséquent la sortie x˜ de l’opérateur de décision est définie comme suit : x˜ = Si si x ∈ Ri (2.8) Figure 2.6 – Fonctionnement de l’opérateur de décision Ri est la région définie comme le voisinage du point de la constellation Si. La région Ri est un sous-espace de RN et elle consiste essentiellement à l’ensemble des valeurs prises par x qui peuvent être décidées par le symbole Si en sortie. Dans la figure 2.5, la région R1,−1 est l’aire couverte par le rectangle centré sur le point de constellation (1, −1). Ri = {x ∈ R2/i = argmin k |x − Sk| 2} (2.9) Les frontières des symboles de la constellation QAM (−1, 1) et (−3, 3) sont définies par les lignes discontinues. Les aires formées par ces frontières forment les régions R−1,1 et R−3,3. En outre, l’opérateur de décision QAM porte beaucoup de similitudes avec la quantification rencontrée lors de l’étude de l’arithmétique de précision finie. Son fonctionnement est identique sur la voie en phase (axe réel ou horizontal) et sur la voie en quadrature (axe imaginaire ou vertical). Le comportement de l’opérateur QAM, restreint à un seul de ces axes (phase ou quadrature), peut être considéré comme un quantificateur Q de pas de quantification q en cascade avec un opérateur de saturation S de dynamique a comme indiqué sur la figure 2.7.2.2 Modèle analytique pour l’opérateur de décision 49 Figure 2.7 – Modèle de quantification d’un opérateur de décision Le quantificateur Q suit le mode par arrondi et il est centré sur les points de la constellation. La dynamique α correspond à la différence maximale entre deux points de la constellation. Lorsque la dynamique du signal en entrée est comparable à la dynamique α de l’opérateur de saturation S (c-à-d max(x) − min(x) $ α), l’opérateur de saturation peut être ignoré (c-à-d xˆ $ x˜) et l’opérateur de décision peut être approximé à un quantificateur. Lorsque le comportement de l’opérateur de décision QAM est similaire au cas d’un quantifi- cateur qui est utilisé pour modéliser l’arithmétique en précision finie, les statistiques de l’erreur sont non lisses. La différence entre l’opérateur de décision QAM et le quantificateur lisse qui est habituellement rencontré dans l’implémentation en précision finie consiste en un large pas de quantification par rapport au signal. Lorsque le pas de quantification lié à la précision finie est plus faible que la dynamique, le pas de quantification de l’opérateur de décision est souvent comparable au signal lui-même. Par conséquent, l’opérateur de décision est non lisse. 2.2.2 La réponse à la perturbation Dans le cas d’un opérateur non lisse, les statistiques de l’erreur en sortie ne sont plus compatibles avec le modèle PQN. Par conséquent, l’impact du bruit de quantification à la sortie d’un opérateur non lisse peut être analysé en comparant uniquement la réponse de l’opérateur non lisse aux valeurs en entrée dans le cas d’une précision finie et leurs équivalents dans le cas de la précision infinie. L’effet de la perturbation causée par l’accumulation du bruit de quantification à l’entrée d’un opérateur non lisse est illustré par la figure 2.8. Figure 2.8 – Réponse à la perturbation à la frontière non lisse ; Cas A : x = xa, Cas B :x = xb Soit un signal x à l’entrée d’un opérateur non lisse dont les sorties sont les valeurs V1 ou V2 dépendent de la valeur de x. Considérons deux scénarios dans lesquels un signal x prend50 Évaluation analytique de la précision des algorithmes de décodage sphérique des valeurs xa et xb en précision infinie. En virgule fixe, le signal x est perturbé par le bruit de quantification accumulé. Soient qg et qd les distorsions négatives et positives probables maximales. Dans le cas où le signal prend une valeur suffisamment loin de la frontière tel que décrit dans le cas A : (soit x = xa), l’amplitude de la perturbation qg ou qd n’est pas assez grande pour que le signal résultant puisse franchir la frontière de décision. Par conséquent, la valeur attribuée par l’opérateur non lisse, à la fois en précision finie et infinie, est V2 et aucune erreur ne se propage. D’autre part, si une valeur en double précision x est assez proche de la frontière tel que décrit dans le cas B : (soit x = xb), une perturbation positive peut conduire la valeur en virgule fixe à franchir la frontière de décision, soit donc à changer la valeur de la sortie en V2 (à la place de V1) provoquant ainsi un comportement de l’implémentation en précision finie différent de celui en précision infinie. 2.2.3 La probabilité d’erreur de décision Pour analyser l’impact de la quantification, nous utilisons une métrique de précision qui compare les valeurs de divers signaux dans le système lorsque des opérateurs en virgule fixe sont utilisés. En cas de quantificateurs lisses, les erreurs sont faibles et donc facilement captées par le bruit de quantification. Dans le cas des opérateurs non lisses, la puissance des erreurs n’est pas conforme avec le modèle d’erreur analytique PQN. Par conséquent, il devient important d’avoir accès à la fonction de densité de probabilité de l’erreur en sortie de l’opérateur non lisse, ce qui permet également de déduire la puissance de l’erreur. En outre, il est plus fondamental de calculer la probabilité de l’erreur à la sortie de l’opérateur que de déduire directement la puissance du bruit du signal d’erreur de quantification. Probabilité d’erreur de décision Afin d’étudier l’impact du bruit de quantification non lisse accumulé à la sortie d’une première décision, nous considérons un système de traitement de signal (figure 2.9) formé d’un opérateur de décision à la sortie xˆ d’un système lisse. Cette configuration est très fréquente dans les récepteurs des systèmes de communication numérique et dans les algorithmes de décodage et d’égalisation. Figure 2.9 – Un système constitué d’un opérateur non lisse La valeur d’un signal en virgule fixe xˆvf ix(n) à l’entrée de l’opérateur de décision est obtenue par la perturbation de xˆvf lo(n) à cause du bruit de quantification bx(n). Par conséquent le signal en entrée à l’opérateur non lisse de décision s’écrit sous la forme suivante : xˆvf ix(n)=ˆxvf lo(n) + bx(n) (2.10) La probabilité d’erreur de décision causée par le bruit additif de quantification peut être déduite en comparant la sortie en virgule fixe x˜vf ix(n) de l’opérateur de décision à la sortie en virgule flottante x˜vf lo(n). Comme mentionné dans la section précédente, la déviation dans la valeur du signal dans un système en virgule fixe est fonction de la puissance du bruit de quantification associé au signal. Lorsque la valeur du signal est proche de la limite (frontière) de décision et que la puissance du bruit de quantification est suffisamment large, la déviation causée par la perturbation provoque le franchissement de la frontière de décision ce qui génère une sortie2.2 Modèle analytique pour l’opérateur de décision 51 différente de celle produite par un système avec une précision en virgule flottante. Par ailleurs, si la puissance du bruit est suffisamment grande, la déviation de la valeur du signal peut traverser plusieurs frontières ce qui engendre inévitablement une erreur de décision à la sortie. Soit Pi,j la probabilité d’erreur de décision (i .= j) telle que x˜vf lo = Si et x˜vf ix = Sj . Cette erreur correspond au cas où la valeur entrée (située dans la région Ri, est perturbée par le bruit bx de telle sorte que le signal résultant appartienne à la région Rj . Par conséquent, la probabilité d’erreur de décision Pi,j est la probabilité que le signal en entrée en virgule flottante xˆvf lo appartienne à la région Ri et que le signal correspondant en virgule fixe xˆvf ix appartienne à la région Rj . Pi,j = Prob {(ˆxvf lo ∈ Ri) ∩ (ˆxvf lo + bx ∈ Rj )} . (2.11) Soient fb(b) et fx(x) les fonctions densité de probabilité respectivement du bruit bx et du signal d’entrée en arithmétique virgule flottante xˆvf lo. La probabilité Pi que la valeur du signal en entrée xˆvf lo donne une décision x˜vf lo = Si est obtenue en intégrant la FDP fx(x) sur toute la région du symbole correspondant Ri et elle est donnée par : Pi = / Ri fX(x)dx (2.12) Considérons une instance du signal x qui prend la valeur xi ∈ Ri telle que la sortie est x˜ = Si. En connaissant la FDP du bruit de quantification bx, il est possible de calculer la probabilité d’erreur Pxi,j causée par la perturbation du signal avec une valeur xi qui conduit à une décision du symbole Sj (j différent de i) en précision finie en raison du bruit de quantification bx, alors que cette décision correspond au symbole Si en arithmétique virgule flottante. Par conséquent, Pxi,j est définie par : Pxi,j = Prob {xˆvf lo + bx ∈ Rj |xˆvf lo ∈ Ri} (2.13) En supposant que le bruit de quantification est non corrélé avec le signal [92], la relation précé- dente peut encore s’exprimer selon : Pxi,j = lim%→0 / xi+ " 2 xi− " 2 fx(xi)dxi. / Rj fb(b − xi)db. (2.14) La probabilité d’erreur de décision totale Pi,j est obtenue en considérant tous les points de la région Ri et en intégrant la probabilité Pxi,j sur la région Ri : Pi,j = / Ri Pxi,jdxi (2.15) En remplaçant Pxi,j par son expression de l’équation (2.14), la probabilité d’erreur de décision s’écrit : Pi,j = / Ri : fx(xi) / Rj fb(b − xi)db; dxi. (2.16) En arrangeant les termes de l’équation précédente, la probabilité d’erreur de décision peut s’écrire sous la forme suivante : Pi,j = / Ri / Rj fx(xi)fb(b − xi)dbdxi. (2.17) A partir de cette équation, l’influence du bruit de quantification et du signal à l’entrée de l’opérateur de décision peuvent être analysées sur chaque région de décision. Pour ce faire, considérons la fonction de densité de probabilité fTi (b) du signal présent à l’entrée de l’opérateur de décision et tel que xi appartient à Ri lorsque l’on utilise une arithmétique en virgule flottante. Pour chaque région Ri, la FDP de la contribution totale du bruit de quantification est donnée par : fTi (b) = / Rj fx(xi)fb(b − xi)dxi. (2.18)52 Évaluation analytique de la précision des algorithmes de décodage sphérique La probabilité d’erreur de décision Pi,j peut s’écrire en fonction de fTi (b) comme suit : Pi,j = / Rj fTi (b)db. (2.19) En calculant toutes les probabilités Pi,j , nous obtenons la matrice des probabilités P dont les coefficients sont les Pi,j : (Pi,j ) = Px˜vf lo,x˜vf ix(˜xvf lo = Si, x˜vf ix = Sj ). (2.20) La distribution de probabilité du signal réel dans le cas d’un bruit en virgule fixe peut être obtenue sous la forme d’une distribution marginale de la distribution conjointe obtenue jusqu’à présent. Fonction de probabilité jointe Étant donné que la sortie de l’opérateur de décision est discrète, la fonction de densité de l’erreur s’exprime directement en fonction des valeurs de l’ensemble S des symboles de décision. Nous pouvons alors introduire la distance di,j séparant deux symboles de l’alphabet S : di,j = Si − Sj . (2.21) Les erreurs individuelles de décision sont représentées par une fonction discrète qui s’exprime selon qui la fonction δ(˜x) qui la fonction delta de Kronecker. Par conséquent la fonction de probabilité jointe est obtenue par : fx˜(˜x) = ' L i=1 ' L j=1 Pi,j .δ(˜x − di,j ) (2.22) La fonction δ(˜x−di,j ) est une version décalée de la fonction δ dans l’espace bidimensionnel. Cette densité de probabilité est caractérisée par L × L valeurs discrètes correspondant aux différentes permutations de l’ensemble des symboles décision S. Chaque di,j (i .= j) correspond à une erreur de décision générée pour chaque couple (i, j) et la probabilité d’erreur de décision correspondante est Pi,j obtenue par l’équation (2.17). Afin de valider ce modèle de fonction de probabilité, nous pouvons utiliser deux vérifications. La première analyse consiste à vérifier théoriquement que la somme de toutes les probabilités individuelles Pi,j est égale à 1. Comme le signal x est indépendant du bruit de quantification b, la somme peut s’écrire sous cette forme. ' L i=1 ' L j=1 Pi,j = ' L i=1 / Ri fx(xi). ' L j=1 / Rj fb(b − xi).db.dxi (2.23) Par définition, l’aire sous une FDP est toujours égale à 1. Par conséquent, la somme interne ( 4 L j=1 < Rj fB(b − xi).db.dxi) est égale à l’unité car elle correspond à l’intégration de la FDP du bruit de quantification sur l’ensemble ∪Rj . En suivant le même raisonnement, la somme extérieure (4 L i=1 < Ri fX(xi)) est également égale à l’unité. En conséquence, la double somme (2.23) est elle aussi égale à l’unité tout comme la fonction de densité de probabilité (2.22). Par conséquent, nous pouvons conclure que la fonction de probabilité donnée par 2.22 est une fonction densité de probabilité valide. D’autre part, nous pouvons également déterminer la probabilité d’erreur de décision totale Perreur qui est la somme de toutes les probabilités d’erreur de décision individuelle Pi,j|i&=j . Perreur = ' L i=1 ' L j&=i,j=1 Pi,j ∀(i, j) ∈ [1, L] (2.24)2.2 Modèle analytique pour l’opérateur de décision 53 Cette probabilité d’erreur totale peut être déterminée à partir des probabilités individuelles Pi,i qui sont les probabilités de ne pas avoir une erreur de décision. En d’autres termes, la probabilité Pi,i est la probabilité que la sortie de l’opérateur de décision dans le cas de virgule fixe et dans le cas de virgule flottante soit égale au symbole Si. Par conséquent, la probabilité d’erreur de décision totale s’exprime comme suit : Perreur = 1 − ' L i=1 Pi,i (2.25) Figure 2.10 – Probabilité d’erreur de décision totale : cas BPSK La deuxième vérification se base sur la comparaison des probabilités Pi,j obtenues analytiquement par ce modèle avec celles obtenues par simulations. Par conséquent, nous considérons un système tel que décrit dans la figure 2.9 qui est constitué d’un bloc lisse suivi d’un opérateur de décision non lisse. Nous supposons que le signal présent à l’entrée de l’opérateur de décision est un signal gaussien BSPK centré sur les symboles avec une équiprobabilité entre les différents symboles de la constellation (-1, 1) et de variance σ2 ch. Dans ce cas nous avons deux probabilités d’erreur de décision causée par le bruit de quantification b. Ces probabilités sont P−1,1 qui est la probabilité d’avoir en sortie le symbole −1 en virgule flottante alors qu’en virgule fixe nous obtenons le symbole 1 et P1,−1 est la probabilité du cas contraire. Afin de tester la fiabilité de ce modèle, nous supposons que le bruit en entrée de l’opérateur suit une loi gaussienne de moyenne nulle et de variance σ2 b . Les FDP du signal à l’entrée de l’opérateur de décision et du bruit de quantification sont données par : fX(x) = 1 2 √2πσch 8 exp(−(x − 1)2 2σ2 ch ) + exp(−(x + 1)2 2σ2 ch ) 9 . (2.26)54 Évaluation analytique de la précision des algorithmes de décodage sphérique fB(b − x) = 1 √2πσb exp(−(b − x)2 2σ2 b ). (2.27) En appliquant le modèle analytique de l’équation (2.17), nous obtenons les probabilités d’erreur de décision P−1,1 et P1,−1. En raison de l’hypothèse d’équiprobabilité entre les deux symboles de la constellation, les deux probabilités d’erreur de décision P−1,1 et P1,−1 sont égales. Par consé- quent, la probabilité d’erreur totale Perreur est le double de P1,−1. Afin de tester le modèle, nous varions la variance σ2 b de 0.1 jusqu’à 0.8 et nous calculons à chaque fois la probabilité d’erreur de décision totale analytiquement par le modèle obtenu et par simulation. Le calcul par simulation se base sur une simulation en virgule fixe et une simulation en virgule flottante et la comparaison des sorties de l’opérateur de décision dans les deux cas. Si ces deux sorties sont différentes, il s’agit d’une erreur due à la conversion en virgule fixe où en d’autres termes à la perturbation causée par le bruit de quantification additif b. La figure 2.10 présente la probabilité d’erreur de décision obtenue analytiquement et par simulation en fonction de la variance du bruit de quantification. Il convient de préciser que, dans cette expérience, nous modélisons la conversion en virgule fixe par l’ajout du bruit de quantification au signal à l’entrée de l’opérateur. Par contre dans les prochaines expériences nous effectuerons une "vraie" conversion en format virgule fixe et par conséquent chaque RSB correspondra à un format virgule fixe bien déterminé. Nous remarquons d’après la figure 2.10, que les résultats obtenus par le modèle analytique de l’équation (2.17) correspondent fidèlement aux résultats obtenus par simulations. L’erreur maximale entre la probabilité obtenue par simulation et celle obtenue analytiquement est de l’ordre de 1%. 2.3 Cascade d’opérateurs de décision Dans le paragraphe précédent, nous avons proposé un modèle analytique permettant d’estimer la probabilité d’erreur de décision d’un opérateur de décision dans le cas particulier d’un système composé d’un bloc lisse et d’un unique opérateur de décision. Cependant, ce modèle peut-il être appliqué à un système composé de plusieurs opérateurs de décision ? Si l’on considère un tel système, l’erreur causée par la quantification au niveau du premier opérateur de décision se propage tout au long du système en passant par différents blocs pour arriver au deuxième opérateur de décision. Le modèle analytique d’estimation de la probabilité d’erreur de décision n’est plus applicable pour estimer l’erreur de décision au niveau du deuxième opérateur de décision car ce modèle ne tient pas compte de la propagation de l’erreur due à la quantification et au format virgule fixe. Afin de bien illustrer cette problématique, nous considérons un système composé de deux opérateurs de décision tels que montré par la figure 2.11. Figure 2.11 – Cascade de deux opérateurs de décision Le système considéré est un cas simplifié d’un système de décodage sphérique composé de deux antennes. Ce système sera étudié d’une façon approfondie dans la prochaine section. D’après le diagramme bloc du système, nous remarquons que l’entrée xˆ2 du deuxième opérateur de décision OP2 ne dépend pas seulement du signal reçu y2 mais aussi de la sortie x˜1 du premier opérateur de décision. Lorsqu’une erreur de quantification est produite au niveau du premier opérateur,2.3 Cascade d’opérateurs de décision 55 elle se propage jusqu’au deuxième opérateur de décision. Si nous essayons d’appliquer le modèle analytique de l’équation (2.17), nous obtenons des estimations de l’erreur de décision très éloignées des estimations obtenues par simulation. La figure 2.12 représente la probabilité d’erreur de décision estimée au niveau du deuxième opérateur de décision par le modèle analytique à un seul opérateur de décision et également par simulation. Figure 2.12 – Non validité du modèle analytique d’estimation de la probabilité d’erreur de décision dans le cas d’une cascade d’opérateurs de décision Nous pouvons remarquer que la probabilité d’erreur de décision obtenue par le modèle analytique est sous-estimée par rapport à celle obtenue à partir de la simulation. Comme le modèle analytique proposé ne tient pas compte de la propagation des erreurs de quantification, les résultats de la figure 2.12 étaient prévisibles. Par conséquent, il est fondamental d’étudier la propagation de l’erreur de quantification dans un système composé de plusieurs opérateurs non lisses et de tenir compte de cette propagation. Ceci sera présenté dans la prochaine section. 2.3.1 Propagation de l’erreur de quantification Pour valider ce modèle dans le cas d’une cascade d’opérateurs de décision, il est absolument nécessaire de prendre en compte le phénomène de propagation des erreurs de quantification. Considérons le système présenté à la figure 2.13 composé à la fois de plusieurs opérateurs lisses et de N + 1 opérateurs non lisses.56 Évaluation analytique de la précision des algorithmes de décodage sphérique Figure 2.13 – Propagation de l’erreur de quantification dans un système composé de plusieurs opérateurs non lisses en cascade Dans le cas d’une implémentation en virgule fixe, le vecteur des entrées Y = [y1, y2, ..., yN ] est perturbé par le vecteur des bruits de quantification B = [b1, b2, ..., bN ], chaque bruit bi perturbant le signal yi. présent sur la ième entrée. Soient Yvf lo et Yvf ix les vecteurs des entrées respectivement en virgule flottante et en virgule fixe. L’opérateur L représente une fonction lisse comportant 2N entrées correspondant au vecteur Y et au vecteur X˜ = [˜x1, x˜1, ..., x˜N ] constitué des N sorties des opérateurs de décision situés en amont. De même, soient X˜vf lo et X˜vf ix les vecteurs des sorties des N opérateurs de décision qui précèdent le bloc lisse respectivement en arithmétique virgule flottante et en virgule fixe. Soient xˆvf lo N+1 et xˆvf ix N+1 l’entrée au dernier opérateur de décision respectivement en représentation virgule flottante et virgule fixe. Par conséquent, la sortie du bloc lisse en virgule fixe xˆvf ix N+1 est donnée par : xˆvf ix N+1 = L(yvf ix 1 , ..., yvf ix N , x˜vf ix 1 , ..., x˜vf ix N ) = L(yvf lo 1 , ..., yvf lo N , x˜vf lo 1 , ..., x˜vf lo N ) + l(b1, ..., bN , x˜vf lo 1 , ..., x˜vf lo N , x˜vf ix 1 , ..., x˜vf ix N ) + bL = ˜xvf lo N+1 + Lb(B, X˜vf lo, X˜vf ix) + bL (2.28) bL est le bruit ajouté par les quantificateurs lisses lors de l’utilisation d’une implémentation en virgule fixe de la fonction L et Lb est la fonction de la propagation du bruit. Étant donné que la fonction L est lisse, la fonction de propagation du bruit Lb est linéaire par rapport au vecteur des bruits de perturbation b. La propagation des erreurs à la sortie des N opérateurs de décision non lisses à travers la fonction L peut ne pas avoir des caractéristiques linéaires. Par conséquent, la fonction de propagation du bruit Lb doit être évaluée pour chaque erreur et pour toutes les configurations d’erreurs présentes sur les sorties des N opérateurs de décision situés en amont. 2.3.2 Détermination analytique de la probabilité d’erreur en sortie de la cascade Soit vvf lo et vvf ix deux instances des valeurs prises par x˜vf lo et x˜vf ix respectivement. Le signal xˆvf ix N+1 est donné par : xˆvf ix N+1 = ˆxvf lo N+1 + Lv b (B) + bL = ˆxvf lo N+1 + bf (2.29)2.3 Cascade d’opérateurs de décision 57 La fonction de propagation du bruit Lv b est déduite de la fonction Lb de l’équation (2.28) en utilisant les valeurs particulières vvf lo et vvf ix à la place de X˜vf lo et X˜vf ix, respectivement. Par conséquent, la fonction Lb ne varie qu’en fonction du seul paramètre B correspondant au vecteur des perturbations. Ainsi, la propagation des perturbations associées aux signaux en entrées Y à travers la fonction L est caractérisée par une combinaison spécifique donnée des vecteurs de données en entrée de décision en format virgule flottante et virgule fixe. De manière équivalente, nous pouvons considérer que les vecteurs de données en entrée de décisions en arithmétique virgule fixe et virgule flottante représentent conjointement un scénario S des conditions en entrée. En sortie de la fonction L, le bruit généré par les opérations en virgule fixe dans l’implémentation de la fonction L et la propagation des perturbations en entrée peut être résumé et collecté à travers le bruit bf . Soit Mk le nombre des symboles de décision disponibles à la sortie du keme opérateur de décision. Le vecteur X˜ peut prendre C = = N k=1 Mk combinaisons possibles. Si l’on considère le vecteur des valeurs particulières Sk N défini par Sk N = [vvf lo, vvf ix], il existe C × C combinaisons possibles pour ce vecteur La probabilité d’erreur de décision P Sk N i,j à la sortie du (N + 1)eme opérateur de décision pour une combinaison donnée du vecteur des entrées Sk N peut être calculée en utilisant le modèle analytique de l’équation (2.17). P Sk N i,j définit la probabilité que la valeur en sortie du (N + 1)ème opérateur de décision x˜N+1 corresponde à Si en format virgule flottante et à Sj en arithmétique virgule fixe sous la contrainte du scénario défini par les entrées de décision Sk N , elle est donnée par : P Sk N i,j = / Ri / Rj f Sk Nx (x)fb(b − x)dbdx. (2.30) Où la fonction f Sk Nx correspond à la FDP du signal xˆvf lo N+1 pour le scénario Sk N , et fb est la FDP du bruit total de quantification bf obtenu dans l’équation (2.29). La probabilité d’erreur de décision totale est déterminée en considérant l’impact de tous les scénarios possibles sur la sortie de l’opérateur de décision. Par conséquent, la probabilité d’erreur de décision totale, que la sortie du dernier opérateur de décision x˜N+1 corresponde au symbole Si en arithmétique virgule flottante et Sj en virgule fixe, est une somme de toutes les probabilités d’erreur de décision P Sk N i,j sous le scénario Sk N pondérée par la probabilité PSk N de réalisation de tous les scénarios possibles Sk N . Elle est donnée par : Pi,j i&=j = ' C2 k=1 PSk N P Sk N i,j = ' C2 k=1 / Ri / Rj PSk N f Sk Nx (x)fb(b − x)dbdx. (2.31) Afin de déterminer la probabilité d’erreur de décision Pi,j au niveau du dernier opérateur de décision du système considéré, il est nécessaire d’évaluer la probabilité PSk N de l’occurrence du scénario Sk N et la FDP f Sk Nx du signal x˜N+1 à l’entrée du N + 1eme opérateur de décision sous contrainte du scénario Sk N . En ce qui concerne la probabilité PSk N , nous pouvons distinguer le cas où les erreurs de décision sont dépendantes et le cas où elles sont indépendantes. La probabilité PSk N est obtenue comme la probabilité conjointe qu’une combinaison des sorties d’un opérateur de décision se produise selon la description du scénario. Par conséquent, la probabilité de l’occurrence du scénario PSk N est donnée par : PSk N = P((˜xvf lo 1 = S1 i , x˜vf ix 1 = S1 j ) et ... et (˜xvf lo N = SN i , x˜vf ix N = SN j )) (2.32)58 Évaluation analytique de la précision des algorithmes de décodage sphérique où Sr i et Sr j représentent les valeurs prises par la sortie du rème opérateur de décision respectivement en virgule flottante et en virgule fixe. En d’autres termes, PSk N est la probabilité de l’occurrence du kème scénario. Dans le cas où les éléments du vecteur X˜ ne sont pas corrélés, la probabilité conjointe est déterminée par : PSk N = > N r=1 P(˜xvf lo r = Sr i , x˜vf ix r = Sr j ) (2.33) Par conséquent, dans ce cas, nous avons tous les éléments nécessaires pour déterminer analytiquement la probabilité d’erreur de décision à la sortie de chaque opérateur de décision du système y compris le dernier opérateur de décision de la cascade. Par contre, en pratique, nous pouvons rencontrer le cas où les sorties des opérateurs de décision sont corrélées entre elles. La corrélation est déterminée par la topologie du flot du signal et la corrélation entre les vecteurs en entrée utilisés en simulation virgule flottante pour déterminer la FDP du signal. Sous ces conditions, l’impact de chaque sortie de décision sur les autres sorties de décision doit être considéré afin de calculer la probabilité conjointe de l’occurrence des sorties de décision dans le cas du scénario Sk N . Soit Sk P un sous scénario correspondant à un sous ensemble du scénario Sk N . Par conséquent, les éléments des vecteurs X˜vf lo et X˜vf ix ont une longueur P (P ≤ N) et ils sont égaux aux premiers P éléments définis dans le vecteur Sk N . Ainsi, la probabilité conjointe PSk N peut être évaluée à partir des probabilités conditionnelles : PSk N = P((˜xvf lo N = Si, x˜vf ix N = Sj )|Sk N−1).PSk N−1 = P((˜xvf lo N = Si, x˜vf ix N = Sj )|Sk N−1).P((˜xvf lo N−1 = Si, x˜vf ix N−1 = Sj )|Sk N−2). ... P((˜xvf lo 2 = Si, x˜vf ix 2 = Sj )|Sk 1 ). P(˜xvf lo 1 = Si, x˜vf ix 1 = Sj ) ? @A B PSk 1 = N >−1 r=0 P((˜xvf lo N−r = Si, x˜vf ix N−r = Sj )|Sk N−r−1). (2.34) D’après les équations (2.33) et (2.34), il est clair que le calcul de la probabilité de l’occurrence du scénario Sk N nécessite la connaissance des probabilités d’erreurs ainsi que les probabilités conjointes des N entrées de décision. Par conséquent, la probabilité de l’erreur P(˜xvf lo = Si, x˜vf ix = Sj ) des sorties de décision doit être calculée a priori. Cela veut dire que la probabilité de l’erreur en sortie de chaque opérateur de décision du système doit être calculée dans l’ordre de priorité à partir de l’entrée jusqu’à la sortie du système considéré. Après avoir identifié les opérateurs non lisses, il est donc nécessaire d’analyser ces dépendances à partir de l’analyse du graphe flot du système. Lorsque les entrées de décision ne sont pas corrélées, la probabilité conjointe est obtenue par un simple produit entre les différentes probabilités individuelles des scénarios de décision en arithmétique virgule flottante et virgule fixe. D’autres part, dans le cas où les sorties de décision sont corrélées avec d’autres sorties de décision, le calcul de la fonction de probabilité d’erreur de décision du premier opérateur de décision du système se fait par le modèle de l’équation (2.17). La probabilité d’erreur de décision des opérateurs intermédiaires dans le système est déterminée en calculant successivement les probabilités conjointes des erreurs intervenant au sein de l’équation (2.34). Ensuite, les résultats intermédiaires obtenus durant le calcul des différentes probabilités d’erreur de décision sont réutilisés pour le calcul des probabilités des scénarios pour les opérateurs de décision situés en aval.2.3 Cascade d’opérateurs de décision 59 Figure 2.14 – Propagation des erreurs non lisses (corrélées ou non corrélées) Afin de bien illustrer les résultats analytiques établis précédemment, nous considérons le cas générique représenté par le système de la figure 2.14 constitué d’un bloc lisse possédant en entrée H (H ≥ 2) groupes non lisses. Par ailleurs, nous supposons que le signal de l’un des groupes est indépendant des signaux appartenant aux autres groupes mais qu’il est corrélé avec les signaux du même groupe. Soit x˜D le signal en sortie de l’opérateur de décision situé en sortie du bloc lisse. Dans ce cas, les N entrées de décision sont différenciées en H groupes indépendants de N1, N2, ..., NH opérateurs de décision. N’importe quel i eme opérateur de décision est dépendant du i − 1eme opérateur de décision du même groupe. Afin d’être en mesure de déterminer analytiquement la probabilité de l’occurrence de tous les scénarios possibles résultant des N1 + N2 + ... + NH entrées, les différents scénarios sont définis par toutes les entrées possibles des opérateurs non lisses de décision. Comme les H groupes des signaux ne sont pas corrélés, la probabilité de l’occurrence de ces scénarios peut être obtenue par le produit de la probabilité de l’occurrence des scénarios de chaque groupe. Par conséquent, la probabilité totale des scénarios en entrée qui considère les entrées des opérateurs non lisses de décision peut être calculée par : PSk N1+N2+...+NH = > H r=1 PSk Nr (2.35) où PSk Nr , donnée par l’équation (2.34) désigne la probabilité de l’occurrence des scénarios du reme groupe. 2.3.3 Analyse de la complexité du modèle analytique Le calcul d’une probabilité conditionnelle est similaire à celui de la probabilité Pi,j du premier opérateur de décision. Le coût calculatoire nécessaire pour évaluer la probabilité conjointe peut60 Évaluation analytique de la précision des algorithmes de décodage sphérique être mesuré en termes de nombre d’unités d’évaluation numérique de l’intégrale exprimant les Pi,j pour un scénario donné. Ce nombre d’unités d’évaluation dépend bien entendu du nombre de scénarios considérés. Le nombre de fois de l’évaluation dépend du nombre des scénarios. Ce dernier augmente exponentiellement avec le nombre des entrées de décision non lisses qui doivent être prises en considération. Dans tous les cas (corrélation ou non corrélation), il est inévitable d’évaluer ces nombreuses intégrales pour un nombre donné de combinaisons possibles d’erreurs. Supposons qu’il y ait Mk symboles de décision à la sortie du kème opérateur de décision, ils contribuent à Mk combinaisons de scénario. En considérant toutes les combinaisons possibles des sorties des opérateurs de décision, il y a au total C = = N k=1 Mk combinaisons possibles. Par conséquent, la complexité du calcul des probabilités d’erreur à la sortie du (N + 1)ème opérateur de décision (dépendant des N précédents opérateurs de décision) est de l’ordre de de O(C2), où C possède une complexité exponentielle. Afin d’illustrer l’étude mathématique analytique de la section précédente, nous considérons le cas d’une application issue du domaine des communications numériques : le décodage sphérique. Plus particulièrement, nous avons choisi de travailler sur l’algorithme SSFE (Selective Spanning with Fast Enumeration) car il représente un très bon cas d’application d’un système de communication numérique constitué d’une cascade d’opérateurs de décision. Cette étude est présentée dans la prochaine section. 2.4 Application du modèle à l’algorithme SSFE Les systèmes de communications numériques sans fils avec plusieurs entrées et plusieurs sorties MIMO (Multiple-Input Multiple-Output) utilisent plusieurs antennes dans les deux extrémités du canal sans fil. En appliquant le multiplexage spatial (transmission de multiples flux de données concurrentes dans une même bande de fréquence à l’aide de plusieurs antennes), les systèmes sans fil MIMO offrent une augmentation de l’efficacité spectrale par rapport aux systèmes monoantenne. Par conséquent, les systèmes sans fil MIMO sont en mesure de répondre à la demande des débits plus élevés sans augmenter la bande passante. Ils sont donc devenus la technologie de base pour toutes les prochaines normes de communication sans fils, telles que IEEE 802.11n, WiMAX, 3GPP LTE et 3GPP2 UMB. Pour couvrir la vaste gamme d’applications, les ordinateurs futurs devront supporter simultanément une grande variété de normes de communication sans fil. Avec le nombre croissant d’interfaces "air" qui doit être pris en charge, les implémentations traditionnelles, basées sur l’intégration de plusieurs radios spécifiques, deviennent peu rentables. Cela souligne la nécessité de solutions multi-standards flexibles. Dans cet esprit, le détecteur MIMO sépare spatialement les flux de données multiplexées au niveau du côté du récepteur. Pour la mise en œuvre du détecteur, une large gamme d’algorithmes de détection sont disponibles dans la littérature. Le choix d’un algorithme spécifique influence significativement le rendement ainsi que la complexité de la solution matérielle résultante. Parmi les algorithmes les plus utilisés, les récepteurs linéaires à sortie ferme (hard en anglais) possèdent une faible complexité mais souffrent d’une performance limitée en termes de BER (Bit Error Rate). En revanche, le choix d’un récepteur à sortie souple (soft en anglais) basé sur une détection à maximum de vraisemblance (MV) offre une performance maximale mais au prix d’une grande complexité entraînant une consommation d’énergie importante. Afin de satisfaire aux exigences énergétiques des appareils portables du futur, la conception de récepteurs MIMO et leurs implémentations optimisées sont donc devenues un défi majeur. Plusieurs techniques de détection MIMO ont été proposées telles que la détection linéaire, la détection SIC (Successive Interference Cancelation) ou bien encore les algorithmes de type K-Best. Toutefois, ces détecteurs MIMO sont généralement liés à un schéma de modulation et ne sont pas évolutifs lorsque l’on souhaite changer le nombre d’antennes [66]. En outre, leur consommation d’énergie est encore assez élevée. Par conséquent, ils ne sont généralement pas2.4 Application du modèle à l’algorithme SSFE 61 adaptés pour les systèmes multi-standards économes en énergie. C’est pourquoi, nous nous intéressons dans ce chapitre à l’optimisation de l’algorithme SSFE basé sur un spanning sélectif avec énumération rapide ce qui permet de résoudre les problèmes de la détection MV à l’aide d’une décomposition orthogonale triangulaire de la matrice H de canal. Comme nous l’avons précisé dans le premier chapitre, l’arithmétique en virgule fixe répond aux besoins d’implémentation en termes d’une faible complexité et d’une consommation d’énergie réduite par rapport à la représentation équivalente en virgule flottante. En contre partie, la précision en arithmétique virgule fixe doit être maitrisée et évaluée afin de garantir l’intégrité de l’application conçue. Dans cette section, nous présentons tout d’abord le fonctionnement de l’algorithme SSFE puis nous proposerons un modèle analytique afin d’évaluer la précision en sortie de chaque antenne de détection à la réception en se basant sur le modèle analytique présenté précédemment dans le cadre d’une cascade d’opérateurs non lisses de décision. 2.4.1 Modèle du système MIMO Figure 2.15 – Propagation des erreurs non lisses (corrélées et non corrélées) Le modèle du système utilisé est illustré par la figure 2.15. Pour une raison d’exhaustivité, les blocs de correction d’erreur avant FEC (Forward Error Correction) sont montrés dans la figure. Le nombre d’antennes est égal à Nt et Nr respectivement à l’émission et à la réception. Pour une modulation de type W-QAM, un symbole représente l’un de W = 2g points de constellation. L’émetteur transmet un vecteur binaire x de taille gNt × 1 au sein de chaque vecteur symbole s de taille Nt × 1. La transmission de chaque vecteur s à travers le canal MIMO à évanouissement non sélectif en fréquence peut être modélisée par y = H.s+n, où y représente le vecteur symbole reçu de taille Nr × 1, H caractérise la matrice canal de taille Nt × Nr et n est le vecteur bruit. La tâche du détecteur MIMO consiste à retrouver le vecteur symbole s transmis par le transmetteur. Les détecteurs MIMO à sortie souple fournissent non seulement le vecteur de symboles le plus probable s (comme le font les détecteurs à sortie hard), mais aussi le rapport de vraisemblance logarithmique LLR (Log-Likelihood Ratio) qui correspond au rapport entre les vraisemblances de la valeur mesurée à l’entrée du récepteur sous les deux conditions possibles d’émission d’un bit s égal à 0 ou 1. Les décodeurs modernes, tels que les turbo-décodeurs et les décodeurs LDPC, qui feront l’objet du dernier chapitre de cette thèse, constituent un élément critique essentiel des futurs systèmes de transmission et nécessitent l’utilisation d’entrées souples (ou soft) afin d’obtenir des performances optimales en termes de BER. De tels décodeurs comportent deux éléments principaux : un générateur de liste et un générateur LLR. Le générateur de liste détermine une liste L des vecteurs s les plus probables. Parmi les techniques classiquement utilisées pour effectuer cette opération, le détecteur à maximum de vraisemblance offre de meilleures performances en termes de BER mais il possède une complexité62 Évaluation analytique de la précision des algorithmes de décodage sphérique la plus importante. Dans cette section, nous exploitons la technique de réception de type SSFE pour effectuer la génération de liste dans le contexte des transmissions de type MIMO. 2.4.2 Présentation de l’algorithme Contrairement à l’algorithme K-best traditionnellement utilisé, l’algorithme SSFE possède une structure de type flux de données et ne consomme pas beaucoup de mémoire pour les opérations. De plus, le SSFE est basé sur des opérateurs simples et lisses telles que l’addition, le décalage, la soustraction et également la cascade d’opérateurs de décision, ce qui réduit la complexité de l’implémentation. Par ailleurs, il possède l’avantage d’être paramétrable ce qui permet de régler ses paramètres en fonction du compromis complexité/performance ciblé. Pour la détection MV, le détecteur prend ses décisions suivant la règle : sˆ = arg min s∈ΩNt 0y − Hs02 (2.36) avec ΩNt désignant l’ensemble contenant toutes les réalisation possibles du vecteur signal s de taille Nt × 1. Pour la détection MV-proche (near-ML), seulement un nombre limité de vecteur s sont considérés. Une instance de l’algorithme SSFE est caractérisée uniquement par un vecteur scalaire m = [m1, ..., mNt ], mi ≥ W. Les entrées dans ce vecteur spécifient le nombre des symboles scalaires si qui sont pris en compte au niveau de l’antenne Ni. Il est important de noter qu’avec le paramètre m, un compromis complexité/performance est sélectionné. Le calcul de s peut être visualisé avec l’arbre de spanning. Commençant au niveau i = Nt, le SSFE traverse chaque nœud au niveau i + 1 jusqu’à mi nœuds. Un exemple d’un arbre avec m = [1, 1, 2, 4] est illustré dans la figure 2.16. Figure 2.16 – Exemple d’un arbre de spanning SSFE avec m = [1, 1, 2, 4] Le premier nœud racine est noté par TNt+1 = 0. En commençant du niveau i = Nt, la distance euclidienne partielle DEP d’un vecteur symbole si = [si, si+1, ..., sNt ] est donnée par : Ti(si ) = Ti+1(si+1) + C C Cei(si ) C C C 2 (2.37) avec C Cei(si ) C C 2 décrit l’incrémentation de la DEP. L’algorithme SSFE doit sélectionner un ensemble de si = [si, si+1, ..., sNt ] tel que le pas d’incrémentation de la DEP C Cei(si ) C C 2 soit minimisé. En considérant une décomposition a priori QR triangulaire orthogonale de la matrice canal H (H = QR), le pas pour incrémenter la DEP peut être calculé comme suit :2.4 Application du modèle à l’algorithme SSFE 63 C C Cei(si ) C C C 2 = C C C C C C C C C C C C yˆi − ' Nt j=i+1 Rijsj ? @A B bi+1(si+1) −Riisi C C C C C C C C C C C C 2 . (2.38) Les termes Rij sont les coefficients de la matrice R. Comme la minimisation de C Cei(si ) C C 2 est équivalente à la minimisation de C Cei(si )/Rii C C 2 , l’équation précédente peut être transformée (si Rii n’est pas nul) selon : C C Cei(si )/Rii C C C 2 = C C C C C C C bi+1(si+1)/Rii ? @A B %i −si C C C C C C C 2 = 0$i − si02 . (2.39) Nous pouvons également définir le vecteur y " défini par : 0y − H.s02 = c + C C Cy " − R.s C C C 2 , y" = Qt .y (2.40) avec c est une constante. La tâche du SSFE est de sélectionner un ensemble des points de constellation les plus proches autour de $i. Ceci est fait essentiellement en minimisant C Cei(si )/Rii C C 2 dans l’équation (2.39). Lorsque mi = 1, le point de constellation le plus proche de $i est p1 = D($i), où D désigne l’opérateur de décision. Lorsque mi > 1, plusieurs constellations peuvent être énumérées en se basant sur le vecteur d = $i − D($i). Le principe fondamental de cet algorithme consiste donc à augmenter itérativement l’ensemble autour de $i en appliquant des approximations heuristiques. Un exemple d’une énumération de 8-point est montrée dans la figure 2.17. Le premier point et le dernier point sont notés respectivement par les chiffres 1 et 8. Nous pouvons énumérer plusieurs points de la même manière. L’énumération rapide (EN) possède des avantages clairs avec la modulation PSK tel que l’énumération implémentée dans [66]. Les performances de cet algorithme en termes de BER sont présentées dans [66] ainsi que des comparaisons avec d’autres algorithmes concurrents . Figure 2.17 – Exemple d’une énumération rapide (ER) d’une constellation à 8 points A la réception, l’algorithme SSFE traite le vecteur y " pour effectuer des opérations arithmé- tiques lisses et des opérations de décisions en cascade. A titre d’exemple, la figure 2.18 représente,64 Évaluation analytique de la précision des algorithmes de décodage sphérique dans le cas de 4 antennes, le traitement effectué à la réception par l’algorithme SSFE sur le vecteur y " . Figure 2.18 – Cascade d’opérateurs de décisions : cas de l’algorithme SSFE 2.4.3 Application du modèle analytique proposé Dans cette section, nous proposons d’appliquer le modèle analytique présenté précédemment au cas particulier de l’algorithme SSFE à 4 antennes, ceci afin d’évaluer la précision d’une cascade d’opérateurs de décisions non lisses en tenant compte de la propagation de l’erreur causée par le bruit de quantification du format virgule fixe à travers la cascade existante dans le système de l’antenne 4 jusqu’à l’antenne 1. Afin de pouvoir utiliser le modèle de l’équation (3.4), nous devons modéliser cette propagation du bruit de quantification à l’entrée de chaque opérateur de la cascade. Nous présenterons deux approches de modélisation et de prise en compte de la propagation de l’erreur causée par le bruit de quantification. La première approche consiste à tenir compte de la propagation de l’erreur causée par le bruit de quantification dans la FDP du bruit de quantification à l’entrée de l’opérateur de décision courant. La deuxième approche consiste à modéliser cette propagation de l’erreur dans la FDP du signal présent à l’entrée de chaque opérateur de décision de la cascade. 2.4.4 Première approche Afin d’illustrer cette approche simplement, nous présentons tout d’abord l’étude en considé- rant le cas d’une modulation BPSK où la FDP du signal reçu sur chaque antenne est composée par deux gaussiennes centrées sur -1 et 1 avec une variance σ2 ch. Soit f 4 x(x) la FDP du signal à l’entrée de l’opérateur de décision de l’antenne 4 qui est le premier opérateur de la cascade de l’algorithme SSFE. Dans le cas où les signaux de la constellation BPSK sont équiprobables, cette FDP est donnée par : f 4 X(x) = 1 2. √2π.σch 8 exp(−(x − 1)2 2σ2 ch ) + exp(−(x + 1)2 2σ2 ch ) 9 . (2.41)2.4 Application du modèle à l’algorithme SSFE 65 Nous considérons également que le bruit de quantification b à l’entrée de chaque opérateur de décision est un bruit blanc gaussien de moyenne nulle dont la FDP est : f 4 B(x) = 1 √2π.σb . exp(−(x)2 2σ2 b ). (2.42) Dans ce cas, il y a deux symboles -1 et 1 dont les régions de décision correspondent respectivement aux intervalles ]−∞, 0] et [0, +∞[. Pour l’antenne 4, il existe deux probabilités d’erreur de décision P4 −1,1 et P4 1,−1 qui sont déterminées analytiquement par application directe de l’équation (2.17) : P4 −1,1 = / 0 −∞ + /∞ 0 f 4 X(x)f 4 B(b − x)dbdx P4 1,−1 = + /∞ 0 / 0 −∞ f 4 X(x)f 4 B(b − x)dbdx. (2.43) Et la probabilité d’erreur totale est donnée par : P4 erreur = P4 −1,1 + P4 1,−1. (2.44) Antenne 3 Dans le cas de l’opérateur de décision de l’antenne 3, l’entrée xˆ3 dépend non seulement du signal reçu y " 3 mais aussi de la sortie x˜4 de l’opérateur de décision qui lui précède dans l’antenne 4 : xˆ3 = y " 3 R33 − R34 R33 .x˜4. (2.45) Dépendamment de la valeur décidé x˜4 qui est soit -1 ou 1 dans le cas BPSK, xˆ3 peut prendre les valeurs suivantes : xˆ3|x˜4=1 = y " 3 R33 − R34 R33 xˆ3|x˜4=−1 = y " 3 R33 + R34 R33 . (2.46) Par conséquent lorsqu’une erreur se produit au niveau du bloc de décision de l’antenne 4, elle se propage probablement jusqu’aux prochaines antennes 3, 2 et 1. La FDP du signal à l’entrée de l’opérateur de décision de l’antenne 3 s’écrit dans ce cas comme suit : f 3 x(x) = p(˜x4 = 1).f 3 xˆ3|x˜4=1 (x) + p(˜x4 = −1).f 3 xˆ3|x˜4=−1 (x). (2.47) Les fonctions de densité de probabilité f 3 xˆ3|x˜4=1 (x) et f 3 xˆ3|x˜4=−1 (x) respectivement des signaux xˆ3|x˜4=1 et xˆ3|x˜4=−1 sont égales à la FDP du signal reçu au niveau de l’antenne 3 (y " 3/R33) dont la moyenne est décalée respectivement de −R34 R33 et R34 R33 . Dans le cas où (y " 3/R33) est un signal BPSK possédant une FDP composée de deux gaussiennes équiprobables centrées sur -1 et 1, la FDP du signal xˆ3 à l’entrée de l’opérateur de décision s’écrit comme suit : f 3 x(x) = p(˜x4 = 1) 1 2. √2π.σch 8 exp(−(x − 1 + R34 R33 )2 2σ2 ch ) + exp(−(x +1+ R34 R33 )2 2σ2 ch ) 9 + p(˜x4 = −1) 1 2. √2π.σch 8 exp(−(x − 1 − R34 R33 )2 2σ2 ch ) + exp(−(x + 1 − R34 R33 )2 2σ2 ch ) 9 .(2.48)66 Évaluation analytique de la précision des algorithmes de décodage sphérique Afin de déterminer analytiquement la probabilité d’erreur de décision au niveau de l’antenne n˚3, il est nécessaire de déterminer la FDP du bruit à l’entrée de l’opérateur de décision. Ce bruit n’est pas seulement composé par le bruit de quantification dû à l’arithmétique en virgule fixe, mais aussi par le bruit causé par une erreur de décision produite au niveau de l’antenne précédente n˚4 et propagée à l’antenne actuelle n˚3. En effet, lorsqu’une erreur est produite au niveau de l’antenne précédente n˚4 tel que le scénario correspondant Sk n est une décision du symbole Sj en arithmétique virgule fixe mais elle est le symbole Si en arithmétique virgule flottante, le bruit de quantification au niveau de l’antenne n˚3 sera décalé par dij R34 R33 où dij = Si − Sj définie par l’équation (2.21), représente la différence entre les symboles de la constellation impliqués dans le scénario de l’erreur produite au niveau du bloc de décision précédent. Lorsque i .= j , il s’agit bien d’une erreur de décision, tandis que lorsque i = j (dij = 0), il s’agit du cas où il n y avait pas d’erreur de décision. Ce raisonnement englobe les deux cas (i .= j et i = j). Par conséquent, il convient de préciser, que selon cette approche, le bruit à l’entrée de l’opé- rateur de décision en cours est une somme pondérée de plusieurs bruits. Chaque bruit de la somme caractérise un scénario produit au niveau du précédent opérateur de décision multiplié par la probabilité d’occurrence de ce scénario. Dans le cas d’une constellation BPSK, le bruit à l’entrée de l’opérateur de décision de l’antenne n˚3 est une somme pondérée de trois composantes. La première composante est le bruit de quantification de la conversion en virgule fixe au niveau de l’antenne n˚3, que nous supposons blanc gaussien et centré, pondéré par probabilité de bonne décision au niveau du bloc de décision de l’antenne précédente (1 − P4 erreur). La deuxième composante caractérise le cas où il y avait une erreur de décision de type P4 −1,1 au niveau de l’antenne n˚4. Cette composante n’est que le bruit de quantification au niveau de l’antenne n˚3 décalée par d−1,1. R34 R33 = −2. R34 R33 pondéré par la probabilité de l’occurrence de ce scénario qui est P4 −1,1. La troisième composante est l’autre cas de l’erreur de décision au niveau de l’opérateur de décision de l’antenne n˚4 dont la probabilité est P4 1,−1. De même, cette composante est le bruit de quantification de l’antenne n˚3 décalé de 2. R34 R33 . Par conséquent la FDP du bruit présent au niveau de l’opérateur de décision de l’antenne n˚3 est : f 3 B(b − x) = P4 −1,1.f 3 B,−2. R34 R33 (b − x) + P4 1,−1.f 3 B,2. R34 R33 (b − x) + (1 − P4 erreur).f 3 B,0(b − x). (2.49) Dans le cas d’un bruit blanc gaussien, cette FDP s’écrit par : f 3 B(b − x) = P4 −1,1. 1 √2π.σb . exp(−(b − x − 2. R34 R33 )2 2σ2 b ) + P4 1,−1. 1 √2π.σb . exp(−(b − x + 2. R34 R33 )2 2σ2 b ) + (1 − P4 erreur). 1 √2π.σb . exp(−(b − x)2 2σ2 b ). (2.50) Après avoir déterminé les fonctions densité de probabilité du signal xˆ3 et du bruit b3 à l’entrée de l’opérateur de décision de l’antenne n˚3, nous pouvons déterminer les probabilités d’erreurs de décision P3 i,j par application directe de l’équation (2.17) : P3 i,j = / Ri / Rj f 3 X(x)f 3 B(b − x)dbdx. (2.51) Dans le cas BPSK, les probabilités d’erreurs de décision sont : P3 −1,1 = / 0 −∞ + /∞ 0 f 3 X(x)f 3 B(b − x)dbdx P3 1,−1 = + /∞ 0 / 0 −∞ f 3 X(x)f 3 B(b − x)dbdx. (2.52)2.4 Application du modèle à l’algorithme SSFE 67 Nous avons calculé la probabilité d’erreur de décision pour l’opérateur de décision de l’antenne n˚3 qui constitue une cascade avec le précédent opérateur de décision de l’antenne n˚4. Cette technique prend en compte la propagation du bruit de l’erreur produite au niveau de l’antenne n˚4 jusqu’à l’antenne actuelle n˚3. Cette propagation de l’erreur est modélisée dans la FDP du bruit présent à l’entrée de l’opérateur de décision de l’antenne n˚3 en considérant tous les scénarios possibles produits au niveau du bloc de décision de l’antenne n˚4. La figure 2.19 montre la probabilité d’erreur de décision au niveau de l’opérateur de décision de l’antenne 3 obtenue à partir de cette approche analytique ainsi que celle obtenue par simulation pour différentes valeurs du rapport entre la puissance de signal par élément binaire et celle du bruit. Figure 2.19 – Probabilité d’erreur de décision totale en fonction du rapport signal à bruit Nous remarquons que la probabilité d’erreur de décision calculée analytiquement pour l’opé- rateur de décision de l’antenne n˚3 est conforme à la probabilité d’erreur de décision calculée par la technique de simulation virgule fixe et virgule flottante de l’algorithme SSFE dans le cas d’une constellation BPSK. L’erreur maximale entre la probabilité d’erreur estimée analytiquement et la probabilité estimée par simulation est de l’ordre de 2%. Il convient de préciser par ailleurs que le temps d’exécution pris par la simulation pour estimer cette probabilité d’erreur de décision est largement supérieur aux temps pris pour évaluer numériquement la probabilité analytique. Nous présenterons ultérieurement une étude comparative entre les temps d’exécution obtenus par la méthode de simulation et par le modèle analytique afin de montrer l’intérêt de notre contribution pour l’évaluation des applications contenant des bloc lisses et des cascades d’opérateurs non lisses de décision. Cas générique Dans le cas où les signaux reçus sont de type M-QAM avec une équiprobabilité entre les différents points de constellation, nous suivons également la même stratégie que celle68 Évaluation analytique de la précision des algorithmes de décodage sphérique utilisée dans le cas BPSK afin de déterminer la fonction de densité de probabilité du signal présent à l’entrée de l’opérateur de décision de l’antenne n˚3 ainsi que celle du bruit présent en entrée de l’opérateur. Nous appliquerons ensuite l’intégrale de l’équation (2.17) pour obtenir les différentes probabilités d’erreur de décision P3 i,j . Afin d’évaluer de façon analytique les performances de décision de l’antenne n˚3, il est nécessaire de calculer en premier lieu les FDP f 3 x(x) et fB(b−x). Supposons que la sortie de l’opérateur de décision de l’antenne n˚4 soit x˜4 = Si , alors l’entrée de l’opérateur courant de décision est donnée d’après (2.45) par : xˆ3|x˜4=Si = y " 3 R33 − R34 R33 .Si. (2.53) Par conséquent, la FDP de xˆ3 est définie par : f 3 x = ' M t=1 P(˜x4 = St)fxˆ3|x˜4=Si (2.54) où fxˆ3|x˜4=Si désigne la FDP du signal xˆ3|x˜4=Si qui correspond encore, d’après (2.53), à la FDP du signal y " 3 R33 décalée par R34 R33 .Si. Après cette étape, nous devons déterminer la FDP du bruit b3 à l’entrée de l’opérateur de décision de l’antenne n˚3 en tenant compte de la propagation jusqu’à l’antenne n˚3 d’une erreur de décision due à l’arithmétique virgule fixe et en considérant tous les scénarios possibles d’erreurs produites dans le bloc de décision précédent de l’antenne n˚4. Par conséquent la FDP f 3 B(x) s’écrit par : f 3 b (x) = ' M i=1 ' M j=1 P4 i,j .f 3 B|dij (x) (2.55) où fB|dij désigne la FDP de la composante du bruit présent en entrée de l’opérateur de décision et correspondant à un scénario d’erreur P4 i,j au niveau de l’opérateur de décision de l’antenne n˚4. Cette FDP est la FDP f 3 B|0(b − x) du bruit de quantification causé par la conversion du signal xˆ3 en entrée de l’opérateur de décision en virgule fixe décalée par R34 R33 .dij = R34 R33 .(Si − Sj ). Arrivant à ce stade, nous avons tous les éléments nécessaires pour évaluer la probabilité d’erreur de décision causée par la conversion en format virgule fixe et la propagation des erreurs de quantification pour l’antenne n˚3 dans le cas d’une constellation de type M-QAM. Antenne 2 : Considérons maintenant l’étape suivante de l’architecture du récepteur SSFE, c’est à dire celle qui consiste à évaluer la précision de l’opérateur de décision situé au niveau de l’antenne n˚2. Comme dans le cas de l’antenne n˚3, nous commencerons par une étude dans le cas d’une constellation de type BPSK pour mettre en évidence les mécanismes intervenant dans la propagation du bruit d’un opérateur à l’autre de la cascade et nous présenterons le cas générique pour une constellation de type QAM. Dans le cas de l’antenne n˚2, l’opérateur de décision constitue une cascade avec les deux opérateurs de décision correspondant aux antennes n˚2 et n˚3 situées en amont. Par conséquent l’entrée xˆ2 de l’opérateur de décision de l’antenne n˚2 ne dépend pas seulement du signal reçu y " 2 mais aussi des sorties x˜3 et x˜4 des opérateurs de décision respectivement des antennes n˚3 et n˚4 : xˆ2 = y " 2 R22 − R24 R22 x˜4 − R23 R22 x˜3. (2.56) Afin de déterminer les probabilités d’erreur de décision P2 i,j (lorsque i est égal à j, on obtient alors les probabilités de bonne décision) au niveau de l’opérateur de décision de l’antenne n˚2 et appliquer l’équation (2.17), il faut déterminer la FDP du signal xˆ2 présent en entrée de l’opérateur de décision f(2) x (x) mais également la FDP f(2) B (x) du bruit b2 présent à cette même entrée. Selon cette approche, nous modélisons la propagation des erreurs dans la FDP du bruit en entrée de2.4 Application du modèle à l’algorithme SSFE 69 l’opérateur de décision. A partir de la connaissance de ces FDP, il est possible d’analyser le phénomène de propagation des erreurs à partir de l’analyse de la FDP du bruit présent en entrée de l’opérateur de décision selon l’approche précédemment présentée. Les erreurs survenues au sein des opérateurs de décision des antennes n˚3 et 4, situées en amont, vont donc se propager au sein du système et ceci jusqu’à l’antenne n˚2. Nous commençons par déterminer la FDP du signal en entrée de l’opérateur de décision. Dans le cas d’une modulation BPSK prenant ses valeurs dans l’alphabet {−1, +1}, le signal xˆ2 peut prendre quatre valeurs dépendamment des sorties x˜3 et x˜4 des opérateurs de décision des antennes n˚3 et 4 respectivement. Ce signal est donné par : xˆ2|x˜4=1,x˜3=1 = y " 2 R22 − R24 R22 − R23 R22 xˆ2|x˜4=−1,x˜3=−1 = y " 2 R22 + R24 R22 + R23 R22 xˆ2|x˜4=1,x˜3=−1 = y " 2 R22 − R24 R22 + R23 R22 xˆ2|x˜4=−1,x˜3=1 = y " 2 R22 + R24 R22 − R23 R22 . (2.57) Par conséquent, la FDP du signal xˆ2 à l’entrée de l’opérateur de décision de l’antenne n˚2 est donnée par : f(2) x (x) = p(˜x4 = 1, x˜3 = 1).f 2 xˆ2|x˜4=1,x˜3=1 (x) + p(˜x4 = −1, x˜3 = −1).f 2 xˆ2|x˜4=−1,x˜3=−1 (x) + p(˜x4 = −1, x˜3 = 1).f 2 xˆ2|x˜4=−1,x˜3=1 (x) + p(˜x4 = 1, x˜3 = −1).f 2 xˆ2|x˜4=1,x˜3=−1 (x(2.58) ) où fxˆ2|x˜4=i,x˜3=j désigne la FDP du signal reçu sur l’antenne n˚2 ( y " 2 R22 décalé par −Si. R24 R22 − Sj . R23 R22 . Par conséquent, il est nécessaire de calculer la probabilité p(˜x4 = Si, x˜3 = Sj ). Celle ci est donnée par : p(˜x4 = Si, x˜3 = Sj ) = p(˜x3 = Sj |x˜4 = Si).p(˜x4 = Si). (2.59) Or le signal xˆ3|x˜4=Si présent en entrée de l’opérateur de décision de l’antenne n˚3 sous condition que la sortie de l’opérateur de décision de l’antenne n˚4 soit le symbole Si est donné par : xˆ3|x˜4=Si = y " 3 R33 − Si. R34 R33 . (2.60) Par conséquent la probabilité p(˜x3 = Sj |x˜4 = Si) peut s’écrire comme suit : p(˜x3 = Sj |x˜4 = Si) = / Rj fxˆ3|x˜4=Si (x)dx. (2.61) où fxˆ3|x˜4=Si représente la FDP du signal y " 3 R33 décalée par −Si. R34 R33 . Dans les mêmes conditions d’une constellation BPSK avec des distributions gaussiennes, nous avons : p(˜x4 = Si) = 1 2 ; Si = ±1 (2.62) fxˆ3|x˜4=Si (x) = 1 2. √2π.σch 8 exp(−(x − 1 + Si. R34 R33 )2 2σ2 ch ) + exp(−(x +1+ Si. R34 R33 )2 2σ2 ch ) 9 . (2.63) Il est alors possible, à partir des relations précédentes, d’exprimer la fonction de densité de probabilité du signal présent à l’entrée de l’opérateur de décision xˆ2 de l’antenne n˚2 en tenant70 Évaluation analytique de la précision des algorithmes de décodage sphérique compte de tous les scénarios des sorties de décision des opérateurs des antennes n˚3 et 4 situées en amont. Afin de pouvoir déterminer les probabilités d’erreur de décision P2 i,j de l’antenne n˚2, il est nécessaire d’estimer la FDP du bruit b2 à l’entrée de cet opérateur de décision en tenant compte du bruit de quantification dû au format virgule fixe au niveau de l’antenne n˚2 et de la propagation des erreurs de décision produites au niveau des antennes n˚3 et 4. De façon similaire à ce qui a été exposé pour le cas de l’antenne n˚3, nous modélisons la propagation de ce bruit au sein de la FDP du bruit b2 en entrée de l’opérateur de décision situé sur la voie n˚2. Nous considérerons également comme précédemment que le bruit b2 possède plusieurs composantes, chacune caractérisant un scénario antérieur parfaitement déterminé au niveau des antennes n˚3 et 4. Or, pour chaque antenne, nous avons trois scénarios possibles dans le cas d’une modulation de type BPSK (pas d’erreur, une erreur de type P−1,+1 et une erreur de type P+1,−1), ce qui conduit à un total de 9 composantes possibles. Par conséquent, la FDP du bruit b2 à l’entrée de l’opérateur de décision situé au niveau de l’antenne n˚2 est donnée par : f(2) B (x) = ' 9 k=1 p(Sk BPSK).f(2) B|Sk BPSK (x). (2.64) Avec p(Sk BPSK) est la probabilité de l’occurrence du scénario Sk BPSK. fSk BPSK est la FDP de la composante du bruit qui caractérise la propagation de l’erreur générée par ce scénario. A titre d’exemple, si l’on considère le scénario correspondant à une erreur de type P−1,+1 et P+1,−1 respectivement au niveau des antennes n˚4 et 3, la probabilité de réalisation de ce scénario est alors donnée par : P((˜xvf lo 4 = −1, x˜vf ix 4 = 1),(˜xvf lo 3 = −1, x˜vf ix 3 = −1) ? @A B scenario propagé ) = P4 −1,1.P3 1,−1. (2.65) Par ailleurs, la FDP f(2) B|Sk BPSK (x) de la composante de bruit associée à ce scénario sera donnée par la FDP du bruit de quantification de moyenne décalée de −(−1 − 1). R24 R22 − (1 − (−1)). R23 R22 . En suivant cette stratégie, nous pouvons déterminer toutes les composantes qui modélisent la propagation des erreurs de décisions engendrées par l’arithmétique virgule fixe et par conséquent la FDP du bruit b2 présent à l’entrée de l’opérateur de décision de l’antenne n˚2 est déterminée. A ce stade de notre analyse, nous avons tous les éléments nécessaires pour appliquer l’équation (2.17) afin d’exprimer les probabilités d’erreur de décision P2 i,j . Afin d’évaluer numériquement les quantités impliquées dans cette approche mathématique, nous avons calculé les différentes expressions analytiques à l’aide de MATHEMATICA [50] qui est un logiciel de calcul formel. Les résultats ainsi obtenus sont donnés à la figure 2.20 où nous avons représenté la probabilité totale d’erreur de décision en fonction du rapport signal à bruit dans le cas d’une constellation de type BPSK lorsque les bruits de quantification et le bruit de canal sont considérés comme gaussiens (hypothèses similaires à celles faites lors de l’analyse de l’antenne n˚3). D’après cette figure, nous remarquons la coïncidence entre la probabilité d’erreur de décisions obtenue à l’aide du modèle analytique et celle obtenue à partir de simulations de type Monte Carlo pour des RSB compris entre 0 et 10 dB. De même que dans le cas de l’antenne n˚3, l’erreur maximale entre les deux probabilités estimées est de l’ordre de 2%.2.4 Application du modèle à l’algorithme SSFE 71 Figure 2.20 – Probabilité d’erreur de décision totale en fonction du rapport signal à bruit Cas générique Dans le cas d’une constellation de type M-QAM, le signal à l’entrée de l’opé- rateur de décision de l’antenne n˚2 est défini par la relation (2.56). En considérant de plus que les sorties des opérateurs de décision des antennes n˚4 et n˚3 soient respectivement les symboles Si et Sj , nous obtenons : xˆ2|x˜4=Si,x˜3=Sj = y " 2 R22 − Si R24 R22 − Sj R23 R22 . (2.66) Par conséquent, la FDP du signal xˆ2 à l’entrée de l’opérateur de décision de l’antenne n˚2 est donnée par : f(2) x (x) = ' M i=1 ' M j=1 p(˜x4 = Si, x˜3 = Sj ).f(2) xˆ2|x˜4=Si,x˜3=Sj (x). (2.67) Avec f(2) xˆ2|x˜4=Si,x˜3=Sj (x) (Si = ±1; Sj = ±1) est la FDP du signal ( y " 2 R22 reçu sur l’antenne n˚2 décalé par −Si. R24 R22 − Sj . R23 R22 . Les probabilités p(˜x4 = Si, x˜3 = Sj ) sont déterminées de la même façon que le cas BPSK. Il ne reste qu’à déterminer la FDP du bruit b2 en entrée de l’opérateur de décision afin d’exprimer toutes les probabilités d’erreur de décision P2 i,j en tenant compte de la propagation des différents scénarios possibles d’erreurs de décision produites au niveau des antennes n˚3 et n˚4. Pour les antennes n˚3 et n˚4, il y a M(M − 1) erreurs de décision possibles causées par le format arithmétique virgule fixe pour chaque antenne excepté le scénario où il n’y a pas d’erreur de décision. Le nombre de scénarios possibles de propagation des erreurs des précédents blocs de décision jusqu’à l’opérateur de décision de l’antenne n˚2 et (M(M − 1) + 1)2. Nous avons donc :72 Évaluation analytique de la précision des algorithmes de décodage sphérique f(2) B (x) = (M(M−1)+1) ' 2 k=1 p(Sk M−QAM).f(2) B|Sk BPSK (x). (2.68) Les différentes probabilités de l’occurrence des scénarios p(Sk M−QAM) sont déterminées de la même façon que le cas BSPK. Deuxième approche L’approche précédente nécessite d’évaluer la FDP du signal et du bruit à l’entrée de chaque opérateur de décision pour chaque antenne de l’algorithme SSFE en tenant compte de tous les scénarios possibles de la propagation des erreurs de décision d’un opérateur à un autre dans la cascade considérée. La nature itérative d’une telle approche entraîne naturellement une complexité importante de l’implémentation associée dans le cas générique, et ceci d’autant plus que la constellation numérique utilisée possède un haut rendement spectral. Afin de réduire cette complexité, nous proposons de modéliser la propagation des erreurs de décision dans la FDP du signal en entrée de l’opérateur de décision considéré dans la cascade en tenant compte de tous les scénarios possibles. Antenne 3 Avec cette technique, nous prenons en compte la distance dij = Si − Sj lorsqu’une erreur de décision est produite au niveau de l’opérateur de décision de l’antenne n˚4 avec une probabilité P4 i,j . Soit xˆ3,ij le signal à l’entrée du bloc de décision de l’antenne n˚3 qui prend en compte la différence dij entre les symboles impliqués dans l’erreur produite au niveau de l’antenne n˚4 : xˆ3,ij = y " 3 R33 − R34 R33 dij . (2.69) La FDP fxˆ3,st (x) du signal xˆ3,ij est égale à la FDP du y " 3 R33 décalée par R34 R33 dij . Par consé- quent la probabilité d’erreur de décision P3 i,j au niveau de l’opérateur de décision de l’antenne n˚3 correspond à la somme pondérée des probabilités d’erreur de décision partielles P3 i,j|s,t sous contrainte de la propagation d’un scénario d’erreur de décision produit lors du bloc de décision de l’antenne n˚4 correspondant à l’évènement aléatoire suivant : pour l’antenne n˚4, décision d’un symbole St en arithmétique virgule fixe alors que ce symbole correspond à Ss en arithmétique flottante. La probabilité d’un tel évènement sera notée P4 s,t dans la suite du manuscrit. Chaque élément de cette somme est pondéré par la probabilité de l’occurrence du scénario qui lui correspond. Au niveau de l’antenne n˚3, la probabilité d’erreur de décision P3 i,j|s,t est obtenue à partir de la relation (2.17) suivant : P" 3 i,j|s,t = / Ri / Rj fxˆ3,st (x))f 3 B(b − x)dbdx. (2.70) Par conséquent les probabilités d’erreur de décision P3 i,j sont déterminées par : P3 ij = ' M s,t=1 P4 s,t / Ri / Rj fxˆ3,st (x)f 3 B(b − x)db.dx (2.71) P3 ij = / Ri / Rj ( ' M s,t=1 P4 s,tfxˆ3,st (x))f 3 B(b − x)dbdx. (2.72) La figure 2.21 représente, dans le cas d’une constellation de type 4-QAM, la probabilité d’erreur de décision au niveau de l’antenne n˚3 estimée à partir de l’équation (2.72) mais également celle obtenue à partir de simulations de type Monte Carlo. La constellation 4-QAM est constituée2.4 Application du modèle à l’algorithme SSFE 73 de 4 symboles modulés : S1 = 1+ i; S2 = −1 + i; S3 = −1 − i; S4 = 1 − i. Chaque symbole Sk est composé d’une composante en phase Sre k et d’une composante en quadrature Sim k qui prennent leurs valeurs de façon équiprobable dans l’alphabet binaire -1,+1. Nous considérons que les signaux reçus sur les antennes suivent une loi gaussienne dont la FDP est donnée par : fX(x, y) = 1 2.π.σ2 ch . 1 M ' M i=1 exp(−(x − Sre i )2 − (y − Sim i )2 2σ2 ch ). (2.73) Nous considérons également que le bruit de quantification est un bruit blanc bidimensionnel dont la FDP est donnée par : fB(x, y) = 1 2.π.σ2 b . exp(−(x)2 − (y)2 2σ2 b ). (2.74) La figure 2.21 représente les probabilités d’erreur de décision Pij évalués analytiquement et par simulation dans le cas d’une puissance du bruit de quantification de 0.5. Figure 2.21 – Probabilité d’erreur de décision P3 ij dans le cas d’une puissance du bruit de quantification de 0.5 Nous pouvons remarquer que les Pii sont les probabilités les plus élevées parce qu’elles sont en d’autres termes les probabilités de ne pas avoir une erreur de décision. Par contre les probabilités d’erreur de décision PS1,S3 et PS3,S1 sont quasiment égales et correspondent aux probabilités d’erreur de décision les plus faibles car les symboles S1 et S3 sont les symboles les plus éloignés de la constellation. C’est également le cas pour les probabilités PS2,S4 et PS4,S2 . De façon analogue aux résultats établis dans le cas de la première approche, nous représentons à la figure 2.22 la probabilité d’erreur de décision totale obtenue à partir de l’approche analytique présentée ci-avant et celle obtenue à partir de simulations de type Monte-Carlo.74 Évaluation analytique de la précision des algorithmes de décodage sphérique Figure 2.22 – Probabilité d’erreur au niveau de l’antenne n˚3 de décision totale dans le cas d’une constellation 4-QAM Antenne 2 En suivant le même raisonnement que précédemment, nous analysons ci-après les performances de l’algorithme SSFE au niveau de l’antenne de réception n˚2. Soit xˆ2,ij,st le signal présent à l’entrée de l’opérateur de décision de l’antenne n˚2 sous contrainte d’un scénario comportant une erreur de décision provenant des opérateurs de décision situés en amont (antenne n˚3 et/ou n˚3). En appelant Pk s,t la probabilité de commettre une erreur de décision correspondant à l’évènement aléatoire suivant : pour l’antenne n˚k, décision d’un symbole St en arithmétique virgule fixe alors que ce symbole correspond à Ss en arithmétique flottante, nous avons : xˆ2,ij,st = y " 2 R22 − R24 R22 dij − R23 R22 dst. (2.75) La FDP de xˆ2,ij,st est égale à la FDP de y " 2 R22 décalée par −R24 R22 dij − R23 R22 dst. Par conséquent les probabilités d’erreur de décision P2 ij sont égales à la somme pondérée des probabilités partielles P" 2 i,j|st,pq qui sont déterminées en appliquant le modèle de l’équation (2.17) à la FDP fxˆ2,pq,st de xˆ2,pq,st et la FDP du bruit de quantification en les multipliant par la probabilité de l’occurrence de ce scénario P4 p,qP3 s,t, soit : P2 ij = / Ri / Rj ( ' M p,q,s,t=1 P4 p,qP3 s,tfxˆ(2),pq,st (x))f(2) B (b − x)dbdx. (2.76) Antenne n˚1 Pour l’antenne n˚1 qui est la dernière antenne du système MIMO considéré, nous utilisons la même technique pour déterminer les probabilités d’erreur de décision P1 ij . Par conséquent nous définissons f1(x) la FDP du signal à l’entrée de l’opérateur de décision de2.4 Application du modèle à l’algorithme SSFE 75 l’antenne n˚1, en tenant compte de tous les scénarios d’erreurs et de bonnes décisions possibles au niveau des autres antennes précédentes n˚2, 3 et 4, par : f 1(x) = ' M p,q,s,t,v,w=1 P4 p,qP3 s,t.P2 v,wfxˆ1,pq,st,vw (x). (2.77) où fxˆ1,pq,st,vw (x) désigne la FDP du signal xˆ1,pq,st,vw à l’entrée de l’opérateur de décision de l’antenne n˚1 sous contrainte d’un scénario d’erreur de décision au niveau des antennes situées en amont dont la probabilité d’occurrence est P4 p,q.P3 s,t.P2 v,w. Elle est égale à la FDP du signal reçu y " 1 R11 décalée par −R14 R11 .dpq − R13 R11 .dst − R12 R11 .dvw. Par conséquent les probabilités d’erreur de décision P1 i,j sont définies par : P1 ij = / Ri / Rj f1(x)f 1 B(b − x)dbdx. (2.78) Figure 2.23 – Probabilité d’erreur de décision totale dans le cas d’une constellation 4-QAM Comme dans le cas de l’antenne n˚3, nous représentons sur les figures 2.23 et 2.25 les probabilités d’erreur de décision au niveau des antennes n˚2 et n˚1. Les conditions d’expérimentations sont identiques à celles sélectionnées précédemment pour l’étude de l’antenne n˚3. Ainsi, les signaux reçus correspondent aux symboles 4-QAM perturbés un bruit blanc additif, bi-variant, gaussien, et centré. De même, le bruit de quantification est modélisé dans ces expériences par un bruit blanc gaussien bidimensionnel de moyenne nulle. La matrice R utilisée dans ces expériences est donnée par :76 Évaluation analytique de la précision des algorithmes de décodage sphérique R =   −0.4993 −0.1413 − 0.1131i 0.3099 − 0.3319i −0.4374 + 0.3375i 0 0.48 −0.025 − 0.1395i 0.1814 + 0.1514i 00 0.403 −0.0303 − 0.1145i 00 0 −0.4766   (2.79) Figure 2.24 – Probabilité d’erreur de décision P2 ij dans le cas d’une constellation 4-QAM Nous remarquons que la probabilité d’erreur de décision totale causée par l’arithmétique virgule fixe augmente d’une antenne à l’autre de la cascade d’opérateurs de décision pour un rapport signal à bruit donné en entrée du récepteur. Ce résultat était prévisible puisque la propagation des erreurs de décision non lisses augmente la probabilité d’avoir d’autres erreurs de décision au sein des opérateurs de décision correspondant aux antennes situées en aval de l’antenne courante. En effet, le bruit à l’entrée de l’opérateur de décision considéré n’est pas seulement constitué du bruit de quantification du format virgule fixe, mais aussi d’autres bruits modélisant les erreurs engendrées par les opérateurs de décision situés en amont de l’antenne courante. Nous pouvons également vérifier la robustesse de notre modèle analytique en comparant les probabilités d’erreur de décision Pi,j analytiques et celles obtenues par simulation. La somme de toutes les probabilités Pi,j est égale à 1, ce qui valide le modèle analytique proposé. De plus d’après les figures, il est clair que les probabilités obtenues analytiquement sont très proches des probabilités par simulation avec une marge d’erreur très faible (inférieure à 1%).2.4 Application du modèle à l’algorithme SSFE 77 Figure 2.25 – Probabilité d’erreur de décision totale dans le cas d’une constellation 4-QAM Figure 2.26 – Probabilité d’erreur de décision P1 ij dans le cas d’une constellation 4-QAM Afin de montrer l’intérêt du modèle analytique proposé, nous citons un ordre de grandeur du temps d’exécution mis pour estimer l’ensemble des probabilités d’erreur de décision P1 i,j au niveau de l’opérateur de décision de l’antenne n˚1. Le temps d’exécution nécessaire pour évaluer78 Évaluation analytique de la précision des algorithmes de décodage sphérique numériquement les probabilités P1 i,j dans le cas d’une constellation 4-QAM est de 6 minutes et 37 secondes. Par contre, le temps nécessaire à la simulation de toute la chaîne de transmission MIMO avec un détecteur SSFE en arithmétique virgule flottante et en arithmétique virgule fixe est de l’ordre 47 minutes et 56 secondes avec les mêmes ressources informatiques et les mêmes capacités de calcul et mémoire (Processeur Intel i7 2.50 GHz, 4 coeurs, RAM : 4 Go). 2.5 Conclusion Dans ce chapitre, nous avons caractérisé les opérateurs non lisses et leurs identifications. Dans un premier temps, nous avons présenté un modèle analytique pour l’évaluation de la précision d’un opérateur de décision non lisse en estimant la probabilité d’erreur de décision causée par la quantification du format virgule fixe. Ensuite, nous avons analysé la propagation des erreurs de décision au sein d’un système contenant plusieurs opérateurs non lisses de décision afin d’être en mesure de proposer un modèle général pour évaluer la précision des systèmes contenant une cascade d’opérateurs de décision en tenant compte de la propagation des erreurs et de tous les scénarios d’erreurs possibles dans la cascade. En outre, nous avons développé ce modèle dans le cas de l’algorithme SSFE en proposant deux approches pour estimer les probabilités d’erreur de décision au sein de chaque opérateur de décision impliqué dans la cascade au niveau de l’algorithme. Nous avons réussi à proposer un modèle analytique pour évaluer la cascade d’opérateurs de décision et résoudre le problème d’évaluation de l’influence de la représentation en virgule fixe pour une certaine classe d’algorithmes de communications numériques. Cependant, d’autres algorithmes, également constitués par des blocs d’opérations lisses et des opérateurs de décision, ne peuvent être analysés à l’aide de ce modèle en raison de leur structure récursive. Le récepteur à égaliseur à retour de décision (DFE pour Decision Feedback Equalizer) en est un exemple important. Dans le prochain chapitre nous proposerons des modèles analytiques pour évaluer ce genre de configuration et nous montrerons comment les modèles proposés peuvent contribuer à une implémentation matérielle efficace en termes de consommation de ressources matérielles et d’énergie.Chapitre 3 Évaluation de la précision de l’itération d’opérateur de décision Sommaire 3.1 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 3.1.1 Caractéristiques de la propagation du bruit . . . . . . . . . . . . . . . . 80 3.2 Modèle analytique proposé . . . . . . . . . . . . . . . . . . . . . . . . . . 81 3.2.1 Approche basée sur la résolution d’un système non linéaire à l’aide de l’algorithme de Newton-Raphson . . . . . . . . . . . . . . . . . . . . . . 81 3.2.2 Borne supérieure de la probabilité d’erreur . . . . . . . . . . . . . . . . 85 3.3 Évaluation de la précision de l’égaliseur à retour de décision . . . . . 88 3.3.1 Présentation de l’algorithme DFE . . . . . . . . . . . . . . . . . . . . . 88 3.3.2 Résultat pour le cas non adaptatif . . . . . . . . . . . . . . . . . . . . . 89 3.3.3 Solution proposée pour le cas adaptatif . . . . . . . . . . . . . . . . . . 90 3.4 Optimisation du format virgule fixe pour l’implémentation matérielle 94 3.4.1 Présentation de l’architecture . . . . . . . . . . . . . . . . . . . . . . . . 94 3.4.2 Implémentation sur FPGA . . . . . . . . . . . . . . . . . . . . . . . . . 95 3.4.3 Les contraintes du choix du format de représentation . . . . . . . . . . . 97 3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 Nous avons présenté dans le chapitre précédent des modèles analytiques pour évaluer la précision des opérateurs non lisses de décision et leurs cascades en estimant la probabilité d’erreur de décision causée par le bruit de quantification de l’arithmétique virgule fixe et également la propagation des erreurs de décision d’un opérateur de décision à un autre dans un système constitué d’une cascade de ces opérateurs, tel par exemple qu’un récepteur utilisant un décodage sphérique de type SSFE. Néanmoins, d’autres systèmes de communication numérique et de traitement de signal, tels que les algorithmes d’égalisation à retour de décision ou bien encore le turbo décodage, présentent des itérations d’opérateurs non lisses au sein d’une structure récursive ce qui est encore équivalent à considérer une cascade infinie d’opérateurs de décision. Par conséquent, il est intéressant de se demander dans quelle mesure les modèles proposés au chapitre précédent pour l’évaluation de la précision des applications contenant des cascades d’opérateurs de décision sont applicables pour évaluer les itérations d’opérateurs de précision lisses et sous quelles contraintes ? Donc, il est nécessaire d’analyser la propagation des erreurs de décision non lisses dans ces applications en modélisant cette propagation du bruit et des erreurs de décision. En effet, il est fondamental de caractériser l’effet des erreurs de décision dans des applications d’itérations d’opérateurs non lisses de décision spécifiquement au moment où l’application converge vers les performances visées par le concepteur. A notre connaissance, il n’existe aucun modèle analytique disponible dans la littérature permettant d’évaluer les performances de ces applications en virgule fixe pour un format bien déterminé. Par conséquent, il est important de proposer des modèles analytiques permettant de caractériser les erreurs de décision lors de la phase asymptotique 7980 Évaluation de la précision de l’itération d’opérateur de décision de ces applications comportant des itérations d’opérateurs non lisses. En effet, il est nécessaire de pouvoir disposer de tels outils afin de sélectionner le format optimal de représentation en arithmétique virgule fixe en termes de probabilité d’erreur de décision minimale mais aussi en termes d’optimisation de l’implémentation matérielle à travers la minimisation des ressources et de la consommation en énergie. Ce chapitre vise à présenter des modèles analytiques permettant d’évaluer la précision des applications formées de structures récursives d’opérateurs non lisses. Nous présenterons dans un premier temps la problématique de la propagation des erreurs dans le cas de ces applications. Ensuite deux modèles analytiques pour évaluer la précision des itérations d’opérateurs de décision seront représentés par deux approches différentes. Nous validerons ces modèles dans la troisième section en les appliquant dans le cas de l’égaliseur à retour de décision DFE (Decision Feedback Equaliser). Dans la dernière section de ce chapitre, nous illustrons l’intérêt de ces modèles analytiques dans le cas particulier de l’optimisation du format en virgule fixe du DFE pour une implémentation sur FPGA. 3.1 Problématique Nous considérons un système représenté par la figure 3.1 constitué par des blocs d’opérations lisses et une itération d’opérateurs de décision. Ce système est constitué d’une opération de décision dont la sortie influence la prochaine décision jusqu’à une convergence de l’application du système. Figure 3.1 – Système contenant une itération d’opérateur de décision Ce système est composé de N entrées Y = [y1, y2, ..., yN ] qui sont perturbées par les bruits de quantification B = [b1, b2, ..., bN ]. Chaque bruit bi perturbe l’entrée yi. Soient xˆi et x˜i respectivement l’entrée et la sortie de l’opérateur de décision à la i eme itération. Le second bloc d’opérations lisses dont la fonction est L2(ˆxi−1, xˆi−2, ..., xˆi−Tl ) possède à son entrée les sorties de l’opérateur de décision aux itérations précédant l’itération actuelle avec une mémoire de taille Tl éléments. Dans la suite du chapitre, nous nommerons xˆvf lo i et xˆvf ix i les entrées de l’opérateur de décision à l’itération n˚i respectivement en arithmétique virgule flottante et virgule fixe. De même, x˜vf lo i et x˜vf ix i correspondent aux sorties de l’opérateur de décision à l’itération n˚i respectivement en arithmétique virgule flottante et virgule fixe. 3.1.1 Caractéristiques de la propagation du bruit Dans le chapitre précédent, nous avons présenté un modèle analytique pour l’évaluation de la précision d’un opérateur de décision non lisse. Ce modèle n’est plus valide pour évaluer la précision d’un système constitué d’une structure récursive de plusieurs opérateurs de décision. Par conséquent, il est nécessaire de modifier ce modèle et de l’adapter aux contraintes de ces3.2 Modèle analytique proposé 81 systèmes en tenant compte de tous les scénarios d’erreurs possibles et leurs propagations dans le système considéré. De même, il est fondamental de caractériser la propagation des erreurs de décision et leur impact non seulement sur la décision de l’itération en cours, mais aussi lorsque le système converge. Pour cette raison, il est important de modéliser cette propagation dans le mode de convergence des systèmes comportant des itérations d’opérateurs non lisses. A l’itération courante (n˚i), le signal présent en entrée de l’opérateur de décision est donné par : xˆvf ix i = L1(˜xvf ix i−1 , x˜vf ix i−2 , ..., x˜vf ix i−Tl ) + L2(yvf ix 1 , ..., yvf ix N ) = L1(˜xvf lo i−1 , x˜vf lo i−2 , ..., x˜vf lo i−Tl ) + L2(yvf lo 1 , ..., yvf lo N ) + l(bi−Tl , ..., bi−1, x˜vf ix i−1 , x˜vf ix i−2 , ..., x˜vf ix i−Tl , x˜vf lo i−1 , x˜vf lo i−2 , ..., x˜vf lo i−Tl ) + bL = ˆxvf lo i + Lpro(Bi , X˜i vf lo, X˜i vf ix) + bL (3.1) où Bi est le vecteur des perturbations à l’itération i. Lpro représente la fonction de propagation du bruit de quantification lors des itérations précédentes en respectant la taille Tl de la mémoire du bloc lisse situé après l’opérateur de décision de l’itération. Le signal bL correspond au bruit ajouté par les opérateurs lisses de l’implémentation en arithmétique virgule fixe des fonctions lisses L1 et L2. Enfin, X˜i vf ix = [˜xvf ix i−1 , x˜vf ix i−2 , ..., x˜vf ix i−Tl ] et X˜i vf lo = [˜xvf lo i−1 , x˜vf lo i−2 , ..., x˜vf lo i−Tl ] désignent les vecteurs contenant les sorties des opérateurs de décision enregistrées dans la mémoire du bloc lisse respectivement en arithmétique virgule fixe et virgule flottante. La propagation des erreurs à la sortie de l’opérateur de décision des itérations précédentes possède des caractéristiques non lisses. Par conséquent, la fonction Lpro de la propagation des bruits de quantification doit être évaluée pour chaque erreur de la première itération jusqu’à l’itération courante en cours d’évaluation. Cette évaluation est nécessaire jusqu’à la convergence du système où l’impact de la quantification doit être négligeable si l’on souhaite obtenir une évaluation précise des paramètres de ce système. 3.2 Modèle analytique proposé L’objectif de la caractérisation de la propagation des erreurs de quantification d’une itération à l’autre consiste à évaluer les différentes probabilités d’erreur de décision Pij lorsque le système converge. En effet, la convergence du système conduit à une convergence au niveau des probabilités d’erreur de décision d’une itération à une autre. En d’autres termes, l’évolution de la probabilité d’erreur de décision d’une itération à une autre est négligeable lors de la phase de convergence asymptotique. Deux approches différentes sont proposées pour résoudre cette problématique. La première approche est basée sur une résolution d’un système non linéaire en utilisant la méthode de NewtonRaphson qui sera détaillée dans la section suivante. La deuxième approche est fondée sur le principe de détermination d’une borne supérieure de l’erreur de décision dans la zone de convergence du système. 3.2.1 Approche basée sur la résolution d’un système non linéaire à l’aide de l’algorithme de Newton-Raphson Considérons vvf lo et vvf ix deux instances des valeurs prises respectivement par X˜i vf lo et X˜i vf ix. Par conséquent, la fonction de propagation s’écrit sous sa forme particulière l v pro qui est réduite à une fonction dépendante du vecteur des perturbations Bi. Le signal en virgule fixe à l’entrée de l’opérateur de décision au cours de l’itération i s’écrit par la relation suivante : xˆvf ix i = ˆxvf lo i + l v pro(Bi) + bL = ˆxvf lo i + bt. (3.2) Les vecteurs des données en entrée de l’opérateur de décision en arithmétique virgule fixe et virgule flottante représentent conjointement un scénario S déterminé par les conditions en82 Évaluation de la précision de l’itération d’opérateur de décision entrée et la propagation des signaux à travers les blocs lisses L1 et L2. Les bruits des blocs lisses engendrés par l’implémentation en arithmétique virgule fixe sont intégrés au sein du paramètre bt. En ce qui concerne l’opérateur de décision, nous considérons dans la suite que, à chaque itération, celui-ci effectue une décision dans un alphabet correspondant aux M symboles constituant la constellation de la modulation utilisée. Ainsi, le vecteur X˜i peut prendre C = MTl combinaisons possibles. Le vecteur V i défini par V i = [vvf lo, vvf ix] représente un scénario bien déterminé des valeurs particulières prises par les vecteurs X˜i vf lo et X˜i vf ix. Il existe C × C scénarios possibles. Par conséquent, après N itérations, la probabilité P Sk i,j d’erreur de décision est déterminée comme dans le cas de la cascade d’opérateurs de décision par l’équation suivante : P Sk i,j = / Ri / Rj fSk x (x)fb(b − x)dbdx. (3.3) Cette probabilité représente la probabilité que la valeur de x˜N corresponde à Si en arithmé- tique virgule flottante et à Sj en arithmétique virgule fixe sous la la condition de la réalisation d’un scénario Sk. La fonction fSk x (x) représente la FDP du signal xˆvf lo N correspondant à la réalisation du scénario Sk. De façon analogue, fb(b) correspond à la FDP du bruit total bt. La probabilité P i, j d’erreur de décision Pi,j à la sortie de l’opérateur de décision au cours de l’itération N est déterminée en considérant tous les scénarios possibles de propagation des erreurs de quantification. Par conséquent, la probabilité d’erreur de décision P N i,j à la sortie de l’opérateur de décision de l’itération N est une somme des probabilités P Sk i,j d’erreurs de décision sous la contrainte du scénario Sk pondérées par la probabilité PSk de réalisation de ce scénario. P N i,j = ' C2 k=1 PSk P Sk i,j = ' C2 k=1 / Ri / Rj PSk fSk x (x)fb(b − x)dbdx. (3.4) La détermination des probabilités Psk est faite de la même façon que dans le cas d’une cascade d’opérateurs de décision en respectant la taille de la mémoire Tl du bloc lisse sauvegardant les sorties de l’opérateur de décision obtenues lors des itérations précédentes. Par conséquent, la probabilité Psk de l’occurrence du scénario k est donnée par : PSk = P((˜xvf lo N−1 = SiN−1 , x˜vf ix N−1 = SjN−1 ) et ... et (˜xvf lo N−Tl = SiN−Tl , x˜vf ix N−Tl = SjN−Tl )). (3.5) Les paramètres Sir et Sjr représentent les valeurs prises par les sorties de l’opérateur de décision respectivement en arithmétique virgule flottante et virgule fixe au cours de l’itération r. Considérons le cas où les sorties de l’opérateur de décision ne sont pas corrélées. Par conséquent la probabilité de l’occurrence du scénario k est le produit des probabilités d’erreur de décision Pk ir,jr = P(˜xvf lo r = Sir , x˜vf ix r = Sjr ) : PSk = N >−1 r=N−Tl Pk ir,jr . (3.6) Ainsi, la probabilité d’erreur de décision P N i,j s’écrit sous la forme suivante : P N i,j = ' C2 k=1 N >−1 r=N−Tl Pk ir,jr .P Sk i,j = P N−1 i,j + β (3.7) où β désigne une quantité positive. Par conséquent, la probabilité d’erreur de décision Pi,j converge puisqu’elle constitue une suite croissante et majorée. L’objectif est d’évaluer cette probabilité analytiquement dans le mode de convergence. Nous pouvons utiliser l’approche analytique3.2 Modèle analytique proposé 83 de la cascade d’opérateurs de décision pour déterminer analytiquement la probabilité d’erreur de décision dans la zone de convergence. Par contre, lorsqu’il s’agit d’un nombre assez élevé d’itérations pour atteindre le mode de convergence, cette approche nécessite de très grandes capacités de calculs pour prendre en compte tous les scénarios possibles. Par conséquent, il est nécessaire de trouver une autre piste afin d’évaluer analytiquement cette probabilité d’erreur de décision lorsque le système converge. Soit Pk le vecteur des probabilités d’erreur de décision Pk i,j à l’itération k défini par : Pk = [Pk 1,1, Pk 1,2, ..., Pk i,j , ..., Pk M,M] T . (3.8) Lors de la phase de convergence asymptotique, on a Pk = P quel que soit k>k0, avec P représentant le vecteur des probabilités d’erreur de décision. Par conséquent, l’équation (3.7) conduit à un système non linéaire de M2 inconnues sous la conditions que 4 M i,j=1 Pi,j = 1. En conséquence, le problème d’évaluation de la précision conduit à la résolution d’un système non linéaire à M2 inconnues défini par : P = RP .P (3.9) avec RP représentant une matrice de dimension M2 × M2 et qui dépend du vecteur P ce qui rend le système (3.9) non linéaire. Afin de résoudre numériquement ce problème non linéaire, nous avons sélectionné l’algorithme de Newton-Raphson en raison de la simplicité de sa mise en œuvre, mais aussi pour son efficacité et sa rapidité. Considérons un système non linéaire de dimension n défini par : fi(x1, x2, ..., xn) = 0; 1 ≤ i ≤ n. (3.10) Soit X = (x1, x2, ..., xn). Au voisinage de X, nous pouvons écrire un développement de Taylor à l’ordre 1 pour chaque fonction fi : fi(X + δX) = fi(X) + 'n j=1 dfi dxj (X)δxj + O(0δX02 ). (3.11) Le principe de l’algorithme de Newton-Raphson consiste à considérer que l’on puisse connaître un vecteur X qui se situe dans le le voisinage de la solutions optimale. Ensuite, nous cherchons δX tel que X + δX s’approche de la solution en négligeant les termes de second ordre dans le développement de Taylor. Nous itérons ce processus, i.e. X < −X + δX, jusqu’à ce que le terme correctif δX devienne négligeable ce qui conduit à la phase de convergence asymptotique. Par conséquent, le système non linéaire est réduit à un système linéaire avec n equations et n inconnues qui sont les éléments du vecteur δX. Le détail de l’algorithme Newton-Raphson est explicité dans l’annexe. Afin de valider cette approche, nous considérons le système défini par la figure 3.2. Figure 3.2 – Système composé d’itération d’opérateurs de décision Ce système est constitué d’un opérateur de décision en itération avec un filtre FIR de L coefficients. Le signal xˆk à l’entrée de l’opérateur de décision au cours de l’itération k dépend84 Évaluation de la précision de l’itération d’opérateur de décision non seulement du signal reçu xk mais aussi des sorties de l’opérateur de décision x˜ au cours des itérations précédentes sous contrainte de la taille de la mémoire du filtre L. Le signal xˆk est défini par : xˆk = xk − ' L l=1 hl.x˜k−l (3.12) où hi désignent les coefficients du filtre H. Nous visons à déterminer la probabilité d’erreur de décision dans le mode de convergence du système en s’appuyant sur l’approche explicitée ci dessus. Soit ze k le signal qui prend en compte le signal xk et soit ∆i,j la différence entre les symboles impliqués dans l’erreur produite dans les itérations précédentes. Le signal ze k s’écrit par : ze k = xk − ' L l=1 hl.∆il,jl . (3.13) Par conséquent, la FDP fze k (x) du signal ze k dépend des probabilités d’erreur de décision précédentes Pk−1 i1,j1 ,Pk−2 i2,j2 ,...,P0 ik,jk . Pour k ≤ L, Cette FDP s’écrit par : fze k (x) = ' M i1=1 ' M j1=1 ... ' M iL=1 ' M jL=1 Pk−1 i1,j1 ...Pk−L iL,jL .fzk i1,j1,...iL,jL (x) (3.14) avec fzk i1,j1,...ik,jk (x) est la FDP du signal xk dont la moyenne est décalée par 4 k l=1 hl.∆il,jl . La probabilité d’erreur de décision Pk i,j pour l’itération k est donnée par : Pk i,j = / Ri / Rj fze k (x).fB(b − x)db.dx. (3.15) Dans le mode de convergence où Pk = P quelque soit k>k0, nous définissons le signal ze par le signal qui prend en compte la propagation des erreurs de décision dont la FDP est défini par : fze (x) = ' M i1=1 ' M j1=1 ... ' M iL=1 ' M jL=1 Pi1,j1 ...PiL,jL .fzi1,j1,...iL,jL (x). (3.16) La probabilité d’erreur de décision dans le mode de convergence s’écrit alors suivant : Pi,j = / Ri / Rj ' M i1=1 ' M j1=1 ... ' M iL=1 ' M jL=1 Pi1,j1 ...PiL,jL .fzi1,j1,...iL,jL (x).fB(b − x)db.dx. (3.17) Nous obtenons ainsi un système de la forme P = RP .P dont la résolution peut être obtenue par la méthode de Newton-Raphson. Pour tester ce modèle générique, nous utilisons des signaux reçus xk composés de M composantes gaussiennes correspondant aux M symboles de la constellation M-QAM perturbés par la présence d’un bruit de canal blanc, bi-variant gaussien de variance σ2 b et centré. fxk (x) = ' M j=1 1 M 1 √2πσy exp(−(x − Sj ) 2 2σ2 y ). (3.18) fB(x) = 1 √2πσb exp(−(x) 2 2σ2 b ). (3.19) Afin d’évaluer l’influence de la variance du bruit de quantification sur le système, nous modifions le nombre de bits du format de quantification. Ainsi, pour chaque puissance de bruit, l’exécution de3.2 Modèle analytique proposé 85 l’algorithme du système permet d’obtenir les signaux en sortie du système en arithmétique virgule fixe et virgule flottante. Il est alors possible de comparer les sorties de l’opérateur de décision dans le mode de convergence asymptotique ce qui permet d’obtenir la probabilité d’erreur de décision par simulation Monte Carlo. Par ailleurs, nous avons programmé en langage C l’algorithme de Newton-Raphson afin de solutionner le système non linéaire (3.9) décrit précédemment, et ainsi d’obtenir quasi-analytiquement la probabilité d’erreur de décision dans le mode de convergence asymptotique. La figure 3.3 montre la probabilité d’erreur de décision obtenue analytiquement par notre modèle ainsi par ainsi que celle obtenue par simulations dans le cas particulier d’une constellation de type QPSK et d’un filtre H à retour de décision constitué de 4 coefficients {h1, h2, h3, h4}. Figure 3.3 – Probabilité d’erreur de décision pour une constellation QPSK Nous remarquons que les résultats analytiques correspondent à ceux obtenus par simulation avec une marge d’erreur inférieure à 1%. Nous pouvons donc conclure que le modèle analytique proposé permet de prendre en compte la cascade d’opérateurs de décision induits par le caractère récursif du système 3.2.2 Borne supérieure de la probabilité d’erreur Lorsque le calcul de la probabilité d’erreur de décision devient trop complexe d’un point de vue purement calculatoire, une autre alternative fondée sur une borne supérieure de la probabilité d’erreur de décision peut être envisagée. Nous présentons dans cette section cette deuxième approche pour évaluer la précision en virgule fixe des systèmes constitués d’une structure récursive intégrant un ou plusieurs opérateurs non lisses de décision. Soit ek l’erreur de décision causée par la conversion en format virgule fixe à l’instant k. Chaque erreur ek−j prend une valeur d’un ensemble de D valeurs distinctes. Si seulement K < ∞ erreurs passées affectent la décision en cours, la séquence d’erreur (ek−1, ..., ek−K) est par conséquent une des DK valeurs distinctes. Si chacune des DK séquences est assignée à un état, les séquences d’états résultantes constituent une chaîne de Markov. Nous considérons ci-après une alternative pour définir l’affectation des états du système. Pour cela, soit V un entier arbitraire, nous définissons alors les (V + 1) états du système suivant :86 Évaluation de la précision de l’itération d’opérateur de décision Em = {ek−1, ek−2, . . ., |ek−j = 0, 1 ≤ j ≤ m, ek−m−1 .= 0} , 0 ≤ m ≤ V − 1 EV = {ek−1, ek−2, . . ., |ek−j = 0, 1 ≤ j ≤ V } . (3.20) Par conséquent, Em consiste à représenter toutes les séquences d’erreurs constituées de m valeurs nulles suivies d’une unique valeur d’erreur non nulle (à part pour le cas de EV , pour lequel ek−V −1 peut également être nulle). L’ensemble de ces (V + 1) états peut être illustré par le tableau suivant : Etat Séquence d’erreur (E=Erreur, X=Peu importe, 0=Pas d’erreur) E0 EXX... E1 0EXX... E2 00EXX... . . . EV −1 00...0EXX...(M-1 zéros) EV 00...00XX...(M zéros) Table 3.1 – État des séquences d’erreurs Dans une seconde étape, nous définissons un processus aléatoire Sk qui prend une des valeurs entières {0, 1, ..., V }. Supposons que l’état du système soit égal à Ej lorsque le signal xk est reçu et définissons alors Sk = j. Sk est la séquence des états du système. La probabilité que l’état du système soit Em lorsque le signal xk est reçu est la probabilité que Sk = m et elle est définie par la somme des probabilités conditionnelles sous contrainte de l’état du système à l’itération k − 1. p(Sk = m) = ' V i=0 p(Sk = m|Sk−1 = i)p(Sk−1 = i). (3.21) Notons la probabilité p(Sk = i) = pi, par conséquent, pm s’écrit par la relation suivante : pm = ' V i=0 p(Sk = m|Sk−1 = i)pi, 0 ≤ m. ≤ V (3.22) Nous pouvons remarquer que l’état Sk = j ne peut être atteint qu’à partir de l’état Sk−1 = j−1, 1 ≤ m ≤ M. Par conséquent, la plupart des probabilités de transition dans l’équation (3.22) sont nulles. De ce fait, nous définissons la probabilité αm d’une décision correcte étant donné que l’état du système est Sk = m, soit encore : αm = p {ek = 0|Sk = m} . (3.23) Par conséquent, la probabilité que l’état du système soit m est simplifiée par : p0 = ' V m=0 (1 − αm)pm. (3.24) pm = αm−1pm−1, 1 ≤ m ≤ V − 1. (3.25) pV = αV −1pV −1 + αV pV . (3.26) Les probabilités pm, m = 1, ..., V − 1 et pM peuvent être exprimées à partir de p0 suivant : pm = p0 m >−1 i=0 αi, 1 ≤ m ≤ V − 1 (3.27)3.2 Modèle analytique proposé 87 et : pV = p0(1 − αV ) −1 V >−1 i=0 αi. (3.28) En tenant compte du fait que 4 V i=0 pi = 1, nous obtenons : p0 = Q−1 V (3.29) avec : QV =1+ V '−2 i=0 > i m=0 αm + (1 − αV ) −1 V >−1 m=0 αm. (3.30) Notre but est de déterminer la probabilité d’erreur de décision totale PE définie par : PE = p {ek .= 0} = p0 = Q−1 V . (3.31) L’équation (3.29) nous donne uen expression analytique de cette probabilité d’erreur. Il est possible de calculer les probabilités de transition αj , 0 ≤ j ≤ V . Par contre, ce calcul nécessite des capacités calculatoires importantes, et ceci d’autant plus que la constellation utilisée possède un haut rendement spectral (i.e. le cardinal de la constellation devient important). Pour solutionner ce problème, nous proposons de déterminer une borne supérieure de la probabilité d’erreur de décision PE. Pour cela, il est suffisant de borner chacune des probabilités αj , j = 0, ..., V − 1, ce qui revient à trouver α∗ j tel que : 0 ≤ α∗ j ≤ αj ≤ 1. (3.32) Pour V ≤ m ≤ K , toutes les probabilités de transition sont égales. Elles sont définies par : αm = 1 − $ (3.33) où $ désigne la probabilité d’erreur en l’absence d’erreurs de décisions passées. Par conséquent la quantité QK est donné par : QK =1+ V '−1 i=0 > i m=0 αm + K '−2 i=V > i m=0 αm + (1 − αK) −1 V >−1 m=0 αm. K >−1 m=V αm (3.34) soit encore : QK =1+ V '−1 i=0 > i m=0 αm + K '−2 i=V (1 − $) i−V +1 V >−1 m=0 αm + $ −1(1 − $) K−V V >−1 m=0 αm. (3.35) et : QV =1+ V '−2 i=0 > i m=0 αm + $ −1 V >−1 m=0 αm. (3.36) Nous avons montré dans [10] que dans le cas d’une constellation de type M-QAM, αm ≥ 1 M . Par conséquent, en insérant cette relation dans (3.36), nous obtenons un borne inférieure de QV donnée par : QV ≥ 1 + V '−2 i=0 ( 1 M ) i+1 + 1 $ ( 1 M ) V (3.37) QV ≥ (M − 1)($MV + 1) + $M2(MV −1 − 1) $MV (M − 1) . (3.38) Ce qui engendre une majoration de la probabilité d’erreur de décision PE qui est égale à Q−1 V par :88 Évaluation de la précision de l’itération d’opérateur de décision PE ≤ $MV (M − 1) (M − 1)($MV + 1) + $M2(MV −1 − 1). (3.39) Ce résultat constitue un résultat très intéressant car il permet de déterminer une borne supé- rieure de la probabilité d’erreur de décision en fonction du nombre M d’états de la constellation QAM, et également en fontion du paramètre $ qui exprime le format de quantification sélectionné. Nous proposons de tester ce modèle analytique en considérant une application fondamentale de tout récepteur numérique moderne : l’égaliseur à retour de décision ou DFE (pour Decision Feedback Equalizer) dont le fonctionnement sera explicité dans la section ci-après. 3.3 Évaluation de la précision de l’égaliseur à retour de décision Les canaux de transmission réels, tels que les canaux sans-fil de type 4G ou bien encore la transmission sur fibre optique à 400 Gbit/s, sont caractérisés par une propagation de type multi-trajet pouvant introduire un niveau d’interférence entre symboles (ISI) important ce qui peut, dans certains cas, être le principal facteur limitatif du système de transmission considéré. Pour combattre cette limitation, il est possible d’intégrer au sein du récepteur un égaliseur à retour de décision (ou DFE). Cette technique a attiré une attention considérable en raison de sa capacité à supprimer l’interférence entre symbole postcurseur par la partie récursive (ou feedback) de l’égaliseur. De plus, étant donné que seule la partie directe (ou feedfoward) est perturbée par le bruit introduit par le canal de transmission, le compromis bruit/performances ne se pose pas dans la partie récursive ce qui constitue un avantage certain. Le principe dans le fonctionnement d’un tel égaliseur est présenté dans la section suivante. 3.3.1 Présentation de l’algorithme DFE Du fait de leurs nombreux avantages, les égaliseurs à retour de décision (DFE) sont couramment utilisés afin d’éliminer dans les signaux de communication la distorsion induite par les canaux de propagation. En effet, même lorsque l’interférence entre symbole engendrée par le canal est sévère et que le niveau de bruit est important, il est possible d’optimiser les paramètres de l’égaliseur afin qu’il atteigne des performances optimales, i.e. une erreur quadratique moyenne faible aux bornes du circuit de décision. Par ailleurs, du point de vue complexité matérielle, cette technique s’avère très compétitive par rapport à des solutions alternatives telles que par exemple le récepteur à maximum de vraisemblance. Le bloc-diagramme d’un égaliseur à retour de décision est présenté à la figure 3.4. Cet égaliseur est constitué par deux filtres : le filtre forward et le filtre feedback (retour d’information). Les deux filtres sont généralement implémentés à un rythme symbole cependant le filtre forward peut également être implémenté à un rythme fractionnaire (par rapport au rythme symbole) ce qui procure une immunité du récepteur par rapport au choix de l’instant optimal d’échantillonnage. Ce filtre est un filtre transverse qui prend en entrée la sortie du filtre récepteur et de l’échantillonneur. Par conséquent, il ressemble d’une certaine façon à un filtre linéaire. Le filtre feedback prend en entrée les sorties passées de l’opérateur de décision. Puisque ce filtre utilise les décisions passées pour générer sa sortie, il doit être strictement causal. Le filtre forward enlève une partie des interférences ISI du signal reçu, mais en contrepartie laisse une partie des interférences ISI dans le signal (généralement, il s’agit d’interférence intersymbole postcurseur). Le filtre feedback estime l’interférence ISI résiduelle des décisions passées et il la soustrait de la sortie du filtre forward comme montré dans la figure 3.4.3.3 Évaluation de la précision de l’égaliseur à retour de décision 89 Figure 3.4 – Bloc-diagramme d’un égaliseur à retour de décision La solution à retour de décision donne généralement de meilleures performances que l’égaliseur linéaire (i.e. uniquement la partie forward) et ceci pour une complexité additionnelle acceptable. La faible amélioration du bruit du DFE provient du fait qu’en supposant qu’il n’y a pas d’erreur de décision, l’opérateur de décision enlève tout le bruit présent dans le signal [52]. 3.3.2 Résultat pour le cas non adaptatif Dans cette section, nous utilisons l’approche exposée dans le paragraphe 3.2.2 reposant sur le calcul d’une borne supérieure de la probabilité d’erreur de décision pour évaluer la précision d’un égaliseur non adaptatif à structure fixe comme indiqué dans la figure 3.4. Les signaux reçus sont composés des M symboles de la constellation M-QAM perturbés par un bruit de canal supposé blanc, centré et gaussien. Afin d’évaluer les performances de l’approche proposée, nous faisons varier le format de la représentation en virgule fixe, puis, pour chaque format, nous calculons la probabilité d’erreur de décision $ afin d’estimer la borne supérieure. D’autre part nous simulons le DFE en virgule fixe et en virgule flottante afin d’obtenir également la probabilité d’erreur de décision par simulation de type Monte Carlo. Figure 3.5 – Borne supérieure analytique et probabilité d’erreur de décision par simulation La figure 3.5 montre la probabilité d’erreur de décision estimée par simulation ainsi que celle90 Évaluation de la précision de l’itération d’opérateur de décision obtenue de manière analytique à l’aide de l’approche proposée dans le cas d’une constellation 4-QAM et d’un filtre à retour de décision comportant 4 coefficients. Nous pouvons remarquer que la probabilité obtenue avec l’approche analytique proposée se révèle plus précise lorsque le bruit de quantification possède une faible puissance ce qui est généralement le cas en pratique. 3.3.3 Solution proposée pour le cas adaptatif Comme le canal de propagation est inconnu, l’implémentation de l’égaliseur à retour de dé- cision DFE doit se faire d’une façon adaptative. Dans un DFE classique l’adaptation se fait par le biais d’une séquence d’apprentissage, ce qui engendre une diminution du débit utile de la transmission. C’est pour cette raison que de nombreux travaux se sont portés sur la recherche de solutions d’égaliseurs ne nécessitant aucune séquence d’apprentissage. On parle alors d’égalisation aveugle. Dans cet esprit, nous nous sommes intéressés à la solution proposée dans [52] où l’égaliseur possède deux modes de fonctionnement : le mode initial où l’égaliseur est formé de la cascade d’un filtre blanchissant purement récursif R, d’un filtre transverse J et d’un correcteur de phase CP. L’originalité du dispositif provient du fait que chaque étage est adapté par rapport à un critère local spécifique ce qui améliore la robustesse du système global ainsi que la rapidité de convergence des coefficients des filtres numériques vers la solution optimale. Une fois que le processus d’égalisation est suffisamment avancé (ce qui se mesure à travers l’erreur quadratique moyenne aux bornes du circuit de décision), la structure du récepteur est modifiée en un égaliseur conventionnel de type DFE pour lequel les coefficients de la partie backward sont directement obtenus à partir de ceux du filtre blanchissant R. Le caractère réversible de cette modification apporte au nouvel égaliseur un avantage important qui se manifeste dans le fait qu’il peut apprendre de ses propres décisions sans risque de divergence. Considérons une séquence de données discrètes d(k) de moyenne nulle et de variance égale à l’unité. Soit H(z) la fonction du transfert du canal de propagation définie par : H(z) = ' N l=0 h(l)z−l . (3.40) Le signal observé est perturbé par un bruit blanc gaussien additif n(k) de variance σ2 n. Le signal reçu s’exprime de la façon suivante : s(k) = ' N l=0 d(k − l)h(l) + n(k). (3.41) L’égaliseur linéaire MMSE (solution de Wiener) admet comme fonction de transfert : C(z) = σ2 dH∗(1/z∗) σ2 dH(z)H∗. (1/z∗) + σ2 n (3.42) Généralement, cet égaliseur est implémenté en utilisant un filtre transverse d’ordre important (idéalement infini) pour éviter les risques d’instabilité. Cependant, l’utilisation d’un filtre récursif (de type IIR) possède des avantages certains. En premier lieu, le choix d’une structure récursive nécessite en général un nombre de paramètres, i.e. de coefficients, plus faible que celui requis par un filtre transverse équivalent. Enfin, cette structure permet de faire évoluer simplement un schéma d’égalisation linéaire vers un schéma d’égalisation non linéaire de type retour de décision. En effet, les coefficients du filtre IIR blanchissant sont estimés durant la première phase de l’algorithme et correspondent aux coefficients de prédiction linéaire arrière (ou backward) du signal reçu. Ensuite, dans la seconde phase de l’algorithme, ces coefficients sont tout simplement utilisés pour initialiser les coefficients du filtre à retour de décision. Considérons la relations (3.42), le dénominateur de C(z) n’est autre que la densité spectrale de puissance (d.s.p) Ss(z) du signal observé s(k). Par conséquent, si N est le nombre de zéros de la fonction de transfert du canal H(z), alors Ss(z) possède 2N racines, N d’entre elles étant à l’intérieur du cercle unité et les N autres étant à l’extérieur. La DSP Ss(z) peut ainsi se factoriser comme suit :3.3 Évaluation de la précision de l’égaliseur à retour de décision 91 Ss(z) = KG(z)G∗(1/z∗). (3.43) avec G(z) est un polynôme à phase minimale et K une constante réelle positive, on a alors : G(z) = > N k=1 (1 − zkz−1) avec |zk| < 1. (3.44) Ainsi, la fonction de transfert de l’égaliseur est la suivante : C(z) = 1 G(z) σ2 d K H∗( 1 z∗ ) G∗( 1 z∗ ) . (3.45) Le filtre 1 G(z) peut alors être implémenté comme un filtre récursif stable. Ce filtre est également le filtre blanchissant les observations parce que la densité spectrale de puissance de sa sortie est égale à A. Par conséquent, l’égaliseur linéaire optimal est implémenté tel qu’indiqué sur la figure 3.6, où A(z) = G(z) − 1 et B(z) = σ2 d K H∗( 1 z∗ ) G∗( 1 z∗ ) . Figure 3.6 – Structure de l’égaliseur : mode initial Si nous comparons l’égaliseur linéaire optimal avec le DFE conventionnel (figure 3.7), nous pouvons voir que le passage de l’un à l’autre se fait simplement par un changement de structure : inversion de la position des filtres A(z) et B(z). Figure 3.7 – Structure de l’égaliseur : mode final Dans le contexte aveugle, il suffit de trouver les critères permettant de trouver une solution proche de celle du MMSE. La solution de mise en œuvre consiste à mettre en place un algorithme itératif. La détermination du filtre A(z) = 4LA k=1 akz−k demande de minimiser : J1(A) = E[|u(k)| 2]. (3.46) Avec A = (a1, a2, ...aLA )T . L’algorithme itératif qui donne la solution désirée s’écrit alors à l’itération k par : u(k) = s(k) − A(k−1)TULA (k − 1), (3.47) Ak = A(k−1) + vAu(k)U∗ LA (k − 1). (3.48) où A0 = [0, 0, ..0]T et ULA (k−1) = (u(k−1), ..., u(k−LA))T et vA est un pas positif correctement choisi et assurant la convergence de l’algorithme.92 Évaluation de la précision de l’itération d’opérateur de décision Plusieurs algorithmes aveugles de déconvolution permettent de déterminer le filtre B(z) = σ2 d K H∗( 1 z∗ ) G∗( 1 z∗ ) . Le critère de Godard [47] permet de déterminer un égaliseur B(z) de type zero forcing dans un contexte non bruité. Si le bruit n’est pas très fort, le filtre B(z) résultant d’une minimisation du critère de Godard est proche de la solution MMSE souhaitée. L’algorithme itératif qui minimise le critère de Godard est le suivant : v1(k) = B(k−1)TULB+1(k), (3.49) B(k) = B(k−1) + vBv1(k)(1 − |v1(k)| 2)U∗ LB+1(k). (3.50) Où B0 = [0, ..., 01, 0, ..., 0]T et vB un pas positif bien choisi. Nous obtenons à la sortie du CMA (constant modulus algorithm) une estimée des symboles à un retard près et une constante complexe près. Donc, il est nécessaire de mettre en place une méthode de correction de phase. Le critère retenu est : J3(θ) = E[|v1(k) exp(−jθ) − ˆ d1(k)| 2]. (3.51) Où ˆ d1(k) est le keme symbole décidé. Dès que les filtres B(z) et A(z) sont proches de leur valeur finale (lorsque l’erreur quadratique estimée est inférieure à un seuil), le changement de structure peut être effectué. Les filtres B(z), A(z) et θ sont alors adaptés de manière à minimiser le critère (3.51). L’algorithme du gradient stochastique s’écrit : A(k) = A(k−1) + vA( ˆ d2(k) − w2(k))Dˆ ∗(k), (3.52) B(k) = B(k−1) + vB( ˆ d2(k) − w2(k)) exp(jθ(k − 1))T∗(k), (3.53) θ(k) = θ(k − 1) + vθ($(k) + β ' k i=1 $(i)). (3.54) Où y(k)=(B(k−1)T T(k)) exp(jθ(k − 1)), T(k)=[s(k), ..., s(k − LB)]T , Dˆ(k)=[ ˆ d2(k − 1), ... ˆ d2(k − LA)]T , $(k) = Im[w2(k)( ˆ d2(k) − w2(k))∗], (3.55) et vθ est un pas positif bien choisi assurant la convergence de l’algorithme, β est un paramètre positif et θ(0) = 0. Cet algorithme possède l’avantage majeur de posséder une très bonne réactivité et ceci pour un faible coût calculatoire. Son inconvénient est le temps de convergence. Il est également possible d’adapter le mode de fonctionnement de l’algorithme à un mode burst adapté aux systèmes de transmission (tels que le GSM, la 3G, le LTE) où l’information utile est transmise sous forme de slots. Le principe général de ce mode burst repose sur le constat que les paramètres A, B et θ sont plus proches de leurs valeurs optimales à la fin d’un bloc plutôt que au début d’un bloc. Il est alors possible d’itérer la procédure sur un même bloc en initialisant l’algorithme avec les valeurs obtenues en fin de bloc lors de la précédente itération. Ceci permet de réduire nettement le temps de convergence de l’algorithme moyennant une perte de réactivité. Bien évidemment, dans ce fonctionnement en mode burst, il est nécessaire que le canal de propagation soit stationnaire sur la durée du bloc (ce qui est généralement le cas car la durée d’un bloc est choisie comme étant inférieure au temps de cohérence du canal de propagation). Afin de pourvoir évaluer la précision d’un tel égaliseur adaptatif, nous simulons l’algorithme DFE adaptatif en utilisant l’algorithme LMS pour mettre à jour les coefficients des filtres feedback et forward. Dans un second temps, nous remarquons que la variation des coefficients des filtres est très petite lorsque le DFE converge voire même quasiment nulle. La figure 3.8 montre la variation des coefficients des filtres forward et feedback au cours du temps.3.3 Évaluation de la précision de l’égaliseur à retour de décision 93 Figure 3.8 – Variation des coefficients des filtres de l’égaliseur Par conséquent, nous prenons les valeurs des coefficients des filtres dans la zone de convergence et nous les utilisons pour un égaliseur non adaptatif. Ensuite, nous procédons de la même manière qu’un égaliseur non adaptatif en utilisant le modèle analytique de la borne supérieur pour évaluer la probabilité d’erreur de décision dans le régime de convergence de l’égaliseur DFE. Figure 3.9 – Probabilité d’erreur de décision en fonction du nombre de bits Nous reprenons ci-dessous les mêmes conditions expérimentales que celles utilisées précédemment dans le paragraphe 3.2.2. Afin d’évaluer les performances du modèle proposé, nous faisons94 Évaluation de la précision de l’itération d’opérateur de décision varier le nombre de bits du format de représentation en virgule fixe des paramètres (coefficients, signaux) caractérisant l’égaliseur adaptatif de type DFE. Pour chaque format de représentation en virgule fixe, nous évaluons la borne supérieure de la probabilité d’erreur de décision à partir du modèle analytique proposé ainsi que celle estimée par des simulations de type Monte-Carlo. Ces résultats sont représentés sur la figure 3.9 pour une modulation numérique de type 4-QAM. Nous pouvons constater que le modèle analytique proposé permet d’obtenir une estimation fiable de la probabilité d’erreur de décision sur une large gamme de formats de représentation. D’après la figure précédente, il est clair que plus la précision est importante (i.e. augmentation du nombre de bits accordés au format en virgule fixe, plus la probabilité d’erreur de décision causée par la perte en précision de la quantification du format en virgule fixe diminue. Cependant, l’augmentation de la précision engendre également des effets sur la consommations des unités de calcul ainsi que sur l’utilisation des ressources matérielles. Par conséquent, le choix d’un format spécifique de représentation en virgule fixe doit résulter d’un compromis entre la précision obtenue et la consommation du circuit électronique. Cet aspect fera l’objet de la prochaine section où nous montrons que les modèles analytiques proposés peuvent être utilisés efficacement afin de sélectionner un format de représentation en virgule fixe optimisant l’implémentation matérielle d’un égaliseur de type DFE sur FPGA. 3.4 Optimisation du format virgule fixe pour l’implémentation matérielle Dans cette section, l’intérêt du modèle analytique proposé est analysé pour une problématique correspondant à l’implémentation d’un égaliseur de type DFE à coefficients complexes sur FPGA. Nous commençons par présenter la problématique de l’évaluation des coûts de l’implémentation, ensuite nous représentons l’architecture considérée pour l’égaliseur à coefficients complexes et, enfin, nous présentons le choix d’implémentation que nous avons retenu en fonction du compromis entre précision et consommation en énergie et en ressources matérielles. 3.4.1 Présentation de l’architecture Figure 3.10 – Architecture d’un égaliseur DFE à coefficients complexes3.4 Optimisation du format virgule fixe pour l’implémentation matérielle 95 En raison du grand nombre d’applications qui l’utilisent, nous avons choisi d’étudier le cas de l’égaliseur DFE à coefficients complexes composé de deux voies : la voie réelle (ou en phase) et la voie imaginaire (ou en quadrature). Chacune de ces voies est assimilée à une DFE réel mais, additionnellement, des filtres croisés sont insérés entre voies en phase et quadrature ce qui donne lieu à une architecture dite en papillon (ou butterfly) comme représenté à la figure 3.10. Un modèle matériel de l’égaliseur a été développé en utilisant le langage de description matériel HDL(Hardware Description Language) et synthétisé en utilisant l’outil de synthèse de Xilinx (ISE Xilinx). Les simulations du comportement du modèle et la post-synthèse ont été effectuées en utilisant ModelSim. Le schéma d’implémentation de l’égaliseur DFE conçu est donné par la figure 3.11. Figure 3.11 – Diagramme bloc de l’égaliseur DFE implémenté L’égaliseur consiste en une horloge globale et des entrées Reset synchrones. Les entrées sont introduites dans l’égaliseur en utilisant un signal de contrôle de chargement (Load Control Signal). Le processus d’égalisation est initialisé par le signal début (Start Signal). Après la fin de l’égalisation, les données égalisées (Equalized Data) peuvent être obtenues lorsque le signal sortie prête (DataOut Ready Signal) est positionné. La réception des données peut être connue par le biais du signal d’acquittement (DataOut Ack Signal) pour recevoir le prochain bit. Le port état de l’égaliseur (Equalized Status) indique la progression (Active/Idle) de l’égaliseur. Il convient de préciser que les entrées sont chargées en série dans l’égaliseur. Également, les données égalisées sont lues bit par bit en série. Cette technique est utilisée en raison du nombre limité des ports entrées sorties disponibles dans le FPGA. Elle fournit également des flexibilités pour implémenter l’égaliseur DFE avec des longueurs de précision variables sans modifier le port de configuration. 3.4.2 Implémentation sur FPGA Afin de démontrer de l’intérêt des méthodes analytiques proposées dans le cadre de ce travail, nous avons implémenté l’égaliseur DFE à coefficients complexes sur une carte FPGA de type Xilinx Vertex 5 (ML550). Un environnement de test a été développé afin de tester l’égaliseur implémenté. Cette procédure du test est illustrée par la figure 3.12.96 Évaluation de la précision de l’itération d’opérateur de décision Figure 3.12 – Bloc diagramme de la procédure du test sur FPGA Un module de communication RS232 est embarqué dans le FPGA avec le module d’égaliseur DFE pour faire l’interfaçage avec le port RS232 de l’ordinateur. Pour assurer la communication entre le FPGA et l’ordinateur, nous utilisons le logiciel @Matlab. Un driver du port de communication série a été développé en utilisant la programmation C et exécuté dans l’environnement Matlab. Une vitesse de transmission maximale de l’ordre de 115200 kbps est utilisée pour la communication des données en série. Les données en entrée sont générées avec Matlab et envoyées au FPGA avec les signaux de contrôle appropriés. Après le processus d’égalisation, les données égalisées reçues à travers le même port série sont utilisées pour analyser les performances non seulement de l’égaliseur, mais aussi la précision des données en format virgule fixe. L’architecture considérée est composée de 4 filtres forward et 4 filtres feedback. Il y a deux filtres en phase et deux filtres en quadrature pour chaque type de filtre. Par conséquent le signal reçu est décomposé en deux signaux (réel et imaginaire). Chaque signal est filtré par les deux filtres forward en phase et en quadrature. Ensuite, la partie réelle est filtrée par le filtre forward en phase et ajoutée à la partie imaginaire filtrée par le filtre forward en quadrature. La même procédure est faite pour la partie imaginaire. Après cela, chaque voie est ajoutée au symbole décidé filtré par les deux filtres feedback en phase et en quadrature. L’architecture de chaque filtre est donnée par la figure 3.13 Figure 3.13 – Architecture du filtre forward Chaque filtre est composé par deux blocs mémoire de même longueur l : l’un pour stocker les coefficients du filtre et le second pour mémoriser les données en entrée. A l’entrée du filtre, une horloge est utilisée afin d’assurer la synchronisation. Le flot de données en entrée est tout d’abord mémorisé au sein de l’opérateur de retard élémentaire. Chaque valeur est ensuite multipliée par le biais d’un multiplieur avec le coefficient correspondant qui est stocké dans la mémoire des coefficients. Finalement, l’ensemble des valeurs pondérées par les coefficients du filtre est sommé à l’aide d’un additionneur. Pour le filtre feedback, nous avons également considéré une architecture identique à celle du filtre forward.3.4 Optimisation du format virgule fixe pour l’implémentation matérielle 97 Au sein de l’émetteur et du récepteur, des filtres en cosinus surélevé sont utilisés afin de satisfaire à la condition de Nyquist assurant la nullité de l’interférence entre symboles. Le canal de propagation entre Tx et Rx correspond à un canal de type multi-trajets. Une fois que l’égaliseur a atteint son régime asymptotique de convergence, nous prenons les valeurs des coefficients des filtres et les stockons dans les mémoires de nos filtres. Ensuite, nous implémentons notre architecture en utilisant @Matlab pour une constellation de type M-QAM. La figure 3.14 montre que l’égaliseur implémenté effectue bien l’égalisation. Nous commençons par initialiser les mémoires des filtres par des zéros. Ensuite, nous mettons à jour la mémoire des filtres pour chaque itération. Nous avons utilisé 8 coefficients pour le filtre Forward et 4 coefficients pour le filtre Backward avec un facteur de sur-échantillonnage égal à 8. Figure 3.14 – Entrée et sortie de l’égaliseur 3.4.3 Les contraintes du choix du format de représentation Une fois l’architecture générale définie, les données sont ensuite converties en un format de représentation en virgule fixe et il est possible d’estimer la borne de la probabilité d’erreur de dé- cision causée par l’opération de quantification en virgule fixe. Les données en format virgule fixe sont alors utilisées pour estimer les ressources consommées pour le format de précision considéré. En faisant varier la précision des données présentes en entrée du filtre forward ainsi que celles de la sortie du filtre backward au sein de l’architecture de la figure 3.10, il est alors possible d’estimer la borne supérieure de la probabilité d’erreur de décision en utilisant le modèle analytique décrit précédemment. Pour chaque format de précision considéré, les ressources consommées par l’implémentation FPGA sont également estimées en parallèle à l’aide des outils Xilinx. Pour les tests, nous avons choisi de fixer la partie entière du format des données en virgule fixe à 2 bits. Pour faire varier le format de la précision, le nombre na de bits de la partie fractionnaire des entrées du filtre forward ainsi que le nombre nb de la partie fractionnaire de la sortie du filtre feedback varient entre 4 et 16 bits. Pour chaque configuration ainsi obtenue définie par le couple (na, nb), nous calculons la borne supérieure de la probabilité d’erreur de décision ainsi que les ressources consommées par le FPGA. La figure 3.15 est une représentation logarithmique en 3D de la probabilité d’erreur de décision causée par la conversion du format en virgule flottante vers l’arithmétique virgule fixe exprimée en fonction du couple (na, nb) exprimant la précision des données en entrée du filtre forward ainsi qu’en sortie du filtre feedback. Cette même courbe peut également être projetée sur le plan 2D98 Évaluation de la précision de l’itération d’opérateur de décision (na, nb) en utilisant une échelle de couleur pour exprimer la valeur de la probabilité d’erreur de décision (cf. figure 3.20). Figure 3.15 – Probabilité d’erreur de décision en fonction des deux précisions Bien évidemment, nous constatons que la probabilité d’erreur de décision diminue lorsque la précision augmente. De plus, nous pouvons trouver plusieurs couples de précision qui donnent approximativement la même probabilité d’erreur de décision. Nous obtenons ainsi un ensemble de couples de précision (na, nb) qui partagent approximativement la même probabilité d’erreur de décision. Sur la figure 3.15, ceci se manifeste par des régions qui possèdent la même couleur. Afin de faire un choix entre les couples de précisions (na, nb) qui appartiennent à un même ensemble de probabilité d’erreur de décision, il est alors intéressant de pouvoir estimer les ressources consommées par le FPGA en termes de nombre de slices occupés, de slice luts ou slices de type Flip Flop. Nous fixons un critère d’approximation et nous cherchons toutes les précisions qui possèdent approximativement la même borne supérieure de probabilité d’erreur de décision à un facteur prêt. En d’autres termes, nous choisissons une probabilité d’erreur de décision P0 et un facteur d’approximation α, puis nous cherchons les formats en virgule fixe dont les probabilités d’erreur de décision P vérifient le critère : |P − P0| P0 ≤ α. (3.56)3.4 Optimisation du format virgule fixe pour l’implémentation matérielle 99 Figure 3.16 – Probabilité d’erreur de décision Nous représentons sur les figures 3.17 et 3.18 le nombre de slice lut et slice registre occupés pour un ensemble de probabilité d’erreur de décision qui vérifie ce critère pour des paramètres : P0 = 10−3 et α = 0.2. Figure 3.17 – Nombre de slice registres nécessaires pour obtenir une probabilité d’erreur de décision de P0 = 10−3 avec une précision relative de 0.2. Par conséquent, nous devons choisir le format de données qui consomme le minimum de ressources sur le FPGA.100 Évaluation de la précision de l’itération d’opérateur de décision Figure 3.18 – Nombre de slice lut nécessaires pour obtenir une probabilité d’erreur de décision de P0 = 10−3 avec une précision relative de 0.2. Figure 3.19 – Consommation de puissance Un autre aspect intéressant est la consommation de la puissance ou d’énergie. C’est pour cette raison que nous avons choisi de travailler avec la carte ML550 car elle permet de mesurer la puissance consommée. En effet, cette carte possède une résistance Kelvin qui permet de mesurer le courant circulant à travers le cœur du FPGA. La valeur de cette résistance est suffisamment petite (quelque milli-ohm) pour conduire à une perturbation minimale de l’alimentation. Les variations de la tension à travers la résistance (représentant la variation du courant) sont très petites (quelques mV ) et il est difficile de les mesurer. Par conséquent, afin de faciliter les mesures, un amplificateur de tension (le INA333 de chez Texas Instrument) est inséré aux bornes de la résistance (cf. figure 3.20) afin de faciliter la mesure. Cet amplificateur possède un gain de 1003.5 Conclusion 101 pour une bande passante de 3.5kHz. Figure 3.20 – Dispositif pour la mesure de la puissance Si l’on considère une résistance de mesure de courant de R = 10mW sur la carte ML550 et un gain G = 100 pour l’amplificateur, nous obtenons une relation directe entre la tension et le courant circulant dans la résistance : U = R ∗ I (3.57) Uampl = R ∗ I ∗ G = R ∗ I ∗ 100 = 0.01 ∗ I ∗ 100 = I. (3.58) La tension d’alimentation du FPGA est 1V et la variation de cette tension est inférieure à 0.05V (par mesure). La puissance est directement liée à la tension de l’amplificateur. P = Uampl ∗ V ≈ Uampl. (3.59) La dernière étape est l’analyse des résultats obtenus en fonction de la précision choisie. A ce stade, nous avons tous les éléments pour analyser l’influence de la précision choisie sur la consommation en énergie et en ressources de l’algorithme. Il suffit alors de mesurer cette consommation pour un ensemble de formats de représentation des données en virgule fixe dont la borne supé- rieure de probabilité d’erreur de décision satisfait à la condition (3.56). Nous souhaitons pouvoir déterminer le format de données qui engendre une consommation minimale de puissance et de ressources sur le FPGA. A partir de la figure 3.19, nous pouvons constater que ce minimum est atteint pour une consommation d’environ 63.25mW ce qui correspond à une probabilité d’erreur de décision de 9.5710−4. Nous constatons sur la figure 3.18 que le format optimal de données précédent (format A) est également celui qui fournit la consommation la plus faible de slice LUT par rapport à toutes les autres représentations possibles de l’ensemble considéré. Par contre, pour ce qui concerne le critère du nombre de slice registre, la figure 3.17 montre que la précision (format B) dont la probabilité d’erreur de décision est de 9.8810−4 s’avère la plus intéressante. Nous pouvons dans ce cas conclure que la première précision, i.e. le format A, est un bon compromis entre le coût en consommation de puissance et les performances en termes de probabilité d’erreur de décision. 3.5 Conclusion Nous avons traité dans ce chapitre le problème de propagation des erreurs de décision causées par l’arithmétique virgule fixe dans l’itération d’opérateur de décision au sein d’une structure récursive. Ce problème se rencontre dans de nombreuses applications de traitement du signal et de communications numériques, et plus particulièrement, dans l’opération d’égalisation à retour de décision. Pour cette application, nous avons présenté deux approches différentes pour estimer la probabilité d’erreur de décision dans le régime de convergence de l’égaliseur DFE. Les modèles analytiques proposés sont valides pour tout système constitué d’itération d’opérateurs de décision. Le premier modèle fournit une expression quasi-exacte de la probabilité d’erreur de décision et102 Évaluation de la précision de l’itération d’opérateur de décision il est basé sur la résolution d’un système non linéaire par la méthode de Newton Raphson. Cependant, ce premier modèle peut être limité par les grandes capacités de calcul requises dans le cas de constellations à haut rendement spectral (i.e. à grand nombre d’états). Le second modèle proposé est fondé quant à lui sur l’estimation d’une borne supérieure de la probabilité d’erreur de décision. Ce modèle a été utilisé pour choisir le format optimal en arithmétique virgule fixe pour réaliser une implémentation matérielle rigoureuse en termes de consommation de ressources et d’énergie. D’autres applications à structure itérative non linéaire telles que les turbo décodeurs et les décodeurs LDPC n’ont pas été évaluées et dimensionnées en format virgule fixe dans la littérature. C’est pour cette raison que nous consacrons le prochain chapitre à l’étude spécifique de ces applications.Chapitre 4 Évaluation de la précision du turbo décodage Sommaire 4.1 L’optimisation de la largeur des données en virgule fixe . . . . . . . . 104 4.1.1 Variantes du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4.1.2 Variable d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 4.1.3 Solution au problème d’optimisation de la longueur du mot de code . . 106 4.2 Optimisation du turbo décodage . . . . . . . . . . . . . . . . . . . . . . 106 4.2.1 Présentation de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . 106 4.2.2 Modélisation et design en virgule fixe . . . . . . . . . . . . . . . . . . . 111 4.2.3 Réduction de la taille de mémoire . . . . . . . . . . . . . . . . . . . . . 114 4.2.4 Performance du turbo décodeur . . . . . . . . . . . . . . . . . . . . . . . 116 4.3 Optimisation du décodage LDPC . . . . . . . . . . . . . . . . . . . . . . 119 4.3.1 Modélisation et design en virgule fixe d’un décodeur LDPC . . . . . . . 122 4.3.2 Réduction de la taille de mémoire . . . . . . . . . . . . . . . . . . . . . 124 4.3.3 Performance en virgule fixe du décodeur LDPC . . . . . . . . . . . . . . 124 4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 Les systèmes de communications modernes comptent sur l’opération de codage canal pour améliorer la fiabilité de la liaison de communication et par conséquent la qualité de service (QoS) à l’utilisateur final. Pour atteindre cet objectif, un bloc d’informations issues de la source est encodé en un mot de code comportant de la redondance de l’information de source sous forme de bits de parité. A la réception, ces bits de parité sont exploités par le décodeur pour effectuer la correction d’erreur en avant (Forward Error Correction FEC), signifiant la correction partielle ou complète des erreurs introduites par la transmission à travers un canal bruité. Deux catégories principales de codes de canal ont gagné l’élan de la communauté scientifique et industrielle : les codes de contrôle de parité à faible densité [46] et la concaténation en série ou en parallèle des codes convolutifs [80] : on parle alors de SCCC (pour Serial Concatenated Convolutional Code) ou de PCCC (pour Parallel Concatenated Convolutional Code). Les codes LDPC ont été conçus en premier lieu par R. Gallager dans les années 60, ils ont été vite abandonnés à cause de la technologie micro électronique inadéquate et incapable de satisfaire à la complexité de l’algorithme de décodage. Dans le début des années 90, les codes de canal sont devenus plus populaires, lorsque C. Berrou et A. Glavieux ont inventé le turbo décodage des PCCCs [22], vite étendu aux SCCCs [80][81]. Ces travaux ont marqué l’entrée dans une nouvelle ère des communications numériques puisqu’ils ont ouvert la voie à de nombreuses activités de recherche et d’avancées dans le domaine de la théorie de l’information. Par ailleurs, l’évolution continue de la technologie VLSI (Very Large Scale of Integration) a renforcé le succès des turbo codes et codes LDPC. Les processus CMOS submicroniques permettent l’implémentation des décodeurs en maintenant une fréquence d’horloge très élevée et donc ceci permet d’avoir un très 103104 Évaluation de la précision du turbo décodage haut débit. Actuellement, divers standards de communication spécifient l’utilisation de turbo ou LDPC codes ou les deux pour la correction d’erreurs. Ceci couvre différentes applications et services tels que les réseaux d’accès i.e. les réseaux d’accès locaux sans fil (W-LANs) [9] et les ré- seaux d’accès métropolitains sans fil tels que la norme WIMAX [8], les réseaux cellulaires à haute vitesse avec tout d’abord la norme UMTS-2000 [1], puis la norme 3GPP [6], jusqu’à l’évolution vers la 3GPP-LTE [7], la communication par satellite [2] [4], les terminaux portatifs [5] et les liens de données à très haut débit sur fibre optique [3]. Chaque standard spécifie les paramètres de ses codes tels que la longueur des blocs, le rendement du code et le débit de décodage. Par conséquent, la conception des décodeurs multi-standard représente un défi technologique essentiel afin de concevoir des architectures flexibles satisfaisant aux contraintes liées à la consommation en puissance et à la surface des puces. La définition de l’architecture VLSI en virgule fixe de l’algorithme de décodage qui est flexible, utilise le plus faible nombre de bits et possède des très bonnes performances de correction d’erreur. Par la suite, elle est un moyen efficace d’atteindre une meilleure implémentation du décodeur considéré, en tenant compte d’une complexité réduite et d’une faible consommation de puissance. D’autre part, les unités de traitement de signal numérique (DSP) en virgule flottante ou en virgule fixe sont inadéquates pour cet objectif. En plus de leur consommation de puissance importante, ces unités DSP ne répondent qu’aux exigences de débit des normes les plus lentes, et seulement avec des hauts degrés de parallélisme et donc avec une consommation de puissance en hausse. Pour cette raison, nous développons ci-après un modèle précis en virgule fixe pour un décodeur turbo et un décodeur LDPC, et ceci dans un cadre unifié exploitant les analogies communes à ces deux types de codes et leurs algorithmes de décodage associés. Dans la première partie, nous décrivons la problématique de l’optimisation de la largeur des données en virgule fixe. Nous présentons ensuite le principe du turbo décodage par le biais de l’algorithme BCJR (Bahl, Cocke, Jelinek and Raviv) appliqué aux codes convolutionnels. Dans une seconde étape, nous proposerons un modèle en virgule fixe pour le turbo décodeur en détaillant les choix relatifs à la dynamique et à la quantification des opérations au sein du décodeur. Finalement, nous présenterons les performances obtenues par le décodeur LDPC proposé en analysant les courbes de taux d’erreur par paquet ou FER (pour Frame Error Rate). 4.1 L’optimisation de la largeur des données en virgule fixe Le coût et la précision des systèmes implémentés en utilisant l’arithmétique virgule fixe sont fonction des longueurs de mot de code assigné. Étant donné qu’il existe plusieurs possibilités pour sélectionner la largeur d’un mot de code, le choix du format virgule fixe pour chaque signal doit être effectué avec précaution. Pour un algorithme donné, nous définissons w le vecteur constitué par les longueurs de mot de code de chaque entrée dans l’implémentation en virgule fixe. Nous pouvons alors définir l’expression C(w) de la fonction d’évaluation en virgule fixe ainsi que la métrique de précision λ(w) en fonction de ce seul paramètre w. 4.1.1 Variantes du problème Afin d’optimiser le processus de conversion d’un algorithme en arithmétique fixe, il est nécessaire de réaliser un compromis en coût d’implémentation et précision des calculs. Ce compromis peut être établi de manière (i) à obtenir les meilleures performances en imposant une contrainte sur les coûts en consommation (puissance, ressources), ou bien alors de manière (ii) à limiter la complexité d’implémentation pour une contrainte en performance minimale. Par conséquent, le problème d’optimisation de la spécification en virgule fixe d’un algorithme peut être mené suivant deux variantes principales. Nous discutons ci-dessous des principales caractéristiques de ces deux approches.4.1 L’optimisation de la largeur des données en virgule fixe 105 Problème de maximisation de performance Dans ce problème, la contrainte principale concerne le coût d’implémentation. Étant donné le budget du coût maximal Cbudget, l’objectif consiste à maximiser la précision du système λ. Ce problème peut être formulé comme suit : max(λ(w)) sous contrainte C(w) ≤ Cbudget. (4.1) Problème de minimisation du coût Dans ce problème, les performances de l’algorithme spécifié en virgule fixe imposent une contrainte sur le problème d’optimisation. Étant donné le bruit de quantification maximal λobjectif , l’objectif du problème d’optimisation est de minimiser le coût C de son implémentation. Ceci s’écrit formellement par : min(C(w)) sous contrainte λ(w) ≤ λobjectif . (4.2) La sélection entre les deux versions du problème d’optimisation est dictée par les exigences de la conception. Le concepteur peut choisir de résoudre le problème de minimisation de coût s’il a des contraintes sévères de précision en laissant une marge suffisante pour le coût total. Par ailleurs, le choix du concepteur peut être la maximisation de performance s’il y a des contraintes sévères sur le coût d’implémentation tout en faisant le compromis sur la précision des calculs. Dans une situation idéale, le compromis établi en résolvant les problèmes pour diverses contraintes cibles est unique et identique. Ceci correspond à la solution optimale de Pareto [75] d’un système donné. Malheureusement, les solutions à ces problèmes d’optimisation sont souvent obtenues à partir d’algorithmes heuristiques ce qui peut parfois conduire à une solution qui ne corresponde pas l’optimal absolu. 4.1.2 Variable d’optimisation Un système de traitement de signal correspond à des centaines d’opérations en virgule fixe. A titre d’exemple, l’algorithme de FFT à 64 points possède 960 opérations incluant des additions et des multiplications avec des constantes. La partie entière et la partie fractionnaire des formats en virgule fixe sont choisies de façon à fournir un niveau de dynamique et une précision suffisante pour tous les signaux. Il est possible d’avoir des longueurs de données flexibles pour les architectures flexibles comme un FPGA ou les architectures des DSP modernes avec un support SIMD. Afin de résoudre le problème d’optimisation des longueurs des données, chaque choix de la longueur d’un mot de code pour chaque opération en virgule fixe doit être optimal. Soit M le nombre des signaux dans le système. Si chaque signal possède N configurations possibles pour la longueur de son mot de code, il existe NM combinaisons possibles de vecteurs de longueur de mot de code. Ceci exprime le paradigme de l’affectation multiple de longueurs de mot de code pour l’amélioration en virgule fixe. Affecter la même longueur du format pour chaque signal réduit la complexité du problème d’optimisation. Ceci est connu comme le paradigme d’affection uniforme des longueurs de mot de code pour le raffinement virgule fixe. Dans cette approche, toutes les opérations sont effectuées par la même longueur. En d’autres termes, tous les signaux et les opérateurs dans le système possèdent le même format en virgule fixe. Cette approche pour la conception en virgule fixe des systèmes de traitement de signal est utilisée pour l’implémentation des architectures de chemin de données de largeur fixe. Le format en arithmétique virgule fixe est choisi de telle sorte que la partie entière est la partie fractionnaire soient suffisamment larges pour que la contrainte de précision soit vérifiée pour tous les signaux. Si le paradigme uniforme de la longueur de mot de code devait être utilisé, le nombre de combinaisons de longueurs des mots de code qui sont nécessaires avant d’atteindre l’optimalité est N, où N est le nombre de configurations de longueur de mot de code réalisables dans l’architecture donnée.106 Évaluation de la précision du turbo décodage 4.1.3 Solution au problème d’optimisation de la longueur du mot de code Auparavant, le problème de raffinement en virgule fixe était traité en utilisant le paradigme uniforme de longueur de mot de code (ULM). Dans le paradigme ULM, tous les signaux sont assignés à la même longueur de mot de code de virgule fixe et au même format. Par contre, chaque signal est assigné à un format virgule fixe approprié en fonction de sa sensibilité à la sortie du système. Il a été montré que le paradigme de multiple longueurs de mot de code (MLM) donne parfois de meilleurs résultats que les formats virgule fixe obtenus en utilisant le paradigme ULM [42]. Les avantages de la résolution du problème de raffinement de virgule fixe en utilisant le paradigme MLM se fait au prix de la résolution du problème d’optimisation NP-hard. Bien que les solutions de raffinement virgule fixe soient simplement O(N), où N est le choix varié du format de longueur du mot de code si le diagramme ULM est utilisé à la place. Des techniques variées pour résoudre les problèmes d’optimisation de la longueur du mot de code peuvent être catégorisées en approches à base optimale, stochastique et heuristique-rapide [75]. 4.2 Optimisation du turbo décodage Nous présentons dans cette section un modèle en virgule fixe du décodeur turbo afin d’optimiser les formats en virgule fixe des différentes quantités impliquées dans l’algorithme de décodage et ceci dans le but d’améliorer les performances en terme de taux d’erreur par paquet FER. En premier lieu, nous décrivons dans le paragraphe ci-après le principe général du décodage turbo, puis nous présentons le modèle proposé en virgule fixe en se basant sur le fonctionnement de l’algorithme de turbo décodage. Enfin, dans la dernière partie, nous analysons les performances de l’algorithme de turbo décodage en fonction des différents choix possibles des formats de données en virgule fixe. 4.2.1 Présentation de l’algorithme Avant de présenter l’algorithme de décodage turbo, il est fondamental de décrire le principe des codes turbo pour bien expliciter le fonctionnement de l’algorithme de décodage Les codes turbo En se concentrant sur la classe des codes convolutionnels concaténés parallèles PCCC (Parallel Concatenated Convolutional Codes), la figure 4.1 montre le codeur du turbo code pour la norme 3GPP-LTE. Ce dernier est composé de deux codeurs systématiques, récursifs, en parallèle où l’unité supérieure et inférieure sont alimentées par une version directe et une version entrelacée des bits d’information respectivement. L’entrelacement des bits du mot de l’information est effectuée dans le bloc Π de la figure 4.1. Chaque codeur RSC (Recursive Systematic Code) est un registre à décalage à retour linéaire LFSR (Linear-Feedback Shift-Register) particulier dont les bits de sortie ci, i = 0, 1, appelés aussi bits de parité, sont déterminés en fonction de l’état S du registre, des connections en avant et en arrière, mais également de la valeur du bit u présent à l’entrée du codeur.4.2 Optimisation du turbo décodage 107 Figure 4.1 – Turbo codeur de la norme 3GPP-LTE Les performances du turbo code dépendent des paramètres des RSC tels que le nombre d’états, noté v, et le lien de retour. Le nombre d’états v est lié au nombre d’éléments de mémoire dans le RSC qui est lui-même relié à la longueur de contrainte L du code (L = 4 dans l’exemple de la figure 4.1) suivant la relation v = 2L−1. Figure 4.2 – Exemple d’un treillis à 8 états108 Évaluation de la précision du turbo décodage Le processus de codage du RSC peut être effectivement représenté en ayant recours au graphe de treillis représenté par la figure 4.2 pour un codeur 3GPPP-LTE. Il s’agit d’un diagramme montrant l’évolution en temps de l’état LFSR et décrivant les transitions entre les paires des états consécutifs comme indiqué sur la figure 4.2. Chaque branche du treillis reliant deux états consécutifs est labellisée par la paire de symboles d’information présents en entrée des RSC et par les bits de parité produits en sortie du codeur turbo. Ainsi, pour une suite de bits d’information donnée, le processus de codage peut être décrit par un chemin spécifique au sein des différentes branches décrivant le treillis du code. Visant à améliorer les capacités de correction d’erreur, les turbo codes M-aires sont devenus largement utilisés dans les standards de communication récents après leur introduction dans les années 2000 [23]. Dans ce cas, chaque symbole d’information prend ses valeurs dans un ensemble comportant M > 2 valeurs d’amplitude possibles (M = 2 correspond à un code binaire). Chaque symbole peut être exprimé sur m bits, donc M = 2m. Des valeurs importantes de M peuvent être envisagées afin d’améliorer le pouvoir de correction d’erreur du turbo décodeur, mais ces valeurs ne sont pas d’une grande utilisation en pratique en raison de la complexité excessive de l’algorithme de décodage associé. L’algorithme de décodage BCJR (Bahl-Cocke-Jelinek-Raviv) L’algorithme BCJR est un passage obligé pour le turbo décodage puisqu’il est appliqué au décodage des deux composantes de décodage RSC du turbo code [63]. La figure 4.3 résume les notations utilisées par l’algorithme de décodage BCJR d’un code convolutionnel M-aire (M = 2m). Figure 4.3 – Les notations de BCJR dans le treillis La branche orientée e connecte l’état de départ SS(e) à l’état d’arrivé Se(e). u(e) est l’information symbole liée à la branche e, issue de l’ensemble U = {0, 1, ..., M −1}, avec M = 2m. Pour un symbole d’information u(e) présent en entrée du codeur et une mémoire correspondant à l’état Ss, le codeur génère à sa sortie un symbole codé c(e) associé à la branche e dont les éléments sont les bits codés ci(e), i = 0, 1, ..., n − 1 de c(e). Alors, pour m bits d’information codés dans le symbole u, n ≥ m bits codés sont générés et le rapport r = m/n est appelé le rendement du code. Correspondant à une forme particulière du décodage MAP, l’algorithme BCJR vise à la maximisation de la probabilité a posteriori du bit transmis pour une observation donnée du mot de code reçu dans le bruit. Pour une implémentation efficace, l’algorithme est formulé en termes de messages de fiabilités sous la forme des rapports logarithmiques de vraisemblance LLRs (LogLikelihood Ratios). Soit x une variable aléatoire M − aire dont la valeur est dans l’ensemble X = {x0, x1, ..., xM−1}. Son LLR est défini par : LLR(x = xi) = log P(x = xi) P(x = x0) (4.3) avec i = 1, 2, ..., M − 1. x0 est utilisé comme le symbole de référence pour la normalisation, par conséquent seulement M − 1 LLRs sont associés pour une variable aléatoire M − aire. L’algorithme BCJR implique les quantités suivantes dans son fonctionnement de décodage (nous utilisons les mêmes notations que [81]) :4.2 Optimisation du turbo décodage 109 – λch k,i est l’information canal a priori pour le bit codé ci à l’instant k, avec i = 0, 1, ..., n − 1 et k = 0, 1, ..., N −1. λch k,i fréquemment nommé entrée LLR, désigne l’entrée de l’algorithme BCJR. – γk(c(e)) (ou simplement γk(e)) est la métrique cumulative associée au symbole codé c(e) sur la branche e à l’instant k. γk(c(e)) est fréquemment appelée métrique de branche. – λI k(u(e)) (ou simplement λI k(e)) est l’information a priori associée au symbole d’information u(e) sur la branche e à l’instant k. – λO k (u(e)) (ou simplement λO k (e)) est l’information extrinsèque a posteriori associée au symbole d’information u(e) sur la branche e à l’instant k. – AAP P k (u(e)) (ou simplement AAP P k (e)) est la probabilité a posteriori APP associée au symbole d’information u(e) sur la branche e à l’instant k. L’algorithme BCJR commence par calculer les métriques branches γk(e) par la relation suivante : γk(e) = n '−1 i=0 ci(e).λch k,i (4.4) avec k = 0, 1, ...N − 1 est l’index du treillis. La métrique branche γk(e) et l’information extrinsèque a priori λI k(e) conduisent à calculer les récursions forward et backward α" et β " , calculées dans le domaine logarithmique par les relations suivantes : α " k+1(Si) = ∗ max e:SE(e)=Si {α " k(SS(e)) + γk(e) + λI k(e)} (4.5) β " k(Si) = ∗ max e:SS(e)=Si {β " k+1(SE(e)) + γk(e) + λI k(e)} (4.6) avec ∗ max(a, b) est l’opérateur défini par : ∗ max(a, b) = max(a, b) + log(1 + e−|a−b| ). (4.7) Cependant, l’opérateur max∗ peut être approximé par une simple opération max pour les implémentations à faible complexité. Les récursions forward et backward α et β sont évaluées à travers l’ensemble des branches e entrantes et sortantes respectivement d’un état Si à l’instant k + 1 pour la métrique forward α, et à l’instant k pour la métrique backward β. Ces récursions sont initialisées avec α" 0 = αinit et β " N = βinit à l’instant k = 0 et k = N, respectivement. Fermeture du treillis : transformation en code en bloc Tout code convolutif est convertible en un code en bloc. Il suffit de stopper l’avance dans le treillis après un nombre de branches fixé par la longueur du code en blocs recherché. Une méthode triviale consiste à couper le treillis sans spécifier l’état final (troncature). La bonne méthode transforme le code convolutif en un code en bloc en forçant le retour à l’état 0 par une terminaison du treillis. En effet, les valeurs d’initialisation dépendent de la stratégie de terminaison sélectionnée. Ainsi, (i) pour des codes sans terminaison, les valeurs d’initialisation sont [1/v,...,1/v] ; (ii) pour les codes dont la terminaison est zéro, ces valeurs sont égales à [1, 0, ..., 0] et, (iii) pour des codes circulaires, les valeurs d’initialisation des métriques de chemins (forward et backward) correspondent aux valeurs obtenues à l’itération précédente. Les récursions métriques sont sous forme des probabilités logarithmiques. Afin d’augmenter la robustesse de l’algorithme [72][37], elles sont normalisées. La valeur prise comme référence est typiquement celle de l’état S0, ce qui conduit aux récursions normalisées suivantes : αk(Si) = α " k(Si) − α " k(S0) (4.8) βk(Si) = β " k(Si) − β " k(S0). (4.9) Une fois que les récursions forward et backward sont disponibles pour tous les états du treillis, l’estimation a posteriori du symbole d’information u est déduite par :110 Évaluation de la précision du turbo décodage λO k (ui) = ∗ max e:u(e)=ui {αk(SS(e)) +γk(e) +βk+1(SE(e))}− ∗ max e:u(e)=u0 {αk(SS(e)) +γk(e) +βk+1(SE(e))} (4.10) Comme elle n’est pas directement liée au message a priori en entrée λI k(e), la probabilité APP en sortie λO k (ui) est dite extrinsèque. Le principe du turbo décodage L’algorithme de turbo-décodage est obtenu par application directe de l’algorithme BCJR à ces deux composantes RSC selon le diagramme de la figure 4.4 où les deux unités marquées SISO-1 et SISO-2 sont des unités SISO (Soft-in Soft-out). L’algorithme évolue au cours du temps par l’échange itératif des messages extrinsèques qui sont les sorties a posteriori des blocs SISO. L’algorithme est alimenté par les estimations canal a priori λch k,i, sous la forme de LLR et calculées selon l’équation (4.3) pour des symboles binaires (M = 2). La sortie du bloc SISO-1, appelée λext,1 dans la figure 4.4, est entrelacée par l’entrelaceur Π avant d’être transmise au bloc SISO-2 comme une information a priori. Ce dernier bloc reçoit également en parallèle une version entrelacée de l’estimation du canal a priori λch k,i, puis il fournit en sortie un message de fiabilité a posteriori λext,2. Après inversion de l’opération d’entrelacement, cette fiabilité est adressée à l’entrée du bloc SISO-1 en tant qu’estimation a priori raffinée des symboles transmis. Figure 4.4 – Le principe du turbo décodage Comme montré dans la figure 4.4, la sortie du turbo décodeur est donnée par l’estimation a posteriori AAP P k du symbole transmis. Elle est obtenue par la sommation des deux messages extrinsèques (non entrelacées) disponibles en sortie des deux unités SISO. Elle est donnée par : AAP P k (ui) = λext,1 k (ui) + λext,2 k (ui) (4.11) avec ui ∈ U = {u0, u1, ..., uM−1} et k = 0, 1, ..., K − 1.4.2 Optimisation du turbo décodage 111 4.2.2 Modélisation et design en virgule fixe Considérons un système de numération de base B, la représentation en virgule fixe X d’un signal réel x est exprimée par : X = N 'I−1 n=0 anBn + ' NF n=1 bnB−n (4.12) avec NI et NF sont respectivement le nombre d’entier appartenant à l’ensemble D = {0, 1, ..., B− 1} et représentant la partie entière et fractionnaire de x. Le nombre Nx = NI + NF est le nombre total de nombres utilisés pour représenter x en base B. La multiplication de (4.12) par le facteur BNF appelé facteur d’échelle est pratique pour se débarrasser du point décimal et elle est efficace pour une implémentation DSP en virgule fixe. Dans le cas d’un système binaire avec B = 2, X devient un nombre entier sous la forme de : X = N 'x−1 n=0 xn2n (4.13) où xn, n = 0, 1, ..., Nx − 1 sont les chiffres binaires de la représentation entière de x, avec xn = BNF −n pour n = 0, 1, ..., NF − 1 et xn = an−NF pour n = NF , NF + 1, ..., NF + NI − 1. Loi de conversion Figure 4.5 – Fonction en escalier de conversion de la virgule flottante à la virgule fixe Soit un signal x défini dans le domaine des réels, x ∈ R, sa représentation virgule fixe X sur Nx bits est donnée selon une loi bien précise. Comme seulement un nombre limité Nx de bits est disponible, le domaine de x doit être contraint à un intervalle de R, soit [−A, A]. Donc, une saturation préventive du signal dans l’intervalle [−A, A] doit être effectuée et la valeur de A sera interprétée comme une dynamique. L’opération de la conversion en virgule fixe peut être effectuée suivant la transformation suivante : J X = min(2Nx−1, 1 x ∆x + 0.52), x ≥ 0 X = max(2Nx+1, 1 x ∆x − 0.52),x< 0 (4.14)112 Évaluation de la précision du turbo décodage où ∆x = 2A 2N −1 est le pas de quantification, c’est à dire la différence maximale entre deux différentes valeurs flottantes qui sont codées dans le même symbole X en virgule fixe. La valeur de ∆x est une mesure de la résolution de la représentation. En d’autres termes, c’est le poids du bit le moins significatif (Least Significant Bit LSB) x0 de X. Il convient de préciser que (4.14) effectue non seulement la quantification du signal d’entrée, mais elle limite son domaine à l’intervalle [−A, A], comme le montre la figure 4.5. Les valeurs supérieures (inférieures) à A(−A) sont saturées au plus grand niveau positif 2Nx−1 − 1(le plus petit niveau négatif −2Nx−1 − 1). Dans (4.14), seulement 2Nx−1 niveaux de virgule fixe sont utilisés (le co-domaine de la fonction de transformation est symétrique par rapport au niveau 0), ce choix empêche l’algorithme de dériver vers des valeurs négatives comme montré dans [37]. Ainsi, la paire (A, Nx) définit complètement la quantification du signal en virgule flottante x, et fournissant la dynamique et le poids de LSB ∆x utilisé pour sa représentation. Cette approche est similaire a celle décrite dans [37] et [30] pour la quantification des entrées LLRs, et elle est plus flexible que celle généralement adaptée dans la littérature [72][19][78], où le format virgule fixe est spécifié par les paires (NI , NF ), sans tenir compte de la dynamique du signal réel sous-jacent. En d’autres termes, la dynamique du signal réel est souvent mise sous la forme A = 2NI−1 et elle est limitée à une puissance de deux. Par contre, la représentation que nous proposons dans cette thèse dépasse cette restriction. Elle sera appliquée à chaque élaboration interne en virgule fixe du turbo décodeur. Modélisation virgule fixe du turbo décodeur Plusieurs travaux dans la littérature ont traité cette problématique de modélisation en virgule fixe des algorithmes de décodage itératif [72][39][30]. De plus, des indications utiles sont fournies pour l’implémentation pratique du turbo décodeur [19][12] et du décodeur LDPC [88][78]. En outre, les modèles dans [72] et [37] fournissent des bornes pour l’augmentation maximale des signaux impliqués à l’intérieur du décodeur Turbo. L’algorithme de turbo décodage est reformulé dans le domaine de l’arithmétique virgule fixe pour impliquer les opérations avec des entiers. Suivant une approche en cascade, toutes les opérations impliquées dans l’algorithme sont successivement converties en leur représentant en virgule fixe une après l’autre. 1-L’information canal a priori : Les LLRs canal sont quantifiés selon (4.14) en utilisant un seuil Aλch et Nλch bits. 2-La métrique de branche : Le calcul de γk(e) dans (4.4) implique la somme de messages de fiabilités canal a priori λch k,i, i = 0, 1, ..., n − 1. Par conséquent, dans le pire des cas, la somme cohérente γk(e) est donnée par : γk(e) = n.Aλch (4.15) La représentation en virgule fixe Γ de γ doit être représentée avec : Aγ = n.Aλch (4.16) et le nombre de bits de γ est donné par : Nγ = Nλch + 3log2(n)4. (4.17) 3-L’opérateur max∗ : L’opération z = max∗(x, y) implique le calcul du max des deux signaux x et y, et l’addition du terme correctif dans l’intervalle ]0, log2]. Par conséquent, la dynamique de z est majorée par Az. Elle est donnée par la relation suivante : Az = max(Ax, Ay) + log2. (4.18)4.2 Optimisation du turbo décodage 113 Afin de laisser la comparaison possible, les versions en virgule fixe X et Y de x et y respectivement doivent avoir la même résolution, soit donc ∆x = ∆y = ∆. Sous cette hypothèse, le nombre de bits nécessaires pour représenter z peut être déduit de la définition de ∆ comme suit : 2Nz = 2.Az ∆ +1= 2.A ∆ + 2.log2 ∆ + 1 = (2N − 1) + 2.log2 ∆ +1=2N (1 + log2 A ) (4.19) avec A = max(Ax, Ay) et N = max(Nx, Ny). Par conséquent, nous supposons que A > log2 ce qui est généralement le cas, alors l’expression (4.19) donne : Nz = 3log2 % 2N % 1 + log2 A &&4 = N + 1. (4.20) Par contre, les équations (4.19) et (4.20) sont strictement maintenues lorsque x = Ax = y = Ay = A i.e. lorsque la contribution du terme correctif est maximale. En plus de ce cas très défavorable, le bit additionnel exprimé dans (4.20) n’est pas réellement exploité et l’utilisation de Az = max(Ax, Ay) est généralement suffisante. Par conséquent, le résultat de l’opérateur max∗ peut être saturé sur Nz = N bits. Cette approximation conduit à de très faibles pertes d’information et par la suite possède un impact négligeable sur les performances de l’algorithme. Ainsi, l’opération max∗ en virgule fixe devient : Z = max∗(X, Y ) = min{max(X, Y ) + LUT(D), L} (4.21) avec L = 2N−1 −1 est le seuil de saturation. Dans cette dernière expression, le terme correctif est quantifié en utilisant la même résolution ∆ que les entrées x et y et il est enregistré dans une table de recherche LUT (look-up table) adressée par D = |X − Y |. 4-L’information extrinsèque a posteriori Puisque les messages de fiabilités extrinsèques a posteriori et les récursions forward/backward sont mutuellement dépendants à travers le principe turbo itératif, leur représentation en virgule fixe peut être étudiée sous l’hypothèse que les récursions métriques d’état soient représentées sur Nα = Nβ = Nγ + h bits, où h est un entier. D’après l’équation (4.10), la dynamique de λO est majorée par : AλO = (Aα + Aβ + Aγ) − (−Aα − Aβ − Aγ)=2.(2Aα + Aγ)=2Aγ.(1 + 2h+1) (4.22) avec Aα = 2hAγ et Aα = Aβ. Nous pouvons alors exprimer la représentation de la précision de λO à partir de la relation NλO = 3log2(2AλO /∆λO + 1)4 bits, ce qui donne : NλO =1+ Nγ + 3log2(1 + 2h+1)4 =1+ Nγ + 3max∗ 2(0, h + 1)4 (4.23) avec la fonction max∗ 2 correspondant à l’opérateur max∗ en base deux, et défini par : max∗ 2(a, b) = max∗(a, b) + log2(1 + 2−|a−b| ). (4.24) Deux cas peuvent être distingués : a) h ≥ 0 : Il est facile de prouver que 3max∗ 2(0, h + 1)4 = h + 2, par conséquent, NλO = Nγ + h +3= Nα + 3. b) h < 0 : 3max∗ 2(0, h + 1)4 = 1, NλO = Nγ +2= Nα + 2 − h. Dans les deux cas, NλO est une fonction connue de Nα et h.114 Évaluation de la précision du turbo décodage 5-Les récursions métriques d’état A cause de leur calcul itératif, l’amplitude des récursions forward/backward continue à augmenter tout au long du treillis si les récursions ne sont pas contrôlées par des moyens de saturations. Sous les mêmes hypothèses (Nα = Nγ + h), l’augmentation des métriques d’état après une étape de mise à jour est majorée par : 2(Aα + Aγ + AλI )=2Aα(2 + 2−h + AλI /Aα) (4.25) où l’information a priori λI est en effet la sortie a posteriori du bloc SISO précédent et donc AλI = AλO . En remplaçant (4.22) dans (4.25), cette dernière devient : 2Aα(1 + 2−h + 2.h−1.21−h) = 2(5 + 2−h + 21−h)Aα. (4.26) Nous pouvons donc conclure que la dynamique de α augmente d’un facteur de 2(5 + 3.2−h) après chaque itération du turbo décodeur ce qui se traduit par l’ajout de 1 + 3log2(5 + 3.2−h)4 bits. De même que précédemment, deux cas de figure peuvent se présenter : – h ≥ 0 : le terme 2(5 + 3.2−h) est borné par 5 et 8, ce qui engendre l’addition de 4 bits à chaque itération. – h < 0 : le terme 3log2(5 + 3.2−h)4 est évalué à 2 − h et, au total, 3 − h éléments binaires sont ajoutés à chaque étape. Par conséquent, la saturation de 4 ou 3 − h bits respectivement, empêche l’augmentation incontrôlée des métriques d’état représentées par (Aα, Nα). Dans [72] et [37], des bornes sont données pour la dynamique des récursions métriques d’état, et sont utilisées pour dimensionner la pré- cision interne du bloc SISO. Par contre, dans l’approche que nous proposons, la résolution des métriques d’état est une entrée libre du modèle et elle est contrôlée par des moyens de saturation. 4.2.3 Réduction de la taille de mémoire Le schéma complet du décodeur SISO est représenté à la figure 4.6. Une implémentation pratique d’un décodeur turbo code est basée sur l’utilisation étendue de mémoire comme un moyen pour échanger les messages extrinsèques et stocker les résultats intermédiaires qui correspondent aux métriques cumulées de chemin. Par conséquent, il est clair que la complexité totale du décodeur est fortement dominée par les mémoires. Les techniques comme la troncature du bit de poids le plus faible LSB et la saturation du bit de poids le plus fort MSB sont très efficaces pour limiter la taille des données enregistrées dans la mémoire. Par contre, l’utilisation de la saturation est préférable puisqu’elle réduit non seulement la taille de la mémoire, mais aussi les unités des chemins de données pour accéder à la mémoire. D’autre part, les données ayant subi des troncatures avant l’enregistrement, dans la mémoire, doivent être décalées à gauche après récupération de la mémoire pour restaurer la résolution originale car le poids du LSB ∆ et les chemins de données ne bénéficient d’aucune réduction dans la taille. Pour un signal x, les notation Tx et Sx désignent, respectivement, le nombre de LSB tronqués et MSB saturés avant le stockage dans la mémoire. Pour le turbo décodeur, la troncature et la saturation sont effectuées à chaque itération sur les métriques cumulées de chemins enregistrées dans la mémoire α/β-MEM (Tα et Tβ respectivement) et sur l’information extrinsèque a posteriori stockée dans la mémoire A-MEM (TA et SA respectivement) comme indiqué sur la figure 4.6.4.2 Optimisation du turbo décodage 115 Figure 4.6 – Modèle virgule fixe du bloc SISO dans le turbo décodeur Figure 4.7 – Analyse de la dynamique pour Nλch = 5 bits116 Évaluation de la précision du turbo décodage 4.2.4 Performance du turbo décodeur Les performances de correction d’erreur et les pertes liées à l’implémentation du modèle virgule fixe développé dans la section précédente sont analysées par des simulations. Un système de communication complet formé du codeur, du modulateur, du canal de transmission introduisant un bruit additif blanc gaussien AWGN, du démodulateur et du décodeur décrit précédemment a été developpé en langage C avec une implémentation du modèle paramétrique en virgule fixe. Nous avons considéré un turbo décodeur satisfaisant à la norme 3GPP-LTE dont les paramètres sont décrits dans le tableau 4.1. Les performances en virgule fixe sont mesurées sous forme des courbes de taux d’erreur par paquet FER en fonction du rapport signal à bruit Eb/N0 (SNR). La norme Taille m Longueur K Taux R Nombre d’itération Nit 3GPP-LTE 1 1504 1/3 10 Table 4.1 – Les paramètres du code Le premier point critique de la conception en virgule fixe concerne l’identification d’une valeur optimale de la dynamique de l’entrée LLR Aλch . La figure 4.7 représente les performances FER pour différentes valeurs de Aλch . Les entrées LLRs λch sont codées sur Nλch = 5 bits tandis que les métriques de chemins forward et backward sont représentées sur un nombre de bits suffi- samment important (Nα = 6) afin que les pertes d’implémentation ne soient causées que par la quantification des entrées λch. Figure 4.8 – Effet de la quantification des entrées LLRs L’impact de la quantification des entrées LLRs est analysé par la figure 4.8 où la FER est tracée en fonction de la dynamique Aλch pour trois différentes valeurs de Nλch 4, 5 et 6 bits. Les trois courbes sont obtenues pour un Eb/N0 = 1.2dB, avec une simulation en virgule flottante4.2 Optimisation du turbo décodage 117 comme référence. D’après cette figure, la valeur Aλch = 10 semble être la meilleure pour un nombre de bits de 4 et 5. Tandis que Aλch = 12 est le meilleur choix pour 6 bits. D’après la figure 4.7, nous constatons que, plus que la valeur de Aλch est petite, plus les pertes dues à l’implémentation sont faibles. Le cas où Aλch = 10 correspond à une détérioration majorée par 0.1dB par rapport au modèle de référence en virgule flottante, tandis que l’augmentation de la dynamique conduit à une résolution ∆λch très grossière, ce qui engendre des pertes considérables particulièrement pour les faibles SNR. Si l’on s’intéresse maintenant aux performances obtenues pour une faible dynamique, i.e. pour Aλch = 5, ce paramétrage correspond à une quantification grossière des entrées canal LLRs car de nombreux échantillons en virgule flottante vont être saturés à la valeur ±Aλch . Ces saturations entraînent une perte de signifiance dans les variables internes de l’algorithme de décodage turbo (bloc SISO-1 et SISO-2), soit donc une augmentation du bruit de quantification ce qui se traduit par un aplatissement des courbes de taux d’erreur. Par conséquent, nous sélectionnons la valeur Aλch = 10 pour la suite de l’analyse. Il convient de préciser par ailleurs qu’une telle analyse de l’influence de la représentation en virgule fixe d’un turbo décodeur constitue un travail original car ce type d’analyse n’est pas présent dans la littérature scientifique. En effet, les travaux disponibles dans la littérature sont limités par des schémas "classiques" de quantification qui conduisent à un pas très grossier lorsque la dynamique Aλch est contrainte à une puissance de deux. La figure 4.9 représente les performances FER pour différentes valeurs des paramètres en virgule fixe définies dans la section de modélisation en virgule fixe du décodeur et exprimées par le triplet (Nλch , Nα, NA). Figure 4.9 – Analyse de la performance de l’algorithme de turbo-décodage en virgule fixe D’après la figure 4.9, il est clair qu’aucune perte n’est observée en saturant 3 bits sur les118 Évaluation de la précision du turbo décodage Signal Configuration A Configuration B LLR Canal a priori (10,5) (10,5) Métriques de branches (RCS r = 1/2) (20,6) (20,6) Métriques de chemin (40,7) (20,6) Les bits saturés pour α/β (Sα) 2 2 Les messages extrinsèques a posteriori (40,7) (20,6) Nombre de bits saturés sur les messages extrinsèques (SA) 3 3 Table 4.2 – Les paramètres virgule fixe optimaux du turbo-décodeur fiabilités extrinsèques (SA = 3) lorsque Nα = 3, tandis que la saturation de seulement 1 bit sur les récursions métriques (Sα = 1, Nα = 6) conduit à une perte de l’ordre de 0.18dB pour les forts SNR. La troncature d’un bit des itérations métriques (Tα = 1) et les fiabilités extrinsèques (TA = 1) dégrade légèrement les performances FER pour les faibles SNR où les LSBs portent la plupart de l’information, ce qui n’est pas surprenant, tandis que les pertes deviennent presque négligeables pour les forts SNR. Finalement, visant à une solution à très faible complexité, les itérations et les métriques extrinsèques peuvent être représentées sur Nα = NA = 6 bits avec une perte d’implémentation de 0.3 dB pour les forts SNR. Figure 4.10 – Performance virgule fixe de bout en bout pour différentes valeurs de Aλch Le tableau 4.2 résume les paramètres de la spécification en figure fixe obtenue dans deux configurations. La première configuration, qui sera par la suite nommée configuration A, est orientée pour obtenir les meilleures performances, tandis que la deuxième configuration , qui sera par la suite nommée configuration B, est dédiée pour une faible complexité. La configuration B est plus impliquée pour analyser l’effet conjoint de la dynamique des entrées et la quantification grossière de l’algorithme sur la performance totale de correction d’erreur. La4.3 Optimisation du décodage LDPC 119 figure 4.10 montre que les courbes de FER s’aplatissent pour Aλch = 5 et Aλch = 8. Ceci est dû à la distorsion importante introduite par une très forte saturation des entrées a priori du canal, mais également au bruit de quantification généré en propre par l’algorithme (blocs SISO-1 et SISO-2). La valeur Aλch = 10 conduit à une perte minimale de performances par rapport à la courbe de référence obtenue avec l’arithmétique à virgule flottante, mais en contrepartie il apparaît une saturation des performances pour de forts SNRs (aplatissement de la courbe FER = f(Eb/N0)). A contrario, l’utilisation de A = 12 empêche ce phénomène d’aplatissement, mais ceci est obtenu au prix d’une perte en SNR de l’ordre de 0.25dB par rapport à la courbe de référence (i.e. virgule flottante). 4.3 Optimisation du décodage LDPC Dans cette section, nous présentons un modèle en virgule fixe du décodeur LDPC pour aboutir à une analyse des performances FER en virgule fixe. Nous commençons par présenter le principe du décodage LDPC. Ensuite, nous présentons le modèle en virgule fixe des différentes opérations impliquées dans l’algorithme de décodage, puis nous analysons les performances de l’approche proposée en fonction du niveau de bruit introduit par le canal de transmission et des différents paramétrages possibles pour la représentation en virgule fixe de l’algorithme. Avant de présenter l’algorithme de décodage LDPC, nous présentons tout d’abord le principe général des codes LDPC pour bien expliciter ensuite le principe de leur décodage. Figure 4.11 – Exemple du graphe tanneur Les codes LDPC Les codes LDPC sont des codes linéaires définis par une matrice creuse H appelée matrice de contrôle de parité. On dit qu’un mot de code x est valide s’il appartient à l’espace nul ou au noyau de H défini par l’ensemble H (HxT = 0). La matrice H = {hij} de contrôle de parité possède un nombre de colonnes N égal au nombre de bits dans le mot code transmis et un nombre de lignes M correspondant au nombre de contraintes de contrôle de parité. La différence P = N − M désigne le nombre de bits de parité ajoutés par le codeur LDPC. Chaque ligne de la matrice décrit une contrainte de contrôle de parité. Lorsque le jeme bit du mot de code participe au i ème contrôle de parité, alors le terme hi,j de la matrice H est fixé à l’unité. Dans le contraire, il est nul. Les codes LDPC peuvent être également décrits en utilisant un graphe appelé graphe de Tanner [89] qui est composé de nœuds de variables (VNs), représentés avec des cercles et de nœuds de contrôle (CNs) représentés par des carrés. Chaque VN représente un bit du mot code transmis et correspond à une colonne de H. Une connexion entre le i ème nœud variable VN et le jème nœud de contrôle CN, dénommée branche, correspond à un terme hij = 1 dans la matrice120 Évaluation de la précision du turbo décodage H de contrôle de parité et relie graphiquement la contrainte de parité à un bit du mot code. Le nombre des branches connectées à un VN (CN) est appelé le degré de nœud de variable, dv (degré de nœuds de contrôle, dc). Un exemple de graphe de Tanner est présenté par la figure 4.11. Figure 4.12 – Matrice prototype du LDPC WIMAX 2/3a La conception de la matrice de contrôle de parité affecte la performance de correction d’erreur et la complexité du décodeur LDPC [38][67]. L’idée de base consiste à arranger les ’1’ dans la matrice de contrôle de parité selon des configurations qui facilitent la mise en parallèle des opérations de décodage. Ainsi, la matrice de contrôle de parité est partitionnée en matrices carrées plus petites, qui peuvent être des permutations ou des changements cycliques de la matrice unité, encore appelée matrice circulante [95]. La figure 4.12 montre la matrice prototype du code LDPC WiMAX 2/3a avec une longueur 2304 : elle est partitionnée en sous-matrices de taille Z ×Z avec Z = 96, où une entrée nulle correspond à toutes les matrices 0, et une entrée non nulle spécifie la rotation appliquée à la matrice unité. Décodage des codes LDPC L’algorithme de décodage des codes LDPC est communément nommé algorithme de "propagation de la croyance" ou BP (pour Belief Propagation) ou plus généralement l’algorithme de passage de messages [79]. Cet algorithme est optimal si le code ne contient pas de cycles mais il peut cependant être considéré en pratique comme une référence pour des codes comportant des cycles. Dans ce cas, la séquence des élaborations, nommée ordonnancement (schedule), affecte considérablement la performance en termes de vitesse de convergence et de taux de correction d’erreur. L’ordonnancement le plus simple est l’ordonnancement à deux phases FS (flooding Schedule) [41] qui se déroule en deux phases consécutives où tous les nœuds de contrôle de parité et tous les nœuds de variables sont mis à jour dans un ordre pré-déterminé. Un ordonnancement plus intéressant mais aussi plus efficace concerne l’ordonnancement à couche (ou LS pour Layered Schedule) [67][41]. Comparé à la variante à deux phases (FS), l’ordonnancement de type LS double pratiquement la vitesse de convergence de décodage pour des codes comportant des cycles ou n’en comportant pas [58]. Ceci est atteint en regardant le code comme la connexion de couches, "layers" [49] qui échangent des messages de fiabilité. Spécifiquement, des messages a posteriori sont disponibles pour la couche suivante immédiatement après le calcul, et non pas à l’itération suivante comme dans la phase FS. Les couches peuvent être des ensembles de nœuds de contrôles (CN) ou de nœuds de variables (VN) consécutifs et, par4.3 Optimisation du décodage LDPC 121 conséquent, l’algorithme basé sur CN (ou horizontal) ou l’algorithme basé sur VN (ou verticale) ont été définis dans [41]. Décodage horizontal des couches HLD (Horizontal Layered Decoding) L’algorithme HLD met à jour les contraintes de contrôle de parité séquentiellement autour de la matrice de contrôle de parité. La principale caractéristique de cet algorithme est la mise à jour continue, lors du décodage, d’une métrique cumulative yn associée à chaque nœud de variable (VN) dans le code, n = 0, 1, ..., N − 1, et nommée sortie souple (ou SO pour Soft Output). La mise à jour des informations disponibles au nœud de contrôle numéro m (qui sera noté CNm dans la suite) , avec m = 0, 1, ..., M − 1, est basée sur la disponibilité de messages vtoc (pour Variable-To-Check), notés µn,m, dirigés du nœud variable (VN) numéro n (qui sera noté par suite VNn) vers le nœud CNm, et mis à jour selon : µ(q) m,n = y(q) n − $ (q) n,m (4.27) où $ (q) n,m désigne le message ctov (pour check-to-variable) propagé du nœud CNm vers le nœud VNn au cours de l’itération précédente. Dans l’équation (4.27), l’indice n appartient à l’ensemble Nm constitué des indices des nœuds VNs connectés au noeud CNm, et l’indice q = 0, 1, ..., Nit,max − 1 désigne l’indice de l’itération. Les messages raffinés ctov $ (q+1) n,m sont produits comme résultat de la mise à jour des nœuds de contrôle (check node). Et en se basant sur ceci, l’ensemble des sorties souples SOs impliqués dans le nœud de contrôle CN m, c’est à dire yn avec n ∈ Nm, est mis à jour par la relation suivante : y(q+1) n = µ(q) m,n + $ (q+1) m,n = y(q) n − $ (q) n,m + $ (q+1) m,n . (4.28) Grâce au mécanisme décrit par les relations (4.27) et (4.28), les opérations de contrôle des nœuds comptent sur les mises à jour des sorties souples SOs. L’algorithme HLD est initialisé à l’itération q = 0 avec : J y (0) n = λch n $ (0) m,n = 0 (4.29) avec λch n est la LLR de l’estimation du canal a priori des bits reçus dans le bruit, m = 0, 1, ..., M−1 et n ∈ Nm. Mise à jour des nœuds de contrôle : Concernant la mise à jour de contrôle de nœud, il a été montré dans [67] que la contrainte de contrôle de parité peut être vue comme un code convolutif à deux états, où un état (S0) est associé à la parité paire, et l’autre état (S1) à la parité impaire. La taille du bloc du code équivalent est égale au degré dc des nœuds de contrôle (CN). Un exemple de représentation en treillis est donné par la figure 4.13. Figure 4.13 – Représentation du treillis à deux états d’une contrainte de vérification de parité avec dc = 5122 Évaluation de la précision du turbo décodage Cette analogie permet à l’algorithme BCJR d’être également utilisé pour la mise à jour du contrôle de parité des codes LDPC, et l’algorithme de décodage résultant est dénommé TDMP (pour Turbo-Decoding Message Passing) [67]. L’algorithme est alimenté avec des messages vtoc comme information a priori et produit des messages ctov comme sorties a posteriori, sans mé- trique branche du canal. Donc, dans la mise à jour du nœud de contrôle CN m, les métriques cumulées de chemin sont simplifiées selon : J αk+1 = max∗(αk, µ(q) m,n) − max∗(αk + µ(q) m,n, 0) βk = max∗(βk+1, µ(q) m,n) − max∗(βk+1 + µ(q) m,n, 0) (4.30) où le paramètre k = 1, 2, ..., dc(m) − 1 désigne l’indice temporel au sein du treillis, avec dc(m) le degré du nœud de contrôle CNm, et n = Nm(k) l’indice du nœud de variable VN impliqué à l’étape k. Les relations de mise à jour données par (4.30) sont initialisées avec α0 = 1 et βdc = 1. Par la suite, le calcul des informations extrinsèques a posteriori peut être reformulé de la manière suivante : $ (q+1) m,n = max∗(αk, βk+1) − max∗(αk + βk+1, 0) (4.31) avec k = 0, 1, ..., dc(m) − 1 et n = Nm(k). 4.3.1 Modélisation et design en virgule fixe d’un décodeur LDPC Comme dans le cas du turbo décodeur, la modélisation en virgule fixe est fondée sur une approche en cascade où les opérations impliquées dans l’algorithme de décodage sont quantifiées les unes après les autres. Nous pouvons donc appliquer le modèle préalablement décrit que nous proposons dans le cadre de cette thèse. Il permet d’analyser indépendamment l’effet sur les performances (a) des entrées LLR a priori, (b) des messages ctov, et (c) des métriques cumulées de chemins au sein des relations de mise à jour des nœuds de contrôle. 1-Calcul des messages vtoc : Le calcul des messages vtoc µ selon (4.27) implique les sorties souples SOs et les messages ctov. Considérons que les entrées LLR sont quantifiées avec (Aλ, Nλ) et les messages ctov sont quantifiés avec (A%, N%) et soient ∆λ et ∆% leur résolution, respectivement. Soit le rapport ρ = ∆λ/∆% contraint à être une puissance de deux. Cette supposition réduit le nombre des variables indépendantes dans le modèle : seulement trois variables sont indépendantes parmi les quatre variables Aλ,Nλ,A% et N% indépendantes. C’est aussi la seule solution viable pour une implémentation optimisée de l’algorithme. Figure 4.14 – Modèle virgule fixe du décodeur BCJR à 2-états4.3 Optimisation du décodage LDPC 123 Si le rapport ρ est supérieur à 1, i.e. lorsqu’une résolution plus fine est utilisée pour les messages ctov, les rapports de vraisemblance canal (LLRs) a priori doivent être décalées à gauche de σλ = log2(ρ) bits à apporter sur la même résolution des messages ctov, ces derniers n’étant pas décalés (σ% = 0). Dans l’autre cas, aucun décalage n’est nécessaire sur les entrées LLRs (σ% = 0), tandis que les messages ctov doivent être décalés de σ% = −log2(ρ) bits. Figure 4.15 – Modèle virgule fixe du décodage à couche des codes LDPC Les rapports de vraisemblance canal (LLRs) a priori sont utilisés pour initialiser les entrées souples (SO) et donc ces deux quantités possèderont la même résolution ∆y = ∆λ. Par conséquent, la relation entre la résolution (∆%) des messages ctov et celle ( ∆y) des entrées souples (SO) sera identique à celle existant entre ∆% et ∆λ, c’est à dire entre la résolution des messages ctov et celle des entrées LLR. Sous ces considérations, les entrées souples (SOs) sont initialisées avec une version réduite des entrées LLRs de telle sorte que les données enregistrées ou récupérées du bloc mémoire du SO/λ utilisent la même résolution des messages ctov comme illustré dans la figure 4.15 . Ainsi, pour calculer les messages vtoc en virgule fixe, il est possible dans ces conditions de réaliser directement la soustraction Y − E et car les résolutions des deux opérandes sont identiques. Une fois les messages vtoc disponibles, il sont saturés de deux façons en parallèle : (a) une saturation sur Nµ bits pour l’entrée de l’unité de mise à jour des nœuds de contrôle (CN), et (b) une saturation sur Nv bits pour la mise à jour de la sortie souple (SO) dans la relation (4.28). 2- La mise à jour des SOs : La somme dans (4.28) est effectuée entre les messages ctov mis à jour E et les messages vtoc M" saturés sur Nv bits. Sa sortie est saturée sur Ny bits. Comme la sortie souple (SO) est toujours égale à la somme de dv des messages ctov entrant à un nœud de variable (VN) donné, Ny est donné par : Ny = N% + 3log2(dv,max)4 (4.32) où dv,max représente le degré maximal du nœud de variable (VN) dans le code. Par contre, on parle d’une solution à faible complexité lorsque les SOs sont saturées sur un nombre de bits inférieur à Ny donné par (4.32). 3-Les récursions métrique d’état : L’expression (4.30) combine les messages vtoc avec les métriques de chemins (forward et backward), et de la même manière pour le calcul des messages vtoc. Différentes résolutions pour les deux signaux peuvent être considérées. De même que précédemment, nous contraignons le rapport ρ = ∆λ/∆% à être égal à une puissance entière de deux. Ce facteur est utilisé pour aligner les représentations en virgule fixe M et A des variables µ et α représentant les métriques de chemins. Par conséquent, les repré- sentations en virgule fixe M et A sont décalées respectivement de σµ = log2(ρ) et σα = −log2(ρ) lorsque le paramètre ρ est supérieur à l’unité. Dans le cas contraire, ces représentations ne sont124 Évaluation de la précision du turbo décodage pas modifiées. Ainsi, la somme α + µ dans (4.30) devient en représentation en virgule fixe : A.2σα + M.2σµ (4.33) comme représenté sur la figure 4.14. Les autres opérations de l’algorithme peuvent être représentées au format virgule fixe en utilisant la méthodologie qui a précédemment été décrite dans la section dédiée au turbo décodage. Seules quelques modifications peuvent être apportées afin de simplifier la mise en œuvre. Ainsi, comme indiqué sur la figure 4.14, en définissant le paramètre B = max{Nα + σα, Nµ + σµ}, à chaque itération nous pouvons représenter la nouvelle valeur de A en virgule fixe sur B + 1 bits. Cette valeur est tout d’abord décalée à droite de sa bits puis saturée sur le nombre désiré de Nα bits. 4-Les messages APP ctov : Comme montré dans la figure 4.14, les messages ctov sont calculés avec les métriques cumulées de chemin récursions disponibles au sein de la mémoire. Ces métriques sont représentées sur Mα bits ce qui implique que la mise à jour des messages raffinés ctov donnée par la relation (4.31) peut être représentée en virgule fixe sur Mα + 2 éléments binaires. Une fois que l’information a posteriori est mise à jour, une opération de décalage (à gauche pour σα et à droite pour σ%) est réalisée afin de revenir à une résolution correspondant à celle des messages ctov. La saturation finale restaure la représentation sur N% bits. 4.3.2 Réduction de la taille de mémoire Comme dans le cas du turbo décodeur, l’implémentation est fondée sur l’utilisation étendue de mémoire pour accumuler l’estimation en sortie et stocker les résultats intermédiaires correspondant à la mise à jour des métriques cumulées de chemin et des messages ctov. Dans le cas du décodeur LDPC, la troncature est effectuée sur les messages ctov (T% bits), sur les SOs (Ty bits) et sur les métriques cumulées de chemin forward et backward (Tα bits). Comme indiqué sur la figure 4.14, ces signaux sont décalés (à gauche) juste après récupération de la mémoire, puis les saturations sont effectuées sur les messages ctov (saturés sur M% bits) et les récursions de métriques de chemins α/β (saturées sur Mα bits), tandis que les sorties souples SOs ne nécessitent pas de saturation après leur calcul. 4.3.3 Performance en virgule fixe du décodeur LDPC Nous présentons dans ce paragraphe, les résultats obtenus avec la méthode de représentation en virgule fixe exposée précédemment pour un algorithme de décodage LDPC. Pour ces expérimentations, le code LDPC utilisé correspond à une version proche de celui utilisé par la norme WIMAX dont les paramètres principaux sont : un rendement de codage R = 2/3, N = 1056, un degré maximal dv,max = 6 pour les nœuds de variable VN, et un degré maximal dc,max = 11 pour les nœuds de contrôle CN . L’effet de la quantification des entrées LLR est analysé sur la figure 4.16 où le taux d’erreur par paquet (FER) est représenté en fonction de la dynamique Aλ pour trois différentes valeurs de Nλ soit 4, 5 et 6 bits. Les quatre courbes représentées sur cette figure ont été obtenues pour un rapport signal à bruit Eb/N0 = 3.25dB à l’entrée du récepteur. La courbe correspondant à la représentation en virgule flottante sera prise comme référence. Nous pouvons constater que, pour des valeurs de Nλ de 4 ou 5 bits, les meilleures performances sont alors obtenues pour une dynamique Aλ de 10 bits. Par contre, lorsque Nλ est égal à 6 bits, la valeur optimale de la dynamique de Aλ est de 12 bits. Dans la suite, nous sélectionnons une précision des entrées LLR correspondant au réglage suivant (Aλ, Nλ) = (10, 5) ce qui conduit à un bon compromis performances/complexité. Une analyse similaire a été menée pour la représentation en virgule fixe des métriques cumulées de chemins dans le processeur CN. Les résultats correspondants sont présentés sur la figure 4.17.4.3 Optimisation du décodage LDPC 125 Figure 4.16 – Effet de la quantification des entrées LLRs Figure 4.17 – Effet de la quantification des métriques cumulées de chemin dans le processeur CN Dans ce cas, les courbes de performances (FER) sont évaluées en fonction de Eb/N0, i.e. le rapport signal à bruit présent en entrée du filtre de réception. Afin d’éviter les pertes dues à la quantification des messages ctov et des sorties souples (SOs), une quantification très fine est utilisée pour ces deux signaux en se basant sur un nombre suffisant de bits et une dynamique126 Évaluation de la précision du turbo décodage large. En particulier, la précision (160,12) est utilisée pour les messages ctov tandis que 3 bits additionnels (dv,max = 6) sont alloués pour les sorties souples SOs et Ny = 15. De même, pour les messages vtoc nous avons choisi de travailler avec une dynamique de Nµ = 15 bits. Le reste de l’algorithme est exécuté en précision quasi-virgule flottante. Nous pouvons constater qu’il est suffisant d’utiliser environ 7 ou 8 bits afin d’éviter le phénomène de FER résiduel (i.e. aplatissement des courbes FER) et Nα = 6 fournit de bonnes performances. 4.4 Conclusion Nous avons abordé dans ce chapitre la problématique de l’optimisation des largeurs de données impliquées dans les algorithmes de système de traitement de signal ainsi que les opérations effectuées dans ces algorithmes. Nous avons commencé par proposer une modélisation en virgule fixe du turbo décodeur en se basant sur le principe de fonctionnement de l’opération de décodage. Cette modélisation est fondée sur la quantification en cascade des différentes opé- rations récursives dans l’algorithme de décodage. Une analyse des performances du modèle en virgule fixe est présentée sous forme de courbes de taux d’erreur par paquet FER en fonction du SNR. De plus, cette modélisation nous permet de faire une exploration totale du compromis performance/complexité de l’architecture. La même stratégie a été effectuée pour modéliser en virgule fixe le décodeur LDPC en analysant les performances des choix en virgule fixe par le biais des courbes FER en fonction des paramètres virgule fixe choisis en visant des solutions à faible complexité d’implémentation avec le minimum de pertes de performance.Conclusion et Perspectives L’utilisation de l’arithmétique en virgule fixe [14] pour implémenter les algorithmes de traitement numérique de signal afin de pouvoir satisfaire aux contraintes de coût, de performance et de consommation d’énergie. La réduction du temps de mise sur le marché de ces applications nécessite l’utilisation d’outils de haut niveau de conversion automatique de l’arithmétique virgule flottante vers l’arithmétique virgule fixe. Cette conversion vise à minimiser les coûts de l’implémentation en termes de surface d’architecture, de consommation d’énergie et du temps d’exécution du code sous une contrainte de la précision des calculs pour garantir l’intégrité de l’application. Par conséquent, l’évaluation de la précision en arithmétique virgule fixe est une étape importante et nécessaire pour accomplir la conversion automatique en virgule fixe au sein de ces outils et aboutir à optimiser la largeurs de données en format virgule fixe. Ainsi, à chaque itération du processus d’optimisation, la précision est évaluée à travers des métriques. Cette évaluation peut se faire par des simulations en format virgule fixe qui conduisent à des temps d’évaluation prohibitifs ou bien en proposant des modèles analytiques permettant de réduire d’une façon très significative les temps d’évaluation. L’objectif de cette thèse est de proposer des modèles analytiques pour évaluer la précision des systèmes de communication numérique et de traitement numérique de signal formés d’opérateurs non lisses et non linéaires en terme du bruit. Le travail de recherche effectué au cours de cette thèse est fondé sur trois parties différentes. Dans un premier temps, nous avons défini des modèles analytiques d’évaluation de la précision pour les opérateurs de décision et la cascade d’opérateurs de décision. Cette étude a porté sur la caractérisation de la propagation des erreurs de décision dues à la quantification des données au sein d’une cascade d’opérateurs non lisses. Nous avons ainsi proposé un modèle analytique permettant d’estimer la probabilité d’erreur de décision au niveau de chaque élément de la cascade. Cette approche peut être appliquée à tout type de système constitué de cascade d’opérateurs décision. A titre d’exemple, nous avons appliqué l’approche proposée à l’évaluation des performances de l’algorithme de décodage sphérique SSFE en arithmétique virgule fixe. Nous avons ainsi montré que le modèle analytique permet d’estimer les probabilités d’erreur de décision pour chaque opérateur de décision impliqué dans la cascade de cette application. La deuxième partie concerne l’évaluation de la précision des systèmes itératifs d’opérateurs non lisses de décision, en particulier, les algorithmes d’égalisation à retour de décision. Nous avons tout d’abord caractérisé le phénomène de propagation des erreurs de décision au sein de ces systèmes. Deux modèles analytiques ont été proposés afin d’évaluer la probabilité d’erreur de décision de telles structures récursives La première approche basée sur la résolution d’un système non linéaire par le biais de la méthode de Newton-Raphson donne une estimation fiable de la probabilité d’erreur de décision due à la quantification en format virgule fixe. La seconde approche fournit une borne supérieure de la probabilité d’erreur de décision avec un temps d’évaluation largement réduit par rapport à la première approche. Cette dernière a été appliquée pour estimer la précision d’un égaliseur à retour de décision DFE. Une solution a été proposée pour étendre cette approche pour l’évaluation du DFE dans sa version adaptative. La dernière étape de ce travail a été consacrée à l’optimisation de la largeur des données impliquées dans l’algorithme DFE pour réaliser une implémentation efficace sur FPGA en termes de consommation de ressources et de puissance sous une contrainte de précision exprimée en fonction de la probabilité d’erreur de décision. La dernière partie de cette thèse s’articule autour de la modélisation en arithmétique virgule 127128 Perspectives fixe des algorithmes de décodage itératif de type turbo-décodage et décodage LDPC. Cette étude a conduit à la proposition de deux modèles en virgule fixe pour le turbo-décodeur et décodeur LDPC en quantifiant les différentes opérations et récursions impliquées dans le fonctionnement des algorithmes de décodage. La loi de quantification utilisée se base sur une représentation différente du schéma classique utilisant le nombre de bits pour la partie entière et le nombre de bits pour la partie fractionnaire. La représentation proposée accorde davantage de flexibilité pour la dynamique des signaux qui peut prendre des valeurs différentes d’une puissance de deux. Nous avons ainsi proposé plusieurs paramétrages réalisant différents compromis entre performances de l’application en arithmétique virgule fixe (taux d’erreur par paquet ou FER) et complexité de l’architecture. Des techniques de saturation et de troncature ont été proposées pour réduire la taille des mémoires afin de viser à des solutions à faible complexité. Des simulations de bout en bout ont permis de valider l’approche proposée en quantifiant les récursions impliquées dans les algorithmes de décodage pour en évaluer les performances des choix des largeurs des données en arithmétique virgule fixe. Perspectives La caractérisation des opérateurs non lisses est une étape obligatoire pour développer des modèles analytiques permettant l’évaluation de la précision des systèmes constitués de ce type d’opérateurs. Par conséquent, il s’avère important de pouvoir établir une classification de ce type d’opérateurs selon leurs propriétés mathématiques, et en particulier en fonction des propriétés de continuité et dérivabilité. Cette classification peut être la base de développement d’une approche générale permettant l’évaluation de la précision des systèmes de communication numérique et de traitement numérique de signal afin d’être en mesure de proposer un outil de haut niveau permettant l’évaluation de la précision de ces systèmes. Une seconde perspective concerne l’implémentation en virgule fixe de l’égaliseur à retour de décision en visant à quantifier les opérations itératives impliquées dans cet algorithme. De plus nous pouvons également réduire la taille des mémoires pour réaliser une architecture en arithmé- tique virgule fixe à faible complexité. En addition, nous pouvons également étendre les approches analytiques proposées pour évaluer la précision du DFE, en tenant compte de la variation des coefficients des filtres feedback et forward à chaque itération pour augmenter la précision de l’évaluation et ceci en prévoyant cette variation ou bien en utilisant des techniques d’apprentissage non-supervisé pour estimer les bornes de la variation de ces coefficients et les intégrer dans les approches analytiques proposées. Une dernière perspective peut être évoquée au sujet des algorithmes de décodage itératif. En effet, une approche analytique pour évaluer la précision de ces algorithmes peut être abordée en s’inspirant des modèles développés dans le cadre du DFE. En effet, les deux structures sont similaires puisqu’elle sont basées sur des calculs itératifs incluant un bloc de décision en sortie. Par conséquent, les modèles développés pour le cas du DFE dans le cadre de cette thèse peuvent être étendus pour évaluer la précision du turbo-décodeur et du décodeur LDPC selon les contraintes de précision et de coût d’implémentation souhaitées par l’utilisateur.Annexe A Quantification uniforme et quantification double Nous présentons dans cet annexe le principe de la quantification uniforme et double avec caractérisation dans le domaine de la fonction caractéristique. A.1 Quantification uniforme Le processus de quantification est par définition non lisse dans le sens strict. Pour déterminer l’applicabilité du modèle PQN à l’étude du processus de quantification, la relation entre la dynamique D du signal d’entrée et le pas de quantification q doit être considérée. Lorsque le pas de quantification est beaucoup plus petit que la dynamique du signal (q 5 α), il est possible de modéliser l’erreur introduite par la quantification en utilisant le modèle PQN. Cette hypothèse d’un faible pas de quantification (relativement à la dynamique du signal) est à l’origine des propriétés du modèle additif PQN. Dans le cas d’un opérateur non lisse, le pas de quantification est large et souvent comparable à la dynamique du signal D. Dans ces conditions, les propriétés de l’erreur de quantification, y compris la forme de bruit, sa propriété d’additivité et son indépendance statistique avec le signal d’entrée sont discutables et remises en question. Il est alors nécessaire de considérer un cadre plus général où les propriétés statistiques du bruit de quantification varient en fonction de la FDP du signal d’entrée et en fonction du pas de quantification. Dans cette section, nous présentons les dynamiques de la quantification des signaux réels dans le domaine de la fonction caractéristique. Cette analyse est ensuite appliquée pour les signaux quantifiés afin d’apprécier le processus de quantification durant une mise en cascade de deux opérateurs de quantification. A.1.1 Quantification dans le domaine de la fonction caractéristique Le phénomène de quantification ressemble à l’échantillonnage de Nyquist. De façon analogue à l’échantillonnage de Nyquist qui est défini sur l’axe temporel, la quantification peut être considérée comme l’échantillonnage tout au long de l’axe d’amplitude du signal. De ce fait, la FDP du signal et sa fonction caractéristique (FC) qui est sa transformée de Fourier sont analogues au signal dans son domaine temporel et sa représentation dans le domaine de Fourrier. De la même façon, le pas de quantification q joue un rôle similaire à la période d’échantillonnage de Nyquist T. La FC φx(u) du signal original x se répète tout au long de l’axe de son domaine u, la fréquence radian de quantification a un intervalle ψ = 2π q . La figure A.1 montre le chevauchement des fonctions caractéristiques du signal quantifié lorsque le pas de quantification est supérieur ou égal à qb. La largeur de bande d’un signal quantifié est définie par l’intervalle des pulsations [0, Wx], où Wx correspond à la pulsation limite engendrant une discontinuité dite à crenelage entre les images successives de la fonction caractéristique. Cette largeur de bande est donc est déterminée 129130 Quantification uniforme et quantification double à partir du pas de quantification selon : Wx = 2π qb tel que ∀ |u| ≥ 2π qb (A.1) Figure A.1 – Domaine de la fonction caractéristique Lorsque le pas de quantification est suffisamment faible, la fréquence angulaire est grande de telle sorte qu’elle ne permet pas le chevauchement de la fonction φx(u). Comme les pas de quanti- fication augmentent, la répétition est plus fréquente provoquant un crénelage/ Cette observation est connue par le premier théorème de quantification (TQ1). En d’autres termes, ce n’est que l’application du théorème d’échantillonnage de Nyquist selon l’axe d’amplitude du signal. Dans la figure A.1 q1 est le plus grand pas de quantification de telle sorte que TQ1 est satisfaite. Le second théorème de quantification (TQ2) assouplit les conditions fixées par TQ1 et permet le chevauchement des images de répétition des FC du signal. Le second théorème de quantification (TQ2) précise les conditions dans lesquelles les moments du signal d’origine peuvent être récupérés obtenusA.1, le plus grand pas de quantification qui peut satisfaire à la condition de TQ2 est noté qb. Soit Sr le moment d’ordre r du signal erreur de quantification et Rr est la covariance entre le moment d’ordre r de signal d’entrée x et l’erreur de quantification e. Les moments du signal quantifié xˆ sont données par : E[ˆxr] = E[xr] + Sr + Rr avec Rr = E[(x − x¯) r(e − e¯) r] (A.2) Lorsque les théorèmes TQ1 et TQ2 sont satisfaits, la valeur des coefficients Rr est nulle pour tout r. En d’autres termes, le modèle PQN peut être utilisé pour déterminer analytiquement l’effet du bruit de quantification. Le pas de quantification est assez grand pour que qb marque la frontière entre l’applicabilité et la non-applicabilité du modèle PQN. Lorsque le pas de quantification est augmenté au-delà de cette limite, la valeur de Rr devient non nulle, et les propriétés statistiques du signal quantifié s’écartent des valeurs données par le modèle PQN. Dans la pratique, le signal d’entrée prend un ensemble de valeurs finies et il est donc limité dans le domaine de la FDP. Théoriquement, cela rend la FC de la bande de signal illimitée. En d’autres termes, contrairement au cas représenté sur la figure A.1, la FC est en fait théoriquement nulle seulement à l’infini. Les théorèmes de quantification TQ3 et TQ4 se placent dans des conditions lorsque n’importe quel moment arbitraire du bruit de quantification et du signal peuvent être mutuellement orthogonales (i.e Rr dans l’équation (A.2) est nulle pour n’importe quel r) et leA.2 La quantification double 131 bruit de quantification continue d’être uniformément distribuée indépendamment du lieu où la FC passe à 0. Par conséquent, le modèle PQN est applicable sur un quantificateur de pas de quantification q si la fonction caractéristique d’entrée et ses dérivées prennent la valeur 0 à tous les points correspondant aux multiples de la fréquence angulaire de quantification φ = 2π q . A.2 La quantification double Tout système dans la pratique se compose de nombreux quantificateurs qui causent une quantification répétée tout au long d’un chemin de données en virgule fixe. Lorsque les théorèmes de quantification sont bien définis pour la première quantification, l’application du modèle PQN pour le phénomène de double quantification n’est pas rigoureusement définie car le sujet d’une cascade de plusieurs quantificateur n’est pas précisé par le modèle PQN particulièrement lorsqu’il s’agit d’opérateurs non lisses. Dans [85], il a été supposé que tous les quantificateurs sont toujours conformes aux conditions du modèle PQN. Afin de justifier cela, considérons une double quantification comme dans la figure A.2 avec deux quantificateurs en mode arrondi. Bien que la puissance du bruit total est affectée en raison d’une moyenne non nulle finie, la dynamique de la quantification n’est pas affectée dans le mode par troncature. Figure A.2 – Quantification double Dans les travaux présentés dans [92], la function densité de probabilité fxˆ1 (x) du signal xˆ1 à la sortie du premier quantificateur est donnée par : fxˆ1 (x)=(fx(x) ∗ fb1 (x)).cq1 (x) = '∞ m=−∞ δ(x − m.q1) m.q1+ q1 / 2 m.q1− q1 2 fx(α)dα. (A.3) avec δ est la fonction d’impulsion, fx(x) et fn1 (x) sont respectivement les FDP du signal d’entrée x et du signal de quantification au niveau du premier quantificateur. cq1 (x) est le train d’impulsions du premier quantificateur espacé de q1 unités et il est donné par : cq1 (x) = '∞ m=−∞ q1.δ(x − m.q1). (A.4) L’entrée du second quantificateur xˆ1 est de nature discrète. Cependant, les dynamiques de la quantification des signaux dont la FDP est discrète sont inchangées. En raison de l’amplitude discrète du signal d’entrée, il suffit de considérer l’erreur due à la quantification au niveau des points discrets. La FDP discrète du bruit de quantification au niveau du deuxième quantificateur fb2 (x) peut être écrite en discrétisant encore le niveau avec le pas de quantification du quantificateur précédent : fb2 (p) = J 1 k −k 2 ≤ p < k 2 0 autre part (A.5) avec p = xˆ q1 est une variable discrète correspondante à xˆ et k = q2 q1 est le rapport des pas de quantification. Lorsque un circuit arithmétique binaire est utilisé, il convient de noter que les pas de quantification des quantifications successives sont des puissance de 2. En d’autres termes,132 Quantification uniforme et quantification double échantillonner le train d’impulsions du premier quantificateur a un taux de k donne cq2 (x). Sa version discrétisée peut être écrite comme suit : cq2 (p) = '∞ m=−∞ k.δ(p − m.k). (A.6) La FDP du signal xˆ2 est une fonction de la FDP discrète. Elle peut être simplifiée suivant : fxˆ2 (p)=(fxˆ1 (p) ∗ fb2 (p)).cq2 (p) =   '∞ β=−∞ fb2 (p − β).fxˆ1 (β)   .cq2 (p) =   p+ k '2 β=p− k 2 1 k .fxˆ1 (β)   .cq2 (p) =   p+ k '2 β=p− k 2 1 k .fxˆ1 (β)   . '∞ m=−∞ k.δ(p − m.k) = '∞ m=−∞ δ(p − m.k) m.k+ k '2 β=m.k− k 2 fxˆ1 (β). (A.7) La FDP du signal xˆ2 est une fonction de la FDP discrète fxˆ1 (p) avec β est le compteur de k échantillons discrètes de la FDP du signal xˆ1 centrée sur m.k pour toute m. Elle peut être simplifiée comme une fonction du signal en précision infinie comme : fxˆ2 ( x q1 ) = '∞ m=−∞ δ( x q1 − m. q2 q1 ) m. q2 q1 + q2 '2q1 x q1 =m. q2 q1 − q2 2q1 fxˆ1 ( x q1 ) fxˆ2 (x) = '∞ m=−∞ δ(x − m.q2) m.q2+ q2 ' 2 x=m.q2− q2 2 fxˆ1 (x). (A.8) Considérons maintenant qu’un seul quantificateur soit utilisé pour obtenir xˆ2 avec un pas de quantification q2 = k.q1. La FDP du signal directement obtenu de l’équation A.3 s’écrit par la relation suivante : fxˆ2 (x) = '∞ m=−∞ δ(x − mq2) / mq2+ q2 2 mq2− q2 2 fx(α)dα (A.9) Le pas de quantification du deuxième quantificateur est un entier multiple du pas de quantification du premier quantificateur. Ainsi, la superficie totale couverte par l’intégrale entre le niveau (−q2 2 , q2 2 ) est aussi bonne que l’addition de k échantillons de la FDP dans l’intervalle. Cela se traduit par : / mq2+ q2 2 mq2− q2 2 fx(α)dα = m.q2+ q2 ' 2 x=m.q2− q2 2 fxˆ1 (x). (A.10) En comparant les relations (A.8) et (A.9), il est clair que la FDP du signal quantifié en cas de double quantification est la même que dans le cas de la seule quantification. Ce résultat signifie que les théorèmes de quantification sont applicables même dans le cas de la double de quantification comme si elle est appliquée sur le signal d’origine. En d’autres termes, le modèle PQN peut être appliqué pour estimer les statistiques globales du bruit de quantification à la sortie d’un quantificateur quelconque indépendamment du fait que le quantificateur agit sur un signal continu ou un signal déjà quantifié.Annexe B La méthode de Newton-Raphson pour la résolution des systèmes non linéaires B.1 Les systèmes non linéaires Le cas des systèmes non linéaires est beaucoup plus délicat que celui des des systèmes linéaires car les non-linéarités sont génératrices d’instabilités numériques fortes. Considérons l’exemple relativement simple du système suivant de deux équations à deux inconnues : J f1(x, y) = x2 − (y2 − 1)2 = 0 f2(x, y) == (x2 − 2)2 − 2y2 = 0 (B.1) L’équation f1(x, y)=0 correspond à une ligne courbe dans le plan xy ; de même pour l’équation f2(x, y)=0 . Le problème qui se pose alors consiste à rechercher les intersections de ces lignes courbes. En outre, ces lignes courbes peuvent dans certains cas dégénérer en simples points, ou encore en zones continues à deux dimensions (un demi-plan par exemple). Le cas particulier des fonctions ci-dessus est illustré par le diagramme suivant : Figure B.1 – diagramme des cas particuliers 133134 La méthode de Newton-Raphson pour la résolution des systèmes non linéaires Les équations f1(x, y)=0 et f2(x, y)=0 définissent des coniques, en conséquence la résolution du système défini par ces 2 équations revient à chercher tous les points d’intersections entre ces coniques. Sans le cas de l’exemple précédent, on observe huit solutions possibles. Si l’on généralise le problème précédent à un système de n équations à n inconnues, les lignes courbes précédentes sont généralement remplacées par des hyper-courbes de dimension n-1, ce qui rend le problème encore plus complexe. En fait, il n’y a pas de méthode miracle universelle et il est généralement nécessaire d’introduire des informations complémentaires sur le système à résoudre. Ceci peut concerner, par exemple, le nombre de solutions distinctes (en particulier, peuton attendre une unique solution ?) ou bien encore la position approximative de ces solutions. Toute autre information a priori sur le système est généralement bienvenue, sous réserve de modifier en conséquence l’implémentation des méthodes numériques de résolution. Sous réserve que l’on parvienne à cerner le problème posé, on peut simplifier le problème et généraliser la méthode de Newton-Raphson à n dimensions. Typiquement, le problème posé est du type :    f1(x1, x2, ..., xn)=0 f2(x1, x2, ..., xn)=0 . . . fn(x1, x2, ..., xn)=0 (B.2) Au voisinage d’un vecteur X = (x1, x2, ..xn), , chacune des fonctions fi peut être approximée par son développement de Taylor à un ordre donné. Si l’on considère une approximation à l’ordre 1, nous obtenons : fi(X + ∂X) = fi(X) + 'n j=1 ∂fi ∂xj (X)δxj + O(||δX||2) (B.3) Le principe de la méthode de Newton-Raphson repose alors sur les hypothèses suivantes : - le vecteur X n’est pas très éloigné de la solution cherchée, - on cherche alors δX de sorte que X + δX se rapproche encore de la solution, - on néglige tous les termes au-delà du second ordre dans le développement de Taylor , - on itère le processus jusqu’à ce que le terme correctif δXsoit assez faible. Figure B.2 – méthodeB.1 Les systèmes non linéaires 135 Il en résulte alors le système d’équations suivant : fi(X + δX) = fi(X) + 'n j=1 ∂fi ∂xj (X)δxj = 0 donc 'n j=1 ∂fi ∂xj (X)δxj = −fi(X) (B.4) On obtient alors un système linéaire de n équations à n inconnues dont la solution correspond aux composantes du vecteur δX. Le système peut alors être solutionné par des méthodes classiques adaptées à ce genre de problème. L’organigramme suivant détaille les principales phases de la méthode de Newton-Raphson.136 La méthode de Newton-Raphson pour la résolution des systèmes non linéairesBibliographie [1] Universal mobile telecommunication system, european telecommunications standards institute. ETSI UMTS TM, June 2000. [2] Satellite digital video broadcasting of second generation (dvb-s2). ETSI Standard EN302307, Feb 2005. [3] Physical layer and management parameters for 10 gb/s operation, type 10gbase-t. 802.3 Working Group, Sep 2006. [4] Digital video broadcasting (dvb) ; interaction channel for satellite distribution systems. European Telecommunications Standards Institute, July 2007. [5] Framing structure, channel coding and modulation for satellite services to handheld devices (sh) below 3 ghz,. Digital Video Broadcasting group, July 2007. [6] 3rd generation partnership project - technical specification group radio access network- high speed downlink packet access (hsdpa)-overall description. 3rd Gener. Partnership Project, Sept 2009. [7] Evolved universal terrestrial radio access (e-utra). 3rd Gener. Partnership Project 2, June 2009. [8] Ieee standard for local and metropolitan area network : Air interface for broadband wireless access systems, ieee computer society. IEEE Std 802.16TM, May 2009. [9] Local and metropolitan area networks specific requirements part 11 : Wireless lan medium access control (mac) and physical layer (phy) specifications amendment 5 : Enhancements for higher throughput. IEEE 802.11nTM., 2009. [10] R. Rocher A. Chakhari and P. Scalart. Analytical approach to evaluate fixed point accuracy for an iteration of decision operators. In In Proceedings of the IEEE International Conference on Computer Applications Technology (ICCAT 2013), Jan 2013. [11] W. Luk P. Cheung A. Gaffar, O. Mencer and N. Shirazi. Floating-point bit-width analysis via automatic differentiation. In International Conference on Field Programmable Logic and Applications, FPL2002,, pages 158–165, 2002. [12] L. Gonzalez-Perez A. Morales-Cortes, R. Parra-Michel and T. Cervantes. Finite precision analysis of the 3gpp standard turbo decoder for fixed-point implementation in fpga devices. in Int. Conf. on Reconfig. Computing FPGAs, pages 43–48, 2008. [13] M. Moussa A. Savich and S.Areibi. The impact of arithmetic representation on implementing mlp-bp on fpgas : A study. IEEE. Transactions on Neural Networks, pages 240–252, 2007. [14] T. Adali and S.H. Ardalan. Convergence and error analysis of the Fixed-Point RLS Algorithm with correlated inputs. In IEEE Conference on Acoustics, Speech and Signal Processing (ICASSP’90), pages 1479–1482, 1990. [15] P. Belanovic and M. Lesser. A library of parameterized floating-point modules and their use. In International Conference on Field Programmable Logic and Applications, FPL2002, pages 657–666, 2002. [16] P. Belanovic and M. Rupp. Fixify : A Toolset for Automated Floating-point to Fixedpoint Conversion. In International Conference on Computing, Communications and Control Technologies (CCCT’04), pages 28–32, 2004. 137138 BIBLIOGRAPHIE [17] P. Belanovic and M. Rupp. Automated Floating-point to Fixed-point Conversion with the fixify Environment. In IEEE Rapid System Prototyping (RSP’05), pages 172–178, 2005. [18] F. Berens and N. Naser. Algorithm to system-on-chip design flow that leverages systemstudio and systemc. Synopsys Inc, 2004. [19] T. Blankenship and B. Classon. Fixed-point performance of low complexity turbo decoding algorithms. in IEEE Vehicular Techn. Conf. (VTC), 2 :1483–1487, 2001. [20] T. Bose and M.-Q. Chen. Over flow oscillations in state-space digital filters. IEEE Transactions on Circuits and Systems, 38 :807–810, jul 1991. [21] T. Bose and M.-Q. Chen. Stability of digital filters implemented with two’s complement truncation quantization. IEEE Transactions on Circuits and Systems, 40 :24–31, jan 1992. [22] A. Glavieux C. Berrou and P. Thitimajshima. Near shannon limit error correcting coding and decoding : Turbo codes. in IEEE Intern. Conf. on Commun., 2 :1064–1070, May 1993. [23] C. Douillard C. Berrou, M. Jezequel and S. Keroudan. The advantages of non-binary turbo codes. In in Inform. Theory Workshop, pages 61–62, Sep 2001. [24] P. Cheung C. Ewe and G. A. Constantinides. Error modeling of dual fixed-point arithmetic and its application in field programmable logic. In International Conference on Field Programmable Logic and Applications, FPL2005, pages 124–129, 2005. [25] P. Leong-W. Luk C. H. Ho, C. W. Yu and S. Wilton. Floating-point fpga : Architecture and modeling. IEEE. Transactions on Very Large Scale Integration Systems, pages 1709–1718, 2009. [26] M. Lu C. He, G. Qin and W. Zhao. An efficient implementation of high accuracy finite difference computing engine on fpgas. In International Conference on Application Specific Systems, Architectures and Processors, pages 95–98, 2006. [27] S. Wilton P. Leong C. W. Yu, J. Lamoureux and W. Luk. The coarse-grained/ fine-grained logic interface in fpgas with embedded floating-point arithmetic. International Journal of Reconfigurable Computing, pages 1–10, 2008. [28] J.M. Cheneaux, L.S. Didier, and F. Rico. The fixed cadna library. Real Number and Computers, September 2003. [29] J.M. Cheneaux and J.Vignes. Les fondements de l’arithmétique stochastique. C.R. Académie des Sciences, pages 1435–1440, 1992. [30] Jung-Fu Cheng and T. Ottosson. Linearly approximated log-map algorithms for turbo decoding. Vehicular Technology Conference Proceedings, 2000. VTC 2000-Spring Tokyo. 2000 IEEE 51st, 3 :2252 – 2256, May 2000. [31] G. Constantinides, P. Cheung, and W. Luk. Truncation Noise in Fixed-Point SFGs. IEEE Electronics Letters, 35(23) :2012–2014, November 1999. [32] G. Constantinides, P. Cheung, and W. Luk. Roundoff-noise shaping in filter design. In IEEE Symposium on Circuits and Systems (ISCAS’00), pages IV57–IV60, Geneva, Switzerland, May 28-31 2000. Institute of Electrical and Electronics Engineers. [33] M. Coors, H. Keding, O. Luthje, and H. Meyr. Integer Code Generation For the TI TMS320C62x. In International Conference on Acoustics, Speech, and Signal Processing 2001 (ICASSP’01), Sate Lake City, US, May 2001. [34] L. De Coster, M. Ade, R. Lauwereins, and J.A. Peperstraete. Code Generation for Compiled Bit-True Simulation of DSP Applications. In Proceedings of the 11th International Symposium on System Synthesis (ISSS’98), Taiwan, December 1998. [35] P. Raghavan L. Van der Perre J. Huisken D. Novo, A. Kritikakou and F. Catthoor. Ultra low energy domain specific instruction-set processor for on-line surveillance. IEEE 8th Symposium on Application Specific Processors (SASP), pages 30–35, mar 2010. [36] L.H. de Figueiredo and J. Stolfi. Affine Arithmetic : Concepts and Applications. Numerical Algorithms, pages 1–13, 2003.BIBLIOGRAPHIE 139 [37] C. Douillard E. Boutillon and G. Montorsi. Iterative decoding of concatenated convolutional codes : implementation issues. Proc. IEEE, 95 :1201–1227, June 2007. [38] J. Castura E. Boutillon and F. Kschischang. Decoder-first code design. in Intern. Symp. on Turbo Codes and Related Topics, pages 459–462, Sep 2000. [39] W. J. Gross E. Boutillon and P. G. Gulak. Vlsi architectures for the map algorithm. IEEE Trans. Commun, 51 :175–185, 2003. [40] C. Klein F. de Dinechin and B. Pasca. Generating high-performance custom floating-point pipelines. In International Conference on Field Programmable Logic and Applications, FPL 2009, pages 59–64, 2009. [41] J. Tousch F. Guilloud, E. Boutillon and J.-L. Danger. Generic description and synthesis of ldpc decoders. IEEE Trans. Commun, 55 :2084–2091, November 2006. [42] P. Y. K. Cheung G. A. Constantinides and W. Luk. Wordlength optimization for digital signal processing. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 32 :1432–1442, 2003. [43] G. Leyva C. Carreras G Caffarena, J. A. Lopez and O. Nieto Taladriz. Architectural synthesis of fixed-point dsp datapaths using fpgas. International Journal on Reconfigurable Computing, pages 1–8, January 2009. [44] J. A. Lopez G. Caffarena, C. Carreras and A. Fernandez. Sqnr estimation of fixed-point dsp algorithms. EURASIP Journal on Advanced Signal Processing, pages 1–21, Feb 2010. [45] M. Gevers G. Li and Youxian S. Performance analysis of a new structure for digital filter implementation. IEEE Transactions on Circuits and Systems I : Fundamental Theory and Applications, 47 :474–482, apr 2000. [46] R. Gallager. Low-Density Parity-Check Codes. PhD thesis, Massachusetts Institutes of Technology, 1960. [47] D.N. Godard. Self recovering equalization and carrier tracking in two dimensional data communications systems. IEEE Trans. on Communications, 28(11) :1867–1875, November 1980. [48] O. Luthje H. Keding, M. Coors and H. Meyr. Fast bit-true simulation. In Proceedings of the 38th annual Design Automation Conference, pages 708–713, 2001. [49] D. Hocevar. A reduced complexity decoder architecture via layered decoding of ldpc codes. in IEEE Work. on Signal Proc. Systems, SISP 2004, pages 107–112, 2004. [50] http ://reference.wolfram.com/language/. [51] G. Caffarena J. A. Lopez and C. Carreras. Fast and accurate computation of l2 sensitivity in digital filter realizations. In Technical Report, University Politechnica de Madrid,, 2006. [52] O. Macchi J. Labat and C. Laot. Adaptive decision feedback equalization : can you skip the training period ? IEEE Trans. on Communication, pages 921–930, July 1998. [53] C. Carreras J.A. Lopez, G. Caffarena and O. Nieto-Taladriz. Analysis of limit cycles by means of affne arithmetic computer-aided tests. In 12th European Signal Processing Conference (EUSIPCO 2004), pages 991–994, 2004. [54] C. Carreras J.A. Lopez, G. Caffarena and O. Nieto-Taladriz. Fast and accurate computation of the roundoff noise of linear time-invariant systems. IET Circuits, Devices Systems, 2 :393– 408, aug 2008. [55] G. Caffarena J.A. Lopez, C. Carreras and O. Nieto-Taladriz. Fast characterization of the noise bounds derived from coefficient and signal quantization. In Circuits and Systems, 2003. ISCAS ’03. Proceedings of the 2003 International Symposium on, 4 :309–312, may 2008. [56] F. Cruz-Roldan J.D.O. Campo and M. Utrilla-Manso. Tighter limit cycle bounds for digital filters. IEEE Signal Processing Letters, 13 :149–152, mar 2006.140 BIBLIOGRAPHIE [57] K. Kalliojarvi and J. Astola. Roundoff errors in block-floating-point systems. IEEE Transactions on Signal Processing, pages 783–790, apr 1996. [58] H. Kfir and I. Kanter. Parallel versus sequential updating for belief propagation decoding. Physica A Statistical Mechanics and its Applications, 330 :259–270, Dec 2003. [59] S. Kim, K. Kum, and W. Sung. Fixed-Point Optimization Utility for C and C++ Based Digital Signal Processing Programs. In Workshop on VLSI and Signal Processing ’95, Osaka, November 1995. [60] S. Kim and W. Sung. Fixed-Point-Simulation Utility for C and C++ Based Digital Signal Processing Programs. In Twenty-eighth Annual Asilomar Conference on Signals, Systems, and Computer, October 1994. [61] S. Kim and W. Sung. Fixed-Point Error Analysis and Word Length Optimization of 8x8 IDCT Architectures. IEEE Transactions on Circuits and Systems for Video Technology, 8(8) :935–940, December 1998. [62] K. I. Kum and W. Sung. Combined word-length optimization and high-level synthesis of digital signal processing systems. IEEE Transactions on Computer Aided Design of Integrated Circuits and Systems, 20 :921–930, 2001. [63] F. Jelinek L. Bahl, J. Cocke and J. Raviv. Optimal decoding of linear codes for minimizing symbol error rate. IEEE Trans. Inf. Theory, pages 284–287, Mar 1974. [64] R. Lauwereins L. De Coster, M. Ade and J. Peperstraete. Code generation for compiled bit-true simulation of dsp applications. In Proceedings of the 11th International Symposium on System Synthesis 1998, pages 9–14, dec 1998. [65] P. Lapsley, J. Bier, A. Shoham, and E. A. Lee. DSP Processor Fundamentals : Architectures and Features. Berkeley Design Technology, Inc, Fremont, CA, 1996. [66] E. E. Lopez A. Bourdoux D. Novo L. Van Der Perre M. Li, B. Bougard and F. Catthoor. Selective spanning with fast enumeration : A near maximum-likelihood mimo detector designed for parallel programmable baseband architectures. In IEEE International Conference on Communications (ICC) 2008, May 2008. [67] M. Mansour and N. Shanbhag. High-throughput ldpc decoders. IEEE Transactions on VLSI System, 11 :976–996, Dec 2003. [68] P. Meignen. Analyse statistique de systémes en virgule fixe. Technical report, ENSSAT, Lannion, Septembre 2005. [69] D. Menard. Methodologie de compilation d’algorithmes de traitement du signal pour les processeurs en virgule fixe, sous contrainte de precision. PhD thesis, Universite de Rennes I, Lannion, Dec 2002. [70] D. Menard, R. Rocher, P. Scalart, and O. Sentieys. SQNR determination in non-linear and non-recursive fixed-point systems. In XII European Signal Processing Conference (EUSIPCO’04), pages 1349–1352, Vienna, Austria, September 2004. [71] S.K. Mitra. Digital signal processing laboratory using matlab. WCB/Mc-GrawHill, University of California, Santa Barbara, 1999. [72] G. Montorsi and S. Benedetto. Design of fixed-point iterative decoders for concatenated codes with interleavers. IEEE J. Sel. Areas Commun, 19 :871–882, 2001. [73] A. Oppenheim. Realization of digital filters using block-floating-point arithmetic. IEEE Transactions on Audio and Electroacoustics, 18 :130–136, jun 1970. [74] E. Ozer, A.P. Nisbet, and D. Gregg. Stochastic Bitwidth Approximation Using Extreme Value Theory for Customizable Processors. Technical report, TrinityCollege, Dublin, Ireland, October 2003. [75] K. Parashar. System-level Approaches for Fixed-point Refinement of Signal Processing Algorithms. PhD thesis, Universite de Rennes I, Lannion, Dec 2012.[76] J. Proakis. Digital Communications, volume 1. McGraw-Hill, 4 edition, 2000. [77] N. Hervé R. Rocher, D. Menard and O. Sentieys. Fixed-point configurable hardware components. EURASIP Journal on Embedded Systems, pages 1–13, January 2006. [78] S. Wilson R. Zarubica, R. Hinton and E. Hall. Efficient quantization schemes for ldpc decoders. in IEEE Military Commun. Conf. (MILCOM), pages 1–5, 2008. [79] T. J. Richardson and R. L. Urbanke. Efficient encoding of low density parity check codes. IEEE Trans. Inf. Theory, 47 :638–656, Feb 2001. [80] G. Montorsi S. Benedetto, D. Divsalar and F. Pollara. Serial concatenation of interleaved codes : performance analysis, design and iterative decoding. IEEE Trans. Inf. Theory., 44 :909–926, May 1998. [81] G. Montorsi S. Benedetto, D. Divsalar and F. Pollara. Soft-input soft-output modules for the construction and distributed iterative decoding of code networks. Europ. Trans. on Telecomm., 9, Apr 1998. [82] R. Serizel. Implantation en virgule fixe d’un codeur audio. Master’s thesis, ENSSAT, Lannion, Septembre 2006. [83] C. Shi. Floating-point to Fixed-point Conversion. PhD thesis, University of California, Berkeley, Lannion, Apr 2004. [84] C. Shi and R. W. Brodersen. Floating-point to fixed-point conversion. IEEE Trans. Signal Processing, 2004. [85] C. Shi and R.W. Brodersen. A perturbation theory on statistical quantization effects in fixedpoint dsp with non-stationary inputs. In Proceedings of the 2004 International Symposium on Circuits and Systems, ISCAS 2004, volume 3, may 2004. [86] W. Mecklenbrauker T. Claasen and J. Peek. Effects of quantization and over ow in recursive digital filters. Acoustics, Speech and Signal Processing, IEEE Transactions on, 24 :517–529, dec 1976. [87] T. Inoue W. Zeng T. Hinamoto, S. Yokoyama and Wu-Sheng Lu. Analysis and minimization of l2-sensitivity for linear systems and two-dimensional state-space filters using general controllability and observability gramians. IEEE Transactions on Circuits and Systems I : Fundamental Theory and Applicationsn, 49 :1279–1289, sep 2002. [88] Z. Wang T. Zhang and K. Parhi. On finite precision implementation of low density parity check codes decoder. in Proc. IEEE ISCAS, 4 :202–205, May 2001. [89] R. Tanner. A recursive approach to low complexity codes. IEEE Trans. Inf. Theory, 27 :533– 547, Sep 1981. [90] C. Mullis W. Mills and R. Roberts. Digital filter realizations without overflow oscillations. IEEE Transactions on Acoustics, Speech and Signal Processing, 26 :334–338, aug 1978. [91] S. Wadekar and A. Parker. Accuracy Sensitive Word-Length Selection for Algorithm Optimization. IEEE/ACM International Conference on Computer Design (ICCAD’98), pages 54–61, 1998. [92] B. Widrow and I. Kollar. Quantization noise : Roundoff error in digital computation, signal processing, control, and communications. Cambridge University Press, Cambridge, UK, 2008. [93] B. Widrow, I. Kollár, and M.-C. Liu. Statistical Theory of Quantization. IEEE Transactions on Instrumentation and Measurement, 45(2) :353–361, Apr. 1996. [94] Xilinx. System generator for dsp. In http ://www.xilinx.com. [95] H. Zhong and T. Zhang. Block-ldpc : A practical ldpc coding system design approach. IEEE Trans. Circuits Syst, 52 :766–775, Apr 2005. [96] U. Zölzer. Digital Audio Signal Processing. John Wiley and Sons, August 1997. 141 Un ˆılot formel pour les transformations de mod`eles qualifiables Jean-Christophe Bach To cite this version: Jean-Christophe Bach. Un ˆılot formel pour les transformations de mod`eles qualifiables. Programming Languages. Universit´e de Lorraine, 2014. French. HAL Id: tel-01081055 https://tel.archives-ouvertes.fr/tel-01081055 Submitted on 6 Nov 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.Institut National de Recherche en Informatique et Automatique Universit´e de Lorraine Ecole doctorale IAEM (Informatique, Automatique, ´ Electronique et Math´ematiques) ´ Un ˆılot formel pour les transformations de mod`eles qualifiables THESE ` pr´esent´ee et soutenue publiquement le 12 septembre 2014 pour l’obtention du Doctorat de l’Universit´e de Lorraine (sp´ecialit´e informatique) par Jean-Christophe Bach Composition du jury Rapporteurs : Antoine Beugnard Professeur, Telecom Bretagne Laurence Duchien Professeur, Universit´e de Lille 1, LIFL Examinateurs : Mark van den Brand Professeur, Eindhoven University of Technology Benoˆıt Combemale Maˆıtre de conf´erences, Universit´e de Rennes 1, IRISA, Inria Marc Pantel Maˆıtre de conf´erences, Universit´e de Toulouse, INPT, IRIT Encadrant de th`ese : Pierre-Etienne Moreau Professeur, Universit´e de Lorraine, Ecole des Mines de Nancy ´ Laboratoire Lorrain de Recherche en Informatique et ses Applications — UMR 7503iiiii Remerciements Je tiens `a remercier mes encadrants de th`ese, Marc Pantel et Pierre-Etienne Moreau, qui ont accept´e de m’encadrer en tant que doctorant, malgr´e la distance pour l’un et les responsabilit´es administratives pour l’autre. Je voudrais aussi remercier les personnes qui m’ont fait l’honneur d’accepter de faire partie de mon jury de soutenance : Laurence Duchien et Antoine Beugnard qui ont accept´e d’ˆetre rapporteurs de ce travail de th`ese, Benoˆıt Combemale et Mark van den Brand d’en ˆetre examinateurs. Merci aux membres et ex-membres de l’´equipe Pareo, `a Lo¨ıc ainsi qu’au groupe du projet quarteFt, sans qui ce travail n’aurait pas ´et´e possible. Et bien sˆur, un merci `a toutes celles et ceux qui m’ont accompagn´es durant cette th`ese. En particulier Kar¨en qui a ´et´e pr´esente tout au long de ma th`ese malgr´e sa vie bien charg´ee, son mari, son fils et ses concours. Merci `a Pierre, Gilles, Martin et ses trolls (et pas forc´ement dans cet ordre) pour les discussions scientifiques, techniques et politiques, ainsi que les rafraˆıchissantes pauses de « bidouille & m´ediation scientifique ». Evidemment, je n’oublie pas mes impitoyables relectrices-correctrices — Chlo´e, Kar ´ ¨en et Marion — et leur rigueur qui m’ont aid´e `a am´eliorer la qualit´e grammaticale, orthographique et typographique de mon tapuscrit. Une mention sp´eciale `a mes soutiens distants : `a Cl´audia qui m’a soutenu par la mise en place d’une fili`ere br´esilienne d’importation de Tang et de caf´e ; `a Val´erie depuis Rennes qui r´edigeait en parall`ele. Et parce que dans la th`ese il n’y a pas que la th`ese, merci `a toutes les personnes avec qui j’ai discut´e et pass´e du temps : Cl´ement, Sergue¨ı et le triumvirat C´eline-Fabrice-Guillaume pour les discussions politico-syndicales ; Paul, Pini, Jonathan, Christophe et tous les connect´es du canal de discussion relay´ee par Internet #linux pour leurs trolls et d´ebats libro-informatiques ; Ju, S´eb, les membres de LDN et autres d´efenseurs du logiciel libre et d’un Internet neutre ; Nico lors de mes retours pour mise au vert `a Lille. Une pens´ee pour les adorables petits bouts — L´eonard, Margaux et Thomas — qui m’ont aid´e `a me changer les id´ees. Enfin, merci `a mes parents sans qui je n’aurais pu commencer ni finir cette ´epreuve.ivTable des mati`eres Table des figures ix Introduction 1 I Etat de l’art 5 ´ 1 Un langage bas´e sur la r´e´ecriture : Tom 7 1.1 R´e´ecriture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.1.1 Signature alg´ebrique et termes . . . . . . . . . . . . . . . . . . . . . 7 1.1.2 Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.1.3 R´e´ecriture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.1.4 Strat´egies de r´e´ecriture . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.2 Le langage Tom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2.1 Signature alg´ebrique . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.2.2 Construction backquote « ‘ » . . . . . . . . . . . . . . . . . . . . . . 14 1.2.3 Filtrage de motif . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.2.4 Notations implicite et explicite . . . . . . . . . . . . . . . . . . . . . 18 1.2.5 Strat´egies : maˆıtriser l’application des r`egles de r´e´ecriture . . . . . . 19 1.3 Ancrages formels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.4 Domaines d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.5 Apport de la th`ese au projet Tom . . . . . . . . . . . . . . . . . . . . . . . 24 2 Transformations de mod`eles 27 2.1 Mod´elisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2 Transformations de mod`eles . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.2.1 Taxonomie des transformations . . . . . . . . . . . . . . . . . . . . 32 2.2.2 Approches de d´eveloppement des transformations de mod`eles . . . 33 2.2.3 Outils existants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.3 Limitations actuelles et points d’am´elioration . . . . . . . . . . . . . . . . 37 3 V´erification du logiciel 39 3.1 Approches pour la v´erification du logiciel . . . . . . . . . . . . . . . . . . . 39 3.1.1 Relecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 vvi Table des mati`eres 3.1.2 Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.1.3 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.1.4 Preuve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.1.5 Model-checking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.2 Certification et qualification . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.3 Tra¸cabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 II Contributions 45 4 Transformations de mod`eles par r´e´ecriture 47 4.1 Choix et int´erˆet d’une approche hybride . . . . . . . . . . . . . . . . . . . 47 4.2 Repr´esentation de mod`eles par une signature alg´ebrique . . . . . . . . . . . 48 4.3 Transformation de mod`eles par r´e´ecriture . . . . . . . . . . . . . . . . . . . 49 4.3.1 Approche compositionnelle . . . . . . . . . . . . . . . . . . . . . . . 50 4.3.2 R´esolution - r´econciliation . . . . . . . . . . . . . . . . . . . . . . . 53 4.4 Validation par un cas d’´etude . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.5 Synth`ese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 5 Sp´ecification et tra¸cabilit´e des transformations 57 5.1 Sp´ecification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 5.2 Tra¸cabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.2.1 Tra¸cabilit´e interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5.2.2 Tra¸cabilit´e de sp´ecification . . . . . . . . . . . . . . . . . . . . . . . 59 5.3 Synth`ese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 6 Outils pour exprimer une transformation de mod`eles en Tom 63 6.1 Exemple d’utilisation des outils . . . . . . . . . . . . . . . . . . . . . . . . 63 6.1.1 Exemple support . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 6.1.2 Mode op´eratoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 6.2 Extension du langage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 6.2.1 Expression d’une transformation . . . . . . . . . . . . . . . . . . . . 70 6.2.2 R´esolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 6.2.3 Tra¸cabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 6.3 Travaux d’impl´ementation . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 6.3.1 Architecture du projet Tom et chaˆıne de compilation . . . . . . . . 72 6.3.2 G´en´erateur d’ancrages alg´ebriques . . . . . . . . . . . . . . . . . . . 75 6.3.3 Mise en œuvre de l’extension . . . . . . . . . . . . . . . . . . . . . . 78 6.4 Synth`ese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 7 Etudes de cas : illustration et utilisation du langage 83 ´ 7.1 Cas SimplePDLToPetriNet . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 7.1.1 M´etamod`eles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83vii 7.1.2 Exemple de processus et de r´eseau de Petri r´esultant . . . . . . . . 84 7.1.3 Impl´ementation en utilisant les outils d´evelopp´es . . . . . . . . . . 85 7.2 Aplatissement d’une hi´erarchie de classes . . . . . . . . . . . . . . . . . . . 93 7.2.1 Exemple de transformation . . . . . . . . . . . . . . . . . . . . . . . 93 7.2.2 M´etamod`ele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 7.2.3 Impl´ementation utilisant les outils d´evelopp´es . . . . . . . . . . . . 94 7.3 Synth`ese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 8 R´esultats exp´erimentaux 101 8.1 Utilisabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 8.2 Performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 8.2.1 Tom-EMF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 8.2.2 Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 8.3 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 Conclusion 111 A Etude de cas : Transformation SimplePDLToPetriNet 115 ´ A.1 Code de la transformation SimplePDLToPetriNet . . . . . . . . . . . . . . 115 A.2 Mod`ele source . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 A.3 Mod`ele r´esultant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 A.4 V´erification du r´esultat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 B Etude de cas : aplatissement d’une hi´erarchie de classes 123 ´ B.1 Code de la transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 B.1.1 Version 1 : transformation en Java+EMF . . . . . . . . . . . . . . . 123 B.1.2 Version 2 : transformation en Tom+Java simple (+EMF) . . . . . . 124 B.1.3 Version 3 : transformation en Tom+Java avec strat´egies (+EMF) . . 126 B.1.4 Version 4 : transformation en Tom+Java avec les nouvelles constructions (+EMF) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 C Impl´ementation ATL de SimplePDLToPetriNet 131 Glossaire 135 Bibliographie 137viii Table des mati`eresTable des figures 1.1 Exemple de repr´esentation arborescente d’un terme. . . . . . . . . . . . . . . . 8 1.2 Notation des positions dans un terme. . . . . . . . . . . . . . . . . . . . . . . . 8 1.3 Exemple de r`egle de r´e´ecriture : distributivit´e de la multiplication par rapport `a l’addition dans un anneau, `a savoir x × (y + z) → (x × y) + (x × z). . . . . . 10 1.4 Propri´et´es sur les relations binaires. . . . . . . . . . . . . . . . . . . . . . . . . 11 1.5 Fonctionnement global du projet Tom en d´ebut de th`ese. . . . . . . . . . . . . . 25 1.6 Fonctionnement global de Tom et contributions de ce travail de th`ese au projet. 26 2.1 Organisation du MDA en 4 niveaux d’abstraction (3+1). . . . . . . . . . . . . 29 2.2 Interpr´etation des niveaux d’abstraction du MDA. . . . . . . . . . . . . . . . . 30 2.3 Classification des cat´egories de transformations de mod`eles. . . . . . . . . . . . 33 2.4 Architecture du standard QVT [OMG08]. . . . . . . . . . . . . . . . . . . . . . 36 4.1 M´etamod`ele des graphes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.2 Transformation du mod`ele source A;B en un mod`ele cible graphique. . . . . . . 50 4.3 R`egles de transformation de A, ; et B. . . . . . . . . . . . . . . . . . . . . . . . . 50 4.4 Sch´ema d’extension du m´etamod`ele cible par l’ajout d’´el´ements interm´ediaires resolve. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.5 R`egles de transformation de A, ; et B effectives avec la construction d’´el´ements resolve (en pointill´es color´es). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.6 R´esultat interm´ediaire de la transformation, avant phase de r´esolution. . . . . . 53 4.7 Phase de r´esolution. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 4.8 R`egles de transformation de A, ; et B effectives, avec tra¸cage des ´el´ements correspondant `a un ´el´ement resolve d’une autre d´efinition (token color´e de la couleur du r´esultat d’une d´efinition). . . . . . . . . . . . . . . . . . . . . . . . . 54 4.9 Exemple de processus SimplePDL. . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.10 R´eseau de Petri correspondant au processus d´ecrit par la figure 4.9. . . . . . . . 55 4.11 Transformations ´el´ementaires composant SimplePDLToPetriNet. . . . . . . . . 55 5.1 M´etamod`ele SimplePDL possible. . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.2 M´etamod`ele des r´eseaux de Petri. . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.3 M´etamod`ele g´en´erique de trace. . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 6.1 Exemple de transformation de texte en formes g´eom´etriques color´ees. . . . . . . 63 6.2 Un m´etamod`ele pouvant d´ecrire le formalisme textuel (source) utilis´e dans l’exemple support. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 6.3 Un m´etamod`ele pouvant d´ecrire le formalisme graphique (cible) utilis´e dans l’exemple support. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 6.4 Diagramme d’activit´e d´ecrivant le processus de compilation d’un programme Tom. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 6.5 Phases du compilateur Tom. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 6.6 Processus de compilation d’une transformation de mod`eles Tom-EMF. . . . . . 76 ixx Table des figures 6.7 Bootstrap de Tom-EMF : remplacement des ancrages alg´ebriques Ecore.tom ´ecrits manuellement par les ancrages g´en´er´es. . . . . . . . . . . . . . . . . . . . 77 6.8 Processus de r´esolution de liens inverses. . . . . . . . . . . . . . . . . . . . . . . 81 7.1 M´etamod`ele SimplePDL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 7.2 M´etamod`ele des r´eseaux de Petri. . . . . . . . . . . . . . . . . . . . . . . . . . . 84 7.3 Exemple de processus d´ecrit dans le formalisme SimplePDL. . . . . . . . . . . . 85 7.4 R´eseau de Petri ´equivalent au processus d´ecrit par la figure 7.3. . . . . . . . . . 85 7.5 R´eseau de Petri r´esultant de la transformation d’un Process. . . . . . . . . . . . 86 7.6 R´eseau de Petri r´esultant de la transformation d’une WorkDefinition. . . . . . 88 7.7 R´eseau de Petri r´esultant de la transformation d’une WorkSequence. . . . . . . 90 7.8 Aplatissement d’une hi´erarchie de classes. . . . . . . . . . . . . . . . . . . . . . 93 7.9 M´etamod`ele d’UML simplifi´e. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 7.10 M´etamod`ele consid´er´e pour l’´etude de cas. . . . . . . . . . . . . . . . . . . . . . 94 7.11 Arbres repr´esentant les mod`eles source des exemples SimplePDLToPetriNet (a) et ClassFlattening (b). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 8.1 Forme g´en´erale des mod`eles d’entr´ee g´en´er´es. . . . . . . . . . . . . . . . . . . . 104 8.2 R´eseaux de Petri images d’un Process, d’une WorkDefinition et d’une WorkSequence. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 8.3 Temps moyen de transformation (en ms) en fonction du nombre d’´el´ements dans le mod`ele source (phase 1, phase 2, total). . . . . . . . . . . . . . . . . . . 106Introduction Le sujet de cette th`ese est l’´elaboration de m´ethodes et outils pour le d´eveloppement logiciel fiable s’appuyant sur des transformations de mod`eles. Plus pr´ecis´ement, la question est de savoir comment am´eliorer la confiance dans un logiciel et dans son processus de d´eveloppement alors que les chaˆınes de d´eveloppement se complexifient et que les outils se multiplient. L’industrie adopte progressivement les techniques de l’Ing´enierie Dirig´ee par les Mod`eles. L’un des int´erˆets de ce domaine est d’acc´el´erer le d´eveloppement logiciel `a moindre coˆut par l’usage de langages d´edi´es et d’outils de g´en´eration de code. Dans ce contexte, les logiciels sont donc en partie issus de chaˆınes de transformations op´er´ees sur des mod`eles jusqu’`a la g´en´eration du code et sa compilation. Dans le cadre du d´eveloppement de syst`emes critiques, les logiciels doivent ˆetre v´erifi´es afin d’ˆetre certifi´es. Se pose alors la question de la qualification des logiciels utilis´es dans les chaˆınes de d´eveloppement des syst`emes critiques. Il faut s’assurer que les outils n’introduisent pas de bogue `a chaque ´etape du processus de d´eveloppement et qu’une trace puisse ˆetre conserv´ee, de la sp´ecification au code. Le langage Tom repose sur le calcul de r´e´ecriture et fournit des fonctionnalit´es telles que le filtrage `a des langages g´en´eralistes comme Java ou Ada. Des constructions de haut niveau permettent de d´ecrire formellement des algorithmes. Il offre la possibilit´e d’´etablir des r`egles de transformation pour ´ecrire des outils de transformation sˆurs. La finalit´e de cette th`ese est donc de proposer des m´ethodes et outils pour exprimer des transformations de mod`eles qualifiables. On s’int´eresse `a fournir des constructions d´edi´ees pour d´ecrire une transformation de mod`eles et pour assurer la tra¸cabilit´e entre le mod`ele source et le mod`ele cible. Le but ´etant alors de donner des ´el´ements de confiance suppl´ementaires `a l’utilisateur responsable de la v´erification de la chaˆıne de d´eveloppement. 12 Introduction Contexte et motivations Les syst`emes se complexifiant, l’ing´enierie dirig´ee par les mod`eles (IDM) a apport´e des solutions pour faciliter et acc´el´erer le d´eveloppement logiciel. Ce domaine a v´eritablement pris son essor `a la fin du XX`eme si`ecle avec la publication de l’initiative MDA (Model Driven Architecture) par l’OMG (Object Management Group). L’industrie a adopt´e les m´ethodes et technologies issues du monde des mod`eles, y compris dans le cadre du d´eveloppement de syst`emes critiques. Cependant, si la mani`ere de d´evelopper un logiciel ainsi que les technologies utilis´ees ont chang´e depuis les d´ebuts de l’informatique, les contraintes li´ees `a la maintenance (´evolution du logiciel, d´eboguage) ainsi qu’`a la fiabilit´e (qualification, certification) persistent. Les technologies des domaines critiques tels que l’a´eronautique, l’automobile et la m´edecine reposant de plus en plus sur l’informatique, il est particuli`erement important de s’assurer du bon fonctionnement des logiciels avant leur mise en production. Pour cela, il est n´ecessaire de les v´erifier. Plusieurs approches compl´ementaires sont disponibles pour augmenter la confiance en un logiciel : le test, la preuve, la simulation et le model-checking. Chacune d’entre elles comporte ses sp´ecificit´es, ses avantages et ses inconv´enients. Dans le cadre de la qualifi- cation et de la certification, ces approches sont rarement suffisantes une `a une et sont donc g´en´eralement combin´ees ou pratiqu´ees en parall`ele. Lors de la certification, il est n´ecessaire d’avoir une confiance forte dans les outils utilis´es dans le processus de d´eveloppement. Cette confiance est accord´ee par leur qualification qui exige une tra¸cabilit´e entre la sp´ecification et l’impl´ementation d’un logiciel. L’int´egration de l’IDM dans les chaˆınes de d´eveloppement de syst`emes critiques tendant `a se g´en´eraliser, il est fondamental de d´evelopper des m´ethodes et des outils pour aider au processus de qualification des nouveaux outils. Dans ce contexte, nous nous proposons de travailler `a l’´elaboration de m´ethodes et d’outils permettant d’apporter des ´el´ements de confiance pour la qualification du logiciel. Nous nous pla¸cons `a la fronti`ere de deux domaines : celui de l’Ing´enierie Dirig´ee par les Mod`eles ainsi que celui de la r´e´ecriture de termes. L’industrie a vu l’int´erˆet pratique de l’IDM et a adopt´e les outils qui en sont issus. Les m´ethodes formelles, en particulier le domaine de la r´e´ecriture qui nous int´eresse, sont quant `a elles moins connues, mais indispensables pour un d´eveloppement logiciel de qualit´e. Se placer `a la fronti`ere des deux domaines permet de tirer le meilleur des deux mondes et de pousser l’utilisation des m´ethodes formelles dans l’ing´enierie du logiciel, que ce soit dans un cadre acad´emique ou industriel. L’un des piliers de l’IDM r´eside dans les transformations de mod`eles. Nous souhaitons leur apporter plus de fiabilit´e en fournissant des outils s’appuyant sur le langage Tom. Celui-ci repose sur la r´e´ecriture et le filtrage pour manipuler et transformer des structures complexes. Il s’int`egre au sein de langages g´en´eralistes tels que Java et offre des constructions d´edi´ees permettant `a l’utilisateur d’appr´ehender et d’exprimer plus ais´ement des algorithmes complexes `a mettre en œuvre dans un langage g´en´eraliste. Fournir des constructions de haut niveau est un moyen de donner plus de confiance `a l’utilisateur dans le code r´esultant : les algorithmes sont exprim´es plus formellement et il est donc plus facile de raisonner dessus `a des fins de v´erification du logiciel. Un autre avantage d’une approche reposant sur des constructions d´edi´ees r´eside dans la r´eduction des coˆuts de d´eveloppement : l’usage de g´en´erateurs de code permet de r´eduire la quantit´e de travail et le temps par rapport `a un d´eveloppement manuel. Contributions Dans ce contexte, la contribution de cette th`ese comprend trois volets principaux : Transformation de mod`eles par r´e´ecriture : Nous avons d´evelopp´e une m´ethode de transformation de mod`eles par r´e´ecriture de termes. Pour cela, nous op´erons une transformation permettant de manipuler un mod`ele sous la forme d’un terme alg´ebrique. Nous nous appuyons ensuite sur les strat´egies de r´e´ecriture du langage Tom pour mettre en œuvre la m´ethode de transformation. Cette m´ethode se d´eroule en deux temps : nous effectuons d’abord une transformation par parties qui fournit des r´esultats partiels, puis3 nous r´esolvons ces r´esultats interm´ediaires pour former le mod`ele cible r´esultant. Nous avons donc ´etendu le langage Tom en proposant un ˆılot formel d´edi´e pour transformer les mod`eles. Ce nouvel ˆılot impl´emente notre m´ethode de transformation par r´e´ecriture. Repr´esentation alg´ebrique de mod`eles : Pour transformer un mod`ele dans notre contexte de r´e´ecriture de termes, il est n´ecessaire d’op´erer au pr´ealable un changement d’espace technologique. Pour ce faire, nous proposons un outil permettant de donner une vue alg´ebrique d’un mod`ele. Il traduit un m´etamod`ele donn´e en une signature alg´ebrique int´egrable dans notre environnement Tom. Tra¸cabilit´e d’une transformation de mod`eles : Afin de r´epondre aux exigences du processus de qualification, nous avons travaill´e sur la tra¸cabilit´e des transformations et avons propos´e une tra¸cabilit´e de sp´ecification. Nous l’avons impl´ement´ee par un ˆılot formel d´edi´e permettant d’ajouter une forme de tra¸cabilit´e au sein d’un langage g´en´eraliste tel que Java. Durant ce travail de th`ese, nous nous sommes attel´es `a d´evelopper des outils op´erationnels impl´ementant notre travail. Nous avons toujours gard´e `a l’esprit qu’ils doivent pouvoir ˆetre aussi utilis´es par des utilisateurs ext´erieurs en vue d’un usage dans un cadre industriel. Nous avons donc exp´eriment´e et am´elior´e nos outils afin de leur permettre un passage `a l’´echelle. De plus, tout ce que nous avons d´evelopp´e est disponible librement et gratuitement sur le site du projet Tom. L’ensemble de nos exp´eriences reposant sur du code ouvert document´e ainsi que sur des mod`eles diffus´es librement, cela assure leur reproductibilit´e par un utilisateur averti. Cet aspect d’ouverture et de diffusion libre des r´esultats et des donn´ees s’inscrit dans le mouvement de l’open science, qui est indispensable `a une recherche v´erifiable et reproductible. Nous posons ainsi les conditions id´eales pour tout utilisateur souhaitant tester, v´erifier, utiliser, modifier et ´etendre nos travaux. Plan de la th`ese La suite de ce document se d´ecompose en huit chapitres r´epartis dans deux grandes parties. La premi`ere consiste en un ´etat de l’art de trois chapitres, traitant trois th´ematiques li´ees au contexte de cette th`ese. La seconde constitue les contributions de ce travail de th`ese. Nous r´esumons bri`evement chaque chapitre. Conseils et guide de lecture : Chaque chapitre de la premi`ere partie peut ˆetre lu ind´ependamment des autres. Les chapitres 4 et 5 expliquent le fond du travail de th`ese, tandis que les chapitres 6, 7 et 8 sont plus techniques. Le chapitre 6 d´ecrit les travaux d’impl´ementation des deux chapitres pr´ec´edents. Le chapitre 7 illustre l’utilisation des outils appliqu´es sur deux cas d’´etude. Le chapitre 8 comprend des r´esultats exp´erimentaux et donne des perspectives d’´evolution technique de nos outils. Partie I : Etat de l’art ´ Les trois chapitres composant l’´etat de l’art traitent de la r´e´ecriture et du langage Tom 1, des transformations de mod`eles 2 ainsi que de la v´erification du logiciel 3. Chapitre 1 – Un langage bas´e sur la r´e´ecriture : Tom Dans ce chapitre, nous donnons le cadre formel de la r´e´ecriture et d´efinissons toutes les notions importantes sous-jacentes au langage Tom. Nous le d´ecrivons ensuite et d´etaillons les diff´erentes constructions le composant. Nous nous appuyons sur des exemples simples pour les illustrer. Ce chapitre peut constituer un manuel court du langage Tom. Chapitre 2 – Transformations de mod`eles Ce chapitre donne le cadre de la mod´elisation et des transformations de mod`eles. Nous donnons une taxonomie des transformations qui se r´epartissent selon les crit`eres li´es aux4 Introduction m´etamod`eles et aux changements de niveau d’abstraction. Nous expliquons aussi quelles sont les approches principales pour transformer des mod`eles et quels sont les outils existants. Chapitre 3 – V´erification du logiciel Ce chapitre d´ecrit le contexte de la v´erification du logiciel et plus particuli`erement celui de la qualification et de la certification. C’est dans ce contexte que s’inscrit notre travail de th`ese. Partie II : Contributions La seconde partie regroupe les contributions de ce travail de th`ese, d´ecoup´ees en cinq chapitres r´esum´es ci-apr`es. Chapitre 4 – Transformations de mod`eles par r´e´ecriture Dans ce chapitre, nous exposons notre approche de transformation de mod`eles dans notre environnement utilisant la r´e´ecriture. Elle consiste `a repr´esenter des mod`eles sous la forme de termes en op´erant un changement d’espace technologique, puis `a effectuer une transformation par parties du mod`ele source. Chaque partie est transform´ee sans notion d’ordre grˆace `a une strat´egie de r´e´ecriture. L’ensemble des transformations partielles est suivi d’une phase de r´esolution du r´esultat partiel et produit le mod`ele cible. Chapitre 5 – Sp´ecification et tra¸cabilit´e des transformations Dans ce chapitre, nous exprimons la tra¸cabilit´e d’une transformation de mod`ele exig´ee par le processus de qualification. Elle consiste `a lier les sources aux cibles de la transformation en fonction de la sp´ecification. Chapitre 6 – Outils pour exprimer une transformation de mod`eles en Tom Dans ce chapitre, nous d´etaillons les outils d´evelopp´es durant cette th`ese pour la mise en œuvre des m´ecanismes expliqu´es dans les chapitres 4 et 5. Nous expliquons donc comment nous op´erons le changement d’espace technologique, en quoi consiste le nouvel ˆılot formel du langage Tom pour exprimer une transformation de mod`eles. Nous d´ecrivons l’impl´ementation au sein du projet Tom. Chapitre 7 – Etudes de cas : illustration et utilisation du langage ´ Dans ce chapitre, nous illustrons l’utilisation de nos outils sur deux ´etudes de cas : SimplePDLToPetriNet et l’aplatissement d’une hi´erarchie de classe. La premi`ere ´etude permet de d´etailler le processus complet d’´ecriture. L’´etude de la seconde transformation a pour but de montrer les points d’am´elioration de nos outils et d’ouvrir des perspectives de recherche et de d´eveloppement suite `a ce travail. Chapitre 8 – R´esultats exp´erimentaux Ce chapitre est compos´e de r´esultats exp´erimentaux pour donner une premi`ere ´evaluation de nos outils. Nous les avons test´es sur des mod`eles de tailles importantes afin de les pousser `a leurs limites en termes de performances et de valider leur potentiel usage dans un cadre industriel. Nous d´ecrivons aussi l’´evolution de nos outils suite aux premi`eres exp´eriences et nous tirons certaines conclusions.Premi`ere partie Etat de l’art ´ 5Chapitre 1 Un langage bas´e sur la r´e´ecriture : Tom Dans ce chapitre, nous abordons les notions ´el´ementaires utiles `a la lecture de ce document. Nous pr´esentons d’abord la r´e´ecriture de termes, puis nous d´ecrivons le langage Tom [MRV03, BBK+07] et nous terminons par les ancrages formels. 1.1 R´e´ecriture 1.1.1 Signature alg´ebrique et termes Cette section traite des notions de base concernant les alg`ebres de termes du premier ordre. D´efinition 1 (Signature). Une signature F est un ensemble fini d’op´erateurs (ou symboles de fonction), dont chacun est associ´e `a un entier naturel par la fonction d’arit´e, ar : F → N. Fn d´esigne le sous-ensemble de symboles d’arit´e n, c’est-`a-dire Fn = {f ∈ F | ar(f) = n}. L’ensemble des constantes est d´esign´e par F0. On classifie parfois les termes selon leur type dans des sortes. On parle alors de signature multi-sort´ee. D´efinition 2 (Signature alg´ebrique multi-sort´ee). Une signature multi-sort´ee est un couple (S, F) o`u S est un ensemble de sortes et F est un ensemble d’op´erateurs sort´es d´efini par F = S S1,...,Sn,S∈S FS1,...,Sn,S. Le rang d’un symbole de fonction f ∈ FS1,...,Sn,S not´e rank(f) est d´efini par le tuple (S1,. . . ,Sn,S) que l’on note souvent f : S1 × . . . × Sn → S D´efinition 3 (Terme). Etant donn´e un ensemble infini d´enombrable de variables ´ X et une signature F, on d´efinit l’ensemble des termes T (F, X ) comme le plus petit ensemble tel que : — X ⊆ T (F, X ) : toute variable de X est un terme de T (F, X ); — pour tous t1, . . . , tn ´el´ements de T (F, X ) et pour tout op´erateur f ∈ F d’arit´e n, le terme f(t1, . . . , tn) est un ´el´ement de T (F, X ). Pour tout terme t de la forme f(t1, . . . , tn), le symbole de tˆete de t, not´e symb(t) est, par d´efinition, l’op´erateur f. Un symbole de fonction dont l’arit´e est variable est appel´e op´erateur variadique, c’est-`a-dire qu’il prend un nombre arbitraire d’arguments. D´efinition 4 (Variables d’un terme). L’ensemble Var(t) des variables d’un terme t est d´efini inductivement comme suit : 78 Chapitre 1. Un langage bas´e sur la r´e´ecriture : Tom — Var(t) = ∅, pour t ∈ F0 ; — Var(t) = {t}, pour t ∈ X ; — Var(t) = Sn i=1 Var(ti), pour t = f(t1, . . . , tn). On note souvent a, b, c, . . . les constantes et x, y, z, . . . les variables. On repr´esente les termes sous forme arborescente. Par exemple, on peut repr´esenter le terme f(x, g(a)) comme dans la figure 1.1 : f x g a Figure 1.1 – Exemple de repr´esentation arborescente d’un terme. D´efinition 5 (Terme clos). Un terme t est dit clos s’il ne contient aucune variable, c’est-`adire si Var(t) = ∅. On note T (F) l’ensemble des termes clos. Chaque nœud d’un arbre peut ˆetre identifi´e de mani`ere unique par sa position. D´efinition 6 (Position). Une position dans un terme t est repr´esent´ee par une s´equence ω d’entiers naturels, d´ecrivant le chemin de la racine du terme jusqu’`a un nœud t|ω du terme. Un terme u a une occurrence dans t si u = t|ω pour une position ω dans t. On notera Pos(t) l’ensemble des positions d’un terme t et t[t 0 ]ω le remplacement du sousterme de t `a la position ω par t 0 . Par exemple, la figure 1.2 illustre la notation des positions pour le terme t = f(x, g(a)). On obtient l’ensemble des positions Pos(t) = {, 1, 2, 21} ce qui correspond respectivement aux sous-termes t| = f(x, g(a)), t|1 = x, t|2 = g(a) et t|21 = a. f x g a ω =  ω = 1 ω = 2 ω = 21 Figure 1.2 – Notation des positions dans un terme. 1.1.2 Filtrage Une substitution est une op´eration de remplacement, uniquement d´efinie par une fonction des variables vers les termes clos. D´efinition 7 (Substitution). Une substitution σ est une fonction de X vers T (F), not´ee lorsque son domaine Dom(σ) est fini, σ = {x1 7→ t1, . . . , xk 7→ tk}. Cette fonction s’´etend de mani`ere unique en un endomorphisme σ 0 : T (F, X ) → T (F, X ) sur l’alg`ebre des termes, qui est d´efini inductivement par : — σ 0 (x) =  σ(x) si x ∈ Dom(σ) x sinon — σ 0 (f(t1, . . . , tn)) = f(σ 0 (t1), . . . , σ0 (tn)) pour tout symbole de fonction f ∈ Fn.1.1. R´e´ecriture 9 D´efinition 8 (Filtrage). Etant donn´es un motif p ´ ∈ T (F, X ) et un terme clos t ∈ T (F), p filtre t, not´e p << t, si et seulement s’il existe une substitution σ telle que σ(p) = t : p << t ⇔ ∃σ, σ(p) = t On parle de filtrage unitaire lorsqu’il existe une unique solution `a l’´equation de filtrage. Si plusieurs solutions existent, le filtrage est non unitaire. Le filtrage peut aussi ˆetre modulo une th´eorie ´equationnelle. Cela signifie que l’on a associ´e une th´eorie ´equationnelle au probl`eme de filtrage. D´efinition 9 (Filtrage modulo une th´eorie ´equationnelle). Etant donn´es une th´eorie ´equa- ´ tionnelle E, un motif p ∈ T (F, X ) et un terme clos t ∈ T (F), p filtre t modulo E, not´e p << E t, si et seulement s’il existe une substitution σ telle que σ(p) =E t, avec =E l’´egalit´e modulo E : p << E t ⇔ ∃σ, σ(p) =E t Dans la suite de cette section, nous allons expliquer ce concept, donner des exemples de th´eories ´equationnelles et illustrer notre propos. Une paire de termes (l, r) est appel´ee ´egalit´e, axiome ´equationnel ou ´equation selon le contexte, et est not´ee (l = r). Une th´eorie ´equationnelle peut ˆetre d´efinie par un ensemble d’´egalit´es. Elle d´efinit une classe d’´equivalence entre les termes. Dans la pratique, les th´eories ´equationnelles les plus communes sont l’associativit´e, la commutativit´e et l’´el´ement neutre (ainsi que leurs combinaisons). D´efinition 10 (Op´erateur associatif). Un op´erateur binaire f est associatif si ∀x, y, z ∈ T (F, X ), f(f(x, y), z) = f(x, f(y, z)). Par exemple, l’addition et la multiplication sont associatives sur l’ensemble des r´eels R : ((x + y) + z) = (x + (y + z)) et ((x × y) × z)) = (x × (y × z)). En revanche, la soustraction sur R n’est pas associative : ((x − y) − z) 6= (x − (y − z)). D´efinition 11 (Op´erateur commutatif). Un op´erateur binaire f est commutatif si ∀x, y ∈ T (F, X )f(x, y) = f(y, x). Par exemple, l’addition et la multiplication sont commutatives sur R, ainsi x + y = y + x et x × y = y × x. Ce qui n’est pas le cas de la soustraction sur R, en effet x − y 6= y − x. D´efinition 12 (El´ement neutre) ´ . Soit un op´erateur binaire f et x ∈ T (F, X ), la constante e ∈ T (F) est : — neutre `a gauche pour f si f(e, x) = x ; — neutre `a droite pour f si f(x, e) = x ; — neutre si elle est neutre `a gauche et neutre `a droite pour f. Pour illustrer cette notion d’´el´ement neutre, examinons la constante 0 avec l’addition sur l’ensemble des r´eels R : — 0 + x = x, 0 est donc neutre `a gauche pour l’addition ; — x + 0 = x, 0 est donc neutre `a droite pour l’addition ; — on en d´eduit que 0 est neutre pour l’addition sur R. On note g´en´eralement A, U et C les th´eories ´equationnelles engendr´ees respectivement par l’´equation d’associativit´e, l’´equation de neutralit´e et celle de commutativit´e. On note AU la th´eorie engendr´ee par les ´equations d’associativit´e et de neutralit´e. La th´eorie associative est associ´ee aux op´erateurs binaires. Pour des raisons techniques, elle est souvent associ´ee `a une syntaxe variadiques dans les langages de programmation fond´es sur la r´e´ecriture. Par exemple, l’op´erateur variadique list est simul´e par l’op´erateur nil d’arit´e nulle, ainsi que par l’op´erateur binaire cons. Cela permet d’´ecrire que le terme10 Chapitre 1. Un langage bas´e sur la r´e´ecriture : Tom list(a, b, c) est ´equivalent au terme list(list(a, b), c), et qu’ils peuvent ˆetre repr´esent´es par cons(a, cons(b, cons(c, nil))). On peut alors d´efinir des op´erations modulo une th´eorie ´equationnelle : on parlera de filtrage ´equationnel lorsque le filtrage sera associ´e `a une telle th´eorie. Pour illustrer cette notion, prenons deux exemples simples de filtrage. Exemple 1 : Le filtrage associatif avec ´el´ement neutre (AU) — aussi appel´e filtrage de liste — est un probl`eme bien connu en r´e´ecriture. Il permet d’exprimer facilement des algorithmes manipulant des listes. En consid´erent X1∗ et X2∗ comme ides variables repr´esentant 0 ou plusieurs ´el´ements d’une liste, le probl`eme de filtrage list(X1∗, x, X2∗)  list(a, b, c) admet trois solutions : σ1 = {x → a}, σ2 = {x → b} et σ3 = {x → c}. Exemple 2 : Illustrons le filtrage associatif-commutatif (AC) et l’addition, dont les axiomes d’associativit´e et commutativit´e sont les suivants : — ∀x, y, plus(x, y) = plus(y, x) ; — ∀x, y, plus(x, plus(y, z)) = plus(plus(x, y), z). Le probl`eme de filtrage plus(x, y)  plus(a, b) pr´esente deux solutions distinctes modulo AC : σ1 = {x → a, y → b} et σ2 = {x → b, y → a}. 1.1.3 R´e´ecriture En r´e´ecriture, on oriente des ´egalit´es que l’on appelle des r`egles de r´e´ecriture et qui d´efi- nissent un calcul. D´efinition 13 (R`egle de r´e´ecriture). Une r`egle de r´e´ecriture est un couple (l,r) de termes dans T (F, X ), not´ee l → r. l est appel´e membre gauche de la r`egle, et r membre droit. Un exemple de r`egle de r´e´ecriture est l’addition de n’importe quel entier x avec 0 : x + 0 → x Un autre exemple un peu plus complexe de r`egle de r´e´ecriture est la distributivit´e de la multiplication par rapport `a l’addition dans un anneau, comme illustr´e par la figure 1.3. × x + y z −→ + × x y × x z Figure 1.3 – Exemple de r`egle de r´e´ecriture : distributivit´e de la multiplication par rapport `a l’addition dans un anneau, `a savoir x × (y + z) → (x × y) + (x × z). D´efinition 14 (Syst`eme de r´e´ecriture). Un syst`eme de r´e´ecriture sur les termes est un ensemble de r`egles de r´e´ecriture (l,r) tel que : — les variables du membre droit de la r`egle font partie des variables du membre gauche (Var(r) ⊆ Var(l)) ; — le membre gauche d’une r`egle n’est pas une variable (l /∈ X ). D´efinition 15 (R´e´ecriture). Un terme t ∈ T (F, X ) se r´e´ecrit en t 0 dans un syst`eme de r´e´ecriture R, ce que l’on note t →R t 0 , s’il existe : — une r`egle l → r ∈ R ;1.1. R´e´ecriture 11 — une position ω dans t; — une substitution σ telle que t|ω = σ(l) et t 0 = t[σ(r)]ω. On appelle radical le sous-terme t|ω. Pour une relation binaire →, on note →∗ sa fermeture transitive et r´eflexive. La fermeture transitive, r´eflexive et sym´etrique de → — qui est alors une relation d’´equivalence — est not´ee ↔∗ . D´efinition 16 (Forme normale). Soit → une relation binaire sur un ensemble T. Un ´el´ement t ∈ T est r´eductible par → s’il existe t 0 ∈ T tel que t → t 0 . Dans le cas contraire, on dit qu’il est irr´eductible. On appelle forme normale de t tout ´el´ement t 0 irr´eductible de T tel que t →∗ t 0 . Cette forme est unique. Deux propri´et´es importantes d’un syst`eme de r´e´ecriture sont la confluence et la terminaison. Lorsque l’on souhaite savoir si deux termes sont ´equivalents, on cherche `a calculer leurs formes normales et `a v´erifier si elles sont ´egales. Cela n’est possible que si la forme normale existe et qu’elle est unique. Une forme normale existe si → termine, et son unicit´e est alors assur´ee si → est confluente, ou si elle v´erifie la propri´et´e de Church-Rosser, qui est ´equivalente. D´efinition 17 (Terminaison). Une relation binaire → sur un ensemble T est dite terminante s’il n’existe pas de suite infinie (ti)i≥1 d’´el´ements de T telle que t1 → t2 → · · ·. D´efinition 18 (Confluence). Soit une relation binaire → sur un ensemble T. (a) → est confluente si et seulement si : ∀t, u, v (t →∗ u et t →∗ v) ⇒ ∃w,(u →∗ w et v →∗ w) (b) → v´erifie la propri´et´e de Church-Rosser si et seulement si : ∀u, v, u ↔∗ v ⇒ ∃w,(u →∗ w et v →∗ w) (c) → est localement confluente si et seulement si : ∀t, u, v (t → u et t → v) ⇒ ∃w,(u →∗ w et v →∗ w) La figure 1.4 illustre ces propri´et´es. t u v w (a) Confluence ∗ ∗ ∗ ∗ u v w (b) Church-Rosser ∗ ∗ ∗ t u v w (c) Confluence locale ∗ ∗ Figure 1.4 – Propri´et´es sur les relations binaires. 1.1.4 Strat´egies de r´e´ecriture En r´e´ecriture, on applique habituellement de mani`ere exhaustive toutes les r`egles sur le terme pour calculer sa forme normale, c’est-`a-dire que l’on applique toutes les r`egles jusqu’`a ce qu’aucune r`egle ne puisse plus ˆetre appliqu´ee. Il est cependant courant d’´ecrire des syst`emes de r´e´ecriture ne terminant pas ou n’´etant pas confluents. La m´ethode d’application des r`egles adopt´ee prend donc de l’importance, car elle a, dans ce cas, un effet sur le r´esultat. Il est par12 Chapitre 1. Un langage bas´e sur la r´e´ecriture : Tom cons´equent important d’avoir un contrˆole sur l’application des r`egles du syst`eme de r´e´ecriture. C’est l’objet du concept de strat´egie que nous allons d´ecrire dans cette section. Illustrons ce probl`eme par un exemple o`u l’on consid`ere le syst`eme de r´e´ecriture suivant avec la signature {a, f}, a ´etant d’arit´e 0 et f d’arit´e 1 :  f(x) → f(f(x)) (r1) f(a) → a (r2) Sans aucune pr´ecision sur la mani`ere d’appliquer les r`egles, nous remarquons qu’il existe une suite infinie de pas de r´e´ecriture partant de f(a) si l’on applique toujours la r`egle r1 : f(a) r1 −→ f(f(a)) r1 −→ f(f(f(a))) r1 −→ · · · Le calcul ne termine pas. Si l’on applique les r`egles de r´e´ecriture r1 et r2 diff´eremment, nous constatons que f(a) se r´eduit en a : f(a) r1 −→ f(f(a)) r2 −→ f(a) r2 −→ a ↓ r2 a Cet exemple illustre clairement le fait que les r´esultats du calcul ne sont pas les mˆemes selon la m´ethode d’application des r`egles. Pour avoir des calculs qui terminent, on pourrait alors adopter une strat´egie d’application des r`egles donnant la priorit´e `a la r`egle r2 : f(a) → a par rapport `a la r`egle r1 : f(x) → f(f(x)). Apr`es cette intuition de ce qu’est une strat´egie, nous pouvons donner des d´efinitions plus formelles des concepts li´es. La notion de syst`eme abstrait de r´eduction (Abstract Reduction System – ARS) [BKdV03] est une mani`ere abstraite de mod´eliser les calculs par transformations pas `a pas d’objets, ind´ependamment de la nature des objets qui sont r´e´ecrits. Un ARS peut se d´efinir comme un couple (T , →), o`u → est une relation binaire sur l’ensemble T . De l`a, [KKK+08] donne une repr´esentation des ARS sous forme de graphe et introduit le concept de strat´egie abstraite. D´efinition 19 (Syst`eme abstrait de r´eduction). Un syst`eme abstrait de r´eduction (ARS) est un graphe orient´e ´etiquet´e (O, S). Les nœuds O sont appel´es objets, les arˆetes orient´ees S sont appel´ees pas. Pour un ensemble de termes T (F, X ), le graphe (T (F, X ), S) est l’ARS correspondant `a un syst`eme de r´e´ecriture R. Les arˆetes correspondent `a des pas de r´e´ecriture de R et sont ´etiquet´ees par le nom des r`egles de R. D´efinition 20 (D´erivation). Soit un ARS A : 1. un pas de r´eduction est une arˆete ´etiquet´ee φ compl´et´ee de sa source a et de sa destination b. On note un pas de r´eduction a →φ A b, ou simplement a →φ b lorsqu’il n’y a pas d’ambigu¨ıt´e ; 2. une A-d´erivation (ou s´equence de T -r´eductions) est un chemin π dans le graphe A ; 3. lorsque cette d´erivation est finie, π peut s’´ecrire a0 →φ0 a1 →φ1 a2 · · · →φn−1 an et on dit que a0 se r´eduit en an par la d´erivation π = φ0φ1 . . . φn−1 ; not´ee aussi a0 →φ0φ1...φn−1 an ou simplement a0 →π an. n est la longueur de π ; (a) la source de π est le singleton {a0}, not´ee dom(π); (b) la destination de π est le singleton {an}, not´ee π[a0]. 4. une d´erivation est vide si elle n’est form´ee d’aucun pas de r´eduction. La d´erivation vide de source a est not´ee ida. D´efinition 21 (Strat´egie abstraite). Soit un ARS A : 1. une strat´egie abstraite est un sous-ensemble de toutes les d´erivations de A ; 2. appliquer la strat´egie ζ sur un objet a, not´e par ζ[a], est l’ensemble de tous les objets atteignables depuis a en utilisant une d´erivation dans ζ : ζ[a] = {π[a] | π ∈ ζ}. Lorsqu’aucune d´erivation dans ζ n’a pour source a, on dit que l’application sur a de la strat´egie a ´echou´e ;1.2. Le langage Tom 13 3. appliquer la strat´egie ζ sur un ensemble d’objets consiste `a appliquer ζ `a chaque ´el´ement a de l’ensemble. Le r´esultat est l’union de ζ[a] pour tous les a de l’ensemble d’objets ; 4. le domaine d’une strat´egie est l’ensemble des objets qui sont la source d’une d´erivation dans ζ : dom(ζ) = S δ∈ζ dom(δ); 5. la strat´egie qui contient toutes les d´erivations vides est Id = {ida | a ∈ O}. Concr`etement, on peut exprimer ces strat´egies de mani`ere d´eclarative grˆace aux langages de strat´egies que proposent la plupart des langages `a base de r`egles tels que Elan [Vit94, BKK+98, BKK+96], Stratego [VBT98, Vis01a], Maude [CELM96, CDE+02, CDE+11] et Tom, que nous allons pr´esenter dans la section suivante. Elan. Elan propose deux types de r`egles : les r`egles anonymes syst´ematiquement appliqu´ees (servant `a la normalisation de termes) et les r`egles ´etiquet´ees pouvant ˆetre d´eclench´ees `a la demande sous contrˆole d’une strat´egie. Le r´esultat de l’application d’une telle r`egle sur un terme est un multi-ensemble de termes, ce qui permet de g´erer le non-d´eterminisme. Elan a introduit la notion de strat´egie en proposant un langage de combinateurs permettant de composer les strat´egies et de contrˆoler leur application. Parmi ces combinateurs, on retiendra notamment l’op´erateur de s´equence, des op´erateurs de choix non-d´eterministes et des op´erateurs de r´ep´etition. Stratego. S’inspirant d’Elan, Stratego se concentre sur un nombre restreint de combinateurs ´el´ementaires, ainsi que sur leur combinaison. A ces combinateurs (s´equence, identit´e, ´echec, ` test, n´egation, choix d´eterministe et non-d´eterministe) sont ajout´es un op´erateur de r´ecursion (µ) et des op´erateurs permettant d’appliquer la strat´egie : sur le i `eme fils du sujet (i(s)), sur tous les sous-termes du sujet (All(s)), sur le premier fils du sujet sans ´echec (One(s)), sur tous les sous-termes du sujet sans ´echec (Some(s)). Grˆace `a ces op´erateurs, il est possible d’´elaborer des strat´egies de haut niveau telles que TopDown et BottomUp. Maude. L’approche de Maude est un peu diff´erente : le contrˆole sur l’application des r`egles s’op`ere grˆace `a la r´eflexivit´e du syst`eme [CM96, CM02]. Les objets du langage Maude ayant une repr´esentation meta, il est possible d’utiliser un op´erateur (meta-apply) pour appliquer les r`egles. Cet op´erateur ´evalue les ´equations, normalise le terme, et retourne la metarepr´esentation du terme r´esultant de l’´evaluation. On peut contrˆoler l’application des r`egles de r´e´ecriture par un autre programme d´efini par r´e´ecriture. Pour des raisons pratiques, des travaux ont ´et´e men´es plus r´ecemment [MOMV05, EMOMV07] pour offrir un langage de strat´egies plus proche de ce que Elan, Stratego et Tom proposent. Tom. A partir du concept de strat´egie et en s’inspirant de ces langages, ` Tom impl´emente lui aussi un langage de strat´egies [BMR08, BMR12]. Il est fond´e sur des strat´egies ´el´ementaires (Identity et Fail), sur des combinateurs de composition (Sequence, Recursion —µ—, Choice, Not, IfThenElse) et de travers´ee (All, One, Up et Omega). De ces combinateurs, `a l’image de Stratego, des strat´egies compos´ees peuvent ˆetre ´elabor´ees (Try, Repeat, Innermost, etc.). Nous reviendrons sur les strat´egies de Tom dans la section suivante, en particulier sur leur utilisation concr`ete au sein du langage. 1.2 Le langage Tom Tom [MRV03, BBK+07] est un langage con¸cu pour enrichir des langages g´en´eralistes de fonctionnalit´es issues de la r´e´ecriture et de la programmation fonctionnelle. Il ne s’agit pas d’un langage stand-alone : il est l’impl´ementation du concept des « ˆılots formels » (formal islands) [BKM06] qui sont ajout´es au sein de programmes ´ecrits dans un langage hˆote. Les14 Chapitre 1. Un langage bas´e sur la r´e´ecriture : Tom constructions Tom sont transform´ees et compil´ees vers le langage hˆote. Parmi les fonctionnalit´es apport´ees par Tom, on compte le filtrage de motif (pattern-matching), les r`egles de r´e´ecriture, les strat´egies, ainsi que les ancrages alg´ebriques (mappings). Dans la suite de cette section, nous d´ecrirons le langage Tom en illustrant ses fonctionnalit´es et constructions par des exemples simples. Sauf indication contraire, les extraits de code hˆote seront en Java. Pour une documentation compl`ete et d´etaill´ee, le lecteur int´eress´e pourra se r´ef´erer au manuel disponible en t´el´echargement [BBB+09] ou directement en ligne [BB+13]. Les outils sont tous accessibles via le site officiel du projet Tom 1 . 1.2.1 Signature alg´ebrique Tom permet `a l’utilisateur de sp´ecifier des signatures alg´ebriques multi-sort´ees via l’outil Gom [Rei07]. Le langage Gom permet de d´ecrire une structure de donn´ees et d’en g´en´erer l’impl´ementation typ´ee en Java. Le listing 1.1 illustre une d´efinition de signature Gom : 1 module Peano 2 abstract syntax 4 Nat = zero() 5 | suc(n:Nat) Listing 1.1 – Signature alg´ebrique Gom pour les entiers de Peano. Un module Gom est compos´e d’un pr´eambule comportant un nom — Peano dans cet exemple — pr´ec´ed´e du mot-clef module (ligne 1). Le d´ebut de la signature est annonc´e par le mot-clef abstract syntax (ligne 2). Cet exemple ´etant extrˆemement simple, le pr´eambule est compos´e uniquement de ces deux lignes. Pour un module plus complexe qui utiliserait des types d´efinis dans une autre signature, la clause imports suivie des signatures `a importer peut ˆetre intercal´ee entre les deux clauses pr´ec´edentes. Le projet Tom fournit notamment une biblioth`eque de signatures pour les types primitifs (types builtin) tels que les entiers (int), les caract`eres (char), les flottants (float) et les chaˆınes de caract`eres (String). La signature en elle-mˆeme est compos´ee d’un ensemble de sortes — Nat dans notre exemple — ayant des constructeurs — zero et suc ici. Ce g´en´erateur propose un typage fort au niveau de la structure de donn´ees Java g´en´er´ee, ce qui garantit que les objets cr´e´es sont conformes `a la signature multi-sort´ee. Un second aspect int´eressant de cet outil est le fait qu’il offre le partage maximal [AC93], rendant les structures g´en´er´ees tr`es efficaces en temps (tests d’´egalit´e en temps constant) et en espace. Les classes g´en´er´ees peuvent ˆetre modifi´ees par l’interm´ediaire de la fonctionnalit´e de hooks. Ce m´ecanisme permet d’ajouter des blocs de code Java aux classes g´en´er´ees (par exemple, int´egration d’attributs invisibles au niveau alg´ebrique, mais manipulables par la partie Java de l’application) ou d’associer une th´eorie ´equationnelle telle que A, AC, ACU `a certains op´erateurs. Il est mˆeme possible de sp´ecifier cette th´eorie ´equationnelle par des r`egles de normalisation. Les termes construits sont ainsi toujours en forme normale. La signature est compil´ee en une impl´ementation Java ainsi qu’un ancrage permettant l’utilisation de cette structure dans les programmes Tom. Dans un premier temps, pour pr´esenter les constructions du langage Tom, nous ne nous pr´eoccuperons pas de ces ancrages ni de l’impl´ementation concr`ete Java. 1.2.2 Construction backquote « ‘ » La construction ‘ (backquote) permet de cr´eer la structure de donn´ees repr´esentant un terme alg´ebrique en allouant et initialisant les objets en m´emoire. Elle permet `a la fois de construire un terme et de r´ecup´erer la valeur d’une variable instanci´ee par le filtrage de motif. Ainsi, on peut construire des termes de type Nat de l’exemple pr´ec´edent avec des instructions 1. Voir http://tom.loria.fr/.1.2. Le langage Tom 15 backquote. L’instruction Tom+Java « Nat un = ‘suc(zero()); » d´eclare une variable un dont le type est Nat, ayant pour valeur le repr´esentant alg´ebrique suc(zero()). Un terme backquote peut aussi contenir des variables du langage hˆote, ainsi que des appels de fonctions. Ainsi, l’instruction Nat deux = ‘suc(un); permet de cr´eer le terme deux `a partir de un cr´e´e pr´ec´edemment. Le compilateur Tom n’analysant pas du tout le code hˆote, notons que nous supposons que la partie hˆote — un dans l’exemple — est conforme `a la signature alg´ebrique et que le terme est donc bien form´e. L’utilisation du backquote permet `a l’utilisateur de cr´eer un terme et de manipuler sa vue alg´ebrique sans se soucier de son impl´ementation concr`ete dans le langage hˆote. 1.2.3 Filtrage de motif Dans la plupart des langages g´en´eralistes tels que C ou Java, on ne trouve pas les notions de type alg´ebrique et de terme, mais uniquement celle de types de donn´ees compos´ees (structures C et objets Java). De mˆeme, la notion de filtrage de motif (pattern-matching) que l’on retrouve dans les langages fonctionnels tels que Caml ou Haskell n’existe g´en´eralement pas dans la plupart des langages imp´eratifs classiques. Le filtrage permet de tester la pr´esence de motifs (pattern) dans une structure de donn´ees et d’instancier des variables en fonction du r´esultat de l’op´eration de filtrage. Ces constructions sont apport´ees par Tom dans des langages g´en´eralistes. Il devient donc possible de filtrer des motifs dans Java. En outre, les constructions de filtrage de Tom ´etant plus expressives que dans Caml (notamment le filtrage ´equationnel et le filtrage non lin´eaire), il est possible de les employer aussi en son sein pour utiliser le filtrage ´equationnel. Le lex`eme %match introduit la construction de filtrage de Tom. Celle-ci peut ˆetre vue comme une g´en´eralisation de la construction habituelle switch-case que l’on retrouve dans beaucoup de langages g´en´eralistes. Cependant, plutˆot que de filtrer uniquement sur des entiers, des caract`eres, voire des chaˆınes de caract`eres, Tom filtre sur des termes. Les motifs permettent de discriminer et de r´ecup´erer l’information contenue dans la structure de donn´ees alg´ebrique sur laquelle on filtre. Dans le listing 1.2 suivant, nous reprenons l’exemple des entiers de Peano pour lesquels nous encodons l’addition avec Tom et Java. Pour ce premier exemple o`u les deux langages apparaissent en mˆeme temps, nous adoptons un marquage visuel pour d´esigner Java (noir) et Tom (gris). Cela permet de visualiser le tissage ´etroit entre le langage Tom et le langage hˆote dans lequel il est int´egr´e. Par la suite, le principe ´etant compris, nous n’adopterons plus ce code visuel. 1 Nat peanoPlus(Nat t1, Nat t2) { 2 %match(t1, t2) { 3 x, zero() -> { return ‘x; } 4 x, suc(y) -> { return ‘suc(peanoPlus(x,y)); } 5 } 6 } Listing 1.2 – Exemple d’utilisation du filtrage avec l’addition des entiers de Peano. Dans cet exemple, la fonction peanoPlus prend en arguments deux termes t1 et t2 de type Nat repr´esentant deux entiers de Peano, et retourne la somme des deux. Le calcul est op´er´e par filtrage en utilisant la construction %match : — elle prend un ou plusieurs arguments — deux dans notre exemple — entre parenth`eses ; — elle est compos´ee d’un ensemble de r`egles de la forme membre gauche -> {membre droit} ; — le membre gauche est compos´e du ou des motifs s´epar´es les uns des autres par une virgule ; — le membre droit est un bloc de code mixte (hˆote + Tom).16 Chapitre 1. Un langage bas´e sur la r´e´ecriture : Tom Dans notre exemple, le calcul de filtrage est le suivant : — si zero() filtre t2, alors le r´esultat de l’´evaluation de la fonction peanoPlus est x, instanci´e par t1 par filtrage ; — si suc(y) filtre t2, alors le symbole de tˆete du terme t2 est suc. Le sous-terme y est ajout´e `a x et le r´esultat de l’´evaluation de peanoPlus est donc suc(peanoPlus(x,y)). L’expression de la fonction peanoPlus est donn´ee par filtrage et d´efinit une fonction Java qui peut ˆetre utilis´ee comme toute autre fonction Java dans le programme. Notons cette particularit´e qu’a le langage Tom de compl`etement s’int´egrer au langage hˆote sans pour autant ˆetre intrusif. Ainsi, le compilateur Tom n’analyse que le code Tom (parties gris´ees dans le listing 1.2), les instructions hˆotes n’´etant pas examin´ees et ne fournissant aucune information au compilateur. Les instructions Tom sont traduites vers le langage hˆote et remplac´ees en lieu et place, sans modification du code hˆote existant. Une deuxi`eme particularit´e des constructions de filtrage du langage Tom est li´ee `a la composition des membres droits des r`egles : plutˆot qu’ˆetre de simples termes, il s’agit en fait d’instructions du langage hˆote qui sont ex´ecut´ees lorsqu’un filtre est trouv´e. Si aucune instruction du langage hˆote ne rompt le flot de contrˆole, toutes les r`egles peuvent potentiellement ˆetre ex´ecut´ees. Pour interrompre ce flot lorsqu’un filtre est trouv´e, il faut utiliser les instructions ad-hoc du langage hˆote, telles que break ou return, comme dans le listing 1.2. Filtrage associatif. Dans le cas d’un filtrage non unitaire (filtrage pour lequel il existe plusieurs solutions, voir 1.1.2), l’action est ex´ecut´ee pour chaque filtre solution. Le filtrage syntaxique ´etant unitaire, il n’est pas possible d’exprimer ce comportement. Le langage Tom dispose de la possibilit´e d’op´erer du filtrage associatif avec ´el´ement neutre (ou filtrage de liste, not´e AU dans la section 1.1.2) qui n’est pas unitaire et qui permet d’exprimer ais´ement des algorithmes op´erant du filtrage sur des listes. Il est ainsi possible de d´efinir des op´erateurs variadiques (op´erateurs d’arit´e variable, par exemple les op´erateurs de listes), comme nous l’avons vu dans la section pr´ec´edente (1.1.2). Dans le listing 1.3 suivant, nous reprenons notre exemple des entiers de Peano que nous augmentons d’un nouveau constructeur, concNat de sorte NatList et dont les sous-termes sont de type Nat. 1 module Peano 2 abstract syntax 4 Nat = zero() 5 | suc(n:Nat) 7 NatList = concNat(Nat*) Listing 1.3 – Signature alg´ebrique Gom avec op´erateur variadique pour les entiers de Peano. L’op´erateur concNat peut ˆetre vu comme un op´erateur de concat´enation de listes de Nat : concNat() repr´esente la liste vide d’entiers naturels, concNat(zero()) la liste ne contenant que zero() et concNat(zero(),suc(zero()),suc(suc(zero()))) la liste contenant trois entiers naturels : 0, 1 et 2. La liste vide est l’´el´ement neutre. Tom distingue syntaxiquement les variables de filtrage repr´esentant un ´el´ement — par exemple x dans le listing 1.2 — et les variables repr´esentant une sous-liste d’une liste existante en ajoutant le caract`ere *. Le filtrage associatif permet d’op´erer une it´eration sur les ´el´ements d’une liste comme l’illustre l’exemple du listing 1.4 : 1 public void afficher(NatList liste) { 2 int i = 0; 3 %match(liste) { 4 concNat(X1*,x,X2*) -> { 5 i = ‘X1.length();1.2. Le langage Tom 17 6 System.out.println("liste("+i+") = " + ‘x); 7 } 8 } 9 } Listing 1.4 – Filtrage associatif. Dans cet exemple, liste est une liste d’entiers naturels, de type NatList impl´ement´e par le type Java NatList. Nous souhaitons afficher ces entiers avec leur position dans la liste. L’action est ex´ecut´ee pour chaque filtre trouv´e, et les variables de listes X1* et X2* sont instanci´ees pour chaque sous-liste pr´efixe et suffixe de la liste liste. X1 correspond `a un objet Java de type NatList, la m´ethode length() retournant la longueur de la liste peut donc ˆetre utilis´ee pour obtenir l’indice de l’´el´ement x. L’´enum´eration s’op`ere tant que le flot d’ex´ecution n’est pas interrompu. Dans notre exemple, nous nous contentons d’afficher l’´el´ement et sa position. L’ex´ecution de la proc´edure afficher sur l’entr´ee liste = ‘conc(zero(), zero(), suc(suc(zero())), zero()) donne : liste(0) = zero() liste(1) = zero() liste(2) = suc(suc(zero())) liste(3) = zero() Le langage Tom offre aussi la possibilit´e de proc´eder `a du filtrage non-lin´eaire (motifs pour lesquels une mˆeme variable apparaˆıt plusieurs fois). Le listing 1.5 ci-apr`es illustre ce m´ecanisme : dans la fonction supprimerDoublon, la variable x apparaˆıt `a plusieurs reprises dans le motif. 1 public NatList supprimerDoublon(NatList liste) { 2 %match(liste) { 3 concNat(X1*,x,X2*,x,X3*) -> { 4 return ‘supprimerDoublon(concNat(X1*,x,X2*,X3*)); 5 } 6 } 7 return liste; 8 } Listing 1.5 – Filtrage associatif non lin´eaire. Parmi les notations disponibles dans le langage, certaines sont tr`es couramment utilis´ees et apparaˆıtront dans les extraits de code de ce document. Nous les illustrons dans le listing 1.6 dont le but est d’afficher un sous-terme de la liste liste ayant la forme suc(suc(y)), ainsi que sa position dans la liste, s’il existe : 1 public void chercher(NatList liste) { 2 %match(liste) { 3 concNat(X1*,x@suc(suc(_)),_*) -> { 4 System.out.println(‘x + " trouv´e, en position " + ‘X1.length()); 5 } 6 } 7 } Listing 1.6 – Notations : alias et variable anonyme. Les notations _ et _* pour les sous-listes d´esignent des variables dites anonymes : c’est-`adire que leur valeur ne peut ˆetre utilis´ee dans le bloc action de la r`egle. La notation @ permet de cr´eer des alias : ainsi, on peut nommer des sous-termes obtenus par filtrage. L’alias permet de v´erifier qu’un motif filtre — suc(suc(_)) dans notre exemple — tout en instanciant une variable — x — avec la valeur de ce sous-terme. Si on applique la proc´edure chercher18 Chapitre 1. Un langage bas´e sur la r´e´ecriture : Tom `a l’entr´ee pr´ec´edente d´efinie comme liste = ‘conc(zero(), zero(), suc(suc(zero())), zero()), on obtient le r´esultat suivant : suc(suc(zero())) trouv´e, en position 2 1.2.4 Notations implicite et explicite Lorsque l’on ´ecrit un pattern dans le membre gauche d’une r`egle, il est possible d’´ecrire l’op´erateur et ses champs de deux mani`eres. Ces derniers ´etant nomm´es, plutˆot qu’´ecrire l’op´erateur avec tous ses arguments (notation explicite), on peut utiliser leurs noms dans le motif pour expliciter des sous-termes particuliers et en omettre d’autres. Ces derniers sont alors ignor´es lors du filtrage. Cette notation est dite implicite et s’utilise via les lex`emes [ et ]. Il existe ´egalement une notation `a base de contraintes qui peut rendre l’´ecriture implicite plus naturelle dans certains cas. Consid´erons un exemple simple pour illustrer ces deux notations : si on d´efinit les personnes comme des termes construits en utilisant l’op´erateur Personne, d’arit´e 3 et de type Personne, ayant les arguments nomm´es nom et prenom de type « chaˆıne de caract`eres », et age de type entier, les trois fonctions suivantes du listing 1.7 sont ´equivalentes : 1 %gom() { 2 module Contacts 3 abstract syntax 4 Personne = Personne(nom:String, prenom:String, age:int) 5 } 6 7 public boolean peutConduireExplicite(Personne p) { 8 %match(p) { 9 Personne(_,_,a) -> { return (‘a>18); } 10 } 11 } 12 13 public boolean peutConduireImplicite(Personne p) { 14 %match(p) { 15 Personne[age=a] -> { return (‘a>18); } 16 } 17 } 18 19 public boolean peutConduireImplicite2(Personne p) { 20 %match(p) { 21 Personne[age=a] && a>18 -> { return true; } 22 } 23 return false; 24 } Listing 1.7 – Illustration des notations explicite et implicite. Outre l’ind´eniable gain en lisibilit´e du code qu’elle apporte de par l’utilisation des noms, la notation implicite am´eliore la maintenabilit´e du logiciel d´evelopp´e. En effet, dans le cas d’une extension de la signature (ajout d’un champ numTelephone, par exemple), l’usage de la notation explicite impose d’ajouter un _ dans toutes les r`egles o`u l’op´erateur Personne est utilis´e. Dans notre exemple, la premi`ere fonction — peutConduireExplicite() — devrait donc ˆetre modifi´ee, contrairement aux deux autres — peutConduireImplicite() et peutConduireImplicite2(). Avec cette notation, seuls les motifs manipulant explicitement les champs ayant ´et´e chang´es doivent ˆetre modifi´es, d’o`u une plus grande robustesse au changement.1.2. Le langage Tom 19 Dans la suite de ce manuscrit, nous utiliserons indiff´eremment l’une ou l’autre des notations dans les extraits de code propos´es. 1.2.5 Strat´egies : maˆıtriser l’application des r`egles de r´e´ecriture On peut analyser la structure de termes et encoder des r`egles de transformation grˆace `a la construction %match. Le contrˆole de l’application de ces r`egles peut alors se faire en Java en utilisant par exemple la r´ecursivit´e. Cependant, traitement et parcours ´etant entrelac´es, cette solution n’est pas robuste au changement et le code peu r´eutilisable. En outre, il est difficile de raisonner sur une telle transformation. Une autre solution est d’utiliser des strat´egies [BMR08, BMR12], qui sont un moyen d’am´eliorer le contrˆole qu’a l’utilisateur sur l’application des r`egles de r´e´ecriture. Le principe de programmation par strat´egies permet de s´eparer le traitement (r`egles de r´e´ecriture, partie m´etier de l’application) du parcours (travers´ee de la structure de donn´ees arborescente), et de sp´ecifier la mani`ere d’appliquer les r`egles m´etier. Tom fournit un puissant langage de strat´egies, inspir´e de Elan [BKK+98], Stratego [VBT98], et JJTraveler [Vis01b]. Ce langage permet d’´elaborer des strat´egies complexes en composant des combinateurs ´el´ementaires tels que Sequence, Repeat, TopDown et la r´ecursion. Il sera donc en mesure de contrˆoler finement l’application des r`egles de r´e´ecriture en fonction du parcours d´efini. Le listing 1.8 illustre la construction %strategy, ainsi que son utilisation : 1 %strategy transformationPeano() extends Identity() { 2 visit Nat { 3 plus(x, zero()) -> { return ‘x; } 4 plus(zero(), x) -> { return ‘x; } 5 one() -> { return ‘suc(zero()); } 6 } 7 } 8 ... 9 public static void main(String[] args) { 10 ... 11 Nat number = ‘plus(plus(suc(suc(one())), one()), 12 plus(suc(one()), zero()) ); 13 Strategy transformStrat = ‘BottomUp(transformationPeano()); 14 Nat transformedNumber = transformStrat.visit(number); 15 System.out.println(number + " a ´et´e transform´e en " + transformedNumber); 16 ... 17 } Listing 1.8 – Exemple d’utilisation de strat´egie. Dans cet exemple, nous supposons que notre signature contient d’autres op´erateurs : plus et one de type Nat. La strat´egie transformationPeano r´e´ecrit les constructeurs one en suc(zero()) et les constructeurs plus(zero(),x) en x. Ligne 1, additionPeano ´etend Identity, ce qui donne le comportement par d´efaut de la strat´egie : si aucune r`egle ne s’applique, aucune transformation n’a lieu, par opposition `a Fail qui sp´ecifie que la transformation ´echoue si la r`egle ne peut ˆetre appliqu´ee. La construction visit (ligne 2) op`ere un premier filtre sur les sortes de type Nat sur lesquelles les r`egles doivent s’appliquer. Les r`egles sont quant `a elles construites sur le mˆeme mod`ele que les r`egles de la construction %match, d´ecrite dans la section 1.2.3. Le membre gauche est un pattern, tandis que le membre droit est un bloc action compos´e de code Tom+Java. Ensuite, la strat´egie est compos´ee avec une strat´egie de parcours fournie par une biblioth`eque appel´ee sl. Le terme la repr´esentant est cr´e´e, et sa m´ethode visit est appliqu´ee sur le nombre que nous souhaitons transformer. Pour l’entr´ee donn´ee, le r´esultat affich´e est le suivant (les couleurs ont ´et´e ajout´ees pour faire apparaˆıtre clairement les sous-termes transform´es) :20 Chapitre 1. Un langage bas´e sur la r´e´ecriture : Tom plus(plus(suc(suc(one())), one()), plus(suc(one()),zero())) a ´et´e transform´e en plus(plus(suc(suc(suc(zero()))), suc(zero())), suc(suc(zero()))) Pour des informations plus d´etaill´ees sur les strat´egies Tom ainsi que sur leur impl´ementation dans le langage, nous conseillons la lecture de [Bal09, BMR08, BMR12] ainsi que la page d´edi´ee du site officiel du projet Tom 2 . 1.3 Ancrages formels Pr´ec´edemment, nous avons vu que nous pouvons ajouter des constructions de filtrage au sein de langages hˆotes et que nous sommes en mesure de filtrer des termes. Les constructions de filtrage sont compil´ees ind´ependamment des impl´ementations concr`etes des termes. Ainsi, dans les exemples, nous filtrons sur des termes de type Nat et NatList, d´efinis dans la signature Gom. Cependant, les fonctions Java prennent des param`etres d’un type donn´e que le compilateur Java est cens´e comprendre, et nous n’avons pas d´etaill´e la mani`ere dont le lien entre les types Tom et les types Java est assur´e. A la compilation, les ` instructions sur les termes alg´ebriques sont traduites en instructions sur le type de donn´ees concret repr´esentant ces termes alg´ebriques. Le m´ecanisme permettant d’´etablir cette relation entre les structures de donn´ees alg´ebriques et concr`etes s’appelle le m´ecanisme d’ancrage, ou mapping. Il permet de donner une vue alg´ebrique d’une structure de donn´ees quelconque afin de pouvoir la manipuler `a l’aide des constructions Tom, sans modifier l’impl´ementation concr`ete. On sp´ecifie les mappings `a l’aide des constructions Tom %typeterm, %op et %oplist pour d´ecrire respectivement les sortes, les op´erateurs alg´ebriques et les op´erateurs variadiques. Dans la section 1.2.1, nous avons d´efini une signature alg´ebrique, et l’outil Gom g´en`ere une impl´ementation concr`ete ainsi que les ancrages. Cela nous permet de rendre ce m´ecanisme compl`etement transparent pour l’utilisateur. Pour expliquer les constructions constituant les mappings, nous allons les expliciter sans passer par la g´en´eration de Gom. Pour la suite de cette section, nous prenons l’exemple du type Individu et de l’op´erateur personne, qui prend trois arguments : un nom et un pr´enom, de type String, et un ˆage de type int. Nous adoptons aussi une notation pour lever toute ambigu¨ıt´e sur les types : nous pr´efixons les types Java de la lettre J, et nous utiliserons l’impl´ementation qui suit. Nous consid´erons les classes Java JIndividu et JIndividuList suivantes qui impl´ementent respectivement les types alg´ebriques Individu et IndividuList. 1 static class JIndividu { } 2 static class JIndividuList { } Nous consid´erons ensuite les classes Java Jpersonne et JconcJIndividu suivantes qui impl´ementent les op´erateurs alg´ebriques : 1 static class Jpersonne extends JIndividu { 2 public String nom; 3 public String prenom; 4 public int age; 5 public Jpersonne(String n, String p, int a) { 6 this.nom = n; 7 this.prenom = p; 8 this.age = a; 9 } 10 static class JconcJIndividu extends JIndividuList { 2. Voir http://tom.loria.fr/wiki/index.php5/Documentation:Strategies/.1.3. Ancrages formels 21 11 private LinkedList list; 12 public JconcJIndividu() { list = new LinkedList(); } 13 public JconcJIndividu(JIndividu i, LinkedList l) { 14 if (l!=null) { 15 this.list = l; 16 } else { 17 JconcJIndividu(); 18 } 19 list.addFirst(i); 20 } 21 public boolean isEmpty() { 22 return list.isEmpty(); 23 } 24 public List getTail() { 25 LinkedList tail = null; 26 if (list.size()>1) { 27 tail = list.subList(1,list.size()-1); 28 } 29 return tail; 30 } 31 } Les sortes Individu et IndividuList sont exprim´ees via le lex`eme %typeterm comme le montre le listing 1.9 suivant : 1 %typeterm Individu { 2 implement { JIndividu } 3 is_sort(s) { (s instanceof JIndividu) } 4 } Listing 1.9 – Ancrage du type Individu avec l’impl´ementation Java JIndividu. La construction %typeterm permet d’´etablir la relation entre le type alg´ebrique Individu et le type concret Java JIndividu. Deux sous-constructions la composent : — implement donne l’impl´ementation effective du langage hˆote `a lier au type alg´ebrique ; — is sort est utilis´ee en interne par le compilateur pour tester le type d’un ´el´ement (optionnel) ; La sorte Individu ´etant d´efinie, il est n´ecessaire de sp´ecifier `a Tom comment construire et comment d´etruire (d´ecomposer) les termes de ce type. Pour cela, nous utilisons la construction %op, comme illustr´e par le listing 1.10 o`u l’op´erateur personne est d´efini : 1 %op Individu personne(nom:String, prenom:String, age:int) { 2 is_fsym(s) { (s instanceof Jpersonne) } 3 get_slot(nom,s) { ((Jpersonne)s).nom } 4 get_slot(prenom,s) { ((Jpersonne)s).prenom } 5 get_slot(age,s) { ((Jpersonne)s).age } 6 get_default(nom) { ’’Simpson’’ } 7 get_default(prenom) { ’’Pierre-Gilles’’ } 8 get_default(age) { 42 } 9 make(t0,t1,t2) { new Jpersonne(t0,t1,t2) } 10 } Listing 1.10 – Constructeur personne. La d´efinition d’op´erateurs passe par une construction compos´ee de quatre sous-constructions :22 Chapitre 1. Un langage bas´e sur la r´e´ecriture : Tom — is fsym sp´ecifie la mani`ere de tester si un objet donn´e repr´esente bien un terme dont le symbole de tˆete est l’op´erateur ; — make sp´ecifie la mani`ere de cr´eer un terme ; — get slot (optionnel) sp´ecifie la mani`ere de r´ecup´erer la valeur d’un champ du terme ; — get default (optionnel) donne la valeur par d´efaut de l’attribut. Notons que Tom ne permet pas la surcharge d’op´erateurs, c’est-`a-dire qu’il n’est pas possible de d´efinir plusieurs op´erateurs ayant le mˆeme nom, mais des champs diff´erents. La construction %oplist est le pendant de %op pour les op´erateurs variadiques. Ainsi, dans le listing 1.11, nous pouvons d´efinir un op´erateur de liste d’individus concIndividu, de type IndividuList, et acceptant un nombre variable de param`etres de type Individu.1.3. Ancrages formels 23 1 %oplist IndividuList concIndividu(Individu*) { 2 is_fsym(s) { (s instanceof JconcJIndividu) } 3 get_head(l) { ((JconcJIndividu)l).list.getFirst() } 4 get_tail(l) { ((JconcJIndividu)l).getTail() } 5 is_empty(l) { ((JconcJIndividu)l).isEmpty() } 6 make_empty() { new JconcJIndividu() } 7 make_insert(t,l) { new JconcJIndividu(t,l) } 8 } Listing 1.11 – Op´erateur de liste d’Individus. Les sous-constructions suivantes la composent : — is fsym sp´ecifie la mani`ere de tester si un objet donn´e repr´esente bien un terme dont le symbole de tˆete est l’op´erateur ; — make empty sp´ecifie la mani`ere de cr´eer un terme vide ; — make insert sp´ecifie la mani`ere d’ajouter un fils en premi`ere position `a la liste ; — get head sp´ecifie la mani`ere de r´ecup´erer le premier ´el´ement de la liste ; — get tail sp´ecifie la mani`ere de r´ecup´erer la queue de la liste (sous-liste constitu´ee de la liste priv´ee du premier ´el´ement) ; — is empty sp´ecifie la mani`ere de tester si une liste est vide. Notons que le langage Tom supporte aussi le sous-typage [KMT09, Tav12]. Il est donc possible de sp´ecifier un type comme sous-type d’un autre type d´ej`a exprim´e. Cette relation de sous-typage exprim´ee dans les types Tom doit ´evidemment ˆetre coh´erente avec celle exprim´ee dans l’impl´ementation concr`ete en Java. Reprenons l’exemple pr´ec´edent des individus et consid´erons diff´erents sens possibles : ˆetre vivant (sens couramment utilis´e, d’o`u le constructeur personne), sp´ecimen vivant d’origine animale ou v´eg´etale (en biologie) et ´el´ement constituant un ensemble (en statistiques). Le type Individu pouvant ˆetre ambigu, nous d´ecidons de le pr´eciser en int´egrant des sous-types. Pour cela, il existe une construction Tom permettant de sp´ecifier un sous-type dans un ancrage alg´ebrique : extends, qui compl`ete la construction %typeterm. 1 %typeterm IndividuBiologie extends Individu { 2 implement { JIndividuBiologie } 3 is_sort(s) { (s instanceof JIndividuBiologie) } 4 equals(t1,t2) { (t1.equals(t2)) } 5 } 6 public class JIndividuBiologie extends Individu { 7 ... 8 } Listing 1.12 – Exemple de d´eclaration de type avec sous-typage. Dans le listing 1.12, nous d´eclarons donc un nouveau type, IndividuBiologie, sous-type de Individu (lignes 1 `a 5). Il est impl´ement´e par le type Java JIndividuBiologie dont la relation de sous-typage avec JIndividu est exprim´ee par la construction Java consacr´ee `a l’h´eritage : extends (ligne 7). Il est ensuite possible de d´efinir de mani`ere classique des op´erateurs de type IndividuBiologie comme l’illustre le listing 1.13. 1 %op IndividuBiologie animal(espece:String) { 2 ... 3 } 4 %op IndividuBiologie vegetal(espece:String) { 5 ... 6 }24 Chapitre 1. Un langage bas´e sur la r´e´ecriture : Tom Listing 1.13 – Constructeurs de type IndividuBiologie. 1.4 Domaines d’applications Tom est particuli`erement utile pour parcourir et transformer les structures arborescentes comme XML par exemple. Il est donc tout `a fait indiqu´e pour ´ecrire des compilateurs ou interpr´eteurs, et plus g´en´eralement des outils de transformation de programmes ou de requˆetes. Outre son utilisation pour ´ecrire le compilateur Tom lui-mˆeme, nous noterons son usage dans les cadres acad´emiques et industriels suivants : — impl´ementation d’un m´ecanisme d´efini par Guillaume Burel dans sa th`ese [Bur09] pour une m´ethode des tableaux particuli`ere appel´ee TaMeD [Bon04] ; — prototypage de langages tels que MiniML dont la compilation a ´et´e d´ecrite par Paul Brauner dans sa th`ese [Bra10] ; — impl´ementation d’un assistant `a la preuve tel que Lemuridae d´evelopp´e par Paul Brauner pour un calcul des s´equents nomm´e LKMS [Bra10] ; — impl´ementation de compilateurs ou interpr´eteurs, comme le compilateur +CAL 2.0 3 qui traduit des algorithmes exprim´es en +CAL en TLA+ pour faire du model-checking ; — raisonnement formel sur la plateforme Rodin 4 . Il s’agit d’un outil industriel open source d´evelopp´e par Systerel 5 qui permet de formaliser, d’analyser et de prouver les sp´ecifi- cations de syst`emes complexes ; — outil de transformation de requˆetes OLAP (OnLine Analytical Processing) en requˆetes SQL (Structured Query Language) pour assurer la r´etro-compatibilit´e entre les versions du logiciel Crystal Reports 6 d´evelopp´e par Business Object 7 ; — transformations de mod`eles qualifiables pour les syst`emes embarqu´es temps-r´eel dans le projet quarteFt 8 port´e par le LAAS-CNRS 9 , l’IRIT 10, l’ONERA-DTIM 11 et Inria Nancy ainsi que nos partenaires industriels Airbus 12 et Ellidiss Software 13. C’est dans ce cadre que s’inscrit cette th`ese. 1.5 Apport de la th`ese au projet Tom Durant cette th`ese, j’ai contribu´e techniquement au projet Tom. La figure 1.5 illustre le fonctionnement global du syst`eme Tom au d´ebut de ma th`ese, et sert de point de comparaison avec la figure 1.6 pour illustrer cet apport de d´eveloppement. La contribution technique de cette th`ese au projet Tom a consist´e en l’extension du langage Tom par l’ajout de constructions haut-niveau d´edi´ees `a la transformation de mod`eles. Ces constructions haut niveau (%transformation, %resolve et %tracelink) sont d´etaill´ees dans le chapitre 6. La construction %transformation impl´emente une m´ethode propos´ee dans [BCMP12] pour transformer des mod`eles EMF Ecore, tout en simplifiant l’´ecriture de la transformation pour l’utilisateur. Cette m´ethode se d´eroule en deux phases : 3. Voir https://gforge.inria.fr/projects/pcal2-0/. 4. Voir http://www.event-b.org/. 5. Voir http://www.systerel.fr/. 6. Voir http://crystalreports.com/. 7. Voir http://www.businessobjects.com/. 8. Site du projet : http://quarteft.loria.fr/. 9. Laboratoire d’Analyse et d’Architecture des Syst`emes : http://www.laas.fr/. 10. Institut de Recherche en Informatique de Toulouse : http://www.irit.fr/. 11. Office national d’´etudes et de recherches a´erospatiales : http://www.onera.fr/fr/dtim/. 12. Voir http://www.airbus.com/. 13. Voir http://www.ellidiss.com/.1.5. Apport de la th`ese au projet Tom 25 Compilateur Tom Tom + Java Ancrages alg´ebriques Gom Signature Gom Structures de donn´ees Java Code Java Compilateur Java 110010 101110 010100 Figure 1.5 – Fonctionnement global du projet Tom en d´ebut de th`ese. — une phase de d´ecomposition de la transformation en transformations ´el´ementaires encod´ees par des strat´egies Tom ; — une phase de r´econciliation durant laquelle le r´esultat interm´ediaire obtenu lors de la premi`ere phase est rendu coh´erent et conforme au m´etamod`ele cible. Les constructions %resolve et %tracelink servent `a la phase de r´econciliation d’une transformation de mod`ele suivant la m´ethode propos´ee. En suivant cette approche, l’utilisateur peut ´ecrire les transformations ´el´ementaires de mani`ere ind´ependante et sans aucune notion d’ordre d’application des pas d’ex´ecution de la transformation. La construction %tracelink pr´esente aussi un int´erˆet en termes de tra¸cabilit´e de la transformation. Nous souhaitons g´en´erer des traces d’ex´ecution de la transformation `a la demande de l’utilisateur, ce pour quoi %tracelink a ´et´e con¸cue. Cela a eu pour cons´equence l’ajout d’un nouveau greffon (voir la figure 6.5) dans la chaˆıne de compilation (transformer ), ainsi que l’adaptation de cette chaˆıne, du parser au backend, afin de prendre en compte cette extension du langage. Outre l’´evolution du langage Tom lui-mˆeme, le g´en´erateur d’ancrages alg´ebriques Tom-EMF a aussi ´evolu´e et est maintenant disponible en version stable. Nos contributions au projet Tom apparaissent en pointill´es sur la figure 1.6.26 Chapitre 1. Un langage bas´e sur la r´e´ecriture : Tom Compilateur Tom Tom + Java Ancrages alg´ebriques Gom Signature Gom Structures de donn´ees Java Ancrages alg´ebriques Tom-EMF Java EMF (MM) Code Java MM de lien Compilateur Java 110010 101110 010100 Figure 1.6 – Fonctionnement global de Tom et contributions de ce travail de th`ese au projet.Chapitre 2 Transformations de mod`eles Dans ce chapitre, nous pr´esentons un domaine du d´eveloppement logiciel en plein essor : l’Ing´enierie Dirig´ee par les Mod`eles (IDM). Nous pr´esentons les approches actuelles et les notions importantes de ce domaine indispensables `a la bonne compr´ehension de ce document. Dans un premier temps, nous expliquons ce qu’est l’IDM et notamment l’approche MDA (Model Driven Architecture). Ensuite, nous abordons la probl´ematique des transformations de mod`eles, et enfin nous pr´esentons bri`evement certains outils tr`es utilis´es. 2.1 Mod´elisation A partir des ann´ees 80, l’ing´enierie du logiciel a ´et´e marqu´ee par l’approche objet dans ` laquelle le principe « Tout est objet » pr´evaut. Ce principe permet d’amener les outils et les technologies `a la simplicit´e, la g´en´eralit´e et la bonne int´egration dans les syst`emes. Cette approche repose sur la notion d’objet, qui est une instance d’une classe, qui peut h´eriter d’une autre classe (surclasse). L’arriv´ee de l’IDM a renouvel´e les notions phares guidant le d´eveloppement logiciel. Le principe « Tout est objet » est remplac´e par celui du « Tout est mod`ele » [BB04] [B´e05]. Les notions de mod`ele repr´esentant un syst`eme, et conforme `a un m´etamod`ele sont apparues. L’approche IDM vise `a ´elever le niveau d’abstraction dans la sp´ecification logicielle, et `a augmenter l’automatisation dans le d´eveloppement. L’id´ee promue par l’IDM est d’utiliser les mod`eles `a diff´erents niveaux d’abstraction pour d´evelopper les syst`emes, et ainsi ´elever le niveau d’abstraction dans la sp´ecification du programme. L’augmentation de l’automatisation dans le d´eveloppement logiciel est obtenue en utilisant des transformations de mod`eles ex´ecutables. Les mod`eles de plus haut niveau sont transform´es en mod`eles de plus bas niveau jusqu’`a ce que le mod`ele puisse ˆetre ex´ecut´e en utilisant soit la g´en´eration de code, soit l’interpr´etation du mod`ele (ex´ecution du mod`ele). La d´efinition mˆeme de mod`ele a longtemps ´et´e discut´ee, et de nombreuses propositions — dont notamment celle de [BG01], ainsi que celle de [KWB03] — nous permettent de donner la d´efinition suivante : D´efinition 22 (Mod`ele). Un mod`ele est la repr´esentation ou l’abstraction d’un (ou d’une partie d’un) syst`eme, ´ecrit dans un langage bien d´efini. Un mod`ele doit pouvoir ˆetre utilis´e `a la place du syst`eme mod´elis´e pour r´epondre `a une question sur le syst`eme repr´esent´e. Il en d´ecoule la d´efinition de la relation repr´esente entre le mod`ele et le syst`eme mod´elis´e [AK03, Sei03, B´e05]. Du fait de l’utilisation du mod`ele `a la place du syst`eme, cette repr´esentation doit ˆetre pertinente. La d´efinition pr´ec´edente am`ene aussi `a pr´eciser la notion de langage bien d´efini : D´efinition 23 (Langage bien d´efini). Un langage bien d´efini est un langage avec une forme 2728 Chapitre 2. Transformations de mod`eles bien d´efinie (syntaxe), et une signification (s´emantique), qui est appropri´ee pour une interpr´etation automatique par un ordinateur 14 . Pour pouvoir utiliser un mod`ele, son langage de mod´elisation doit ˆetre pr´ecis´e. Il est repr´esent´e par un m´etamod`ele. D´efinition 24 (M´etamod`ele). Un m´etamod`ele est un mod`ele qui d´efinit le langage d’expression d’un mod`ele [OMG06a], c’est-`a-dire le langage de mod´elisation. Dans la suite de ce document, nous noterons les m´etamod`eles MM, indic´es en fonction de leur nature : ainsi un m´etamod`ele source — respectivement cible — sera not´e MMs — respectivement MMt. La relation qui lie un mod`ele `a son m´etamod`ele est la relation de conformit´e, c’est-`a-dire qu’un m´etamod`ele est la sp´ecification d’un mod`ele : on dit qu’un mod`ele est conforme `a son m´etamod`ele. La publication en 2000 de l’initiative MDA [StOS00] par l’OMG 15 a consid´erablement amplifi´e l’int´erˆet de l’IDM. Le MDA est la vision qu’a l’OMG de l’IDM : il s’agissait de d´efinir un cadre pour utiliser concr`etement les mod`eles dans le d´eveloppement logiciel [KWB03, MKUW04]. Pour cela, elle propose diff´erents standards pour r´esoudre des probl`emes soulev´es par l’ing´enierie dirig´ee par les mod`eles : — ´etablissement de nouveaux langages de mod´elisation [OMG06a] ; — mod´elisation des syst`emes [OMG09, OMG11] ; — expression de la s´emantique statique des mod`eles et des m´etamod`eles [OMG06b] ; — repr´esentation des mod`eles sous forme de documents XML (pour l’interop´erabilit´e)[OMG13] ; — repr´esentation des parties graphiques d’un mod`ele au format XML [OMG03]. L’OMG a donc propos´e le standard MOF [OMG06a] 16 comme un sous-ensemble du diagramme de classes UML. Intuitivement, un m´etamod`ele est compos´e d’un ensemble de m´etaclasses qui contiennent des attributs et des op´erations comme les classes en programmation orient´ee objet. Les m´etaclasses peuvent ˆetre li´ees par h´eritage, et par une m´etarelation (une association ou une composition). Chaque mod`ele doit se conformer `a un tel m´etamod`ele, c’est-`a-dire ˆetre un ensemble d’´el´ements, d’attributs et de relations entre les ´el´ements se conformant `a leurs m´etad´efinitions. Ce standard MOF — compos´e de EMOF 17 et CMOF 18 depuis la version 2.0 — permet d’´etablir de nouveaux langages de mod´elisation et se situe au sommet d’une architecture en quatre couches propos´ee par l’OMG (figure 2.1). La couche M0 est celle du monde r´eel qui est repr´esent´e par des mod`eles de la couche M1. Ces mod`eles sont conformes `a leurs m´etamod`eles — couche M2 — qui sont eux-mˆemes d´ecrits par le m´etam´etamod`ele MOF — couche M3. Ce dernier est unique et m´etacirculaire, c’est-`a-dire qu’il se d´ecrit lui-mˆeme. D´efinition 25 (M´etam´etamod`ele). Un m´etam´etamod`ele est un m´etamod`ele qui d´ecrit un langage de m´etamod´elisation. Il permet donc de d´efinir des langages de mod´elisation et est m´etacirculaire, c’est-`a-dire qu’il se d´ecrit lui-mˆeme. Cette approche hi´erarchique est classique et on la retrouve dans plusieurs autres domaines de l’informatique. Une telle hi´erarchie d´efinit ce que l’on appelle un espace technique (ou espace technologique) [KBA02, B´e06]. Ainsi, nous parlerons de modelware, de grammarware [KLV05, KKK+] pour l’espace des grammaires d´efinies par l’EBNF 19, de dataware (ou parfois DBware) 14. Traduction de [KWB03], page 16 : A well-defined language is a language with well-defined form (syntax), and meaning (semantics), which is suitable for automated interpretation by a computer. 15. Object Management Group : http://www.omg.org/. 16. Meta Object Facility : http://www.omg.org/mof/. 17. Essential MOF 18. Complete MOF 19. Extended Backus-Naur Form2.1. Mod´elisation 29 M0 M1 M2 M3 monde r´eel monde des mod`eles syst`eme S mod`ele m m´etamod`ele MM m´etam´etamod`ele MMM est repr´esent´e par est conforme `a est conforme `a est conforme `a Figure 2.1 – Organisation du MDA en 4 niveaux d’abstraction (3+1). avec SQL et de documentware avec XML. Ce que nous appelons m´etamod`ele dans l’espace des mod`eles correspond `a la grammaire dans l’espace grammarware, au type dans les langages de programmation, au sch´ema dans les espaces documentware et dataware. Pour illustrer notre propos, dans la figure 2.2, nous interpr´etons les niveaux d’abstraction de cette organisation en couches du MDA et faisons une analogie avec l’espace technique des grammaires. Ainsi, MOF correspond `a l’EBNF, tandis que la couche M2 contient les langages d´efinis par la grammaire, la couche M1 les programmes ´ecrits dans ces langages, et M0 consiste en les ex´ecutions de ces programmes. Outre MOF, l’OMG propose d’utiliser d’autres standards dans son approche MDA, notamment UML (Unified Modeling Language) et (OCL Object Constraint Language) : — UML est le standard de mod´elisation des syst`emes logiciels. Il est compos´e depuis 2009 [OMG09] du paquetage UML 2.2 Superstructure qui est le standard pour la mod´elisation orient´ee objet, ainsi que du paquetage UML 2.2 Infrastructure d´ecrivant le noyau commun entre MOF et UML. — OCL a ´et´e propos´e pour exprimer la s´emantique axiomatique des mod`eles et des m´etamod`eles. Il permet d’exprimer des contraintes sur les m´etamod`eles (invariant, pre- et post-conditions sur les op´erations), afin de mieux les d´efinir pour ensuite pouvoir les outiller. L’initiative MDA se concentre sur la variabilit´e technique d’un logiciel, c’est-`a-dire sur la mani`ere de sp´ecifier un logiciel ind´ependamment de la plateforme, afin de mettre en œuvre des syst`emes durables et maintenables. Elle propose d’´elaborer diff´erents mod`eles pour d´efinir une architecture de sp´ecification `a plusieurs niveaux. Pour cela, les notions de CIM (Computation Independent Model), PIM (Platform Independent Model) et PSM (Platform Specific Model) ont ´et´e introduites : — CIM : mod`ele d’exigence, d´efini hors de toute consid´eration informatique (par exemple, le diagramme de cas d’utilisation UML) ; — PIM : ce mod`ele d´efini ind´ependamment de la plateforme d’ex´ecution est aussi appel´e mod`ele d’analyse et conception ;30 Chapitre 2. Transformations de mod`eles M0 M1 M2 M3 monde r´eel une situation m1 m2 m MMUML MMSP EM MOF est repr´esent´e par est conforme `a est conforme `a est conforme `a Ex´ecution du programme Programme Grammaire du langage de programmation EBNF niveaux d’abstraction monde des mod`eles monde des grammaires Figure 2.2 – Interpr´etation des niveaux d’abstraction du MDA. — PSM : mod`ele de code, pour lequel les caract´eristiques de la plateforme d’ex´ecution ont ´et´e prises en compte. Le passage de PIM `a PSM peut se faire par des transformations de mod`eles, int´egrant parfois des transformations interm´ediaires de PIM `a PIM (pour des raisons d’interop´erabilit´e), d’o`u leur place de choix dans les approches mod`eles pour le d´eveloppement logiciel. Le MDA fournit un socle pour aider l’IDM `a se d´evelopper. Cependant, il s’agit d’une vision parmi d’autres [FEBF06]. On pense notamment aux usines logicielles (Software Factories) [GS03] dont l’id´ee est de se calquer sur le processus de production du monde mat´eriel pour mettre en œuvre celui du monde logiciel. Il s’agit de composer des applications `a partir d’un grand nombre d’outils, de patterns, de mod`eles et de frameworks. Les id´ees principales de cette approche sont : — la sp´ecialisation des fournisseurs et d´eveloppeurs de logiciels ; — l’utilisation d’outils d´edi´es (transformations de mod`eles, langages et outils de mod´elisation) ; — l’int´egration syst´ematique de code r´eutilisable. Microsoft a int´egr´e ces concepts au sein de son framework .NET et de son environnement de d´eveloppement. De son cˆot´e, IBM a activement contribu´e `a l’approche MDA en ´etant le principal d´eveloppeur de UML et en participant `a l’´elaboration des standards MOF, XMI et CWM. IBM donne sa vision du MDA dans [BBI+04] o`u ces trois principes sont d´evelopp´es : — repr´esentation directe : il faut se d´etacher du domaine technologique et se concentrer sur les id´ees et concepts du domaine m´etier. R´eduire la distance s´emantique entre le domaine m´etier et la repr´esentation permet de r´epondre plus directement et pr´ecis´ement aux probl`emes. Pour prendre en compte ces situations m´etier, on utilise des langages d´edi´es ( Domain Specific Language, DSL) ; — automatisation : il faut automatiser tout ce qui ne n´ecessite pas d’intelligence et de r´eflexion ;2.2. Transformations de mod`eles 31 — standards ouverts : les standards encouragent la cr´eation de communaut´es autour d’outils, et un d´eveloppement ouvert permet d’assurer que ces standards soient impl´ement´es de mani`ere coh´erente tout en poussant `a leur adoption. Les communaut´es autour des plateformes de logiciel libres ont un rˆole structurant. IBM a donc propos´e son langage de m´etamod´elisation — Ecore — pour l’Eclipse Modeling Framework (EMF) [SBPM09]. Il s’aligne quasiment sur EMOF, et cette proximit´e des deux m´etamod`eles permet `a EMF de supporter directement EMOF comme une s´erialisation XMI alternative de Ecore. Le passage de l’un `a l’autre consiste essentiellement en des tˆaches de renommage de classes et de fonctionnalit´es. Ecore est int´egr´e dans l’environnement Eclipse et est l’un des frameworks les plus utilis´es pour la manipulation de mod`eles, ce qui en fait un standard de facto. Il fait le lien entre la programmation Java et la mod´elisation. C’est pourquoi nous avons choisi EMF comme premi`ere technologie pour les outils d´evelopp´es durant cette th`ese. Pour une description approfondie du MDA, le lecteur int´eress´e pourra se r´ef´erer `a [KWB03], [Bro04] et [BS05]. 2.2 Transformations de mod`eles Les transformations de mod`eles sont au cœur de l’IDM [SK03]. Elles permettent d’automatiser les tˆaches r´ep´etitives — application d’un traitement `a un grand nombre de mod`eles ou multiples applications d’un traitement sur un mod`ele — ainsi que des tˆaches complexes et sujettes `a erreurs si elles ´etaient effectu´ees manuellement par un utilisateur. Les transformations de mod`eles sont aussi utiles dans le cas o`u le d´eveloppement d’un syst`eme est segment´e et que les rˆoles dans le d´eveloppement sont s´epar´es : si le sp´ecialiste de la plateforme n’est pas le sp´ecialiste du syst`eme d´evelopp´e, le traitement par l’un d’un mod`ele produit par l’autre est particuli`erement complexe. Les transformations de mod`eles permettent un gain accru en termes de productivit´e, de maˆıtrise de la complexit´e, de diminution des risques et donc, finalement, de coˆut. Elles sont utilis´ees pour r´ealiser des tˆaches vari´ees telles que : — la r´eing´enierie (refactoring) : tˆache qui consiste `a changer un logiciel de telle sorte que son comportement ext´erieur n’est pas affect´e tout en am´eliorant sa structure interne 20 ; — la g´en´eration de code : processus qui produit du code `a partir d’instructions abstraites en prenant en compte les caract´eristiques de la plateforme cible d’ex´ecution ; — le raffinement : transformation d’une sp´ecification abstraite en une sp´ecification (plus) concr`ete ; — la normalisation : mise en conformit´e d’un logiciel, adaptation du style de code, etc. ; — la migration : passage d’une technologie (ou d’une version `a une autre d’une technologie) `a l’autre ; — la s´erialisation : processus de mise en s´erie des donn´ees sous la forme d’un fichier ; — la r´etro-conception ou r´etro-ing´enierie (reverse engineering) : ´etude d’un programme pour en comprendre le fonctionnement interne et sa m´ethode de conception. D´efinition 26 (Transformation de mod`ele). Une transformation de mod`ele T est une relation d’un (ou plusieurs) m´etamod`ele(s) source(s) MMs vers un (ou plusieurs) m´etamod`ele(s) cible(s) MMt. On la notera : T : MMs → MMt (ou T : MMs0 × . . . × MMsn → MMt0 × . . . × MMtm dans le cas d’une transformation de n m´etamod`eles sources vers m m´etamod`eles cibles). Dans la suite du document, nous consid´ererons essentiellement des transformations de mod`eles d’un seul m´etamod`ele source vers un seul m´etamod`ele cible (T : MMs → MMt). 20. Traduction de la d´efinition de [Fow99]32 Chapitre 2. Transformations de mod`eles Compte tenu de la diversit´e des transformations, tant par leurs approches de d´eveloppement, que par les structures de donn´ees dont elles se servent pour repr´esenter les mod`eles qu’elles manipulent, que par les caract´eristiques des m´etamod`eles sources et cibles, de nombreux travaux ont ´et´e men´es pour tenter de les classifier [CH03], [SK03], [CH06], [MG06]. 2.2.1 Taxonomie des transformations On distingue diff´erents types de transformations de mod`eles que l’on peut d´efinir et classifier selon que les m´etamod`eles source et cible sont identiques ou non, et selon qu’ils appartiennent ou non au mˆeme niveau d’abstraction. C’est `a partir de ces crit`eres que [MG06] a propos´e une taxonomie des transformations de mod`eles sur laquelle nous nous appuyons dans cette section. D´efinition 27 (Transformation endog`ene). Une transformation T : MMs → MMt est dite endog`ene si MMs = MMt, c’est-`a-dire si les m´etamod`eles source et cible sont identiques. Par exemple, une activit´e de r´eing´enierie d’un logiciel est une transformation endog`ene. Par analogie avec les langues naturelles, la reformulation d’une phrase en est aussi une. Une transformation endog`ene s’op`ere dans un mˆeme espace technologique, si les modifications sont directement appliqu´ees sur le mod`ele source, on parle de transformation in-place. Dans le cas contraire, il s’agit d’une transformation out-place. D´efinition 28 (Transformation exog`ene). Une transformation T : MMs → MMt est dite exog`ene si MMs 6= MMt, c’est-`a-dire si les m´etamod`eles cible et source sont diff´erents.. Par exemple, la migration d’un syst`eme ou la r´e´ecriture d’un logiciel dans un autre langage est une transformation exog`ene. En utilisant l’analogie pr´ec´edente, la traduction en est aussi une. Une transformation exog`ene est toujours out-place et peut permettre un changement d’espace technique. D´efinition 29 (Transformation horizontale). Une transformation est dite horizontale si les mod`eles source et cible appartiennent au mˆeme niveau d’abstraction. Par exemple, l’activit´e de r´eing´enierie est une transformation horizontale (endog`ene), tout comme celle de migration (exog`ene). D´efinition 30 (Transformation verticale). Une transformation est dite verticale si les mod`eles source et cible n’appartiennent pas au mˆeme niveau d’abstraction. Par exemple, la r´etro-conception et le raffinement sont des transformations verticales, respectivement exog`ene et endog`ene. La figure 2.3 r´esume sous forme matricielle cette classification en fonction des deux crit`eres : — les colonnes classifient les transformations selon le changement de niveau d’abstraction (transformation verticale vs horizontale) ; — les lignes classifient les transformations selon que le m´etamod`ele cible est le mˆeme (ou non) que le m´etamod`ele source (transformation endog`ene vs exog`ene).2.2. Transformations de mod`eles 33 ms mt niveaux d’abstraction x y z Transformation horizontale ms niveaux mt d’abstraction w x y z Transformation verticale MMs ms conforme `a MMt mt conforme `a Transformation exog`ene Migration, S´erialisation G´en´eration de code, Retro-conception MM conforme `a ms mt Transformation endog`ene Optimisation, R´eing´enierie, Normalisation, Simplification Raffinement Figure 2.3 – Classification des cat´egories de transformations de mod`eles. 2.2.2 Approches de d´eveloppement des transformations de mod`eles Les transformations de mod`eles peuvent ˆetre classifi´ees selon leurs approches de d´eveloppement et selon les structures de donn´ees repr´esentant les mod`eles. Trois approches de transformation de mod`eles sont d´efinies dans [BS05] : — par programmation ; — par template ; — par mod´elisation. Dans l’approche par programmation, une transformation est d´evelopp´ee en utilisant des langages de programmation « classiques » (g´en´eralistes) g´en´eralement orient´es objet, tels que Java. La transformation se pr´esente sous la forme d’un programme et le d´eveloppeur a acc`es `a tout l’´ecosyst`eme existant (environnement de d´eveloppement, biblioth`eques, documentation, communaut´e d’utilisateurs. . . ). Cela en fait une approche tr`es r´epandue. Dans l’approche par template, un mod`ele cible param´etr´e (ou mod`ele template) est d´efini. La transformation consiste alors `a proc´eder au remplacement des param`etres en utilisant les valeurs fournies par le mod`ele source. C’est ce qu’impl´emente le logiciel Softeam MDA Modeler. La troisi`eme approche identifi´ee — l’approche par mod´elisation — consiste `a consid´erer la transformation elle-mˆeme comme un mod`ele conforme `a son m´etamod`ele de transformation. L’OMG a d´efini le standard Query/View/Transformation (QVT) pour mod´eliser les transformations de mod`eles [OMG08]. Il est compos´e de trois langages conformes `a MOF — QVT-Operational, QVT-Relations et QVT-Core — regroupant deux paradigmes de description des transformations de mod`eles : Approche op´erationnelle : une transformation de mod`ele est exprim´ee comme une s´equence de pas d’ex´ecution ´el´ementaires qui construisent le mod`ele cible (instanciation des nouveaux ´el´ements, initialisation des attributs, cr´eation des liens, etc.) en utilisant les informations du mod`ele source. Cette approche, appel´ee op´erationnelle, est34 Chapitre 2. Transformations de mod`eles imp´erative. Elle peut ˆetre impl´ement´ee en utilisant des outils d´edi´es tels que Kermeta, QVT-Operational, ou en utilisant des biblioth`eques au sein d’un langage g´en´eraliste. Approche relationnelle : une transformation de mod`ele peut aussi ˆetre d´efinie comme des relations devant exister entre la source et la cible `a la fin de la transformation. Cette approche, appel´ee relationnelle (ou d´eclarative), n’est pas directement ex´ecutable, mais peut parfois ˆetre traduite en une transformation op´erationnelle. La principale diff´erence entre les deux approches est le fait que l’approche op´erationnelle n´ecessite de d´ecrire le contrˆole comme une partie de la transformation, tandis que cet aspect est g´er´e par le moteur d’ex´ecution dans le cas de l’approche relationnelle. Un autre aspect diff´erenciant des transformations de mod`eles est la question de la repr´esentation des mod`eles. Si le type de structure de donn´ees permettant de repr´esenter un mod`ele peut ˆetre ind´ependant de l’approche, la repr´esentation choisie a toutefois des cons´equences concr`etes concernant les outils utilis´es pour les transformations. On peut distinguer ainsi rois grandes familles d’outils de transformation : Transformation de texte (fichiers). L’approche la plus simple et intuitive `a comprendre, mais aussi, historiquement, la plus ancienne, consiste `a transformer s´equentiellement des fi- chiers donn´es en entr´ee `a des scripts, qui produisent eux-mˆemes des fichiers en sortie. C’est l’approche adopt´ee par les outils s’appuyant sur AWK, sed ou Perl. Ils conviennent particuli`erement bien aux transformations les plus simples, qui sont g´en´eralement assez faciles `a comprendre et `a maintenir. Cependant, cette approche n´ecessite de parser l’entr´ee et de s´erialiser la sortie, et ne permet pas de manipuler une structure plus abstraite [GLR+02]. Transformation d’arbres. La structure d’arbre est une seconde repr´esentation courante des mod`eles. L’arbre en entr´ee est parcouru et des nœuds sont cr´e´es au fur et `a mesure de l’ex´ecution des pas de transformation pour g´en´erer un arbre de sortie (ou modifier directement l’arbre source). C’est l’approche des outils de transformation reposant sur XML tels que XSLT [W3C99] ou XQuery 21 [BCF+10, RCD+11]. C’est aussi traditionnellement l’approche des compilateurs et, plus g´en´eralement, des outils de l’espace technique grammarware (les langages respectent des grammaires — des m´etamod`eles — conformes `a EBNF). Transformation de graphes. Un troisi`eme type de repr´esentation de mod`ele possible est le graphe (orient´e et ´etiquet´e). C’est souvent la repr´esentation adopt´ee par les outils modernes d´edi´es `a la mod´elisation et aux transformations de mod`eles (par exemple AGG [Tae04]). Cette repr´esentation est fortement li´ee `a l’approche de d´eveloppement de transformation par mod´elisation que nous avons d´ecrite plus haut. C’est aussi la principale repr´esentation de mod`eles de la plupart des outils que nous allons pr´esenter dans la section suivante. 2.2.3 Outils existants Dans cette section, nous pr´esentons diff´erents outils utilis´es dans le cadre de l’IDM pour mod´eliser ou d´evelopper des transformations de mod`eles. Ces outils adoptent l’une ou l’autre des approches d´ecrites dans la section pr´ec´edente, voire une combinaison de plusieurs m´ethodes. Du fait de leur faible niveau d’abstraction et de leur usage peu appropri´e pour d´evelopper des transformations complexes dans un contexte industriel, nous ne nous ´etendrons pas sur les outils de transformation de texte (type AWK, sed ou Perl). Outils g´en´eralistes Pour ´ecrire une transformation de mod`eles, il est n´ecessaire de s´electionner non seulement une approche, mais ´egalement un langage et un type d’outil. Si le MDA plaide en faveur 21. Plus exactement XQuery Update Facility [RCD+11] ´etant donn´e que XQuery 1.0 n’a pas de fonctionnalit´e pour modifier les donn´ees.2.2. Transformations de mod`eles 35 d’outils et de langages d´edi´es (DSL), il est tout `a fait possible d’´ecrire une transformation de mod`eles comme n’importe quel autre programme informatique, en choisissant un langage g´en´eraliste. On l’utilise g´en´eralement avec un framework fournissant des fonctionnalit´es pour manipuler les mod`eles. EMF. EMF [SBPM09] est un framework de mod´elisation ouvert initi´e par IBM. Int´egr´e `a l’environnement Eclipse, il comprend une infrastructure de g´en´eration de code pour d´evelopper des applications `a partir de mod`eles pouvant ˆetre sp´ecifi´es en utilisant UML, XML ou Java. Ces mod`eles peuvent ensuite ˆetre import´es et manipul´es avec les services fournis par EMF. Le m´etamod`ele central du framework est Ecore. Il est align´e sur EMOF (le passage de l’un `a l’autre consiste essentiellement en quelques renommages), ce qui en fait son impl´ementation de r´ef´erence. Compte tenu de l’environnement (Eclipse) dans lequel il est int´egr´e, ainsi que du langage de programmation g´en´eraliste utilis´e (Java) et des standards li´es (XML et UML), EMF est une technologie int´eressante dans le cas d’un d´eveloppement de transformation par des utilisateurs « non sp´ecialistes » 22. Il a l’avantage d’ˆetre bien outill´e et maintenu, de b´en´eficier d’une large communaut´e d’utilisateurs et de pouvoir facilement ˆetre coupl´e avec les outils des ´ecosyst`emes Java, UML et XML. Nous reparlerons par la suite de EMF qui nous a servi de technologie de support pour le d´eveloppement de nos outils. XML. Une famille d’outils utilisables pour les transformations est celle de l’espace technique XML. Les mod`eles sont des arbres conformes `a des sch´emas, et des outils de transformation tels que XSLT [W3C99] et XQuery Update Facility [RCD+11] permettent de parcourir et transformer les documents XML. Bien que verbeuse, la syntaxe XML a l’avantage d’ˆetre simple et tr`es r´epandue. Beaucoup d’outils et d’applications utilisant nativement XML, il peut ˆetre int´eressant d’avoir une vision arbre XML des mod`eles. Ces outils peuvent aussi ˆetre utilis´es en conjonction de frameworks tels que EMF sans adaptation majeure, ceux-ci ayant g´en´eralement une fonctionnalit´e de s´erialisation XML (standard XMI de l’initiative MDA). Outils de transformation d’arbres. Les outils g´en´eralistes de transformation d’arbres — plus couramment associ´es aux mondes de la compilation, de l’analyse de code et de la r´e´ecriture qu’`a l’IDM — ont aussi leur rˆole `a jouer en IDM et peuvent fournir une base technique solide pour la construction d’autres outils. Outre le langage Tom [MRV03, BBK+07, BB+13] sur lequel nous nous sommes appuy´es pour ce travail, d’autres outils de la communaut´e pr´esentent un int´erˆet certain. Notons par exemple Rascal 23 [KHVDB+11, KvdSV11], le langage de m´etaprogrammation con¸cu pour l’analyse de programmes qui succ`ede `a ASF+SDF [BDH+01]. Il existe sous forme d’un plugin Eclipse et permet d’analyser, d’effectuer des requˆetes et de transformer des programmes sous la forme de mod`eles conformes `a M3 24 . Pour le mˆeme type d’utilisation, l’outil Spoofax 25 [KV10] — lui aussi disponible sous forme d’un plugin Eclipse — int`egre Stratego [VBT98],[Vis01a] et SDF. Il permet d’´ecrire des transformations de programmes en utilisant des r`egles et des strat´egies de r´e´ecriture. Le syst`eme Maude 26[CM96, CELM96, CDE+02] est un autre outil de r´e´ecriture. Il comprend une infrastructure orient´ee objet permettant d’impl´ementer des mod`eles et m´etamod`eles. Des travaux ont ´et´e men´es dans ce sens par plusieurs ´equipes [RRDV07, RV08, Rus11], 22. Nous d´esignons par utilisateur non sp´ecialiste tout utilisateur ayant b´en´efici´e d’une formation satisfaisante en informatique avec un socle th´eorique minimal, un apprentissage de la programmation orient´ee objet, ainsi que l’utilisation d’outils tels que Eclipse. Par exemple, un jeune ing´enieur en d´ebut de carri`ere est un d´eveloppeur non sp´ecialiste. Son expertise est donc bien sup´erieure `a celle d’un ´etudiant n’ayant pas encore re¸cu de formation, mais inf´erieure `a celle d’un ing´enieur expert de son domaine depuis de longues ann´ees. 23. Voir http://www.rascal-mpl.org/. 24. M´etamod`ele g´en´erique pour repr´esenter du code pars´e dans Rascal, http://tutor.rascal-mpl.org/ Rascal/Libraries/lang/java/m3/m3.html. 25. Voir http://strategoxt.org/Spoofax/. 26. Voir http://maude.cs.uiuc.edu/.36 Chapitre 2. Transformations de mod`eles ce qui a donn´e naissance `a divers outils dont le projet MOMENT27 qui permet d’effectuer des transformations de mod`eles EMF avec Maude [BM09, BO10]. ¨ Outils de r´e´ecriture de graphes. L’une des repr´esentations de mod`eles pouvant ˆetre le graphe, l’utilisation d’outils de r´e´ecriture de graphes est une approche qui a ´et´e exp´eriment´ee [Tae10, SK08] en utilisant des outils cat´egoriques tels que le single-pushout et le doublepushout, ainsi que le formalisme de sp´ecification Triple Graph Grammar (TGG) [K¨on05]. Dans cette cat´egorie d’outils, on notera Moflon 28 qui repose sur le m´ecanisme TGG pour impl´ementer des transformations de mod`eles [AKRS06], Henshin 29[ABJ+10] reposant sur le syst`eme AGG 30[Tae04], ainsi que VIATRA2 31 [VB07]. Du fait de la complexit´e des algorithmes li´es `a la transformation de graphes — et donc des ressources n´ecessaires pour transformer efficacement des graphes de grande taille —, le principal probl`eme de l’approche par r´e´ecriture de graphes r´eside dans le coˆut ´elev´e des transformations et la difficult´e de passer `a l’´echelle. Outils d´edi´es La solution largement mise en avant en IDM pour le d´eveloppement de transformations de mod`eles est l’utilisation de langages d´edi´es. On pense notamment au standard QVT [OMG08] propos´e par l’initiative MDA. QVT. Il est compos´e de trois langages de transformation diff´erents, comme illustr´e par la figure 2.4 : d’une part QVT-Relations et QVT-Core pour la partie d´eclarative, d’autre part QVT-Operational pour la partie imp´erative. RelationsToCore Operational Transformation Mappings Relations Core Black Box Figure 2.4 – Architecture du standard QVT [OMG08]. QVT-Relations et QVT-Core constituent la partie d´eclarative de QVT. QVT-Relations est un langage orient´e utilisateur avec une syntaxe textuelle et graphique permettant de d´efinir des transformations `a un niveau d’abstraction ´elev´e (repr´esentation graphique possible). QVTCore est quant `a lui plus bas niveau avec uniquement une syntaxe textuelle. Il sert `a sp´ecifier la s´emantique de QVT-Relations sous la forme d’une transformation Relations2Core. L’expression d’une transformation avec QVT d´eclaratif est une association de motifs (patterns) entre la source et la cible. Bien que relativement complexe `a prendre en main, il permet de d´efinir des transformations bidirectionnelles. OptimalJ ´etait une impl´ementation commerciale de QVTCore, mais son d´eveloppement a cess´e. Les outils Medini-QVT 32 , Eclipse MMT (anciennement Eclipse M2M 33) ainsi que MOMENT [BM09] impl´ementent quant `a eux QVT-Relations. Le langage QVT-Operational supporte la partie imp´erative de QVT. De par la nature mˆeme du style imp´eratif, la navigation et la cr´eation d’´el´ements du mod`ele cible sont explicites. QVTOperational ´etend QVT-Relations et QVT-Core par ajout de constructions imp´eratives telles 27. Voir http://moment.dsic.upv.es/. 28. Voir http://www.moflon.org/. 29. Voir http://www.eclipse.org/modeling/emft/henshin/. 30. Attributed Graph Grammar : http://user.cs.tu-berlin.de/~gragra/agg/. 31. Sous-projet de GMT : http://www.eclipse.org/gmt/. 32. http://projects.ikv.de/qvt/wikia 33. http://www.eclipse.org/m2m/2.3. Limitations actuelles et points d’am´elioration 37 que la s´equence, la r´ep´etition, la s´election, etc. ainsi que par des constructions OCL. SmartQVT et Eclipse MMT Operational QVT impl´ementent QVT-Operational. QVT-like. Les outils dont nous allons parler ici n’impl´ementent pas, `a proprement parler, le standard QVT, mais sont cependant suffisamment proches et similaires pour ˆetre souvent class´es dans la cat´egorie des QVT-like. Le premier d’entre eux est tr`es certainement ATL 34 [BDJ+03, BJRV05, JK06, JABK08] : il s’agit d’un des langages les plus utilis´es dans la communaut´e des mod`eles et est int´egr´e dans l’environnement Eclipse [AI04]. Il permet de sp´ecifier une transformation d’un ensemble de mod`eles sources en un ensemble de mod`eles cibles. Ecrire un programme ´ ATL consiste `a ´ecrire des r`egles (rules) en donnant une source et une cible. Une r`egle peut faire appel `a des fonctions d’aide (helper ) permettant d’effectuer un traitement (collecte de valeurs dans une liste, etc.). Outre ATL, d’autres outils QVT-like existent, notamment Tefkat 35 [LS06] (qui propose une syntaxe `a la SQL et offre une impl´ementation de QVT-Relations), GReAT [AKS03, BNvBK07] et VIATRA2 [VB07], qui sont des outils de transformation de graphes. Ces deux derniers sont distribu´es sous forme d’un plugin Eclipse ce qui leur permet d’interagir avec l’environnement EMF. Enfin, dans cette cat´egorie d’outils, nous pouvons ajouter JQVT36 qui est un moteur QVT pour Java. Il est int´egr´e dans Eclipse, est compatible avec EMF et n’utilise pas OCL, mais Xbase 37 . Kermeta. Il s’agit d’un environnement de m´etamod´elisation dans Eclipse. Il permet de d´e- finir et sp´ecifier des langages de mod´elisation d´edi´es. Le langage Kermeta 38 [DFF+10] mˆele plusieurs paradigmes de programmation (orient´e objet, orient´e aspects [MFJ05, MFV+05], par contrats, fonctionnel) et fournit un support complet de Ecore et de EMOF. Ainsi, tout mod`ele Kermeta conforme `a EMOF est aussi un programme Kermeta valide. Une d´efinition Kermeta peut ˆetre compil´ee pour produire un mod`ele ex´ecutable. Le code g´en´er´e est exprim´e en Java et Scala, qui peut ˆetre ensuite compil´e pour ˆetre ex´ecut´e sur la machine virtuelle Java. 2.3 Limitations actuelles et points d’am´elioration Le lancement de l’initiative MDA a donn´e un v´eritable ´elan `a l’IDM et de nombreux outils ont vu le jour. Cependant, malgr´e l’int´erˆet ind´eniable de cette approche pour le d´eveloppement logiciel, l’IDM n’est pas encore fortement ´etablie dans les chaˆınes de d´eveloppement industrielles et gagne lentement du terrain. La complexit´e des syst`emes s’accroissant, l’industrie voit dans l’IDM une solution pour am´eliorer leur d´eveloppement tout en diminuant leurs coˆuts. En effet, pour appr´ehender cette complexit´e, il est n´ecessaire pour les d´eveloppeurs d’abstraire les probl`emes. Pour ce faire, il faut des outils accessibles et utilisables dans un cadre industriel. La grande diversit´e des outils peut aussi ˆetre un frein `a l’adoption des techniques de l’IDM : un trop grand nombre d’outils et de technologies segmente le domaine, ce qui peut empˆecher que les communaut´es atteignent une masse critique. De plus, beaucoup d’outils adoptant les concepts de l’IDM sont issus de la recherche et sont utilis´es par un public acad´emique. N’ayant pas forc´ement vocation `a industrialiser les prototypes d´evelopp´es, le monde de la recherche produit souvent des outils peu accessibles tant sur leur forme (ergonomie, non conformit´e aux pratiques industrielles habituelles) que sur le fond (concepts peu connus et maˆıtris´es par peu de monde, expertise n´ecessaire). Ce frein li´e `a la multiplicit´e des outils peu accessibles peut ˆetre lev´e par l’´etablissement de standards tels que ceux propos´es par l’OMG, ainsi que par le d´eploiement d’environnements comme Eclipse pour pousser `a la cristallisation et au d´eveloppement de communaut´es autour des technologies li´ees. 34. http://www.eclipse.org/atl/ 35. http://tefkat.sourceforge.net/ 36. http://sourceforge.net/projects/jqvt/ 37. https://wiki.eclipse.org/Xbase 38. http://www.kermeta.org38 Chapitre 2. Transformations de mod`eles Un autre aspect limitant vient de l’adaptation des chaˆınes de d´eveloppement logicielles existantes `a ces nouvelles m´ethodes de d´eveloppement et `a ces nouveaux outils. Compte tenu de leur coˆut d’int´egration et des changements induits par une telle modification d’un processus de d´eveloppement, il n’est pas raisonnable d’adopter un nouvel outil encore `a l’´etat de prototype ou n´ecessitant des comp´etences sp´ecifiques maˆıtris´ees par un petit nombre d’experts ou encore n’ayant aucun lien avec des technologies d´ej`a pr´esentes dans la chaˆıne de d´eveloppement existante. Il faut donc mettre en œuvre des ponts entre les technologies pour les rendre plus attrayantes et plus facilement int´egrables, afin de faciliter ce processus fortement consommateur de ressources. Outre l’adaptation normale des chaˆınes de d´eveloppement aux nouveaux outils, certains domaines ont des contraintes strictes de qualit´e concernant les outils de production du logiciel. C’est le cas des chaˆınes de d´eveloppement des syst`emes critiques que l’on retrouve notamment en a´eronautique, dans le secteur automobile, ainsi que dans celui de la sant´e. Les logiciels produits et servant `a produire sont soumis `a des exigences l´egales n´ecessitant des processus lourds de validation du logiciel. Le domaine de l’IDM ´etant relativement jeune, il n’est pas encore pleinement adopt´e dans ce type d’industrie qui a besoin d’outils adapt´es `a ses contraintes permettant de faciliter la validation du logiciel `a moindre coˆut (et pr´esenter ainsi un int´erˆet sup´erieur par rapport `a l’existant). L’un des aspects les plus int´eressants est l’usage de l’IDM dans le cadre du d´eveloppement fiable : pour les probl´ematiques l´egales ´evoqu´ees pr´ec´edemment, la demande industrielle est tr`es forte, et peu de r´eponses concr`etes existent ou alors pour des coˆuts d´eraisonnables. C’est dans ce contexte que nous nous proposons d’apporter un ´el´ement de solution avec ce travail, afin d’accompagner l’adoption de nouveaux outils tout en am´eliorant la qualit´e du logiciel. Nous abordons la probl´ematique de la validation du logiciel dans le chapitre 3.Chapitre 3 V´erification du logiciel Il est extrˆemement difficile de garantir l’absence totale d’erreurs dans un logiciel. Et cette tˆache est d’autant plus ardue que le logiciel est complexe. Les bogues pouvant avoir des cons´equences d´esastreuses et coˆuteuses, il est n´ecessaire de valider, v´erifier et tester le logiciel avant leur mise en production. Dans ce chapitre, nous pr´esentons le contexte de la v´erification du logiciel dans lequel ce travail s’inscrit. Nous expliquons diff´erentes approches pour v´erifier le logiciel 3.1. Nous pr´esentons aussi la qualification et la certification 3.2 qui exigent une tra¸cabilit´e. 3.1 Approches pour la v´erification du logiciel Dans cette section, nous abordons diff´erentes mani`eres de v´erifier le logiciel afin d’en am´eliorer sa qualit´e, et donc la confiance que l’utilisateur peut avoir dans les logiciels qu’il utilise. Nous pr´esentons d’abord des approches logicielles pratiques comme la relecture, les tests et la simulation, puis la preuve et le model-checking qui sont des approches formelles. Ces m´ethodes pour v´erifier le logiciel et am´eliorer sa qualit´e sont g´en´eralement utilis´ees de mani`ere conjointe, selon le niveau d’exigence vis´e (les contraintes pour une application sur ordiphone ne sont pas les mˆemes que pour celles d’un calculateur de vol). 3.1.1 Relecture Une premi`ere approche ´evidente pour tout d´eveloppeur est la relecture de code. Informelle, elle consiste `a parcourir du code d´evelopp´e pr´ec´edemment et `a s’assurer qu’il est conforme aux exigences. Pour am´eliorer la fiabilit´e d’une relecture, la tendance est de faire relire du code d’un d´eveloppeur `a un autre d´eveloppeur n’ayant pas particip´e au d´eveloppement, et de croiser les relectures. Cependant, si cette m´ethode est largement r´epandue et encourag´ee, elle est loin d’ˆetre fiable. En effet, la relecture d´epend totalement d’un relecteur humain dont l’´etat au moment de la relecture (comp´etences, fatigue, concentration, etc.) conditionne le r´esultat. Si la relecture permet de rep´erer les bogues les plus ´evidents, elle permet difficilement de rep´erer les plus subtils. De plus, d´ependant des comp´etences et de l’exp´erience du relecteur, cette m´ethode est fortement soumise `a son intuition. Une v´erification d’un logiciel par relecture pourra ainsi ˆetre tr`es diff´erente selon le d´eveloppeur. Si la relecture est indispensable dans tout d´eveloppement, elle n’est pas suffisante pour du logiciel exigeant une forte fiabilit´e. Elle pr´esente toutefois l’avantage d’ˆetre naturelle `a tout d´eveloppeur ayant suivi une formation ad´equate 39 et d’ˆetre peu coˆuteuse : en effet, elle ne n´ecessite pas de comp´etences et d’outils suppl´ementaires qu’il a ´et´e n´ecessaire pour ´ecrire le logiciel `a relire. Cette approche de 39. La relecture fait partie int´egrante de la m´ethodologie du d´eveloppement g´en´eralement enseign´ee dans les formations en informatique. 3940 Chapitre 3. V´erification du logiciel v´erification peut ´eventuellement ˆetre suffisante pour des applications peu complexes, non critiques et peu diffus´ees (par exemple : un script pour renommer des fichiers dans un r´epertoire personnel). Elle reste efficace pour trouver des erreurs et constitue un ´el´ement fondamental de certaines approches agiles. 3.1.2 Tests Une seconde approche est de tester tout programme informatique avant sa mise en production, l’intensit´e des tests permettant d’obtenir plus d’assurance. Il existe diverses m´ethodologies et techniques pour tester du code. On citera par exemple la mise en place de tests unitaires cens´es tester des unit´es de code (fonctions, classes). Des frameworks d´edi´es aux tests unitaires ont ainsi ´et´e d´evelopp´es, comme par exemple JUnit 40. Cela a ´et´e popularis´e par les m´ethodes agiles, notamment eXtreme Programming [BA04] qui repose en partie sur l’approche dirig´ee par les tests (Tests Driven Development [Bec03]). Remarquons que les sc´enarios de tests peuvent ˆetre consid´er´es comme une forme de sp´ecification. Bien que l’utilisation de tests permette d’am´eliorer grandement la qualit´e du logiciel durant sa phase de d´eveloppement en r´eduisant les d´efauts [WMV03], la solution des tests unitaires commence `a montrer ses limites lors de d´eveloppements de logiciels complexes o`u les bogues peuvent avoir des origines plus nombreuses. Du fait des coˆuts et des d´elais de d´eveloppement, il n’est pas rare de ne pas ´ecrire de tests pour se concentrer sur le logiciel lui-mˆeme. Par cons´equent, certaines parties de code ne sont pas test´ees et sont donc susceptibles de contenir des bogues. Des techniques de g´en´eration automatique de tests ont vu le jour pour augmenter la couverture de tests et tester au maximum les cas limites. Nous noterons par exemple QuickCheck [CH00, Hug10] pour tester les programmes Haskell, ainsi que ses impl´ementations et variantes pour d’autres langages tels que Scala 41 , Dart 42 , Java 43 , Ruby 44 , Python 45 , etc. Ces m´ethodes ont ´et´e transpos´ees dans le cadre de l’IDM. L’approche dirig´ee par les tests [GP09] s’est d´evelopp´ee, et des travaux de v´erification par le test ont ´et´e men´es pour les transformations de mod`eles [FSB04]. Des frameworks de test [LZG05], ainsi que des outils de g´en´eration de tests [BFS+06, Lam07, SBM09] et de g´en´eration de code tests [RW03] ont donc aussi vu le jour, accompagn´es d’outils et de techniques de qualification des donn´ees de tests pour les transformations de mod`eles [FBMT09]. Les tests permettent de d´etecter des comportements anormaux, mais d’autres comportements anormaux peuvent aussi naˆıtre d’une combinaison de comportements normaux de modules fonctionnels ind´ependamment. Le probl`eme pouvant alors provenir d’une incompr´ehension entre les ´equipes de d´eveloppeurs ou entre le client et le fournisseur (sp´ecification ambigu¨e). Si l’int´egration de tests est absolument n´ecessaire dans le processus de d´eveloppement d’un logiciel, elle se r´ev`ele insuffisante dans le cas du logiciel critique. En effet, tester intens´ement un logiciel permet de tester son comportement dans la plupart des cas, mais rien ne garantit que toutes les situations ont ´et´e test´ees. 3.1.3 Simulation Il peut aussi ˆetre extrˆemement difficile de tester correctement un syst`eme du fait de sa complexit´e, des fortes ressources demand´ees ou de la particularit´e de sa plateforme d’ex´ecution. Les tests ´ecrits et men´es durant le d´eveloppement peuvent se r´ev´eler peu r´ealistes ou fort ´eloign´es des conditions r´eelles d’utilisation. Pour r´epondre `a ce probl`eme de r´ealisme du comportement d’un syst`eme sous conditions d’utilisation r´eelles, une approche li´ee aux tests revient `a simuler le syst`eme pour ´etudier son comportement et d´etecter les anomalies. L’int´erˆet de ce type d’approche est que l’on peut travailler sur un syst`eme qui serait coˆuteux `a 40. http://www.junit.org 41. ScalaCheck : http://code.google.com/p/scalacheck/ 42. PropCheck : https://github.com/polux/propcheck 43. QuickCheck pour Java [EF13] : https://bitbucket.org/blob79/quickcheck 44. RushCheck : http://rushcheck.rubyforge.org/ 45. qc : http://github.com/dbravender/qc3.1. Approches pour la v´erification du logiciel 41 d´eployer pour tester en conditions r´eelles. Notons par exemple les domaines du nucl´eaire ou de l’avionique qui ne permettent pas ais´ement (et `a faible coˆut) des tests logiciels en conditions r´eelles, en particulier lors des premi`eres ´etapes de d´eveloppement. L’inconv´enient de ce type de m´ethode de v´erification est qu’il faut reproduire fid`element un environnement et que les tests sont fortement conditionn´es par la plateforme d’ex´ecution sur lesquels ils sont ex´ecut´es et par les technologies employ´ees. Dans le cas d’une informatique simple, la simulation est une option int´eressante, mais sa difficult´e de mise en œuvre croˆıt avec la complexit´e du syst`eme (nombreuses d´ependances, syst`emes exotiques, mat´eriel non disponible hors chaˆıne de production d´edi´ee, mod`eles physiques complexes, etc.). Ainsi, en a´eronautique, il est extrˆemement complexe et coˆuteux de mod´eliser int´egralement l’environnement afin de simuler tous les syst`emes de l’avion. L’approche adopt´ee revient alors `a proc´eder `a une succession de phases simulant des mod`eles de l’environnement m´ecanique, physique, des calculateurs, du r´eseau, du logiciel, etc. La derni`ere ´etape avant le vol r´eel est l’Aircraft Zero — Iron Bird qui int`egre toute l’informatique r´eelle sur un banc d’essai. 3.1.4 Preuve A l’oppos´e de ces approches vues comme tr`es pragmatiques et largement utilis´ees dans ` l’industrie, une autre approche pour am´eliorer la confiance dans un logiciel consiste `a prouver formellement les algorithmes. Le probl`eme est alors formalis´e sous la forme d’axiomes et de buts qu’il faut atteindre en d´emontrant des th´eor`emes. Une preuve math´ematique peut ˆetre ´ecrite `a la main, mais pour faciliter le processus et pour diminuer les risques d’introduction d’erreurs li´ees au facteur humain, des outils assistants `a la preuve tels que Coq [The04, BC04] et Isabelle/HOL [NPW02] ont ´et´e d´evelopp´es. Une preuve Coq est cens´ee donner une forte confiance dans le logiciel d´evelopp´e et prouv´e. Cependant, si la preuve de la correction d’un algorithme donne une garantie irr´efutable du bon comportement de cet algorithme, elle ne donne pas obligatoirement la garantie du bon comportement du logiciel. En effet, ce sont les algorithmes et les sp´ecifications qui sont g´en´eralement formellement prouv´es et non les impl´ementations elles-mˆemes 46. Or, le facteur humain n’est pas `a n´egliger, l’impl´ementation concr`ete du logiciel d´ependant fortement du d´eveloppeur et des outils utilis´es durant le processus. En outre, lors d’une preuve, le contexte r´eel n’est pas forc´ement pris en compte et certaines conditions d’utilisation r´eelles peuvent fortement influencer le comportement et la fiabilit´e de l’application. 3.1.5 Model-checking Le model-checking est une autre approche formelle que l’on peut consid´erer comme ´etant entre preuve et test. Elle consiste `a abstraire (mod´eliser) un probl`eme ou un syst`eme selon un formalisme (langage) donn´e, puis `a explorer l’espace d’´etats possibles de ce syst`eme pour v´erifier qu’aucun ´etat ne viole une propri´et´e donn´ee (un invariant par exemple). On peut consid´erer que cela revient `a du test exhaustif, ce qui a donc valeur de preuve. L’int´erˆet du model-checking est que — contrairement aux tests — il est g´en´eralement ind´ependant de la plateforme d’ex´ecution et qu’il apporte une v´erification formelle du syst`eme. Par exemple, les outils CADP 47 [GLMS11] et TINA 48 [BRV04] sont deux model-checkers dont les formalismes d’expression des mod`eles sont respectivement LOTOS et les r´eseaux de Petri. On peut toutefois reprocher au model-checking de ne pas toujours ˆetre suffisamment proche de la r´ealit´e et d’avoir un coˆut en ressources ´elev´e dans le cas de syst`emes complexes. Cela a conduit certains `a compl´eter le model-checking par l’analyse `a l’ex´ecution sur des applications r´eelles simul´ees [BM05]. L’IDM reposant sur les mod`eles qui sont des abstractions de probl`emes, 46. « Beware of bugs in the above code ; I have only proved it correct, not tried it » – D.E. Knuth, 1977 ; citation et explication accessibles sur sa page personnelle : http://www-cs-faculty.stanford.edu/~uno/faq. html 47. http://cadp.inria.fr 48. http://projects.laas.fr/tina42 Chapitre 3. V´erification du logiciel il est naturel d’adopter le model-checking pour v´erifier le logiciel produit par ces m´ethodes. On peut adjoindre des contraintes aux mod`eles avec des langages tels qu’OCL dans le cas de UML, mais un mod`ele n’est pas n´ecessairement imm´ediatement v´erifiable. Il n´ecessite souvent une ou plusieurs transformations afin de pouvoir ˆetre v´erifi´e au moyen d’un model-checker. C’est une approche courante que d’op´erer une suite de transformations permettant de passer du mod`ele servant de sp´ecification au mod`ele v´erifiable, ainsi que de la sp´ecification vers l’application r´eelle. Cependant, comme pr´ec´edemment, il s’agit `a nouveau de v´erifier un mod`ele et non pas le code g´en´er´e r´eel. Chaque transformation se doit donc d’ˆetre simple afin que l’on puisse garantir la pr´eservation du comportement d’un pas `a l’autre. Ce type d’approche est tr`es utilis´e en IDM. Nous notons imm´ediatement qu’une telle approche pour s’assurer du bon fonctionnement du logiciel n´ecessite non seulement une v´erification du mod`ele, mais aussi une garantie que la transformation elle-mˆeme est correcte. 3.2 Certification et qualification Le processus de certification n’est pas n´ecessaire pour tous les logiciels et tous les secteurs d’activit´e. Il fait en revanche partie int´egrante du processus de d´eveloppement logiciel dans le cadre de d´eveloppement de syst`emes critiques, par exemple dans les domaines de l’a´eronautique, de l’automobile (du transport en g´en´eral) et de la sant´e. La loi impose le respect d’exigences en fonction de cr´edits de certification demand´es. D´efinition 31 (Cr´edit de certification). Acceptation par l’autorit´e de certification qu’un processus, un produit ou une d´emonstration satisfait les exigences de certification. D´efinition 32 (Certification). Processus d’approbation par une autorit´e de certification d’un produit. Ces exigences sont fix´ees par des standards de certification : en a´eronautique, le standard actuel est la norme DO-178C/ED-12C 49 [Spe11a]. Elle donne des objectifs (et non des moyens) dont le nombre et le niveau augmentent avec le niveau de criticit´e. Ces niveaux de criticit´e (ou niveaux DAL, pour Development Assurance Level) sont not´es de A `a E, A ´etant le plus critique, E le moins critique : Niveau A : (Erreur catastrophique) un d´efaut du syst`eme ou sous-syst`eme ´etudi´e peut provoquer un probl`eme catastrophique (s´ecurit´e du vol ou atterrissage compromis, crash de l’avion) ; Niveau B : (Erreur dangereuse) un d´efaut du syst`eme ou sous-syst`eme ´etudi´e peut provoquer un probl`eme majeur entraˆınant des d´egˆats s´erieux voire la mort de quelques occupants ; Niveau C : (Erreur majeure) un d´efaut du syst`eme ou sous-syst`eme ´etudi´e peut provoquer un probl`eme s´erieux entraˆınant un dysfonctionnement des ´equipements vitaux de l’appareil (pas de mort) ; Niveau D : (Erreur mineure) un d´efaut du syst`eme ou sous-syst`eme ´etudi´e peut provoquer un probl`eme pouvant perturber la sˆuret´e du vol (pas de mort) ; Niveau E : (Erreur sans effet) un d´efaut du syst`eme ou sous-syst`eme ´etudi´e peut provoquer un probl`eme sans effet sur la sˆuret´e du vol. Dans le cadre du processus de certification de syst`emes critiques, les outils utilis´es pour le d´eveloppement doivent ˆetre v´erifi´es afin de s’assurer de leur bon fonctionnement et qu’ils n’introduisent pas d’erreurs dans le logiciel. Les pratiques de d´eveloppement logiciel ´evoluant, notamment par l’adoption croissante de l’approche dirig´ee par les mod`eles qui plaide pour l’automatisation maximale des tˆaches, 49. La notation DO- correspond au nom donn´e `a ce standard aux Etats-Unis d’Am´erique, tandis que la ´ notation ED- est celle en vigueur en Europe.3.3. Tra¸cabilit´e 43 de nouveaux outils sont int´egr´es aux processus de d´eveloppement. L’introduction d’outils automatiques dans une chaˆıne de d´eveloppement de syst`eme soumis `a certification impose l’une des deux approches suivantes : — v´erifier les donn´ees produites par l’outil a posteriori ; — qualifier l’outil. La qualification d’un logiciel participe `a atteindre un objectif exig´e par le processus de certification et permet d’obtenir de la confiance dans les fonctionnalit´es d’un outil. Ce processus de qualification peut ˆetre appliqu´e `a une ou plusieurs fonctions dans un outil, `a un outil unique ou `a un ensemble d’outils. D´efinition 33 (Qualification). La qualification d’outils est le processus n´ecessaire pour obtenir des cr´edits de certification d’un outil. Ces cr´edits peuvent uniquement ˆetre garantis pour un usage donn´e dans un contexte donn´e. L’int´erˆet de la qualification d’un outil est d’obtenir suffisamment de confiance en cet outil pour pouvoir l’int´egrer dans une chaˆıne de d´eveloppement sans avoir `a v´erifier ses donn´ees de sortie ensuite. Le choix entre l’approche de qualification et de v´erification a posteriori revˆet un aspect strat´egique : si la qualification d’un outil peut avoir un coˆut ´elev´e fixe, elle n’en g´en`ere pas plus par la suite, tandis que la v´erification a posteriori aura un coˆut r´ecurrent. La DO-178/ED-12 d´efinit des cat´egories d’outils (sans impact, v´erification et compilateur, g´en´erateur de code) ainsi que des crit`eres de qualification. Elle pr´ecise les exigences de qualification adapt´ees aux diff´erents types d’outils et `a leur utilisation. La norme DO- 330/ED-251 [Spe11b] donne des instructions pour la qualification d’outils. Elle d´efinit aussi cinq niveaux de qualification d’outils (TQL — Tool Qualification Levels) qui sont fonction de ces trois crit`eres ainsi que de la criticit´e du logiciel d´evelopp´e : TQL-1 `a 3 : ces niveaux concernent les g´en´erateurs de code et outils dont la sortie fait partie du logiciel embarqu´e et qui peuvent donc introduire des erreurs ; TQL-4 `a 5 : ces niveaux concernent les outils de v´erification, qui ne peuvent pas introduire d’erreurs, mais qui peuvent ´echouer `a en d´etecter (outils de tests, analyseurs de code statique) Selon son utilisation et selon le type de production de l’outil, le niveau de qualification sera diff´erent. Un outil ne peut donc ˆetre qualifi´e une fois pour toutes. En revanche, il peut ˆetre qualifiable pour chaque projet, c’est-`a-dire pre qualifi´e pour chaque projet. L’IDM plaidant pour l’automatisation des tˆaches et l’usage d’outils automatisant les tˆaches, il faut v´erifier ces outils. Dans ce contexte, l’un des probl`emes majeurs de l’IDM est le grand nombre d’outils non qualifi´es et non certifi´es impliqu´es dans les chaˆınes de d´eveloppement, notamment des g´en´erateurs de code, des outils de traduction, et de mani`ere plus g´en´erale des outils automatisant au maximum les tˆaches de transformation. 3.3 Tra¸cabilit´e Une probl´ematique fondamentale des compilateurs dans le cadre de la certification d’un logiciel est d’assurer la tra¸cabilit´e entre le code source et le code binaire, ce qu’exige la norme DO-178/ED-12. Cette exigence pour les compilateurs et g´en´erateurs de code est g´en´eralisable `a toutes les transformations, donc aux transformations de mod`eles `a partir desquelles les logiciels sont produits. Assurer cette tra¸cabilit´e permet aussi de respecter la contrainte de s´eparation de le sp´ecification, de l’impl´ementation et de la v´erification tout en ´etant capable de relier les unes aux autres. D´efinition 34 (Tra¸cabilit´e). La norme DO-330 [Spe11b] d´efinit la tra¸cabilit´e comme une association entre objets telle qu’entre des sorties de processus, entre une sortie et son processus d’origine, ou entre une sp´ecification et son impl´ementation.44 Chapitre 3. V´erification du logiciel L’IDM plaidant pour l’automatisation maximale des tˆaches r´ep´etitives et l’utilisation de g´en´erateurs de code pour produire le logiciel `a partir de mod`eles, il est n´ecessaire de v´erifier les transformations qui en sont le cœur. L’un des angles d’attaque du probl`eme de la qualifi- cation est de fournir des outils de transformations qualifiables, qui assurent la tra¸cabilit´e des transformations. Dans le cas d’une transformation de mod`ele, le m´etamod`ele source fait partie de la sp´ecification et le mod`ele source la donn´ee d’entr´ee. Il convient donc de conserver une trace de la transformation en maintenant un lien entre la source et la cible. On retrouve souvent deux situations : — la trace se fait au niveau macroscopique (mod`ele d’entr´ee et mod`ele de sortie) et la granularit´e est extrˆemement faible, ce qui rend la trace peu informative ; — la trace s’op`ere de mani`ere tr`es d´etaill´ee (comme un debug) ce qui g´en`ere une trace importante de tout ce qui s’est produit durant la transformation. Si toutes les informations sont pr´esentes, se pose le probl`eme de la pertinence des donn´ees recueillies : la quantit´e d’informations peut rendre la trace inexploitable, les ´el´ements jug´es int´eressants risquant d’ˆetre noy´es dans la trace. Outre le respect strict des exigences de qualification, les informations de trace peuvent ˆetre tr`es utiles pour des tˆaches telles que le debugging ou l’analyse d’impact (cons´equences d’une modification). La tra¸cabilit´e des transformations de mod`ele est un aspect important que la plupart des outils traitent en apportant un support d´edi´e, comme pour les outils QVT, ATL, Tefkat ou Kermeta [FHN+06]. D’autres outils tels que AGG, VIATRA2 et GReAT n’ont pas de support d´edi´e `a cette tra¸cabilit´e, cependant les informations de trace peuvent ˆetre cr´e´ees comme des ´el´ements cibles. G´en´eralement, la tra¸cabilit´e est class´ee en deux cat´egories : explicite et implicite. La premi`ere signifie que les liens de trace sont directement captur´es en utilisant explicitement une syntaxe concr`ete ad´equate. La tra¸cabilit´e implicite est quant `a elle le r´esultat d’une op´eration de gestion des mod`eles (une requˆete sur des artefacts g´en´er´es par exemple). Un probl`eme r´ecurrent de l’impl´ementation de la tra¸cabilit´e est qu’elle est souvent fortement li´ee `a l’impl´ementation de la transformation, ce qui est probl´ematique dans le cadre de la qualification qui impose de pr´eserver une s´eparation entre l’impl´ementation et la sp´ecification. Pour la qualification, il faut donc fournir des informations pertinentes sans qu’elles soient perdues dans la masse de donn´ees, tout en ayant une tra¸cabilit´e qui soit suffisamment d´ecoupl´ee `a l’impl´ementation, mais donnant une granularit´e interm´ediaire. C’est dans ce contexte que nous nous proposons de travailler, et nous proposons de fournir des outils permettant d’aider `a la qualification de transformations de mod`eles.Deuxi`eme partie Contributions 45Chapitre 4 Transformations de mod`eles par r´e´ecriture Dans ce chapitre, nous expliquons l’approche que nous avons adopt´ee pour mettre en œuvre les transformations de mod`eles. Dans la section 4.1, nous pr´esentons l’aspect hybride de notre approche, les choix li´es ainsi que son int´erˆet. Nous abordons ensuite la probl´ematique de la repr´esentation des mod`eles dans notre approche dans la section 4.2. Nous expliquons dans la section 4.3 les m´ecanismes en jeu pour notre approche de transformation de mod`eles par r´e´ecriture. 4.1 Choix et int´erˆet d’une approche hybride Si le principe de la transformation elle-mˆeme est un principe qui peut sembler classique, car adopt´e par d’autres outils tels que QVT ou ATL, notre environnement de travail est tr`es diff´erent de celui des autres outils, ce qui fait l’originalit´e de notre approche. Comme nous l’avons vu dans le chapitre 2, il existe de multiples approches pour impl´ementer des transformations de mod`eles. L’un des choix possibles est d’opter pour une approche par programmation en utilisant un langage g´en´eraliste tel que Java. On lui adjoint un framework et un ensemble de biblioth`eques pour faciliter la repr´esentation et la manipulation de mod`eles, notamment EMF. Ensuite, la transformation revient `a l’´ecriture d’un programme qui charge un mod`ele en entr´ee et produit un mod`ele en sortie. Cette approche pr´esente certains avantages. Les langages g´en´eralistes sont habituellement plus accessibles `a la plupart des d´eveloppeurs tant par le fait qu’une formation d’informaticien comprend g´en´eralement l’apprentissage de langages g´en´eralistes que par le fait que ces langages suivent des paradigmes de programmation bien identifi´es. En outre, cette plus grande accessibilit´e a aussi pour effet de faciliter le d´eveloppement de communaut´es, ainsi que d’outils d’aide au d´eveloppement (IDE, biblioth`eques, etc.) et de documentation. Ces effets entretiennent alors le cercle vertueux de la facilit´e d’acc`es. A l’oppos´e, il peut ˆetre difficile ou long d’impl´ementer une transformation ` complexe alors qu’un langage d´edi´e proposerait les constructions ad´equates pour ce type de tˆache. Une deuxi`eme possibilit´e est de suivre les recommandations MDA qui encouragent l’utilisation de DSL. Cela a l’avantage d’ˆetre exactement adapt´e `a la tˆache vis´ee. L’inconv´enient est que les DSL ont g´en´eralement une visibilit´e plus limit´ee, avec des communaut´es plus petites et un outillage moins ´etoff´e. De plus, la comp´etence est plus difficile `a trouver ou induit des coˆuts de formation plus ´elev´es. Notre approche est une approche hybride, pour combler le foss´e entre les langages g´en´eralistes et d´edi´es, afin de b´en´eficier du meilleur des deux mondes. Nous proposons d’utiliser le langage Tom pour exprimer des transformations de mod`eles, ce qui nous permet de nous int´egrer dans des langages g´en´eralistes tout en apportant des fonctionnalit´es suppl´ementaires 4748 Chapitre 4. Transformations de mod`eles par r´e´ecriture par ses constructions. Comme pr´esent´e dans le chapitre 1, Tom repose sur le calcul de r´e´ecriture et impl´emente la fonctionnalit´e de strat´egie de r´e´ecriture, ce qui permet de d´ecoupler les r`egles m´etier du parcours des structures de donn´ees. Nous proposons donc de transformer des mod`eles par r´e´ecriture, en nous appuyant sur les strat´egies. Manipulant des termes, il nous faut repr´esenter les mod`eles sous cette forme pour pouvoir les transformer. Nous avons aussi fait le choix d’une int´egration dans un environnement de production pouvant ˆetre consid´er´e comme typique, `a savoir l’´ecosyst`eme Java. De plus, nous avons choisi de travailler dans un premier temps avec une technologie courante et tr`es utilis´ee — EMF — qui devient un standard de fait. Partant de ces choix et de nos contraintes, notre approche consiste `a exprimer un mod`ele EMF sous la forme d’un terme puis `a le transformer par r´e´ecriture. Nous op´erons donc des transformations de mod`eles en changeant d’espace technologique pour pouvoir nous appuyer sur nos m´ethodes et outils d´ej`a ´eprouv´es. Nous d´ecrivons le premier aspect de notre approche — la repr´esentation des mod`eles — dans la section 4.2, puis nous d´etaillons les principes mis en œuvre dans une transformation dans la section 4.3. 4.2 Repr´esentation de mod`eles par une signature alg´ebrique R´e´ecrivant des termes, la premi`ere ´etape de notre approche est d’´elaborer une repr´esentation ad´equate des mod`eles. Compte tenu de ce besoin et de notre approche, nous proc´edons en premier lieu par `a un changement d’espace technologique. Un m´etamod`ele dans le monde des mod`eles correspond `a une signature dans celui des termes, tandis qu’un mod`ele — conforme `a son m´etamod`ele — correspond `a un terme — conforme `a sa signature alg´ebrique —. Lors de ce changement, un aspect a priori probl´ematique de notre repr´esentation sous forme de terme d’un mod`ele vient du fait qu’un terme est une structure arborescente tandis qu’un mod`ele est g´en´eralement vu comme un graphe (un ensemble de nœuds et d’arcs). Une transformation de mod`ele est donc une fonction de transformation de graphe qu’il faut encoder dans notre contexte. L’un des aspects de notre approche est d’op´erer une transformation pr´ealable permettant de consid´erer une transformation de mod`eles comme une transformation de termes. Cela est possible ´etant donn´e que l’on obtient un arbre de recouvrement par la relation de composition, ce qui nous permet d’´etablir une vue ad´equate des mod`eles sous la forme d’un terme. Nous avons donc d´evelopp´e un outil — appel´e Tom-EMF — que nous d´ecrivons techniquement dans le chapitre 6, et qui, pour un m´etamod`ele EMF Ecore donn´e, produit sa signature alg´ebrique Tom correspondante, utilisable dans un programme Tom+Java. Bien que cet outil repose pour le moment sur une technologie particuli`ere, il est tout `a fait possible de l’´etendre ou d’´ecrire un outil similaire adapt´e `a d’autres technologies. Dans notre repr´esentation, pour chaque m´etaclasse, une sorte lui correspond, ainsi qu’un op´erateur. Une m´etaclasse pouvant avoir des attributs et des op´erations, l’op´erateur a les champs correspondants. Les relations sont repr´esent´ees par des attributs simples dans le cas d’associations. Dans le cas de relations de composition, des sortes et op´erateurs variadiques additionnels sont cr´e´es, et un attribut de ce type est ajout´e `a l’op´erateur ayant la relation de composition. Pour illustrer notre propos, consid´erons un m´etamod`ele simple permettant de d´ecrire des graphes (figure 4.1). Un graphe (Graph) est compos´e de Nodes et d’Arcs. Chaque arc a un poids, une source et une cible. Ces extr´emit´es sont de type Node, un Node pouvant avoir plusieurs arcs entrants et sortants. La repr´esentation sous forme de signature alg´ebrique de ce m´etamod`ele est alors donn´ee par le listing 4.1. Les m´etaclasses Graph, Node et Arc ont chacune une sorte qui lui correspond (nous avons conserv´e les mˆeme noms). Un op´erateur — pr´efix´e par op dans l’exemple — est associ´e `a chacune d’entre elles. Les attributs pr´esents dans les m´etaclasses sont bien report´es au niveau des op´erateurs (name et weight). Les relations4.3. Transformation de mod`eles par r´e´ecriture 49 Graph Arc weight : Int Node name : String nodes * graph 1 arcs * graph 1 source 1 * outgoings target 1 * incomings Figure 4.1 – M´etamod`ele des graphes. d’association sont traduites par des param`etres additionnels : l’op´erateur opArc poss`ede ainsi deux param`etres suppl´ementaires source et target. Le cas des relations de composition (relations nodes et arcs) est trait´e par la cr´eation d’op´erateurs variadiques (opNodeList et opArcList dans notre exemple) ainsi que de leurs sortes associ´ees (NodeList et ArcList). Graph = opGraph(nodes:NodeList, arcs:ArcList) Node = opNode(name:String, graph:Graph, incomings:ArcList, outgoings:ArcList) Arc = opArc(weight:Int, graph:Graph, source:Node, target:Node) NodeList = opNodeList(Node*) ArcList = opArcList(Arc*) Listing 4.1 – Signature alg´ebrique correspondant au m´etamod`ele de la figure 4.1. Grˆace `a ce changement d’espace technologique, nous encodons la fonction qui transforme un mod`ele non plus comme une fonction de r´e´ecriture de graphe, mais comme une fonction de r´e´ecriture de termes. 4.3 Transformation de mod`eles par r´e´ecriture Etant en mesure de repr´esenter des mod`eles sous forme de termes, nous pouvons d´ecrire ´ notre approche pour les transformer. Son principe est similaire `a celui de l’approche de QVT et ATL et peut sembler classique dans le domaine des mod`eles. Toutefois, ce n’est pas le cas dans l’environnement dans lequel nous ´evoluons, et plus g´en´eralement dans le domaine des outils de transformation g´en´eralistes d´edi´es aux arbres. Habituellement, `a l’instar d’un compilateur, les outils de transformation d’arbres proc`edent `a des parcours et `a des modifications successives sur un arbre qui est pass´e de phase en phase de l’outil. Dans notre approche, nous d´ecomposons les transformations en deux phases distinctes. La premi`ere est une transformation par parties qui consiste `a cr´eer les ´el´ements cibles du mod`ele r´esultant ainsi que des ´el´ements additionnels que nous appelons ´el´ements resolve, en r´ef´erence au resolve de QVT et au resolveTemp d’ATL. Ces ´el´ements permettent de faire r´ef´erence `a des ´el´ements qui n’ont pas encore ´et´e cr´e´es par la transformation. La seconde phase, quant `a elle, a pour objectif de rendre le mod`ele cible r´esultat coh´erent, c’est-`a-dire conforme au m´etamod`ele cible en ´eliminant les ´el´ements resolve et en les rempla¸cant par des r´ef´erences vers50 Chapitre 4. Transformations de mod`eles par r´e´ecriture les ´el´ements effectivement cr´e´es par la transformation. Cette seconde phase n’ajoute aucun nouvel ´el´ement cible au r´esultat. Pour illustrer notre propos dans ce chapitre, nous nous appuierons sur un exemple visuel permettant de bien comprendre le m´ecanisme de d´ecomposition-r´esolution. Supposons que nous souhaitons transformer une s´equence A;B textuelle en sa forme graphique correspondante comme d´ecrit par la Figure 4.2. Dans cet exemple, le choix des couleurs des connecteurs est arbitraire : nous aurions tr`es bien pu choisir de colorer le cercle en vert et le carr´e en bleu. Supposons donc que ce d´ecoupage est sp´ecifi´e et impos´e. A ;B −→ Figure 4.2 – Transformation du mod`ele source A;B en un mod`ele cible graphique. 4.3.1 Approche compositionnelle Une fois le probl`eme de la repr´esentation des mod`eles r´esolu, il est possible d’instancier un mod`ele (cr´eation d’un terme conforme `a la signature alg´ebrique) et d’op´erer une transformation sur le terme le repr´esentant. L’´ecriture d’une transformation de mod`eles peut se faire par une approche proc´edurale monolithique. L’utilisateur construit la transformation par ´etapes (transformation steps), dont l’ordre s’impose naturellement en fonction des besoins des diff´erents ´el´ements : par exemple, la transformation d´ecrite dans la Figure 4.2 peut se d´ecomposer en trois ´etapes que nous illustrons dans la Figure 4.3. A −→ (a) ; −→ (b) B −→ (c) Figure 4.3 – R`egles de transformation de A, ; et B. La transformation de A (´etape (a)) donne un hexagone et un cercle rouges connect´es, celle de B (´etape (c)) un pentagone et un connecteur bleus, celle de ; (´etape (b)) produit un triangle et un carr´e connect´es verts, ainsi qu’un connecteur suppl´ementaire. Pour qu’un connecteur ou arc puisse ˆetre cr´e´e, il est n´ecessaire de connaˆıtre chaque extr´emit´e. Ainsi, la transformation de A ne pose aucun souci particulier : un seul arc est cr´e´e entre deux ´el´ements cr´e´es (hexagone et cercle) dans cette mˆeme ´etape de transformation. En revanche, la transformation de B en un pentagone est cens´ee aussi construire un arc dont l’une des extr´emit´es (petit carr´e) n’est pas cr´e´ee dans cette ´etape de transformation. Il est donc n´ecessaire que l’´etape de transformation construisant cette deuxi`eme extr´emit´e se d´eroule avant celle produisant l’arc (c). Le carr´e servant de seconde extr´emit´e `a l’arc est construit dans l’´etape de transformation de ; qui devra donc ˆetre ex´ecut´ee avant (c). Nous notons que cette ´etape g´en`ere un autre arc dont l’une des extr´emit´es n’est pas connue dans (b). L’´etape de transformation produisant cette extr´emit´e d’arc qui nous int´eresse (petit cercle) est (a). Il est donc naturel d’ex´ecuter (a) avant (b). Finalement, pour que cette transformation puisse ˆetre ex´ecut´ee sans qu’il n’y ait de probl`eme d’´el´ements manquant, l’utilisateur doit adopter les ´etapes de transformation4.3. Transformation de mod`eles par r´e´ecriture 51 dans l’ordre suivant : (a), puis (b), puis (c). S’il ne respecte pas cet ordre, il sera confront´e au probl`eme de cr´eation d’´el´ements avec des informations manquantes. Cependant, cette approche n’est pas toujours possible, notamment lorsque l’on manipule des structures cycliques. Lorsqu’elle est possible, elle n´ecessite une parfaite expertise ainsi qu’une connaissance globale de la transformation pour ˆetre capable d’organiser les diff´erentes ´etapes. De plus, avec une telle m´ethode une transformation sera g´en´eralement monolithique. Elle sera donc peu g´en´erique et le code peu r´eutilisable, l’encodage du parcours du mod`ele ainsi que les transformations ´etant ad-hoc. G´en´eralement, le parcours du mod`ele sera encod´e par des boucles et de la r´ecursivit´e, et un traitement particulier sera d´eclench´e lorsqu’un ´el´ement donn´e sera d´etect´e. Parcours et traitement seront donc ´etroitement li´es. La moindre modification du m´etamod`ele source ou cible implique donc de repenser la transformation. Nous souhaitons au contraire faciliter le d´eveloppement et la maintenance du code que l’utilisateur ´ecrit pour une transformation, tout en le rendant r´eutilisable pour une autre transformation. Il est donc important d’adopter une m´ethode permettant une grande modularit´e du code. Notre approche est d’op´erer une transformation par parties : il faut d’abord d´ecomposer une transformation complexe en transformations les plus simples (ce que nous nommons transformations ´el´ementaires ou d´efinitions). Chacune d’entre elles est d´ecrite par une r`egle ou un ensemble de r`egles. La transformation globale est ensuite construite en utilisant ces transformations ´el´ementaires. Mais dans ce cas se pose le probl`eme de la d´ependance des d´efi- nitions entre elles, ainsi que de l’utilisation d’´el´ements issus d’une transformation ´el´ementaire dans une autre transformation ´el´ementaire. Ce qui a des cons´equences sur l’ordre d’application des d´efinitions : il peut ˆetre absolument n´ecessaire qu’une partie de la transformation soit effectu´ee pour que les autres ´etapes puissent ˆetre appliqu´ees. De plus, par souci d’utilisabilit´e, nous ne souhaitons pas que l’utilisateur ait besoin de se soucier de l’ordre d’application des transformations ´el´ementaires. Nous souhaitons qu’il se concentre uniquement sur la partie m´etier de la transformation. Il faut donc mettre en œuvre un m´ecanisme permettant de r´esoudre les d´ependances. Dans notre contexte, nous effectuons des transformations dites out-place, ce qui signifie que le mod`ele source n’est pas modifi´e. Le mod`ele cible r´esultant est construit au fur et `a mesure de la transformation, et n’est pas obtenu par modifications successives du mod`ele source — transformation in-place, comme le font les outils VIATRA [VVP02] / VIATRA2 [VB07] et GrGen.NET [JBK10] par exemple. Partant de ce constat, les transformations ´el´ementaires composant notre transformation n’entretiennent aucune d´ependance dans le sens o`u la sortie d’une transformation ´el´ementaire n’est pas l’entr´ee d’une autre transformation ´el´ementaire. Dans notre approche compositionnelle, chaque sortie d’une transformation ´el´ementaire est une partie du r´esultat final. Dans l’exemple, nous conservons la d´ecomposition propos´ee dans la Figure 4.3 en trois r`egles simples. Nous avons d´ecompos´e une transformation complexe en d´efinitions ind´ependantes et nous pouvons les appliquer. Subsiste cependant le probl`eme de l’usage dans une d´efinition d’´el´ements cr´e´es dans une autre d´efinition. Comme l’ordre d’´ecriture et d’application des transformations ´el´ementaires ne doit pas ˆetre une contrainte pour l’utilisateur, nous avons choisi de r´esoudre ce probl`eme par l’introduction d’´el´ements temporaires — ´el´ements dits resolve — qui font office d’´el´ements cibles durant la transformation, et qui sont substitu´es en fin de transformation lors d’une seconde phase. Cette d´enomination fait ´evidemment r´ef´erence au resolve de QVT et au resolveTemp de ATL. Partant du principe que toutes les transformations ´el´ementaires peuvent ˆetre d´eclench´ees ind´ependamment dans n’importe quel ordre (voire en parall`ele), il faut ˆetre en mesure de fournir un ´el´ement cible lorsque le traitement d’une d´efinition le n´ecessite. Nous proposons donc de construire un terme temporaire repr´esentant l’´el´ement final qui a ´et´e ou qui sera construit lors de l’application d’une autre d´efinition. Ce terme doit pouvoir ˆetre int´egr´e dans le mod`ele cible temporaire pour ˆetre manipul´e en lieu et place du terme cibl´e cens´e ˆetre construit dans une autre d´efinition. Il doit donc respecter les contraintes de types du m´etamod`ele cible tout en portant des informations suppl´ementaires telles qu’un identifiant, une r´ef´erence `a l’´el´ement52 Chapitre 4. Transformations de mod`eles par r´e´ecriture source d’origine et une r´ef´erence `a l’´el´ement cible. Nous ´etendons donc le m´etamod`ele cible MMt afin que ces contraintes soient respect´ees et que le mod`ele interm´ediaire r´esultant soit conforme `a un m´etamod`ele cible ´etendu, not´e MMtresolve . Ainsi, tout ´el´ement resolve e i tresolve du mod`ele interm´ediaire enrichi mtresolve sera de type un sous-type de l’´el´ement cibl´e e i t du mod`ele cible mt. Les ´el´ements e i tresolve sont les ´el´ements e i t d´ecor´es d’une information sur le nom de l’´el´ement cible repr´esent´e ainsi que d’une information sur l’´el´ement source dont ils sont issus. En termes de m´etamod`ele (Figure 4.4), pour tout ´el´ement cible e i t — instance d’un ´el´ement Ei t du m´etamod`ele cible MMt — issu d’un ´el´ement source e j s — instance du m´etamod`ele source MMs — et n´ecessitant un ´el´ement resolve e i tresolve durant la transformation, un ´el´ement Ei tresolve est cr´e´e dans le m´etamod`ele ´etendu MMtresolve . Cet ´el´ement h´erite de l’´el´ement cible Ei t . MMs MMtresolve MMt Ej s Ei t Ei tresolve Ei t Figure 4.4 – Sch´ema d’extension du m´etamod`ele cible par l’ajout d’´el´ements interm´ediaires resolve. Cette premi`ere phase produit donc un mod`ele cible non conforme au m´etamod`ele cible MMt de la transformation globale, mais conforme au m´etamod`ele cible ´etendu MMtresolve . Elle peut s’´ecrire sous la forme d’une fonction c : MMs → MMtresolve qui cr´ee des ´el´ements cible `a partir des ´el´ements du mod`ele source. La Figure 4.5 permet d’illustrer le m´ecanisme des ´el´ements resolve. Nous reprenons la Figure 4.3 d´ecrivant les trois d´efinitions composant notre transformation exemple, et nous int´egrons les ´el´ements resolve (repr´esent´es par des formes en pointill´es). Pr´ec´edemment, nous avons vu que nous pouvions appliquer la d´efinition (a) compl`etement ind´ependamment ´etant donn´e qu’elle ne n´ecessite aucun r´esultat ou partie de r´esultat issu d’une autre d´efinition. Cette ´etape ne change donc pas et ne cr´ee aucun ´el´ement r´esolve. La d´efinition (b) n´ecessite en revanche un cercle rouge – normalement cr´e´e dans la d´efinition (a) – pour pouvoir cr´eer un arc. Un ´el´ement dont le type (cercle pointill´e) est sous-type de l’´el´ement cible (cercle) est donc cr´e´e. Nous serons donc par la suite en mesure de manipuler le cercle pointill´e comme un cercle classique et de filtrer sur tous les cercles, en pointill´es ou non. La couleur donn´ee `a un ´el´ement resolve dans la Figure 4.5 permet de repr´esenter l’information de la d´efinition d’origine de l’´el´ement cibl´e par l’´el´ement resolve et donc d’encoder le lien entre les deux ´el´ements. Le mˆeme principe est appliqu´e `a la d´efinition (c) qui n´ecessite un ´el´ement normalement cr´e´e dans la d´efinition (b), d’o`u la g´en´eration d’un ´el´ement de type carr´e pointill´e vert. A −→ (a) ; −→ (b) B −→ (c) Figure 4.5 – R`egles de transformation de A, ; et B effectives avec la construction d’´el´ements resolve (en pointill´es color´es). Durant cette premi`ere phase de transformation par parties, chaque d´efinition a produit un ensemble d’´el´ements tous disjoints, les ´el´ements cens´es provenir d’autres d´efinitions ayant ´et´e repr´esent´es par des ´el´ements resolve.4.3. Transformation de mod`eles par r´e´ecriture 53 Nous encodons les d´efinitions par des strat´egies de r´e´ecriture que nous composons avec d’autres strat´egies. Il en r´esulte une strat´egie plus complexe qui encode cette premi`ere phase de transformation. Dans notre exemple de transformation Text2Picture, nous avons identifi´e trois d´efinitions — (a), (b) et (c) — qui seront encod´ees respectivement par les strat´egies Sa, Sb et Sc. Nous les combinons avec la s´equence et une strat´egie de parcours — TopDown ici — pour former la strat´egie Sphase1 = T opDown(Seq(Sa, Sb, Sc)). 4.3.2 R´esolution - r´econciliation L’application des transformations ´el´ementaires sur le mod`ele source a produit un r´esultat interm´ediaire non conforme au m´etamod`ele cible MMt, car compos´e de plusieurs r´esultats partiels incluant des ´el´ements resolve, comme illustr´e par la Figure 4.6. −→ c A ;B Figure 4.6 – R´esultat interm´ediaire de la transformation, avant phase de r´esolution. Pour obtenir un r´esultat coh´erent conforme au m´etamod`ele cible, il est n´ecessaire d’effectuer un traitement sur ce r´esultat interm´ediaire. C’est ce que nous appelons la phase de r´esolution ou r´econciliation, dont le but est de fusionner des ´el´ements disjoints pour les rendre identiques. Elle consiste `a parcourir le terme r´esultant, `a trouver les ´el´ements temporaires resolve, puis `a reconstruire un terme r´esultat en rempla¸cant ces termes temporaires par les termes qu’ils ´etaient cens´es remplacer. Etant donn´e que toutes les ´ d´efinitions ont ´et´e appliqu´ees, nous sommes certains que l’´el´ement final existe, et qu’il peut se substituer `a l’´el´ement temporaire examin´e. −→ r Figure 4.7 – Phase de r´esolution. Cette phase de r´esolution est elle-mˆeme encod´ee par une strat´egie Sphase2 qui r´e´ecrit un terme-resolve (c’est-`a-dire la repr´esentation d’un mod`ele contenant des ´el´ements interm´ediaires resolve sous la forme d’un terme) en terme cible, conforme `a la signature cible. Ce remplacement est possible grˆace aux informations suppl´ementaires qui enrichissent le type cible ainsi qu’aux informations que nous sauvegardons durant la transformation. Ces informations additionnelles sont des informations sur les relations existant entre les ´el´ements cibles et les ´el´ements sources dont ils sont issus. Elles sont obtenues par le biais d’actions explicites de la part de l’utilisateur : tout terme cr´e´e dans une transformation peut ˆetre trac´e sur demande. C’est ce qu’illustre la Figure 4.8 : les jetons color´es correspondent `a une action explicite de trace d’un terme qui a ´et´e cr´e´e dans la d´efinition. Ainsi, dans cet exemple, l’utilisateur a marqu´e un ´el´ement dans la d´efinition (a) qui correspond `a l’´el´ement cibl´e par l’´el´ement resolve de la d´efinition (b). Il en est de mˆeme avec l’´el´ement de type carr´e des d´efinitions (b) et (c). Une autre approche possible eˆut ´et´e de tracer syst´ematiquement tous les termes cr´e´es, mais nous avons fait ce choix dans le but d’am´eliorer la lisibilit´e de la trace. Toutes ces54 Chapitre 4. Transformations de mod`eles par r´e´ecriture A −→ (a) ; −→ (b) B −→ (c) Figure 4.8 – R`egles de transformation de A, ; et B effectives, avec tra¸cage des ´el´ements correspondant `a un ´el´ement resolve d’une autre d´efinition (token color´e de la couleur du r´esultat d’une d´efinition). informations suppl´ementaires constituent ce que nous appelons le mod`ele de lien. Il maintient tout au long de la transformation des relations entre les ´el´ements sources et les ´el´ements cibles qui en sont issus. Dans ce cas pr´ecis, le tra¸cage des liens a eu un usage purement m´ecanique pour permettre la r´esolution de liens. Cependant, outre cet usage pour la phase de r´esolution, le construction d´edi´ee au marquage de termes et le mod`ele de lien nous permettent d’assurer la tra¸cabilit´e de la transformation `a des fins de v´erification a posteriori. Nous traitons de ce sujet dans le chapitre 5. Ainsi, une transformation T est la compos´ee de deux fonctions c : MMs → MMtresolve et r : MMtresolve → MMt. La transformation compl`ete T : MMs → MMt est donc d´efinie par T = r ◦ c. L’encodage d’une telle fonction dans notre approche est une strat´egie S mettant en s´equence les deux strat´egies repr´esentant chaque phase, qui peut se r´esumer par S = Seq(Sphase1, Sphase2). Outre les avantages ´evoqu´es en d´ebut de chapitre, un des int´erˆets de cette approche compositionnelle reposant sur les strat´egies de r´e´ecriture apparait imm´ediatement : reposant sur les strat´egies de r´e´ecriture, nous b´en´eficions naturellement de la modularit´e intrins`eque `a ce concept que le langage de strat´egies de Tom impl´emente. Il est ainsi possible de r´eutiliser les d´efinitions dans une autre transformation, sans adaptation lourde du code. On pourrait imaginer que la phase de r´esolution devienne bloquante dans ce cas, cependant, comme nous le verrons dans la description de l’impl´ementation de notre approche (chapitre 6), cette phase est g´en´er´ee et peut aussi ˆetre g´en´er´ee sous la forme de plusieurs strat´egies distinctes — plus simples — r´eutilisables dans le cadre d’une autre transformation. 4.4 Validation par un cas d’´etude Pour valider la proposition, nous nous sommes appuy´es sur une ´etude de cas : la transformation SimplePDLToPetriNet. Nous ne rentrons pour le moment pas dans les d´etails et n’expliquons pas pr´ecis´ement les m´etamod`eles des formalismes consid´er´es. Nous pr´eciserons la cas dans le chapitre 5 qui suit, puis nous le d´evelopperons dans son int´egralit´e dans le chapitre 7 avec son impl´ementation. Pour r´esumer cette ´etude de cas, l’objectif est de transformer des processus g´en´eriques d´ecrits dans le formalisme SimplePDL en leur repr´esentation sous la forme de r´eseaux de Petri. Par exemple, la figure 4.9 d´ecrit un processus simple nomm´e root compos´e de deux activit´es : A et B. Ces deux activit´es sont li´ees par une contrainte de pr´ec´edence startToFinish (s2f ). Cela signifie que l’activit´e A doit avoir commenc´e pour pouvoir terminer l’activit´e B. A B s2f root: Figure 4.9 – Exemple de processus SimplePDL.4.4. Validation par un cas d’´etude 55 Ce processus g´en´erique peut s’exprimer sous la forme d’un r´eseau de Petri tel qu’illustr´e par la figure 4.10 suivante. Les places sont repr´esent´ees par des cercles rouges, les transitions par des carr´es bleus et les arcs par des fl`eches. Les fl`eches en pointill´es sont des arcs de synchronisation, celles en trait plein noir sont des arcs normaux cr´e´es dans des diff´erentes d´efinitions, la fl`eche verte est un arc obtenu par la d´efinition transformant la s´equence (qui impose la contrainte de pr´ec´edence). Dans ce r´eseau de Petri, lorsque la premi`ere transition de Proot est franchie, le jeton de la premi`ere place est ajout´e `a la seconde place de Proot. Un jeton est aussi ajout´e aux premi`eres places des r´eseaux A et B, ce qui a pour effet de d´emarrer les tˆaches. La transition tf inish de B ne peut ˆetre franchie que si A a d´emarr´e. Proot A pstarted B tf inish s2f Figure 4.10 – R´eseau de Petri correspondant au processus d´ecrit par la figure 4.9. Cette transformation peut ˆetre d´ecompos´ee en trois d´efinitions. Chacune d’entre elles produit un r´eseau de Petri. Nous les repr´esentons toutes les trois dans la figure 4.11 qui suit (les nœuds en pointill´es sont des ´el´ements interm´ediaires resolve). Dans cette version du cas d’´etude, le m´ecanisme de cr´eation d’´el´ements temporaires resolve est utilis´e dans le cadre de deux d´efinitions, celle qui transforme les WorkDefinitions et celle qui transforme les WorkSequences. Le m´ecanisme de marquage est quant `a lui utilis´e dans la d´efinition qui transforme les Process afin d’effectuer la correspondance avec les ´el´ements Process WorkDefinition WorkSequence ↓ ↓ ↓ Figure 4.11 – Transformations ´el´ementaires composant SimplePDLToPetriNet.56 Chapitre 4. Transformations de mod`eles par r´e´ecriture resolve cr´e´es dans la transformation ´el´ementaire qui prend en entr´ee une WorkDefinition. Des ´el´ements sont aussi trac´es dans cette derni`ere pour assurer la r´esolution avec les ´el´ements interm´ediaires produits dans la d´efinition qui transforme les Worksequences. Nous avons mis en œuvre ce m´ecanisme global de r´esolution que nous d´etaillons techniquement dans le chapitre 6. Le m´ecanisme de marquage (ou tra¸cage) est une forme de tra¸cabilit´e, la tra¸cabilit´e interne (ou technique) qui est ´etroitement li´ee `a l’impl´ementation de la transformation. 4.5 Synth`ese Dans ce chapitre, nous avons pr´esent´e notre approche pour transformer les mod`eles. Elle est hybride ´etant donn´e qu’il ne s’agit pas d’utiliser uniquement un langage g´en´eraliste ou un langage d´edi´e, mais d’avoir une approche interm´ediaire o`u nous int´egrons des constructions d´edi´ees au sein d’un langage g´en´eraliste. Ce proc´ed´e est rendu possible par l’utilisation du langage Tom pr´esent´e dans le chapitre 1 et qui repose sur le calcul de r´e´ecriture. Une telle approche a l’avantage de pouvoir faire b´en´eficier l’utilisateur du meilleur des deux mondes des langages g´en´eralistes et d´edi´es `a la fois. Ainsi, l’utilisateur d´eveloppant une transformation en Tom+Java aura les constructions sp´ecifiques aux transformations de mod`eles tout en conservant l’outillage existant de Java. Nous avons aussi expliqu´e que notre approche se base sur la r´e´ecriture de termes. Compte tenu du fait que nous transformons des mod`eles, notre approche commence par un changement d’espace technologique rendu possible grˆace `a un outil de g´en´eration d’ancrages formels que nous avons d´evelopp´e. Il nous permet de repr´esenter des mod`eles Ecore sous la forme de termes, que nous pouvons ensuite parcourir et transformer avec des strat´egies de r´e´ecriture. Ces strat´egies de r´e´ecriture encodent les transformations ´el´ementaires composant la transformation globale, elle-mˆeme encod´ee par une strat´egie de r´e´ecriture. Dans un but d’accessibilit´e de l’approche et des outils pour les utilisateurs, nous avons choisi de proposer une m´ethode permettant `a l’utilisateur de ne pas avoir `a g´erer l’ordonnancement des pas d’ex´ecution. Notre solution `a ce probl`eme est l’introduction d’´el´ements interm´ediaires dits resolve qui jouent le rˆole d’´el´ements cibles tant que ces derniers ne sont pas cr´e´es. Une transformation selon notre approche est donc compos´ee de deux phases distinctes : la premi`ere o`u les ´el´ements cibles et cibles interm´ediaires sont cr´e´es, et la seconde qui consiste `a r´esoudre les liens, c’est-`a-dire `a supprimer les ´el´ements interm´ediaires et `a remplacer les liens pointant vers eux par des liens vers les ´el´ements cibles qu’ils repr´esentaient.Chapitre 5 Sp´ecification et tra¸cabilit´e des transformations Dans ce chapitre, nous abordons la notion de sp´ecification et de tra¸cabilit´e d’une transformation de mod`eles. Les syst`emes se complexifiant, l’IDM a apport´e des solutions pour faciliter et acc´el´erer le d´eveloppement logiciel. Cependant, si la mani`ere de d´evelopper un logiciel ainsi que les technologies utilis´ees ont chang´e depuis les d´ebuts de l’informatique, les contraintes li´ees `a la maintenance (´evolution du logiciel, d´eboguage) et `a la fiabilit´e (qualification, certification) restent identiques. Ainsi, dans le cadre des transformations qualifiables, nous souhaitons avoir confiance dans les transformations d´evelopp´ees, du point de vue formel (pour la v´erification) ainsi que de celui de l’autorit´e de certification. La norme DO-178/ED-12 exige la tra¸cabilit´e entre le code source et le code objet, c’est donc une probl´ematique essentielle des compilateurs dans le contexte de la qualification. Cette probl´ematique est g´en´eralisable `a toute transformation, notamment aux transformations de mod`eles. En effet, l’ing´enierie dirig´ee par les mod`eles ´etant de plus en plus pr´esente dans les chaˆınes de d´eveloppement de syst`emes critiques, du code g´en´er´e `a partir d’un mod`ele peut faire partie du logiciel final. 5.1 Sp´ecification Dans le chapitre 3, nous avons vu qu’il fallait qualifier les transformations dans le cadre du d´eveloppement de syst`emes critiques. Il est important de sp´ecifier les transformations pour v´erifier leur conformit´e, afin de disposer de la tra¸cabilit´e code source–code objet. Pour cela, nous nous appuyons sur les transformations de mod`eles. Reprenons le cas d’utilisation SimplePDLToPetriNet bri`evement illustr´e dans le chapitre pr´ec´edent et sp´ecifions les mod`eles source et destination ci-apr`es. Le langage SimplePDL dont le m´etamod`ele est donn´e figure 7.1 permet d’exprimer simplement des processus g´en´eriques. Un processus (Process) est compos´e d’´el´ements (ProcessElement). Chaque ProcessElement r´ef´erence son processus parent et peut ˆetre soit une WorkDefinition, soit une WorkSequence. Une WorkDefinition d´efinit une activit´e qui doit ˆetre effectu´ee durant le processus (un calcul, une action, etc.). Une WorkSequence d´efinit quant `a elle une relation de d´ependance entre deux activit´es. La deuxi`eme (successor ) peut ˆetre d´emarr´ee — ou termin´ee — uniquement lorsque la premi`ere (predecessor ) est d´ej`a d´emarr´ee — ou termin´ee — selon la valeur de l’attribut linkType qui peut donc prendre quatre valeurs : startToStart, finishToStart, startToFinish ou finishToFinish. Afin de pouvoir repr´esenter des processus hi´erarchiques, une WorkDefinition peut elle-mˆeme ˆetre d´efinie par un processus imbriqu´e (r´ef´erence process), qui conserve un lien vers l’activit´e qu’il d´ecrit (r´ef´erence from). Le m´etamod`ele donn´e par la figure 5.2 permet d’exprimer les r´eseaux de Petri. Un tel r´eseau se d´efinit par un ensemble de nœuds (Node) qui sont soit des places de type Place, 5758 Chapitre 5. Sp´ecification et tra¸cabilit´e des transformations Process name : String ProcessElement WorkDefinition name : String WorkSequence linkType : WorkSequenceType <> WorkSequenceType startToStart finishToStart startToFinish finishToFinish processElements * parent 1 successor 1 * linksToPredecessors predecessor 1 * linksToSuccessors Figure 5.1 – M´etamod`ele SimplePDL possible. soit des transitions de type Transition, ainsi que par des arcs (Arc). Un arc (orient´e) relie deux nœuds de types diff´erents (le r´eseau de Petri est un graphe biparti) et peut ˆetre de type normal ou read-arc. Il sp´ecifie le nombre de jetons (weight — poids —) consomm´es dans la place source ou produits dans la place cible lorsqu’une transition est tir´ee. Un readarc v´erifie uniquement la disponibilit´e des jetons sans pour autant les consommer (test de franchissement). Le marquage d’un r´eseau de Petri est d´efini par le nombre de jetons dans chaque place (marking). PetriNet name : String Arc kind : ArcKind weight : Int Node name : String Place marking : Int Transition <> ArcKind normal read arc nodes * net 1 arcs * net 1 source 1 * outgoings target 1 * incomings Figure 5.2 – M´etamod`ele des r´eseaux de Petri. 5.2 Tra¸cabilit´e La tra¸cabilit´e est tr`es importante dans le cadre de la maintenance pour pouvoir suivre l’´evolution d’un logiciel et d´etecter des bugs introduits durant le cycle de vie de l’application. C’est un pr´ecieux outil pour l’analyse et la v´erification de transformations, ce qui explique que ce soit une exigence de qualification. La tra¸cabilit´e peut prendre plusieurs formes. Nous distinguons notamment la tra¸cabilit´e interne (autrement appel´ee technique) de la tra¸cabilit´e5.2. Tra¸cabilit´e 59 de sp´ecification. 5.2.1 Tra¸cabilit´e interne La tra¸cabilit´e interne ou technique [Jou05] a un usage purement technique au sein de la transformation. C’est-`a-dire qu’elle est utilis´ee pour op´erer la transformation, mais n’est pas n´ecessairement utile dans le cadre d’un processus de qualification. Dans les approches compositionnelles des transformations comme la nˆotre, il faut mettre en œuvre un m´ecanisme permettant d’assembler les r´esultats partiels. Dans notre cas, si des ´el´ements interm´ediaires resolve sont cr´e´es, il est n´ecessaire de pouvoir les faire correspondre `a des ´el´ements cibles r´eels. Il faut donc pouvoir marquer les ´el´ements susceptibles de correspondre `a un resolve donn´e afin d’assurer la r´ealisation de la phase de r´esolution. Nous avons mis en œuvre cette tra¸cabilit´e dans le cadre de notre approche d´ecrite dans le chapitre 4 et nous la d´ecrivons plus pr´ecis´ement dans le chapitre 6. Nous ne nous attardons donc pas sur cette notion dans ce chapitre. Du fait de son usage, la tra¸cabilit´e technique est ´etroitement li´ee `a l’impl´ementation de la transformation. Elle est difficilement g´en´erique, ce qui peut n´ecessiter de la r´eing´enierie lors d’une ´evolution de la transformation. 5.2.2 Tra¸cabilit´e de sp´ecification La tra¸cabilit´e de sp´ecification est quant `a elle une exigence de qualification. C’est-`a-dire qu’il faut pouvoir lier une source `a une cible selon une sp´ecification donn´ee. Ce type de tra¸cabilit´e n’a pas d’usage technique pour le bon d´eroulement de la transformation elle-mˆeme et n’est pas n´ecessairement li´ee `a l’impl´ementation. La tra¸cabilit´e des transformations de mod`eles ´etant un ´el´ement essentiel dans un cadre industriel, beaucoup de langages l’ont impl´ement´e. Cependant, les langages tels que QVTRelations et ATL proposent une tra¸cabilit´e m´ecanique, mais qui n’est pas substituable `a la tra¸cabilit´e de sp´ecification. En IDM, l’usage de UML est courant et comme nous avons pu le voir dans le chapitre 2, un m´etamod`ele permet de sp´ecifier un langage. Pour exprimer la tra¸cabilit´e dans ce contexte, il est donc naturel d’utiliser des m´etaclasses pour avoir un formalisme coh´erent. On peut alors exprimer simplement la tra¸cabilit´e par le m´etamod`ele 5.3. Trace transfoName : String TraceLink ruleName : String SourceElement TargetElement links * sources 1..* targets 1..* Figure 5.3 – M´etamod`ele g´en´erique de trace. Une Trace concerne une transformation donn´ee nomm´ee. Elle est compos´ee d’un ensemble de relations (ou de liens de trace TraceLink) entre des ´el´ements sources et cibles. Un lien de trace ´etablit une relation entre un ou plusieurs ´el´ements sources (SourceElement) et un ou plusieurs ´el´ements cibles (TargetElement). Une relation de trace est nomm´ee et peut ˆetre consid´er´ee comme une r`egle ayant un membre gauche (source) et en membre droit (cible). Ce m´etamod`ele est g´en´erique afin de donner une intuition. Il doit cependant ˆetre sp´ecifique pour chaque transformation donn´ee. Dans le cas de SimplePDLToPetrinet, SourceElement de la figure 5.3 est remplac´e par les m´etaclasses Process, WorkDefinition et WorkSequence ou alors est leur surtype. Dans le cas d’un framework comme EMF, on peut utiliser EObject.60 Chapitre 5. Sp´ecification et tra¸cabilit´e des transformations Lors de la certification et de la qualification, les sp´ecifications sont cependant tr`es souvent ´ecrites en langue naturelle (fran¸cais ou anglais). Le tˆache de l’expert qualifieur consiste alors `a comparer la sp´ecification textuelle au code du logiciel et aux sorties produites pour des entr´ees donn´ees. Cette tˆache est complexe et fortement sujette `a erreurs du fait du rˆole central que joue l’humain dans ce processus. Tout doit donc ˆetre mis en œuvre pour assister l’expert qualifieur en lui fournissant des ´el´ements de confiance suppl´ementaires. C’est le rˆole des outils et de leurs impl´ementations de la tra¸cabilit´e. Cette trace peut revˆetir diff´erents aspects et n’est pas forc´ement utilisable avec des outils automatiques. Par exemple, l’impl´ementation de la tra¸cabilit´e peut consister en la g´en´eration de commentaires lisibles par un humain. C’est d’ailleurs l’approche adopt´ee par l’outil b2llvm — hors du contexte de l’IDM — qui op`ere une transformation du langage B vers le langage interm´ediaire de LLVM 50. Ces commentaires facilitent la lecture et la compr´ehension du code par l’expert, mais ne sont cependant pas r´eutilisables en tant que tels comme entr´ees d’un outil automatique de v´erification. Un point particuli`erement int´eressant est d’assurer la tra¸cabilit´e d’une transformation en g´en´erant une trace formelle exploitable a posteriori par d’autres outils. L’int´erˆet est alors de permettre de se passer de l’´ecriture d’une preuve formelle — coˆuteuse `a obtenir — tout en conservant une confiance forte dans la transformation. Une telle trace g´en´er´ee lors d’une transformation peut-ˆetre utilis´ee de deux mani`eres : — elle peut ˆetre compar´ee `a une trace de r´ef´erence donn´ee en sp´ecification ; — des propri´et´es donn´ees en sp´ecification peuvent ˆetre v´erifi´ees. Dans le premier cas d’utilisation, le format de la trace doit ˆetre parfaitement sp´ecifi´e afin que, pour une entr´ee et une transformation donn´ees, la trace puisse ˆetre compar´ee `a une trace de r´ef´erence. Cette derni`ere fait alors office de sp´ecification de la transformation. Dans le second cas d’utilisation de la trace, il faut pouvoir exprimer des propri´et´es `a v´eri- fier. Dans le contexte de la mod´elisation, OCL est utilis´e pour d´ecrire des r`egles s’appliquant sur des mod`eles UML. Lors d’une transformation de mod`ele, des pre-conditions peuvent donc ˆetre ´ecrites pour les ´el´ements sources, des post-conditions pour les ´el´ements cibles et des invariants pour les liens de tra¸cabilit´e. Dans notre approche, nous avons propos´e une tra¸cabilit´e de sp´ecification. La transformation par r´e´ecriture pr´esent´ee ´etant une transformation par parties, nous agr´egeons un ensemble de r`egles (d´efinitions) pour obtenir la transformation finale. Chacune de ces d´efinitions est nomm´ee et nous utilisons son nom pour construire le lien de trace lors de la g´en´eration du m´etamod`ele de lien (au temps de compilation). Le membre gauche de nos r`egles constitue la source de chaque lien de trace, tandis que les ´el´ements du membre droit sont les cibles de la relation de trace. Sur action explicite de l’utilisateur, nous ´etablissons une relation un ´el´ement source et ´el´ement cible. Dans sa forme actuelle, notre impl´ementation permet de lier plusieurs cibles `a une seule source (relations 1..N), l’objectif ´etant `a terme d’´etablir des liens entre plusieurs sources et plusieurs cibles (relations N..N). Reprenons le cas de la transformation SimplePDLToPetriNet et choisissons une r`egle comme exemple : Process2PetriNet. Cette r`egle transforme les ´el´ements Process du mod`ele source en un r´eseau de Petri compos´e de trois places (p ready, p running et p f inished), deux transitions (t start et t f inish) et de quatre arcs (ready2start, start2running, running2f inish et f inish2f inished). De cette description textuelle, nous pouvons sp´ecifier la relation liant la source src aux ´el´ements cibles comme suit : Process2PetriNet = { src : Process ; p_ready, p_running, p_finished : Place ; t_start, t_finish : Transition ; ready2start, start2running, running2finish, finish2finished : Arc } 50. Le projet LLVM est une infrastructure de compilateur modulaire et r´eutilisable, voir http://www.llvm. org.5.3. Synth`ese 61 On peut faire de mˆeme avec les relations WorkDefinition2PetriNet et WorkSequence2PetriNet pour compl´eter la sp´ecification. Il est ensuite possible d’exprimer des contraintes sur cette relation, notamment des contraintes de nommage des ´el´ements cibles. Dans notre cas, supposons que l’on impose que le nom d’un ´el´ement cible soit compos´e de deux parties, sur le principe suivant : — le nom de l’´el´ement source lui ayant donn´e naissance en pr´efixe ; — un suffixe pertinent pour d´ecrire l’´el´ement (par exemple ready pour la place p ready). Avec ces conventions, nous pouvons par exemple ´ecrire la contrainte de nommage pour la place p ready peut ˆetre ´ecrite comme suit (concat() est l’op´eration de concat´enation des chaˆınes de caract`eres dans OCL) : p_ready.Name = src.Name.concat(’_’).concat(p_ready.Name); La trace est donc exploitable `a des fins de qualification. 5.3 Synth`ese Nous avons vu qu’on pouvait distinguer deux types de tra¸cabilit´e : interne et de sp´ecification. Nous avons mis en œuvre les deux, la premi`ere ´etant absolument n´ecessaire `a la bonne r´ealisation de notre approche, la seconde ´etant utile pour le d´eveloppement de transformations qualifiables. Nous avons vu dans le chapitre 3.3 que la tra¸cabilit´e est g´en´eralement class´ee en deux cat´egories : implicite et explicite. Un aspect important de notre approche r´eside dans notre choix d’une tra¸cabilit´e explicite, ce qui implique l’introduction d’une syntaxe concr`ete dans le langage pour capturer explicitement les liens de trace. Dans le cas d’un choix implicite, tout doit ˆetre trac´e et il faut pr´evoir un m´ecanisme pour trier et s´electionner les informations pertinentes a posteriori (un syst`eme de requˆete sur la trace g´en´er´ee par exemple). Notre choix pr´esente l’int´erˆet de produire des traces cibl´ees d’une taille plus raisonnable. Elles sont donc exploitables plus facilement a posteriori. Enfin, un autre point int´eressant qui ne peut transparaˆıtre sans aborder la question technique tient au fait de notre environnement technologique hybride. En effet, nous apportons une tra¸cabilit´e au sein d’un langage g´en´eraliste par l’ajout d’une construction d´edi´ee. Dans un environnement homog`ene et parfaitement maˆıtris´e, la difficult´e est lev´ee rapidement, la tra¸cabilit´e pouvant ˆetre assur´ee relativement simplement. En revanche, dans notre contexte, nous sommes `a la fronti`ere de deux mondes que l’utilisateur peut franchir selon ses convenances. Si l’utilisation du langage Tom et la manipulation de termes ne lui conviennent pas, l’utilisateur peut revenir `a un mode de programmation en pur Java, auquel cas nous perdons le contrˆole de cette partie du code. Ajouter la tra¸cabilit´e dans cet environnement devient plus complexe. Nous d´etaillons la mise en œuvre de notre approche dans le chapitre 6. Finalement, notre approche permet un usage a posteriori de la trace g´en´er´ee `a des fins de v´erification dans le cadre de la qualification.62 Chapitre 5. Sp´ecification et tra¸cabilit´e des transformationsChapitre 6 Outils pour exprimer une transformation de mod`eles en Tom Dans ce chapitre, nous traitons de notre contribution au langage Tom et de la mani`ere dont notre approche de transformation de mod`eles par r´e´ecriture est impl´ement´ee. Dans un premier temps, nous donnons le mode op´eratoire concret pour utiliser nos outils en nous appuyant sur l’exemple de transformation vu pr´ec´edemment. Nous pr´esentons ensuite l’extension du langage Tom d´edi´ee aux transformations de mod`eles, puis nous expliquons son impl´ementation technique au sein du compilateur, ainsi que l’impl´ementation du g´en´erateur d’ancrages formels. 6.1 Exemple d’utilisation des outils Cette section pr´esente l’utilisation de nos outils d’un point de vue concret. Nous expliquons le processus d’´ecriture d’une transformation de mod`eles avec eux. Pour cela, nous proposons de nous appuyer sur la transformation de texte en formes g´eom´etriques color´ees pr´esent´ee dans un chapitre pr´ec´edent et que nous rappelons dans la section 6.1.1 ci-apr`es. L’objectif de cette transformation est purement p´edagogique et sert uniquement `a illustrer l’utilisation de nos outils pour ensuite introduire notre extension du langage. Nous ne nous int´eressons donc pas `a sa pertinence ni `a son utilit´e dans le cadre d’un d´eveloppement en contexte industriel. 6.1.1 Exemple support Le principe g´en´eral de cette transformation de mod`ele est de transformer un mod`ele sous forme de texte en une repr´esentation graphique, comme l’illustre la figure 6.1. A ;B −→ Figure 6.1 – Exemple de transformation de texte en formes g´eom´etriques color´ees. 6364 Chapitre 6. Outils pour exprimer une transformation de mod`eles en Tom Les figures 6.2 et 6.3 sont deux m´etamod`eles que nous proposons et auxquels les mod`eles source et cible de la figure 6.1 se conforment respectivement. Text name : String Symbol SemiColon Letter AText BText symbols * letters 1..* right * * linksToLefts left * * linksToRights Figure 6.2 – Un m´etamod`ele pouvant d´ecrire le formalisme textuel (source) utilis´e dans l’exemple support. Un texte (Text) est compos´e de lettres (Letter ) et de symboles (Symbol). Dans notre exemple, les lettres peuvent ˆetre soit des A (AText), soit des B (BText) ; tandis que les symboles sont des points-virgules (SemiColon). Une image GeoPicture est compos´ee de formes (Shape) caract´eris´ees par une couleur (Color, pouvant prendre les valeurs red, green et blue). Shape est abstraite, et plusieurs formes concr`etes en h´eritent (Triangle, Pentagon, Hexagon, Square, Circle). Les formes g´eom´etriques sont reli´ees entre elles par des segments (Segmen).6.1. Exemple d’utilisation des outils 65 GeoPicture name : String Segment Shape color : Color Triangle Pentagon Hexagon Square Circle <> Color red green shapes blue 0..* picture 1 segments 0..* picture 1 outgoings 0..* 1 source 0..* incomings 1 target Figure 6.3 – Un m´etamod`ele pouvant d´ecrire le formalisme graphique (cible) utilis´e dans l’exemple support. 6.1.2 Mode op´eratoire Concr`etement, un utilisateur souhaitant impl´ementer une transformation de mod`ele devra op´erer par ´etapes, obtenues en fonction de l’outil principal `a utiliser : 1. Eclipse : mod´elisation et g´en´eration des structures de donn´ees Java-EMF ; 2. Tom-EMF : g´en´eration des ancrages formels pour repr´esenter les mod`eles comme des termes (passerelle op´erant le changement d’espace technologique) ; 3. Tom+Java : ´ecriture effective de la transformation. Etape 1 : ´ La premi`ere ´etape consiste `a mod´eliser le probl`eme, c’est-`a-dire `a d´efinir les m´etamod`eles source et cible, en utilisant Eclipse ou tout autre outil capable de g´en´erer un m´etamod`ele au format .ecore. Supposons que ces m´etamod`eles source et cible s’appellent respectivement text.ecore et picture.ecore. Depuis ces m´etamod`eles, le g´en´erateur de code de EMF (GenModel) permet de g´en´erer les structures de donn´ees Java correspondantes qui permettent d’instancier et de manipuler les mod`eles. L’utilisateur souhaitant impl´ementer la transformation n’a pas forc´ement besoin de se plonger dans ce code, ´etant donn´e que par la suite il ne manipulera pas directement les mod`eles en Java +EMF, mais plutˆot des termes alg´ebriques. Une fois le code des m´etamod`eles source et cible g´en´er´e, il suffit de l’exporter sous la forme d’archives .jar (par exemple text.jar et picture.jar dans notre cas). Une fois cette op´eration accomplie, Eclipse n’est plus n´ecessaire. Etape 2 : ´ La seconde ´etape de la mise en œuvre d’une transformation consiste `a g´en´erer les ancrages alg´ebriques `a partir de la repr´esentation EMF des m´etamod`eles. Cette ´etape est r´ealis´ee en utilisant un outil nomm´e Tom-EMF. L’utilisateur applique Tom-EMF sur l’archive (ou les archives) en sp´ecifiant le nom complet de l’EPackage (ou des EPackages) concern´e(s).66 Chapitre 6. Outils pour exprimer une transformation de mod`eles en Tom Concr`etement, la commande suivante permet d’effectuer l’op´eration (nous supposons que les archives .jar sont dans le r´epertoire courant not´e . et nous ne les nommons donc pas explicitement : $> emf-generate-mappings -cp . text.TextEPackage picture.PictureEPackage Un m´ecanisme de pr´efixe a aussi ´et´e pr´evu pour r´esoudre les conflits de noms. Nous supposons dans notre exemple qu’il n’y en a pas et que l’utilisateur n’a pas `a sp´ecifier des pr´efixes. La commande pr´ec´edente entraˆıne la g´en´eration de deux fichiers d’ancrages — un par EPackage sp´ecifi´e — nomm´es respectivement text.TextEPackage.tom et picture.PictureEPackage.tom. Dans notre exemple, les types et op´erateurs ne sont pas pr´efix´es. Si l’utilisateur avait choisi de sp´ecifier un pr´efixe, chaque mapping aurait eu un pr´efixe (les types primitifs et Ecore sont exclus). La passerelle permettant d’op´erer le changement d’espace technologique ´etant g´en´er´ee, l’outil Tom-EMF n’est plus utile pour le reste du d´eveloppement. Etape 3 : ´ Il s’agit de l’´ecriture en Tom+Java de la transformation `a proprement parler. Cette ´etape consiste en un d´eveloppement Java classique int´egrant des constructions Tom en son sein, notamment %transformation pour sp´ecifier la transformation. Pour pouvoir manipuler les mod`eles comme des termes alg´ebriques, il est n´ecessaire d’inclure les fichiers d’ancrages que nous venons de g´en´erer avec Tom-EMF. Dans notre exemple, les inclusions (ˆılot formel %include) et la transformation (ˆılot formel %transformation) apparaissent comme illustr´e dans le listing 6.1. 1 ... 2 public class TestText2Picture { 3 ... 4 %include{ text.TextEPackage.tom } 5 %include{ picture.PictureEPackage.tom } 6 ... 7 %transformation Text2Picture(gp:GeoPicture):text.ecore -> picture.ecore { 8 ... 9 definition Letter2Shape traversal ‘TopDown(Letter2Shape(gp)) { 10 AText() -> { ... } 11 BText() -> { ... } 12 } 13 ... 14 definition Symbol2Shape traversal ‘BottomUp(Symbol2Shape(gp)) { 15 SemiColon() -> { ... } 16 } 17 ... 18 } 19 ... 20 public static void main(String[] args) { 21 ... 22 ‘Text2Picture(gp).visit(input_model); 23 ‘TopDown(Resolve(gp)).visit(gp); 24 } 25 ... 26 } Listing 6.1 – Forme g´en´erale de la transformation Text2Picture ´ecrite en Tom+Java.6.2. Extension du langage 67 Dans ce programme, un mod`ele peut ˆetre soit charg´e en utilisant les services EMF (chargement d’un mod`ele s´erialis´e dans un fichier .xmi), soit cr´e´e avec la construction backquote de Tom (‘), comme tout autre terme. Quelle que soit la m´ethode choisie, le mod`ele peut ensuite ˆetre manipul´e en tant que terme. A ce titre, il est possible de filtrer des motifs et d’appliquer ` des strat´egies de r´e´ecriture (donc des transformations Tom). Une fois le d´eveloppement termin´e, le programme doit ˆetre compil´e en deux temps. Il faut proc´eder `a une compilation Tom pour dissoudre les ˆılots formels Tom dans le langage hˆote, puis compiler normalement le code Java g´en´er´e en int´egrant les biblioth`eques g´en´er´ees par EMF. L’ex´ecution du programme est identique `a toute ex´ecution de programme Java. $> tom TestText2Picture.t $> javac -cp ./text.jar:./picture.jar:${CLASSPATH} TestText2Picture.java $> java -cp ./text.jar:./picture.jar:${CLASSPATH} TestText2Picture 6.2 Extension du langage Nous avons vu le mode op´eratoire pour ´ecrire une transformation de mod`eles avec nos outils dans la section pr´ec´edente, sans d´etailler le langage lui-mˆeme. Nous d´ecrivons nos constructions dans cette section. Nous avons vu dans le chapitre 4 que nous d´ecomposons les transformations de mod`eles en transformations ´el´ementaires (Letter2Shape par exemple), encod´ees par des strat´egies de r´e´ecriture. Nous formons ensuite une strat´egie en les composant avec d’autres combinateurs ´el´ementaires tels que Sequence ou TopDown. Nous avons aussi vu que cela constitue la premi`ere phase d’une transformation suivant notre approche et qu’il faut proc´eder `a une seconde phase — r´esolution —, elle aussi encod´ee par une strat´egie de r´e´ecriture. Pour mettre en œuvre la m´ethode g´en´erale de transformation que nous proposons [BCMP12], nous avons ajout´e trois constructions principales au langage Tom : — %transformation pour exprimer une transformation (listing 6.2) ; — %resolve pour int´egrer et cr´eer les ´el´ements resolve (listing 6.3) ; — %tracelink pour assurer la r´esolution des liens ainsi que la tra¸cabilit´e de la transformation (listing 6.4). TransformationConstruct ::= ’%transformation’ TransformationName ’(’[TransformationArguments]’)’ ’:’ FileName ’->’ FileName ’{’ (Definition)+ ’}’ TransformationArguments ::= SubjectName ’:’ AlgebraicType ( ’,’ SubjectName ’:’ AlgebraicType )* Definition ::= ’definition’ DefinitionName ’traversal’ Strategy ’{’ (DefinitionRule)+ ’}’ DefinitionRule ::= Pattern ’->’ ’{’ BlockList ’}’ Listing 6.2 – Syntaxe concr`ete de la construction %transformation. ResolveConstruct ::= ’%resolve’ ’(’ VarName ’:’ TypeName ’,’ VarName ’:’ TypeName ’)’ VarName ::= Identifier TypeName ::= Identifier Listing 6.3 – Syntaxe concr`ete de la construction %resolve. TracelinkConstruct ::= ’%tracelink’ ’(’ VarName ’:’ TypeName ’,’ BackQuoteTerm ’)’ VarName ::= Identifier TypeName ::= Identifier Listing 6.4 – Syntaxe concr`ete de la construction %tracelink.68 Chapitre 6. Outils pour exprimer une transformation de mod`eles en Tom Ces constructions nous permettent d’impl´ementer des transformations avec les caract´eristiques suivantes, selon des crit`eres propos´es par Czarnecki [CH03, CH06] : — r`egles de transformation : une r`egle contient des patterns et des variables, et b´en´eficie de typage. L’application des r`egles peut ˆetre contrˆol´ee par le param´etrage des transformations ´el´ementaires que l’utilisateur averti peut faire varier ; — ordonnancement des r`egles : nos r`egles ne sont pas ordonn´ees ni interactives. Par d´efaut, et si le flot d’ex´ecution n’est pas interrompu (par des instructions du type break ou return), les r`egles sont appliqu´ees sur tous les motifs filtr´es du mod`ele source. Ce comportement peut toutefois ˆetre modifi´e par le param´etrage de la d´efinition en cours via une strat´egie ad-hoc. L’ordre d’´ecriture des d´efinitions et des r`egles n’a pas d’impact sur le r´esultat final ; — d´ecoupage en phases : nos transformations sont constitu´ees de deux phases, l’une pour transformer, l’autre pour r´esoudre les liens ; — sens des r`egles et des transformations : nos r`egles sont unidirectionnelles, nos transformations ne sont pas naturellement bidirectionnelles ; — modularit´e et m´ecanismes de r´eutilisation : nos transformations reposent sur le langage de strat´egies de r´e´ecriture de Tom dont l’une des caract´eristiques est la modularit´e. Si une r`egle ne peut ˆetre directement r´eutilis´ee ailleurs, une d´efinition (un ensemble de r`egles) peut en revanche l’ˆetre ; — relation entre l’entr´ee et la sortie : le mod`ele cible est diff´erent du mod`ele source, mˆeme dans le cas d’une transformation endog`ene (transformation out-place) ; — port´ee de la transformation : tout ou partie du mod`ele peut ˆetre transform´e, en fonction des patterns dans les r`egles d´efinies par l’utilisateur ; — tra¸cabilit´e : durant une transformation, nous maintenons des liens entre les ´el´ements sources et cibles. La syntaxe des nouvelles constructions du langage ainsi que les caract´eristiques des transformations de notre approche ´etant ´etablies, d´etaillons pr´ecis´ement ces constructions. Pour illustrer notre propos, nous nous appuierons sur la transformation propos´ee en exemple pr´ec´edemment. Cette transformation consiste `a transformer le mod`ele texte A;B en une figure constitu´ee de formes g´eom´etriques (figure 6.1). Afin d’illustrer concr`etement l’extension du langage, nous nous appuierons sur l’extrait de code donn´e par le listing 6.5. Les points de suspension d´enotent le fait qu’il est parcellaire dans le but de mettre en avant les nouvelles constructions du langage et de rendre plus lisible l’extrait de code ainsi que son explication. Nous adoptons en outre le code visuel suivant : les nouvelles constructions du langage apparaissent en bleu tandis que le texte soulign´e et color´e marque les correspondances dans la transformation entre les ´el´ements des constructions. Ce code visuel permet de comprendre clairement les relations entre les termes cr´e´es par les nouvelles constructions du langage.6.2. Extension du langage 69 1 %transformation Text2Picture(link:LinkClass, gp:GeoPicture): 2 "text.ecore" -> "picture.ecore" { 3 4 definition Letter2Shape traversal ‘TopDown(Letter2Shape(link,gp)) { 5 source@BText() -> { 6 //use target_right 7 Shape greenSquare = %resolve(source:BText,target_right:Square); 8 Shape bluePentagon = ‘Pentagon(blue()); 9 Segment segment = ‘Segment(bluePentagon, greenSquare); 10 ... 11 } 12 AText() -> { 13 %tracelink(target_left:Circle,‘Circle(red())); //define target_left 14 Shape redHexagon = ‘Hexagon(red()); 15 Segment segment = ‘Segment(redHexagon, target_left); 16 ... 17 } 18 ... 19 } 20 21 definition Symbol2Shape traversal ‘BottomUp(Symbol2Shape(link,gp)) { 22 SemiColon[left=l] -> { 23 Shape greenTriangle = ‘Triangle(green()); 24 %tracelink(target_right:Square,‘Square(green())); //define target_right 25 Segment right_segment = ‘Segment(greenTriangle, target_right); 26 Shape redCircle = %resolve(l:AText,target_left:Circle);//use target_left 27 Segment left_segment = ‘Segment(redCircle, greenTriangle); 28 ... 29 } 30 ... 31 } 32 ... 33 } Listing 6.5 – Extrait de code de la transformation Text2Picture illustrant les nouvelles constructions Tom d´edi´ees aux transformations de mod`eles et correspondant aux transformations pr´esent´ees dans la figure 4.870 Chapitre 6. Outils pour exprimer une transformation de mod`eles en Tom 6.2.1 Expression d’une transformation Une transformation prend un mod`ele source en param`etre et renvoie un mod`ele cible. L’encodant sous la forme d’une strat´egie de r´e´ecriture compos´ee, nous proposons une construction haut niveau g´erant automatiquement sa combinaison. Elle est compos´ee de transformations ´el´ementaires — d´efinitions —, repr´esent´ees par des blocs definition. Une d´efinition op`ere une transformation sur des ´el´ements d’un type unique : deux ´el´ements ayant des types diff´erents (et sans surtype commun) ne peuvent ˆetre transform´es dans une mˆeme d´efinition. Une transformation comporte donc au moins autant de d´efinitions qu’il y a de types d’´el´ements que l’utilisateur souhaite transformer. Chaque d´efinition est constitu´ee d’un ensemble de r`egles de r´e´ecriture compos´ees d’un pattern (membre gauche) ainsi que d’une action (membre droit). Une action est un bloc pouvant contenir du code hˆote et du code Tom. De plus, chaque d´efinition — encod´ee par une strat´egie — est nomm´ee et param´etr´ee par une strat´egie de parcours que l’utilisateur averti peut faire varier. Chacune de ces d´efinitions est ´ecrite sans notion d’ordre par rapport aux autres d´efinitions et elles n’entretiennent aucune d´ependance dans le sens o`u l’entr´ee de l’une n’est pas la sortie d’une autre. La transformation est de type out-place (la source n’est jamais modifi´ee) et la source de chaque d´efinition est le mod`ele source. Le r´esultat de la transformation ne d´epend donc pas de l’ordre d’´ecriture des d´efinitions adopt´e par l’utilisateur. La transformation finale est encod´ee par une strat´egie qui est une s´equence de ces d´efinitions. Dans l’exemple, la transformation nomm´ee Text2Picture est introduite par le lex`eme %transformation (ligne 1). Elle sert `a transformer un mod`ele conforme au m´etamod`ele text.ecore en un mod`ele conforme au m´etamod`ele picture.ecore, ce qui est symbolis´e par les noms de fichiers des deux m´etamod`eles de part et d’autre du lex`eme -> (ligne 2). Cette transformation prend deux arguments : link qui est le mod`ele de lien qui sera peupl´e durant la transformation, et gp qui est le mod`ele cible qui sera construit au fur et `a mesure de l’avanc´ee des pas d’ex´ecution. Cette transformation est constitu´ee d’au moins deux d´efinitions nomm´ees Letter2Shape (ligne 4) et Symbol2Shape (ligne 20). Elles sont toutes deux param´etr´ees par une strat´egie introduite par le mot-clef traversal pouvant ˆetre diff´erente pour chaque d´efinition (bien que cela n’ait pas d’impact dans cet exemple, nous avons utilis´e deux strat´egies diff´erentes — TopDown et BottomUp — pour illustrer cette possibilit´e). C’est cette strat´egie qui est utilis´ee pour appliquer les transformations ´el´ementaires. Il est `a noter que les param`etres de la transformation sont aussi les param`etres de ces strat´egies. Les d´efinitions sont constitu´ees de r`egles de r´e´ecriture `a l’image des strat´egies Tom. Le fait que la d´efinition qui traduit les lettres en formes g´eom´etriques soit ´ecrite avant ou apr`es celle qui transforme les symboles n’a aucune importance. La d´efinition Letter2Shape comprend deux r`egles : l’une pour transformer les ´el´ements de type BText (lignes 5 `a 10) et l’autre pour transformer les ´el´ements de type AText (lignes 11 `a 16). La d´efinition Symbol2Shape est quant `a elle constitu´ee d’une seule r`egle qui transforme les ´el´ements de type SemiColon (lignes 21 `a 28). Une fois d´efinie, une transformation peut ˆetre utilis´ee (appel´ee) comme toute autre strat´egie Tom via la fonction visit(). Seule, la construction %transformation permet d’exprimer la premi`ere phase de la transformation en g´en´erant une strat´egie compos´ee. 6.2.2 R´esolution La seconde phase de la transformation (r´esolution) est exprim´ee grˆace `a deux autres constructions. Pour int´egrer et cr´eer des ´el´ements interm´ediaires resolve, nous avons introduit une nouvelle construction : %resolve (syntaxe donn´ee dans le listing 6.3). Elle permet de cr´eer les termes interm´ediaires pour repr´esenter les ´el´ements cens´es ˆetre cr´e´es dans une autre d´efinition. Cette construction correspond `a une sp´ecialisation de la construction backquote (‘), en ce sens qu’elle cr´ee un terme tout en d´eclenchant un autre traitement, `a savoir la g´en´eration6.2. Extension du langage 71 d’un mapping d´edi´e. La construction %resolve prend deux param`etres : l’´el´ement source en cours de transformation et le nom de l’´el´ement de l’image d’un ´el´ement transform´e dans une autre d´efinition que ce terme est cens´e repr´esenter. Cet ´el´ement transform´e dans une autre d´efinition est quant `a lui marqu´e comme pouvant ˆetre r´esolu via la construction %tracelink (syntaxe donn´ee dans le listing 6.4). Elle est le pendant de %resolve et apparaˆıt obligatoirement dans le code si l’utilisation d’´el´ements interm´ediaires est n´ecessaire. Elle correspond elle aussi `a une sp´ecialisation de la construction backquote : elle permet de cr´eer un terme tout en mettant `a jour la structure de donn´ees qui maintient les liens de tra¸cabilit´e interne (pour la r´esolution). La construction %tracelink prend deux param`etres : le nom du terme marqu´e (accompagn´e de son type) ainsi que le terme lui-mˆeme (terme backquote). Dans notre exemple support, la transformation d’un ´el´ement B en la forme constitu´ee d’un pentagone bleu et d’un connecteur n´ecessite l’introduction d’un ´el´ement resolve. En effet, le connecteur carr´e est cr´e´e dans une autre d´efinition — Symbol2Shape — et nous devons utiliser le m´ecanisme de cr´eation d’´el´ements interm´ediaires resolve. A la ligne 6, nous ` instancions donc un terme resolve qui remplacera temporairement l’´el´ement target_right de l’image de la transformation du symbole SemiColon (;). Outre le fait de jouer le rˆole de placeholder et de pouvoir ˆetre manipul´e comme s’il s’agissait d’un ´el´ement classique du mod`ele cible, l’´el´ement resolve maintient aussi un lien entre l’´el´ement source (b, de type BText) qui a provoqu´e sa cr´eation et la cible repr´esent´ee. Dans notre exemple, ce m´ecanisme est r´eit´er´e dans la d´efinition suivante (ligne 25) et peut ˆetre utilis´e autant de fois que n´ecessaire dans la transformation. 6.2.3 Tra¸cabilit´e Nous avons ´egalement ´etendu le langage afin d’ajouter la tra¸cabilit´e aux transformations. Une possibilit´e eˆut ´et´e de tracer syst´ematiquement les termes cr´e´es, puis de mettre en œuvre un m´ecanisme de requˆete pour retrouver les informations int´eressantes. Cependant, cette approche aurait donn´ee des traces extrˆemement verbeuses et donc peu exploitables. Pour ´eviter cet ´ecueil, nous avons fait le choix d’une tra¸cabilit´e `a la demande, impl´ement´ee par la construction %tracelink dont la syntaxe a ´et´e donn´ee en d´ebut de section dans le listing 6.4. Bien que techniquement impl´ement´ee par un unique lex`eme, la notion de tra¸cabilit´e est double. Ce lex`eme a donc actuellement deux usages — pour deux types de tra¸cabilit´e — `a savoir : — assurer la tra¸cabilit´e interne (ou technique) : pour sp´ecifier les ´el´ements correspondant aux ´el´ements resolve cr´e´es lors de la transformation, afin que la phase de r´esolution puisse effectuer le traitement (nous pouvons parler de resolveLink) ; — assurer la tra¸cabilit´e au sens de la qualification logicielle : construire d’une part le m´etamod`ele de lien `a la compilation de la transformation, et d’autre part peupler la trace `a l’ex´ecution (nous parlons dans ce cas de trace). Quelle que soit la tra¸cabilit´e voulue, nous souhaitons sp´ecifier `a la demande quels sont les ´el´ements que nous cr´eons que nous souhaitons tracer. L’utilisateur doit donc explicitement d´esigner les termes Tom `a tracer. Chaque terme tra¸cable appartenant `a une d´efinition de la transformation, l’´el´ement du mod`ele source dont il est issu est implicite. Du point de vue de l’utilisateur, tracer un terme revient simplement `a utiliser la construction d´edi´ee en sp´ecifiant son nom, son type et en ´ecrivant le terme via la construction backquote. Dans le cadre d’une tra¸cabilit´e interne, la construction correspond au pendant des ´el´ements resolve (resolveLink). La cr´eation d’´el´ements resolve dans la transformation implique alors l’utilisation d’au moins un marquage de ce type. Cette utilisation est celle pr´esent´ee dans la section pr´ec´edente. Dans le cadre d’une tra¸cabilit´e de transformation au sens de la qualification logicielle, la construction de trace peut ˆetre utilis´ee de mani`ere ind´ependante de la construction pour la72 Chapitre 6. Outils pour exprimer une transformation de mod`eles en Tom r´esolution. Une transformation peut donc comporter des constructions de trace sans qu’aucune construction de r´esolution ne soit utilis´ee. Dans notre approche, l’utilisateur ne fournit pas de m´etamod`ele de lien a priori. La construction de trace permet de g´en´erer le m´etamod`ele de lien de la transformation lors de la compilation, c’est-`a-dire de g´en´erer les structures liant sources et cibles en fonction des termes trac´es. A l’ex´ecution, ces structures sont peupl´ees pour ` maintenir les relations entre les sources et les cibles de la transformation. La construction de trace lie un ´el´ement cible cr´e´e `a la source en cours de transformation, ce qui permet d’´etablir un ensemble de relations 1..N (une source associ´ee `a plusieurs cibles). Dans notre exemple support, l’utilisateur a d´ecid´e d’op´erer une trace minimale, c’est-`adire que les ´el´ements trac´es sont ceux qui doivent imp´erativement ˆetre trac´es pour que la r´esolution s’op`ere correctement. C’est donc la tra¸cabilit´e technique qui est essentiellement utilis´ee ici. Les traces sont activ´ees par les lex`emes %tracelink (lignes 12 et 23). Celui de la ligne 23 correspond `a l’´el´ement resolve de la ligne 6 (soulign´e en magenta), tandis que celui de la ligne 12 `a celui de la ligne 25 (soulign´e en noir). L’utilisateur aurait bien ´evidemment pu tracer les autres ´el´ements cr´e´es (par exemple bluePentagon `a ligne 7). Mˆeme si l’usage de %tracelink dans cet exemple fait transparaˆıtre la volont´e de l’utilisateur d’avoir uniquement une tra¸cabilit´e technique, un mod`ele de lien minimal de la transformation est n´eanmoins cr´e´e. La transformation sp´ecifie un mod`ele de lien (link dans notre cas) dans lequel nous stockons les associations ´etablies entre les ´el´ements sources et les ´el´ements cibles trac´es tout au long de la transformation. En fin de transformation, cette trace peut ˆetre s´erialis´ee pour un usage ult´erieur. En exp´erimentant nos outils, nous nous sommes aper¸cus que l’utilisation d’une construction unique pour deux usages distincts pouvait perturber l’utilisateur. Nous projetons donc `a terme de s´eparer cette construction en deux constructions distinctes, chacune adapt´ee `a une des tra¸cabilit´es. 6.3 Travaux d’impl´ementation Les travaux d’impl´ementation pour ´etendre le langage ont concern´e deux parties du projet Tom : d’une part le compilateur Tom, d’autre part l’outil Tom-EMF. Avant de d´etailler la mani`ere dont nous avons mis en œuvre notre extension du projet, nous d´ecrivons l’architecture du projet Tom ainsi que le processus de compilation dans le contexte de Java. Cela nous permettra ensuite d’expliquer comment nous nous sommes int´egr´es dans l’existant. 6.3.1 Architecture du projet Tom et chaˆıne de compilation Le projet Tom s’articule autour de trois outils distincts utilisables ind´ependamment : le compilateur lui-mˆeme, Gom et l’outil de g´en´eration d’ancrages formels Tom-EMF. Le projet Tom comprend aussi un ensemble de biblioth`eques (notamment la biblioth`eque de strat´egies sl, des ancrages alg´ebriques, un outil de conversion DOM XML vers Gom et inverse, une biblioth`eque de bytecode Java, etc.) ainsi que de tr`es nombreux exemples et tests unitaires. La gestion des phases de compilation est assur´ee par la plateforme sur laquelle s’appuient Tom et Gom. L’ensemble du projet compte environ 60 000 lignes de code, r´eparties dans les sous-projets engine (compilateur Tom lui-mˆeme), gom, library, emf, ainsi que platform. L’essentiel du code source est ´ecrit en Tom (+Java) ainsi qu’en Java pur. La Table 6.1 r´esume cette r´epartition par projet et par langage.6.3. Travaux d’impl´ementation 73 Sous-projet Nombre de lignes par langage Total tom gom java ada python engine 20 467 471 2690 - - 23 628 library 15 062 297 2547 2074 1746 21 726 gom 9572 188 1734 - - 11 494 emf 1479 - - - - 1479 platform 416 16 602 - - 1034 Total 46 996 972 7573 2074 1746 59 351 % 79,17% 1,64% 12,76% 3,49% 2,94% 100% Table 6.1 – Nombre de lignes de code dans le projet Tom, par sous-projet et par langage Le langage Tom a ´et´e con¸cu pour ´etendre des langages hˆotes. La chaˆıne de compilation (figure 6.5) a ´et´e pens´ee de mani`ere `a minimiser le code sp´ecifique `a chaque langage hˆote. Le compilateur ne traitant que la partie Tom et n’analysant pas le code hˆote, seules les constructions Tom sont pars´ees puis trait´ees par chaque phase du compilateur, jusqu’`a la compilation `a proprement parler. Durant cette phase, plutˆot que de compiler directement vers le langage cible, Tom compile vers un langage interm´ediaire (IL) qui sert de langage pivot. Les constructions de ce langage sont ensuite traduites dans le langage cible lors de la derni`ere phase de compilation. Ainsi, l’extension `a un nouveau langage passe par l’´ecriture d’un nouveau backend sans forc´ement avoir `a r´e´ecrire ou adapter la chaˆıne compl`ete du compilateur. Nos exemples sont centr´es sur Java ´etant donn´e que son backend est le plus avanc´e. Cependant Tom supporte d’autres langages : Ada, C, Caml, C#, Python. Le tableau 6.2 donne l’impl´ementation des fonctionnalit´es en fonction des backends. Langage Filtrage Ancrages Strat´egies Gom Tom-EMF %transformation Ada X X X × en cours en cours Java X X X X X X C X X × × × × Caml X X × × × × C# X X × × × × Python X X X × × × Table 6.2 – Impl´ementation de fonctionnalit´es de Tom par langage cible. Un programme est ´ecrit en Tom+langage hˆote, accompagn´e d’ancrages pour faire le lien avec les structures de donn´ees hˆotes. Le compilateur analyse les constructions Tom et g´en`ere le code hˆote correspondant qui, coupl´e aux structures de donn´ees hˆotes, constitue un programme ´ecrit dans le langage hˆote que l’on compile avec le compilateur ad´equat. La figure 6.4 explique ce fonctionnement global des outils du projet Tom dans l’environnement Java. La partie haute d´ecrit le processus de compilation d’un programme Tom coupl´e `a Gom, tandis que la partie basse se concentre sur le processus dans le cadre des transformations de mod`eles, c’est-`a-dire en utilisant l’outil Tom-EMF pour g´en´erer les ancrages alg´ebriques. Ces outils peuvent bien ´evidemment ˆetre utilis´es ind´ependamment.74 Chapitre 6. Outils pour exprimer une transformation de mod`eles en Tom Compilateur Tom Tom + Java Ancrages alg´ebriques Gom Signature Gom Structures de donn´ees Java Ancrages alg´ebriques EMF MM .ecore Tom-EMF Java EMF (MM) Code Java Compilateur Java 110010 101110 010100 Figure 6.4 – Diagramme d’activit´e d´ecrivant le processus de compilation d’un programme Tom. Le compilateur Tom se d´ecompose en phases – ´ecrites en Tom+Java – qui sont chaˆın´ees les unes apr`es les autres. Chacune proc`ede `a une transformation bien d´efinie sur l’entr´ee, et fournit une sortie `a la phase suivante. Nous d´ecrivons bri`evement chacune de ces phases ci-apr`es, et nous repr´esentons l’architecture du compilateur Tom avec la figure 6.5. Les blocs marqu´es en traits pointill´es indiquent les phases o`u nos travaux d’impl´ementation se sont essentiellement concentr´es tandis que la phase color´ee ´etait inexistante avant ce travail de th`ese. C’est le cœur de l’impl´ementation permettant de traiter l’extension du langage d´edi´ee aux transformations de mod`eles. transformer Code Tom parser syntax checker desugarer typer type checker expander compiler optimizer backend Code hˆote Compilateur Tom Figure 6.5 – Phases du compilateur Tom. Parser : Le parser produit un arbre de syntaxe abstraite (AST, Abstract-Syntax Tree) `a6.3. Travaux d’impl´ementation 75 partir du code d’entr´ee. Les constructions Tom sont repr´esent´ees par des nœuds particuliers tandis que les blocs de code hˆote sont stock´es dans l’arbre comme des chaˆınes de caract`eres. Dans le cas d’une construction %gom (ou de l’utilisation d’un fichier .gom), l’outil Gom est appel´e et son parser prend le relais pour l’analyse du bloc. Transformer : Le transformer est une phase qui a ´et´e ajout´ee durant cette th`ese afin de traiter les constructions du langage d´edi´ees aux transformations de mod`eles. Il traite en particulier les constructions %transformation, %resolve et %tracelink, les AST issus de ces deux derni`eres ´etant des sous-arbres de l’AST issu de %transformation. La mise en œuvre de cette phase est d´etaill´ee dans la section 6.3.3. Syntax checker : Le syntax checker effectue des v´erifications syntaxiques sur l’AST. Par exemple, il v´erifie que chaque symbole de fonction a ´et´e d´eclar´e et qu’il n’y a pas de d´ependance circulaire entre les conditions de filtrage. Desugarer : Le desugarer simplifie l’AST en transformant les diff´erents types de nœuds repr´esentant des constructeurs de langage hˆote en nœuds g´en´eriques. De plus, les variables anonymes y sont nomm´ees avec des noms frais (noms qui n’ont jamais ´et´e utilis´es pr´ec´edemment). Typer : Le typer effectue l’inf´erence de type et propage les types inf´er´es dans l’AST. Typer checker : Le type checker v´erifie les types et les rangs des symboles. Il v´erifie par exemple que les occurrences d’une mˆeme variable sont du mˆeme type. Expander : L’expander transforme une derni`ere fois l’AST avant la compilation : il traite les nœuds issus des constructions %strategy et g´en`ere les introspecteurs (structures pour parcourir un terme). Compiler : Le compiler transforme les nœuds Tom en instructions du langage interm´ediaire (IL, pour Intermediate Language) qui sert de langage pivot. Optimizer : L’optimizer est responsable de l’optimisation du code ´ecrit dans le langage interm´ediaire. Il limite par exemple le nombre d’assignations de variables. Backend : Le backend est le g´en´erateur de code cible. Durant cette phase, le langage interm´ediaire est traduit en instructions du langage cible. 6.3.2 G´en´erateur d’ancrages alg´ebriques Dans cette partie, nous d´ecrivons techniquement le g´en´erateur d’ancrages formels TomEMF. Il a ´et´e ´ecrit pour r´epondre au besoin de repr´esentation des mod`eles EMF sous la forme de termes Tom. Il est lui-mˆeme ´ecrit en Tom+Java et fonctionne de mani`ere compl`etement ind´ependante de l’extension du langage d´edi´ee aux transformations de mod`eles. Il est utilis´e de mani`ere stand-alone, c’est-`a-dire comme un logiciel `a part enti`ere, ex´ecut´e sans ˆetre appel´e par un programme Tom externe. La figure 6.6 d´ecrit le principe g´en´eral de fonctionnement que nous expliquons ci-apr`es : 1. Eclipse : m´etamod´elisation et g´en´eration des structures java (a) L’utilisateur ´ecrit un m´etamod`ele Ecore manuellement, ou en utilisant les modeling tools de Eclipse ; (b) Il g´en`ere ensuite le g´en´erateur de code Java (GenModel) `a partir de ce m´etamod`ele via Eclipse ; (c) Il g´en`ere ensuite les structures Java correspondantes et les exporte sous la forme d’une archive (.jar) ; 2. Tom-EMF : g´en´eration des ancrages alg´ebriques (a) L’utilisateur charge les structures Java g´en´er´ees et sp´ecifie `a Tom-EMF le(s) EPackage(s) pour le(s)quel(s) il souhaite g´en´erer des ancrages ; (b) Un fichier de mappings (.tom) est g´en´er´e par paquet ;76 Chapitre 6. Outils pour exprimer une transformation de mod`eles en Tom 3. Tom et Java : transformation de mod`eles (a) L’utilisateur inclut les ancrages dans sa transformation via la construction %include et importe les structures de donn´ees Java (import) ; (b) L’utilisateur peut alors utiliser les types apparaissant dans le m´etamod`ele et ´ecrire la transformation en Tom+Java, en utilisant ou non l’extension du langage, d´edi´ee aux transformations de mod`eles ; (c) La suite du processus est identique `a une utilisation classique de Tom (compilation du code Tom, puis du code Java). Compilateur Tom Tom + Java Ancrages alg´ebriques Tom-EMF Structures Java EMF EMF MM .ecore Code Java Compilateur Java 110010 101110 010100 Figure 6.6 – Processus de compilation d’une transformation de mod`eles Tom-EMF. Ce g´en´erateur extrait une signature alg´ebrique utilisable par Tom `a partir du code JavaEMF repr´esentant le m´etamod`ele. Au d´epart en tant que proof of concept, nous avons adapt´e et ´etendu le g´en´erateur d’ancrages Tom-EMF afin de construire un g´en´erateur pleinement op´erationnel d´edi´e aux mod`eles. Compte tenu de la forte utilisation de Java dans le d´eveloppement logiciel ainsi que de celle de Eclipse et de EMF dans la communaut´e de l’ing´enierie dirig´ee par les mod`eles, nous avons fait le choix de nous concentrer dans un premier temps sur ces technologies pour obtenir un outil fonctionnel. Cependant, nous ne nous limitons pas `a ces choix et n’excluons pas une ouverture de Tom-EMF `a d’autres technologies et langages. Notamment, certaines exp´eriences ont ´et´e men´ees dans le but d’´etendre l’outil au langage Ada et au framework GMS. Une autre piste d’extension envisag´ee est l’utilisation de KMF 51. Le d´eveloppement d’une transformation en Java-EMF n´ecessitant de toute mani`ere de g´en´erer la structure de donn´ees du m´etamod`ele pour l’utiliser au sein du programme, nous avons choisi de conserver dans un premier temps ce fonctionnement de g´en´eration de signature alg´ebrique `a partir du code. Cependant, si l’outil devait ˆetre ´etendu `a d’autres langages et technologies, nous pourrions revoir nos choix afin de g´en´erer la signature directement `a partir du m´etamod`ele au format .ecore. 51. Kevoree Modeling Framework : http://www.kevoree.org/kmf6.3. Travaux d’impl´ementation 77 Dans sa forme actuelle, Tom-EMF est en mesure de traiter plusieurs paquetages Ecore (EPackages) en entr´ee, et de g´en´erer un fichier d’ancrages pour chacun d’entre eux. Si des ´el´ements du m´etamod`ele sont utilis´es alors qu’ils appartiennent `a un autre EPackage du m´etamod`ele (ou d’un autre m´etamod`ele charg´e en m´emoire), alors notre g´en´erateur g´en`ere les mappings en cascade, tout en ´evitant la g´en´eration multiple d’un mˆeme paquetage. De la mˆeme mani`ere, cet outil ne g´en`ere les ancrages formels que pour les types qui n’en ont pas d´ej`a. Durant l’op´eration, nous maintenons donc un ensemble d’ancrages g´en´er´es et `a g´en´erer pour les types rencontr´es. Pour chaque EPackage sp´ecifi´e par l’utilisateur, Tom-EMF r´ecup`ere les EClassifiers (surclasse commune de EClass et EDataType permettant de sp´ecifier les types d’op´erations, de structural features et de param`etres) et g´en`ere les ancrages alg´ebriques associ´es. Si le m´etamod`ele sp´ecifie qu’un ´el´ement EClass poss`ede la propri´et´e abstract, l’op´erateur (%op) n’est naturellement pas g´en´er´e. Lorsque la multiplicit´e d’un attribut est strictement sup´erieure `a 1 (structural feature many), le champ de l’op´erateur est un type liste. Un ancrage suppl´ementaire est alors g´en´er´e, accompagn´e de l’op´erateur variadique correspondant. Les associations et compositions sont donc repr´esent´ees de cette mani`ere. Il est `a noter que Tom disposant d’un moteur d’inf´erence de type ´equip´e du sous-typage [KMT09], nous avons int´egr´e cette fonctionnalit´e dans Tom-EMF. Lorsque l’option ad´equate (-nt) est activ´ee, les ancrages g´en´er´es prennent en compte le sous-typage propos´e par Ecore. Si un type n’a pas de surtype explicitement donn´e, le surtype g´en´er´e dans l’ancrage est EObject (le type Object de Ecore) afin de correspondre aux conventions de EMF. Cette fonctionnalit´e de g´en´eration des sous-types est toutefois limit´ee au sous-typage simple : en effet Ecore supporte l’h´eritage multiple, mais pas Java (au niveau des classes). Nous verrons dans la section suivante que la fonctionnalit´e de sous-typage de Tom est utilis´ee en interne par le m´ecanisme de r´esolution (g´en´eration et remplacement des ´el´ements resolve). S’agissant des types issus des m´etamod`eles Ecore ou UML (ainsi que les types dits builtin), ceux-ci sont trait´es `a part (et non en cascade lorsqu’ils apparaissent) ´etant donn´e qu’il s’agit de m´etamod`eles tr`es utilis´es et que leurs types sont souvent inclus dans les transformations. De ce fait, nous diffusons les ancrages pour ces m´etamod`eles en tant que biblioth`eques dans le projet Tom. L’outil Tom-EMF lui-mˆeme est ´ecrit en Tom+Java et utilise ces ancrages Ecore. La premi`ere utilisation de notre g´en´erateur a donc ´et´e pour terminer son bootstrap, ce qui nous a permis de remplacer les ancrages ´ecrits manuellement par des ancrages g´en´er´es, comme l’illustre la figure 6.7. Dans cette figure, les fl`eches en trait plein sont `a comprendre comme des flux d’entr´ee et sortie, tandis que les fl`eches en pointill´es signifient int´egration `a l’outil. Tom-EMF Ecore.tom (manuel) Ecore.jar Ecore.tom Figure 6.7 – Bootstrap de Tom-EMF : remplacement des ancrages alg´ebriques Ecore.tom ´ecrits manuellement par les ancrages g´en´er´es. Tom-EMF g`ere aussi le pr´efixage des noms de types et d’op´erateurs g´en´er´es. En effet, il n’est pas rare de nommer de la mˆeme mani`ere des ´el´ements de m´etamod`eles diff´erents, mais qui n’appartiennent pas aux mˆemes paquetages. Cependant, Tom n’ayant pas de syst`eme d’espaces de noms (namespaces) pour ses types et op´erateurs, nous offrons `a l’utilisateur la possibilit´e de pr´efixer les ancrages g´en´er´es.78 Chapitre 6. Outils pour exprimer une transformation de mod`eles en Tom Enfin, pour rendre compl`etement op´erationnel le pont entre les deux espaces technologiques, Tom-EMF comprend un outil additionnel : EcoreContainmentIntrospector. Il s’agit d’une biblioth`eque permettant le parcours de mod`eles par des strat´egies. Elle repose sur le fait que le mod`ele poss`ede une structure arborescente par la relation de composition et d´e- finit le parcours de mod`eles suivant ces relations. Cette biblioth`eque s’utilise en conjonction des strat´egies (l’utilisateur passe cet introspecteur d´edi´e `a Ecore en param`etre de la strat´egie). Techniquement, cette biblioth`eque sp´ecialis´ee fournit des services n´ecessaires `a Tom pour compter, r´ecup´erer et modifier les enfants d’un nœud d’un terme repr´esentant un mod`ele. 6.3.3 Mise en œuvre de l’extension Dans cette partie, nous d´ecrivons la mise en œuvre de l’extension du langage au sein du compilateur Tom. Lors de l’impl´ementation de constructions d’un langage, plusieurs modifications de la chaˆıne de compilation sont n´ecessaires, de l’analyseur syntaxique au g´en´erateur de code. Dans notre cas, s’agissant de nouvelles constructions avec de nouveaux lex`emes, il fallait ´etendre le parser (d´ebut de chaˆıne) pour pouvoir les reconnaˆıtre. Ensuite, ces constructions entraˆınant la g´en´eration de code qui n’´etait pas encore trait´e par le compilateur, le backend (fin de chaˆıne) a aussi ´et´e ´etendu. Cependant, ces deux tˆaches ne sont pas le cœur de la mise en œuvre de l’extension du langage d´edi´ee aux transformations de mod`eles. En effet, l’essentiel de l’impl´ementation r´eside dans l’ajout d’une nouvelle phase — le transformer — dont la charge est de transformer les nœuds de l’arbre sp´ecialis´e dans la transformation de mod`eles en des strat´egies. A cela s’ajoute la g´en´eration automatique d’ancrages ainsi que celle de la ` trace dont les instructions sont ajout´ees `a l’arbre. Parser. L’aspect inhabituel de l’analyseur syntaxique de Tom r´eside dans le fait qu’il n’analyse pas tout le code, mais uniquement les ˆılots formels. Le code hˆote est quant `a lui vu comme une chaˆıne de caract`eres qui est parcourue jusqu’`a l’ˆılot suivant. Ce type d’analyse o`u la grammaire du langage n’est pas totalement d´efinie est appel´e fuzzy parsing : seule la grammaire de Tom l’est, totalement (on parle de grammaire ˆılot ou island grammar ). L’analyseur syntaxique de Tom repose sur le tr`es populaire g´en´erateur de parser ANTLR 52, ainsi que sur GomAntlrAdapter, un outil du projet permettant de lier les arbres g´en´er´es par ANTLR aux structures Gom. Lorsque le parser principal d´etecte une construction donn´ee, il donne la main `a un parser d´edi´e (Tom ou Gom). Il s’agissait donc d’´etendre ces analyseurs pour mettre en œuvre les nouvelles constructions, en ajoutant de nouvelles r`egles ad´equates dans la grammaire. En parall`ele, la signature de Tom a ´et´e ´etendue afin de prendre en compte ces nouvelles constructions. Transformer. Le cœur de la mise en œuvre de l’extension de Tom d´edi´ee aux transformations de mod`eles se situe au niveau du plugin transformer, juste apr`es l’analyseur syntaxique, et avant la phase de typage. Ce choix de nous ins´erer tˆot dans la chaˆıne de compilation est tout `a fait logique : la seule contrainte forte que nous avions ´etait d’apparaˆıtre avant l’expander — plugin d´edi´e aux strat´egies — et nous souhaitions aussi b´en´eficier au maximum des ´el´ements de contrˆole d´ej`a impl´ement´es dans le compilateur Tom (syntax checker, typer, type checker ). Cette phase prend en entr´ee l’arbre issu de l’analyseur syntaxique et produit un arbre syntaxique ne contenant plus aucun sous-arbre de type Transformation obtenu apr`es parsing de la construction %transformation. Elle est impl´ement´ee de mani`ere classique — du point de vue d’un d´eveloppeur Tom —, `a savoir qu’une strat´egie Tom est appliqu´ee sur l’arbre en entr´ee. Les nœuds de type Resolve et Tracelink obtenus `a partir du parsing des constructions %resolve et %tracelink sont forc´ement des sous-arbres des arbres dont la racine est un nœud Transformation ´etant donn´e que ces constructions sont uniquement utilisables dans le 52. ANother Tool for Language Recognition : http://www.antlr.org6.3. Travaux d’impl´ementation 79 cadre des transformations de mod`eles. En ne manipulant que ces derniers, nous sommes donc en mesure de collecter et traiter tous les nœuds Resolve et Tracelink. Dans le sous-arbre repr´esentant une transformation, nous filtrons les nœuds de type Resolve correspondant aux utilisations de la construction %resolve. Si un tel motif est filtr´e, le m´ecanisme d’enrichissement du m´etamod`ele cible pr´esent´e dans le chapitre 4 est d´eclench´e. Il est alors n´ecessaire de cr´eer d’une part les structures de donn´ees concr`etes repr´esentant les ´el´ements resolve, et d’autre part des ancrages alg´ebriques correspondants. Pour illustrer concr`etement ce m´ecanisme, reprenons l’instruction %resolve(l:AText,target_left:Circle); de l’exemple pr´ec´edent transformant du texte en figure g´eom´etrique. Elle entraˆıne la g´en´eration de la structure Java par le backend, donn´ee dans le listing 6.6 (par souci de lisibilit´e, les noms ont ´et´e simplifi´es et les attributs sont publics). 1 private static class ResolveATextCircle extends Circle { 2 public String name; 3 public AText o; 4 5 public ResolveATextCircle(Circle o, String name) { 6 this.name = name; 7 this.o = o; 8 } 9 } Listing 6.6 – Exemple de classe Java g´en´er´ee impl´ementant un ´el´ement resolve. La classe g´en´er´ee — ici ResolveATextCircle — ´etend naturellement la classe de l’´el´ement cible — Circle dans notre cas — que l’´el´ement resolve est cens´e repr´esenter. Cette classe est associ´ee `a un ancrage et la relation d’h´eritage de Java est exprim´ee par un sous-type dans le mapping d´ecrit dans le listing 6.7. Etant donn´e que ce m´ecanisme a lieu durant le processus ´ de compilation Tom->Java, cet ancrage n’apparaˆıt pas en tant que tel, mais est directement g´en´er´e en m´emoire pour ˆetre traduit en Java par la suite. Le listing 6.7 est n´eanmoins une traduction fid`ele du mapping qui serait ´ecrit en Tom. 1 %typeterm ResolveATextCircle extends Circle { 2 implement { ResolveWorkATextCircle } 3 is_sort(t) { t instanceof ResolveATextCircle } 4 } 5 6 %op Circle ResolveATextCircle(o:AText,name:String) { 7 is_fsym(t) { t instanceof ResolveATextCircle } 8 get_slot(name, t) { t.name } 9 get_slot(o, t) { t.o } 10 make(o,name) { new ResolveATextCircle(o,name) } 11 } Listing 6.7 – Exemple d’ancrage alg´ebrique g´en´er´e pour un ´el´ement resolve. C’est aussi dans le transformer que nous filtrons tous les symboles de type Tracelink. Pour chaque instruction de tra¸cage, le transformer cr´ee (ou r´ecup`ere si elle existe d´ej`a) ce que nous appelons une ReferenceClass. Il s’agit d’une structure de donn´ees permettant de r´ef´erencer les ´el´ements cibles trac´es. En termes d’impl´ementation Java, nous fournissons une interface ReferenceClass extrˆemement simple (listing 6.8) que les structures de donn´ees g´en´er´ees impl´ementent.80 Chapitre 6. Outils pour exprimer une transformation de mod`eles en Tom 1 package tom.library.utils; 2 3 public interface ReferenceClass { 4 public Object get(String name); 5 } Listing 6.8 – Interface devant ˆetre impl´ement´ee par les structures de type ReferenceClass. Ces classes sont essentiellement constitu´ees d’attributs (les r´ef´erences vers les ´el´ements cibles), de leurs m´ethodes d’acc`es (get et set) ainsi que d’une m´ethode permettant d’associer un nom `a un ´el´ement. Le listing 6.9 montre une classe qui serait g´en´er´ee dans le cas de notre exemple de transformation de texte en formes g´eom´etriques. 1 public static class tom__reference_class_Letter2Shape 2 implements tom.library.utils.ReferenceClass { 3 private Circle target_left; 4 public Circle gettarget_left() { return target_left; } 5 public void settarget_left(Circle value) { this.target_left = value; } 6 7 public Object get(String name) { 8 if(name.equals("target_left")) { 9 return gettarget_left(); 10 } else { 11 throw new RuntimeException("This field does not exist:" + name); 12 } 13 } 14 } Listing 6.9 – Exemple de classe g´en´er´ee impl´ementant l’interface ReferenceClass dans le cas de la transformation Text2Picture. Une structure de type ReferenceClass est elle-mˆeme li´ee `a l’´el´ement source filtr´e par la r`egle qui lui a donn´e naissance. Techniquement, cela consiste `a maintenir une table de hachage dont les clefs sont des sources de type EObject et dont les valeurs sont ces structures de donn´ees. Cette table de hachage fait partie int´egrante du mod`ele de lien de la transformation, impl´ement´e par la classe LinkClass (fournie en tant que biblioth`eque avec son ancrage associ´e). Toute d´efinition d’un sous-arbre Transformation est quant `a elle transform´ee en une strat´egie comprenant les r`egles de la d´efinition, accompagn´ee de son symbole. Une strat´egie plus complexe est ensuite compos´ee `a partir de ces strat´egies. Finalement, tout nœud de type Transformation est remplac´e par sa strat´egie nouvellement cr´e´ee ainsi que par une ´eventuelle strat´egie de r´esolution. Backend. En fin de chaˆıne de compilation, au niveau du g´en´erateur de code (backend), le travail a consist´e `a ajouter des fonctions de g´en´eration de la phase de r´esolution ainsi que celles pour le m´etamod`ele de lien qui n’existaient pas auparavant. Ces derni`eres produisent du code similaire `a celui que nous avons montr´e pr´ec´edemment dans les listings 6.8 et 6.9, dans la partie d´ecrivant la m´ecanique du greffon transformer. La mise en œuvre de la g´en´eration de la phase de r´esolution a fait l’objet de nombreuses ´evolutions au cours de ce travail. Nous d´ecrirons son ´etat stable actuel (inclus dans la derni`ere version stable publi´ee : Tom-2.10) ainsi que celui de la prochaine version stable.6.3. Travaux d’impl´ementation 81 La phase de r´esolution ´etant encod´ee sous la forme d’une strat´egie de r´e´ecriture, sa g´en´eration est en partie identique `a la g´en´eration de strat´egies classiques. Cependant, elle se distingue d’elles par le fait qu’il faille aussi ´ecrire une proc´edure suppl´ementaire permettant d’effectuer la r´esolution de liens inverses. Cette proc´edure consiste `a notifier tous les objets du mod`ele ayant un pointeur vers l’objet qui vient d’ˆetre modifi´e pour que ce pointeur pointe vers le nouvel objet et non plus vers l’´el´ement resolve. La figure 6.8 illustre ce m´ecanisme. La figure 6.8a est l’´etat du mod`ele en fin de premi`ere phase. Il est constitu´e d’´el´ements cibles ainsi que d’´el´ements resolve (en pointill´es). Les ´el´ements `a r´esoudre sont d´etect´es et l’´el´ement cible effectif est identifi´e (figure 6.8b). Tous les ´el´ements faisant r´ef´erence `a cet ´el´ement resolve doivent aussi ˆetre mis `a jour. Dans l’exemple, le connecteur entre le pentagone bleu et le carr´e vert r´ef´erence le carr´e vert temporaire. Son extr´emit´e (un pointeur vers l’´el´ement resolve) est mise `a jour pour r´ef´erencer l’´el´ement cible final (figure 6.8c). Une fois la r´esolution de liens inverses effectu´ee, le mod`ele ne comprend plus d’´el´ement resolve (6.8d). (a) (b) (c) (d) Figure 6.8 – Processus de r´esolution de liens inverses. Dans le contexte de EMF, ce traitement peut ˆetre fait en utilisant les services fournis. Dans la strat´egie de r´esolution, nous effectuons donc une r´esolution de liens inverses pour chaque ´el´ement resolve trouv´e et remplac´e. La proc´edure de r´esolution de liens inverses peut ˆetre automatis´ee ; mais d´ependant des types des ´el´ements du mod`ele, elle ne peut ˆetre g´en´erique et doit donc ˆetre g´en´er´ee pour chaque transformation. Pour rendre possible la g´en´eration de ce code additionnel dans les strat´egies, il a ´et´e n´ecessaire de modifier la signature des strat´egies afin de pouvoir embarquer du code suppl´ementaire, ainsi que l’expander. Le backend des strat´egies a ensuite ´et´e adapt´e afin de prendre en compte cette nouveaut´e. Signalons que la phase de r´esolution n’apparaˆıt pas dans l’extrait de code pr´esent´e plus tˆot dans le chapitre. Il ne s’agit pas d’une simplification du code pour les besoins de notre propos, mais bien du fonctionnement normal de nos outils. En effet, la phase de r´esolution est enti`erement g´en´er´ee, en fonction de l’utilisation des constructions %resolve au sein de la transformation. Ainsi, une transformation ne n´ecessitant pas d’´el´ement resolve (donc sans utilisation du lex`eme %resolve) n’a pas de phase de r´esolution. A l’inverse, l’utilisation de la ` construction provoque la g´en´eration du bloc de r´esolution d´edi´e au type trait´e. Dans la version actuellement publi´ee de l’outil (Tom-2.10), cette phase est encod´ee par une unique strat´egie que l’utilisateur n’´ecrit qu’indirectement par l’usage judicieux des constructions de r´esolution. L’application de la strat´egie de r´esolution est n´eanmoins `a la charge de l’utilisateur au sein de son programme. Il doit appeler la strat´egie en l’appliquant sur le mod`ele interm´ediaire cr´e´e lors de la premi`ere phase. Par la suite, nous avons exp´eriment´e notre langage et avons constat´e que l’utilisation intensive des services EMF avait des cons´equences importantes sur les performances de la transformation, tant du point de vue de la m´emoire consomm´ee que du temps. Nous avons donc fait ´evoluer la phase de r´esolution en nous passant des services EMF pour la r´esolution de liens. Dans un premier temps, plutˆot que d’utiliser les m´ethodes EMF, nous avons ´ecrit notre propre m´ethode de r´esolution en ´evitant de parcourir tous les objets du mod`ele comme le fait EMF. Dans un second temps, nous avons ´ecrit une phase de r´esolution sans strat´egie afin de ne plus du tout parcourir le mod`ele interm´ediaire. Pour r´ealiser cette optimisation, nous conservons tout au long de la transformation un ensemble de r´ef´erences inverses pour chaque ´el´ement resolve cr´e´e (les seuls ´el´ements du mod`ele interm´ediaire concern´es par la r´esolution82 Chapitre 6. Outils pour exprimer une transformation de mod`eles en Tom de liens inverses). Nous d´etaillerons l’aspect performances de nos outils dans le chapitre 8. Nous avons aussi exp´eriment´e une version modulaire de la phase de r´esolution. Plutˆot que de g´en´erer une strat´egie monolithique effectuant toute la r´esolution, nous avons ´ecrit une solution alternative g´en´erant plusieurs strat´egies de r´esolution partielle, chacune de ces strat´egies n’effectuant la r´econciliation que sur un type de terme donn´e. Dans notre exemple, cette alternative g´en´ererait deux strat´egies distinctes, ainsi qu’une strat´egie combinant les deux. L’inconv´enient de cette solution est qu’elle est plus complexe `a prendre en main pour l’utilisateur. Cependant, elle a l’avantage d’offrir une plus grande modularit´e en d´ecomposant la seconde phase. Ainsi, le code g´en´er´e pour une d´efinition peut ˆetre r´eutilis´e dans une autre transformation, et l’utilisateur averti prendra soin d’accompagner la d´efinition de la (ou des) strat´egie(s) de r´esolution correspondante(s). Pour des raisons d’utilisabilit´e de nos outils, nous avons fait le choix de diffuser la version du g´en´erateur de phase de r´esolution monolithique dans la version stable de Tom. 6.4 Synth`ese Dans ce chapitre, nous avons d’abord montr´e une utilisation concr`ete de nos outils appliqu´ee sur un exemple simple. Nous avons pr´esent´e l’extension du langage Tom permettant de mettre en œuvre notre approche de transformation. Les trois aspects principaux de cette extension sont : l’expression de la transformation elle-mˆeme, le m´ecanisme de r´esolution et d’extension du m´etamod`ele cible par des ´el´ements temporaires, ainsi que la tra¸cabilit´e. Ces ´el´ements sont respectivement mis en œuvre par les constructions %transformation, %resolve et %tracelink. Nous avons par ailleurs pr´esent´e nos travaux d’impl´ementation ainsi que leur int´egration au sein du projet Tom. Nous avons notamment d´ecrit le g´en´erateur d’ancrages alg´ebriques Tom-EMF permettant d’op´erer le changement d’espace technologique modeles ` → termes. Nous avons de plus expliqu´e comment nous analysions et transformions les sous-arbres issus des nouvelles constructions du langage Tom dans la phase transformer, et quel ´etait le code g´en´er´e par le backend. Nous avons exp´eriment´e nos outils et les premiers retours nous donnent des pistes de travail int´eressantes sur l’usage des technologies externes sur lesquelles le prototype repose, sur le concept de modularit´e d’une transformation (et donc aussi de la r´esolution), mais aussi sur la conception du langage lui-mˆeme (s´eparation explicite des tra¸cabilit´es). Nous reparlerons de ces exp´eriences et des perspectives offertes dans la suite de ce document. Tout au long de ce chapitre, nous nous sommes appuy´es sur l’exemple simple d’une transformation de texte en formes g´eom´etriques color´ees pour expliquer les m´ecanismes en jeu. Nous nous proposons d’´etudier une transformation compl`ete dans le chapitre suivant.Chapitre 7 Etudes de cas : illustration et ´ utilisation du langage Dans ce chapitre, nous pr´esentons un cas d’´etude et expliquons le processus complet ainsi que son impl´ementation, depuis les m´etamod`eles jusqu’au code de la transformation. Dans la section 7.1, nous pr´esentons le cas d’´etude SimplePDLToPetriNet tandis que dans la section 7.2 nous pr´esentons le cas de la transformation de l’aplatissement d’une hi´erarchie de classes. 7.1 Cas SimplePDLToPetriNet Dans cette section, nous pr´esentons la transformation SimplePDLToPetriNet introduite dans les chapitres pr´ec´edents. Elle a ´et´e pr´esent´ee et trait´ee par Benoˆıt Combemale [Com08]. Son principe est de transformer la repr´esentation d’un processus exprim´e avec le langage SimplePDL en sa repr´esentation exprim´ee dans le formalisme des r´eseaux de Petri. L’int´erˆet de cette transformation dans la communaut´e est de travailler sur la v´erification : dans le formalisme SimplePDL, il n’est pas possible de v´erifier directement le processus d´ecrit tandis que sous forme de r´eseau de Petri — qui est un mod`ele math´ematique —, il est tout `a fait possible de l’utiliser avec un model-checker pour en v´erifier des propri´et´es. Nous rappelons d’abord les m´etamod`eles permettant d’exprimer un processus que nous avons d´ej`a pr´esent´es et expliqu´es pr´ec´edemment, puis nous donnons un exemple de processus d´ecrit en SimplePDL ainsi que sa version sous forme de r´eseau de Petri. 7.1.1 M´etamod`eles M´etamod`ele source : formalisme SimplePDL Nous reprenons le m´etamod`ele 5.1 que nous compl´etons afin de pouvoir repr´esenter des processus hi´erarchiques. Nous ajoutons deux relations opposite entre les m´etaclasses WorkDefinition et Process, les autres ´el´ements restant identiques. Une WorkDefinition peut ainsi ˆetre elle-mˆeme d´efinie par un processus imbriqu´e (r´ef´erence process), qui conserve un lien vers l’activit´e qu’il d´ecrit (r´ef´erence from). Nous obtenons le m´etamod`ele illustr´e par la figure 7.1. 8384 Chapitre 7. Etudes de cas : illustration et utilisation du langage ´ Process name : String ProcessElement WorkDefinition name : String WorkSequence linkType : WorkSequenceType <> WorkSequenceType startToStart finishToStart startToFinish finishToFinish processElements * process 0..1 from 0..1 parent 1 successor 1 * linksToPredecessors predecessor 1 * linksToSuccessors Figure 7.1 – M´etamod`ele SimplePDL. M´etamod`ele cible : formalisme des r´eseaux de Petri Nous reprenons le m´etamod`ele des r´eseaux de Petri propos´e dans le chapitre 5, sans aucune modification additionnelle. La figure 7.2 est un rappel du m´etamod`ele des r´eseaux de Petri que nous utilisons. PetriNet name : String Arc kind : ArcKind weight : Int Node name : String Place marking : Int Transition <> ArcKind normal read arc nodes * net 1 arcs * net 1 source 1 * outgoings target 1 * incomings Figure 7.2 – M´etamod`ele des r´eseaux de Petri. 7.1.2 Exemple de processus et de r´eseau de Petri r´esultant Nous d´ecidons de traiter l’instance de SimplePDL suivante : le processus hi´erarchique compos´e d’activit´es et de contraintes de pr´ec´edence illustr´e par la figure 7.3. Dans cet exemple, le processus root est compos´e de deux activit´es, A et B, reli´ees par une s´equence start2start not´ee s2s, ce qui signifie que B peut d´emarrer uniquement si A a d´ej`a d´emarr´e. B est elle-mˆeme d´ecrite par un processus (child) compos´e de deux activit´es, C et D reli´ees par une s´equence finish2start not´ee f2s. Ainsi, C doit ˆetre termin´ee pour que D puisse d´emarrer. Ce processus est conforme au m´etamod`ele SimplePDL donn´e par la figure 7.1. Notre but est de transformer sa repr´esentation actuelle en sa repr´esentation sous forme d’un r´eseau de Petri. La figure 7.4 est le r´esultat attendu pour cette transformation.7.1. Cas SimplePDLToPetriNet 85 A B C D s2s f2s child: root: Figure 7.3 – Exemple de processus d´ecrit dans le formalisme SimplePDL. C pf inished D tstart f2s pready Pchild pf inished B tstart tf inish A pstarted s2s Proot Figure 7.4 – R´eseau de Petri ´equivalent au processus d´ecrit par la figure 7.3. Dans cette figure ainsi que dans la suite du document, nous repr´esentons les places par des cercles rouges, et les transitions par des carr´es bleus. Les arcs de type normal sont mat´erialis´es par des fl`eches en trait plein noires, ou vertes dans le cas du r´esultat de la transformation d’une WorkSequence. Ceux en pointill´es correspondent aux synchronisations entre ´el´ements, c’est-`a-dire aux arcs de type read arc. 7.1.3 Impl´ementation en utilisant les outils d´evelopp´es Les m´etamod`eles ainsi qu’un exemple de mod`ele d’entr´ee et son r´esultat attendu ayant ´et´e pr´esent´es, d´etaillons la transformation, ainsi que sa mise en œuvre avec nos outils. Pour am´eliorer la lisibilit´e — et donc la compr´ehension —, les extraits de code apparaissant dans cette section sont l´eg`erement simplifi´es par rapport `a l’impl´ementation r´eelle qui est donn´ee en annexe A.1. Nous avons notamment supprim´e certains param`etres et modifi´e des noms de variables (ajouts de pr´efixes P et W D par exemple) afin d’extraire l’essentiel du code en tˆachant d’´eviter toute confusion au lecteur. Nous avons aussi conserv´e une coh´erence entre les sch´emas et les extraits de code. Pour transformer le processus d´ecrit par la figure 7.3, on peut ais´ement isoler trois transformations ´el´ementaires qui composent la transformation globale. Chacune d’entre elles transforme un type d’´el´ement du mod`ele source : respectivement Process2PetriNet, WorkDefinition2PetriNet et WorkSequence2PetriNet pour les ´el´ements Process, WorkDefinition et WorkSequence. Ces transformations ´el´ementaires sont impl´ement´ees par des sous-constructions definition. ProcessToPetriNet. Un Process SimplePDL est traduit par un r´eseau de Petri de la forme de celui donn´e par la figure 7.5. Cette transformation ´el´ementaire est impl´ement´ee par la86 Chapitre 7. Etudes de cas : illustration et utilisation du langage ´ d´efinition P2PN donn´ee par le listing 7.1. Ppready source Ptstart Pprunning Ptf inish Ppf inished target Figure 7.5 – R´eseau de Petri r´esultant de la transformation d’un Process. L’image d’un processus est donc constitu´ee de trois places (Ppready , Pprunning et Ppf inished ), deux transitions (Ptstart et Ptf inish ) et quatre arcs. Dans le cas o`u il s’agit d’un processus hi´erarchique, il peut y avoir un arc de synchronisation pointant vers la premi`ere place (Ppready ) et un autre partant de la derni`ere place (Ppf inished ). Techniquement, nous impl´ementons cette transformation ´el´ementaire par une d´efinition comprenant une seule r`egle filtrant tous les ´el´ements Process du mod`ele source (ligne 2). Dans cette r`egle, seul le nom du processus nous importe, nous n’instancions donc que la variable name. Dans le membre droit de la r`egle, les places et arcs de l’image d’un Process sont cr´e´es comme tout terme Tom, en utilisant la construction backquote (lignes 3 `a 5, et 9 `a 12). En revanche, pour cr´eer les deux transitions Pt_start et Pt_finish, nous utilisons la construction %tracelink afin de tracer ces deux ´el´ements (lignes 6 et 7). Notons que ces transitions nouvellement cr´e´ees et trac´ees sont imm´ediatement utilis´ees dans la construction des arcs du r´eseau de Petri. Le bloc de code des lignes 14 `a 23 sert `a la gestion des processus hi´erarchiques : dans un tel cas, un processus poss`ede un processus p`ere qui est une WorkDefinition non null, et il existe un traitement particulier. Il s’agit de cr´eer des ´el´ements resolve par la construction %resolve (lignes 16 et 20) pour jouer le rˆole de transitions cr´e´ees dans une autre d´efinition. En effet, ces deux nœuds sont cens´es ˆetre cr´e´es par la transformation de WorkDefinitions en r´eseaux de Petri. Ils sont repr´esent´es par les deux carr´es bleus aux bords pointill´es sur la figure 7.5. Les deux ´el´ements resolve peuvent ˆetre imm´ediatement utilis´es dans la construction d’autres termes (lignes 18 et 22, arcs en pointill´es sur la figure 7.5) ou avec Java (lignes 17 et 21).7.1. Cas SimplePDLToPetriNet 87 1 definition P2PN traversal ‘TopDown(P2PN(tom__linkClass,pn)) { 2 p@Process[name=name] -> { 3 Place Pp_ready = ‘Place(name+"_ready", 1); 4 Place Pp_running = ‘Place(name+"_running", 0); 5 Place Pp_finished = ‘Place(name+"_finished", 0); 6 %tracelink(Pt_start:Transition, ‘Transition(name+"_start", pn, 1, 1)); 7 %tracelink(Pt_finish:Transition, ‘Transition(name+"_finish", pn, 1, 1)); 8 9 ‘Arc(Pt_start, Pp_ready, pn, ArcKindnormal(), 1); 10 ‘Arc(Pp_running, Pt_start, pn, ArcKindnormal(), 1); 11 ‘Arc(Pt_finish, Pp_running, pn, ArcKindnormal(), 1); 12 ‘Arc(Pp_finished, Pt_finish, pn, ArcKindnormal(), 1); 13 14 WorkDefinition from = ‘p.getFrom(); 15 if (from!=null) { 16 /* WDt_start et WDt_finish : transitions de l’image d’une activit´e que 17 d´ecrit le processus, par exemple B dans la figure 7.4 */ 18 Transition source = %resolve(from:WorkDefinition, WDt_start:Transition); 19 source.setNet(pn); 20 Arc tmpZoomIn = ‘Arc(Pp_ready, source, pn, ArcKindnormal(), 1); 21 22 Transition target = %resolve(from:WorkDefinition, WDt_finish:Transition); 23 target.setNet(pn); 24 Arc tmpZoomOut = ‘Arc(target, Pp_finished, pn, ArcKindread_arc(), 1); 25 } 26 } 27 } Listing 7.1 – P2PN : Code de la d´efinition ProcessToPetriNet WorkDefinitionToPetriNet. Une WorkDefinition SimplePDL est traduite par un r´eseau de Petri de la forme de celui donn´e par la figure 7.6. Cette transformation ´el´ementaire est impl´ement´ee par la d´efinition WD2PN donn´ee dans le listing 7.2. Le r´eseau de Petri r´esultant de cette transformation ´el´ementaire ressemble beaucoup `a celui obtenu par transformation d’un Process. Il se diff´erencie par un arc et une place suppl´ementaires W Dpstarted apr`es la transition W Dtstart . Ces ´el´ements additionnels par rapport `a l’image d’un Process permettent l’ajout d’une s´equence entre deux WorkDefinitions. L’image d’une activit´e est donc constitu´ee de quatre places (W Dpready , W Dprunning et W Dpf inished , W Dpstarted ), deux transitions (W Dtstart et W Dtf inish ) et cinq arcs. Dans le cas o`u il s’agit d’un processus hi´erarchique, deux arcs de synchronisation avec le processus parent sont pr´esents : l’un venant de la transition Ptstart de l’image du processus parent et pointant sur la place W Dpready , l’autre partant de W Dpf inished et pointant sur la transition Ptf inish de l’image du Process parent. Cette d´efinition est impl´ement´ee par le bloc definition WD2PN, comprenant une r`egle similaire `a celle de la d´efinition P2PN, la diff´erence ´etant que nous filtrons des ´el´ements de type WorkDefinition et non plus Process (ligne 2). Les places et les transitions sont cr´e´ees grˆace `a la construction backquote (lignes 3 et 5) ou via %tracelink (lignes 4, 6, 7 et 8). Tous ces termes — trac´es ou non — sont imm´ediatement utilis´es pour construire les arcs du r´eseau de Petri r´esultant (lignes 10 `a 14). En fin de bloc definition (lignes 16 `a 25), les ´el´ements interm´ediaires resolve repr´esent´es dans la figure 7.6 par les deux carr´es bleus avec les bords pointill´es sont cr´e´es (lignes 19 et 23). Ils sont utilis´es respectivement comme source et destination des arcs de synchronisation88 Chapitre 7. Etudes de cas : illustration et utilisation du langage ´ W Dpready parentstart W Dtstart W Dprunning W Dpstarted W Dtf inish W Dpf inished parentf inish Figure 7.6 – R´eseau de Petri r´esultant de la transformation d’une WorkDefinition. avec le processus parent cr´e´es lignes 23 et 27. Le fait de tracer quatre ´el´ements dans cette d´efinition aura pour cons´equence de g´en´erer `a la compilation une ReferenceClass ayant quatre champs correspondants.7.1. Cas SimplePDLToPetriNet 89 1 definition WD2PN traversal ‘TopDown(WD2PN(tom__linkClass,pn)) { 2 wd@WorkDefinition[name=name] -> { 3 Place WDp_ready = ‘Place(name+"_ready", pn, 1); 4 %tracelink(WDp_started:Place, ‘Place(name+"_started", pn, 0)); 5 Place WDp_running = ‘Place(name+"_running", pn, 0); 6 %tracelink(WDp_finished:Place, ‘Place(name+"_finished", pn, 0)); 7 %tracelink(WDt_start:Transition, ‘Transition(name+"_start", pn, 1, 1)); 8 %tracelink(WDt_finish:Transition, ‘Transition(name+"_finish", pn, 1, 1)); 9 10 ‘Arc(WDt_start, WDp_ready, pn, ArcKindnormal(), 1); 11 ‘Arc(WDp_started, WDt_start, pn, ArcKindnormal(), 1); 12 ‘Arc(WDp_running, WDt_start, pn, ArcKindnormal(), 1); 13 ‘Arc(WDt_finish, WDp_running, pn, ArcKindnormal(), 1); 14 ‘Arc(WDp_finished, WDt_finish, pn, ArcKindnormal(), 1); 15 16 SimplePDLSemantics.DDMMSimplePDL.Process parent = ‘wd.getParent(); 17 /* Pt_start et Pt_finish : transitions de l’image d’un processus, par 18 exemple Proot dans la figure 7.4 */ 19 Transition source = %resolve(parent:Process, Pt_start:Transition); 20 source.setNet(pn); 21 Arc tmpDistribute = ‘Arc(WDp_ready, source, pn, ArcKindnormal(), 1); 22 23 Transition target = %resolve(parent:Process, Pt_finish:Transition); 24 target.setNet(pn); 25 Arc tmpRejoin = ‘Arc(target, WDp_finished, pn, ArcKindread_arc(), 1); 26 } 27 } Listing 7.2 – WD2PN : Code de la d´efinition WorkDefinitionToPetriNet WorkSequenceToPetriNet. Une WorkSequence SimplePDL est traduite par un r´eseau de Petri constitu´e d’un arc, comme illustr´e par la figure 7.7. Cette transformation ´el´ementaire est impl´ement´ee par la d´efinition WS2PN donn´ee par le listing 7.3. Dans cette d´efinition, seul un arc est cr´e´e `a partir de l’´el´ement source filtr´e (WorkSequence). Cependant, tout arc ayant deux extr´emit´es et ces deux extr´emit´es ´etant des ´el´ements obtenus lors de l’application d’autres transformations ´el´ementaires, il est n´ecessaire de construire des ´el´ements resolve. Les extr´emit´es de l’arc image d´ependent du type de la WorkSequence filtr´ee. Nous filtrons donc sur linkType (ligne 5) et, compte tenu des r`egles ´ecrites et du fait que Tom donne toutes les solutions possibles du filtrage, nous avons la garantie que pour un type de contrainte de pr´ec´edence donn´e, deux r`egles seront d´eclench´ees (une parmi celles des lignes 6 et 9, l’autre parmi celles des lignes 13 et 16). Apr`es ex´ecution de ce bloc, les variables source et target sont bien initialis´ees et peuvent ˆetre utilis´ees pour construire l’arc image wsImage (ligne 23) de la s´equence filtr´ee.90 Chapitre 7. Etudes de cas : illustration et utilisation du langage ´ source target Figure 7.7 – R´eseau de Petri r´esultant de la transformation d’une WorkSequence. 1 definition WS2PN traversal ‘TopDown(WS2PN(tom__linkClass,pn)) { 2 ws@WorkSequence[predecessor=p,successor=s,linkType=linkType] -> { 3 Place source= null; 4 Transition target= null; 5 %match(linkType) { 6 (WorkSequenceTypefinishToFinish|WorkSequenceTypefinishToStart)[] -> { 7 source = %resolve(p:WorkDefinition, WDp_finished:Place); 8 } 9 (WorkSequenceTypestartToStart|WorkSequenceTypestartToFinish)[] -> { 10 source = %resolve(p:WorkDefinition, WDp_started:Place); 11 } 12 13 (WorkSequenceTypefinishToStart|WorkSequenceTypestartToStart)[] -> { 14 target = %resolve(s:WorkDefinition, WDt_start:Transition); 15 } 16 (WorkSequenceTypestartToFinish|WorkSequenceTypefinishToFinish)[] -> { 17 target = %resolve(s:WorkDefinition, WDt_finish:Transition); 18 } 19 } 20 source.setNet(pn); 21 target.setNet(pn); 22 23 Arc wsImage = ‘Arc(target,source, pn, ArcKindread_arc(), 1); 24 } 25 } Listing 7.3 – WS2PN : Code de la d´efinition WorkSequenceToPetriNet7.1. Cas SimplePDLToPetriNet 91 Transformation globale. Ces blocs definition s’int`egrent dans une transformation Tom+ Java dont la forme g´en´erale du code est donn´ee par le listing 7.4. Le code complet de la transformation est quant `a lui donn´e dans l’annexe A.1 et est directement accessible dans le d´epˆot du projet 53. Notons que cette transformation sert aussi de support pour la documentation sur le site officiel de Tom 54. Expliquons le reste du code de la transformation dans ses grandes lignes : d´ebut : Les points de suspension de la ligne 1 repr´esentent du code java classique (package et import). ancrages : Au sein de la classe SimplePDLToPetriNet, nous notons l’usage de plusieurs constructions %include. Celle de la ligne 3 sert `a charger les ancrages formels de la biblioth`eque de strat´egies, celle de la ligne 4 charge l’ancrage du mod`ele de lien (fourni comme biblioth`eque) et celle de la ligne 5 permet de charger les types Ecore, eux aussi fournis sous la forme d’une biblioth`eque. Les deux ancrages charg´es lignes 7 et 8 ont ´et´e g´en´er´es par Tom-EMF. Le bloc de code suivant montre des d´eclarations de variables et l’´ecriture d’un mapping minimal permettant d’utiliser la classe SimplePDLToPetriNet comme un type Tom. Les points de suspension suivants repr´esentent du code Java (d´eclarations de variables, etc.). transformation : Les trois d´efinitions constituent le corps d’un bloc %transformation (lignes 18 `a 29). Nous avons choisi de les ´ecrire dans l’ordre dans lequel nous les avons pr´esent´ees, cependant nous rappelons que cet ordre n’a aucune importance avec notre approche. main : Nous avons extrait une partie de main(). Avant l’extrait, il s’agit de contrˆoles ainsi que du code permettant de charger un mod`ele ou cr´eer un mod`ele en Tom dans le cas o`u aucun fichier n’est pass´e en param`etre. L’extrait comprend quant `a lui la cr´eation de la strat´egie de transformation (ligne 38) ainsi que son appel (ligne 40). La strat´egie de r´esolution est appel´ee `a la ligne 42. Etant g´en´er´ee, son nom est construit de mani`ere ´ pr´edictible pour l’utilisateur, `a partir du nom de la transformation ainsi que d’un pr´efixe explicite (tom_StratResolve_). La strat´egie appel´ee `a la ligne 44 sert pour l’affichage du r´esultat de la transformation. fin : Le reste du code qui n’est pas montr´e dans le listing 7.4 consiste en des m´ethodes d’affichage et de s´erialisation pour obtenir un r´eseau de Petri compatible avec le format d’entr´ee du model-checker TINA 55 [BRV04]. Usage de cette transformation. Cette transformation ´etant bien connue, elle nous a servi de support pour le d´eveloppement de nos outils. Son int´erˆet ´etant de pouvoir v´erifier formellement des propri´et´es de son r´esultat, nous avons d´epass´e le simple d´eveloppement de la transformation pour v´erifier nos r´esultats. C’est pour cette raison que le mod`ele cible est g´en´er´e par d´efaut au format d’entr´ee de TINA. Cela nous permet de le visualiser et d’en v´erifier des propri´et´es avec le model-checker. Ainsi, nous avons pu exprimer une formule ainsi que des propri´et´es en logique temporelle lin´eaire (LTL) telles que la terminaison. Nous les avons ensuite v´erifi´ees avec TINA sur le r´eseau de Petri r´esultant de la transformation. La formule, les propri´et´es ainsi que les r´esultats sont donn´es en annexe A.4 de ce document. 53. https://gforge.inria.fr/scm/?group_id=78 54. http://tom.loria.fr/wiki/index.php5/Documentation:Playing_with_EMF 55. http://projects.laas.fr/tina92 Chapitre 7. Etudes de cas : illustration et utilisation du langage ´ 1 ... 2 public class SimplePDLToPetriNet { 3 %include{ sl.tom } 4 %include{ LinkClass.tom } 5 %include{ emf/ecore.tom } 6 7 %include{ mappings/DDMMPetriNetPackage.tom } 8 %include{ mappings/DDMMSimplePDLPackage.tom } 9 10 private static PetriNet pn = null; 11 private static LinkClass tom__linkClass; 12 13 %typeterm SimplePDLToPetriNet { implement { SimplePDLToPetriNet }} 14 public SimplePDLToPetriNet() { 15 this.tom__linkClass = new LinkClass(); 16 } 17 ... 18 %transformation SimplePDLToPetriNet(tom__linkClass:LinkClass,pn:PetriNet) : 19 "metamodels/SimplePDL.ecore" -> "metamodels/PetriNet.ecore" { 20 definition P2PN traversal ‘TopDown(P2PN(tom__linkClass,pn)) { 21 /* code du listing 7.1 */ 22 } 23 definition WD2PN traversal ‘TopDown(WD2PN(tom__linkClass,pn)) { 24 /* code du listing 7.2 */ 25 } 26 definition WS2PN traversal ‘TopDown(WS2PN(tom__linkClass,pn)) { 27 /* code du listing 7.3 */ 28 } 29 } 30 31 public static void main(String[] args) { 32 ... 33 SimplePDLToPetriNet translator = new SimplePDLToPetriNet(); 34 Introspector introspector = new EcoreContainmentIntrospector(); 35 // processus `a transformer 36 simplepdl.Process p_root = ‘Process("root", ...); 37 38 Strategy transformer = 39 ‘SimplePDLToPetriNet(translator.tom__linkClass,translator.pn); 40 transformer.visit(p_root, introspector); 41 //Appel de la strat´egie de r´esolution g´en´er´ee 42 ‘TopDown(tom__StratResolve_SimplePDLToPetriNet(translator.tom__linkClass, 43 translator.pn)).visit(translator.pn, introspector); 44 ‘TopDown(Sequence(PrintTransition()),PrintPlace()).visit(translator.pn, 45 introspector); 46 ... 47 } 48 ... 49 } Listing 7.4 – Forme g´en´erale du code de la transformation SimplePDLToPetriNet7.2. Aplatissement d’une hi´erarchie de classes 93 7.2 Aplatissement d’une hi´erarchie de classes Cette deuxi`eme ´etude de cas avait pour but d’´evaluer l’int´erˆet et les limites ´eventuelles des nouvelles constructions int´egr´ees au langage Tom. Il s’agit d’une transformation endog`ene tr`es simple : l’aplatissement d’une hi´erarchie de classes. Nous disposons de classes, dont certaines h´eritent d’autres. Nous souhaitons aplatir cette hi´erarchie en reportant les attributs des surclasses dans les classes qui sont les feuilles de l’arbre hi´erarchique. Nous choisissons aussi de nommer les nouvelles classes reprenant tous les attributs h´erit´es. Les classes qui ne sont pas impliqu´ees dans une relation d’h´eritage ne changent pas. Nous pr´esentons un exemple de transformation dans la section 7.2.1 et le m´etamod`ele dans la section 7.2.2. Pour ´evaluer et comparer, nous avons ´ecrit plusieurs impl´ementations de cet exemple, que nous d´ecrivons dans la section 7.2.3. 7.2.1 Exemple de transformation Nous consid´erons comme mod`ele source la hi´erarchie de classes donn´ee par le membre gauche de la figure 7.8. La classe C poss`ede un attribut attrC de type C et n’est dans aucune hi´erarchie de classes. La classe B est quant `a elle dans une hi´erarchie de classes : elle h´erite de A qui h´erite elle-mˆeme de D, surclasse de toute la hi´erarchie. La classe B a deux attributs attrB1 et attrB2 de types C. Cette transformation aplatit la hi´erarchie et doit donc produire le mod`ele cible illustr´e par le membre droit de la figure 7.8. Il s’agit d’un mod`ele constitu´e de deux classes : la classe C — qui reste inchang´ee par rapport au mod`ele source — ainsi qu’une classe DAB qui rassemble tous les attributs de la hi´erarchie de classe aplatie. C attrC : C D attrD : C A B attrB1 : C attrB2 : C −→ C attrC : C DAB attrD : C attrB1 : C attrB2 : C (a) (b) Figure 7.8 – Aplatissement d’une hi´erarchie de classes. 7.2.2 M´etamod`ele S’agissant d’une transformation endog`ene, le m´etamod`ele source est identique au m´etamod`ele cible. Pour cette transformation, nous utilisons le m´etamod`ele simplifi´e d’UML donn´e par la figure 7.9. Les Classifiers sont des ´el´ements ayant un nom et ´etant de type DataType ou de type Class. Un ´el´ement Class peut avoir des attributs (Attribute), qui sont eux-mˆemes des Classifiers. Dans notre contexte technique, nous avons besoin d’une racine afin d’obtenir un arbre de recouvrement. Nous avons donc ajout´e une racine virtuelle dans le m´etamod`ele — ´el´ement VirtualRoot — qui contient tous les Classifiers (relation de composition).94 Chapitre 7. Etudes de cas : illustration et utilisation du langage ´ VirtualRoot Classifier name : String DataType Class isAbstract : boolean Attribute name : String children 0..* root 1 attributes 0..* type 1 subclass 0..* 0..* superclass Figure 7.9 – M´etamod`ele d’UML simplifi´e. Pour les besoins de l’´etude et afin de simplifier les explications et le d´eveloppement, nous avons consid´er´e une version ´epur´ee du m´etamod`ele illustr´e par la figure 7.10. VirtualRoot Class name : String Attribute name : String children 0..* root 1 attributes 0..* type 1 subclass 0..* 0..* superclass Figure 7.10 – M´etamod`ele consid´er´e pour l’´etude de cas. 7.2.3 Impl´ementation utilisant les outils d´evelopp´es Nous avons impl´ement´e cet exemple de plusieurs mani`eres afin de comparer l’int´erˆet d’utiliser les outils d´evelopp´es durant cette th`ese pour la transformation de mod`eles : 1. La premi`ere version de cette impl´ementation est ´ecrite en pur Java (+EMF), sans l’aide de Tom, des nouvelles constructions et des outils li´es tels que Tom-EMF. Il s’agit d’une version mˆelant r´ecursivit´e et it´eration ; 2. la deuxi`eme version est ´ecrite en Tom+Java mais sans user des strat´egies ni de la nouvelle construction %transformation. En revanche, nous avons utilis´e Tom-EMF pour g´en´erer les mappings ; 3. la troisi`eme impl´ementation est une application de la m´ethode pr´esent´ee dans [BCMP12], `a savoir l’´ecriture d’une transformation en utilisant les strat´egies de r´e´ecriture, mais sans la construction haut niveau %transformation ; 4. la quatri`eme et derni`ere version utilise les outils d´evelopp´es dans le cadre de cette th`ese. Pour des raisons de lisibilit´e, nous faisons uniquement apparaˆıtre des extraits significatifs de code de cette transformation dans cette section. Le code complet des impl´ementations est donn´e dans l’annexe B.1. Version 1 : Java-EMF. L’impl´ementation en Java-EMF d’une telle transformation se r´ev`ele sans v´eritable difficult´e. Le principe est de parcourir les classes du mod`ele source et d’appliquer7.2. Aplatissement d’une hi´erarchie de classes 95 un aplatissement r´ecursif sur celles qui sont les feuilles de l’arbre d’h´eritage. Cette transformation peut ˆetre impl´ement´ee en environ 40 lignes de code, comme le montre le listing 7.5 (code complet en annexe B.1.1). 1 public static VirtualRoot v1_processClass(VirtualRoot root) { 2 org.eclipse.emf.common.util.EList newChildren = 3 new org.eclipse.emf.common.util.BasicEList(); 4 for(Class cl : root.getChildren()) { 5 if(cl.getSubclass().isEmpty()) { 6 newChildren.add(flattening(cl)); 7 } 8 } 9 VirtualRoot result = (VirtualRoot) ClassflatteningFactory.eINSTANCE.create( 10 (EClass)ClassflatteningPackage.eINSTANCE.getEClassifier("VirtualRoot")); 11 result.eSet(result.eClass().getEStructuralFeature("children"), newChildren); 12 return result; 13 } 14 15 public static Class flattening(Class toFlatten) { 16 Class parent = toFlatten.getSuperclass(); 17 if(parent==null) { 18 return toFlatten; 19 } else { 20 Class flattenedParent = flattening(parent); 21 EList head = toFlatten.getAttributes(); 22 head.addAll(flattenedParent.getAttributes()); 23 Class result = (Class)ClassflatteningFactory.eINSTANCE. 24 create((EClass)ClassflatteningPackage.eINSTANCE.getEClassifier("Class")); 25 result.eSet(result.eClass().getEStructuralFeature("name"), flattenedParent.getName()+toFlatten.getName()); 26 result.eSet(result.eClass().getEStructuralFeature("attributes"), head); 27 result.eSet(result.eClass().getEStructuralFeature("superclass"), flattenedParent.getSuperclass()); 28 result.eSet(result.eClass().getEStructuralFeature("subclass"), (new BasicEList()) ); 29 result.eSet(result.eClass().getEStructuralFeature("root"), virtR); 30 return result; 31 } 32 } 33 ... 34 public static void main(String[] args) { 35 ... 36 VirtualRoot translator.virtR = v1_processClass(source_root); 37 ... 38 } Listing 7.5 – Version 1 : Impl´ementation de la transformation d’aplatissement de hi´erarchie de classes en Java. Les pr´e-requis pour cette version de la transformation sont de maˆıtriser Java et de connaˆıtre un minimum EMF afin d’ˆetre en mesure d’´ecrire les appels ad´equats pour cr´eer un ´el´ement. Un d´efaut de cette impl´ementation est la lisibilit´e du code, le langage Java ainsi que le framework EMF ´etant particuli`erement verbeux. Version 2 : Tom+Java-EMF. Pour rem´edier `a ce d´esagr´ement — qui peut devenir un enjeu fort dans le cadre de la maintenance logicielle industrielle — nous avons modifi´e l’impl´ementation initiale avec Tom, afin d’user de ses facilit´es d’´ecriture. L’utilisation de la construction %match (filtrage de motif) ainsi que du backquote (cr´eation et manipulation de termes) permettent notamment d’am´eliorer la lisibilit´e du programme. Le listing 7.6 est le code r´esultant de l’´evolution du pr´ec´edent listing, int´egrant du code Tom simple (le code complet est donn´e dans l’annexe B.1.2). Cet extrait de code est plus concis que la version en pur Java et EMF (moins de 25 lignes pour la transformation elle-mˆeme), mais il est surtout plus lisible. Pour utiliser la construction backquote (‘) comme nous le faisons dans ce listing, des ancrages alg´ebriques sont n´ecessaires. Nous avons bien ´evidemment utilis´e notre g´en´erateur d’ancrages formels Tom-EMF plutˆot que de les ´ecrire manuellement. L’utilisateur n’a donc pas de travail additionnel `a fournir par rapport `a une transformation en pur Java et EMF autre que la commande de g´en´eration (dans96 Chapitre 7. Etudes de cas : illustration et utilisation du langage ´ 1 public static VirtualRoot v2_processClass(VirtualRoot root) { 2 EList children = root.getChildren(); 3 EList newChildren = ‘cfClassEList(); 4 %match(children) { 5 cfClassEList(_*,cl@cfClass(_,_,_,cfClassEList(),_),_*) -> { 6 newChildren = ‘cfClassEList(flattening(cl),newChildren*); 7 } 8 } 9 return ‘cfVirtualRoot(newChildren); 10 } 11 12 public static Class flattening(Class toFlatten) { 13 Class parent = toFlatten.getSuperclass(); 14 if(parent==null) { 15 return toFlatten; 16 } else { 17 Class flattenedParent = flattening(parent); 18 EList head = toFlatten.getAttributes(); 19 head.addAll(flattenedParent.getAttributes()); 20 return ‘cfClass(flattenedParent.getName()+toFlatten.getName(), head, flattenedParent.getSuperclass(), 21 cfClassEList(), virtR); 22 } 23 } 24 ... 25 public static void main(String[] args) { 26 ... 27 VirtualRoot translator.virtR = v2_processClass(source_root); 28 ... 29 } Listing 7.6 – Version 2 : Impl´ementation de la transformation d’aplatissement de hi´erarchie de classes en Tom+Java. la pr´ec´edente version, l’utilisateur doit aussi ´ecrire le m´etamod`ele et g´en´erer le code EMF avec Eclipse). Version 3 : Tom+Java-EMF avec strat´egies. Les strat´egies ´etant un aspect important de Tom, nous ´ecrivons une autre version de cette transformation les utilisant. C’est l’occasion de mettre en œuvre la m´ethode pr´esent´ee dans [BCMP12]. Dans cette nouvelle impl´ementation (extrait dans le listing 7.7, code complet en annexe B.1.3), nous utilisons toujours les ancrages alg´ebriques g´en´er´es par Tom-EMF et nous ajoutons une strat´egie Tom. L’usage des strat´egies avec des mod`eles EMF Ecore implique aussi l’utilisation de l’outil EcoreContainmentIntrospector pr´esent´e dans 6.3.2. Pour rappel, il permet le parcours des mod`eles EMF Ecore vus sous leur forme de termes. Habituellement, l’utilisation des strat´egies Tom simplifie syst´ematiquement et grandement l’´ecriture de code ainsi que sa lisibilit´e, le parcours — trait´e par les biblioth`eques que nous fournissons — ´etant s´epar´e du traitement. Cependant, apr`es ´ecriture et ex´ecution de la transformation, nous nous apercevons que la transformation n’est ni v´eritablement plus courte, ni plus lisible, ni plus efficace que les impl´ementations pr´ec´edentes. C’est en observant plus pr´ecis´ement le m´etamod`ele de notre exemple, la transformation attendue ainsi que l’outil permettant l’utilisation des strat´egies que l’on identifie la raison. Un mod`ele EMF a une racine unique par la relation de composition et peut donc ˆetre repr´esent´e sous la forme d’un arbre, comme nous le faisons dans Tom. La figure 7.11 illustre ce m´ecanisme appliqu´e aux mod`eles sources des deux exemples que nous pr´esentons dans ce chapitre. Dans cette figure, les deux termes sont repr´esent´es de mani`ere classique : la racine est en haut, les feuilles en bas. Un losange noir — le symbole de la relation de composition en mod´elisation — a ´et´e ajout´e `a chaque endroit o`u la relation est une relation de composition, c’est-`a-dire `a chaque relation p`ere-fils. L’arbre est bien un arbre par la relation de composition. Si l’on examine la figure 7.11a, nous nous apercevons que les relations de sa structure correspondent `a celles qui nous int´eressent dans l’exemple, `a savoir les relations de composi-7.2. Aplatissement d’une hi´erarchie de classes 97 1 %strategy FlatteningStrat(translator:UMLClassesFlattening) extends Identity() { 2 visit cfVirtualRoot { 3 cfVirtualRoot(cfClassEList(_*,cl@cfClass(n,_,_,cfClassEList(),_),_*)) -> { 4 EList newChildren = translator.virtR.getChildren(); 5 translator.virtR = ‘cfVirtualRoot(cfClassEList(flattening(cl),newChildren*)); 6 } 7 } 8 } 9 10 public static Class flattening(Class toFlatten) { 11 Class parent = toFlatten.getSuperclass(); 12 if(parent==null) { 13 return toFlatten; 14 } else { 15 Class flattenedParent = flattening(parent); 16 EList head = toFlatten.getAttributes(); 17 head.addAll(flattenedParent.getAttributes()); 18 return ‘cfClass(flattenedParent.getName()+toFlatten.getName(), head, 19 flattenedParent.getSuperclass(), cfClassEList(), null); 20 } 21 } 22 ... 23 public static void main(String[] args) { 24 ... 25 VirtualRoot translator.virtR = ‘cfVirtualRoot(cfClassEList()); 26 Strategy transformer = ‘BottomUp(FlatteningStrat(translator)); 27 transformer.visit(source_root, new EcoreContainmentIntrospector()); 28 ... 29 } Listing 7.7 – Version 3 : Impl´ementation de la transformation d’aplatissement de hi´erarchie de classes en Tom+Java avec strat´egies. P rocessroot W DA W S1 W DB P rocesschild W DC W S2 W DD (a) SimplePDLToPetriNet. V irtualRoot D A B C (b) ClassFlattening. Figure 7.11 – Arbres repr´esentant les mod`eles source des exemples SimplePDLToPetriNet (a) et ClassFlattening (b). tion. En revanche, dans le cas de l’exemple de l’aplatissement d’une hi´erarchie de classes, la relation entre ´el´ements qui nous int´eresse v´eritablement est la relation d’h´eritage, mod´elis´ee par une relation bidirectionnelle subclass–superclass et non par une relation de composition. Nous repr´esentons ces relations « int´eressantes » dans la figure 7.11b par des fl`eches rouges. La seule relation de composition de cet exemple est une relation de composition artificielle que nous avons cr´e´ee (ainsi que l’´el´ement de type VirtualRoot) afin d’avoir une racine et donc de pouvoir ´ecrire ce mod`ele EMF Ecore. Notre outil EcoreContainmentIntrospector descendra98 Chapitre 7. Etudes de cas : illustration et utilisation du langage ´ bien dans les arbres, mais dans le cas du second exemple, il ne servira qu’`a obtenir tous les fils de cette racine virtuelle qui sont `a plat. Ensuite, pour l’aplatissement en lui-mˆeme, nous faisons tout de mˆeme appel `a une fonction flattening() r´ecursive, que nous utilisions ou non des strat´egies. Pass´e ce constat, la derni`ere version de l’impl´ementation reposant elle aussi sur les strat´egies de r´e´ecriture mais avec les nouvelles constructions, nous pouvons supposer qu’elle ne sera pas meilleure (plus lisible, plus concise et plus efficace). Nous constatons effectivement que l’impl´ementation est moins lisible et moins concise, avec une efficacit´e similaire. Diff´erents facteurs permettent d’expliquer ce r´esultat : d’une part, comme pour la version pr´ec´edente, les relations nous int´eressant ne sont pas celles constituant l’arbre de recouvrement, d’autre part, cette transformation est trop simple pour tirer parti de nos outils. Expliquons plus en d´etail cet aspect. Dans cette transformation, nous ne pouvons extraire plusieurs transformations ´el´ementaires. La transformation globale sera donc constitu´ee d’une seule d´efinition, encod´ee par une strat´egie de r´e´ecriture, comme dans la version pr´ec´edente de l’impl´ementation. Ainsi, le gain habituellement apport´e par la construction %transformation est compl`etement absent. Outre ce point, nous constatons qu’aucun ´el´ement en cours de transformation ne n´ecessite le r´esultat d’un autre ´el´ement devant ˆetre transform´e. Il n’y a donc pas besoin d’introduire d’´el´ement resolve dans la transformation. L’un des apports de nos outils ´etant de g´erer l’ordonnancement des pas d’ex´ecution en g´en´erant une strat´egie de r´esolution, son int´erˆet reste limit´e pour cette transformation. Finalement, nous pouvons donc d´eduire de cet exemple que nos outils ne sont pas pleinement adapt´es `a toutes les transformations. Dans ces quatre impl´ementations, la deuxi`eme version semble ˆetre le compromis le plus judicieux. Le g´en´erateur de mappings y joue un rˆole majeur, nous utilisons une partie du langage Tom, en revanche nous nous passons des constructions plus complexes telles que les strat´egies ainsi que les nouvelles constructions int´egr´ees durant cette th`ese. Cependant, les nouvelles constructions pour de tels exemples ne sont pas pour autant inint´eressantes : en effet, si la r´esolution (et sa construction associ´ee %resolve) n’apporte pas de gain, il subsiste le second aspect de nos travaux, `a savoir la tra- ¸cabilit´e. L’utilisation de la construction %tracelink afin de g´en´erer un mod`ele de lien reste possible. Une autre conclusion de l’´etude de cet exemple est que nous avons d´evelopp´e nos outils en visant la couverture d’un grand nombre de transformations, notamment celles o`u les relations de composition sont au cœur. Une perspective serait maintenant de travailler `a l’´elaboration d’outils g´erant d’autres relations ou ´etant plus g´en´eriques. Nous pensons notamment `a des strat´egies de r´e´ecriture que nous pourrions param´etrer par des types de relations `a suivre. 7.3 Synth`ese Dans ce chapitre, nous avons pr´esent´e deux cas d’´etude pour deux objectifs distincts : SimplePDLToPetriNet et UMLHierarchyFlattening. La transformation SimplePDLToPetriNet nous a permis de pr´esenter l’utilisation des outils que nous avons d´evelopp´es durant cette th`ese en d´eroulant compl`etement une transformation. La seconde ´etude de cas nous a permis de donner une premi`ere ´evaluation de nos outils dans un contexte o`u ils ne peuvent donner leur pleine mesure. L’objectif de cette seconde ´etude de cas ´etait de rep´erer les points d’am´elioration de nos outils, tant dans leur mise en œuvre actuelle qu’envisag´ee, et de nous donner de nouvelles perspectives techniques et scientifiques. En effet, si cette ´etude de cas nous a montr´e que nos outils n’´etaient pas tous adapt´es dans toutes les situations, elle nous a permis en revanche de relever un point int´eressant. La relation de composition dans les mod`eles est centrale et se retrouve bien souvent au cœur des transformations de mod`eles. Dans notre contexte, elle nous permet d’avoir la vision arborescente des mod`eles que nous pouvons parcourir. Cependant, pour certaines transformations comme celle d’aplatissement d’une hi´erarchie de classes, la relation d’int´erˆet n’est pas celle de composition. Partant de ce constat, il est int´eressant de7.3. Synth`ese 99 se poser la question de la g´en´eralisation des strat´egies pour les transformations de mod`eles. Une piste est la param´etrisation des strat´egies par le type de relation `a suivre lors de la travers´ee des termes. Dans un premier temps, pour tester la validit´e de ce principe, on pourrait impl´ementer un introspecteur d´edi´e `a d’autres types de relations (h´eritage notamment). Cette extension l`everait la limitation r´ev´el´ee par la seconde ´etude de cas. Ensuite, une seconde question d’int´erˆet serait de travailler sur la possibilit´e de param´etrer dynamiquement une strat´egie : est-il possible de changer le type de lien `a suivre en cours de parcours ? Ce type de m´ecanisme permettrait de d´eclencher localement une strat´egie avec un autre type de parcours, et donc d’adopter une strat´egie de r´e´ecriture en fonction du contexte. Le premier exemple nous a aussi servi de support pour le d´eveloppement de nos outils, et notre confiance en notre impl´ementation de cette transformation ´etant forte, nous nous en sommes aussi servi pour mener des exp´eriences que nous pr´esentons dans le chapitre suivant.100 Chapitre 7. Etudes de cas : illustration et utilisation du langage ´Chapitre 8 R´esultats exp´erimentaux Dans ce chapitre, nous pr´esentons des r´esultats exp´erimentaux obtenus avec nos outils, notamment leurs performances. Nous discutons notre approche et nos choix technologiques, leur int´erˆet, ainsi que les limitations et perspectives de notre impl´ementation technique. Nous avons tent´e d’´evaluer nos outils afin d’am´eliorer les points limitants et de parfaire nos points forts par rapport `a d’autres outils tels qu’ATL ou d’autres outils de transformation utilisant des strat´egies de r´e´ecriture. 8.1 Utilisabilit´e Compte tenu du fait qu’un de nos objectifs ´etait de simplifier le processus de d´eveloppement pour les utilisateurs, un premier aspect de notre ´evaluation concerne l’utilisabilit´e de nos outils. Fortement d´ependant du contexte et de l’utilisateur, ce crit`ere est difficilement mesurable et quantifiable. Nous pouvons toutefois exposer des retours utilisateurs. Nous avons pu tester en conditions r´eelles une partie de nos outils : il s’agissait de d´evelopper une transformation en Tom+Java dans le cadre du projet quarteFt par une entreprise partenaire du projet. Le d´eveloppeur ´etait un ing´enieur en informatique maˆıtrisant le langage Java ainsi que l’environnement Eclipse. Il ne connaissait pas Tom, ni les langages `a base de r`egles de r´e´ecriture, ni le concept de strat´egie avant de commencer. La prise en main du langage Tom sans les nouvelles constructions s’est faite sans aucune difficult´e et sans r´eel besoin de support de notre part hormis la documentation officielle en ligne. Nous avons donn´e un support informel pour l’usage des strat´egies Tom afin d’acc´el´erer son d´eveloppement. L’outil Tom-EMF a ´et´e utilis´e pour g´en´erer les ancrages formels inclus dans la transformation. Si l’usage en lui-mˆeme n’a pas pos´e de probl`eme `a l’ing´enieur (peu d’options diff´erentes, documentation centralis´ee), nous lui avons fourni un support plus important. En effet, l’usage par un non d´eveloppeur a permis de d´ecouvrir des bugs et des manques de fonctionnalit´es (besoin de g´en´eration massive de mappings en une seule fois qui a donn´e lieu `a la fonctionnalit´e de g´en´eration multiple de EPackages, conflits de noms qui a donn´e lieu `a la fonctionnalit´e de pr´efixage, g´en´eration multiple des ancrages pour les biblioth`eques UML2 et Ecore, etc.). Ces premiers retours utilisateur ont jou´e un rˆole important dans l’am´elioration de l’outil Tom-EMF. Lors de ce test en conditions r´eelles, l’utilisateur a suivi la m´ethodologie avec les strat´egies, mais n’a cependant pas utilis´e les constructions Tom haut-niveau d´edi´ees aux transformations de mod`eles. En effet, elles n’´etaient pas incluses dans la version stable du moment. L’aspect hybride de notre approche a permis `a l’utilisateur d’ˆetre tr`es rapidement op´erationnel sans qu’il ait `a apprendre un nouveau langage complet. De plus, du fait de son environnement de d´eveloppement, sa transformation a pu ˆetre imm´ediatement int´egr´ee dans les outils d´evelopp´es, ce qui n’aurait pas ´et´e aussi simple avec des langages tels que ATL, Kermeta ou mˆeme Stratego. Si notre approche utilisant Tom fournit moins de fonctionnalit´es 101102 Chapitre 8. R´esultats exp´erimentaux pour la transformation de mod`eles que ATL, nous avons l’avantage de ne pas nous s´eparer des fonctionnalit´es (biblioth`eques notamment) du langage g´en´eraliste consid´er´e (Java dans notre cas), ce qui permet `a l’utilisateur d’exprimer tout de mˆeme ce qu’une construction Tom ne pourrait pas fournir nativement. Le principe d’utiliser des strat´egies de r´e´ecritures pour encoder les transformations de mod`eles semble aussi un choix judicieux du point de vue de l’utilisateur : la d´ecomposition d’une transformation en transformations ´el´ementaires est naturelle pour appr´ehender la complexit´e et le principe d’´ecriture de r`egles est aussi courant dans d’autres langages. Nous ne changeons donc pas fondamentalement les habitudes du d´eveloppeur. Grˆace aux m´ecanismes en jeu dans notre approche, nous avons une forte expressivit´e dans les motifs (membre gauche) et nous offrons une grande libert´e `a l’utilisateur dans les actions (membre droit) grˆace `a leur nature composite. Le fait que notre approche se fonde sur un changement d’espace technologique pourrait paraˆıtre limitant en premi`ere approche (outil suppl´ementaire pour op´erer le changement), cependant cet outil (g´en´erateur d’ancrages formels) est extrˆemement simple d’utilisation et ne n´ecessite qu’une seule intervention en d´ebut de d´eveloppement. Le choix de l’usage d’un outil par rapport `a un autre ne peut ˆetre d´efinitif et universel : il doit ˆetre effectu´e de mani`ere r´efl´echie en tenant compte de crit`ere tels que l’environnement de d´eveloppement, les fonctionnalit´es respectives des outils envisag´es ainsi que les performances des outils. Dans un contexte Java+EMF, compte tenu des premiers retours, le choix de nos outils est pertinent. 8.2 Performances De mani`ere g´en´erale, un outil peut ˆetre extrˆemement int´eressant scientifiquement, mais inutilisable du fait de ses performances (impl´ementation inefficace ou probl`eme `a r´esoudre trop complexe). Dans un cadre industriel, cette question se pose rapidement, ´etant donn´e que des mod`eles « r´eels » (g´en´eralement de plus grandes tailles que ceux utilis´es pour le prototypage initial) sont transform´es. Il est donc naturel d’´evaluer ses performances, mˆeme si n’est pas l’objectif premier de l’outil. Dans le domaine de la v´erification du logiciel, les outils de model-checking sont g´en´eralement des outils consommateurs de ressources (temps et m´emoire), ce qui peut constituer un goulet d’´etranglement dans une chaˆıne de d´eveloppement imposant une v´erification de ce type. Il ne faut donc pas que les autres traitements aient des performances moindres (et deviendraient de fait le nouveau goulet d’´etranglement), ou que leurs temps d’ex´ecution ajoutent trop de d´elais avant ce goulet. Un second aspect de l’´evaluation des performances vient du fait que beaucoup d’outils de transformation existent, mais leur passage `a l’´echelle est souvent un facteur limitant. C’est donc dans ce contexte que nous avons effectu´e une premi`ere ´evaluation des performances de nos outils, d’une part Tom-EMF, d’autre part les constructions haut-niveau d´edi´ees aux transformations de mod`eles. 8.2.1 Tom-EMF Nous avons exp´eriment´e Tom-EMF sur divers m´etamod`eles afin de nous assurer de son passage `a l’´echelle. Tr`es rapidement, nous avons constat´e que peu de tr`es gros m´etamod`eles sont utilis´es, les m´etamod`eles Ecore et UML ´etant souvent les plus gros m´etamod`eles utilis´es r´eguli`erement. Nous avons donc appliqu´e notre outil sur ces m´etamod`eles pour g´en´erer les mappings correspondant, ainsi que sur les parties des deux m´etamod`eles du cas d’utilisation pr´esent´e dans le chapitre 7.1. Nous constatons que les temps de g´en´eration donn´es dans la table 8.1 sont extrˆemement bas, de l’ordre de la seconde. Notre outil de g´en´eration d’ancrages est tout `a fait capable de g´erer un « gros » m´etamod`ele, dans un temps n´egligeable par rapport `a la dur´ee de d´eveloppement et d’ex´ecution d’une transformation comme nous allons le voir. Consid´erant ces temps de g´en´eration pour de tels m´etamod`eles, nous estimons que les performances de l’ou-8.2. Performances 103 M´etamod`ele Ecore Mappings Tom Temps moyen de #eClassifiers #sortes #op´erateurs g´en´eration (en ms) Ecore 52 56 28 24 UML2 264 345 346 1527 SimplePDL 4 8 10 256 PetriNet 2 8 8 254 Table 8.1 – Tailles de quelques m´etamod`eles significatifs ainsi que des mappings Tom-EMF correspondant. til Tom-EMF sont largement suffisantes et qu’elles ne sont pas limitantes dans la chaˆıne de d´eveloppement. Outre l’aspect performances que nous jugeons satisfaisant, cet outil s’est av´er´e simple `a utiliser pour un utilisateur compl`etement ext´erieur au projet Tom. Cela nous donne un indice positif sur l’utilisabilit´e de notre outil. 8.2.2 Transformation Afin de tester les performances du langage, nous avons utilis´e la transformation SimplePDLToPetriNet sur des mod`eles de tailles diff´erentes. Nous avons fait ce choix, car ayant servi de support au d´eveloppement de nos outils, nous en avions une bonne maˆıtrise tout en ayant une confiance ´elev´ee dans son impl´ementation. Nous l’avons aussi impl´ement´ee dans d’autres langages afin d’avoir des points de comparaison avec l’existant. S’agissant d’une transformation connue dans le domaine, nous avons pu corriger et am´eliorer ces impl´ementations grˆace `a celles existantes. Pour le mod`ele d’entr´ee, nous avons d´efini un processus param´etrable g´en´er´e de mani`ere d´eterministe en fonction de deux param`etres : — le nombre de WorkDefinitions pr´esentes (N) ; — le fait qu’il y ait ou non des WorkSequences. Le processus d’entr´ee n’est pas hi´erarchique, mais cela n’a pas d’impact sur la complexit´e du mod`ele d’entr´ee ´etant donn´e que : — l’image d’un Process est plus simple que l’image d’une WorkDefinition, nous pouvons nous limiter `a jouer sur le nombre de WorkDefinitions plutˆot que sur le nombre de Process ; — un processus p`ere existant, des ´el´ements resolve sont dans tous les cas cr´e´es pour chaque WorkDefinition ; — l’ajout de s´equences entre les activit´es permet d’ajouter d’autres ´el´ements resolve et donc augmenter la complexit´e du mod`ele d’entr´ee et de la transformation. Il s’agissait surtout d’ˆetre en mesure de g´en´erer des mod`eles d’entr´ee d´efinis simplement, mais parfaitement maˆıtris´es (dont les ´el´ements sources sont d´enombrables de mani`ere fiable) et pouvant atteindre de tr`es grosses tailles (plusieurs millions d’´el´ements). La figure 8.1 donne la forme g´en´erale d’un tel processus donn´e en entr´ee ainsi que le r´eseau de Petri r´esultant par l’application de la transformation SimplePDLToPetriNet. En fonction des deux param`etres et de la d´efinition du processus, nous pouvons parfaitement d´enombrer les ´el´ements constituant le mod`ele source, ainsi que ceux constituant le r´esultat. Il est aussi possible de d´enombrer pr´ecis´ement les ´el´ements interm´ediaires resolve cr´e´es. Ainsi, dans notre exemple, pour un processus avec N WorkDefinitions (N > 1) chaˆın´ees, il y a N − 1 WorkSequences. Les r`egles de transformation produisant des r´eseaux de Petri identiques `a ceux vus dans le chapitre 7.1 que nous rappelons dans la figure 8.2, nous ´etablissons le tableau 8.2 donnant les r`egles de production des ´el´ements sources. Dans ce tableau, n et104 Chapitre 8. R´esultats exp´erimentaux · · · · · · · · · Figure 8.1 – Forme g´en´erale des mod`eles d’entr´ee g´en´er´es. r signifient respectivement normal et resolve, les abr´eviations Pl, Tr, A, P, WD, WS correspondent respectivement `a Place, Transition, Arc, Process, WorkDefinition et WorkSequence. Les trois derni`eres colonnes du tableau sont les totaux d’´el´ements resolve cr´e´es (Tresolve), d’´el´ements cr´e´es (Tinterm´ediaire ), et d’´el´ements dans les versions finales des images des sources apr`es r´esolution (Tf inal). Figure 8.2 – R´eseaux de Petri images d’un Process, d’une WorkDefinition et d’une WorkSequence. Compte tenu du fait que nos mod`eles d’entr´ee g´en´er´es n’ont pas de processus hi´erarchiques, les arcs de synchronisation ainsi que les ´el´ements resolve associ´es n’existent pas dans l’image du Process. Ainsi, pour un processus compos´e de N WorkDefinitions (avec N > 1) on obtient 14N + 8 ´el´ements cibles normaux et 4N − 2 ´el´ements resolve, comme le r´esume la table 8.3. Les valeurs que nous donnons par la suite sont celles d’exp´eriences men´ees sur un serveur ayant les caract´eristiques suivantes : — syst`eme Unix 64 bits ;8.2. Performances 105 Source Places Transitions Arcs Tresolve Tinterm´ediaire Tf inal n r n r P 3 0 2 0 4 0 9 9 WD 4 0 2 2 7 2 15 13 WS 0 1 0 1 1 2 3 1 Table 8.2 – D´enombrement des ´el´ements cibles cr´e´es `a partir d’´el´ements sources. Places Transitions Arcs Tresolve Tnormal n r n r 4N + 3 N − 1 2N + 2 3N − 1 8N + 3 4N − 2 14N + 8 Table 8.3 – D´enombrement des ´el´ements cibles cr´e´es en fonction du nombre de WorkDefinitions donn´e en entr´ee (N > 1). — RAM : 24 GB ; — processeurs : 2 × 2,93 GHz Quad-Core Intel Xeon. Cependant, mis `a part pour les transformations `a plusieurs millions d’´el´ements qui demandent des ressources sup´erieures `a celles fournies par un poste de bureau, ces exp´eriences peuvent tout `a fait ˆetre reproduites sur une machine bien plus modeste. La table 8.4 donne les temps moyens de la transformation appliqu´ee sur des mod`eles de tailles diff´erentes. La premi`ere colonne donne le nombre d’´el´ements sources du mod`ele d’entr´ee en fonction du param`etre d’entr´ee N. La deuxi`eme colonne donne le nombre d’´el´ements constituant le mod`ele r´esultant. Les temps moyens sont donn´es par les colonnes suivantes, en s´eparant les deux phases, la derni`ere colonne donnant les dur´ees totales. Pour donner une id´ee de la taille des donn´ees, la s´erialisation .xmi d’un mod`ele `a 2 000 000 d’´el´ements sources (derni`ere ligne) est un fichier d’environ 320 Mo. #src (2N) #tgt phase 1 phase 2 Total temps % temps % 20 148 16,7ms 97,09 0,5ms 2,91 17,2ms 200 1408 66ms 90,66 6,8ms 9,34 72,8ms 1000 7008 208ms 87,76 29ms 12,24 237ms 2000 14 008 359ms 86,92 54ms 13,08 413ms 4000 28 008 833ms 85,35 143ms 14,65 976ms 6000 42 008 ∼1,47s 86,98 223ms 13,02 ∼1,69s 8000 56 008 ∼2,4s 87,27 342ms 12,73 ∼2,75s 10 000 70 008 ∼3,61s 88,03 491ms 11,97 4,1s 20 000 140 008 ∼13,4s 88,16 ∼1,8s 11,84 ∼15,2s 40 000 280 008 ∼0min 52s 88,14 ∼0min 7s 11,86 ∼0min 59s 100 000 700 008 ∼5min 22s 88,54 ∼0min 42s 11,46 ∼6min 4s 200 000 1 400 008 ∼20min 50s 88,22 ∼2min 47s 11,78 ∼23min 37s 2 000 000 14 000 008 ∼35h 40min 84,87 ∼6h 30min 11,78 ∼42h 10min Table 8.4 – Mesures de dur´ees de transformation en fonction des tailles des mod`eles sources. La figure 8.3 donne une repr´esentation graphique des temps d’ex´ecution en fonction de la taille du mod`ele d’entr´ee. Plus le mod`ele source est gros, plus la dur´ee de la transformation est ´elev´ee. Nous notons que plus le mod`ele source est important, plus la part de la premi`ere phase de la transformation est importante par rapport `a la phase de r´esolution. Cela s’explique par deux facteurs : d’une part par la transformation elle-mˆeme qui cr´ee bien plus d’´el´ements106 Chapitre 8. R´esultats exp´erimentaux cibles (normaux et resolve) qu’elle ne doit en r´esoudre, d’autre part par les am´eliorations et optimisations que nous avons apport´ees au code g´en´er´e et aux m´ecanismes d´evelopp´es. 0 50 000 100 000 150 000 200 000 0 500 000 1 000 000 1 500 000 P1 P2 T Nombre de sources T emps moyen (en ms) (P1) Temps moyen phase #1 (P2) Temps moyen phase #2 (T) Temps moyen total Figure 8.3 – Temps moyen de transformation (en ms) en fonction du nombre d’´el´ements dans le mod`ele source (phase 1, phase 2, total). En effet, ces r´esultats ne sont pas les r´esultats que nous pourrions obtenir avec la version stable actuelle de nos outils : initialement, la phase de r´esolution ´etait largement plus consommatrice de ressources et la dur´ee d’une transformation ´etait quasiment celle de la seconde phase (environ 99% du temps d’ex´ecution pour des mod`eles de taille >100). De plus, dans leur premi`ere version stable publi´ee, outre une certaine lenteur, nos outils consomment une grande quantit´e de m´emoire. Lors des premi`eres exp´eriences, nos transformations ´etaient beaucoup plus longues `a s’ex´ecuter que la mˆeme transformation d´evelopp´ee en ATL (donn´ee en C). Nous ne pouvions ex´ecuter une transformation d’un mod`ele source de 20 000 ´el´ements ou plus, par manque de m´emoire (20GB allou´es par d´efaut). De son cˆot´e, ATL franchissait ce seuil est bloquait aux alentours de 50 000 ´el´ements sources par manque de m´emoire. C’est ce qu’illustre le tableau 8.5 qui donne les temps d’ex´ecution de deux versions de nos outils, que nous comparons `a ceux avec ATL. Nous avons donc travaill´e en priorit´e sur l’am´elioration du code g´en´er´e pour la phase de r´esolution afin de corriger ces lacunes. Dans un premier temps, constatant que l’essentiel du temps ´etait pass´e dans l’appel de fonctions du framework EMF, nous avons modifi´e la r´esolution de liens. Nous nous reposions exclusivement sur les m´ethodes emf g´erant la r´esolution de liens, qui ´etaient appel´ees au sein de la strat´egie de r´esolution. Cependant, l’impl´ementation de cette m´ethode dans le framework EMF n’est pas assez efficace. Nous avons donc impl´ement´e notre propre r´esolution de liens. Dans un second temps, nous avons continu´e `a optimiser en modifiant notre approche lors de la trace technique des objets cr´e´es. Ces am´eliorations successives ont drastiquement diminu´e la dur´ee d’ex´ecution de la seconde phase par rapport `a la premi`ere qui concentre maintenant l’essentiel du temps processeur d’une transformation. Finalement, nous avons abouti `a la version actuelle qui sera int´egr´ee dans la prochaine version stable de Tom. Tout au long de la transformation, nous stockons les ´el´ements trac´es servant `a la r´esolution (tra¸cabilit´e technique) ainsi que les ´el´ements r´ef´eren¸cant les ´el´ements interm´ediaires resolve (c’est-`a-dire ayant un pointeur vers un ´el´ement resolve, par exemple un arc image d’une WorkSequence dans l’exemple SimplePDLToPetriNet). En d´ebut de phase de r´esolution, nous r´ecup´erons l’ensemble des ´el´ements interm´ediaires temporaires. Nous le parcourons et pour chaque ´el´ement de cet ensemble, nous parcourons l’ensemble des objets le r´ef´eren¸cant pour leur appliquer la r´esolution de lien. Avec notre im-8.2. Performances 107 N #src (2N) #tgt Tom ATL v1 v2 Simple 10 20 148 83ms 17ms - 100 200 1408 638ms 73ms - 500 1000 7008 ∼38s 237ms - 1000 2000 14 008 ∼4min 14s 414ms - 2000 4000 28 008 ∼36min 55s 976ms - 3000 6000 42 008 ∼1h 59min 1,7s - 4000 8000 56 008 ∼4h 24min 2,8s - 5000 10 000 70 008 ∼8h 14min 4,1s ∼28s 10 000 20 000 140 008 N/A ∼0min 15s ∼1min 41s 20 000 40 000 280 008 N/A ∼0min 59s ∼7min 38s 50 000 100 000 700 008 N/A ∼6min 4s ∼1h 39min 100 000 200 000 1 400 008 N/A ∼23min 37s ∼ 1 000 000 2 000 000 14 000 008 N/A ∼42h 10min ∼ Table 8.5 – Comparaison des performances entre Tom (premi`ere et derni`ere versions) et ATL. pl´ementation, nous parcourons le minimum d’objets possible, ce qui r´eduit consid´erablement les parcours (notamment par rapport `a EMF). Ces optimisations nous ont apport´e un gain cons´equent nous permettant de passer d’outils transformant difficilement des petits mod`eles de 10 000 ´el´ements en des outils capables de transformer des mod`eles de plusieurs millions d’´el´ements. Finalement, ces premiers r´esultats exp´erimentaux nous permettent d’exprimer un avis sur nos choix technologiques initiaux, en particulier sur l’utilisation de EMF. Si ce choix paraissait naturel pour pouvoir avoir une couverture initiale maximale de chaˆınes de d´eveloppement, d’outils et d’utilisateurs, il paraˆıt beaucoup moins naturel lorsque l’on commence `a s’int´eresser aux performances. En effet, notre travail de profiling et d’optimisation nous a montr´e que le facteur limitant essentiel r´esidait dans les appels EMF. Leur limitation puis leur suppression a drastiquement am´elior´e les performances de nos outils. Dans notre contexte, et pour les tˆaches demand´ees, nous n’avions finalement pas un besoin fondamental de toutes les fonctionnalit´es fournies par EMF. Une version simplifi´ee et optimis´ee de la gestion des r´ef´erences inverses suffisait amplement pour notre phase de r´esolution. Il est donc plus int´eressant en termes de performances pures et de m´emoire de nous passer de la technologie de support (EMF dans notre impl´ementation actuelle) pour tout ce qui rel`eve de la m´ecanique interne de la transformation. De plus, nous affranchir totalement d’une technologie nous permet d’obtenir des outils plus g´en´eriques, et donc plus facilement int´egrables dans d’autres contextes et chaˆınes de d´eveloppement. Cependant, si le choix initial d’utilisation des services EMF pour le moteur des transformations s’est av´er´e peu judicieux et a ´et´e remis en cause en cours de th`ese, il a ´et´e fondamental pour avoir une impl´ementation concr`ete et un support de travail. De plus, notre travail a mis en avant ce choix peu judicieux pour la mise en œuvre de m´ecanismes internes de nos transformations, ce qui ne remet pas en cause l’usage d’EMF dans d’autres contextes avec d’autres outils, ni mˆeme son usage avec Tom. En effet, au-del`a des constructions haut-niveau qui s’appuyaient partiellement sur EMF, subsiste notre outil de g´en´eration automatique d’ancrages formels qui permet d’op´erer le changement d’espace technologique. Cet outil reste extrˆemement int´eressant pour faciliter l’´ecriture des transformations — de mani`ere totalement ind´ependante du langage de transformation ainsi que de sa mise en œuvre technique — dans un contexte Java-EMF.108 Chapitre 8. R´esultats exp´erimentaux 8.3 Perspectives L’ensemble de nos outils peut ˆetre actuellement consid´er´e comme un prototype op´erationnel. Cependant, dans le cadre d’une utilisation plus large et dans un contexte industriel r´eel, on pourrait s’orienter vers diff´erents aspects qui ont ´emerg´e de ce travail de th`ese et des premiers r´esultats exp´erimentaux. Nous avons pu ´eprouver l’int´erˆet de notre approche hybride pour d´evelopper des transformations de mod`eles. Cette approche facilite de d´eveloppement grˆace aux outils de g´en´eration de code et aux constructions haut-niveau avec une forte expressivit´e, tout en conservant l’environnement global existant. Il reste donc possible d’utiliser les sp´ecificit´es du langage g´en´eraliste au sein duquel nous nous int´egrons pour certaines tˆaches tout en manipulant des termes dans une autre partie de l’application. Le travail d’adaptation que l’utilisateur doit fournir est de fait plus faible, d’o`u une plus grande efficacit´e. Notre approche a aussi l’avantage de perturber au minimum la chaˆıne de d´eveloppement et le choix de l’adopter n’est pas irr´eversible ou coˆuteux dans le sens o`u chaque transformation d´evelopp´ee peut ˆetre remplac´ee par sa version dans le langage hˆote (ou ´ecrite avec un autre outil) sans changer le reste du logiciel. Dans cette optique d’int´egration non-intrusive dans des environnements existants, une voie serait de travailler `a la g´en´eralisation de nos outils afin d’´etendre l’approche `a d’autres langages et technologies. Par exemple, un premier pas dans cette direction pourrait ˆetre de se pencher sur l’utilisation de Kevoree ainsi que sur l’extension au langage Ada (des travaux sur le sujet ont d´ej`a ´et´e entam´es). L’utilisation de constructions haut-niveau et d’outils de g´en´eration permet `a l’utilisateur de se concentrer sur le cœur de l’application et de d´el´eguer `a un outil automatique les tˆaches r´ep´etitives sujettes `a erreurs pour un humain. Cela contribue `a augmenter la confiance dans le logiciel d´evelopp´e. Un autre axe de travail consisterait `a r´efl´echir sur les strat´egies que nous utilisons pour transformer des mod`eles. Nous nous sommes aper¸cus que certaines relations ´etaient souvent vues comme int´eressantes (composition), mais que dans certaines situations, d’autres relations pouvaient ˆetre le centre de la transformation. Travailler sur la param´etrisation des strat´egies de r´e´ecriture par des types de relation `a suivre pourrait ˆetre une voie `a explorer. Un autre aspect int´eressant que d’autres outils couvrent est la transformation de mod`eles multiples : actuellement notre approche consid`ere un seul mod`ele source et un seul mod`ele cible. Cependant, on pourrait gagner en expressivit´e en permettant d’´ecrire des transformations `a plusieurs sources et cibles. Bien que les outils soient compl`etement op´erationnels, une optimisation serait probablement n´ecessaire pour un usage plus large dans un cadre industriel, tant du point de vue de leurs performances que de leur utilisabilit´e. Nos travaux d’am´elioration des performances par r´eing´enierie de la phase de r´esolution constituent une premi`ere ´etape qui sera concr´etis´ee dans une prochaine release du projet Tom. Du point de vue de la modularit´e et de la r´eutilisation du code, les strat´egies de r´e´ecriture nous fournissent un socle int´eressant de par leur modularit´e intrins`eque. Nos exp´erimentations sur le sujet ont abouti `a un prototype de nos outils avec phase de r´esolution modulaire. Cependant, pour des raisons de confort d’utilisation pour le d´eveloppeur, nous avons choisi de ne pas int´egrer cette fonctionnalit´e par d´efaut dans la version stable actuelle. Nous avons cependant une base de travail pour r´efl´echir `a cet aspect. Il faut toutefois noter que les ´evolutions de nos outils dues `a l’am´elioration de leurs performances risquent d’entrer en concurrence avec l’approche adopt´ee dans notre prototype modulaire. De fait, l’aspect performance est actuellement privil´egi´e. Nous avons aussi pu apporter une tra¸cabilit´e au sein d’un langage g´en´eraliste tel que Java. Il s’agissait d’apporter une aide substantielle au processus de qualification d’un logiciel. L’aspect tra¸cabilit´e des transformations semble ˆetre un th`eme particuli`erement prometteur. En effet, les industries d´eveloppant du logiciel critique ont un besoin accru de tra¸cabilit´e pour qualifier et certifier leurs outils. L’adoption de l’ing´enierie dirig´ee par les mod`eles a entraˆın´e l’usage de nouvelles m´ethodes et de nouveaux outils tandis que les contraintes l´egales8.3. Perspectives 109 subsistent. Partant de ce constat, les travaux sur la tra¸cabilit´e `a des fins de validation du logiciel offrent des perspectives int´eressantes. Dans l’impl´ementation actuelle de nos travaux, les constructions pour la tra¸cabilit´e ne sont pas distinctes. Une premi`ere ´etape serait de distinguer clairement (par deux constructions distinctes du langage) la tra¸cabilit´e utilis´ee `a des fins purement techniques (usage pour la phase de r´esolution) et la tra¸cabilit´e m´etier. Notre approche de trace `a la demande permet d´ej`a de limiter la taille des traces et donc de les rendre plus exploitables a posteriori. Se pose aussi la question de l’exploitation du mod`ele de lien, de mani`ere automatique ou non dans le processus de qualification.110 Chapitre 8. R´esultats exp´erimentauxConclusion La qualification d’outil est une ´etape fondamentale dans le processus de certification du logiciel. L’objectif principal de cette th`ese ´etait de contribuer `a l’´elaboration de m´ethodes et outils pour am´eliorer la confiance dans les outils int´egr´es dans les chaˆınes de d´eveloppement critiques. Le langage Tom d´evelopp´e dans l’´equipe a ´et´e le support de ces travaux. Contributions Une m´ethode de transformation de mod`eles par r´e´ecriture Dans cette th`ese, nous avons pr´esent´e une m´ethode pour transformer des mod`eles en nous appuyant sur des strat´egies de r´e´ecriture. Cette m´ethode nous permet d’exprimer ais´ement une transformation `a partir de r`egles, sans aucune notion d’ordre d’application.En nous pla¸cant dans le cadre du langage Tom, nous avons fait le choix d’ˆetre `a la fronti`ere entre les langages d´edi´es et les langages g´en´eralistes, afin d’en tirer le meilleur des deux mondes. Nous avons donc propos´e un ˆılot formel d´edi´e aux transformations de mod`eles qui s’int`egre au sein du langage g´en´eraliste Java. Du fait du fonctionnement de notre m´ethode hybride, nos transformations sont modulaires. Cette qualit´e est fondamentale en ing´enierie du logiciel, que ce soit pour la maintenance ou la cr´eation de nouveaux outils. Une repr´esentation de mod`eles sous la forme de termes alg´ebriques Pour transformer des mod`eles selon notre m´ethode hybride, il est n´ecessaire d’op´erer un changement d’espace technologique entre le monde des mod`eles et celui des termes. Nous avons donc ´etabli une repr´esentation des mod`eles sous la forme de termes alg´ebriques. Cette derni`ere repose sur l’obtention d’un arbre de recouvrement du mod`ele par la relation de composition. Un outil impl´emente cette repr´esentation par la g´en´eration de la signature alg´ebrique correspondant `a un m´etamod`ele donn´e. Cela permet d’instancier des mod`eles et de les manipuler en tant que termes alg´ebriques. Une tra¸cabilit´e des transformations L’exigence de tra¸cabilit´e qu’impose le processus de qualification nous a conduits `a proposer un ˆılot formel permettant de lier un ´el´ement source `a des ´el´ements cibles. Cette construction d´edi´ee permet d’ajouter une tra¸cabilit´e au sein d’une transformation ´ecrite dans un langage g´en´eraliste tel que Java. Des outils accessibles pour am´eliorer la confiance dans le logiciel Tout au long de ce travail, nous nous sommes appliqu´es `a mettre en œuvre des outils impl´ementant nos travaux. Nos choix ont aussi ´et´e guid´es par notre souci d’accessibilit´e et de diffusion. C’est pourquoi nous nous sommes appuy´es sur les langages et frameworks tr`es utilis´es et ayant d´ej`a perc´e dans l’industrie. Si certains choix ont pu ˆetre remis en cause suite `a nos ´evaluations et aux tests de performance, il n’en demeure pas moins qu’ils nous ont 111112 Conclusion ´et´e tr`es utiles pour obtenir un premier prototype op´erationnel. Les outils d´evelopp´es doivent faciliter le d´eveloppement logiciel en limitant le code ´ecrit manuellement et en maximisant le code g´en´er´e. De plus, dans cette optique d’am´elioration de la confiance dans le logiciel, il est tr`es important de diffuser des outils de production dont le code source est librement consultable, modifiable et rediffusable afin de pouvoir les v´erifier, corriger, am´eliorer et utiliser. Par cons´equent, tous nos outils sont diffus´es sous licence libre. Perspectives Les perspectives qu’ouvre ce travail sont multiples, les chaˆınes de d´eveloppement de syst`emes critiques ayant de besoins forts pour la qualification d’outils. Diff´erents travaux peuvent ˆetre entrepris pour ´etendre et prolonger les contributions de cette th`ese, que ce soit au niveau de la repr´esentation et du parcours de mod`eles, de l’expression et de la tra¸cabilit´e des transformations ou de la g´en´eralisation des m´ethodes et outils. Strat´egies param´etr´ees L’une des pistes de recherche consiste `a travailler sur les strat´egies. Dans le chapitre 7, nous avons mis en avant un cas d’´etude qui ne permet pas de donner la pleine mesure de nos outils. Cela s’explique par le principe de notre repr´esentation de mod`eles sous la forme de termes ainsi que par leur parcours. Nous construisons un arbre de recouvrement par la relation de composition pour obtenir une vue arborescente du mod`ele. Ensuite, les strat´egies les parcourent en suivant ces liens de composition. Bien que ce type d’utilisation couvre la majeure partie des cas, il existe des situations o`u la relation de composition n’est pas la relation d’int´erˆet de l’utilisateur, comme nous l’avons montr´e. Afin de rem´edier `a ce probl`eme, il faudrait pouvoir d´efinir une alternative pour les strat´egies de parcours en offrant la possibilit´e de les param´etrer par les types de liens `a suivre. Un second prolongement serait alors de pouvoir param´etrer localement un parcours, en fonction d’un contexte donn´e. Modularit´e des transformations et r´eutilisation Un aspect r´ecurrent en g´enie logiciel est la modularit´e et la r´eutilisation du code. Du fait de notre approche construite sur les strat´egies de r´e´ecriture, nous offrons d´ej`a une certaine modularit´e des transformations et permettons la r´eutilisation du code de chaque transformation ´el´ementaire. Cependant, les d´efinitions ´ecrites pour une transformation donn´ee peuvent rarement ˆetre r´eutilis´ees directement, sans aucune modification. Un axe de travail serait donc de r´efl´echir `a l’expression des d´efinitions les rendant plus g´en´eriques. Ensuite, le prototype modulaire de la phase de r´esolution de notre approche pourrait ˆetre affin´e, ´etendu et simplifi´e afin d’accompagner chaque d´efinition par une strat´egie de r´esolution ´el´ementaire. G´en´eralisation et ouverture `a d’autres technologies Nous nous sommes appuy´es sur la technologie EMF et le langage Java pour d´evelopper des outils et tester nos travaux. A terme, il serait int´eressant de g´en´eraliser notre m´ethode ` de repr´esentation et de transformation de mod`eles en ouvrant nos outils `a d’autres langages g´en´eralistes et `a d’autres technologies. Nous pensons notamment au langage Ada pour lequel nous avons men´e quelques exp´erimentations et dont un backend est maintenant pr´esent dans Tom. Les strat´egies ont ´et´e impl´ement´ees et peuvent ˆetre utilis´ees dans un programme Ada. Ce langage ´etant utilis´e pour le d´eveloppement de syst`emes temps r´eel et embarqu´es pour son haut niveau de fiabilit´e et de s´ecurit´e, nous pourrions nous concentre sur ce langage. L’une des difficult´es de la gestion de Ada r´eside dans l’absence de garbage collector. On ne peut donc ais´ement impl´ementer toutes les fonctionnalit´es de Tom (notamment le partage maximal) qui113 existent avec le langage Java. La g´en´eralisation de nos outils nous permettrait aussi de nous ouvrir `a d’autres technologies que EMF. Nous pensons notamment `a Kevoree qui semble ˆetre un bon candidat, tant du point de vue fonctionnalit´es que performances. Tra¸cabilit´e : extension et usage Nous avons fourni une tra¸cabilit´e qui pourrait ˆetre ´etendue, d’une part `a des transformations comprenant des sources multiples, d’autre part `a des objectifs de d´etection et r´ecup´eration d’erreurs. Cela demanderait de r´efl´echir `a l’´evolution du m´etamod`ele de trace. Ensuite, cette tra¸cabilit´e fournie par Tom pourrait ˆetre g´en´eralis´ee afin de d´epasser le cadre de l’ˆılot formel d´edi´e aux transformations de mod`eles. Enfin, de mani`ere pragmatique et `a court terme, nous envisageons de modifier le langage pour s´eparer la construction de tra¸cabilit´e en deux constructions distinctes, l’une d´edi´ee `a la tra¸cabilit´e interne, l’autre `a la tra¸cabilit´e de sp´eci- fication.114 ConclusionAnnexe A Etude de cas : Transformation ´ SimplePDLToPetriNet A.1 Code de la transformation SimplePDLToPetriNet Ce code est accessible sur le d´epˆot officiel du projet Tom : https://gforge.inria.fr/ scm/?group_id=78. Pour plus d’informations sur le sujet, le lecteur pourra aussi se r´ef´erer `a la documentation en ligne accessible sur cette page : http://tom.loria.fr/wiki/index. php5/Documentation:Playing_with_EMF. 1 import org.eclipse.emf.common.util.*; 2 import org.eclipse.emf.ecore.*; 3 import org.eclipse.emf.ecore.util.ECrossReferenceAdapter; 4 import org.eclipse.emf.ecore.xmi.*; 5 import org.eclipse.emf.ecore.xmi.impl.*; 6 7 import SimplePDLSemantics.DDMMSimplePDL.*; 8 import petrinetsemantics.DDMMPetriNet.*; 9 10 import SimplePDLSemantics.EDMMSimplePDL.*; 11 import petrinetsemantics.EDMMPetriNet.*; 12 import SimplePDLSemantics.SDMMSimplePDL.*; 13 import petrinetsemantics.SDMMPetriNet.*; 14 import SimplePDLSemantics.TM3SimplePDL.*; 15 import petrinetsemantics.TM3PetriNet.*; 16 17 import java.util.*; 18 import java.util.concurrent.ConcurrentMap; 19 import java.util.concurrent.ConcurrentHashMap; 20 import java.io.File; 21 import java.io.Writer; 22 import java.io.BufferedWriter; 23 import java.io.OutputStreamWriter; 24 import java.io.FileOutputStream; 25 import java.io.FileInputStream; 26 27 import tom.library.utils.ReferenceClass; 28 import tom.library.utils.LinkClass; 29 import tom.library.sl.*; 30 import tom.library.emf.*; 31 32 public class SimplePDLToPetriNet { 33 34 %include{ sl.tom } 35 %include{ LinkClass.tom } 36 %include{ emf/ecore.tom } 37 38 %include{ mappings/DDMMPetriNetPackage.tom } 39 %include{ mappings/DDMMSimplePDLPackage.tom } 40 41 %include{ mappings/EDMMPetriNetPackage.tom } 42 %include{ mappings/EDMMSimplePDLPackage.tom } 43 %include{ mappings/SDMMPetriNetPackage.tom } 44 %include{ mappings/SDMMSimplePDLPackage.tom } 115116 Annexe A. Etude de cas : Transformation SimplePDLToPetriNet ´ 45 %include{ mappings/TM3PetriNetPackage.tom } 46 %include{ mappings/TM3SimplePDLPackage.tom } 47 48 %typeterm SimplePDLToPetriNet { implement { SimplePDLToPetriNet }} 49 50 private static Writer writer; 51 private static PetriNet pn = null; 52 private static LinkClass tom__linkClass; 53 54 public SimplePDLToPetriNet() { 55 this.tom__linkClass = new LinkClass(); 56 } 57 58 59 %transformation SimplePDLToPetriNet(tom__linkClass:LinkClass,pn:PetriNet) : "metamodels/SimplePDLSemantics_updated.ecore" -> "metamodels/PetriNetSemantics_updated.ecore" { 60 61 definition P2PN traversal ‘TopDown(P2PN(tom__linkClass,pn)) { 62 p@Process[name=name] -> { 63 Place p_ready = ‘Place(name + "_ready", pn,ArcEList(), ArcEList(), 1); 64 Place p_running = ‘Place(name + "_running", pn,ArcEList(), ArcEList(), 0); 65 Place p_finished = ‘Place(name + "_finished", pn,ArcEList(), ArcEList(), 0); 66 String n1 = ‘name+"_start"; 67 %tracelink(t_start:Transition, ‘Transition(n1, pn,ArcEList(), ArcEList(), 1, 1)); 68 n1 = ‘name+"_finish"; 69 %tracelink(t_finish:Transition, ‘Transition(n1, pn,ArcEList(), ArcEList(), 1, 1)); 70 71 ‘Arc(t_start, p_ready, pn,ArcKindnormal(), 1); 72 ‘Arc(p_running, t_start, pn,ArcKindnormal(), 1); 73 ‘Arc(t_finish, p_running, pn,ArcKindnormal(), 1); 74 ‘Arc(p_finished, t_finish, pn,ArcKindnormal(), 1); 75 76 WorkDefinition from = ‘p.getFrom(); 77 if (from!=null) { 78 Transition source = %resolve(from:WorkDefinition,t_start:Transition); 79 source.setNet(pn); 80 Arc tmpZoomIn = ‘Arc(p_ready,source,pn,ArcKindnormal(), 1); 81 82 Transition target = %resolve(from:WorkDefinition,t_finish:Transition); 83 target.setNet(pn); 84 Arc tmpZoomOut = ‘Arc(target,p_finished,pn,ArcKindread_arc(), 1); 85 } 86 } 87 } 88 89 definition WD2PN traversal ‘TopDown(WD2PN(tom__linkClass,pn)) { 90 wd@WorkDefinition[name=name] -> { 91 //System.out.println("Je suis un A"); 92 Place p_ready = ‘Place(name + "_ready", pn,ArcEList(), ArcEList(), 1); 93 String n1 = ‘name+"_started"; 94 %tracelink(p_started:Place, ‘Place(n1, pn,ArcEList(), ArcEList(), 0)); 95 Place p_running = ‘Place(name+"_running", pn,ArcEList(), ArcEList(), 0); 96 n1 = ‘name+"_finished"; 97 %tracelink(p_finished:Place, ‘Place(n1, pn,ArcEList(), ArcEList(), 0)); 98 n1 = ‘name+"_start"; 99 %tracelink(t_start:Transition, ‘Transition(n1, pn,ArcEList(), ArcEList(), 1, 1)); 100 n1 = ‘name+"_finish"; 101 %tracelink(t_finish:Transition, ‘Transition(n1, pn,ArcEList(), ArcEList(), 1, 1)); 102 103 ‘Arc(t_start, p_ready, pn,ArcKindnormal(), 1); 104 ‘Arc(p_started, t_start, pn,ArcKindnormal(), 1); 105 ‘Arc(p_running, t_start, pn,ArcKindnormal(), 1); 106 ‘Arc(t_finish, p_running, pn,ArcKindnormal(), 1); 107 ‘Arc(p_finished, t_finish, pn,ArcKindnormal(), 1); 108 109 SimplePDLSemantics.DDMMSimplePDL.Process parent = ‘wd.getParent(); 110 Transition source = %resolve(parent:Process,t_start:Transition); 111 source.setNet(pn); 112 Arc tmpDistribute = ‘Arc(p_ready,source,pn,ArcKindnormal(), 1); 113 114 Transition target = %resolve(parent:Process,t_finish:Transition); 115 target.setNet(pn); 116 Arc tmpRejoin = ‘Arc(target,p_finished,pn,ArcKindread_arc(), 1); 117 } 118 } 119 120 definition WS2PN traversal ‘TopDown(WS2PN(tom__linkClass,pn)) { 121 ws@WorkSequence[predecessor=p,successor=s,linkType=linkType] -> { 122 Place source= null; 123 Transition target= null; 124 WorkDefinition pre = ‘p;A.1. Code de la transformation SimplePDLToPetriNet 117 125 WorkDefinition suc = ‘s; 126 %match(linkType) { 127 (WorkSequenceTypefinishToFinish|WorkSequenceTypefinishToStart)[] -> { 128 source = %resolve(pre:WorkDefinition,p_finished:Place); 129 } 130 (WorkSequenceTypestartToStart|WorkSequenceTypestartToFinish)[] -> { 131 source = %resolve(pre:WorkDefinition,p_started:Place); 132 } 133 134 (WorkSequenceTypefinishToStart|WorkSequenceTypestartToStart)[] -> { 135 target = %resolve(suc:WorkDefinition,t_start:Transition); 136 } 137 (WorkSequenceTypestartToFinish|WorkSequenceTypefinishToFinish)[] -> { 138 target = %resolve(suc:WorkDefinition,t_finish:Transition); 139 } 140 } 141 source.setNet(pn); 142 target.setNet(pn); 143 144 Arc wsImage = ‘Arc(target,source, pn,ArcKindread_arc(), 1); 145 } 146 } 147 } 148 149 public static void main(String[] args) { 150 System.out.println("\nStarting...\n"); 151 152 XMIResourceImpl resource = new XMIResourceImpl(); 153 SimplePDLSemantics.DDMMSimplePDL.Process p_root; 154 Map opts = new HashMap(); 155 opts.put(XMIResource.OPTION_SCHEMA_LOCATION, java.lang.Boolean.TRUE); 156 157 if (args.length>0) { 158 DDMMSimplePDLPackage packageInstance = DDMMSimplePDLPackage.eINSTANCE; 159 File input = new File(args[0]); 160 try { 161 resource.load(new FileInputStream(input),opts); 162 } catch (Exception e) { 163 e.printStackTrace(); 164 } 165 p_root = (SimplePDLSemantics.DDMMSimplePDL.Process) resource.getContents().get(0); 166 } else { 167 System.out.println("No model instance given in argument. Using default hardcoded model."); 168 WorkDefinition wd1 = ‘WorkDefinition(null,WorkSequenceEList(),WorkSequenceEList(),"A",null); 169 WorkDefinition wd2 = ‘WorkDefinition(null,WorkSequenceEList(),WorkSequenceEList(),"B",null); 170 WorkDefinition wd3 = ‘WorkDefinition(null,WorkSequenceEList(),WorkSequenceEList(),"C",null); 171 WorkDefinition wd4 = ‘WorkDefinition(null,WorkSequenceEList(),WorkSequenceEList(),"D",null); 172 WorkSequence ws1 = ‘WorkSequence(null,WorkSequenceTypestartToStart(),wd1,wd2); 173 WorkSequence ws2 = ‘WorkSequence(null,WorkSequenceTypestartToFinish(),wd3,wd4); 174 175 p_root = ‘Process("root",ProcessElementEList(wd1,wd2,ws1),null); 176 SimplePDLSemantics.DDMMSimplePDL.Process p_child = ‘Process("child",ProcessElementEList(wd3,wd4,ws2), wd2); 177 178 wd1.setParent(p_root); 179 wd2.setParent(p_root); 180 wd2.setProcess(p_child); 181 182 wd3.setParent(p_child); 183 wd4.setParent(p_child); 184 185 ws1.setParent(p_root); 186 ws2.setParent(p_child); 187 } 188 SimplePDLToPetriNet translator = new SimplePDLToPetriNet(); 189 190 try { 191 translator.pn = ‘PetriNet(NodeEList(),ArcEList(),"main"); 192 193 //System.out.println("Initial Petri net"); 194 //‘Sequence(TopDown(PrintTransition()),TopDown(PrintPlace())).visit(translator.pn, new EcoreContainmentIntrospector()); 195 196 /*//transformer is equivalent to: 197 Strategy transformer = ‘Sequence( 198 TopDown(Process2PetriNet(translator)), 199 TopDown(WorkDefinition2PetriNet(translator)), 200 TopDown(WorkSequence2PetriNet(translator)) 201 ); 202 */ 203 204 //NOTE: force the user to give the link as first parameter, and target118 Annexe A. Etude de cas : Transformation SimplePDLToPetriNet ´ 205 //model as second one 206 Strategy transformer = ‘SimplePDLToPetriNet(translator.tom__linkClass,translator.pn); 207 transformer.visit(p_root, new EcoreContainmentIntrospector()); 208 ‘TopDown(tom__StratResolve_SimplePDLToPetriNet(translator.tom__linkClass,translator.pn)).visit(translator.pn, new EcoreContainmentIntrospector()); 209 210 211 //for generation of textual Petri nets usable as input for TINA 212 String outputName = "resultingPetri.net"; 213 writer = new BufferedWriter(new OutputStreamWriter(new 214 FileOutputStream(new File(outputName)))); 215 216 System.out.println("\nResult"); 217 ‘Sequence(TopDown(PrintTransition()),TopDown(PrintPlace())).visit(translator.pn, 218 new EcoreContainmentIntrospector()); 219 220 System.out.println("\nFinish to generate "+outputName+" file, usable as input for TINA"); 221 writer.flush(); 222 writer.close(); 223 System.out.println("done."); 224 225 } catch(VisitFailure e) { 226 System.out.println("strategy fail!"); 227 } catch(java.io.FileNotFoundException e) { 228 System.out.println("Cannot create Petri net output file."); 229 } catch (java.io.IOException e) { 230 System.out.println("Petri net save failed!"); 231 } 232 } 233 234 %strategy PrintArc() extends Identity() { 235 visit Arc { 236 Arc[source=node1, target=node2] -> { 237 System.out.println(‘node1.getName() + " -> " + ‘node2.getName()); 238 } 239 } 240 } 241 242 %strategy PrintTransition() extends Identity() { 243 visit Transition { 244 tr@ResolveWorkDefinitionTransition[tom_resolve_element_attribute_name=name] -> { 245 System.out.println("tr resolve " + ‘name); 246 return ‘tr; 247 } 248 249 ptr@ResolveProcessTransition[tom_resolve_element_attribute_name=name] -> { 250 System.out.println("tr process resolve " + ‘name); 251 return ‘ptr; 252 } 253 254 Transition[name=name,incomings=sources,outgoings=targets] -> { 255 String s = " "; 256 String t = " "; 257 %match { 258 ArcEList(_*,Arc[kind=k,weight=w,source=node],_*) << sources && Place[name=placename]<< node -> { 259 s += ‘placename + ((‘k==‘ArcKindread_arc())?"?":"*") + ‘w + " "; 260 } 261 ArcEList(_*,Arc[kind=k,weight=w,target=node],_*) << targets && Place[name=placename]<< node -> { 262 t += ‘placename + ((‘k==‘ArcKindread_arc())?"?":"*") + ‘w + " "; 263 } 264 } 265 multiPrint("tr " + ‘name + s + "->" + t); 266 } 267 268 269 } 270 } 271 272 %strategy PrintPlace() extends Identity() { 273 visit Place { 274 pl@ResolveWorkDefinitionPlace[tom_resolve_element_attribute_name=name] -> { 275 System.out.println("pl resolve " + ‘name); 276 return ‘pl; 277 } 278 279 Place[name=name,initialMarking=w] && w!=0 -> { 280 multiPrint("pl " + ‘name + " " + "(" + ‘w + ")"); 281 } 282 283 } 284 }A.2. Mod`ele source 119 285 286 public static void multiPrint(String s) { 287 System.out.println(s); 288 try { 289 writer.write(s+"\n"); 290 } catch (java.io.IOException e) { 291 System.out.println("Petri net save failed!"); 292 } 293 } 294 295 } A.2 Mod`ele source Cette transformation a ´et´e test´ee avec de nombreux mod`eles. Le mod`ele donn´e par le listing 1 est le mod`ele donn´e en exemple dans la section 7.1 du chapitre 7. Il s’agit aussi du mod`ele par d´efaut de la transformation dans le cas o`u aucun mod`ele n’est pass´e en param`etre (c’est en fait le mod`ele ´equivalent directement construit en Tom sans chargement de fichier). Listing 1 – Mod`ele source de l’exemple pour la transformation SimplePDLToPetriNet (format .xmi) A.3 Mod`ele r´esultant Le mod`ele source donn´e pr´ec´edemment produit le mod`ele cible suivant 2, qui est en fait le r´eseau de Petri r´esultant de la transformation, s´erialis´e sous la forme d’un fichier au format compatible avec l’entr´ee du model-checker TINA [BRV04] (il est aussi affich´e directement sur la sortie standard) : tr root_start root_ready*1 -> root_running*1 A_ready*1 B_ready*1 tr root_finish root_running*1 A_finished?1 B_finished?1 -> root_finished*1 tr child_start child_ready*1 -> child_running*1 C_ready*1 D_ready*1 tr child_finish child_running*1 C_finished?1 D_finished?1 -> child_finished*1 tr B_start B_ready*1 A_started?1 -> B_started*1 B_running*1 child_ready*1 tr B_finish B_running*1 child_finished?1 -> B_finished*1 tr A_start A_ready*1 -> A_started*1 A_running*1 tr A_finish A_running*1 -> A_finished*1 tr C_start C_ready*1 -> C_started*1 C_running*1 tr C_finish C_running*1 -> C_finished*1 tr D_start D_ready*1 -> D_started*1 D_running*1 tr D_finish D_running*1 C_started?1 -> D_finished*1 pl root_ready (1) pl child_ready (1) pl A_ready (1) pl B_ready (1) pl C_ready (1) pl D_ready (1) Listing 2 – Mod`ele cible r´esultant de la transformation SimplePDLToPetriNet (format lisible par TINA)120 Annexe A. Etude de cas : Transformation SimplePDLToPetriNet ´ A.4 V´erification du r´esultat La boˆıte `a outils TINA 56 (version 3.1.0) a ´et´e utilis´ee pour v´erifier le mod`ele r´esultant de la transformation de mod`ele SimplePDLToPetriNet. Proc´edure Le r´esultat de la transformation est un r´eseau de Petri dans un format lisible par TINA (fichier result.net. La proc´edure ci-apr`es permet de reproduire l’exp´erience : 1. Visualisation du r´eseau de Petri : ~/tina-3.1.0/bin/nd result.net (sauvegarde au format .ndr) 2. Construction du graphe d’atteignabilit´e : ~/tina-3.1.0/bin/tina -C result.ndr result.ktz (le format .ktz est un format binaire propri´etaire) 3. V´erification de propri´et´es : ~/tina-3.1.0/bin/selt result.ktz prop.ltl >> result.selt (le fichier prop.ltl d´ecrit ci-apr`es contient les formules et les propri´et´es `a v´erifier) Formule et propri´et´es 1 op finished = T /\ A_finished /\ B_finished /\ C_finished /\ D_finished; 2 3 [] (finished => dead); 4 [] (dead => finished); 5 [] <> dead ; 6 - <> finished; Listing 3 – Formule et propri´et´es LTL `a v´erifier sur le mod`ele r´esulatnt de la transformation SimplePDLToPetriNet Le listing 3 contient une formule et quatre propri´et´es exprim´ees en LTL afin de pouvoir ˆetre utilis´ees avec TINA. Nous les d´ecrivons ci-apr`es, dans l’ordre : ligne 1 : Il s’agit de la formule d´efinissant l’op´erateur finished comme >∧Af inished∧Bf inished∧ Cf inished ∧ Df inished. Cela signifie que l’on consid`ere le processus complet termin´e lorsque toutes les activit´es le composant sont termin´ees (lorsqu’il y a un jeton dans chaque place f inished des activit´es A, B, C et D). ligne 3 : (f inished ⇒ dead). Cette premi`ere propri´et´e signifie que tout processus dans son ´etat final est termin´e. ligne 4 : (dead ⇒ f inished). Cette deuxi`eme propri´et´e peut ˆetre traduite par « tout processus termin´e est dans son ´etat final » (correction partielle). ligne 5 : ♦dead. Cette troisi`eme propri´et´e est la propri´et´e de terminaison qui assure que « toute ex´ecution se termine ». ligne 6 : ¬♦f inished. Cette quatri`eme propri´et´e peut ˆetre traduite par « l’´etat final n’est jamais atteint » et revient `a v´erifier la propri´et´e de consistance faible (existence d’au moins une ex´ecution du processus). Note : dead est une propri´et´e pr´ed´efinie vraie uniquement sur les ´etats de blocage. 56. http://projects.laas.fr/tina APISENSER : a distributed platform for deploying, executing and managing data collection campaigns using smart devices Nicolas Haderer To cite this version: Nicolas Haderer. APISENSER : a distributed platform for deploying, executing and managing data collection campaigns using smart devices. Mobile Computing. Universit´e des Sciences et Technologie de Lille - Lille I, 2014. French. HAL Id: tel-01087325 https://tel.archives-ouvertes.fr/tel-01087325 Submitted on 25 Nov 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.Département de formation doctorale en informatique UFR IEEA École doctorale SPI Lille APISENSE® : une plate-forme répartie pour la conception, le déploiement et l’exécution de campagnes de collecte de données sur des terminaux intelligents THÈSE présentée et soutenue publiquement le 05/11/2014 pour l’obtention du Doctorat de l’Université Lille I (spécialité informatique) par Haderer Nicolas Composition du jury Rapporteurs : Chantal Taconet, TELECOM SudParis, France Ernesto Exposito, INSA Toulouse, France Examinateurs : Stéphane Frénot, INSA Lyon, France Luigi Lancieri, Université Lille I, France Directeur : Lionel Seinturier, Université Lille I, France Co-encadrant : Romain Rouvoy, Université Lille I, France Laboratoire d’Informatique Fondamentale de Lille – Inria Lille - Nord Europe UMR Lille 1/CNRS 8022R É S UM É Le mobile crowdsensing est une nouvelle forme de collecte de données exploitant la foule de terminaux intelligents déjà déployés à travers le monde pour collecter massivement des données environnementales ou comportementales d’une population. Ces dernières années, ce type de collecte de données a suscité l’intérêt d’un grand nombre d’acteurs industriels et académiques dans de nombreux domaines tels que l’étude de la mobilité urbaine, la surveillance de l’environnement, la santé ou l’étude des comportements socioculturels. Cependant, le mobile crowdsensing n’en n’est qu’à ses premiers stades de développement, et de nombreux défis doivent encore être relevés pour pleinement profiter de son potentiel. Ces défis incluent la protection de la vie privée des utilisateurs, les ressources énergétiques limitées des terminaux mobiles, la mise en place de modèles de récompense et de déploiement adaptés pour recruter les utilisateurs les plus à même de collecter les données désirées, ainsi que faire face à l’hétérogénéité des plateformes mobiles disponibles. Dans cette thèse, nous avons cherché à réétudier les architectures des systèmes dédiés au mobile crowdsensing pour adresser les limitations liées au développement, au déploiement et à l’exécution de campagnes de collecte de données. Les différentes contributions proposées sont articulées autour APISENSE®, la plate-forme résultante des travaux de cette thèse. Plus particulièrement, APISENSE® propose un environnement distribué favorisant le développement et le déploiement rapides de campagnes de collecte, tout en prenant en considération des contraintes telles que la protection de la vie privée des utilisateurs ou encore les ressources énergétiques limitées de leurs terminaux. Pour atteindre ces objectifs, APISENSE® repose sur le modèle de composant SCA et sur l’ingénierie des lignes de produits logiciels, offrant ainsi un environnement modulaire et facilement configurable pour supporter une grande diversité de campagnes de collecte. Un modèle de programmation de haut niveau a également été proposé permettant de s’affranchir de toute la complexité liée aux développements d’applications de collecte mobiles. APISENSE® a été utilisé pour réaliser une campagne de collecte de données déployée auprès d’une centaine d’utilisateurs au sein d’une étude sociologique, et évalué à travers des expériences qui démontrent la validité, l’efficacité et le passage à échelle de notre solution. iiiA B S T R A C T Mobile crowdsensing is a new form of data collection that takes advantage of millions smart devices already deployed throughout the world to collect massively environmental or behavioral data from a population. Recently, this type of data collection has attracted interest from a large number of industrials and academic players in many areas, such as the study of urban mobility, environmental monitoring, health or the study of sociocultural attitudes. However, mobile crowdsensing is in its early stages of development, and many challenges remain to be addressed to take full advantage of its potential. These challenges include privacy, limited energy resources of devices, development of reward and recruitment models to select appropriates mobile users and dealing with heterogeneity of mobile platforms available. In this thesis, we aim to reconsider the architectural design of current mobile crowdsensing systems to provide a simple and effective way to design, deploy and manage data collection campaigns. The main contributions of this thesis are organize around APISENSE®, the resulting platform of this research. In particular, APISENSE® offers a distributed environment based on the SCA component model and software product line engineering , providing a modular and flexible environment to support a wide variety of data collection campaigns. Futhemore, APISENSE® takes into account constraints, such as protecting the privacy of users or limited energy resources devices. We also propose a high-level programming model to get rid of the complexity associated with the development of mobile data collection applications. APISENSE® has been used to carry out a data collection campaign deployed over hundred of users in a sociological study and evaluated through experiments demonstrating the validity, effectiveness and scalability of our solution. vTA B L E D E S M AT I È R E S 1 introduction 9 1.1 Contexte 9 1.2 Problématiques 10 1.3 Objectif du manuscrit 12 1.4 Contributions 13 1.5 Plan du manuscrit 15 1.6 Publications 16 I État de l’art 19 2 systèmes de collecte de données 21 2.1 Mobile crowdsensing 22 2.1.1 Qu’est ce que le Mobile crowdsensing ? 22 2.1.2 Classification des applications 23 2.1.3 Discussion 27 2.2 Les challenges clés du Mobile crowdsensing 28 2.2.1 Sécurité et Vie privée 28 2.2.2 Gestion des ressources 29 2.2.3 Hétérogénéité des équipements et des OS 30 2.2.4 Diffusion et passage à l’échelle des applications 31 2.2.5 Implication et incitation des usagers 32 2.2.6 Discussion 33 2.3 Travaux connexes 34 2.3.1 Funf Open Sensing Framework 34 2.3.2 MyExperience : A System for In situ Tracing and Capturing of User Feedback on Mobile Phones 36 2.3.3 Medusa : A programming framework for crowd-sensing applications 38 2.3.4 PRISM : Platform for Remote Sensing using Smartphones 42 2.3.5 Bubble-sensing 45 2.3.6 Pogo, a Middleware for Mobile Phone Sensing 46 12.3.7 AnonySense : A System for Anonymous Opportunistic Sensing 48 2.4 Synthèse et conclusion 49 II Contributions 53 3 collecte mobile de données 55 3.1 Introduction 55 3.2 Considérations et objectifs de conception 57 3.3 Langage de programmation des collectes 59 3.3.1 Concept de l’interface de programmation 60 3.3.2 Collecte de données dirigée par les évènements 60 3.3.3 Les actions 64 3.4 Intergiciel de collecte 68 3.4.1 Couche d’exécution 68 3.4.2 Couche de contrôle 72 3.4.3 Couche d’interaction 74 3.5 Évaluation du prototype 78 3.5.1 Quelques exemples de collectes 79 3.5.2 Coût énergétique d’une expérience de collecte 87 3.6 Conclusion 88 4 collecte répartie de données 91 4.1 Introduction 91 4.2 Infrastructure répartie de traitement des données 92 4.3 Architecture du serveur central 94 4.3.1 L’enregistrement des participants 95 4.3.2 L’enregistrement des expériences de collecte 96 4.3.3 Déploiement des tâches de collecte 98 4.3.4 Gestion des nœuds de collecte 99 4.4 Architecture des noeuds de collecte 100 4.4.1 Modèle de caractèristiques d’une campagne de collecte 101 4.4.2 Création d’une nouvelle campagne 107 4.4.3 Intéraction entre les composants 110 4.4.4 Extension des nœuds de collecte 112 4.5 Campagne de collecte communautaire 113 24.5.1 Extension du modèle de programmation 116 4.5.2 Coordonner l’exécution des tâches de collecte 119 4.6 Conclusion 124 III Évaluations 127 5 pratiques culturelles et usages de l’informatique connectée 129 5.1 Introduction 130 5.2 Contexte et objectif de l’étude PRACTIC 130 5.3 Développement de l’étude PRACTIC 131 5.3.1 Collecte opportuniste 132 5.3.2 Collecte participative 135 5.3.3 Retour utilisateur 136 5.3.4 Discussions 136 5.4 Déploiement de l’étude PRACTIC 139 5.4.1 Protocole du déploiement 139 5.4.2 Participation 140 5.5 Conclusion 143 6 évaluation du modèle collaboratif 145 6.1 Introduction 145 6.2 Mise en place de l’expérience 145 6.3 Résultats 148 6.3.1 Quantité de données et couverture géographique 148 6.3.2 Consommation énergétique 151 6.4 Conclusion 154 IV Conclusion 157 7 conclusion 159 7.1 Rappel des motivations 159 7.2 Rappel des contributions 160 7.2.1 Collecte mobile de données 160 7.2.2 Collecte répartie de données 161 7.3 Perspectives 162 3bibliographie 165 4TA B L E D E S F I G U R E S Figure 1 Vue d’ensemble de APISENSE® 15 Figure 2 Développement d’une application mobile avec FunfInABox 35 Figure 3 Architecture de Medusa [55] 41 Figure 4 Architecture de PRISM [16] 44 Figure 5 Architecture de Bubble-sensing [45] 45 Figure 6 Architecture de Anonysense [62] 48 Figure 7 Tableau comparatif des plate-formes MCS 52 Figure 8 Interface de Programmation APISENSE 61 Figure 9 Exemple de capture d’écran d’un retour utilisateur 67 Figure 10 Architecture de l’intergiciel mobile 69 Figure 11 Interaction de la couche d’exécution 69 Figure 12 Règles de confidentialité 75 Figure 13 Exemple de contenu web disponible via le FeedbackManager 78 Figure 14 Flux de données de l’expérience Manipulation de Lego NXT 82 Figure 15 Impact d’APISENSE sur la consommation énergétique 88 Figure 16 Impact des capteurs sur la consommation énergétique 89 Figure 17 Vue d’ensemble d’APISENSE® 93 Figure 18 Architecture SCA du serveur central 96 Figure 19 Modèle de caractéristiques d’une campagne de collecte 102 Figure 20 Architecture initiale d’un nœud de collecte 107 Figure 21 Processus de génération d’une architecture SCA 108 Figure 22 Architecture SCA d’une campagne de collecte 109 Figure 23 Interaction des composants APISENSE® 111 Figure 24 Exemple d’extension : Export des données au format KML 114 Figure 25 Composant SCA responsable du recrutement collaboratif 120 Figure 26 Distribution des capteurs virtuels 121 Figure 27 Données collectées par l’étude PRACTIC 132 Figure 28 Exemple de retour utilisateur PRACTIC 137 Figure 29 Gain en terme de lignes de code obtenu grâce à APISENSE® pour le développement de l’étude PRACTIC 138 5Figure 30 Nombre d’inscriptions par jour à PRACTIC 140 Figure 31 Diversité des équipements mobiles 141 Figure 32 Taux de participation à la collecte opportuniste 141 Figure 33 Taux de participation à la collecte participative et opportuniste 142 Figure 34 Représentation des sessions d’allumage de l’écran du terminal d’un participant cumulées au cours de 40 jours 142 Figure 35 Architecture du simulateur de traces de mobilité 147 Figure 36 Comparaison de la quantité de données collectées en fonction du nombre de dispositifs mobiles et de l’objectif de couverture géographique 149 Figure 37 Comparaison de la couverture géographique selon différentes périodes de la journée 150 Figure 38 Comparaison des moyennes de la consommation énergétique en fonction de la concentration de dispositifs mobiles dans la zone de collecte 152 Figure 39 Répartition des charges énergétiques suivant les approches : (a) individuelle, (b) collaborative avec une objectif de couverture de 1000 m 2 , (c) collaborative avec un objectif de couverture de 500 m2 153 6L I S T E D E S TA B L E A U X Table 1 Liste des fonctions d’observation d’événements prédéfinis. 61 Table 2 Liste des paramètres d’une fonction de rappel 61 Table 3 Configuration de l’observation de la position d’un utilisateur 62 Table 4 Liste des fonctions d’un objet de souscription 64 Table 5 Liste des fonctions de la façade de collecte 65 Table 6 Liste des fonctions de la façade dédiée à la création des questionnaires 66 Table 7 Exemples de tâches de collecte implémentées avec APISENSE. (*Lignes de code) 80 Table 8 Tableau décrivant la qualité du système de classification 85 Table 9 Comparaison de l’expressivité et du nombre de lignes de code 87 Table 10 Propriétés définissant une expérience de collecte 97 Table 11 Interface de programmation dédiée à la définition des campagnes de collecte communautaires. 116 Table 12 Façade utilisée pour les besoins de l’application PRACTIC 138 71 I N T R O D U C T I O N 1.1 contexte La dernière génération de terminaux intelligents tels que les smartphones ou les tablettes tactiles est rapidement devenue omniprésente dans notre quotidien. On recense, actuellement, plus d’un milliard de smartphones à travers le monde et ce nombre ne va cesser d’augmenter [42]. Non seulement dotés d’une grande capacité de calcul et d’une connexion Internet en continu, ces terminaux sont désormais programmables et équipés d’un grand nombre de capteurs sophistiqués permettant de prendre des images, capter des sons, mesurer la température ou la pression atmosphérique tout en donnant la position géographique. De ce fait, leurs usages permettent de générer de nombreuses traces numériques d’activités, capables d’identifier nos habitudes, nos relations sociales ainsi que l’environnement dans lequel on évolue. De par leurs fortes présences dans notre société et leurs hautes prouesses technologiques, ces terminaux ont ouvert la voie à une nouvelle forme de collecte de données à grande échelle, récemment appelée le Mobile Crowd Sensing (MCS) [27]. Plus particulièrement, le MCS fait référence à l’ensemble des applications qui impliquent des citoyens ordinaires, munis de leurs terminaux intelligents, afin de collecter et de partager des données dans le but de mesurer des phénomènes d’un intérêt commun. Ces dernières années, de nombreuses recherches ont été menées pour tenter d’exploiter le potentiel du MCS dans de nombreux domaines tels que l’étude de la mobilité urbaine ou des comportements sociaux, la surveillance de l’environnement ou la santé [39, 11]. Quelques exemples d’applications novatrices dans ce secteur comprennent la collecte et le partage de données concernant la qualité de l’air [19], le trafic routier [51], la pollution sonore [47], les performances cyclistes [20], ou encore des informations relatives aux prix des produits de consommation [17]. 91.2 problématiques Comme la revue de la littérature l’indique, le MCS n’en n’est qu’à ses premiers stades de développement, et de nombreux défis doivent encore être relevés pour pleinement profiter de son potentiel [39, 27, 66]. Ces défis sont particulièrement liés à l’implication d’individus rationnels, qui sont au centre du système de collecte de données. Cela demande de prendre en considération de nombreux aspects non-fonctionnels qui ne sont pas directement liés à la collecte de données difficiles en elle-même, rendant par conséquent le développement de ces systèmes encore difficile. Plus particulièrement, il est nécessaire de prendre en compte les points suivants : énergie : Bien que la dernière génération des terminaux intelligents continue de fournir plus de puissance de calcul, de mémoire, d’espace de stockage et de capteurs de plus en plus sophistiqués, les ressources énergétiques de ces terminaux restent limitées. Sans une gestion rigoureuse de l’énergie consommée par les applications de collecte, la batterie de ces terminaux peut s’épuiser en quelques heures, décourageant ainsi les individus à installer ces applications. respect de la vie privée : Sans un mécanisme de protection approprié, les applications mobiles peuvent se devenir de parfaits espions, en révélant potentiellement des informations privées sur leur propriétaire. Il est par exemple possible qu’elles puissent enregistrer des conversations intimes ou prendre des photos d’une scène privée, d’identifier des trajets quotidiennement empruntés par le propriétaire du terminal et d’observer ses principaux lieux de vie tels que son domicile ou son lieu de travail. Ce point représente également un frein majeur pour l’acceptation de ces applications par les individus. D’un autre coté, certaines de ces données peuvent se révéler indispensables pour l’objectif de la collecte de données. compromis : Prendre en compte ces deux derniers points demande généralement le développement d’algorithmes sophistiqués permettant de faire un compromis entre l’énergie consommée par les applications mobiles, leur niveau d’intrusion dans la vie privée des individus et la qualité des données collectées. diversité : De plus, les développeurs doivent également faire face à la diversité des systèmes d’exploitations mobiles disponibles sur le marché (par ex. Android, iOS). Pour déployer une application auprès d’un grand nombre d’individus, les développeurs doivent généralement étudier et développer une application pour chacun de ces systèmes, entraînant par conséquent un coût important (c.-à-d. temps de développement, monétaire). 10passage á l’échelle : Finalement, ces systèmes doivent également faire face au défi de collecter une grande quantité de données reportées par des utilisateurs répartis à travers le monde. De ce fait, déployer une application auprès de plusieurs millions d’utilisateurs qui collectent et propagent continuellement des données vers un serveur serait inefficace, et demanderait des ressources importantes en terme de CPU, de mémoire et d’espace de stockage de l’infrastructure hébergeant l’application serveur pour stocker et analyser ces données. En outre, ces applications peuvent générer un lot considérable de données qui peuvent être inutiles, surtout si la collecte vise uniquement une région spécifique ou une population particulière. Dans ce contexte, il est nécessaire de mettre en place un modèle de déploiement adapté pour recruter les bons utilisateurs au bon moment, capable de collecter seulement les données utiles à la campagne de collecte. À ce jour, beaucoup d’efforts ont principalement portés sur la réalisation de systèmes monolithiques, difficilement réutilisables dans un contexte non anticipé [6]. Ces systèmes ont été conçus complètement indépendamment les uns des autres, ne partageant aucun module logiciel commun, alors qu’ils ont à faire face à des problématiques communes. La mise en place d’une nouvelle campagne de collecte demande généralement de développer un nouveau système à partir de zéro, pouvant entraîner la négligence de certains aspects non fonctionnels, comme protéger la vie privée des individus, à cause de contrainte de temps ou une expertise limitée dans ce domaine. Ce manque d’approche réutilisable, également pointé du doigt dans la littérature [39, 27, 60, 66], entrave ainsi l’adoption du MCS par de nombreux acteurs intéressés par ce type de collecte. Dans cette thèse, nous avons cherché à réétudier les architectures des systèmes dédiées au MCS pour adresser les limitations identifiées ci-dessus liées au développement, au déploiement et à l’exécution d’une campagne de collecte de données. Plus particulièrement, l’objectif des travaux de cette thèse est de proposer une plate-forme générique, favorisant le développement et le déploiement rapides de campagnes de collecte de données pouvant être menées dans une grande variété de domaines. 111.3 objectif du manuscrit Comme nous l’avons décrit dans la section précédente, le développement d’applications utilisant le MCS comme source de collecte de données est une tâche complexe, nécessitant une grande expertise. Toutefois, pour ouvrir cette forme de collecte à de nombreux acteurs académiques et industriels, nous proposons dans cette thèse une plate-forme générique qui facilite le développement et le déploiement de ces applications de collecte. Plus particulièrement, nous adressons dans cette thèse les points suivants : Simplifier le développement des applications de collecte Le premier défi concerne le développement des applications de collecte. Actuellement, ce développement nécessite une grande expertise dans les systèmes d’exploitation des terminaux mobiles disponibles sur le marché. Pour simplifier leur développement, il est nécessaire de proposer un modèle de programmation nouveau fournissant une abstraction complète de ces systèmes d’exploitation. Dans ce contexte, les principaux défis sont de proposer un modèle : i) assez général pour supporter une grande variété d’activités de collecte qui peuvent impliquer une grande variété de capteurs, ii) permettant de minimiser l’expertise nécessaire dans les technologies mobiles afin d’accéder aux fonctionnalités offertes par les capteurs des terminaux mobiles, ainsi que leurs collectes et leurs propagations vers l’infrastructure serveur, iii) et finalement portable pour être en mesure de s’exécuter sur les différents systèmes d’exploitation. D’autre part, il est nécessaire de fournir un environnement fiable assurant la confidentialité des utilisateurs, efficace pour ne pas empêcher une utilisation normale des terminaux mobiles et faciles d’utilisation pour les utilisateurs voulant participer aux collectes de données. Mise en œuvre d’une plate-forme générique de collecte de données Le deuxième défi concerne l’architecture de la plate-forme responsable du déploiement des applications de collecte, de la persistance et de l’analyse des données collectées. La plupart des plate-formes proposées actuellement sont souvent monolithiques, donnant très peu ou pas de possibilités de personnalisation. Cependant, les applications de collectes peuvent être menées dans une grande variété de domaines, nécessitant diffé- 12rents services de l’application serveur pour analyser et stocker les données collectées ou encore déployer ces applications. Pour prendre en compte cette diversité, la flexibilité et l’extensibilité doivent être les propriétés clés de l’architecture mise en œuvre. Cela demande par conséquent de proposer un modèle identifiant les points communs et les différentes exigences des applications de collecte qui peuvent être réalisées. Ce modèle doit s’appuyer sur les bonnes pratiques de l’ingénierie logiciel pour fournir un cadre logiciel modulaire et configurable, et être utilisé simplement par les différents acteurs voulant mener de nouvelles collectes de données pour leurs permettre d’exprimer leurs exigences. D’autre part, la plate-forme doit être capable de passer à l’échelle, c’est-à-dire d’être capable d’impliquer un grand nombre d’utilisateurs mobiles ainsi qu’un grand nombre d’acteurs voulant définir de nouvelles collectes d’un grand volume de données. 1.4 contributions En réponse à ces défis, ces travaux ont abouti à la définition, l’implémentation et l’évaluation d’une plate-forme baptisée APISENSE®. La finalité de APISENSE® est de permettre une mise en place rapide de campagnes de collectes de données à travers des terminaux mobiles intelligents. Nous proposons ici une vue d’ensemble de la solution proposée illustrée par la figure 1. APISENSE® distingue deux rôles évoluant dans la plate-forme. Le premier, appelé simplement utilisateur, peut être un acteur voulant définir et déployer de nouvelles campagnes de collecte de données à travers des terminaux mobiles. Les utilisateurs peuvent utiliser un nœud de collecte dédié (DataGathering Node), qui peut être déployé sur une infrastructure publique ou privée selon leur exigence, et se servir des services fournis par celui-ci pour définir de nouvelles tâches de collecte grâce à un langage de script dédié, déployer la tâche à travers un sous-ensemble d’individus ainsi qu’exploiter ou exposer les données collectées (par ex. visualisation, analyse). Le second rôle, appelé participant, est un individu possédant un terminal mobile. Les participants peuvent utiliser une application mobile dédiée pour télécharger les tâches de collecte, les exécuter dans un environnement sécurisé et automatiquement propager les données collectées. Dans APISENSE®, la mise en relation entre les nœuds de collecte et les participants est assurée par le serveur central (Central Server). Dans un sens, le serveur central peut être perçu comme un magasin dédié aux tâches de collecte. Typiquement, son rôle est 13d’assurer le déploiement des tâches de collecte soumises par les nœuds de collecte, et également d’assurer une première couche d’anonymat des participants. Les objectifs présentés dans la section précédente sont adressés avec APISENSE® de la manière suivante : • À l’issue d’une étude approfondie des architectures présentées dans la littérature (cf. chapitre 2 section 2.3), nous avons proposé un modèle permettant de représenter la variabilité des systèmes responsables du développement et du déploiement de campagnes de collectes de données (cf. chapitre 3 section 4.4). Ce modèle est ensuite fourni aux utilisateurs leur permettant de définir des exigences selon la spécificité des campagnes qu’ils veulent mener. Une application serveur dédiée (c.-à-d. DataGathering Node dans la figure 1) est ensuite générée suite aux exigences définies, fournissant un ensemble de services permettant de développer et de déployer de nouvelles campagnes de collecte, d’assurer la persistance des données collectées par les dispositifs mobiles ainsi que de connecter des services additionnels pour extraire ou traiter ces données. • Nous avons défini un modèle de programmation de haut niveau permettant de s’affranchir de toute la complexité liée aux développements mobiles. Basée sur un langage de script, cette abstraction a été conçue pour être assez générale pour supporter une grande variété d’applications de collecte, facilement accessible pour des utilisateurs ayant très peu d’expertise en programmation mobile, et facilement portable pour être exécutée dans différents environnements mobiles (par ex. Android, iOS, Window Mobile)(cf. chapitre 3 section 3.3). • Pour assurer l’exécution des campagnes de collecte définies par notre modèle de programmation, nous proposons un environnement d’exécution dédié aux utilisateurs mobiles. Cet environnement est responsable du téléchargement, de l’exécution des applications de collectes et de la propagation des données collectées (cf. chapitre 3 section 3.4). Principalement, cet environnement met l’accent sur la consommation énergétique liée à l’exécution d’une campagne de collecte et la protection de la vie privée des utilisateurs. • Nous proposons des modèles et des algorithmes dédiés à l’optimisation de l’exécution de campagnes de collecte. L’optimisation proposée réside en deux points. Pour le premier, nous proposons un modèle de déploiement de tâches de collecte contextuel, permettant d’attribuer une application de collecte à un individu en fonction de propriétés temporelles, géographiques et de capacité 14de détection. Pour le second, nous proposons un algorithme permettant de coordonner l’exécution des tâches de collecte, entre les dispositifs répondant aux mêmes propriétés, afin d’équilibrer les coûts énergétiques entre les terminaux et de diminuer la redondance des données collectées(cf. chapitre 4 section 4.5). Figure 1 – Vue d’ensemble de APISENSE® 1.5 plan du manuscrit Ce manuscrit est divisé en quatre parties. La première partie donne une vue d’ensemble de l’état de l’art dans le domaine du Mobile crowdsensing. La seconde partie décrit les contributions de ce manuscrit. La troisième porte sur la validation des contributions proposées. Et finalement la quatrième conclut ce manuscrit et décrit les perspectives issues des travaux de cette thèse. Plus particulièrement, la suite de ce document est organisé comme suit. Partie 1 : État de l’art Chapitre 1 : Systèmes de collecte de données Ce chapitre a pour objectif de donner dans un premier un temps une vison plus approfondie du Mobile crowdsensing ainsi que ses problématiques. Nous décrivons par la suite des travaux proches à ceux proposés dans cette thèse et nous identifions leurs limitations. 15Partie 2 : Contributions Chapitre 3 : Collecte mobile de données Ce chapitre traite de l’environnement mobile de APISENSE®. Il décrit tout d’abord le modèle de programmation proposé permettant de minimiser le coût du développement des applications de collecte de données. Par la suite, il présente l’architecture de l’environnement mobile dédié à l’exécution des applications de collecte. Chapitre 4 : Collecte répartie de données Ce chapitre présente l’architecture et les choix d’implémentation de l’environnement serveur APISENSE® permettant de déployer des applications de collecte ainsi que d’exploiter les données collectées. Partie 3 : Validations Chapitre 5 : Pratiques culturelles et usages de l’informatique connectée Ce chapitre présente une campagne de collecte déployée auprès d’une centaine d’utilisateurs, réalisée au sein d’une étude sociologique nommée PRATIC (Pratiques Culturelles et Usages de l’Informatique Connectée). Chapitre 6 : Performance et efficacité de APISENSE® présente une validation quantitative sur les performances de APISENSE® Partie 4 : Conclusion Chapitre 7 : Conclusion Finalement, ce chapitre conclut ce manuscrit et expose les perspectives des travaux présentés. 1.6 publications Les travaux de cette thèse ont été réalisés au sein de l’équipe SPIRALS commune à Inria et à l’Université Lille 1 au sein de l’UMR LIFL (Laboratoire d’Informatique Fondamentale de Lille). Ils ont donné lieu aux publications scientifiques suivantes. Conférence International • Dynamic Deployment of Sensing Experiments in the Wild Using Smartphones. Nicolas Haderer, Romain Rouvoy and Lionel Seinturier. In 13th International IFIP 16Conference on Distributed Applications and Interoperable Systems (DAIS), pages 43-56. • A Federated Multi-Cloud PaaS Infrastructure. Fawaz Paraiso, Nicolas Haderer, Philippe Merle, Romain Rouvoy, Lionel Seinturier. In 5th IEEE International Conference on Cloud Computing (2012), pages 392-399. Chapitre de livre • A Cloud-based Infrastructure for Crowdsourcing Data from Mobile Devices. Nicolas Haderer, Fawaz Paraiso, Christophe Ribeiro, Philippe Merle, Romain Rouvoy, Lionel Seinturier Wenjun Wu. Cloud-based Software Crowdsourcing, Springer, 2014 (To appear) Workshop • A preliminary investigation of user incentives to leverage crowdsensing activities. Nicolas Haderer, Romain Rouvoy and Lionel Seinturier. 2nd International IEEE PerCom Workshop on Hot Topics in Pervasive Computing (PerHot) (2013), pp. 199-204. • Towards Multi-Cloud Configurations Using Feature Models and Ontologies. Clément Quinton, Nicolas Haderer, Romain Rouvoy and Laurence Duchien. In Proceedings of the 1st International Workshop on Multi-Cloud Applications and Federated Clouds, Multi-Cloud’13. Prague, Czech Republic, 22 April 2013, pp. 21-26. Vulgarisation scientifique • APISENSE : Crowd-Sensing Made Easy. Nicolas Haderer, Romain Rouvoy, Christophe Ribeiro, Lionel Seinturier. ERCIM News, ERCIM, 2013, Special theme : Mobile Computing, 93, pp. 28-29. • Le capteur, c’est vous ! Nicolas Haderer, Christophe Ribeiro, Romain Rouvoy, Simon Charneau, Vassili Rivron, Alan Ouakrat, Sonia Ben Mokhtar, Lionel Seinturier L’Usine Nouvelle, L’Usine Nouvelle, 2013, 3353, pp. 74-75 • Campagne de collecte de données et vie privée. Nicolas Haderer, Miguel Nuñez Del Prado Cortez, Romain Rouvoy, Marc-Olivier Killijian and Matthieu Roy. 3ème Journées du GDR CNRS GPL (2012), pp. 253-254. Rapport de recherche • AntDroid : A distributed platform for mobile sensing. Nicolas Haderer, Romain Rouvoy, Lionel Seinturier. [Research Report], 2012, pp. 27. RR-7885 17Première partie État de l’art 192 S Y S T ÈM E S D E C O L L E C T E D E D O N N É E S Sommaire 2.1 Mobile crowdsensing 22 2.1.1 Qu’est ce que le Mobile crowdsensing ? 22 2.1.2 Classification des applications 23 2.1.3 Discussion 27 2.2 Les challenges clés du Mobile crowdsensing 28 2.2.1 Sécurité et Vie privée 28 2.2.2 Gestion des ressources 29 2.2.3 Hétérogénéité des équipements et des OS 30 2.2.4 Diffusion et passage à l’échelle des applications 31 2.2.5 Implication et incitation des usagers 32 2.2.6 Discussion 33 2.3 Travaux connexes 34 2.3.1 Funf Open Sensing Framework 34 2.3.2 MyExperience : A System for In situ Tracing and Capturing of User Feedback on Mobile Phones 36 2.3.3 Medusa : A programming framework for crowd-sensing applications 38 2.3.4 PRISM : Platform for Remote Sensing using Smartphones 42 2.3.5 Bubble-sensing 45 2.3.6 Pogo, a Middleware for Mobile Phone Sensing 46 2.3.7 AnonySense : A System for Anonymous Opportunistic Sensing 48 2.4 Synthèse et conclusion 49 212.1 mobile crowdsensing 2.1.1 Qu’est ce que le Mobile crowdsensing ? En 2010, Ganti et al. définissent le Mobile crowdsensing comme la participation d’un groupe d’individus, disposant de terminaux mobiles intelligents qui, collectivement, partagent des informations pour la mesure ou la cartographie de phénomènes d’un intérêt commun". Typiquement, le MCS offre de nombreux avantages par rapport aux méthodes classiques de collecte de données telles que les réseaux de capteurs (WSNs), qui peuvent impliquer des coûts importants liés à l’installation d’un grand nombre de capteurs statiques et de leurs maintenances. En effet, des millions de dispositifs mobiles sont déjà déployés dans la nature, portés par des utilisateurs dans leur vie quotidienne. Avec la généralisation des magasins d’applications (par ex. App Store, Google Play), il est désormais possible pour des petites organisations comme des équipes de recherche ou des petites entreprises de rapidement délivrer une application mobile auprès de cette masse d’utilisateurs. Par exemple, au lieu d’installer un ensemble de caméras le long des routes, il est possible de collecter des données du trafic routier et de détecter les embouteillages en utilisant le GPS des dispositifs mobiles des conducteurs. Un autre avantage de l’utilisation de ces dispositifs est le nombre de capteurs multimodaux inclus dans ces appareils, permettant une collecte d’information contextuelle de haut niveau. En effet, le GPS peut fournir la position d’un utilisateur. Le microphone, quand il n’est pas utilisé pour les communications téléphoniques, peut être utilisé comme capteur acoustique. L’accéléromètre peut être, quant à lui, utilisé pour identifier les modes de transport des utilisateurs, leur activité journalière (par ex. temps passé en position assise, à dormir, à marcher, à courir) mais aussi détecter des dégâts importants sur une route. De nouveaux capteurs peuvent également facilement être ajoutés à ceux initialement préinstallés, en utilisant des connexions sans fils comme le Bluetooth pour communiquer entre eux. Quelques exemples sont les bracelets connectés qui peuvent mesurer la fréquence cardiaque 1 d’un individu, ou les capteurs qui mesure la qualité de l’air [19]. Pour finir, le dernier avantage est de pouvoir inclure les utilisateurs dans le processus de collecte, bénéficiant ainsi de l’intelligence humaine pour collecter des données sémantiquement complexes à identifier à partir de simples capteurs. Par exemple, un utilisateur peut facilement identifier la dégradation d’installations 1. http://pulseon.fi/ 22publiques, prendre une photo de ces dégâts et l’envoyer à la collectivité territoriale concernée [35]. Grâce à ces avantages, le MCS a suscité l’intérêt d’un grand nombre d’acteurs industriels et académiques dans des domaines tels que l’étude de la mobilité urbaine ou des comportements sociaux, la surveillance de l’environnement et la santé [39, 11]. Cependant, l’utilisation des dispositifs mobiles possédés par des individus introduit également de nouvelles problématiques, comme la préservation de la vie privée des utilisateurs, la grande consommation énergétique des applications de collecte ou alors comment inciter les utilisateurs à installer et exécuter ces applications. Dans la suite de cette section, nous présentons tout d’abord une vue d’ensemble de ces applications avant de décrire avec plus de précision ces problématiques. 2.1.2 Classification des applications Dans la littérature, il existe un grand nombre d’applications de collecte de données, mettant en évidence l’utilisation du MCS dans une grande variété de domaines. Globalement, ces applications peuvent être classées selon deux critères : le sujet à observer et le mode d’acquisition des données. Le classement selon le sujet à observer se scinde, lui encore, en deux dimensions : les applications de collecte personnelle et les applications de collecte communautaire. Les applications de collecte personnelle visent à observer et analyser le comportement d’un individu (e.g., activité physique, mode de transport), tandis que les applications de collecte communautaire visent à observer des phénomènes (à plus grande échelle) sur l’environnement (par ex. qualité réseaux, pollution atmosphérique ou sonore) ou sur une infrastructure publique (e.g., trafic routier, place de parking disponible, dégâts de matériel public). Le classement selon le mode d’acquisition de données peut également se scinder en deux modalités appelées : collecte participative et collecte opportuniste. Dans la collecte participative, l’utilisateur est directement impliqué dans la prise de décision de la collecte (i.e., en décidant quand, comment et quelles données doivent être collectées). Au contraire, dans la collecte opportuniste, elle est complètement automatisée par l’application, sans nécessiter une intervention de l’utilisateur. 23Collecte personnelle ou communautaire Dans les systèmes de collecte personnelle, l’ objectif est d’observer des phénomènes liés à un individu. Dans ce type de système, toutes les données collectées sont géné- ralement couplées avec un identifiant unique, permettant de suivre l’évolution d’un utilisateur spécifique à travers le temps. Elles sont généralement rendues à l’utilisateur sous forme d’un rapport détaillé sur son activité, partagées à travers un réseau social ou alors agrégées à travers plusieurs utilisateurs afin d’identifier divers comportements. Ce type de collecte est généralement utilisé dans les domaines de la santé, du sport ou de l’environnement. Dans le domaine de l’environnement par exemple, PEIR [51](Personal Environmental Impact Report) est un système permettant aux utilisateurs de se servir de leurs dispositifs mobiles afin de déterminer leur exposition aux polluants présents dans leur environnement. PEIR collecte continuellement les données GPS vers un serveur pour y effectuer une série de traitement consistant à segmenter les différents déplacements des utilisateurs, identifier les modes de transports (par ex. bus, voiture) et calculer la quantité de gaz carbonique émise lors des déplacements. Pour le calcul de l’émission du gaz carbonique, PEIR couple les informations des déplacements avec plusieurs bases de données : celles des principales entreprises polluantes, et celles de la météo et du trafic routier. Sur un site Internet spécifique, les utilisateurs peuvent ensuite consulter les rapports de leurs déplacements, les aidants à modifier leurs comportements et protéger leur santé. Dans le domaine du sport, BikeNet [20] fournit aux cyclistes une application leur permettant de mesurer leurs expériences sportives. BikeNet combine les données du GPS et de l’accéléromètre pour calculer la vitesse, les calories perdues ainsi que la qualité des routes empruntées. Les données collectées peuvent être visualisées par les cyclistes eux-mêmes, ou être agrégées avec d’autres utilisateurs afin de construire une carte complète des pistes cyclables. Les systèmes de collecte personnelle sont également beaucoup utilisés dans le cadre d’expériences scientifiques. Par exemple, EmotionSense [56] est un système dédié aux études de psychologie sociale. Il tente d’établir une relation entre le bien-être d’un utilisateur et ses interactions sociales ou ses activités. Pour identifier ces informations, EmotionSense analyse continuellement trois types d’informations. Premièrement, les conversations téléphoniques des utilisateurs pour mesurer leurs émotions durant leurs appels. Deuxièmement, les périphériques Bluetooth voisins pour identifier les 24personnes se trouvant régulièrement à proximité. Et finalement l’accéléromètre pour identifier l’activité régulière de l’utilisateur. Dans un autre contexte, HealthAware [28] est une application visant à observer l’obésité des utilisateurs. Avec cette application, les utilisateurs peuvent prendre en photo leur nourriture, ce qui permet au système de leur fournir en retour des informations sanitaires complémentaires sur cette nourriture. HealthAware collecte également les données de l’accéléromètre pour mesurer l’activité physique quotidienne des utilisateurs. Le système fournit en retour un rapport complet sur l’activité effectuée, et rappelle aux utilisateurs l’importance de garder une activité physique quotidienne pour être en bonne santé. Les systèmes de collecte communautaire visent, quant à eux, à observer des phénomènes à plus grande échelle, sur l’environnement ou sur des infrastructures publiques afin d’améliorer la vie d’une communauté (par ex. toutes les personnes habitant dans une ville, les étudiants d’une université). Quelques scénarios types de ce genre de collecte comprennent la mesure de la pollution atmosphérique en milieu urbain, ou l’observation des réseaux routiers afin de détecter les embouteillages ou des dégâts importants sur la chaussée. CommonSense [19] est un exemple d’application dédié à l’observation de la pollution atmosphérique. L’application mobile de CommonSense combine les données GPS avec des données fournies par un capteur externe mesurant la qualité de l’air ambiant. La communication entre le mobile et le capteur externe est assurée par une connexion Bluetooth. Les capteurs externes ainsi que l’application sont déployés auprès de la population, qui collectivement propage leurs positions ainsi que la qualité de l’air vers un serveur. Les données sont ensuite agrégées et peuvent être visualisées sur un site Internet spécifique. Similairement, NoiseTube [47] utilise directement les microphones des dispositifs mobiles pour mesurer la pollution sonore en milieu urbain. Un autre type de collecte communautaire implique la mesure de phénomènes en relation avec des infrastructures publiques. Par exemple, Nericell [50] est un projet qui a pour objectif de mesurer différents phénomènes issus du trafic routier. Ce projet analyse continuellement la position d’un utilisateur qui, couplée avec les informations issues de l’accéléromètre, permet de détecter la dégradation d’une route ou des freinages d’urgences et, couplée avec le microphone, permet de détecter un fort trafic à partir du bruit ambiant. Dans un autre contexte, LiveCompare [17] est une application qui permet de comparer différents prix d’un même article se trouvant dans des magasins situés à proximité 25d’un utilisateur. Avec cette application, les utilisateurs peuvent se servir de leur dispositif pour prendre en photo le code-barres d’un article. Le code est ensuite décrypté, et envoyé vers un serveur avec la position de l’utilisateur et la photo. En échange, LiveCompare fournit aux utilisateurs les différents prix disponibles pour ce même produit, en fonction des magasins se trouvant à proximité. Un autre exemple d’application est CreekWatcher 2 . Cette application surveille les niveaux et la pollution des eaux, à l’aide des rapports des utilisateurs, comme des photos prises à divers endroits au bord des étendues d’eau, ou des messages texte sur le quantité de déchets. Ces informations peuvent ensuite être exploitées par des commissions de contrôle des eaux. Collecte participative ou opportuniste Indépendant du sujet à observer, un facteur déterminant du succès d’une application est le niveau d’implication des utilisateurs dans le processus de collecte [38]. Typiquement, le processus de collecte peut prendre deux formes appelées collecte opportuniste [39] et participative [7]. Dans celle dite opportuniste, la collecte de données est complètement automatisée par l’application mobile (par ex. "collecter la position toutes les cinq minutes"). Cette approche a le principal avantage de minimiser l’intervention humaine dans le processus de collecte. Cela est particulièrement utile dans le cadre d’une collecte communautaire, permettant d’assurer la propagation de données régulièrement sur le serveur (sans que l’utilisateur soit contraint à accomplir des tâches quotidiennes sur son dispositif). Cependant, ces applications sont plus difficiles à développer, et consomment également beaucoup de ressources énergétiques. En effet, la difficulté principale pour développer ce type d’application est de déterminer dans quel contexte se trouve le dispositif mobile, afin d’assurer une certaine qualité des données collectées. Par exemple dans l’application NoiseTube [47], qui a pour objectif d’observer la pollution sonore, il est nécessaire de mesurer le niveau sonore uniquement quand le dispositif est hors de la poche ou du sac de l’utilisateur. Dans ce cas, cette issue peut être résolue en utilisant le capteur de lumière, mais par conséquent, nécessite la consommation de ressources plus conséquentes. 2. http://www.ibm.com/smarterplanet/us/en/water_management/article/creek_ watch.html 26Au contraire, la collecte dite participative nécessite une plus grande implication de la part des utilisateurs. Par exemple, dans l’application LiveCompare [17], les utilisateurs doivent manuellement prendre une photo du produit qu’ils veulent comparer. Le principal avantage de cette approche est qu’elle permet de bénéficier de l’intelligence humaine pour réaliser des opérations plus complexes. Si nous reprenons l’exemple de application NoiseTube [47], l’approche participative peut permettre de résoudre facilement le problème du contexte du dispositif, en demandant aux utilisateurs de prendre une mesure du niveau sonore manuellement lorsque leur dispositif est hors de leur poche. Cependant, l’inconvénient de cette approche est que la qualité des données, ainsi que la fréquence à laquelle elles sont collectées, dépend fortement de l’enthousiasme des utilisateurs pour l’application. 2.1.3 Discussion Dans cette section, nous avons présenté une vue d’ensemble du MCS, ses principales caractéristiques ainsi que les domaines d’applications utilisant le MCS comme source d’approvisionnement de données. Cependant, jusqu’à ce jour, les applications développées ont principalement été élaborées dans un contexte applicatif spécifique, et difficilement réutilisable. En effet, ces applications ont été conçues complètement indé- pendamment des unes des autres, ne partageant aucun module logiciel commun, alors qu’elles ont à faire face à des problématiques communes. Ce manque de solutions réutilisables, largement pointé du doigt dans la littérature ces dernières années [39, 27, 60, 66], rend non seulement le développement d’une application spécifique difficile, mais il y a aussi la problématique du recrutement des participants qui doit être repris de zéro pour chaque application. Avec la popularité croissante du MCS dans de nombreuses communautés scienti- fiques, fournir une plate-forme générique permettant un rapide développement et un déploiement d’une large variété de campagnes de collecte de données devient une nécessité [27]. C’est donc dans cette lignée que s’inscrivent les travaux de cette thèse. Cependant, réaliser une telle plate-forme comporte de nombreux défis, que nous présentons dans la section suivante. 272.2 les challenges clés du mobile crowdsensing Dans cette section, nous identifions les principaux défis à relever afin proposer une plateforme générique dédiée aux développements et aux déploiements de campagne de collecte de données. Principalement, nous identifions cinq défis : Sécurité et vie privée, Gestion des ressources, Hétérogénéité des équipements et des OS, Diffusion et passage à l’échelle de applications, Implication et incitation des usagers. Pour chacun des défis, nous décrivons brièvement la problématique ainsi que les différentes solutions envisagées dans l’état de l’art. 2.2.1 Sécurité et Vie privée Respecter la vie privée des utilisateurs est peut-être la responsabilité la plus fondamentale d’une plate-forme de collecte. Les utilisateurs sont naturellement sensibles aux données collectées sur leurs dispositifs, spécialement si ces informations comprennent leurs localisations, des images sensibles ou alors des communications audios. En effet, de nombreux travaux [36] ont montré que de nombreuses données, même si elles peuvent paraître anodines prises individuellement, peuvent révéler de nombreuses informations sensibles sur les habitudes ou les relations sociales d’un individu lorsqu’elles sont agrégées dans la durée. Par exemple, les données de géolocalisation collectées avec le GPS, couplées avec des données temporelles peuvent être utilisées pour inférer les trajets quotidiens empruntés par un utilisateur, ou encore ses principaux lieux de vies tels que son domicile ou son lieu de travail [26]. Afin de protéger la vie privée des utilisateurs, de nombreuses solutions ont été envisagées dans la littérature. Christin et al. [11] donne une bonne vue d’ensemble des techniques utilisées selon le contexte de la collecte, qu’elle soit personnelle ou communautaire. Typiquement, ces techniques peuvent consister à utiliser un alias pour assurer les communications entre le serveur et le dispositif mobile, à perturber volontairement les données collectées avant de les propager vers le serveur (en modifiant par exemple les coordonnées GPS), à agréger les données entre n utilisateurs partageant des propriétés communes (par ex. n participant situés dans le même quartier), ou alors à échanger alternativement les traces de mobilités entre plusieurs utilisateurs. 28Cependant, bien que ces approches permettent d’assurer une certaine confidentialité des utilisateurs, elles impliquent également une dégradation des données qui sont collectées. Dans ce cas, il est nécessaire de faire un compromis entre qualité et confidentialité. Ce compromis peut être fait en effectuant un maximum de traitement directement dans le dispositif mobile. Par exemple, Nericell [50] adopte cette approche en analysant toutes les données issues de l’accéléromètre et du microphone localement, et propage uniquement des informations de haut niveau sur le serveur (par ex. fort trafic). Une autre solution envisagée par Christin et al. [11] est de laisser la possibilité aux utilisateurs de définir leurs exigences en matière de vie privée. En effet, la notion de vie privée peut énormément varier d’un individu à un autre. Par exemple, certain utilisateur peuvent être retissant à partager leur position contraire à d’autre. Dans ce contexte, il est nécessaire de fournir aux utilisateurs des moyens leur permettant de spécifier les données qu’ils veulent partager, dans quelles circonstances (par ex. temps, position), et surtout dans quel but. 2.2.2 Gestion des ressources Alors que les smartphones continuent de fournir plus de puissance de calcul, de mémoire, d’espace de stockage et de capteurs de plus en plus sophistiqués, les ressources énergétiques de ces dispositifs restent limitées. En effet, certaines applications déployées [49] montrent que la durée de vie de la batterie d’un dispositif, peut être réduite de 20 heures à 6 heures si certaines ressources sont exploitées activement. Par exemple les ressources du CPU pour traiter un grand volume de données (par ex. traitement de données audio), les ressources de certains capteurs comme le GPS, ou encore des ressources de communications (par ex. 3G, WIFI) pour partager en temps réel les données collectées. Un aspect intéressant pour réduire la consommation énergétique de ces applications est la multimodalité de certains capteurs. En effet, cela peut permettre de faire un compromis entre la qualité des données, en terme de fréquence d’échantillonnage et de précision, et le coût énergétique lié à leurs acquisitions. L’exemple le plus courant est l’acquisition de la position d’un utilisateur, qui peut être obtenue soit par le GPS, impliquant une grande coût énergétique, mais fournissant une grande précision (5- 20 mètres), soit par WiFi ou par la triangularisation GSM, qui sont moins précis 29(20-1000 mètres), mais ont une taxe énergétique moins importante. À partir de ce constat, de nombreux travaux ont été proposés dans la littérature, essayant d’alterner l’utilisation de ces différents capteurs pour faire le plus efficacement ce compromis. Par exemple, EnLoc [14] adapte la fréquence d’échantillonnage et les capteurs haute et basse qualité en fonction de la batterie de l’utilisateur. Matador [8] propose également un algorithme adaptatif, mais pour déterminer si l’utilisateur se trouve dans une zone précise. SenseLoc [34] active le GPS uniquement si l’utilisateur se déplace en utilisant l’accéléromètre pour identifier son activité. Cependant, un inconvénient de ces approches est qu’elles ont été conçues pour un contexte applicatif spécifique, et qu’elles ne sont donc pas forcement adaptées pour un autre. De plus, ces approches restent limitées lorsque de multiples applications coexistent dans un même dispositif. Par exemple, les applications dédiées à l’observation de la pollution sonore et du trafic routier nécessitent toutes les deux des données de géolocalisation. Dans ce contexte, ces applications effectuent leurs propres échantillonnages des données GPS, pouvant entraîner une surconsommation énergétique du dispositif mobile. Cela limite ainsi les utilisateurs à participer à un nombre limité d’applications. 2.2.3 Hétérogénéité des équipements et des OS Un autre aspect à prendre en considération est l’hétérogénéité des systèmes d’exploitation et des équipements disponibles. En effet, selon Gartner Inc. 3 , les ventes de smartphones en 2013 ont totalisé plus de 1,8 milliards d’unité, réparties principalement entre trois systèmes d’exploitation (OS), Android 4 avec 78,4% de part de marché, iOS 5 avec 15,6 % et Windows Phone 6 avec 3,2%. Bien que ce marché en pleine effervescence — soit une augmentation 3.5% depuis 2012 —, confirme le potentiel du Mobile crowdsensing pour la collecte de données à grande échelle, cela induit aussi un long processus de développement pour prendre en considération tous ces systèmes d’exploitation. Pour le développement d’une application sur un OS spécifique, un ensemble d’outils et d’APIs sont fournis aux développeurs. Ces APIs sont implémentées généralement dans des langages de programmation différents, par exemple Java pour Android et 3. Gartner Inc. http://www.gartner.com/newsroom/id/2665715 4. Android : http://www.android.com 5. iOS : http://www.apple.com/fr/ios 6. Windows Phone : http://www.windowsphone.com 30Objective-C ou Apple Swift 7 pour iOS. Ceci implique qu’une application développée pour l’un de ces OS est incompatible avec les autres. Par conséquent, cela demande aux développeurs d’étudier et de développer une application spécifique pour chaque OS disponible, afin de pouvoir impliquer un maximum d’utilisateurs dans le système de collecte. Cette diversité a été soulignée par l’expérience menée par Balan et coll. [4], qui ont mis plus six mois pour le développement et le déploiement d’une expérience de collecte à travers 15,000 taxis à Singapour. Pour faire face à cette hétérogénéité, également identifiée par [60], il est nécessaire de concevoir les applications de collecte dans un langage de haut niveau. Dans ce contexte, le défi consiste à proposer une abstraction assez générale pour supporter le dé- veloppement d’applications variées (opportuniste et participative), qui peut également impliquer une grande variété de capteurs, portables pour supporter la diversité des plate-formes mobiles (c.-à-d. Android, iOS, Windows Mobile), et finalement accessibles pour minimiser l’expertise nécessaire dans les technologies mobiles. 2.2.4 Diffusion et passage à l’échelle des applications La diffusion des applications est un aspect crucial pour assurer le passage à l’échelle d’une plate-forme de collecte. Généralement, la diffusion des applications mobiles est assurée par les magasins traditionnels proposés par les plate-formes mobiles (par ex. Google Play pour Android, Apple Store pour iOS). Cependant, une fois disponible dans un magasin, l’application peut être potentiellement téléchargée par des millions d’utilisateurs à travers le monde. Ces utilisateurs peuvent alors générer un lot considérable de données qui peuvent être inutiles, surtout si la collecte vise uniquement une région spécifique ou une population particulière. De plus, la période de prolifération des mises à jours de ces applications vers les utilisateurs peut prendre plusieurs heures jusqu’à plusieurs jours selon le magasin utilisé (par ex. quelques heures pour Google Play jusqu’à plusieurs heures pour Apple Store). Dans le cadre du MCS, cette période est beaucoup trop longue, spécialement si l’objectif est de collecter des données lors d’un événement ne durant que quelque jours, comme un festival ou une fête nationale. En effet, lors de ces manifestations, après avoir récolté les premières données, il peut s’avérer nécessaire de 7. https://developer.apple.com/swift 31mettre rapidement à jour l’application afin d’améliorer la qualité de la collecte ou de remédier à des défauts de programmation. Dans ce cadre, il est nécessaire de développer de nouveaux mécanismes pour déployer ces applications de collecte [39]. Ces mécanismes devront prendre en compte plusieurs considérations. La première est de maîtriser le déploiement de ces applications vers les participants les plus à même à collecter les données désirées, en limitant le nombre d’utilisateurs impliqués dans la collecte, ou en ne visant qu’une population particulière (par ex. région géographique, tranche d’âge), tout en assurant leurs confidentialités. La deuxième considération est d’assurer un rapide déploiement de leurs mises à jour pour adresser les exigences évolutives liées aux premières données collectées, ou tout simplement pour corriger des erreurs de programmation. La dernière, aussi envisagée par [27, 60], est de permettre de coordonner l’exécution des campagnes à travers plusieurs dispositifs, notamment dans les campagnes de collecte communautaire. En effet, généralement ces applications collectent périodiquement (toutes les x secondes) des données sans prendre en considération si un autre dispositif placé à proximité exécute la même application. Cela peut ainsi entraîner une forte duplication de données collectées, en particulier en milieu urbain où il peut y avoir une forte densité d’utilisateurs. Dans ce contexte, effectuer une coordination entre ces dispositifs pourrait permettre de diminuer la quantité de données redondantes sur le serveur, et également équilibrer les charges énergétiques entre les dispositifs, réduisant ainsi l’énergie globale consommée lors de l’exécution de la campagne. 2.2.5 Implication et incitation des usagers Inévitablement, sans une participation adéquate des utilisateurs, il peut être très difficile d’obtenir la masse de données critique pour l’application. Cependant, comme nous l’avons mentionné dans les sous-sections précédentes, en utilisant une application de collecte, les utilisateurs consomment de nombreuses ressources de leurs dispositifs, et peuvent potentiellement s’exposer à la divulgation d’informations confidentielles. Dans ce contexte, un utilisateur peut ne pas être intéressé à participer à l’application, à moins de recevoir une récompense adaptée. Dans ce contexte, de nombreux travaux ont porté sur la réalisation d’un modèle économique permettant d’attribuer des récompenses financières aux utilisateurs en fonction de leur participation. Ces modèles peuvent être statiques [57], en attribuant 32un prix fixe aux données partagées par les utilisateurs, ou dynamiques [40] en faisant varié le prix des données en fonction de la couverture des premières données partagée, pour inciter par exemple les utilisateurs à se déplacer dans des zones peu couvertes. Cependant, bien que ces modèles puissent favoriser la participation des utilisateurs et améliorer la qualité des données obtenues, collecter des données à grande échelle peut nécessiter un budget considérable, qui n’est pas forcément accessible par exemple pour des équipes de recherche. Dans ce contexte, de nombreux modèles alternatifs, non monétaires, ont été explorés dans la littérature ces dernières années. Ces sources de motivation peuvent par exemple s’inscrire dans le cadre d’une démarche citoyenne ou scientifique en aidant à diminuer l’émission de gaz carbonique dans la nature par exemple [51]. Ces sources peuvent également prendre la forme d’un jeu, en simulant une compétition entre les utilisateurs, en partageant ses performances sur les réseaux sociaux [49], ou en attribuant des récompenses virtuelles. Une dernière source de motivation est d’obtenir un bénéfice direct en partageant des données, par exemple dans l’application LiveCompare [17], les utilisateurs peuvent bénéficier des prix scannés par les autres utilisateurs. 2.2.6 Discussion Le principal objectif d’une plate-forme générique de collecte de données est de permettre la fédération d’une large communauté d’utilisateurs, avec des niveaux d’expertises et des exigences différentes. En effet, les campagnes de collecte de données peuvent être de différents types, qui peuvent être de type communautaire ou personnel, et peuvent également impliquer différents niveaux de participation de la part des utilisateurs (c.-à-d. collecte opportuniste et participative). Comme nous en avons discuté tout au long de cette section, la mise en place d’une campagne demande de faire de nombreux compromis. Que ce soit sur la qualité des données, leur quantité, la préservation de la vie privée des utilisateurs ou encore la consommation énergétique des applications de collecte. Nous avons également vu que dans la littérature, de nombreux modèles ou algorithmes ont été proposés pour adresser ces points. Cependant, aucun de ces modèles ne représente une solution idéale, et ne peut être appliqué seulement dans un contexte applicatif spécifique (par ex. population visée, type de de données collectées). Dans ce contexte, nous pensons que la flexibilité et l’extensibilité doivent être les propriétés clés de l’architecture logicielle d’une plate-forme générique. La flexibilité fait 33référence à la capacité de la plate-forme à s’adapter à la diversité des campagnes de collecte qui peuvent être menées. Cette diversité peut faire référence à différents types de données qui peuvent être collectées (c.-à-d. impliquant de nombreux capteurs), aux technologies utilisées pour les sauvegarder (c.-à-d. base de données), et les structurer (c.-à-d. méthode d’indexation) et les analyser. Quant à l’extensibilité, elle fait référence à la capacité de la plate-forme pour intégrer de nouvelles contributions, afin de faire face aux exigences des utilisateurs non anticipées. Dans ce cadre, la plate-forme pourrait permettre également à des scientifiques travaillant sur une problématique spécifique du MCS (par ex. vie privée, modèle de récompense, etc.), de se focaliser sur leur domaine d’expertise sans avoir à redévelopper un système complet et donc participer à l’amélioration de la plate-forme. Dans la section suivante, nous faisons une étude comparative des différentes plateformes ayant reçu beaucoup d’attention dans la littérature ces dernières années, et ayant ce même objectif. 2.3 travaux connexes Comme nous l’avons vue dans la section précédente, le développement d’application de collecte de données demande de faire face à de nombreux défis. Dans cette section, nous décrivons un certain nombre de travaux existants, proposant des plate-formes ayant pour objectif de simplifier leurs développements et leurs déploiements. Pour chaque travail présenté, nous décrivons brièvement l’architecture générale adoptée, et nous les confrontons par rapport aux défis définis dans la section précédente. 2.3.1 Funf Open Sensing Framework Funf [1] est une plate-forme open source dédié aux développements d’applications de collecte de données mobiles basées sur le système d’exploitation Android. Initialement, Funf a été développé par le MIT Media Lab, afin de proposer aux scientifiques un outil plus générique pour les aider à facilement concevoir leurs applications de collecte. Le concept de base proposé par Funf est appelé Probe. Typiquement, un Probe est un module logiciel (c.-à-d. portion de code Android) assurant la capture de données d’un capteur physique ou logique (par ex. GPS, température, contact). Pour le développement 34des applications, Funf met à disposition un service appelé FunfInABox, accessible via une interface web. L’interface propose un formulaire qui permet aux scientifiques de sélectionner et configurer un ensemble de Probe à inclure dans l’application mobile (cf. figure 2). Le formulaire validé, FunfInABox procède alors à la génération de l’application et de la mettre à disposition des scientifiques à travers un compte Dropbox, un service de stockage et de partage de fichier en ligne. L’application peut également être configurée pour propager périodiquement les données collectées vers le même compte Dropbox, ou sur un serveur HTTP. Pour des raisons de sécurité, toutes les données collectées sont encryptées, et toutes les données sensibles telles que les contacts ou les SMS sont automatiquement hachés. Funf fournit également un ensemble de scripts qui peuvent être utilisés par les scientifiques pour décrypter les données, les insérer dans une base de données relationnelle et visualiser les données. Figure 2 – Développement d’une application mobile avec FunfInABox Funf se diffère principalement par sa simplicité. En effet, l’utilisation d’un formulaire web permet de rapidement développer une nouvelle application sans nécessiter toutes sortes d’expertise en programmation. Cependant, les applications qui peuvent être développées restent très basiques, limitées à la collecte périodique de données brutes de capteurs, et ne supportent pas les interactions avec les utilisateurs. De plus, les applications générées ne proposent pas aux utilisateurs de mécanismes leur permettant de contrôler les données qui sont collectées sur leurs dispositifs ni de retour sur celles-ci. D’autres parts, Funf ne fournissent pas de service spécifique pour aider les utilisateurs à déployer leurs applications vers les dispositifs mobiles. Ils sont alors contraints d’utiliser les magasins d’applications, devant faire face aux problématiques discutées précédemment(cf. section 2.2.4). 352.3.2 MyExperience : A System for In situ Tracing and Capturing of User Feedback on Mobile Phones Jon Froehlich et al. [25] proposent une approche plus flexible pour développer des applications de collecte avec MyExperience. 1 2 3 4 6 7 8 9 14 15 16 17 18 00:30 19 CallQuality 20 21 22 23 25 cellnetwork.png 26 27 28 29 30 31 32 33 34 Listing 2.1 – MyExperience : Exemple de configuration de collecte de données MyExperience facilite la définition d’une expérience collecte en proposant une abstraction appelée Sensors Triggers et Actions au-dessus du langage descriptif XML. Dans cette abstraction, les triggers combinent les flux des données fournis par les sensors et une expression logique pour déterminer quand une action doit être déclenchée. 36Pour capturer l’expérience d’un utilisateur, cette abstraction supporte la définition de questionnaires, qui peuvent être présentés à l’utilisateur périodiquement, ou après un évènement spécifique. Le listing 2.1 montre par exemple une expérience affichant à un utilisateur un questionnaire lui demandant la qualité de sa communication vocale après un appel téléphonique. Cependant, l’abstraction proposée a plusieurs limitations. La première est que les triggers qui exécutent les actions ne peuvent pas exécuter une seconde action en fonction du résultat de la première. Cela empêche par exemple de déclencher un nouveau questionnaire en fonction des premières réponses fournies. La deuxième concerne l’expressivité de l’abstraction qui reste limitée aux balises XML définies au préalable. Cette limitation par exemple empêche le développement d’algorithmes contextuels complexes (par ex. inférence de l’activité d’un utilisateur) complexe. Et finalement, MyExperience reste limité aux collectes participatives. L’architecture de la plate-forme MyExperience est composée de deux parties spéci- fiques : i) une application mobile Windows Mobile, responsable de de l’exécution des fichiers XML et ii) une application serveur, responsable de la persistance des données collectées. L’application mobile supporte également la propagation automatique des données vers le serveur. La propagation des données est effectuée lorsqu’une connexion réseau est détectée, et utilise le protocole HTTPS pour sécuriser le transfert des données. L’application fournit également une option permettant d’utiliser un algorithme de cryptographie SHA-1 pour hacher les données confidentielles des utilisateurs (par ex. SMS, contacts, numéro de téléphone). Cependant, MyExperience ne fournit pas de mécanisme particulier pour aider les scientifiques à déployer leurs expériences. L’application mobile ne supportant l’exécution que d’une seule expérience, cela empêche par exemple aux scientifiques de bénéficier des applications déjà installées chez les utilisateurs pour déployer leurs propres expériences.Néanmoins, MyExperience fournit plusieurs mécanismes permettant la mis à jours des expériences à distance, en envoyant la nouvelle expérience par SMS ou un message électronique aux utilisateurs concernés. Cependant, cela nécessite que les scientifiques aient connaissance du numéro de télé- phone ou de l’adresse électronique des utilisateurs, ce qui met en péril l’anonymat des utilisateurs. 372.3.3 Medusa : A programming framework for crowd-sensing applications Medusa, présenté par Ra et al. [55], est une plate-forme de programmation et de distribution de tâches de collecte participatives. Medusa s’adresse principalement aux utilisateurs finaux, sans expertise en programmation. Un exemple typique d’application présentée est celui du citoyen journaliste, permettant au journaliste de recruter des citoyens mobiles pour récolter des vidéos et des commentaires d’un évènement spécifique (par ex. accident, feu de forêt). Dans Medusa, la spécification d’une nouvelle tâche consiste à définir une séquence d’actions qui doivent être exécutées par les mobiles. Pour spécifier cette séquence d’actions, Medusa propose MedScript, une abstraction de haut niveau basé sur XML. MedScript propose deux niveaux d’abstractions : les stages et les connecteurs. Les stages permettent de définir une action élémentaire qui doit exécutée par le dispositif. MedScript distingue deux type de stages : i) les stages consistant à extraire des données des capteurs (par ex. GPS, accéléromètre) appelés SPC-Stage, et les stages nécessitant une intervention humaine (par ex. prendre une vidéo, documenté une photo) appelés Hit-Stage. Chaque stage inclut également plusieurs paramètres, comme une date d’expiration, un contexte d’exécution (par ex. région spécifique ou période de la journée) et également inclure une récompense financière pour inciter les utilisateurs à exécuter les stages. Par exemple, le listing 2.2 décrit l’application du citoyen journaliste. Cette application comporte quatre stages et deux connecteurs définissant l’enchaînement suivant : Recruit -> TakePicture -> GetSummary -> UploadData . Le premier stage permet de recruter les utilisateurs, le deuxième demande aux utilisateurs de prendre une photo dans une région spécifique, le troisième demande aux utilisateurs de commenter la photo prise et finalement le dernier permet d’envoyer le commentaire et la photo vers le serveur. 1 2 Citizen-Journalst 3 4 Recruit HIT 5 recruit 6 7 Citizen Journalist Demonstration 8 18:00:00 12/16/2011 9 .05 10 W_WID 3811 12 13 14 GetSummary SPC 15 medusalet_videosummary 16 immediate none 17 18 IMAGE 19 SUMMARY 20 21 22 23 TakePicture SPC 24 medusalet_mediagen 25 location=34.020259|-118.290131|40, user-initiated 26 27 -t image 28 IMAGE 29 30 31 32 UploadData SPC 33 medusalet_uploaddata 34 none textdesc 35 36 SUMMARY 37 38 39 40 41 Recruit 42 TakePicture Hiring 43 44 45 TakePicture 46 GetSummary Hiring 47 48 49 GetSummary 50 UploadData Hiring 51 52 Listing 2.2 – Le journaliste citoyen développé en MedScript language Pour le déploiement des tâches de collecte, l’architecture de Medusa (cf. figure 3) est composé d’un ensemble de service exécuté sur une infrastructure serveur, et une 39application mobile distribuée auprès d’un ensemble d’utilisateurs. Nous décrivons brièvement le rôle de ces composants. Le Interpreter est le point d’entré de Medusa, il accepte les tâches décrites en MedScript, vérifie leur validité et les envoies aux Task Tracker. Le Task Tracker est responsable de coordonner l’exécution des tâches vers les dispositifs mobiles. Pour chaque tâche, le Task Tracker lui associe une instance dédiée responsable du suivie des différents stages associés à la tâche. Dans ce cas, si la tâche doit être exécuté par 50 utilisateurs (c.-à-d. collecter 50 images dans l’exemple présenté), 50 instances seront alors instanciées dans le Task Tracker. Pour chaque stage inclus dans la tâche, l’instance associé à la tâche notifie l’application mobile assignée lui demandant d’exécuter le stage. Une fois le stage complété, l’application mobile alerte le Task Tracker et attend une instruction pour exécuter le stage suivant. Une fois tous les stages terminés, le Task Tracker averti l’initiateur de la tâche et rend les données disponibles dans le Data Repository. Le Worker Manager sert principalement d’interface avec le service Amazon Mechanical Turk (AMT) 8 , qui est utilisé pour la phase de recrutement. Lorsque le Task Tracker instancie une nouvelle tâche, une description de la tâche ainsi que sa rémunération est postée sur le service AMT. Les participants peuvent alors se connecter sur le service AMT avec leur application mobile, et s’inscrire auprès de la tâche qu’il les intéresse. Une fois inscrit, le Worker Manager notifie le Task Tracker, qui peut alors procéder à l’exécution des stages. AMT est également utilisé pour assurer les communications (c.-à-d. par SMS) entre le Task Tracker et les applications mobiles, et la rémunération des utilisateurs. Cette approche permet d’assurer l’anonymat des utilisateurs, dans le sens où Medusa n’a pas besoin de connaître l’identité réelle des utilisateurs pour communiquer avec eux et les récompenser. Le Stage Library représente la partie extensible de Medusa. Chaque stage supporté par MedScript est associé à un exécutable Android stocké dans le Stage Library. Les exécutables sont alors téléchargés par les dispositifs mobiles avant d’exécuter le stage associé. Cette approche permet d’étendre les capacités offertes par MedScript sans avoir à recompiler l’application mobile et la redéployer. L’ Application mobile est composée de deux services appelés StageTracker et MedBox. Le Stage Tracker est responsable des communications entre l’ap- 8. Amazon mechanical turk : https://www.mturk.com 40plication mobile et les services du serveur. Ces communications comprennent le téléchargement des exécutables des différents stages, d’analyser les SMS envoyés par AMT et propager les données vers le serveur. La MedBox est responsable de l’exécution des stages dans le dispositif mobile. Un stage peut être exécuté soit directement après une notification du Stage Tracker, soit en fonction du contexte de l’utilisateur (c.-à-d. zone géographique ou période de la journée). L’application mobile fournit également plusieurs mécanismes pour contrôler les ressources consommées par l’application mobile et assurer la confidentialité des participants. Pour la gestion des ressources, Medusa laisse la possibilité aux participants de définir des limites en terme de CPU, réseau ou mémoire utilisées lors de l’exécution des stages. Pour assurer la confidentialité, l’application mobile demande une confirmation aux utilisateurs avant de propager les données sur le serveur. Cela permet aux utilisateurs de vérifier si les données collectées peuvent être compromettantes vis-à-vis de leurs vies privées. Figure 3 – Architecture de Medusa [55] Medusa propose certains aspects intéressants à l’égard des considérations discutées dans la section précédente. Ces aspects sont l’intégration d’un service tiers comme AMT, pour assurer l’anonymat des utilisateurs, la possibilité d’intégrer des récom- 41penses financières, ou encore proposer une application mobile générique favorisant la participation des utilisateurs à plusieurs tâches de collecte. Cependant Medusa a plusieurs limitations. La première réside lors de la phase de recrutement des utilisateurs. En effet, si nous reprenons l’exemple du citoyen journaliste, il faudrait que, idéalement, seul les utilisateurs se situant à proximité de l’événement couvert par le journaliste, puissent être capables de s’inscrire à la tâche. Or, bien que Medusa supporte la notion de contexte d’exécution (par ex. exécuter un stage dans une zone géographique), celle-ci est interprétée uniquement par l’application mobile après la phase d’enregistrement. Ainsi, de nombreux utilisateurs peuvent s’enregistrer sans qu’ils ne soient à proximité de l’événement visé. Une autre limitation réside dans l’abstraction du modèle de programmation proposé, qui reste limité à la définition de tâche participatives et communautaires. Par exemple, cette abstraction ne permet pas de définir des tâches suivant l’évolution d’un utilisateur à travers une longue période (par ex. "collecter toutes les 5 minutes la position du GPS"). Et finalement, la dernière limitation réside dans les mécanismes d’extension de Medusa. En effet, pour étendre les fonctionnalités offertes par MedScript, les développeurs ont besoin de développer un nouveau module Java compatible Android. Ce mécanisme a deux inconvénients. Le premier concerne la sécurité. En effet, un développeur mal intentionné peut développer un stage envoyant des SMS à l’insu des participants, ou récupérer des données confidentielles (par ex. contacts) et les envoyer vers un service tiers. Et le deuxième rend exclusive Medusa uniquement pour Android, empêchant de faire face à l’hétérogénie des OS mobiles. 2.3.4 PRISM : Platform for Remote Sensing using Smartphones PRISM [16] est une plate-forme adressant particulièrement trois points qui sont la généralité, la sécurité et le passage à l’échelle. Pour adresser la généralité, PRISM propose une application mobile permettant le téléchargement de tâches de collecte écrites en code natif. Cette approche permet de faciliter la réutilisation de code et de donner une totale flexibilité pour le développement de tâches complexes et variés. Dans ce cadre, PRISM supporte le développement de tâche participatives et opportunistes. Néanmoins, cette approche a plusieurs limitations. Premièrement, le développement de code natif demande une grande expertise en programmation et dans les plate-formes mobiles. PRISM ne fournit pas d’API de 42plus haut pour simplifier leurs développements. Deuxièmement, le développement de code natif ne permet pas de faire face à l’hétérogénéité des OS mobiles. Le code développé reste alors exclusivement exécutable par OS mobile supporté par PRISM, en l’occurrence Windows Mobile. Et finalement, permettre à des développeurs tiers de déployer du code natif sur les dispositifs mobiles peut également poser des problèmes de sécurité et de confidentialité vis-à-vis des participants. Pour limiter les problèmes de sécurité, PRISM implémente un mécanisme d’interposition, empêchant les tâches d’accéder à des fonctions critiques de l’appareil. L’application mobile observe également les ressources énergétique et réseaux consommées par les tâches, et stoppe leurs exécutions si elles dépassent une valeur limite. Cela permet de renforcer la sécurité de l’appareil, en évitant que des tâches épuisent totalement la batterie des utilisateurs. Pour permettre aux utilisateur de contrôler les données collectées durant l’exécution des tâches, PRISM fournit un mécanisme de contrôle d’accès comprenant trois niveaux : i) No Sensors empêchant tous accès, ii) Location Only permettant l’accès uniquement aux capteurs de position et All Sensors autorisant tous les accès. En ce qui concerne le passage à l’échelle du système, PRISM propose une approche permettant de maîtriser le déploiement des tâches de collecte à un sous-ensemble d’utilisateurs. La figure 4 décrit l’architecture globale de PRISM comprenant deux parties spécifiques : i) une application mobile pour Window Mobile, responsable de l’exécution des tâches soumise par le serveur, et ii) le serveur PRISM, acceptant des tâches d’applications tierces pour les déployer auprès des applications mobiles. Dans PRISM, le déploiement des taches de collecte est assuré via approche push-based, c’est-à-dire permettant au serveur de pousser les applications directement vers les dispositifs mobiles. Cette approche a le principal avantage d’assurer un déploiement rapide des applications, sans que les utilisateurs soient obligés de se connecter réguliè- rement sur le serveur pour voir si une nouvelle tâche est disponible. Pour permettre aux développeurs de définir un sous-ensemble de dispositifs pour déployer leurs tâches, PRISM fournit une API comportant deux niveaux de raffinements (cf. listing 2.3). 1 // set up the first level coarse-grained predicate 2 L1pred = new FirstLevelPredicate(); 3 L1pred.location = ; 4 L1pred.radius = ; 5 L1pred.stationary = false; 6 L1pred.cameraPresent = true; 7 L1pred.numOfPhones = ; 43Figure 4 – Architecture de PRISM [16] 8 // set up the second level fine-grained predicate 9 L2pred = new SecondLevelPredicate(); 10 L2pred.location = ; 11 L2pred.radius = ; 12 // set up the application with the predicates 13 PRSIMapp = new PRISMApplication(); 14 PRSIMapp.Init(); 15 PRISMapp.SetPredicates(L1pred, L2pred); 16 PRISMapp.SetBinary(); 17 PRISMapp.DistributeToPhones(); 18 // read and process data sent by phones 19 while (appData = PRISMapp.GetData()) { 20 ; 21 } Listing 2.3 – Exemple d’application développée avec PRISM Le premier niveau permet de spécifier les capteurs nécessaires pour exécuter la tâche, le nombre de mobiles désirés et une vaste région géographique. Le deuxième niveau permet quant à lui de définir contexte plus précis (par ex. lorsque l’utilisateur se déplace, se trouve dans une zone précise). Pour être en mesure de déployer les tâches de collecte, PRISM requiert une connaissance complète des dispositifs mobiles ainsi que leurs mobilités. Cette connaissance est assurée par une phase d’enregistrement assurée par les dispositifs mobiles. Lors de l’enregistrement, les dispositifs mobiles 44reportent deux sortes d’informations comprenant des données statiques (par ex. capteurs disponibles) et des informations dynamiques (par ex. position et niveau de batterie restant). Cependant, cela nécessite que les dispositifs envoient constamment leurs positions pour permettre au serveur d’avoir une vision en temps réel de leur répartition. Cela peut causer par conséquent un trafic réseau important si de nombreux dispositifs sont connectés au serveur, et également négliger la confidentialité des utilisateurs. Lorsqu’une nouvelle tâche est soumise au serveur PRISM, celui-ci compare le premier niveau de raffinement avec tous les dispositifs enregistrés au préalable, et la déploie uniquement aux dispositifs correspondants au premier niveau de raffinement. Le deuxième niveau de raffinement sera ensuite interprété par l’application mobile, qui déclenchera l’exécution de la tâche en fonction des contraintes spécifiées. 2.3.5 Bubble-sensing Bubble-sensing [45] est un système dédié aux déploiements de tâches de collecte participative et communautaire. Ce système focalise principale sur les méthodes de dé- ploiements des tâches de collecte qui doivent être exécutées dans une région spécifique. La figure 5 illustre son architecture. Figure 5 – Architecture de Bubble-sensing [45] Dans le modèle proposé par Bubble-sensing, la création d’une tâche est initiée par le dispositif d’un participant (dispositif A dans la figure 5). Le dispositif joue alors le rôle de bubble anchor, et est responsable de la maintenance de la tâche de collecte dans la zone géographique d’intérêt. Une tâche est définie par un tuple : i) action qui définie 45la tâche à réalisé par les participants (par ex. prendre une photo, une vidéo), région qui définie une zone géographique représentant la bulle où la tâche doit être exécutée, et une durée qui définie la date limite ou l’action doit être réalisé. La tâche est disséminée périodiquement, par des communications à courte distance (par ex. Bluetooth, Wifi direct), jusqu’à ce qu’un autre dispositif mobile reçoive et accepte d’exécuter la tâche en question (dispositif C). Les données collectées sont ensuite envoyées sur le bubble-server. Dans le cas ou l’initiateur de la tâche quitte la zone géographique initialement définie, un message est alors disséminé à tous les autres dispositifs se trouvant à proximité. Dans le cas ou un autre dispositif reçoive le message, il devient alors le bubble anchor (dispositif B) responsable de la maintenance de la tâche dans la bulle. En utilisant cette approche, Bubble-sensing permet d’éviter aux dispositifs de reporter continuellement leur position auprès d’une entité centrale. Cependant, cela implique qu’il y est constamment la présence de participants volontaire pour jouer le rôle de bubble-anchor dans la zone géographique d’intérêt, sinon la tâche de collecte serait alors perdu. 2.3.6 Pogo, a Middleware for Mobile Phone Sensing Pogo [6] est une plate-forme proposée par Brouwers et al., qui a pour objectif d’aider les scientifiques à développer et déployer des tâches de collecte à grande échelle. Trois types d’acteurs sont identifiés dans Pogo. Les participants propriétaires des dispositifs mobiles, les scientifiques et un administrateur. Les participants mobiles exécutent une application mobile dédiée, développée pour Android. En installant l’application mobile, les participants acceptent de partager les ressources de leurs dispositifs pour exécuter des tâches développées par les scientifiques. Les scientifiques, quant à eux, peuvent exécuter une application sur leur ordinateur pour développer de nouvelles tâches et les déployer. Et finalement l’administrateur est responsable d’assigner un ensemble de participants aux scientifiques. Cette assignation est effectuée à partir d’un serveur central, qui garde également une trace de tous les dispositifs et des données qu’ils partagent. Cependant, les auteurs donnent très peu d’informations sur cette phase d’assignation, si elle est manuelle ou automatisée. Une fois un participant assigné à un scientifique, Pogo assure le déploiement des tâches par une approche push-based. Cette approche permet d’assurer un rapide déploiement des mises à jour des tâches, mais implique également un manque de transparence sur les données qui sont 46collectées sur les dispositifs des participants ni avec qui ils les partagent. Nous pensons que ce manque de transparence peut freiner leurs participations, surtout qu’aucun mécanisme d’incitation n’est proposé. Dans Pogo, les tâches de collecte peuvent être développées en JavaScript. Pour simplifier le développement des tâches, Pogo propose une abstraction basée sur le pattern publish-subcribe [21], permettant d’effectuer des communications asynchrone entre entre les scripts et les capteurs. La figure 2.4 illustre un exemple de tâches reportant toutes les minutes les points d’accès WiFi sur les ordinateurs des scientifiques. Comparée aux approches précédentes, l’utilisation du JavaScript comporte de nombreux avantages. Tout d’abord, cela permet de bénéficier de l’expressivité d’un langage générale, permettant ainsi de définir des algorithmes contextuels complexes. Ensuite, l’utilisation du JavaScript permet également de favoriser la réutilisation de code. Et finalement de nombreux projet open sources proposent des moteurs d’exécutions pour l’exécution de code JavaScript sur Android 9 , iOS 10 ou Window Mobile 11, permettant d’assurer la portabilité du code développée vers diverses plate-formes. Cependant, l’abstraction proposée par Pogo ne permet pas d’interagir avec les participants, restant exclusivement réservé à la collecte opportuniste de données. 1 function start(){ 2 3 subscribe(’wifi-scan’, function(msg){ 4 5 publish(msg,’wifi-scan’) 6 7 } , { interval : 60 * 1000 }) } Listing 2.4 – Exemple d’application développée avec Pogo Pogo protège la vie privée des utilisateurs finaux en cachant leur identité aux scientifiques. En outre, les utilisateurs finaux conservent le contrôle de leurs données et sont en mesure de contrôler les capteurs utilisés par l’application. Pogo prend également la consommation d’énergie en considération en coordonnant la transmission des données pour les faire coïncider avec les transmissions d’autres applications. Cela permet d’éviter d’activer les interfaces réseaux constamment qui engendre un grand coût énergétique. 9. Android : https://developer.mozilla.org/enUS/docs/Rhino 10. iOS :https://github.com/phoboslab/JavaScriptCore-iOS 11. https://developer.mozilla.org/en-US/docs/Mozilla/Projects/SpiderMonkey 472.3.7 AnonySense : A System for Anonymous Opportunistic Sensing Shin et al. introduisent une plate-forme appelée AnonySense [62], adressant majoritaire les problématiques de confidentialité dans les systèmes de collecte opportuniste. Figure 6 – Architecture de Anonysense [62] 1 ( Expires 1196728453 ) 2 ( Accept (= @WiFi a/b/g ) ) 3 ( Report (LOCATION APLIST) 4 ( Every 60 seconds ) 5 ( In ( (1 1) (2 2) (3 0)))) Listing 2.5 – Exemple d’application développée en AnonyTL Pour la description des tâches de collecte, Anonysense propose sur un langage dédié appelé AnonyTL, inspiré de la syntaxe Lisp. AnonyTL permet de spécifier le comportement d’une tâche en fournissant un ensemble de conditions d’acception, des reports de données, et une date d’expiration. Le listing 2.5 décrit un exemple de tâche exprimée en AnonyTL. Cette tâche peut être acceptée uniquement par des dispositifs connectés à une borne WiFi, et collecte l’ensemble des bornes WiFi voisines ainsi que la position toutes les 60 secondes lorsque l’utilisateur se trouve dans une zone précise. Les auteurs proposent, un nouveau argument, le choix d’un nouveau langage pour fournir une notation plus concise et plus compréhensible. Cependant, cette concision diminue également l’expressivité du langage, et empêche également la réutilisation de code pré-existant. 48Le modèle proposé par Anonysense comporte les éléments suivants : un ensemble de dispositifs mobiles (MN), d’applications tierces (App), une autorité d’enregistrement (RA), un service de distribution de tâches (TS), et un service de rapport (RS) et un service d’anonymisation (AS). Dans ce modèle, un App soumet une tâche à l’autorité d’enregistrement (RA). Le RA vérifie ensuite si la tâche respecte la confidentialité des utilisateurs avant de la transmettre au service de distribution (TS). A intervalles réguliers, les MNs se connectent au TS et téléchargent l’ensemble des tâches disponibles. Les MNs choisissent ensuite les tâches qu’ils veulent accepter. Lorsqu’un rapport est prêt, les MNs l’envoient directement au RS ou au AS selon la sensibilité des données. Si le rapport contient des données sensibles, le rapport est envoyé au AS, dans le cas contraire, il est envoyé directement au RS. 2.4 synthèse et conclusion Dans cette section, nous faisons un bilan des plate-formes décrites dans la section précédente. Le tableau 7 fournit un récapitulatif de ces approches et les positionne par rapport aux défis décris en section 2.2. En ce qui concerne les abstractions proposées pour le développement des tâches de collecte, seulement PRISM [16] supporte à la fois le développement de tâche opportuniste et participative, en permettant le déploiement de code natif directement vers les dispositifs mobiles. Cependant, il ne fournit par d’abstraction particulière permettant de simplifier le développement des tâches de collecte. De plus, le déploiement de code natif reste exclusivement réservé à un système d’exploitation mobile spécifique, dans ce cas Windows Mobile. Pour le déploiement et le recrutement des tâches de collecte, principalement deux approches coexistent. La première est l’approche pull-based, adoptée par Medusa [55] et Anonysense, où les dispositifs sont responsables de télécharger les tâches de collecte auprès du serveur. Le principal avantage de cette approche est qu’elle permet d’assurer un certain degré de transparence, dans le sens où les participants peuvent sélectionner les tâches qu’ils souhaitent exécuter. Cependant, le temps de propagation des tâches peut être relativement long, et demande aux participants de vérifier constamment si une nouvelle tâche est disponible. Pour le recrutement des participants, Anonysense permet 49de sélectionner un sous ensemble de participants basé sur leur position. Pour assurer un temps de propagation rapide malgré l’approche pull-based utilisée, l’application mobile télécharge régulièrement toutes les tâches de collecte disponibles sur le serveur et exécute celles qui correspondent à son contexte. Cependant, cela peut impliquer un coût énergétique important des applications mobiles si de nombreuses tâches sont disponibles sur le serveur et ne correspondent pas au contexte du dispositif. La deuxième est l’approche push-based, adoptée par PRISM [16] et Pogo [6], où au contraire c’est le serveur qui déploie les tâches directement auprès des dispositifs mobiles. Son principal avantage est qu’elle permet un déploiement rapide des tâches de collecte, qui peut être très bénéfique dans le cadre où une rapide mise à jour de l’application doit être effectuée. Cependant, cette approche manque de transparence, dans le sens où les participants n’ont pas conscience des données qui sont collectées sur leur dispositif mobile. Pour le recrutement des utilisateurs, PRISM propose également un modèle basé sur la position des participants. Afin de permettre au système d’identi- fier les participants se situant dans une région spécifique, les applications mobiles ont besoin de reporter continuellement leur position sur le serveur, ce qui peut causer par conséquent un trafic réseau important si de nombreux dispositifs sont connectés au serveur. Finalement, la majorité de ces plate-formes propose une architecture centralisée, composée d’une application serveur pour le déploiement des tâches de collecte et une application mobile responsable de leurs exécutions. Cependant, ce style architectural impose à tous les utilisateurs du système de partager les ressources de l’infrastructure hébergeant la plate-forme, des mécanismes de stockage de données, le modèle financier imposé par le fournisseur de l’infrastructure et également la législation du pays où l’infrastructure est hébergée. Cela impose également les modèles mis en place pour déployer une application vers les terminaux mobiles, des mécanismes pour protéger la vie privée des utilisateurs, de récompense ainsi que la structure des données collectées. Dans ce contexte, nous pensons que ce type d’architecture limite fortement la réutilisation du système dans un contexte d’application non initialement prévu, ainsi que son passage à l’échelle. De plus, l’entité centrale représente un point unique de défaillance, qui, en cas d’attaque, peut compromettre l’ensemble des données collectées. Dans ce chapitre, nous avons présenté une vue d’ensemble du Mobile crowdsensing, ses caractéristiques, ses avantages ainsi que les défis qui doivent être adressés pour le déploiement de campagnes de collecte de données à grande échelle. À cause de ces 50nombreux défis, la mise en place de campagnes de collecte reste encore difficile, et reste réservée à des développeurs experts. Bien que de nombreuses plate-formes ont été proposées dans l’état de l’art pour simplifier le développement et le déploiement des ces campagnes, les solutions proposées restent encore restreintes à un contexte d’application particulier. De plus, la centralisation de leur architecture limite fortement la réutilisation de ces systèmes dans un autre contexte applicatif ainsi que leurs passages à l’échelle. À partir de ce constat, cela nous a mené à proposer APISENSE®, une plateforme répartie pour la conception, le déploiement et l’exécution de campagnes de collecte de données. Plus particulièrement, APISENSE® c’est : 1. Un modèle de programmation facilitant le développement de tâches de collecte participatives et opportunistes 2. Un environnement mobile sécurisé assurant l’exécution des tâches de collecte 3. Une architecture décentralisée permettant d’assurer le passage à l’échelle de la plate-forme 4. Un modèle permettant de configurer une application serveur responsable du déploiement des tâches de collecte, de la persistance ainsi que de l’exploitation des données collectées. Dans le chapitre suivant, nous présentons notre première contribution concernant le modèle de programmation des tâches de collecte ainsi que l’environnement mobile dédié à leur exécution. 51Figure 7 – Tableau comparatif des plate-formes MCS 52Deuxième partie Contributions 533 C O L L E C T E M O B I L E D E D O N N É E S Sommaire 3.1 Introduction 55 3.2 Considérations et objectifs de conception 57 3.3 Langage de programmation des collectes 59 3.3.1 Concept de l’interface de programmation 60 3.3.2 Collecte de données dirigée par les évènements 60 3.3.3 Les actions 64 3.4 Intergiciel de collecte 68 3.4.1 Couche d’exécution 68 3.4.2 Couche de contrôle 72 3.4.3 Couche d’interaction 74 3.5 Évaluation du prototype 78 3.5.1 Quelques exemples de collectes 79 3.5.2 Coût énergétique d’une expérience de collecte 87 3.6 Conclusion 88 3.1 introduction Le Mobile Crowd Sensing (MCS) est un mode de collecte de données qui a récemment été défini comme :" la participation d’un groupe d’individus, disposant de terminaux mobiles intelligents, qui collectivement, partagent des informations pour la mesure ou la cartographie de phénomènes d’un intérêt commun." [27]. Ces dernières années, le MCS a suscité l’intérêt d’un grand nombre d’acteurs académiques, dans des domaines tels que l’étude de la mobilité urbaine, la surveillance de l’environnement, la santé ou l’étude des comportements sociaux [9]. Cependant, le développement de ces applications reste une tâche complexe. En effet, ces applications ont besoin de faire face à de nombreuses propriétés non fonctionnelles telles que les ressources énergétiques limitées des dispositifs mobiles, le respect de 55la confidentialité des utilisateurs mobiles, ou encore le coût du recrutement d’un nombre important d’utilisateurs. À cause de cette complexité, il peut être très difficile pour de nombreuses acteurs de développer leurs applications capables de récolter la masse de données nécessaires pour leurs études. Ces dernières années, de nombreuses communautés scientifiques, utilisant le MCS dans leur processus expérimental, ont beaucoup discuté des bénéfices que pourrait apporter un système facilitant ce mode d’acquisition de données [27, 60, 66, 68]. Dans ce contexte, nous proposons dans cette thèse APISENSE®, une plate-forme visant de nombreux acteurs privés, publics ou académiques, leurs permettant de facilement développer et déployer des applications de collecte de données à travers des utilisateurs mobiles. Dans le chapitre section 1.4, page 13 , nous avons présenté une vue d’ensemble d’APISENSE®. Nous rappelons brièvement que le système est composé de trois entités logicielles i) un serveur central responsable du déploiement de tâches de collecte, ii) des nœuds de collecte dédiés aux utilisateurs, responsable du déploiement des tâches de collecte vers le serveur central et la persistance des données collectées, et finalement iii) un agent mobile, dédié aux participants (c.-à-d. utilisateur mobile) responsables de l’exécution des tâches de collecte. Dans ce chapitre, nous présentons notre première contribution qui consiste à proposer un modèle de programmation visant à minimiser l’expertise nécessaire liée aux développements d’applications de collecte, et la conception d’un environnement d’exécution mobile dédié à aux applications développées par notre interface de programmation. structure du chapitre La suite du chapitre est organisée comme suit : dans la section 3.2, nous faisons un bref rappel des problématiques et des solutions proposées dans l’état de l’art, et identifions les considérations prises en comptes pour la conception de notre solution. Nous présentons par la suite en section 3.3 une vue d’ensemble de l’interface de programmation proposée pour le développement des tâches de collecte. En section 3.4, nous présentons l’architecture du substrat d’exécution dédié à l’exécution des tâches de collecte. Nous présentons en section 3.5 l’évaluation d’un prototype réalisé sur Android, avant de conclure en section 3.6. 563.2 considérations et objectifs de conception Afin d’avoir une large applicabilité, permettant de définir une grande variété de tâches de collecte, nous devons proposer un modèle de programmation qui demande de prendre en considération principalement les trois points suivants : Diversité des tâches de collecte : Une tâche de collecte consiste à définir quel est le type de données (par ex. position, image), quand le processus de collecte doit être effectué (par ex. toutes les 5 minutes, lorsqu’un événement spécifique apparait) et comment une donnée doit être capturée. En ce qui concerne le comment, typiquement deux méthodes peuvent être utilisées. La première demande une interaction avec l’utilisateur (appelée collecte participative [7]), en lui demandant de répondre à un questionnaire ou prendre une photo par exemple. La deuxième s’effectue de manière autonome (appelée collecte opportuniste [39]), en interagissant directement avec les capteurs mobiles embarqués dans les terminaux mobiles. Diversité des traitements locaux : Pour la définition d’une tâche de collecte, quatre préoccupations doivent être prises en considérations : i) la limitation des ressources énergétiques, ii) la quantité des données générées et propagées vers le serveur, iii) la qualité des données et finalement iv) la confidentialité des participants. Prendre en compte ces considérations demande généralement de faire des compromis entre elles, en effectuant un traitement local avant de propager les données vers le serveur. L’objectif de ces traitements est de diminuer les données à propager sur le serveur, en remontant uniquement les données essentielles pour l’expérience, économisant ainsi la batterie de l’utilisateur par la réduction de communications réseau. Ces traitements peuvent consister à filtrer les données aberrantes, inférer une information contextuelle de haut niveau à partir de données brutes (par ex. mode de transport), ou encore alterner l’utilisation des capteurs en fonction de leurs consommations énergétiques (par ex. GPS vs géolocalisation GSM). Diversité des plate-formes mobiles : D’autre part, permettre le déploiement des tâches de collecte vers un grand nombre de participants demande également de prendre en compte la diversité des plate-formes mobiles disponibles. Ceci amène généralement à étudier et réaliser une application mobile spécifique pour chacune d’entre elles. Cette diversité a été soulignée par l’expérience menée par Balan et coll. [4], qui ont mis plus 57de six mois pour le développement et le déploiement d’une expérience de collecte à travers 15,000 taxis à Singapour. En tant que plate-forme de collecte de données, APISENSE® a deux publics distincts : i) les utilisateurs qui veulent définir de nouvelles campagnes de collecte de données, ii) les participants qui exécuteront ces tâches de collecte sur leur dispositif mobile. Dans ce contexte, à partir des considérations décrites ci-dessus et de ces deux publics distincts évoluant dans APISENSE®, nous identifions les objectifs de conception suivants : Objectif de conception pour les utilisateurs : Afin de minimiser le niveau d’expertise nécessaire liée aux développements des applications de collecte, il est nécessaire de fournir une abstraction facilitant leurs développements. Dans ce contexte, l’objectif est de proposer un langage de programmation reposant sur trois propriétés : 1. la généralité : pour supporter une grande variété d’activités de collecte (c.-à-d. participative et/ou opportuniste), qui peuvent également impliquer une grande variété de capteurs. 2. l’accessibilité : permettant de minimiser l’expertise nécessaire dans les technologies mobiles afin d’accéder aux fonctionnalités offertes par les capteurs des terminaux mobiles, ainsi que leurs collectes et leurs propagations vers l’infrastructure serveur. 3. la portabilité : afin d’éviter de devoir définir plusieurs tâches de collecte pour différentes plate-formes mobiles, l’abstraction proposée doit être en mesure de s’exécuter sur ces différentes plate-formes. Objectif de conception pour les participants : Inévitablement, les participants mobiles jouent un rôle central dans le processus de collecte. Afin de favoriser leurs participations, nous pensons que la confiance et la transparence doivent être un aspect fondamental du système. Cela nécessite que les utilisateurs mobiles aient connaissance des données qui sont collectées sur leurs terminaux, avec qui ils les partagent et dans quel but. D’autre part, favoriser l’acceptabilité des utilisateurs demande de fournir un substrat d’exécution permettant de : 1. Contrôler la confidentialité : en laissant la possibilité aux utilisateurs de choisir les données qui sont partagées, les capteurs qui peuvent être utilisés par les 58applications de collecte, et dans quelle circonstance les données peuvent être partagées. 2. Minimiser l’impact énergétique : lié à l’exécution d’une application de collecte, pour ne pas empêcher une utilisation normale du dispositif. Notamment si de multiples applications doivent être exécutées sur un seul dispositif. 3. Récompense adaptée : pour favoriser la participation des utilisateurs mobiles, en rendant ludique le but de la collecte de données, ou en récompensant les utilisateurs financièrement selon la nature des données collectées. 3.3 langage de programmation des collectes Pour le développement des tâches de collecte, nous avons opté pour le langage de script JavaScript. Le choix du JavaScript est motivé principalement pour trois raisons. Premièrement, JavaScript est un langage accessible et populaire, bénéficiant de l’expressivité d’un langage générale. Cela donne aux utilisateurs une grande liberté pour définir des traitements complexes, intégrer des libraires déjà existantes de traitement de données (par ex. clustering) pour inférer des données de haut niveau directement dans le dispositif mobile. Ensuite, JavaScript est facilement transportable et exécutable sur de nombreuses plateformes mobiles, permettant un rapide déploiement et une rapide propagation des mis à jour de la tâche de collecte. Et finalement, d’un point de vue plus technique, JavaScript est nativement exécuté dans un bac à sable (sandbox en anglais), facilitant le contrôle des fonctionnalités des dispositifs mobiles accessibles par les scripts. Pour faciliter le développement des tâches de collecte, nous proposons une interface de programmation (API) dédiée à la collecte de données, au-dessus de JavaScript. Le principal objectif de l’API est de fournir une abstraction complète des technologies mobiles, permettant le développement d’application de collecte de données, sans avoir une expertise particulière dans ces technologies. Dans APISENSE, une tâche de collecte est spécifiée par un ou plusieurs scripts JavaScript, qui peuvent être déployés et exécutés sur les dispositifs mobiles des participants. Dans la suite de cette section, nous présentons une vue d’ensemble de l’API proposée. 593.3.1 Concept de l’interface de programmation Comme le montre la figure 8, notre API consiste en un ensemble de variables pré- définies, appelée façades, définissant l’ensemble des fonctionnalités accessibles par les scripts. Plus précisément, une façade permet d’interagir avec les ressources d’un dispositif, et est implémentée dans le langage natif de la plate-forme d’exécution. Ces ressources peuvent être par exemple des capteurs physiques (par ex. température, GPS), des capteurs logiciels (par ex. appel téléphonique, installation d’une application) ou encore l’interface graphique du dispositif mobile. Dans notre API, chaque façade proposée fait référence à une ressource spécifique, et délimite un sous-ensemble de fonctionnalités fourni par celle-ci. Ce procédé permet ainsi d’empêcher l’utilisation complète des fonctionnalités des dispositifs mobiles, pour des raisons de sécurité et de confidentialité vis-à-vis du participant. Par exemple, cela permet de crypter toutes les informations sensibles (par ex. contacts, numéro de téléphone, etc.), d’empêcher l’installation de nouvelles applications ou encore de faire des appels téléphoniques. Également pour des raisons de confidentialité, nous laissons la possibilité aux participants de contrôler les façades accessibles par les scripts de collecte. Par exemple, un participant peut à tout moment enlever la possibilité à un script de déterminer sa position, ou d’être notifié lorsqu’il reçoit des SMS. La communication entre les scripts et les façades peut s’effectuer de deux manières différentes. La première, de manière asynchrone, permet aux scripts d’être notifiés du changement des états des capteurs des dispositifs mobiles. La deuxième, de manière synchrone, permet aux scripts de collecte d’effectuer une action spécifique, ou alors de lire directement le dernier état d’un capteur. 3.3.2 Collecte de données dirigée par les évènements L’écoute des évènements permet de déclencher une action ou un traitement en fonction du contexte de l’utilisateur mobile. Par exemple, la collecte de données peut être déclenchée uniquement lorsque l’utilisateur est en situation de mobilité. L’observation du contexte consiste principalement à observer le changement d’état d’un capteur interne du dispositif. Pour interagir avec les capteurs, les façades proposent un ensemble de fonctions permettant aux scripts d’être notifiés de ce changement d’état. Le tableau 1 montre quelques exemples de façade et des fonctions associées dédiées à l’observation d’un événement particulier. L’observation consiste donc à souscrire une 60Figure 8 – Interface de Programmation APISENSE Façade Fonction Description $location onLocationChange Observation du changement de position $battery onBatteryStateChange Observation de l’état de la batterie $acc onAccelerometerChange Observation de l’accélération $phone onPhoneCall Observation des appels téléphonique Table 1 – Liste des fonctions d’observation d’événements prédéfinis. Paramètre Type Description configuration JSONObject Configuration de l’observation de l’état du capteur callback function(event,subscription) Fonction de rappel condition (optionnel) String Condition logique Table 2 – Liste des paramètres d’une fonction de rappel 61fonction de rappel, à une façade responsable du capteur capable de générer l’événement voulu. La souscription comprend trois paramètres, permettant la configuration du capteur, la fonction de rappel et une expression logique permettant de raffiner l’observation des événements, et retourne un objet de type Subscriber. configuration Le premier paramètre configuration laisse la possibilité de configurer l’observation du capteur en question. La configuration peut être utilisée afin de faire un compromis en qualité des données transmises par les capteurs (c.-à-d. fréquence d’échantillonnage, précision) et l’énergie consommée liée à l’observation du capteur. Un exemple classique est l’observation du changement de la position d’un utilisateur. Généralement, ce compromis peut être effectué en alternant le type de capteur utilisé — entre le GPS fournissant une grande précision, mais consommant beaucoup d’énergie, et le réseau qui au contraire consomme moins d’énergie, mais fournit une localisation moins précise —, ou la fréquence d’échantillonnage. Le tableau 2 illustre les configurations du capteur de position possibles. Fonction Description period Période d’échantillonnage de la position provider Capteur de position utilisé : gps ou network Table 3 – Configuration de l’observation de la position d’un utilisateur fonction de rappel Le deuxième paramètre permet d’enregistrer une fonction qui sera exécutée lors du changement d’état du capteur observé. Par exemple, le listing suivant montre la syntaxe permettant à un script de collecte d’être notifié lorsque l’utilisateur est en situation de mobilité : $location.onLocationChanged({provider : ["gps"]},function(event){ // code exécuté lorsque une nouvelle position est détectée }) Chaque événement est défini par un ensemble d’attributs, sérialisés par un ensemble de clés/valeurs utilisant le formalisme JSON. Chaque événement est au minimum défini par un nom, et la date de sa production. Le listing suivant illustre un exemple d’événement produit lorsqu’une nouvelle position de l’utilisateur est détectée : 62{ event : "location", time : 18005010510, latitude : 50.65, longitude : 2.11, accuracy : 100, speed : 3 } Dans cet exemple, l’événement est défini par cinq attributs indiquant la position de l’utilisateur (c.-à-d.latitude, longitude), la précision de la position (c.-à-d.accuracy) et la vitesse de l’utilisateur (c.-à-d.speed). condition logique Optionnellement, l’écoute d’événement peut être raffinée en insérant une condition lors de la souscription. La condition se définit par un opérateur appliqué à un attribut appartenant à l’événement et à une valeur. Plusieurs conditions peuvent être exprimées en ajoutant des opérateurs logiques de type et, ou ou non. (cf. listing 3.1). Le listing suivant illustre un exemple utilisant une expression logique, implémentant une solution naïve pour déterminer si l’utilisateur est en train de marcher : $location.onLocationChanged({provider : ["gps"]},function(event){ // code exécuté lorsque l’utilisateur marche }," &((speed > 3),(speed < 5)) ") Dans cet exemple, nous observons donc le changement de position, et nous définissons que la fonction de rappel doit être exécutée uniquement si l’utilisateur se déplace à une vitesse comprise entre trois et cinq Kilomètres/h. 1 expression ::= key’(’[condition+]’)’ | condition 2 condition ::= eventAttribute operator value 3 key ::= ( "!" | "&" | "|" ) 4 operator ::= ( "<" | "==" | ">" | "<=" | ">=" ) 5 eventName ::= alpha* 6 eventAttribute ::= alpha* 7 value ::= alphanumeric* Listing 3.1 – Grammaire BNF d’une expression logique objet de souscription Pour maintenir un lien entre la souscription et le script, un objet de type Subscriber (cf. table 4) est retourné lors de l’enregistrement. L’objet de souscription permet d’annuler la souscription à un événement particulier 63(fonction suspend), permettant d’éteindre un capteur actif afin de conserver l’énergie du dispositif mobile. La méthode resume permet de reprendre une souscription qui a été annulée. Fonction Description suspend Suppression de l’observation resume Redémarrage de la souscription Table 4 – Liste des fonctions d’un objet de souscription 3.3.3 Les actions En plus de l’observation des événements, les façades fournissent également des fonctions permettant d’exécuter des actions spécifiques. Dans la suite de cette soussection, nous présentons les principales actions prédéfinies par notre API qui sont la collecte et la propagation de données, l’interaction avec l’utilisateur mobile ou encore définir des informations pouvant être fournies en retour aux utilisateurs sur les données collectées. Collecte et propagation des données La collecte de données est effectuée à l’aide de la façade dédiée $trace. Cette façade possède trois fonctions comme le montre le tableau 5. La première permet de sauvegarder une donnée dans la base de données locale du terminal mobile (méthode add). Les données sont sous la forme d’un objet JSON, n’imposant aucune structure de données particulière pour représenter les données collectées. Cela laisse ainsi une grande flexibilité aux utilisateurs de définir leurs propres structures. Additionellement, les utilisateurs peuvent ajouter des méta-informations (méthode addHeader), permettant de diminuer la collecte de données redondantes, et leurs agrégations une fois propagées vers le serveur. Ces méta-informations représentent généralement des données statiques, c’est à dire qui n’évoluent pas dans le temps. L’API permet également de définir la stratégie pour propager les données vers les nœuds de collecte grâce à la méthode send. Lors de l’appel à cette fonction, la façade propagera les données sauvegardées dans la base de données locale si une connexion est disponible, sinon les données seront propagées une fois la connexion retrouvée. Dans le cas où aucune stratégie n’est définie, les données seront propagées automatiquement une fois que le 64dispositif est branché sur secteur et possède une connexion réseau. Cela permet de diminuer la consommation énergétique des dispositifs des participants. Fonction Description add(data) Collecter une donnée addHeader(key,value) Collecter une donnée statique send() Propagation des données collectées Table 5 – Liste des fonctions de la façade de collecte Interaction avec l’utilisateur Collecter des données de façon transparente peut ne pas être suffisant dans certains cas. En effet, certaines informations comme la satisfaction d’un utilisateur ou ses intentions sont difficilement perceptibles à partir de donnée brute. Prenons par exemple une collecte de donnée visant à observer la qualité du signal réseau d’un utilisateur mobile. Il peut être intéressant de voir comment la qualité du signal réseau influe sur la qualité de la communication vocale. Cependant, cette information peut être très difficilement inférée à partir des données brutes issues des capteurs. Dans ce contexte, une solution possible est de proposer des questionnaires d’évaluation aux utilisateurs. Ce type de collecte est également appelé collecte participative. Pour supporter la collecte participative, notre API dispose d’une façade permettant la création et la publication de questionnaire aux utilisateurs mobiles. Le tableau 6 illustre les principales fonctions fournies par cette façade. La création d’un nouveau questionnaire s’effectue à partir de la fonction create de la façade $survey. La fonction retourne un objet de type Survey, disposant d’un ensemble de fonctions permettant d’insérer des questions ouvertes (par ex. zone de texte), de question fermée (par ex. case à cocher), ainsi que des captures multimédias (c.-à-d. photo, vidéo, audio). La fonction then permet de modifier la séquence des questions proposée à l’utilisateur, qui est par défaut dans l’ordre de leurs créations. Cela permet par exemple de proposer des questions différentes selon les premières réponses données par l’utilisateur. Nous illustrerons un exemple de création de questionnaire dans la sous-section 3.5.1 . 65Facade $survey Return Fonction Description Survey create Création d’un nouveau questionnaire void publish(survey,callback) Publication du questionnaire Type Survey void close(label,question,responses) Création d’une question fermée void open(label,question) Création d’une question ouverte void image(label,format) Capture photo void audio(label,format) Capture audio void video(label,format) Capture vidéo void then(label,callback) Spécification de la prochaine fonction Table 6 – Liste des fonctions de la façade dédiée à la création des questionnaires Retour utilisateur Afin de favoriser leurs participations des utilisateurs, et surtout maintenir les utilisateurs dans la durée, nous avons intégré à notre API la possibilité d’effectuer facilement des retours visuels sur les données collectées par l’utilisateur mobile. Ces retours visuels peuvent être directement développés utilisant le couple JavaScript/HTML, fournissant une grande flexibilité pour concevoir des retours selon la nature de collecte de données. Pour simplifier leurs développements, nous proposons des modules complémentaires qui peuvent être inclus dans la tâche de collecte lors de son déploiement, ou téléchargés dynamiquement lors de l’exécution du script. Actuellement nous proposons deux modules génériques permettant de créer automatiquement des graphes ou des cartes géographiques à partir des données collectées. Par exemple, le listing 3.2 décrit un exemple l’utilisation d’un module facilitant la génération de graphe. Dans cet exemple, les trois premières permettent de charger le module (ligne 1), créer un nouveau graphique (ligne 2) et rendre disponible le graphique pour les utilisateurs (ligne 3). Les lignes suivantes permettent d’observer les évènements relatifs aux changements de la force du signal GSM (ligne 7), et d’ajouter une nouvelle valeur au graphique lorsqu’un nouvel évènement est détecté (ligne 9). La figure 9 montre une capture d’écran du rendu graphique de cet exemple. 66// signal strenght chart configuration var chartLib = require("lib-chart.js") chart = chartLib.area({name : "GSM Signal Strength Chart"}); chart.publish(); // telephony sensor monitoring initialization $telephony.onSignalStrengthChanged(function(event){ chart.add({ x : event.time, event.level }); }); Listing 3.2 – Exemple de retour utilisateur Figure 9 – Exemple de capture d’écran d’un retour utilisateur Dans cette section, nous avons présenté une vue d’ensemble de notre API, dédié aux développements des tâches de collectes de notre système. Une documentation plus détaillée est également disponible le site internet dédié à APISENSE 1 . Dans la 1. http://apisense.io 67section suivante, nous présentons les concepts et l’architecture de l’intergiciel dédié à l’exécution de l’interface de programmation présentée dans cette section. 3.4 intergiciel de collecte Dans la première section de ce chapitre, nous avons présenté une interface de programmation dédiée aux développements de tâche de collecte en environnement mobile. Dans cette section, nous présentons en détail l’architecture de l’intergiciel responsable de l’exécution des tâches de collecte. D’un point de vue utilisateur, l’intergiciel se dé- cline sous la forme d’une application mobile, qui peut être téléchargée et installée afin de participer aux expériences de collecte de données. Dans ce cadre, l’application peut être perçue comme un conteneur générique de tâches de collecte, capable d’interagir avec les différents serveurs pour la propagation des données collectées (vers les nœuds de collecte), le téléchargement des tâches de collecte (auprès du serveur central) ainsi que leurs exécutions. La figure 10 illustre une vue d’ensemble de l’architecture de l’intergiciel se déclinant en trois couches. Dans la suite de cette section, nous présentons en détails chacune de ces couches dédiées à : i) l’exécution des tâches de collecte (cf. sous-section 3.4.1), au contrôle des ressources du dispositif mobile (cf. sous-section 3.4.2), et iii) aux interactions avec les différentes entités logicielles d’APISENSE® (cf. sous-section 3.4.3). 3.4.1 Couche d’exécution Nous présentons ici la couche responsable de l’exécution des tâches de collecte développées avec l’interface de programmation que nous avons présentée dans la section précédente. La première couche de l’architecture présentée est responsable de l’exécution des tâches de collecte. La Figure 11 illustre plus en détail les différents modules et les interactions nécessaires à l’exécution des tâches de collecte. Le point d’entrée de cette couche est le Script Manager, qui est responsable de créer ou détruire une instance d’exécution d’une tâche de collecte, selon l’ordre envoyé par le Privacy Manager. Dans ce contexte, l’objectif clé est de fournir un environnement d’exécution sécurisé, permettant également aux participants de contrôler les données qu’ils partagent pour des raisons de confidentialité. Cependant, généralement tous les accès aux données brutes des capteurs peuvent constituer une menace pour la 68Figure 10 – Architecture de l’intergiciel mobile Figure 11 – Interaction de la couche d’exécution 69vie privée des participants. Par exemple, l’accès au microphone peut être utilisé pour enregistrer une conversation téléphonique souhaitant rester privée. L’accès continu au GPS peut permettre à un utilisateur anonyme d’être identifié juste en couplant des informations géographiques et temporelles [26]. Néanmoins, ce risque reste inhérent dans le domaine de la collecte de données. En effet, si nous voulons une protection parfaite, tous les accès aux capteurs devraient être bloqués. Pour mitiger ces risques, nous laissons la possibilité aux participants de contrôler les capteurs accessibles par les tâches de collecte (cf. 3.4.2). Pour la gestion de ce contrôle d’accès, chaque instance d’exécution d’une tâche de collecte est exécutée dans un bac à sable dédié (sandbox en anglais), permettant d’intercepter tous les appels entre les tâches de collecte et les capteurs du dispositif. Ainsi, toutes les fonctionnalités de l’interface de programmation sont fournies par un ensemble de façades (cf. sous-section 3.3.1), représentant également le point d’extension de notre l’architecture. Une façade est un objet, écrit en code natif de la plate-forme mobile, permettant l’interaction entre les tâches de collecte et l’environnement mobile. Le listing 3.3 montre l’exemple d’un squelette d’implémentation sous Android, de la façade permettant d’accéder aux capteurs de localisation. Dans cette façade, la fonction getReferenceName retourne le nom de la variable qui est utilisée pour accéder aux fonctions fournies par la façade. Chaque fonction annotée par une annotation @ScriptMethod, indique au moteur de script que la fonction est accessible par les tâches de collecte. Si nous reprenons l’exemple illustré dans la section précédente (cf. sous-section 3.3), la fonctionnalité $location.onLocationChanged accessible par la tâche de collecte, est implémentée par la façade LocationFacade, injectée en tant que variable $location et implémentant la fonction onLocationChanged. 1 public class LocationFacade extends AbstractAndroidFacade{ 2 3 public String getReferenceName() {return "location";} 4 5 public String getSensorDescription(){ ... 6 7 @ScriptMethod 8 public ISubscriber onLocationChanged( 9 JSONObject params,IScriptFunction callback,String... filters){ 10 // subscribe to location sensor update 11 return ... 12 } 13 14 public void shutdown() { ... // clean sensor subscription } 15 } 70Listing 3.3 – Squelette de l’implémentation d’une façade sur Android Lors de la création d’une nouvelle instance d’exécution, le Script Manager effectue une requête au Privacy Manager pour lister l’ensemble des capteurs admis par le participant. Le Script Manager injectera alors seulement les façades correspondantes aux capteurs qui auront été admis par le participant. Dans ce cadre, les façades correspondant aux capteurs non autorisés ne seront pas injectées, empêchant les scripts de bénéficier des fonctionnalités du capteur en question. Réguler l’accès aux capteurs Pour interagir avec les capteurs du dispositif mobile, les façades doivent interagir avec le Sensor Controller. Son objectif est principalement de réguler l’accès aux capteurs du dispositif et de filtrer les données sensibles. Par exemple, lorsqu’une façade demande l’accès à des informations de type SMS ou numéro de téléphone, les données retournées par la couche de contrôle seront automatiquement cryptées pour protéger la vie privée des participants. Deux types de communications peuvent être effectuées avec le Sensor Controller, des communications de type asynchrone permettant la lecture continuelle de l’état d’un capteur et de type synchrone afin de lire directement l’état d’un capteur. Pour économiser la batterie du dispositif mobile, le Sensor Controller dispose de deux mécanismes. Le premier est un mécanisme de cache, dédié aux communications synchrones. Ce mécanisme permet principalement de limiter une lecture excessive de l’état d’un capteur. Ce mécanisme consiste principalement à définir une fenêtre temporelle dans laquelle seront insérées toutes les données récupérées par le Sensor Controller via les APIs des systèmes mobiles, donnant accès aux données fournis par les capteurs physiques. Avant de procéder à un nouvel accès aux capteurs, la couche de contrôle vérifiera dans un premier temps si la donnée demandée est disponible dans la fenêtre temporelle. Si elle est disponible, la valeur du cache sera alors renvoyée. Le deuxième mécanisme mis en place tente de minimiser le nombre de souscriptions effectuées aux capteurs des dispositifs. Typiquement, un script peut être notifié du changement d’état d’un capteur en enregistrant à une façade une fonction de rappel, une expression logique permettant de filtrer les états ainsi qu’une période indiquant la fréquence des mises à jour des données. Dans le cas où plusieurs scripts procèdent 71à la souscription d’un même capteur avec une période différente, le Sensor Controller effectuera seulement une souscription aux capteurs correspondants, avec une période correspondante à la plus petite période des deux souscriptions. Prenons le cas par exemple où deux scripts effectuent une souscription au capteur GPS avec les périodes respectives de 10 et 20 secondes. Dans ce cas, le Sensor Controller effectuera une seule souscription au capteur GPS avec une fréquence d’échantillonnage égale à 10 secondes, et notifiera les deux scripts toutes les 10 secondes de la nouvelle position. 3.4.2 Couche de contrôle Cette couche est responsable du contrôle de l’exécution des scripts de collecte. Le contrôle consiste à automatiquement démarrer ou arrêter un script de collecte, à partir d’un ensemble de contraintes contextuelles définies par les participants et les expé- riences. Ces contraintes peuvent par exemple permettre aux participants d’empêcher l’exécution d’un script en dehors de la période allant de 9 heures et 18 heures ou lorsque le participant est en dehors d’une zone géographique. Un autre scénario envisagé est d’empêcher l’exécution d’un script si le niveau de la batterie est inférieur à 30 %. Ces contraintes peuvent être classifiées en quatre catégories : contrainte temporelle, contrainte géographique, contrainte de ressource et contrainte de capteur. Ces contraintes sont respectivement interprétées par les modules TimeConstraint, ZoneContraint, ResourceConstraint et SensorConstraint. Contrainte temporelle Ces contraintes, interprétées par le module Time Constraint, permettent de spécifier différentes périodes de la journée durant lesquelles les expériences ont l’autorisation d’être exécutées. Ces contraintes sont modélisées comme un ensemble de périodes où chaque période est définie par un temps de départ et un temps de fin. Pour une expérience donnée, la contrainte temporelle est vérifiée si, à instant t, t appartient au moins à une période définie par le participant et à une période définie par le contexte d’exécution de l’expérience. La surveillance contextuelle des contraintes temporelle consiste à surveiller l’horloge interne du dispositif mobile. Pour chaque contrainte définie, ce module programme une alarme, demandant au système d’être notifié au début et à la fin de la période définissant la contrainte. 72Contrainte géographique Interprétées par le module Zone Constraint, les contraintes géographiques permettent de spécifier un ensemble de lieux ou de régions, dans lesquelles les scripts peuvent être exécutés selon la position du participant. Une contrainte géographique est modélisée par un ensemble de régions circulaires en terme de latitude, longitude et un rayon en kilomètre. Pour une expérience donnée, la contrainte géographique est vérifiée si à une position p donnée, p est inclus au moins dans une zone définie par le participant ou par le contexte d’exécution de l’expérience. En ce qui concerne la surveillance contextuelle, surveiller activement la position de l’utilisateur peut engendrer une grande consommation énergétique du dispositif. Pour diminuer cette consommation énergétique, nous utilisons un algorithme fréquemment utilisé [3, 8] dans la littérature. Typiquement, l’idée principale est i) d’utiliser alternativement les différents mécanismes permettant de déterminer la position d’un utilisateur — entre le GPS fournissant une grande précision, mais consommant beaucoup d’énergie, et le réseau qui au contraire consomme moins d’énergie, mais est beaucoup moins précis —, ii) et la fréquence d’échantillonnage en fonction de la distance de l’utilisateur et la zone la plus proche de sa position actuelle. Contrainte de ressource Ces contraintes permettent de limiter les ressources consommées par l’application. Le participant peut par exemple définir un seuil de batterie pour stopper l’exécution de toutes les expériences de collecte pour éviter un épuisement complet de sa batterie. Une autre ressource qui peut être contrôlée est la quantité de données échangées via une connexion de données mobiles qui peut induire un coût monétaire pour le participant. Dans ce cadre, le participant peut définir un seuil maximum de données transmises lorsqu’une connexion est utilisée. Contrainte de capteur Ces contraintes permettent de spécifier les fonctionnalités permises par les scripts de collecte. Dans l’interface de programmation proposée pour définir une expérience de collecte, nous avons vu que les fonctionnalités accessibles par les scripts se font par l’intermédiaire de façades. Pour chaque façade, le participant a la possibilité de définir s’il autorise l’accès à l’ensemble des fonctionnalités proposées par la façade. Par exemple, le participant peut enlever l’autorisation de la façade $sms, qui supprimera la possibilité de recueillir des informations relatives aux SMS envoyés et lus. 73Dans l’architecture présentée précédemment en figure 10, les modules TimeConstraint, ZoneConstraint et RessourceConstraint ont pour rôle de surveiller le contexte du dispositif (e.g. horloge interne, position, niveau de batterie) et d’envoyer un message au Privacy Manager afin de notifier un changement de contexte du dispositif mobile. Lors de la notification, le Privacy Manager vérifie pour chaque expérience si les contraintes spécifiées par le participant et par l’expérience sont respectées. Dans ce cas, le Privacy Manager interprètera les contraintes de capteurs définies par le module Sensor Constraint pour générer une nouvelle instance d’exécution ou stopper l’exécution d’une expérience de collecte. 3.4.3 Couche d’interaction La dernière couche présenté dans cette section représente la couche de plus haut niveau de l’intergiciel. Cette couche est principalement responsable des interactions entre le dispositif mobile avec les différentes entités logicielles de notre architecture et le participant. Typiquement, cinq types d’interactions sont nécessaires au déroulement des expériences de collecte : i) l’enregistrement auprès du serveur central, ii) la souscription à une expérience de collecte, iii) la mise à jour des expériences, iv) l’interaction avec les participants et finalement v) la propagation des données collectées. Dans la suite de cette sous-section, nous présentons ces interactions et les modules responsables de leurs fonctionnements. Souscription du dispositif Le processus d’enregistrement, géré par le Profile Manager, permet d’informer le serveur central de la disponibilité d’un nouveau périphérique mobile pour l’exécution de nouvelles tâches de collecte. Typiquement, cette phase d’enregistrement consiste à fournir des informations générales du dispositif et du participant, permettant de proposer des expériences de collecte adéquates. Dans ce contexte, deux sortes d’informations sont principalement échangées. Les premières sont des informations relatives au dispositif mobile incluant le type du dispositif (par ex. smartphone, tablette), son système d’exploitation (par ex. Android, iOS), ses performances ainsi que les capteurs embarqués (par ex. température, GPS). Pour raffiner la proposition des expériences, les participants ont la possibilité de compléter ces informations volontairement en indiquant les différents lieux de vie dans lequel ils évoluent (par ex. maison, travail) son statut (par ex. professionnel) ainsi que son âge.Toutes les informations transmises 74Figure 12 – Règles de confidentialité resteront confidentielles, c’est-à-dire qu’elles ne seront pas directement accessibles par les nœuds de collecte du système. Ces informations seront utilisées uniquement par le serveur central lors de la phase du déploiement des expériences de collecte. D’autre part, afin de protéger la vie privée des participants, le Profile Manager permet aux participants de définir certaines règles de confidentialités (cf. figure 12). Principalement trois catégories de règles peuvent être définies. Les deux premières permettent de spécifier des zones géographiques et temporelles, indiquant à l’agent mobile une interdiction d’exécuter des tâches de collecte. La dernière catégorie permet de spécifier des règles d’autorisations, permettant d’empêcher l’activation des capteurs ou l’accès aux données brutes du capteur si l’utilisateur ne veut pas partager une information. Nous aborderons plus en détails ce point dans la sous-section suivante (cf. sous-section 3.4.2). Souscription à une expérience Une fois le dispositif enregistré, les participants ont la possibilité de lister (via le ExperimentManager), un sous ensemble d’expériences de collecte proposées par les utilisateurs. Les expériences sont retournées en fonction des informations fournies lors de la phase d’enregistrement. Chaque expérience est définie tout d’abord par un nom ainsi qu’une brève description indiquant l’objectif de la collecte de données. La description d’une expérience est également caractérisée par un contexte d’exécution définissant quand l’expérience doit être exécutée. Le contexte d’exécution est défini 75selon une dimension géographique (par ex. à l’intérieur d’une zone) et une dimension temporelle (par ex. période dans la journée). D’autre part, des informations relatives aux capteurs utilisés sont fournies pour indiquer aux participants quels sont les types de données qui peuvent être collectées sur leurs dispositifs. À partir de l’ensemble des descriptions disponibles, le participant a la possibilité de soumettre une souscription à une expérience de collecte. Dans ce cadre, la souscription déclenchera le téléchargement des scripts associés dans le système de fichier du dispositif mobile ainsi que des informations complémentaires propres aux scripts de collecte. Ces informations comprennent la version actuelle des scripts de collecte, l’adresse du serveur de collecte ayant initié l’expérience ainsi qu’un identifiant anonyme généré lors de la souscription. L’identifiant anonyme généré par le serveur central est unique pour chaque expérience. Cette identifiant servira alors de clé d’authentification lors de la propagation des données vers le serveur de collecte. Lorsque les scripts de l’expérience sont téléchargés, le module déclenche automatiquement son exécution. Néanmoins le participant garde à tout moment la possibilité d’arrêter son exécution. Mise à jour des expériences La mise à jour des expériences de collecte est gérée par le module NotificationManager. Les mise à jour sont effectuées par des communications de type push, c’est-à-dire des communications serveur vers mobile. Dans notre contexte applicatif, cela permet d’éviter de faire des requêtes périodiques vers le serveur, induisant un surcoût énergétique pour assurer une rapide prolifération. Pour assurer ce type de communication, nous utilisons des services intermédiaires proposés par les plate-formes mobiles actuelles, telles que APNs (Apple Push Notification service) pour plateformes tournant sur iOS et GCM (Google Cloud Messaging) pour les plateformes Android. Généralement, pour utiliser ce type de service, les dispositifs mobiles doivent tout d’abord procéder à une phase d’enregistrement auprès du service en question. Cette phase permet l’obtention d’un identifiant unique, qui devra ensuite être partagé avec le serveur — dans notre contexte, le serveur central— voulant envoyer des messages vers le dispositif en question. Le serveur peut ensuite faire appel au service dédié en utilisant les identifiants partagés pour propager directement des informations auprès des dispositifs mobiles. Dans ce contexte, lorsqu’une nouvelle version d’une expérience est déployée, le serveur central envoie un message à tous les participants ayant souscrits à l’expérience en question. Ce message est ensuite intercepté par le NotificationManager qui déclenchera automati- 76quement le téléchargement de la nouvelle version, sans imposer aux participants de télécharger à nouveau la tâche de collecte manuellement. Retour utilisateur Le Feedback Manager est responsable de l’interaction entre les tâches de collecte et les participants. Comme nous l’avons mentionné précédemment (cf. sous-section 3.3.3, page 66 ), l’interface de programmation proposée permet de diffuser des visualisations aux participants. Ces visualisations peuvent consister à fournir des statistiques sur les données collectées sous forme de graphique ou de carte, leur demander de prendre une photo d’un évènement particulier ou répondre à un questionnaire. Ces visualisations peuvent être directement développées en HTML/JavaScript, fournissant une grande flexibilité pour définir leurs propres visualisations en fonction de la nature de leurs expériences. D’autre part, cela permet également d’être indépendant de la plate-forme d’exécution, évitant ainsi le développement de plusieurs visualisations selon les plateformes visées. Dans ce cadre, nous tirons bénéfice des modules fournis par les plateformes mobiles (par ex. WebView 2 pour Android, UIWebView 3 pour iOS) pour faciliter l’intégration de contenus web dans une application mobile. Dans ce contexte, les tâches de collecte peuvent interagir avec le FeedBackManager, via une façade dédiée, permettant de publier un nouveau contenu accessible par le participant. Chaque contenu web est ensuite sérialisé et sauvegardé dans une base de données, et pourra être visualisé par le participant à tout moment à partir d’une interface graphique fournie par le FeedBackManager, (cf. figure 13). Propagation des données La propagation des données vers les nœuds de collecte est gérée par le TrackManager. Lors de l’exécution d’une tâche de collecte, les données collectées sont transmises au TrackManager qui les sauvegarde dans la base de donnée locale du dispositif. Pour chaque expérience, le processus de propagation (cf. sous-section 3.3.3) consiste à compresser les données collectées, ajouter des méta-informations sur la configuration du dispositif du participant (c.-à-d. filtre de vie privée) et à faire appel au service dédié du serveur de collecte ayant initié l’expérience pour l’envoi des données. Pour des raisons de sécurité, l’envoi des données s’effectue en utilisant le protocole HTTPS pour le cryptage des données. 2. Android WebView : http://tinyurl.com/android-webview 3. iOS UIWebView : http://tinyurl.com/ios-webview 77Figure 13 – Exemple de contenu web disponible via le FeedbackManager Nous venons de présenter dans cette section l’intergiciel mobile responsable de l’exécution de tâche de collecte, développée avec l’interface de programmation présentée dans la première section de chapitre. Dans la section suivante, nous présentons l’évaluation d’un prototype implémentant les concepts proposés dans ce chapitre. 3.5 évaluation du prototype Afin d’implémenter les concepts présentés dans ce chapitre sur une plate-forme mobile spécifique, celle-ci doit permettre principalement i) d’effectuer des processus en tâche de fond, ii) permettre la lecture en continue des capteurs, iii) et finalement être capable d’intégrer un moteur de script dans une application. Lorsque nous avons commencé le développement de notre prototype, la plate-forme Android correspondait parfaitement à ces caractéristiques, contrairement aux systèmes d’exploitation iOS qui ne permettaient pas d’exécuter des processus en tâche de fond limitant ainsi le développement d’application de collecte opportuniste. Cependant, les récentes mise à jour de ce système d’exploitation fournissent désormais ce support, rendant portable notre système pour iOS. Par manque de temps, nous n’avons pas pu fournir un prototype complet sur ce système d’exploitation, mais nous avons fourni une preuve de faisabilité disponible en open source 4 . Le prototype Android proposé a été conçu pour être utilisé comme application autonome ou comme librairie. En tant qu’application autonome, l’application peut être 4. https://github.com/APISENSE/APISENSE-SDK-iOS 78téléchargée par des participants voulant évoluer dans le système en flashant un QR code publié sur le site internet APISENSE® 5 . Plus particulièrement, le prototype réalisé à été développé en utilisant la version 2.3 du SDK proposé par Android. L’ensemble des modules proposés par l’architecture est inclus dans un Service de haute priorité pour prévenir que le système ne supprime notre application lorsqu’il a besoin de mémoire. Pour l’exécution des scripts, nous utilisons Rhino 6 , un moteur d’exécution JavaScript pour Java, qui permet l’interopérabilité des deux langages. L’ensemble du code réalisé représente approximativement 30000 lignes de codes, incluant l’interface graphique et l’architecture de l’application et les façades développées. Dans la suite cette section, nous présentons plusieurs cas réels d’expériences, montrant la diversité des tâches de collecte qui peuvent être réalisées à l’aide notre interface de programmation. Nous comparons par la suite son expressivité avec les différentes approches proposées dans la littérature, et discutons du coût énergétique lié à l’exécution des tâches de collecte sur les dispositifs mobiles. 3.5.1 Quelques exemples de collectes Pour démontrer l’expressivité de l’interface de programmation proposée dans ce chapitre, nous avons implémenté quatre tâches de collecte différentes (cf. table 7). Chaque tâche de collecte est inspirée de l’état de l’art, et démontre différents aspects de APISENSE. Wifi/Blutooth Scanner Wifi/Blutooth Scanner est une application opportuniste, montrant une interaction avec les capteurs Wi-Fi et Bluetooth d’un dispositif. Le listing 3.4 illustre le script implémentant cette application. L’objectif du script est de collecter, toutes les minutes, les points d’accès WIFI et les périphériques Bluetooth d’un utilisateur mobile. Dans le script, nous enregistrons une fonction de rappel aux façades $wifi et $bluetooth responsables des interactions avec ces capteurs, et nous configurons les capteurs pour qu’ils effectuent une nouvelle recherche toutes les minutes (period:"1 min"). La 5. http://www.apisense.fr 6. http://www.mozilla.org/rhino 79Application Capteurs Description Wifi-Blutooth Scanner Réseaux Application opportuniste. Collecte périodiquement les périphériques Bluetooth et Wi-Fi. Citoyen Journaliste GPS + Questionnaire Application participative. Demande à l’utilisateur de prendre une photo lorsqu’il se situe dans une zone géographique. Qualité Réseau Réseau + Questionnaire + Télé- phone Combinaison d’une application opportuniste et participatif.pour corréler la qualité d’une communication en fonction de la qualité du signal GSM. Exploiter des capteurs externes Bluetooth Communication avec un robot Lego Mindstorms NXT Inférence Conxtuelle Accéléromètre + Questionnaire Intégration d’une machine d’apprentissage pour inférer l’activité d’un utilisateur. Table 7 – Exemples de tâches de collecte implémentées avec APISENSE. (*Lignes de code) fonction de rappel enregistrée collecte alors les résultats donnés par les capteurs pour les propager vers le serveur ($trace.add(event)). 1 $wifi.onScan({period : "1 min"},function(event){ 2 $trace.add(event) 3 }) 4 $bluetooth.onScan({period : "1 min"}, function(event){ 5 $trace.add(event) 6 }) Listing 3.4 – Tâche de collecte : Wifi/Bluetooth Scanner Nous décrivons dans l’exemple suivant un exemple de collecte participative. Le Citoyen Journaliste L’objectif de cette application est de montrer comment une tâche de collecte peut interagir avec un utilisateur. Le Citoyen Journaliste, présenté initialement en [29], demande aux utilisateurs mobiles de prendre une image dans une région géographique spécifique, et de la commenter. Le script présenté dans le listing 3.5, crée d’abord un questionnaire (ligne 1-3). En ligne 5 nous observons la position de l’utilisateur et définissons que la fonction enregistrée (ligne 6-8) doit être exécutée uniquement lorsque la position de l’utilisateur se trouve dans le polygone précis (ligne 8). La fonction enregistrée publie le questionnaire à l’utilisateur (ligne 6), et collecte les données pour les propager vers le serveur lorsque l’utilisateur aura répondu au questionnaire. 801 var survey = $survey.create(); 2 survey.image("Take a picture"); 3 survey.open("Add a comment"); 4 5 $location.onLocationChanged(function(event){ 6 $survey.publish(survey,function(content){ 7 $trace.add(content); 8 $task.finish(); 9 }); 10 },"&((lat >= 0)(lat <= 1)(lon >= 0)(lon <= 1))") Listing 3.5 – Tâche de collecte : Le Citoyen Journalist Qualité Réseau Dans cette application, inspirée de MyExperience [25], nous voulons étudier la corrélation entre la qualité du signal réseau et la qualité de la communication vocale. Dans cette application (cf. listing 3.6), nous voulons montrer deux nouvelles propriétés de notre interface de programmation qui sont i) sa capacité à pourvoir adapter la séquence des questions d’un questionnaire en fonction des premières réponses d’un utilisateur et ii) combiner une collecte opportuniste et participative Dans la première partie du script (ligne 1-6), nous collectons la force du signal réseau GSM lorsque l’utilisateur est en situation de mobilité. Afin d’effectuer un retour sur les données collectées, nous insérons un nouveau point dans la visualisation proposée (ligne 6). Dans la deuxième partie du script (ligne 8-14), nous définissons un questionnaire et ajoutons deux questions relatives à la qualité d’une communication vocale. La première question consiste à demander la qualité de sa communication vocale. La deuxième consiste à lui demander pourquoi le participant a considéré que la communication a été mauvaise. Nous définissons ensuite l’enchaînement des questions (ligne 15-18) qui consiste à proposer uniquement la deuxième question uniquement si l’utilisateur a répondu une réponse spécifique à la première question. Ensuite, nous proposons le questionnaire lorsque l’utilisateur a terminé une communication vocale. 1 $location.onLocationChanged(function(event){ 2 $trace.add({ 3 latlng : [event.latitude,event.longitute], 4 signal : $telephony.signalStrength() 5 }) 6 }) 7 818 var qualitySurvey = $survey.create() 9 qualitySurvey.close("q1", 10 "Quelle a été la qualité de votre communication ?", 11 ["Trés Mauvaise", "Mauvaise", "Moyenne", "Bonne", "Excellente"]) 12 qualitySurvey.close("q2", 13 "Quel a été le probléme ?", 14 ["écho", "grésillement", "voix coupé"]) 15 qualitySurvey.then("q1",function(response){ 16 if (response == "Trés Mauvaise") 17 return "q2" 18 }) 19 20 $phone.onCallFinish(function(event){ 21 $survey.publish(qualitySurvey, function(content){ 22 $trace.add({ 23 latlng : $location.lastLocation(), 24 signal : $telephony.signalStrength(), 25 content : content 26 }) 27 })} Listing 3.6 – Exemple d’application participative Exploiter des capteurs externes Figure 14 – Flux de données de l’expérience Manipulation de Lego NXT Dans cette expérience, nous montrons que notre interface de programmation peut également être utilisée pour interagir avec des capteurs externes, afin de collecter des données qui ne peuvent pas être initialement capturées avec les capteurs initialement inclus dans les dispositifs mobiles. Cette expérience exploite les capteurs intégrés d’un robot Lego Mindstorms NXT (c.-à-d. capteur de contact, d’ultrason, de température et de pression atmosphérique), et permet également d’interagir avec le moteur du robot afin d’en prendre le contrôle à partir de la tâche de collecte. 82Comme le montre la figure 14, l’expérience est composée de deux scripts : NXT.js et Task.js décris par le listing 3.7. Le rôle du premier script est de faire une abstraction avec les différentes fonctionnalités des robots NXT. Ce script communique avec la façade responsable de l’interface Bluetooth, pour établir une connexion avec le robot et le manipuler à distance. Ce script peut être ensuite intégré dans le script Task.js en tant que librairie (ligne 1). Dans cet exemple, nous établissons une connexion avec un robot NXT à proximité (ligne 8), et déclenchons les moteurs du robot pour le faire avancer. Nous réagissons également lorsque le robot rencontre un obstacle pour le faire changer de direction (ligne 11-13). Les lignes (15-22) permettent ensuite de collecter des données capturées par les capteurs du dispositif mobile (par ex. GPS) et des capteurs du robot NXT (c.-à-d. pression atmosphérique et température) lorsqu’il se déplace. 1 var nxt = require("NXT.js"); 2 3 var change_direction = function(){ 4 nxt.move_back() 5 nxt.turn_left({ ’angle’ : 45 * random(), ’duration’ : ’2s’}) 6 nxt.move_forward() 7 } 8 nxt.onConnect({’timeout’: ’30s’},function(){ 9 nxt.move_forward() 10 11 nxt.onTouch(function(){ 12 change_direction() 13 }) 14 15 $location.onLocationChanged({provider : ["network"]},function(event){ 16 $trace.add({ 17 latlng : [event.latitude,event.longitude], 18 pressure : nxt.pressure(), 19 temperature : nxt.temperature() 20 }) 21 }) 22 }) Listing 3.7 – Tâche de collecte : Manipulation de Lego NXT Inférence Contextuelle Dans cette dernière expérience, l’objectif est de montrer que APISENSE® peut également être utilisé pour rapidement prototype et valider empiriquement des algorithmes contextuels. Dans ce scénario, nous voulons mettre en place un modèle d’apprentissage permettant de reconnaître l’activité d’un utilisateur (c.-à-d. assis, debout, marche, courir, monter ou descendre des escaliers). L’idée générale de l’approche est d’observer 83les données transmises par le capteur d’accélération afin de déterminer l’activité de l’utilisateur. Le script décrit dans le listing 3.8 implémente l’algorithme initialement proposé en [37]. 1 var classes = ["walk","jog","stand", "sit", "up", "down"]; 2 var current = 0; var buffer = new Array(); 3 var model = weka.newModel(["avrX","avrY",...], classes); 4 var filter = "|(dx>"+delta+")(dy>"+delta+")(dz>"+delta+")"; 5 6 var input = $accelerometer.onChange(filter, 7 function(acc) { buffer.push(acc) }); 8 9 var learn = time.schedule({ period: ’5s’ }, function(t) { 10 if (model.learn(classes[current]) >= threshold) { 11 current++; 12 } 13 if (current < classes.length) { // Learning phase 14 input.suspend(); 15 var output = $dialog.display( 16 { message: "Select movement", spinner: classes }); 17 model.record(attributes(buffer), output); 18 sleep(’2s’); 19 buffer = new Array(); 20 input.resume(); 21 } else { // Exploitation phase 22 dialog.display({message: "Learning phase completed"}); 23 learn.cancel(); 24 model.setClassifier("NAIVE_BAYES"); 25 time.schedule({ period: ’5s’ }, function(t) { 26 trace.add({ 27 position: model.evaluate(attributes(buffer)), 28 stats: model.statistics() }); 29 buffer = new Array(); 30 } } }); Listing 3.8 – Tâche de collecte : Inférence Contextuelle. Le script se décompose en deux phases : i) une phase d’apprentissage et ii) une phase d’exploitation. Pour réaliser la phase d’apprentissage, nous avons intégré un algorithme d’apprentissage [44] implémenté en Java dans l’intergiciel mobile, et nous avons ajouté une façade pour utiliser ses fonctionnalités à partir du script. Durant la phase d’apprentissage, le script génère une boite de dialogue demandant à l’utilisateur de répéter des mouvements spécifiques. Lorsque l’utilisateur exécute les mouvements demandés, nous enregistrons les données d’accélérations selon les trois axes, et calculons des métriques (c.-à-d. moyenne, l’écart type, etc. ) sur les valeurs obtenues. Ces métriques sont ensuite insérées dans l’algorithme d’apprentissage et le mouvement qui à été effectué. Une fois que suffisamment de données ont été insérées dans le modèle d’apprentissage, le 84Predicted Class Acc (%) Walk Jog Stand Sit Up Down Walk 66 0 4 0 0 0 94,3 Jog 0 21 0 0 0 0 100 Stand 4 0 40 0 0 0 90,9 Sit 0 0 2 83 0 0 97,6 Up stair 0 0 0 0 22 0 100 Down stair 0 0 0 0 0 11 100 Table 8 – Tableau décrivant la qualité du système de classification script passe en phase d’exploitation. Dans cette phase, nous évaluons, toutes les cinq secondes, les métriques des données d’accélération dans le modèle d’apprentissage. Le résultat correspondant au mouvement de l’utilisateur et ensuite sauvegardé avec les statistiques du modèle obtenu pour les reporté sur le serveur. Le tableau 8 reporte la matrice de confusion décrivant la qualité du système de classification obtenue par un utilisateur durant cette expérience. La matrice illustre le nombre de mouvements effectués durant cette expérience, et la haute précision des prédictions obtenues pour chacun des mouvements. Discussion Dans cette sous-section, nous discutons de l’expressivité et la complexité des approches décrites dans l’état de l’art avec APISENSE®. Nous utilisons le nombre de lignes de code pour comparer la complexité avec deux applications de collecte couvrant les deux formes d’acquisition de données qui sont la collecte opportuniste (application Wifi-Bluetooth Scanner) et participative (application Citoyen Journaliste). Le tableau 9 présente le nombre de lignes de code nécessaires pour développer ces applications. Le symbole X signifie que l’application ne peut pas être exprimée et le symbole ? signifie que l’application est réalisable, mais que nous n’avons pas d’information sur le nombre de lignes de code nécessaire avec l’approche concernée. En terme de lignes de code, APISENSE® est beaucoup plus concis (4 lignes) que les approches utilisant le langage déclaratif XML pour concevoir une application. C’est la cas avec MyExperience (27 lignes) et Medusa (45 lignes) pour l’application Citoyen Journaliste. De plus ces deux dernières approches ne supportent la définition d’application de collecte purement opportuniste comme l’application Wifi-Blutooth 85Scanner. Même si la concision de notre code est à peu près similaire à Anonysense (7 lignes de code) et Pogo (6 lignes de code), notre approche comporte de nombreux avantages comparés à ces approches. Par apport à Anonysense, qui utilise un DSL pour le développement des applications, le langage JavaScript nous permet d’avoir une plus grande flexibilité pour concevoir des traitements plus complexes, et surtout nous permet de facilement réutiliser du code déjà existant, comme nous l’avons montré dans l’application présentée en sous-section (cf. 3.5.1). Par rapport à Pogo, utilisant également une interface de programmation basée sur JavaScript, notre interface de programmation supporte les tâches de collecte de données participative qui n’est pas possible avec l’interface proposée par Pogo. La seule approche proposée supportant la collecte opportuniste et participative est PRISM, qui propose le déploiement d’applications de collecte écrites en code natif. Cependant PRISM ne propose pas d’abstraction pour faciliter le développement de ses applications, nécessitant une expertise approfondie en développement mobile. L’application Citoyen Journaliste nécessite par exemple 330 lignes de code. En outre, le développement natif des applications les rend exclusives pour un OS mobile, demandant par conséquent d’étudier et développer une nouvelle version de l’application pour supporter l’hétérogénéité des OS disponible. Nous avons présenté dans cette section un ensemble d’applications réalisables avec APISENSE®. Nous pensons que APISENSE® propose un bon compromis entre toutes les approches proposée dans l’état de l’art, supportant la collecte opportuniste (application Wifi/Blutooth Scanner), participative (application Citoyen Journaliste), ou une combinaison des deux (application Qualité Réseau) tout en fournissant une abstraction complète des technologies mobiles. En proposant une interface de programmation au-dessus de JavaScript, APISENSE® permet également de définir des traitements complexes (application Inférence contextuelle), et faciliter la réutilisation de code déjà existant (application Exploiter des capteurs externes). Nous pensons que la réutilisation est un aspect fondamental pour le succès APISENSE®, favorisant son utilisation par de nombreux acteurs académiques ou industriels, avec des niveaux d’expertises différents dans la collecte de données. En effet, les experts du domaine peuvent proposer des modules ou algorithmes complexes, utilisant les capteurs des dispositifs pour inférer des informations de haut niveau (par ex. activité de l’utilisateur, mode de transport), ou encore utiliser intelligemment les différents capteurs pour réduire la consommation énergétique des applications de collecte dans un contexte spécifique [14]. Ces modules pourront être ensuite réutilisés par des utilisateurs non experts. Et finalement, l’utilisation de JavaScript permet également de supporter l’hétérogénéité des OS mobiles 86Wifi-Blutooth Scanner Citoyen Journaliste APISENSE 4 9 Medusa [55] X 45 MyExperience [25] X 27 Anonysense [62] 5 X Pogo [6] 4 X PRISM [16] ? 330 Table 9 – Comparaison de l’expressivité et du nombre de lignes de code pour s’affranchir d’étudier et développer une nouvelle application pour chaque OS disponible. 3.5.2 Coût énergétique d’une expérience de collecte Dans cette section, nous comparons la consommation énergétique de notre prototype réalisé sur Android avec Funf [1], une application présentée dans l’état de l’art APISENSE® ( section 2.3.1, page 34 ). Nous rappelons que Funf est un outil permettant de générer des applications natives Android à la carte. Pour réaliser cette expérience, nous avons exécuté chaque application durant 24 heures, sur un Nexus-S réinitialisée à une configuration par défaut, pour limiter le bruit qui peut être induit par d’autres applications. Chaque application est configurée pour collecter toutes les 10 minutes des informations de la batterie du dispositif mobile. Le résultat de cette expérience est illustré par la figure 15 Dans cette courbe, l’abscisse représente le temps, et l’ordonnée la tension en millivolt représentant le niveau de la batterie du dispositif. La tension d’un dispositif varie généralement entre 4200 millivolts, représentant 100% de niveau de batterie, et 3200 millivolts. Comparé à une application native (baseline), nous pouvons observer que le surcoût énergétique de notre prototype est faible comparé à une application native, et moins important que celui imposé par Funf. Bien que notre solution soit plus consommatrice qu’une application native, notre solution ne nécessite aucune expertise particulière de la plate-forme Android, et rend également transparent le déploiement de l’application et la propagation des données pour les développeurs. Comme la consommation énergétique dépend fortement de i) la nature de l’expé- rience, ii) du type de capteur utilisé et iii) du volume des données produit, nous avons réalisé une seconde expérience permettant d’estimer l’impact des différents capteurs 87 4100 4120 4140 4160 4180 4200 0 200 400 600 800 1000 1200 1400 Voltage (mV) Time (s) Android Native Application Funf Bee.sense Figure 15 – Impact d’APISENSE sur la consommation énergétique sur la consommation de la batterie (cf. figure 16). Pour cette expérience, nous avons développé trois scripts, qui ont été exécutés séparément sur trois dispositifs mobiles. Le premier script (APISENSE + Bluetooth), déclenche un scan toutes les minutes et collecte le niveau de la batterie aussi bien que le résultat du scan. Le second (APISENSE + GPS) collecte également toutes les minutes les données GPS tandis que le dernier script collecte des données relatives au point d’accès WIFI. Cette expérience démontre que même avec un stress important sur les capteurs, il est possible de collecter des données durant une journée normale de travail sans avoir à recharger le dispositif mobile (40% d’énergie consommée après 10 Heures d’activation du GPS). 3.6 conclusion Le développement d’applications mobiles dédiées à la collecte de données est un processus long et complexe. Généralement, afin de déployer l’application vers un grand nombre d’utilisateurs, plusieurs applications ont besoin d’être développées pour faire face à la diversité des plate-formes mobiles disponibles. D’autre part, ces applications doivent généralement prendre en compte des aspects non fonctionnels tels que la 88 0 20 40 60 80 100 0 100 200 300 400 500 Battery level (%) Time (min) APISENSE APISENSE + GPS APISENSE + Bluetooth APISENSE + WiFi Figure 16 – Impact des capteurs sur la consommation énergétique protection de la vie privée des utilisateurs ainsi que la consommation énergétique de ces applications. Dans ce chapitre, nous avons présenté notre approche pour diminuer le coût lié aux développements d’applications mobiles dédiées à la collecte de données. Plus particulièrement, nous avons présenté dans un premier temps une interface de programmation de haut niveau pour la définition d’une application de collecte. L’interface proposée a été conçue pour i) faire face à la diversité des applications de collecte (i.e. participative, opportuniste), ii) supporter l’hétérogénéité des plate-formes mobiles iii) tout en permettant de s’abstraire de la complexité liée au développement mobile. Nous avons ensuite présenté l’environnement mobile dédié aux utilisateurs en charge de l’exécution de l’interface proposée. Nous avons particulièrement présenté son architecture composée de quatre couches pour i) le déploiement et la propagation des données, ii) permettre aux utilisateurs de contrôler des les données collectées sur leurs dispositifs, iii) l’exécution des applications de collecte et iv) limiter la consommation énergétique liée à l’exécution d’une application de collecte. Dans le chapitre suivant, nous allons présenter l’environnement serveur de notre architecture. 894 C O L L E C T E R É PA RT I E D E D O N N É E S Sommaire 4.1 Introduction 91 4.2 Infrastructure répartie de traitement des données 92 4.3 Architecture du serveur central 94 4.3.1 L’enregistrement des participants 95 4.3.2 L’enregistrement des expériences de collecte 96 4.3.3 Déploiement des tâches de collecte 98 4.3.4 Gestion des nœuds de collecte 99 4.4 Architecture des noeuds de collecte 100 4.4.1 Modèle de caractèristiques d’une campagne de collecte 101 4.4.2 Création d’une nouvelle campagne 107 4.4.3 Intéraction entre les composants 110 4.4.4 Extension des nœuds de collecte 112 4.5 Campagne de collecte communautaire 113 4.5.1 Extension du modèle de programmation 116 4.5.2 Coordonner l’exécution des tâches de collecte 119 4.6 Conclusion 124 4.1 introduction L’objectif des travaux de cette thèse est de proposer une solution générique, facilitant le développement et le déploiement de campagnes de collecte de données à travers des dispositifs mobiles. Dans le chapitre précédent, nous avons présenté l’environnement mobile de APISENSE®, la plate-forme résultante des travaux de cette thèse. Nous avons proposé un modèle de programmation facilitant le développement d’applications mobiles dédiées à la collecte de données et un intergiciel déployé au préalable sur les dispositifs mobiles, dédié à leurs exécutions. 91Dans ce chapitre, nous présentons notre deuxième contribution concernant l’architecture et l’implémentation de l’environnement serveur de APISENSE®, responsable du déploiement des campagnes de collecte, de la persistance des données ainsi que leurs analyses. Ce chapitre adresse particulièrement deux défis introduit en début de manuscrit, qui sont la généralité de la plate-forme, concernant la capacité de la plate-forme à supporter une grande diversité de campagnes de collecte ainsi que son passage à l’échelle. structure du chapitre La suite du chapitre est organisée comme suit : en section 4.2, nous présentons une vue d’ensemble de l’architecture proposée, et discutons des bénéfices de cette architecture par rapport aux solutions de l’état de l’art. Dans les sections 4.3 et 4.4, nous présentons en détail l’architecture des différentes entités logicielles de APISENSE®, ainsi que les méthodes de conceptions et de modélisations utilisées. Dans le chapitre 4.5, nous proposons une optimisation améliorant le passage à l’échelle du système avant de conclure en section 4.6. 4.2 infrastructure répartie de traitement des données Avant de présenter en détail l’architecture proposée dans ce chapitre, nous présentons ici une vue globale de la plate-forme APISENSE®. La figure 17 donne un aperçu simpli- fié des différentes entités logicielles qui la composent, et leurs principales interactions. L’architecture est principalement composée de trois parties distinctes : un ensemble de nœuds de collecte (DataGathering Node), un serveur central (Central Server) et un ensemble de nœuds mobiles avec une application dédiée installée au préalable par les participants. Nous avons déjà présenté les noeuds mobiles dans le chapitre précédent (cf. 3.4, page 68 ). APISENSE® adopte une architecture décentralisée, où le serveur central est assumé comme le tiers de confiance de la plate-forme. Plus particulièrement, le serveur central est responsable du déploiement des tâches de collecte soumises par les nœuds de collecte, vers les nœuds mobiles du système. Afin de fournir un déploiement adapté (par ex. zone géographique, type de dispositif mobile), le serveur central a besoin de maintenir à jour un ensemble d’informations, sur les dispositifs mobiles disponibles pour exécuter des tâches de collecte. Dans ce contexte, nous supposons que le serveur central est géré par un acteur de confiance, qui peut être une organisation publique, ou une structure de recherche. 92Figure 17 – Vue d’ensemble d’APISENSE® La gestion des campagnes de collecte est assurée par les nœuds de collecte, qui peuvent être dédiés à un ou plusieurs utilisateurs. Typiquement, la gestion d’une campagne de collecte comporte quatre phases : i) définir une tâche de collecte, ii) recruter un sous-ensemble de dispositifs mobiles, iii) assurer la persistances des données collectées (c.-à-d. dans une base de données) lors de l’exécution de la tâche iv), exploiter les données. Pour réaliser ces différentes étapes, un nœud de collecte propose un environnement fournissant un ensemble de services qui peuvent être entièrement configurés par les utilisateurs. La configuration consiste en la sélection de modules implémentant la logique dédiée à la réalisation d’une étape d’une campagne de collecte. Dans ce cadre, les modules proposés peuvent implémenter différentes stratégies selon la nature de la campagne. Par exemple, la phase de collecte peut inclure un modèle particulier d’anonymisation des données pour assurer la confidentialité des participants. Ce choix de conception, séparant les préoccupations du déploiement ainsi que la collecte et l’analyse des données, nous permet de rompre avec le syndrome de l’enfermement propriétaire. Premièrement, en offrant la possibilité aux utilisateurs de déployer leurs nœuds de collecte sur l’infrastructure de leur choix, leur permettant 93ainsi de garder un contrôle total sur les données collectées durant leurs campagnes. Les nœuds de collecte peuvent ainsi être déployés vers une infrastructure publique ou privée, en fonction des préoccupations éthiques ou légales en rapport avec le stockage des données. De plus, les nœuds de collecte des utilisateurs sont complètement isolés les uns des autres, améliorant la sécurité et la disponibilité de leurs environnements, permettant d’effectuer des traitements lourds sur les données collectées sans affecter les autres instances. Et finalement, en gardant une entité centrale (c.-à-d. le serveur central), cela permet aux nouveaux utilisateurs de bénéficier d’un ensemble de participants déjà disponibles pour exécuter leurs tâches de collecte, s’affranchissant ainsi d’une longue période de recrutement. Après avoir présenté une vue globale de la plate-forme APISENSE®, nous présentons dans la suite de ce chapitre l’architecture et les services fournis par le serveur central (cf. section 4.3), ainsi que les nœuds de collecte (cf. section 4.4). 4.3 architecture du serveur central Comme nous l’avons présenté dans la section précédente, APISENSE® est une plate-forme répartie dédiée aux déploiements et à l’exécution de campagnes de collectes de données. Afin de fournir une plate-forme modulaire, facilement extensible et configurable, APISENSE® est une plate-forme orientée service, utilisant un modèle à composants logiciels pour modéliser les différentes applications serveur qui la composent. Plus spécifiquement, APISENSE® est basée sur le modèle SCA [46], un standard initié par le consortium OASIS, dédié à la modélisation d’architectures tout en étant indépendant des langages de programmation, des protocoles de communication, des langages de description d’interface et des propriétés non fonctionnelles. La figure 18 illustre le modèle SCA du serveur central. Dans SCA, les bases des constructions sont les composants logiciels, qui peuvent offrir des services, ou solliciter d’autres composants via des références. Les services ainsi que les références peuvent être connectés à l’aide de fils (wire en anglais). SCA spécifie un modèle à composants hiérarchiques, laissant la possibilité d’implémenter un composant par un langage de programmation, ou par un ensemble de sous composants. Dans le dernier cas, ces composants sont appelés composite. Afin de supporter l’interaction entre des services distants, SCA spécifie la notion de communication distante (binding), permettant de décrire 94le protocole que le client devra utiliser pour invoquer un service. Dans l’architecture SCA proposée, les composants ParticipantFrontend, GatheringNodeFrontend ScientistFrontend et représentent les points d’entrés pour les différents acteurs qui interagissent avec le serveur central. Ces composants exposent leurs services en tant que ressource REST, accessibles via le protocole HTTP. Plus particulièrement, ces composants fournissent quatre types services nécessaires au fonctionnement du système, dédié à : L’enregistrement des participants : ce service (participant registration) est accessible par les dispositifs mobiles, permettant l’enregistrement d’un nouveau participant volontaire pour exécuter de nouvelles tâches de collecte. L’enregistrement des expériences de collecte : ce service (deploy scripts) est accessible par les nœuds de collecte, et permet aux utilisateurs d’enregistrer de nouvelles expériences de collecte. Le déploiement des expériences de collecte : ces services (list experiment, download script, recruit participants) assurent la propagation des expériences vers les terminaux mobiles. La gestion des nœuds de collecte : ces services (user registration, deploy data gathering node, downloads modules) représentent les points d’entré dans le système pour les utilisateurs voulant créer et configurer un nœud de collecte. Nous présentons dans la suite de cette section les services fournis par ces composants. 4.3.1 L’enregistrement des participants L’enregistrement des participants permet d’informer le serveur central de la présence et de la disponibilité des participants pour exécuter des tâches de collecte. Ce service, fourni par le composant DeploymentService, est invoqué par les nœuds mobiles lors de leurs installations sur les terminaux mobiles des participants. L’inscription inclut des informations statiques sur la configuration matérielle des terminaux des participants, ainsi que des informations confidentielles. Les informations matérielles comprennent le type du terminal (par ex. smartphone, tablette), le système d’exploitation utilisé (par ex. Android, iOS) ainsi que l’ensemble des capteurs embarqués dans le terminal. Les informations confidentielles comprennent par défaut le nom, le prénom et une adresse électronique valide. Cependant, le participant a la possibilité de raffiner ces informations, volontairement, en indiquant des lieux géographiques — à gros grain (par ex. pays, région ou ville) — où il évolue, son statut ainsi que son âge. Ces informations sont ensuite stockées dans une base de données, et serviront 95Figure 18 – Architecture SCA du serveur central lors de la phase de déploiement. Pour des raisons de confidentialité, elles pourront être accessibles uniquement par le serveur central, c’est-à-dire qu’elles ne seront pas accessibles par les nœuds de collecte du système. 4.3.2 L’enregistrement des expériences de collecte Accessible par les nœuds de collecte du système, ce service, fourni par le composant Recruitment, permet l’enregistrement d’une expérience de collecte auprès du serveur central. Cette enregistrement comprend deux catégories d’éléments. La première correspond a un ensemble de fichiers JavaScript définissant la tâche de collecte (cf. section 3.3, page 59 ). La deuxième catégorie définit les propriétés de l’expérience et également ses exigences en matière de déploiement. Ces propriétés sont définies par un ensemble de clés/valeurs utilisant le formalisme JSON. Comme le montre le tableau 10, trois catégories de propriétés sont actuellement supportées : global : définit principalement des informations générales sur l’expérience de collecte. Ces propriétés ne sont pas interprétées par le serveur central, mais 96propriété nom description global name Nom de l’expérience description Description du but de la collecte de données version Version de l’expérience de collecte privacy Description du modèle de protection de la vie privée incentive Description du modèle de récompense nodeurl URL du nœud de collecte de collecte recruitment sensors Liste des capteurs utilisées par la tâche de collecte max_numbers Nombre maximum de participants admis dans l’expé- rience de collecte area Zone globale de collecte (par ex. pays, région, ville) platform Liste de plate-formes mobiles context area Liste de zone géographique. period Liste de période journalière Table 10 – Propriétés définissant une expérience de collecte permettent d’informer les participants sur les objectifs de l’expérience (description), le modèle de confidentialité (privacy) et de récompense (incentive). recruit : permet de définir les participants autorisés à participer à une expérience de collecte. Ces propriétés permettent de limiter le nombre de participants impliqué dans l’expérience (max_numbers), de sélectionner des participants évoluant dans un lieu géographique (area) — à gros grains (par ex. pays, région ou ville) —, disposant d’un terminal ayant les capteurs nécessaires pour l’exécution de la tâche de collecte (sensors) et disposant d’une plate-forme mobile spécifique (platform). context : permet de spécifier le contexte d’exécution de la tâche de collecte une fois propagée vers les terminaux mobiles. Dans ce cadre, les propriétés permettent de spécifier une liste de zones géographiques (area) — région circulaire définie par les coordonnées du centre et un rayon exprimé en mètres —, et une liste de périodes journalières (period) dans lesquelles l’expérience doit s’exécuter. Ces propriétés seront ensuite interprétées par les nœuds mobiles, qui seront responsables de déclencher ou de stopper l’exécution de la tâche de collecte (cf. section 3.4.2, page 72 ). 974.3.3 Déploiement des tâches de collecte Une fois l’expérience enregistrée, deux stratégies principales peuvent être considérées pour propager les tâches de collecte vers les nœuds mobiles des participants [16]. La première approche (push-based) consiste à déployer automatiquement l’expérience de collecte auprès des utilisateurs mobiles. Dans la deuxième (pull-based), le nœud mobile télécharge la tâche de collecte après une action volontaire du participant, ou en effectuant une requête périodiquement vers le serveur pour voir si une nouvelle expérience est disponible [62]. Dans ce cadre le serveur central supportent ces deux approches pour la propagation des tâches de collecte. Approche pull-based La première approche (pull-based) est supportée par les composants Pull, DeploymentService et PropertyMatcher. Dans un premier temps, les participants peuvent accéder au service proposé par le Pull, via leur dispositif mobile, pour récupérer une liste d’expériences mises à disposition par les utilisateurs. Dans ce cadre, le PropertyMatcher détermine les expériences accessibles pour le participant, en faisant la correspondance entre les propriétés de recrutement des expériences, et des informations partagées par le participant lors de son inscription. Des informations générales sont fournies pour chaque expérience accessible, permettant au participant de visualiser le but de l’expérience de collecte, du modèle de confidentialité et de récompense ainsi que les capteurs utilisés lors de son exécution. À partir de ces informations, le participant a alors la possibilité de s’enregistrer à une expérience. Lors de la souscription, un identifiant anonyme est alors généré. Cet identifiant est ensuite envoyé au nœud de collecte ayant initié l’expérience et à l’agent mobile, pour l’avertir d’un nouveau recrutement dans l’expérience. Dans ce cadre, l’identifiant anonyme servira pour toutes les communications entre les nœuds de collecte et les participants, comme lors de la propagation des données. Cela permet en effet aux participants de ne pas révéler leurs identités réelles lors des interactions avec les nœuds de collecte, assurant ainsi une première couche d’anonymisation. Une fois la souscription terminée, l’agent mobile peut alors télécharger la tâche de collecte associée et déclencher son exécution. Approche push-based La deuxième approche (push-based) est supportée par les composants Push, et également par le composant PropertyMatcher. Dans ce cadre, le Push fournit un service, 98accessible par les nœuds de collecte, pour pousser directement une tâche de collecte vers les agents mobiles des participants. Ce processus comprend deux étapes. La première consiste à envoyer un message vers les agents mobiles acceptant ce mode de déploiement, et correspondant aux propriétés de l’expérience. La deuxième étape est ensuite similaire à l’approche présentée ci-dessus, c’est-à-dire composée de la phase de souscription et de téléchargement de la tâche de collecte. Pour établir ce type de propagation, il est nécessaire de supporter des communications dans le sens serveur vers terminaux mobiles. Typiquement, ce type de communication peut être effectué en utilisant des services dédiés, proposés par les fournisseurs des OS mobiles tels que GCM (Google Cloud Messaging) pour Android ou APNs (Apple Push Notification service) pour iOS. Dans ce contexte, le composant PushService est en charge de l’interaction avec ces services pour envoyer des messages vers les terminaux mobiles selon l’OS mobile visé. Indépendamment de l’approche utilisée, le composant Push permet également aux nœuds de collecte de propager des messages aux utilisateurs mobiles s’étant inscrits à leurs expériences. Ces messages peuvent être propagés soit à un participant en particulier, ou alors à l’ensemble des participants ayant souscrits à l’expérience. Deux types de messages peuvent être transmis : update : Message indiquant la disponibilité d’une nouvelle mise à jour de l’expérience. Dans ce cadre, ce message déclenchera le téléchargement de la nouvelle version de l’expérience par les nœuds mobiles. Cela permet de rapidement adapter le comportement de l’expérience une fois déployée. notification : Ces messages permettent aux utilisateurs de notifier l’état d’avancement de l’expérience en cours, en partageant des statistiques globales des données collectées avec tous les participants. 4.3.4 Gestion des nœuds de collecte Les derniers services présentés sont responsables de la création et de la configuration des nœuds de collecte. Un utilisateur voulant évoluer dans APISENSE®, peut se connecter au service géré par le composant DataGatheringRepository via une interface web, et déclencher le téléchargement de leur propre nœud de collecte. Celui-ci pourra ensuite être déployé vers une infrastructure publique ou privée, selon les exigences des utilisateurs. 99Un nœud de collecte peut être téléchargé suivant deux formats : 1. En tant qu’image virtuelle pré-configurée, permettant son déploiement au-dessus d’un environnement virtualisé. Dans ce cadre, l’image virtuelle comprend toute la pile logicielle nécessaire au bon fonctionnement du nœud de collecte. Plus particulièrement, elle est composée d’une distribution Linux, d’une machine virtuelle Java (JVM), d’une base de données MongoDb 1 pour le stockage des données, et FraSCAti responsable de l’exécution des composants SCA du nœud de collecte. 2. En tant qu’archive web (.war), permettant son déploiement directement au-dessus d’un serveur d’application (c.-à-d. Apache Tomcat). Le service fourni par le ComponentRepository propose un ensemble de composants modulaires, dédiés à la configuration d’un nœud de collecte. Les utilisateurs peuvent accéder à ce service via leur nœud de collecte nouvellement déployé, pour télécharger et assembler des composants dans leur nœud de collecte en fonction de la nature des expériences qu’ils veulent mener. Nous présentons ce point plus en détail dans la section suivante. 4.4 architecture des noeuds de collecte Dans la section précédente, nous avons présenté l’architecture et les services fournis par le serveur central de la plate-forme APISENSE®. Dans ce chapitre, nous présentons l’architecture des nœuds de collecte, et plus particulièrement comment nous tirons profit du modèle SCA pour fournir des nœuds de collecte facilement configurables. Les nœuds de collecte sont les entités logicielles de notre système responsables de la gestion des campagnes de collecte des utilisateurs. Nous rappelons qu’une campagne est essentiellement composée de quatre étapes qui consiste : 1. à définir une tâche de collecte via une interface de programmation dédiée, 2. à publier la tâche de collecte auprès du serveur central pour le recrutement des participants, 3. à assurer la persistance des données collectées par les dispositifs, 4. et finalement à analyser et exploiter les données collectées Par ailleurs, une expérience peut également comporter un modèle de protection de la vie privée des participants, ainsi qu’un modèle de récompense. 1. https://www.mongodb.org 100Pour faire face à la diversité des expériences qui peuvent être menées, les nœuds de collecte peuvent être entièrement configurés selon la nature d’une expérience. Cette configuration consiste essentiellement à assembler un ensemble de composants SCA, où chaque composant est responsable de la logique fonctionnelle d’une étape d’une expérience. Dans ce contexte, plusieurs composants peuvent être dédiés à une même étape, représentant la partie variable d’une configuration. Pour guider les utilisateurs dans ce processus d’assemblage, nous avons adopté une approche basée sur l’ingénierie des Lignes de Produits Logiciels (LDPs) [12, 52] (en anglais SPL pour Software Product Line). Typiquement, l’idée est i) de définir un Modèle de Caractéristiques (MC) [32](en anglais FM pour Feature Model) qui capture les caractéristiques communes et les points de variabilité d’une configuration d’une expérience, ii) d’implémenter le MC comme un assemblage de composants SCA et de proposer le MC aux utilisateurs pour leurs permettre de sélectionner les composants selon la nature des expériences qu’ils veulent mener. Dans la suite de cette section, nous présentons le MC dédié à la configuration des expériences de collecte en sous-section 4.4.1, un exemple d’architecture SCA généré et leurs interactions permettant la réalisation d’une campagne de collecte, et nous finissons par présenter le mécanisme d’extension permettant d’adresser les exigences non anticipées. 4.4.1 Modèle de caractèristiques d’une campagne de collecte La notion de Modèle de Caractéristiques (MC), introduite par Kang et al. [32], est une technique de modélisation permettant la description d’un ensemble d’artéfacts réutilisables, qui peuvent être utilisés pour créer une famille de logiciels qui possède des caractéristiques communes, mais exhibant également des différences. Le MC représente ainsi l’ensemble des choix proposés à un utilisateur pour lui permettre de configurer un logiciel spécifique à ses besoins. Typiquement, un MC est spécifié sous forme d’arbre, dont les nœuds représentent les caractéristiques d’un logiciel et les arcs spécifient des liens de composition entre les caractéristiques. Trois catégories de caractéristique peuvent être définies : les caractéristiques obligatoires, les caractéristiques optionnelles et les caractéristiques alternatives. Additionnellement, des règles de composition peuvent être définies, établissant une 101relation entre les caractéristiques. Ces règles peuvent prendre deux formes i) une caractéristique qui nécessite la sélection d’une autre caractéristique (définissant une interdépendance entre les caractéristiques), et ii) la sélection d’une caractéristique peut exclure la sélection d’une autre. Dans notre contexte d’utilisation, nous utilisons cette technique pour modéliser les différents choix proposés aux utilisateurs pour leur permettre de configurer les services d’une campagne de collecte selon les spécificités de celle-ci. La figure 19 illustre le MC dédié à la configuration d’une campagne de collecte. Typiquement, le MC identifie principalement cinq points de variabilités pour i) configurer l’environnement de développement des tâches de collecte (SensingTask Description), ii) choisir un modèle de recrutement des utilisateurs (Recruitment), iii) choisir une série de traitements sur les données collectées avant leurs insertions dans la base de données (OnlineProcessing), iv) spécifier l’indexation des données dans la base de données (Collector), v) exposer des services au-dessus des données collectées (Service). Nous décrivons à présent brièvement ces différents points de variabilités et les caractéristiques actuellement supportées. Figure 19 – Modèle de caractéristiques d’une campagne de collecte 102SensingTask Description Ce premier point de variabilité permet aux utilisateurs de sélectionner l’interface web dédiée aux développements des tâches de collecte vue dans le chapitre précédent (cf. section 3.3). La première interface, définie par la caractéristique CodeEditor, propose un éditeur de code en ligne — avec coloration syntaxique, complétion de code, etc. — permettant le développement des tâches de collecte directement en JavaScript. La deuxième interface, définie par la caractéristique Form, quant à elle, fournit une interface web permettant le développement des tâches à partir d’un formulaire. Le formulaire permet principalement de spécifier le type de données à collecter (par ex. position, accéléromètre, périphérique Bluetooth) avec la fréquence de collecte pour chaque donnée (par ex. toutes les cinq minutes). Après validation du formulaire, un fichier JavaScript est généré à partir des choix effectués par l’utilisateur. Le formulaire permet de rendre accessible le développement des tâches pour des utilisateurs n’ayant aucune expertise en programmation. Cependant, le formulaire limite l’expressivité des tâches qui peuvent être développées, en définissant uniquement des tâches de collecte périodique de données. Nous prévoyons dans des travaux futurs de proposer des métaphores visuelles pour développer des tâches de collecte plus complexes, tout en permettant leur développement par des utilisateurs n’ayant aucune expertise en développement. Certains travaux ont déjà été proposés dans ce sens tels que Scratch [48, 58] ou Alice [15] ou plus récemment App Inventor 2 . Le principe de ces approches consiste à fournir un environnement intuitif, dans lequel on associe des composants visuellement pour définir le comportement d’une application. Recruitment Ce deuxième point de variabilité permet de sélectionner le modèle utilisé pour recruter un sous-ensemble de participants exécutant la tâche de collecte. Dans ce contexte, le recrutement consiste essentiellement à interagir avec les services du serveur central pour déployer la tâche de collecte et assurer sa mise à jour, définir un sous-ensemble de participants autorisés à l’exécuter et son contexte d’exécution. Les deux caractéristiques associées à ce point de variabilité (Individuel et Collaborative) permettent de faire face aux différentes échelles de collecte (cf. section 2.1.2) que sont la collecte personnelle et la collecte communautaire. La caractéristique Individuel propose un modèle simple de recrutement des participants dédié à la collecte personnelle de données, qui a généralement pour objectif de suivre l’activité d’un individu à travers le temps. Nous présentons plus en détail en 2. http://appinventor.mit.edu 103sous-section 4.4.4 ce modèle et les différentes interactions entre les nœuds mobiles, le serveur central et les nœuds de collecte nécessaires. La caractéristique Collaborative propose un modèle principalement dédié à la collecte communautaire de données, qui a généralement pour objectif de surveiller des phénomènes liés à l’environnement des participants (par ex. surveiller la qualité du signal réseau dans la ville de Paris). Nous décrirons plus en détail ce modèle dans la section 4.5. Online Processing Ce point de variabilité permet de définir un ensemble de traitements à effectuer sur les données collectées avant leurs insertions dans une base de données. Les traitements peuvent consister à calculer des statistiques globales sur les données collectées (caracté- ristique Statistique), calculer un modèle d’incitation pour récompenser les participants (point de variabilité Incentive), ou encore effectuer des traitements modifiant les données collectées pour assurer leurs confidentialités (point de variabilité Privacy). Incentive Ce point de variabilité définit le modèle de récompense de l’expérience de collecte. Typiquement, l’incitation peut prendre une grande variété de formes. Par exemple, ré- compenser les participants financièrement [41] pour les données partagées, ou transférer des mécanismes de jeux dans le contexte de la collection de données [69]. Généralement, un modèle de récompense a pour objectif d’augmenter la participation des utilisateurs, et de les motiver à partager des données plus pertinentes pour l’expérience. Actuellement, nous supportons un modèle de récompense [24] basé sur la quantité et la qualité des données partagée par des participants. Ce modèle est également utilisé dans des applications mobiles populaires telles que Waze 3 ou encore Foursquare 4 . Le modèle est basé sur le concept de récompense [69] qui peut prendre deux formes différentes. La première consiste à émuler une compétition, en effectuant un classement entre les participants. Dans ce cadre, le modèle peut être configuré par les utilisateurs, en attribuant des points selon le type de données partagées. Le deuxième permet d’attribuer des badges/trophées, en fonction du nombre de points remportés par les participants. 3. https://www.waze.com 4. https://foursquare.com 104Dans l’application mobile présentée dans le chapitre précédant, plusieurs mécanismes permettent aux participants de contrôler les données qui sont collectées par leur dispositif (cf. chapitre 3 sous-section 3.4.2, page 72 ). Ce mécanisme peut être utilisé par exemple par les participants pour empêcher l’application d’activer le GPS qui consomme beaucoup d’énergie. Dans ce cas, les utilisateurs peuvent contrebalancer l’énergie utilisée par les capteurs, et la sensibilité des données — d’un point de vue vie privée —, en attribuant plus de points selon les données collectées par les participants. Par exemple, le capteur GPS est bien connu pour fournir une grande précision pour déterminer la position d’un utilisateur, mais consomme beaucoup plus d’énergie que la géolocalisation GSM, moins précise. Dans ce contexte, pour inciter les participants à partager leurs capteurs GPS, plus de points peuvent être attribués aux données collectées par le GPS. Privacy Additionnellement, un modèle de confidentialité peut être intégré dans l’expérience de collecte. Dans ce cadre, les composants implémentant ces modèles sont responsables de l’assainissement des données reportées par les participants, avant leurs insertions dans la base de données. Actuellement nous supportons un modèle classique de perturbation [2], consistant à modifier les coordonnées spatiales et temporelles en y ajoutant une perturbation aléatoire. La perturbation est introduite par un bruit gaussien à l’intérieur d’une sphère de rayon r centré sur les coordonnées d’origine. Nous envisageons d’intégrer plusieurs modèles issus de l’état de l’art [11] tels que des modèles de dissimulation spatiale [64, 30, 62]. Collector Ce point de variabilité est responsable de la persistance ainsi que de l’indexation des données collectées dans une base de données. Actuellement, la persistance des données est effectuée avec la technologie MongoDB, une base de données non-relationnelle orientée documents. Dans notre cas d’utilisation, le principal bénéfice de cette technologie est de ne pas imposer un schéma spécifique pour sauvegarder les données. En effet, de nombreux systèmes [25, 22] utilisent des bases de données SQL qui nécessitent la définition de schéma statique pour structurer les données. Ce choix de conception limite alors la réutilisation du système nécessitant la sauvegarde de données ayant une structure non prévue dans le schéma défini au préalable. Dans ce cadre, MongoDB représente une technologie fournissant la flexibilité nécessaire pour faire face à l’hétérogénéité des données qui peuvent être collectées durant les expériences. 105Les données sont sérialisées sous la forme d’un tableau JSON. Dans ce cadre, l’utilisation du formalisme JSON fournit une grande flexibilité aux utilisateurs pour représenter les données, selon le type des capteurs impliqués dans la tâche de collecte. La structure des données est définie par les utilisateurs lors du développement de la tâche de collecte (cf. sous-section 3.3.3). Les métadonnées sont générées par l’application mobile, comportant l’identifiant unique de l’utilisateur — crée par le serveur central lors de l’enregistrement du participant dans l’expérience —, la version de la tâche de collecte ainsi que la date où les données ont été générées. Les utilisateurs ont également la possibilité de compléter ces méta-informations. Dans ce cadre, ces méta-informations peuvent être utilisées pour structurer les données dans la base de données, par exemple indexer les données par jour (caractéristique DateIndex), par utilisateur (caractéristique UserIndex) ou utiliser un index géographique (caractéristique GeoIndex) pour faciliter le traitement des données à caractère géographique. Service Le dernier point de variabilité permet de sélectionner des services responsables d’exposer les données après leurs sauvegardes dans la base de données. Actuellement, nous supportons des composants génériques qui permettent de fournir une interface web donnant un accès à la base de données (caractéristique Query), de visualiser des statistiques sur données collectées sous forme de graphe (caractéristique Chart), visualiser sous forme de carte (caractéristique Map) si l’indexation sélectionnée dans la partie précédente utilise un index géographique, ou alors d’exporter les données dans divers formats (point de variabilité Export) (c.-à-d. CSV, JSON, XML). Dans cette section, nous avons présenté notre approche pour permettre de faire à face à la diversité des campagnes de collecte qui peuvent être menées par les utilisateurs. Pour prendre en compte cette diversité, nous avons proposé de modéliser l’environnement responsable de la gestion d’une campagne comme une famille de produits à l’aide de Modèle de Caractéristique (MC). Le MC présenté permet de définir les points communs et également les différences relatives aux campagnes de collecte. Ces différences peuvent consister à utiliser différents modèles de confidentialité, de recrutement ou d’incitation selon la nature de l’expérience, choisir différentes façons pour développer les tâches de collecte selon le niveau de programmation des utilisateurs ou alors structurer et exposer les données collectées durant la campagne. Ainsi, le MC définit l’ensemble des choix présentés aux utilisateurs pour leur permettre de configurer leurs campagnes de collecte en fonction de leurs exigences. Dans la section 106suivante, nous décrivons comment un nœud de collecte génère un environnement assurant la gestion d’une campagne de collecte à partir des choix effectués par les utilisateurs et comment les utilisateurs peuvent étendre les nœuds de collecte pour faire face à des exigences non anticipées. 4.4.2 Création d’une nouvelle campagne Toutes les caractéristiques initialement introduites dans la section précédente sont associées à un composites SCA. La création d’une nouvelle campagne consiste donc à intégrer et à assembler dans l’architecture initiale du nœud de collecte (cf. figure 20) un ensemble de composite SCA. Dans ce cadre, le MC permet de spécifier l’ensemble des assemblages valides pour générer une nouvelle instance de campagne de collecte. Une fois déployé, un nœud de collecte (cf. figure 20) est composé de quatre composants génériques, dédiés à la création d’une nouvelle campagne : ExperimentManager, WebManager, ModuleManager et le ReconfigurationManager. Figure 20 – Architecture initiale d’un nœud de collecte Le point d’entrée de cette architecture est le composant ExperimentManager. Ce composant est responsable du déclenchement de la génération d’une nouvelle campagne. Pour lancer cette génération, ce dernier composant a besoin de trois informations : i) le nom de la campagne de collecte, ii) une description de l’objectif de la collecte, iii) et l’ensemble des caractéristiques sélectionnées dans le MC par les utilisateurs. La 107création d’une nouvelle campagne peut également s’effectuer à partir d’une interface web fournie par le composant WebManager. La figure 21 montre une vision simplifiée de la génération d’une nouvelle campagne. Figure 21 – Processus de génération d’une architecture SCA Une fois la sélection validée, en fonction des différentes contraintes exprimées dans le MC, le composant ExperimentManager procède alors aux téléchargements des différents composites associés aux caractéristiques sélectionnées, auprès du serveur central via le composant ModuleLibrary. Une fois les composites téléchargés, le composant ExperimentManager exploite alors les capacités d’introspection du moteur d’exécution SCA via le composant ReconfigurationManager pour instancier les composites téléchargés dans l’architecture du nœud de collecte. Par exemple, la figure 22 illustre une nouvelle instance générée à partir de la sélection des caractéristiques suivantes : CodeEditor, Individuel, Badge, Pertubation, userIndex, Query, Export-KML. Cette nouvelle instance expose ainsi de nouveaux services permettant 108Figure 22 – Architecture SCA d’une campagne de collecte 109d’éditer une tâche de collecte associée à la campagne (composant SensingTask :CodeEditor), de déployer cette tâche auprès du serveur central afin de recruter un ensemble de participants (composant Recruitement :Individuel), d’anonymiser et de sauvegarder les données collectées par les participants (composant Privacy :Perturbation et Collector :UserIndex), configurer le mécanisme de récompense (composant Incentive :Ranking) et finalement exploiter les données collecter (composant Service :Query et Service :Export :KML). Nous présentons de manière plus détaillée dans la section suivante comment ces composants interagissent entre eux lors d’une campagne de collecte configurée avec un modèle de recrutement Individuel. L’exécution d’une campagne communautaire sera décrite en section 4.5. 4.4.3 Intéraction entre les composants Après avoir présenté les différents composants logiciels formant le serveur central et les nœuds de collecte de APISENSE®, nous présentons dans cette sous-section leurs interactions. La figure 23 montre un diagramme de séquence illustrant les différents messages échangés entre les acteurs du système (c.-à-d. utilisateurs et participants) et les composants de APISENSE®, lors de l’exécution d’une campagne de collecte personnelle. Comme le montre le diagramme, la réalisation d’une campagne de collecte comporte trois phases : la création de la campagne de collecte (phase 1), le déploiement d’une tâche de collecte vers les dispositifs mobiles des participants (phase 2) et la propagation des données vers un nœud de collecte. (phase 3). phase 1 - création d’une campagne de collecte La création d’une nouvelle campagne de collecte est initiée par un utilisateur à partir de son nœud de collecte. La création de la campagne consiste à sélectionner un ensemble de caractéristiques, appartenant au MC, définissant la configuration de la campagne de collecte. À partir d’une configuration valide, le composant ExperimentManager télécharge les composants SCA associés aux caractéristiques auprès du serveur central et génère une nouvelle instance de la campagne (cf. figure 22). La nouvelle instance est un composite SCA, constitué d’un ensemble de composants qui exposent automatiquement de nouveaux services permettant le développement de la tâche de collecte (composant SensingTask), de la publier (composant Recruitment), de reporter les données collectées par les dispositifs mobiles (composant DataHandler) et de récupérer les données collectées (composant Query). 110Figure 23 – Interaction des composants APISENSE® 111phase 2 - déploiement de la tâche de collecte Une fois les services de la nouvelle campagne de collecte exposés, les utilisateurs peuvent alors développer la tâche de collecte associée à la campagne de collecte via le composant SensingTask, configurer les propriétés de déploiement de la tâche de collecte (cf. section 4.3.2) et la publier auprès du serveur central via le composant Deployment. Une fois publiée, le composant Recruitment du serveur central analyse les propriétés de la tâche de collecte et notifie tous les participants, correspondant à ces propriétés, de la disponibilité d’une nouvelle tâche de collecte est disponible. Les participants volontaires peuvent alors s’y inscrire. Dans ce cas, le dispositif mobile télécharge la tâche de collecte et l’identifiant anonyme généré lors de l’inscription qui est également partagé avec le composant ExperimentManager du nœud de collecte. Une fois téléchargée, la tâche de collecte est alors exécutée sur le dispositif mobile. phase 3 - propagation des données La dernière phase consiste à reporter les données collectées durant l’exécution de la tâche de collecte. Les données sont directement reportées auprès du composant DataHandler du nœud de collecte ayant initié la tâche de collecte. Lors de la propagation des données, l’identifiant anonyme est également envoyé, permettant au nœud de collecte de vérifier si les données proviennent bien d’un utilisateur inscrit à l’expérience. Si l’identifiant est valide, le composant DataHandler fait appel au composant Privacy qui est responsable de l’assainissement des données, avant leur sauvegarde et leur indexation dans la base de données via le composant Collector. Les utilisateurs peuvent alors accéder aux données sauvegardées, exporter les données collectées, et également retourner à la phase 2 afin de modifier le comportement de la tâche de collecte en fonction des résultats observés. Nous venons de décrire l’ensemble des interactions des composants APISENSE® permettant la réalisation d’une campagne de collecte de données. La section suivante présente le mécanisme d’extension de APISENSE® permettant le développement et l’intégration de nouveau composant dans la plate-forme. 4.4.4 Extension des nœuds de collecte En définissant un nœud de collecte comme une application SCA, nous bénéficions aussi de sa modularité pour facilement étendre la plate-forme. Dans cette sous-section, nous présentons comment de nouveaux services peuvent être ajoutés à un nœud de 112collecte. L’ajout d’un nouveau service est effectué à partir d’une archive ZIP, que nous appellerons une contribution. Comme le montre l’exemple illustré par la figure 24, une contribution contient la description d’une caractéristique, associée à un composite SCA, ainsi que l’ensemble des artéfacts implémentant le composite (c.-à-d. code compilé, scripts). La contribution présentée vise donc à ajouter un nouveau service responsable d’exporter les données collectées sous le format KML 5 , un format d’encodage utilisant le formalisme XML destiné à la gestion de l’affichage de données géospatiales dans les systèmes d’information géographique. Dans ce cadre, le premier élément vise à définir la contribution comme une caracté- ristique s’inscrivant dans le MC général présenté en sous-section 4.4.1. La description de la caractéristique définit donc le nœud parent (c.-à-d. caractéristique Export dans l’exemple), identifiant un nouveau point de variabilité, les caractéristiques requises, et le composite SCA associé. Dans cet exemple, le composite définit un nouveau service (c.-à-d. export service), exposé comme une ressource REST. Afin de récupérer les données collectées, le composant déclare une référence vers un composant fournissant un service de requête vers la base de données. Et finalement, le composant, déclare son implémentation comme étant une implémentation en Java. Les nœuds de collecte et le serveur central fournissent un service dédié aux déploiements de nouvelles contributions. Dans ce cadre, un utilisateur peut déployer une contribution directement dans son nœud de collecte, ou directement sur le serveur central pour la partager avec les autres utilisateurs du système. 4.5 campagne de collecte communautaire Dans la section précédente, nous avons présenté les principaux composants des nœuds de collecte et plus particulièrement comment ces composants peuvent être assemblés pour créer des services dédiés à une campagne de collecte spécifique. Nous avons également présenté le premier modèle de recrutement Individuel, où le recrutement est basé uniquement sur les propriétés des participants. Dans cette section, nous décrivons le modèle de recrutement Communautaire. Ce type de campagne, également appelé public sensing dans la littérature [33], consiste à collecter continuellement des données relatives à l’environnement des participants (par ex. bruit ambiant, qualité réseaux, pollution de l’air) dans une zone géographique [47, 63, 50]. 5. https://developers.google.com/kml/documentation 113Figure 24 – Exemple d’extension : Export des données au format KML 114Typiquement, une approche couramment utilisée dans ce type de campagne consiste à impliquer un maximum de dispositifs mobiles dans la collecte de données. Cependant, ces dispositifs collectent périodiquement (c.-à-d. toutes les x secondes) ces données environnementales sans prendre en considération si un autre nœud mobile placé à proximité collecte les mêmes données [27]. Cette approche naïve peut s’avérer inef- ficace principalement pour deux raisons. La première est qu’elle peut impliquer la remontée d’une grande quantité de données similaires, en particulier en milieu urbain ou une forte concentration d’utilisateurs (c.-à-d. situés à proximité) peuvent collecter simultanément ces données identiques. Cela demande par conséquent beaucoup plus de ressources côté serveur pour stocker ces données et les analyser. La seconde est qu’elle implique également une grande perte énergétique des appareils mobiles qui collectent ces données similaires. Récemment, Sheng et al. [59] ont montré qu’effectuer une collaboration entre les dispositifs, en fonction d’un objectif de couverture de la zone à observer, pouvait radicalement diminuer l’énergie consommée par l’ensemble des dispositifs, et par conséquent diminuer également le volume de données transmises sur le serveur. Dans ce cas, les objectifs de couverture définissent uniquement la quantité de données nécessaire pour la campagne, permettant de faire un compromis entre la quantité des données collectées, et le coût énergétique liée à leurs acquisitions. Pour effectuer la collaboration, cette approche fais l’hypothèse que les trajets de chaque appareil mobile est connue à l’avance. À partir de ces trajets, l’algorithme proposé dans cette approche permet d’assimiler les tâches de collecte uniquement aux mobiles capables de couvrir les objectifs de couvertures définis au préalable . Cependant, faire l’hypothèse que la mobilité de chaque appareil mobile est connue à l’avance peut être difficilement appliqué en déploiement réel, dû à la difficulté de prédire les trajectoires des participants [60]. Dans ce contexte, nous présentons dans cette section un modèle de recrutement collaboratif, permettant de coordonner l’exécution des tâches de collecte sans avoir une connaissance au préalable de la mobilité des participants. Le modèle proposé a pour objectif dans un premier temps de diminuer la consommation énergétique globale de tous les dispositifs impliqués dans la campagne, et également de diminuer la quantité de données propagées vers le nœud de collecte. Dans notre architecture, ce modèle est assuré par le composant associé à la caractéristique Collaboration du MC présentée en sous-section 4.4.1. Pour assurer la coordination des tâches, le composant se base sur des propriétés de couverture géographique et temporelle décrites par les utilisateurs, leur permettant de définir seulement la quantité de données nécessaires pour leur 115campagne. Pour définir ces propriétés, ainsi que différentes exigences en relation avec leur campagne, nous proposons une interface de programmation complémentaire à celle présentée dans le chapitre précédent (cf. section 3.3). Dans la suite de cette section, nous présentons tout d’abord l’interface de programmation proposée suivie d’un exemple de campagne de collecte développée avec cette interface. Nous présentons par la suite les différents processus assurant l’exécution ainsi que la coordination des ces campagnes de collecte. 4.5.1 Extension du modèle de programmation Dans cette section, nous présentons l’interface de programmation dédié à la définition de campagne de collecte de données communautaire. La table 11 illustre les principales fonctions proposées par cette interface. Phase Méthode Description Collecte sense(callback : function()) Enregistrement d’une tâche de collecte Recrutement accept(function()) Définition des dispositifs autorisés à exécuter une tâche ranking(function(users)) Classement des dispositifs prioritaires pour l’exécution de la tâche Couverture geoCoverage(bound : Array, coverage : String) Définition des propriétés de couverture géographique timeCoverage(during : Number, every : Number) Définition des propriétés de couverture temporelle duplicate(n : Number) Nombre de dispositifs attribués à une tâche selon les propriétés de couverture. Table 11 – Interface de programmation dédiée à la définition des campagnes de collecte communautaires. Typiquement, la définition d’une campagne de collecte communautaire comprend trois phases : collecte, recrutement, couverture. collecte : La première phase consiste à enregistrer la tâche de collecte qui sera distribuée auprès des nœuds mobiles. La tâche de collecte décrit les données qui doivent être collectées et reportées par les nœuds mobiles (cf. section 3.3, page 59 ). L’enregistrement de celle-ci est effectué en insérant une fonction de rappel 116à la méthode sense. Cette tâche sera ensuite exécutée par les nœuds mobiles lorsqu’ils seront assignés à celle-ci. recrutement : La deuxième phase consiste à définir la stratégie de recrutement des nœuds mobiles. Cette phase permet de filtrer les nœuds mobiles, ou d’en privilégier certains en fonction de leur contexte lors de l’attribution de la tâche de collecte. Par exemple, cela permet de baser le recrutement sur certains attributs (par ex. type de connexion réseaux, vitesse de déplacement), ou de privilégier les nœuds mobiles ayant le niveau de batterie le plus élevé. Le filtrage des nœuds mobiles consiste à enregistrer une fonction de rappel à la méthode accept. Cette fonction sera exécutée par les nœuds mobiles avant l’attribution de la tâche de collecte à un ou plusieurs nœuds. Cette fonction a pour objectif d’observer le contexte du nœud mobile, et définir si celui-ci est autorisé à exécuter la tâche. Dans ce cas, cette fonction doit retourner une liste de propriétés (par ex. niveau de batterie, vitesse de déplacement, qualité du signal réseau), dans le cas contraire, elle doit retourner une valeur nulle. La méthode ranking permet de privilégier certains nœuds mobiles pour exécuter une tâche de collecte, basée sur les propriétés retournées par la méthode accept. couverture : La troisième phase permet de définir les objectifs de couverture temporelle et géographique de la campagne de collecte. Cela permet par exemple de faire un compromis entre le coût énergétique utilisé par l’ensemble de nœuds mobiles, et la quantité de données reportées pendant la campagne. L’objectif de couverture temporelle peut être défini par la méthode timeCoverage, qui prend deux paramètres. Ces deux paramètres permettent de spécifier pendant combien de temps la tâche de collecte doit être exécutée et à quelle fréquence (par ex. exécuter la tâche pendant 30 minutes toutes les heures). L’objectif de couverture géographique peut être défini par la méthode geoCoverage, qui prend également deux paramètres. Ces paramètres permettent de spécifier la zone géographique globale de la campagne et à quelle granularité la tâche de collecte doit être distribuée (par ex. exécuter la tâche dans la ville de Paris tous les 500 mètres). La méthode duplicate permet de définir le nombre de dispositifs attribués à la tâche de collecte en fonction des propriétés de couvertures. Exemple d’application Afin de mieux illustrer le modèle de programmation proposé, nous présentons ici un exemple de campagne de collecte de données. Nous utiliserons également cet exemple comme un fil conducteur tout au long de cette section. Dans cette campagne, décrites par le listing 4.1, nous voulons mettre en place une collecte de 117données permettant d’élaborer une cartographie représentant la qualité des réseaux GSM en fonction des opérateurs des réseaux mobiles dans la ville de Paris. La première phase consiste à enregistrer la tâche de collecte de cette campagne (ligne 2-9). La tâche de collecte consiste à exécuter 10 Ping (Packet INternet Groper) réseaux à une machine distante particulière lorsque le participant a changé de position (ligne 3), et à collecté la latence moyenne des requêtes effectuées (ligne 7), la position de l’utilisateur (ligne 6) ainsi que son opérateur de réseau mobile (ligne 5). La deuxième phase consiste à définir la stratégie de recrutement des utilisateurs. Dans cette phase, nous voulons recruter uniquement les participants disposant d’une connexion de données mobiles (ligne 13). Pour les participants ayant ce type de connexion, nous renvoyons le niveau actuel de leur batterie pour pouvoir privilé- gier l’attribution de la tâches de collecte au participant disposant du niveau de batterie le plus élevé (ligne 18-20). Dans le cas contraire, le participant n’est pas autorisé à exécuter la tâche de collecte. Dans la troisième phase, nous définissons les propriétés de couverture pour optimiser l’énergie utilisée par l’ensemble des dispositifs mobile, et minimiser la quantité de données reportées sur le serveur. Pour cela, nous définissons que la tâche de collecte doit être exécutée au maximum par deux participants (ligne 25) répartis tous les cinqcents mètres dans la ville de Paris (ligne 23), et que la tâche doit être exécutée pendant trente minutes toutes les heures (ligne 24). 1 // phase 1 : définition de la tâche de collecte 2 sense(function() { 3 $location.onLocationChanged(function(event) { 4 $trace.add({ 5 operator : $telephony.operator(), 6 loc: [event.latitude, event.longitude], 7 latency : $network.ping(10,"http://...").average}); 8 })} 9 }) 10 11 // phase 2 : définition de la stratégie de recrutement 12 accept(function(){ 13 if (network.connectionType() != "WIFI"){ 14 15 return {battery : $battery.level()} 16 }else return undefined 17 }) 18 ranking(function(users){ 19 return users.sort("battery").select(); 20 }) 21 22 //phase 3 : définition des objectifs de couverture 11823 geoCoverage([[50.614291,3.13282],[50.604159,3.15239]],"500 m") 24 timeCoverage("30 min","1 H") 25 duplicate(2) Listing 4.1 – Tâche de collecte : Observer la qualité réseau Dans cette section, nous avons présenté le modèle de programmation proposé pour définir des campagnes de collecte supportant la collecte collaborative de données. Nous décrivons dans la suite de cette section comment ces campagnes sont exécutées par les nœuds de collecte. 4.5.2 Coordonner l’exécution des tâches de collecte Dans cette section, nous décrivons le modèle et les algorithmes mis en œuvre pour supporter la coordination des tâches de collecte en fonction des propriétés de couvertures géographique et temporelle. Le principal défi qui doit être adressé pour mettre en œuvre une coordination optimisée est de permettre au nœud de collecte d’avoir une vision aussi précise que possible de la réparation géographique des nœuds mobiles disponibles. Cependant, en utilisant une approche naïve qui consisterait à reporter continuellement la position des dispositifs mobiles vers le serveur ne seraient pas efficace pour plusieurs raisons. Premièrement, cela pourrait engendrer un trafic trop important de messages échangés entre les nœuds mobiles et le serveur, spécialement si de nombreux mobiles sont impliqués dans la campagne. Deuxièmement, cela impliquerait une trop grande consommation énergique des nœuds mobiles, dû à l’activation constante de capteur comme le GPS. Et finalement, classifier les nœuds mobiles en fonction de leur distance les uns par rapport aux autres, en utilisant des algorithmes de clustering [31] par example, entraînerait un surcharge du serveur, spécialement si cette classification doit être effectuée en permanence sur un grand volume de données. Pour adresser ce défi, nous avons adopté pour une approche de virtualisation de capteur, initialement proposée dans les réseaux de capteurs (WSNs). [10]. Typiquement, la virtualisation consiste à rajouter une couche logicielle abstraite, appelée couche virtuelle, composée d’un ensemble de capteurs virtuels, superposée à une couche physique. Un capteur virtuel est une entité logicielle autonome, responsable de gérer le flux de messages entre le serveur et un groupe de capteurs caractérisés par des propriétés communes (par ex. zone géographique, type de capteurs). Dans notre approche, l’idée 119principale est de diviser la zone globale de collecte en plusieurs zone géographiques en fonction des propriétés de couverture géographique de la campagne de collecte. Pour chaque zone, nous attribuons un capteur virtuel qui sera responsable de coordonner l’exécution des tâches entre les nœuds mobiles situé dans sa zone. Dans ce contexte, les nœuds mobiles ont uniquement besoin de partager leur position lorsqu’ils entrent ou sortent de la zone gérée par un capteur virtuel. Le composant responsable de l’exécution des campagnes de collecte communautaire et de la gestion des capteurs virtuels est le composite Recruitment :Collaborative (cf. figure 25). Ce composant est associé à la caractéristique Collaborative du point de variabilité Recruitement dans le modèle de caractéristiques présenté en sous-section 4.4.1. Figure 25 – Composant SCA responsable du recrutement collaboratif Ce composite est constitué des trois composants : i) ScriptEngine responsable de l’exécution du script JavaScript définissant la campagne de collecte, ii) VSManager responsable de la création et la gestion des capteurs virtuels et iii) Deployment responsable d’interagir avec le serveur central pour déployer les scripts auprès des nœuds mobiles. L’exécution d’une campagne communautaire comprend trois phases : i) la phase de génération des capteurs virtuels, ii) la phase de connexion des nœuds mobiles avec les capteurs virtuels, iii) et la phase de coordination de l’exécution des tâches de collecte. Nous décrivons à présent l’ensemble de ces étapes. Phase 1 : Génération des capteurs virtuels L’objectif ici est de générer un ensemble de capteurs virtuels responsables de coordonner l’exécution des tâches de collecte entre les nœuds mobiles. La génération de ces capteurs virtuels est assurée par le composant VSManager. Chaque capteur virtuel est caractérisé par une propriété définissant la zone géographique incluse dans la zone 120globale de collecte des données. La génération de ces capteurs est effectuée à partir de la méthode geoCoverage(bound,coverage) de l’interface de programmation, définissant la zone géographique globale de la collecte (paramètre bound), et la taille de la zone gérée par un capteur virtuel (paramètre coverage). À partir de ces paramètres, le composant VSManager génère et instancie un ensemble de capteurs virtuels, et les distribue pour couvrir l’intégralité de la zone globale de collecte (cf. figure 26). Typiquement, un capteur virtuel est un composite SCA disposant de deux services : composant RegistrationService et CoordinationService. Le premier service est dédié à l’enregistrement des nœuds mobiles. Ce service est exposé en tant que ressource REST, accessible à partir d’une URL générée à partir de la zone géographique dont il est responsable. Dans ce cas, les nœuds mobiles sont responsables de s’enregistrer auprès du capteur virtuel en fonction de leur position. Le deuxième service est responsable d’attribuer une tâche de collecte à un ou plusieurs nœuds mobiles qui se sont enregistrés au préalable. Nous détaillons ces différents points dans les section suivantes. Figure 26 – Distribution des capteurs virtuels Phase 2 : Connexion des appareils mobiles et des capteurs virtuels La deuxième phase consiste à établir une connexion entre les nœuds mobiles et les capteurs virtuels. Pour établir cette connexion, les nœuds mobiles ont tout d’abord besoin de télécharger la tâche de collecte auprès du serveur central. Le déploiement de la tâche de collecte vers le serveur central, assurée par le composant DeploymentService, 121suit le même procédé qui celui présenté en sous-section 4.4.4. Comme le montre la figure 26, la tâche de collecte comporte deux fichiers JavaScript : sense.js correspondant au code JavaScript responsable de la collecte des données (ligne 3-8 dans l’exemple décrit par le listing 4.1), et VSmonitoring.js. Dans un premier temps, seulement le fichier VSmonitoring.js est exécuté. Ce dernier script télécharge dans un premier temps l’ensemble des propriétés des capteurs virtuels générés (c.-à-d. zone géographique et l’URL du service d’enregistrement). À partir de ces propriétés, ce script observe continuellement la position du nœud mobile pour déterminer la présence du nœud mobile se situe dans une zone gérée par un capteur virtuel, et est responsable de l’enregistrement et du dé-enregistrement auprès du capteur virtuel associé. En ce qui concerne la surveillance de la position du nœud mobile, nous utilisons un algorithme couramment utilisé dans la littérature pour déterminer si un dispositif se trouve dans une zone spécifique, tout en minimisant le coût énergétique. Typiquement, l’idée principale derrière est i) d’utiliser alternativement les différents mécanismes permettant de déterminer la position d’un utilisateur — entre le GPS fournissant une grande précision, mais consommant beaucoup d’énergie, et le réseau qui, au contraire, consomme moins d’énergie, mais est beaucoup moins précis —, ii) et la fréquence d’échantillonnage en fonction de la distance entre l’utilisateur et le capteur virtuel le plus proche de sa position actuelle. Phase 3 : Coordonner l’exécution des tâches de collecte Dans cette section, nous présentons l’algorithme utilisé par les capteurs virtuel pour coordonner l’exécution des tâches de collecte entre les nœuds mobiles enregistrés auprès d’un capteur virtuel. Le principal défi dans cette partie est de faire face à la connectivité imprévisible des nœuds mobiles. En effet, on ne peut pas partir du postula que tous les nœuds enregistrés sont réellement disponibles pour exécuter une tâche. De nombreux phénomènes peuvent empêcher les nœuds mobiles d’avertir un capteur virtuel qu’ils ne sont plus disponibles, comme la perte d’un signal réseau, un épuisement complet de la batterie ou tout simplement l’extinction du téléphone mobile par le participant. Pour prendre en considération ces phénomènes, l’idée principale de notre approche consiste à dupliquer le nombre de nœuds mobiles assignés à une tâche de collecte, et à intégrer une phase de demande d’exécution afin d’éviter d’avoir à assigner une tâche à un nœud qui n’a pas annulé son enregistrement au capteur virtuel. 122L’algorithme (cf. algorithme 1) est déclenché périodiquement en fonction des propriétés de couverture temporelle qui peuvent être définies par l’interface de programmation avec la méthode geoCoverage(duration,every). Algorithm 1 Algorithme de coordination des tâches de collecte Require: connectedDevices : List of connected devices activeDevices : List of activated devices t : Time threshold Task(tstart,tend) : Temporal properties of the sensing task duplicate : Maximum number of devices to assign the sensing task if (size(activeDevices) < duplicate) then candidates ⇐ connectedDevices − activeDevices if notEmpty(candidates) then availableCandidates ⇐ broadcastTaskRequestEvent(candidates) repeat receive(Device(id, n)) add(availableCandidates,Device(id, properties)) until timeout t is reached for (i = 0 → (size(activeDevices) − duplicate))) do device ⇐ ranking(availableCandidates) activeDevices ⇐ device + activeDevices availableCandidates ⇐ availableCandidates − device broadcastTaskExecutionRequest(device, tstart, tstop) end for end if end if L’algorithme vérifie tout d’abord si le nombre de dispositifs mobile déjà assigné à une tâche (size(activeDevice)) est inférieur à la propriété de duplication. Dans ce cas, nous définissons une liste candidate comme un ensemble de dispositifs connectés et n’exécutant pas actuellement une tâche de collecte. Pour tous les candidats, un message leur est envoyées avec la fonction de recrutement définie par l’interface de programmation (ligne 12-17 dans l’exemple du listing 4.1), — dans notre exemple, nous voulons recruter uniquement les nœuds mobiles disposant d’une connexion GSM —. Le capteur virtuel attend ensuite un temps t la réponse des dispositifs mobiles. Les nœuds correspondant à la méthode de recrutement répondent ensuite au capteur virtuel avec un ensemble de propriétés indiquant leurs états actuels (par ex. niveau de 123batterie, type de connexion de données). Ces nœuds sont ensuite ajoutés à une liste indiquant leurs disponibilités pour exécuter la tâche de collecte. Ces nœuds sont ensuite classifiés par la méthode ranking. Cette méthode correspond à celle définie par l’interface de programmation (ligne 18-20 du listing 4.1), permettant de privilégier certains nœuds par rapport à leurs propriétés. Dans notre exemple, nous privilégions les noeuds mobiles disposant du niveau de batterie le plus élevé. À la fin du processus, un nouveau message est envoyé aux nœuds mobiles leur demandant d’exécuter la tâche de collecte. Les noeuds mobiles recevant ce message démarrent l’exécution de la tâche de collecte jusqu’à la date définie par tend ou lorsque les nœuds quittent de la zone gérée par le capteur virtuel. Cela permet de réattribuer la tâche de collecte à un autre nœud. À la fin de l’exécution, toutes les données collectées sont ensuite propagées directement sur le nœud de collecte. 4.6 conclusion APISENSE® propose un environnement facilitant la gestion de campagnes de collecte de données. Pour supporter une grande diversité de campagne de collecte, nous avons proposé un modèle permettant de configurer un environnement serveur (c.-à-d. honey) responsable de l’exécution d’une campagne de collecte. Ainsi, ce modèle est utilisé pour configurer les services d’un nœud de collecte en fonction des spécificités des campagnes de collecte. Cette configuration comprends cinq points : i) configurer l’environnement de développement des tâches de collecte, ii) choisir un modèle de recrutement des participants, iii) choisir une série de traitements sur les données collectées avant leur insertion dans la base de données (par ex. anonymisation des données), iv) spécifier l’indexation des données dans la base de données, v) exposer des services pour exploiter les données collectées. À partir de ce modèle, un nœud de collecte peut être ensuite généré et déployé par les utilisateurs vers une infrastructure qui peut être publique ou privée selon la nature des données collectées. Cela leur permet de garder un contrôle total sur l’infrastructure hébergeant les données collectées durant leurs campagnes. APISENSE® se distingue également par son architecture décentralisée, permettant d’améliorer le passage à l’échelle du système. Son architecture est ainsi composée d’un ensemble de nœuds de collecte organisé autour du serveur central. Concernant le serveur central, son principal objectif est d’assurer le déploiement des tâches de 124collecte soumises par les nœuds de collecte vers les participants de la plate-forme qui se sont enregistrée au préalable. Ce procédé a principalement deux avantages. Le premier est d’assurer une première couche d’anonymat des participants, dans le sens où tous les nœuds de collecte ne peuvent pas déployer les tâches de collecte sans passer par le serveur central. Le deuxième permet aux nouveaux utilisateurs de bénéficier d’un ensemble de participants déjà disponibles pour exécuter des tâches de collecte, leur évitant ainsi une longue période de recrutement. Finalement, nous avons proposé une extension de APISENSE® dédiée à l’optimisation de l’exécution de campagne de collecte communautaire. L’optimisation proposée permet de coordonner l’exécution des tâches de collecte entre les dispositifs mobiles en fonction de propriétés de couvertures géographique et temporelle. Principalement, cette optimisation a pour objectif dans un premier temps de diminuer la consommation énergétique globale de tous les dispositifs impliqués dans la campagne, et également de diminuer la quantité de données propagées vers le nœud de collecte. La description des contributions de ce manuscrit est à présent terminée. Dans les chapitres suivants, nous présentons les évaluations de la plate-forme APISENSE®. 125Troisième partie Évaluations 1275 P R AT I Q U E S C U LT U R E L L E S E T U S A G E S D E L’ I N F O RM AT I Q U E C O N N E C T É E Sommaire 5.1 Introduction 130 5.2 Contexte et objectif de l’étude PRACTIC 130 5.3 Développement de l’étude PRACTIC 131 5.3.1 Collecte opportuniste 132 5.3.2 Collecte participative 135 5.3.3 Retour utilisateur 136 5.3.4 Discussions 136 5.4 Déploiement de l’étude PRACTIC 139 5.4.1 Protocole du déploiement 139 5.4.2 Participation 140 5.5 Conclusion 143 Dans cette partie, nous présentons les évaluations de la plate-forme APISENSE® en deux chapitres. Dans le premier chapitre, nous présentons une campagne de collecte déployée auprès d’une centaine d’utilisateurs, réalisée au sein de l’étude PRATIC (Pratiques Culturelles et Usages de l’Informatique Connectée). Ce chapitre a pour objectif de montrer le gain en terme de coût de développement apporté par notre plate-forme, et également de montrer la faisabilité de notre approche dans un cas réel d’utilisation. Le deuxième chapitre évalue le passage à l’échelle de APISENSE® pour la réalisation de campagne de collecte communautaire. Nous évaluons notamment le gain du modèle de recrutement collaboratif, permettant de faire un compromis entre l’énergie consommée par les dispositifs mobiles et la quantité de données générées tout en gardant une bonne couverture de collecte. 1295.1 introduction Dans la partie précédente de ce manuscrit, nous avons présenté en intégralité APISENSE®, la plate-forme résultante des travaux de cette thèse. Comme nous l’avons déjà évoqué, le principal objectif de cette thèse est d’ouvrir l’accès du Mobile Crowd Sensing à de nombreux acteurs privés ou académiques, en leur permettant de facilement développer et déployer leurs campagnes de collecte de données. Dans ce chapitre, nous présentons une campagne réalisée au sein d’une étude sociologique nommée PRACTIC 1 (Pratiques Culturelles et Usages de l’Informatique Connectée), qui vise à comprendre l’usage des technologies numériques connectées en matière d’habitudes et de routines de consommations culturelle et médiatique. Cette étude a été réalisée par une équipe pluridisciplinaire, composée de deux ingénieurs en informatique pour le développement des scripts de collecte, et deux chercheurs en sciences de l’information et de la communication pour l’interprétation des données collectées. Par le biais de la description de cette étude, nous cherchons tout d’abord à montrer la faisabilité de notre approche pour être utilisée dans un cas réel d’utilisation, et plus particulièrement évaluer le gain en terme de cout de développement apporté par APISENSE®. 5.2 contexte et objectif de l’étude practic Le principe de l’étude PRACTIC est né de notre rencontre avec des chercheurs en sociologie, dans le cadre du projet de l’Observatoire Scientifique de l’Internet 2 initié par INRIA 3 . Un premier objectif de cette collaboration est de voir en quelle mesure les nouveaux mécanismes de collecte de données, comme le Mobile Crowd Sensing, peuvent augmenter les méthodes traditionnelles de la recherche numérique en sciences sociales. En effet, de nos jours, la nouvelle génération des terminaux intelligents comme les tablettes ou les smartphones sont fortement intégrés dans la vie sociale et culturelle des individus. Cette intégration représente de nouvelles opportunités pour les sciences sociales, qui peuvent ainsi collecter massivement et sur le long terme, des données comportementales des individus de manière non intrusive. De plus, cela nous a permis de confronter notre plate-forme à un déploiement réel, et d’être utilisée par des personnes tierces à notre équipe. 1. http ://beta.apisense.fr/practic 2. http ://metroscope.org/ 3. www.inira.fr 130L’étude PRACTIC est composée majoritaire de deux phases. La première est une phase de collecte de données auprès d’un ensemble de participants volontaires, combinant les collectes de données opportuniste et participative (c.-à-d. questionnaire). Dans le cadre de PRACTIC, la confrontation de la collecte opportuniste et participative permet de mesurer l’écart entre la représentation des individus sur l’utilisation de leur smartphone et leur pratique effective. La seconde phase comprend des traitements statistiques sur les données collectées qui aboutiront sur quelques entretiens individuels. Dans ce chapitre, nous décrivons uniquement la première phase de l’étude qui est directement en relation avec la plate-forme APISENSE®. Nous décrivons à présent le développement de cette phase de collecte. 5.3 développement de l’étude practic La phase de collecte a entièrement été développée par APISENSE®, en utilisant son modèle de programmation (cf. chapitre 3 section 3.3) pour la description des données collectées sur les environnements mobiles, et un nœud de collecte déployé sur un serveur privé pour la persistance des données. Cette phase a été développée par un Ingénieur Jeune Diplômé (IDJ) en informatique, intégré pour les besoins de l’étude, qui n’avait aucune compétence particulière en programmation mobile au début du développement. L’application PRACTIC a d’abord connu plusieurs phases de test auprès d’un sous ensemble de participants. Ces différentes itérations ont permis d’identifier certains bugs, et d’ajouter des fonctionnalités non anticipées qui ont permis de consolider APISENSE® et l’enquête. Durant cette phase de test, l’ingénieur en question été responsable de faire la transition entre les exigences des sociologues, et les capacités offertes par notre plate-forme. La figure 27 illustre les principales données collectées par l’application PRACTIC. Un aspect intéressant ici est qu’elle utilise un large éventail des fonctionnalités proposées par APISENSE®. La collecte de données comprend principalement trois parties différentes que sont la collecte opportuniste de données, la collecte participative et les retours utilisateurs, correspondant respectivement à plusieurs scripts de collecte. Nous décrivons à présent brièvement ces différents points, et comparons à la fin de cette section le gain en terme de coût de développement apporté par notre modèle de programmation. 131Figure 27 – Données collectées par l’étude PRACTIC 5.3.1 Collecte opportuniste La première partie vise à collecter la diversité des rythmes de vie ainsi que des usages sociaux ou culturels des dispositifs mobiles. Toutes ces données sont collectées automatiquement par l’application sans nécessiter une intervention des participants. Typiquement, trois types de données sont collectées : Contenu Mobile, Activité de l’utilisateur, et Contexte mobile. Chaque type de données correspond à un script de collecte spécifique. Nous présentons brièvement un exemple simplifié des scripts de collecte développés. Contenu Mobile Le contenu mobile (cf. listing 5.1) vise à identifier des profils culturels des participants en fonction du contenu de leur appareil mobile. Dans le cadre de PRACTIC, la dimension culturelle est vue à deux niveaux : le type des applications mobiles installées (c.-à-d. jeux,divertissement, communication), les genres musicaux des participants. Le listing 5.1 décrit le script de collecte associé. La première partie du script (ligne 1-6) est déclenchée une seule fois lors de la première exécution du script. Dans cette partie, un ensemble de méta-données est collecté comprenant la liste des applications installées (nom, date d’installation, catégorie), et celle des fichiers musicaux présents (nom, artiste, format d’encodage, taille en Ko). La deuxième partie vise à identifier les cycles d’installation et de désinstallation des applications. Cette partie est réalisée 132automatiquement lorsqu’un événement concernant l’installation ou la désinstallation est déclenchée par le système mobile. 1 $schedule.once(function(){ 2 // store media files meta-data 3 $trace.add($media.getAudioFiles()); 4 // store installed applications meta-data 5 $trace.add($app.getLaunchableApplications()); 6 }); 7 8 $app.onAppInstallEvent(function(app){ 9 // store new installed or uninstalled application meta-data 10 $trace.add(app); 11 }); Listing 5.1 – Collecte du contenu mobile Activité utilisateur Cette partie vise à collecter les différents rythmes de vie et d’usages des dispositifs mobiles. Les usages sont principalement séparés en deux catégories correspondant aux usages natifs des téléphones mobiles (c.-à-d. appels et SMS) et les nouveaux usages introduis par la nouvelle génération des terminaux intelligents. Le listing 5.2 décrit l’utilisation de la façade $phone permettant de collecter des données sur les appels et les SMS émis et reçus. Pour des raisons de confidentialité, le contenu des appels et des SMS ainsi que l’identifiant des correspondants ne sont pas accessibles à partir des scripts. Seules la durée des communications ainsi que la taille des SMS sont disponibles. 1 $phone.onCallCompleted(function(call){ $trace.add(call) }); 2 3 $phone.onSMS(function(sms){ $trace.add(sms) }) Listing 5.2 – Collecte des usages natifs des dispositifs mobile La deuxième catégorie, illustrée par le listing 5.4 identifie les sessions d’utilisation des dispositifs. Celles-ci comprennent les sessions générales d’utilisations (écran allumé et éteint) et les sessions d’utilisation des applications. L’identification des sessions générales peut être effectuée par le biais de la façade $screen permettant d’intercepter les événements liés à l’écran du dispositif (lignes 2 et 22). Une session commence lorsque l’événement onScreenOn est déclenché. À la suite de cet événement, le script vérifie toutes les secondes (ligne 5) l’application exécutée en premier plan du dispositif (ligne 6), et collecte une session applicative lorsque l’application détectée est différente de la précédente (lignes 7-20). La session générale se termine lorsque l’événement 133onScreenOff est déclenché, dans ce cas la vérification des applications exécutées en premier plan est annulée (ligne 30), et cela déclenche également une nouvelle collecte de données correspondant à la durée de la session générale (lignes 25-29). 1 var subscription,startSession,subscription,appName,startApp; 2 $screen.onScreenOn(function(screen){ 3 4 startSession = screen.time; 5 subscription = $schedule.every("1 s",function(event){ 6 var currentApp = $app.currentApplicationName(); 7 if (appName != currentApp){ 8 9 appName = currentApp; 10 startApp = event.time; 11 12 // store application session 13 $trace.add({ 14 event : "ApplicationSession", 15 start : startApp, 16 end : event.time, 17 name : appName 18 }); 19 }; 20 }); 21 }); 22 $screen.onScreenOff(function(event){ 23 24 // store screen session 25 $trace.add({ 26 event : "ScreenSession", 27 start : startSession, 28 end : event.time 29 }); 30 subscription.suspend(); 31 }); Listing 5.3 – Collecte des usages des applications mobile Contexte mobile Finalement, la dernière catégorie des données collectées permet de mettre en perspective l’utilisation des applications et leurs contextes (cf. listing 5.4). Cela permet d’identifier par exemple si certaines applications sont utilisées uniquement lorsque le participant se trouve à son domicile ou sur son lieu de travail,ou encore d’observer si la qualité du réseau ou le niveau de batterie influe sur l’utilisation de certaines applications. Cette catégorie comprend les cycles de chargement et le niveau de la batterie (lignes 10-12), le contexte réseau (ligne 7-9) constitué du type de connexion 134de données (c.-à-d. Wi-Fi, 3G/4G), et de la force du signal réseau GSM (lignes 1-6). Pour déterminer si l’utilisateur est en situation de mobilité, le choix a été fait de collecter uniquement les identifiants des antennes cellulaires, qui permettent d’avoir une approximation de la localisation du participant sans entraîner une consommation énergétique supplémentaire de l’application mobile [65]. 1 $telephony.onSignalStrengthChanged(function(signal){ 2 $trace.add({ 3 level : signal.level, 4 cellId : $telephony.cellId() 5 }); 6 }); 7 $network.onNetworkStateChange(function(networkEvent){ 8 $trace.add(networkEvent); 9 }); 10 $battery.onBatteryStateChange(function(batteryEvent){ 11 $trace.add(batteryEvent); 12 }); Listing 5.4 – Collecte des usages des applications mobiles 5.3.2 Collecte participative Le questionnaire vise à collecter des données déclaratives sur l’équipement, les usages et le rapport à la vie privée des participants. Il est composé de 152 questions, dont certaines ne sont pas obligatoires. Par exemple, dans la partie des usages, le fait de ne pas posséder une tablette par exemple permet de ne pas répondre à un sous-groupe de questions. Entre 20 et 30 minutes sont nécessaires pour répondre intégralement au questionnaire. Les questions sont organisées au sein de quatre grandes parties : à propos de vous (16 questions), équipements (36), pratiques culturelles et usage de l’informatique connectée (60) et publicité en ligne et privée (19). Le questionnaire peut être complété à tout moment par les participants à partir de leurs dispositifs. Le listing 5.5 montre une très brève partie du questionnaire développé. Typiquement, les réponses du questionnaire vont être croisées par les sociologues avec les données collectées automatiquement par l’application. 1 var survey = $survey.create("PRACTIC"); 2 // ... 3 var q88 = survey.close("Quel est le lecteur musical que vous utilisez le plus ?",[ 4 "Chaine Hi-Fi / Platine Vinyle", 5 "Baladeur/MP3", 1356 "Smartphone", 7 "L’ordinateur (musique enregistrée sur le disque dur ou CD)", 8 "La radio", 9 "La television (chaines musicales comme MTV)", 10 "Autre lecteur de musique" 11 ]); 12 var q88b = survey.open("Quel autre lecteur utilisez-vous ?"); 13 var q89 = survey.close("Quel est votre maniére d’écoute principale avec votre lecteur ?",[ 14 "Casque audio", 15 "Enceinte/Ampli", 16 "Sans rien" 17 ]); 18 q88.then(function(response){ 19 20 if (response == "Autre lecteur de musique"){ 21 return q88b; 22 } 23 else return q89; 24 }); Listing 5.5 – Extrait du questionnaire PRACTIC 5.3.3 Retour utilisateur La dernière partie des scripts de collecte vise à donner un aperçu aux participants des données collectées. Typiquement, l’objectif de cette partie est d’agir en toute transparence vis-à-vis des participants sur les données qui sont collectées sur leurs dispositifs, et d’apporter un aspect ludique à l’application. L’idée est de permettre aux participants de confronter leur perception de l’utilisation de leur dispositif avec leur usage réel. La figure 28 montre un exemple de retour utilisateur sur la durée totale d’utilisation de son appareil. Cette partie a été développée intégralement en HTML/JavaScript. 5.3.4 Discussions Dans cette section, nous avons décrit l’ensemble des scripts de collecte qui a été nécessaire dans le cas de l’étude PRACTIC. Nous allons maintenant identifier le gain apporté par APISENSE® pour le développement de ce cas d’étude. L’application mobile APISENSE®, responsable du téléchargement, de l’exécution des scripts et de la propagation des données collectées a été développée en utilisant la version 2.3 du SDK de Android. L’application APISENSE® fournit de nombreuses abstractions qui simplifient 136Figure 28 – Exemple de retour utilisateur PRACTIC le développement d’une application de collecte de données. La première permet tout d’abord d’avoir une abstraction complète du SDK Android pour accéder aux données fournies par Android, et intercepter les différents événements internes au dispositif mobile grâce aux façades. Le tableau 12 récapitule les façades qui ont été utilisées pour développer PRACTIC, et leur nombre de lignes de code Java qui ont été nécessaires à leur développement. Au total, ces façades comptent approximativement 6000 lignes de code. Pour les besoins de l’étude, en collaboration avec l’ingénieur responsable du développement de PRACTIC, nous avons dû intégrer deux nouvelles façades pour lister les fichiers musicaux (façade $media) et pour observer les évènements liés à l’écran d’un dispositif (façade $screen). Ces façades peuvent être à présent disponibles pour le développement de nouveaux scripts de collecte. L’application APISENSE® dispose également d’un ensemble de services responsables de l’exécution des scripts de collecte en tâche de fond,d’interagir avec le serveur central d’APISENSE® pour le téléchargement et de la mise à jour des scripts de collecte, d’interagir avec les nœuds de collecte des scientifiques pour propager automatiquement les données collectées, et de contrô- ler les ressources consommées par les scripts de collecte (cf. chapitre 3 section 3.4). Cette partie comporte approximativement plus de 20000 lignes de code. Pour finir, l’application mobile APISENSE® possède également une interface graphique générique destinée aux participants (6000 lignes de code). 137Façade Description LOC $survey Génération et publication d’un questionnaire 1277 $feedback Intégration de visualisation HTML/JavaScript 2144 $network Observation du contexte réseau 259 $telephony Observation du réseau cellulaire 400 $phone Observation des communications 600 $battery Observation des états de la batterie 158 $app Observation des applications 362 $trace Collecte et propagation des données 376 $screen (nouvelle) Observation de l’écran 235 $media (nouvelle) Liste du contenu 210 Table 12 – Façade utilisée pour les besoins de l’application PRACTIC La figure 29 met en évidence le gain en terme de lignes de codes obtenu grâce à APISENSE® par rapport aux scripts développés. Au total, seulement 7 % de codes spécifiques ont eu besoin d’être développés pour l’étude PRACTIC. Les principaux efforts de développement résident dans la description des 150 questions et leurs enchaînements (760 lignes) et dans les interfaces graphiques effectuant un retour sur les données obtenues (1600 lignes). Dans la section suivante, nous présentons le protocole de déploiement de l’application. Figure 29 – Gain en terme de lignes de code obtenu grâce à APISENSE® pour le développement de l’étude PRACTIC 1385.4 déploiement de l’étude practic Après avoir présenté dans son ensemble les scripts de collecte de l’étude PRACTIC, nous présentons dans cette section son protocole de déploiement et discutons de la participation à cette étude. 5.4.1 Protocole du déploiement Pour la mise en place de l’étude PRACTIC, un nœud de collecte a tout d’abord été déployé sur un serveur privé des scientifiques. Le nœud de collecte a été configuré pour utiliser un modèle de recrutement individuel, pour indexer les données collectées par utilisateur et pour utiliser un système de classement à point (cf. chapitre 4 section 4.4.1) afin de maximiser la participation des utilisateurs. Pour que les données collectées soient pleinement exploitables par les sociologues, ils ont besoin qu’elles soient collectées au minimum pendant 14 jours par participant, et que celui-ci ait répondu au questionnaire de l’enquête. Dans ce contexte, les points sont attribués de la manière suivante : • 50 points pour les participants ayant installé l’application sur une tablette et un smarpthone, remplis le questionnaire et ayant généré plus de 14 jours de données. • 20 points pour les participants qui ont installé sur un seul appareil (smartphone ou tablette), avec le questionnaire rempli et toujours un minimum de 14 jours de données générées. • 1 point par jour de données générées • 2 points si le questionnaire est rempli Des lots ont été prévus pour récompenser les meilleurs participants comprenant une tablette tactile, un smarpthone, une liseuse ainsi que des disques durs externes et des clés USB. Le nœud de collecte a également été utilisé pour le développement des scripts de collecte ainsi que leurs déploiements auprès d’un serveur central que nous avions au préalablement déployé sur un service Microsoft Azure 4 . Pour des raisons éthiques et légales, l’étude PRACTIC a été soumise et validée par la Commission National de l’Informatique et des Libertés 5 (CNIL). 4. http ://azure.microsoft.com/fr-fr/ 5. http://www.cnil.fr/ 139Les participants intéressés à participer à l’étude PRACTIC doivent tout d’abord télécharger et installer l’application mobile APISENSE® publiée sur le site internet APISENSE® 6 en flashant un QR code. À partir de l’application, les participants pourront alors s’enregistrer auprès de l’étude PRACTIC. L’enregistrement déclenchera automatiquement le téléchargement et l’exécution des scripts de collecte après la validation d’une charte de confidentialité. Un identifiant unique est généré et accordé à chaque participant lors de son inscription. Ce n’est qu’en acceptant de communiquer cet identi- fiant avec les chercheurs qu’ils pourront être identifiés. Nous présentons dans la suite de cette section le niveau de participation à PRACTIC, et discutons des premiers retours de l’expériences. 5.4.2 Participation L’étude PRACTIC s’est déroulée du 10 MARS au 19 Avril 2014. La figure 30 montre le nombre d’utilisateurs inscrits par jour, ainsi que l’accumulation du nombre d’inscriptions durant l’étude. Au total, 88 participants ont été recrutés durant l’étude. Figure 30 – Nombre d’inscriptions par jour à PRACTIC Un aspect intéressant des participants recrutés est la diversité de leurs équipements (cf. figure 31), ce qui nous a permis de tester APISENSE® sur 45 modèles de smartphones différents. Outre le nombre d’inscriptions, le succès de l’étude repose principalement sur le taux de participation des utilisateurs tout au long de l’étude. Pour que les données 6. http://www.apisense.fr 140Figure 31 – Diversité des équipements mobiles d’un participant soient exploitables par les chercheurs, il est nécessaire qu’elles aient été collectées au moins sur une période de 14 jours, et que celui-ci ait répondu au questionnaire de l’application. Figure 32 – Taux de participation à la collecte opportuniste 141Figure 33 – Taux de participation à la collecte participative et opportuniste Sur l’ensemble des participants, comme la montre la figure 32, 48 ont collecté des données plus de 14 jours, 21 de 4 à 13 jours, 13 de 1 à jour 6 qui n’ont collecté aucune donnée. Les participants ayant répondu au questionnaire sont au nombre de 25, et les participants ayant à la fois répondu au questionnaire et collecté au moins 14 jours de données sont au nombre de 12 (cf. figure 34). Ces derniers représentent les cas d’étude concrets pour les scientifiques. Bien que ce nombre soit inférieur à celui escompté au début de l’étude, un point positif des premiers résultats obtenus permet de valider que les dispositifs sont bien au cœur des pratiques de certains participants. La figure 34 par exemple représente le nombre de sessions applicatives, ainsi que leurs durées, sur une période de 40 jours Cette courbe met bien en évidence les différents rythmes des usages d’un participant en particulier, qui utilise son dispositif tout au long de la journée, et qui intensifie son utilisation en fin de journée. Figure 34 – Représentation des sessions d’allumage de l’écran du terminal d’un participant cumulées au cours de 40 jours 1425.5 conclusion Dans ce chapitre, nous avons présenté un cas réel de campagne de collecte de données développée et déployée avec APISENSE® au sein d’une étude sociologique. Nous avons montré que APISENSE® permettait réduire le temps de développement d’une campagne de collecte en proposant un modèle de programmation permettant de s’abstraire complètement des technologies mobiles. Dans le cas de cette étude, le modèle de programmation a permis d’économiser plus de 90% de code nécessaire à son développement. La campagne développée a été déployée auprès de 88 utilisateurs sur une période d’un mois et demi. 143É VA L U AT I O N D U M O D È L E C O L L A B O R AT I F 6 Sommaire 6.1 Introduction 145 6.2 Mise en place de l’expérience 145 6.3 Résultats 148 6.3.1 Quantité de données et couverture géographique 148 6.3.2 Consommation énergétique 151 6.4 Conclusion 154 6.1 introduction Dans ce chapitre, notre objectif est de montrer la validité du modèle de recrutement collaboratif présenté dans le chapitre 4 en section 4.5, page 113 qui permet de coordonner l’exécution des tâches de collecte entre les dispositifs mobiles. Nous rappelons que le but de cette coordination est dans un premier temps de répartir les charges énergétiques entre les dispositifs mobiles durant la campagne de collecte, puis dans un second temps de diminuer la quantité de données propagées vers les nœuds de collecte en limitant la propagation de données dupliquées. La validité du modèle est évaluée sur quatre critères : i) la quantité de données propagées sur les nœuds de collecte, ii) la quantité d’énergie utilisée par les dispositifs mobiles ainsi que iii) le surcoût induit par notre approche pour effectuer la coordination des tâches, iv) la couverture géographique des données obtenues. Pour valider notre modèle, nous avons mené une expérience et développé un environnement de simulation que nous détaillons dans la section suivante. 6.2 mise en place de l’expérience Pour cette évaluation, nous reprenons l’exemple de l’application présentée dans la section 4.5.1 page 116 qui est une version simplifiée d’une collecte de données exposée 145dans LiveLab [61]. L’objectif de cette application est d’utiliser les dispositifs mobiles pour mesurer la qualité des réseaux GSM en milieu urbain. Le listing 6.1 décrit la tâche de collecte associée à cette application qui consiste à exécuter 10 Pings réseaux (Packet INternet Groper) toutes les trente secondes et à collecter la latence moyenne des Pings effectués ainsi que la position du dispositif obtenue avec par GPS. 1 $location.onLocationChanged({period : "30s", provider : "GPS"},function(event) { 2 $trace.add({ 3 loc: [event.latitude, event.longitude], 4 latency : $network.ping(10,"http://...").average}); 5 })} Listing 6.1 – Tâche de collecte : Mesure de la latence réseau Pour évaluer notre approche, nous avons simulé le recrutement des dispositifs suivant un modèle où tous les dispositifs exécutent la tâche de collecte indépendamment les uns des autres, et suivant le modèle collaboratif, où les capteurs virtuels coordonnent l’exécution des tâches de collecte entre les dispositifs mobiles (cf. 4.5.2, page 119 ). Pour une évaluation réaliste et à grande échelle, nous utilisons des traces de mobilités réelles provenant de 10000 taxis équipés de GPS dans la ville de Pékin en Chine [67]. Ces données ont été collectées sur une période d’une semaine allant du 2 au 8 février 2008. Afin d’utiliser ces données, nous avons développé un simulateur illustré par la figure 35. Le simulateur comprend trois composants : un Manager, un ensemble d’Agents et un nœud de collecte (DataGathering Node). agents : Les agents sont responsables de générer le trafic réseau simulant les interactions entre les dispositifs mobiles et le nœud de collecte. Ces interactions sont simulées à partir d’un fichier de mobilité comprenant une série de tuples (date, latitude, longitude) représentant les déplacements d’un taxi à travers le temps. Pour l’expérience, nous avons implémenté deux types d’agents : i) les agents individuels et ii) les agents collaboratifs. Les agents individuels exécutent la tâche de collecte en continu tout au long de l’expérience, c’est-à-dire qu’ils collectent toutes les 30 secondes leur position selon le fichier de mobilité, et propagent l’ensemble des données collectées sur le nœud de collecte toutes les 5 minutes. Quant aux agents collaboratifs, ils s’enregistrent auprès des capteurs virtuels selon leur position à un instant t, et exécutent la tâche de collecte lorsqu’ils ont reçu une demande d’exécution de la part du capteur virtuel. Pour assurer une montée en charge du simulateur, les agents sont répartis auprès de plusieurs machines 146virtuelles hébergées sur la plate-forme Microsoft Windows Azure 1 . Des machines virtuelles de taille Small (A1) 2 sont utilisées, correspondant à un processeur à 1 coeur, 1,75 Go de mémoire et une carte réseau de 100 Mbit/s. datagathering node : Pour la simulation, nous avons déployé un nœud de collecte (cf. section 4.4, page 100 ) sur une machine virtuelle hébergée sur Microsoft Windows Azure. Une machine virtuelle de taille Medium (A2) est utilisée, correspondant à un processeur à 2 coeurs, 3,5 Go de mémoire et une carte réseau de 200 Mbit/s. manager : Ce dernier composant est responsable de répartir les fichiers de mobilité auprès des agents déployées sur les machines virtuelles, et de lancer le début de la simulation afin de synchroniser les agents. Figure 35 – Architecture du simulateur de traces de mobilité Pour les simulations présentées dans la suite de ce chapitre, nous utilisons les données du 3 février 2008 représentant la journée où le plus de données ont été produites. Les tâches de collecte sont déployées dans une zone de collecte de 10 km2 situés dans le centre-ville de Pékin, durant une durée de 30 minutes. 1. http://azure.microsoft.com 2. http://azure.microsoft.com/en-us/pricing/details/virtual-machines 1476.3 résultats Dans cette section, nous présentons les résultats obtenus à travers les différentes expériences menées grâce au simulateur développé. Nous discutons des résultats en fonction de la quantité, de la couverture géographique des données collectées ainsi que de l’énergie utilisée par les dispositifs mobiles durant les expériences et du surcoût engendré par notre approche. Pour évaluer les gains de notre modèle de recrutement, nous avons déployé, à travers le simulateur, la tâche de collecte présentée dans le listing 6.1 suivant trois modèles appelé individual, coll(1000 m), et coll(500 m). individual : dans ce modèle, les dispositifs exécutent la tâche de collecte indépendamment les uns des autres. Ils obtiennent une nouvelle position du GPS toutes les 30 secondes, et exécutent la tâche de collecte lorsque leur position se situe dans la zone de collecte définie. coll(1000 m) : dans ce modèle, l’exécution de la tâche de collecte est coordonnée par les capteurs virtuels déployés dans le nœud de collecte. L’objectif de couverture est fixé tous les 1000 mètres dans la zone de collecte avec 5 dispositifs attribués à la tâche (cf. section 4.5.1). coll(500 m) : ce modèle est identique au précédent sauf que nous avons fait varier l’objectif de couverture tous les 500 mètres dans la zone de collecte. Cela nous permet d’étudier l’impact de la couverture définie sur la quantité de données collectées et sur la consommation énergétique des dispositifs mobiles. 6.3.1 Quantité de données et couverture géographique Tout d’abord, nous comparons la quantité des données collectées. Les courbes illustrées par la figure 36 comparent la quantité de données collectées (en kilobyte) pour les trois tâches de collecte déployées en fonction du nombre de dispositifs. La première tâche, illustrée par la courbe individual, représente la quantité de données lorsque les dispositifs collectent individuellement la tâche de collecte. Les deux suivantes, illustrées par les courbes coll(1000 m) et coll(500 m) représentent les tâches de collecte déployées en utilisant le modèle collaboratif. Nous avons fait varier entre 500 et 10000 le nombre de dispositifs simulés durant cette expérience. Comme le montre cette figure, lorsqu’aucune collaboration n’est effectuée, la quantité de données générées augmente linéairement, allant jusqu’à 12000 KB de données produites pour 10000 dispositifs. En effectuant une collaboration, la quantité de données se stabilise autour des 6000 KB pour 148un objectif de couverture de 500 m2 et 2500 KB pour un objectif de 1000 m2 . Pour 10000 dispositifs, cela représente respectivement une diminution de 50% et 80% de quantité de données propagées vers le serveur. Ce gain s’explique, car lorsque suffisamment de dispositifs se trouvent dans une même zone (par ex. plus de 5 dispositifs dans une zone de 500 m2 pour la tâche coll(500 m)), le capteur virtuel associé à cette zone attribut seulement à 5 dispositifs la tâche de collecte, évitant ainsi aux autres dispositifs de la même zone d’exécuter la tâche de collecte. Figure 36 – Comparaison de la quantité de données collectées en fonction du nombre de dispositifs mobiles et de l’objectif de couverture géographique Cependant, pour valider notre approche, il est essentiel de comparer la quantité de données avec la couverture réellement obtenue. Pour cela, nous avons mené une deuxième expérience impliquant 10000 dispositifs mobiles, et nous avons observé la couverture géographique obtenue à travers différentes périodes de la journée par rapport à la quantité de données collectées. La couverture est définie par le pourcentage de zone couverte par les données collectées, soit 400 zones de 500 m2 dans la zone de collecte d’une surface de 10 Km2 . La figure 37 illustre le résultat de cette expérience. Dans cette figure, les courbes bleu et verte représentent respectivement la couverture obtenue par les approches individuelle (individual-SP) et collaborative (coll(500 m)- 149SP), et les colonnes rouge (individual-Data) et jaune (coll(500 m)-Data) la quantité de données collectées par ces deux approches. Comme le montre cette figure, la couverture des données obtenue varie tout au long de la journée, pour atteindre un pic à 17 H représentant une forte mobilité des taxis dans la zone de collecte. Ce que nous pouvons observer d’intéressant, c’est que les couvertures obtenues par ces deux approches sont relativement équivalentes, bien que la quantité de données collectées par l’approche collaborative soit toujours inférieure à celle de l’approche individuel. La différence des couvertures obtenues entre les deux approches est due à la mobilité des taxis. En effet, si un taxi se déplace à grande vitesse, celui-ci peut traverser une zone avant que le capteur virtuel associé n’est le temps de lui attribuer une tâche. Cependant, dans cette simulation, la perte de la couverture obtenue ne varie pas au delà des 2%. Figure 37 – Comparaison de la couverture géographique selon différentes périodes de la journée À travers ces deux expériences, nous avons montré que l’approche collaborative que nous avons proposée permet de diminuer la quantité de données propagées vers le serveur tout en gardant une couverture presque similaire à une approche classique. Nous allons maintenant évaluer les gains de cette approche sur la consommation énergétique des dispositifs mobiles. 1506.3.2 Consommation énergétique Pour évaluer l’énergie consommée par les dispositifs mobiles liée au trafic réseau et à l’acquisition de la position par le GPS, nous utilisons deux modèles énergétiques très référencés dans la littérature. Le premier modèle, proposé par Balasubramanian et al. [5], permet de déterminer l’énergie liée à la transmission de données par des réseaux sans fil. Dans le contexte de cette évaluation, nous assumons que toutes les données sont transmises par un réseau 3G. Ce modèle divise l’énergie consommée en trois parties. La première est liée à l’activation de l’interface de communication évaluée à 3,5 Joules. La deuxième est liée à la transmission des données évaluée à 0.025 Joule/KB. Et la dernière est liée au temps que l’interface de communication soit désactivée après la transmission des données. Ce temps est évalué à 12,5 secondes et l’interface consomme 0,62 Joule/s jusqu’à ce qu’elle soit désactivée. Dans le cadre où deux transmissions de données sont effectuées en dessous des 12,5 secondes, l’énergie consommée par cette dernière partie est négligée. Pour le deuxième modèle, nous utilisons celui proposé par Lin et al. [43], qui évalue l’énergie liée à l’acquisition périodique d’une position par le GPS à 1,4 Joules par position obtenue. Les courbes illustrées par la figure 38 comparent la consommation énergétique des trois tâches de collecte déployées dans la première expérience de la section précédente par rapport à la concentration de dispositifs mobiles dans la zone de collecte. L’énergie est donnée en Joule et correspond à la moyenne énergétique consommée par l’ensemble des dispositifs mobiles. Comme attendue, la consommation énergétique de la tâche individuelle (individual) est indépendante de la concentration des dispositifs mobiles, et reste constante autour des 600 Joules en moyenne par dispositif. En revanche, les tâches collaboratives (coll(1000 m) et coll(500 m)) bénéficient de cette concentration croissante en évitant de collecter des données non nécessaires pour atteindre les objectifs de couverture, et ainsi réduire la consommation énergétique moyenne par dispositif. Pour coll(1000 m), le gain sur la consommation énergétique des dispositifs varie entre 43% pour 500 dispositifs et 82% pour 10000 dispositifs, tandis que pour coll(500 m), ce gain varie entre 40% et 70%. Afin de mieux comprendre où le gain énergétique est effectué, les graphiques de la figure 39 montrent la répartition des charges énergétiques consommées durant l’expérience pour les trois tâches individual (a), coll(1000 m) (b) et coll(500 m) (c). Dans cette figure, la partie bleue (Localisation) des colonnes représente la consommation 151Figure 38 – Comparaison des moyennes de la consommation énergétique en fonction de la concentration de dispositifs mobiles dans la zone de collecte causée par l’acquisition d’une position par le GPS, la partie rouge (Sensing Task) à l’exécution des Pings réseaux (cf. listing 6.1 ligne 4) et la partie orange (VS Messages) aux communications avec les capteurs virtuels. Comme le montre cette figure, le gain de la collaboration sur la consommation énergétique est particulièrement liée à l’acquisition des positions par le GPS. En effet, dans cette approche, les dispositifs ont seulement besoin d’obtenir une position pour déterminer à quel capteur virtuel ils doivent s’enregistrer, permettant à ces dispositifs de réduire la fréquence de l’acquisition d’une nouvelle position si leur vitesse est relativement réduite ou en position statique (cf. section 4.5.2, page 121 ). Cela représente dans cette expérience un gain respectif de 86% et 80% pour les tâches coll(1000 m) et coll(500 m). Dans ce contexte, une grande perte énergétique du modèle de recrutement individuelle s’explique par le fait que même les dispositifs ne se situant pas dans la zone de collecte sont obligés de continuellement activer leur GPS afin de déterminer s’ils sont dans la zone étudiée ou non. En ce qui concerne l’énergie consommée par l’exécution des Pings réseaux, le gain reste limité lorsque peu de dispositifs sont impliqués dans l’expérience. Pour le modèle coll(1000 m), le gain est seulement de 4% et devient négatif pour coll(500 m). Ceci s’explique par le surcoût énergétique engendré par les communications des dispositifs avec les capteurs virtuels. Néanmoins, le gain énergétique s’accroît lorsque plus de dispositifs sont impliqués pour atteindre 81% pour coll(1000 m) et 55% pour le modèle coll(500 m). 152Figure 39 – Répartition des charges énergétiques suivant les approches : (a) individuelle, (b) collaborative avec une objectif de couverture de 1000 m 2 , (c) collaborative avec un objectif de couverture de 500 m2 153Comme attendu, ces chiffres montrent que le gain énergétique lié à la coordination des tâches varie selon la concentration des dispositifs mobiles dans la zone de collecte et également des objectifs de couvertures définies. Cependant cela révèle également les limitations du modèle évalué dans ce chapitre. En effet, dans le contexte où la concentration des dispositifs mobiles est trop faible pour permettre une coordination des tâches, notre modèle consommerait plus qu’un modèle classique à cause des communications nécessaires avec les capteurs virtuels. D’autre part, notre modèle reste limité si l’objectif de couverture nécessaire pour la campagne de collecte doit être très élevé (par ex. tous les 50 mètres). Cela engendrerait un trafic réseau trop important, car les dispositifs seraient sens cesse en train de communiquer avec les capteurs virtuels, spécialement dans un cas de forte mobilité. Dans ce contexte, la solution proposée ici reste principalement efficace pour les campagnes de collecte nécessitant une couverture géographique de collecte d’une centaine de mètres ou plus. Quelques exemples de ce type de campagnes sont la mesure de la qualité de l’air [19], ou la mesure de la qualité des réseaux sans fil comme présentés dans ce chapitre [61]. 6.4 conclusion Nous avons présenté dans ce chapitre l’évaluation du modèle de recrutement collaboratif proposé dans APISENSE®. Ce modèle s’appuie sur la forte concentration des dispositifs en milieu urbain pour coordonner l’exécution des tâches de collecte entre ces dispositifs selon un objectif de couverture géographique. Pour évaluer ce modèle, nous avons présenté plusieurs expériences basées sur des traces réelles de mobilités provenant de 10000 taxis. Par le biais des expériences menées, nous avons montré qu’en coordonnant l’exécution des tâches, le modèle proposé comporte principalement deux avantages par rapport à un modèle de recrutement où tous les dispositifs les exécutent de manière indépendante. Les expériences ont montré que notre approche permet dans un premier temps de diminuer la quantité de données propagée sur le serveur de plus de 50% lorsque 10000 dispositifs mobiles sont impliqués, tout en gardant une couverture géographique des données collectées similaire. Nous avons également montré que la coordination des tâches de collecte permettait de diminuer la consommation énergétique de ces dispositifs jusqu’à 70%. 154Dans le prochain chapitre, nous concluons en faisant un bilan des contributions présentées dans ce manuscrit, et discutons des perspectives de développements et de recherches issues des travaux de cette thèse. 155Quatrième partie Conclusion 1577 C O N C L U S I O N Sommaire 7.1 Rappel des motivations 159 7.2 Rappel des contributions 160 7.2.1 Collecte mobile de données 160 7.2.2 Collecte répartie de données 161 7.3 Perspectives 162 Ce chapitre, qui finalise la présentation faite au travers de ce manuscrit, s’organise de la manière suivante. La section 7.1 rappelle le contexte dans lequel se sont inscrits les travaux réalisés et la problématique qui en est à l’origine. La section 7.2 résume les contributions décrites dans ce manuscrit. Enfin la section 7.3 définit un ensemble de pistes de recherche et de développement en lien avec les travaux de cette thèse. 7.1 rappel des motivations Le Mobile crowdsensing est une nouvelle alternative exploitant la foule de terminaux intelligents déjà déployés à travers le monde pour la collecte massive de données environnementales ou comportementales de la population. Ces dernières années, ce type de collecte de données a suscité l’intérêt d’un grand nombre d’acteurs industriels et académiques dans des domaines tels que l’étude de la mobilité urbaine, la surveillance de l’environnement, la santé ou l’étude des comportements sociaux. Malgré le potentiel du Mobile crowdsensing, les campagnes de collecte réalisées impliquant un grand nombre d’utilisateurs mobiles sont rares et restent principalement développées par des experts. Ceci est particulièrement dû à l’absence de prise en compte d’aspects non fonctionnels des systèmes proposés dédiés au MCS. En effet, réaliser une campagne de collecte impliquant un grand nombre d’utilisateurs mobiles demande de faire face à de nombreux défis. Ces défis incluent la protection de la vie privée des utilisateurs, les ressources énergétiques limitées des terminaux mobiles, la 159mise en place de modèles de récompense et de déploiement adaptés pour recruter les utilisateurs les plus à même de collecter les données désirées, ainsi que de faire face à l’hétérogénéité des plate-formes mobiles disponibles (par ex. Android, iOS...). À ce jour, beaucoup d’efforts ont principalement portés sur la réalisation de systèmes monolithiques, difficilement réutilisable dans un contexte non anticipé. Ce manque d’approche réutilisable demande généralement de devoir réinventer la roue pour chaque nouveau système, entravant ainsi l’adoption du MCS pour de nombreux acteurs n’ayant pas les compétences, ni le temps de développer un système capable de répondre à leurs exigences. Dans cette thèse, nous avons cherché à réétudier les architectures des systèmes dédiés au MCS pour adresser les limitations actuelles liées au développement, au déploiement et à l’exécution d’une campagne de collecte de données. Les différentes contributions proposées sont articulées autour APISENSE®, la plate-forme résultante des travaux de cette thèse. APISENSE® propose un environnement distribué permettant de simplifier le développement et le déploiement de campagnes de collecte de données à travers des utilisateurs mobiles. Nous décrivons dans la section suivante un résumé des contributions décrites dans ce manuscrit. 7.2 rappel des contributions Dans cette section, nous synthétisons nos contributions présentées dans le chapitre 3 et le chapitre 4 au travers de l’implémentation de la plate-forme APISENSE®. 7.2.1 Collecte mobile de données Dans notre première contribution, nous avons tout d’abord proposé un modèle de programmation pour simplifier le développement de tâches de collecte de données (cf. chapitre 3 section 3.3, page 59 ). Pour concevoir ce modèle, nous avons tenu compte de trois propriétés qui sont la portabilité, la généralité, et l’accessibilité. En ce qui concerne la portabilité, nous avons basé notre modèle sur le langage de script JavaScript, qui est facilement exécutable sur de nombreux systèmes d’exploitation des dispositifs mobiles actuels. Pour l’accessibilité, nous avons proposé une interface de programmation simple et efficace fournissant une abstraction complète des technologies mobiles. Et pour la généralité, l’interface a été conçue pour supporter une grande variété d’activités de 160collecte, comprenant la collecte opportuniste et participative (cf. chapitre 2 section 2.1.2, page 26 ). Plus particulièrement, l’interface proposée permet de facilement écouter les changements d’état des capteurs mobiles pour la collecte de données opportuniste, d’interagir avec l’utilisateur mobile pour la collecte de données participative ainsi que définir les stratégies de propagation des données. Nous avons également présenté dans ce chapitre l’architecture de l’environnement mobile (cf. chapitre 3 section 3.4, page 68 ) assurant l’exécution des tâches de collecte. Cette architecture met principalement l’accent sur la sécurité et le respect de la confi- dentialité des participants. Pour atteindre cet objectif, tous les scripts sont exécutés dans un bac à sable dédié. Ainsi, cela nous permet de contrôler tous les accès des scripts vers les capteurs des dispositifs mobiles. Par le biais d’une interface graphique, nous laissons la possibilité aux utilisateurs mobiles de définir des contraintes empêchant toute activité de collecte non désirées. Ces contraintes sont classifiées en quatre catégories : temporelles, géographiques, de ressources consommées et de capteurs utilisés. 7.2.2 Collecte répartie de données Dans cette deuxième contribution, le défi adressé concerne la généralité de la plateforme pour concevoir une grande variété de campagnes de collecte ainsi que son passage à l’échelle. Pour supporter une grande diversité de campagnes de collecte, nous avons proposé un Modèle de Variabilité (MC) [32] (en anglais FM pour Feature Model), capturant les différentes configurations d’une application serveur responsable de la gestion des campagnes de collecte (cf. chapitre 4 section 4.4.1, page 101 ). Cette configuration réside en cinq points : i) configurer l’environnement de développement des tâches de collecte, ii) choisir un modèle de recrutement des participants, iii) choisir une série de traitements sur les données collectées avant leur insertion dans la base de données (par ex. anonymisation des données), iv) spécifier l’indexation des données dans la base de données, v) exposer des services pour exploiter les données collectées. Ce modèle est ensuite fourni aux utilisateurs pour leur permettre de définir des exigences selon la spécificité des campagnes qu’ils veulent mener. À partir des ces exigences, une application serveur (appelée nœud de collecte) est générée et configurée fournissant un environnement dédié à la gestion des campagnes de collecte des utilisateurs. En ce qui concerne le passage à l’échelle de la plate-forme, nous avons proposé une architecture décentralisée, séparant les préoccupations du déploiement ainsi que de la 161collecte et l’analyse des données (cf. chapitre 4 section 4.2, page 92 ). L’architecture résultante est composée d’un ensemble de nœuds de collecte et d’un serveur central. Dans cette architecture, le serveur central est responsable du déploiement des tâches de collecte soumises par les nœuds de collecte vers les participants de la plate-forme qui se sont enregistrés au préalable. Les nœuds de collecte, quant à eux, fournissent un environnement dédié permettant aux utilisateurs de développer de nouvelles tâches de collecte, de les déployer auprès du serveur central, et d’exploiter les données qui ont été collectées durant l’exécution des tâches de collecte. Ce procédé a principalement deux avantages. Le premier est d’assurer une première couche d’anonymat des participants, dans le sens où tous les nœuds de collecte ne peuvent pas déployer les tâches de collecte sans passer par le serveur central. Le deuxième permet aux nouveaux utilisateurs de bénéficier d’un ensemble de participants déjà disponibles pour exécuter des tâches de collecte, leur évitant ainsi une longue période de recrutement. Finalement, nous avons proposé une extension de APISENSE® dédiée à l’optimisation de l’exécution de campagne de collecte communautaire (cf. chapitre 4 section 4.5, page 113 ). L’optimisation proposée permet de coordonner l’exécution des tâches de collecte entre les dispositifs mobiles en fonction de propriétés de couvertures géographique et temporelle. Principalement, cette optimisation a pour objectif dans un premier temps de diminuer la consommation énergétique globale de tous les dispositifs impliqués dans la campagne, et également de diminuer la quantité de données propagées vers le nœud de collecte. 7.3 perspectives Dans cette section, nous présentons un ensemble de pistes de développement et de recherche en lien avec les travaux présentés dans cette thèse. Une première contribution au développement d’APISENSE® serait dans un premier temps de porter l’application mobile sur les divers systèmes d’exploitation mobiles disponibles sur le marché (par ex. iOS, Windows Mobile). Bien que nous avons effectué une preuve de concept de la portabilité de l’application mobile d’APISENSE® sur iOS, le prototype réalisé n’est pas encore opérationnel pour être déployé à grande échelle. 162Concernant la partie serveur de APISENSE®, plusieurs améliorations à court terme peuvent être envisagées. La première concerne la sécurité lors de la propagation des données des dispositifs vers les nœuds de collecte. En effet, actuellement l’emplacement du participant peut être déterminé en identifiant l’adresse IP du point d’accès utilisé pour propager les données, permettant potentiellement d’identifier son domicile même si les données en elles-mêmes ne permettent pas de révéler cette information. Dans ce contexte, une priorité serait d’utiliser des routeurs ou relais spécifiques (par ex. routeur oignon [18]) pour cacher l’adresse IP lors de la propagation des données. Une autre amélioration à court terme serait d’intégrer des outils de visualisation génériques permettant de rapidement explorer les données collectées à travers une Interface web. Par exemple, il serait intéressant d’établir des connexions entre les nœuds de collecte et des services tels que CartoDB 1 ou Google Fusion Tables 2 qui proposent ce type de fonctionnalité. Une autre amélioration serait de supporter le déploiement automatique des nœuds de collecte vers les infrastructures des utilisateurs. Cette tâche reste encore manuelle et peut demander une certaine expertise pour administrer le système responsable de leurs exécutions. Certains travaux dans notre équipe ont déjà été initiés dans ce sens [53, 54] et nous prévoyons de rapidement les intégrer dans APISENSE®. D’autres pistes de développement seraient d’implémenter les différents modèles de protection de la vie privée et de récompense proposés dans la littérature. Dans ce contexte, il serait intéressant de déployer des campagnes utilisant ces différents modèles sur des échantillons de participants, afin d’évaluer leurs impacts sur leurs participations. Nous pensons que APISENSE® peut être une plate-forme idéale pour permettre aux scientifiques travaillant sur ces problématiques pour les aider à mettre au point et valider leurs algorithmes. Bien que le modèle de programmation proposé dans cette thèse fournisse une abstraction complète des technologies mobiles, une expertise en programmation est quand même nécessaire pour le développement des tâches de collecte. Dans ce contexte, il pourrait être intéressant de proposer un niveau d’abstraction encore plus élevé ne nécessitant aucune expertise. Ce niveau d’abstraction peut s’appuyer par exemple sur certains travaux déjà existant comme App Inventor 3 ou Alice [15] qui proposent 1. http://cartodb.com 2. http://tables.googlelabs.com 3. http://appinventor.mit.edu 163des métaphores visuelles pour le développement des applications, ou encore sur le langage naturel. Dans ce contexte, le modèle de programmation que nous avons proposé pourrait être utilisé comme langage pivot avec ce nouveau niveau d’abstraction. Une autre perspective serait de mettre en place des métriques permettant d’évaluer la qualité des données collectées. Très peu de recherche ont encore été menées dans ce sens, bien que cela représente une problématique importante de ce type d’applications. En effet, de nombreux facteurs peuvent influer sur la qualité des données comme le type de matériel utilisé, la mobilité des utilisateurs, etc. En effet, sans connaître le niveau de fiabilité des données, il peut être très difficile de savoir si les données collectées sont représentatives du monde réel ou du comportement des participants. La mise en place de ces métriques pourrait également permettre de mettre en place de nouveaux modèles de recrutement des participants dans les campagnes de collecte. Dans ce contexte, selon les exigences de la campagne, les participants fournissant les données de plus grande qualité pourraient être privilégiés. Dans cette thèse, nous avons particulièrement investi sur le développement d’un système de collecte de données avec APISENSE®. Cependant, la collecte en elle même ne représente qu’une partie des futurs systèmes d’informations se basant sur le pouvoir de la foule pour atteindre une quantité massive de données. De nombreux défis doivent encore être relevés pour traiter ces données, en extraire des comportements complexes et diffuser des informations en temps réel à partir de leurs analyses [68]. Un cas d’utilisation que nous souhaitons investir est l’utilisation du Mobile crowdsensing pour élaborer un système de détection de tremblement de terre. Certaines initiatives ont déjà vu le jour comme le projet Quake-Catcher Network [13], qui permet de recueillir les données issues des capteurs de mouvement présents dans les disques durs des ordinateurs, transformant alors ceux-ci en sismographes. Comme mentionné par Faulkner et al. [23], cette approche peut être complétée en utilisant les accéléromètres intégrés dans les dispositifs mobiles qui peuvent fournir une mesure plus précise et plus complète de la distribution géographique des secousses lors d’un tremblement de terre. Cependant, développer un système fiable, capable d’analyser continuellement les données produites par des centaines de milliers de capteurs, extraire uniquement les informations pertinentes et propager une alerte sismique seulement en quelques secondes restent actuellement un véritable défi. 164B I B L I O G R A P H I E [1] Nadav Aharony, Wei Pan, Cory Ip, Inas Khayal, and Alex Pentland. Social fmri : Investigating and shaping social mechanisms in the real world. Pervasive and Mobile Computing, 7(6) :643–659, 2011. [2] Marc P Armstrong, Gerard Rushton, Dale L Zimmerman, et al. Geographically masking health data to preserve confidentiality. Statistics in medicine, 18(5) :497–525, 1999. [3] Patrick Baier, Frank Durr, and Kurt Rothermel. Psense : Reducing energy consumption in public sensing systems. In Advanced Information Networking and Applications (AINA),26th International Conference on, pages 136–143. IEEE, 2012. [4] Rajesh Krishna Balan, Khoa Xuan Nguyen, and Lingxiao Jiang. Real-time trip information service for a large taxi fleet. In Proceedings of the 9th international conference on Mobile systems, applications, and services, pages 99–112. ACM, 2011. [5] Niranjan Balasubramanian, Aruna Balasubramanian, and Arun Venkataramani. Energy consumption in mobile phones : a measurement study and implications for network applications. In Proceedings of the 9th conference on Internet measurement conference, pages 280–293. ACM, 2009. [6] Niels Brouwers and Koen Langendoen. Pogo, a middleware for mobile phone sensing. In Proceedings of the 13th International Middleware Conference, pages 21–40. Springer-Verlag New York, Inc., 2012. [7] J Burke, D Estrin, M Hansen, A Parker, N Ramanathan, S Reddy, and MB Srivastava. Participatory sensing. In In : Workshop on World-Sensor-Web (WSW’06) : Mobile Device Centric Sensor Networks and Applications, 2006. [8] Iacopo Carreras, Daniele Miorandi, Andrei Tamilin, Emmanuel R Ssebaggala, and Nicola Conci. Matador : Mobile task detector for context-aware crowd-sensing campaigns. In Pervasive Computing and Communications Workshops (PERCOM Workshops), International Conference on, pages 212–217. IEEE, 2013. 165[9] Guanling Chen, David Kotz, et al. A survey of context-aware mobile computing research. Technical report, Technical Report TR2000-381, Dept. of Computer Science, Dartmouth College, 2000. [10] NM Chowdhury and Raouf Boutaba. A survey of network virtualization. Computer Networks, 54(5) :862–876, 2010. [11] Delphine Christin, Andreas Reinhardt, Salil S Kanhere, and Matthias Hollick. A survey on privacy in mobile participatory sensing applications. Journal of Systems and Software, 84(11) :1928–1946, 2011. [12] Paul Clements and Linda Northrop. Software product lines : practices and patterns. 2002. [13] Elizabeth S Cochran, Jesse F Lawrence, Carl Christensen, and Ravi S Jakka. The quake-catcher network : Citizen science expanding seismic horizons. Seismological Research Letters, 80(1) :26–30, 2009. [14] Ionut Constandache, Shravan Gaonkar, Matt Sayler, Romit Roy Choudhury, and Landon Cox. Enloc : Energy-efficient localization for mobile phones. In INFOCOM, pages 2716–2720. IEEE, 2009. [15] Stephen Cooper, Wanda Dann, and Randy Pausch. Teaching objects-first in introductory computer science. In ACM SIGCSE Bulletin, volume 35, pages 191–195. ACM, 2003. [16] Tathagata Das, Prashanth Mohan, Venkata N Padmanabhan, Ramachandran Ramjee, and Asankhaya Sharma. Prism : platform for remote sensing using smartphones. In Proceedings of the 8th international conference on Mobile systems, applications, and services, pages 63–76. ACM, 2010. [17] Linda Deng and Landon P Cox. Livecompare : grocery bargain hunting through participatory sensing. In Proceedings of the 10th workshop on Mobile Computing Systems and Applications, page 4. ACM, 2009. [18] Roger Dingledine, Nick Mathewson, and Paul Syverson. Tor : The secondgeneration onion router. Technical report, DTIC Document, 2004. [19] Prabal Dutta, Paul M Aoki, Neil Kumar, Alan Mainwaring, Chris Myers, Wesley Willett, and Allison Woodruff. Common sense : participatory urban sensing using 166a network of handheld air quality monitors. In Proceedings of the 7th ACM conference on embedded networked sensor systems, pages 349–350. ACM, 2009. [20] Shane B Eisenman, Emiliano Miluzzo, Nicholas D Lane, Ronald A Peterson, GahngSeop Ahn, and Andrew T Campbell. Bikenet : A mobile sensing system for cyclist experience mapping. ACM Transactions on Sensor Networks (TOSN), 6(1) :6, 2009. [21] Patrick Th Eugster, Pascal A Felber, Rachid Guerraoui, and Anne-Marie Kermarrec. The many faces of publish/subscribe. ACM Computing Surveys (CSUR), 35(2) : 114–131, 2003. [22] Hossein Falaki, Ratul Mahajan, and Deborah Estrin. Systemsens : a tool for monitoring usage in smartphone research deployments. In Proceedings of the sixth international workshop on MobiArch, pages 25–30. ACM, 2011. [23] Matthew Faulkner, Michael Olson, Rishi Chandy, Jonathan Krause, K Mani Chandy, and Andreas Krause. The next big one : Detecting earthquakes and other rare events from community-based sensors. In Information Processing in Sensor Networks (IPSN), 2011 10th International Conference on, pages 13–24. IEEE, 2011. [24] Zachary Fitz-Walter and Dian Tjondronegoro. Exploring the opportunities and challenges of using mobile sensing for gamification. In Proceedings of the 13th International Conference on Ubiquitous Computing (UbiComp’11) : Workshop on Mobile Sensing, 2011. [25] Jon Froehlich, Mike Y Chen, Sunny Consolvo, Beverly Harrison, and James A Landay. Myexperience : a system for in situ tracing and capturing of user feedback on mobile phones. In Proceedings of the 5th international conference on Mobile systems, applications and services, pages 57–70. ACM, 2007. [26] Sébastien Gambs, Marc-Olivier Killijian, and Miguel Núñez del Prado Cortez. Show me how you move and i will tell you who you are. In Proceedings of the 3rd ACM SIGSPATIAL International Workshop on Security and Privacy in GIS and LBS, pages 34–41. ACM, 2010. [27] Raghu K Ganti, Fan Ye, and Hui Lei. Mobile crowdsensing : Current state and future challenges. Communications Magazine, IEEE, 49(11) :32–39, 2011. [28] Chunming Gao, Fanyu Kong, and Jindong Tan. Healthaware : Tackling obesity with health aware smart phone systems. In Robotics and Biomimetics (ROBIO), 2009 IEEE International Conference on, pages 1549–1554. IEEE, 2009. 167[29] Shravan Gaonkar, Jack Li, Romit Roy Choudhury, Landon Cox, and Al Schmidt. Micro-blog : sharing and querying content through mobile phones and social participation. In Proceedings of the 6th international conference on Mobile systems, applications, and services, pages 174–186. ACM, 2008. [30] Kuan Lun Huang, Salil S Kanhere, and Wen Hu. Preserving privacy in participatory sensing systems. Computer Communications, 33(11) :1266–1280, 2010. [31] Anil K Jain and Richard C Dubes. Algorithms for clustering data. Prentice-Hall, Inc., 1988. [32] Kyo C Kang, Sholom G Cohen, James A Hess, William E Novak, and A Spencer Peterson. Feature-oriented domain analysis (foda) feasibility study. Technical report, DTIC Document, 1990. [33] Wazir Zada Khan, Yang Xiang, Mohammed Y Aalsalem, and Quratulain Arshad. Mobile phone sensing systems : a survey. Communications Surveys & Tutorials, IEEE, 15(1) :402–427, 2013. [34] Donnie H Kim, Younghun Kim, Deborah Estrin, and Mani B Srivastava. Sensloc : sensing everyday places and paths using less energy. In Proceedings of the 8th ACM Conference on Embedded Networked Sensor Systems, pages 43–56. ACM, 2010. [35] Stephen F King and Paul Brown. Fix my street or else : using the internet to voice local public service concerns. In Proceedings of the 1st international conference on Theory and practice of electronic governance, pages 72–80. ACM, 2007. [36] John Krumm. A survey of computational location privacy. Personal and Ubiquitous Computing, 13(6) :391–399, 2009. [37] Jennifer R Kwapisz, Gary M Weiss, and Samuel A Moore. Activity recognition using cell phone accelerometers. ACM SigKDD Explorations Newsletter, 12(2) :74–82, 2011. [38] Nicholas D Lane, Shane B Eisenman, Mirco Musolesi, Emiliano Miluzzo, and Andrew T Campbell. Urban sensing systems : opportunistic or participatory ? In Proceedings of the 9th workshop on Mobile computing systems and applications, pages 11–16. ACM, 2008. 168[39] Nicholas D Lane, Emiliano Miluzzo, Hong Lu, Daniel Peebles, Tanzeem Choudhury, and Andrew T Campbell. A survey of mobile phone sensing. Communications Magazine, IEEE, 48(9) :140–150, 2010. [40] Juong-Sik Lee and Baik Hoh. Dynamic pricing incentive for participatory sensing. Pervasive and Mobile Computing, 6(6) :693–708, 2010. [41] Juong-Sik Lee and Baik Hoh. Sell your experiences : a market mechanism based incentive for participatory sensing. In Pervasive Computing and Communications (PerCom), 2010 IEEE International Conference on, pages 60–68. IEEE, 2010. [42] P Lilly. Mobile devices to outnumber global population by 2017. URL http ://tinyurl. com/pbodtus [Accessedon : 2013-08-06]. [43] Kaisen Lin, Aman Kansal, Dimitrios Lymberopoulos, and Feng Zhao. Energyaccuracy trade-off for continuous mobile device location. In Proceedings of the 8th international conference on Mobile systems, applications, and services, pages 285–298. ACM, 2010. [44] Pengfei Liu, Yanhua Chen, Wulei Tang, and Qiang Yue. Mobile weka as data mining tool on android. In Advances in Electrical Engineering and Automation, pages 75–80. Springer, 2012. [45] Hong Lu, Nicholas D Lane, Shane B Eisenman, and Andrew T Campbell. Bubblesensing : Binding sensing tasks to the physical world. Pervasive and Mobile Computing, 6(1) :58–71, 2010. [46] C Matthew MacKenzie, Ken Laskey, Francis McCabe, Peter F Brown, Rebekah Metz, and Booz Allen Hamilton. Reference model for service oriented architecture 1.0. OASIS Standard, 12, 2006. [47] Nicolas Maisonneuve, Matthias Stevens, Maria E Niessen, and Luc Steels. Noisetube : Measuring and mapping noise pollution with mobile phones. In Information Technologies in Environmental Engineering, pages 215–228. Springer, 2009. [48] David J Malan and Henry H Leitner. Scratch for budding computer scientists. ACM SIGCSE Bulletin, 39(1) :223–227, 2007. [49] Emiliano Miluzzo, Nicholas D Lane, Kristóf Fodor, Ronald Peterson, Hong Lu, Mirco Musolesi, Shane B Eisenman, Xiao Zheng, and Andrew T Campbell. Sensing meets mobile social networks : the design, implementation and evaluation of the 169cenceme application. In Proceedings of the 6th ACM conference on Embedded network sensor systems, pages 337–350. ACM, 2008. [50] Prashanth Mohan, Venkata N Padmanabhan, and Ramachandran Ramjee. Nericell : rich monitoring of road and traffic conditions using mobile smartphones. In Proceedings of the 6th ACM conference on Embedded network sensor systems, pages 323–336. ACM, 2008. [51] Min Mun, Sasank Reddy, Katie Shilton, Nathan Yau, Jeff Burke, Deborah Estrin, Mark Hansen, Eric Howard, Ruth West, and Péter Boda. Peir, the personal environmental impact report, as a platform for participatory sensing systems research. In Proceedings of the 7th international conference on Mobile systems, applications, and services, pages 55–68. ACM, 2009. [52] Klaus Pohl, Günter Böckle, and Frank Van Der Linden. Software product line engineering : foundations, principles, and techniques. Springer, 2005. [53] Clément Quinton, Romain Rouvoy, and Laurence Duchien. Leveraging feature models to configure virtual appliances. In Proceedings of the 2nd International Workshop on Cloud Computing Platforms, page 2. ACM, 2012. [54] Clément Quinton, Nicolas Haderer, Romain Rouvoy, and Laurence Duchien. Towards multi-cloud configurations using feature models and ontologies. In Proceedings of the 2013 international workshop on Multi-cloud applications and federated clouds, pages 21–26. ACM, 2013. [55] Moo-Ryong Ra, Bin Liu, Tom F La Porta, and Ramesh Govindan. Medusa : A programming framework for crowd-sensing applications. In Proceedings of the 10th international conference on Mobile systems, applications, and services, pages 337–350. ACM, 2012. [56] Kiran K Rachuri, Mirco Musolesi, Cecilia Mascolo, Peter J Rentfrow, Chris Longworth, and Andrius Aucinas. Emotionsense : a mobile phones based adaptive platform for experimental social psychology research. In Proceedings of the 12th ACM international conference on Ubiquitous computing, pages 281–290. ACM, 2010. [57] Sasank Reddy, Deborah Estrin, Mark Hansen, and Mani Srivastava. Examining micro-payments for participatory sensing data collections. In Proceedings of the 12th ACM international conference on Ubiquitous computing, pages 33–36. ACM, 2010. 170[58] Mitchel Resnick, John Maloney, Andrés Monroy-Hernández, Natalie Rusk, Evelyn Eastmond, Karen Brennan, Amon Millner, Eric Rosenbaum, Jay Silver, Brian Silverman, et al. Scratch : programming for all. Communications of the ACM, 52 (11) :60–67, 2009. [59] Xiang Sheng, Jian Tang, and Weiyi Zhang. Energy-efficient collaborative sensing with mobile phones. In INFOCOM, 2012 Proceedings IEEE, pages 1916–1924. IEEE, 2012. [60] Xiang Sheng, Xuejie Xiao, Jian Tang, and Guoliang Xue. Sensing as a service : A cloud computing system for mobile phone sensing. In Sensors, 2012 IEEE, pages 1–4. IEEE, 2012. [61] Clayton Shepard, Ahmad Rahmati, Chad Tossell, Lin Zhong, and Phillip Kortum. Livelab : measuring wireless networks and smartphone users in the field. ACM SIGMETRICS Performance Evaluation Review, 38(3) :15–20, 2011. [62] Minho Shin, Cory Cornelius, Dan Peebles, Apu Kapadia, David Kotz, and Nikos Triandopoulos. Anonysense : A system for anonymous opportunistic sensing. Pervasive and Mobile Computing, 7(1) :16–30, 2011. [63] Sebastian Sonntag, Lennart Schulte, and Jukka Manner. Mobile network measurements-it’s not all about signal strength. In Wireless Communications and Networking Conference (WCNC), 2013 IEEE, pages 4624–4629. IEEE, 2013. [64] Latanya Sweeney. k-anonymity : A model for protecting privacy. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 10(05) :557–570, 2002. [65] Emiliano Trevisani and Andrea Vitaletti. Cell-id location technique, limits and benefits : an experimental study. In Mobile Computing Systems and Applications (WMCSA). Sixth IEEE Workshop on, pages 51–60. IEEE, 2004. [66] Yu Xiao, Pieter Simoens, Padmanabhan Pillai, Kiryong Ha, and Mahadev Satyanarayanan. Lowering the barriers to large-scale mobile crowdsensing. In Proceedings of the 14th Workshop on Mobile Computing Systems and Applications, page 9. ACM, 2013. [67] Jing Yuan, Yu Zheng, Xing Xie, and Guangzhong Sun. Driving with knowledge from the physical world. In Proceedings of the 17th ACM SIGKDD international conference on Knowledge discovery and data mining, pages 316–324. ACM, 2011. 171[68] Arkady Zaslavsky, Charith Perera, and Dimitrios Georgakopoulos. Sensing as a service and big data. arXiv preprint arXiv :1301.0159, 2013. [69] Gabe Zichermann and Christopher Cunningham. Gamification by design : Implementing game mechanics in web and mobile apps. " O’Reilly Media, Inc.", 2011. 172173 Contributions `a la v´erification et `a la validation efficaces fond´ees sur des mod`eles Alo¨ıs Dreyfus To cite this version: Alo¨ıs Dreyfus. Contributions `a la v´erification et `a la validation efficaces fond´ees sur des mod`eles. Computation and Language. Universit´e de Franche-Comt´e, 2014. French. HAL Id: tel-01090759 https://hal.inria.fr/tel-01090759 Submitted on 4 Dec 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.Thèse de Doctorat é c o l e d o c t o r a l e s c i e n c e s p o u r l ’ i n g é n i e u r e t m i c r o t e c h n i q u e s U N I V E R S I T É D E F R A N C H E - C O M T É n Contributions à la vérification et à la validation efficaces fondées sur des modèles Aloïs DREYFUSThèse de Doctorat é c o l e d o c t o r a l e s c i e n c e s p o u r l ’ i n g é n i e u r e t m i c r o t e c h n i q u e s U N I V E R S I T É D E F R A N C H E - C O M T É THÈSE présentée par Aloïs Dreyfus pour obtenir le Grade de Docteur de l’Université de Franche-Comté Spécialité : Informatique Contributions à la vérification et à la validation efficaces fondées sur des modèles Unité de Recherche : FEMTO-ST DISC Soutenue le 22/10/2014 devant le Jury : Pierre-Cyrille Heam ´ Directeur de thèse Professeur à l’Université de Franche-Comté Olga Kouchnarenko Directrice de thèse Professeur à l’Université de Franche-Comté Ioannis Parissis Rapporteur Professeur à Grenoble INP Pierre Rety ´ Rapporteur Maître de Conférences HDR à l’Université d’Orléans Pascal Poizat Examinateur Professeur à l’Univ. Paris Ouest Nanterre La Défense N ◦ X X XRemerciements J’aimerais tout d’abord remercier mes encadrants et mentors, Olga et Pierre-Cyrille, qui m’ont fait confiance, soutenu et conseillé pendant 6 ans (2 ans en tant qu’ingénieur, puis 4 ans pour mon doctorat). Lorsque mon moral et ma motivation étaient en berne, au point que l’idée folle de jeter l’éponge a parfois effleuré mon esprit fatigué, vous avez su trouver quoi dire et/ou quoi faire pour m’encourager et m’aider à rester dans la course. Je remercie vivement les membres du jury, qui ont accepté d’évaluer mon travail de thèse et plus particulièrement les rapporteurs, Ioannis Parissis et Pierre Réty, qui ont en plus accepté la tâche conséquente de lire, comprendre et critiquer ce mémoire. Je tiens ensuite à remercier mes parents Pierrette et Laurent, ainsi que ma grande soeur Fanny et mon petit frère Chouch, pour leur sempiternel et inconditionnel soutien. J’ai de la chance de vous avoir, et je ne vous dirai jamais assez à quel point je vous aime ♥♥♥♥. Je remercie de même Nico et le loulou, pour tout le bonheur que vous apportez à notre famille depuis que vous en faites partie. Je remercie également celles et ceux qui m’ont aidé à tenir jusqu’au bout, parfois peut-être sans même s’en rendre compte. Je pense particulièrement à Cyber, Tcharlz, Nesnours, @ngel, Fouad, Oscar, Aydeé, Richard, Justine, Lysiane et Anne-Sorya. Et je ne voudrais surtout pas oublier de remercier ma soupape de décompression dijonnaise : Cyber, Anne-Sophie, Chloé, ainsi que Féfé et Jean-Marc, pour votre hospitalité, nos délires et nos discussions, qui m’ont fait un bien fou quand j’avais le moral dans les chaussettes ! Puis j’aimerais remercier mes compagnons de galère : Jibouille, Éric, Abdallah, Hamida, Hadrien, Doudou, P.C., Kalou, Jérôme, Oscar, Séb, Mathias, Roméo, Kerkouette, Sékou, Alexandru, Julien, Lionel, Ivan, Youssou, Bety, Nicolas, Jean-Marie, Fouad, Alexander, Vincent H., Rami, John, Guillaume, Lemia, David, Valérie, Naima, Paco, Sarga, Alban, Aydeé, Yanbo, Régis, Lamiel, Elena et Alexandre, pour l’ambiance agréable et conviviale qui rend les levers du matin plus faciles (ou moins difficiles, c’est selon). Je souhaite bon courage et bon vent à ceux qui rament en ce moment même. Il reste encore tellement de monde (amis, cousins, collègues, . . .) que j’apprécie vraiment et qui méritent que je les remercie, qu’il est clair que je ne pourrai pas être exhaustif. Donc j’espère que celles et ceux que je n’ai pas cités ne m’en tiendront pas rigueur.Sommaire I Introduction 15 1 Prologue 17 1.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.2 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.3 Plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.4 Publications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2 Préliminaires théoriques et notations 21 2.1 Automates et langages réguliers . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.1.1 Mots et langages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.1.2 Automates finis et expressions régulières . . . . . . . . . . . . . . . . . 21 2.1.3 Produit d’automates . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.1.4 Isomorphisme d’automates . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.1.5 Réduction d’un automate . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.1.6 Transducteurs lettre à lettre finis . . . . . . . . . . . . . . . . . . . . . . 26 2.1.7 Appliquer un transducteur à un automate . . . . . . . . . . . . . . . . . 27 2.1.8 Appliquer un transducteur à un langage . . . . . . . . . . . . . . . . . . 28 2.2 Grammaires algébriques et automates à pile . . . . . . . . . . . . . . . . . . . . 28 2.2.1 Grammaires algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.2.2 Automates à pile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.2.3 Génération aléatoire uniforme d’un arbre de dérivation dans une grammaire 31 2.2.4 D’un NPDA vers une grammaire algébrique . . . . . . . . . . . . . . . . 33 II Approximations régulières pour l’analyse d’accessibilité 35 3 Contexte et problématiques 39 3.1 Introduction et énoncé du problème . . . . . . . . . . . . . . . . . . . . . . . . 39 3.2 Technique proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.3 Calcul de la sur-approximation . . . . . . . . . . . . . . . . . . . . . . . . . . . 43SOMMAIRE 8 3.4 Raffinement d’approximations . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 4 Contribution : Critères de fusion syntaxiques 49 4.1 In et Out . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.2 Left et Right . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.3 Combinaisons de fonctions d’approximation . . . . . . . . . . . . . . . . . . . . 53 4.4 Expérimentations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 5 Contribution : Fonction d’approximation qui utilise les états du transducteur 55 5.1 Définitions supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5.2 Critère de fusion qui utilise les états du transducteur . . . . . . . . . . . . . . . . 58 5.3 Raffiner les approximations qui utilisent les états du transducteur . . . . . . . . . 61 5.4 Expérimentations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 6 Conclusion de la partie II 67 III Combiner génération aléatoire et critère de couverture, à partir d’une grammaire algébrique ou d’un automate à pile 69 7 Contexte et problématiques 73 7.1 Le test logiciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 7.1.1 Test automatique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 7.1.2 Test à partir de modèles (MBT) . . . . . . . . . . . . . . . . . . . . . . 74 7.1.3 Critères de couverture . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 7.1.4 Test aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 7.1.5 Génération aléatoire-uniforme d’un chemin dans un graphe fini . . . . . 75 7.1.6 Test à partir de modèles à pile . . . . . . . . . . . . . . . . . . . . . . . 76 7.2 Où se situe-t-on ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 7.2.1 Génération aléatoire de chemins contre parcours aléatoire . . . . . . . . 77 7.2.2 Combiner génération aléatoire et critères de couverture . . . . . . . . . . 78 7.2.3 Modèles réguliers (sans pile) contre modèles algébriques (à pile) . . . . . 80 7.2.4 Contribution : Combiner génération aléatoire et critères de couverture, dans des modèles à pile . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 8 Contribution : Application sur les grammaires 83SOMMAIRE 9 8.1 Calculer pX,n et pX,Y,n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 8.2 Calculer |EX,n(G)| et |EX,Y,n(G)| . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 8.3 Expérimentations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 9 Contribution : Application sur les automates à piles 91 9.1 Génération aléatoire-uniforme de DFA-Traces cohérentes . . . . . . . . . . . . . 93 9.1.1 Génération aléatoire de DFA-traces cohérentes . . . . . . . . . . . . . . 93 9.2 Critères de couverture d’un PDA . . . . . . . . . . . . . . . . . . . . . . . . . . 94 9.2.1 Le critère Tous les états . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 9.2.2 Le critère Toutes les transitions . . . . . . . . . . . . . . . . . . . . . . 95 9.2.3 Combiner test aléatoire et critères de couverture . . . . . . . . . . . . . . 97 9.3 Expérimentations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 9.3.1 Information technique . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 9.3.2 Exemple illustratif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 9.3.3 Exemple illustratif pour les critères de couverture . . . . . . . . . . . . . 101 9.3.4 Temps d’exécution sur plus d’exemples . . . . . . . . . . . . . . . . . . 103 9.4 Cas d’étude : l’algorithme Shunting-Yard . . . . . . . . . . . . . . . . . . . . . 106 9.4.1 Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 9.4.2 Automate sous-jacent pour l’algorithme Shunting-Yard . . . . . . . . . . 106 9.4.3 Expérimentations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 9.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 10 Conclusion de la partie III 113 IV Conclusions et perspectives 115 11 Conclusions et perspectives 117Table des figures 2.1 Aex (Exemple d’automate) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.2 Aex2 (Deuxième exemple d’automate) . . . . . . . . . . . . . . . . . . . . . . . 22 2.3 A1 × A2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.4 Aex × Aex2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.5 Automates isomorphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.6 Aex/∼ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.7 T(A1)/∼exe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.8 In(Aex) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.9 Tex (Exemple de transducteur) . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.10 Tex(Aex) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.11 T(A1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.12 Token ring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.13 Arbre de dérivation correspondant à la séquence S, aS b, aT bb, abb . . . . . . . . 29 2.14 Apower, exemple de NPDA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.15 Algorithme Génération aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.16 Exemple d’une grammaire qui génère des DFA-traces cohérentes . . . . . . . . . 33 3.1 Approche par sur-approximation . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.2 Sur-approximations successives . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.3 Calcul de CRight(A) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.4 Semi-algorithme PointFixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.5 Token ring : semi-algorithme PointFixe avec F = Left . . . . . . . . . . . . . . 45 3.6 Situation nécessitant un raffinement de l’approximation . . . . . . . . . . . . . . 46 3.7 Algorithme Analyse en arrière . . . . . . . . . . . . . . . . . . . . . . . . 46 3.8 Principe du raffinement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 4.1 In(Aex) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.2 Out(Aex) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.3 A Le f t,2 ex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.4 A Right,3 ex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51TABLE DES FIGURES 12 4.5 Left(Atr1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.6 Right(Aex) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.7 Résultats avec des critères syntaxiques . . . . . . . . . . . . . . . . . . . . . . . 54 5.1 x · Aex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 5.2 Aex3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 5.3 Aex4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 5.4 Token ring : Appliquer un transducteur T à un QC × Q ∗ T -automate (1) . . . . . . 57 5.5 Token ring : Appliquer un transducteur T à un QC × Q ∗ T -automate (2) . . . . . . 58 5.6 Token Ring : fusion en fonction des états du transducteur (1) . . . . . . . . . . . 59 5.7 Token ring : fusion en fonction des états du transducteur (2) . . . . . . . . . . . . 59 5.8 Semi-algorithme PointFixeT . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5.9 Situation nécessitant un raffinement de l’approximation . . . . . . . . . . . . . . 62 5.10 Algorithme Séparer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 5.11 Algorithme Raffiner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 5.12 Exemples pour les algorithmes Séparer et Raffiner . . . . . . . . . . . . . . . 63 5.13 Semi-algorithme Vérif-avec-raffinement . . . . . . . . . . . . . . . . . . . 64 5.14 Types d’automates C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5.15 Résultats avec la méthode reposant sur les états du transducteur comme critère de fusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 7.1 Classification des différents types de tests . . . . . . . . . . . . . . . . . . . . . 74 7.2 Exemple de graphe fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 7.3 Exemple 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 7.4 Exemple 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 7.5 Génération aléatoire - Algorithme 1 . . . . . . . . . . . . . . . . . . . . . . . . 79 7.6 Génération aléatoire - Algorithme 2 . . . . . . . . . . . . . . . . . . . . . . . . 79 7.7 Génération aléatoire - Algorithme 3 . . . . . . . . . . . . . . . . . . . . . . . . 80 7.8 Calcul des probabilités πe, afin d’optimiser la probabilité de couvrir C . . . . . . 80 7.9 Programme en C, qui calcule x n . . . . . . . . . . . . . . . . . . . . . . . . . . 81 7.10 Graphe de flot de contrôle de x n . . . . . . . . . . . . . . . . . . . . . . . . . . 81 8.1 Arbre de dérivation de la grammaire G de l’exemple 8.3 . . . . . . . . . . . . . . 86 8.2 Arbre de dérivation de la grammaire GX de l’exemple 8.3 . . . . . . . . . . . . . 86 9.1 Méthode de test aléatoire d’un programme . . . . . . . . . . . . . . . . . . . . . 92 9.2 Génération aléatoire de DFA-traces cohérentes . . . . . . . . . . . . . . . . . . . 93TABLE DES FIGURES 13 9.3 Automate sous-jacent de A6 exe . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 9.4 Automate sous-jacent de A (6,h,9) exe . . . . . . . . . . . . . . . . . . . . . . . . . . 96 9.5 Calcul des probabilités πq, afin d’optimiser la probabilité de couvrir Q . . . . . . 97 9.6 Fonctions mutuellement récursives . . . . . . . . . . . . . . . . . . . . . . . . . 98 9.7 Amodulo : NPDA de l’exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 9.8 Automate Axpath . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 9.9 Algorithme Shunting-Yard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 9.10 Automate sous-jacent pour l’algorithme Shunting-Yard . . . . . . . . . . . . . . 108 9.11 Implémentation en C de l’algorithme Shunting-Yard, que nous avons testée 1/2 . 109 9.12 Implémentation en C de l’algorithme Shunting-Yard, que nous avons testée 2/2 . 110I Introduction1 Prologue 1.1/ Contexte Le développement de programmes sûrs, sécurisés et exempts de bogues est un des problèmes les plus difficiles de l’informatique moderne. Les logiciels sont omniprésents dans notre quotidien, et on leur confie des tâches de plus en plus sensibles, comme le transfert de nos données bancaires lorsque l’on commande sur internet. On parle de logiciels critiques lorsque les conséquences d’un dysfonctionnement peuvent être particulièrement graves, comme lorsque des vies ou lorsque d’importantes sommes d’argent (millions/milliards d’euros) sont en jeux. Sont concernés par exemple les logiciels utilisés pour les systèmes de transport (avions, trains, voitures, . . .), l’énergie (réseau de distribution, centrales, . . .), la santé (gestion des hôpitaux, appareils médicaux, . . .), la finance (bourse, paiement en ligne ou par carte, . . .), ou encore dans le domaine militaire (missiles, drones, communications cryptées, . . .) ou dans l’aérospatiale (fusées, satellites, . . .). Il est donc indispensable de pouvoir s’assurer de la qualité de ces logiciels. Dans ce contexte, on peut distinguer deux techniques complémentaires pour évaluer la qualité d’un système informatique : la vérification et le test. La vérification consiste à prouver mathématiquement qu’un code ou un modèle d’application ré- pond aux attentes (ou propriétés) décrites dans sa spécification. Elle peut se faire avec un assistant de preuve (par exemple Coq) qui aide l’ingénieur à construire des preuves formelles, pouvant même démontrer certains lemmes de façon automatique. La vérification peut aussi se faire par évaluation de modèle – on utilise couramment le terme anglais model-checking –, qui est une méthode qui tente de vérifier si d’après le modèle du système, l’ensemble de ses états atteignables satisfait (ou pas) des propriétés. Un des principaux inconvénients de la vérification est la complexité algorithmique des techniques existantes, qui les rend difficilement applicables à des systèmes de taille importante. Contrairement à la vérification, le test ne fournit pas de preuve formelle en amont. Mais les techniques de test sont applicables à des systèmes de grande taille, et en pratique elles sont pertinentes dans le développement de logiciels de qualité. Le test occupe une part de plus en plus importante du développement de logiciels, au point que se développent des méthodes de développement piloté par les tests – abrégé en TDD, pour l’anglais Test Driven Development –, qui préconisent d’écrire les tests avant d’écrire le code source. Au cours de la dernière décennie, afin de faire face à cette importance croissante de la phase de test, de nombreux travaux ont été réalisés dans l’objectif de passer des méthodes de test manuelles (fondées sur l’expérience) à des méthodes automatiques ou semi-automatiques fondées sur des méthodes formelles.PARTIE I. Introduction - CHAPITRE 1. PROLOGUE 18 1.2/ Contributions Cette thèse présente des contributions à la vérification et à la validation à base de modèles. Notre contribution dans le cadre de la vérification, consiste à définir deux nouvelles techniques d’approximation pour le model-checking régulier, dans le but de fournir des (semi-)algorithmes efficaces. On calcule des sur-approximations de l’ensemble des états accessibles, avec l’objectif d’assurer la terminaison de l’exploration de l’espace d’états. L’ensemble des états accessibles (ou les sur-approximations de cet ensemble) est représenté par un langage régulier, lui même codé par un automate fini. La première technique consiste à sur-approximer l’ensemble des états atteignables en fusionnant des états des automates, en fonction de critères syntaxiques simples, ou d’une combinaison de ces critères (cf. section 4). La seconde technique d’approximation consiste aussi à fusionner des états des automates, mais cette fois-ci à l’aide d’un transducteur (cf. section 5.2). De plus, pour cette seconde technique, nous développons une nouvelle approche pour raffiner les approximations (cf. section 5.3), qui s’inspire du paradigme CEGAR (cf. section 3.4). Ces deux techniques d’approximation pour le model-checking régulier ont été publiées dans [DHK13a]. Pour le test, notre contribution est la définition d’une technique qui permet de combiner la génération aléatoire avec un critère de couverture, à partir d’une grammaire algébrique ou d’un automate à pile. Dans [DGG+12], il est expliqué comment biaiser une approche de test aléatoire uniforme dans un graphe fini, en utilisant des contraintes données par un critère de couverture, afin d’optimiser la probabilité de satisfaire ce critère. Mais un graphe fini représente souvent une abstraction forte du système sous test, il y a donc un risque que de nombreux tests abstraits ne soient pas concrétisables (c’est-à-dire jouables sur l’implémentation). Nous avons enrichi cette approche afin de l’appliquer sur des modèles algébriques (des grammaires algébriques dans le chapitre 8, et des automates à pile dans le chapitre 9), ce qui permet de réduire le degré d’abstraction du modèle et donc de générer moins de tests non concrétisables. Notre technique qui permet de combiner la gé- nération aléatoire avec un critère de couverture à partir d’une grammaire algébrique a été publiée dans [DHK13b], et celle sur les automates à pile a été publiée dans [DHKM14]. 1.3/ Plan Dans le chapitre 2, nous introduisons toutes les définitions, notations, propositions et théorèmes indispensables à la lecture de cette thèse. Nous présentons tout d’abord les notions relatives aux automates et langages réguliers, puis les notions relatives aux grammaires algébriques et aux automates à pile. La partie II présente nos contributions dans le domaine de la vérification : Le chapitre 3 introduit le model-checking régulier et le raffinement d’approximations. Dans le chapitre 4, nous présentons une technique pour le model-checking régulier, qui consiste à sur-approximer l’ensemble des états atteignables en fusionnant des états des automates, en fonction de critères syntaxiques simples, ou d’une combinaison de ces critères. Le chapitre 5 présente une technique utilisant un nouveau critère de fusion, qui exploite la relation de transition du système. La partie III présente nos contributions dans le domaine du test : Le chapitre 7 présente le contexte de nos travaux. Nous combinons ensuite de la génération aléatoire avec un critère de couverture, dans une grammaire (chapitre 8), puis dans un automate à pile (chapitre 9).PARTIE I. Introduction - CHAPITRE 1. PROLOGUE 19 1.4/ Publications Cette thèse s’appuie sur des travaux ayant fait l’objet de publications. Voici une liste de celles auxquelles j’ai participé : [DHK13a] contient deux méthodes de model-checking régulier : La première méthode utilise des critères syntaxiques que l’on peut combiner avec des opérateurs logiques (cf. chapitre 4), et la seconde exploite la relation de transition du système (cf. chapitre 5). [DHK13b] expose notre méthode pour combiner de la génération aléatoire avec un critère de couverture, dans le cadre du test à partir d’une grammaire (cf. chapitre 8). [DHKM14] détaille comment combiner de la génération aléatoire avec un critère de couverture, à partir d’un automate à pile (cf. chapitre 9).2 Preliminaires th ´ eoriques et notations ´ Cette section présente les notations et définitions nécessaires à la compréhension du document. 2.1/ Automates et langages reguliers ´ 2.1.1/ Mots et langages Un alphabet est un ensemble fini d’éléments appelés lettres. Un mot u sur un alphabet Σ est une juxtaposition de lettres de Σ. Le nombre de lettres de u (comptées avec multiplicité) est appelé longueur de u. L’ensemble des mots sur un alphabet Σ est noté Σ ∗ . On appelle langage sur un alphabet Σ tout sous-ensemble de Σ ∗ . Le mot vide (le mot de longueur nulle) est noté ε. L’ensemble Σ ∗ \ {ε} est noté Σ + . 2.1.2/ Automates finis et expressions reguli ´ eres ` Un automate fini A sur un alphabet Σ est un 5-uplet (Q, Σ, E, I, F) où : — Q est l’ensemble fini des états, — E ⊆ Q × Σ × Q est l’ensemble fini des transitions, — I ⊆ Q est l’ensemble fini des états initiaux, — F ⊆ Q est l’ensemble fini des états finaux. Dans le cadre de nos recherches nous avons uniquement travaillé sur des automates finis, l’utilisation par la suite du terme "automate" désignera donc un automate fini. Le terme "automate fini" est abrégé en NFA, pour l’anglais Nondeterministic Finite Automaton. On définit la taille de A par |A| = |Q| + |E|. Un automate est déterministe si I est un singleton et pour tout (p, a) ∈ Q × Σ il existe au plus un q ∈ Q tel que (p, a, q) ∈ E. Le terme "automate déterministe" est abrégé en DFA, pour l’anglais Deterministic Finite Automaton. Un automate est complet si pour tout (p, a) ∈ Q × Σ il existe au moins un q ∈ Q tel que (p, a, q) ∈ E. Pour une transition de la forme (p, a, q), p est l’état de départ, a est l’étiquette, et q est l’état d’arrivée. Deux transitions (p1, a1, q1) et (p2, a2, q2) sont dites consécutives si q1 = p2. Un chemin de A est une suite finie (éventuellement vide) de transitions (p1, a1, q1) . . . (pn, an, qn) consécutives. Le nombre entier n est la longueur du chemin, et le mot a1 . . . an est son étiquette. On dit qu’un chemin est réussi lorsque p1 est un état initial, et qn un état final. Un mot u est reconnu par A si u est l’étiquette d’un chemin réussi de A. On appelle langage reconnu par A l’ensemble des mots reconnus par l’automate A, et on le note L(A). Si A est déterministe et complet, pour tout état p et tout mot u, il existe un unique état de A, noté p ·A u accessible en lisant à partir de l’état p, un chemin étiqueté par u. S’il n’y a pas d’ambiguïté sur l’automate A, on écrit plus simplement p · u. Par convention, soit ε le mot vide, p · ε = p. Un état p est accessible s’il existe un chemin d’un état initial vers p, et co-accessible s’il existe unPARTIE I. Introduction - CHAPITRE 2. PRÉLIMINAIRES THÉORIQUES ET NO . . . 22 chemin de p vers un état final. Un automate dont les états sont tous accessibles et co-accessibles est dit élagué. Si A n’est pas élagué, supprimer tous ses états qui ne sont pas à la fois accessibles et co-accessibles, ainsi que toutes les transitions liées, produit un automate élagué qui reconnaît le même langage. Dans les figures, les automates sont généralement donnés sous forme élaguée afin d’en faciliter la compréhension. Une expression régulière sur un alphabet Σ est une expression reg définie par la grammaire suivante : reg := B | (reg ∪ reg) | (reg · reg) | reg∗ , où B est un ensemble fini de mots. Par exemple ({ab, b} ∗ ∪({aa}· {a} ∗ )) est une expression régulière sur {a, b}. Pour simplifier, si u est un mot et reg une expression régulière, les expressions du type {u} ∗ , {u} · L et L · {u} sont respectivement écrites u ∗ , u · L (ou même uL) et L · {u} (et même Lu). De plus, on omet parfois les parenthèses, l’étoile étant prioritaire sur le produit, lui-même prioritaire sur l’union. L’expression ({ab, b} ∗∪({aa}·{a} ∗ )) sera simplement notée {ab, b} ∗∪aaa∗ . On confondra dans la suite une expression régulière avec le langage qu’elle reconnaît, la sémantique étant naturellement celle de l’union, produit et de l’étoile sur les langages. Exemple 2.1. La figure 2.1 et la figure 2.2 représentent Aex et Aex2, qui sont deux exemples d’automates finis. L’automate Aex (figure 2.1) reconnaît les mots de la forme a∗ba, ou a∗bb, ou a ∗bba, ou a∗bbc. L’automate Aex2 = (Qex2, Σex2, Eex2, Iex2, Fex2) (figure 2.2) reconnaît les mots de la forme b∗ c, et on a Qex2 = {1, 2}, Σex2 = {b, c}, Eex2 = {(1, b, 1), (1, c, 2)}, Iex2 = {1} et Fex2 = {2}. 1 2 3 a b b 4 a a, c Aex Figure 2.1 – Aex (Exemple d’automate) 1 2 b c Figure 2.2 – Aex2 (Deuxième exemple d’automate) Définition 2.1. Langage régulier Un langage est dit régulier s’il appartient à la plus petite famille de langages contenant les langages finis et close par union, produit et étoile.PARTIE I. Introduction - CHAPITRE 2. PRÉLIMINAIRES THÉORIQUES ET NO . . . 23 D’après le théorème de Kleene, un langage est régulier si et seulement s’il est reconnu par un automate fini. De plus, un langage est régulier si et seulement s’il est exprimable par une expression régulière. Il faut aussi noter que l’on peut montrer que l’ensemble des langages réguliers sur un alphabet donné est clos par intersection et complément. Définition 2.2. Problème régulier Un problème est dit régulier s’il est représentable avec uniquement des langages réguliers. 2.1.3/ Produit d’automates Le produit de deux automates, A1 = (Q1, Σ1, E1, I1, F1) et A2 = (Q2, Σ2, E2, I2, F2), noté A1×A2, est l’automate (Q, Σ, E, I, F) où : — Q = Q1 × Q2, — Σ = Σ1 T Σ2, — E = {((p1, p2), a, (q1, q2)) | ∃a ∈ Σ1 T Σ2, (p1, a, q1) ∈ E1, (p2, a, q2) ∈ E2}, — I = I1 × I2, — F = F1 × F2. Intuitivement, l’ensemble des chemins de A1 × A2 est composé des chemins qui existent à la fois dans A1 et dans A2 (au nom des états près). Il reconnaît les mots qui font à la fois partie du langage de A1 et du langage de A2. L(A1 × A2) = L(A1) T L(A2). Exemple 2.2. La figure 2.3 représente deux automates A1 et A2 ainsi que leur produit, notée A1 × A2. 1 2 a a, b b (a) A1 4 3 a b b a (b) A2 1, 4 2, 4 1, 3 2, 3 a a b a b b b a (c) A1 × A2 Figure 2.3 – A1 × A2 Exemple 2.3. L’automate Aex reconnaît les mots de la forme a∗ba, ou a∗bb, ou a∗bba, ou a∗bbc, et Aex2 reconnaît les mots de la forme b∗ c. Le produit Aex ×Aex2 de ces deux automates reconnaît donc le mot bbc. La figure 2.4 représente la version élaguée de l’automate Aex × Aex2 (c’est-à- dire qu’on a enlevé les états qui ne sont pas atteignables à partir d’un état initial, et les états qui n’atteignent aucun état final). 2.1.4/ Isomorphisme d’automates Deux automates A1 = (Q1, Σ, E1, I1, F1) et A2 = (Q2, Σ, E2, I2, F2) sont isomorphes s’il existe une bijection f : Q1 → Q2 qui satisfait (p, a, q) ∈ E1 si et seulement si (f(p), a, f(q)) ∈ E2, et f(I1) = I2, f(F1) = F2.PARTIE I. Introduction - CHAPITRE 2. PRÉLIMINAIRES THÉORIQUES ET NO . . . 24 1 2 3 a b b 4 a a, c Aex 1 2 b c Aex2 1, 1 2, 1 3, 1 4, 2 b b c Aex × Aex2 Figure 2.4 – Aex × Aex2 Autrement dit, deux automates sont isomorphes s’ils sont identiques à un renommage des états près. Exemple 2.4. La figure 2.5 représente deux automates isomorphes : Aex et A 0 ex. La bijection f : Qex → Q 0 ex est la suivante : f(1) = 0, f(2) = 2, f(3) = 1, f(4) = 3. 1 2 3 a b b 4 a a, c Aex 0 2 1 a b b 3 a a, c A 0 ex Figure 2.5 – Automates isomorphes 2.1.5/ Reduction d ´ ’un automate Soient A un automate, Aˆ = (Qˆ, Σ, Eˆ, ˆI, Fˆ) l’automate élagué obtenu à partir de A, et ∼⊆ Q × Q une relation d’équivalence. On note A/∼ l’automate (Qˆ/∼, Σ, E 0 , I 0 , F 0 ) où E 0 = {( ˜p, a, q˜) | ∃p ∈ p˜ et ∃q ∈ q˜ tels que (p, a, q) ∈ Eˆ}, I 0 = {p˜ | ∃p ∈ p˜ T ˆI}, et F 0 = {p˜ | ∃p ∈ p˜ T Fˆ}. Intuitivement, l’automate A/∼ est obtenu en regroupant les états de chaque classe d’équivalence de la version élaguée de A. Il est trivial que L(A) ⊆ L(A/∼). La notion de réduction d’automate peut également être étendue à toutes les relations : si ∼ est une relation sur Q alors A/∼ est l’automate A/∼, où ∼ est la fermeture réflexive, symétrique et transitive de ∼. Exemple 2.5. Soit ∼ une relation sur Q définie comme ceci : soit p et q deux états de A, p∼q si et seulement s’il existe dans A une transition qui va de p vers q et qui a pour étiquette la lettrePARTIE I. Introduction - CHAPITRE 2. PRÉLIMINAIRES THÉORIQUES ET NO . . . 25 c. Pour Aex on a 3∼4. La relation ∼ n’étant pas une relation d’équivalence, Aex/∼ est l’automate Aex/∼ tel que ∼ est la fermeture réflexive, symétrique, et transitive de ∼. On obtient cet automate en fusionnant l’état 3 avec l’état 4, qui font partie d’une même classe d’équivalence (cf. figure 2.6). 1 2 3 a b b 4 a a, c Aex 1 2 3, 4 a b b, a a, c Aex/∼ Figure 2.6 – Aex/∼ Exemple 2.6. D’après l’automate T(A1) (cf. figure 2.11) et la relation ∼exe dont les classes sont {(1, 4), (2, 4), (1, 3)} et {(2, 3)}, l’automate T(A1)/∼exe est représenté sur la Fig. 2.7. 1, 4 2, 4 1, 3 2, 3 b b a b a a a b (a) T(A1) 1,4 2,4 1,3 2,3 b a a, b (b) T(A1)/∼exe Figure 2.7 – T(A1)/∼exe Définition 2.3. Fonction d’approximation Une fonction d’approximation F est une fonction qui associe à tout automate A, une relation ∼ A F sur les états de A. L’automate A/∼ A F sera noté F(A). On défini inductivement F n (A) par F 0 (A) = A, et F n (A) = F(F n−1 (A)) pour n > 0. La fonction d’approximation F est isomorphisme-compatible si pour toute paire d’automates isomorphes A1, A2, et pour tout isomorphisme ϕ de A1 vers A2, p ∼ A1 F q si et seulement si ϕ(p) ∼ A2 F ϕ(q). Intuitivement, cela signifie que pour être isomorphisme-compatible, une fonction d’approximation ne doit pas dépendre du nom des états. Exemple 2.7. Soit In la fonction d’approximation qui associe à tout automate A, la relation ∼ A In sur les états de A telle que, soient p et q deux états de A, p ∼ A In q si et seulement si l’ensemblePARTIE I. Introduction - CHAPITRE 2. PRÉLIMINAIRES THÉORIQUES ET NO . . . 26 des étiquettes des transitions qui arrivent sur l’état p est égal à l’ensemble des étiquettes des transitions qui arrivent sur l’état q. Dans l’automate Aex de la figure 2.8, 2 ∼ Aex In 3 car l’ensemble des étiquettes des transitions qui arrivent sur l’état 2 est égal à l’ensemble des étiquettes des transitions qui arrivent sur l’état 3 (qui est égal à {b}). Pour obtenir l’automate In(Aex), on fusionne donc l’état 2 et l’état 3 de l’automate Aex (cf. figure 2.8). 1 2 3 a b b 4 a a, c Aex 1 2, 3 a b b 4 a, c In(Aex) Figure 2.8 – In(Aex) 2.1.6/ Transducteurs lettre a lettre finis ` Un transducteur lettre à lettre fini T est un automate fini dont l’alphabet Σ est de la forme Σe × Σs , où Σe est appelé alphabet d’entrée et Σs est appelé alphabet de sortie. On notera les étiquettes (ae, as) sous la forme ae|as . L’étiquette d’un chemin ae1|as1 . . . aen|asn s’écrira sous la forme d’un couple (ae1 . . . aen, as1 . . . asn). Tout transducteur T sur Σe × Σs induit une relation RT sur Σ ∗ e × Σ ∗ s définie par : pour tous aei ∈ Σe et as j ∈ Σs , (ae1 . . . aen, as1 . . . asm) ∈ RT si et seulement si n = m et le mot (ae1, as1) . . . (aen, asn) est reconnu par T. Pour tout langage I, RT (I) est l’ensemble des mots v tels qu’il existe un mot u dans I, et (u, v) ∈ RT . La clôture réflexive et transitive de RT est notée R ∗ T . La notion de transducteur est dans la littérature plus générale que la définition donnée ici. Mais comme nous n’utiliserons que des transducteurs lettre à lettre, l’utilisation dans la suite du document du terme transducteur désignera un transducteur lettre à lettre fini. Exemple 2.8. La figure 2.9 représente Tex, qui est un exemple de transducteur. Soit Tex = (Qex, Σeex × Σsex, Eex, Iex, Fex), on a Qex = {1, 2, 3}, Σeex = {a, b}, Σsex = {a, b}, Eex = {(1, a|a, 1), (1, b|b, 1), (1, b|a, 2), (2, a|b, 3), (3, a|a, 3), (3, b|b, 3)}, Iex = {1} et Fex = {1, 3}. 1 2 3 a|a, b|b a|a, b|b b|a a|b Tex Figure 2.9 – Tex (Exemple de transducteur)PARTIE I. Introduction - CHAPITRE 2. PRÉLIMINAIRES THÉORIQUES ET NO . . . 27 2.1.7/ Appliquer un transducteur a un automate ` Soit A = (QA, ΣA, EA, IA, FA) un automate, et T = (QT , ΣeT ×ΣsT , ET , IT , FT ) un transducteur, T(A) est l’automate (Q, Σ, E, I, F) défini par : — Q = QA × QT , — Σ = ΣsT , — E = {(pA, pT ), b, (qA, qT ) | ∃a ∈ ΣA T ΣeT et ∃b ∈ ΣsT tels que (pA, a, qA) ∈ EA et (pT , a|b, qT ) ∈ ET }, — I = IA × IT , — F = FA × FT . Intuitivement, l’application d’un transducteur T à un automate A ressemble beaucoup à un produit d’automates. Sauf qu’on utilise l’alphabet d’entrée du transducteur pour trouver les chemins en commun, mais qu’on remplace ensuite la lettre d’entrée par la lettre de sortie correspondante. Par définition, L(T(A)) est l’ensemble des mots v qui satisfont (u, v) ∈ RT avec u ∈ L(A). Si T = (QT , ΣeT × ΣsT , ET , IT , FT ) est un transducteur, on note T −1 le transducteur (QT , ΣsT × ΣeT , E 0 T , IT , FT ) avec E 0 T = {(p, (b, a), q) | (p, (a, b), q) ∈ ET }. On peut démontrer que (u, v) ∈ RT si et seulement si (v, u) ∈ RT−1 . Exemple 2.9. T ex(Aex) L’automate Aex reconnaît les mots de la forme a∗ba, a ∗bb, a∗bba et a∗bbc, et le transducteur Tex reconnaît les mots de la forme [(a|a) ∪ (b|b)]∗ (b|a)(a|b)[(a|a) ∪ (b|b)]∗ . L’application Tex(Aex) du transducteur Tex à l’automate Aex reconnaît donc les mots de la forme a∗ab, a∗bab, a∗ba, a∗bb, et a∗bba. La figure 2.10 représente une version élaguée de l’automate Tex(Aex) (c’est-à-dire qu’on a enlevé les états qui ne sont pas atteignables à partir d’un état initial, et les états qui n’atteignent aucun état final). 1 2 3 a b b 4 a a, c Aex 1 2 3 a|a, b|b a|a, b|b b|a a|b Tex 1, 1 2, 1 3, 1 a b b 2, 2 a 3, 2 a 4, 3 b b 4, 1 a a Tex(Aex) Figure 2.10 – Tex(Aex) Exemple 2.10. T (A1) D’après le transducteur T et l’automate A1 (cf. figure 2.11), T(A1) est représenté sur la figure 2.11. Exemple 2.11. Token ringPARTIE I. Introduction - CHAPITRE 2. PRÉLIMINAIRES THÉORIQUES ET NO . . . 28 1 2 a a, b b (a) A1 4 3 a|b b|a b|a a|b (b) T 1, 4 2, 4 1, 3 2, 3 b b a b a a a b (c) T(A1) Figure 2.11 – T(A1) 1 2 b a (a) Atr 3 4 a|b a|a, b|b b|a (b) Ttr 1, 4 1, 3 2, 3 b a b a (c) Atr1=Ttr(Atr) après élagage Figure 2.12 – Token ring 2.1.8/ Appliquer un transducteur a un langage ` Soit T = (Q, Σe × Σs , E, I, F) un transducteur et K un langage, l’application de T à K donne un langage T(K) = {v ∈ Σ ∗ s |∃u ∈ K, (u, v) ∈ L(T)} (avec la convention (a|b)(c|d) = (ac, bd)). Proposition 2.12 Soit A un automate et T un transducteur, T(L(A)) = L(T(A)) L’application d’un transducteur à un automate et l’application d’un transducteur à un langage sont deux opérations étroitement liées. Il est connu que l’application d’un transducteur T au langage reconnu par un automate A donnera comme résultat le langage reconnu par T(A). 2.2/ Grammaires algebriques et automates ´ a pile ` 2.2.1/ Grammaires algebriques ´ Une grammaire algébrique – appelée aussi parfois grammaire non contextuelle ou encore grammaire hors contexte – est un 4-uplet G = (Σ, Γ, S 0, R), où : — Σ et Γ sont des alphabets finis disjoints, — S 0 ∈ Γ est le symbole initial, — R est un sous-ensemble fini de Γ × (Σ ∪ Γ) ∗ .PARTIE I. Introduction - CHAPITRE 2. PRÉLIMINAIRES THÉORIQUES ET NO . . . 29 Les éléments de Σ sont appelés symboles terminaux, et les éléments de Γ sont appelés symboles non-terminaux. Un élément (X, u) de R est appelé une règle de la grammaire et est fréquemment noté X → u. Un mot u1 ∈ (Σ ∪ Γ) ∗ est un successeur de u0 ∈ (Σ ∪ Γ) ∗ dans la grammaire G s’il existe v ∈ Σ ∗ , w, x ∈ (Σ ∪ Γ) ∗ , S ∈ Γ tels que u0 = vS w et u1 = vxw et S → x ∈ R. Une dérivation complète 1 de la grammaire G est une séquence finie u0, . . . , uk de mots de (Σ∪Γ) ∗ telle que u0 = S 0, uk ∈ Σ ∗ et pour tout i, ui+1 est un successeur de ui . Un arbre de dérivation de G est un arbre fini dont les nœuds internes sont étiquetés par des lettres de Γ, dont les feuilles sont étiquetées par des éléments de Σ ∪ {ε}, dont la racine est étiquetée par S 0 et qui satisfait : si un nœud est étiqueté par X ∈ Γ et si ses fils sont étiquetés par α1, . . . , αk (dans cet ordre), alors (X, α1 . . . αk) ∈ R et soit α1 = ε et k = 1, soit tous les αi’s sont dans Γ ∪ Σ. La taille d’un arbre de dérivation est donnée par le nombre de nœuds de l’arbre. Notons qu’il existe une bijection entre l’ensemble des dérivations complètes d’une grammaire et l’ensemble des arbres de dérivations de cette grammaire. Pour une grammaire algébrique G, En(G) représente l’ensemble des arbres de dérivation de G composés de n nœuds. On dit qu’un arbre de dérivation couvre un élément X de Γ si au moins un de ses nœuds est étiqueté par X. Et on dit qu’un arbre de dérivation couvre une règle X → u de R si cette règle est utilisée dans la dérivation complète correspondante. Exemple 2.13. Grammaire algébrique Soit la grammaire G = ({a, b}, {S, T}, S, R), avec R = {S → T b, S → aS b, T → ε}). La séquence S, aS b, aT bb, abb est une dérivation complète de la grammaire. L’arbre de dérivation associé à cette séquence est représenté dans la figure 2.13. On peut y voir que les éléments S et T ainsi que la règle S → aS b sont couverts, puisqu’ils apparaissent dans l’arbre de dérivation. S S a b b T ε Figure 2.13 – Arbre de dérivation correspondant à la séquence S, aS b, aT bb, abb 2.2.2/ Automates a pile ` Un automate à pile est un 6-uplet A = (Q, Σ, Γ, δ, qinit, F) où : — Q est l’ensemble fini des états, — Σ (alphabet d’entrée) et Γ (alphabet de la pile) sont des alphabets finis disjoints tels que ε < Σ et ⊥ ∈ Γ, — qinit ∈ Q est l’état initial, — F est l’ensemble des états finaux, — δ est une fonction partielle de Q × (Σ ∪ {ε}) × Γ vers Q × Γ ∗ telle que pour tout q ∈ Q, pour tout X ∈ Γ \ {⊥}, et pour tout a ∈ Σ ∪ {ε} : — si δ(q, a, X) = (p,w) alors w ∈ (Γ \ {⊥}) ∗ , — si δ(q, a, ⊥) = (p,w) alors w = ⊥w 0 avec w 0 ∈ (Γ \ {⊥}) ∗ . La lettre ⊥ est appelée le symbole de pile vide, ou encore le fond de la pile. Le terme "automate à pile" est abrégé en PDA, pour l’anglais PushDown Automaton. Une configuration d’un PDA est un élément de Q × {⊥}(Γ \ {⊥}) ∗ , c’est-à-dire une paire dont le premier élément est dans Q, et le second élément est un mot qui commence par ⊥ et dont aucune des autres lettres n’est ⊥. Intuitivement, la seconde partie encode la valeur courante de la pile. La configuration initiale est 1. Comme v ∈ Σ ∗ , cette dérivation est une dérivation gauche.PARTIE I. Introduction - CHAPITRE 2. PRÉLIMINAIRES THÉORIQUES ET NO . . . 30 (qinit, ⊥). Deux configurations (q, ⊥u) et (p, ⊥v) sont a-consécutives, avec a ∈ Σ ∪ {ε}, si u = ε et δ(q, a, ⊥) = (p, ⊥v), ou si u est de la forme u0X avec X ∈ Γ \ {⊥} et qu’il existe w ∈ Γ ∗ tel que δ(q, a, X) = (p,w) et v = u0w. 0 1 2 5 4 6 7 9 8 10 a b c e push(S ) pop(S ) pop(S ) pop(S ) g h i j Figure 2.14 – Apower, exemple de NPDA Une PDA-trace de longueur n dans un PDA est une séquence C1a1C2a2 . . .CnanCn+1 où les Ci’s sont des configurations, les ai’s sont dans Σ ∪ {ε} et tels que C1 est la configuration initiale, pour tout i, Ci et Ci+1 sont ai-consécutives, et Cn+1 est de la forme (p, ⊥) avec p ∈ F. Un automate à pile normalisé – abrégé en NPDA, pour l’anglais Normalised PushDown Automaton – est un PDA tel que pour tout état q, pour tout a ∈ Σ ∪ {ε}, et pour tout X ∈ Γ, si δ(q, a, X) = (p,w) alors on se trouve dans l’un des cas suivants : (i) a = ε et w = ε, ou (ii) a = ε et w est de la forme w = XY avec Y ∈ Γ, ou (iii) a , ε et w = X. Il faut également que si δ(q, ε, X) = (p, XY), alors pour tout Z ∈ Γ, δ(q, ε, Z) = (p, ZY) – c’est-à- dire qu’une transition qui ajoute un élément au sommet de la pile peut être déclenchée indépendamment de l’état de la pile –, et que si δ(q, a, X) = (p, X), alors pour tout Z ∈ Γ, δ(q, a, Z) = (p, Z) – c’est-à-dire qu’une transition qui lit une lettre en entrée peut également être déclenchée indépendamment de l’état de la pile –. 2 Intuitivement, le cas (i) correspond à l’action de dépilement (pop) – c’est-à-dire retirer l’élément au sommet de la pile –, le cas (ii) correspond à l’action d’empilement (push) – c’est-à-dire ajouter un élément au sommet de la pile –, et le cas (iii) correspond à l’action de lecture (read) – c’est- à-dire consommer l’élément suivant de l’entrée (sans modifier la pile) –. L’automate sous-jacent d’un NPDA A = (Q, Σ, Γ, δ, qinit, F) est l’automate (Q, Σ ∪ {pop(X), push(X) | X ∈ Γ}, µ, qinit, F), où l’ensemble des transitions µ est défini par : (i) δ(q, ε, X) = (p, ε) si et seulement si µ(q, pop(X)) = p, (ii) δ(q, ε, X) = (p, XY) si et seulement si µ(q, push(Y)) = p, (iii) δ(q, a, X) = (p, X) si et seulement si µ(q, a) = p. Une NPDA-trace est une PDA-trace dans un NPDA. Les définitions ci-dessus peuvent être illustrées par le NPDA de la figure 2.14, qui correspond au graphe à droite de la figure 7.10. Pour cet automate Q = {0, . . . , 10}, Σ = {a, b, c, e, g, h, i, j}, Γ = {⊥, S }, qinit = 0, F = {4, 8, 10} et δ est 2. Ces conditions ne réduisent pas le pouvoir d’expression puisqu’il est possible d’encoder toute transition de la forme δ(q, ε, X) = (p, XY) qui requiert un X au sommet de la pile pour être déclenchée, par δ(q, ε, X) = (qnew1, ε) et pour tout Z ∈ Γ, δ(qnew1, ε, Z) = (qnew2, ZX) et δ(qnew2, ε, Z) = (p, ZY). Il en est de même pour toute transition de la forme δ(q, a, X) = (p, X) qui requiert un X au sommet de la pile pour être déclenchée, qui peut être encodée par δ(q, ε, X) = (qnew1, ε) et pour tout Z ∈ Γ, δ(qnew1, ε, Z) = (qnew2, ZX) et δ(qnew2, a, Z) = (p, Z).PARTIE I. Introduction - CHAPITRE 2. PRÉLIMINAIRES THÉORIQUES ET NO . . . 31 défini par les flèches : pour une arête de la forme (q, a, p) avec a ∈ Σ, alors on a δ(q, a, ⊥) = (p, ⊥) et δ(q, a, S ) = (p, S ) ; pour une arête de la forme (q, pop(S ), p) alors δ(q, ε, S ) = (p, ε) ; pour une arête de la forme (q, push(S ), p) alors δ(q, ε, ⊥) = (p, ⊥S ) et δ(q, ε, S ) = (p, S S ). La séquence (0, ⊥)a(1, ⊥)c(5, ⊥)ε(0, ⊥S )a(1, ⊥S )c(5, ⊥)ε(0, ⊥S S )a(1, ⊥S S )b(2, ⊥S S ) e(4, ⊥S S )ε(6, ⊥S )h(9, ⊥S )j(10, ⊥S )ε(6, ⊥)g(7, ⊥)i(8, ⊥) est une NPDA-trace dans le NPDA. Cette trace correspond à l’exécution de power(3,2), que l’on a détaillée dans l’exemple 7.3. Notons que chaque paire (q,w) signifie que le système est dans l’état q et que la pile d’appels est w. Par exemple, (2, ⊥S S ) signifie que le système est dans l’état 2 et qu’il y a deux appels non terminés à la fonction power. Chaque NPDA-trace d’un NPDA est associée à une DFA-trace dans l’automate sousjacent selon la projection suivante : la NPDA-trace C1a1 . . . anCn est associée au chemin (q1, a1, q2) . . . (qn−1, an, qn), où les Ci’s sont de la forme (qi ,wi). Par exemple, la DFA-trace associée à la NPDA-trace ci-dessus est (0, a, 1)(1, c, 5)(5, ε, 0) . . . (6, g, 7)(7, i, 8). Cette projection est notée proj et est injective. Son image forme un sous-ensemble de DFA-traces, appelées DFA-traces cohérentes de l’automate sous-jacent, qui est en bijection avec l’ensemble des NPDA-traces. 2.2.3/ Gen´ eration al ´ eatoire uniforme d ´ ’un arbre de derivation dans une grammaire ´ Le problème de la génération aléatoire uniforme sur les grammaires peut s’écrire ainsi : Problème 2.14. Génération aléatoire d’un arbre de dérivation dans une grammaire Entrée : Une grammaire algébrique G, un nombre entier positif n Question : Générer aléatoirement avec une distribution uniforme, des arbres de dérivation de G de taille n ? Nous allons expliquer ici comment résoudre ce problème en utilisant des techniques combinatoires bien connues [FS08]. Notons que des techniques plus avancées permettent un calcul plus rapide, comme dans [DZ99]. Pour faciliter la compréhension, on utilise habituellement des lettres majuscules pour nommer les symboles non-terminaux Soit une grammaire algébrique G = (Σ, Γ, S 0, R), un symbole nonterminal X de Γ, et un entier positif i, le nombre d’arbres de dérivation de taille i généré par (Σ, Γ, X, R) est noté x(i) – c’est-à-dire qu’on utilise la lettre minuscule correspondante au symbole initial –. Soit un nombre entier positif n, pour tout symbole S ∈ Γ, on peut calculer la séquence d’entiers positifs s(1), . . . , s(k), . . .. Le calcul récursif de ces s(i) est le suivant : Pour tout entier strictement positif k et toute règle r = (S,w1S 1 . . . wnS nwn+1) ∈ R, avec wj ∈ Σ ∗ et S i ∈ Γ, on pose    βr = 1 + Pn+1 i=1 |wi |, αr(k) = P i1+i2+...+in=k−βr Qj=n j=1 sj(ij) si n , 0, αr(k) = 0 si n = 0 et k , βr , αr(βr) = 1 si n = 0. Il est connu que s(k) = P r∈R∩(S×(Σ∪Γ) ∗ ) αr(k) (cf. [FS08, Théorème I.1]). Par hypothèse, il n’y a pas de règle de la forme (S, T) dans R avec S, T ∈ Γ, donc tous les ij dans la définition de αr sont strictement inférieurs à k. Les s(i) peuvent donc être calculés récursivement.PARTIE I. Introduction - CHAPITRE 2. PRÉLIMINAIRES THÉORIQUES ET NO . . . 32 Considérons par exemple la grammaire ({a, b}, {X}, X, {r1,r2,r3}) avec r1 = (X, XX) r2 = (X, a) et r3 = (X, b). On a βr1 = 1 + 0 = 1, βr2 = 1 + 1 = 2, βr3 = 1 + 1 = 2. Donc x(k) = P i+j=k−1 x(i)x(j) si k , 2, et x(2) = 1 + 1 + P i+j=2−1 x(i)x(j) = 2, sinon. Par conséquent, x(1) = 0, x(2) = 2, x(3) = x(1)x(1) = 0, x(4) = x(1)x(2) + x(2)x(1) = 0, x(5) = x(2)x(2) = 4, etc. . .. Les deux arbres de dérivation de taille 2 sont X | a et X | b . Les quatre arbres de dérivation de taille 5 sont les arbres de la forme X /\ Z1 Z2 , où Z1 et Z2 sont des arbres de dérivation de taille 2. Pour générer des arbres de dérivation de taille n, on doit calculer tous les s(i), pour S ∈ Γ et i ≤ n, avec la méthode ci-dessus. Ce calcul peut être effectué en un temps polynomial. Ensuite, la génération aléatoire consiste à appliquer récursivement l’algorithme décrit dans la figure 2.15. Génération aléatoire Entrée : une grammaire algébrique G = (Σ, Γ, X, R), un nombre entier strictement positif n. Sortie : un arbre de dérivation t de G, de taille n. Algorithme : 1. Soit {r1,r2, . . . ,r`} l’ensemble des éléments de R dont le premier élément est X. 2. Si Pj=` j=1 αrj (n) = 0, alors retourner “Exception”. 3. Choisir i ∈ {1, . . . , `} avec une probabilité Prob(i = j) = αr i (n) Pj=` j=1 αr j (n) . 4. ri = (X, Z1 . . . Zk), avec Zj ∈ Σ ∪ Γ. 5. Le symbole racine de t est X. 6. Les fils de t sont Z1, . . . , Zk dans cet ordre. 7. {i1, . . . , im} = {j | Zj ∈ Γ}. 8. Choisir (x1, . . . , xm) ∈ N m tel que x1 + . . . + xm = n − βri avec une probabilité Prob(x1 = `1, . . . , xm = `m) = Qj=m j=1 zij (` j) αri (n) . 9. Pour tout ij , le ij-ème sous-arbre de T est obtenu en appliquant l’algorithme Génération aléatoire sur (Σ, Γ, Zij , R) et ` j . 10. Retourner t. Figure 2.15 – Algorithme Génération aléatoire Il est connu [FS08] que cet algorithme produit une génération uniforme d’arbres de dérivations de taille n – c’est-à-dire que chaque arbre de dérivation a la même probabilité d’être généré –. Notons qu’une exception est renvoyée à l’étape 2 s’il n’y a aucun élément de la taille donnée. Pour l’exemple présenté précédemment, il n’y a pas d’élément de taille 3, il n’est donc pas possible de générer un arbre de dérivation de taille 3. En exécutant l’algorithme sur cet exemple avec n = 2, à l’étape 1 on considère l’ensemble {r1,r2,r3} puisque toutes ces règles ont X comme élément gauche. Comme αr1 (2) = 0, αr2 (2) = 1, αr3 (2) = 1, à l’étape 3 la probabilité que i = 1 est 0, la probabilité que i = 2 est 1/2 et la probabilité que i = 3 est 1/2. Si la valeur i = 2 est choisie, l’arbre généré a X comme symbole racine et a comme unique fils. L’exécution de l’algorithme avec n = 3 s’arrête à l’étape 2 puisqu’il n’y a pas d’arbre de taille 3. En exécutant l’algorithme sur cet exemple avec n = 5, à l’étape 1 on considère l’ensemble {r1,r2,r3}. Comme αr1 (5) = 4, αr2 (5) = 0, αr3 (5) = 0, la valeur i = 1 est choisie avec une probabilité 1. Par conséquent, l’arbre a X comme symbole racine, et ses deux fils sont étiquetés par X. C’est pourquoi à l’étape 7, l’ensemble considéré est {1, 2}. A l’étape 8, on a n − βr1 = 5 − 1 = 4. La probabilité que i1 = 1 et i2 = 3 est 0 car x(1) = 0. De même, la probabilité que i1 = 3 et i2 = 1 est aussi 0. La probabilité que i1 = 2 etPARTIE I. Introduction - CHAPITRE 2. PRÉLIMINAIRES THÉORIQUES ET NO . . . 33 ΣG ={(0, a, 1), (1, c, 5), (5, push(S ), 0), (1, b, 2), (2, e, 4), (4, pop(S ), 6), (6, g, 7), (7, i, 8), (8, pop(S ), 6), (6, h, 9), (9, j, 10), (10, pop(S ), 6)}, et RG ={(T, LRD(6, g, 7)(7, i, 8)), (T, LRD(6, h, 9)(9, j, 10)), (T, (0, a, 1)(1, b, 2)(2, e, 4)), (R, LRD), (R, (0, a, 1)(1, c, 5)(5, push(S ), 0)(0, a, 1)(1, b, 2)(2, e, 4)(4, pop(S ), 6)), (L, (0, a, 1)(1, c, 5)(5, push(S ), 0)), (D, (6, g, 7)(7, i, 8)(8, pop(S ), 6)), (D, (6, h, 9)(9, j, 10)(10, pop(S ), 6))}. Figure 2.16 – Exemple d’une grammaire qui génère des DFA-traces cohérentes i2 = 2 est donc 1. L’algorithme est ensuite exécuté récursivement sur chacun des fils avec n = 2 : chacun des quatre arbres est choisi avec une probabilité 1/4. Puisqu’on peut très simplement représenter un graphe sous la forme d’une grammaire, on peut utiliser cette méthode de génération aléatoire uniforme d’un arbre de dérivation dans une grammaire afin de générer aléatoire-uniformément des chemins dans un graphe. Considérons par exemple l’automate A, sous-jacent au NPDA décrit dans la figure 2.14. Des DFAtraces cohérentes de A sont générées à partir de la grammaire (ΣG, ΓG, T, RG) de la figure 2.16, avec ΓG = {T, L, R, D}. 2.2.4/ D’un NPDA vers une grammaire algebrique ´ Plusieurs algorithmes classiques permettent la transformation d’un NPDA en une grammaire algébrique (par exemple, [Sip96]). Le théorème présenté ci-dessous est une combinaison directe de résultats bien connus sur les PDA. Théorème 2.15 Soit A un NPDA, on peut calculer en temps polynomial une grammaire G, qui satisfait les assertions suivantes : — Le nombre de règles de G est au plus quadratique de la taille de A, et G ne contient aucune règle de la forme (X, Y), avec X et Y qui sont des symboles de la pile. — Il existe une bijection ϕ de l’ensemble des dérivations complètes de G vers l’ensemble des NPDA-traces de A. — L’image par ϕ d’une dérivation complète de G peut être calculée en temps polynomial. Notons que la complexité précise des algorithmes dépend des structures de données choisies, mais qu’elles peuvent toutes être implémentées de manière efficace.II Approximations reguli ´ eres pour l ` ’analyse d’accessibilite´PARTIE II. Approximations reguli ´ eres pour l ` ’analyse d’accessibilite´ 37 Dans cette partie, notre contribution est la définition de deux nouvelles techniques d’approximation pour le model-checking régulier, dans le but de fournir des (semi-)algorithmes efficaces. On calcule des sur-approximations de l’ensemble des états accessibles, avec l’objectif d’assurer la terminaison de l’exploration de l’espace d’états. L’ensemble des états accessibles (ou les surapproximations de cet ensemble) est représenté par un langage régulier, lui même codé par un automate fini. La première technique consiste à sur-approximer l’ensemble des états atteignables en fusionnant des états des automates, en fonction de critères syntaxiques simples, ou d’une combinaison de ces critères (cf. section 4). La seconde technique d’approximation consiste aussi à fusionner des états des automates, mais cette fois-ci à l’aide d’un transducteur (cf. section 5.2). De plus, pour cette seconde technique, nous développons une nouvelle approche pour raffiner les approximations (cf. section 5.3), qui s’inspire du paradigme CEGAR (cf. section 3.4). Les propositions sont évaluées sur des exemples de protocoles d’exclusion mutuelle (cf. section 4.4 et section 5.4).3 Contexte et problematiques ´ 3.1/ Introduction et enonc ´ e du probl ´ eme ` Dans ce chapitre, nous allons présenter le problème d’accessibilité, puis sa traduction dans le cadre plus particulier du model-checking régulier qui en est un cas particulier. Enfin, nous présenterons l’approche par approximations régulières qui est une façon d’aborder le problème de l’analyse d’accessibilité par model-checking régulier. Analyse d’accessibilite´ L’analyse d’accessibilité est une question importante dans la vérification de logiciels, car elle permet d’en assurer la sécurité et la sûreté (c’est-à-dire que quelque chose de mauvais ne se produira pas). Elle consiste à vérifier (prouver) sur une description formelle du système, que certaines confi- gurations peuvent être atteintes. On peut exprimer le problème de la façon suivante : Problème 3.1. Accessibilité Entrée : Un ensemble de configurations initiales I, une relation d’évolution du système R, un ensemble d’états B. Question : Le système décrit par I et R, peut-il atteindre un état de B ? Par exemple, savoir si un point de programme particulier est atteignable est un problème d’accessibilité, de même que de savoir si une machine de Turing reconnaît un langage non vide. Le problème d’accessibilité est indécidable dans la plupart des formalismes. Plusieurs approches ad hoc ont été développées afin de trouver des heuristiques ou de déterminer des formalismes pour lesquels le problème est décidable. Parmi ces approches, l’analyse d’accessibilité symbolique repose sur des représentations finies d’ensembles infinis d’états. Le model checking régulier – abrégé en RMC, pour l’anglais Regular Model Checking – est une approche symbolique utilisant des ensembles réguliers pour représenter des ensembles d’états : I et B sont des langages réguliers, donnés le plus souvent par des automates finis (parfois des expressions régulières) et R est les plus souvent une relation régulière donnée par un transducteur (ou un système de réécriture). Dans ce cadre, le problème d’accessibilité reste indécidable et est abordé des deux façons suivantes : — soit en travaillant sur des classes d’ensembles réguliers et des relations pour lesquelles le problème de l’accessibilité est décidable (voir par exemple [GGP08]), — soit en développant des approches semi-algorithmiques basées sur des accélérations ou des approximations (voir par exemple [DLS01, DLS02]). L’analyse d’accessibilité permet de vérifier des propriétés de sûreté : si l’ensemble d’états B est un ensemble d’états d’erreurs, et que l’analyse d’accessibilité montre que le système ne peut pas atteindre un état de B, alors on a vérifié une propriété de sûreté (c’est une propriété qui dit quePARTIE II. Approximations reguli ´ eres pour l ` ’analyse d’ac . . . - CHAPITRE 3. CONTEXTE ET PROBLÉMATIQUES 40 quelque chose de mauvais ne doit pas pouvoir se produire, comme par exemple le fait que le train d’atterrissage d’un avion ne doit pas pouvoir être rentré si l’avion est au sol). D’autres types de propriétés, plus complexes, peuvent souvent se recoder dans le cadre de l’analyse d’accessibilité. Model-Checking regulier ´ Le problème de l’analyse d’accessibilité par model-checking régulier sur les mots peut se formaliser ainsi : Problème 3.2. RMC-1 Entrée : Un langage régulier I (ensemble de configurations initiales), une relation calculable R (relation d’évolution du système), un langage régulier B (propriété d’erreur). Question : R ∗ (I) T B = ∅ ? En représentant l’ensemble de configurations initiales par un automate A0, la relation d’évolution du système par un transducteur T, et la propriété d’erreur par un automate B, on peut définir le problème de l’analyse d’accessibilité par RMC sur les mots de la façon suivante : Problème 3.3. RMC-2 Entrée : Deux automates finis A0 et B sur un même alphabet Σ, et un transducteur T sur Σ × Σ. Question : R ∗ T (L(A0)) ∩ L(B) = ∅ ? Comme la sortie dépend de la fermeture réflexive et transitive, on peut supposer sans perte de généralité que pour tout u ∈ Σ ∗ , (u, u) ∈ RT . On supposera donc que toutes les relations étudiées par la suite contiennent l’identité. Depuis presque 20 ans, le model-checking régulier est un domaine de recherche actif en informatique (cf. [CGP00] et [BKe08] pour une vue d’ensemble). De nombreux travaux ont donc traité (et traitent encore) de variantes de ce problème. Par exemple, dans [KMM+97], les auteurs proposent de représenter les configurations possibles d’un tableau de processus sous la forme d’un ensemble régulier de mots – autrement dit, un langage régulier – défini par un automate A, et de représenter l’effet d’une action du système sous la forme d’une règle de réécriture qui modifie l’automate A (un transducteur). Mais ce travail traite uniquement des transducteurs qui représentent l’effet d’une seule application de la transition, et il y a de nombreux protocoles pour lesquels l’analyse d’accessibilité ne se termine pas. Puis dans [WB98], les auteurs présentent l’idée de vérifier différents types de systèmes infinis en les représentant sous la forme de langages réguliers. Les principales méthodes pour contourner le problème de non-terminaison de l’analyse d’accessibilité, et donc pour atteindre un point fixe, sont l’accélération [JN00, BJNT00, DLS01, DLS02, AJNd03, BLW03], l’élargissement (extrapolation) [BJNT00, Tou01, Leg12], et l’abstraction d’automates [BHV04]. Dans [BJNT00], les auteurs présentent le concept du model-checking régulier, et s’intéressent au calcul des états atteignables à partir d’un ensemble donné d’états initiaux, ainsi qu’au calcul de la fermeture transitive de la relation de transition. Ils proposent pour cela une technique s’appuyant sur la théorie des automates, et une technique d’accélération. Cet article est l’un des premiers à présenter la notion de model-checking régulier, et il est donc souvent utilisé comme référence pour les travaux dans ce domaine. Il s’intéresse au calcul des états atteignables à partir d’un ensemble donné d’états initiaux, et de la fermeture transitive de la relation de transition. Deux techniques y sont proposées. La première technique, basée sur la théorie des automates, consiste à considérer la relation d’évolution du système comme un transducteur T, à construire une matrice qui regroupePARTIE II. Approximations reguli ´ eres pour l ` ’analyse d’ac . . . - CHAPITRE 3. CONTEXTE ET PROBLÉMATIQUES 41 tous les chemins possibles de T, à considérer cette matrice comme un unique transducteur T ∗ (dont chaque colonne est un état) que l’on va minimiser et déterminiser. Mais cette technique n’est applicable qu’à certains protocoles réguliers, car pour pouvoir construire la matrice qui regroupe tous les chemins possibles de T, il faut que celui-ci ne contienne aucune boucle. La deuxième technique consiste à deviner automatiquement l’ensemble obtenu après application d’une relation d’évolution T, à partir d’un ensemble régulier donné, puis à vérifier si celui-ci est correct. Pour deviner cet ensemble, on compare les ensembles φ et T(φ) afin de détecter une éventuelle croissance (par exemple T(φ) = φ.Λ pour un Λ régulier quelconque), puis à extrapoler en faisant l’hypothèse que chaque application de T aura le même effet. On fait ensuite un test de point fixe pour s’assurer que l’ensemble obtenu est bien une sur-approximation de T ∗ (φ). D’après l’article, cette technique a été appliquée sur les protocoles d’exclusion mutuelle de Szymanski, Burns, Dijkstra, sur le protocole de Bakery de Lamport et sur le Token passing protocol, mais seule l’application au Token passing protocol est présentée. Cette technique n’est pas non plus applicable à tous les protocoles réguliers : la relation T doit préserver la taille des mots et doit être noethérienne pour s’appliquer à un mot qu’un nombre fini de fois. Dans [AJNd03], les auteurs proposent des améliorations de ces techniques qui réduisent la taille des automates intermédiaires, lors du calcul de la clôture transitive. C’est dans la même confé- rence que Sébastien Bardin, Alain Finkel, Jérôme Leroux et Laure Petrucci proposent leur outil de vérification FAS T (pour Fast Acceleration of S ymbolic Transition systems) [BFLP03]. L’outil FAS T tente de calculer R ∗ T (I) – c’est-à-dire l’ensemble exact des configurations accessibles – en se basant sur des accélérations du transducteur T. Dans [BHV04], les auteurs proposent une technique de vérification des systèmes infinis paramétrés qui combine du model-checking régulier et de la vérification par abstraction. D’après cet article, l’explosion des états est un des plus gros problèmes du model-checking régulier, et une des sources de ce problème vient de la nature même des techniques de model-checking régulier de l’époque (2004). Ces techniques tentent de calculer l’ensemble d’accessibilité exact. Il propose donc de remplacer les techniques d’accélération précises par un calcul d’abstraction qui, lorsqu’un point fixe sera atteint, représentera une sur-approximation de l’ensemble des états atteignables. L’article propose une abstraction par fusion d’états, qui est assez proche de la technique qu’on a utilisée. Il présente également la possibilité de raffiner l’abstraction (ce qui, dans notre méthode, revient à durcir le critère de fusion avec un ET logique), au cas où l’approximation contiendrait un état d’erreur. Mais ils ne peuvent raffiner l’abstraction que si la relation ∼ sur les états est de la forme suivante : soit A un automate, p et q deux états de A, et P un ensemble fini d’automates, p ∼ A q si et seulement si quelque soit P de P, L(P) T L(A Right,p ) , ∅ si et seulement si L(P) T L(A Right,q ) , ∅ (les automates A Right,p et A Right,q sont définis dans ce mémoire, dans la section 4.2). Pour raffiner l’abstraction avec des relations de cette forme, l’article propose d’ajouter des automates dans P. Cette technique est applicable sur une grande variété de systèmes, mais ne laisse pas de liberté concernant la forme des critères de fusion (on peut seulement décider du contenu de P). Dans [LGJJ06], les auteurs s’intéressent à l’analyse et la vérification de systèmes communiquants par des files de communication non bornées. Ils proposent une méthode d’analyse et de vérifi- cation de systèmes communiquants (ce sont des systèmes formés de processus séquentiels, communiquant par des files de communication non bornées), qui consiste à travailler sur des abstractions des systèmes en question. Dans le cadre de cet article, les processus sont d’états fi- nis, et l’alphabet des messages échangés est également fini. Les protocoles étudiés sont le protocole de Connexion/Déconnexion, le Buffer infini, et l’Alternating Bit Protocol, et ils sont représentés par des systèmes de transitions étiquetés. Les auteurs proposent un treillis abstrait fondé sur les langages réguliers, afin d’étudier les systèmes avec une seule file de communication, puis ils généralisent leur proposition aux systèmes avec plusieurs files. Récemment, dePARTIE II. Approximations reguli ´ eres pour l ` ’analyse d’ac . . . - CHAPITRE 3. CONTEXTE ET PROBLÉMATIQUES 42 nouveaux résultats en model-checking régulier ont été obtenus pour des protocoles spécifiques comme les CLP [FPPS11], les systèmes communiquants par des files [LGJJ06], les langages d’arbres [AJMd02, BT11], ou la vérification de chaînes relationnelles utilisant des automates multi-pistes [YBI11]), en utilisant des techniques spécifiques aux catégories de systèmes données [Boi12]. Approximations reguli ´ eres ` De nombreuses méthodes de vérification proposées jusqu’ici sont des méthodes exactes, or il est souvent difficile, voire impossible, de trouver un point fixe de façon exacte, et donc de conclure. Puisque la valeur exacte de l’ensemble des états atteignables par le système – noté R ∗ (I) (cf. fi- gure 3.1) – n’est pas forcément calculable, nous utilisons l’approche par approximations régulières. Cette approche est très utilisée pour attaquer le problème du model-checking régulier, et consiste à calculer un langage régulier K, qui contient R ∗ (I). On dit alors que K est une sur-approximation de R ∗ (I). I R(I) ... B R ∗ (I) ? ? ? K Figure 3.1 – Approche par sur-approximation L’enjeu est de démontrer que R ∗ (I) T B = ∅. Si on a K T B = ∅, on peut l’affirmer. Mais si après calcul, K T B , ∅, alors on ne peut rien déduire sur R ∗ (I) T B. On cherchera donc une sur-approximation moins grossière de R ∗ (I). La difficulté – et l’objectif même de cette partie de la thèse – est de trouver une façon automatique de calculer un ensemble K, qui permette de conclure le plus souvent possible (chaque fois que possible serait l’idéal). Or, les résultats d’une méthode de calcul par rapport à une autre diffèrent beaucoup selon le protocole qu’on souhaite vérifier. 3.2/ Technique proposee´ Nos contributions visent à améliorer la méthode générique de [BHV04] en donnant des moyens de construire des sur-approximations en fusionnant des états abstraits du système (et non du transducteur, qui n’est jamais modifié). Notre méthode utilise une approche par sur-approximations successives, qui consiste à calculer RT (I) puis à en calculer une sur-approximation I1, à calculer ensuite RT (I1) puis à en calculer une sur-approximation I2, ... et ainsi de suite jusqu’à atteindre un point fixe, qui sera notre surapproximation K de R ∗ T (I) (cf. figure 3.2). Malgré le fait que l’approche par sur-approximations successives augmente les chances de trouver un point fixe, on peut avoir besoin d’appliquer le transducteur de nombreuses fois avant d’en trouver un, ce qui multiplie à chaque fois le nombre d’états de l’automate obtenu. En fusionnantPARTIE II. Approximations reguli ´ eres pour l ` ’analyse d’ac . . . - CHAPITRE 3. CONTEXTE ET PROBLÉMATIQUES 43 automate A0 langage I = L(A0) automate Ae 1 = T(A0), langage RT (I) = L(Ae 1 ) automate A1 = C(T(A0)) langage I1 = L(A1) automate Ae 2 = T(A1), langage RT (I1) = L(Ae 2 ) Ii = L(Ai) . . . automate An = C(T(An−1)) langage In = L(An) automate Ae n+1 = T(An), langage RT (In) = L(Ae n+1 ) automate An+1 = C(T(An)) langage In+1 = L(An+1) In+1 = In =⇒ K = In application du transducteur (relation d’évolution) fusion d’états (sur-approximation) . . . . . . Figure 3.2 – Sur-approximations successives des états entre eux, la sur-approximation effectuée à chaque étape (flèches en diagonale sur la figure 3.2) doit donc également empêcher l’explosion du nombre d’états. Afin de déterminer les états à fusionner, on définit un ou plusieurs critères de fusion, qui sont les points communs que doivent avoir deux états pour être fusionnés. Ces critères sont définis sous la forme de relations entre les états (deux états seront fusionnés s’ils sont en relation), qui sont elles-même obtenues à partir de fonctions d’approximations (cf. définition 2.3). Le choix de bons critères de fusion, et donc de bonnes fonctions d’approximation, est extrêmement important. Si le critère est trop large l’approximation reconnaîtra des mots de B (la propriété d’erreur) avant d’atteindre un point fixe, et s’il est trop restrictif, on ne fusionnera pas d’états et la taille de l’automate risque d’exploser. Il faut également que les critères soient rapidement calculables, et qu’ils puissent s’appliquer à tous types de problèmes réguliers (cf. définition 2.2). 3.3/ Calcul de la sur-approximation Dans cette section, on explique comment calculer une sur-approximation K de R ∗ T (I) (cf. fi- gure 3.2), à partir d’une fonction d’approximation F. Proposition 3.4 Pour tout automate A, si F est une fonction d’approximation isomorphismecompatible, alors la séquence (F n (A))n∈N est ultimement constante, à isomorphisme près. Notons CF(A) la limite de (F n (A))n∈N. Si pour tout automate A et toute paire d’états p, q de A, on peut vérifier en temps polynomial si p ∼ A F q, alors CF(A) peut également être calculé en temps polynomial. Preuve. Soit A un automate et ∼ une relation d’équivalence sur les états de A. Si ∼ n’est pas l’identité, alors A/∼ a strictement moins d’états que A. Sinon, A/∼ est isomorphe à A. C’est pourquoi, dans la séquence (F n (A))n∈N, le nombre d’états des automates diminue et si F k (A) etPARTIE II. Approximations reguli ´ eres pour l ` ’analyse d’ac . . . - CHAPITRE 3. CONTEXTE ET PROBLÉMATIQUES 44 F k+1 (A) ont le même nombre d’états, alors (F n (A))n≥k, est finalement constant, à l’isomorphisme près. Si l’équivalence des états est calculée en temps polynomial, alors l’automate quotient peut également être calculé en temps polynomial : il suffit de calculer les composantes fortement connexes, du graphe de la relation ∼. De plus, puisque la convergence est obtenue en au plus n états, où n est le nombre d’états de A, CF(A) peut être calculé en temps polynomial. Exemple 3.5. La figure 3.3 représente un automate A, ainsi que le calcul de CRight(A) (la relation Right est définie plus tard, dans la section 4.2). 1 2 3 4 5 6 a a b b b b b (a) A 1 3 4 256 a a b b b (b) Right(A) 1 3 2456 a b b (c) Right2 (A)=CRight(A) Figure 3.3 – Calcul de CRight(A) Semi-Algorithme PointFixe Entrée : A, T, B, F Si L(CF(T(A))) ∩ L(B) , ∅ alors retourner Non-conclusif FinSi Si L(CF(T(A))) = L(A) alors retourner Sûr FinSi Retourner PointFixe(CF(T(A)),T,B,F) Figure 3.4 – Semi-algorithme PointFixe Dans le semi-algorithme PointFixe (cf. figure 3.4), soit un automate A (état du système), un transducteur T (relation de transition), un automate B (propriété d’erreur), et une fonction d’approximation isomorphisme-compatible F (critère de fusion), la première vérification (le vide) peut être effectuée en temps polynomial. Malheureusement, l’égalité des langages ne peut pas être vérifiée en temps polynomial (les automates impliquées ne sont pas déterministes). Cependant, des algorithmes récemment développés [DR10, ACH+10, BP12] permettent de résoudre le problème du test de l’inclusion de langages (et donc de l’égalité) très efficacement. Notons également que le test d’égalité peut être remplacé par un autre test – comme l’isomorphisme ou encore la (bi)simulation – qui implique l’égalité ou l’inclusion des langages, puisque par construction L(A) ⊆ L(CF(T(A))). Dans ce cas le test serait plus rapide, mais la convergence moins rapide. Proposition 3.6 Le semi-algorithme PointFixe est correct : s’il retourne Sûr, alors R∗ T (L(A))∩ L(B) = ∅. Preuve. Si le semi-algorithme PointFixe retourne Sûr, alors on a calculé un automate A0 tel que L(A0 ) = L(CF(T(A0 )))). On prouve tout d’abord que RT (L(A0 )) = L(A0 ) : puisque l’identité est inclue dans RT , il suffit de prouver que RT (L(A0 )) ⊆ L(A0 ). Si u ∈ RT (L(A0 )), alors APISENSER : une plate-forme r´epartie pour la conception,le d´eploiement et l’ex´ecution de campagnes de collecte de donn´ees sur des terminaux intelligents Nicolas Haderer To cite this version: Nicolas Haderer. APISENSER : une plate-forme r´epartie pour la conception,le d´eploiement et l’ex´ecution de campagnes de collecte de donn´ees sur des terminaux intelligents. Mobile Computing. Universit´e des Sciences et Technologie de Lille - Lille I, 2014. French. HAL Id: tel-01087240 https://hal.inria.fr/tel-01087240 Submitted on 25 Nov 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.Département de formation doctorale en informatique UFR IEEA École doctorale SPI Lille APISENSE® : une plate-forme répartie pour la conception, le déploiement et l’exécution de campagnes de collecte de données sur des terminaux intelligents THÈSE présentée et soutenue publiquement le 05/11/2014 pour l’obtention du Doctorat de l’Université Lille I (spécialité informatique) par Haderer Nicolas Composition du jury Rapporteurs : Chantal Taconet, TELECOM SudParis, France Ernesto Exposito, INSA Toulouse, France Examinateurs : Stéphane Frénot, INSA Lyon, France Luigi Lancieri, Université Lille I, France Directeur : Lionel Seinturier, Université Lille I, France Co-encadrant : Romain Rouvoy, Université Lille I, France Laboratoire d’Informatique Fondamentale de Lille – Inria Lille - Nord Europe UMR Lille 1/CNRS 8022R É S UM É Le mobile crowdsensing est une nouvelle forme de collecte de données exploitant la foule de terminaux intelligents déjà déployés à travers le monde pour collecter massivement des données environnementales ou comportementales d’une population. Ces dernières années, ce type de collecte de données a suscité l’intérêt d’un grand nombre d’acteurs industriels et académiques dans de nombreux domaines tels que l’étude de la mobilité urbaine, la surveillance de l’environnement, la santé ou l’étude des comportements socioculturels. Cependant, le mobile crowdsensing n’en n’est qu’à ses premiers stades de développement, et de nombreux défis doivent encore être relevés pour pleinement profiter de son potentiel. Ces défis incluent la protection de la vie privée des utilisateurs, les ressources énergétiques limitées des terminaux mobiles, la mise en place de modèles de récompense et de déploiement adaptés pour recruter les utilisateurs les plus à même de collecter les données désirées, ainsi que faire face à l’hétérogénéité des plateformes mobiles disponibles. Dans cette thèse, nous avons cherché à réétudier les architectures des systèmes dédiés au mobile crowdsensing pour adresser les limitations liées au développement, au déploiement et à l’exécution de campagnes de collecte de données. Les différentes contributions proposées sont articulées autour APISENSE®, la plate-forme résultante des travaux de cette thèse. Plus particulièrement, APISENSE® propose un environnement distribué favorisant le développement et le déploiement rapides de campagnes de collecte, tout en prenant en considération des contraintes telles que la protection de la vie privée des utilisateurs ou encore les ressources énergétiques limitées de leurs terminaux. Pour atteindre ces objectifs, APISENSE® repose sur le modèle de composant SCA et sur l’ingénierie des lignes de produits logiciels, offrant ainsi un environnement modulaire et facilement configurable pour supporter une grande diversité de campagnes de collecte. Un modèle de programmation de haut niveau a également été proposé permettant de s’affranchir de toute la complexité liée aux développements d’applications de collecte mobiles. APISENSE® a été utilisé pour réaliser une campagne de collecte de données déployée auprès d’une centaine d’utilisateurs au sein d’une étude sociologique, et évalué à travers des expériences qui démontrent la validité, l’efficacité et le passage à échelle de notre solution. iiiA B S T R A C T Mobile crowdsensing is a new form of data collection that takes advantage of millions smart devices already deployed throughout the world to collect massively environmental or behavioral data from a population. Recently, this type of data collection has attracted interest from a large number of industrials and academic players in many areas, such as the study of urban mobility, environmental monitoring, health or the study of sociocultural attitudes. However, mobile crowdsensing is in its early stages of development, and many challenges remain to be addressed to take full advantage of its potential. These challenges include privacy, limited energy resources of devices, development of reward and recruitment models to select appropriates mobile users and dealing with heterogeneity of mobile platforms available. In this thesis, we aim to reconsider the architectural design of current mobile crowdsensing systems to provide a simple and effective way to design, deploy and manage data collection campaigns. The main contributions of this thesis are organize around APISENSE®, the resulting platform of this research. In particular, APISENSE® offers a distributed environment based on the SCA component model and software product line engineering , providing a modular and flexible environment to support a wide variety of data collection campaigns. Futhemore, APISENSE® takes into account constraints, such as protecting the privacy of users or limited energy resources devices. We also propose a high-level programming model to get rid of the complexity associated with the development of mobile data collection applications. APISENSE® has been used to carry out a data collection campaign deployed over hundred of users in a sociological study and evaluated through experiments demonstrating the validity, effectiveness and scalability of our solution. vTA B L E D E S M AT I È R E S 1 introduction 9 1.1 Contexte 9 1.2 Problématiques 10 1.3 Objectif du manuscrit 12 1.4 Contributions 13 1.5 Plan du manuscrit 15 1.6 Publications 16 I État de l’art 19 2 systèmes de collecte de données 21 2.1 Mobile crowdsensing 22 2.1.1 Qu’est ce que le Mobile crowdsensing ? 22 2.1.2 Classification des applications 23 2.1.3 Discussion 27 2.2 Les challenges clés du Mobile crowdsensing 28 2.2.1 Sécurité et Vie privée 28 2.2.2 Gestion des ressources 29 2.2.3 Hétérogénéité des équipements et des OS 30 2.2.4 Diffusion et passage à l’échelle des applications 31 2.2.5 Implication et incitation des usagers 32 2.2.6 Discussion 33 2.3 Travaux connexes 34 2.3.1 Funf Open Sensing Framework 34 2.3.2 MyExperience : A System for In situ Tracing and Capturing of User Feedback on Mobile Phones 36 2.3.3 Medusa : A programming framework for crowd-sensing applications 38 2.3.4 PRISM : Platform for Remote Sensing using Smartphones 42 2.3.5 Bubble-sensing 45 2.3.6 Pogo, a Middleware for Mobile Phone Sensing 46 12.3.7 AnonySense : A System for Anonymous Opportunistic Sensing 48 2.4 Synthèse et conclusion 49 II Contributions 53 3 collecte mobile de données 55 3.1 Introduction 55 3.2 Considérations et objectifs de conception 57 3.3 Langage de programmation des collectes 59 3.3.1 Concept de l’interface de programmation 60 3.3.2 Collecte de données dirigée par les évènements 60 3.3.3 Les actions 64 3.4 Intergiciel de collecte 68 3.4.1 Couche d’exécution 68 3.4.2 Couche de contrôle 72 3.4.3 Couche d’interaction 74 3.5 Évaluation du prototype 78 3.5.1 Quelques exemples de collectes 79 3.5.2 Coût énergétique d’une expérience de collecte 87 3.6 Conclusion 88 4 collecte répartie de données 91 4.1 Introduction 91 4.2 Infrastructure répartie de traitement des données 92 4.3 Architecture du serveur central 94 4.3.1 L’enregistrement des participants 95 4.3.2 L’enregistrement des expériences de collecte 96 4.3.3 Déploiement des tâches de collecte 98 4.3.4 Gestion des nœuds de collecte 99 4.4 Architecture des noeuds de collecte 100 4.4.1 Modèle de caractèristiques d’une campagne de collecte 101 4.4.2 Création d’une nouvelle campagne 107 4.4.3 Intéraction entre les composants 110 4.4.4 Extension des nœuds de collecte 112 4.5 Campagne de collecte communautaire 113 24.5.1 Extension du modèle de programmation 116 4.5.2 Coordonner l’exécution des tâches de collecte 119 4.6 Conclusion 124 III Évaluations 127 5 pratiques culturelles et usages de l’informatique connectée 129 5.1 Introduction 130 5.2 Contexte et objectif de l’étude PRACTIC 130 5.3 Développement de l’étude PRACTIC 131 5.3.1 Collecte opportuniste 132 5.3.2 Collecte participative 135 5.3.3 Retour utilisateur 136 5.3.4 Discussions 136 5.4 Déploiement de l’étude PRACTIC 139 5.4.1 Protocole du déploiement 139 5.4.2 Participation 140 5.5 Conclusion 143 6 évaluation du modèle collaboratif 145 6.1 Introduction 145 6.2 Mise en place de l’expérience 145 6.3 Résultats 148 6.3.1 Quantité de données et couverture géographique 148 6.3.2 Consommation énergétique 151 6.4 Conclusion 154 IV Conclusion 157 7 conclusion 159 7.1 Rappel des motivations 159 7.2 Rappel des contributions 160 7.2.1 Collecte mobile de données 160 7.2.2 Collecte répartie de données 161 7.3 Perspectives 162 3bibliographie 165 4TA B L E D E S F I G U R E S Figure 1 Vue d’ensemble de APISENSE® 15 Figure 2 Développement d’une application mobile avec FunfInABox 35 Figure 3 Architecture de Medusa [55] 41 Figure 4 Architecture de PRISM [16] 44 Figure 5 Architecture de Bubble-sensing [45] 45 Figure 6 Architecture de Anonysense [62] 48 Figure 7 Tableau comparatif des plate-formes MCS 52 Figure 8 Interface de Programmation APISENSE 61 Figure 9 Exemple de capture d’écran d’un retour utilisateur 67 Figure 10 Architecture de l’intergiciel mobile 69 Figure 11 Interaction de la couche d’exécution 69 Figure 12 Règles de confidentialité 75 Figure 13 Exemple de contenu web disponible via le FeedbackManager 78 Figure 14 Flux de données de l’expérience Manipulation de Lego NXT 82 Figure 15 Impact d’APISENSE sur la consommation énergétique 88 Figure 16 Impact des capteurs sur la consommation énergétique 89 Figure 17 Vue d’ensemble d’APISENSE® 93 Figure 18 Architecture SCA du serveur central 96 Figure 19 Modèle de caractéristiques d’une campagne de collecte 102 Figure 20 Architecture initiale d’un nœud de collecte 107 Figure 21 Processus de génération d’une architecture SCA 108 Figure 22 Architecture SCA d’une campagne de collecte 109 Figure 23 Interaction des composants APISENSE® 111 Figure 24 Exemple d’extension : Export des données au format KML 114 Figure 25 Composant SCA responsable du recrutement collaboratif 120 Figure 26 Distribution des capteurs virtuels 121 Figure 27 Données collectées par l’étude PRACTIC 132 Figure 28 Exemple de retour utilisateur PRACTIC 137 Figure 29 Gain en terme de lignes de code obtenu grâce à APISENSE® pour le développement de l’étude PRACTIC 138 5Figure 30 Nombre d’inscriptions par jour à PRACTIC 140 Figure 31 Diversité des équipements mobiles 141 Figure 32 Taux de participation à la collecte opportuniste 141 Figure 33 Taux de participation à la collecte participative et opportuniste 142 Figure 34 Représentation des sessions d’allumage de l’écran du terminal d’un participant cumulées au cours de 40 jours 142 Figure 35 Architecture du simulateur de traces de mobilité 147 Figure 36 Comparaison de la quantité de données collectées en fonction du nombre de dispositifs mobiles et de l’objectif de couverture géographique 149 Figure 37 Comparaison de la couverture géographique selon différentes périodes de la journée 150 Figure 38 Comparaison des moyennes de la consommation énergétique en fonction de la concentration de dispositifs mobiles dans la zone de collecte 152 Figure 39 Répartition des charges énergétiques suivant les approches : (a) individuelle, (b) collaborative avec une objectif de couverture de 1000 m 2 , (c) collaborative avec un objectif de couverture de 500 m2 153 6L I S T E D E S TA B L E A U X Table 1 Liste des fonctions d’observation d’événements prédéfinis. 61 Table 2 Liste des paramètres d’une fonction de rappel 61 Table 3 Configuration de l’observation de la position d’un utilisateur 62 Table 4 Liste des fonctions d’un objet de souscription 64 Table 5 Liste des fonctions de la façade de collecte 65 Table 6 Liste des fonctions de la façade dédiée à la création des questionnaires 66 Table 7 Exemples de tâches de collecte implémentées avec APISENSE. (*Lignes de code) 80 Table 8 Tableau décrivant la qualité du système de classification 85 Table 9 Comparaison de l’expressivité et du nombre de lignes de code 87 Table 10 Propriétés définissant une expérience de collecte 97 Table 11 Interface de programmation dédiée à la définition des campagnes de collecte communautaires. 116 Table 12 Façade utilisée pour les besoins de l’application PRACTIC 138 71 I N T R O D U C T I O N 1.1 contexte La dernière génération de terminaux intelligents tels que les smartphones ou les tablettes tactiles est rapidement devenue omniprésente dans notre quotidien. On recense, actuellement, plus d’un milliard de smartphones à travers le monde et ce nombre ne va cesser d’augmenter [42]. Non seulement dotés d’une grande capacité de calcul et d’une connexion Internet en continu, ces terminaux sont désormais programmables et équipés d’un grand nombre de capteurs sophistiqués permettant de prendre des images, capter des sons, mesurer la température ou la pression atmosphérique tout en donnant la position géographique. De ce fait, leurs usages permettent de générer de nombreuses traces numériques d’activités, capables d’identifier nos habitudes, nos relations sociales ainsi que l’environnement dans lequel on évolue. De par leurs fortes présences dans notre société et leurs hautes prouesses technologiques, ces terminaux ont ouvert la voie à une nouvelle forme de collecte de données à grande échelle, récemment appelée le Mobile Crowd Sensing (MCS) [27]. Plus particulièrement, le MCS fait référence à l’ensemble des applications qui impliquent des citoyens ordinaires, munis de leurs terminaux intelligents, afin de collecter et de partager des données dans le but de mesurer des phénomènes d’un intérêt commun. Ces dernières années, de nombreuses recherches ont été menées pour tenter d’exploiter le potentiel du MCS dans de nombreux domaines tels que l’étude de la mobilité urbaine ou des comportements sociaux, la surveillance de l’environnement ou la santé [39, 11]. Quelques exemples d’applications novatrices dans ce secteur comprennent la collecte et le partage de données concernant la qualité de l’air [19], le trafic routier [51], la pollution sonore [47], les performances cyclistes [20], ou encore des informations relatives aux prix des produits de consommation [17]. 91.2 problématiques Comme la revue de la littérature l’indique, le MCS n’en n’est qu’à ses premiers stades de développement, et de nombreux défis doivent encore être relevés pour pleinement profiter de son potentiel [39, 27, 66]. Ces défis sont particulièrement liés à l’implication d’individus rationnels, qui sont au centre du système de collecte de données. Cela demande de prendre en considération de nombreux aspects non-fonctionnels qui ne sont pas directement liés à la collecte de données difficiles en elle-même, rendant par conséquent le développement de ces systèmes encore difficile. Plus particulièrement, il est nécessaire de prendre en compte les points suivants : énergie : Bien que la dernière génération des terminaux intelligents continue de fournir plus de puissance de calcul, de mémoire, d’espace de stockage et de capteurs de plus en plus sophistiqués, les ressources énergétiques de ces terminaux restent limitées. Sans une gestion rigoureuse de l’énergie consommée par les applications de collecte, la batterie de ces terminaux peut s’épuiser en quelques heures, décourageant ainsi les individus à installer ces applications. respect de la vie privée : Sans un mécanisme de protection approprié, les applications mobiles peuvent se devenir de parfaits espions, en révélant potentiellement des informations privées sur leur propriétaire. Il est par exemple possible qu’elles puissent enregistrer des conversations intimes ou prendre des photos d’une scène privée, d’identifier des trajets quotidiennement empruntés par le propriétaire du terminal et d’observer ses principaux lieux de vie tels que son domicile ou son lieu de travail. Ce point représente également un frein majeur pour l’acceptation de ces applications par les individus. D’un autre coté, certaines de ces données peuvent se révéler indispensables pour l’objectif de la collecte de données. compromis : Prendre en compte ces deux derniers points demande généralement le développement d’algorithmes sophistiqués permettant de faire un compromis entre l’énergie consommée par les applications mobiles, leur niveau d’intrusion dans la vie privée des individus et la qualité des données collectées. diversité : De plus, les développeurs doivent également faire face à la diversité des systèmes d’exploitations mobiles disponibles sur le marché (par ex. Android, iOS). Pour déployer une application auprès d’un grand nombre d’individus, les développeurs doivent généralement étudier et développer une application pour chacun de ces systèmes, entraînant par conséquent un coût important (c.-à-d. temps de développement, monétaire). 10passage á l’échelle : Finalement, ces systèmes doivent également faire face au défi de collecter une grande quantité de données reportées par des utilisateurs répartis à travers le monde. De ce fait, déployer une application auprès de plusieurs millions d’utilisateurs qui collectent et propagent continuellement des données vers un serveur serait inefficace, et demanderait des ressources importantes en terme de CPU, de mémoire et d’espace de stockage de l’infrastructure hébergeant l’application serveur pour stocker et analyser ces données. En outre, ces applications peuvent générer un lot considérable de données qui peuvent être inutiles, surtout si la collecte vise uniquement une région spécifique ou une population particulière. Dans ce contexte, il est nécessaire de mettre en place un modèle de déploiement adapté pour recruter les bons utilisateurs au bon moment, capable de collecter seulement les données utiles à la campagne de collecte. À ce jour, beaucoup d’efforts ont principalement portés sur la réalisation de systèmes monolithiques, difficilement réutilisables dans un contexte non anticipé [6]. Ces systèmes ont été conçus complètement indépendamment les uns des autres, ne partageant aucun module logiciel commun, alors qu’ils ont à faire face à des problématiques communes. La mise en place d’une nouvelle campagne de collecte demande généralement de développer un nouveau système à partir de zéro, pouvant entraîner la négligence de certains aspects non fonctionnels, comme protéger la vie privée des individus, à cause de contrainte de temps ou une expertise limitée dans ce domaine. Ce manque d’approche réutilisable, également pointé du doigt dans la littérature [39, 27, 60, 66], entrave ainsi l’adoption du MCS par de nombreux acteurs intéressés par ce type de collecte. Dans cette thèse, nous avons cherché à réétudier les architectures des systèmes dédiées au MCS pour adresser les limitations identifiées ci-dessus liées au développement, au déploiement et à l’exécution d’une campagne de collecte de données. Plus particulièrement, l’objectif des travaux de cette thèse est de proposer une plate-forme générique, favorisant le développement et le déploiement rapides de campagnes de collecte de données pouvant être menées dans une grande variété de domaines. 111.3 objectif du manuscrit Comme nous l’avons décrit dans la section précédente, le développement d’applications utilisant le MCS comme source de collecte de données est une tâche complexe, nécessitant une grande expertise. Toutefois, pour ouvrir cette forme de collecte à de nombreux acteurs académiques et industriels, nous proposons dans cette thèse une plate-forme générique qui facilite le développement et le déploiement de ces applications de collecte. Plus particulièrement, nous adressons dans cette thèse les points suivants : Simplifier le développement des applications de collecte Le premier défi concerne le développement des applications de collecte. Actuellement, ce développement nécessite une grande expertise dans les systèmes d’exploitation des terminaux mobiles disponibles sur le marché. Pour simplifier leur développement, il est nécessaire de proposer un modèle de programmation nouveau fournissant une abstraction complète de ces systèmes d’exploitation. Dans ce contexte, les principaux défis sont de proposer un modèle : i) assez général pour supporter une grande variété d’activités de collecte qui peuvent impliquer une grande variété de capteurs, ii) permettant de minimiser l’expertise nécessaire dans les technologies mobiles afin d’accéder aux fonctionnalités offertes par les capteurs des terminaux mobiles, ainsi que leurs collectes et leurs propagations vers l’infrastructure serveur, iii) et finalement portable pour être en mesure de s’exécuter sur les différents systèmes d’exploitation. D’autre part, il est nécessaire de fournir un environnement fiable assurant la confidentialité des utilisateurs, efficace pour ne pas empêcher une utilisation normale des terminaux mobiles et faciles d’utilisation pour les utilisateurs voulant participer aux collectes de données. Mise en œuvre d’une plate-forme générique de collecte de données Le deuxième défi concerne l’architecture de la plate-forme responsable du déploiement des applications de collecte, de la persistance et de l’analyse des données collectées. La plupart des plate-formes proposées actuellement sont souvent monolithiques, donnant très peu ou pas de possibilités de personnalisation. Cependant, les applications de collectes peuvent être menées dans une grande variété de domaines, nécessitant diffé- 12rents services de l’application serveur pour analyser et stocker les données collectées ou encore déployer ces applications. Pour prendre en compte cette diversité, la flexibilité et l’extensibilité doivent être les propriétés clés de l’architecture mise en œuvre. Cela demande par conséquent de proposer un modèle identifiant les points communs et les différentes exigences des applications de collecte qui peuvent être réalisées. Ce modèle doit s’appuyer sur les bonnes pratiques de l’ingénierie logiciel pour fournir un cadre logiciel modulaire et configurable, et être utilisé simplement par les différents acteurs voulant mener de nouvelles collectes de données pour leurs permettre d’exprimer leurs exigences. D’autre part, la plate-forme doit être capable de passer à l’échelle, c’est-à-dire d’être capable d’impliquer un grand nombre d’utilisateurs mobiles ainsi qu’un grand nombre d’acteurs voulant définir de nouvelles collectes d’un grand volume de données. 1.4 contributions En réponse à ces défis, ces travaux ont abouti à la définition, l’implémentation et l’évaluation d’une plate-forme baptisée APISENSE®. La finalité de APISENSE® est de permettre une mise en place rapide de campagnes de collectes de données à travers des terminaux mobiles intelligents. Nous proposons ici une vue d’ensemble de la solution proposée illustrée par la figure 1. APISENSE® distingue deux rôles évoluant dans la plate-forme. Le premier, appelé simplement utilisateur, peut être un acteur voulant définir et déployer de nouvelles campagnes de collecte de données à travers des terminaux mobiles. Les utilisateurs peuvent utiliser un nœud de collecte dédié (DataGathering Node), qui peut être déployé sur une infrastructure publique ou privée selon leur exigence, et se servir des services fournis par celui-ci pour définir de nouvelles tâches de collecte grâce à un langage de script dédié, déployer la tâche à travers un sous-ensemble d’individus ainsi qu’exploiter ou exposer les données collectées (par ex. visualisation, analyse). Le second rôle, appelé participant, est un individu possédant un terminal mobile. Les participants peuvent utiliser une application mobile dédiée pour télécharger les tâches de collecte, les exécuter dans un environnement sécurisé et automatiquement propager les données collectées. Dans APISENSE®, la mise en relation entre les nœuds de collecte et les participants est assurée par le serveur central (Central Server). Dans un sens, le serveur central peut être perçu comme un magasin dédié aux tâches de collecte. Typiquement, son rôle est 13d’assurer le déploiement des tâches de collecte soumises par les nœuds de collecte, et également d’assurer une première couche d’anonymat des participants. Les objectifs présentés dans la section précédente sont adressés avec APISENSE® de la manière suivante : • À l’issue d’une étude approfondie des architectures présentées dans la littérature (cf. chapitre 2 section 2.3), nous avons proposé un modèle permettant de représenter la variabilité des systèmes responsables du développement et du déploiement de campagnes de collectes de données (cf. chapitre 3 section 4.4). Ce modèle est ensuite fourni aux utilisateurs leur permettant de définir des exigences selon la spécificité des campagnes qu’ils veulent mener. Une application serveur dédiée (c.-à-d. DataGathering Node dans la figure 1) est ensuite générée suite aux exigences définies, fournissant un ensemble de services permettant de développer et de déployer de nouvelles campagnes de collecte, d’assurer la persistance des données collectées par les dispositifs mobiles ainsi que de connecter des services additionnels pour extraire ou traiter ces données. • Nous avons défini un modèle de programmation de haut niveau permettant de s’affranchir de toute la complexité liée aux développements mobiles. Basée sur un langage de script, cette abstraction a été conçue pour être assez générale pour supporter une grande variété d’applications de collecte, facilement accessible pour des utilisateurs ayant très peu d’expertise en programmation mobile, et facilement portable pour être exécutée dans différents environnements mobiles (par ex. Android, iOS, Window Mobile)(cf. chapitre 3 section 3.3). • Pour assurer l’exécution des campagnes de collecte définies par notre modèle de programmation, nous proposons un environnement d’exécution dédié aux utilisateurs mobiles. Cet environnement est responsable du téléchargement, de l’exécution des applications de collectes et de la propagation des données collectées (cf. chapitre 3 section 3.4). Principalement, cet environnement met l’accent sur la consommation énergétique liée à l’exécution d’une campagne de collecte et la protection de la vie privée des utilisateurs. • Nous proposons des modèles et des algorithmes dédiés à l’optimisation de l’exécution de campagnes de collecte. L’optimisation proposée réside en deux points. Pour le premier, nous proposons un modèle de déploiement de tâches de collecte contextuel, permettant d’attribuer une application de collecte à un individu en fonction de propriétés temporelles, géographiques et de capacité 14de détection. Pour le second, nous proposons un algorithme permettant de coordonner l’exécution des tâches de collecte, entre les dispositifs répondant aux mêmes propriétés, afin d’équilibrer les coûts énergétiques entre les terminaux et de diminuer la redondance des données collectées(cf. chapitre 4 section 4.5). Figure 1 – Vue d’ensemble de APISENSE® 1.5 plan du manuscrit Ce manuscrit est divisé en quatre parties. La première partie donne une vue d’ensemble de l’état de l’art dans le domaine du Mobile crowdsensing. La seconde partie décrit les contributions de ce manuscrit. La troisième porte sur la validation des contributions proposées. Et finalement la quatrième conclut ce manuscrit et décrit les perspectives issues des travaux de cette thèse. Plus particulièrement, la suite de ce document est organisé comme suit. Partie 1 : État de l’art Chapitre 1 : Systèmes de collecte de données Ce chapitre a pour objectif de donner dans un premier un temps une vison plus approfondie du Mobile crowdsensing ainsi que ses problématiques. Nous décrivons par la suite des travaux proches à ceux proposés dans cette thèse et nous identifions leurs limitations. 15Partie 2 : Contributions Chapitre 3 : Collecte mobile de données Ce chapitre traite de l’environnement mobile de APISENSE®. Il décrit tout d’abord le modèle de programmation proposé permettant de minimiser le coût du développement des applications de collecte de données. Par la suite, il présente l’architecture de l’environnement mobile dédié à l’exécution des applications de collecte. Chapitre 4 : Collecte répartie de données Ce chapitre présente l’architecture et les choix d’implémentation de l’environnement serveur APISENSE® permettant de déployer des applications de collecte ainsi que d’exploiter les données collectées. Partie 3 : Validations Chapitre 5 : Pratiques culturelles et usages de l’informatique connectée Ce chapitre présente une campagne de collecte déployée auprès d’une centaine d’utilisateurs, réalisée au sein d’une étude sociologique nommée PRATIC (Pratiques Culturelles et Usages de l’Informatique Connectée). Chapitre 6 : Performance et efficacité de APISENSE® présente une validation quantitative sur les performances de APISENSE® Partie 4 : Conclusion Chapitre 7 : Conclusion Finalement, ce chapitre conclut ce manuscrit et expose les perspectives des travaux présentés. 1.6 publications Les travaux de cette thèse ont été réalisés au sein de l’équipe SPIRALS commune à Inria et à l’Université Lille 1 au sein de l’UMR LIFL (Laboratoire d’Informatique Fondamentale de Lille). Ils ont donné lieu aux publications scientifiques suivantes. Conférence International • Dynamic Deployment of Sensing Experiments in the Wild Using Smartphones. Nicolas Haderer, Romain Rouvoy and Lionel Seinturier. In 13th International IFIP 16Conference on Distributed Applications and Interoperable Systems (DAIS), pages 43-56. • A Federated Multi-Cloud PaaS Infrastructure. Fawaz Paraiso, Nicolas Haderer, Philippe Merle, Romain Rouvoy, Lionel Seinturier. In 5th IEEE International Conference on Cloud Computing (2012), pages 392-399. Chapitre de livre • A Cloud-based Infrastructure for Crowdsourcing Data from Mobile Devices. Nicolas Haderer, Fawaz Paraiso, Christophe Ribeiro, Philippe Merle, Romain Rouvoy, Lionel Seinturier Wenjun Wu. Cloud-based Software Crowdsourcing, Springer, 2014 (To appear) Workshop • A preliminary investigation of user incentives to leverage crowdsensing activities. Nicolas Haderer, Romain Rouvoy and Lionel Seinturier. 2nd International IEEE PerCom Workshop on Hot Topics in Pervasive Computing (PerHot) (2013), pp. 199-204. • Towards Multi-Cloud Configurations Using Feature Models and Ontologies. Clément Quinton, Nicolas Haderer, Romain Rouvoy and Laurence Duchien. In Proceedings of the 1st International Workshop on Multi-Cloud Applications and Federated Clouds, Multi-Cloud’13. Prague, Czech Republic, 22 April 2013, pp. 21-26. Vulgarisation scientifique • APISENSE : Crowd-Sensing Made Easy. Nicolas Haderer, Romain Rouvoy, Christophe Ribeiro, Lionel Seinturier. ERCIM News, ERCIM, 2013, Special theme : Mobile Computing, 93, pp. 28-29. • Le capteur, c’est vous ! Nicolas Haderer, Christophe Ribeiro, Romain Rouvoy, Simon Charneau, Vassili Rivron, Alan Ouakrat, Sonia Ben Mokhtar, Lionel Seinturier L’Usine Nouvelle, L’Usine Nouvelle, 2013, 3353, pp. 74-75 • Campagne de collecte de données et vie privée. Nicolas Haderer, Miguel Nuñez Del Prado Cortez, Romain Rouvoy, Marc-Olivier Killijian and Matthieu Roy. 3ème Journées du GDR CNRS GPL (2012), pp. 253-254. Rapport de recherche • AntDroid : A distributed platform for mobile sensing. Nicolas Haderer, Romain Rouvoy, Lionel Seinturier. [Research Report], 2012, pp. 27. RR-7885 17Première partie État de l’art 192 S Y S T ÈM E S D E C O L L E C T E D E D O N N É E S Sommaire 2.1 Mobile crowdsensing 22 2.1.1 Qu’est ce que le Mobile crowdsensing ? 22 2.1.2 Classification des applications 23 2.1.3 Discussion 27 2.2 Les challenges clés du Mobile crowdsensing 28 2.2.1 Sécurité et Vie privée 28 2.2.2 Gestion des ressources 29 2.2.3 Hétérogénéité des équipements et des OS 30 2.2.4 Diffusion et passage à l’échelle des applications 31 2.2.5 Implication et incitation des usagers 32 2.2.6 Discussion 33 2.3 Travaux connexes 34 2.3.1 Funf Open Sensing Framework 34 2.3.2 MyExperience : A System for In situ Tracing and Capturing of User Feedback on Mobile Phones 36 2.3.3 Medusa : A programming framework for crowd-sensing applications 38 2.3.4 PRISM : Platform for Remote Sensing using Smartphones 42 2.3.5 Bubble-sensing 45 2.3.6 Pogo, a Middleware for Mobile Phone Sensing 46 2.3.7 AnonySense : A System for Anonymous Opportunistic Sensing 48 2.4 Synthèse et conclusion 49 212.1 mobile crowdsensing 2.1.1 Qu’est ce que le Mobile crowdsensing ? En 2010, Ganti et al. définissent le Mobile crowdsensing comme la participation d’un groupe d’individus, disposant de terminaux mobiles intelligents qui, collectivement, partagent des informations pour la mesure ou la cartographie de phénomènes d’un intérêt commun". Typiquement, le MCS offre de nombreux avantages par rapport aux méthodes classiques de collecte de données telles que les réseaux de capteurs (WSNs), qui peuvent impliquer des coûts importants liés à l’installation d’un grand nombre de capteurs statiques et de leurs maintenances. En effet, des millions de dispositifs mobiles sont déjà déployés dans la nature, portés par des utilisateurs dans leur vie quotidienne. Avec la généralisation des magasins d’applications (par ex. App Store, Google Play), il est désormais possible pour des petites organisations comme des équipes de recherche ou des petites entreprises de rapidement délivrer une application mobile auprès de cette masse d’utilisateurs. Par exemple, au lieu d’installer un ensemble de caméras le long des routes, il est possible de collecter des données du trafic routier et de détecter les embouteillages en utilisant le GPS des dispositifs mobiles des conducteurs. Un autre avantage de l’utilisation de ces dispositifs est le nombre de capteurs multimodaux inclus dans ces appareils, permettant une collecte d’information contextuelle de haut niveau. En effet, le GPS peut fournir la position d’un utilisateur. Le microphone, quand il n’est pas utilisé pour les communications téléphoniques, peut être utilisé comme capteur acoustique. L’accéléromètre peut être, quant à lui, utilisé pour identifier les modes de transport des utilisateurs, leur activité journalière (par ex. temps passé en position assise, à dormir, à marcher, à courir) mais aussi détecter des dégâts importants sur une route. De nouveaux capteurs peuvent également facilement être ajoutés à ceux initialement préinstallés, en utilisant des connexions sans fils comme le Bluetooth pour communiquer entre eux. Quelques exemples sont les bracelets connectés qui peuvent mesurer la fréquence cardiaque 1 d’un individu, ou les capteurs qui mesure la qualité de l’air [19]. Pour finir, le dernier avantage est de pouvoir inclure les utilisateurs dans le processus de collecte, bénéficiant ainsi de l’intelligence humaine pour collecter des données sémantiquement complexes à identifier à partir de simples capteurs. Par exemple, un utilisateur peut facilement identifier la dégradation d’installations 1. http://pulseon.fi/ 22publiques, prendre une photo de ces dégâts et l’envoyer à la collectivité territoriale concernée [35]. Grâce à ces avantages, le MCS a suscité l’intérêt d’un grand nombre d’acteurs industriels et académiques dans des domaines tels que l’étude de la mobilité urbaine ou des comportements sociaux, la surveillance de l’environnement et la santé [39, 11]. Cependant, l’utilisation des dispositifs mobiles possédés par des individus introduit également de nouvelles problématiques, comme la préservation de la vie privée des utilisateurs, la grande consommation énergétique des applications de collecte ou alors comment inciter les utilisateurs à installer et exécuter ces applications. Dans la suite de cette section, nous présentons tout d’abord une vue d’ensemble de ces applications avant de décrire avec plus de précision ces problématiques. 2.1.2 Classification des applications Dans la littérature, il existe un grand nombre d’applications de collecte de données, mettant en évidence l’utilisation du MCS dans une grande variété de domaines. Globalement, ces applications peuvent être classées selon deux critères : le sujet à observer et le mode d’acquisition des données. Le classement selon le sujet à observer se scinde, lui encore, en deux dimensions : les applications de collecte personnelle et les applications de collecte communautaire. Les applications de collecte personnelle visent à observer et analyser le comportement d’un individu (e.g., activité physique, mode de transport), tandis que les applications de collecte communautaire visent à observer des phénomènes (à plus grande échelle) sur l’environnement (par ex. qualité réseaux, pollution atmosphérique ou sonore) ou sur une infrastructure publique (e.g., trafic routier, place de parking disponible, dégâts de matériel public). Le classement selon le mode d’acquisition de données peut également se scinder en deux modalités appelées : collecte participative et collecte opportuniste. Dans la collecte participative, l’utilisateur est directement impliqué dans la prise de décision de la collecte (i.e., en décidant quand, comment et quelles données doivent être collectées). Au contraire, dans la collecte opportuniste, elle est complètement automatisée par l’application, sans nécessiter une intervention de l’utilisateur. 23Collecte personnelle ou communautaire Dans les systèmes de collecte personnelle, l’ objectif est d’observer des phénomènes liés à un individu. Dans ce type de système, toutes les données collectées sont géné- ralement couplées avec un identifiant unique, permettant de suivre l’évolution d’un utilisateur spécifique à travers le temps. Elles sont généralement rendues à l’utilisateur sous forme d’un rapport détaillé sur son activité, partagées à travers un réseau social ou alors agrégées à travers plusieurs utilisateurs afin d’identifier divers comportements. Ce type de collecte est généralement utilisé dans les domaines de la santé, du sport ou de l’environnement. Dans le domaine de l’environnement par exemple, PEIR [51](Personal Environmental Impact Report) est un système permettant aux utilisateurs de se servir de leurs dispositifs mobiles afin de déterminer leur exposition aux polluants présents dans leur environnement. PEIR collecte continuellement les données GPS vers un serveur pour y effectuer une série de traitement consistant à segmenter les différents déplacements des utilisateurs, identifier les modes de transports (par ex. bus, voiture) et calculer la quantité de gaz carbonique émise lors des déplacements. Pour le calcul de l’émission du gaz carbonique, PEIR couple les informations des déplacements avec plusieurs bases de données : celles des principales entreprises polluantes, et celles de la météo et du trafic routier. Sur un site Internet spécifique, les utilisateurs peuvent ensuite consulter les rapports de leurs déplacements, les aidants à modifier leurs comportements et protéger leur santé. Dans le domaine du sport, BikeNet [20] fournit aux cyclistes une application leur permettant de mesurer leurs expériences sportives. BikeNet combine les données du GPS et de l’accéléromètre pour calculer la vitesse, les calories perdues ainsi que la qualité des routes empruntées. Les données collectées peuvent être visualisées par les cyclistes eux-mêmes, ou être agrégées avec d’autres utilisateurs afin de construire une carte complète des pistes cyclables. Les systèmes de collecte personnelle sont également beaucoup utilisés dans le cadre d’expériences scientifiques. Par exemple, EmotionSense [56] est un système dédié aux études de psychologie sociale. Il tente d’établir une relation entre le bien-être d’un utilisateur et ses interactions sociales ou ses activités. Pour identifier ces informations, EmotionSense analyse continuellement trois types d’informations. Premièrement, les conversations téléphoniques des utilisateurs pour mesurer leurs émotions durant leurs appels. Deuxièmement, les périphériques Bluetooth voisins pour identifier les 24personnes se trouvant régulièrement à proximité. Et finalement l’accéléromètre pour identifier l’activité régulière de l’utilisateur. Dans un autre contexte, HealthAware [28] est une application visant à observer l’obésité des utilisateurs. Avec cette application, les utilisateurs peuvent prendre en photo leur nourriture, ce qui permet au système de leur fournir en retour des informations sanitaires complémentaires sur cette nourriture. HealthAware collecte également les données de l’accéléromètre pour mesurer l’activité physique quotidienne des utilisateurs. Le système fournit en retour un rapport complet sur l’activité effectuée, et rappelle aux utilisateurs l’importance de garder une activité physique quotidienne pour être en bonne santé. Les systèmes de collecte communautaire visent, quant à eux, à observer des phénomènes à plus grande échelle, sur l’environnement ou sur des infrastructures publiques afin d’améliorer la vie d’une communauté (par ex. toutes les personnes habitant dans une ville, les étudiants d’une université). Quelques scénarios types de ce genre de collecte comprennent la mesure de la pollution atmosphérique en milieu urbain, ou l’observation des réseaux routiers afin de détecter les embouteillages ou des dégâts importants sur la chaussée. CommonSense [19] est un exemple d’application dédié à l’observation de la pollution atmosphérique. L’application mobile de CommonSense combine les données GPS avec des données fournies par un capteur externe mesurant la qualité de l’air ambiant. La communication entre le mobile et le capteur externe est assurée par une connexion Bluetooth. Les capteurs externes ainsi que l’application sont déployés auprès de la population, qui collectivement propage leurs positions ainsi que la qualité de l’air vers un serveur. Les données sont ensuite agrégées et peuvent être visualisées sur un site Internet spécifique. Similairement, NoiseTube [47] utilise directement les microphones des dispositifs mobiles pour mesurer la pollution sonore en milieu urbain. Un autre type de collecte communautaire implique la mesure de phénomènes en relation avec des infrastructures publiques. Par exemple, Nericell [50] est un projet qui a pour objectif de mesurer différents phénomènes issus du trafic routier. Ce projet analyse continuellement la position d’un utilisateur qui, couplée avec les informations issues de l’accéléromètre, permet de détecter la dégradation d’une route ou des freinages d’urgences et, couplée avec le microphone, permet de détecter un fort trafic à partir du bruit ambiant. Dans un autre contexte, LiveCompare [17] est une application qui permet de comparer différents prix d’un même article se trouvant dans des magasins situés à proximité 25d’un utilisateur. Avec cette application, les utilisateurs peuvent se servir de leur dispositif pour prendre en photo le code-barres d’un article. Le code est ensuite décrypté, et envoyé vers un serveur avec la position de l’utilisateur et la photo. En échange, LiveCompare fournit aux utilisateurs les différents prix disponibles pour ce même produit, en fonction des magasins se trouvant à proximité. Un autre exemple d’application est CreekWatcher 2 . Cette application surveille les niveaux et la pollution des eaux, à l’aide des rapports des utilisateurs, comme des photos prises à divers endroits au bord des étendues d’eau, ou des messages texte sur le quantité de déchets. Ces informations peuvent ensuite être exploitées par des commissions de contrôle des eaux. Collecte participative ou opportuniste Indépendant du sujet à observer, un facteur déterminant du succès d’une application est le niveau d’implication des utilisateurs dans le processus de collecte [38]. Typiquement, le processus de collecte peut prendre deux formes appelées collecte opportuniste [39] et participative [7]. Dans celle dite opportuniste, la collecte de données est complètement automatisée par l’application mobile (par ex. "collecter la position toutes les cinq minutes"). Cette approche a le principal avantage de minimiser l’intervention humaine dans le processus de collecte. Cela est particulièrement utile dans le cadre d’une collecte communautaire, permettant d’assurer la propagation de données régulièrement sur le serveur (sans que l’utilisateur soit contraint à accomplir des tâches quotidiennes sur son dispositif). Cependant, ces applications sont plus difficiles à développer, et consomment également beaucoup de ressources énergétiques. En effet, la difficulté principale pour développer ce type d’application est de déterminer dans quel contexte se trouve le dispositif mobile, afin d’assurer une certaine qualité des données collectées. Par exemple dans l’application NoiseTube [47], qui a pour objectif d’observer la pollution sonore, il est nécessaire de mesurer le niveau sonore uniquement quand le dispositif est hors de la poche ou du sac de l’utilisateur. Dans ce cas, cette issue peut être résolue en utilisant le capteur de lumière, mais par conséquent, nécessite la consommation de ressources plus conséquentes. 2. http://www.ibm.com/smarterplanet/us/en/water_management/article/creek_ watch.html 26Au contraire, la collecte dite participative nécessite une plus grande implication de la part des utilisateurs. Par exemple, dans l’application LiveCompare [17], les utilisateurs doivent manuellement prendre une photo du produit qu’ils veulent comparer. Le principal avantage de cette approche est qu’elle permet de bénéficier de l’intelligence humaine pour réaliser des opérations plus complexes. Si nous reprenons l’exemple de application NoiseTube [47], l’approche participative peut permettre de résoudre facilement le problème du contexte du dispositif, en demandant aux utilisateurs de prendre une mesure du niveau sonore manuellement lorsque leur dispositif est hors de leur poche. Cependant, l’inconvénient de cette approche est que la qualité des données, ainsi que la fréquence à laquelle elles sont collectées, dépend fortement de l’enthousiasme des utilisateurs pour l’application. 2.1.3 Discussion Dans cette section, nous avons présenté une vue d’ensemble du MCS, ses principales caractéristiques ainsi que les domaines d’applications utilisant le MCS comme source d’approvisionnement de données. Cependant, jusqu’à ce jour, les applications développées ont principalement été élaborées dans un contexte applicatif spécifique, et difficilement réutilisable. En effet, ces applications ont été conçues complètement indé- pendamment des unes des autres, ne partageant aucun module logiciel commun, alors qu’elles ont à faire face à des problématiques communes. Ce manque de solutions réutilisables, largement pointé du doigt dans la littérature ces dernières années [39, 27, 60, 66], rend non seulement le développement d’une application spécifique difficile, mais il y a aussi la problématique du recrutement des participants qui doit être repris de zéro pour chaque application. Avec la popularité croissante du MCS dans de nombreuses communautés scienti- fiques, fournir une plate-forme générique permettant un rapide développement et un déploiement d’une large variété de campagnes de collecte de données devient une nécessité [27]. C’est donc dans cette lignée que s’inscrivent les travaux de cette thèse. Cependant, réaliser une telle plate-forme comporte de nombreux défis, que nous présentons dans la section suivante. 272.2 les challenges clés du mobile crowdsensing Dans cette section, nous identifions les principaux défis à relever afin proposer une plateforme générique dédiée aux développements et aux déploiements de campagne de collecte de données. Principalement, nous identifions cinq défis : Sécurité et vie privée, Gestion des ressources, Hétérogénéité des équipements et des OS, Diffusion et passage à l’échelle de applications, Implication et incitation des usagers. Pour chacun des défis, nous décrivons brièvement la problématique ainsi que les différentes solutions envisagées dans l’état de l’art. 2.2.1 Sécurité et Vie privée Respecter la vie privée des utilisateurs est peut-être la responsabilité la plus fondamentale d’une plate-forme de collecte. Les utilisateurs sont naturellement sensibles aux données collectées sur leurs dispositifs, spécialement si ces informations comprennent leurs localisations, des images sensibles ou alors des communications audios. En effet, de nombreux travaux [36] ont montré que de nombreuses données, même si elles peuvent paraître anodines prises individuellement, peuvent révéler de nombreuses informations sensibles sur les habitudes ou les relations sociales d’un individu lorsqu’elles sont agrégées dans la durée. Par exemple, les données de géolocalisation collectées avec le GPS, couplées avec des données temporelles peuvent être utilisées pour inférer les trajets quotidiens empruntés par un utilisateur, ou encore ses principaux lieux de vies tels que son domicile ou son lieu de travail [26]. Afin de protéger la vie privée des utilisateurs, de nombreuses solutions ont été envisagées dans la littérature. Christin et al. [11] donne une bonne vue d’ensemble des techniques utilisées selon le contexte de la collecte, qu’elle soit personnelle ou communautaire. Typiquement, ces techniques peuvent consister à utiliser un alias pour assurer les communications entre le serveur et le dispositif mobile, à perturber volontairement les données collectées avant de les propager vers le serveur (en modifiant par exemple les coordonnées GPS), à agréger les données entre n utilisateurs partageant des propriétés communes (par ex. n participant situés dans le même quartier), ou alors à échanger alternativement les traces de mobilités entre plusieurs utilisateurs. 28Cependant, bien que ces approches permettent d’assurer une certaine confidentialité des utilisateurs, elles impliquent également une dégradation des données qui sont collectées. Dans ce cas, il est nécessaire de faire un compromis entre qualité et confidentialité. Ce compromis peut être fait en effectuant un maximum de traitement directement dans le dispositif mobile. Par exemple, Nericell [50] adopte cette approche en analysant toutes les données issues de l’accéléromètre et du microphone localement, et propage uniquement des informations de haut niveau sur le serveur (par ex. fort trafic). Une autre solution envisagée par Christin et al. [11] est de laisser la possibilité aux utilisateurs de définir leurs exigences en matière de vie privée. En effet, la notion de vie privée peut énormément varier d’un individu à un autre. Par exemple, certain utilisateur peuvent être retissant à partager leur position contraire à d’autre. Dans ce contexte, il est nécessaire de fournir aux utilisateurs des moyens leur permettant de spécifier les données qu’ils veulent partager, dans quelles circonstances (par ex. temps, position), et surtout dans quel but. 2.2.2 Gestion des ressources Alors que les smartphones continuent de fournir plus de puissance de calcul, de mémoire, d’espace de stockage et de capteurs de plus en plus sophistiqués, les ressources énergétiques de ces dispositifs restent limitées. En effet, certaines applications déployées [49] montrent que la durée de vie de la batterie d’un dispositif, peut être réduite de 20 heures à 6 heures si certaines ressources sont exploitées activement. Par exemple les ressources du CPU pour traiter un grand volume de données (par ex. traitement de données audio), les ressources de certains capteurs comme le GPS, ou encore des ressources de communications (par ex. 3G, WIFI) pour partager en temps réel les données collectées. Un aspect intéressant pour réduire la consommation énergétique de ces applications est la multimodalité de certains capteurs. En effet, cela peut permettre de faire un compromis entre la qualité des données, en terme de fréquence d’échantillonnage et de précision, et le coût énergétique lié à leurs acquisitions. L’exemple le plus courant est l’acquisition de la position d’un utilisateur, qui peut être obtenue soit par le GPS, impliquant une grande coût énergétique, mais fournissant une grande précision (5- 20 mètres), soit par WiFi ou par la triangularisation GSM, qui sont moins précis 29(20-1000 mètres), mais ont une taxe énergétique moins importante. À partir de ce constat, de nombreux travaux ont été proposés dans la littérature, essayant d’alterner l’utilisation de ces différents capteurs pour faire le plus efficacement ce compromis. Par exemple, EnLoc [14] adapte la fréquence d’échantillonnage et les capteurs haute et basse qualité en fonction de la batterie de l’utilisateur. Matador [8] propose également un algorithme adaptatif, mais pour déterminer si l’utilisateur se trouve dans une zone précise. SenseLoc [34] active le GPS uniquement si l’utilisateur se déplace en utilisant l’accéléromètre pour identifier son activité. Cependant, un inconvénient de ces approches est qu’elles ont été conçues pour un contexte applicatif spécifique, et qu’elles ne sont donc pas forcement adaptées pour un autre. De plus, ces approches restent limitées lorsque de multiples applications coexistent dans un même dispositif. Par exemple, les applications dédiées à l’observation de la pollution sonore et du trafic routier nécessitent toutes les deux des données de géolocalisation. Dans ce contexte, ces applications effectuent leurs propres échantillonnages des données GPS, pouvant entraîner une surconsommation énergétique du dispositif mobile. Cela limite ainsi les utilisateurs à participer à un nombre limité d’applications. 2.2.3 Hétérogénéité des équipements et des OS Un autre aspect à prendre en considération est l’hétérogénéité des systèmes d’exploitation et des équipements disponibles. En effet, selon Gartner Inc. 3 , les ventes de smartphones en 2013 ont totalisé plus de 1,8 milliards d’unité, réparties principalement entre trois systèmes d’exploitation (OS), Android 4 avec 78,4% de part de marché, iOS 5 avec 15,6 % et Windows Phone 6 avec 3,2%. Bien que ce marché en pleine effervescence — soit une augmentation 3.5% depuis 2012 —, confirme le potentiel du Mobile crowdsensing pour la collecte de données à grande échelle, cela induit aussi un long processus de développement pour prendre en considération tous ces systèmes d’exploitation. Pour le développement d’une application sur un OS spécifique, un ensemble d’outils et d’APIs sont fournis aux développeurs. Ces APIs sont implémentées généralement dans des langages de programmation différents, par exemple Java pour Android et 3. Gartner Inc. http://www.gartner.com/newsroom/id/2665715 4. Android : http://www.android.com 5. iOS : http://www.apple.com/fr/ios 6. Windows Phone : http://www.windowsphone.com 30Objective-C ou Apple Swift 7 pour iOS. Ceci implique qu’une application développée pour l’un de ces OS est incompatible avec les autres. Par conséquent, cela demande aux développeurs d’étudier et de développer une application spécifique pour chaque OS disponible, afin de pouvoir impliquer un maximum d’utilisateurs dans le système de collecte. Cette diversité a été soulignée par l’expérience menée par Balan et coll. [4], qui ont mis plus six mois pour le développement et le déploiement d’une expérience de collecte à travers 15,000 taxis à Singapour. Pour faire face à cette hétérogénéité, également identifiée par [60], il est nécessaire de concevoir les applications de collecte dans un langage de haut niveau. Dans ce contexte, le défi consiste à proposer une abstraction assez générale pour supporter le dé- veloppement d’applications variées (opportuniste et participative), qui peut également impliquer une grande variété de capteurs, portables pour supporter la diversité des plate-formes mobiles (c.-à-d. Android, iOS, Windows Mobile), et finalement accessibles pour minimiser l’expertise nécessaire dans les technologies mobiles. 2.2.4 Diffusion et passage à l’échelle des applications La diffusion des applications est un aspect crucial pour assurer le passage à l’échelle d’une plate-forme de collecte. Généralement, la diffusion des applications mobiles est assurée par les magasins traditionnels proposés par les plate-formes mobiles (par ex. Google Play pour Android, Apple Store pour iOS). Cependant, une fois disponible dans un magasin, l’application peut être potentiellement téléchargée par des millions d’utilisateurs à travers le monde. Ces utilisateurs peuvent alors générer un lot considérable de données qui peuvent être inutiles, surtout si la collecte vise uniquement une région spécifique ou une population particulière. De plus, la période de prolifération des mises à jours de ces applications vers les utilisateurs peut prendre plusieurs heures jusqu’à plusieurs jours selon le magasin utilisé (par ex. quelques heures pour Google Play jusqu’à plusieurs heures pour Apple Store). Dans le cadre du MCS, cette période est beaucoup trop longue, spécialement si l’objectif est de collecter des données lors d’un événement ne durant que quelque jours, comme un festival ou une fête nationale. En effet, lors de ces manifestations, après avoir récolté les premières données, il peut s’avérer nécessaire de 7. https://developer.apple.com/swift 31mettre rapidement à jour l’application afin d’améliorer la qualité de la collecte ou de remédier à des défauts de programmation. Dans ce cadre, il est nécessaire de développer de nouveaux mécanismes pour déployer ces applications de collecte [39]. Ces mécanismes devront prendre en compte plusieurs considérations. La première est de maîtriser le déploiement de ces applications vers les participants les plus à même à collecter les données désirées, en limitant le nombre d’utilisateurs impliqués dans la collecte, ou en ne visant qu’une population particulière (par ex. région géographique, tranche d’âge), tout en assurant leurs confidentialités. La deuxième considération est d’assurer un rapide déploiement de leurs mises à jour pour adresser les exigences évolutives liées aux premières données collectées, ou tout simplement pour corriger des erreurs de programmation. La dernière, aussi envisagée par [27, 60], est de permettre de coordonner l’exécution des campagnes à travers plusieurs dispositifs, notamment dans les campagnes de collecte communautaire. En effet, généralement ces applications collectent périodiquement (toutes les x secondes) des données sans prendre en considération si un autre dispositif placé à proximité exécute la même application. Cela peut ainsi entraîner une forte duplication de données collectées, en particulier en milieu urbain où il peut y avoir une forte densité d’utilisateurs. Dans ce contexte, effectuer une coordination entre ces dispositifs pourrait permettre de diminuer la quantité de données redondantes sur le serveur, et également équilibrer les charges énergétiques entre les dispositifs, réduisant ainsi l’énergie globale consommée lors de l’exécution de la campagne. 2.2.5 Implication et incitation des usagers Inévitablement, sans une participation adéquate des utilisateurs, il peut être très difficile d’obtenir la masse de données critique pour l’application. Cependant, comme nous l’avons mentionné dans les sous-sections précédentes, en utilisant une application de collecte, les utilisateurs consomment de nombreuses ressources de leurs dispositifs, et peuvent potentiellement s’exposer à la divulgation d’informations confidentielles. Dans ce contexte, un utilisateur peut ne pas être intéressé à participer à l’application, à moins de recevoir une récompense adaptée. Dans ce contexte, de nombreux travaux ont porté sur la réalisation d’un modèle économique permettant d’attribuer des récompenses financières aux utilisateurs en fonction de leur participation. Ces modèles peuvent être statiques [57], en attribuant 32un prix fixe aux données partagées par les utilisateurs, ou dynamiques [40] en faisant varié le prix des données en fonction de la couverture des premières données partagée, pour inciter par exemple les utilisateurs à se déplacer dans des zones peu couvertes. Cependant, bien que ces modèles puissent favoriser la participation des utilisateurs et améliorer la qualité des données obtenues, collecter des données à grande échelle peut nécessiter un budget considérable, qui n’est pas forcément accessible par exemple pour des équipes de recherche. Dans ce contexte, de nombreux modèles alternatifs, non monétaires, ont été explorés dans la littérature ces dernières années. Ces sources de motivation peuvent par exemple s’inscrire dans le cadre d’une démarche citoyenne ou scientifique en aidant à diminuer l’émission de gaz carbonique dans la nature par exemple [51]. Ces sources peuvent également prendre la forme d’un jeu, en simulant une compétition entre les utilisateurs, en partageant ses performances sur les réseaux sociaux [49], ou en attribuant des récompenses virtuelles. Une dernière source de motivation est d’obtenir un bénéfice direct en partageant des données, par exemple dans l’application LiveCompare [17], les utilisateurs peuvent bénéficier des prix scannés par les autres utilisateurs. 2.2.6 Discussion Le principal objectif d’une plate-forme générique de collecte de données est de permettre la fédération d’une large communauté d’utilisateurs, avec des niveaux d’expertises et des exigences différentes. En effet, les campagnes de collecte de données peuvent être de différents types, qui peuvent être de type communautaire ou personnel, et peuvent également impliquer différents niveaux de participation de la part des utilisateurs (c.-à-d. collecte opportuniste et participative). Comme nous en avons discuté tout au long de cette section, la mise en place d’une campagne demande de faire de nombreux compromis. Que ce soit sur la qualité des données, leur quantité, la préservation de la vie privée des utilisateurs ou encore la consommation énergétique des applications de collecte. Nous avons également vu que dans la littérature, de nombreux modèles ou algorithmes ont été proposés pour adresser ces points. Cependant, aucun de ces modèles ne représente une solution idéale, et ne peut être appliqué seulement dans un contexte applicatif spécifique (par ex. population visée, type de de données collectées). Dans ce contexte, nous pensons que la flexibilité et l’extensibilité doivent être les propriétés clés de l’architecture logicielle d’une plate-forme générique. La flexibilité fait 33référence à la capacité de la plate-forme à s’adapter à la diversité des campagnes de collecte qui peuvent être menées. Cette diversité peut faire référence à différents types de données qui peuvent être collectées (c.-à-d. impliquant de nombreux capteurs), aux technologies utilisées pour les sauvegarder (c.-à-d. base de données), et les structurer (c.-à-d. méthode d’indexation) et les analyser. Quant à l’extensibilité, elle fait référence à la capacité de la plate-forme pour intégrer de nouvelles contributions, afin de faire face aux exigences des utilisateurs non anticipées. Dans ce cadre, la plate-forme pourrait permettre également à des scientifiques travaillant sur une problématique spécifique du MCS (par ex. vie privée, modèle de récompense, etc.), de se focaliser sur leur domaine d’expertise sans avoir à redévelopper un système complet et donc participer à l’amélioration de la plate-forme. Dans la section suivante, nous faisons une étude comparative des différentes plateformes ayant reçu beaucoup d’attention dans la littérature ces dernières années, et ayant ce même objectif. 2.3 travaux connexes Comme nous l’avons vue dans la section précédente, le développement d’application de collecte de données demande de faire face à de nombreux défis. Dans cette section, nous décrivons un certain nombre de travaux existants, proposant des plate-formes ayant pour objectif de simplifier leurs développements et leurs déploiements. Pour chaque travail présenté, nous décrivons brièvement l’architecture générale adoptée, et nous les confrontons par rapport aux défis définis dans la section précédente. 2.3.1 Funf Open Sensing Framework Funf [1] est une plate-forme open source dédié aux développements d’applications de collecte de données mobiles basées sur le système d’exploitation Android. Initialement, Funf a été développé par le MIT Media Lab, afin de proposer aux scientifiques un outil plus générique pour les aider à facilement concevoir leurs applications de collecte. Le concept de base proposé par Funf est appelé Probe. Typiquement, un Probe est un module logiciel (c.-à-d. portion de code Android) assurant la capture de données d’un capteur physique ou logique (par ex. GPS, température, contact). Pour le développement 34des applications, Funf met à disposition un service appelé FunfInABox, accessible via une interface web. L’interface propose un formulaire qui permet aux scientifiques de sélectionner et configurer un ensemble de Probe à inclure dans l’application mobile (cf. figure 2). Le formulaire validé, FunfInABox procède alors à la génération de l’application et de la mettre à disposition des scientifiques à travers un compte Dropbox, un service de stockage et de partage de fichier en ligne. L’application peut également être configurée pour propager périodiquement les données collectées vers le même compte Dropbox, ou sur un serveur HTTP. Pour des raisons de sécurité, toutes les données collectées sont encryptées, et toutes les données sensibles telles que les contacts ou les SMS sont automatiquement hachés. Funf fournit également un ensemble de scripts qui peuvent être utilisés par les scientifiques pour décrypter les données, les insérer dans une base de données relationnelle et visualiser les données. Figure 2 – Développement d’une application mobile avec FunfInABox Funf se diffère principalement par sa simplicité. En effet, l’utilisation d’un formulaire web permet de rapidement développer une nouvelle application sans nécessiter toutes sortes d’expertise en programmation. Cependant, les applications qui peuvent être développées restent très basiques, limitées à la collecte périodique de données brutes de capteurs, et ne supportent pas les interactions avec les utilisateurs. De plus, les applications générées ne proposent pas aux utilisateurs de mécanismes leur permettant de contrôler les données qui sont collectées sur leurs dispositifs ni de retour sur celles-ci. D’autres parts, Funf ne fournissent pas de service spécifique pour aider les utilisateurs à déployer leurs applications vers les dispositifs mobiles. Ils sont alors contraints d’utiliser les magasins d’applications, devant faire face aux problématiques discutées précédemment(cf. section 2.2.4). 352.3.2 MyExperience : A System for In situ Tracing and Capturing of User Feedback on Mobile Phones Jon Froehlich et al. [25] proposent une approche plus flexible pour développer des applications de collecte avec MyExperience. 1 2 3 4 6 7 8 9 14 15 16 17 18 00:30 19 CallQuality 20 21 22 23 25 cellnetwork.png 26 27 28 29 30 31 32 33 34 Listing 2.1 – MyExperience : Exemple de configuration de collecte de données MyExperience facilite la définition d’une expérience collecte en proposant une abstraction appelée Sensors Triggers et Actions au-dessus du langage descriptif XML. Dans cette abstraction, les triggers combinent les flux des données fournis par les sensors et une expression logique pour déterminer quand une action doit être déclenchée. 36Pour capturer l’expérience d’un utilisateur, cette abstraction supporte la définition de questionnaires, qui peuvent être présentés à l’utilisateur périodiquement, ou après un évènement spécifique. Le listing 2.1 montre par exemple une expérience affichant à un utilisateur un questionnaire lui demandant la qualité de sa communication vocale après un appel téléphonique. Cependant, l’abstraction proposée a plusieurs limitations. La première est que les triggers qui exécutent les actions ne peuvent pas exécuter une seconde action en fonction du résultat de la première. Cela empêche par exemple de déclencher un nouveau questionnaire en fonction des premières réponses fournies. La deuxième concerne l’expressivité de l’abstraction qui reste limitée aux balises XML définies au préalable. Cette limitation par exemple empêche le développement d’algorithmes contextuels complexes (par ex. inférence de l’activité d’un utilisateur) complexe. Et finalement, MyExperience reste limité aux collectes participatives. L’architecture de la plate-forme MyExperience est composée de deux parties spéci- fiques : i) une application mobile Windows Mobile, responsable de de l’exécution des fichiers XML et ii) une application serveur, responsable de la persistance des données collectées. L’application mobile supporte également la propagation automatique des données vers le serveur. La propagation des données est effectuée lorsqu’une connexion réseau est détectée, et utilise le protocole HTTPS pour sécuriser le transfert des données. L’application fournit également une option permettant d’utiliser un algorithme de cryptographie SHA-1 pour hacher les données confidentielles des utilisateurs (par ex. SMS, contacts, numéro de téléphone). Cependant, MyExperience ne fournit pas de mécanisme particulier pour aider les scientifiques à déployer leurs expériences. L’application mobile ne supportant l’exécution que d’une seule expérience, cela empêche par exemple aux scientifiques de bénéficier des applications déjà installées chez les utilisateurs pour déployer leurs propres expériences.Néanmoins, MyExperience fournit plusieurs mécanismes permettant la mis à jours des expériences à distance, en envoyant la nouvelle expérience par SMS ou un message électronique aux utilisateurs concernés. Cependant, cela nécessite que les scientifiques aient connaissance du numéro de télé- phone ou de l’adresse électronique des utilisateurs, ce qui met en péril l’anonymat des utilisateurs. 372.3.3 Medusa : A programming framework for crowd-sensing applications Medusa, présenté par Ra et al. [55], est une plate-forme de programmation et de distribution de tâches de collecte participatives. Medusa s’adresse principalement aux utilisateurs finaux, sans expertise en programmation. Un exemple typique d’application présentée est celui du citoyen journaliste, permettant au journaliste de recruter des citoyens mobiles pour récolter des vidéos et des commentaires d’un évènement spécifique (par ex. accident, feu de forêt). Dans Medusa, la spécification d’une nouvelle tâche consiste à définir une séquence d’actions qui doivent être exécutées par les mobiles. Pour spécifier cette séquence d’actions, Medusa propose MedScript, une abstraction de haut niveau basé sur XML. MedScript propose deux niveaux d’abstractions : les stages et les connecteurs. Les stages permettent de définir une action élémentaire qui doit exécutée par le dispositif. MedScript distingue deux type de stages : i) les stages consistant à extraire des données des capteurs (par ex. GPS, accéléromètre) appelés SPC-Stage, et les stages nécessitant une intervention humaine (par ex. prendre une vidéo, documenté une photo) appelés Hit-Stage. Chaque stage inclut également plusieurs paramètres, comme une date d’expiration, un contexte d’exécution (par ex. région spécifique ou période de la journée) et également inclure une récompense financière pour inciter les utilisateurs à exécuter les stages. Par exemple, le listing 2.2 décrit l’application du citoyen journaliste. Cette application comporte quatre stages et deux connecteurs définissant l’enchaînement suivant : Recruit -> TakePicture -> GetSummary -> UploadData . Le premier stage permet de recruter les utilisateurs, le deuxième demande aux utilisateurs de prendre une photo dans une région spécifique, le troisième demande aux utilisateurs de commenter la photo prise et finalement le dernier permet d’envoyer le commentaire et la photo vers le serveur. 1 2 Citizen-Journalst 3 4 Recruit HIT 5 recruit 6 7 Citizen Journalist Demonstration 8 18:00:00 12/16/2011 9 .05 10 W_WID 3811 12 13 14 GetSummary SPC 15 medusalet_videosummary 16 immediate none 17 18 IMAGE 19 SUMMARY 20 21 22 23 TakePicture SPC 24 medusalet_mediagen 25 location=34.020259|-118.290131|40, user-initiated 26 27 -t image 28 IMAGE 29 30 31 32 UploadData SPC 33 medusalet_uploaddata 34 none textdesc 35 36 SUMMARY 37 38 39 40 41 Recruit 42 TakePicture Hiring 43 44 45 TakePicture 46 GetSummary Hiring 47 48 49 GetSummary 50 UploadData Hiring 51 52 Listing 2.2 – Le journaliste citoyen développé en MedScript language Pour le déploiement des tâches de collecte, l’architecture de Medusa (cf. figure 3) est composé d’un ensemble de service exécuté sur une infrastructure serveur, et une 39application mobile distribuée auprès d’un ensemble d’utilisateurs. Nous décrivons brièvement le rôle de ces composants. Le Interpreter est le point d’entré de Medusa, il accepte les tâches décrites en MedScript, vérifie leur validité et les envoies aux Task Tracker. Le Task Tracker est responsable de coordonner l’exécution des tâches vers les dispositifs mobiles. Pour chaque tâche, le Task Tracker lui associe une instance dédiée responsable du suivie des différents stages associés à la tâche. Dans ce cas, si la tâche doit être exécuté par 50 utilisateurs (c.-à-d. collecter 50 images dans l’exemple présenté), 50 instances seront alors instanciées dans le Task Tracker. Pour chaque stage inclus dans la tâche, l’instance associé à la tâche notifie l’application mobile assignée lui demandant d’exécuter le stage. Une fois le stage complété, l’application mobile alerte le Task Tracker et attend une instruction pour exécuter le stage suivant. Une fois tous les stages terminés, le Task Tracker averti l’initiateur de la tâche et rend les données disponibles dans le Data Repository. Le Worker Manager sert principalement d’interface avec le service Amazon Mechanical Turk (AMT) 8 , qui est utilisé pour la phase de recrutement. Lorsque le Task Tracker instancie une nouvelle tâche, une description de la tâche ainsi que sa rémunération est postée sur le service AMT. Les participants peuvent alors se connecter sur le service AMT avec leur application mobile, et s’inscrire auprès de la tâche qu’il les intéresse. Une fois inscrit, le Worker Manager notifie le Task Tracker, qui peut alors procéder à l’exécution des stages. AMT est également utilisé pour assurer les communications (c.-à-d. par SMS) entre le Task Tracker et les applications mobiles, et la rémunération des utilisateurs. Cette approche permet d’assurer l’anonymat des utilisateurs, dans le sens où Medusa n’a pas besoin de connaître l’identité réelle des utilisateurs pour communiquer avec eux et les récompenser. Le Stage Library représente la partie extensible de Medusa. Chaque stage supporté par MedScript est associé à un exécutable Android stocké dans le Stage Library. Les exécutables sont alors téléchargés par les dispositifs mobiles avant d’exécuter le stage associé. Cette approche permet d’étendre les capacités offertes par MedScript sans avoir à recompiler l’application mobile et la redéployer. L’ Application mobile est composée de deux services appelés StageTracker et MedBox. Le Stage Tracker est responsable des communications entre l’ap- 8. Amazon mechanical turk : https://www.mturk.com 40plication mobile et les services du serveur. Ces communications comprennent le téléchargement des exécutables des différents stages, d’analyser les SMS envoyés par AMT et propager les données vers le serveur. La MedBox est responsable de l’exécution des stages dans le dispositif mobile. Un stage peut être exécuté soit directement après une notification du Stage Tracker, soit en fonction du contexte de l’utilisateur (c.-à-d. zone géographique ou période de la journée). L’application mobile fournit également plusieurs mécanismes pour contrôler les ressources consommées par l’application mobile et assurer la confidentialité des participants. Pour la gestion des ressources, Medusa laisse la possibilité aux participants de définir des limites en terme de CPU, réseau ou mémoire utilisées lors de l’exécution des stages. Pour assurer la confidentialité, l’application mobile demande une confirmation aux utilisateurs avant de propager les données sur le serveur. Cela permet aux utilisateurs de vérifier si les données collectées peuvent être compromettantes vis-à-vis de leurs vies privées. Figure 3 – Architecture de Medusa [55] Medusa propose certains aspects intéressants à l’égard des considérations discutées dans la section précédente. Ces aspects sont l’intégration d’un service tiers comme AMT, pour assurer l’anonymat des utilisateurs, la possibilité d’intégrer des récom- 41penses financières, ou encore proposer une application mobile générique favorisant la participation des utilisateurs à plusieurs tâches de collecte. Cependant Medusa a plusieurs limitations. La première réside lors de la phase de recrutement des utilisateurs. En effet, si nous reprenons l’exemple du citoyen journaliste, il faudrait que, idéalement, seul les utilisateurs se situant à proximité de l’événement couvert par le journaliste, puissent être capables de s’inscrire à la tâche. Or, bien que Medusa supporte la notion de contexte d’exécution (par ex. exécuter un stage dans une zone géographique), celle-ci est interprétée uniquement par l’application mobile après la phase d’enregistrement. Ainsi, de nombreux utilisateurs peuvent s’enregistrer sans qu’ils ne soient à proximité de l’événement visé. Une autre limitation réside dans l’abstraction du modèle de programmation proposé, qui reste limité à la définition de tâche participatives et communautaires. Par exemple, cette abstraction ne permet pas de définir des tâches suivant l’évolution d’un utilisateur à travers une longue période (par ex. "collecter toutes les 5 minutes la position du GPS"). Et finalement, la dernière limitation réside dans les mécanismes d’extension de Medusa. En effet, pour étendre les fonctionnalités offertes par MedScript, les développeurs ont besoin de développer un nouveau module Java compatible Android. Ce mécanisme a deux inconvénients. Le premier concerne la sécurité. En effet, un développeur mal intentionné peut développer un stage envoyant des SMS à l’insu des participants, ou récupérer des données confidentielles (par ex. contacts) et les envoyer vers un service tiers. Et le deuxième rend exclusive Medusa uniquement pour Android, empêchant de faire face à l’hétérogénie des OS mobiles. 2.3.4 PRISM : Platform for Remote Sensing using Smartphones PRISM [16] est une plate-forme adressant particulièrement trois points qui sont la généralité, la sécurité et le passage à l’échelle. Pour adresser la généralité, PRISM propose une application mobile permettant le téléchargement de tâches de collecte écrites en code natif. Cette approche permet de faciliter la réutilisation de code et de donner une totale flexibilité pour le développement de tâches complexes et variés. Dans ce cadre, PRISM supporte le développement de tâche participatives et opportunistes. Néanmoins, cette approche a plusieurs limitations. Premièrement, le développement de code natif demande une grande expertise en programmation et dans les plate-formes mobiles. PRISM ne fournit pas d’API de 42plus haut pour simplifier leurs développements. Deuxièmement, le développement de code natif ne permet pas de faire face à l’hétérogénéité des OS mobiles. Le code développé reste alors exclusivement exécutable par OS mobile supporté par PRISM, en l’occurrence Windows Mobile. Et finalement, permettre à des développeurs tiers de déployer du code natif sur les dispositifs mobiles peut également poser des problèmes de sécurité et de confidentialité vis-à-vis des participants. Pour limiter les problèmes de sécurité, PRISM implémente un mécanisme d’interposition, empêchant les tâches d’accéder à des fonctions critiques de l’appareil. L’application mobile observe également les ressources énergétique et réseaux consommées par les tâches, et stoppe leurs exécutions si elles dépassent une valeur limite. Cela permet de renforcer la sécurité de l’appareil, en évitant que des tâches épuisent totalement la batterie des utilisateurs. Pour permettre aux utilisateur de contrôler les données collectées durant l’exécution des tâches, PRISM fournit un mécanisme de contrôle d’accès comprenant trois niveaux : i) No Sensors empêchant tous accès, ii) Location Only permettant l’accès uniquement aux capteurs de position et All Sensors autorisant tous les accès. En ce qui concerne le passage à l’échelle du système, PRISM propose une approche permettant de maîtriser le déploiement des tâches de collecte à un sous-ensemble d’utilisateurs. La figure 4 décrit l’architecture globale de PRISM comprenant deux parties spécifiques : i) une application mobile pour Window Mobile, responsable de l’exécution des tâches soumise par le serveur, et ii) le serveur PRISM, acceptant des tâches d’applications tierces pour les déployer auprès des applications mobiles. Dans PRISM, le déploiement des taches de collecte est assuré via approche push-based, c’est-à-dire permettant au serveur de pousser les applications directement vers les dispositifs mobiles. Cette approche a le principal avantage d’assurer un déploiement rapide des applications, sans que les utilisateurs soient obligés de se connecter réguliè- rement sur le serveur pour voir si une nouvelle tâche est disponible. Pour permettre aux développeurs de définir un sous-ensemble de dispositifs pour déployer leurs tâches, PRISM fournit une API comportant deux niveaux de raffinements (cf. listing 2.3). 1 // set up the first level coarse-grained predicate 2 L1pred = new FirstLevelPredicate(); 3 L1pred.location = ; 4 L1pred.radius = ; 5 L1pred.stationary = false; 6 L1pred.cameraPresent = true; 7 L1pred.numOfPhones = ; 43Figure 4 – Architecture de PRISM [16] 8 // set up the second level fine-grained predicate 9 L2pred = new SecondLevelPredicate(); 10 L2pred.location = ; 11 L2pred.radius = ; 12 // set up the application with the predicates 13 PRSIMapp = new PRISMApplication(); 14 PRSIMapp.Init(); 15 PRISMapp.SetPredicates(L1pred, L2pred); 16 PRISMapp.SetBinary(); 17 PRISMapp.DistributeToPhones(); 18 // read and process data sent by phones 19 while (appData = PRISMapp.GetData()) { 20 ; 21 } Listing 2.3 – Exemple d’application développée avec PRISM Le premier niveau permet de spécifier les capteurs nécessaires pour exécuter la tâche, le nombre de mobiles désirés et une vaste région géographique. Le deuxième niveau permet quant à lui de définir contexte plus précis (par ex. lorsque l’utilisateur se déplace, se trouve dans une zone précise). Pour être en mesure de déployer les tâches de collecte, PRISM requiert une connaissance complète des dispositifs mobiles ainsi que leurs mobilités. Cette connaissance est assurée par une phase d’enregistrement assurée par les dispositifs mobiles. Lors de l’enregistrement, les dispositifs mobiles 44reportent deux sortes d’informations comprenant des données statiques (par ex. capteurs disponibles) et des informations dynamiques (par ex. position et niveau de batterie restant). Cependant, cela nécessite que les dispositifs envoient constamment leurs positions pour permettre au serveur d’avoir une vision en temps réel de leur répartition. Cela peut causer par conséquent un trafic réseau important si de nombreux dispositifs sont connectés au serveur, et également négliger la confidentialité des utilisateurs. Lorsqu’une nouvelle tâche est soumise au serveur PRISM, celui-ci compare le premier niveau de raffinement avec tous les dispositifs enregistrés au préalable, et la déploie uniquement aux dispositifs correspondants au premier niveau de raffinement. Le deuxième niveau de raffinement sera ensuite interprété par l’application mobile, qui déclenchera l’exécution de la tâche en fonction des contraintes spécifiées. 2.3.5 Bubble-sensing Bubble-sensing [45] est un système dédié aux déploiements de tâches de collecte participative et communautaire. Ce système focalise principale sur les méthodes de dé- ploiements des tâches de collecte qui doivent être exécutées dans une région spécifique. La figure 5 illustre son architecture. Figure 5 – Architecture de Bubble-sensing [45] Dans le modèle proposé par Bubble-sensing, la création d’une tâche est initiée par le dispositif d’un participant (dispositif A dans la figure 5). Le dispositif joue alors le rôle de bubble anchor, et est responsable de la maintenance de la tâche de collecte dans la zone géographique d’intérêt. Une tâche est définie par un tuple : i) action qui définie 45la tâche à réalisé par les participants (par ex. prendre une photo, une vidéo), région qui définie une zone géographique représentant la bulle où la tâche doit être exécutée, et une durée qui définie la date limite ou l’action doit être réalisé. La tâche est disséminée périodiquement, par des communications à courte distance (par ex. Bluetooth, Wifi direct), jusqu’à ce qu’un autre dispositif mobile reçoive et accepte d’exécuter la tâche en question (dispositif C). Les données collectées sont ensuite envoyées sur le bubble-server. Dans le cas ou l’initiateur de la tâche quitte la zone géographique initialement définie, un message est alors disséminé à tous les autres dispositifs se trouvant à proximité. Dans le cas ou un autre dispositif reçoive le message, il devient alors le bubble anchor (dispositif B) responsable de la maintenance de la tâche dans la bulle. En utilisant cette approche, Bubble-sensing permet d’éviter aux dispositifs de reporter continuellement leur position auprès d’une entité centrale. Cependant, cela implique qu’il y est constamment la présence de participants volontaire pour jouer le rôle de bubble-anchor dans la zone géographique d’intérêt, sinon la tâche de collecte serait alors perdu. 2.3.6 Pogo, a Middleware for Mobile Phone Sensing Pogo [6] est une plate-forme proposée par Brouwers et al., qui a pour objectif d’aider les scientifiques à développer et déployer des tâches de collecte à grande échelle. Trois types d’acteurs sont identifiés dans Pogo. Les participants propriétaires des dispositifs mobiles, les scientifiques et un administrateur. Les participants mobiles exécutent une application mobile dédiée, développée pour Android. En installant l’application mobile, les participants acceptent de partager les ressources de leurs dispositifs pour exécuter des tâches développées par les scientifiques. Les scientifiques, quant à eux, peuvent exécuter une application sur leur ordinateur pour développer de nouvelles tâches et les déployer. Et finalement l’administrateur est responsable d’assigner un ensemble de participants aux scientifiques. Cette assignation est effectuée à partir d’un serveur central, qui garde également une trace de tous les dispositifs et des données qu’ils partagent. Cependant, les auteurs donnent très peu d’informations sur cette phase d’assignation, si elle est manuelle ou automatisée. Une fois un participant assigné à un scientifique, Pogo assure le déploiement des tâches par une approche push-based. Cette approche permet d’assurer un rapide déploiement des mises à jour des tâches, mais implique également un manque de transparence sur les données qui sont 46collectées sur les dispositifs des participants ni avec qui ils les partagent. Nous pensons que ce manque de transparence peut freiner leurs participations, surtout qu’aucun mécanisme d’incitation n’est proposé. Dans Pogo, les tâches de collecte peuvent être développées en JavaScript. Pour simplifier le développement des tâches, Pogo propose une abstraction basée sur le pattern publish-subcribe [21], permettant d’effectuer des communications asynchrone entre entre les scripts et les capteurs. La figure 2.4 illustre un exemple de tâches reportant toutes les minutes les points d’accès WiFi sur les ordinateurs des scientifiques. Comparée aux approches précédentes, l’utilisation du JavaScript comporte de nombreux avantages. Tout d’abord, cela permet de bénéficier de l’expressivité d’un langage générale, permettant ainsi de définir des algorithmes contextuels complexes. Ensuite, l’utilisation du JavaScript permet également de favoriser la réutilisation de code. Et finalement de nombreux projet open sources proposent des moteurs d’exécutions pour l’exécution de code JavaScript sur Android 9 , iOS 10 ou Window Mobile 11, permettant d’assurer la portabilité du code développée vers diverses plate-formes. Cependant, l’abstraction proposée par Pogo ne permet pas d’interagir avec les participants, restant exclusivement réservé à la collecte opportuniste de données. 1 function start(){ 2 3 subscribe(’wifi-scan’, function(msg){ 4 5 publish(msg,’wifi-scan’) 6 7 } , { interval : 60 * 1000 }) } Listing 2.4 – Exemple d’application développée avec Pogo Pogo protège la vie privée des utilisateurs finaux en cachant leur identité aux scientifiques. En outre, les utilisateurs finaux conservent le contrôle de leurs données et sont en mesure de contrôler les capteurs utilisés par l’application. Pogo prend également la consommation d’énergie en considération en coordonnant la transmission des données pour les faire coïncider avec les transmissions d’autres applications. Cela permet d’éviter d’activer les interfaces réseaux constamment qui engendre un grand coût énergétique. 9. Android : https://developer.mozilla.org/enUS/docs/Rhino 10. iOS :https://github.com/phoboslab/JavaScriptCore-iOS 11. https://developer.mozilla.org/en-US/docs/Mozilla/Projects/SpiderMonkey 472.3.7 AnonySense : A System for Anonymous Opportunistic Sensing Shin et al. introduisent une plate-forme appelée AnonySense [62], adressant majoritaire les problématiques de confidentialité dans les systèmes de collecte opportuniste. Figure 6 – Architecture de Anonysense [62] 1 ( Expires 1196728453 ) 2 ( Accept (= @WiFi a/b/g ) ) 3 ( Report (LOCATION APLIST) 4 ( Every 60 seconds ) 5 ( In ( (1 1) (2 2) (3 0)))) Listing 2.5 – Exemple d’application développée en AnonyTL Pour la description des tâches de collecte, Anonysense propose sur un langage dédié appelé AnonyTL, inspiré de la syntaxe Lisp. AnonyTL permet de spécifier le comportement d’une tâche en fournissant un ensemble de conditions d’acception, des reports de données, et une date d’expiration. Le listing 2.5 décrit un exemple de tâche exprimée en AnonyTL. Cette tâche peut être acceptée uniquement par des dispositifs connectés à une borne WiFi, et collecte l’ensemble des bornes WiFi voisines ainsi que la position toutes les 60 secondes lorsque l’utilisateur se trouve dans une zone précise. Les auteurs proposent, un nouveau argument, le choix d’un nouveau langage pour fournir une notation plus concise et plus compréhensible. Cependant, cette concision diminue également l’expressivité du langage, et empêche également la réutilisation de code pré-existant. 48Le modèle proposé par Anonysense comporte les éléments suivants : un ensemble de dispositifs mobiles (MN), d’applications tierces (App), une autorité d’enregistrement (RA), un service de distribution de tâches (TS), et un service de rapport (RS) et un service d’anonymisation (AS). Dans ce modèle, un App soumet une tâche à l’autorité d’enregistrement (RA). Le RA vérifie ensuite si la tâche respecte la confidentialité des utilisateurs avant de la transmettre au service de distribution (TS). A intervalles réguliers, les MNs se connectent au TS et téléchargent l’ensemble des tâches disponibles. Les MNs choisissent ensuite les tâches qu’ils veulent accepter. Lorsqu’un rapport est prêt, les MNs l’envoient directement au RS ou au AS selon la sensibilité des données. Si le rapport contient des données sensibles, le rapport est envoyé au AS, dans le cas contraire, il est envoyé directement au RS. 2.4 synthèse et conclusion Dans cette section, nous faisons un bilan des plate-formes décrites dans la section précédente. Le tableau 7 fournit un récapitulatif de ces approches et les positionne par rapport aux défis décris en section 2.2. En ce qui concerne les abstractions proposées pour le développement des tâches de collecte, seulement PRISM [16] supporte à la fois le développement de tâche opportuniste et participative, en permettant le déploiement de code natif directement vers les dispositifs mobiles. Cependant, il ne fournit par d’abstraction particulière permettant de simplifier le développement des tâches de collecte. De plus, le déploiement de code natif reste exclusivement réservé à un système d’exploitation mobile spécifique, dans ce cas Windows Mobile. Pour le déploiement et le recrutement des tâches de collecte, principalement deux approches coexistent. La première est l’approche pull-based, adoptée par Medusa [55] et Anonysense, où les dispositifs sont responsables de télécharger les tâches de collecte auprès du serveur. Le principal avantage de cette approche est qu’elle permet d’assurer un certain degré de transparence, dans le sens où les participants peuvent sélectionner les tâches qu’ils souhaitent exécuter. Cependant, le temps de propagation des tâches peut être relativement long, et demande aux participants de vérifier constamment si une nouvelle tâche est disponible. Pour le recrutement des participants, Anonysense permet 49de sélectionner un sous ensemble de participants basé sur leur position. Pour assurer un temps de propagation rapide malgré l’approche pull-based utilisée, l’application mobile télécharge régulièrement toutes les tâches de collecte disponibles sur le serveur et exécute celles qui correspondent à son contexte. Cependant, cela peut impliquer un coût énergétique important des applications mobiles si de nombreuses tâches sont disponibles sur le serveur et ne correspondent pas au contexte du dispositif. La deuxième est l’approche push-based, adoptée par PRISM [16] et Pogo [6], où au contraire c’est le serveur qui déploie les tâches directement auprès des dispositifs mobiles. Son principal avantage est qu’elle permet un déploiement rapide des tâches de collecte, qui peut être très bénéfique dans le cadre où une rapide mise à jour de l’application doit être effectuée. Cependant, cette approche manque de transparence, dans le sens où les participants n’ont pas conscience des données qui sont collectées sur leur dispositif mobile. Pour le recrutement des utilisateurs, PRISM propose également un modèle basé sur la position des participants. Afin de permettre au système d’identi- fier les participants se situant dans une région spécifique, les applications mobiles ont besoin de reporter continuellement leur position sur le serveur, ce qui peut causer par conséquent un trafic réseau important si de nombreux dispositifs sont connectés au serveur. Finalement, la majorité de ces plate-formes propose une architecture centralisée, composée d’une application serveur pour le déploiement des tâches de collecte et une application mobile responsable de leurs exécutions. Cependant, ce style architectural impose à tous les utilisateurs du système de partager les ressources de l’infrastructure hébergeant la plate-forme, des mécanismes de stockage de données, le modèle financier imposé par le fournisseur de l’infrastructure et également la législation du pays où l’infrastructure est hébergée. Cela impose également les modèles mis en place pour déployer une application vers les terminaux mobiles, des mécanismes pour protéger la vie privée des utilisateurs, de récompense ainsi que la structure des données collectées. Dans ce contexte, nous pensons que ce type d’architecture limite fortement la réutilisation du système dans un contexte d’application non initialement prévu, ainsi que son passage à l’échelle. De plus, l’entité centrale représente un point unique de défaillance, qui, en cas d’attaque, peut compromettre l’ensemble des données collectées. Dans ce chapitre, nous avons présenté une vue d’ensemble du Mobile crowdsensing, ses caractéristiques, ses avantages ainsi que les défis qui doivent être adressés pour le déploiement de campagnes de collecte de données à grande échelle. À cause de ces 50nombreux défis, la mise en place de campagnes de collecte reste encore difficile, et reste réservée à des développeurs experts. Bien que de nombreuses plate-formes ont été proposées dans l’état de l’art pour simplifier le développement et le déploiement des ces campagnes, les solutions proposées restent encore restreintes à un contexte d’application particulier. De plus, la centralisation de leur architecture limite fortement la réutilisation de ces systèmes dans un autre contexte applicatif ainsi que leurs passages à l’échelle. À partir de ce constat, cela nous a mené à proposer APISENSE®, une plateforme répartie pour la conception, le déploiement et l’exécution de campagnes de collecte de données. Plus particulièrement, APISENSE® c’est : 1. Un modèle de programmation facilitant le développement de tâches de collecte participatives et opportunistes 2. Un environnement mobile sécurisé assurant l’exécution des tâches de collecte 3. Une architecture décentralisée permettant d’assurer le passage à l’échelle de la plate-forme 4. Un modèle permettant de configurer une application serveur responsable du déploiement des tâches de collecte, de la persistance ainsi que de l’exploitation des données collectées. Dans le chapitre suivant, nous présentons notre première contribution concernant le modèle de programmation des tâches de collecte ainsi que l’environnement mobile dédié à leur exécution. 51Figure 7 – Tableau comparatif des plate-formes MCS 52Deuxième partie Contributions 533 C O L L E C T E M O B I L E D E D O N N É E S Sommaire 3.1 Introduction 55 3.2 Considérations et objectifs de conception 57 3.3 Langage de programmation des collectes 59 3.3.1 Concept de l’interface de programmation 60 3.3.2 Collecte de données dirigée par les évènements 60 3.3.3 Les actions 64 3.4 Intergiciel de collecte 68 3.4.1 Couche d’exécution 68 3.4.2 Couche de contrôle 72 3.4.3 Couche d’interaction 74 3.5 Évaluation du prototype 78 3.5.1 Quelques exemples de collectes 79 3.5.2 Coût énergétique d’une expérience de collecte 87 3.6 Conclusion 88 3.1 introduction Le Mobile Crowd Sensing (MCS) est un mode de collecte de données qui a récemment été défini comme :" la participation d’un groupe d’individus, disposant de terminaux mobiles intelligents, qui collectivement, partagent des informations pour la mesure ou la cartographie de phénomènes d’un intérêt commun." [27]. Ces dernières années, le MCS a suscité l’intérêt d’un grand nombre d’acteurs académiques, dans des domaines tels que l’étude de la mobilité urbaine, la surveillance de l’environnement, la santé ou l’étude des comportements sociaux [9]. Cependant, le développement de ces applications reste une tâche complexe. En effet, ces applications ont besoin de faire face à de nombreuses propriétés non fonctionnelles telles que les ressources énergétiques limitées des dispositifs mobiles, le respect de 55la confidentialité des utilisateurs mobiles, ou encore le coût du recrutement d’un nombre important d’utilisateurs. À cause de cette complexité, il peut être très difficile pour de nombreuses acteurs de développer leurs applications capables de récolter la masse de données nécessaires pour leurs études. Ces dernières années, de nombreuses communautés scientifiques, utilisant le MCS dans leur processus expérimental, ont beaucoup discuté des bénéfices que pourrait apporter un système facilitant ce mode d’acquisition de données [27, 60, 66, 68]. Dans ce contexte, nous proposons dans cette thèse APISENSE®, une plate-forme visant de nombreux acteurs privés, publics ou académiques, leurs permettant de facilement développer et déployer des applications de collecte de données à travers des utilisateurs mobiles. Dans le chapitre section 1.4, page 13 , nous avons présenté une vue d’ensemble d’APISENSE®. Nous rappelons brièvement que le système est composé de trois entités logicielles i) un serveur central responsable du déploiement de tâches de collecte, ii) des nœuds de collecte dédiés aux utilisateurs, responsable du déploiement des tâches de collecte vers le serveur central et la persistance des données collectées, et finalement iii) un agent mobile, dédié aux participants (c.-à-d. utilisateur mobile) responsables de l’exécution des tâches de collecte. Dans ce chapitre, nous présentons notre première contribution qui consiste à proposer un modèle de programmation visant à minimiser l’expertise nécessaire liée aux développements d’applications de collecte, et la conception d’un environnement d’exécution mobile dédié à aux applications développées par notre interface de programmation. structure du chapitre La suite du chapitre est organisée comme suit : dans la section 3.2, nous faisons un bref rappel des problématiques et des solutions proposées dans l’état de l’art, et identifions les considérations prises en comptes pour la conception de notre solution. Nous présentons par la suite en section 3.3 une vue d’ensemble de l’interface de programmation proposée pour le développement des tâches de collecte. En section 3.4, nous présentons l’architecture du substrat d’exécution dédié à l’exécution des tâches de collecte. Nous présentons en section 3.5 l’évaluation d’un prototype réalisé sur Android, avant de conclure en section 3.6. 563.2 considérations et objectifs de conception Afin d’avoir une large applicabilité, permettant de définir une grande variété de tâches de collecte, nous devons proposer un modèle de programmation qui demande de prendre en considération principalement les trois points suivants : Diversité des tâches de collecte : Une tâche de collecte consiste à définir quel est le type de données (par ex. position, image), quand le processus de collecte doit être effectué (par ex. toutes les 5 minutes, lorsqu’un événement spécifique apparait) et comment une donnée doit être capturée. En ce qui concerne le comment, typiquement deux méthodes peuvent être utilisées. La première demande une interaction avec l’utilisateur (appelée collecte participative [7]), en lui demandant de répondre à un questionnaire ou prendre une photo par exemple. La deuxième s’effectue de manière autonome (appelée collecte opportuniste [39]), en interagissant directement avec les capteurs mobiles embarqués dans les terminaux mobiles. Diversité des traitements locaux : Pour la définition d’une tâche de collecte, quatre préoccupations doivent être prises en considérations : i) la limitation des ressources énergétiques, ii) la quantité des données générées et propagées vers le serveur, iii) la qualité des données et finalement iv) la confidentialité des participants. Prendre en compte ces considérations demande généralement de faire des compromis entre elles, en effectuant un traitement local avant de propager les données vers le serveur. L’objectif de ces traitements est de diminuer les données à propager sur le serveur, en remontant uniquement les données essentielles pour l’expérience, économisant ainsi la batterie de l’utilisateur par la réduction de communications réseau. Ces traitements peuvent consister à filtrer les données aberrantes, inférer une information contextuelle de haut niveau à partir de données brutes (par ex. mode de transport), ou encore alterner l’utilisation des capteurs en fonction de leurs consommations énergétiques (par ex. GPS vs géolocalisation GSM). Diversité des plate-formes mobiles : D’autre part, permettre le déploiement des tâches de collecte vers un grand nombre de participants demande également de prendre en compte la diversité des plate-formes mobiles disponibles. Ceci amène généralement à étudier et réaliser une application mobile spécifique pour chacune d’entre elles. Cette diversité a été soulignée par l’expérience menée par Balan et coll. [4], qui ont mis plus 57de six mois pour le développement et le déploiement d’une expérience de collecte à travers 15,000 taxis à Singapour. En tant que plate-forme de collecte de données, APISENSE® a deux publics distincts : i) les utilisateurs qui veulent définir de nouvelles campagnes de collecte de données, ii) les participants qui exécuteront ces tâches de collecte sur leur dispositif mobile. Dans ce contexte, à partir des considérations décrites ci-dessus et de ces deux publics distincts évoluant dans APISENSE®, nous identifions les objectifs de conception suivants : Objectif de conception pour les utilisateurs : Afin de minimiser le niveau d’expertise nécessaire liée aux développements des applications de collecte, il est nécessaire de fournir une abstraction facilitant leurs développements. Dans ce contexte, l’objectif est de proposer un langage de programmation reposant sur trois propriétés : 1. la généralité : pour supporter une grande variété d’activités de collecte (c.-à-d. participative et/ou opportuniste), qui peuvent également impliquer une grande variété de capteurs. 2. l’accessibilité : permettant de minimiser l’expertise nécessaire dans les technologies mobiles afin d’accéder aux fonctionnalités offertes par les capteurs des terminaux mobiles, ainsi que leurs collectes et leurs propagations vers l’infrastructure serveur. 3. la portabilité : afin d’éviter de devoir définir plusieurs tâches de collecte pour différentes plate-formes mobiles, l’abstraction proposée doit être en mesure de s’exécuter sur ces différentes plate-formes. Objectif de conception pour les participants : Inévitablement, les participants mobiles jouent un rôle central dans le processus de collecte. Afin de favoriser leurs participations, nous pensons que la confiance et la transparence doivent être un aspect fondamental du système. Cela nécessite que les utilisateurs mobiles aient connaissance des données qui sont collectées sur leurs terminaux, avec qui ils les partagent et dans quel but. D’autre part, favoriser l’acceptabilité des utilisateurs demande de fournir un substrat d’exécution permettant de : 1. Contrôler la confidentialité : en laissant la possibilité aux utilisateurs de choisir les données qui sont partagées, les capteurs qui peuvent être utilisés par les 58applications de collecte, et dans quelle circonstance les données peuvent être partagées. 2. Minimiser l’impact énergétique : lié à l’exécution d’une application de collecte, pour ne pas empêcher une utilisation normale du dispositif. Notamment si de multiples applications doivent être exécutées sur un seul dispositif. 3. Récompense adaptée : pour favoriser la participation des utilisateurs mobiles, en rendant ludique le but de la collecte de données, ou en récompensant les utilisateurs financièrement selon la nature des données collectées. 3.3 langage de programmation des collectes Pour le développement des tâches de collecte, nous avons opté pour le langage de script JavaScript. Le choix du JavaScript est motivé principalement pour trois raisons. Premièrement, JavaScript est un langage accessible et populaire, bénéficiant de l’expressivité d’un langage générale. Cela donne aux utilisateurs une grande liberté pour définir des traitements complexes, intégrer des libraires déjà existantes de traitement de données (par ex. clustering) pour inférer des données de haut niveau directement dans le dispositif mobile. Ensuite, JavaScript est facilement transportable et exécutable sur de nombreuses plateformes mobiles, permettant un rapide déploiement et une rapide propagation des mis à jour de la tâche de collecte. Et finalement, d’un point de vue plus technique, JavaScript est nativement exécuté dans un bac à sable (sandbox en anglais), facilitant le contrôle des fonctionnalités des dispositifs mobiles accessibles par les scripts. Pour faciliter le développement des tâches de collecte, nous proposons une interface de programmation (API) dédiée à la collecte de données, au-dessus de JavaScript. Le principal objectif de l’API est de fournir une abstraction complète des technologies mobiles, permettant le développement d’application de collecte de données, sans avoir une expertise particulière dans ces technologies. Dans APISENSE, une tâche de collecte est spécifiée par un ou plusieurs scripts JavaScript, qui peuvent être déployés et exécutés sur les dispositifs mobiles des participants. Dans la suite de cette section, nous présentons une vue d’ensemble de l’API proposée. 593.3.1 Concept de l’interface de programmation Comme le montre la figure 8, notre API consiste en un ensemble de variables pré- définies, appelée façades, définissant l’ensemble des fonctionnalités accessibles par les scripts. Plus précisément, une façade permet d’interagir avec les ressources d’un dispositif, et est implémentée dans le langage natif de la plate-forme d’exécution. Ces ressources peuvent être par exemple des capteurs physiques (par ex. température, GPS), des capteurs logiciels (par ex. appel téléphonique, installation d’une application) ou encore l’interface graphique du dispositif mobile. Dans notre API, chaque façade proposée fait référence à une ressource spécifique, et délimite un sous-ensemble de fonctionnalités fourni par celle-ci. Ce procédé permet ainsi d’empêcher l’utilisation complète des fonctionnalités des dispositifs mobiles, pour des raisons de sécurité et de confidentialité vis-à-vis du participant. Par exemple, cela permet de crypter toutes les informations sensibles (par ex. contacts, numéro de téléphone, etc.), d’empêcher l’installation de nouvelles applications ou encore de faire des appels téléphoniques. Également pour des raisons de confidentialité, nous laissons la possibilité aux participants de contrôler les façades accessibles par les scripts de collecte. Par exemple, un participant peut à tout moment enlever la possibilité à un script de déterminer sa position, ou d’être notifié lorsqu’il reçoit des SMS. La communication entre les scripts et les façades peut s’effectuer de deux manières différentes. La première, de manière asynchrone, permet aux scripts d’être notifiés du changement des états des capteurs des dispositifs mobiles. La deuxième, de manière synchrone, permet aux scripts de collecte d’effectuer une action spécifique, ou alors de lire directement le dernier état d’un capteur. 3.3.2 Collecte de données dirigée par les évènements L’écoute des évènements permet de déclencher une action ou un traitement en fonction du contexte de l’utilisateur mobile. Par exemple, la collecte de données peut être déclenchée uniquement lorsque l’utilisateur est en situation de mobilité. L’observation du contexte consiste principalement à observer le changement d’état d’un capteur interne du dispositif. Pour interagir avec les capteurs, les façades proposent un ensemble de fonctions permettant aux scripts d’être notifiés de ce changement d’état. Le tableau 1 montre quelques exemples de façade et des fonctions associées dédiées à l’observation d’un événement particulier. L’observation consiste donc à souscrire une 60Figure 8 – Interface de Programmation APISENSE Façade Fonction Description $location onLocationChange Observation du changement de position $battery onBatteryStateChange Observation de l’état de la batterie $acc onAccelerometerChange Observation de l’accélération $phone onPhoneCall Observation des appels téléphonique Table 1 – Liste des fonctions d’observation d’événements prédéfinis. Paramètre Type Description configuration JSONObject Configuration de l’observation de l’état du capteur callback function(event,subscription) Fonction de rappel condition (optionnel) String Condition logique Table 2 – Liste des paramètres d’une fonction de rappel 61fonction de rappel, à une façade responsable du capteur capable de générer l’événement voulu. La souscription comprend trois paramètres, permettant la configuration du capteur, la fonction de rappel et une expression logique permettant de raffiner l’observation des événements, et retourne un objet de type Subscriber. configuration Le premier paramètre configuration laisse la possibilité de configurer l’observation du capteur en question. La configuration peut être utilisée afin de faire un compromis en qualité des données transmises par les capteurs (c.-à-d. fréquence d’échantillonnage, précision) et l’énergie consommée liée à l’observation du capteur. Un exemple classique est l’observation du changement de la position d’un utilisateur. Généralement, ce compromis peut être effectué en alternant le type de capteur utilisé — entre le GPS fournissant une grande précision, mais consommant beaucoup d’énergie, et le réseau qui au contraire consomme moins d’énergie, mais fournit une localisation moins précise —, ou la fréquence d’échantillonnage. Le tableau 2 illustre les configurations du capteur de position possibles. Fonction Description period Période d’échantillonnage de la position provider Capteur de position utilisé : gps ou network Table 3 – Configuration de l’observation de la position d’un utilisateur fonction de rappel Le deuxième paramètre permet d’enregistrer une fonction qui sera exécutée lors du changement d’état du capteur observé. Par exemple, le listing suivant montre la syntaxe permettant à un script de collecte d’être notifié lorsque l’utilisateur est en situation de mobilité : $location.onLocationChanged({provider : ["gps"]},function(event){ // code exécuté lorsque une nouvelle position est détectée }) Chaque événement est défini par un ensemble d’attributs, sérialisés par un ensemble de clés/valeurs utilisant le formalisme JSON. Chaque événement est au minimum défini par un nom, et la date de sa production. Le listing suivant illustre un exemple d’événement produit lorsqu’une nouvelle position de l’utilisateur est détectée : 62{ event : "location", time : 18005010510, latitude : 50.65, longitude : 2.11, accuracy : 100, speed : 3 } Dans cet exemple, l’événement est défini par cinq attributs indiquant la position de l’utilisateur (c.-à-d.latitude, longitude), la précision de la position (c.-à-d.accuracy) et la vitesse de l’utilisateur (c.-à-d.speed). condition logique Optionnellement, l’écoute d’événement peut être raffinée en insérant une condition lors de la souscription. La condition se définit par un opérateur appliqué à un attribut appartenant à l’événement et à une valeur. Plusieurs conditions peuvent être exprimées en ajoutant des opérateurs logiques de type et, ou ou non. (cf. listing 3.1). Le listing suivant illustre un exemple utilisant une expression logique, implémentant une solution naïve pour déterminer si l’utilisateur est en train de marcher : $location.onLocationChanged({provider : ["gps"]},function(event){ // code exécuté lorsque l’utilisateur marche }," &((speed > 3),(speed < 5)) ") Dans cet exemple, nous observons donc le changement de position, et nous définissons que la fonction de rappel doit être exécutée uniquement si l’utilisateur se déplace à une vitesse comprise entre trois et cinq Kilomètres/h. 1 expression ::= key’(’[condition+]’)’ | condition 2 condition ::= eventAttribute operator value 3 key ::= ( "!" | "&" | "|" ) 4 operator ::= ( "<" | "==" | ">" | "<=" | ">=" ) 5 eventName ::= alpha* 6 eventAttribute ::= alpha* 7 value ::= alphanumeric* Listing 3.1 – Grammaire BNF d’une expression logique objet de souscription Pour maintenir un lien entre la souscription et le script, un objet de type Subscriber (cf. table 4) est retourné lors de l’enregistrement. L’objet de souscription permet d’annuler la souscription à un événement particulier 63(fonction suspend), permettant d’éteindre un capteur actif afin de conserver l’énergie du dispositif mobile. La méthode resume permet de reprendre une souscription qui a été annulée. Fonction Description suspend Suppression de l’observation resume Redémarrage de la souscription Table 4 – Liste des fonctions d’un objet de souscription 3.3.3 Les actions En plus de l’observation des événements, les façades fournissent également des fonctions permettant d’exécuter des actions spécifiques. Dans la suite de cette soussection, nous présentons les principales actions prédéfinies par notre API qui sont la collecte et la propagation de données, l’interaction avec l’utilisateur mobile ou encore définir des informations pouvant être fournies en retour aux utilisateurs sur les données collectées. Collecte et propagation des données La collecte de données est effectuée à l’aide de la façade dédiée $trace. Cette façade possède trois fonctions comme le montre le tableau 5. La première permet de sauvegarder une donnée dans la base de données locale du terminal mobile (méthode add). Les données sont sous la forme d’un objet JSON, n’imposant aucune structure de données particulière pour représenter les données collectées. Cela laisse ainsi une grande flexibilité aux utilisateurs de définir leurs propres structures. Additionellement, les utilisateurs peuvent ajouter des méta-informations (méthode addHeader), permettant de diminuer la collecte de données redondantes, et leurs agrégations une fois propagées vers le serveur. Ces méta-informations représentent généralement des données statiques, c’est à dire qui n’évoluent pas dans le temps. L’API permet également de définir la stratégie pour propager les données vers les nœuds de collecte grâce à la méthode send. Lors de l’appel à cette fonction, la façade propagera les données sauvegardées dans la base de données locale si une connexion est disponible, sinon les données seront propagées une fois la connexion retrouvée. Dans le cas où aucune stratégie n’est définie, les données seront propagées automatiquement une fois que le 64dispositif est branché sur secteur et possède une connexion réseau. Cela permet de diminuer la consommation énergétique des dispositifs des participants. Fonction Description add(data) Collecter une donnée addHeader(key,value) Collecter une donnée statique send() Propagation des données collectées Table 5 – Liste des fonctions de la façade de collecte Interaction avec l’utilisateur Collecter des données de façon transparente peut ne pas être suffisant dans certains cas. En effet, certaines informations comme la satisfaction d’un utilisateur ou ses intentions sont difficilement perceptibles à partir de donnée brute. Prenons par exemple une collecte de donnée visant à observer la qualité du signal réseau d’un utilisateur mobile. Il peut être intéressant de voir comment la qualité du signal réseau influe sur la qualité de la communication vocale. Cependant, cette information peut être très difficilement inférée à partir des données brutes issues des capteurs. Dans ce contexte, une solution possible est de proposer des questionnaires d’évaluation aux utilisateurs. Ce type de collecte est également appelé collecte participative. Pour supporter la collecte participative, notre API dispose d’une façade permettant la création et la publication de questionnaire aux utilisateurs mobiles. Le tableau 6 illustre les principales fonctions fournies par cette façade. La création d’un nouveau questionnaire s’effectue à partir de la fonction create de la façade $survey. La fonction retourne un objet de type Survey, disposant d’un ensemble de fonctions permettant d’insérer des questions ouvertes (par ex. zone de texte), de question fermée (par ex. case à cocher), ainsi que des captures multimédias (c.-à-d. photo, vidéo, audio). La fonction then permet de modifier la séquence des questions proposée à l’utilisateur, qui est par défaut dans l’ordre de leurs créations. Cela permet par exemple de proposer des questions différentes selon les premières réponses données par l’utilisateur. Nous illustrerons un exemple de création de questionnaire dans la sous-section 3.5.1 . 65Facade $survey Return Fonction Description Survey create Création d’un nouveau questionnaire void publish(survey,callback) Publication du questionnaire Type Survey void close(label,question,responses) Création d’une question fermée void open(label,question) Création d’une question ouverte void image(label,format) Capture photo void audio(label,format) Capture audio void video(label,format) Capture vidéo void then(label,callback) Spécification de la prochaine fonction Table 6 – Liste des fonctions de la façade dédiée à la création des questionnaires Retour utilisateur Afin de favoriser leurs participations des utilisateurs, et surtout maintenir les utilisateurs dans la durée, nous avons intégré à notre API la possibilité d’effectuer facilement des retours visuels sur les données collectées par l’utilisateur mobile. Ces retours visuels peuvent être directement développés utilisant le couple JavaScript/HTML, fournissant une grande flexibilité pour concevoir des retours selon la nature de collecte de données. Pour simplifier leurs développements, nous proposons des modules complémentaires qui peuvent être inclus dans la tâche de collecte lors de son déploiement, ou téléchargés dynamiquement lors de l’exécution du script. Actuellement nous proposons deux modules génériques permettant de créer automatiquement des graphes ou des cartes géographiques à partir des données collectées. Par exemple, le listing 3.2 décrit un exemple l’utilisation d’un module facilitant la génération de graphe. Dans cet exemple, les trois premières permettent de charger le module (ligne 1), créer un nouveau graphique (ligne 2) et rendre disponible le graphique pour les utilisateurs (ligne 3). Les lignes suivantes permettent d’observer les évènements relatifs aux changements de la force du signal GSM (ligne 7), et d’ajouter une nouvelle valeur au graphique lorsqu’un nouvel évènement est détecté (ligne 9). La figure 9 montre une capture d’écran du rendu graphique de cet exemple. 66// signal strenght chart configuration var chartLib = require("lib-chart.js") chart = chartLib.area({name : "GSM Signal Strength Chart"}); chart.publish(); // telephony sensor monitoring initialization $telephony.onSignalStrengthChanged(function(event){ chart.add({ x : event.time, event.level }); }); Listing 3.2 – Exemple de retour utilisateur Figure 9 – Exemple de capture d’écran d’un retour utilisateur Dans cette section, nous avons présenté une vue d’ensemble de notre API, dédié aux développements des tâches de collectes de notre système. Une documentation plus détaillée est également disponible le site internet dédié à APISENSE 1 . Dans la 1. http://apisense.io 67section suivante, nous présentons les concepts et l’architecture de l’intergiciel dédié à l’exécution de l’interface de programmation présentée dans cette section. 3.4 intergiciel de collecte Dans la première section de ce chapitre, nous avons présenté une interface de programmation dédiée aux développements de tâche de collecte en environnement mobile. Dans cette section, nous présentons en détail l’architecture de l’intergiciel responsable de l’exécution des tâches de collecte. D’un point de vue utilisateur, l’intergiciel se dé- cline sous la forme d’une application mobile, qui peut être téléchargée et installée afin de participer aux expériences de collecte de données. Dans ce cadre, l’application peut être perçue comme un conteneur générique de tâches de collecte, capable d’interagir avec les différents serveurs pour la propagation des données collectées (vers les nœuds de collecte), le téléchargement des tâches de collecte (auprès du serveur central) ainsi que leurs exécutions. La figure 10 illustre une vue d’ensemble de l’architecture de l’intergiciel se déclinant en trois couches. Dans la suite de cette section, nous présentons en détails chacune de ces couches dédiées à : i) l’exécution des tâches de collecte (cf. sous-section 3.4.1), au contrôle des ressources du dispositif mobile (cf. sous-section 3.4.2), et iii) aux interactions avec les différentes entités logicielles d’APISENSE® (cf. sous-section 3.4.3). 3.4.1 Couche d’exécution Nous présentons ici la couche responsable de l’exécution des tâches de collecte développées avec l’interface de programmation que nous avons présentée dans la section précédente. La première couche de l’architecture présentée est responsable de l’exécution des tâches de collecte. La Figure 11 illustre plus en détail les différents modules et les interactions nécessaires à l’exécution des tâches de collecte. Le point d’entrée de cette couche est le Script Manager, qui est responsable de créer ou détruire une instance d’exécution d’une tâche de collecte, selon l’ordre envoyé par le Privacy Manager. Dans ce contexte, l’objectif clé est de fournir un environnement d’exécution sécurisé, permettant également aux participants de contrôler les données qu’ils partagent pour des raisons de confidentialité. Cependant, généralement tous les accès aux données brutes des capteurs peuvent constituer une menace pour la 68Figure 10 – Architecture de l’intergiciel mobile Figure 11 – Interaction de la couche d’exécution 69vie privée des participants. Par exemple, l’accès au microphone peut être utilisé pour enregistrer une conversation téléphonique souhaitant rester privée. L’accès continu au GPS peut permettre à un utilisateur anonyme d’être identifié juste en couplant des informations géographiques et temporelles [26]. Néanmoins, ce risque reste inhérent dans le domaine de la collecte de données. En effet, si nous voulons une protection parfaite, tous les accès aux capteurs devraient être bloqués. Pour mitiger ces risques, nous laissons la possibilité aux participants de contrôler les capteurs accessibles par les tâches de collecte (cf. 3.4.2). Pour la gestion de ce contrôle d’accès, chaque instance d’exécution d’une tâche de collecte est exécutée dans un bac à sable dédié (sandbox en anglais), permettant d’intercepter tous les appels entre les tâches de collecte et les capteurs du dispositif. Ainsi, toutes les fonctionnalités de l’interface de programmation sont fournies par un ensemble de façades (cf. sous-section 3.3.1), représentant également le point d’extension de notre l’architecture. Une façade est un objet, écrit en code natif de la plate-forme mobile, permettant l’interaction entre les tâches de collecte et l’environnement mobile. Le listing 3.3 montre l’exemple d’un squelette d’implémentation sous Android, de la façade permettant d’accéder aux capteurs de localisation. Dans cette façade, la fonction getReferenceName retourne le nom de la variable qui est utilisée pour accéder aux fonctions fournies par la façade. Chaque fonction annotée par une annotation @ScriptMethod, indique au moteur de script que la fonction est accessible par les tâches de collecte. Si nous reprenons l’exemple illustré dans la section précédente (cf. sous-section 3.3), la fonctionnalité $location.onLocationChanged accessible par la tâche de collecte, est implémentée par la façade LocationFacade, injectée en tant que variable $location et implémentant la fonction onLocationChanged. 1 public class LocationFacade extends AbstractAndroidFacade{ 2 3 public String getReferenceName() {return "location";} 4 5 public String getSensorDescription(){ ... 6 7 @ScriptMethod 8 public ISubscriber onLocationChanged( 9 JSONObject params,IScriptFunction callback,String... filters){ 10 // subscribe to location sensor update 11 return ... 12 } 13 14 public void shutdown() { ... // clean sensor subscription } 15 } 70Listing 3.3 – Squelette de l’implémentation d’une façade sur Android Lors de la création d’une nouvelle instance d’exécution, le Script Manager effectue une requête au Privacy Manager pour lister l’ensemble des capteurs admis par le participant. Le Script Manager injectera alors seulement les façades correspondantes aux capteurs qui auront été admis par le participant. Dans ce cadre, les façades correspondant aux capteurs non autorisés ne seront pas injectées, empêchant les scripts de bénéficier des fonctionnalités du capteur en question. Réguler l’accès aux capteurs Pour interagir avec les capteurs du dispositif mobile, les façades doivent interagir avec le Sensor Controller. Son objectif est principalement de réguler l’accès aux capteurs du dispositif et de filtrer les données sensibles. Par exemple, lorsqu’une façade demande l’accès à des informations de type SMS ou numéro de téléphone, les données retournées par la couche de contrôle seront automatiquement cryptées pour protéger la vie privée des participants. Deux types de communications peuvent être effectuées avec le Sensor Controller, des communications de type asynchrone permettant la lecture continuelle de l’état d’un capteur et de type synchrone afin de lire directement l’état d’un capteur. Pour économiser la batterie du dispositif mobile, le Sensor Controller dispose de deux mécanismes. Le premier est un mécanisme de cache, dédié aux communications synchrones. Ce mécanisme permet principalement de limiter une lecture excessive de l’état d’un capteur. Ce mécanisme consiste principalement à définir une fenêtre temporelle dans laquelle seront insérées toutes les données récupérées par le Sensor Controller via les APIs des systèmes mobiles, donnant accès aux données fournis par les capteurs physiques. Avant de procéder à un nouvel accès aux capteurs, la couche de contrôle vérifiera dans un premier temps si la donnée demandée est disponible dans la fenêtre temporelle. Si elle est disponible, la valeur du cache sera alors renvoyée. Le deuxième mécanisme mis en place tente de minimiser le nombre de souscriptions effectuées aux capteurs des dispositifs. Typiquement, un script peut être notifié du changement d’état d’un capteur en enregistrant à une façade une fonction de rappel, une expression logique permettant de filtrer les états ainsi qu’une période indiquant la fréquence des mises à jour des données. Dans le cas où plusieurs scripts procèdent 71à la souscription d’un même capteur avec une période différente, le Sensor Controller effectuera seulement une souscription aux capteurs correspondants, avec une période correspondante à la plus petite période des deux souscriptions. Prenons le cas par exemple où deux scripts effectuent une souscription au capteur GPS avec les périodes respectives de 10 et 20 secondes. Dans ce cas, le Sensor Controller effectuera une seule souscription au capteur GPS avec une fréquence d’échantillonnage égale à 10 secondes, et notifiera les deux scripts toutes les 10 secondes de la nouvelle position. 3.4.2 Couche de contrôle Cette couche est responsable du contrôle de l’exécution des scripts de collecte. Le contrôle consiste à automatiquement démarrer ou arrêter un script de collecte, à partir d’un ensemble de contraintes contextuelles définies par les participants et les expé- riences. Ces contraintes peuvent par exemple permettre aux participants d’empêcher l’exécution d’un script en dehors de la période allant de 9 heures et 18 heures ou lorsque le participant est en dehors d’une zone géographique. Un autre scénario envisagé est d’empêcher l’exécution d’un script si le niveau de la batterie est inférieur à 30 %. Ces contraintes peuvent être classifiées en quatre catégories : contrainte temporelle, contrainte géographique, contrainte de ressource et contrainte de capteur. Ces contraintes sont respectivement interprétées par les modules TimeConstraint, ZoneContraint, ResourceConstraint et SensorConstraint. Contrainte temporelle Ces contraintes, interprétées par le module Time Constraint, permettent de spécifier différentes périodes de la journée durant lesquelles les expériences ont l’autorisation d’être exécutées. Ces contraintes sont modélisées comme un ensemble de périodes où chaque période est définie par un temps de départ et un temps de fin. Pour une expérience donnée, la contrainte temporelle est vérifiée si, à instant t, t appartient au moins à une période définie par le participant et à une période définie par le contexte d’exécution de l’expérience. La surveillance contextuelle des contraintes temporelle consiste à surveiller l’horloge interne du dispositif mobile. Pour chaque contrainte définie, ce module programme une alarme, demandant au système d’être notifié au début et à la fin de la période définissant la contrainte. 72Contrainte géographique Interprétées par le module Zone Constraint, les contraintes géographiques permettent de spécifier un ensemble de lieux ou de régions, dans lesquelles les scripts peuvent être exécutés selon la position du participant. Une contrainte géographique est modélisée par un ensemble de régions circulaires en terme de latitude, longitude et un rayon en kilomètre. Pour une expérience donnée, la contrainte géographique est vérifiée si à une position p donnée, p est inclus au moins dans une zone définie par le participant ou par le contexte d’exécution de l’expérience. En ce qui concerne la surveillance contextuelle, surveiller activement la position de l’utilisateur peut engendrer une grande consommation énergétique du dispositif. Pour diminuer cette consommation énergétique, nous utilisons un algorithme fréquemment utilisé [3, 8] dans la littérature. Typiquement, l’idée principale est i) d’utiliser alternativement les différents mécanismes permettant de déterminer la position d’un utilisateur — entre le GPS fournissant une grande précision, mais consommant beaucoup d’énergie, et le réseau qui au contraire consomme moins d’énergie, mais est beaucoup moins précis —, ii) et la fréquence d’échantillonnage en fonction de la distance de l’utilisateur et la zone la plus proche de sa position actuelle. Contrainte de ressource Ces contraintes permettent de limiter les ressources consommées par l’application. Le participant peut par exemple définir un seuil de batterie pour stopper l’exécution de toutes les expériences de collecte pour éviter un épuisement complet de sa batterie. Une autre ressource qui peut être contrôlée est la quantité de données échangées via une connexion de données mobiles qui peut induire un coût monétaire pour le participant. Dans ce cadre, le participant peut définir un seuil maximum de données transmises lorsqu’une connexion est utilisée. Contrainte de capteur Ces contraintes permettent de spécifier les fonctionnalités permises par les scripts de collecte. Dans l’interface de programmation proposée pour définir une expérience de collecte, nous avons vu que les fonctionnalités accessibles par les scripts se font par l’intermédiaire de façades. Pour chaque façade, le participant a la possibilité de définir s’il autorise l’accès à l’ensemble des fonctionnalités proposées par la façade. Par exemple, le participant peut enlever l’autorisation de la façade $sms, qui supprimera la possibilité de recueillir des informations relatives aux SMS envoyés et lus. 73Dans l’architecture présentée précédemment en figure 10, les modules TimeConstraint, ZoneConstraint et RessourceConstraint ont pour rôle de surveiller le contexte du dispositif (e.g. horloge interne, position, niveau de batterie) et d’envoyer un message au Privacy Manager afin de notifier un changement de contexte du dispositif mobile. Lors de la notification, le Privacy Manager vérifie pour chaque expérience si les contraintes spécifiées par le participant et par l’expérience sont respectées. Dans ce cas, le Privacy Manager interprètera les contraintes de capteurs définies par le module Sensor Constraint pour générer une nouvelle instance d’exécution ou stopper l’exécution d’une expérience de collecte. 3.4.3 Couche d’interaction La dernière couche présenté dans cette section représente la couche de plus haut niveau de l’intergiciel. Cette couche est principalement responsable des interactions entre le dispositif mobile avec les différentes entités logicielles de notre architecture et le participant. Typiquement, cinq types d’interactions sont nécessaires au déroulement des expériences de collecte : i) l’enregistrement auprès du serveur central, ii) la souscription à une expérience de collecte, iii) la mise à jour des expériences, iv) l’interaction avec les participants et finalement v) la propagation des données collectées. Dans la suite de cette sous-section, nous présentons ces interactions et les modules responsables de leurs fonctionnements. Souscription du dispositif Le processus d’enregistrement, géré par le Profile Manager, permet d’informer le serveur central de la disponibilité d’un nouveau périphérique mobile pour l’exécution de nouvelles tâches de collecte. Typiquement, cette phase d’enregistrement consiste à fournir des informations générales du dispositif et du participant, permettant de proposer des expériences de collecte adéquates. Dans ce contexte, deux sortes d’informations sont principalement échangées. Les premières sont des informations relatives au dispositif mobile incluant le type du dispositif (par ex. smartphone, tablette), son système d’exploitation (par ex. Android, iOS), ses performances ainsi que les capteurs embarqués (par ex. température, GPS). Pour raffiner la proposition des expériences, les participants ont la possibilité de compléter ces informations volontairement en indiquant les différents lieux de vie dans lequel ils évoluent (par ex. maison, travail) son statut (par ex. professionnel) ainsi que son âge.Toutes les informations transmises 74Figure 12 – Règles de confidentialité resteront confidentielles, c’est-à-dire qu’elles ne seront pas directement accessibles par les nœuds de collecte du système. Ces informations seront utilisées uniquement par le serveur central lors de la phase du déploiement des expériences de collecte. D’autre part, afin de protéger la vie privée des participants, le Profile Manager permet aux participants de définir certaines règles de confidentialités (cf. figure 12). Principalement trois catégories de règles peuvent être définies. Les deux premières permettent de spécifier des zones géographiques et temporelles, indiquant à l’agent mobile une interdiction d’exécuter des tâches de collecte. La dernière catégorie permet de spécifier des règles d’autorisations, permettant d’empêcher l’activation des capteurs ou l’accès aux données brutes du capteur si l’utilisateur ne veut pas partager une information. Nous aborderons plus en détails ce point dans la sous-section suivante (cf. sous-section 3.4.2). Souscription à une expérience Une fois le dispositif enregistré, les participants ont la possibilité de lister (via le ExperimentManager), un sous ensemble d’expériences de collecte proposées par les utilisateurs. Les expériences sont retournées en fonction des informations fournies lors de la phase d’enregistrement. Chaque expérience est définie tout d’abord par un nom ainsi qu’une brève description indiquant l’objectif de la collecte de données. La description d’une expérience est également caractérisée par un contexte d’exécution définissant quand l’expérience doit être exécutée. Le contexte d’exécution est défini 75selon une dimension géographique (par ex. à l’intérieur d’une zone) et une dimension temporelle (par ex. période dans la journée). D’autre part, des informations relatives aux capteurs utilisés sont fournies pour indiquer aux participants quels sont les types de données qui peuvent être collectées sur leurs dispositifs. À partir de l’ensemble des descriptions disponibles, le participant a la possibilité de soumettre une souscription à une expérience de collecte. Dans ce cadre, la souscription déclenchera le téléchargement des scripts associés dans le système de fichier du dispositif mobile ainsi que des informations complémentaires propres aux scripts de collecte. Ces informations comprennent la version actuelle des scripts de collecte, l’adresse du serveur de collecte ayant initié l’expérience ainsi qu’un identifiant anonyme généré lors de la souscription. L’identifiant anonyme généré par le serveur central est unique pour chaque expérience. Cette identifiant servira alors de clé d’authentification lors de la propagation des données vers le serveur de collecte. Lorsque les scripts de l’expérience sont téléchargés, le module déclenche automatiquement son exécution. Néanmoins le participant garde à tout moment la possibilité d’arrêter son exécution. Mise à jour des expériences La mise à jour des expériences de collecte est gérée par le module NotificationManager. Les mise à jour sont effectuées par des communications de type push, c’est-à-dire des communications serveur vers mobile. Dans notre contexte applicatif, cela permet d’éviter de faire des requêtes périodiques vers le serveur, induisant un surcoût énergétique pour assurer une rapide prolifération. Pour assurer ce type de communication, nous utilisons des services intermédiaires proposés par les plate-formes mobiles actuelles, telles que APNs (Apple Push Notification service) pour plateformes tournant sur iOS et GCM (Google Cloud Messaging) pour les plateformes Android. Généralement, pour utiliser ce type de service, les dispositifs mobiles doivent tout d’abord procéder à une phase d’enregistrement auprès du service en question. Cette phase permet l’obtention d’un identifiant unique, qui devra ensuite être partagé avec le serveur — dans notre contexte, le serveur central— voulant envoyer des messages vers le dispositif en question. Le serveur peut ensuite faire appel au service dédié en utilisant les identifiants partagés pour propager directement des informations auprès des dispositifs mobiles. Dans ce contexte, lorsqu’une nouvelle version d’une expérience est déployée, le serveur central envoie un message à tous les participants ayant souscrits à l’expérience en question. Ce message est ensuite intercepté par le NotificationManager qui déclenchera automati- 76quement le téléchargement de la nouvelle version, sans imposer aux participants de télécharger à nouveau la tâche de collecte manuellement. Retour utilisateur Le Feedback Manager est responsable de l’interaction entre les tâches de collecte et les participants. Comme nous l’avons mentionné précédemment (cf. sous-section 3.3.3, page 66 ), l’interface de programmation proposée permet de diffuser des visualisations aux participants. Ces visualisations peuvent consister à fournir des statistiques sur les données collectées sous forme de graphique ou de carte, leur demander de prendre une photo d’un évènement particulier ou répondre à un questionnaire. Ces visualisations peuvent être directement développées en HTML/JavaScript, fournissant une grande flexibilité pour définir leurs propres visualisations en fonction de la nature de leurs expériences. D’autre part, cela permet également d’être indépendant de la plate-forme d’exécution, évitant ainsi le développement de plusieurs visualisations selon les plateformes visées. Dans ce cadre, nous tirons bénéfice des modules fournis par les plateformes mobiles (par ex. WebView 2 pour Android, UIWebView 3 pour iOS) pour faciliter l’intégration de contenus web dans une application mobile. Dans ce contexte, les tâches de collecte peuvent interagir avec le FeedBackManager, via une façade dédiée, permettant de publier un nouveau contenu accessible par le participant. Chaque contenu web est ensuite sérialisé et sauvegardé dans une base de données, et pourra être visualisé par le participant à tout moment à partir d’une interface graphique fournie par le FeedBackManager, (cf. figure 13). Propagation des données La propagation des données vers les nœuds de collecte est gérée par le TrackManager. Lors de l’exécution d’une tâche de collecte, les données collectées sont transmises au TrackManager qui les sauvegarde dans la base de donnée locale du dispositif. Pour chaque expérience, le processus de propagation (cf. sous-section 3.3.3) consiste à compresser les données collectées, ajouter des méta-informations sur la configuration du dispositif du participant (c.-à-d. filtre de vie privée) et à faire appel au service dédié du serveur de collecte ayant initié l’expérience pour l’envoi des données. Pour des raisons de sécurité, l’envoi des données s’effectue en utilisant le protocole HTTPS pour le cryptage des données. 2. Android WebView : http://tinyurl.com/android-webview 3. iOS UIWebView : http://tinyurl.com/ios-webview 77Figure 13 – Exemple de contenu web disponible via le FeedbackManager Nous venons de présenter dans cette section l’intergiciel mobile responsable de l’exécution de tâche de collecte, développée avec l’interface de programmation présentée dans la première section de chapitre. Dans la section suivante, nous présentons l’évaluation d’un prototype implémentant les concepts proposés dans ce chapitre. 3.5 évaluation du prototype Afin d’implémenter les concepts présentés dans ce chapitre sur une plate-forme mobile spécifique, celle-ci doit permettre principalement i) d’effectuer des processus en tâche de fond, ii) permettre la lecture en continue des capteurs, iii) et finalement être capable d’intégrer un moteur de script dans une application. Lorsque nous avons commencé le développement de notre prototype, la plate-forme Android correspondait parfaitement à ces caractéristiques, contrairement aux systèmes d’exploitation iOS qui ne permettaient pas d’exécuter des processus en tâche de fond limitant ainsi le développement d’application de collecte opportuniste. Cependant, les récentes mise à jour de ce système d’exploitation fournissent désormais ce support, rendant portable notre système pour iOS. Par manque de temps, nous n’avons pas pu fournir un prototype complet sur ce système d’exploitation, mais nous avons fourni une preuve de faisabilité disponible en open source 4 . Le prototype Android proposé a été conçu pour être utilisé comme application autonome ou comme librairie. En tant qu’application autonome, l’application peut être 4. https://github.com/APISENSE/APISENSE-SDK-iOS 78téléchargée par des participants voulant évoluer dans le système en flashant un QR code publié sur le site internet APISENSE® 5 . Plus particulièrement, le prototype réalisé à été développé en utilisant la version 2.3 du SDK proposé par Android. L’ensemble des modules proposés par l’architecture est inclus dans un Service de haute priorité pour prévenir que le système ne supprime notre application lorsqu’il a besoin de mémoire. Pour l’exécution des scripts, nous utilisons Rhino 6 , un moteur d’exécution JavaScript pour Java, qui permet l’interopérabilité des deux langages. L’ensemble du code réalisé représente approximativement 30000 lignes de codes, incluant l’interface graphique et l’architecture de l’application et les façades développées. Dans la suite cette section, nous présentons plusieurs cas réels d’expériences, montrant la diversité des tâches de collecte qui peuvent être réalisées à l’aide notre interface de programmation. Nous comparons par la suite son expressivité avec les différentes approches proposées dans la littérature, et discutons du coût énergétique lié à l’exécution des tâches de collecte sur les dispositifs mobiles. 3.5.1 Quelques exemples de collectes Pour démontrer l’expressivité de l’interface de programmation proposée dans ce chapitre, nous avons implémenté quatre tâches de collecte différentes (cf. table 7). Chaque tâche de collecte est inspirée de l’état de l’art, et démontre différents aspects de APISENSE. Wifi/Blutooth Scanner Wifi/Blutooth Scanner est une application opportuniste, montrant une interaction avec les capteurs Wi-Fi et Bluetooth d’un dispositif. Le listing 3.4 illustre le script implémentant cette application. L’objectif du script est de collecter, toutes les minutes, les points d’accès WIFI et les périphériques Bluetooth d’un utilisateur mobile. Dans le script, nous enregistrons une fonction de rappel aux façades $wifi et $bluetooth responsables des interactions avec ces capteurs, et nous configurons les capteurs pour qu’ils effectuent une nouvelle recherche toutes les minutes (period:"1 min"). La 5. http://www.apisense.fr 6. http://www.mozilla.org/rhino 79Application Capteurs Description Wifi-Blutooth Scanner Réseaux Application opportuniste. Collecte périodiquement les périphériques Bluetooth et Wi-Fi. Citoyen Journaliste GPS + Questionnaire Application participative. Demande à l’utilisateur de prendre une photo lorsqu’il se situe dans une zone géographique. Qualité Réseau Réseau + Questionnaire + Télé- phone Combinaison d’une application opportuniste et participatif.pour corréler la qualité d’une communication en fonction de la qualité du signal GSM. Exploiter des capteurs externes Bluetooth Communication avec un robot Lego Mindstorms NXT Inférence Conxtuelle Accéléromètre + Questionnaire Intégration d’une machine d’apprentissage pour inférer l’activité d’un utilisateur. Table 7 – Exemples de tâches de collecte implémentées avec APISENSE. (*Lignes de code) fonction de rappel enregistrée collecte alors les résultats donnés par les capteurs pour les propager vers le serveur ($trace.add(event)). 1 $wifi.onScan({period : "1 min"},function(event){ 2 $trace.add(event) 3 }) 4 $bluetooth.onScan({period : "1 min"}, function(event){ 5 $trace.add(event) 6 }) Listing 3.4 – Tâche de collecte : Wifi/Bluetooth Scanner Nous décrivons dans l’exemple suivant un exemple de collecte participative. Le Citoyen Journaliste L’objectif de cette application est de montrer comment une tâche de collecte peut interagir avec un utilisateur. Le Citoyen Journaliste, présenté initialement en [29], demande aux utilisateurs mobiles de prendre une image dans une région géographique spécifique, et de la commenter. Le script présenté dans le listing 3.5, crée d’abord un questionnaire (ligne 1-3). En ligne 5 nous observons la position de l’utilisateur et définissons que la fonction enregistrée (ligne 6-8) doit être exécutée uniquement lorsque la position de l’utilisateur se trouve dans le polygone précis (ligne 8). La fonction enregistrée publie le questionnaire à l’utilisateur (ligne 6), et collecte les données pour les propager vers le serveur lorsque l’utilisateur aura répondu au questionnaire. 801 var survey = $survey.create(); 2 survey.image("Take a picture"); 3 survey.open("Add a comment"); 4 5 $location.onLocationChanged(function(event){ 6 $survey.publish(survey,function(content){ 7 $trace.add(content); 8 $task.finish(); 9 }); 10 },"&((lat >= 0)(lat <= 1)(lon >= 0)(lon <= 1))") Listing 3.5 – Tâche de collecte : Le Citoyen Journalist Qualité Réseau Dans cette application, inspirée de MyExperience [25], nous voulons étudier la corrélation entre la qualité du signal réseau et la qualité de la communication vocale. Dans cette application (cf. listing 3.6), nous voulons montrer deux nouvelles propriétés de notre interface de programmation qui sont i) sa capacité à pourvoir adapter la séquence des questions d’un questionnaire en fonction des premières réponses d’un utilisateur et ii) combiner une collecte opportuniste et participative Dans la première partie du script (ligne 1-6), nous collectons la force du signal réseau GSM lorsque l’utilisateur est en situation de mobilité. Afin d’effectuer un retour sur les données collectées, nous insérons un nouveau point dans la visualisation proposée (ligne 6). Dans la deuxième partie du script (ligne 8-14), nous définissons un questionnaire et ajoutons deux questions relatives à la qualité d’une communication vocale. La première question consiste à demander la qualité de sa communication vocale. La deuxième consiste à lui demander pourquoi le participant a considéré que la communication a été mauvaise. Nous définissons ensuite l’enchaînement des questions (ligne 15-18) qui consiste à proposer uniquement la deuxième question uniquement si l’utilisateur a répondu une réponse spécifique à la première question. Ensuite, nous proposons le questionnaire lorsque l’utilisateur a terminé une communication vocale. 1 $location.onLocationChanged(function(event){ 2 $trace.add({ 3 latlng : [event.latitude,event.longitute], 4 signal : $telephony.signalStrength() 5 }) 6 }) 7 818 var qualitySurvey = $survey.create() 9 qualitySurvey.close("q1", 10 "Quelle a été la qualité de votre communication ?", 11 ["Trés Mauvaise", "Mauvaise", "Moyenne", "Bonne", "Excellente"]) 12 qualitySurvey.close("q2", 13 "Quel a été le probléme ?", 14 ["écho", "grésillement", "voix coupé"]) 15 qualitySurvey.then("q1",function(response){ 16 if (response == "Trés Mauvaise") 17 return "q2" 18 }) 19 20 $phone.onCallFinish(function(event){ 21 $survey.publish(qualitySurvey, function(content){ 22 $trace.add({ 23 latlng : $location.lastLocation(), 24 signal : $telephony.signalStrength(), 25 content : content 26 }) 27 })} Listing 3.6 – Exemple d’application participative Exploiter des capteurs externes Figure 14 – Flux de données de l’expérience Manipulation de Lego NXT Dans cette expérience, nous montrons que notre interface de programmation peut également être utilisée pour interagir avec des capteurs externes, afin de collecter des données qui ne peuvent pas être initialement capturées avec les capteurs initialement inclus dans les dispositifs mobiles. Cette expérience exploite les capteurs intégrés d’un robot Lego Mindstorms NXT (c.-à-d. capteur de contact, d’ultrason, de température et de pression atmosphérique), et permet également d’interagir avec le moteur du robot afin d’en prendre le contrôle à partir de la tâche de collecte. 82Comme le montre la figure 14, l’expérience est composée de deux scripts : NXT.js et Task.js décris par le listing 3.7. Le rôle du premier script est de faire une abstraction avec les différentes fonctionnalités des robots NXT. Ce script communique avec la façade responsable de l’interface Bluetooth, pour établir une connexion avec le robot et le manipuler à distance. Ce script peut être ensuite intégré dans le script Task.js en tant que librairie (ligne 1). Dans cet exemple, nous établissons une connexion avec un robot NXT à proximité (ligne 8), et déclenchons les moteurs du robot pour le faire avancer. Nous réagissons également lorsque le robot rencontre un obstacle pour le faire changer de direction (ligne 11-13). Les lignes (15-22) permettent ensuite de collecter des données capturées par les capteurs du dispositif mobile (par ex. GPS) et des capteurs du robot NXT (c.-à-d. pression atmosphérique et température) lorsqu’il se déplace. 1 var nxt = require("NXT.js"); 2 3 var change_direction = function(){ 4 nxt.move_back() 5 nxt.turn_left({ ’angle’ : 45 * random(), ’duration’ : ’2s’}) 6 nxt.move_forward() 7 } 8 nxt.onConnect({’timeout’: ’30s’},function(){ 9 nxt.move_forward() 10 11 nxt.onTouch(function(){ 12 change_direction() 13 }) 14 15 $location.onLocationChanged({provider : ["network"]},function(event){ 16 $trace.add({ 17 latlng : [event.latitude,event.longitude], 18 pressure : nxt.pressure(), 19 temperature : nxt.temperature() 20 }) 21 }) 22 }) Listing 3.7 – Tâche de collecte : Manipulation de Lego NXT Inférence Contextuelle Dans cette dernière expérience, l’objectif est de montrer que APISENSE® peut également être utilisé pour rapidement prototype et valider empiriquement des algorithmes contextuels. Dans ce scénario, nous voulons mettre en place un modèle d’apprentissage permettant de reconnaître l’activité d’un utilisateur (c.-à-d. assis, debout, marche, courir, monter ou descendre des escaliers). L’idée générale de l’approche est d’observer 83les données transmises par le capteur d’accélération afin de déterminer l’activité de l’utilisateur. Le script décrit dans le listing 3.8 implémente l’algorithme initialement proposé en [37]. 1 var classes = ["walk","jog","stand", "sit", "up", "down"]; 2 var current = 0; var buffer = new Array(); 3 var model = weka.newModel(["avrX","avrY",...], classes); 4 var filter = "|(dx>"+delta+")(dy>"+delta+")(dz>"+delta+")"; 5 6 var input = $accelerometer.onChange(filter, 7 function(acc) { buffer.push(acc) }); 8 9 var learn = time.schedule({ period: ’5s’ }, function(t) { 10 if (model.learn(classes[current]) >= threshold) { 11 current++; 12 } 13 if (current < classes.length) { // Learning phase 14 input.suspend(); 15 var output = $dialog.display( 16 { message: "Select movement", spinner: classes }); 17 model.record(attributes(buffer), output); 18 sleep(’2s’); 19 buffer = new Array(); 20 input.resume(); 21 } else { // Exploitation phase 22 dialog.display({message: "Learning phase completed"}); 23 learn.cancel(); 24 model.setClassifier("NAIVE_BAYES"); 25 time.schedule({ period: ’5s’ }, function(t) { 26 trace.add({ 27 position: model.evaluate(attributes(buffer)), 28 stats: model.statistics() }); 29 buffer = new Array(); 30 } } }); Listing 3.8 – Tâche de collecte : Inférence Contextuelle. Le script se décompose en deux phases : i) une phase d’apprentissage et ii) une phase d’exploitation. Pour réaliser la phase d’apprentissage, nous avons intégré un algorithme d’apprentissage [44] implémenté en Java dans l’intergiciel mobile, et nous avons ajouté une façade pour utiliser ses fonctionnalités à partir du script. Durant la phase d’apprentissage, le script génère une boite de dialogue demandant à l’utilisateur de répéter des mouvements spécifiques. Lorsque l’utilisateur exécute les mouvements demandés, nous enregistrons les données d’accélérations selon les trois axes, et calculons des métriques (c.-à-d. moyenne, l’écart type, etc. ) sur les valeurs obtenues. Ces métriques sont ensuite insérées dans l’algorithme d’apprentissage et le mouvement qui à été effectué. Une fois que suffisamment de données ont été insérées dans le modèle d’apprentissage, le 84Predicted Class Acc (%) Walk Jog Stand Sit Up Down Walk 66 0 4 0 0 0 94,3 Jog 0 21 0 0 0 0 100 Stand 4 0 40 0 0 0 90,9 Sit 0 0 2 83 0 0 97,6 Up stair 0 0 0 0 22 0 100 Down stair 0 0 0 0 0 11 100 Table 8 – Tableau décrivant la qualité du système de classification script passe en phase d’exploitation. Dans cette phase, nous évaluons, toutes les cinq secondes, les métriques des données d’accélération dans le modèle d’apprentissage. Le résultat correspondant au mouvement de l’utilisateur et ensuite sauvegardé avec les statistiques du modèle obtenu pour les reporté sur le serveur. Le tableau 8 reporte la matrice de confusion décrivant la qualité du système de classification obtenue par un utilisateur durant cette expérience. La matrice illustre le nombre de mouvements effectués durant cette expérience, et la haute précision des prédictions obtenues pour chacun des mouvements. Discussion Dans cette sous-section, nous discutons de l’expressivité et la complexité des approches décrites dans l’état de l’art avec APISENSE®. Nous utilisons le nombre de lignes de code pour comparer la complexité avec deux applications de collecte couvrant les deux formes d’acquisition de données qui sont la collecte opportuniste (application Wifi-Bluetooth Scanner) et participative (application Citoyen Journaliste). Le tableau 9 présente le nombre de lignes de code nécessaires pour développer ces applications. Le symbole X signifie que l’application ne peut pas être exprimée et le symbole ? signifie que l’application est réalisable, mais que nous n’avons pas d’information sur le nombre de lignes de code nécessaire avec l’approche concernée. En terme de lignes de code, APISENSE® est beaucoup plus concis (4 lignes) que les approches utilisant le langage déclaratif XML pour concevoir une application. C’est la cas avec MyExperience (27 lignes) et Medusa (45 lignes) pour l’application Citoyen Journaliste. De plus ces deux dernières approches ne supportent la définition d’application de collecte purement opportuniste comme l’application Wifi-Blutooth 85Scanner. Même si la concision de notre code est à peu près similaire à Anonysense (7 lignes de code) et Pogo (6 lignes de code), notre approche comporte de nombreux avantages comparés à ces approches. Par apport à Anonysense, qui utilise un DSL pour le développement des applications, le langage JavaScript nous permet d’avoir une plus grande flexibilité pour concevoir des traitements plus complexes, et surtout nous permet de facilement réutiliser du code déjà existant, comme nous l’avons montré dans l’application présentée en sous-section (cf. 3.5.1). Par rapport à Pogo, utilisant également une interface de programmation basée sur JavaScript, notre interface de programmation supporte les tâches de collecte de données participative qui n’est pas possible avec l’interface proposée par Pogo. La seule approche proposée supportant la collecte opportuniste et participative est PRISM, qui propose le déploiement d’applications de collecte écrites en code natif. Cependant PRISM ne propose pas d’abstraction pour faciliter le développement de ses applications, nécessitant une expertise approfondie en développement mobile. L’application Citoyen Journaliste nécessite par exemple 330 lignes de code. En outre, le développement natif des applications les rend exclusives pour un OS mobile, demandant par conséquent d’étudier et développer une nouvelle version de l’application pour supporter l’hétérogénéité des OS disponible. Nous avons présenté dans cette section un ensemble d’applications réalisables avec APISENSE®. Nous pensons que APISENSE® propose un bon compromis entre toutes les approches proposée dans l’état de l’art, supportant la collecte opportuniste (application Wifi/Blutooth Scanner), participative (application Citoyen Journaliste), ou une combinaison des deux (application Qualité Réseau) tout en fournissant une abstraction complète des technologies mobiles. En proposant une interface de programmation au-dessus de JavaScript, APISENSE® permet également de définir des traitements complexes (application Inférence contextuelle), et faciliter la réutilisation de code déjà existant (application Exploiter des capteurs externes). Nous pensons que la réutilisation est un aspect fondamental pour le succès APISENSE®, favorisant son utilisation par de nombreux acteurs académiques ou industriels, avec des niveaux d’expertises différents dans la collecte de données. En effet, les experts du domaine peuvent proposer des modules ou algorithmes complexes, utilisant les capteurs des dispositifs pour inférer des informations de haut niveau (par ex. activité de l’utilisateur, mode de transport), ou encore utiliser intelligemment les différents capteurs pour réduire la consommation énergétique des applications de collecte dans un contexte spécifique [14]. Ces modules pourront être ensuite réutilisés par des utilisateurs non experts. Et finalement, l’utilisation de JavaScript permet également de supporter l’hétérogénéité des OS mobiles 86Wifi-Blutooth Scanner Citoyen Journaliste APISENSE 4 9 Medusa [55] X 45 MyExperience [25] X 27 Anonysense [62] 5 X Pogo [6] 4 X PRISM [16] ? 330 Table 9 – Comparaison de l’expressivité et du nombre de lignes de code pour s’affranchir d’étudier et développer une nouvelle application pour chaque OS disponible. 3.5.2 Coût énergétique d’une expérience de collecte Dans cette section, nous comparons la consommation énergétique de notre prototype réalisé sur Android avec Funf [1], une application présentée dans l’état de l’art APISENSE® ( section 2.3.1, page 34 ). Nous rappelons que Funf est un outil permettant de générer des applications natives Android à la carte. Pour réaliser cette expérience, nous avons exécuté chaque application durant 24 heures, sur un Nexus-S réinitialisée à une configuration par défaut, pour limiter le bruit qui peut être induit par d’autres applications. Chaque application est configurée pour collecter toutes les 10 minutes des informations de la batterie du dispositif mobile. Le résultat de cette expérience est illustré par la figure 15 Dans cette courbe, l’abscisse représente le temps, et l’ordonnée la tension en millivolt représentant le niveau de la batterie du dispositif. La tension d’un dispositif varie généralement entre 4200 millivolts, représentant 100% de niveau de batterie, et 3200 millivolts. Comparé à une application native (baseline), nous pouvons observer que le surcoût énergétique de notre prototype est faible comparé à une application native, et moins important que celui imposé par Funf. Bien que notre solution soit plus consommatrice qu’une application native, notre solution ne nécessite aucune expertise particulière de la plate-forme Android, et rend également transparent le déploiement de l’application et la propagation des données pour les développeurs. Comme la consommation énergétique dépend fortement de i) la nature de l’expé- rience, ii) du type de capteur utilisé et iii) du volume des données produit, nous avons réalisé une seconde expérience permettant d’estimer l’impact des différents capteurs 87 4100 4120 4140 4160 4180 4200 0 200 400 600 800 1000 1200 1400 Voltage (mV) Time (s) Android Native Application Funf Bee.sense Figure 15 – Impact d’APISENSE sur la consommation énergétique sur la consommation de la batterie (cf. figure 16). Pour cette expérience, nous avons développé trois scripts, qui ont été exécutés séparément sur trois dispositifs mobiles. Le premier script (APISENSE + Bluetooth), déclenche un scan toutes les minutes et collecte le niveau de la batterie aussi bien que le résultat du scan. Le second (APISENSE + GPS) collecte également toutes les minutes les données GPS tandis que le dernier script collecte des données relatives au point d’accès WIFI. Cette expérience démontre que même avec un stress important sur les capteurs, il est possible de collecter des données durant une journée normale de travail sans avoir à recharger le dispositif mobile (40% d’énergie consommée après 10 Heures d’activation du GPS). 3.6 conclusion Le développement d’applications mobiles dédiées à la collecte de données est un processus long et complexe. Généralement, afin de déployer l’application vers un grand nombre d’utilisateurs, plusieurs applications ont besoin d’être développées pour faire face à la diversité des plate-formes mobiles disponibles. D’autre part, ces applications doivent généralement prendre en compte des aspects non fonctionnels tels que la 88 0 20 40 60 80 100 0 100 200 300 400 500 Battery level (%) Time (min) APISENSE APISENSE + GPS APISENSE + Bluetooth APISENSE + WiFi Figure 16 – Impact des capteurs sur la consommation énergétique protection de la vie privée des utilisateurs ainsi que la consommation énergétique de ces applications. Dans ce chapitre, nous avons présenté notre approche pour diminuer le coût lié aux développements d’applications mobiles dédiées à la collecte de données. Plus particulièrement, nous avons présenté dans un premier temps une interface de programmation de haut niveau pour la définition d’une application de collecte. L’interface proposée a été conçue pour i) faire face à la diversité des applications de collecte (i.e. participative, opportuniste), ii) supporter l’hétérogénéité des plate-formes mobiles iii) tout en permettant de s’abstraire de la complexité liée au développement mobile. Nous avons ensuite présenté l’environnement mobile dédié aux utilisateurs en charge de l’exécution de l’interface proposée. Nous avons particulièrement présenté son architecture composée de quatre couches pour i) le déploiement et la propagation des données, ii) permettre aux utilisateurs de contrôler des les données collectées sur leurs dispositifs, iii) l’exécution des applications de collecte et iv) limiter la consommation énergétique liée à l’exécution d’une application de collecte. Dans le chapitre suivant, nous allons présenter l’environnement serveur de notre architecture. 894 C O L L E C T E R É PA RT I E D E D O N N É E S Sommaire 4.1 Introduction 91 4.2 Infrastructure répartie de traitement des données 92 4.3 Architecture du serveur central 94 4.3.1 L’enregistrement des participants 95 4.3.2 L’enregistrement des expériences de collecte 96 4.3.3 Déploiement des tâches de collecte 98 4.3.4 Gestion des nœuds de collecte 99 4.4 Architecture des noeuds de collecte 100 4.4.1 Modèle de caractèristiques d’une campagne de collecte 101 4.4.2 Création d’une nouvelle campagne 107 4.4.3 Intéraction entre les composants 110 4.4.4 Extension des nœuds de collecte 112 4.5 Campagne de collecte communautaire 113 4.5.1 Extension du modèle de programmation 116 4.5.2 Coordonner l’exécution des tâches de collecte 119 4.6 Conclusion 124 4.1 introduction L’objectif des travaux de cette thèse est de proposer une solution générique, facilitant le développement et le déploiement de campagnes de collecte de données à travers des dispositifs mobiles. Dans le chapitre précédent, nous avons présenté l’environnement mobile de APISENSE®, la plate-forme résultante des travaux de cette thèse. Nous avons proposé un modèle de programmation facilitant le développement d’applications mobiles dédiées à la collecte de données et un intergiciel déployé au préalable sur les dispositifs mobiles, dédié à leurs exécutions. 91Dans ce chapitre, nous présentons notre deuxième contribution concernant l’architecture et l’implémentation de l’environnement serveur de APISENSE®, responsable du déploiement des campagnes de collecte, de la persistance des données ainsi que leurs analyses. Ce chapitre adresse particulièrement deux défis introduit en début de manuscrit, qui sont la généralité de la plate-forme, concernant la capacité de la plate-forme à supporter une grande diversité de campagnes de collecte ainsi que son passage à l’échelle. structure du chapitre La suite du chapitre est organisée comme suit : en section 4.2, nous présentons une vue d’ensemble de l’architecture proposée, et discutons des bénéfices de cette architecture par rapport aux solutions de l’état de l’art. Dans les sections 4.3 et 4.4, nous présentons en détail l’architecture des différentes entités logicielles de APISENSE®, ainsi que les méthodes de conceptions et de modélisations utilisées. Dans le chapitre 4.5, nous proposons une optimisation améliorant le passage à l’échelle du système avant de conclure en section 4.6. 4.2 infrastructure répartie de traitement des données Avant de présenter en détail l’architecture proposée dans ce chapitre, nous présentons ici une vue globale de la plate-forme APISENSE®. La figure 17 donne un aperçu simpli- fié des différentes entités logicielles qui la composent, et leurs principales interactions. L’architecture est principalement composée de trois parties distinctes : un ensemble de nœuds de collecte (DataGathering Node), un serveur central (Central Server) et un ensemble de nœuds mobiles avec une application dédiée installée au préalable par les participants. Nous avons déjà présenté les noeuds mobiles dans le chapitre précédent (cf. 3.4, page 68 ). APISENSE® adopte une architecture décentralisée, où le serveur central est assumé comme le tiers de confiance de la plate-forme. Plus particulièrement, le serveur central est responsable du déploiement des tâches de collecte soumises par les nœuds de collecte, vers les nœuds mobiles du système. Afin de fournir un déploiement adapté (par ex. zone géographique, type de dispositif mobile), le serveur central a besoin de maintenir à jour un ensemble d’informations, sur les dispositifs mobiles disponibles pour exécuter des tâches de collecte. Dans ce contexte, nous supposons que le serveur central est géré par un acteur de confiance, qui peut être une organisation publique, ou une structure de recherche. 92Figure 17 – Vue d’ensemble d’APISENSE® La gestion des campagnes de collecte est assurée par les nœuds de collecte, qui peuvent être dédiés à un ou plusieurs utilisateurs. Typiquement, la gestion d’une campagne de collecte comporte quatre phases : i) définir une tâche de collecte, ii) recruter un sous-ensemble de dispositifs mobiles, iii) assurer la persistances des données collectées (c.-à-d. dans une base de données) lors de l’exécution de la tâche iv), exploiter les données. Pour réaliser ces différentes étapes, un nœud de collecte propose un environnement fournissant un ensemble de services qui peuvent être entièrement configurés par les utilisateurs. La configuration consiste en la sélection de modules implémentant la logique dédiée à la réalisation d’une étape d’une campagne de collecte. Dans ce cadre, les modules proposés peuvent implémenter différentes stratégies selon la nature de la campagne. Par exemple, la phase de collecte peut inclure un modèle particulier d’anonymisation des données pour assurer la confidentialité des participants. Ce choix de conception, séparant les préoccupations du déploiement ainsi que la collecte et l’analyse des données, nous permet de rompre avec le syndrome de l’enfermement propriétaire. Premièrement, en offrant la possibilité aux utilisateurs de déployer leurs nœuds de collecte sur l’infrastructure de leur choix, leur permettant 93ainsi de garder un contrôle total sur les données collectées durant leurs campagnes. Les nœuds de collecte peuvent ainsi être déployés vers une infrastructure publique ou privée, en fonction des préoccupations éthiques ou légales en rapport avec le stockage des données. De plus, les nœuds de collecte des utilisateurs sont complètement isolés les uns des autres, améliorant la sécurité et la disponibilité de leurs environnements, permettant d’effectuer des traitements lourds sur les données collectées sans affecter les autres instances. Et finalement, en gardant une entité centrale (c.-à-d. le serveur central), cela permet aux nouveaux utilisateurs de bénéficier d’un ensemble de participants déjà disponibles pour exécuter leurs tâches de collecte, s’affranchissant ainsi d’une longue période de recrutement. Après avoir présenté une vue globale de la plate-forme APISENSE®, nous présentons dans la suite de ce chapitre l’architecture et les services fournis par le serveur central (cf. section 4.3), ainsi que les nœuds de collecte (cf. section 4.4). 4.3 architecture du serveur central Comme nous l’avons présenté dans la section précédente, APISENSE® est une plate-forme répartie dédiée aux déploiements et à l’exécution de campagnes de collectes de données. Afin de fournir une plate-forme modulaire, facilement extensible et configurable, APISENSE® est une plate-forme orientée service, utilisant un modèle à composants logiciels pour modéliser les différentes applications serveur qui la composent. Plus spécifiquement, APISENSE® est basée sur le modèle SCA [46], un standard initié par le consortium OASIS, dédié à la modélisation d’architectures tout en étant indépendant des langages de programmation, des protocoles de communication, des langages de description d’interface et des propriétés non fonctionnelles. La figure 18 illustre le modèle SCA du serveur central. Dans SCA, les bases des constructions sont les composants logiciels, qui peuvent offrir des services, ou solliciter d’autres composants via des références. Les services ainsi que les références peuvent être connectés à l’aide de fils (wire en anglais). SCA spécifie un modèle à composants hiérarchiques, laissant la possibilité d’implémenter un composant par un langage de programmation, ou par un ensemble de sous composants. Dans le dernier cas, ces composants sont appelés composite. Afin de supporter l’interaction entre des services distants, SCA spécifie la notion de communication distante (binding), permettant de décrire 94le protocole que le client devra utiliser pour invoquer un service. Dans l’architecture SCA proposée, les composants ParticipantFrontend, GatheringNodeFrontend ScientistFrontend et représentent les points d’entrés pour les différents acteurs qui interagissent avec le serveur central. Ces composants exposent leurs services en tant que ressource REST, accessibles via le protocole HTTP. Plus particulièrement, ces composants fournissent quatre types services nécessaires au fonctionnement du système, dédié à : L’enregistrement des participants : ce service (participant registration) est accessible par les dispositifs mobiles, permettant l’enregistrement d’un nouveau participant volontaire pour exécuter de nouvelles tâches de collecte. L’enregistrement des expériences de collecte : ce service (deploy scripts) est accessible par les nœuds de collecte, et permet aux utilisateurs d’enregistrer de nouvelles expériences de collecte. Le déploiement des expériences de collecte : ces services (list experiment, download script, recruit participants) assurent la propagation des expériences vers les terminaux mobiles. La gestion des nœuds de collecte : ces services (user registration, deploy data gathering node, downloads modules) représentent les points d’entré dans le système pour les utilisateurs voulant créer et configurer un nœud de collecte. Nous présentons dans la suite de cette section les services fournis par ces composants. 4.3.1 L’enregistrement des participants L’enregistrement des participants permet d’informer le serveur central de la présence et de la disponibilité des participants pour exécuter des tâches de collecte. Ce service, fourni par le composant DeploymentService, est invoqué par les nœuds mobiles lors de leurs installations sur les terminaux mobiles des participants. L’inscription inclut des informations statiques sur la configuration matérielle des terminaux des participants, ainsi que des informations confidentielles. Les informations matérielles comprennent le type du terminal (par ex. smartphone, tablette), le système d’exploitation utilisé (par ex. Android, iOS) ainsi que l’ensemble des capteurs embarqués dans le terminal. Les informations confidentielles comprennent par défaut le nom, le prénom et une adresse électronique valide. Cependant, le participant a la possibilité de raffiner ces informations, volontairement, en indiquant des lieux géographiques — à gros grain (par ex. pays, région ou ville) — où il évolue, son statut ainsi que son âge. Ces informations sont ensuite stockées dans une base de données, et serviront 95Figure 18 – Architecture SCA du serveur central lors de la phase de déploiement. Pour des raisons de confidentialité, elles pourront être accessibles uniquement par le serveur central, c’est-à-dire qu’elles ne seront pas accessibles par les nœuds de collecte du système. 4.3.2 L’enregistrement des expériences de collecte Accessible par les nœuds de collecte du système, ce service, fourni par le composant Recruitment, permet l’enregistrement d’une expérience de collecte auprès du serveur central. Cette enregistrement comprend deux catégories d’éléments. La première correspond a un ensemble de fichiers JavaScript définissant la tâche de collecte (cf. section 3.3, page 59 ). La deuxième catégorie définit les propriétés de l’expérience et également ses exigences en matière de déploiement. Ces propriétés sont définies par un ensemble de clés/valeurs utilisant le formalisme JSON. Comme le montre le tableau 10, trois catégories de propriétés sont actuellement supportées : global : définit principalement des informations générales sur l’expérience de collecte. Ces propriétés ne sont pas interprétées par le serveur central, mais 96propriété nom description global name Nom de l’expérience description Description du but de la collecte de données version Version de l’expérience de collecte privacy Description du modèle de protection de la vie privée incentive Description du modèle de récompense nodeurl URL du nœud de collecte de collecte recruitment sensors Liste des capteurs utilisées par la tâche de collecte max_numbers Nombre maximum de participants admis dans l’expé- rience de collecte area Zone globale de collecte (par ex. pays, région, ville) platform Liste de plate-formes mobiles context area Liste de zone géographique. period Liste de période journalière Table 10 – Propriétés définissant une expérience de collecte permettent d’informer les participants sur les objectifs de l’expérience (description), le modèle de confidentialité (privacy) et de récompense (incentive). recruit : permet de définir les participants autorisés à participer à une expérience de collecte. Ces propriétés permettent de limiter le nombre de participants impliqué dans l’expérience (max_numbers), de sélectionner des participants évoluant dans un lieu géographique (area) — à gros grains (par ex. pays, région ou ville) —, disposant d’un terminal ayant les capteurs nécessaires pour l’exécution de la tâche de collecte (sensors) et disposant d’une plate-forme mobile spécifique (platform). context : permet de spécifier le contexte d’exécution de la tâche de collecte une fois propagée vers les terminaux mobiles. Dans ce cadre, les propriétés permettent de spécifier une liste de zones géographiques (area) — région circulaire définie par les coordonnées du centre et un rayon exprimé en mètres —, et une liste de périodes journalières (period) dans lesquelles l’expérience doit s’exécuter. Ces propriétés seront ensuite interprétées par les nœuds mobiles, qui seront responsables de déclencher ou de stopper l’exécution de la tâche de collecte (cf. section 3.4.2, page 72 ). 974.3.3 Déploiement des tâches de collecte Une fois l’expérience enregistrée, deux stratégies principales peuvent être considérées pour propager les tâches de collecte vers les nœuds mobiles des participants [16]. La première approche (push-based) consiste à déployer automatiquement l’expérience de collecte auprès des utilisateurs mobiles. Dans la deuxième (pull-based), le nœud mobile télécharge la tâche de collecte après une action volontaire du participant, ou en effectuant une requête périodiquement vers le serveur pour voir si une nouvelle expérience est disponible [62]. Dans ce cadre le serveur central supportent ces deux approches pour la propagation des tâches de collecte. Approche pull-based La première approche (pull-based) est supportée par les composants Pull, DeploymentService et PropertyMatcher. Dans un premier temps, les participants peuvent accéder au service proposé par le Pull, via leur dispositif mobile, pour récupérer une liste d’expériences mises à disposition par les utilisateurs. Dans ce cadre, le PropertyMatcher détermine les expériences accessibles pour le participant, en faisant la correspondance entre les propriétés de recrutement des expériences, et des informations partagées par le participant lors de son inscription. Des informations générales sont fournies pour chaque expérience accessible, permettant au participant de visualiser le but de l’expérience de collecte, du modèle de confidentialité et de récompense ainsi que les capteurs utilisés lors de son exécution. À partir de ces informations, le participant a alors la possibilité de s’enregistrer à une expérience. Lors de la souscription, un identifiant anonyme est alors généré. Cet identifiant est ensuite envoyé au nœud de collecte ayant initié l’expérience et à l’agent mobile, pour l’avertir d’un nouveau recrutement dans l’expérience. Dans ce cadre, l’identifiant anonyme servira pour toutes les communications entre les nœuds de collecte et les participants, comme lors de la propagation des données. Cela permet en effet aux participants de ne pas révéler leurs identités réelles lors des interactions avec les nœuds de collecte, assurant ainsi une première couche d’anonymisation. Une fois la souscription terminée, l’agent mobile peut alors télécharger la tâche de collecte associée et déclencher son exécution. Approche push-based La deuxième approche (push-based) est supportée par les composants Push, et également par le composant PropertyMatcher. Dans ce cadre, le Push fournit un service, 98accessible par les nœuds de collecte, pour pousser directement une tâche de collecte vers les agents mobiles des participants. Ce processus comprend deux étapes. La première consiste à envoyer un message vers les agents mobiles acceptant ce mode de déploiement, et correspondant aux propriétés de l’expérience. La deuxième étape est ensuite similaire à l’approche présentée ci-dessus, c’est-à-dire composée de la phase de souscription et de téléchargement de la tâche de collecte. Pour établir ce type de propagation, il est nécessaire de supporter des communications dans le sens serveur vers terminaux mobiles. Typiquement, ce type de communication peut être effectué en utilisant des services dédiés, proposés par les fournisseurs des OS mobiles tels que GCM (Google Cloud Messaging) pour Android ou APNs (Apple Push Notification service) pour iOS. Dans ce contexte, le composant PushService est en charge de l’interaction avec ces services pour envoyer des messages vers les terminaux mobiles selon l’OS mobile visé. Indépendamment de l’approche utilisée, le composant Push permet également aux nœuds de collecte de propager des messages aux utilisateurs mobiles s’étant inscrits à leurs expériences. Ces messages peuvent être propagés soit à un participant en particulier, ou alors à l’ensemble des participants ayant souscrits à l’expérience. Deux types de messages peuvent être transmis : update : Message indiquant la disponibilité d’une nouvelle mise à jour de l’expérience. Dans ce cadre, ce message déclenchera le téléchargement de la nouvelle version de l’expérience par les nœuds mobiles. Cela permet de rapidement adapter le comportement de l’expérience une fois déployée. notification : Ces messages permettent aux utilisateurs de notifier l’état d’avancement de l’expérience en cours, en partageant des statistiques globales des données collectées avec tous les participants. 4.3.4 Gestion des nœuds de collecte Les derniers services présentés sont responsables de la création et de la configuration des nœuds de collecte. Un utilisateur voulant évoluer dans APISENSE®, peut se connecter au service géré par le composant DataGatheringRepository via une interface web, et déclencher le téléchargement de leur propre nœud de collecte. Celui-ci pourra ensuite être déployé vers une infrastructure publique ou privée, selon les exigences des utilisateurs. 99Un nœud de collecte peut être téléchargé suivant deux formats : 1. En tant qu’image virtuelle pré-configurée, permettant son déploiement au-dessus d’un environnement virtualisé. Dans ce cadre, l’image virtuelle comprend toute la pile logicielle nécessaire au bon fonctionnement du nœud de collecte. Plus particulièrement, elle est composée d’une distribution Linux, d’une machine virtuelle Java (JVM), d’une base de données MongoDb 1 pour le stockage des données, et FraSCAti responsable de l’exécution des composants SCA du nœud de collecte. 2. En tant qu’archive web (.war), permettant son déploiement directement au-dessus d’un serveur d’application (c.-à-d. Apache Tomcat). Le service fourni par le ComponentRepository propose un ensemble de composants modulaires, dédiés à la configuration d’un nœud de collecte. Les utilisateurs peuvent accéder à ce service via leur nœud de collecte nouvellement déployé, pour télécharger et assembler des composants dans leur nœud de collecte en fonction de la nature des expériences qu’ils veulent mener. Nous présentons ce point plus en détail dans la section suivante. 4.4 architecture des noeuds de collecte Dans la section précédente, nous avons présenté l’architecture et les services fournis par le serveur central de la plate-forme APISENSE®. Dans ce chapitre, nous présentons l’architecture des nœuds de collecte, et plus particulièrement comment nous tirons profit du modèle SCA pour fournir des nœuds de collecte facilement configurables. Les nœuds de collecte sont les entités logicielles de notre système responsables de la gestion des campagnes de collecte des utilisateurs. Nous rappelons qu’une campagne est essentiellement composée de quatre étapes qui consiste : 1. à définir une tâche de collecte via une interface de programmation dédiée, 2. à publier la tâche de collecte auprès du serveur central pour le recrutement des participants, 3. à assurer la persistance des données collectées par les dispositifs, 4. et finalement à analyser et exploiter les données collectées Par ailleurs, une expérience peut également comporter un modèle de protection de la vie privée des participants, ainsi qu’un modèle de récompense. 1. https://www.mongodb.org 100Pour faire face à la diversité des expériences qui peuvent être menées, les nœuds de collecte peuvent être entièrement configurés selon la nature d’une expérience. Cette configuration consiste essentiellement à assembler un ensemble de composants SCA, où chaque composant est responsable de la logique fonctionnelle d’une étape d’une expérience. Dans ce contexte, plusieurs composants peuvent être dédiés à une même étape, représentant la partie variable d’une configuration. Pour guider les utilisateurs dans ce processus d’assemblage, nous avons adopté une approche basée sur l’ingénierie des Lignes de Produits Logiciels (LDPs) [12, 52] (en anglais SPL pour Software Product Line). Typiquement, l’idée est i) de définir un Modèle de Caractéristiques (MC) [32](en anglais FM pour Feature Model) qui capture les caractéristiques communes et les points de variabilité d’une configuration d’une expérience, ii) d’implémenter le MC comme un assemblage de composants SCA et de proposer le MC aux utilisateurs pour leurs permettre de sélectionner les composants selon la nature des expériences qu’ils veulent mener. Dans la suite de cette section, nous présentons le MC dédié à la configuration des expériences de collecte en sous-section 4.4.1, un exemple d’architecture SCA généré et leurs interactions permettant la réalisation d’une campagne de collecte, et nous finissons par présenter le mécanisme d’extension permettant d’adresser les exigences non anticipées. 4.4.1 Modèle de caractèristiques d’une campagne de collecte La notion de Modèle de Caractéristiques (MC), introduite par Kang et al. [32], est une technique de modélisation permettant la description d’un ensemble d’artéfacts réutilisables, qui peuvent être utilisés pour créer une famille de logiciels qui possède des caractéristiques communes, mais exhibant également des différences. Le MC représente ainsi l’ensemble des choix proposés à un utilisateur pour lui permettre de configurer un logiciel spécifique à ses besoins. Typiquement, un MC est spécifié sous forme d’arbre, dont les nœuds représentent les caractéristiques d’un logiciel et les arcs spécifient des liens de composition entre les caractéristiques. Trois catégories de caractéristique peuvent être définies : les caractéristiques obligatoires, les caractéristiques optionnelles et les caractéristiques alternatives. Additionnellement, des règles de composition peuvent être définies, établissant une 101relation entre les caractéristiques. Ces règles peuvent prendre deux formes i) une caractéristique qui nécessite la sélection d’une autre caractéristique (définissant une interdépendance entre les caractéristiques), et ii) la sélection d’une caractéristique peut exclure la sélection d’une autre. Dans notre contexte d’utilisation, nous utilisons cette technique pour modéliser les différents choix proposés aux utilisateurs pour leur permettre de configurer les services d’une campagne de collecte selon les spécificités de celle-ci. La figure 19 illustre le MC dédié à la configuration d’une campagne de collecte. Typiquement, le MC identifie principalement cinq points de variabilités pour i) configurer l’environnement de développement des tâches de collecte (SensingTask Description), ii) choisir un modèle de recrutement des utilisateurs (Recruitment), iii) choisir une série de traitements sur les données collectées avant leurs insertions dans la base de données (OnlineProcessing), iv) spécifier l’indexation des données dans la base de données (Collector), v) exposer des services au-dessus des données collectées (Service). Nous décrivons à présent brièvement ces différents points de variabilités et les caractéristiques actuellement supportées. Figure 19 – Modèle de caractéristiques d’une campagne de collecte 102SensingTask Description Ce premier point de variabilité permet aux utilisateurs de sélectionner l’interface web dédiée aux développements des tâches de collecte vue dans le chapitre précédent (cf. section 3.3). La première interface, définie par la caractéristique CodeEditor, propose un éditeur de code en ligne — avec coloration syntaxique, complétion de code, etc. — permettant le développement des tâches de collecte directement en JavaScript. La deuxième interface, définie par la caractéristique Form, quant à elle, fournit une interface web permettant le développement des tâches à partir d’un formulaire. Le formulaire permet principalement de spécifier le type de données à collecter (par ex. position, accéléromètre, périphérique Bluetooth) avec la fréquence de collecte pour chaque donnée (par ex. toutes les cinq minutes). Après validation du formulaire, un fichier JavaScript est généré à partir des choix effectués par l’utilisateur. Le formulaire permet de rendre accessible le développement des tâches pour des utilisateurs n’ayant aucune expertise en programmation. Cependant, le formulaire limite l’expressivité des tâches qui peuvent être développées, en définissant uniquement des tâches de collecte périodique de données. Nous prévoyons dans des travaux futurs de proposer des métaphores visuelles pour développer des tâches de collecte plus complexes, tout en permettant leur développement par des utilisateurs n’ayant aucune expertise en développement. Certains travaux ont déjà été proposés dans ce sens tels que Scratch [48, 58] ou Alice [15] ou plus récemment App Inventor 2 . Le principe de ces approches consiste à fournir un environnement intuitif, dans lequel on associe des composants visuellement pour définir le comportement d’une application. Recruitment Ce deuxième point de variabilité permet de sélectionner le modèle utilisé pour recruter un sous-ensemble de participants exécutant la tâche de collecte. Dans ce contexte, le recrutement consiste essentiellement à interagir avec les services du serveur central pour déployer la tâche de collecte et assurer sa mise à jour, définir un sous-ensemble de participants autorisés à l’exécuter et son contexte d’exécution. Les deux caractéristiques associées à ce point de variabilité (Individuel et Collaborative) permettent de faire face aux différentes échelles de collecte (cf. section 2.1.2) que sont la collecte personnelle et la collecte communautaire. La caractéristique Individuel propose un modèle simple de recrutement des participants dédié à la collecte personnelle de données, qui a généralement pour objectif de suivre l’activité d’un individu à travers le temps. Nous présentons plus en détail en 2. http://appinventor.mit.edu 103sous-section 4.4.4 ce modèle et les différentes interactions entre les nœuds mobiles, le serveur central et les nœuds de collecte nécessaires. La caractéristique Collaborative propose un modèle principalement dédié à la collecte communautaire de données, qui a généralement pour objectif de surveiller des phénomènes liés à l’environnement des participants (par ex. surveiller la qualité du signal réseau dans la ville de Paris). Nous décrirons plus en détail ce modèle dans la section 4.5. Online Processing Ce point de variabilité permet de définir un ensemble de traitements à effectuer sur les données collectées avant leurs insertions dans une base de données. Les traitements peuvent consister à calculer des statistiques globales sur les données collectées (caracté- ristique Statistique), calculer un modèle d’incitation pour récompenser les participants (point de variabilité Incentive), ou encore effectuer des traitements modifiant les données collectées pour assurer leurs confidentialités (point de variabilité Privacy). Incentive Ce point de variabilité définit le modèle de récompense de l’expérience de collecte. Typiquement, l’incitation peut prendre une grande variété de formes. Par exemple, ré- compenser les participants financièrement [41] pour les données partagées, ou transférer des mécanismes de jeux dans le contexte de la collection de données [69]. Généralement, un modèle de récompense a pour objectif d’augmenter la participation des utilisateurs, et de les motiver à partager des données plus pertinentes pour l’expérience. Actuellement, nous supportons un modèle de récompense [24] basé sur la quantité et la qualité des données partagée par des participants. Ce modèle est également utilisé dans des applications mobiles populaires telles que Waze 3 ou encore Foursquare 4 . Le modèle est basé sur le concept de récompense [69] qui peut prendre deux formes différentes. La première consiste à émuler une compétition, en effectuant un classement entre les participants. Dans ce cadre, le modèle peut être configuré par les utilisateurs, en attribuant des points selon le type de données partagées. Le deuxième permet d’attribuer des badges/trophées, en fonction du nombre de points remportés par les participants. 3. https://www.waze.com 4. https://foursquare.com 104Dans l’application mobile présentée dans le chapitre précédant, plusieurs mécanismes permettent aux participants de contrôler les données qui sont collectées par leur dispositif (cf. chapitre 3 sous-section 3.4.2, page 72 ). Ce mécanisme peut être utilisé par exemple par les participants pour empêcher l’application d’activer le GPS qui consomme beaucoup d’énergie. Dans ce cas, les utilisateurs peuvent contrebalancer l’énergie utilisée par les capteurs, et la sensibilité des données — d’un point de vue vie privée —, en attribuant plus de points selon les données collectées par les participants. Par exemple, le capteur GPS est bien connu pour fournir une grande précision pour déterminer la position d’un utilisateur, mais consomme beaucoup plus d’énergie que la géolocalisation GSM, moins précise. Dans ce contexte, pour inciter les participants à partager leurs capteurs GPS, plus de points peuvent être attribués aux données collectées par le GPS. Privacy Additionnellement, un modèle de confidentialité peut être intégré dans l’expérience de collecte. Dans ce cadre, les composants implémentant ces modèles sont responsables de l’assainissement des données reportées par les participants, avant leurs insertions dans la base de données. Actuellement nous supportons un modèle classique de perturbation [2], consistant à modifier les coordonnées spatiales et temporelles en y ajoutant une perturbation aléatoire. La perturbation est introduite par un bruit gaussien à l’intérieur d’une sphère de rayon r centré sur les coordonnées d’origine. Nous envisageons d’intégrer plusieurs modèles issus de l’état de l’art [11] tels que des modèles de dissimulation spatiale [64, 30, 62]. Collector Ce point de variabilité est responsable de la persistance ainsi que de l’indexation des données collectées dans une base de données. Actuellement, la persistance des données est effectuée avec la technologie MongoDB, une base de données non-relationnelle orientée documents. Dans notre cas d’utilisation, le principal bénéfice de cette technologie est de ne pas imposer un schéma spécifique pour sauvegarder les données. En effet, de nombreux systèmes [25, 22] utilisent des bases de données SQL qui nécessitent la définition de schéma statique pour structurer les données. Ce choix de conception limite alors la réutilisation du système nécessitant la sauvegarde de données ayant une structure non prévue dans le schéma défini au préalable. Dans ce cadre, MongoDB représente une technologie fournissant la flexibilité nécessaire pour faire face à l’hétérogénéité des données qui peuvent être collectées durant les expériences. 105Les données sont sérialisées sous la forme d’un tableau JSON. Dans ce cadre, l’utilisation du formalisme JSON fournit une grande flexibilité aux utilisateurs pour représenter les données, selon le type des capteurs impliqués dans la tâche de collecte. La structure des données est définie par les utilisateurs lors du développement de la tâche de collecte (cf. sous-section 3.3.3). Les métadonnées sont générées par l’application mobile, comportant l’identifiant unique de l’utilisateur — crée par le serveur central lors de l’enregistrement du participant dans l’expérience —, la version de la tâche de collecte ainsi que la date où les données ont été générées. Les utilisateurs ont également la possibilité de compléter ces méta-informations. Dans ce cadre, ces méta-informations peuvent être utilisées pour structurer les données dans la base de données, par exemple indexer les données par jour (caractéristique DateIndex), par utilisateur (caractéristique UserIndex) ou utiliser un index géographique (caractéristique GeoIndex) pour faciliter le traitement des données à caractère géographique. Service Le dernier point de variabilité permet de sélectionner des services responsables d’exposer les données après leurs sauvegardes dans la base de données. Actuellement, nous supportons des composants génériques qui permettent de fournir une interface web donnant un accès à la base de données (caractéristique Query), de visualiser des statistiques sur données collectées sous forme de graphe (caractéristique Chart), visualiser sous forme de carte (caractéristique Map) si l’indexation sélectionnée dans la partie précédente utilise un index géographique, ou alors d’exporter les données dans divers formats (point de variabilité Export) (c.-à-d. CSV, JSON, XML). Dans cette section, nous avons présenté notre approche pour permettre de faire à face à la diversité des campagnes de collecte qui peuvent être menées par les utilisateurs. Pour prendre en compte cette diversité, nous avons proposé de modéliser l’environnement responsable de la gestion d’une campagne comme une famille de produits à l’aide de Modèle de Caractéristique (MC). Le MC présenté permet de définir les points communs et également les différences relatives aux campagnes de collecte. Ces différences peuvent consister à utiliser différents modèles de confidentialité, de recrutement ou d’incitation selon la nature de l’expérience, choisir différentes façons pour développer les tâches de collecte selon le niveau de programmation des utilisateurs ou alors structurer et exposer les données collectées durant la campagne. Ainsi, le MC définit l’ensemble des choix présentés aux utilisateurs pour leur permettre de configurer leurs campagnes de collecte en fonction de leurs exigences. Dans la section 106suivante, nous décrivons comment un nœud de collecte génère un environnement assurant la gestion d’une campagne de collecte à partir des choix effectués par les utilisateurs et comment les utilisateurs peuvent étendre les nœuds de collecte pour faire face à des exigences non anticipées. 4.4.2 Création d’une nouvelle campagne Toutes les caractéristiques initialement introduites dans la section précédente sont associées à un composites SCA. La création d’une nouvelle campagne consiste donc à intégrer et à assembler dans l’architecture initiale du nœud de collecte (cf. figure 20) un ensemble de composite SCA. Dans ce cadre, le MC permet de spécifier l’ensemble des assemblages valides pour générer une nouvelle instance de campagne de collecte. Une fois déployé, un nœud de collecte (cf. figure 20) est composé de quatre composants génériques, dédiés à la création d’une nouvelle campagne : ExperimentManager, WebManager, ModuleManager et le ReconfigurationManager. Figure 20 – Architecture initiale d’un nœud de collecte Le point d’entrée de cette architecture est le composant ExperimentManager. Ce composant est responsable du déclenchement de la génération d’une nouvelle campagne. Pour lancer cette génération, ce dernier composant a besoin de trois informations : i) le nom de la campagne de collecte, ii) une description de l’objectif de la collecte, iii) et l’ensemble des caractéristiques sélectionnées dans le MC par les utilisateurs. La 107création d’une nouvelle campagne peut également s’effectuer à partir d’une interface web fournie par le composant WebManager. La figure 21 montre une vision simplifiée de la génération d’une nouvelle campagne. Figure 21 – Processus de génération d’une architecture SCA Une fois la sélection validée, en fonction des différentes contraintes exprimées dans le MC, le composant ExperimentManager procède alors aux téléchargements des différents composites associés aux caractéristiques sélectionnées, auprès du serveur central via le composant ModuleLibrary. Une fois les composites téléchargés, le composant ExperimentManager exploite alors les capacités d’introspection du moteur d’exécution SCA via le composant ReconfigurationManager pour instancier les composites téléchargés dans l’architecture du nœud de collecte. Par exemple, la figure 22 illustre une nouvelle instance générée à partir de la sélection des caractéristiques suivantes : CodeEditor, Individuel, Badge, Pertubation, userIndex, Query, Export-KML. Cette nouvelle instance expose ainsi de nouveaux services permettant 108Figure 22 – Architecture SCA d’une campagne de collecte 109d’éditer une tâche de collecte associée à la campagne (composant SensingTask :CodeEditor), de déployer cette tâche auprès du serveur central afin de recruter un ensemble de participants (composant Recruitement :Individuel), d’anonymiser et de sauvegarder les données collectées par les participants (composant Privacy :Perturbation et Collector :UserIndex), configurer le mécanisme de récompense (composant Incentive :Ranking) et finalement exploiter les données collecter (composant Service :Query et Service :Export :KML). Nous présentons de manière plus détaillée dans la section suivante comment ces composants interagissent entre eux lors d’une campagne de collecte configurée avec un modèle de recrutement Individuel. L’exécution d’une campagne communautaire sera décrite en section 4.5. 4.4.3 Intéraction entre les composants Après avoir présenté les différents composants logiciels formant le serveur central et les nœuds de collecte de APISENSE®, nous présentons dans cette sous-section leurs interactions. La figure 23 montre un diagramme de séquence illustrant les différents messages échangés entre les acteurs du système (c.-à-d. utilisateurs et participants) et les composants de APISENSE®, lors de l’exécution d’une campagne de collecte personnelle. Comme le montre le diagramme, la réalisation d’une campagne de collecte comporte trois phases : la création de la campagne de collecte (phase 1), le déploiement d’une tâche de collecte vers les dispositifs mobiles des participants (phase 2) et la propagation des données vers un nœud de collecte. (phase 3). phase 1 - création d’une campagne de collecte La création d’une nouvelle campagne de collecte est initiée par un utilisateur à partir de son nœud de collecte. La création de la campagne consiste à sélectionner un ensemble de caractéristiques, appartenant au MC, définissant la configuration de la campagne de collecte. À partir d’une configuration valide, le composant ExperimentManager télécharge les composants SCA associés aux caractéristiques auprès du serveur central et génère une nouvelle instance de la campagne (cf. figure 22). La nouvelle instance est un composite SCA, constitué d’un ensemble de composants qui exposent automatiquement de nouveaux services permettant le développement de la tâche de collecte (composant SensingTask), de la publier (composant Recruitment), de reporter les données collectées par les dispositifs mobiles (composant DataHandler) et de récupérer les données collectées (composant Query). 110Figure 23 – Interaction des composants APISENSE® 111phase 2 - déploiement de la tâche de collecte Une fois les services de la nouvelle campagne de collecte exposés, les utilisateurs peuvent alors développer la tâche de collecte associée à la campagne de collecte via le composant SensingTask, configurer les propriétés de déploiement de la tâche de collecte (cf. section 4.3.2) et la publier auprès du serveur central via le composant Deployment. Une fois publiée, le composant Recruitment du serveur central analyse les propriétés de la tâche de collecte et notifie tous les participants, correspondant à ces propriétés, de la disponibilité d’une nouvelle tâche de collecte est disponible. Les participants volontaires peuvent alors s’y inscrire. Dans ce cas, le dispositif mobile télécharge la tâche de collecte et l’identifiant anonyme généré lors de l’inscription qui est également partagé avec le composant ExperimentManager du nœud de collecte. Une fois téléchargée, la tâche de collecte est alors exécutée sur le dispositif mobile. phase 3 - propagation des données La dernière phase consiste à reporter les données collectées durant l’exécution de la tâche de collecte. Les données sont directement reportées auprès du composant DataHandler du nœud de collecte ayant initié la tâche de collecte. Lors de la propagation des données, l’identifiant anonyme est également envoyé, permettant au nœud de collecte de vérifier si les données proviennent bien d’un utilisateur inscrit à l’expérience. Si l’identifiant est valide, le composant DataHandler fait appel au composant Privacy qui est responsable de l’assainissement des données, avant leur sauvegarde et leur indexation dans la base de données via le composant Collector. Les utilisateurs peuvent alors accéder aux données sauvegardées, exporter les données collectées, et également retourner à la phase 2 afin de modifier le comportement de la tâche de collecte en fonction des résultats observés. Nous venons de décrire l’ensemble des interactions des composants APISENSE® permettant la réalisation d’une campagne de collecte de données. La section suivante présente le mécanisme d’extension de APISENSE® permettant le développement et l’intégration de nouveau composant dans la plate-forme. 4.4.4 Extension des nœuds de collecte En définissant un nœud de collecte comme une application SCA, nous bénéficions aussi de sa modularité pour facilement étendre la plate-forme. Dans cette sous-section, nous présentons comment de nouveaux services peuvent être ajoutés à un nœud de 112collecte. L’ajout d’un nouveau service est effectué à partir d’une archive ZIP, que nous appellerons une contribution. Comme le montre l’exemple illustré par la figure 24, une contribution contient la description d’une caractéristique, associée à un composite SCA, ainsi que l’ensemble des artéfacts implémentant le composite (c.-à-d. code compilé, scripts). La contribution présentée vise donc à ajouter un nouveau service responsable d’exporter les données collectées sous le format KML 5 , un format d’encodage utilisant le formalisme XML destiné à la gestion de l’affichage de données géospatiales dans les systèmes d’information géographique. Dans ce cadre, le premier élément vise à définir la contribution comme une caracté- ristique s’inscrivant dans le MC général présenté en sous-section 4.4.1. La description de la caractéristique définit donc le nœud parent (c.-à-d. caractéristique Export dans l’exemple), identifiant un nouveau point de variabilité, les caractéristiques requises, et le composite SCA associé. Dans cet exemple, le composite définit un nouveau service (c.-à-d. export service), exposé comme une ressource REST. Afin de récupérer les données collectées, le composant déclare une référence vers un composant fournissant un service de requête vers la base de données. Et finalement, le composant, déclare son implémentation comme étant une implémentation en Java. Les nœuds de collecte et le serveur central fournissent un service dédié aux déploiements de nouvelles contributions. Dans ce cadre, un utilisateur peut déployer une contribution directement dans son nœud de collecte, ou directement sur le serveur central pour la partager avec les autres utilisateurs du système. 4.5 campagne de collecte communautaire Dans la section précédente, nous avons présenté les principaux composants des nœuds de collecte et plus particulièrement comment ces composants peuvent être assemblés pour créer des services dédiés à une campagne de collecte spécifique. Nous avons également présenté le premier modèle de recrutement Individuel, où le recrutement est basé uniquement sur les propriétés des participants. Dans cette section, nous décrivons le modèle de recrutement Communautaire. Ce type de campagne, également appelé public sensing dans la littérature [33], consiste à collecter continuellement des données relatives à l’environnement des participants (par ex. bruit ambiant, qualité réseaux, pollution de l’air) dans une zone géographique [47, 63, 50]. 5. https://developers.google.com/kml/documentation 113Figure 24 – Exemple d’extension : Export des données au format KML 114Typiquement, une approche couramment utilisée dans ce type de campagne consiste à impliquer un maximum de dispositifs mobiles dans la collecte de données. Cependant, ces dispositifs collectent périodiquement (c.-à-d. toutes les x secondes) ces données environnementales sans prendre en considération si un autre nœud mobile placé à proximité collecte les mêmes données [27]. Cette approche naïve peut s’avérer inef- ficace principalement pour deux raisons. La première est qu’elle peut impliquer la remontée d’une grande quantité de données similaires, en particulier en milieu urbain ou une forte concentration d’utilisateurs (c.-à-d. situés à proximité) peuvent collecter simultanément ces données identiques. Cela demande par conséquent beaucoup plus de ressources côté serveur pour stocker ces données et les analyser. La seconde est qu’elle implique également une grande perte énergétique des appareils mobiles qui collectent ces données similaires. Récemment, Sheng et al. [59] ont montré qu’effectuer une collaboration entre les dispositifs, en fonction d’un objectif de couverture de la zone à observer, pouvait radicalement diminuer l’énergie consommée par l’ensemble des dispositifs, et par conséquent diminuer également le volume de données transmises sur le serveur. Dans ce cas, les objectifs de couverture définissent uniquement la quantité de données nécessaire pour la campagne, permettant de faire un compromis entre la quantité des données collectées, et le coût énergétique liée à leurs acquisitions. Pour effectuer la collaboration, cette approche fais l’hypothèse que les trajets de chaque appareil mobile est connue à l’avance. À partir de ces trajets, l’algorithme proposé dans cette approche permet d’assimiler les tâches de collecte uniquement aux mobiles capables de couvrir les objectifs de couvertures définis au préalable . Cependant, faire l’hypothèse que la mobilité de chaque appareil mobile est connue à l’avance peut être difficilement appliqué en déploiement réel, dû à la difficulté de prédire les trajectoires des participants [60]. Dans ce contexte, nous présentons dans cette section un modèle de recrutement collaboratif, permettant de coordonner l’exécution des tâches de collecte sans avoir une connaissance au préalable de la mobilité des participants. Le modèle proposé a pour objectif dans un premier temps de diminuer la consommation énergétique globale de tous les dispositifs impliqués dans la campagne, et également de diminuer la quantité de données propagées vers le nœud de collecte. Dans notre architecture, ce modèle est assuré par le composant associé à la caractéristique Collaboration du MC présentée en sous-section 4.4.1. Pour assurer la coordination des tâches, le composant se base sur des propriétés de couverture géographique et temporelle décrites par les utilisateurs, leur permettant de définir seulement la quantité de données nécessaires pour leur 115campagne. Pour définir ces propriétés, ainsi que différentes exigences en relation avec leur campagne, nous proposons une interface de programmation complémentaire à celle présentée dans le chapitre précédent (cf. section 3.3). Dans la suite de cette section, nous présentons tout d’abord l’interface de programmation proposée suivie d’un exemple de campagne de collecte développée avec cette interface. Nous présentons par la suite les différents processus assurant l’exécution ainsi que la coordination des ces campagnes de collecte. 4.5.1 Extension du modèle de programmation Dans cette section, nous présentons l’interface de programmation dédié à la définition de campagne de collecte de données communautaire. La table 11 illustre les principales fonctions proposées par cette interface. Phase Méthode Description Collecte sense(callback : function()) Enregistrement d’une tâche de collecte Recrutement accept(function()) Définition des dispositifs autorisés à exécuter une tâche ranking(function(users)) Classement des dispositifs prioritaires pour l’exécution de la tâche Couverture geoCoverage(bound : Array, coverage : String) Définition des propriétés de couverture géographique timeCoverage(during : Number, every : Number) Définition des propriétés de couverture temporelle duplicate(n : Number) Nombre de dispositifs attribués à une tâche selon les propriétés de couverture. Table 11 – Interface de programmation dédiée à la définition des campagnes de collecte communautaires. Typiquement, la définition d’une campagne de collecte communautaire comprend trois phases : collecte, recrutement, couverture. collecte : La première phase consiste à enregistrer la tâche de collecte qui sera distribuée auprès des nœuds mobiles. La tâche de collecte décrit les données qui doivent être collectées et reportées par les nœuds mobiles (cf. section 3.3, page 59 ). L’enregistrement de celle-ci est effectué en insérant une fonction de rappel 116à la méthode sense. Cette tâche sera ensuite exécutée par les nœuds mobiles lorsqu’ils seront assignés à celle-ci. recrutement : La deuxième phase consiste à définir la stratégie de recrutement des nœuds mobiles. Cette phase permet de filtrer les nœuds mobiles, ou d’en privilégier certains en fonction de leur contexte lors de l’attribution de la tâche de collecte. Par exemple, cela permet de baser le recrutement sur certains attributs (par ex. type de connexion réseaux, vitesse de déplacement), ou de privilégier les nœuds mobiles ayant le niveau de batterie le plus élevé. Le filtrage des nœuds mobiles consiste à enregistrer une fonction de rappel à la méthode accept. Cette fonction sera exécutée par les nœuds mobiles avant l’attribution de la tâche de collecte à un ou plusieurs nœuds. Cette fonction a pour objectif d’observer le contexte du nœud mobile, et définir si celui-ci est autorisé à exécuter la tâche. Dans ce cas, cette fonction doit retourner une liste de propriétés (par ex. niveau de batterie, vitesse de déplacement, qualité du signal réseau), dans le cas contraire, elle doit retourner une valeur nulle. La méthode ranking permet de privilégier certains nœuds mobiles pour exécuter une tâche de collecte, basée sur les propriétés retournées par la méthode accept. couverture : La troisième phase permet de définir les objectifs de couverture temporelle et géographique de la campagne de collecte. Cela permet par exemple de faire un compromis entre le coût énergétique utilisé par l’ensemble de nœuds mobiles, et la quantité de données reportées pendant la campagne. L’objectif de couverture temporelle peut être défini par la méthode timeCoverage, qui prend deux paramètres. Ces deux paramètres permettent de spécifier pendant combien de temps la tâche de collecte doit être exécutée et à quelle fréquence (par ex. exécuter la tâche pendant 30 minutes toutes les heures). L’objectif de couverture géographique peut être défini par la méthode geoCoverage, qui prend également deux paramètres. Ces paramètres permettent de spécifier la zone géographique globale de la campagne et à quelle granularité la tâche de collecte doit être distribuée (par ex. exécuter la tâche dans la ville de Paris tous les 500 mètres). La méthode duplicate permet de définir le nombre de dispositifs attribués à la tâche de collecte en fonction des propriétés de couvertures. Exemple d’application Afin de mieux illustrer le modèle de programmation proposé, nous présentons ici un exemple de campagne de collecte de données. Nous utiliserons également cet exemple comme un fil conducteur tout au long de cette section. Dans cette campagne, décrites par le listing 4.1, nous voulons mettre en place une collecte de 117données permettant d’élaborer une cartographie représentant la qualité des réseaux GSM en fonction des opérateurs des réseaux mobiles dans la ville de Paris. La première phase consiste à enregistrer la tâche de collecte de cette campagne (ligne 2-9). La tâche de collecte consiste à exécuter 10 Ping (Packet INternet Groper) réseaux à une machine distante particulière lorsque le participant a changé de position (ligne 3), et à collecté la latence moyenne des requêtes effectuées (ligne 7), la position de l’utilisateur (ligne 6) ainsi que son opérateur de réseau mobile (ligne 5). La deuxième phase consiste à définir la stratégie de recrutement des utilisateurs. Dans cette phase, nous voulons recruter uniquement les participants disposant d’une connexion de données mobiles (ligne 13). Pour les participants ayant ce type de connexion, nous renvoyons le niveau actuel de leur batterie pour pouvoir privilé- gier l’attribution de la tâches de collecte au participant disposant du niveau de batterie le plus élevé (ligne 18-20). Dans le cas contraire, le participant n’est pas autorisé à exécuter la tâche de collecte. Dans la troisième phase, nous définissons les propriétés de couverture pour optimiser l’énergie utilisée par l’ensemble des dispositifs mobile, et minimiser la quantité de données reportées sur le serveur. Pour cela, nous définissons que la tâche de collecte doit être exécutée au maximum par deux participants (ligne 25) répartis tous les cinqcents mètres dans la ville de Paris (ligne 23), et que la tâche doit être exécutée pendant trente minutes toutes les heures (ligne 24). 1 // phase 1 : définition de la tâche de collecte 2 sense(function() { 3 $location.onLocationChanged(function(event) { 4 $trace.add({ 5 operator : $telephony.operator(), 6 loc: [event.latitude, event.longitude], 7 latency : $network.ping(10,"http://...").average}); 8 })} 9 }) 10 11 // phase 2 : définition de la stratégie de recrutement 12 accept(function(){ 13 if (network.connectionType() != "WIFI"){ 14 15 return {battery : $battery.level()} 16 }else return undefined 17 }) 18 ranking(function(users){ 19 return users.sort("battery").select(); 20 }) 21 22 //phase 3 : définition des objectifs de couverture 11823 geoCoverage([[50.614291,3.13282],[50.604159,3.15239]],"500 m") 24 timeCoverage("30 min","1 H") 25 duplicate(2) Listing 4.1 – Tâche de collecte : Observer la qualité réseau Dans cette section, nous avons présenté le modèle de programmation proposé pour définir des campagnes de collecte supportant la collecte collaborative de données. Nous décrivons dans la suite de cette section comment ces campagnes sont exécutées par les nœuds de collecte. 4.5.2 Coordonner l’exécution des tâches de collecte Dans cette section, nous décrivons le modèle et les algorithmes mis en œuvre pour supporter la coordination des tâches de collecte en fonction des propriétés de couvertures géographique et temporelle. Le principal défi qui doit être adressé pour mettre en œuvre une coordination optimisée est de permettre au nœud de collecte d’avoir une vision aussi précise que possible de la réparation géographique des nœuds mobiles disponibles. Cependant, en utilisant une approche naïve qui consisterait à reporter continuellement la position des dispositifs mobiles vers le serveur ne seraient pas efficace pour plusieurs raisons. Premièrement, cela pourrait engendrer un trafic trop important de messages échangés entre les nœuds mobiles et le serveur, spécialement si de nombreux mobiles sont impliqués dans la campagne. Deuxièmement, cela impliquerait une trop grande consommation énergique des nœuds mobiles, dû à l’activation constante de capteur comme le GPS. Et finalement, classifier les nœuds mobiles en fonction de leur distance les uns par rapport aux autres, en utilisant des algorithmes de clustering [31] par example, entraînerait un surcharge du serveur, spécialement si cette classification doit être effectuée en permanence sur un grand volume de données. Pour adresser ce défi, nous avons adopté pour une approche de virtualisation de capteur, initialement proposée dans les réseaux de capteurs (WSNs). [10]. Typiquement, la virtualisation consiste à rajouter une couche logicielle abstraite, appelée couche virtuelle, composée d’un ensemble de capteurs virtuels, superposée à une couche physique. Un capteur virtuel est une entité logicielle autonome, responsable de gérer le flux de messages entre le serveur et un groupe de capteurs caractérisés par des propriétés communes (par ex. zone géographique, type de capteurs). Dans notre approche, l’idée 119principale est de diviser la zone globale de collecte en plusieurs zone géographiques en fonction des propriétés de couverture géographique de la campagne de collecte. Pour chaque zone, nous attribuons un capteur virtuel qui sera responsable de coordonner l’exécution des tâches entre les nœuds mobiles situé dans sa zone. Dans ce contexte, les nœuds mobiles ont uniquement besoin de partager leur position lorsqu’ils entrent ou sortent de la zone gérée par un capteur virtuel. Le composant responsable de l’exécution des campagnes de collecte communautaire et de la gestion des capteurs virtuels est le composite Recruitment :Collaborative (cf. figure 25). Ce composant est associé à la caractéristique Collaborative du point de variabilité Recruitement dans le modèle de caractéristiques présenté en sous-section 4.4.1. Figure 25 – Composant SCA responsable du recrutement collaboratif Ce composite est constitué des trois composants : i) ScriptEngine responsable de l’exécution du script JavaScript définissant la campagne de collecte, ii) VSManager responsable de la création et la gestion des capteurs virtuels et iii) Deployment responsable d’interagir avec le serveur central pour déployer les scripts auprès des nœuds mobiles. L’exécution d’une campagne communautaire comprend trois phases : i) la phase de génération des capteurs virtuels, ii) la phase de connexion des nœuds mobiles avec les capteurs virtuels, iii) et la phase de coordination de l’exécution des tâches de collecte. Nous décrivons à présent l’ensemble de ces étapes. Phase 1 : Génération des capteurs virtuels L’objectif ici est de générer un ensemble de capteurs virtuels responsables de coordonner l’exécution des tâches de collecte entre les nœuds mobiles. La génération de ces capteurs virtuels est assurée par le composant VSManager. Chaque capteur virtuel est caractérisé par une propriété définissant la zone géographique incluse dans la zone 120globale de collecte des données. La génération de ces capteurs est effectuée à partir de la méthode geoCoverage(bound,coverage) de l’interface de programmation, définissant la zone géographique globale de la collecte (paramètre bound), et la taille de la zone gérée par un capteur virtuel (paramètre coverage). À partir de ces paramètres, le composant VSManager génère et instancie un ensemble de capteurs virtuels, et les distribue pour couvrir l’intégralité de la zone globale de collecte (cf. figure 26). Typiquement, un capteur virtuel est un composite SCA disposant de deux services : composant RegistrationService et CoordinationService. Le premier service est dédié à l’enregistrement des nœuds mobiles. Ce service est exposé en tant que ressource REST, accessible à partir d’une URL générée à partir de la zone géographique dont il est responsable. Dans ce cas, les nœuds mobiles sont responsables de s’enregistrer auprès du capteur virtuel en fonction de leur position. Le deuxième service est responsable d’attribuer une tâche de collecte à un ou plusieurs nœuds mobiles qui se sont enregistrés au préalable. Nous détaillons ces différents points dans les section suivantes. Figure 26 – Distribution des capteurs virtuels Phase 2 : Connexion des appareils mobiles et des capteurs virtuels La deuxième phase consiste à établir une connexion entre les nœuds mobiles et les capteurs virtuels. Pour établir cette connexion, les nœuds mobiles ont tout d’abord besoin de télécharger la tâche de collecte auprès du serveur central. Le déploiement de la tâche de collecte vers le serveur central, assurée par le composant DeploymentService, 121suit le même procédé qui celui présenté en sous-section 4.4.4. Comme le montre la figure 26, la tâche de collecte comporte deux fichiers JavaScript : sense.js correspondant au code JavaScript responsable de la collecte des données (ligne 3-8 dans l’exemple décrit par le listing 4.1), et VSmonitoring.js. Dans un premier temps, seulement le fichier VSmonitoring.js est exécuté. Ce dernier script télécharge dans un premier temps l’ensemble des propriétés des capteurs virtuels générés (c.-à-d. zone géographique et l’URL du service d’enregistrement). À partir de ces propriétés, ce script observe continuellement la position du nœud mobile pour déterminer la présence du nœud mobile se situe dans une zone gérée par un capteur virtuel, et est responsable de l’enregistrement et du dé-enregistrement auprès du capteur virtuel associé. En ce qui concerne la surveillance de la position du nœud mobile, nous utilisons un algorithme couramment utilisé dans la littérature pour déterminer si un dispositif se trouve dans une zone spécifique, tout en minimisant le coût énergétique. Typiquement, l’idée principale derrière est i) d’utiliser alternativement les différents mécanismes permettant de déterminer la position d’un utilisateur — entre le GPS fournissant une grande précision, mais consommant beaucoup d’énergie, et le réseau qui, au contraire, consomme moins d’énergie, mais est beaucoup moins précis —, ii) et la fréquence d’échantillonnage en fonction de la distance entre l’utilisateur et le capteur virtuel le plus proche de sa position actuelle. Phase 3 : Coordonner l’exécution des tâches de collecte Dans cette section, nous présentons l’algorithme utilisé par les capteurs virtuel pour coordonner l’exécution des tâches de collecte entre les nœuds mobiles enregistrés auprès d’un capteur virtuel. Le principal défi dans cette partie est de faire face à la connectivité imprévisible des nœuds mobiles. En effet, on ne peut pas partir du postula que tous les nœuds enregistrés sont réellement disponibles pour exécuter une tâche. De nombreux phénomènes peuvent empêcher les nœuds mobiles d’avertir un capteur virtuel qu’ils ne sont plus disponibles, comme la perte d’un signal réseau, un épuisement complet de la batterie ou tout simplement l’extinction du téléphone mobile par le participant. Pour prendre en considération ces phénomènes, l’idée principale de notre approche consiste à dupliquer le nombre de nœuds mobiles assignés à une tâche de collecte, et à intégrer une phase de demande d’exécution afin d’éviter d’avoir à assigner une tâche à un nœud qui n’a pas annulé son enregistrement au capteur virtuel. 122L’algorithme (cf. algorithme 1) est déclenché périodiquement en fonction des propriétés de couverture temporelle qui peuvent être définies par l’interface de programmation avec la méthode geoCoverage(duration,every). Algorithm 1 Algorithme de coordination des tâches de collecte Require: connectedDevices : List of connected devices activeDevices : List of activated devices t : Time threshold Task(tstart,tend) : Temporal properties of the sensing task duplicate : Maximum number of devices to assign the sensing task if (size(activeDevices) < duplicate) then candidates ⇐ connectedDevices − activeDevices if notEmpty(candidates) then availableCandidates ⇐ broadcastTaskRequestEvent(candidates) repeat receive(Device(id, n)) add(availableCandidates,Device(id, properties)) until timeout t is reached for (i = 0 → (size(activeDevices) − duplicate))) do device ⇐ ranking(availableCandidates) activeDevices ⇐ device + activeDevices availableCandidates ⇐ availableCandidates − device broadcastTaskExecutionRequest(device, tstart, tstop) end for end if end if L’algorithme vérifie tout d’abord si le nombre de dispositifs mobile déjà assigné à une tâche (size(activeDevice)) est inférieur à la propriété de duplication. Dans ce cas, nous définissons une liste candidate comme un ensemble de dispositifs connectés et n’exécutant pas actuellement une tâche de collecte. Pour tous les candidats, un message leur est envoyées avec la fonction de recrutement définie par l’interface de programmation (ligne 12-17 dans l’exemple du listing 4.1), — dans notre exemple, nous voulons recruter uniquement les nœuds mobiles disposant d’une connexion GSM —. Le capteur virtuel attend ensuite un temps t la réponse des dispositifs mobiles. Les nœuds correspondant à la méthode de recrutement répondent ensuite au capteur virtuel avec un ensemble de propriétés indiquant leurs états actuels (par ex. niveau de 123batterie, type de connexion de données). Ces nœuds sont ensuite ajoutés à une liste indiquant leurs disponibilités pour exécuter la tâche de collecte. Ces nœuds sont ensuite classifiés par la méthode ranking. Cette méthode correspond à celle définie par l’interface de programmation (ligne 18-20 du listing 4.1), permettant de privilégier certains nœuds par rapport à leurs propriétés. Dans notre exemple, nous privilégions les noeuds mobiles disposant du niveau de batterie le plus élevé. À la fin du processus, un nouveau message est envoyé aux nœuds mobiles leur demandant d’exécuter la tâche de collecte. Les noeuds mobiles recevant ce message démarrent l’exécution de la tâche de collecte jusqu’à la date définie par tend ou lorsque les nœuds quittent de la zone gérée par le capteur virtuel. Cela permet de réattribuer la tâche de collecte à un autre nœud. À la fin de l’exécution, toutes les données collectées sont ensuite propagées directement sur le nœud de collecte. 4.6 conclusion APISENSE® propose un environnement facilitant la gestion de campagnes de collecte de données. Pour supporter une grande diversité de campagne de collecte, nous avons proposé un modèle permettant de configurer un environnement serveur (c.-à-d. honey) responsable de l’exécution d’une campagne de collecte. Ainsi, ce modèle est utilisé pour configurer les services d’un nœud de collecte en fonction des spécificités des campagnes de collecte. Cette configuration comprends cinq points : i) configurer l’environnement de développement des tâches de collecte, ii) choisir un modèle de recrutement des participants, iii) choisir une série de traitements sur les données collectées avant leur insertion dans la base de données (par ex. anonymisation des données), iv) spécifier l’indexation des données dans la base de données, v) exposer des services pour exploiter les données collectées. À partir de ce modèle, un nœud de collecte peut être ensuite généré et déployé par les utilisateurs vers une infrastructure qui peut être publique ou privée selon la nature des données collectées. Cela leur permet de garder un contrôle total sur l’infrastructure hébergeant les données collectées durant leurs campagnes. APISENSE® se distingue également par son architecture décentralisée, permettant d’améliorer le passage à l’échelle du système. Son architecture est ainsi composée d’un ensemble de nœuds de collecte organisé autour du serveur central. Concernant le serveur central, son principal objectif est d’assurer le déploiement des tâches de 124collecte soumises par les nœuds de collecte vers les participants de la plate-forme qui se sont enregistrée au préalable. Ce procédé a principalement deux avantages. Le premier est d’assurer une première couche d’anonymat des participants, dans le sens où tous les nœuds de collecte ne peuvent pas déployer les tâches de collecte sans passer par le serveur central. Le deuxième permet aux nouveaux utilisateurs de bénéficier d’un ensemble de participants déjà disponibles pour exécuter des tâches de collecte, leur évitant ainsi une longue période de recrutement. Finalement, nous avons proposé une extension de APISENSE® dédiée à l’optimisation de l’exécution de campagne de collecte communautaire. L’optimisation proposée permet de coordonner l’exécution des tâches de collecte entre les dispositifs mobiles en fonction de propriétés de couvertures géographique et temporelle. Principalement, cette optimisation a pour objectif dans un premier temps de diminuer la consommation énergétique globale de tous les dispositifs impliqués dans la campagne, et également de diminuer la quantité de données propagées vers le nœud de collecte. La description des contributions de ce manuscrit est à présent terminée. Dans les chapitres suivants, nous présentons les évaluations de la plate-forme APISENSE®. 125Troisième partie Évaluations 1275 P R AT I Q U E S C U LT U R E L L E S E T U S A G E S D E L’ I N F O RM AT I Q U E C O N N E C T É E Sommaire 5.1 Introduction 130 5.2 Contexte et objectif de l’étude PRACTIC 130 5.3 Développement de l’étude PRACTIC 131 5.3.1 Collecte opportuniste 132 5.3.2 Collecte participative 135 5.3.3 Retour utilisateur 136 5.3.4 Discussions 136 5.4 Déploiement de l’étude PRACTIC 139 5.4.1 Protocole du déploiement 139 5.4.2 Participation 140 5.5 Conclusion 143 Dans cette partie, nous présentons les évaluations de la plate-forme APISENSE® en deux chapitres. Dans le premier chapitre, nous présentons une campagne de collecte déployée auprès d’une centaine d’utilisateurs, réalisée au sein de l’étude PRATIC (Pratiques Culturelles et Usages de l’Informatique Connectée). Ce chapitre a pour objectif de montrer le gain en terme de coût de développement apporté par notre plate-forme, et également de montrer la faisabilité de notre approche dans un cas réel d’utilisation. Le deuxième chapitre évalue le passage à l’échelle de APISENSE® pour la réalisation de campagne de collecte communautaire. Nous évaluons notamment le gain du modèle de recrutement collaboratif, permettant de faire un compromis entre l’énergie consommée par les dispositifs mobiles et la quantité de données générées tout en gardant une bonne couverture de collecte. 1295.1 introduction Dans la partie précédente de ce manuscrit, nous avons présenté en intégralité APISENSE®, la plate-forme résultante des travaux de cette thèse. Comme nous l’avons déjà évoqué, le principal objectif de cette thèse est d’ouvrir l’accès du Mobile Crowd Sensing à de nombreux acteurs privés ou académiques, en leur permettant de facilement développer et déployer leurs campagnes de collecte de données. Dans ce chapitre, nous présentons une campagne réalisée au sein d’une étude sociologique nommée PRACTIC 1 (Pratiques Culturelles et Usages de l’Informatique Connectée), qui vise à comprendre l’usage des technologies numériques connectées en matière d’habitudes et de routines de consommations culturelle et médiatique. Cette étude a été réalisée par une équipe pluridisciplinaire, composée de deux ingénieurs en informatique pour le développement des scripts de collecte, et deux chercheurs en sciences de l’information et de la communication pour l’interprétation des données collectées. Par le biais de la description de cette étude, nous cherchons tout d’abord à montrer la faisabilité de notre approche pour être utilisée dans un cas réel d’utilisation, et plus particulièrement évaluer le gain en terme de cout de développement apporté par APISENSE®. 5.2 contexte et objectif de l’étude practic Le principe de l’étude PRACTIC est né de notre rencontre avec des chercheurs en sociologie, dans le cadre du projet de l’Observatoire Scientifique de l’Internet 2 initié par INRIA 3 . Un premier objectif de cette collaboration est de voir en quelle mesure les nouveaux mécanismes de collecte de données, comme le Mobile Crowd Sensing, peuvent augmenter les méthodes traditionnelles de la recherche numérique en sciences sociales. En effet, de nos jours, la nouvelle génération des terminaux intelligents comme les tablettes ou les smartphones sont fortement intégrés dans la vie sociale et culturelle des individus. Cette intégration représente de nouvelles opportunités pour les sciences sociales, qui peuvent ainsi collecter massivement et sur le long terme, des données comportementales des individus de manière non intrusive. De plus, cela nous a permis de confronter notre plate-forme à un déploiement réel, et d’être utilisée par des personnes tierces à notre équipe. 1. http ://beta.apisense.fr/practic 2. http ://metroscope.org/ 3. www.inira.fr 130L’étude PRACTIC est composée majoritaire de deux phases. La première est une phase de collecte de données auprès d’un ensemble de participants volontaires, combinant les collectes de données opportuniste et participative (c.-à-d. questionnaire). Dans le cadre de PRACTIC, la confrontation de la collecte opportuniste et participative permet de mesurer l’écart entre la représentation des individus sur l’utilisation de leur smartphone et leur pratique effective. La seconde phase comprend des traitements statistiques sur les données collectées qui aboutiront sur quelques entretiens individuels. Dans ce chapitre, nous décrivons uniquement la première phase de l’étude qui est directement en relation avec la plate-forme APISENSE®. Nous décrivons à présent le développement de cette phase de collecte. 5.3 développement de l’étude practic La phase de collecte a entièrement été développée par APISENSE®, en utilisant son modèle de programmation (cf. chapitre 3 section 3.3) pour la description des données collectées sur les environnements mobiles, et un nœud de collecte déployé sur un serveur privé pour la persistance des données. Cette phase a été développée par un Ingénieur Jeune Diplômé (IDJ) en informatique, intégré pour les besoins de l’étude, qui n’avait aucune compétence particulière en programmation mobile au début du développement. L’application PRACTIC a d’abord connu plusieurs phases de test auprès d’un sous ensemble de participants. Ces différentes itérations ont permis d’identifier certains bugs, et d’ajouter des fonctionnalités non anticipées qui ont permis de consolider APISENSE® et l’enquête. Durant cette phase de test, l’ingénieur en question été responsable de faire la transition entre les exigences des sociologues, et les capacités offertes par notre plate-forme. La figure 27 illustre les principales données collectées par l’application PRACTIC. Un aspect intéressant ici est qu’elle utilise un large éventail des fonctionnalités proposées par APISENSE®. La collecte de données comprend principalement trois parties différentes que sont la collecte opportuniste de données, la collecte participative et les retours utilisateurs, correspondant respectivement à plusieurs scripts de collecte. Nous décrivons à présent brièvement ces différents points, et comparons à la fin de cette section le gain en terme de coût de développement apporté par notre modèle de programmation. 131Figure 27 – Données collectées par l’étude PRACTIC 5.3.1 Collecte opportuniste La première partie vise à collecter la diversité des rythmes de vie ainsi que des usages sociaux ou culturels des dispositifs mobiles. Toutes ces données sont collectées automatiquement par l’application sans nécessiter une intervention des participants. Typiquement, trois types de données sont collectées : Contenu Mobile, Activité de l’utilisateur, et Contexte mobile. Chaque type de données correspond à un script de collecte spécifique. Nous présentons brièvement un exemple simplifié des scripts de collecte développés. Contenu Mobile Le contenu mobile (cf. listing 5.1) vise à identifier des profils culturels des participants en fonction du contenu de leur appareil mobile. Dans le cadre de PRACTIC, la dimension culturelle est vue à deux niveaux : le type des applications mobiles installées (c.-à-d. jeux,divertissement, communication), les genres musicaux des participants. Le listing 5.1 décrit le script de collecte associé. La première partie du script (ligne 1-6) est déclenchée une seule fois lors de la première exécution du script. Dans cette partie, un ensemble de méta-données est collecté comprenant la liste des applications installées (nom, date d’installation, catégorie), et celle des fichiers musicaux présents (nom, artiste, format d’encodage, taille en Ko). La deuxième partie vise à identifier les cycles d’installation et de désinstallation des applications. Cette partie est réalisée 132automatiquement lorsqu’un événement concernant l’installation ou la désinstallation est déclenchée par le système mobile. 1 $schedule.once(function(){ 2 // store media files meta-data 3 $trace.add($media.getAudioFiles()); 4 // store installed applications meta-data 5 $trace.add($app.getLaunchableApplications()); 6 }); 7 8 $app.onAppInstallEvent(function(app){ 9 // store new installed or uninstalled application meta-data 10 $trace.add(app); 11 }); Listing 5.1 – Collecte du contenu mobile Activité utilisateur Cette partie vise à collecter les différents rythmes de vie et d’usages des dispositifs mobiles. Les usages sont principalement séparés en deux catégories correspondant aux usages natifs des téléphones mobiles (c.-à-d. appels et SMS) et les nouveaux usages introduis par la nouvelle génération des terminaux intelligents. Le listing 5.2 décrit l’utilisation de la façade $phone permettant de collecter des données sur les appels et les SMS émis et reçus. Pour des raisons de confidentialité, le contenu des appels et des SMS ainsi que l’identifiant des correspondants ne sont pas accessibles à partir des scripts. Seules la durée des communications ainsi que la taille des SMS sont disponibles. 1 $phone.onCallCompleted(function(call){ $trace.add(call) }); 2 3 $phone.onSMS(function(sms){ $trace.add(sms) }) Listing 5.2 – Collecte des usages natifs des dispositifs mobile La deuxième catégorie, illustrée par le listing 5.4 identifie les sessions d’utilisation des dispositifs. Celles-ci comprennent les sessions générales d’utilisations (écran allumé et éteint) et les sessions d’utilisation des applications. L’identification des sessions générales peut être effectuée par le biais de la façade $screen permettant d’intercepter les événements liés à l’écran du dispositif (lignes 2 et 22). Une session commence lorsque l’événement onScreenOn est déclenché. À la suite de cet événement, le script vérifie toutes les secondes (ligne 5) l’application exécutée en premier plan du dispositif (ligne 6), et collecte une session applicative lorsque l’application détectée est différente de la précédente (lignes 7-20). La session générale se termine lorsque l’événement 133onScreenOff est déclenché, dans ce cas la vérification des applications exécutées en premier plan est annulée (ligne 30), et cela déclenche également une nouvelle collecte de données correspondant à la durée de la session générale (lignes 25-29). 1 var subscription,startSession,subscription,appName,startApp; 2 $screen.onScreenOn(function(screen){ 3 4 startSession = screen.time; 5 subscription = $schedule.every("1 s",function(event){ 6 var currentApp = $app.currentApplicationName(); 7 if (appName != currentApp){ 8 9 appName = currentApp; 10 startApp = event.time; 11 12 // store application session 13 $trace.add({ 14 event : "ApplicationSession", 15 start : startApp, 16 end : event.time, 17 name : appName 18 }); 19 }; 20 }); 21 }); 22 $screen.onScreenOff(function(event){ 23 24 // store screen session 25 $trace.add({ 26 event : "ScreenSession", 27 start : startSession, 28 end : event.time 29 }); 30 subscription.suspend(); 31 }); Listing 5.3 – Collecte des usages des applications mobile Contexte mobile Finalement, la dernière catégorie des données collectées permet de mettre en perspective l’utilisation des applications et leurs contextes (cf. listing 5.4). Cela permet d’identifier par exemple si certaines applications sont utilisées uniquement lorsque le participant se trouve à son domicile ou sur son lieu de travail,ou encore d’observer si la qualité du réseau ou le niveau de batterie influe sur l’utilisation de certaines applications. Cette catégorie comprend les cycles de chargement et le niveau de la batterie (lignes 10-12), le contexte réseau (ligne 7-9) constitué du type de connexion 134de données (c.-à-d. Wi-Fi, 3G/4G), et de la force du signal réseau GSM (lignes 1-6). Pour déterminer si l’utilisateur est en situation de mobilité, le choix a été fait de collecter uniquement les identifiants des antennes cellulaires, qui permettent d’avoir une approximation de la localisation du participant sans entraîner une consommation énergétique supplémentaire de l’application mobile [65]. 1 $telephony.onSignalStrengthChanged(function(signal){ 2 $trace.add({ 3 level : signal.level, 4 cellId : $telephony.cellId() 5 }); 6 }); 7 $network.onNetworkStateChange(function(networkEvent){ 8 $trace.add(networkEvent); 9 }); 10 $battery.onBatteryStateChange(function(batteryEvent){ 11 $trace.add(batteryEvent); 12 }); Listing 5.4 – Collecte des usages des applications mobiles 5.3.2 Collecte participative Le questionnaire vise à collecter des données déclaratives sur l’équipement, les usages et le rapport à la vie privée des participants. Il est composé de 152 questions, dont certaines ne sont pas obligatoires. Par exemple, dans la partie des usages, le fait de ne pas posséder une tablette par exemple permet de ne pas répondre à un sous-groupe de questions. Entre 20 et 30 minutes sont nécessaires pour répondre intégralement au questionnaire. Les questions sont organisées au sein de quatre grandes parties : à propos de vous (16 questions), équipements (36), pratiques culturelles et usage de l’informatique connectée (60) et publicité en ligne et privée (19). Le questionnaire peut être complété à tout moment par les participants à partir de leurs dispositifs. Le listing 5.5 montre une très brève partie du questionnaire développé. Typiquement, les réponses du questionnaire vont être croisées par les sociologues avec les données collectées automatiquement par l’application. 1 var survey = $survey.create("PRACTIC"); 2 // ... 3 var q88 = survey.close("Quel est le lecteur musical que vous utilisez le plus ?",[ 4 "Chaine Hi-Fi / Platine Vinyle", 5 "Baladeur/MP3", 1356 "Smartphone", 7 "L’ordinateur (musique enregistrée sur le disque dur ou CD)", 8 "La radio", 9 "La television (chaines musicales comme MTV)", 10 "Autre lecteur de musique" 11 ]); 12 var q88b = survey.open("Quel autre lecteur utilisez-vous ?"); 13 var q89 = survey.close("Quel est votre maniére d’écoute principale avec votre lecteur ?",[ 14 "Casque audio", 15 "Enceinte/Ampli", 16 "Sans rien" 17 ]); 18 q88.then(function(response){ 19 20 if (response == "Autre lecteur de musique"){ 21 return q88b; 22 } 23 else return q89; 24 }); Listing 5.5 – Extrait du questionnaire PRACTIC 5.3.3 Retour utilisateur La dernière partie des scripts de collecte vise à donner un aperçu aux participants des données collectées. Typiquement, l’objectif de cette partie est d’agir en toute transparence vis-à-vis des participants sur les données qui sont collectées sur leurs dispositifs, et d’apporter un aspect ludique à l’application. L’idée est de permettre aux participants de confronter leur perception de l’utilisation de leur dispositif avec leur usage réel. La figure 28 montre un exemple de retour utilisateur sur la durée totale d’utilisation de son appareil. Cette partie a été développée intégralement en HTML/JavaScript. 5.3.4 Discussions Dans cette section, nous avons décrit l’ensemble des scripts de collecte qui a été nécessaire dans le cas de l’étude PRACTIC. Nous allons maintenant identifier le gain apporté par APISENSE® pour le développement de ce cas d’étude. L’application mobile APISENSE®, responsable du téléchargement, de l’exécution des scripts et de la propagation des données collectées a été développée en utilisant la version 2.3 du SDK de Android. L’application APISENSE® fournit de nombreuses abstractions qui simplifient 136Figure 28 – Exemple de retour utilisateur PRACTIC le développement d’une application de collecte de données. La première permet tout d’abord d’avoir une abstraction complète du SDK Android pour accéder aux données fournies par Android, et intercepter les différents événements internes au dispositif mobile grâce aux façades. Le tableau 12 récapitule les façades qui ont été utilisées pour développer PRACTIC, et leur nombre de lignes de code Java qui ont été nécessaires à leur développement. Au total, ces façades comptent approximativement 6000 lignes de code. Pour les besoins de l’étude, en collaboration avec l’ingénieur responsable du développement de PRACTIC, nous avons dû intégrer deux nouvelles façades pour lister les fichiers musicaux (façade $media) et pour observer les évènements liés à l’écran d’un dispositif (façade $screen). Ces façades peuvent être à présent disponibles pour le développement de nouveaux scripts de collecte. L’application APISENSE® dispose également d’un ensemble de services responsables de l’exécution des scripts de collecte en tâche de fond,d’interagir avec le serveur central d’APISENSE® pour le téléchargement et de la mise à jour des scripts de collecte, d’interagir avec les nœuds de collecte des scientifiques pour propager automatiquement les données collectées, et de contrô- ler les ressources consommées par les scripts de collecte (cf. chapitre 3 section 3.4). Cette partie comporte approximativement plus de 20000 lignes de code. Pour finir, l’application mobile APISENSE® possède également une interface graphique générique destinée aux participants (6000 lignes de code). 137Façade Description LOC $survey Génération et publication d’un questionnaire 1277 $feedback Intégration de visualisation HTML/JavaScript 2144 $network Observation du contexte réseau 259 $telephony Observation du réseau cellulaire 400 $phone Observation des communications 600 $battery Observation des états de la batterie 158 $app Observation des applications 362 $trace Collecte et propagation des données 376 $screen (nouvelle) Observation de l’écran 235 $media (nouvelle) Liste du contenu 210 Table 12 – Façade utilisée pour les besoins de l’application PRACTIC La figure 29 met en évidence le gain en terme de lignes de codes obtenu grâce à APISENSE® par rapport aux scripts développés. Au total, seulement 7 % de codes spécifiques ont eu besoin d’être développés pour l’étude PRACTIC. Les principaux efforts de développement résident dans la description des 150 questions et leurs enchaînements (760 lignes) et dans les interfaces graphiques effectuant un retour sur les données obtenues (1600 lignes). Dans la section suivante, nous présentons le protocole de déploiement de l’application. Figure 29 – Gain en terme de lignes de code obtenu grâce à APISENSE® pour le développement de l’étude PRACTIC 1385.4 déploiement de l’étude practic Après avoir présenté dans son ensemble les scripts de collecte de l’étude PRACTIC, nous présentons dans cette section son protocole de déploiement et discutons de la participation à cette étude. 5.4.1 Protocole du déploiement Pour la mise en place de l’étude PRACTIC, un nœud de collecte a tout d’abord été déployé sur un serveur privé des scientifiques. Le nœud de collecte a été configuré pour utiliser un modèle de recrutement individuel, pour indexer les données collectées par utilisateur et pour utiliser un système de classement à point (cf. chapitre 4 section 4.4.1) afin de maximiser la participation des utilisateurs. Pour que les données collectées soient pleinement exploitables par les sociologues, ils ont besoin qu’elles soient collectées au minimum pendant 14 jours par participant, et que celui-ci ait répondu au questionnaire de l’enquête. Dans ce contexte, les points sont attribués de la manière suivante : • 50 points pour les participants ayant installé l’application sur une tablette et un smarpthone, remplis le questionnaire et ayant généré plus de 14 jours de données. • 20 points pour les participants qui ont installé sur un seul appareil (smartphone ou tablette), avec le questionnaire rempli et toujours un minimum de 14 jours de données générées. • 1 point par jour de données générées • 2 points si le questionnaire est rempli Des lots ont été prévus pour récompenser les meilleurs participants comprenant une tablette tactile, un smarpthone, une liseuse ainsi que des disques durs externes et des clés USB. Le nœud de collecte a également été utilisé pour le développement des scripts de collecte ainsi que leurs déploiements auprès d’un serveur central que nous avions au préalablement déployé sur un service Microsoft Azure 4 . Pour des raisons éthiques et légales, l’étude PRACTIC a été soumise et validée par la Commission National de l’Informatique et des Libertés 5 (CNIL). 4. http ://azure.microsoft.com/fr-fr/ 5. http://www.cnil.fr/ 139Les participants intéressés à participer à l’étude PRACTIC doivent tout d’abord télécharger et installer l’application mobile APISENSE® publiée sur le site internet APISENSE® 6 en flashant un QR code. À partir de l’application, les participants pourront alors s’enregistrer auprès de l’étude PRACTIC. L’enregistrement déclenchera automatiquement le téléchargement et l’exécution des scripts de collecte après la validation d’une charte de confidentialité. Un identifiant unique est généré et accordé à chaque participant lors de son inscription. Ce n’est qu’en acceptant de communiquer cet identi- fiant avec les chercheurs qu’ils pourront être identifiés. Nous présentons dans la suite de cette section le niveau de participation à PRACTIC, et discutons des premiers retours de l’expériences. 5.4.2 Participation L’étude PRACTIC s’est déroulée du 10 MARS au 19 Avril 2014. La figure 30 montre le nombre d’utilisateurs inscrits par jour, ainsi que l’accumulation du nombre d’inscriptions durant l’étude. Au total, 88 participants ont été recrutés durant l’étude. Figure 30 – Nombre d’inscriptions par jour à PRACTIC Un aspect intéressant des participants recrutés est la diversité de leurs équipements (cf. figure 31), ce qui nous a permis de tester APISENSE® sur 45 modèles de smartphones différents. Outre le nombre d’inscriptions, le succès de l’étude repose principalement sur le taux de participation des utilisateurs tout au long de l’étude. Pour que les données 6. http://www.apisense.fr 140Figure 31 – Diversité des équipements mobiles d’un participant soient exploitables par les chercheurs, il est nécessaire qu’elles aient été collectées au moins sur une période de 14 jours, et que celui-ci ait répondu au questionnaire de l’application. Figure 32 – Taux de participation à la collecte opportuniste 141Figure 33 – Taux de participation à la collecte participative et opportuniste Sur l’ensemble des participants, comme la montre la figure 32, 48 ont collecté des données plus de 14 jours, 21 de 4 à 13 jours, 13 de 1 à jour 6 qui n’ont collecté aucune donnée. Les participants ayant répondu au questionnaire sont au nombre de 25, et les participants ayant à la fois répondu au questionnaire et collecté au moins 14 jours de données sont au nombre de 12 (cf. figure 34). Ces derniers représentent les cas d’étude concrets pour les scientifiques. Bien que ce nombre soit inférieur à celui escompté au début de l’étude, un point positif des premiers résultats obtenus permet de valider que les dispositifs sont bien au cœur des pratiques de certains participants. La figure 34 par exemple représente le nombre de sessions applicatives, ainsi que leurs durées, sur une période de 40 jours Cette courbe met bien en évidence les différents rythmes des usages d’un participant en particulier, qui utilise son dispositif tout au long de la journée, et qui intensifie son utilisation en fin de journée. Figure 34 – Représentation des sessions d’allumage de l’écran du terminal d’un participant cumulées au cours de 40 jours 1425.5 conclusion Dans ce chapitre, nous avons présenté un cas réel de campagne de collecte de données développée et déployée avec APISENSE® au sein d’une étude sociologique. Nous avons montré que APISENSE® permettait réduire le temps de développement d’une campagne de collecte en proposant un modèle de programmation permettant de s’abstraire complètement des technologies mobiles. Dans le cas de cette étude, le modèle de programmation a permis d’économiser plus de 90% de code nécessaire à son développement. La campagne développée a été déployée auprès de 88 utilisateurs sur une période d’un mois et demi. 143É VA L U AT I O N D U M O D È L E C O L L A B O R AT I F 6 Sommaire 6.1 Introduction 145 6.2 Mise en place de l’expérience 145 6.3 Résultats 148 6.3.1 Quantité de données et couverture géographique 148 6.3.2 Consommation énergétique 151 6.4 Conclusion 154 6.1 introduction Dans ce chapitre, notre objectif est de montrer la validité du modèle de recrutement collaboratif présenté dans le chapitre 4 en section 4.5, page 113 qui permet de coordonner l’exécution des tâches de collecte entre les dispositifs mobiles. Nous rappelons que le but de cette coordination est dans un premier temps de répartir les charges énergétiques entre les dispositifs mobiles durant la campagne de collecte, puis dans un second temps de diminuer la quantité de données propagées vers les nœuds de collecte en limitant la propagation de données dupliquées. La validité du modèle est évaluée sur quatre critères : i) la quantité de données propagées sur les nœuds de collecte, ii) la quantité d’énergie utilisée par les dispositifs mobiles ainsi que iii) le surcoût induit par notre approche pour effectuer la coordination des tâches, iv) la couverture géographique des données obtenues. Pour valider notre modèle, nous avons mené une expérience et développé un environnement de simulation que nous détaillons dans la section suivante. 6.2 mise en place de l’expérience Pour cette évaluation, nous reprenons l’exemple de l’application présentée dans la section 4.5.1 page 116 qui est une version simplifiée d’une collecte de données exposée 145dans LiveLab [61]. L’objectif de cette application est d’utiliser les dispositifs mobiles pour mesurer la qualité des réseaux GSM en milieu urbain. Le listing 6.1 décrit la tâche de collecte associée à cette application qui consiste à exécuter 10 Pings réseaux (Packet INternet Groper) toutes les trente secondes et à collecter la latence moyenne des Pings effectués ainsi que la position du dispositif obtenue avec par GPS. 1 $location.onLocationChanged({period : "30s", provider : "GPS"},function(event) { 2 $trace.add({ 3 loc: [event.latitude, event.longitude], 4 latency : $network.ping(10,"http://...").average}); 5 })} Listing 6.1 – Tâche de collecte : Mesure de la latence réseau Pour évaluer notre approche, nous avons simulé le recrutement des dispositifs suivant un modèle où tous les dispositifs exécutent la tâche de collecte indépendamment les uns des autres, et suivant le modèle collaboratif, où les capteurs virtuels coordonnent l’exécution des tâches de collecte entre les dispositifs mobiles (cf. 4.5.2, page 119 ). Pour une évaluation réaliste et à grande échelle, nous utilisons des traces de mobilités réelles provenant de 10000 taxis équipés de GPS dans la ville de Pékin en Chine [67]. Ces données ont été collectées sur une période d’une semaine allant du 2 au 8 février 2008. Afin d’utiliser ces données, nous avons développé un simulateur illustré par la figure 35. Le simulateur comprend trois composants : un Manager, un ensemble d’Agents et un nœud de collecte (DataGathering Node). agents : Les agents sont responsables de générer le trafic réseau simulant les interactions entre les dispositifs mobiles et le nœud de collecte. Ces interactions sont simulées à partir d’un fichier de mobilité comprenant une série de tuples (date, latitude, longitude) représentant les déplacements d’un taxi à travers le temps. Pour l’expérience, nous avons implémenté deux types d’agents : i) les agents individuels et ii) les agents collaboratifs. Les agents individuels exécutent la tâche de collecte en continu tout au long de l’expérience, c’est-à-dire qu’ils collectent toutes les 30 secondes leur position selon le fichier de mobilité, et propagent l’ensemble des données collectées sur le nœud de collecte toutes les 5 minutes. Quant aux agents collaboratifs, ils s’enregistrent auprès des capteurs virtuels selon leur position à un instant t, et exécutent la tâche de collecte lorsqu’ils ont reçu une demande d’exécution de la part du capteur virtuel. Pour assurer une montée en charge du simulateur, les agents sont répartis auprès de plusieurs machines 146virtuelles hébergées sur la plate-forme Microsoft Windows Azure 1 . Des machines virtuelles de taille Small (A1) 2 sont utilisées, correspondant à un processeur à 1 coeur, 1,75 Go de mémoire et une carte réseau de 100 Mbit/s. datagathering node : Pour la simulation, nous avons déployé un nœud de collecte (cf. section 4.4, page 100 ) sur une machine virtuelle hébergée sur Microsoft Windows Azure. Une machine virtuelle de taille Medium (A2) est utilisée, correspondant à un processeur à 2 coeurs, 3,5 Go de mémoire et une carte réseau de 200 Mbit/s. manager : Ce dernier composant est responsable de répartir les fichiers de mobilité auprès des agents déployées sur les machines virtuelles, et de lancer le début de la simulation afin de synchroniser les agents. Figure 35 – Architecture du simulateur de traces de mobilité Pour les simulations présentées dans la suite de ce chapitre, nous utilisons les données du 3 février 2008 représentant la journée où le plus de données ont été produites. Les tâches de collecte sont déployées dans une zone de collecte de 10 km2 situés dans le centre-ville de Pékin, durant une durée de 30 minutes. 1. http://azure.microsoft.com 2. http://azure.microsoft.com/en-us/pricing/details/virtual-machines 1476.3 résultats Dans cette section, nous présentons les résultats obtenus à travers les différentes expériences menées grâce au simulateur développé. Nous discutons des résultats en fonction de la quantité, de la couverture géographique des données collectées ainsi que de l’énergie utilisée par les dispositifs mobiles durant les expériences et du surcoût engendré par notre approche. Pour évaluer les gains de notre modèle de recrutement, nous avons déployé, à travers le simulateur, la tâche de collecte présentée dans le listing 6.1 suivant trois modèles appelé individual, coll(1000 m), et coll(500 m). individual : dans ce modèle, les dispositifs exécutent la tâche de collecte indépendamment les uns des autres. Ils obtiennent une nouvelle position du GPS toutes les 30 secondes, et exécutent la tâche de collecte lorsque leur position se situe dans la zone de collecte définie. coll(1000 m) : dans ce modèle, l’exécution de la tâche de collecte est coordonnée par les capteurs virtuels déployés dans le nœud de collecte. L’objectif de couverture est fixé tous les 1000 mètres dans la zone de collecte avec 5 dispositifs attribués à la tâche (cf. section 4.5.1). coll(500 m) : ce modèle est identique au précédent sauf que nous avons fait varier l’objectif de couverture tous les 500 mètres dans la zone de collecte. Cela nous permet d’étudier l’impact de la couverture définie sur la quantité de données collectées et sur la consommation énergétique des dispositifs mobiles. 6.3.1 Quantité de données et couverture géographique Tout d’abord, nous comparons la quantité des données collectées. Les courbes illustrées par la figure 36 comparent la quantité de données collectées (en kilobyte) pour les trois tâches de collecte déployées en fonction du nombre de dispositifs. La première tâche, illustrée par la courbe individual, représente la quantité de données lorsque les dispositifs collectent individuellement la tâche de collecte. Les deux suivantes, illustrées par les courbes coll(1000 m) et coll(500 m) représentent les tâches de collecte déployées en utilisant le modèle collaboratif. Nous avons fait varier entre 500 et 10000 le nombre de dispositifs simulés durant cette expérience. Comme le montre cette figure, lorsqu’aucune collaboration n’est effectuée, la quantité de données générées augmente linéairement, allant jusqu’à 12000 KB de données produites pour 10000 dispositifs. En effectuant une collaboration, la quantité de données se stabilise autour des 6000 KB pour 148un objectif de couverture de 500 m2 et 2500 KB pour un objectif de 1000 m2 . Pour 10000 dispositifs, cela représente respectivement une diminution de 50% et 80% de quantité de données propagées vers le serveur. Ce gain s’explique, car lorsque suffisamment de dispositifs se trouvent dans une même zone (par ex. plus de 5 dispositifs dans une zone de 500 m2 pour la tâche coll(500 m)), le capteur virtuel associé à cette zone attribut seulement à 5 dispositifs la tâche de collecte, évitant ainsi aux autres dispositifs de la même zone d’exécuter la tâche de collecte. Figure 36 – Comparaison de la quantité de données collectées en fonction du nombre de dispositifs mobiles et de l’objectif de couverture géographique Cependant, pour valider notre approche, il est essentiel de comparer la quantité de données avec la couverture réellement obtenue. Pour cela, nous avons mené une deuxième expérience impliquant 10000 dispositifs mobiles, et nous avons observé la couverture géographique obtenue à travers différentes périodes de la journée par rapport à la quantité de données collectées. La couverture est définie par le pourcentage de zone couverte par les données collectées, soit 400 zones de 500 m2 dans la zone de collecte d’une surface de 10 Km2 . La figure 37 illustre le résultat de cette expérience. Dans cette figure, les courbes bleu et verte représentent respectivement la couverture obtenue par les approches individuelle (individual-SP) et collaborative (coll(500 m)- 149SP), et les colonnes rouge (individual-Data) et jaune (coll(500 m)-Data) la quantité de données collectées par ces deux approches. Comme le montre cette figure, la couverture des données obtenue varie tout au long de la journée, pour atteindre un pic à 17 H représentant une forte mobilité des taxis dans la zone de collecte. Ce que nous pouvons observer d’intéressant, c’est que les couvertures obtenues par ces deux approches sont relativement équivalentes, bien que la quantité de données collectées par l’approche collaborative soit toujours inférieure à celle de l’approche individuel. La différence des couvertures obtenues entre les deux approches est due à la mobilité des taxis. En effet, si un taxi se déplace à grande vitesse, celui-ci peut traverser une zone avant que le capteur virtuel associé n’est le temps de lui attribuer une tâche. Cependant, dans cette simulation, la perte de la couverture obtenue ne varie pas au delà des 2%. Figure 37 – Comparaison de la couverture géographique selon différentes périodes de la journée À travers ces deux expériences, nous avons montré que l’approche collaborative que nous avons proposée permet de diminuer la quantité de données propagées vers le serveur tout en gardant une couverture presque similaire à une approche classique. Nous allons maintenant évaluer les gains de cette approche sur la consommation énergétique des dispositifs mobiles. 1506.3.2 Consommation énergétique Pour évaluer l’énergie consommée par les dispositifs mobiles liée au trafic réseau et à l’acquisition de la position par le GPS, nous utilisons deux modèles énergétiques très référencés dans la littérature. Le premier modèle, proposé par Balasubramanian et al. [5], permet de déterminer l’énergie liée à la transmission de données par des réseaux sans fil. Dans le contexte de cette évaluation, nous assumons que toutes les données sont transmises par un réseau 3G. Ce modèle divise l’énergie consommée en trois parties. La première est liée à l’activation de l’interface de communication évaluée à 3,5 Joules. La deuxième est liée à la transmission des données évaluée à 0.025 Joule/KB. Et la dernière est liée au temps que l’interface de communication soit désactivée après la transmission des données. Ce temps est évalué à 12,5 secondes et l’interface consomme 0,62 Joule/s jusqu’à ce qu’elle soit désactivée. Dans le cadre où deux transmissions de données sont effectuées en dessous des 12,5 secondes, l’énergie consommée par cette dernière partie est négligée. Pour le deuxième modèle, nous utilisons celui proposé par Lin et al. [43], qui évalue l’énergie liée à l’acquisition périodique d’une position par le GPS à 1,4 Joules par position obtenue. Les courbes illustrées par la figure 38 comparent la consommation énergétique des trois tâches de collecte déployées dans la première expérience de la section précédente par rapport à la concentration de dispositifs mobiles dans la zone de collecte. L’énergie est donnée en Joule et correspond à la moyenne énergétique consommée par l’ensemble des dispositifs mobiles. Comme attendue, la consommation énergétique de la tâche individuelle (individual) est indépendante de la concentration des dispositifs mobiles, et reste constante autour des 600 Joules en moyenne par dispositif. En revanche, les tâches collaboratives (coll(1000 m) et coll(500 m)) bénéficient de cette concentration croissante en évitant de collecter des données non nécessaires pour atteindre les objectifs de couverture, et ainsi réduire la consommation énergétique moyenne par dispositif. Pour coll(1000 m), le gain sur la consommation énergétique des dispositifs varie entre 43% pour 500 dispositifs et 82% pour 10000 dispositifs, tandis que pour coll(500 m), ce gain varie entre 40% et 70%. Afin de mieux comprendre où le gain énergétique est effectué, les graphiques de la figure 39 montrent la répartition des charges énergétiques consommées durant l’expérience pour les trois tâches individual (a), coll(1000 m) (b) et coll(500 m) (c). Dans cette figure, la partie bleue (Localisation) des colonnes représente la consommation 151Figure 38 – Comparaison des moyennes de la consommation énergétique en fonction de la concentration de dispositifs mobiles dans la zone de collecte causée par l’acquisition d’une position par le GPS, la partie rouge (Sensing Task) à l’exécution des Pings réseaux (cf. listing 6.1 ligne 4) et la partie orange (VS Messages) aux communications avec les capteurs virtuels. Comme le montre cette figure, le gain de la collaboration sur la consommation énergétique est particulièrement liée à l’acquisition des positions par le GPS. En effet, dans cette approche, les dispositifs ont seulement besoin d’obtenir une position pour déterminer à quel capteur virtuel ils doivent s’enregistrer, permettant à ces dispositifs de réduire la fréquence de l’acquisition d’une nouvelle position si leur vitesse est relativement réduite ou en position statique (cf. section 4.5.2, page 121 ). Cela représente dans cette expérience un gain respectif de 86% et 80% pour les tâches coll(1000 m) et coll(500 m). Dans ce contexte, une grande perte énergétique du modèle de recrutement individuelle s’explique par le fait que même les dispositifs ne se situant pas dans la zone de collecte sont obligés de continuellement activer leur GPS afin de déterminer s’ils sont dans la zone étudiée ou non. En ce qui concerne l’énergie consommée par l’exécution des Pings réseaux, le gain reste limité lorsque peu de dispositifs sont impliqués dans l’expérience. Pour le modèle coll(1000 m), le gain est seulement de 4% et devient négatif pour coll(500 m). Ceci s’explique par le surcoût énergétique engendré par les communications des dispositifs avec les capteurs virtuels. Néanmoins, le gain énergétique s’accroît lorsque plus de dispositifs sont impliqués pour atteindre 81% pour coll(1000 m) et 55% pour le modèle coll(500 m). 152Figure 39 – Répartition des charges énergétiques suivant les approches : (a) individuelle, (b) collaborative avec une objectif de couverture de 1000 m 2 , (c) collaborative avec un objectif de couverture de 500 m2 153Comme attendu, ces chiffres montrent que le gain énergétique lié à la coordination des tâches varie selon la concentration des dispositifs mobiles dans la zone de collecte et également des objectifs de couvertures définies. Cependant cela révèle également les limitations du modèle évalué dans ce chapitre. En effet, dans le contexte où la concentration des dispositifs mobiles est trop faible pour permettre une coordination des tâches, notre modèle consommerait plus qu’un modèle classique à cause des communications nécessaires avec les capteurs virtuels. D’autre part, notre modèle reste limité si l’objectif de couverture nécessaire pour la campagne de collecte doit être très élevé (par ex. tous les 50 mètres). Cela engendrerait un trafic réseau trop important, car les dispositifs seraient sens cesse en train de communiquer avec les capteurs virtuels, spécialement dans un cas de forte mobilité. Dans ce contexte, la solution proposée ici reste principalement efficace pour les campagnes de collecte nécessitant une couverture géographique de collecte d’une centaine de mètres ou plus. Quelques exemples de ce type de campagnes sont la mesure de la qualité de l’air [19], ou la mesure de la qualité des réseaux sans fil comme présentés dans ce chapitre [61]. 6.4 conclusion Nous avons présenté dans ce chapitre l’évaluation du modèle de recrutement collaboratif proposé dans APISENSE®. Ce modèle s’appuie sur la forte concentration des dispositifs en milieu urbain pour coordonner l’exécution des tâches de collecte entre ces dispositifs selon un objectif de couverture géographique. Pour évaluer ce modèle, nous avons présenté plusieurs expériences basées sur des traces réelles de mobilités provenant de 10000 taxis. Par le biais des expériences menées, nous avons montré qu’en coordonnant l’exécution des tâches, le modèle proposé comporte principalement deux avantages par rapport à un modèle de recrutement où tous les dispositifs les exécutent de manière indépendante. Les expériences ont montré que notre approche permet dans un premier temps de diminuer la quantité de données propagée sur le serveur de plus de 50% lorsque 10000 dispositifs mobiles sont impliqués, tout en gardant une couverture géographique des données collectées similaire. Nous avons également montré que la coordination des tâches de collecte permettait de diminuer la consommation énergétique de ces dispositifs jusqu’à 70%. 154Dans le prochain chapitre, nous concluons en faisant un bilan des contributions présentées dans ce manuscrit, et discutons des perspectives de développements et de recherches issues des travaux de cette thèse. 155Quatrième partie Conclusion 1577 C O N C L U S I O N Sommaire 7.1 Rappel des motivations 159 7.2 Rappel des contributions 160 7.2.1 Collecte mobile de données 160 7.2.2 Collecte répartie de données 161 7.3 Perspectives 162 Ce chapitre, qui finalise la présentation faite au travers de ce manuscrit, s’organise de la manière suivante. La section 7.1 rappelle le contexte dans lequel se sont inscrits les travaux réalisés et la problématique qui en est à l’origine. La section 7.2 résume les contributions décrites dans ce manuscrit. Enfin la section 7.3 définit un ensemble de pistes de recherche et de développement en lien avec les travaux de cette thèse. 7.1 rappel des motivations Le Mobile crowdsensing est une nouvelle alternative exploitant la foule de terminaux intelligents déjà déployés à travers le monde pour la collecte massive de données environnementales ou comportementales de la population. Ces dernières années, ce type de collecte de données a suscité l’intérêt d’un grand nombre d’acteurs industriels et académiques dans des domaines tels que l’étude de la mobilité urbaine, la surveillance de l’environnement, la santé ou l’étude des comportements sociaux. Malgré le potentiel du Mobile crowdsensing, les campagnes de collecte réalisées impliquant un grand nombre d’utilisateurs mobiles sont rares et restent principalement développées par des experts. Ceci est particulièrement dû à l’absence de prise en compte d’aspects non fonctionnels des systèmes proposés dédiés au MCS. En effet, réaliser une campagne de collecte impliquant un grand nombre d’utilisateurs mobiles demande de faire face à de nombreux défis. Ces défis incluent la protection de la vie privée des utilisateurs, les ressources énergétiques limitées des terminaux mobiles, la 159mise en place de modèles de récompense et de déploiement adaptés pour recruter les utilisateurs les plus à même de collecter les données désirées, ainsi que de faire face à l’hétérogénéité des plate-formes mobiles disponibles (par ex. Android, iOS...). À ce jour, beaucoup d’efforts ont principalement portés sur la réalisation de systèmes monolithiques, difficilement réutilisable dans un contexte non anticipé. Ce manque d’approche réutilisable demande généralement de devoir réinventer la roue pour chaque nouveau système, entravant ainsi l’adoption du MCS pour de nombreux acteurs n’ayant pas les compétences, ni le temps de développer un système capable de répondre à leurs exigences. Dans cette thèse, nous avons cherché à réétudier les architectures des systèmes dédiés au MCS pour adresser les limitations actuelles liées au développement, au déploiement et à l’exécution d’une campagne de collecte de données. Les différentes contributions proposées sont articulées autour APISENSE®, la plate-forme résultante des travaux de cette thèse. APISENSE® propose un environnement distribué permettant de simplifier le développement et le déploiement de campagnes de collecte de données à travers des utilisateurs mobiles. Nous décrivons dans la section suivante un résumé des contributions décrites dans ce manuscrit. 7.2 rappel des contributions Dans cette section, nous synthétisons nos contributions présentées dans le chapitre 3 et le chapitre 4 au travers de l’implémentation de la plate-forme APISENSE®. 7.2.1 Collecte mobile de données Dans notre première contribution, nous avons tout d’abord proposé un modèle de programmation pour simplifier le développement de tâches de collecte de données (cf. chapitre 3 section 3.3, page 59 ). Pour concevoir ce modèle, nous avons tenu compte de trois propriétés qui sont la portabilité, la généralité, et l’accessibilité. En ce qui concerne la portabilité, nous avons basé notre modèle sur le langage de script JavaScript, qui est facilement exécutable sur de nombreux systèmes d’exploitation des dispositifs mobiles actuels. Pour l’accessibilité, nous avons proposé une interface de programmation simple et efficace fournissant une abstraction complète des technologies mobiles. Et pour la généralité, l’interface a été conçue pour supporter une grande variété d’activités de 160collecte, comprenant la collecte opportuniste et participative (cf. chapitre 2 section 2.1.2, page 26 ). Plus particulièrement, l’interface proposée permet de facilement écouter les changements d’état des capteurs mobiles pour la collecte de données opportuniste, d’interagir avec l’utilisateur mobile pour la collecte de données participative ainsi que définir les stratégies de propagation des données. Nous avons également présenté dans ce chapitre l’architecture de l’environnement mobile (cf. chapitre 3 section 3.4, page 68 ) assurant l’exécution des tâches de collecte. Cette architecture met principalement l’accent sur la sécurité et le respect de la confi- dentialité des participants. Pour atteindre cet objectif, tous les scripts sont exécutés dans un bac à sable dédié. Ainsi, cela nous permet de contrôler tous les accès des scripts vers les capteurs des dispositifs mobiles. Par le biais d’une interface graphique, nous laissons la possibilité aux utilisateurs mobiles de définir des contraintes empêchant toute activité de collecte non désirées. Ces contraintes sont classifiées en quatre catégories : temporelles, géographiques, de ressources consommées et de capteurs utilisés. 7.2.2 Collecte répartie de données Dans cette deuxième contribution, le défi adressé concerne la généralité de la plateforme pour concevoir une grande variété de campagnes de collecte ainsi que son passage à l’échelle. Pour supporter une grande diversité de campagnes de collecte, nous avons proposé un Modèle de Variabilité (MC) [32] (en anglais FM pour Feature Model), capturant les différentes configurations d’une application serveur responsable de la gestion des campagnes de collecte (cf. chapitre 4 section 4.4.1, page 101 ). Cette configuration réside en cinq points : i) configurer l’environnement de développement des tâches de collecte, ii) choisir un modèle de recrutement des participants, iii) choisir une série de traitements sur les données collectées avant leur insertion dans la base de données (par ex. anonymisation des données), iv) spécifier l’indexation des données dans la base de données, v) exposer des services pour exploiter les données collectées. Ce modèle est ensuite fourni aux utilisateurs pour leur permettre de définir des exigences selon la spécificité des campagnes qu’ils veulent mener. À partir des ces exigences, une application serveur (appelée nœud de collecte) est générée et configurée fournissant un environnement dédié à la gestion des campagnes de collecte des utilisateurs. En ce qui concerne le passage à l’échelle de la plate-forme, nous avons proposé une architecture décentralisée, séparant les préoccupations du déploiement ainsi que de la 161collecte et l’analyse des données (cf. chapitre 4 section 4.2, page 92 ). L’architecture résultante est composée d’un ensemble de nœuds de collecte et d’un serveur central. Dans cette architecture, le serveur central est responsable du déploiement des tâches de collecte soumises par les nœuds de collecte vers les participants de la plate-forme qui se sont enregistrés au préalable. Les nœuds de collecte, quant à eux, fournissent un environnement dédié permettant aux utilisateurs de développer de nouvelles tâches de collecte, de les déployer auprès du serveur central, et d’exploiter les données qui ont été collectées durant l’exécution des tâches de collecte. Ce procédé a principalement deux avantages. Le premier est d’assurer une première couche d’anonymat des participants, dans le sens où tous les nœuds de collecte ne peuvent pas déployer les tâches de collecte sans passer par le serveur central. Le deuxième permet aux nouveaux utilisateurs de bénéficier d’un ensemble de participants déjà disponibles pour exécuter des tâches de collecte, leur évitant ainsi une longue période de recrutement. Finalement, nous avons proposé une extension de APISENSE® dédiée à l’optimisation de l’exécution de campagne de collecte communautaire (cf. chapitre 4 section 4.5, page 113 ). L’optimisation proposée permet de coordonner l’exécution des tâches de collecte entre les dispositifs mobiles en fonction de propriétés de couvertures géographique et temporelle. Principalement, cette optimisation a pour objectif dans un premier temps de diminuer la consommation énergétique globale de tous les dispositifs impliqués dans la campagne, et également de diminuer la quantité de données propagées vers le nœud de collecte. 7.3 perspectives Dans cette section, nous présentons un ensemble de pistes de développement et de recherche en lien avec les travaux présentés dans cette thèse. Une première contribution au développement d’APISENSE® serait dans un premier temps de porter l’application mobile sur les divers systèmes d’exploitation mobiles disponibles sur le marché (par ex. iOS, Windows Mobile). Bien que nous avons effectué une preuve de concept de la portabilité de l’application mobile d’APISENSE® sur iOS, le prototype réalisé n’est pas encore opérationnel pour être déployé à grande échelle. 162Concernant la partie serveur de APISENSE®, plusieurs améliorations à court terme peuvent être envisagées. La première concerne la sécurité lors de la propagation des données des dispositifs vers les nœuds de collecte. En effet, actuellement l’emplacement du participant peut être déterminé en identifiant l’adresse IP du point d’accès utilisé pour propager les données, permettant potentiellement d’identifier son domicile même si les données en elles-mêmes ne permettent pas de révéler cette information. Dans ce contexte, une priorité serait d’utiliser des routeurs ou relais spécifiques (par ex. routeur oignon [18]) pour cacher l’adresse IP lors de la propagation des données. Une autre amélioration à court terme serait d’intégrer des outils de visualisation génériques permettant de rapidement explorer les données collectées à travers une Interface web. Par exemple, il serait intéressant d’établir des connexions entre les nœuds de collecte et des services tels que CartoDB 1 ou Google Fusion Tables 2 qui proposent ce type de fonctionnalité. Une autre amélioration serait de supporter le déploiement automatique des nœuds de collecte vers les infrastructures des utilisateurs. Cette tâche reste encore manuelle et peut demander une certaine expertise pour administrer le système responsable de leurs exécutions. Certains travaux dans notre équipe ont déjà été initiés dans ce sens [53, 54] et nous prévoyons de rapidement les intégrer dans APISENSE®. D’autres pistes de développement seraient d’implémenter les différents modèles de protection de la vie privée et de récompense proposés dans la littérature. Dans ce contexte, il serait intéressant de déployer des campagnes utilisant ces différents modèles sur des échantillons de participants, afin d’évaluer leurs impacts sur leurs participations. Nous pensons que APISENSE® peut être une plate-forme idéale pour permettre aux scientifiques travaillant sur ces problématiques pour les aider à mettre au point et valider leurs algorithmes. Bien que le modèle de programmation proposé dans cette thèse fournisse une abstraction complète des technologies mobiles, une expertise en programmation est quand même nécessaire pour le développement des tâches de collecte. Dans ce contexte, il pourrait être intéressant de proposer un niveau d’abstraction encore plus élevé ne nécessitant aucune expertise. Ce niveau d’abstraction peut s’appuyer par exemple sur certains travaux déjà existant comme App Inventor 3 ou Alice [15] qui proposent 1. http://cartodb.com 2. http://tables.googlelabs.com 3. http://appinventor.mit.edu 163des métaphores visuelles pour le développement des applications, ou encore sur le langage naturel. Dans ce contexte, le modèle de programmation que nous avons proposé pourrait être utilisé comme langage pivot avec ce nouveau niveau d’abstraction. Une autre perspective serait de mettre en place des métriques permettant d’évaluer la qualité des données collectées. Très peu de recherche ont encore été menées dans ce sens, bien que cela représente une problématique importante de ce type d’applications. En effet, de nombreux facteurs peuvent influer sur la qualité des données comme le type de matériel utilisé, la mobilité des utilisateurs, etc. En effet, sans connaître le niveau de fiabilité des données, il peut être très difficile de savoir si les données collectées sont représentatives du monde réel ou du comportement des participants. La mise en place de ces métriques pourrait également permettre de mettre en place de nouveaux modèles de recrutement des participants dans les campagnes de collecte. Dans ce contexte, selon les exigences de la campagne, les participants fournissant les données de plus grande qualité pourraient être privilégiés. Dans cette thèse, nous avons particulièrement investi sur le développement d’un système de collecte de données avec APISENSE®. Cependant, la collecte en elle même ne représente qu’une partie des futurs systèmes d’informations se basant sur le pouvoir de la foule pour atteindre une quantité massive de données. De nombreux défis doivent encore être relevés pour traiter ces données, en extraire des comportements complexes et diffuser des informations en temps réel à partir de leurs analyses [68]. Un cas d’utilisation que nous souhaitons investir est l’utilisation du Mobile crowdsensing pour élaborer un système de détection de tremblement de terre. Certaines initiatives ont déjà vu le jour comme le projet Quake-Catcher Network [13], qui permet de recueillir les données issues des capteurs de mouvement présents dans les disques durs des ordinateurs, transformant alors ceux-ci en sismographes. Comme mentionné par Faulkner et al. [23], cette approche peut être complétée en utilisant les accéléromètres intégrés dans les dispositifs mobiles qui peuvent fournir une mesure plus précise et plus complète de la distribution géographique des secousses lors d’un tremblement de terre. Cependant, développer un système fiable, capable d’analyser continuellement les données produites par des centaines de milliers de capteurs, extraire uniquement les informations pertinentes et propager une alerte sismique seulement en quelques secondes restent actuellement un véritable défi. 164B I B L I O G R A P H I E [1] Nadav Aharony, Wei Pan, Cory Ip, Inas Khayal, and Alex Pentland. Social fmri : Investigating and shaping social mechanisms in the real world. Pervasive and Mobile Computing, 7(6) :643–659, 2011. [2] Marc P Armstrong, Gerard Rushton, Dale L Zimmerman, et al. Geographically masking health data to preserve confidentiality. Statistics in medicine, 18(5) :497–525, 1999. [3] Patrick Baier, Frank Durr, and Kurt Rothermel. Psense : Reducing energy consumption in public sensing systems. In Advanced Information Networking and Applications (AINA),26th International Conference on, pages 136–143. IEEE, 2012. [4] Rajesh Krishna Balan, Khoa Xuan Nguyen, and Lingxiao Jiang. Real-time trip information service for a large taxi fleet. In Proceedings of the 9th international conference on Mobile systems, applications, and services, pages 99–112. ACM, 2011. [5] Niranjan Balasubramanian, Aruna Balasubramanian, and Arun Venkataramani. Energy consumption in mobile phones : a measurement study and implications for network applications. In Proceedings of the 9th conference on Internet measurement conference, pages 280–293. ACM, 2009. [6] Niels Brouwers and Koen Langendoen. Pogo, a middleware for mobile phone sensing. In Proceedings of the 13th International Middleware Conference, pages 21–40. Springer-Verlag New York, Inc., 2012. [7] J Burke, D Estrin, M Hansen, A Parker, N Ramanathan, S Reddy, and MB Srivastava. Participatory sensing. In In : Workshop on World-Sensor-Web (WSW’06) : Mobile Device Centric Sensor Networks and Applications, 2006. [8] Iacopo Carreras, Daniele Miorandi, Andrei Tamilin, Emmanuel R Ssebaggala, and Nicola Conci. Matador : Mobile task detector for context-aware crowd-sensing campaigns. In Pervasive Computing and Communications Workshops (PERCOM Workshops), International Conference on, pages 212–217. IEEE, 2013. 165[9] Guanling Chen, David Kotz, et al. A survey of context-aware mobile computing research. Technical report, Technical Report TR2000-381, Dept. of Computer Science, Dartmouth College, 2000. [10] NM Chowdhury and Raouf Boutaba. A survey of network virtualization. Computer Networks, 54(5) :862–876, 2010. [11] Delphine Christin, Andreas Reinhardt, Salil S Kanhere, and Matthias Hollick. A survey on privacy in mobile participatory sensing applications. Journal of Systems and Software, 84(11) :1928–1946, 2011. [12] Paul Clements and Linda Northrop. Software product lines : practices and patterns. 2002. [13] Elizabeth S Cochran, Jesse F Lawrence, Carl Christensen, and Ravi S Jakka. The quake-catcher network : Citizen science expanding seismic horizons. Seismological Research Letters, 80(1) :26–30, 2009. [14] Ionut Constandache, Shravan Gaonkar, Matt Sayler, Romit Roy Choudhury, and Landon Cox. Enloc : Energy-efficient localization for mobile phones. In INFOCOM, pages 2716–2720. IEEE, 2009. [15] Stephen Cooper, Wanda Dann, and Randy Pausch. Teaching objects-first in introductory computer science. In ACM SIGCSE Bulletin, volume 35, pages 191–195. ACM, 2003. [16] Tathagata Das, Prashanth Mohan, Venkata N Padmanabhan, Ramachandran Ramjee, and Asankhaya Sharma. Prism : platform for remote sensing using smartphones. In Proceedings of the 8th international conference on Mobile systems, applications, and services, pages 63–76. ACM, 2010. [17] Linda Deng and Landon P Cox. Livecompare : grocery bargain hunting through participatory sensing. In Proceedings of the 10th workshop on Mobile Computing Systems and Applications, page 4. ACM, 2009. [18] Roger Dingledine, Nick Mathewson, and Paul Syverson. Tor : The secondgeneration onion router. Technical report, DTIC Document, 2004. [19] Prabal Dutta, Paul M Aoki, Neil Kumar, Alan Mainwaring, Chris Myers, Wesley Willett, and Allison Woodruff. Common sense : participatory urban sensing using 166a network of handheld air quality monitors. In Proceedings of the 7th ACM conference on embedded networked sensor systems, pages 349–350. ACM, 2009. [20] Shane B Eisenman, Emiliano Miluzzo, Nicholas D Lane, Ronald A Peterson, GahngSeop Ahn, and Andrew T Campbell. Bikenet : A mobile sensing system for cyclist experience mapping. ACM Transactions on Sensor Networks (TOSN), 6(1) :6, 2009. [21] Patrick Th Eugster, Pascal A Felber, Rachid Guerraoui, and Anne-Marie Kermarrec. The many faces of publish/subscribe. ACM Computing Surveys (CSUR), 35(2) : 114–131, 2003. [22] Hossein Falaki, Ratul Mahajan, and Deborah Estrin. Systemsens : a tool for monitoring usage in smartphone research deployments. In Proceedings of the sixth international workshop on MobiArch, pages 25–30. ACM, 2011. [23] Matthew Faulkner, Michael Olson, Rishi Chandy, Jonathan Krause, K Mani Chandy, and Andreas Krause. The next big one : Detecting earthquakes and other rare events from community-based sensors. In Information Processing in Sensor Networks (IPSN), 2011 10th International Conference on, pages 13–24. IEEE, 2011. [24] Zachary Fitz-Walter and Dian Tjondronegoro. Exploring the opportunities and challenges of using mobile sensing for gamification. In Proceedings of the 13th International Conference on Ubiquitous Computing (UbiComp’11) : Workshop on Mobile Sensing, 2011. [25] Jon Froehlich, Mike Y Chen, Sunny Consolvo, Beverly Harrison, and James A Landay. Myexperience : a system for in situ tracing and capturing of user feedback on mobile phones. In Proceedings of the 5th international conference on Mobile systems, applications and services, pages 57–70. ACM, 2007. [26] Sébastien Gambs, Marc-Olivier Killijian, and Miguel Núñez del Prado Cortez. Show me how you move and i will tell you who you are. In Proceedings of the 3rd ACM SIGSPATIAL International Workshop on Security and Privacy in GIS and LBS, pages 34–41. ACM, 2010. [27] Raghu K Ganti, Fan Ye, and Hui Lei. Mobile crowdsensing : Current state and future challenges. Communications Magazine, IEEE, 49(11) :32–39, 2011. [28] Chunming Gao, Fanyu Kong, and Jindong Tan. Healthaware : Tackling obesity with health aware smart phone systems. In Robotics and Biomimetics (ROBIO), 2009 IEEE International Conference on, pages 1549–1554. IEEE, 2009. 167[29] Shravan Gaonkar, Jack Li, Romit Roy Choudhury, Landon Cox, and Al Schmidt. Micro-blog : sharing and querying content through mobile phones and social participation. In Proceedings of the 6th international conference on Mobile systems, applications, and services, pages 174–186. ACM, 2008. [30] Kuan Lun Huang, Salil S Kanhere, and Wen Hu. Preserving privacy in participatory sensing systems. Computer Communications, 33(11) :1266–1280, 2010. [31] Anil K Jain and Richard C Dubes. Algorithms for clustering data. Prentice-Hall, Inc., 1988. [32] Kyo C Kang, Sholom G Cohen, James A Hess, William E Novak, and A Spencer Peterson. Feature-oriented domain analysis (foda) feasibility study. Technical report, DTIC Document, 1990. [33] Wazir Zada Khan, Yang Xiang, Mohammed Y Aalsalem, and Quratulain Arshad. Mobile phone sensing systems : a survey. Communications Surveys & Tutorials, IEEE, 15(1) :402–427, 2013. [34] Donnie H Kim, Younghun Kim, Deborah Estrin, and Mani B Srivastava. Sensloc : sensing everyday places and paths using less energy. In Proceedings of the 8th ACM Conference on Embedded Networked Sensor Systems, pages 43–56. ACM, 2010. [35] Stephen F King and Paul Brown. Fix my street or else : using the internet to voice local public service concerns. In Proceedings of the 1st international conference on Theory and practice of electronic governance, pages 72–80. ACM, 2007. [36] John Krumm. A survey of computational location privacy. Personal and Ubiquitous Computing, 13(6) :391–399, 2009. [37] Jennifer R Kwapisz, Gary M Weiss, and Samuel A Moore. Activity recognition using cell phone accelerometers. ACM SigKDD Explorations Newsletter, 12(2) :74–82, 2011. [38] Nicholas D Lane, Shane B Eisenman, Mirco Musolesi, Emiliano Miluzzo, and Andrew T Campbell. Urban sensing systems : opportunistic or participatory ? In Proceedings of the 9th workshop on Mobile computing systems and applications, pages 11–16. ACM, 2008. 168[39] Nicholas D Lane, Emiliano Miluzzo, Hong Lu, Daniel Peebles, Tanzeem Choudhury, and Andrew T Campbell. A survey of mobile phone sensing. Communications Magazine, IEEE, 48(9) :140–150, 2010. [40] Juong-Sik Lee and Baik Hoh. Dynamic pricing incentive for participatory sensing. Pervasive and Mobile Computing, 6(6) :693–708, 2010. [41] Juong-Sik Lee and Baik Hoh. Sell your experiences : a market mechanism based incentive for participatory sensing. In Pervasive Computing and Communications (PerCom), 2010 IEEE International Conference on, pages 60–68. IEEE, 2010. [42] P Lilly. Mobile devices to outnumber global population by 2017. URL http ://tinyurl. com/pbodtus [Accessedon : 2013-08-06]. [43] Kaisen Lin, Aman Kansal, Dimitrios Lymberopoulos, and Feng Zhao. Energyaccuracy trade-off for continuous mobile device location. In Proceedings of the 8th international conference on Mobile systems, applications, and services, pages 285–298. ACM, 2010. [44] Pengfei Liu, Yanhua Chen, Wulei Tang, and Qiang Yue. Mobile weka as data mining tool on android. In Advances in Electrical Engineering and Automation, pages 75–80. Springer, 2012. [45] Hong Lu, Nicholas D Lane, Shane B Eisenman, and Andrew T Campbell. Bubblesensing : Binding sensing tasks to the physical world. Pervasive and Mobile Computing, 6(1) :58–71, 2010. [46] C Matthew MacKenzie, Ken Laskey, Francis McCabe, Peter F Brown, Rebekah Metz, and Booz Allen Hamilton. Reference model for service oriented architecture 1.0. OASIS Standard, 12, 2006. [47] Nicolas Maisonneuve, Matthias Stevens, Maria E Niessen, and Luc Steels. Noisetube : Measuring and mapping noise pollution with mobile phones. In Information Technologies in Environmental Engineering, pages 215–228. Springer, 2009. [48] David J Malan and Henry H Leitner. Scratch for budding computer scientists. ACM SIGCSE Bulletin, 39(1) :223–227, 2007. [49] Emiliano Miluzzo, Nicholas D Lane, Kristóf Fodor, Ronald Peterson, Hong Lu, Mirco Musolesi, Shane B Eisenman, Xiao Zheng, and Andrew T Campbell. Sensing meets mobile social networks : the design, implementation and evaluation of the 169cenceme application. In Proceedings of the 6th ACM conference on Embedded network sensor systems, pages 337–350. ACM, 2008. [50] Prashanth Mohan, Venkata N Padmanabhan, and Ramachandran Ramjee. Nericell : rich monitoring of road and traffic conditions using mobile smartphones. In Proceedings of the 6th ACM conference on Embedded network sensor systems, pages 323–336. ACM, 2008. [51] Min Mun, Sasank Reddy, Katie Shilton, Nathan Yau, Jeff Burke, Deborah Estrin, Mark Hansen, Eric Howard, Ruth West, and Péter Boda. Peir, the personal environmental impact report, as a platform for participatory sensing systems research. In Proceedings of the 7th international conference on Mobile systems, applications, and services, pages 55–68. ACM, 2009. [52] Klaus Pohl, Günter Böckle, and Frank Van Der Linden. Software product line engineering : foundations, principles, and techniques. Springer, 2005. [53] Clément Quinton, Romain Rouvoy, and Laurence Duchien. Leveraging feature models to configure virtual appliances. In Proceedings of the 2nd International Workshop on Cloud Computing Platforms, page 2. ACM, 2012. [54] Clément Quinton, Nicolas Haderer, Romain Rouvoy, and Laurence Duchien. Towards multi-cloud configurations using feature models and ontologies. In Proceedings of the 2013 international workshop on Multi-cloud applications and federated clouds, pages 21–26. ACM, 2013. [55] Moo-Ryong Ra, Bin Liu, Tom F La Porta, and Ramesh Govindan. Medusa : A programming framework for crowd-sensing applications. In Proceedings of the 10th international conference on Mobile systems, applications, and services, pages 337–350. ACM, 2012. [56] Kiran K Rachuri, Mirco Musolesi, Cecilia Mascolo, Peter J Rentfrow, Chris Longworth, and Andrius Aucinas. Emotionsense : a mobile phones based adaptive platform for experimental social psychology research. In Proceedings of the 12th ACM international conference on Ubiquitous computing, pages 281–290. ACM, 2010. [57] Sasank Reddy, Deborah Estrin, Mark Hansen, and Mani Srivastava. Examining micro-payments for participatory sensing data collections. In Proceedings of the 12th ACM international conference on Ubiquitous computing, pages 33–36. ACM, 2010. 170[58] Mitchel Resnick, John Maloney, Andrés Monroy-Hernández, Natalie Rusk, Evelyn Eastmond, Karen Brennan, Amon Millner, Eric Rosenbaum, Jay Silver, Brian Silverman, et al. Scratch : programming for all. Communications of the ACM, 52 (11) :60–67, 2009. [59] Xiang Sheng, Jian Tang, and Weiyi Zhang. Energy-efficient collaborative sensing with mobile phones. In INFOCOM, 2012 Proceedings IEEE, pages 1916–1924. IEEE, 2012. [60] Xiang Sheng, Xuejie Xiao, Jian Tang, and Guoliang Xue. Sensing as a service : A cloud computing system for mobile phone sensing. In Sensors, 2012 IEEE, pages 1–4. IEEE, 2012. [61] Clayton Shepard, Ahmad Rahmati, Chad Tossell, Lin Zhong, and Phillip Kortum. Livelab : measuring wireless networks and smartphone users in the field. ACM SIGMETRICS Performance Evaluation Review, 38(3) :15–20, 2011. [62] Minho Shin, Cory Cornelius, Dan Peebles, Apu Kapadia, David Kotz, and Nikos Triandopoulos. Anonysense : A system for anonymous opportunistic sensing. Pervasive and Mobile Computing, 7(1) :16–30, 2011. [63] Sebastian Sonntag, Lennart Schulte, and Jukka Manner. Mobile network measurements-it’s not all about signal strength. In Wireless Communications and Networking Conference (WCNC), 2013 IEEE, pages 4624–4629. IEEE, 2013. [64] Latanya Sweeney. k-anonymity : A model for protecting privacy. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 10(05) :557–570, 2002. [65] Emiliano Trevisani and Andrea Vitaletti. Cell-id location technique, limits and benefits : an experimental study. In Mobile Computing Systems and Applications (WMCSA). Sixth IEEE Workshop on, pages 51–60. IEEE, 2004. [66] Yu Xiao, Pieter Simoens, Padmanabhan Pillai, Kiryong Ha, and Mahadev Satyanarayanan. Lowering the barriers to large-scale mobile crowdsensing. In Proceedings of the 14th Workshop on Mobile Computing Systems and Applications, page 9. ACM, 2013. [67] Jing Yuan, Yu Zheng, Xing Xie, and Guangzhong Sun. Driving with knowledge from the physical world. In Proceedings of the 17th ACM SIGKDD international conference on Knowledge discovery and data mining, pages 316–324. ACM, 2011. 171[68] Arkady Zaslavsky, Charith Perera, and Dimitrios Georgakopoulos. Sensing as a service and big data. arXiv preprint arXiv :1301.0159, 2013. [69] Gabe Zichermann and Christopher Cunningham. Gamification by design : Implementing game mechanics in web and mobile apps. " O’Reilly Media, Inc.", 2011. 172173 Modélisation d’une architecture orientée service et basée composant pour une couche de Transport autonome, dynamique et hautement configurable Guillaume DUGUE To cite this version: Guillaume DUGUE. Mod´elisation d’une architecture orient´ee service et bas´ee composant pour une couche de Transport autonome, dynamique et hautement configurable. Networking and Internet Architecture. Institut National des Sciences Appliqu´ees de Toulouse (INSA Toulouse), 2014. French. HAL Id: tel-01079998 https://tel.archives-ouvertes.fr/tel-01079998 Submitted on 4 Nov 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.THÈSE En vue de l’obtention du DOCTORAT DE L’UNIVERSITÉ DE TOULOUSE Délivré par : l’Institut National des Sciences Appliquées de Toulouse (INSA de Toulouse) Présentée et soutenue le 24/09/2014 par : ●✉✐❧❧❛✉♠❡ ❉✉❣✉é Modélisation d’une architecture orientée service et basée composant pour une couche de Transport autonome, dynamique et hautement configurable JURY Christian Fraboul Professeur Président du jury Abdelhamid Mellouk Professeur Rapporteur Philippe Roose Maître de conférence HDR Rapporteur Michaël Mrissa Maître de conférence Examinateur Nicolas Van Wambeke Ingénieur docteur Examinateur Christophe Chassot Professeur Directeur de thèse Khalil Drira Directeur de recherches Co-directeur de thèse Ernesto Exposito Maître de conférence HDR Invité École doctorale et spécialité : MITT : Domaine STIC : Réseaux, Télécoms, Systèmes et Architecture Unité de Recherche : Laboratoire d’Analyse et d’Architecture des Systèmes (UPR 8001) Directeur(s) de Thèse : Christophe Chassot et Khalil Drira Rapporteurs : Abdelhamid Mellouk et Philippe RooseRemerciements Les travaux présentés dans ce documents ont été réalisés au Laboratoire d’Analyse et d’Architecture des Systèmes du Centre National de la Recherche Scienti- fique (LAAS-CNRS), dont la direction a été successivement assurée par MM. R. Chatila, J.-L. Sanchez et J. Arlat que je tiens à remercier pour leur accueil. Mes remerciements vont aussi à M. F. Vernadat, initialement directeur du groupe Outils et logiciels pour la Communication (OLC), et à M. K. Drira, directeur de l’équipe Services et Architectures pour les Réseaux Avancés (SARA), structures au sein desquelles j’ai travaillé. Mes travaux ont été dirigés par MM. C. Chassot et K. Drira, que je tiens à remercier pour leurs retours et leurs conseils tout au long de ce travail. Leur expérience et leur accompagnement dans mes réflexions et mon évolution tant personnelle que professionnelle et scientifique m’ont été d’une grande aide. Les rapporteurs de ce document sont MM. A. Mellouk et P. Roose que je remercie d’avoir accepté cette charge. Je remercie les autres membres du jury, MM. M. Mrissa et N. Van Wambeke et particulièrement M. C. Fraboul qui a accepté d’en être le président. Je tiens à remercier aussi MM. C. Diop et M. Oulmahdi pour leur concours dans mes travaux, ainsi que M. N. Van Wambeke qui a toujours su être disponible en cas de besoin, dans la bonne humeur et ce même après plusieurs années. Je remercie également mes collègues, Silvia, Cédric, Lionel, Guillaume, Denis, Marc et tous les autres avec qui j’ai partagé les bons et moins bons moments et qui ont toujours su faire preuve de soutien dans cette aventure qu’eux aussi traversent ou ont traversé. Je tiens à exprimer également ma gratitude à Mme Garaïos dont le travail m’a permis d’avancer à pas de géant et sans lequel je ne pourrais pas être là où je suis aujourd’hui. Merci à mes amis et ma famille qui ont su faire preuve d’une présence sans faille, notamment mes parents qui ont su m’écouter chaque fois que j’en avais besoin, et Orélie qui m’a supporté avec courage pendant quatre années. Merci à tous car c’est à vous que je dois d’être arrivé jusque là !Résumé L’évolution des réseaux et des applications distribuées liée au développement massif de l’utilisation de l’Internet par le grand public a conduit à de nombreuses propositions, standardisées ou non, de nouveaux protocoles de Transport et à l’évolution des protocoles existants (TCP notamment), destinées à prendre en compte les nouveaux besoins en qualité de service (QoS) des applications et les caractéristiques nouvelles des réseaux sousjacents. Cependant, force est de constater que ces différentes propositions, quoi que pertinentes, ne se sont pas traduites dans les faits et que le protocole TCP reste ultra majoritairement utilisé en dépit de ses limites conceptuelles connues. Ainsi, alors que le contexte applicatif et réseau a évolué de façon extrêmement forte, les solutions protocolaires utilisées au niveau Transport restent sous optimales et conduisent à des performances moindres en termes de QoS, que celles auxquelles permettraient de prétendre les nouvelles solutions. Dans ce contexte, ce document analyse tout d’abord le pourquoi de ce constat en dégageant cinq points de problématique qui justifie la difficulté, et que nous exprimons en termes de complexité (d’utilisation), d’extensibilité, de configurabilité, de dépendance et de déploiement. Sur ces bases, et en réponse à la problématique générale, la contribution de cette thèse consiste non pas à proposer une nouvelle solution protocolaire pour le niveau Transport, mais à redéfinir l’architecture et le fonctionnement de la couche Transport et ses interactions avec les applications. Cette nouvelle couche Transport, que nous avons appelée Autonomic Transport Layer (ATL), vise à permettre l’intégration transparente de solutions protocolaires existantes et futures pour les niveaux supérieurs et inférieurs de la pile protocolaire tout en simplifiant son utilisation par une augmentation du taux d’abstraction du réseau (au sens large) du point de vue des développeurs d’applications. Afin de décharger ces derniers de la complexité d’utilisation des multiples solutions envisageables au niveau Transport, notre solution intègre des principes d’autonomie lui permettant une prise de décision du / des protocoles de Transport à invoquer sans intervention extérieure, et une dynamicité dans l’adaptation de la solution retenue en cours de communication afin de toujours délivrer le meilleur niveau de QoS aux applications quelles que soient les évolutions du contexte applicatif et réseau en cours de communication. Après un état de l’art confrontant les solutions actuelles aux points de problématique identifiés, ce document présente les principes fondamentaux de l’ATL, ainsi que son architecture globale suivant une méthodologie basée sur le formalisme UML 2.0. Deux cas d’utilisation fondamentaux sont ensuite introduits pour décrire l’ATL d’un point de vue comportemental. Finalement, nous présentons différents résultats de mesures de performances attestant de l’utilité d’une solution telle que l’ATL. iAbstract The massive development of Internet and its usage by the public and the subsequent evolution in networks and distributed applications lead to numerous proposals, standardized or not, of new Transport protocols and changes in existing ones (such as TCP) in order to take into account new arising Quality of Service (QoS) applicative needs and the new characteristics of underlying networks. However, no matter how relevant those new solutions are, they are not meeting the success they should because of TCP’s preponderance and overuse in spite of all its well known limits. Therefore, while applications and underlying networks have evolved tremendously, Transport protocols are becoming suboptimal and lead to lesser performances in terms of QoS than what one could expect from newer Transport solutions. In this context the present document analyses the reasons of this situations by indentifying five problematic points which we express in terms of complexity (of use), extensibility, configurability, dependence and deployment. Upon this basis, and trying to address the main problematic, this thesis contribution is not to propose yet another new Transport protocol but to redefine how the Transport Layer operates, its architecture and its interactions with applications. This new Transport Layer, which we call the Autonomic Transport Layer (ATL) aims for transparent integration of existing and future protocol solutions from the upper and lower layers’ point of view as long as simplifying its use by offering a better, wider network abstraction to application developers. To discharge them the complexity of use of the numerous solutions at the Transport level, our solutions integrates autonomy principles to give it decision power over the protocol(s) to instantiate without external intervention and dynamicity so as to be able to adapt the chosen solution during the communication so that it always delivers the best QoS level to applications whatever the contextual evolutions might be for applications or for the network. After a state of the art confronting the current solutions to the different problematic points we identified, this document presents the fundamental principles of the ATL and its global architecture described using UML 2.0. Two major use cases are then introduced to describe the ATL’s behavior. Finally we present several performance figures as evidence of the relevance of a solution such as the ATL. iiiTable des matières Table des matières 1 Table des figures 5 Liste des tableaux 7 Introduction générale 9 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Structure du document . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1 Contexte, Problématique, État de l’art et Positionnement 13 1.1 Contexte et Problématique . . . . . . . . . . . . . . . . . . . . . . . 14 1.1.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.1.1.1 Évolution des réseaux . . . . . . . . . . . . . . . . 15 1.1.1.2 Évolution des terminaux . . . . . . . . . . . . . . . 17 1.1.1.3 Évolution des applications . . . . . . . . . . . . . . 17 1.1.1.4 Évolution des protocoles de Transport . . . . . . . 18 1.1.2 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.1.2.1 Acteurs concernés . . . . . . . . . . . . . . . . . . 20 1.1.2.2 Problèmes soulevés . . . . . . . . . . . . . . . . . . 21 1.2 État de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.2.1 Protocoles de Transport . . . . . . . . . . . . . . . . . . . . 24 1.2.1.1 TCP . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.2.1.2 UDP . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.2.1.3 DCCP . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.2.1.4 SCTP . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.2.1.5 MPTCP . . . . . . . . . . . . . . . . . . . . . . . . 30 1.2.1.6 CTP . . . . . . . . . . . . . . . . . . . . . . . . . . 33 1.2.1.7 ETP . . . . . . . . . . . . . . . . . . . . . . . . . . 34 1.2.2 En résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 1Table des matières 1.3 Positionnement de la proposition . . . . . . . . . . . . . . . . . . . 38 1.3.1 Approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 1.3.2 Exigences générales de conception de l’ATL . . . . . . . . . 39 1.3.3 Paradigmes de conception relatifs à l’architecture de l’ATL . 39 1.3.3.1 Conception logicielle basée composants . . . . . . . 40 1.3.3.2 Conception logicielle orientée service . . . . . . . . 40 1.3.3.3 Autonomic Computing . . . . . . . . . . . . . . . . 40 1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 2 Architecture de l’ATL 43 2.1 Exigences de conception et principes l’ATL . . . . . . . . . . . . . . 44 2.1.1 Exigences de conception de l’ATL . . . . . . . . . . . . . . . 44 2.1.2 Principes des solutions proposées en réponse aux exigences de conception de l’ATL . . . . . . . . . . . . . . . . . . . . . 46 2.1.3 Approches d’implantation de ces principes . . . . . . . . . . 48 2.1.3.1 Approche orientée services . . . . . . . . . . . . . . 48 2.1.3.2 Approche basée composants . . . . . . . . . . . . . 50 2.1.3.3 Approche autonomique . . . . . . . . . . . . . . . . 51 2.1.3.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . 51 2.1.4 Fonctionnalités de l’ATL . . . . . . . . . . . . . . . . . . . . 53 2.1.4.1 Fonction de gestion des services . . . . . . . . . . . 53 2.1.4.2 Fonction de gestion autonomique de la communication . . . . . . . . . . . . . . . . . . . . . . . . . 53 2.1.4.3 Fonction d’accueil, d’assemblage et de mise en œuvre des compositions . . . . . . . . . . . . . . . . . . . 54 2.2 Architecture de l’ATL . . . . . . . . . . . . . . . . . . . . . . . . . 54 2.2.1 Cas d’utilisation . . . . . . . . . . . . . . . . . . . . . . . . . 54 2.2.2 Modèle d’architecture de l’ATL . . . . . . . . . . . . . . . . 57 2.2.2.1 Modèle général . . . . . . . . . . . . . . . . . . . . 58 2.2.3 Composants de base de l’ATL . . . . . . . . . . . . . . . . . 60 2.2.3.1 Le Flow . . . . . . . . . . . . . . . . . . . . . . . . 60 2.2.3.2 L’Autonomic Manager . . . . . . . . . . . . . . . . 62 2.2.3.3 Le Data Plan . . . . . . . . . . . . . . . . . . . . . 66 2.2.3.4 Intégrateur des services et base de connaissances . 68 2.2.4 Composants secondaires . . . . . . . . . . . . . . . . . . . . 69 2.2.4.1 Flow Creator . . . . . . . . . . . . . . . . . . . . . 69 2.2.4.2 Signalization Message Controler . . . . . . . . . . 69 2.2.4.3 Multiplexage-démultiplexage entre couche réseau et Flow . . . . . . . . . . . . . . . . . . . . . . . . 70 2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 2Table des matières 3 Description comportementale de l’ATL 73 3.1 Création d’un point d’accès au service de Transport . . . . . . . . . 74 3.1.1 Instanciation d’un Flow . . . . . . . . . . . . . . . . . . . . 74 3.1.2 Application cliente . . . . . . . . . . . . . . . . . . . . . . . 76 3.1.2.1 Application legacy . . . . . . . . . . . . . . . . . . 77 3.1.2.2 Application ATL-aware . . . . . . . . . . . . . . . 79 3.1.2.3 Application smart . . . . . . . . . . . . . . . . . . 80 3.1.3 Application serveur . . . . . . . . . . . . . . . . . . . . . . . 80 3.1.3.1 Application legacy . . . . . . . . . . . . . . . . . . 80 3.1.3.2 Application ATL-aware . . . . . . . . . . . . . . . 81 3.1.3.3 Application smart . . . . . . . . . . . . . . . . . . 81 3.1.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 3.2 Reconfiguration d’un Flow . . . . . . . . . . . . . . . . . . . . . . . 83 3.2.1 Déroulement d’une reconfiguration . . . . . . . . . . . . . . 83 3.2.1.1 Classification des cas de reconfiguration possibles . 83 3.2.1.2 Suivi du plan de reconfiguration . . . . . . . . . . . 84 3.2.1.3 Déroulement selon les cas . . . . . . . . . . . . . . 85 3.3 Traitement des retransmissions lors des transitions . . . . . . . . . . 88 3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 4 Expérimentations et mesures 91 4.1 De la composabilité des protocoles . . . . . . . . . . . . . . . . . . . 92 4.1.1 But de l’expérience . . . . . . . . . . . . . . . . . . . . . . . 92 4.1.2 Description de l’expérience . . . . . . . . . . . . . . . . . . . 93 4.1.2.1 Choix de l’application . . . . . . . . . . . . . . . . 93 4.1.2.2 Micro-protocoles utilisés . . . . . . . . . . . . . . . 94 4.1.2.3 Simulation . . . . . . . . . . . . . . . . . . . . . . 95 4.1.3 Analyse des résultats . . . . . . . . . . . . . . . . . . . . . . 97 4.1.3.1 Comparaison des performances de MPTCP avec TCP et UDP . . . . . . . . . . . . . . . . . . . . . 97 4.1.3.2 Comparaison de MPTCP avec et sans mécanismes couplés . . . . . . . . . . . . . . . . . . . . . . . . 98 4.1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 4.2 De l’intérêt de l’adaptation dynamique . . . . . . . . . . . . . . . . 102 4.2.1 But de l’expérience . . . . . . . . . . . . . . . . . . . . . . . 103 4.2.2 Description de l’expérience . . . . . . . . . . . . . . . . . . . 103 4.2.2.1 Choix de l’application . . . . . . . . . . . . . . . . 103 4.2.2.2 Micro-protocoles . . . . . . . . . . . . . . . . . . . 103 4.2.2.3 Simulation . . . . . . . . . . . . . . . . . . . . . . 104 4.2.3 Analyse des résultats . . . . . . . . . . . . . . . . . . . . . . 104 4.2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 3Table des matières 4.3 De l’overhead de la signalisation . . . . . . . . . . . . . . . . . . . . 106 4.3.1 But de l’expérience . . . . . . . . . . . . . . . . . . . . . . . 106 4.3.2 Description de l’expérience . . . . . . . . . . . . . . . . . . . 107 4.3.2.1 Plateforme de test . . . . . . . . . . . . . . . . . . 107 4.3.2.2 Protocoles de signalisation . . . . . . . . . . . . . . 108 4.3.2.3 Protocole expérimental . . . . . . . . . . . . . . . . 112 4.3.3 Résultats attendus . . . . . . . . . . . . . . . . . . . . . . . 114 4.3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 Conclusion générale 121 Rappel des contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 Flux collaboratifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 Implémentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 Décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 A Publications de l’auteur 125 A.1 Revue internationale avec actes et comité de lecture . . . . . . . . . 125 A.2 Conférences et workshop internationaux avec actes et comité de lecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 Acronymes 127 Bibliographie 129 4Table des figures 1.1 L’environnement présente aujourd’hui des solutions multiples à des situations multiples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.2 Décomposition des fonctions de transport . . . . . . . . . . . . . . . . 31 1.3 Décomposition de MPTCP en sous-couches . . . . . . . . . . . . . . . 32 1.4 Organisation schématique d’ETP . . . . . . . . . . . . . . . . . . . . . 35 2.1 Cas d’utilisation impliquant les applications . . . . . . . . . . . . . . . 55 2.2 Cas d’utilisation impliquant les utilisateurs humains . . . . . . . . . . . 56 2.3 Diagramme de structure composite de premier niveau . . . . . . . . . . 59 2.4 Composition d’un Flow . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 2.5 Organisation des fonctions de l’Autonomic Manager . . . . . . . . . . . 63 2.6 Caractéristiques du Touchpoint et lien avec l’Autonomic Manager . . . 64 2.7 La composition du Data Plan . . . . . . . . . . . . . . . . . . . . . . . 67 3.1 Une application de type aware ou smart ouvre un point d’accès au service de Transport via l’interface de contrôle de l’ATL . . . . . . . . 75 3.2 Diagramme de séquence de création d’un Flow . . . . . . . . . . . . . . 76 3.3 Instanciation d’un nouveau Flow . . . . . . . . . . . . . . . . . . . . . 77 3.4 Mécanisme de découverte de l’ATL . . . . . . . . . . . . . . . . . . . . 78 3.5 Suivi du plan de reconfiguration . . . . . . . . . . . . . . . . . . . . . . 86 4.1 La topologie du réseau simulé . . . . . . . . . . . . . . . . . . . . . . . 95 4.2 PNSR par image en utilisant MPTCP, scénario 4 . . . . . . . . . . . . 100 4.3 PNSR par image en utilisant MPTCP-PR, scénario 4 . . . . . . . . . . 101 4.4 PNSR par image en utilisant MPTCP-SD, scénario 4 . . . . . . . . . . 102 4.5 La topologie utilisée pour les tests . . . . . . . . . . . . . . . . . . . . . 107 4.6 Cas d’utilisation du protocole de synchronisation d’ETP . . . . . . . . 108 4.7 Diagramme de séquence du cas d’utilisation Distributed Sender Based . 110 4.8 Préparation à la reconfiguration . . . . . . . . . . . . . . . . . . . . . . 111 4.9 Caractéristiques des cinq environnements réseau et compositions associées113 4.10 Taux de pertes de l’environnement . . . . . . . . . . . . . . . . . . . . 115 4.11 Taux de pertes vu par le service de Transport . . . . . . . . . . . . . . 116 5Table des figures 4.12 Taux de pertes vu par le service sans système de reconfiguration . . . . 117 4.13 Délai induit par l’environnement . . . . . . . . . . . . . . . . . . . . . 118 4.14 Délai vu par le service . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 4.15 Délai vu par le service sans système de reconfiguration . . . . . . . . . 120 6Liste des tableaux 1.1 Résumé de la problématique . . . . . . . . . . . . . . . . . . . . . . . . 24 1.2 Résumé du problème d’extensibilité . . . . . . . . . . . . . . . . . . . . 37 1.3 Résumé du problème de configurabilité . . . . . . . . . . . . . . . . . . 37 1.4 Résumé du problème d’assujettissement . . . . . . . . . . . . . . . . . 37 1.5 Résumé du problème de déploiement . . . . . . . . . . . . . . . . . . . 38 2.1 Synthèse des problèmes, exigences, principes et approches de conception de l’ATL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.1 Résumé des scénarios 1 et 2 . . . . . . . . . . . . . . . . . . . . . . . . 96 4.2 Résumé des scénarios 3 à 5 . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.3 Résumé des scénarios 6 et 7 . . . . . . . . . . . . . . . . . . . . . . . . 96 4.4 Les correspondances entre PNSR et MOS . . . . . . . . . . . . . . . . 97 4.5 PNSR moyen en dB des simulations 1 à 4 . . . . . . . . . . . . . . . . 97 4.6 PNSR moyen en dB des simulations 5 à 7 . . . . . . . . . . . . . . . . 98 4.7 Délai moyen en millisecondes des simulations 1 à 4 . . . . . . . . . . . 98 4.8 Délai moyen en millisecondes des simulations 5 à 7 . . . . . . . . . . . 98 4.9 Taux de pertes des simulations 1 à 4 . . . . . . . . . . . . . . . . . . . 98 4.10 Taux de pertes des simulations 5 à 7 . . . . . . . . . . . . . . . . . . . 99 4.11 Résumé des scénarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4.12 PNSR en dB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4.13 PNSR obtenu sans et avec adaptation dynamique . . . . . . . . . . . . 105 7Introduction générale Contexte L’évolution du paysage numérique au cours de la dernière décennie a été radicale à différents niveaux. L’ouverture au grand public de l’Internet et l’explosion de son utilisation qui a suivi, ont ainsi considérablement modifié l’utilisation qui est faite du réseau. Les applications multimédia et interactives sont aujourd’hui plébiscitées et ajoutent aux transferts de fichiers classiques ceux de flux audio et vidéo et plus généralement des échanges de données possédant des contraintes temporelles fortes comme les jeux en ligne. Ces nouvelles applications créent de nouveaux besoins sur le transfert des flux d’informations échangés qui ne sont plus correctement pris en compte par les solutions protocolaires traditionnelles. Parallèlement les terminaux ont également suivi une évolution drastique, multipliant en leur sein les interfaces d’accès au réseau et donnant accès à de grandes capacités de stockage ou de puissance de calcul, y compris sur des machines nomades ou mobiles. Les parcs de serveurs (ou datacenters) sont devenus communs et permettent aux utilisateurs humains un accès continu et en tout lieu à leurs données personnelles. Ces machines et les communications qu’elles établissent offrent de nouvelles perspectives et créent ainsi de nouveaux contextes de besoins (en de débit ou de temps de transfert par exemple) pour lesquelles les protocoles actuels ne sont pas prévus. Enfin, les réseaux eux-mêmes ont profondément évolué, et permettent dorénavant le nomadisme et la mobilité des terminaux de façon généralisée. Dans tous les domaines, que les réseaux soient locaux ou longue distance, avec ou sans fil, les capacités ont été décuplées. De nouveaux types de systèmes intermédiaires, appelés middleboxes, ont également été introduits, créant des situations inédites (le blocage de protocoles non reconnus par exemple) auxquelles ont à faire face les développeurs de solutions protocolaires. Dans ce contexte et historiquement, les protocoles de Transport traditionnels de l’Internet, tels que TCP et UDP, ont connu plusieurs évolutions et adaptations et de nouvelles solutions ont vu le jour comme DCCP, SCTP at plus récemment 9Introduction générale MPTCP. Le paysage des solutions protocolaires s’est donc densifié et complexifié, contribuant à créer un nouveau contexte auquel il s’agit aujourd’hui de faire face. Problématique Ce nouveau contexte crée plusieurs points problématiques, tant du point de vue du développement d’applications que de la création de nouvelles solutions protocolaires. Le développement d’applications se heurte à un choix large et complexe de solutions protocolaires au niveau Transport, requérant une expertise complète des protocoles existants, tant vis-à-vis du choix du protocole à utiliser que de sa confi- guration afin d’en faire une utilisation optimale. Le développeur d’applications doit donc, en plus d’effectuer les choix de la solution et de sa configuration, implémenter la gestion du protocole même au sein de son application. Du point de vue du développeur de protocoles, la création protocolaire se heurte à deux problèmes majeurs. Le premier concerne l’extensibilité des protocoles existants. Toutes les solutions existantes ne permettent pas la création d’extensions. Certaines ne sont pas assez utilisées pour motiver la création de nouvelles options. Créer entièrement une nouvelle solution n’est pas plus aisé : en effet, celle-ci doit déjà être implémentée dans les différents systèmes d’exploitation, afin de permettre son utilisation au sein des différentes applications, qui doivent donc être mises à jour. Les middleboxes créent également des freins à l’adoption de nouvelles solutions protocolaires. Ces systèmes intervenant au niveau Transport, les nouvelles solutions doivent donc y être implémentées sous peine de se voir bloquées. De ce constat global, nous dégageons cinq points de problématique limitant l’évolution du paysage protocolaire actuel au niveau Transport, relatifs : à la complexité de choix et d’utilisation des protocoles, à la configurabilité des protocoles, à leur extensibilité, à l’assujetissement des applications aux solutions protocolaires et au déploiement des nouveaux protocoles Nous proposons dans ce manuscrit d’adresser ces cinq points via la redéfinition de l’architecture et du fonctionnement de la couche Transport actuelle, dans le but d’offrir un point d’accès générique au service de Transport qui laisse à l’application le soin de préciser le service qu’elle désire et non la solution à utiliser. Dans l’approche proposée, la solution protocolaire retenue est choisie de manière dynamique et autonome afin de fournir le service désiré par composition potentielle de plusieurs solutions protocolaires. Le but est d’offrir une abstraction plus poussée du réseau au sens large en déchargeant le développeur d’application de responsabilités qui ne devraient pas lui incomber. Le choix dynamique et autonome des solutions de Transport permet également de simplifier le déploiement de nouvelles solutions, 10rendant leur intégration transparente et leur adoption automatique à mesure que le déploiement progresse. Les contributions de ce manuscrit posent les bases architecturales et comportementales d’une telle couche de Transport que nous appelons Autonomic Transport Layer (ATL). Structure du document Le présent document est divisé en quatre chapitres. Le premier chapitre expose en détails le contexte dans lequel s’inscrivent les travaux présentés avant d’expliquer plus avant les cinq points de problématiques identifiés. Un état de l’art des solutions de Transport est ensuite exposé, décrivant le fonctionnement de différents protocoles classiques comme TCP, UDP, DCCP ou SCTP, ainsi que des solutions plus récentes ou en cours d’étude comme MPTCP, CTP ou ETP. Chacun de ces protocoles est confronté aux différents points de la problématique. Nous en déduisons les limites des solutions actuelles qui nous mènent à introduire l’approche d’une architecture nouvelle pour la couche Transport, à la fois orientée services, basée composants et dotée de capacités d’autonomie vis-à-vis des choix de composition à entreprendre pour répondre aux besoins des applications actuelles, dites legacy, et de celles à venir, conscientes de l’ATL. Le deuxième chapitre décrit le modèle architectural de l’ATL, c’est-à-dire la structure composite et le rôle de chaque composant nécessaire au fonctionnement de l’ATL. Dans un premier temps, nous décrivons les objectifs de l’ATL ainsi que les grands principes régissant sa conception : ceux architectures orientées services et des architectures basée composants. Dans un second temps, nous décrivons les trois grands types de fonctionnalités que l’ATL doit prendre en charge dans ses actions de gestion, de contrôle et de données. Ces différents principes mis en place, nous décrivons, suivant une approche top/down, la structure des différents composants de l’ATL et le rôle de chacun. Le troisième chapitre reprend les éléments introduits dans le chapitre 2 et décrit leur comportement dans deux cas majeurs d’utilisation de l’ATL. Le premier cas est celui de l’ouverture d’un point d’accès au service de Transport. Celui-ci diffère en effet notablement de l’ouverture d’un point d’accès classique (tels que via les sockets TCP/UDP) et doit prendre en compte différents cas nouveaux introduits par la présence de l’ATL. Le second cas de figure concerne la reconfiguration dynamique du service de Transport. L’ATL offrant cette possibilité inédite, il est intéressant de décrire son déroulement afin d’en étudier par la suite les impacts sur la communication. Le quatrième chapitre présente trois études réalisées autour de l’ATL. La première, menée en simulation, vise à combiner un protocole existant avec des mé- 11Introduction générale canismes génériques externes afin d’observer le bénéfice retiré lors d’un transfert multimédia interactif. La deuxième, également menée en simulation, tend à véri- fier le bénéfice induit par le passage d’une telle combinaison à une autre en cours de communication, en fonction de l’évolution des conditions du réseau. Ces deux études tendent à prouver qu’un véritable apport peut être retiré d’un tel fonctionnement de la couche Transport, mais appuient l’intérêt d’une mise en œuvre autonome comme celle apportée par l’ATL. La troisième expérience tente d’observer le coût induit par la signalisation nécessaire à une reconfiguration en cours de communication. Finalement, nous terminons ce document par une conclusion générale qui ré- sume les points abordés et les contributions apportées. Elle introduit également des perspectives de travail futur afin de préciser le modèle architectural actuel et d’étudier certaines problématiques auxquelles il est nécessaire de répondre pour offrir, via les principes de l’ATL une solution performante et utilisée. 12CHAPITRE 1 Contexte, Problématique, État de l’art et Positionnement Ce chapitre présente le contexte dans lequel s’inscrit le travail décrit plus loin dans ce manuscrit. Dans la première partie, nous présentons tout d’abord l’évolution des réseaux en termes de technologies de transmissions — passage des technologies filaires aux technologies sans-fil nomades et mobiles, mais également des évolutions des terminaux qui ont vu leurs capacités augmenter, leurs types se diversifier avec l’apparition des appareils mobiles ou des capteurs, ainsi que l’apparition d’interfaces multiples, mêlant des technologies d’accès diverses sur un même appareil. Par la suite nous évoquons les différents types de services que peuvent requérir les applications en fonction de leurs besoins de communication, ainsi que l’apparition de nouveaux besoins dus à l’avènement du multimédia et des applications interactives. Finalement, nous voyons comment ces évolutions ont été adressées au niveau Transport de la pile protocolaire. Nous tirons ensuite de ce contexte cinq points de problématiques que nous nommons configurabilité, extensibilité, assujettissement, déploiement et complexité de choix. Ces cinq points servent par la suite à confronter les différentes solutions existant au niveau Transport dans la deuxième partie du chapitre. Au cours de cet état de l’art, les protocoles classiques que sont Transmission Control Protocol (TCP) et User Datagram Protocol (UDP) et des protocoles plus récents comme Datagram Congestion Control Protocol (DCCP) ou Stream Control Transmission Protocol (SCTP) sont présentés puis mis à l’épreuve face à ces différents points. Des lacunes et mérites de chacun nous décrivons dans la troisième partie la vision scientifique dans laquelle s’inscrivent les contributions scientifiques qui seront présentées dans les chapitres suivants : celle d’une couche de Transport orientée service et basée composant, offrant un meilleur degré d’abstraction du réseau du point de vue 131. Contexte, Problématique, État de l’art et Positionnement de l’application et permettant la gestion et l’optimisation du fonctionnement des protocoles de Transport sans intervention de cette dernière. Sommaire 1.1 Contexte et Problématique . . . . . . . . . . . . . . . . . . . . 14 1.1.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.1.2 Problématique . . . . . . . . . . . . . . . . . . . . . . . 19 1.2 État de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.2.1 Protocoles de Transport . . . . . . . . . . . . . . . . . 24 1.2.2 En résumé . . . . . . . . . . . . . . . . . . . . . . . . . 37 1.3 Positionnement de la proposition . . . . . . . . . . . . . . . . . 38 1.3.1 Approche . . . . . . . . . . . . . . . . . . . . . . . . . 38 1.3.2 Exigences générales de conception de l’Autonomic Transport Layer (ATL) . . . . . . . . . . . . . . . . . . . . . 39 1.3.3 Paradigmes de conception relatifs à l’architecture de l’ATL . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 1.1 Contexte et Problématique Cette première partie s’articule en deux sous-parties. La première présente le contexte dans lequel s’inscrivent nos travaux, en faisant l’état de l’évolution des réseaux et de leurs utilisations en quatre temps : tout d’abord du point de vue des technologies de transmission et de leur disparité, puis des terminaux utilisant ces technologies pour communiquer entre eux et de leur diversité ; ensuite, nous nous intéressons aux applications et à l’évolution de leurs besoins avant de terminer en évoquant la manière dont les protocoles de Transport ont tenté d’apporter une réponse à ces environnements variables et nouveaux. La seconde déduit de ce contexte les cinq points de problématique auxquels nous confrontons les différentes solutions de l’état de l’art dans la partie suivante. 1.1.1 Contexte Les réseaux informatiques ont pris une place prépondérante dans notre société, notamment Internet qui a profondément modifié, et modifie encore, le tissu économique et social à un niveau mondial. Tout ceci repose aujourd’hui sur des échanges de données à très grande vitesse, sur des distances de plusieurs centaines de kilomètres, très souvent traversant plusieurs continents, connectant des terminaux très divers. 141.1. Contexte et Problématique L’évolution observée depuis l’ouverture d’Internet au grand public a considé- rablement changé les usages qui sont faits du réseau. Le web notamment, a évolué de manière à permettre un accès simple à de nombreux usages encore trop mé- connus ou complexes et leur démocratisation a permis leur utilisation aujourd’hui massive. Ainsi, à l’utilisation des mails et de l’échange de fichiers, est venue s’additionner celle de l’audio, la vidéo ou les applications interactives, comme les jeux multi-joueurs en ligne ou les vidéoconférences. Les besoins d’hébergement liés au grand nombre d’utilisateurs ont entraîné la création de datacenters. Au sein de ces structures, des centaines de serveurs topologiquement proches doivent communiquer à très grande vitesse, organisés en grille. Le monde de la finance a automatisé certains de ses processus, créant le high frequency trading, des transactions financières à raison de plusieurs milliers par secondes. Ces situations sont des exemples d’une évolution qui a emmené le réseau bien loin de ce à quoi il ressemblait quelques dizaines d’années auparavant. La diversité des technologies réseaux, des terminaux et des types d’applications n’a jamais été aussi grande. Dans la suite de cette section, nous voyons l’évolution de ces trois domaines et nous évoquons comment les protocoles de Transport ont tenté de s’adapter à cette évolution. 1.1.1.1 Évolution des réseaux Le contexte traditionnel et historique des réseaux est bien évidemment celui des réseaux filaires. Les différentes machines sont reliées ensemble par des câbles sur lesquels transitent les signaux électriques représentant les données à transmettre. De nombreux protocoles se sont développés suivant ce principe. Dans le domaine des réseaux locaux, ou LAN (Local Area Network) le protocole Ethernet [IEE12a], qui s’est imposé comme incontournable, permettait initialement des capacités de 10 Mbps, permet aujourd’hui des capacités de 10 Gbps et cette capacité continue de croître. De plus, des déclinaisons de ce protocole ont été avancées afin de l’utiliser sur des réseaux métropolitains ou MAN (Metropolitan Area Network) et sur des réseaux longue distance ou WAN (Wide Area Network). En MAN ou en WAN, les technologies xDSL (Digital Subscriber Line), connues en France pour l’ADSL (Asynchronous DSL) [ITU99a] et l’ADSL2 [ITU99b] et bientôt l’arrivée du VDSL (Very high bit-rate DSL) [ITU11b] ont permis l’accès à haut débit à la majorité des foyers, cette augmentation étant supportée dans les cœurs de réseaux par l’utilisation de protocoles comme SDH [ITU07]. L’évolution des réseaux filaires a donc été caractérisée par une augmentation des débits et un nombre croissants d’utilisateurs. Tous les types de réseaux ont également connus des évolutions via des accès sans fil. Le WiFi [IEE12b], en constante évolution et permettant déjà des débits 151. Contexte, Problématique, État de l’art et Positionnement de plusieurs dizaines voire centaines de Mbps, en accès WLAN comme WMAN, est utilisé par de plus en plus d’appareils, fixes, nomades ou mobiles. Les réseaux WMAN et WWAN ont également eu leur lot de nouveautés, grâce au WiMaX ou aux évolutions toujours constantes des réseaux mobiles, comme la 3G (UMTS et HSPA), et déjà 4G (LTE), et bien sûr les réseaux satellites [ETS13]. Ces réseaux sans-fil introduisent de nouveaux défis, le médium étant partagé entre tous les utilisateurs et sensible au bruit électromagnétique, les causes de pertes de données seront plus diverses et certaines hypothèses valables sur les ré- seaux filaires deviennent caduques. Ce type de support permet également à l’utilisateur de devenir nomade ou mobile. Il peut alors se connecter au réseau successivement depuis des localisations géographiques différentes, voire se déplacer en cours de communication. Chacun se voit connecté de manière permanente et non plus ponctuelle, via un terminal ou un autre. Au fil du temps, différents éléments ont été introduits au sein du réseau afin d’en améliorer les performances ou de pallier des problèmes de sécurité. Certains de ces éléments brisent une notion capitale dans le modèle classique de la pile OSI : le caractère de bout en bout de la couche Transport. En effet, celle-ci est supposée n’être implémentée que sur les hôtes terminaux de la communication et non sur les éléments intermédiaires, ces derniers n’implémentant que les niveaux suivants : physique, liaison de données et réseau. Certains éléments intermédiaires, nommés middleboxes [Car02], rompent cette règle. En effet, celles-ci vont intervenir sur l’entête de niveau Transport, que ce soit de manière passive, en lecture uniquement, ou active, en la modifiant. Par exemple, les Network Address Translator (NAT) ont besoin d’utiliser le numéro de port pour fonctionner, et doivent donc avoir une compréhension des différents protocoles de Transport utilisés afin d’aller lire les valeurs dont ils ont besoin dans l’en-tête de Transport. Bien qu’intervenant de manière uniquement passive sur le niveau Transport, si le NAT n’implémente pas le protocole utilisé, la communication risque d’être rompue. De la même manière, les Performance Enhancement Proxies (PEP) interrompent, de manière transparente pour les hôtes d’extrémité, la communication. Dans le cas de TCP par exemple, ceux-ci répondent à la demande de connexion à la place de l’hôte terminal visé, se faisant passer pour celui-ci, coupant ainsi la connexion de niveau Transport en deux ou plusieurs tronçons distincts quand celle-ci n’est censée être composée que d’un seul. Comme pour les NAT, si un PEP n’a pas implémenté un certain protocole de Transport, tout trafic véhiculé par celui-ci sera interrompu par le PEP. 161.1. Contexte et Problématique 1.1.1.2 Évolution des terminaux Parallèlement aux réseaux les terminaux ont également subi une forte évolution ces dernières décennies. L’arrivée des réseaux nomades et mobiles a permis la création de terminaux portables et transportables, dont les smartphones et tablettes sont les plus récents exemples. Les stations de travail ont disparu au profit d’une convergence avec les ordinateurs personnels, permettant à tous d’avoir accès à une puissance de traitement honorable. Les capacités de stockage ont également fortement évolué. L’accessibilité accrue à ces ressources a créé une explosion de la demande en terme de contenus. Ainsi, afin d’y subvenir, de nombreux datacenters ont vu le jour à travers le monde, créant des organisations topologiques de machines inédites, véritables concentrations de serveurs aux capacités de stockage se comptant parfois en exaoctets, et aux capacités de calcul de plusieurs teraflops. Tout ceci crée un environnement aux caractéristiques très hétérogènes, certains terminaux possédant des débits plus importants que d’autres, des ressources en terme d’énergie, de stockage ou de puissance de calcul différentes. Un même terminal peut également voir ses caractéristiques changer en cours de communication, à cause de la charge de la batterie des terminaux mobiles, ou lorsque l’interface réseau utilisée change, la plupart des systèmes possédants aujourd’hui plusieurs interfaces, de nature différentes ou non. En effet, la plupart des smartphones possèdent au moins aujourd’hui des interfaces WiFi, Bluetooth et USB en plus de leur antenne téléphonique, celle-ci implémentant la plupart du temps des technologies 2G et 3G, voire 4G, quand ceux-ci ne disposent pas en plus du WiMaX. Les ordinateurs portables disposent presque tous d’une interface Ethernet et WiFi. La plupart des serveurs disposent aujourd’hui de plusieurs interfaces Ethernet. 1.1.1.3 Évolution des applications L’augmentation des performances des machines et des réseaux a permis l’avènement de nouvelles applications et l’amélioration des applications existantes. Cellesci font parfois preuve de besoins radicalement différents de ce que l’on connaissait. Aux applications traditionnelles sont en effet venues s’ajouter les applications multimédia et interactives. Les applications traditionnelles, principalement basées sur l’échange de fichiers, présentaient toutes les mêmes besoins d’ordre et fiabilité totaux dans le transfert de leur données. En effet, chaque octet doit arriver intact et dans l’ordre d’émission à l’application réceptrice afin que celle-ci puisse reconstituer à l’identique le fichier d’origine, qu’il s’agisse d’un envoi de mail, d’une page web, ou d’un transfert de fichier quelconque. Les applications multimédia quant à elles présentent des besoins différents. Par exemple, un streaming vidéo aura besoin d’ordre, mais la fiabilité n’a plus 171. Contexte, Problématique, État de l’art et Positionnement à être totale. Il n’y a en effet aucun besoin de retransmettre une image dont la date d’affichage est dépassée. Certaines données deviennent donc obsolètes avec le temps. De plus, les méthodes de compression actuelles différencient les images leur attribuant des importances différentes. Il est donc possible d’appliquer un traitement discriminant à l’intérieur d’un flux de données, contrairement à un transfert de fichier, où chaque octet a la même importance que les autres. Les applications interactives, mettant en relation plusieurs personnes, réagissant les unes par rapport aux actions des autres, créent encore plus de besoins inédits. Afin que les interactions entre les participants soient fluides, qu’il s’agisse de jeu vidéo ou de vidéoconférence, le délai de transit d’un participant à l’autre doit être suffisamment court pour qu’il ne soit pas perceptible. En effet, pour un jeu vidéo de tir par exemple, type FPS, l’expérience jeu serait ruinée si lorsque vous tirez sur votre adversaire, celui-ci est en réalité à un endroit différent de celui où vous le voyez sur votre écran. Dans une communication, les délais trop longs risquent, en plus de saccader la conversation, de créer des échos très désagréables. Dans [ITU11a], l’Union Internationale des Télécommunications (ITU-T) établit une classification générale et non exhaustive des applications de types audio, vidéo et données existantes en fonction de leur tolérance aux pertes de données lors des transmissions, et des délais de transmission admissibles. Celles-ci sont réparties selon : – leur tolérance ou intolérance aux pertes ; – les délais qu’elles peuvent supporter, et sont alors subdivisées en quatre catégories : – interactivité, – réactivité, – ponctualité, – non criticité du délai. Notons que certaines catégories sont apparues grâce à l’émergence des applications audio et vidéo, et que d’autres, telle la télécopie, plus tolérante par exemple qu’un transfert de fichiers, peut être satisfaite avec l’utilisation d’un service de Transport plus stricte que ce qu’elle requiert. On observe ainsi une évolution des catégories due non seulement à l’apparition de nouveaux types d’application, mais également à la précision de certaines distinctions qui pouvaient auparavant sembler superflues. 1.1.1.4 Évolution des protocoles de Transport Dans ces environnements très hétérogènes, la couche Transport du modèle OSI remplit un rôle particulier. En effet, elle a longtemps été la couche la plus haute implémentée dans la pile protocolaire (si on excepte la couche applicative), et donc en charge de faire le lien entre le réseau et les applications. Ainsi, il a semblé naturel 181.1. Contexte et Problématique d’introduire à ce niveau les modifications nécessaires à l’adaptation à ces nouveaux environnements. Si le paysage protocolaire de cette couche a longtemps été dominé par TCP [Pos81] et UDP [Pos80], des protocoles nouveaux ou des adaptations de protocoles existants ont été étudiés et standardisés, créant ainsi une multiplication des solutions, et une multiplication des API permettant de les utiliser. Ces nouveaux protocoles se concentrent principalement sur la réponse à apporter à une situation donnée, leur conception souvent monolithique n’accordant pas la possibilité de choisir les fonctionnalités à utiliser suivant les cas. Le choix traditionnel étant alors limité à un service total en utilisant TCP, ou nul en utilisant UDP. La responsabilité de ce choix est d’ailleurs toujours à la charge du développeur d’applications. En effet, la vision de la couche Transport aujourd’hui communément admise est celle d’une collection de protocoles disjoints les uns des autres, qui sont appelés par l’application désirant les utiliser. Il revient donc à celle-ci d’invoquer la méthode d’appel du protocole qu’elle souhaite utiliser. Cet appel est décidé en design time, c’est -à-dire que le développeur choisit le protocole qu’il juge le plus pertinent et implémente l’appel à ce protocole particulier dans son application. Cette manière de faire ne laisse aucune place à une utilisation du protocole basée sur une estimation du contexte au cas par cas, sauf à implémenter ce type de prise de décision au sein de l’application, et donc à lui faire endosser une responsabilité supplémentaire. L’invocation d’une solution de Transport se faisant par l’appel à un protocole particulier, c’est également au développeur que revient la charge d’estimer quel protocole satisfait le mieux le service qu’il souhaite. Il existe ici un besoin d’abstraction supplémentaire, le développeur devant faire lui même la correspondance entre service et solution protocolaire. La figure 1.1 résume les différents défis qui se présentent dans le réseau à l’heure actuelle. 1.1.2 Problématique Un environnement aussi évolutif crée différents problèmes, notamment celui de la complexité pour un développeur d’application de faire le bon choix de protocole mais aussi la complexité pour le développeur de protocoles d’intégrer une nouvelle solution au paysage existant. Dans cette section, nous commençons par présenter les différents acteurs concernés par la problématique, avant d’effectuer un tour d’horizon détaillé des différents points de celle-ci. Comme nous le verrons plus tard, certains points peuvent concerner plusieurs acteurs à la fois. 191. Contexte, Problématique, État de l’art et Positionnement Figure 1.1: L’environnement présente aujourd’hui des solutions multiples à des situations multiples 1.1.2.1 Acteurs concernés Trois types d’acteurs portant chacun un regard différent sur l’environnement sont identifiables : – le développeur d’applications ; – le développeur de protocoles ; – le développeur de système d’exploitation. Le souci du développeur d’applications est d’une part la simplicité d’utilisation du service, et d’autre part la conformité du service fourni par le protocole aux besoins de l’application qu’il développe. Il lui serait en effet contre-productif ou sous-optimal de devoir apprendre tous les rouages d’une solution pour l’utiliser pleinement, et d’apprendre ceci pour un nombre conséquent de solutions afin de faire des choix éclairés selon les situations. De même, il est difficilement concevable d’amener le développeur d’applications à réécrire toute ou partie de son application à l’avènement de chaque nouvelle solution au niveau Transport. Le développeur de protocoles se soucie de la capacité à faire adopter facilement son protocole ou son amélioration d’un protocole existant. En effet, une fois la solution développée, il faut qu’elle soit promue : 1. auprès des développeurs d’applications pour les convaincre de l’intérêt d’apprendre à utiliser la nouvelle solution ; 2. auprès des développeurs de systèmes d’exploitation pour les convaincre de 201.1. Contexte et Problématique l’intérêt d’intégrer la solution dans leur système ; 3. auprès des équipementiers pour les convaincre de l’utilité d’implémenter cette solution dans les différentes middleboxes qu’ils produisent. Le développeur système se soucie quant à lui de la facilité d’intégrer une nouvelle solution ou de mettre à jour une solution existante. Il souhaite en effet minimiser la réécriture de son code pour chaque opération d’ajout ou de mise à jour. 1.1.2.2 Problèmes soulevés Partant de l’évolution du contexte applicatif, machine et réseau, des réponses apportées au niveau Transport et des préoccupations des différents acteurs concernés, nous idendifions cinq points de problématique. Tel qu’évoqué précédemment, certains points concernent plusieurs acteurs. Problème de complexité (vis à vis de la connaissance, du choix et de l’utilisation des protocoles) La complexité des solutions protocolaires actuelle s’exprime à différents niveaux et permet de soulever trois problèmes, décrits ci-après. – Les protocoles de Transport sont de nature assez complexe de par leurs principes de fonctionnement, les techniques sur lesquelles sont basés leurs mé- canismes, et enfin leurs algorithmes. Cette complexité a en particulier un impact direct sur la QoS offerte, dont il est important d’avoir conscience lorsque l’on souhaite répondre à des besoins en QoS des applications. Par exemple, un mécanisme de contrôle de congestion basé fenêtre, tel que celui appliqué dans la version de base de TCP, induit une variation du débit et du délai, incompatible avec les besoins en débit constant et en délai borné des applications multimédia interactives. Le premier problème alors posé résulte du constat que cette complexité n’est, dans les faits, pas transparente aux développeurs d’applications : ceux-ci doivent avoir une connaissance fine du fonctionnement du protocole sous-jacent avant de pouvoir développer leurs applications. Ceci nécessite des connaissances fines pour des développeurs dont les protocoles de Transport n’est pas le domaine d’expertise. – Les protocoles de Transport sont également complexes dans leur utilisation. En effet, l’usage du service offert se fait via une interface de programmation (ou API pour Application Programming Interface), dont la maîtrise nécessite généralement des connaissances dans plusieurs domaines, notamment en programmation système. – Enfin, la multiplication des propositions de protocoles de Transport et d’API confronte le développeur d’applications à une troisième difficulté relevant du choix de la solution la mieux adaptée aux besoins de son application. 211. Contexte, Problématique, État de l’art et Positionnement Problème de dépendance (ou d’assujetissement) (de l’application au protocole invoqué) La complexité du choix du protocole n’est pas le seul problème qui résulte du caractère évolutif des solutions. En effet, ce choix s’effectue en design time, c’est à dire au moment de la conception de l’application. Ceci implique que l’application doit être écrite pour un protocole donné et s’y tenir pendant tout son cycle de vie. Le problème vient alors du fait que la solution protocolaire choisie peut ne plus être plus adaptée aux besoins de l’application, en raison de changement des contraintes réseau par exemple, ou suite à l’évolution des besoins de l’application. Notons que ce problème ne concerne pas uniquement les nouvelles solutions protocolaires, mais également toute migration d’une application vers une autre solution protocolaire. Ceci est dû au fait que son code est spécifique et ne peut fonctionner que sur cette solution, et tout changement de protocole doit impérativement passer par des modifications (à différentes échelles d’importance) du code de l’application. Cette dépendance aux protocoles, outre ses conséquences directes, est aussi en partie à l’origine des problèmes d’extensibilité et de déploiement décrits ci-après. Problème d’extensibilité (des solutions protocolaires existantes) Le problème d’extensibilité comporte plusieurs facettes. – L’intégration d’une nouvelle solution, ou la mise à jour d’une solution existante, pose un problème pour les développeurs de systèmes d’exploitation. En effet, toute modification protocolaire, impose des modifications dans les systèmes les hébergeant. Ceci concerne leur intégration dans les nouvelles versions du système, la mise à jour des versions antérieures ou la gestion de la compatibilité entre les deux. Ces implications expliquent la réticence des développeurs de systèmes d’exploitation vis à vis de l’adoption de nouvelles solutions, et conduit au constat que les environnements systèmes sont actuellement hétérogènes en termes de solutions de Transport supportées. – Du point de vue des développeurs de protocoles, le constat précédent constitue un véritable obstacle quant à leur volonté de développer de nouvelles solutions étant donné la probabilité importante de non acceptation par les systèmes, ou au mieux, au regard des délais importants dans l’intégration (généralement plusieurs années). – Du point de vue des développeurs d’applications, ces environnements hété- rogènes les conduisent eux-aussi à prendre des précautions quant à l’usage de nouvelles solutions, personne ne pouvant accepter que son application ait des problèmes de fonctionnement pour la simple raison qu’elle tourne au sein d’un système qui ne supporte pas le protocole de Transport désiré. En résumé, les développeurs d’applications attendent que les solutions de Trans- 221.1. Contexte et Problématique port soient largement déployées pour les utiliser, pendant que dans le même temps, les développeurs de systèmes d’exploitation attendent que ces solutions soient utilisées par les applications avant de les déployer. Ce cercle vicieux fait que le problème d’extensibilité constitue la cause principale du problème de déploiement décrit ciaprès. Problème de déploiement (des nouvelles solutions protocolaires) Le déploiement de nouvelles solutions est le problème le plus restreignant dans l’évolution de la couche Transport. Il regroupe les problèmes d’extensibilité et de dépendance au protocole, en plus du problème de l’acceptabilité par le réseau. – Tel que décrit précédemment, le problème d’extensibilité est à la source des difficultés d’adoption de nouvelles solutions par les systèmes, de leur utilisation par les applications, et en conséquence de leur développement lui-même. Vient ensuite le problème de dépendance des applications aux protocoles de Transport sous-jacents qui fait que toute modification de ces derniers impose des modifications pour les applications. – A ceci vient s’ajouter le problème d’acceptabilité par le réseau. En effet, les middleboxes, quelles que soient leurs fonctions, ont souvent des politiques de fonctionnement basées sur les types de protocoles et leurs contenu. Toute modification d’un protocole existant ou intégration d’un nouveau protocole impose la mise à jour de ces middleboxes afin qu’elles puissent reconnaître la nouveauté. Comme certaines d’entre elles ne laissent passer que certains protocoles, un nouveau protocole risquerait de ne pas pouvoir les franchir bien qu’ils soient supportés par les systèmes d’extrémité. Problème de configurabilité (des services offerts) Avec l’évolution des besoins en QoS des applications, les deux catégories de services offertes par les protocoles TCP et UDP sont devenues insuffisantes. Non seulement certaines applications se trouvent dans l’obligation d’utiliser des services non nécessaires induisant des quantités de données et des délais supplémentaires inutilement, mais aussi, certaines d’entre-elles peuvent voir la qualité de leurs service se dégrader à cause de ces services supplémentaires inutiles. La non configurabilité de ces protocoles qui fait que les applications sont obligés d’utiliser l’ensemble du service proposé dans son intégralité, a eu comme conséquence la complexification de la couche Transport par la création de nouveaux protocoles ne proposant aucun nouveau service, mais seulement des sous-ensembles des services des protocoles existants. 231. Contexte, Problématique, État de l’art et Positionnement Point de problématique Acteurs concernés Complexité Développeur d’applications Assujettissement Développeur d’applications Extensibilité Développeur d’OS, de protocoles et d’applications Déploiement Développeur de protocoles Configurabilité Développeur d’applications Table 1.1: Résumé de la problématique 1.2 État de l’art Dans cette section, nous présentons les solutions de niveau Transport existantes et les confrontons aux points de problématique identifiés précédemment. Certains de ces points ont cependant une portée globale et ne peuvent pas être étudiés ainsi au cas par cas. Le problème de complexité de choix, par exemple provient de la multiplicité des solutions qui seront évoquées dans la suite de cette section, et confronter chacune d’elle à ce problème aurait ainsi peu de sens. La multiplicité des solutions de Transport repose aussi bien sur le nombre de protocoles existants que le nombre de versions de ces protocoles, en particulier TCP, qui a évolué et a été adapté à de très nombreuses reprises. On observe que les protocoles les plus récents s’orientent vers une résolution partielle des problèmes observés, sans jamais totalement les adresser cependant. 1.2.1 Protocoles de Transport Comme la majorité du trafic utilise le protocole IP au niveau réseau, la plupart des protocoles de Transport utilisés sont ceux normalisés par l’IETF. Ces protocoles sont TCP, UDP, DCCP et SCTP, les deux premiers étant les plus utilisés car historiquement les premiers à avoir été créés. Ceux-ci offrent les deux types de services qui étaient utiles au moment de leur création. TCP propose un service garantissant un ordre et une fiabilité totaux sans garantie de délai, afin de permettre les transferts de fichiers, de mails et toutes les utilisations de ce type du réseau. UDP de son côté n’offre absolument aucune garantie et suffisait alors pour toutes les autres utilisations. 1.2.1.1 TCP TCP offre un service totalement fiable et ordonné, en se basant sur un contrôle des pertes et d’erreurs par l’envoi d’acquittements cumulatifs. Tout paquet perdu ou erroné sera ainsi non acquitté, l’émetteur du dit paquet sachant alors qu’il devra retransmettre le paquet erroné et tout paquet subséquent à celui-ci. Ce système 241.2. État de l’art induit nécessairement une augmentation du délai de transit d’un paquet : la perte étant non déterministe, le nombre de retransmissions possibles d’un paquet (et donc des suivants) n’est pas borné. TCP tente également de protéger le réseau grâce à son système de contrôle de congestion, visant à limiter la quantité de paquets à traiter par les routeurs en état de saturation, et donc à limiter les pertes. Ce système implique une diminution du taux d’envoi de paquets par TCP en cas de congestion, ce qui implique de fortes variations dans les délais et les débits. TCP a connu de nombreuses évolutions et adaptations au cours de son histoire. Les principales visent l’amélioration de son contrôle de congestion, que ce soit dans l’absolu ou dans certaines conditions particulières. D’autres concernent les options, comme les Selective Acknowledgement (SACK) [Mat96], permettant d’acquitter des messages correctement reçus malgré certains messages précédents manquants (ce que ne permet pas l’acquittement cumulatif) ou le multipath [For11] (cf. 1.2.1.5). Les différents contrôles de congestion de TCP sont nombreux. Certains sont voués à se remplacer les uns les autres, les suivants étant considérés comme des améliorations des précédents. TCP New Reno [Hen12], par exemple, est considéré aujourd’hui comme l’implémentation de référence du contrôle de congestion de TCP et vise à remplacer les versions précédentes qu’étaient TCP Tahoe et Reno. Si cette version est celle retenue par certains OS, notamment FreeBSD, de nouvelles versions « non canoniques »ont été implémentées dans Windows et Linux. Compound TCP [STBT08] est la version aujourd’hui utilisée sous Windows, bien qu’une version Linux ait été développée à l’université de Caltech mais non maintenue (ce patch est incompatible avec le noyau Linux à partir de la version 2.6.17). Elle est utilisée par défaut depuis Windows Vista et Windows Server 2008 bien que des mises à jour facultatives permettent de l’inclure dans Windows XP et Windows Server 2003. Tout comme TCP Vegas [BP95] ou FAST TCP [WJLH06], Compound se base sur le temps d’attente des paquets comme indication de congestion, et non sur les pertes. Dans sa version 2.6.8, Linux utilise par défaut Binary Increase Congestion control TCP (BIC TCP) [XHR04], puis, à partir de la version 2.6.19, son évolution, CUBIC TCP [HRX08]. CUBIC n’utilise plus les retours d’acquittement comme signal d’augmentation de sa fenêtre d’émission, mais au contraire le temps écoulé depuis le dernier évènement de congestion ce qui permet une croissance de la fenêtre beaucoup plus continue. Ces différentes versions de l’algorithme de contrôle de congestion de TCP visent, tout comme HighSpeed TCP [Flo03], à améliorer les performances du protocole sur les réseaux à forte bande passante et fort délai de transit, ou Long Fat Networks, tels que définis dans [Jac88]. D’autres versions visant à adresser des contextes spécifiques, tel que Data Cen- 251. Contexte, Problématique, État de l’art et Positionnement ter TCP [AGM+10], ont également été développées. Beaucoup de ces versions visent notamment les réseaux sans fil, parfois d’un type particulier. TCP Hybla [CF04] notamment, qui cible originellement les liens comportant des sections satellites, optimise le comportement de la fenêtre de congestion sur les chemins comportant un RTT important, en décorrélant l’impact du RTT sur la taille de la fenêtre de congestion. Malheureusement, ses améliorations étant basées sur le comportement observé de la fenêtre de congestion en milieu satellitaire, elles offrent des performances bien moindres sur des réseaux classiques, les hypothèses sur lesquelles elles sont construites n’étant pas vérifiées. Le cas des réseaux mobiles ajoute en plus les pertes dues au temps de handover, lors d’un passage d’une station de base à une autre. Ceci a pu être adressé par Freeze TCP [GMPG00], qui charge l’appareil mobile de signaler la proximité d’un handover en surveillant la puissance du signal reçu. Problème d’extensibilité. TCP prévoit un système d’options, grâce notamment à un champ d’en-tête dédié de longueur variable, permettant d’adjoindre des comportements supplémentaires. C’est ainsi qu’en plus de l’acquittement cumulatif, TCP peut gérer des acquittements sélectifs [Mat96] ou utiliser plusieurs interfaces de manière concurrentes [For11] (cf. 1.2.1.5). Cependant le caractère monolithique de TCP, c’est-à-dire la non dissociation des différentes fonctions de son service de base comme le contrôle de congestion, de flux, des pertes et d’erreurs, rend difficile l’insertion de services modifiés comme de la fiabilité partielle. Certaines options de ce type avaient cependant été introduites, comme les acquittements négatifs [Fox89] ou la gestion de l’ordre partiel [Con94], mais devant l’impopularité de leur déploiement, celles-ci ont été officiellement abandonnées [Egg11]. Problème de configurabilité. TCP offre un service totalement fiable et totalement ordonné. Sa structure monolithique ne donne pas la possibilité de choisir l’une ou l’autre de ces fonctionnalités, ou de ne les utiliser que de manière partielle. Dans une certaine mesure cependant, TCP est configurable. Certains comportements, comme la concaténation de paquets de petite taille [Nag84] peuvent être désactivés manuellement. Si certains peuvent être modifiés via l’API du protocole, d’autres nécessitent une intervention dans les paramètres du système et ne peuvent donc pas être pris en charge par l’application. Problème d’assujettissement. Les capacités d’autonomie de TCP sont limitées à la variation de certains de ses paramètres, comme sa fenêtre de congestion, en fonction de l’évolution du réseau. La modification d’autres paramètres tels que l’algorithme de calcul du Retransmission Time Out (RTO) doit être prise en charge 261.2. État de l’art par l’application ou l’administrateur du système, ce qui implique une surveillance du réseau et une gestion du protocole de leur part. TCP dépend donc d’une entité extérieure à la couche Transport pour effectuer certains ajustements ayant trait au contrôle de la communication, ou qui pourraient l’optimiser. Problème de déploiement. Par son caractère historique, TCP s’est imposé comme le protocole universel. Son déploiement ne pose donc aucun souci, chaque OS qui implémente la pile protocolaire IP intégrant une version de TCP. Il est également le protocole nécessairement implémenté dans les middleboxes présentes dans le réseau. TCP est aujourd’hui le seul protocole à pouvoir être utilisé partout, même s’il peut parfois être bloqué à cause de l’utilisation de certaines options. 1.2.1.2 UDP UDP n’offre aucune garantie d’ordre ni de fiabilité. De plus, il n’implémente aucun système de contrôle de congestion. Ceci permet de limiter les fluctuations de délai évoquées dans le cas de TCP. UDP est donc mieux adapté aux applications multimédia, mais énormément de pertes peuvent être à déplorer, limitant la qualité du flux. De plus, ne disposant d’aucun contrôle de congestion, il met le réseau en péril en risquant de congestionner les routeurs intermédiaires. Problème d’extensibilité. N’offrant aucune garantie, ajouter des fonctions à UDP est possible selon le plus large spectre qui soit, cependant UDP ne prévoit aucun mécanisme permettant d’étendre celles-ci. Ainsi, toute extension devra être prise en charge par l’application ou par une couche middleware, qui invoquera ellemême UDP. Les messages de niveau middleware seront alors encapsulés dans le datagramme UDP. On ne peut donc pas littéralement parler d’extensions d’UDP. Problème de configurabilité. UDP offre le service le plus simple qui soit : aucune garantie, aucun contrôle de congestion, il se contente de multiplexer l’accès des applications à la couche Transport (via les numéros de port). Les seuls paramètres configurables concernant le fonctionnement global d’UDP sur le système et ne sont pas accessibles par l’application ni ne modifient aucun mécanisme protocolaire. La configurabilité d’UDP est donc nulle. Problème d’assujettissement. UDP offrant un service sans aucune garantie, tout mécanisme supplémentaire, tel qu’un contrôle de congestion, un mécanisme de fiabilité ou d’ordre partiel ou total, doit être pris en charge et implémenté au niveau de l’application. 271. Contexte, Problématique, État de l’art et Positionnement Problème de déploiement. UDP est, comme TCP, présent sur la majorité voire la totalité du réseau. Il fait partie de la suite protocolaire IP et est donc implémenté dans tous les systèmes d’exploitation. Du point de vue des middleboxes, UDP est accepté dans une grande majorité, notamment car il est le protocole de Transport utilisé pour le Domain Name System (DNS). 1.2.1.3 DCCP DCCP [Kho06] vise à pallier les défauts d’UDP en offrant un service non fiable et non ordonné, mais avec contrôle de congestion. Le choix du contrôle de congestion est laissé à l’application. Celle-ci peut décider d’utiliser un contrôle de congestion « à la TCP »[Flo06a], l’algorithme TCP-Friendly Rate Control (TFRC) [Flo08, Flo06b] ou bien encore TFRC for Small Packets (TFRC-SP) [Flo07, Flo09]. DCCP est ainsi plus adapté que TCP pour les applications tolérantes aux pertes et au désordre, et plus adapté qu’UDP pour les transferts sur Internet. Problème d’extensibilité. Bien que DCCP inclue un champ « options » dans son en-tête, celles-ci ne servent pas, contrairement à TCP, à étendre ses fonctionnalités, mais à spécifier un certain nombre d’informations optionnelles selon le type de paquet, et selon le contrôle de congestion choisi. DCCP n’inclue donc pas nativement de mécanisme permettant l’extension de ses fonctionnalités, et du service offert. Problème de configurabilité. DCCP est un protocole qui entre parfaitement dans la catégorie des protocoles configurables. En effet, comme nous l’avons mentionné ci-dessus, DCCP offre la possibilité de pouvoir choisir l’algorithme de contrôle de congestion entre trois possibilités. Ce changement doit cependant être fait à un niveau système et n’est donc pas paramétrable de manière différenciée pour chaque application à ce jour. DCCP est donc un protocole configurable de manière statique, et avec certaines lourdeurs. En effet, un tel changement au niveau système ne peut s’effectuer qu’avec les droits administrateur sur la machine concernée, droits que ne possèdent pas forcément toutes les applications. De plus, dû au caractère global de cette modification, deux applications ayant un choix différent sur la question pourraient entrer en conflit et se gêner l’une l’autre dans la configuration du protocole. Problème d’assujettissement. DCCP présente sur ce point le même défaut qu’UDP. En effet, hormis le contrôle de congestion qui est à présent pris en charge par le protocole, tout mécanisme supplémentaire doit être implémenté et pris en charge par l’application afin d’être disponible. 281.2. État de l’art Problème de déploiement. DCCP est à l’heure actuelle face à un problème de déploiement considérable. Seules trois implémentations ont vu le jour. La première, dans le noyau Linux, ne dispose pas d’une API complète. La deuxième vise un haut degré de portabilité et la troisième concerne la plateforme d’implémentation Google Go. mais aucune de ces deux implémentations ne dispose d’une version stable ni n’a bénéficié d’une mise à jour récente. De ce fait, DCCP n’est utilisé par aucune application grand public, ou à grande échelle. Cette faible utilisation fait écho à son implémentation tout aussi rare dans les différentes middleboxes présentes dans le réseau. Il est à noter qu’une mise à jour de [Kho06] effectuée par [Phe12] offre à DCCP la capacité d’être encapsulé dans un datagramme UDP (nommé alors DCCP-UDP), et non plus directement dans un paquet IP, afin de permettre le passage à travers les différentes middleboxes, et principalement les NATs. Notons cependant que si cette méthode permet de faciliter la transition de DCCP-UDP à DCCP, elle ne modifie rien quant à la transition d’UDP vers DCCP (ou DCCP-UDP). 1.2.1.4 SCTP SCTP [Ste07] a été proposé afin de tirer parti de la multiplicité d’interfaces offertes par les terminaux modernes, et ainsi pallier certains problèmes notamment dus à la mobilité de ces terminaux. SCTP va en effet utiliser toutes les interfaces disponibles pour un même flux applicatif. On ne parle ainsi plus de connexion, mais d’association. Le protocole peut ainsi utiliser plusieurs interfaces au sein d’une même association et utiliser une interface en tant que back up, afin d’assurer la continuité de la communication si la connexion principale venait à être défaillante. Plusieurs extensions ont été ajoutées au protocole comme un système de fiabilité partielle [Ste04], ou sont aujourd’hui à l’étude, comme la possibilité d’utiliser les différents chemins d’une même association de manière concurrente [DBA13]. Problème d’extensibilité. SCTP inclue un système similaire à celui des options de TCP. En effet, un système de champ d’en-tête optionnel permettant la définition d’extensions est présent et a notamment permis l’introduction de la gestion de la fiabilité partielle au sein du protocole [Ste04]. Problème de configurabilité. SCTP possède différentes options configurables à deux niveaux : au niveau du système et au niveau du socket. Comme pour les pré- cédentes solutions, les configurations effectuées au niveau du système ne peuvent pas être réalisées par l’application, et concernent l’ensemble des associations SCTP. Celles-ci concernent notamment le calcul du Retransmission Time Out, ou la reconfiguration dynamique d’adresses. Les options modifiables au niveau du socket concernent les adresses primaires de l’association (celles utilisées comme chemin 291. Contexte, Problématique, État de l’art et Positionnement principal de communication), l’algorithme de Nagel, la fragmentation de paquets, ou la récupération d’informations de monitoring, ainsi que le contrôle de la fiabilité partielle. SCTP possède donc une composante fondamentale configurable, le système de fiabilité partiel. Celui-ci est activable au besoin mais cependant entièrement contrôlé par l’application qui doit elle-même décider du nombre maximum de retransmissions acceptables. De plus, bien qu’encore aujourd’hui à l’étude, on peut supposer qu’une extension d’utilisation concurrente des différents chemins d’une même association, sera également optionnelle et contrôlable par l’application. Problème d’assujettissement. SCTP présente une légère différence par rapport aux précédentes solutions, dû au fait que la fiabilité partielle est optionnelle. De ce fait, le développeur d’application est moins contraint dans l’utilisation qu’il fait du protocole, puisqu’il peut choisir tout ou partie du service présent. Cependant ce choix et sa gestion restent à l’initiative et à la charge de l’application, rendant le processus lourd. Problème de déploiement. S’il est moins important que pour DCCP, SCTP est également confronté à certains problèmes de déploiement. En effet, tous les systèmes d’exploitation ne l’intègrent pas en natif ce qui limite d’autant son utilisation. De plus, le service de base offert par SCTP étant redondant avec celui de TCP, peu de développeurs d’applications décident de se former à l’utilisation de ce nouveau protocole pour mettre à jour leur application, l’utilisation de TCP étant plus sûre. En effet, ce dernier est disponible partout et implémenté dans la totalité des middleboxes du marché, contrairement à SCTP, souvent bloqué. 1.2.1.5 Multipath TCP (MPTCP) MPTCP [For11] est une extension au protocole TCP traditionnel qui consiste à lui adjoindre la capacité à utiliser plusieurs interfaces simultanément, et de manière concurrente. L’initiative de créer ce working group à l’IETF découle des soucis d’adoption que rencontre SCTP depuis sa création. Ainsi, le projet MPTCP consiste à tirer parti des avantages induits par l’utilisation de toutes les interfaces d’une machine, concept dont l’intérêt à été prouvé avec SCTP, tout en acceptant le constat que seul TCP est accepté partout dans le réseau. MPTCP est conçu de manière à être utilisé de manière transparente par les applications et par le réseau, sans modification nécessaire de ces derniers. Cependant, des applications conscientes de la présence de MPTCP peuvent en tirer parti plus conséquemment. Étant une extension de TCP, MPTCP vise à fournir le même service d’ordre et de fiabilité totaux sans garantie de délai, tout en améliorant la résilience, notamment en mobilité (par l’utilisation de plusieurs chemins simultanément), et en améliorant 301.2. État de l’art également le débit, par addition des débits possibles sur chaque interface (l’objectif étant de toujours faire au moins aussi bien que TCP dans sa version classique). Problème d’extensibilité. MPTCP se base sur une décomposition de la couche Transport en sous-couches, idée proposée dans les travaux de Transport Next Generation (Tng) [FI08], en attribuant à une sous-couche supérieure les fonctions relatives à la sémantique applicative, et à une sous-couche inférieure celles relatives à la gestion du réseau, comme décrit sur la figure 1.2. Figure 1.2: Décomposition des fonctions de transport En se basant sur ce concept, MPTCP décompose la couche Transport comme sur la figure 1.3. En offrant ce cadre, MPTCP permet l’étude et l’intégration de fonctions étendues en fonction de leur orientation réseau ou sémantique applicative. Ainsi, peuton imaginer l’intégration de différents algorithmes de contrôle de congestion dédiés aux protocoles multi-chemins tels que proposés dans [DABR12], que l’on pourrait échanger selon les conditions du réseau et les besoins de l’application. De la même manière, la sous-couche sémantique pourrait accueillir des fonctions permettant de modifier le service offert MPTCP, y intégrant de la fiabilité ou de l’ordre partiels par exemple. Cependant, les fondations même de MPTCP reposent sur un ensemble de flux à ordre et fiabilité totaux, contraignant les modifications possibles du service offert. Ainsi, introduire une contrainte de délai impliquerait impérativement un impact sur le débit, ces deux grandeurs étant liées par l’usage de TCP. 311. Contexte, Problématique, État de l’art et Positionnement Figure 1.3: Décomposition de MPTCP en sous-couches Problème de configurabilité. MPTCP étant encore en cours de standardisation et d’implémentation, sa configurabilité n’est pas encore définitivement établie. Cependant, certaines extensions à l’API socket classique ont été préconisées dans [Sch13]. Ces extensions, nommées basic API, servent à des applications qui ont conscience de la présence sous-jacente de MPTCP. Celles-ci permettent d’activer ou de désactiver l’utilisation de MPTCP (et ainsi n’utiliser que TCP en version classique), ou de modifier l’ensemble des adresses, donc des interfaces, à utiliser dans la connexion MPTCP qu’elles emploient. D’autres options permettent de récupérer des informations propres à une connexion MPTCP, comme la liste des adresses utilisées par la connexion. Il est à noter que [Sch13] suggère dix extensions supplémentaires à l’API décrite afin de constituer une API avancée, permettant un contrôle plus poussé de l’application sur le protocole, par exemple en communiquant un profil décrivant les attentes de l’application en termes de performance, ou de caractéristiques concernant la communication (débit d’émission, délai interpaquets, etc.). Cette API avancée n’est à l’heure actuelle ni standardisée, ni à l’étude. Problème d’assujettissement. Tel que les RFCs le décrivent aujourd’hui, l’application ne peut qu’utiliser le service totalement fiable et totalement ordonné fourni par MPTCP. Bien que permettant l’introduction de mécanismes modifiant ce comportement, aucun n’est aujourd’hui en cours de standardisation, le protocole étant encore jeune. La gestion du protocole respecte le paradigme communément admis dévouant cette charge à l’application, et nécessitant donc une connaissance et une expertise de la part du développeur d’applications. 321.2. État de l’art Problème de déploiement. MPTCP présente de nombreuses forces concernant son déploiement et son adoption. Du point de vue du développeur d’applications, son avantage principal est d’être géré avant tout par le système, et ne nécessite donc aucune modification dans le code des applications pour être utilisé. MPTCP est donc d’ores et déjà compatible avec toute application utilisant TCP sans réclamer de mise à jour de celles-ci. Son utilisation la plus basique ne réclame pas de formation spécifique du développeur d’applications non plus, si tant est que celui-ci soit déjà familier avec l’utilisation de TCP. Du point de vue du réseau, MPTCP est vu par ce dernier comme plusieurs flux TCP, indépendants les uns des autres. Ainsi, la majorité des middleboxes laisseront-elles ces flux circuler sans encombre. Les quelques problèmes possibles proviendront essentiellement des middleboxes bloquant les options TCP inconnues (MPTCP se manifestant par une nouvelle valeur d’option dans l’en-tête des segments TCP), ainsi que celles modifiant les numéros de séquence, MPTCP mettant en place une correspondance entre les numéros de séquence de chaque flux, et un numéro de séquence applicatif. 1.2.1.6 CTP Introduit dans [BWH+07], Configurable Transport Protocol (CTP) est un protocole visant des capacités élevées en termes de configurabilité. CTP se base sur le principe de la composition de micro-protocoles introduits dans [Exp03]. Les microprotocoles représentent chacun une fonction de Transport de base, atomique. Leur composition permet ainsi la création d’un service de Transport à la carte en fonction des besoins de l’application. CTP fonctionne sur un principe évènementiel : chaque message arrivant dans le protocole déclenche une série d’évènements en fonction des informations contenues dans son en-tête. Chaque évènement informe un micro-protocole qu’il doit prendre le message en charge. Ceci permet de paralléliser les traitements lorsqu’ils sont indépendants les uns des autres. Problème d’extensibilité. Afin de permettre le déploiement de la composition adéquate de part et d’autre de la communication, CTP utilise un champ de 32bits, associant chacun à un micro-protocole particulier. Ainsi, bien que les auteurs appellent à la création de nouveaux micro-protocoles dans [BWH+07], CTP est limité à une collection ne dépassant pas les 32 micro-protocoles. Ce nombre, s’il est suffisant pour des services de Transport « classiques » risque de se révéler faible dès que l’on considère la possibilité d’utiliser plusieurs implémentations d’un même micro-protocole en fonction des situations, ou que l’on décide d’ajouter des micro-protocoles implémentant des fonctions plus exotiques, relatives à la Qualité de Service ou à la sécurité par exemple. 331. Contexte, Problématique, État de l’art et Positionnement Problème de configurabilité. CTP a été créé dans le but d’offrir une confi- gurabilité maximale. En effet, l’application peut choisir la composition de microprotocole qu’elle désire, et ainsi la dessiner selon ses besoins, sans devoir utiliser des services qui lui seraient inutiles, ou se résigner à implémenter elle-même ceux qui manquent, comme dans le cas des solutions monolithiques classiques. De plus, même si elle est limitée, l’extensibilité de CTP offre la possibilité d’ajouter des fonctions supplémentaires nécessaires à la satisfaction des besoins de l’application. CTP n’est cependant pas reconfigurable en cours de communication, forçant l’application à conserver le même service composite tout au long de celle-ci. Problème d’assujettissement. Le manque de configurabilité dynamique contraint donc l’application dans le service qu’elle décide à l’ouverture de connexion. Ce n’est cependant pas le seul point sur lequel l’application se retrouve assujettie à CTP. En effet, la gestion complète du protocole repose sur elle. C’est ainsi à elle de décider de la meilleure composition de micro-protocoles à utiliser. Il est d’ailleurs précisé que cette composition devra être établie par l’expérience, aucun système de décision n’étant présent pour épauler l’application dans son choix. Problème de déploiement. Cette dernière contrainte est un véritable frein à l’adoption de CTP. Plus encore que pour les solutions précédentes, le développeur d’applications doit apprendre en profondeur le fonctionnement du protocole pour être capable de l’utiliser. De plus, son fonctionnement différant fortement de celui des protocoles classiques, toute application souhaitant l’utiliser devra être mise à jour. Finalement, toutes les middleboxes devront également être capable de le prendre en charge, CTP n’étant pas conçu pour être transparent du point de vue du réseau. 1.2.1.7 ETP Développé au LAAS-CNRS, Enhanced Transport Protocol (ETP) est un framework pour la composition de protocoles de Transport composites. Tout comme CTP, il repose sur la composition de micro-protocoles créant ainsi des protocoles composites répondant aux besoins de l’application. ETP adopte une structure différente de celle de CTP, préférant une approche hybride entre organisation hié- rarchique, comme le modèle OSI, et le modèle évènementiel, sur lequel repose CTP. Cette organisation schématisé sur la figure 1.4 est articulée autour de cinq conteneurs : – Application Out (AppOut) ; – Application In (AppIn) ; – Protocol Out (ProtOut) ; – Protocol In (ProtIn) ; 341.2. État de l’art – Management. Chaque conteneur se destine à recevoir les différentes fonctions nécessaires au fonctionnement des différents micro-protocoles qui vont constituer le protocole. Ainsi, le conteneur de management va-t-il accueillir les fonctions de contrôle dudit micro-protocole. Ce conteneur adopte une approche évènementielle. Les fonctions qui y prennent place vont s’activer sur notifications d’évènements produites par les fonctions qui prendront place dans les autres conteneurs. Ces quatre autres conteneurs peuvent se diviser selon deux axes. Un axe vertical sépare d’un côté les conteneurs AppOut et ProtOut, et les conteneurs AppIn et ProtIn de l’autre, formant un plan de données en sortie d’une part, qui traitera les messages émis par l’application, et un plan de données en entrée, qui traitera les messages reçus à destination de l’application. Ils se divisent également selon un axe horizontal, regroupant les conteneurs AppOut et AppIn d’une part, et ProtOut et ProtIn d’autre part. Les premiers exécutent leurs fonctions au rythme des demandes d’émission et de réception de l’application. Les seconds exécutent les fonctions qu’ils hébergent au rythme auquel le réseau les accepte ou les transmet. Ces rythmes pouvant être très différents, des buffers font office de tampon entre les deux plans horizontaux (App et Prot) pour absorber cette différence. Ces quatre conteneurs s’organisent de manière hiérarchique. Les différentes fonctions qui y sont hébergées sont empilées selon un certain ordre, et s’exécuteront sur les différents messages dans cet ordre. Figure 1.4: Organisation schématique d’ETP 351. Contexte, Problématique, État de l’art et Positionnement Problème d’extensibilité. ETP prévoit la possibilité d’accueillir de nouveaux micro-protocoles. Ceux-ci sont désignés par un identifiant unique, rendant les possibilités d’extensions quasiment illimitées. Le système de synchronisation, contrairement à celui de CTP, n’est pas limité en place ce qui permet également cette extensibilité illimitée. Chaque micro-protocole pouvant adjoindre son ou ses champs d’en-tête personnalisés, cependant, le risque créé est celui d’un overhead important lors de l’utilisation de nombreux micro-protocoles dans le même protocole composite, risquant de provoquer de la fragmentation au niveau IP. Problème de configurabilité. ETP est configurable à l’initialisation et reconfigurable dynamiquement en cours de communication. Le déploiement de la nouvelle composition du protocole s’effectue en parallèle de l’ancienne, permettant ainsi le traitement d’éventuelles retransmissions ou de paquets encore en vol. Cette méthode s’accompagne cependant d’un coût en termes de ressources utilisées la rendant peu viable sur les terminaux limités, tels que des capteurs. La reconfiguration dynamique requiert de plus une signalisation propre induisant un certain overhead sur le réseau. Problème d’assujettissement. Les configurations d’ETP sont décidées par l’application, imposant au développeur d’applications de connaître les micro-protocoles qui s’offrent à lui mais également de décider de leur organisation hiérarchique au sein des conteneurs du plan de données. C’est également à l’application de commander les différentes reconfigurations en cours de communication, lui laissant la tâche de surveiller, en plus de ses propres besoins, si l’état du réseau réclame de modifier le service fournit par le protocole. Problème de déploiement. ETP repose techniquement au dessus d’UDP et est ainsi vu par le réseau comme la charge utile du protocole de Transport. ETP peut donc être accepté par le réseau où UDP l’est, c’est-à-dire quasiment partout. ETP doit cependant être utilisé par les développeurs qui sont contraints, pour ce faire, d’apprendre son utilisation. Proche de celle d’UDP, elle doit cependant être complétée en fournissant au protocole la composition de micro-protocoles à utiliser. C’est également au développeur d’applications de décider des changements de composition. Tout ceci fait peser un besoin en connaissance et une responsabilité supplémentaire sur le développeur d’application rendant improbable le déploiement d’ETP en pratique. 361.2. État de l’art 1.2.2 En résumé Les différents tableaux suivants résument les différents points exposés sur les différents protocoles. Protocole Extensibilité TCP Par options UDP Aucune DCCP Aucune SCTP Par options MPTCP Structure en couche pouvant accueillir des extensions CTP Limitée ETP Forte Table 1.2: Résumé du problème d’extensibilité Protocole Configurabilité TCP Limitée UDP Nulle DCCP Contrôle de congestion SCTP Limitée MPTCP Basique standardisée, étendue prévue CTP Totale ETP Totale Table 1.3: Résumé du problème de configurabilité Protocole Assujetissement TCP Service monolithique UDP Service monolithique DCCP Choix du CC à la charge de l’application SCTP Choix à la charge de l’application MPTCP Choix à la charge de l’application CTP Choix à la charge de l’application ETP Choix à la charge de l’application Table 1.4: Résumé du problème d’assujettissement L’abondance de ces différents paramètres nous place face au problème de la complexité des choix qu’ont à faire les développeurs d’applications. En effet, un 371. Contexte, Problématique, État de l’art et Positionnement Protocole Déploiement TCP Disponible partout UDP Disponible partout DCCP Faible SCTP Faible MPTCP A venir CTP Aucun ETP Aucun Table 1.5: Résumé du problème de déploiement protocole donné, même s’il est faiblement déployé, peut donner de meilleures performances dans un réseau fermé, non relié à Internet, qu’un protocole plus vastement déployé. Cependant, ceci peut mener à des complications si l’application devait finalement être portée sur un contexte de réseau plus ouvert, relié à Internet. Le choix que doit faire le développeur d’application, pour être éclairé, doit être basé sur une connaissance poussée des différents protocoles disponibles. Or la complexité de certains, standardisés parfois par une grande quantité de documents, rend cette tâche ardue, consommatrice de temps et réclamant un effort sur une expertise qui ne devrait pas relever du développement logiciel. Pour cette raison, et grâce à son omniprésence, TCP est souvent le choix fait par défaut, notamment car de plus en plus d’applications utilisent HTTP pour leur transferts, et que celuici repose sur TCP. Cependant, le service de TCP est faiblement configurable, et c’est alors à l’application de prendre en charge les modifications qu’elle souhaite voir appliquées. 1.3 Positionnement de la proposition Face aux limites des protocoles de Transport, la thèse soutenue dans ce mé- moire est celle d’une architecture innovante pour la couche Transport, nommée ATL, qui permet de répondre aux différents points de la problématique discutés précédemment. Cette section en présente l’approche, les exigences générales et les principes de conception retenus en conséquence. Les chapitres 2 et 3 sont dédiés à l’explicitation et aux détails de mise en œuvre de ces trois volets. 1.3.1 Approche L’objectif n’est pas de définir un nouveau protocole, mais de tirer partie de l’ensemble des solutions protocolaires (protocoles et mécanismes) existantes ou 381.3. Positionnement de la proposition à venir, par le biais d’un environnement d’intégration et de composition au sein d’une véritable couche Transport, dans le but de répondre au mieux aux besoins des applications en tenant compte des capacités du réseau et des systèmes terminaux. La proposition présentée dans ce document traite également des considérations de déploiement de l’ATL qui doit tenir compte, d’une part, du degré de conscience de l’ATL de la part des applications, et d’autre part, de la disponibilité de l’ATL dans les différents systèmes s’interconnectant. En d’autres termes, la mise en œuvre de l’ATL sur un hôte terminal ne doit pas conduire au besoin de réécrire les applications traditionnelles dites « legacy », développées en amont de l’ATL ; de même, le déploiement de l’ATL sur un hôte terminal doit permettre à ce dernier d’interagir avec un hôte sur lequel l’ATL n’est pas déployé, que ce soit en tant qu’initiateur (client) de la communication, ou en tant que serveur. 1.3.2 Exigences générales de conception de l’ATL Cette nouvelle architecture pour la couche Transport doit permettre de faciliter l’accès aux protocoles de Transport en abstrayant le développeur d’applications de la complexité relative au choix de protocole et à son utilisation. Cette couche vise également à permettre un accès à l’ensemble des services disponibles, ceci de façon hautement configurable et personnalisé en fonction du contexte applicatif, machine et réseau, brisant ainsi la dépendance classique entre applications et protocoles de Transport dans le but d’offrir davantage de souplesse au développement et à la maintenance des applications. L’un des objectifs de conception de l’ATL est qu’il dispose de capacités d’autonomie qui lui permettent de tenir compte en temps réel, dans ses choix de composition, des évolutions des besoins applicatifs et de l’état du réseau. Par ailleurs, l’architecture de l’ATL doit faciliter le développement, la mise à jour et l’intégration des nouvelles solutions protocolaires en exonérant les développeurs d’applications, de protocoles et de systèmes des conséquences liées à toute sorte de modification dans les protocoles de Transport. Enfin, l’ATL doit prendre en compte d’autres considérations relatives au dé- ploiement de ces nouvelles solutions. 1.3.3 Paradigmes de conception relatifs à l’architecture de l’ATL Pour répondre aux exigences de conception de l’ATL, quatre paradigmes de base ont été retenus, dont l’application sera décrite dans les chapitres 2 et 3 : – le paradigme associé aux architectures dites basées-composant ; – le paradigme associé aux architectures dites orientées-services ; 391. Contexte, Problématique, État de l’art et Positionnement – le paradigme de l’Autonomic Computing (AC) ; – la dimension sémantique. 1.3.3.1 Conception logicielle basée composants La notion de « basé composants »est un paradigme de conception logicielle qui vise à faciliter le développement des systèmes complexes en séparant ces derniers en un ensemble de composant élémentaires. La facilité vient du fait que la division du système le rend moins complexe et permet en plus de déléguer chaque composant à un groupe de développeurs appropriés. Par ailleurs, les composants étant développés séparément, ils peuvent être utilisés par plusieurs autres composants par le biais d’interfaces clairement définies. Cette capacité de réutilisation permet d’économiser du temps et de l’espace. Généralement, le recours au basé composant est à des fins d’optimisation. Cependant, dans le cas d’architectures extensibles, comme le cas des drivers systèmes par exemple, l’approche de conception logicielle basée composant est la seule solution pour assurer cette extensibilité. 1.3.3.2 Conception logicielle orientée service L’« orienté services »est un autre paradigme de conception logicielle qui permet une séparation nette entre le service offert et la façon avec laquelle il est offert (son implémentation). Cette séparation offre, d’une part, une abstraction complète en réduisant les interactions à l’interface du service. D’autre part, elle permet plus de souplesse à l’architecture quant à sa maintenance et son extensibilité. La gestion des services dans de telles architectures est, par exemple, effectuée en se basant sur des descriptions sémantiques des services et de leurs interfaces. 1.3.3.3 Autonomic Computing Le concept d’AC a été proposé par IBM pour faire face à la complexité croissante dans la gestion jusque-là manuelle des différentes facettes relevant des technologies de l’information, et en particulier des systèmes logiciels. Le principe est d’intégrer des capacités d’auto-gestion dans ces systèmes induisant une intervention minimale des utilisateurs. IBM a également proposé une architecture fonctionnelle basée sur un ensemble de composants et d’interfaces bien définies ainsi que d’un cahier des charges précis du comportement individuel et collectif attendu de la part des différents composants du système. Cette architecture, dont les points d’entrée et de sortie sont équivalents à des capteurs (sensors) et à des actionneurs (actuators) distingue quatre fonctions majeures : le monitorage du système auto-géré, l’analyse des données capturées et l’identification de symptômes, la planification des actions à entreprendre pour répondre à ces symptômes, et finalement la mise en œuvre de ces actions. Dans les grandes lignes, les actions entreprises 401.4. Conclusion peuvent relever de la configuration du système, de l’optimisation de ce système, de sa réparation ou encore de sa sécurisation. 1.4 Conclusion L’objectif général de ce chapitre était de présenter la problématique adressée dans notre travail de thèse et de positionner la proposition soutenue dans l’état de l’art des protocoles de Transport sous-jacents au transfert des applications distribuées dans l’Internet. Pour cela, nous avons tout d’abord présentés les évolutions de ces 20 dernières années du contexte de notre travail, constitué des réseaux supports de l’Internet, des applications distribuées et de leurs besoins, et enfin des terminaux sur lesquelles s’exécutent ces applications. Nous avons ensuite analysé les limites des protocoles de Transport face à ces évolutions, en identifiant cinq points durs de problématique : – problème de complexité de choix ; – problème d’extensibilité ; – problème de configurabilité ; – problème d’assujetissement ; – problème de déploiement ; auxquels nous avons confronté les différentes solutions de l’état de l’art selon trois points de vue : le développeur d’application, le développeur de système d’exploitation et le développeur de protocoles. Si certains de ces protocoles répondent à différents degrés à une partie de ces points, aucune ne les satisfait tous. Notamment, la complexité de choix et l’assujettissement ne sont adressés par aucune. La démonstration de ces limites nous a conduits à positionner notre proposition, l’ATL. L’ATL n’est pas une nouvelle proposition de protocole, mais une proposition d’architecture pour la couche Transport, orientée service et basée composants, créant une véritable abstraction du service sous-jacent. Les enjeux de l’ATL sont multiples et visent en particulier à soustraire le choix et la gestion du protocole de Transport utilisé au développeur d’applications, lui permettant ainsi de concentrer sa demande sur le service requis et non plus la solution protocolaire à mettre en place pour assurer ce service. L’ATL permet ainsi l’intégration transparente de nouveaux protocoles et mécanismes protocolaires sans intervention au niveau de l’application. Dans la suite de ce document, le chapitre 2 se focalise sur la définition des différents composants de l’ATL, à différents niveaux de description, leurs rôles, leur organisation et les échanges qu’ils effectuent entre eux. Le chapitre 3 se concentre ensuite sur la description comportementale de ces composants dans deux cas d’uti- 411. Contexte, Problématique, État de l’art et Positionnement lisation centraux : l’ouverture d’un point d’accès au service de Transport par une application, et la reconfiguration dynamique d’un service de Transport. 42CHAPITRE 2 Architecture de l’ATL Ce chapitre présente le modèle architectural (ou structurel) de l’ATL suivant le plan ci-dessous. Dans la première partie (section 2.1), nous détaillons les exigences de conception de l’ATL introduites au chapitre 1. Nous présentons ensuite les principes permettant d’y répondre et enfin les approches logicielles envisagées pour implanter ces principes. De l’exposé de ces approches, nous dégageons enfin les fonctionnalités attendues de l’ATL. La seconde partie du chapitre (section 2.2) présente le modèle architectural de l’ATL suivant le formalisme UML 2.0. Les cas d’utilisation de l’ATL sont tout d’abord introduits. Le modèle général de l’ATL est ensuite présenté. Vient enfin la présentation des différents composants de l’ATL distingués en composants de premier niveau et composants secondaires. La dernière partie (section 2.3) conclut le chapitre et introduit le chapitre 3, dédié à la description comportementale de l’ATL au travers de deux cas d’utilisation. Sommaire 2.1 Exigences de conception et principes l’ATL . . . . . . . . . . . 44 2.1.1 Exigences de conception de l’ATL . . . . . . . . . . . . 44 2.1.2 Principes des solutions proposées en réponse aux exigences de conception de l’ATL . . . . . . . . . . . . . . 46 2.1.3 Approches d’implantation de ces principes . . . . . . . 48 2.1.4 Fonctionnalités de l’ATL . . . . . . . . . . . . . . . . . 53 2.2 Architecture de l’ATL . . . . . . . . . . . . . . . . . . . . . . . 54 2.2.1 Cas d’utilisation . . . . . . . . . . . . . . . . . . . . . . 54 2.2.2 Modèle d’architecture de l’ATL . . . . . . . . . . . . . 57 432. Architecture de l’ATL 2.2.3 Composants de base de l’ATL . . . . . . . . . . . . . . 60 2.2.4 Composants secondaires . . . . . . . . . . . . . . . . . 69 2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 2.1 Exigences de conception et principes l’ATL Cette section présente les exigences de conception et les principes de l’ATL. Notons que cette section ne présente pas l’architecture de l’ATL, cette partie faisant l’objet de la section 2.2. 2.1.1 Exigences de conception de l’ATL Pour aborder les cinq points de la problématique énoncée au chapitre 1, l’ATL doit répondre à un certains nombre d’exigences que nous introduisons ci-après. Face à la complexité liée à la connaissance, au choix et à l’utilisation des solutions protocolaires, l’ATL doit permettre aux développeurs d’applications : – de se voir masquer la connaissance et la complexité du choix des solutions protocolaires à invoquer ; autrement dit, partant d’une spécification par le développeur d’application des caractéristiques du service souhaité, c’est à l’ATL que revient le choix de la solution protocolaire sous-jacente la plus adaptée ; notons que cette abstraction ne doit pas fermer la possibilité pour un développeur averti, d’effectuer par lui-même le choix de la solution protocolaire à mettre à œuvre ; – de se voir masquer la complexité d’utilisation des solutions protocolaires qui seront invoquées ; autrement dit, le développeur d’application doit disposer d’une Application Programming Interface (API) générique, lui permettant de caractériser le service souhaité, et non le protocole ; l’ATL doit cependant permettre la prise en compte des application existantes — applications dites legacy — traditionnellement basées sur TCP et UDP et sur les API correspondantes — il ne s’agit donc pas de réécrire ces applications — une API supplémentaire, permettant d’exprimer la solution protocolaire souhaitée, doit enfin être mise à disposition des développeurs avertis. Face au problème de dépendance des applications aux solutions protocolaires, l’ATL doit permettre une adaptation de la solution protocolaire retenue en réponse à une évolution du contexte machine/réseau, ou bien à une modification de l’expression du service requis par l’application. Cette adaptation consiste 442.1. Exigences de conception et principes l’ATL soit en la modification de certains des paramètres de la solution, soit en la modi- fication de la structure même de la solution, par exemple par remplacement d’un mécanisme protocolaire par un autre, plus adapté au nouveau contexte. – En réponse à une évolution du contexte machine/réseau, l’ATL doit donc être doté d’une capacité d’autonomie dans la prise de connaissance du contexte et de ces évolutions, en plus de celle liée au choix et à la mise en œuvre des solutions protocolaires à invoquer. – En réponse à une évolution des besoins applicatifs, la même capacité d’autonomie est requise de la part de l’ATL dans le choix et la mise en œuvre des adaptations de la solution protocolaire en cours. Vis à vis de la prise de connaissance de l’évolution des besoins applicatifs, l’ATL doit au moins offrir — via l’API générique — la possibilité aux développeurs d’applications de modifier les caractéristiques du service requis durant le temps d’exécution de l’application. Cette possibilité est donc offerte à des applications évoluées, conçues de sorte à pouvoir adapter leurs besoins aux variations du contexte considéré. Notons qu’idéalement, l’ATL pourrait être doté d’une capacité d’autonomie dans la prise de connaissance du contexte applicatif, et inférer par lui-même l’évolution des besoins applicatifs ; cette dernière possibilité n’a pas été considérée dans nos travaux et en constitue l’une des perspectives. Face au problème d’extensibilité des solutions protocolaires, lorsqu’apparaît une nouvelle version d’un protocole existant ou bien qu’émerge une nouvelle solution protocolaire — qu’il s’agisse d’un protocole ou d’un mécanisme, l’ATL doit permettre son intégration au sein de l’ensemble des services et solutions protocolaires qu’il gère déjà, en vue de la mise à disposition du service correspondant et de l’utilisation de la solution protocolaire. Face au problème de manque de configurabilité du service requis, c’est à dire la difficulté pour un développeur d’application de pouvoir requérir un service particulier plutôt que tous ceux imposés par les protocoles basés sur un principe de conception « monolithique » tels que TCP, l’ATL doit résoudre le problème grâce à la nature « composable » des différents protocoles et mécanismes protocolaires qu’il gère (chaque protocole pouvant se voir adjoindre des mécanismes externes), mais également par une connaissance complète de l’étendue de la configurabilité de chaque protocole et mécanisme protocolaire qu’elle peut instancier. Ceci permet un plus grand contrôle et une plus grande latitude dans les décisions concernant les services que l’ATL peut mettre en œuvre pour satisfaire les besoins des applications. Grâce à ces principes, l’ATL peut virtuellement configurer n’importe quel service à volonté, via les paramètres variables des composants 452. Architecture de l’ATL qu’elle instancie, ou par l’adjonction de mécanismes externes venant palier un manque. Face au problème d’acceptabilité des nouvelles solutions protocolaires, on observe les deux points suivants. – Le principal souci lié aux solutions nouvelles tient à leur capacité à être utilisées par les applications et à être acceptées par le réseau. En libérant l’application du choix de la solution protocolaire, l’ATL adresse ainsi le premier problème. Il doit par ailleurs être doté d’une capacité à choisir les solutions à instancier en fonction de l’environnement réseau — qui peut par exemple bloquer les flux non TCP via des middleboxe configurées à cet effet — pour répondre au problème d’acceptabilité par le réseau. – Le déploiement de L’ATL pose également un problème en lui-même dans la mesure où l’on ne doit pas imposer son déploiement sur toutes les machines, ni son utilisation par une application initialement conçues sur les bases de la couche Transport classique. La conception de l’ATL doit donc répondre à cette double exigence. 2.1.2 Principes des solutions proposées en réponse aux exigences de conception de l’ATL Afin de répondre aux différentes exigences précédentes, l’ATL a été conçu suivant certains principes que nous présentons ici. La mise en œuvre de ces principes est elle-même basée sur un ensemble de paradigmes de conception décrits dans la section 2.1.3. Premier principe : l’abstraction. Le principe d’abstraction est le principe clé de la solution que propose l’ATL. En effet, tout réside dans l’idée de séparer les détails d’implémentation et de gestion des solutions protocolaires, des applications qui vont en utiliser les services. Suivant ce principe, on limite les interactions entre les applications et la couche Transport à un ensemble d’interfaces génériques, ce qui a comme conséquence : – de libérer les développeurs d’applications du choix et de la difficulté d’utilisation des solutions protocolaires sous-jacentes, et répond donc au problème de la complexité protocolaire ; – de passer, du point de vue de l’application, d’un paradigme d’utilisation de protocoles à un paradigme d’utilisation de services, levant ainsi la dé- pendance des applications aux solutions protocolaires en leur permettant de pouvoir s’exécuter « au-dessus » de n’importe quel protocole offrant le service souhaité ; 462.1. Exigences de conception et principes l’ATL – d’effectuer des modifications sur les protocoles et les mécanismes protocolaires sans conséquence sur les applications, répondant ainsi — en tout ou partie — à l’objectif d’acceptabilité par les applications. Second principe : l’extensibilité. Le principe d’extensibilité réside dans la capacité de l’ATL à intégrer de nouvelles solutions protocolaires, ou à mettre à jour les solutions existantes sans aucune implication supplémentaire sur les applications ou les systèmes. Le principe d’abstraction de l’ATL répond aux besoins des applications, en ceci qu’il n’y aura aucune implication sur ces dernières si une modification se porte sur une solution. Concernant le besoin des développeurs de systèmes d’exploitation, l’architecture de l’ATL doit être telle que l’intégration de nouveaux composants impose uniquement des mises à jour de la base de connaissance de l’ATL, sans mise à jour des composants de gestion de l’ATL. Enfin, ces modifications, notamment celles conduisant à offrir de nouveaux services de Transport, doivent être communiquées de façon publique aux développeurs d’applications. Les mises à jour doivent ainsi être des opérations simples qui seront assurées par une entité de l’ATL que le développeur du protocole aura à invoquer pour que sa solution protocolaire soit prise en compte, en lui transmettant un certain nombre d’informations décrivant sa nouvelle solution. Troisième principe : la configurabilité. La configurabilité est un principe d’optimisation qui permet d’offrir à l’application l’ensemble de services dont elle a besoin et uniquement ceux-ci — c’est à dire sans service supplémentaire. Ce principe va à l’encontre du caractère monolithique de la plupart des protocoles de Transport existants qui impose aux applications tous les services pré-implantés. Cette configurabilité peut être assurée par l’ATL ou par le composant protocolaire lui-même. Dans le premier cas, l’ATL doit sélectionner et composer un ensemble optimal de composants qui offriront le service demandé par l’application. Dans le deuxième cas, l’ATL doit offrir, pour les composants qui sont à la base configurables — tels que ETP — un environnement dans lequel ils pourront conserver leur caractère configurable. Quatrième principe : l’autonomie. A l’instar de la configurabilité, l’autonomie est un principe d’optimisation qui permet à l’ATL de prendre des décisions en fonction des changements du contexte applicatif et réseau. La prise de décision est relative au choix de la composition « optimale » de protocoles/composants protocolaires en réponse à une requête de l’application, que ce soit au moment de 472. Architecture de l’ATL l’établissement de la connexion, ou durant la communication en cas de changement de contexte. Un changement de contexte se produit lorsque les besoins de l’application changent, par exemple lorsque celle-ci passe d’un type de fonctionnalité à un autre ou d’un type de donnée à un autre. Les changements de contexte peuvent aussi être liés au réseau : il peut s’agir d’une diminution ou d’une augmentation des paramètres réseau, tel que le débit, le délai, le taux de perte, ou encore l’apparition ou la disparition d’un problème de congestion ou le changement du type de réseau (Ethernet vers 3G par exemple). Dans toutes ces situations, aussi bien avant ou durant la communication, le principe d’autonomie est de permettre une adaptation de la solution protocolaire transparente pour l’application. 2.1.3 Approches d’implantation de ces principes La mise en œuvre des principes précédents repose sur un certain nombre de paradigmes de conception qui sont présentés dans cette section. 2.1.3.1 Approche orientée services L’approche orientée services vise principalement à séparer les services offerts de leur implémentation interne en réduisant les interactions entre l’application et ces derniers à une simple interface. Cette façon de faire offre une abstraction complète des solutions techniques utilisées, et constitue ainsi l’approche la plus importante de notre solution. L’objectif est de définir chaque protocole ou composant protocolaire par l’ensemble des services qu’il offre. Du point de vue de l’application, il n’y aura plus de notion de protocole de Transport, mais seulement de service de Transport, au sens où elle n’invoque plus un protocole particulier, tel que TCP ou UDP, mais un service particulier, par exemple un service orienté-connexion en mode flux d’octets avec garantie d’ordre et de fiabilité totale. Le choix du protocole et du ou des composants protocolaires qui assureront le service requis ne sera plus à la charge de l’application. Le principe de mise en œuvre repose sur la capacité de l’ATL à maintenir une liste des correspondances entre protocole ou composant protocolaire et service(s) correspondant(s) et, quand il reçoit une requête d’une application contenant une liste de services souhaités, à chercher dans la liste des correspondances la composition protocolaire la plus adaptée pour assurer l’ensemble des services. De cette façon, l’approche orientée services assure parfaitement le principe d’abstraction de l’ATL, et permet de répondre à plusieurs parties de la problématique : 482.1. Exigences de conception et principes l’ATL – en réduisant l’interface avec les applications à une liste de services accessibles, on élimine le problème de complexité relatif : – au choix du protocole de Transport, car celui-ci n’est plus de l’ordre des applications mais de l’ATL, – à l’usage de celui-ci car il n’y aura plus besoin de connaitre les détails relatifs au fonctionnement de chaque protocole ou mécanisme protocolaire comme cela se fait actuellement, l’application ayant simplement à connaitre l’ensemble des services offerts et à solliciter ceux qui lui conviennent ; – la séparation des détails techniques permet, par le biais des services, de lever la dépendance classique entre applications et protocoles et ce, sur deux plans : – tout d’abord, les applications ne seront plus écrites pour un protocole particulier mais pour un ensemble de services et peuvent donc être exécutées « au-dessus » de n’importe quelle solution protocolaire offrant les mêmes services, – ensuite, les modifications apportées aux composants protocolaires n’affecteront pas le fonctionnement des applications, puisque ces modifications ne leur seront pas visibles. La réponse au problème de dépendance permet ainsi de répondre à une partie du problème de l’extensibilité concernant les applications. Ceci signifie qu’il sera possible, avec une approche orientée services, d’ajouter ou de mettre à jour n’importe quelle solution protocolaire au sein de l’ATL sans aucune conséquence sur les applications. Pour les autres parties du problème d’extensibilité (i.e. concernant les développeurs de systèmes ou de protocoles), la solution nécessitera l’adoption d’approches complémentaires, tel que préconisé par la suite ; – Enfin, pour les protocoles qui sont à la base configurables (tels que ETP), l’approche orientée service permet de conserver leur configurabilité avec la possibilité de paramétrage des services. Chaque service peut disposer d’une liste de paramètres que l’on peut ou doit lui fournir à son invocation. Ceci concerne la configurabilité des services eux-mêmes, et pour ce qui est de la configurabilité de l’ensemble des services, c’est à dire le fait de choisir un sous ensemble des services offerts, ceci va de soit, puisque dans ce paradigme, il n’y a aucune différence entre les services offerts séparément par des composants indépendants et les services offerts séparément par un même composant. Conséquences en termes de besoins fonctionnels d’une approche orientée services. L’adoption d’une approche orientée services impose la mise en œuvre, au sein de la couche Transport, de fonctions supplémentaires relatives à la gestion des services. Ces fonctions concernent notamment : – l’intégration des nouveaux services incluant leur prise en compte par les 492. Architecture de l’ATL composants de gestion de l’ATL ; – l’association entre services et composants afin de facilement trouver quels sont les services fournis par chaque composant ; – la vérification de leurs disponibilité sur les hôtes locaux et distants. Ces différentes fonctions sont regroupées dans la fonctionnalité de gestion des services et seront déléguées à différents composants de l’architecture de l’ATL. Elles sont décrites plus en détails en section 2.1.4.1 de ce chapitre. 2.1.3.2 Approche basée composants L’approche basée composants concerne l’organisation interne des solutions protocolaires qui seront gérées par l’ATL. Le principe est de mettre chaque protocole ou composant protocolaire dans un composant logiciel indépendant offrant un ensemble de services via une interface propre. En séparant chaque protocole ou composant protocolaire en un composant logiciel indépendant, on facilite son intégration dans l’ATL. L’ajout à la bibliothèque de composants et la mise à jour de la base de connaissances de cette dernière constituent ainsi les seules étapes de l’installation d’un nouveau composant : – aucune partie du système d’exploitation ni de l’architecture de l’ATL ne sera à modifier ; cette souplesse assure une extensibilité complète de la couche Transport, et répond ainsi aux limitations d’extensibilité de la couche actuelle du point de vue des développeurs de système et de protocole ; – en conséquence, le développeur de protocole n’aura plus à se préoccuper de la prise en charge de son protocole par le système ; – en parallèle, en associant chaque composant à un ensemble de services, les mises à jour seront transparentes pour les applications ; de cette façon, nous répondons à l’ensemble des problèmes relatifs à l’extensibilité. Par ailleurs, la séparation des composants protocolaires permet d’offrir la possibilité de choisir et de composer au besoin les composants qui assureront un service donné, au sens où les applications ne seront plus obligées de fonctionner avec des services insuffisamment adéquats, comme c’est le cas avec l’architecture actuelle de la plupart des protocoles de Transport à caractère monolithique. Le principe de configurabilité est ainsi assuré. Enfin, cette approche permet la création de solutions protocolaires à granularité variable. La possibilité d’exprimer la dépendance d’un composant envers un autre ou envers un service assuré par un autre est capitale. Ainsi, un développeur souhaitant créer un mécanisme de contrôle des pertes et nécessitant un estampillage des paquets par un numéro de séquence pourra soit développer son propre estampillage, soit déclarer son composant protocolaire dépendant de l’utilisation d’un composant d’estampillage adéquat. 502.1. Exigences de conception et principes l’ATL Conséquences en termes de besoins fonctionnels d’une approche basée composants Les conséquences de l’approche basée composant concernent principalement leurs intégrations au sein de l’ATL. Les interfaces de ces composants doivent être définies de façon suffisamment générique pour qu’ils puissent être intégrés de façon transparente dans l’ATL, c’est-à-dire sans avoir à récrire le code de l’ATL. Enfin, celle-ci doit pouvoir les utiliser de façon séparée selon les besoins des applications. De plus, l’ATL doit les invoquer de façon indépendante et gérer les liens entre eux tout au long de la communication. 2.1.3.3 Approche autonomique L’autonomie de l’ATL vise à rendre transparent pour l’utilisateur humain les prises de décision relatives au choix des solutions protocolaires, à l’initiation de la communication ou en réponse à un changement du contexte du réseau. Ceci impose donc la capacité de l’ATL à trouver des compositions optimales pour satisfaire les applications en tenant compte de leurs besoins et de l’état du réseau. Dans une approche autonomique, cette prise en compte ne doit pas se limiter au moment de l’ouverture de connexion, mais doit être poursuivie tout au long de la communication pour s’adapter dynamiquement aux changement du contexte applicatif ou réseau, c’est-à-dire au changement des besoins applicatifs ou de l’état du réseau. Conséquences en termes de besoins fonctionnels d’une approche autonomique En conséquence, l’ATL doit, d’une part, effectuer une surveillance permanente du réseau afin d’en connaître l’état en temps réel, et éventuellement détecter tout changement conséquent. Par la suite l’ATL doit pouvoir trouver la composition protocolaire optimale pour le contexte courant (état du réseau et besoins des applications) à l’ouverture de la communication aussi bien qu’au cours de celle-ci. D’autre part, elle doit offrir aux applications la possibilité de pouvoir modifier leurs requêtes (services requis) durant la communication et ce sans interruption. Ces différentes fonctions sont regroupées au sein du composant gestionnaire de l’autonomie, l’Autonomic Manager, introduit en section 2.2.3.2 dans ce chapitre. 2.1.3.4 Synthèse Le tableau 2.1 fournit une vue synthétique des sections précédentes. 512. Architecture de l’ATL Problèmes Exigences de conception de l’ATL Principes de conception de l’ATL Approche logicielle d’implantation Complexité Masquer aux développeurs d’applications la connaissance et la complexité du choix des solutions protocolaires à invoquer. Masquer aux développeurs d’applications la complexité d’utilisation des solutions protocolaires qui seront invoquées. Abstraction Sémantique Approche orientée services Approche basée sémantique Dépendance Permettre une adaptation de la solution protocolaire retenue en ré- ponse à une évolution du contexte machine/réseau, ou bien à une modification de l’expression du service requis par l’application, c’est- à-dire : Abstraction Autonomie Approche autonomique – être doté d’une capacité d’autonomie dans la prise de connaissance du contexte et de ces évolutions, en plus de celle liée au choix et à la mise en œuvre des solutions protocolaires à invoquer ; – être doté d’une capacité d’autonomie dans le choix et la mise en œuvre des adaptations de la solution protocolaire en cours ; – offrir aux développeurs d’applications la possibilité de modifier les caractéristiques du service requis durant le temps d’exécution de l’application. Manque d’extensibilité Permettre son intégration au sein de son pool de services et de solutions protocolaires, en vue de la mise à disposition du service correspondant et de l’utilisation de la solution protocolaire. Extensibilité Approche basée composants Manque de configurabilité Gérer la nature composable des différents protocoles et mécanismes protocolaires, chaque protocole pouvant se voir adjoindre des mécanismes externes. Configurabilité Table 2.1: Synthèse des problèmes, exigences, principes et approches de conception de l’ATL 522.1. Exigences de conception et principes l’ATL 2.1.4 Fonctionnalités de l’ATL Cette section décrit l’ensemble des nouvelles fonctionnalités nécessaires pour mettre en œuvre les principes décrits précédemment. Ces fonctionnalités résultent directement des approches de conception de l’ATL, et sont introduites précédemment pour chacune des approches. Il s’agit en d’autres termes de toutes les fonctionnalités qui ne figurent pas dans l’approche traditionnelle de la couche et des protocoles de Transport, et qui permettent d’assurer la valeur ajoutée apportée par la nouvelle architecture de l’ATL. Ceci concerne principalement la gestion des services et l’autonomie. 2.1.4.1 Fonction de gestion des services La gestion des services est une fonctionnalité qui résulte de l’approche orientéeservices permettant de réduire la complexité de l’interface de l’ATL et d’assurer son extensibilité. Elle regroupe les tâches relatives à l’intégration de nouveaux composants protocolaires dans l’ATL et la correspondance entre ceux-ci et les services qu’ils offrent. La première tâche sera donc la constitution et le maintien de la liste des services au fur et à mesure que de nouveaux composants sont ajoutés à l’ATL. Ce rôle incombe à l’intégrateur de services. L’information sur la correspondance entre composants protocolaires et services offerts est ainsi intégrée dans la base de correspondance des composants et des services afin que les applications puissent les invoquer et que l’ATL puisse utiliser le nouveau composant lors des prochaines requêtes applicatives si nécessaire. Une fois les services stockés, les applications peuvent désormais les invoquer auprès de l’ATL. Pour ce faire, la base de correspondance des composants et des services permet sa consultation afin de retrouver les différents composants pouvant, seuls ou au sein d’un ensemble composite, assurer le service requis. 2.1.4.2 Fonction de gestion autonomique de la communication Cette fonctionnalité assure le caractère autonomique de l’ATL qui vise à décider du service composite initial à mettre en place et à adapter le comportement de celui-ci de façon autonome selon les variations du contexte réseau (changement du type du réseau ou de son état). Elle comporte quatre taches correspondant aux quatre parties de la boucle autonomique décrite un peu plus loin. La première tâche consiste à recueillir les informations utiles sur l’état du ré- seau. L’ATL doit donc disposer d’un service de monitoring du réseau, en souscrivant par exemple à un service externe ou en implantant le sien propre. Une fois ces informations recueillies (débit, délai, taux de perte . . . ), l’ATL doit les 532. Architecture de l’ATL analyser afin de détecter les variations et subséquemment le besoin éventuel d’un changement de la composition protocolaire courante. En cas de besoin d’un changement de composition, l’ATL doit revoir les composants sélectionnés pour chaque service et l’affiner, éventuellement une autre fois, afin de trouver pour chaque service le composant le plus adapté à l’état courant du réseau, en tenant compte de l’ensemble des paramètres de ces services pour lesquelles des information de surveillance ont été recueillies. 2.1.4.3 Fonction d’accueil, d’assemblage et de mise en œuvre des compositions L’ATL doit également permettre l’accueil des composants protocolaires utilisés dans la mise en place des différents services composite. Ainsi, si plusieurs implé- mentations peuvent être possibles, l’architecture doit prendre en compte le besoin d’une structure où prendra place cette composition et permettant son fonctionnement — en assurant notamment l’ordonnancement des messages à travers les différents composants, sa configuration, sa modification voire sa suppression. Les différents composants assurant ces fonctionnalités seront décrits en 2.7. 2.2 Architecture de l’ATL Cette section présente le modèle architectural de l’ATL ainsi que ses différents composants. Suivant une approche basée sur le formalisme UML 2.0, nous décrivons d’abord les cas d’utilisation de l’ATL (section 2.2.1). Nous présentons ensuite le modèle d’architecture de l’ATL et de ses principaux composants (section 2.2.3). Nous décrivons enfin les composants secondaires de l’ATL (section 2.2.4). 2.2.1 Cas d’utilisation L’architecture d’une solution telle que l’ATL doit être guidée par des cas d’utilisation faisant intervenir les différents acteurs du système. Ces acteurs peuvent être les utilisateurs du système ou d’autres éléments interagissant avec le système lors de son utilisation. Nous avons déjà évoqué les différents types d’applications utilisant l’ATL et de systèmes l’hébergeant. Ceux-ci donnent lieu aux cas d’utilisation de la figure 2.1. On peut voir sur ce diagramme que les applications représentent des acteurs primaires, placés à gauche du système, indiquant que ces acteurs sont les initiateurs des cas d’utilisations auxquels ils sont reliés. Le réseau, en revanche est un acteur secondaire. Il intervient dans la réalisation des cas d’utilisation auxquels il est relié, mais n’initie pas ces derniers. 542.2. Architecture de l’ATL Figure 2.1: Cas d’utilisation impliquant les applications Ce diagramme illustre également les prérogatives respectives des différents types d’applications. On y voit que les applications legacy ne peuvent qu’initier le cas d’utilisation « Transfer data » quand les applications aware et smart peuvent également exprimer les services à utiliser. Les applications smart peuvent également récupérer la responsabilité des choix normalement effectués par l’ATL dans la composition de composants protocolaires qui sera instanciée, via le cas d’utilisation « Select service ». Au delà des applications, l’ATL va également devoir offrir certains services aux utilisateurs humains. Ceux-ci peuvent être de plusieurs types et présentent des besoins différents, il s’agit : de l’utilisateur de la machine (ou utilisateur du système), de l’administrateur de la machine (ou administrateur du système) et du développeur de mécanismes protocolaires. Nous pouvons les voir sur le diagramme de cas d’utilisation de la figure 2.2. L’utilisateur du système doit pouvoir exprimer certaines préférences quant à l’utilisation des ressources disponibles sur sa machine. Ainsi la possibilité de modi- fier les politiques de prise de décision en fonction des différentes applications doit lui être offerte. Par exemple, l’utilisateur doit pouvoir exprimer qu’il veut que le 552. Architecture de l’ATL Figure 2.2: Cas d’utilisation impliquant les utilisateurs humains débit d’émission de son gestionnaire de téléchargement BitTorrent soit limité, afin de laisser une capacité plus importante pour le serveur web qui héberge son blog. L’administrateur du système doit également avoir la possibilité d’exercer ce genre de contrôle. Les préférences qu’il exprime doivent de plus avoir préséance sur celles exprimées par les utilisateurs du système. De plus, l’administrateur doit pouvoir aller modifier le comportement de l’ATL en influant sur les solutions que celle-ci peut instancier pour satisfaire les services requis par les applications. Un administrateur doit pouvoir interdire un protocole, ou en désactiver certaines options, modifier la connaissance qu’a l’ATL de ceux-ci afin que ses décisions futures soient conformes aux politiques de son entreprise. Par exemple, il doit pouvoir imposer d’utiliser un chiffrement via SSL au lieu de TLS, ou d’utiliser un contrôle de congestion basé sur TFRC et non sur TCP. Finalement, le dernier utilisateur humain est le développeur de composants protocolaires à intégrer à l’ATL. L’ATL doit en effet offrir les moyens pour pouvoir développer de nouveaux protocoles, de nouvelles implémentations pour tel ou tel mécanisme, et permettre leur intégration de manière transparente pour les autres acteurs. Les acteurs secondaires ont également un rôle important à jouer dans ces cas d’utilisation. Ceux-ci sont de deux types. Tout d’abord, les systèmes avec lesquels 562.2. Architecture de l’ATL on souhaite communiquer. Comme nous l’avons indiqué, ces systèmes peuvent être de deux types : les systèmes legacy qui ne disposent pas de l’ATL ; les systèmes ATL-enabled ou enabled qui en disposent. Il est capital qu’un système enabled soit capable d’initier une communication ou d’accepter une communication entrante avec un autre système enabled, bien évidemment, mais également avec un système legacy. Sans cette condition, l’adoption de l’ATL serait compromise car cela scinderait le parc informatique mondial en deux parties non interopérables. Ainsi, afin d’adapter son comportement au type de système avec lequel elle souhaite communiquer, l’ATL doit posséder un système de découverte de la présence de l’ATL sur le système distant. Le réseau constitue l’autre acteur secondaire, indispensable puisque c’est par lui que vont transiter les messages échangés entre les différentes instances de l’ATL. Comme indiqué dans le premier chapitre, celui-ci fait preuve aujourd’hui d’une grande hétérogénéité et d’une grande dynamicité au niveau de ses caractéristiques et de leurs variations au cours du temps. Les multiples technologies d’accès et la présence de différents types de middleboxes créent une variété de scénarios possibles. Le rôle de l’ATL sera de s’adapter à ces différents scénarios de manière à toujours satisfaire au mieux l’application, en fonction des préférences des utilisateurs et administrateurs, et des solutions mises à disposition par les développeurs, en tenant compte de la présence ou de l’absence d’une instance de l’ATL sur le système distant avec lequel s’établit la communication. Pour tenir compte des variations dans le réseau, l’ATL va devoir en permanence surveiller ses performances afin de prédire ou détecter les changements qui seront susceptibles d’induire une modification de la solution choisie afin de maintenir un service acceptable. 2.2.2 Modèle d’architecture de l’ATL En observant les protocoles classiques et l’architecture actuelle de l’Internet, les différents types de fonctionnalités intervenant dans une communication pour acheminer les données, contrôler cet acheminement, et gérer la communication, peuvent être répartis selon les trois plans suivants. – Le plan de données gère l’acheminement à proprement parler des données de l’utilisateur. C’est lui qui s’occupe de l’encapsulation des messages, ou du multiplexage vers les différentes applications par exemple. Les protocoles permettant l’encapsulation de données, tels que IP au niveau réseau de la pile protocolaire, sont des protocoles du plan de données. Ils offrent un service d’acheminement à un niveau supérieur le requérant. Le plan de données de l’ATL remplit ce même rôle. 572. Architecture de l’ATL – Les plans de contrôle et de gestion, qui assurent la prise en charge des deux autres types de fonctions. Au sein de l’ATL, le contrôle et la gestion servent tous deux à gérer la communication, mais à des échelles de temps différentes : les actions de contrôle sont des actions à portée temporelle réduite ou courte, à l’échelle du paquet ou de quelques RTT, comme la vérification de l’intégrité d’un paquet, ou la détection de pertes ; les actions de gestion portent sur des échelles de temps plus grandes, comme les modifications de tables de routage, ou des règles de sécurité. Nous pouvons remarquer que dans les protocoles existants, les actions de contrôles sont souvent prises en charge par le protocole du plan de données. TCP ou Ethernet vérifient par exemple eux-mêmes si les unités de données qu’ils reçoivent sont erronées ou non. A l’inverse, les actions de gestion sont généralement effectuées par des protocoles dédiés, comme les protocoles de routage, dont RIP, OSPF, ou BGP sont les représentants les plus connus ; d’autres protocoles connus sont également des protocoles prenant en charge des actions de gestion : ICMP, ARP, SNMP, etc. Notons que ces protocoles sont souvent indifféremment qualifiés de protocoles du plan de contrôle ou de protocole du plan de gestion. Le but ici n’est pas de savoir lequel des deux est juste afin de rétablir une classification claire des protocoles selon ces trois plans. Nous utilisons ce vocabulaire afin de distinguer non pas différents types de protocoles, mais différents types d’actions, et remarquons alors que les actions de transfert de données et de contrôle sont souvent gérées par un même protocole, quand les actions de gestion sont souvent gérées par un protocole dédié. Nous effectuons la même dichotomie au sein de l’ATL où une partie de l’architecture sera dédiée à l’exécution de la communication, donc au transfert de données et au contrôle de celui-ci, et où une seconde partie sera dédiée à la gestion de la communication, grâce à une relation constante avec la première et qui permettra d’influer sur celle-ci. Articulée autour de ces trois types de fonctions, l’architecture de l’ATL repose sur l’identification des besoins des utilisateurs exprimés via les cas d’utilisation précédents. De ces cas d’utilisations et des considérations exposées dans la section précédente, nous détaillons un premier niveau d’architecture composite de l’ATL (section 2.2.2.1). Les détails des composants de base de premier niveau sont présentés en section 2.2.3. 2.2.2.1 Modèle général Pour offrir les différents services présentés ci-dessus, l’architecture de l’ATL s’organise en plusieurs niveaux de composants, représentés sur la figure 2.3. On observe sur ce diagramme différents composants nécessaires au bon déroulement de la prise en charge des communications. Pour la gestion de la commu- 582.2. Architecture de l’ATL Figure 2.3: Diagramme de structure composite de premier niveau nication proprement dite, le composant plus important est le Flow, qui contient deux composants principaux : – l’Autonomic Manager qui s’occupe de la gestion autonomique de la communication avant et après l’établissement de la connexion ; – le Data Plan qui s’occupe de la communication proprement dite, en accueillant l’ensemble des composants protocolaires pour la communication, dénommée également « service composite », destinée à une communication particulière. On remarque que le Flow dispose de deux interfaces vers l’application : la première sert à l’échange de données entre l’application et le Flow ; la seconde est l’interface de contrôle, permettant à l’application d’exprimer ses besoins ainsi que ses contraintes concernant les décisions de l’ATL dans le cas d’une application smart. Chaque Flow est associé à un et un seul point d’accès au service de Transport. 592. Architecture de l’ATL Le nombre de Flow présents au sein du système est donc variable avec le temps, et peut également être nul si aucune application n’a ouvert de communication. Chaque Flow n’appartient qu’à une et une seule application, mais une application peut posséder plusieurs Flow si elle ouvre plusieurs points d’accès. Un serveur web, par exemple, aura un Flow ouvert par client visitant le site qu’il héberge. Le Flow est décrit plus avant en section 2.2.3.1. Avant que ne débute effectivement une communication, l’Autonomic Manager d’un Flow utilise la base des composants et des services pour décider de la composition adéquate selon les besoins de l’application et l’état du réseau. Cette base, commune à tous les Flow du système, recense tous les composants protocolaires disponibles et les services qui leur sont associés et permet aux Autonomic Manager de choisir parmi cet ensemble le service composite le mieux adapté. L’intégrateur de services permet l’installation de nouveaux composants au sein de l’ATL, notamment via la mise à jour de la base des composants et services. Notons que celle-ci peut également être modifiée par un utilisateur humain tel qu’un administrateur système ou par un logiciel de gestion hiérarchiquement supérieur. Le rôle du Flow Creator est l’instanciation des Flow lors de la création d’un TSAP. Le Signalization Message Controler est le composant responsable de la signalisation relative aux informations globales. Finalement, le multiplexeur-démultiplexeur réseau (Net Mx/Dmx) constitue l’interface entre les Flow et le réseau. Ces composants sont décrits dans la section 2.2.4 relative aux composants secondaires. On remarque que l’ATL dispose, en plus des interfaces avec l’application et de celle avec la couche réseau sous-jacente, d’une interface d’administration destinée aux utilisateurs humains, afin de leur permettre d’exprimer des préférences générales comme l’indique le diagramme de cas d’utilisation de la figure 2.2. C’est à travers celle-ci que les commandes des utilisateurs et des administrateurs sont intégrées dans l’ATL. C’est également grâce à elle que des programmes extérieurs peuvent venir administrer l’ATL le cas échéant. 2.2.3 Composants de base de l’ATL Cette section est consacrée à la description du composant principal de l’ATL : le Flow et ses sous-composants. Ce sont eux qui vont accueillir et gérer la composition de composants protocolaires instanciant la communication. 2.2.3.1 Le Flow Le composant principal de l’ATL est le Flow. Un Flow est mis à disposition d’une application pour chaque point d’accès qu’elle ouvre. La décomposition du Flow, illustrée sur la figure 2.4, fait apparaître deux composants principaux : le Data Plan et l’Autonomic Manager, dont les fonctions 602.2. Architecture de l’ATL permettent de distinguer la prise en charge des actions de type transfert de données et contrôle pris en charge par les composants protocolaires (Data Plan), et les actions de gestion du service composite (Autonomic Manager). Figure 2.4: Composition d’un Flow Le Flow dispose de plusieurs interfaces : – la première le relie à l’application et est composée d’une partie données, permettant l’échange de ces dernières, et d’une partie contrôle, comme introduit en section 2.2.2.1 : – la partie données est redirigée vers le Data Plan, – la partie contrôle est redirigée vers l’Autonomic Manager, afin de lui communiquer les différentes informations sur les services désirés et les diffé- rentes contraintes que l’application souhaite exprimer ; – la deuxième interface relie le Flow à la couche réseau par le biais du Data Plan afin de permettre l’échange de données utilisateurs encapsulées ou à 612. Architecture de l’ATL destination de l’application. Celle-ci est reliée directement à la couche réseau sous-jacente en sens descendant et à un démultiplexeur dans le sens montant (cf. 2.2.4.3). La liaison entre l’Autonomic Manager et le Data Plan est décrite dans la section 2.2.3.2. Notons enfin que l’Autonomic Manager est également relié au Flow Creator, décrit en 2.2.4.1, et au Signalization Message Controler, décrit en 2.2.4.2. 2.2.3.2 L’Autonomic Manager L’Autonomic Manager est un des composants internes majeur d’un Flow. Avant d’en décrire l’architecture fonctionnelle dans le cadre de l’ATL, nous introduisons tout d’abord ce concept tel que défini par IBM. État de l’art relatif au concept d’Autonomic Manager tel que défini par IBM IBM définit l’Autonomic Manager comme le composant permettant la gestion autonome d’une ressource. Dans le cas de l’ATL, la ressource s’avère être un service composite, une composition de protocoles et mécanismes protocolaires destinés à satisfaire les besoins de l’application. L’Autonomic Manager est composé d’une boucle de contrôle constituée de quatre fonctions, et d’une base de connaissance à laquelle ces quatre fonctions peuvent accéder. Ces quatre fonctions sont les suivantes. Le monitoring : Le but de cette fonction est la surveillance des informations d’état du système et leur pré-analyse afin de détecter des symptômes d’un comportement potentiellement anormal ou qui dériverait de l’état souhaité. L’analyse : La fonction d’analyse est invoquée par la fonction de monitoring lorsque cette dernière détecte un symptôme. Le symptôme est utilisé afin de modéliser l’état actuel du système qui est alors comparé à l’état souhaité. Si les deux modèles divergent, une alarme est alors levée pour avertir la fonction suivante. La planification : Lorsque la fonction d’analyse lève une alarme, la fonction de planification prend en charge la décision des actions à entreprendre pour modifier le système afin de refaire converger son état vers l’état souhaité. En résulte un plan de modification, discuté en 2.2.3.2, qui est communiqué à la dernière fonction de la boucle. L’exécution : Cette dernière fonction prend en charge les modifications décidées par la fonction de planification. La réalisation effective, l’orchestration et la synchronisation des différentes étapes du plan de modification sont à la charge de cette fonction. 622.2. Architecture de l’ATL Ces différentes fonctions s’organisent autour de la base de connaissances comme le montre la figure 2.5. Cette base de connaissance sera décrite plus loin en 2.2.3.4. Figure 2.5: Organisation des fonctions de l’Autonomic Manager La communication entre la ressource gérée et l’Autonomic Manager est assurée par une interface nommée Touchpoint et capable d’un comportement de type capteur (sensor)afin de récupérer des informations sur la ressource, et de type effecteur (effector) afin d’appliquer des modifications sur la ressource. La figure 2.6 représente les différentes interactions possibles entre l’Autonomic Manager et le Touchpoint dans les deux types de comportement. Application au sein de l’ATL Au sein d’un Flow, la liaison entre l’Autonomic Manager et le Data Plan — qui représente la ressourcée gérée — est illustrée figure 2.4. Cette liaison permet à la fonction de monitoring de l’Autonomic Manager de récupérer les informations fournies par les différents composants protocolaires, et à la fonction d’exécution d’aller modifier les paramètres de ces composants, ou de modifier la structure composite elle-même. Les décisions prises par la fonction de planification de l’Autonomic Manager peuvent avoir une portée locale ou répartie. Portée locale : les décisions de l’Autonomic Manager n’impactent que les composants de l’hôte sur lequel il se trouve. Celles-ci n’ont aucune influence sur le système distant ou la liaison entre les deux systèmes, et ne nécessitent 632. Architecture de l’ATL Figure 2.6: Caractéristiques du Touchpoint et lien avec l’Autonomic Manager donc pas d’intervention de ce dernier. Informer l’hôte distant de ces décisions n’est a priori pas nécessaire mais peut cependant présenter un intérêt dans certains cas. Portée répartie : les décisions de l’Autonomic Manager impactent les composants situés sur l’hôte distant ou la liaison entre les deux hôtes, et nécessitent une intervention de ce dernier. Une synchronisation des deux systèmes pouvant être nécessaire, la présence d’un protocole de signalisation la permettant est requise ; dans l’architecture de l’ATL, cette signalisation relève de la fonction d’exécution de la boucle de contrôle. Sur ce second point, notons qu’une signalisation sera également nécessaire au niveau de la fonction de monitoring afin de requérir des informations de l’hôte distant ou de lui en fournir, ainsi qu’au niveau de la fonction de planification afin d’établir des prises de décisions en collaboration avec l’hôte distant. Selon les cas, l’Autonomic Manager ne sera pas seul gestionnaire de la communication. En effet, si l’hôte distant possède également l’ATL, les deux Autonomic Manager (un par Flow) devront être en contact afin d’échanger certaines informations, comme précisé dans la partie Monitoring. 642.2. Architecture de l’ATL Pour la même raison, les prises de décisions doivent également pouvoir être partagées. Les deux Autonomic Manager vont avoir une double responsabilité. – Tout d’abord, ils vont gérer individuellement les modifications locales de leur service composite respectif. En effet, la décision de modifier tel ou tel paramètre, d’enlever ou ajouter tel ou tel composant protocolaire, leur incombe tant que cette modification est purement locale. Par exemple, modifier à la volée l’algorithme de calcul du RTO dans le bloc de service TCP d’un certain Channel ne requiert aucune action de la part de l’Autonomic Manager pair. – La seconde responsabilité est la prise de décision répartie. Il s’agit cette fois de gérer les modifications qui vont requérir des décisions sur chaque hôte. Les deux Autonomic Manager doivent donc être en communication, afin de se transmettre les informations de monitoring nécessaires ainsi que les consignes d’exécution. Dans une prise de décision répartie les Autonomic Manager peuvent s’organiser de différentes manières. Nous identifions ici trois hiérarchies possibles : collaborative, participative et subordinative. En mode collaboratif : les deux Autonomic Manager ont un poids égal dans la prise de décision. Chaque décision ou compromis doit donc faire consensus afin d’être appliqué. Ce mode peut-être envisagé lorsque les deux flux applicatifs sont de même importance, comme dans le cas par exemple, d’une vidéoconférence en pair à pair, ou chaque participant envoie un flux vidéo et un flux audio, souvent du même ordre de qualité. Notons que le cas d’une vidéoconférence centralisée sur serveur est différent : le serveur jouant le rôle de point d’échange central des données celui-ci aura un rôle plus important. En mode participatif : chaque Autonomic Manager peut proposer des modi- fications ou des actions sur la gestion de la communication, mais la décision finale revient à l’un des deux seulement. L’Autonomic Manager « participant » ne peut que faire des propositions qui devront être finalement approuvées par l’Autonomic Manager « décidant ». Dans ce mode, l’Autonomic Manager participant devient géré par l’Autonomic Manager décidant, sans pour autant perdre son intelligence. En mode subordinatif : un des Autonomic Manager se subordonne totalement à l’autre, c’est-à-dire que comme dans le cas précédent, il devient géré par l’Autonomic Manager pair à la différence cependant que l’Autonomic Manager subordonné abandonne toute intelligence concernant la gestion distribuée au profit de l’Autonomic Manager distant, ne devenant qu’un agent de monitoring et d’exécution de ce dernier. Ce mode peut être utile dans le cas où un des deux hôtes possède une très faible capacité de calcul (un capteur par exemple), ne pouvant ainsi pas prendre en charge plus que des décisions purement locales. 652. Architecture de l’ATL Plan de modification Une fois la décision prise sur les actions à entreprendre, le plan de modification contient la suite des actions à engager. Il décrit, point par point, quelles sont les modifications à faire, dans quel ordre, et si des conditions de transitions sont à respecter. La variété d’actions de reconfiguration possibles à entreprendre est a priori colossale, d’autant que celles-ci peuvent être spécifiques à certains composants protocolaires. Par exemple, la décision de désactiver l’algorithme de Nagel peut-être prise au sein de TCP ou de SCTP, mais n’a aucun sens dans le cas d’UDP. Si cet exemple représente une décision locale sans impact sur le pair distant de la communication, certaines reconfigurations nécessiteront par contre de synchroniser les deux Flow. Le déploiement ou le remplacement d’un ou plusieurs composants protocolaires par exemple, comme la transition de TCP vers DCCP, donne lieu à une évidente synchronisation. Le plan doit donc être organisé en étapes que chaque Autonomic Manager suivra à un rythme dépendant de leur organisation relative (cf. 2.2.3.2). Le plan mis à disposition de chacun peut différer. En effet, les actions à entreprendre ne sont pas forcément les mêmes sur chacun des deux Flow. Ainsi, chaque Autonomic Manager n’a besoin que de la connaissance de son propre plan. Ceux-ci acquièrent le dit plan par différents moyens selon la manière dont les décisions sont prises (cf. 2.2.3.2). En effet, si le mode retenu est la collaboration, chaque Autonomic Manager mettra en place son propre plan, via une négociation conjointe avec son pair. Dans le mode participatif ou subordinatif, l’Autonomic Manager maître est en charge de mettre le plan de chacun en place, puis le transmettre à son subordonné une fois ceci fait. 2.2.3.3 Le Data Plan Afin d’accueillir les instances des différents composants protocolaires, le composant géré par l’Autonomic Manager, le Data Plan, est composé de plusieurs élé- ments permettant l’assemblage et la manipulation de ceux-ci. Ces éléments sont représentés sur la figure 2.7. Le Channel Le composant principal du Data Plan est le Channel. C’est au sein de celui-ci que sera instancié le service composite qui aura la charge de gérer la communication. Un Channel n’est pas nécessairement unique. En effet, plusieurs Channel peuvent être instanciés au même moment, contenant des services composites différents, notamment dans certains scénarios de reconfiguration. Ainsi, chaque Channel possède un identifiant, permettant de savoir quel message doit être traité par quel Channel. Les composants prenant place dans le Channel sont les composants protocolaires. Tout service composite se compose d’un composant protocolaire de type protocole et d’autant de composants protocolaires de type micro-protocole que nécessaire. 662.2. Architecture de l’ATL Figure 2.7: La composition du Data Plan Ceci implique que les protocoles existants dans les systèmes actuels soient convertis en composants protocolaires pour être intégrés à l’ATL. Le cœur du protocole n’a pas à être modifié. Seule sa manière de communiquer avec le reste de la pile réseau du système doit être adaptée. Ainsi, au lieu d’être directement relié à l’application et au protocole de la couche réseau, le protocole de Transport devra récupérer les messages depuis les micro-protocoles situés au-dessus et audessous de lui dans le Channel dans lequel il prend place. Ceci peut être fait soit en reliant directement les interfaces de chaque composant protocolaire directement, soit en utilisant le Channel comme ordonnanceur. Celui-ci aurait alors la charge de faire transiter le message de composant en composant, récupérant ce dernier après chaque traitement pour le passer au suivant. 672. Architecture de l’ATL Multiplexeur-démultiplexeur Afin de permettre l’aiguillage entre les diffé- rents Channel, quand plusieurs sont présents, un multiplexeur-démultiplexeur prend position entre les Channel et l’interface vers l’application, et entre les Channel et l’interface vers le réseau. Ceux-ci effectuent leurs tâches grâce aux identifiants des différents Channel, qui ont été préalablement estampillés dans les messages. Buffers Lorsqu’un message arrive de l’application ou du réseau, il est placé dans un buffer en attendant d’être pris en charge par le multiplexeur-démultiplexeur qui l’aguillera vers le Channel adéquat. Ces buffers jouent le rôle de tampon entre l’application et les Channel ainsi qu’entre les Channel et le réseau, afin d’absorber les différences de rythme entre chaque couche. Ce sont également eux qui sont en charge d’estampiller chaque message entrant avec l’identifiant de Channel qui doit les traiter, puis de retirer l’estampille à la sortie du Data Plan, afin que celle-ci n’interfère pas avec les applications (principalement les applications legacy), avec le réseau (car on créerait alors une sorte de nouveau protocole, qui ne serait pas reconnu partout), et avec le système distant (principalement les systèmes legacy). Channel Manager Ce composant est le relais de l’Autonomic Manager au sein du Data Plan. C’est lui qui remonte les différentes informations de monitoring à l’Autonomic Manager, mais également qui gère les créations et les modifications de Channel selon les ordres de l’Autonomic Manager. Il possède également la capacité de mettre les multiplexeurs-démultiplexeurs en pause afin de geler la communication, et de notifier ceux-ci ainsi que les buffers des identifiants des nouveaux Channel, afin d’estampiller et d’aiguiller correctement les nouveaux messages, en fonction des Channel présents. 2.2.3.4 Intégrateur des services et base de connaissances La fonctionnalité de gestion des services (cf. 2.1.4.1) est notamment prise en charge par la base des composants et services et par l’intégrateur de services. Ceuxci permettent d’effectuer la correspondance entre services et composants protocolaires, ce qui peut impliquer le cas échéant une négociation avec l’hôte distant — si celui-ci dispose également de l’ATL. Correspondances entre services et composants La correspondance entre les composants protocolaires disponibles et les services qu’ils offrent est nécessaire pour la traduction des requêtes applicatives constituées de services, en solution protocolaire potentiellement composite permettant de satisfaire ces requêtes. Pour ce faire l’ATL dispose d’une base répertoriant ces services et comportant pour chaque composant protocolaire donné, la description du service qu’il offre. 682.2. Architecture de l’ATL L’Autonomic Manager de chaque Flow peut y effectuer une requête permettant de récupérer le ou les composants susceptibles de satisfaire tout ou partie des services requis — le cas d’un service partiellement couvert par un composant pouvant être pallié par sa composition avec un ou plusieurs autres fournissant les services manquants. L’intégration de nouveaux composants doit permettre leur utilisation immé- diate par les différentes applications, et donc par les différents Flow de l’ATL. Ainsi, le rôle de l’intégrateur est de maintenir la base des composants et services afin que chaque nouveau composant installé sur le système voit la description du service qu’il offre être mis à disposition des Autonomic Manager pour leurs prises de décision futures. 2.2.4 Composants secondaires 2.2.4.1 Flow Creator La création d’un Flow est effectuée par le Flow Creator. C’est lui qui reçoit les demandes de création, correspondant à l’ouverture des différents points d’accès au service de Transport, que ceux-ci soient ouverts par des applications legacy, aware ou smart. Il lui incombe donc d’intercepter les appels de méthodes classiques afin de rediriger leur prise en charge vers l’ATL, ce qui implique une modification de l’implémentation de l’API socket classique, de manière à ce que les applications legacy ne soient pas modifiées, mais appellent tout de même l’ATL (à leur insu) lors de l’ouverture de sockets. Cette API devra également être étendue afin de prendre en compte les spécificités des applications aware et smart. C’est lui également qui récupère les différentes informations passées par l’application à la création du point d’accès, comme le protocole de Transport désiré par les applications legacy ou les spécifications de besoins en qualité de service pour les applications aware ou smart, ainsi que d’éventuelles contraintes supplémentaires pour les applications smart. On voit directement sur la figure 2.3 que le Flow Creator est une nouvelle manière d’implémenter la partie Transport de l’API socket classique pour le cas des applications legacy et dans le contexte de l’ATL. Dans le cas des applications aware et smart, le Flow Creator est l’implémentation des nouvelles fonctionnalités des extensions d’API, ou de la nouvelle API, nécessaire au fonctionnement de ces nouveaux types d’applications. 2.2.4.2 Signalization Message Controler Le composant suivant présent sur la figure 2.3 est le Signalization Message Controler (SigMsgCtrlr). Ce composant est chargé de l’échange des messages de 692. Architecture de l’ATL gestion entre deux instances de l’ATL, concernant des informations sur l’état global de l’ATL sur l’hôte distant et non pas sur l’état d’un Flow en particulier. Si les deux systèmes impliqués dans une communication disposent de l’ATL, un Autonomic Manager désirant avoir une information sur l’ATL du système distant, comme par exemple la liste des services instanciables sur ce système, adressera cette requête à son Signalization Message Controler qui la reliera à celui du système distant. Si au contraire l’Autonomic Manager souhaite avoir une information concernant précisément le Flow distant auquel il est relié, telle que des informations de monitoring de la communication, il devra directement s’adresser à l’Autonomic Manager de ce Flow. C’est notamment le Signalization Message Controler qui aura la charge de découvrir si l’ATL est présente sur une machine distante à laquelle on souhaite se connecter. Afin d’économiser certaines ressources système et réseau ainsi que temporelles, ce composant peut embarquer des fonctions de cache, gardant en mémoire certaines des informations qu’il a déjà découvertes, afin de les distribuer à un Autonomic Manager les requérant sans avoir besoin qu’un message de requête ne parcourt le réseau. 2.2.4.3 Multiplexage-démultiplexage entre couche réseau et Flow Le dernier composant est un multiplexeur-démultiplexeur se situant entre les Flow et la couche réseau. Son rôle est de récupérer les différents messages provenant du réseau afin de les aiguiller vers le Flow adéquat. Pour une telle opération, les Flow doivent avoir un adressage leur permettant d’être différenciés au sein de la machine. Dans un premier temps nous voyons comment fonctionne ce type d’adressage dans les systèmes actuels avant de proposer une manière d’adresser les Flow de l’ATL. Adressage dans les systèmes actuels Sur un système legacy, un socket est identifié, en mode connecté, selon le flux auquel il appartient. Or un flux est défini par le quintuplet : (@IPsrc, @IPdest, protocole de Transport, portsrc, portdest). En mode non connecté, un socket est défini par le triplet (@IPdest, protocole de Transport, portdest). Le passage au protocole de Transport est assuré par la couche réseau. Le passage au socket est assuré alors par le protocole de Transport selon le numéro de port. Une fois le paquet arrivé sur le système hôte, l’identification locale réside donc dans le couple (protocole de Transport, portdest). Dans le cas de l’ATL cependant, tout message échangé entre deux Flow ne comporte pas toujours ces informations, comme les messages de gestion échangés entre Autonomic Manager par exemple. De plus, le service composite étant variable, le protocole utilisé dans celui-ci peut également varier, rendant obsolète le couple (protocole de Transport, portdest) pour l’identification d’un Flow dans l’ATL. 702.2. Architecture de l’ATL Adressage d’un Flow Un Flow est associé à un et un seul point d’accès au service de Transport, et réciproquement. Adresser un Flow revient donc à adresser le point d’accès associé. Un Flow comportant toujours un composant protocolaire de type protocole, et celui-ci utilisant alors un numéro de port, le couple (protocole de Transport, portdest) peut être utilisé par l’ATL pour aiguiller les paquets arrivant de la couche réseau vers le Flow correspondant. Cependant, lorsque l’Autonomic Manager n’a pas encore statué sur le protocole de Transport à utiliser, ni l’une ni l’autre des deux valeurs du couple précédemment cité n’est encore disponible. Pourtant, certains messages à destination du Flow peuvent déjà être émis et reçus, comme ceux permettant la négociation du service composite qui sera à instancier, négociation qui permettra à l’Autonomic Manager de décider du protocole de Transport à utiliser par la suite. Ceux-ci doivent disposer d’une information permettant leur identification et leur démultiplexage. Si l’application ouvrant le point d’accès est une application legacy, elle fournit comme à l’heure actuelle le protocole de Transport et le numéro de port avec lesquels elle souhaite travailler. Sinon, l’application doit fournir un identifiant traduisant le service qu’elle offre à travers ce point d’accès, suivant ainsi la construction orientée service de l’ATL. Un navigateur web pourra ainsi fournir comme identifiant CLTWEB, signifiant que le point d’accès venant d’être ouvert est destiné à être client d’une communication web (utilisant http). Le système y adjoint un numéro afin de différencier différents points d’accès ouverts et offrant le même service. Ainsi, un navigateur web souhaitant charger deux pages web simulatnément ouvrira deux points d’accès (un par page), identifiés CLTWEB par l’application, et complétés par le système en CLTWEB1 et CLTWEB2. Cet identifiant est associé automatiquement grâce à une table de traduction à un couple (protocole de Transport, portdest). Par exemple, un serveur web ouvrant un point d’accès le nommera avec l’identifiant SRVWEB, qui sera automatiquement associé au couple (tcp, 80). Si l’ATL est présente sur le système distant, alors les messages de négociation de la composition en provenance de celui-ci désignerons le Flow auquel ils sont destinés via les identifiants textuels. Sinon, on déduira que le Flow vers lequel diriger les messages entrant est celui dont le couple (protocole de Transport, no port) correspond à ce que contient le message ou on utilisera ce couple comme protocole de Transport à utiliser. Ceci sous-entend le besoin de standardiser certains identifiants textuels ainsi que leur correspondance au couple (protocole de Transport, portdest), comme sont à l’heure actuelle standardisés certains de ces couples pour des utilisations particulières. Le couple (tcp, 80) est par exemple standardisé pour les communications utilisant http. L’identifiant correspondant à ce couple ainsi que cette correspondance devront également être standardisés pour permettre la transition vers l’ATL 712. Architecture de l’ATL de manière transparente. 2.3 Conclusion Ce chapitre a présenté les différents composants qui forment la structure de l’ATL. Tout d’abord, nous avons détaillé les objectifs que doit remplir l’ATL et les paradigmes de conceptions employés pour les atteindre : la conception orientée service et basée composant. Les intérêts et impacts de ces deux approches ont été notamment abordés. Dans une seconde partie, nous avons décrit les trois types de fonctionnalités qui doivent être présentes au sein de l’ATL pour assurer le bon déroulement des communications. Ces fonctionnalités peuvent être du type données, contrôle ou gestion. Puis nous avons détaillé les différents composants permettant de mettre ceci en place, d’abord à un premier niveau de décomposition, puis plus en dé- tails dans le cas des composants dits primaires, ceux qui accueillent les flux de données, mais également les composants secondaires, permettant aux premiers de fonctionner correctement. Le chapitre suivant s’attarde sur les différents comportements dont font preuve ces composants dans deux cas particuliers : celui de l’ouverture d’un point d’accès au service de Transport par l’application, quel que soit son type — legacy, aware ou smart — et celui de la reconfiguration du service composite proposé par un Flow. 72CHAPITRE 3 Description comportementale de l’ATL : cas de la création et de la reconfiguration d’un service composite Le précédent chapitre a introduit et décrit la structure composite de l’ATL, en détaillant le rôle de chacun des composants dans le but de satisfaire les objectifs fixés à la fin du chapitre 1. Dans le présent chapitre, nous décrivons le comportement des différents élé- ments précédemment introduits dans deux cas particuliers : – la création d’un point d’accès au service de Transport ; – la reconfiguration d’un Flow. Ces deux situations revêtent une importance particulière. Le premier cas mérite d’être étudié car l’ouverture d’un point d’accès avec l’ATL diffère des solutions classiques. En effet ici, la liaison avec le protocole de Transport n’est pas directe. Pourtant, les applications legacy ne doivent pas sentir de différence afin de ne pas avoir à subir de mise à jour. De plus les applications aware et smart communiquent différemment avec la couche Transport que les applications legacy. Le second cas présente un intérêt car s’il n’est pas totalement nouveau, les problématiques de reconfiguration comportementale et structurelle, abordées en 3.2, sont ici déclinées dans le contexte de flux de données de Transport et présentent des particularités. Il s’agit de plus d’une fonctionnalité centrale de l’ATL sans laquelle ses objectifs ne seraient pas atteints. 733. Description comportementale de l’ATL La première partie du chapitre décrit le cas de l’ouverture d’un point d’accès au service de Transport, et la deuxième le cas de la reconfiguration. La troisième partie aborde les problèmes de traduction d’état dans le cadre des reconfigurations, à travers la problématique du traitement des messages nécessitant des retransmissions. Sommaire 3.1 Création d’un point d’accès au service de Transport . . . . . . 74 3.1.1 Instanciation d’un Flow . . . . . . . . . . . . . . . . . 74 3.1.2 Application cliente . . . . . . . . . . . . . . . . . . . . 76 3.1.3 Application serveur . . . . . . . . . . . . . . . . . . . . 80 3.1.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . 82 3.2 Reconfiguration d’un Flow . . . . . . . . . . . . . . . . . . . . 83 3.2.1 Déroulement d’une reconfiguration . . . . . . . . . . . 83 3.3 Traitement des retransmissions lors des transitions . . . . . . . 88 3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 3.1 Création d’un point d’accès au service de Transport Cette section décrit le comportement de l’ATL dans les différents cas de figure possibles, selon le type de l’application — legacy, aware ou smart —, du système distant avec lequel on souhaite communiquer — legacy ou enabled — et selon que l’on se place du côté client (au sens initiateur) ou serveur de la communication. Une synhèse des différents cas de figure est ensuite proposée afin de simplifier le nombre de cas à prendre en compte. 3.1.1 Instanciation d’un Flow Parmi toutes les situations citées ci-dessus, certaines actions sont nécessaires dans tous les cas. Cette suite d’actions concerne l’instanciation effective du Flow afin qu’il puisse par la suite accueillir le service composite. En effet, que le système distant soit ATL-enabled ou legacy, que l’application demandant la création du TSAP soit legacy, ATL-aware ou smart, que l’on soit serveur ou client, les actions décrites ici seront toujours menées, et correspondent à la préparation du Flow. Nous appelons cette suite d’actions : comportement commun. Lorsque l’application effectue une demande de création d’un point d’accès au service de Transport (TSAP) comme dans le diagramme de la figure 3.1, elle utilise une méthode telle la méthode socket de l’API éponyme en C, ou le constructeur de 743.1. Création d’un point d’accès au service de Transport Figure 3.1: Une application de type aware ou smart ouvre un point d’accès au service de Transport via l’interface de contrôle de l’ATL la classe Socket en Java. Dans un système comportant l’ATL, ces appels à méthode de création, qu’elles proviennent des API classiques ou d’une API dédiée à l’ATL, doivent être récupérés par le Flow Creator. Celui-ci crée alors un nouveau Flow au sein de l’ATL, et le lie au TSAP. Dans le Flow sont instanciés un Autonomic Manager et un Data Plan, dédiés à ce Flow, comme décrit sur le diagramme de la figure 3.3. Une fois le Flow instancié, ainsi que son Data Plan et son Autonomic Manager, le Flow Creator communique à ce dernier les caractéristiques du service demandé par l’application. Celles-ci vont différer selon le type d’application : – Une application legacy communiquera le protocole de Transport qu’elle souhaite utiliser ainsi que le numéro de port utilisé sur le système serveur de la communication. – Une application aware communiquera les caractéristiques qu’elle souhaite voir respectées par le service ainsi que le nom du point d’accès dont elle 753. Description comportementale de l’ATL Figure 3.2: Diagramme de séquence de création d’un Flow demande la création (cf. 2.2.4.3). – Une application smart communiquera les mêmes informations qu’une application aware, ainsi qu’un certain nombre de contraintes supplémentaires, en imposant par exemple l’utilisation d’un certain protocole comme base de la composition protocolaire (cf. 2.2.1). Le Flow est alors prêt à accueillir un nouveau Channel comportant le service composite qui assurera la communication. 3.1.2 Application cliente Cette section décrit le comportement de l’ATL lorsque l’application est cliente de la connexion, c’est-à-dire qu’elle fournit à l’ATL l’adresse IP du système distant via une demande de connexion explicite — comme par exemple, pour une 763.1. Création d’un point d’accès au service de Transport Figure 3.3: Instanciation d’un nouveau Flow application legacy ouvrant un socket TCP — ou émet un message à destination du système distant — comme par exemple une application legacy utilisant UDP. 3.1.2.1 Application legacy Une application legacy doit pouvoir ouvrir un TSAP tel qu’elle l’a toujours fait, c’est-à-dire via une méthode faisant appel à l’API socket classique. Elle indique via cette méthode, le protocole de Transport ainsi que le numéro de port à utiliser. Cette méthode lui retourne ensuite ledit socket. Du point de vue de l’application, ce comportement ne doit pas être modifié. Après avoir effectué le comportement commun, l’Autonomic Manager doit, afin de décider du service composite à déployer, récupérer certaines informations. – Il connaît déjà le protocole qui lui a été demandé par l’application et peut en déduire une contrainte de décision (qui est de fait : « utiliser ce protocole ») et un type de Qualité de Service demandée (par exemple : « ordre et fiabilité totale » si TCP est demandé) ; – Ce service peut être suffisant. Cependant, il peut-être plus adéquat de le coupler à d’autres en fonction de l’évolution des conditions réseaux. – De plus, si le système hébergeant le serveur dispose de l’ATL, il peut avoir des desiderata ou des exigences quant aux composants protocolaires à utiliser pour implanter les services requis. En conséquence de quoi l’Autonomic 773. Description comportementale de l’ATL Manager doit savoir si le serveur auquel il compte se connecter dispose ou non de l’ATL également. L’application étant cliente, l’ATL dispose de l’adresse du serveur. Ainsi, l’Autonomic Manager va effectuer une demande de découverte de la présence de l’ATL sur le serveur grâce au Signalization Message Controler. Ce dernier va alors effectuer une requête auprès de son homologue sur l’ATL distante. La réponse, positive ou négative, sera alors transmise à l’Autonomic Manager requérant. Bien que d’autres solutions soient envisageables, une solution simple de mise en œuvre de la requête du Signalization Message Controler consiste à envoyer un paquet TCP de type SYN sur un port prévu à cet effet. La réception d’un SYNACK constituera alors une réponse positive, celle d’un RST une réponse négative. L’inconvénient majeur d’une telle solution consiste bien sûr en la réservation d’un numéro de port à cette utilisation. Son avantage principal, cependant, réside dans l’utilisation d’un paquet TCP, paquet qui ne sera filtré que par une minorité de middleboxes, permettant ainsi d’être compatible avec la quasi totalité du réseau existant. Quelle que soit la méthode d’implémentation retenue, la découverte doit être rapide. Un modèle simple de type requête/réponse serait alors à privilégier, limitant ainsi le temps de découverte à un RTT maximum, comme illustré sur la figure 3.4. Figure 3.4: Mécanisme de découverte de l’ATL 783.1. Création d’un point d’accès au service de Transport En cas de réponse négative (i.e. l’hôte distant ne dispose pas de l’ATL) l’Autonomic Manager doit décider seul d’un service composite utilisant le protocole requis par l’application. En effet, l’ATL n’étant pas présente sur le système distant, on peut conclure que le protocole que celui-ci utilisera est nécessairement celui demandé par l’application. Il est donc impératif de l’utiliser. Cependant, s’il le juge utile, l’Autonomic Manager peut décider d’ajouter certains mécanismes protocolaires locaux au service composite. En cas de réponse positive, l’Autonomic Manager va entrer en relation avec son pair distant sur le serveur, afin d’entamer une négociation avec celui-ci concernant la composition du service composite à mettre en place. Cette négociation concerne les composants protocolaires distribués, ceux-ci étant répartis sur les deux systèmes. Des mécanismes protocolaires locaux peuvent y être adjoints de chaque côté de la communication, si tant est que ceux-ci ne créent pas de conflit avec les composants distribués. Une fois le service composite décidé, l’Autonomic Manager va l’instancier en demandant la création d’un nouveau Channel au Channel Manager du Data Plan (cf. 3.1.1). 3.1.2.2 Application ATL-aware Une application ATL-aware ouvre un TSAP en passant la description de ses besoins en Qualité de Service (Quality of Service) (QoS) en paramètre, ainsi que le nom qu’il attribue au TSAP (cf. 2.2.4.3). Après instanciation d’un nouveau Flow, l’Autonomic Manager ne connaît que les besoins en terme de services requis par l’application ciente. Il ignore cependant sur quel protocole se baser pour répondre aux services requis. Cette question peut facilement être résolue en négociant la composition avec l’hôte distant. Ainsi : – l’Autonomic Manager va effectuer une demande de découverte au Signalization Message Controler, comme précédemment ; – tout comme dans le cas d’une application legacy, une réponse positive va donner lieu à une négociation basée sur les critères de services requis par l’application, et les éventuelles contraintes imposées par celles-ci ; – dans le cas d’une réponse négative, l’Autonomic Manager va décider d’un service composite basé sur le protocole de Transport obtenu via traduction du nom attribué au TSAP (cf. 2.2.4.3), et comportant éventuellement un ou plusieurs blocs de service locaux s’il le juge nécessaire. Dans l’exemple où un client web ATL-aware ouvre un TSAP, si le Signalization Message Controler retourne une réponse positive, les deux Autonomic Manager (i.e. : du Flow client et du Flow serveur) entamerons une négociation pouvant 793. Description comportementale de l’ATL aboutir à l’utilisation de différents protocoles comme TCP ou SCTP, cette décision pouvant différer d’une négociation à l’autre. Si le Signalization Message Controler retourne une réponse négative, l’Autonomic Manager traduit le nom du Flow, CLTWEB (cf. 2.2.4.3), en (tcp, 80), indiquant qu’il doit utiliser le protocole TCP sur le port 80. 3.1.2.3 Application smart Dans le cas d’une application smart, le comportement sera le même que précé- demment, pour une application ATL-aware, à ceci près que l’application a la possibilité d’indiquer des contraintes supplémentaires à l’Autonomic Manager dans ses prises de décisions. Toute situation ne pouvant aboutir à cause de ces contraintes devra alors être reportée à l’application. En effet, en imposant des contraintes supplémentaires, l’application reprend en charge certaines responsabilités qui seraient assumées par l’Autonomic Manager dans le cas d’une application ATL-aware. Par exemple, une application imposant le cryptage des communications en utilisant TLS [Die08] recevra une erreur si aucun composant ne prenant en charge ce protocole n’est disponible sur le système. 3.1.3 Application serveur Le comportement décrit ici recouvre les cas où l’application est le serveur de la communication, c’est-à-dire qu’elle ouvre un point d’accès disponible pour les connexions entrantes — comme pour un serveur utilisant TCP — ou des messages émis depuis d’autres systèmes distants — comme dans le cas d’une application UDP uniquement réceptrice. 3.1.3.1 Application legacy Après avoir instancié un nouveau Flow, et comme côté client, on doit tout d’abord savoir si le système distant dispose de l’ATL. Cependant, cette fois, on ne dispose pas de l’adresse du client. Ainsi, les deux cas de figures suivants se présentent. 1. Le client (distant) dispose de l’ATL. Celui-ci a émis une requête de découverte afin de savoir si le serveur dispose de l’ATL. Celle-ci est récupérée par le Signalization Message Controler qui y répond positivement. Par la suite, le client contacte l’Autonomic Manager du Flow adéquat sur le serveur pour négocier le service composite. Le Flow dans lequel se situe cet Autonomic Manager est désigné par le nom de service qu’aura spécifié l’application cliente à l’ouverture de son TSAP (cf. 3.1.2.1). 803.1. Création d’un point d’accès au service de Transport 2. Le client ne dispose pas de l’ATL. Le premier message en provenance de celui-ci est alors récupéré et analysé par le multiplexeur-démultiplexeur situé entre les Flow et la couche réseau afin de déterminer le protocole de Transport utilisé par le client. Celui-ci doit normalement être le même que celui que nous a imposé l’application serveur lorsqu’elle a ouvert le TSAP. Ce TSAP correspond alors à un Flow notamment identifié par ce protocole de Transport et par un certain numéro de port. Le message sera alors dirigé vers le Flow identifié par le protocole de Transport et le numéro de port utilisés dans son en-tête. Dans le premier cas, la négociation a été engagée par le client afin de décider la partie distribuée du service composite à instancier, sur laquelle bâtir également la partie locale le cas échéant. Dans le second, on peut directement décider d’une composition locale basée sur le protocole demandé. 3.1.3.2 Application ATL-aware Le comportement est ici similaire au cas précédent, à la différence que, comme côté client pour une application ATL-aware (cf. 3.1.2.2), on ne dispose que des besoins en terme de services de l’application. Si on reprend les deux cas précédents, qui s’appliquent également ici, on remarque que rien ne change dans le premier de ces cas, mais que dans le second, le Flow de l’application serveur ne dispose pas d’un couple (protocole de Transport, n o de port) pour l’identifier — l’application utilisant un nom de service comme décrit dans 2.2.4.3. Dans le premier cas, le Flow vers lequel diriger le message de négociation de l’Autonomic Manager du client a été déterminé par ce nom de service. Dans le second, on ne dispose que du couple (protocole de Transport, no de port destination). La correspondance avec le nom de service du Flow auquel diriger ce message se trouve alors dans la table de traduction introduite en 2.2.4.3. 3.1.3.3 Application smart Comme côté client, deux cas se présentent ici : 1. si l’application a imposé le protocole à utiliser, le comportement sera le même que pour une application legacy ; 2. sinon, le comportement sera le même que pour une application ATL-aware. L’observation de cette dichotomie simple dans le cas d’une application serveur donne lieu à la classification alternative décrite à la section 3.1.4. 813. Description comportementale de l’ATL 3.1.4 Synthèse On remarque dans les deux sections précédentes que le comportement de l’ATL à la création d’un point d’accès au service de Transport est conditionné à deux paramètres indépendants, et donne donc lieu à quatre cas. Ces deux paramètres sont : 1. la connaissance que le système a de l’adresse IP du système distant avec lequel communiquer : – une application cliente connaît l’adresse IP du système distant, – une application serveur ne la connaît pas ; 2. le fait que l’application impose ou non le protocole de Transport à utiliser : – une application legacy l’impose, – une application aware ne l’impose pas, – une application smart peut ou non l’imposer. Quel que soit le cas, la première action à effectuer est bien évidemment d’instancier un Flow grâce au Flow Creator. Par la suite, les actions à mener vont donc être les suivantes. On dispose de l’adresse IP du système distant. Dans ce cas, la première action à effectuer est de lancer la procédure de découverte de l’ATL sur le système distant via le Signalization Message Controler. Si la réponse est positive, on peut immédiatement entamer une procédure de négociation du service à mettre en place. Sinon l’Autonomic Manager doit décider d’une composition utilisant des mécanismes protocolaires locaux, basée sur le protocole de Transport déterminé : – par l’application si celle-ci nous l’a imposé (comme le ferait une application legacy) ; – grâce à la table de traduction si l’application a seulement nommé le point d’accès au service de Transport (comme le ferait une application aware). On ne dispose pas de l’adresse IP du système distant. Dans ce cas on doit adopter un comportement « serveur » et attendre un message entrant afin de connaître l’identité du pair de la communication. Soit le premier message reçu est un message de négociation de service, et le système distant dispose donc de l’ATL. On dirige ce message vers le Flow identifié par le nom correspondant au nom de service véhiculé dans le message. On peut alors poursuivre avec lui la négociation. Soit le message reçu est un message de données et on déduit alors que le système distant ne dispose pas de l’ATL. On dirige alors le message vers le Flow correspondant au couple (protocole de Transport, no de port) du message entrant car le Flow est ainsi identifié par l’application ou via la table de traduction. On peut alors décider d’une composition locale. 823.2. Reconfiguration d’un Flow Dans tous les cas, une fois ces étapes effectuées, on peut instancier la composition et démarrer la communication. 3.2 Reconfiguration d’un Flow Une fois le service composite instancié et la communication établie, les conditions dans lesquelles ce service travaille peuvent varier. Ainsi non seulement les objectifs de qualité de service de l’application peuvent être modifiés par celle-ci, mais l’environnement réseau est par nature dynamique et peut donner lieu à des modifications importantes de ses caractéristiques, ne permettant plus à un service donné d’atteindre les objectifs pour lesquels il a été choisi. Dans une telle situation, la solution réclame la reconfiguration, plus ou moins en profondeur, du dit service. On observe principalement deux types de reconfiguration. 1. La première, dite reconfiguration « comportementale », consiste à ne pas modifier le service composite dans sa structure, c’est-à-dire, dans le cas de l’ATL, conserver les mêmes composants protocolaires, mais interviendra sur les paramètres de ces derniers afin d’altérer leur fonctionnement. Ainsi, modifier la valeur maximum que peut prendre le Retransmission Time Out (RTO) dans TCP constitue un exemple de reconfiguration comportementale. 2. La seconde est une reconfiguration dite « structurelle ». Celle-ci implique que la structure du service composite va être modifiée par l’ajout, la suppression ou le remplacement d’un ou plusieurs composants protocolaires. On peut par exemple ainsi décider de ne plus utiliser SCTP au cours d’une communication pour le remplacer par MPTCP, car l’apparition de middleboxes bloquerait alors SCTP. Cette section aborde la problématique de la reconfiguration en décrivant le comportement de l’ATL pour mener à bien les différents cas. 3.2.1 Déroulement d’une reconfiguration 3.2.1.1 Classification des cas de reconfiguration possibles Il existe deux cas de reconfiguration : – comportementale, où l’on modifie un ou plusieurs paramètres uniquement ; – structurelle, où l’on va modifier la composition en changeant un ou plusieurs composants protocolaires, ceci selon deux possibilités : – l’ajout ou le retrait des composants protocolaires concernés, – le déploiement de la nouvelle composition dans un nouveau Channel si la précédente méthode est impossible. 833. Description comportementale de l’ATL Le choix de l’une ou l’autre de ces deux possibilités peut par exemple être influencé par la manière dont on souhaite traiter les messages à retransmettre (cf. 3.3). Dans le troisième cas ci-dessus deux méthodes peuvent être utilisées pour dé- ployer la nouvelle composition : séquentielle ou parallèle. – Avec la première méthode, on déploie le nouveau Channel séquentiellement dans le temps. C’est-à-dire que l’Autonomic Manager va d’abord devoir attendre que le Channel courant ait terminé son exécution avant de la détruire puis de déployer le nouveau Channel. – La seconde méthode consiste à déployer et démarrer la nouvelle composition alors que la précédente finit son travail. Ainsi, les nouveaux envois de données passent par la nouvelle composition pendant que les retransmissions passent par l’ancienne. Ces deux méthodes sont opposées sur deux points : l’overhead temporel et l’utilisation mémoire. – Sur les systèmes très contraints en ressources, la méthode parallèle peut s’avérer coûteuse. – Cependant, la première présente l’inconvénient de devoir attendre la fin du premier Channel avant de démarrer le suivant. Si le premier instancie un service composite dont le temps d’arrêt est non déterministe, le coût en temps peut rapidement devenir trop important. 3.2.1.2 Suivi du plan de reconfiguration Toute reconfiguration se déroule en une succession d’étapes définies par le plan d’exécution qui a été décidé par la fonction de planification des Autonomic Manager selon leur organisation. Certaines étapes du plan nécessitent une synchronisation des deux Flow pour être effectuées. Afin de permettre l’adaptation à une grande variété d’actions possibles et à venir, notamment due à l’importante multiplicité des composants protocolaires et des versions de ceux-ci que permet l’ATL, le protocole de synchronisation des actions doit être le plus simple possible, laissant au plan lui-même le soin d’encapsuler la complexité. Ce type de décomposition de la complexité est déjà utilisé depuis longtemps pour la gestion de réseaux avec le protocole SNMP, possédant un nombre réduit de commandes génériques, et permettant d’aller interroger des bases de données spécifiques et potentiellement complexes, les Management Information Base (MIB) [Pre02]. Selon un principe similaire, nous proposons ici les messages suivant pour le protocole : 843.2. Reconfiguration d’un Flow – setPlan, permettant à l’Autonomic Manager décisionnaire d’imposer le plan à l’autre ; – nextStep, permettant à l’Autonomic Manager décisionnaire d’ordonner le passage à la réalisation de l’étape suivante à l’autre Autonomic Manager, celui-ci étant bloqué en attendant cet ordre ; – stepAck, permettant à un Autonomic Manager d’informer la réalisation d’une étape à l’autre Autonomic Manager. Le but de ces messages est uniquement de permettre la synchronisation d’étapes interdépendantes. Dans le cas d’Autonomic Manager collaboratifs (cf. 2.2.3.2), le plan n’est pas imposé par un Autonomic Manager sur l’autre, il est décidé par consensus. De la même manière, aucun n’autorise l’autre à passer à l’étape suivante, chacun informe l’autre de son état d’avancement dans la réalisation, et s’auto-débloque lorsqu’il le juge approprié. Ainsi le protocole reste générique en n’encodant absolument aucune des commandes spécifiques aux différents composants protocolaires utilisables par une ATL ou l’autre. Ces commandes sont indiquées dans le plan de reconfiguration, à chaque étape. La commande nextStep du protocole de reconfiguration permet donc de passer à la commande suivante à exécuter, quelle que soit celle-ci. Le protocole de reconfiguration devient ainsi scalable vis-à-vis du nombre de composants protocolaires possibles. La figure 3.5 montre le déroulement d’une reconfiguration dans le cas où un des deux Autonomic Manager orchestre l’opération. 3.2.1.3 Déroulement selon les cas Nous allons ici décrire le déroulement de chacun des quatre cas de reconfiguration : 1. comportemental ; 2. par ajout ou retrait d’un composant protocolaire dans un Channel existant ; 3. par déploiement d’un nouveau Channel en série ; 4. par déploiement d’un nouveau Channel en parallèle. Reconfiguration comportementale Le processus de décision distribué entre les Autonomic Manager a statué pour une reconfiguration comportementale, c’est- à-dire pour la reconfiguration d’un ou plusieurs paramètres au sein d’un ou plusieurs composants protocolaires du Channel en cours d’exécution. C’est à ce processus de décision de décider si les actions à entreprendre sur ces différents paramètres doivent respecter un certain ordre d’exécution s’il y en a plusieurs, pour des raisons de dépendance par exemple. 853. Description comportementale de l’ATL Figure 3.5: Suivi du plan de reconfiguration Chaque paramètre sera modifié via l’invocation d’une méthode appropriée du Channel Manager. Celui-ci, sur cet ordre, invoque la procédure de modification correspondante publiée par le composant à modifier. Nous pouvons ici remarquer qu’une modification de paramètre du point de vue des Autonomic Manager peut aboutir à une reconfiguration structurelle interne du composant protocolaire ciblé. En effet, si le composant est lui même un ensemble composite, sa composition représente un de ses paramètres. Modifier celle-ci revient à modifier ce paramètre, sans modifier la structure protocolaire du Channel, du point de vue de l’ATL, même s’il s’agit, du point de vue du composant concerné, d’une restructuration interne. L’utilisation d’ETP comme protocole au sein du Channel est un exemple de cette situation. En effet, modifier la composition du service interne d’ETP s’effectue en changeant le fichier de description de composition de ce service, donc via un changement de paramètre, du point de vue de l’Autonomic Manager. Cette modification va cependant initier une procédure de reconfiguration au sein d’ETP, 863.2. Reconfiguration d’un Flow qui possède un tel système de synchronisation avec l’entité ETP distante. Cette reconfiguration prenant du temps, il peut être nécessaire d’attendre qu’elle soit terminée avant d’effectuer l’action de reconfiguration (de niveau ATL) suivante. Retrait/ajout d’un composant protocolaire au sein d’un Channel existant Afin de modifier la composition protocolaire d’un Channel, par ajout et/ou retrait d’un composant, il est nécessaire de mettre ce Channel en pause le temps d’effectuer la modification. La première opération à effectuer sera donc le gel des Channel, à commencer par le Channel émetteur de données, puis par le récepteur. Si les deux Channel émettent chacun, alors ils doivent mettre en pause leur capacité d’émission mais toujours être capables de recevoir des données. Pour cela, les Channel Manager ont la possibilité d’ordonner le gel de la transmission des messages depuis les buffers vers le Channel concerné aux multiplexeurs/démultiplexeurs du Data Plan. Ceux-ci vont alors cesser de transmettre les messages depuis les buffers vers les Channel, permettant à ceux-ci de vider les messages en cours de traitement. Par la suite, les Autonomic Manager vont retirer ou ajouter les différents composants protocolaires prévus, éventuellement de manière synchronisée, via une méthode d’ajout ou de retrait fournie par le Channel Manager. Celui-ci retire le composant protocolaire concerné, ou insère une nouvelle instance du composant protocolaire demandé à l’emplacement désiré. Ces modifications effectuées, les Autonomic Manager synchronisent le redémarrage des capacités réceptrices de leurs Channel, puis, par la suite, leurs capacités émettrices, par le déblocage de l’activité des multiplexeurs/démultiplexeurs. Déploiement d’un nouveau Channel en série Cette opération consiste à déployer un service composite au sein d’un nouveau Channel après avoir détruit le Channel actuellement en cours d’exécution. Tout d’abord, les deux Autonomic Manager synchronisent l’arrêt de leur Channel respectif, en mettant la communication en pause, comme précédemment. A ce moment, les Channel doivent terminer leurs envois et éventuelles retransmissions. Afin que cette étape ne s’éternise pas au détriment de la QoS demandée, il est important que l’Autonomic Manager puisse signifier un temps maximum d’attente au delà duquel la destruction du Channel est effectuée, travail terminé ou non. Ce temps doit donc être calculé en fonction de l’impact négatif causé par un arrêt prématuré du Channel, et indiquant le moment ou cet impact est plus faible que celui causé par l’attente de l’arrêt total de celui-ci. Une fois le travail du Channel terminé (ou le temps d’attente maximal atteint), celui-ci est détruit par le Channel Manager, qui le remplace ensuite par un nouveau Channel, contenant le nouveau service composite. De manière synchrone 873. Description comportementale de l’ATL à nouveau, les deux Autonomic Manager vont redémarrer la communication, les messages étant alors traités par le nouveau Channel. Déploiement d’un nouveau Channel en parallèle Cette opération similaire à la précédente, déploie le nouveau Channel et le démarre en parallèle de l’ancien qui finit son travail. Chaque Autonomic Manager doit synchroniser le numéro de séquence à partir duquel les messages doivent transiter par le nouveau Channel, par exemple en l’incluant dans le plan de reconfiguration. Si le nouveau Channel n’est pas encore déployé de chaque côté alors que ces messages doivent être envoyés, ils doivent être mis en tampon dans les buffers en attendant le démarrage du Channel. Les Autonomic Manager doivent en parallèle gérer la création du dit nouveau Channel, puis, de manière synchrone, le démarrer. Tout nouveau message dont le numéro de séquence est supérieur au numéro de séquence limite doit être traité par ce nouveau Channel. L’ancien Channel continue pendant ce temps d’effectuer son travail, et donc les éventuelles retransmissions. Une fois le travail de celui-ci effectué, il est détruit. 3.3 Traitement des retransmissions lors des transitions Toute reconfiguration réclame une certaine continuité dans le service fourni. Pour cela, le nouveau service déployé doit démarrer dans un état correspondant à celui du service qu’il remplace, au moment de la prise de relai de ce dernier. Nous allons illustrer cette problématique dans cette partie à travers l’exemple de la retransmission de messages, initialement émis avant la reconfiguration mais dont la retransmission devrait être effectuée après celle-ci. Pour ceci, nous caractérisons l’environnement à un instant donné par la paire E = {B, C} où B représente l’ensemble des besoins en qualité de service demandés par l’application, et C les contraintes imposées par le réseau. Afin de répondre à cet environnement, l’ATL va mettre en place un service S correspondant. Tous les messages doivent-ils cependant transiter par le même service ? Un message est émis avec les besoins de l’application au moment où celle-ci le soumet à l’émission, mais avec les contraintes du moment où il est réellement transféré au réseau. Ceci signifie que l’environnement donné pour un message est défini en deux temps : les besoins B au moment où l’application le soumet à l’ATL, et les contraintes C par la suite lorsque l’ATL le retire des buffers pour le faire transiter dans le Channel. Ainsi, si les besoins correspondant à ce message ne vont pas varier entre la transmission initiale et la retransmission du message, 883.3. Traitement des retransmissions lors des transitions les contraintes peuvent, elles, différer entre ces deux instants, les conditions du réseaux étant dynamiques. Cas d’une retransmission idéale Nous discutons ici de la solution idéale à adopter, dans le cas de systèmes sans limite de ressources et où les temps de reconfiguration sont négligeables. Du paragraphe précédent, on déduit que ce sont les raisons du changement d’environnement qui vont conditionner le service qui servira à retransmettre les messages le nécessitant. Bien sûr, les messages dont la première émission prend place après la reconfiguration, seront retransmis (si tant est que le nouveau service le prévoit) par le nouveau service. Seuls sont concernés les messages initialement transmis par l’ancien service. Changement de besoins Avant reconfiguration, nous nous trouvons dans la situation E1 = {B1, C1}. Le changement de besoins modifie donc l’environnement en E2 = {B2, C1} les contraintes n’ayant pas changé. Les messages ayant été initialement transmis par le service S1, répondant à l’environnement E1, ont donc été soumis à l’émission par l’application durant l’environnement E1. Les besoins qui leur sont associés sont donc les besoins B1. Les contraintes n’ayant pas changé et étant toujours C1, ces messages, au moment de leur émissions correspondront toujours à l’environnement E1. Ils devraient donc dans l’idéal être retransmis avec l’ancien service, S1. Ceci est possible dans l’idéal, car le système, n’ayant pas de limite de ressources, peut déployer S2 en parallèle de S1. Changement de contraintes Avant reconfiguration, nous nous trouvons dans la situation E1 = {B1, C1}. Le changement de contraintes modifie donc l’environnement en E2 = {B1, C2} les besoins n’ayant pas changé. Les messages ayant été initialement transmis par le service S1, répondant à l’environnement E1, ont donc été soumis à l’émission par l’application durant l’environnement E1. Les besoins qui leur sont associés sont donc les besoins B1. Les besoins n’ayant pas changé et étant toujours B1, ces messages, au moment de leur émissions correspondront maintenant à l’environnement E2. Ils devraient donc dans l’idéal être retransmis avec l’ancien service, S2. On peut donc dans ce cas opter pour une reconfiguration par modification du service en place, le transformant de S1 à S2, l’ancien service n’ayant plus d’utilité. Changement de besoins et de contraintes Nous ne considérons ici que le changement de besoins et de contraintes peut-être simultané. Dans les faits, il peut 893. Description comportementale de l’ATL être considéré comme tel à cause de la latence induite par la fonction de Monitoring. Avant reconfiguration, nous nous trouvons dans la situation E1 = {B1, C1}. Le changement de situation modifie donc l’environnement en E2 = {B2, C2} les besoins et les contraintes ayant changé. Les messages ayant été initialement transmis par le service S1, répondant à l’environnement E1, ont donc été soumis à l’émission par l’application durant l’environnement E1. Les besoins qui leur sont associés sont donc les besoins B1. Les contraintes ont cette fois changé et sont à présent C2 ainsi ces messages, au moment de leur émission correspondront toujours à un environnement E3 = {B1, C2} pour lequel il n’existe pas de service. Ils devraient donc dans l’idéal être retransmis avec un service, S3 temporaire uniquement dédié à leur retransmission. Ceci est possible dans l’idéal, car le système, n’ayant pas de limite de ressources, peut déployer S3 en parallèle de S2 et détruire S1, devenu inutile, ou modifier ce dernier en S3 si possible. Considérations sur les cas réels Bien évidemment, les systèmes possèdent des limites et les temps de reconfiguration selon les réseaux considérés, ne pourront pas toujours être vus comme négligeables. Ainsi, ces trois solutions sont une simple base sur laquelle construire des prises de décisions plus poussées, prenant en compte des variables plus complexes. En effet, si le déploiement de deux services en parallèle est impossible, que faire de ces messages ? Doit-on les envoyer avec le nouveau service, et donc avec un service n’étant pas forcément parfaitement approprié ? Ou doit-on considérer leur retransmission d’une importance moindre dans le nouveau contexte et l’abandonner, tout en détruisant l’ancien service ? Ces questions ne sont que quelques exemples de la complexité de la question de la prise de décisions, centrale dans un système comme l’ATL. Ce thème de la décision réclame à lui seul un étude ultérieure poussée et exhaustive. 3.4 Conclusion Dans ce chapitre nous avons présenté le comportement des différents composants de l’ATL dans deux cas particuliers : l’ouverture d’un point d’accès et la reconfiguration d’un service au sein d’un Flow. Ceci nous a permis de mettre en lumière différents cas possibles en fonction des systèmes, des applications et des choix faits ou faisables par l’ATL, offrant ainsi tout un panel de solutions pour répondre à un maximum de situations. Nous avons ensuite, à travers l’exemple de la retransmission de messages, illustré la problématique de la transition d’un service à un autre et levé des interrogations concernant la complexité du système de décision que réclame un système tel que l’ATL. 90CHAPITRE 4 Expérimentations et mesures Dans ce chapitre, nous détaillons des expériences en simulation et émulation qui ont permis la mise en évidence de l’intérêt d’une solution tel que l’ATL, ainsi que son coût potentiel. Dans une première partie, nous décrivons une simulation dans laquelle nous combinons MPTCP avec différents mécanismes de fiabilité partielle afin de tirer partie des capacités multi-chemins du protocole à des fins d’amélioration d’une transmission vidéo. Cette simulation nous permet ainsi de confirmer l’intérêt de combiner un protocole donné avec des mécanismes externes afin de moduler le service offert par celui-ci. Dans une deuxième partie, nous décrivons une simulation dans laquelle un changement d’environnement survient en milieu de communication — une transmission vidéo — à laquelle le système réagit en modifiant la composition protocolaire, basée sur MPTCP. Les résultats sont ensuite comparés au cas témoin où la composition protocolaire reste inchangée, afin de montrer le bénéfice induit. Enfin, la troisième partie de ce chapitre présente une illustration du coût d’une solution telle que l’ATL, en étudiant le cas du protocole de synchronisation d’ETP, dont les similitudes architecturales avec l’ATL ont été montrées au chapitre 2. Sommaire 4.1 De la composabilité des protocoles . . . . . . . . . . . . . . . . 92 4.1.1 But de l’expérience . . . . . . . . . . . . . . . . . . . . 92 4.1.2 Description de l’expérience . . . . . . . . . . . . . . . . 93 4.1.3 Analyse des résultats . . . . . . . . . . . . . . . . . . . 97 4.1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . 101 4.2 De l’intérêt de l’adaptation dynamique . . . . . . . . . . . . . 102 4.2.1 But de l’expérience . . . . . . . . . . . . . . . . . . . . 103 914. Expérimentations et mesures 4.2.2 Description de l’expérience . . . . . . . . . . . . . . . . 103 4.2.3 Analyse des résultats . . . . . . . . . . . . . . . . . . . 104 4.2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . 105 4.3 De l’overhead de la signalisation . . . . . . . . . . . . . . . . . 106 4.3.1 But de l’expérience . . . . . . . . . . . . . . . . . . . . 106 4.3.2 Description de l’expérience . . . . . . . . . . . . . . . . 107 4.3.3 Résultats attendus . . . . . . . . . . . . . . . . . . . . 114 4.3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . 116 4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 4.1 De la composabilité des protocoles Cette section du chapitre propose d’étudier l’intérêt de coupler protocoles existants et micro-protocoles afin de permettre une meilleure satisfaction des besoins en qualités de service de l’application, par rapport à l’utilisation du protocole seul. Pour ceci nous prenons l’exemple d’une application de streaming vidéo communiquant via un réseau de type 3G sur des terminaux comportant plusieurs interfaces. Afin d’en tirer parti, nous utilisons un protocole multi-domicilié, MPTCP, et le composons avec des mécanismes de fiabilité partielle. 4.1.1 But de l’expérience Le but de cette expérience est de démontrer l’intérêt de coupler des mécanismes protocolaires dédiés à certaines tâches, et génériques, afin d’être réutilisables, avec des protocoles standards. Le but n’est pas d’étudier l’efficacité d’une composition de tels mécanismes avec un protocole comme le fait l’ATL, par rapport à une inté- gration d’un mécanisme au sein d’un protocole particulier, mais d’étudier l’intérêt d’un tel couplage, quelle que soit la méthode retenue. MPTCP utilise les différentes interfaces présentes sur le système, de manière concurrente, afin d’augmenter la capacité réseau disponible et réduire le délai de transmission car, étant basé sur TCP, celui-ci est lié à cette capacité. Cependant, pour cette même raison, le service offert par MPTCP est parfaitement fiable et parfaitement ordonné, rendant ainsi ses avantages moins intéressants pour des applications de type streaming multimédia, qui peuvent tolérer une certaine quantité de pertes. Le but de cette expérience est de démontrer l’intérêt de combiner des microprotocoles de fiabilité partielle avec MPTCP, afin de tirer parti de ses avantages tout en améliorant la qualité de service envers des applications pour lesquelles ce protocole ne serait pas totalement adéquat. 924.1. De la composabilité des protocoles Le caractère générique, c’est-à-dire indépendant d’un protocole particulier, de ces micro-protocoles leur permet d’être associé à d’autres protocoles, potentiellement en cours de communication (cf. 4.2). Ceci permet ainsi de mettre en évidence l’utilité de l’ATL, afin de gérer ce type de situation de manière autonome. L’expérience est menée en simulation, grâce au simulateur ns-2. 4.1.2 Description de l’expérience 4.1.2.1 Choix de l’application L’application choisie est une application de vidéo interactive basée sur le codec H.264. Ce type d’application tolère un certain niveau de perte d’information, mais requiert un délai de transit borné : les paquets dont le délai dépasse 400 ms seront considérés comme obsolètes et inutiles. Pour simuler cette application, nous utilisons une vidéo de 400 images, encodées en YUV au format QCIF, soit une résolution de 176x144. La vidéo dure 13,6 s et est émise à un rythme de 30 images par seconde. Du côté du récepteur, l’adaptation effectuée consiste à écarter les paquets dont le délai a dépassé les 400 ms. La vidéo, encodée en H.264, est composée d’images de type I, P ou B. Images I : Ces images sont autonomes. Elles peuvent être décodées indépendamment des autres. Images P : Ces images encodent uniquement les informations qui ont été modi- fiées au sein de l’image par rapport à l’image I ou P précédente qu’elle prend pour référence. Ainsi, si une image I, ou P, est perdue, toutes les images P successives qui en dépendent seront mal décodées, provoquant des erreurs d’affichage. Images B : Ces images se basent sur le même principe que les images P mais utilisent en référence une image I ou P précédente et une image I ou P suivante. Ces images sont donc fortement dépendantes du décodage correct des autres images du flux. Ainsi, toutes les images ne revêtent pas la même importance au sein du flux vidéo. La perte d’une image B sera moins pénalisante que la perte d’une image P, elle-même moins handicapante que la perte d’une image I. Notons également que selon les choix à l’encodage de la vidéo, certaines images B peuvent également servir de référence, introduisant ainsi une hiérarchie à quatre niveaux et non plus trois. L’utilisation d’une interface spécifique de type IPMH permet l’assignation de différents niveaux de priorité à chaque message applicatif, permettant à MPTCP et aux micro-protocoles de différencier le traitement qui sera appliqué à chacun. 934. Expérimentations et mesures 4.1.2.2 Micro-protocoles utilisés Pour réaliser cette simulation, les mécanismes suivants ont été implémentés dans ns-2, au sein du modèle ns-2 de MPTCP, recommandé par le working group MPTCP de l’IETF [Nis]. Chacun de ces micro-protocoles implémente un concept de fiabilité partielle dans le but d’améliorer le délai de transit afin de correspondre aux exigences de l’application, en tirant parti de la tolérance aux pertes de celle-ci. Adaptation à l’émission : le Selective Discarding Le Selective Discarding a été introduit dans [LBL89] et permet une adaptation du flux à l’émission. Ce mécanisme consiste à éliminer les paquets de moindre importance lorsque le réseau est saturé. Grâce à l’interface, MPTCP peut récupérer les informations relatives à la priorité de chaque type d’image. En utilisant cette information, notre implémentation du Selective Discarding écarte systématiquement les images de type B avant leur émission, car ce sont les images les moins importantes. Nous nous attendons ainsi à avoir une qualité de service améliorée, car le non-envoi d’un paquet conduit à moins de congestion et donc de perte sur le réseau et également à un délai moindre pour les images I et P, qui sont les images les plus importantes pour le décodage de la vidéo du côté du récepteur. Adaptation à la réception : le Time-Constrained Partial Reliability L’autre implémentation réalisée du concept de fiabilité partielle intègre l’aspect temporel de la contrainte. Puisque MPTCP utilise plusieurs chemins pour accroître la capacité réseau disponible, le risque de paquets arrivant dans le désordre s’en trouve augmenté, ces chemins possédant des caractéristiques différentes. MPTCP offrant un service d’ordre total, celui-ci place en buffers les messages arrivant dans le désordre jusqu’à réception des paquets manquants, afin de délivrer le tout dans l’ordre à l’application. Ces paquets en attente peuvent devenir obsolètes à cause de l’attente des paquets en retard, alors qu’ils sont disponibles et pourraient être utiles à l’application. Ainsi, le mécanisme a pour but que ces paquets soient délivrés avant leur obsolescence, considérant les paquets en retard comme perdus et à présent inutiles, en acquittant leur perte auprès de l’émetteur. L’implémentation proposée calcule à tout instant le délai de transit applicatif des paquets dans les buffers de réception de l’hôte puits de la communication, c’est-à-dire le délai écoulé depuis leur soumission à l’émission par l’application émettrice. Lorsque ce délai se rapproche des 400 ms de délai maximum, les paquets concernés sont délivrés à l’application et les paquets manquants, considérés à présent obsolètes, sont déclarés perdus et acquittés auprès de l’émetteur, comme si ceux-ci avaient été correctement reçus. Ainsi, l’émetteur les croyant arrivés à 944.1. De la composabilité des protocoles destination ne les réémettra pas. Si ceux-ci arrivent par la suite, ils seront tout simplement écartés. Notons que la simulation permet d’éluder la question de la synchronisation des deux hôtes. En expérimentation réelles, celle-ci devrait être prise en compte via des solutions comme NTP [Mil10] ou toute autre solution offrant une précision appropriée. Le caractère du mécanisme protocolaire resterait alors local, mais sa dépendance envers un tel système de synchronisation, par nature distribué, rendrait la composition protocolaire globalement distribuée. Rappelons enfin que le but de cette expérience est d’étudier le couplage de mécanismes protocolaires avec un protocole standard, et non l’étude du mécanisme en lui-même. 4.1.2.3 Simulation Les deux mécanismes précédents permettent trois combinaisons : 1. MPTCP-SD qui couple MPTCP au Selective Discarding ; 2. MPTCP-PR qui couple MPTCP à la Time-Constrained Partial Reliability. 3. MPTCP-PR-SD qui couple MPTCP à la Time-Constrained Partial Reliability et au Selective Discarding. Chacune d’elles a été testée sur l’environnement conseillé par le working group MPTCP. Celui-ci est représenté figure 4.1. Figure 4.1: La topologie du réseau simulé La source, abrégée S, représente le système hébergeant l’application émettrice de données, et le puits, abrégé P, le système hébergeant l’application réceptrice. Les machines r1 à r4 sont des routeurs intermédiaires. Nous disposons ainsi de deux chemins distincts utilisables par MPTCP. Ces chemins sont donc : – S, a, r1, b, r3, c, P ; – S, d, r2, e, r4, f, P. 954. Expérimentations et mesures Afin d’évaluer les performances des différentes combinaisons de mécanismes avec MPTCP, nous simulons un transfert vidéo entre S et P. Les capacités des liens d’accès a, d, c et f ont été fixés soit à 1,8 Mbps, soit à 3,6 Mbps et les liens du cœur de réseau, b et e, sont fixés à 1 Mbps ou 0,5 Mbps. Ces valeurs ont été choisies proches de débits théoriques utilisables sur des liens WWAN HSDPA. Elles ont également été choisies afin de créer des situations dans lesquelles MPTCP devra réagir à un manque de capacité. Aucun trafic concurrent n’est injecté dans le réseau simulé. Les délais des différents liens ont été fixés à 5 ms ou 10 ms. Sept scénarios ont été définis, et sont résumés dans les tableaux 4.1 à 4.3. 1 2 a et c 3,6 Mbps; 10 ms 3,6 Mbps; 10 ms b et e 1 Mbps; 5 ms 1 Mbps; 5 ms d et f 3,6 Mbps; 10 ms 1,8 Mbps; 10 ms Congestion faible faible Table 4.1: Résumé des scénarios 1 et 2 3 4 5 a et c 3,6 Mbps; 5 ms 1,8 Mbps; 5 ms 1,8 Mbps; 10 ms b et e 0,5 Mbps; 5 ms 1 Mbps; 5 ms 0,5 Mbps; 5 ms d et f 3,6 Mbps; 5 ms 1,8 Mbps; 5 ms 1,8 Mbps; 10 ms Congestion moyenne moyenne moyenne Table 4.2: Résumé des scénarios 3 à 5 6 7 a et c 3,6 Mbps; 10 ms 1,8 Mbps; 10 ms b et e 0,5 Mbps; 5 ms 0,5 Mbps; 5 ms d et f 3,6 Mbps; 10 ms 1,8 Mbps; 10 ms Congestion forte forte Table 4.3: Résumé des scénarios 6 et 7 Métrique d’évaluation La qualité est évaluée selon un calcul par image du Peak Signal to Noise Ratio (PNSR). Nous utlisons Evalvid [KRW03], un ensemble d’outils permettant dévaluer la qualité d’une transmission vidéo sur réseaux réels ou simulés. Evalvid permet notamment la mesure de différents paramètres de QoS 964.1. De la composabilité des protocoles tels que le taux de perte ou le délai de bout en bout. Il existe une correspondance entre le PNSR et une autre métrique d’évaluation vidéo, subjective celle-ci, le Mean Opinion Score (MOS), résumée dans le tableau 4.4. PNSR (dB) MOS > 37 Excellent 31 à 37 Bon 25 à 31 Moyen 20 à 25 Faible < 20 Pauvre Table 4.4: Les correspondances entre PNSR et MOS 4.1.3 Analyse des résultats 4.1.3.1 Comparaison des performances de MPTCP avec TCP et UDP Dans cette partie, nous comparons la qualité vidéo, caractérisée par le PNSR, lorsque la transmission est effectuée avec MPTCP et lorsqu’elle est effectuée TCP ou avec UDP. Les calculs du PNSR sont effectués après réception des données et rejet de celles ayant un délai de transmission applicatif supérieur à 400 ms. Les tableaux 4.5 et 4.6 montrent les bénéfices engendrés sur le PNSR par l’utilisation de MPTCP. On peut remarquer que pour UDP et TCP, la colonne 2 est vide : comme deux chemins avec des caractéristiques différentes sont utilisés par MPTCP, la comparaison avec UDP ou TCP, tous deux mono-chemins, pour ces caractéristiques est effectuée dans les cas 1 et 5. Ces chemins sont utilisés dans les simulations 1 et 4 pour TCP et UDP. Le PNSR pour TCP est parfois à 0 dB car tous les paquets, dans ces situations, ont dépassé le délai maximum de 400 ms et ont ainsi été rejetés car considérés comme obsolètes. Scénario 1 2 3 4 UDP 13,98 14 4,27 TCP 4,66 4,64 0 MPTCP 24,96 25,59 22,88 22,51 Table 4.5: PNSR moyen en dB des simulations 1 à 4 Les tableaux 4.7 et 4.8 montrent que le délai est également globalement réduit grâce à l’utilisation de MPTCP. Les tableaux 4.9 et 4.10 montrent quant à eux l’apport de MPTCP sur le taux de pertes pour chaque type d’image. 974. Expérimentations et mesures Scénario 5 6 7 UDP 4,26 4,25 4,13 TCP 0 0 0 MPTCP 23,05 19,15 17,14 Table 4.6: PNSR moyen en dB des simulations 5 à 7 Scénario 1 2 3 4 UDP 432 475 474 TCP 419 481 465 MPTCP 334 346 296 358 Table 4.7: Délai moyen en millisecondes des simulations 1 à 4 Scénario 5 6 7 UDP 516 575 616 TCP 527 581 629 MPTCP 319 403 428 Table 4.8: Délai moyen en millisecondes des simulations 5 à 7 Scénario 1 2 3 4 I UDP 95,5 95,5 100 TCP 100 100 100 MPTCP 55,5 57,7 77,7 60 P UDP 71,9 73,03 92,13 TCP 23,59 23,59 100 MPTCP 6 5,61 14,6 11,2 B UDP 72,93 73,3 87,59 TCP 0,75 14,41 100 MPTCP 7,8 6,3 6,3 5,6 Table 4.9: Taux de pertes des simulations 1 à 4 4.1.3.2 Comparaison de MPTCP avec et sans mécanismes couplés Nous allons à présent comparer la qualité de la vidéo reçu via un transfert utilisant MPTCP et utilisant les différentes combinaisons de mécanismes : – MPTCP-SD ; – MPTCP-PR. La comparaison a été effectuée dans le cadre du scénario 4 décrit dans le tableaux 4.2. 984.1. De la composabilité des protocoles Scénario 5 6 7 I UDP 100 100 100 TCP 100 100 100 MPTCP 55,5 80 82,2 P UDP 89,88 93,25 96,62 TCP 100 100 100 MPTCP 11,2 15,7 16,8 B UDP 86,09 91,72 95,86 TCP 100 100 100 MPTCP 1,12 19,17 7,1 Table 4.10: Taux de pertes des simulations 5 à 7 Si les résultats décrits 4.1.3 nous ont permis d’évaluer les bénéfices de MPTCP par rapport à TCP ou UDP, nous pouvons remarquer sur la figure 4.2 que le PNSR moyen pour MPTCP est de 22,5 dB, montrant que la qualité moyenne de la vidéo n’est pas suffisante pour une utilisation confortable. En effet, le tableau 4.4 montre que le PNSR doit être supérieur à 25 dB pour avoir une qualité vidéo satisfaisante. On remarque également sur la figure 4.2 que le PNSR descend sous 22,5 dB pendant un temps prolongé, avant l’image no 200 et aux alentours de l’image no 300. Ces résultats se confirment à la visualisation de la vidéo reconstituée après réception, et motivent l’étude de la combinaison de MPTCP avec les mécanismes précédemment introduits. Les figures 4.3 et 4.4 montrent le PNSR image par image pour l’utilisation de MPTCP-PR et MPTCP-SD respectivement, dans le contexte du scénario 4. Nous remarquons immédiatement sur la figure 4.3 que le PNSR moyen obtenu est meilleur que celui observé avec MPTCP seul. En effet, celui-ci atteint à présent 24,74 dB. Cette moyenne est cependant toujours sous la barre des 25 dB, bien que proche. Nous pouvons cependant remarquer que plusieurs fois la vidéo reconstituée s’approche d’un PNSR de 35 db, ce qui est un très bon score. Malheureusement nous notons également des performances réduites durant la seconde moitié de la vidéo (entre la 230e et la 340e image). Ceci peut s’expliquer par la perte d’informations importantes, telle qu’une image I, déclarée perdue alors que celle-ci pouvait encore être utile, non plus pour son affichage, mais pour servir de référence pour des images P et B ultérieures. Ceci pourrait être amélioré en permettant un plus grand paramétrage du mécanisme, afin de moduler la date d’obsolescence en fonction du type de l’image, et non plus utiliser une date fixe. Malgré ce léger écueil, et bien que la différence dans les chiffres puisse sembler mineure (10 %), l’amélioration est nettement visible au visionnage et on s’approche d’une utilisation confortable. 994. Expérimentations et mesures Figure 4.2: PNSR par image en utilisant MPTCP, scénario 4 La figure 4.4 représente l’évolution du PNSR par image avec utilisation de MPTCP-SD. On voit ici que le PNSR moyen dépasse 25 dB, avec une valeur de 26,04 dB. Les oscillations sont dues au fait qu’à chaque image B, le PNSR chute, en raison du rejet systématique de celle-ci. Cependant, celui-ci étant plus élevé pour les images P et I, la moyenne s’en trouve relevée. Notons malgré tout une chute du PNSR aux alentours de la 200e image. Celleci est due à la perte d’une image I ou P servant donc de référence à plusieurs images qui la suivent. Celles-ci, ne pouvant se baser sur la bonne référence, seront décodées et affichées incorrectement, créant des différences trop fortes avec la vidéo d’origine, traduites par ce creux dans la courbe. 1004.1. De la composabilité des protocoles Figure 4.3: PNSR par image en utilisant MPTCP-PR, scénario 4 4.1.4 Conclusion L’expérience présente a permis de démontrer les gains en Qualité de Service que l’on peut obtenir via la combinaison de protocoles avec des mécanismes externes. Ces bénéfices pourraient encore être améliorés, notamment par l’optimisation des mécanismes, en permettant un paramétrage plus fin de ceux-ci par exemple. En effet, ici le Selective Discarding rejette systématiquement toute image de type B. Le même mécanisme pourrait être amélioré en permettant de modifier le taux de rejet pour chaque type d’image indépendamment ou en fonction des relations de dépendance d’une image à l’autre. Un paramétrage plus fin, cependant, requerrait une adaptation dynamique afin de pouvoir tirer au mieux parti de celui-ci. Ces décisions et adaptations ne peuvent pas être requises de la part de l’utilisateur, ni de l’application. En effet, cellesci sont trop complexes, et réclament une connaissance poussée du réseau et des protocoles. L’ATL pourrait cependant, parfaitement remplir ce rôle. La section 1014. Expérimentations et mesures Figure 4.4: PNSR par image en utilisant MPTCP-SD, scénario 4 suivante étudie ce type d’adaptation dynamique. 4.2 De l’intérêt de l’adaptation dynamique Dans cette deuxième partie, nous nous intéressons à l’effet de l’adaptation dynamique de la composition protocolaire, c’est-à-dire sa modification en cours de communication. Pour ceci, nous utilisons le même contexte que l’expérimentation précédente, en utilisant un nouveau mécanisme pour MPTCP : un load balancer chargé de répartir les paquets à envoyer sur les différents chemins possibles, en fonction de la priorité des messages et de la qualité de chaque chemin. 1024.2. De l’intérêt de l’adaptation dynamique 4.2.1 But de l’expérience Le but de cette expérience est de démontrer l’intérêt de procéder à des modi- fications structurelles de la composition protocolaire en cours de communication. En effet, les adaptations comportementales, i.e. les modifications de paramètres, existent déjà dans les protocoles actuels. par exemple, TCP adapte la taille de ses fenêtres de contrôle de congestion et de contrôle de flux, en fonction de l’état de congestion du réseau, et de la saturation du système récepteur des données. Ici, nous nous intéressons à l’adjonction d’un nouveau mécanisme à une composition protocolaire existante. Contrairement à la section 4.1, le mécanisme est pensé pour les protocoles multi-domiciliés. Ceci n’est pas contradictoire vis-à-vis de l’ATL. En effet, celle-ci est pensée pour accueillir des composants pouvant avoir des conditions de dépendance envers d’autres composants. Comme pour la section 4.1, l’expérience est réalisée en simulation, grâce au simulateur ns-2. 4.2.2 Description de l’expérience 4.2.2.1 Choix de l’application L’application choisie est la même que pour l’expérience précédente. Sa description peut donc être trouvée en 4.1.2.1. 4.2.2.2 Micro-protocoles Le mécanisme implémenté ici est un load-balancer, ou répartiteur de charge. Dans le contexte des protocoles multi-domiciliés, son rôle est de répartir les paquets sur les différents chemins. Dans MPTCP, il est appelé packet scheduler. Notre implémentation de ce répartiteur se base, comme pour les mécanismes précédents, sur la différence de priorité des différentes images. Notre implémentation va donc diriger les paquets sur l’un ou l’autre chemin en fonction de l’importance de chacun. Le but étant toujours de faire en sorte que les images les plus importantes aient le plus de chances d’arriver intactes à destination, le répartiteur va diriger les paquets vers le chemin le plus sûr pour les plus importants, et le moins sûr pour les moins importants. La notion de chemin sûr est ici à préciser. Celle-ci implique bien évidemment un monitoring du réseau constant permettant une modélisation de chaque chemin. Afin de définir ensuite le plus sûr, il faut décider selon quelles caractéristiques un chemin sera qualifié de sûr : son taux de congestion, sa capacité, son délai de transit. . . La répartition doit ensuite être décidée entre les différents niveaux de priorité qui peuvent être plus ou moins nombreux que le nombre de chemins. Un para- 1034. Expérimentations et mesures métrage plus fin peut même permettre de faire passer un certain pourcentage de chaque priorité sur chaque chemin. Dans notre implémentation et pour cette expérience, les images I et P sont dirigées vers le meilleur chemin, les images B vers le moins bon. 4.2.2.3 Simulation L’environnement réseau employé est le même qu’en 4.1 et est donc représenté sur la figure 4.1. De même, nous utilisons le PNSR comme mesure de la qualité de service. Deux environnements différents ont été définis. ils sont résumés dans le tableau 4.11. 1 2 a et c 1,8 Mbps; 10 ms 1 Mbps; 10 ms b et e 1 Mbps; 5 ms 1 Mbps; 5 ms d et f 3,6 Mbps; 10 ms 3,6 Mbps; 10 ms Table 4.11: Résumé des scénarios Pour chacun de ces scénarios, nous avons simuler le transfert de la vidéo en utilisant MPTCP et MPTCP couplé à notre load-balancer, indiqué si après MPTCPLB, afin de déterminer quelle composition obtient les meilleures performances pour chaque environnement. Dans un second temps, nous avons effectué la simulation du transfert avec modification de l’environnement. A mi-chemin du transfert, l’environnement change de 1 vers 2, et la composition protocolaire s’adapte en conséquence. Nous pouvons ainsi déterminer l’apport de la reconfiguration dynamique par rapport à un transfert qui emploierait le même protocole de bout en bout, comme c’est le cas actuellement. 4.2.3 Analyse des résultats La première série de simulation compare MPTCP et MPTCP-LB sur chacun des deux environnements. Le tableau 4.12 résume ces résultats. Simulation 1 2 MPTCP 25,59 21,75 MPTCP-LB 24,56 24,20 Table 4.12: PNSR en dB 1044.2. De l’intérêt de l’adaptation dynamique Nous pouvons voir que sur le premier environnement, le PNSR obtenu avec MPTCP est meilleur que ce lui obtenu avec MPTCP-LB. En effet, les deux chemins étant très similaires, le répartiteur de charge ne peut exprimer pleinement son potentiel, et la répartition classique effectuée par MPTCP mène à de meilleurs résultats. Cependant, dans le second environnement, nous pouvons remarquer que les bénéfices du load-balancer peuvent s’exprimer, en raison de la grande dissimilarité des chemins. Ces résultats nous poussent à nous poser la question suivante : quels bénéfices pourrait-on tirer de l’activation dynamique du load-balancer selon la différence de caractéristiques entre les chemins ? Cette simulation reprend les caractéristiques de l’environnement no 1 puis, au milieu du transfert, change les conditions pour celles de l’environnement no 2. Dans cet environnement changeant, nous effectuons deux simulations. La première avec MPTCP seul, et la seconde en intégrant dynamiquement notre répartiteur de charge lors du changement d’environnement, celui-ci donnant de meilleures performances globales dans ces nouvelles conditions. Les résultats obtenus sont indiqués dans le tableau 4.13. Simulation MPTCP seul MPTCP puis MPTCP-LB PNSR 21,77 22,56 Table 4.13: PNSR obtenu sans et avec adaptation dynamique Nous pouvons remarquer une amélioration de 0,79 dB grâce à l’intégration dynamique du load-balancer. Cette valeur amène les commentaires suivants. 1. Ce bénéfice, si petit soit-il, est-il significatif, particulièrement pour un PNSR d’environ 21 dB? En effet, en dessous de 25 dB la qualité vidéo doit être améliorée. Cependant, le visionnage de la vidéo nous permet déjà d’observer une amélioration. 2. Ces améliorations sont obtenues dans le cas idéal où le changement de composition protocolaire s’effectue sans délai par rapport au changement d’environnement. Le problème du coût de cette adaptation en conditions réelles se pose donc et doit être évalué. 4.2.4 Conclusion Dans cette section, l’expérience menée a permis de mettre en évidence les bé- néfices qui peuvent être apportés par une adaptation dynamique de la composition protocolaire vis-à-vis du contexte. Ces bénéfices sont cependant à mettre en perspective du déroulement de la simulation : en effet celle-ci met en place un cas 1054. Expérimentations et mesures idéal dans lequel le temps d’adaptation au contexte est nul. Les bénéfices seront probablement donc moindres en situation réelle. Le paramétrage du mécanisme utilisé ici, cependant, et comme dans la section 4.1, devrait pouvoir être modifiable, afin de décider quelle proportion de chaque type d’image doit passer par chaque chemin. La décision de recomposition et le paramétrage doivent alors être pris en charge par un système de décision et de gestion autonome tel que l’ATL. Celui-ci devra également, dans ses décisions, prendre en compte les modifications de performances induites par le temps de reconfiguration. La section suivante s’intéresse aux temps de reconfiguration. 4.3 De l’overhead de la signalisation La troisième partie de ce chapitre étudie le coût de la signalisation sur le déroulement de la communication. En effet parmi les différentes fonctionnalités de l’ATL, certaines requièrent une synchronisation entre les deux pairs de la communication. Afin d’accomplir cette synchronisation, il est nécessaire d’avoir des échanges de messages de contrôle entre les Autonomic Manager. Cette section tente d’évaluer l’impact des échanges de signalisation liés à la reconfiguration comme décrite en section 3.2. 4.3.1 But de l’expérience Cette expérience a pour but de déterminer le coût induit par les besoins en signalisation. Pour ce faire, nous utilisons ETP comme framework de composition protocolaire. En effet, la structure d’ETP étant proche de celle de l’ATL, ce dernier pouvant être vu comme un Data Plan d’un point de vu structurel, son protocole de signalisation pour la négociation initiale et la recomposition dynamique peut être utilisé comme base de réflexion sur le coût de ces actions. En effet, la simple adjonction d’un Autonomic Manager à ETP permettrait de lui conférer toutes les caractéristique d’un Flow comme l’accueil et la composition de composants protocolaires ou le multiplexage de plusieurs Channel. ETP est capable d’accueillir des composants appelés Processing Modules. Ceuxci sont une décomposition des micro-protocoles qui prennent place au sein du framework. Afin de déployer les compositions à mettre en place, ETP intègre un protocole de synchronisation permettant aux deux entités pairs de négocier la composition à mettre en place. Afin de permettre sa reconfiguration dynamique, ETP intègre un système de déploiement correspondant au schéma de reconfiguration structurelle en parallèle décrit en 3.2.1.3. Celui-ci est accompagné d’une variation du protocole de synchronisation initiale permettant la reconfiguration. 1064.3. De l’overhead de la signalisation Nous utilisons donc ETP comme base de réflexion sur le coût de la signalisation dans le cadre de l’ATL, celle-ci étant proche structurellement nous permettant d’avoir une évaluation du coût de la signalisation liée à la reconfiguration. 4.3.2 Description de l’expérience 4.3.2.1 Plateforme de test L’expérience est ici réalisée en émulation, sur la plateforme laasNetExp hé- bergée au LAAS-CNRS. Celle-ci implémente une topologie représentée en figure 4.5. Figure 4.5: La topologie utilisée pour les tests L’accès aux différents systèmes se fait via la machine pong1. Celle-ci peut ensuite commander les différents hôtes présents sur le réseau via le réseau de commande 10.107.2.0. L’hôte pong2 accueille l’application source de données et pong4 l’application puits. Ces deux applications communiquent via les interfaces adressées 10.108.2.2 pour pong2 et 10.109.2.4 pour pong4, et à travers pong3, jouant le rôle de routeur et instanciant un émulateur de réseaux, netem. Celui-ci permet de modifier le comportement aux interfaces du système, afin de mettre en place un délai, un taux de perte, des duplications et les lois de probabilité régissant l’apparition de ces évènements. 1074. Expérimentations et mesures Les définitions de ces paramètres et leur modification dynamique, ainsi que les démarrages des applications puits et source sont centralisés sur pong1, qui utilise le réseau de commande pour effectuer ces actions. 4.3.2.2 Protocoles de signalisation ETP possède deux protocoles de signalisation pour la gestion structurelle de la composition protocolaire. Le premier est utilisé pour la synchronisation initiale et le second pour la reconfiguration. Synchronisation Cas d’utilisation Le protocole de synchronisation tient compte de plusieurs paramètres. Afin de l’établir, plusieurs cas d’utilisation ont été définis et sont représentés sur la figure 4.6. Figure 4.6: Cas d’utilisation du protocole de synchronisation d’ETP ETP ne possède pas de notion de client ou de serveur. A la place, la différence de comportement s’effectue en fonction du rôle de l’application en tant qu’émetteur ou récepteur de données. Ce caractère est identifiable par les options utilisées à 1084.3. De l’overhead de la signalisation l’ouverture du socket ETP. En effet, une application désirant émettre des données devra indiquer l’adresse IP à laquelle elle souhaite envoyer ces données. L’application est alors identifiée comme émettrice par ETP. Afin de simplifier la modélisation du protocole de synchronisation, nous considérons la communication comme unidirectionnelle. Une application source, uniquement émettrice de données, souhaite envoyer des messages à une application puits, uniquement réceptrice. Le second paramètre important est celui du caractère local ou distribué de la composition protocolaire. La composition qui est échangée entre deux entités ETP, est détaillée et précise exactement quel Processing Module doit prendre place dans quel conteneur, et à quel niveau de la pile de module hébergée par ce conteneur. Avec ETP, l’application a la charge de la gestion du protocole. C’est donc elle qui doit définir cette composition de Processing Modules. Ainsi, une application souhaitant un service de Transport n’assurant que le minimum, à l’instar d’UDP, demandera une composition vide, n’instanciant aucun micro-protocole et donc aucun module. Une telle composition est donc considérée comme nulle. Dans le cas contraire, deux cas peuvent se poser. En effet, certains micro-protocoles nécessitent l’instanciation de Processing Modules de part et d’autre de la communication, et sont dits distribués. D’autres en revanche ne nécessitent de module que sur l’émetteur, ou sur le récepteur, et sont dits locaux. Si une composition comporte au moins un micro-protocole distribué, celle-ci est également dite distribuée. Un système d’acquittement sélectif est un exemple d’un tel micro-protocole. En effet, les acquittements ont besoin d’être envoyés par le récepteur et traités par l’émetteur, impliquant un besoin de modules de chaque côté de la communication. Si une composition ne comporte que des micro-protocoles locaux, celle-ci est dite locale également. Un traffic shaper n’utilisant aucune information explicitement donnée par le récepteur est un exemple de micro-protocole local. Les sept cas d’utilisation représentés sur la figure 4.6 prennent en compte les combinaisons de ces différents paramètres afin de déterminer le comportement du protocole. Cette liste ne se veut pas exhaustive, l’hypothèse d’une communication unidirectionnelle étant déjà restrictive, mais a pour but d’offrir une réflexion suffisamment complète permettant de dériver les autres cas de ceux présents ici. Nous présentons le cas Distributed Sender Based utilisé dans cette expérience. En effet, comme décrit en 4.3.2.3, la présente expérience est basée sur une précé- dente étude dans laquelle ce type de déploiement est le plus adapté. Composition distribuée à la source, nulle au puits Le diagramme de la figure 4.7 décrit les échanges de messages entre les entités source et puits de la 1094. Expérimentations et mesures Figure 4.7: Diagramme de séquence du cas d’utilisation Distributed Sender Based communication, lorsque la source prévoit l’utilisation d’une composition distribuée et le puits d’une composition nulle. A la création du socket ETP, l’application source renseigne le protocole sur les coordonnées du puits et lui passe la composition micro-protocolaire à utiliser. Celleci est analysée par ETP et s’avère être distribuée, donc doit être communiquée à l’entité réceptrice. Cette dernière est prête à recevoir des messages. En effet lorsque l’application puits a ouvert son socket, celle-ci a précisé l’utilisation d’une composition nulle. L’entité ETP réceptrice est donc immédiatement disponible. L’entité ETP émettrice va ainsi envoyer une proposition contenant la composition distribuée. L’entité réceptrice la déploie immédiatement après réception. En effet, cette dernière n’ayant aucune composition déployée peut déployer celle demandée sans conflit avec une composition déjà existante. Après déploiement, celui-ci est acquitté auprès de l’émetteur, qui effectue à son tour le déploiement. En effet, si le récepteur avait eu un conflit entre la proposition de l’émetteur et sa propre composition, il aurait dû effectuer une contre-proposition. Attendre la ré- ponse du récepteur avant déploiement permet ainsi d’éviter un double déploiement par l’émetteur en cas de contre-proposition de la part du récepteur. 1104.3. De l’overhead de la signalisation Une fois la composition instanciée de chaque côté, la communication peut commencer. Reconfiguration La reconfiguration au sein d’ETP utilise le protocole de synchronisation existant. Ce denier se déclenche lors de la demande d’émission du premier message. Le but du protocole de reconfiguration est donc de préparer ETP à effectuer une seconde synchronisation, c’est-à-dire, comme évoqué précé- demment, de préparer un déploiement en parallèle d’une nouvelle composition. La figure 4.8 montre le déroulement de cet échange. Figure 4.8: Préparation à la reconfiguration L’échange se fait en deux temps. Lorsqu’une application, qu’il s’agisse de la source ou du puits, décide de changer la composition utilisée, l’entitée ETP associée envoie à son pair un message indiquant qu’il doit se préparer à un changement de configuration. Une fois la nouvelle composition prête à être mise en place, un acquittement est envoyé vers l’initiateur de l’échange qui peut se préparer à son tour. 1114. Expérimentations et mesures Par la suite, une synchronisation sera effectuée dans le cadre de cette nouvelle structure d’accueil, qui instanciera la nouvelle composition en parallèle de la précédente. Estimation du temps de synchronisation D’après les spécifications précé- dentes, on peut établir une première estimation du temps de synchronisation en fonction du RTT, donc du délai du réseau. Dans le cas d’étude décrit en 4.3.2.2, on remarque que l’échange se compose uniquement d’un message de proposition et de son acquittement, créant donc un RTT de délai. De plus, chaque système doit déployer la composition. Le système récepteur, cependant, effectue son dé- ploiement entre la réception de la composition et l’émission de son acquittement ce qui, en toute rigueur, l’inclue dans le RTT. Enfin nous admettons que les temps de déploiement sur chacun des hôtes sont équivalents car : – les systèmes utilisés dans le cadre de cette expérience sont les mêmes ; – le temps de déploiement est supposé être court, voire négligeable, face au délai du réseau. Le temps de synchronisation est donc estimé à : Ts = RT T + Td (4.1) où Ts représente le temps de synchronisation et Td le temps de déploiement d’une composition sur un système. Une reconfiguration demande tout d’abord sa préparation, décrite en 4.3.2.2, puis une synchronisation de la nouvelle composition. Le temps d’une reconfiguration sera donc : Tr = Tp + Ts (4.2) où Tr est le temps de reconfiguration total et Tp est le temps préparation. Or : Tp = RT T (4.3) ce qui nous permet de conclure que le temps total de reconfiguration Tr devrait s’exprimer ainsi : Tr = 2RT T + Td (4.4) 4.3.2.3 Protocole expérimental L’expérience réalisée est basée sur des mesures réalisées dans [VW09]. Un transfert de cinq minutes est réalisé, entre une application source située sur la machine 1124.3. De l’overhead de la signalisation pong2 et une application puits située sur pong4, via pong3, émulant le réseau. Ce transfert doit respecter les objectifs de qualité de service suivant : – délai maximum de 150 ms; – taux de pertes maximum de 10 %. Durant ce transfert, chaque minute, les taux de pertes et délai de l’environnement réseau sont modifiés. Les travaux réalisés dans [VW09] associent à chaque environnement, une composition protocolaire pour ETP ayant la plus forte probabilité de respecter ces objectifs en qualité de service. La succession de contextes réseau et les compositions associées sont résumées sur la figure 4.9. Figure 4.9: Caractéristiques des cinq environnements réseau et compositions associées Description des compositions EMPTY : La composition EMPTY représente une composition « vide », ce qui dans le cas spécifique d’ETP correspond à offrir un service équivalent à celui d’UDP. SACK-FR : Le Selective Acknowledgement with Full Reliability (SACK-FR), est un mécanisme de contrôle des pertes par acquittements sélectifs, équivalent à l’option SACK utilisée par le protocole TCP [Mat96]. Le mécanisme SACK disponible dans ETP permet un paramétrage du taux de pertes maximum acceptable. Nous l’utilisons ici avec une tolérance de 0 %, interdisant donc toute perte. A-EC : L’Autonomic Error Control (A-EC) adjoint un gestionnaire autonome au SACK permettant de modifier à la volée la tolérance aux pertes en fonction d’un double objectif de taux de pertes maximum d’une part et de délai de transit maximum d’autre part, tentant d’équilibrer au mieux ces deux critères. TFRC : Le mécanisme TFRC, pour TCP Friendly Rate Control, offre une implémentation pour ETP de l’algorithme TFRC [Flo08]. 1134. Expérimentations et mesures Le premier environnement, par exemple, est caractérisé par un taux de perte de 5 % et un délai de transit de 10 ms. La composition associée est une composition vide, les caractéristiques du réseau étant conformes aux objectifs en qualité de service. Après la première minute de simulation, l’environnement est modifié avec un taux de perte de 10 % et un délai de transit de 100 ms. La composition associée est alors l’A-EC, un système de reprise des pertes basé sur des acquittements sélectifs à fiabilité partielle. L’expérience originale considérait la reconfiguration comme immédiate, les deux compositions étant déployées en même temps sur chaque système. Cependant, un temps de monitoring et de décision de 5 s était déjà présent, seul le déploiement de ces décisions étant alors considéré comme immédiat. Le but de notre expérience est d’introduire le protocole de reconfiguration, afin de prendre en compte le temps de reconfiguration Tr effectif et de mesurer son impact sur les performances. 4.3.3 Résultats attendus Les résultats attendus par l’expérience ont été extrapolés à partir des résultats originaux. Pendant le temps de monitoring de l’expérience originale, l’ancien service continue de fonctionner sur le nouvel environnement. Nous avons appliqué une régression sur ce laps de temps, et l’avons étendu durant Tr après le monitoring. Taux de pertes La première métrique observée est le taux de pertes. Celuici a été mesuré au niveau de l’environnement réseau, et au dessus du service de Transport. Ainsi, nous pouvons observer l’impact du système de reconfiguration sur les performances du système. La figure 4.10 montre l’évolution du taux de pertes mesuré au niveau du réseau tout au long de l’expérience. On remarquera sur la courbe 4.11 que le taux de pertes observé reste globalement sous la barre demandée des 10 %. L’introduction du système de reconfiguration ne modifie d’ailleurs que partiellement les résultats obtenus lors de l’expérience originale, comme observé sur la courbe 4.12. En effet seul un court pic de pertes supplémentaire lors de la dernière recon- figuration est introduit dans les nouveaux résultats. Celui-ci semble être un effet de bord de notre méthode de prédiction, dû à l’application de la régression sur l’échelon observé vers 230 s, et ne devrait donc pas apparaître en situation réelle. Délai La seconde métrique observée est le délai de transit des paquets. Comme pour le taux de pertes, celui-ci a été mesuré au niveau de l’environnement et du service de Transport afin d’observer l’impact du système de reconfiguration sur les performances. 1144.3. De l’overhead de la signalisation Figure 4.10: Taux de pertes de l’environnement Comme pour le taux de pertes, le délai est peu impacté par le système de reconfiguration. Les prévisions de résultats de la courbe 4.14 n’indiquent en effet aucune différence par rapport aux résultats de l’expérience originale vus sur la courbe 4.15. Analyse Ces résultats étaient prévisibles. En effet, l’expérience originale pré- voyait un temps de monitoring et de prise de décision assez long de 5 s, devant lequel les 200 ms de déploiement maximum du système de reconfiguration sont faibles. L’overhead induit est donc négligeable. Un temps de reconfiguration total long comme celui-ci est cependant acceptable du point de vue de l’ATL. En effet, une telle reconfiguration n’aura lieu qu’initiée par l’Autonomic Manager. Or, les décisions de ce dernier ont trait à la gestion de la communication, le contrôle étant laissé à la charge des composants protocolaires ; les actions de gestion sont de plus entreprises avec une granularité temporelle longue. L’impact sur les performances, induit par cette reconfiguration sera donc 1154. Expérimentations et mesures Figure 4.11: Taux de pertes vu par le service de Transport suffisamment espacé dans le temps pour limiter la dégradation moyenne à long terme de la communication. 4.3.4 Conclusion Dans cette section nous avons observé le comportement du protocole de synchronisation d’ETP dont les caractéristiques structurelles sont proches de l’ATL. Celui-ci nous permet d’observer une tendance des dégradations de performances induites dans des systèmes tels que l’ATL. Bien que les résultats soient prometteurs, ceux-ci devront être testés sur un prototype réel, et étendus afin d’observer plus en détails les relations entre temps de reconfiguration et fréquence de reconfiguration, les variations en fonction de type d’environnement ou l’impact des caractéristiques du réseau sur une reconfiguration donnée. Ce type d’observations nous permettra alors d’enrichir la connaissance des Autonomic Manager de l’ATL afin de leur permettre un choix plus fin dans les multiples décisions auxquelles ils auront à faire face. En effet, les décisions prises 1164.4. Conclusion Figure 4.12: Taux de pertes vu par le service sans système de reconfiguration dans un contexte idéal peuvent avoir à être modifiées en fonction du contexte réel. L’étude des relations entre les différentes métriques et les différentes situations permettront de prendre ces cas en compte. 4.4 Conclusion Ce chapitre a montré par l’expérience l’intérêt que peut avoir un système tel que l’ATL. La première partie se base sur MPTCP pour montrer l’intérêt de composer des micro-protocoles avec des protocoles existants afin d’élargir le service offert par ces derniers sans nécessairement les modifier. Elle a en outre permis de mettre en avant le besoin d’autonomie dans la prise de décisions concernant la configuration et le paramétrage de chaque composant, celui-ci se révélant bien trop lourd pour l’utilisateur ou l’administrateur au cas par cas. La deuxième partie étend la première en introduisant le concept d’adaptation structurelle dynamique. En effet, ici la composition protocolaire change en cours 1174. Expérimentations et mesures Figure 4.13: Délai induit par l’environnement de communication pour s’adapter aux variations de l’environnement. Les gains tirés de cette adaptation étant positifs, nous remarquons tout de même que de tels changements sont complexes et doivent se faire sans intervention extérieure à la couche de Transport, ce qui implique à nouveau un besoin d’autonomie. La troisième partie se concentre sur le coût d’un système de reconfiguration. En effet, un système comme l’ATL doit disposer d’un protocole de signalisation adéquat permettant la reconfiguration dynamique. L’expérience ayant été soumise à des difficultés, les résultats présentés sont déduits du modèle théorique du coût du protocole de signalisation. On observe que ces résultats sont acceptables et permettent de respecter la qualité de service demandée par l’application. Des expériences plus poussées seront nécessaires sur un prototype concret de l’ATL, afin notamment d’observer les limites de celui-ci ainsi que les améliorations à y apporter. Celles-ci devront être complètes et poussées afin d’observer les effets de toutes les interactions possibles des multiples paramètres pouvant varier dans un système de cette complexité. 1184.4. Conclusion Figure 4.14: Délai vu par le service 1194. Expérimentations et mesures Figure 4.15: Délai vu par le service sans système de reconfiguration 120Conclusion générale Rappel des contributions La thèse soutenue dans ce manuscrit part du constat que l’évolution majeure de l’Internet, de ses applications, des équipements terminaux et des réseaux physiques sous jacents, ont conduit à une multiplication des propositions d’évolution ou d’adaptation des protocoles de Transport. Le chapitre 1 a décrit ce contexte et en a déduit cinq points de problématique relatifs à la complexité de choix et d’utilisation des protocoles, à la configurabilité des protocoles, à l’extensibilité des protocoles, à l’assujetissement des applications aux solutions protocolaires et au déploiement de nouveaux protocoles. Ces différents problèmes nous ont ensuite conduits à analyser les limites des solutions de Transport actuelles face au contexte moderne et de poser les bases d’une redéfinition de la couche Transport, l’Autonomic Transport Layer (ATL). L’approche soutenue est que cette dernière doit offrir aux applications supportées des points d’accès génériques leur permettant de requérir des services et non des solutions protocolaires. Les services requis sont ensuite réalisés via une composition protocolaire dont le choix revient à l’ATL de manière autonome et dynamique. Une telle couche Transport de ce type permet également l’intégration progressive et transparente de nouvelles solutions protocolaires ainsi que la combinaison de plusieurs mécanismes en un seul service composite afin de satisfaire le plus finement possible les souhaits exprimés par l’application. Le chapitre 2 a posé les bases de la structure de l’ATL. Tout d’abord, nous avons posé les objectifs du système et les paradigmes des architectures orientées service et basées composants sur lesquels reposent la construction de l’ATL. Nous avons ensuite défini une classification concernant les types d’actions à considérer (gestion, contrôle et données), les applications à prendre en compte (legacy, ATLaware et smart) et les systèmes avec lesquels interagir (legacy et ATL-enabled). Ces classifications nous ont contraint dans la construction de l’ATL pour à aboutir une solution complète pouvant s’intégrer de manière transparente dans le paysage actuel tout en permettant une évolution future souple. Le rôle des différents com- 121Conclusion générale posants constituant l’ATL ainsi que leur organisation les uns par rapport aux autres ont finalement été décrits. Le chapitre 3 a complété la description établie dans le chapitre 2 en détaillant le comportement des différents éléments de l’ATL dans deux cas d’utilisations particuliers. Le premier cas d’utilisation concerne l’ouverture d’un point d’accès au service de Transport. Ce type d’action diffère de l’ouverture d’un socket classique. Il doit en effet prendre en compte le fait que l’application l’effectuant ainsi que l’application distante à contacter peuvent être legacy, ATL-aware ou smart et que cette dernière peut être hébergée sur un système legacy ou ATL-enabled. Nous avons décrit les différentes phases de découverte et de négociation des services qui doivent avoir lieu pour mettre en place le service composite adéquat. Dans le second cas d’utilisation, nous avons décrit le comportement de l’ATL lors d’un changement de contexte en cours de communication. Le redéploiement du service composite durant le transfert des données pose en effet des problèmes de continuité du service rendu et du coût de ce changement. Nous avons clos le chapitre par des considérations sur la traduction de l’état de l’ancien service vers le nouveau en prenant l’exemple de la problématique de retransmission des messages initialement émis avant une reconfiguration. Le chapitre 4 a présenté différents résultats obtenus au cours d’expériences menées en simulation et en émulation. La première expérience, menée en simulation, a combiné Multipath TCP (MPTCP) à des mécanismes génériques orientées QoS afin d’améliorer la qualité d’un transfert vidéo interactif en altérant le comportement du protocole sans modifier l’implémentation de celui-ci. Par cette expérience, nous avons cherché à démontrer l’intérêt de l’utilisation de services composites utilisant des mécanismes génériques avec des protocoles traditionnels. Les résultats étant prometteurs, nous avons poursuivi ce travail par de nouvelles simulations portant sur l’adaptation dynamique de tels services. Le but était ici de montrer le gain perçu par le changement de composition en réponse aux changements de conditions réseaux en cours de communication. Les gains induits nous ont amené à nous interroger sur le coût induit par la signalisation inhérente à de telles actions. La troisième expérience a tenté d’établir une estimation de ce coût en observant l’impact du protocole de synchronisation utilisé dans le contexte d’une implémentation d’un protocole (ETP) aux principes proches de l’ATL. Cette étude a permis de conclure que ce coût était négligeable face à la fréquence faible de mise en œuvre des actions de gestion pour lesquelles cette signalisation est nécessaire. Perspectives De nombreuses perspectives de travail peuvent être envisagées à partir du travail décrit dans ce document. Nous les décrivons ci-après. 122Flux collaboratifs La première possibilité d’extension de ce travail consiste à l’intégrer dans la problématique des flux collaboratifs. Ce concept consiste à établir une hiérarchie d’importance dans les différents flux au sein d’une machine voire d’un réseau que plusieurs flux partagent, afin que chacun se fixe potentiellement une borne supé- rieure sur différents critères de qualité de service. Prenons l’exemple d’un réseau local domestique sur lequel un ordinateur de bureau télécharge via BitTorrent la dernière version d’un système Linux pendant qu’un ordinateur de salon diffuse un film obtenu en vidéo à la demande sur un service de streaming. Actuellement, le risque est que les différents flux BitTorrent non seulement saturent le flux entrant de l’ordinateur qui effectue le téléchargement, mais saturent également l’accès Internet de tout le réseau domestique, dégradant du même coup le visionnage en streaming. Le fait d’utiliser le paradigme de l’Autonomic Computing pour gérer chaque flux permet d’exposer une interface de contrôle similaire à celle exposée par le Touchpoint afin de diriger l’Autonomic Manager (cf. 2.2.3.2). Cette interface, notamment utilisée par les applications smart ou les applications de gestion réservées aux utilisateurs et administrateurs du système, permettrait également à un Autonomic Manager hiérarchiquement supérieur d’exprimer des préférences découlant d’une priorisation des flux sur la machine mais également sur le réseau. D’une telle utilisation de cette interface découlerait alors une répartition automatique des ressources réseau afin de donner la priorité à certains flux sur les différents critères de qualité de service. Dans notre exemple, le téléchargement pourrait automatiquement se limiter afin de permettre aux autres applications s’exécutant sur l’ordinateur d’avoir accès au réseau, mais également au flux vidéo d’être diffusé sans accroc. On peut également imaginer que de telles mesures puissent être mises en œuvre par des Autonomic Manager dont la responsabilité se porte sur la gestion de l’énergie du système, par exemple. M2M Le LAAS-CNRS et notamment le groupe SARA, travaille sur les problé- matiques de communication entre objets intelligents, en particulier dans le contexte du machine to machine, ou M2M, dans lequel la problématique des flux collaboratifs peut s’avérer prometteuse. En effet un réseau domestique faisant cohabiter des systèmes tels que les ordinateurs actuels, des capteurs et des robots, pourrait avantageusement tirer parti d’une répartition dynamique des ressources selon les flux. 123Conclusion générale Implémentation Dans le chapitre 4 nous avons mentionné l’absence de prototype de l’ATL comme première limite aux expérimentations possibles. Cette limite doit être levée. Un travail de précision du modèle dans une optique d’implémentation est obligatoire et prioritaire si nous voulons faire de l’ATL un projet sur lequel mener des études approfondies sur des problématiques complexes. Ce travail doit respecter deux objectifs. Le premier est un objectif de recherche. L’implémentation de l’ATL doit respecter son caractère modulable afin de permettre l’étude séparée de chacune de ses fonctionnalités et son influence sur les autres sans modification de ces dernières. Ainsi, l’étude de la prise de décision de la fonction de Planning au sein de l’Autonomic Manager pourrait être menée en parallèle de celle sur le Monitoring, chaque étude ne modifiant que la fonctionnalité sur laquelle elle porte sans devoir se préoccuper de l’autre. Le second objectif porte sur les performances et l’adoption du modèle. En effet, afin que celui-ci gagne en visibilité et qu’il suscite l’intérêt dans la communauté internationale, l’implémentation du modèle doit être faite de manière réaliste. Le prototype doit donc être spécifié et implémenté dans le but d’intégrer parfaitement un système d’exploitation comme un projet de production et pas uniquement d’étude. Motiver l’intérêt et l’adoption permettra d’ouvrir ce projet et favorisera la collaboration avec d’autres équipes ce qui lui apportera un poids supplémentaire et multipliera les études à son sujet. Décision et sécurité La prise de décision et la sécurité de l’ATL sont les deux études principales à mener. Nous avons vu au sein de ce document que le nombre de paramètres qui doivent être pris en compte dans les décisions de chaque Autonomic Manager peut être important. Une étude poussée sur l’incidence de ces paramètres sur les performances s’avère ainsi pertinente. Le système et l’algorithme de décision en lui-même, sujets non abordés dans le présent document, sont également des points indispensables à étudier et définir afin de donner une réalité à l’ATL. La sécurité représente l’autre point essentiel. Si l’ATL veut devenir un modèle valable, elle ne peut se permettre de représenter une faille dans un système d’exploitation. La sécurisation de l’architecture et des échanges qu’elle effectue ainsi que sa tolérance aux fautes représentent donc deux axes d’étude majeurs qui doivent être pris en compte afin de permettre à l’ATL d’évoluer et devenir un modèle dont la réalisation et l’intégration dans le paysage informatique se concrétiseraient. 124ANNEXE A Publications de l’auteur A.1 Revue internationale avec actes et comité de lecture [1] C. Diop, G. Dugué, C. Chassot, E. Exposito, and J. Gomez. Qosaware and autonomic-oriented multipath tcp extensions for mobile and multimedia applications. International Journal of Pervasive Computing and Communications, 8(4) :306–328, 2012. A.2 Conférences et workshop internationaux avec actes et comité de lecture [2] C. Diop, G. Dugué, C. Chassot, and E. Exposito. Qos-aware multipath-tcp extensions for mobile and multimedia applications. In 10th International Conferences on Advances in Mobile Computing and Multimedia (MoMM 2011), MoMM ’11, pages 139–146, New York, NY, USA, 2011. ACM. [3] C. Diop, G. Dugué, C. Chassot, and E. Exposito. Qos-oriented mptcp extensions for multimedia multi-homed systems. In 2nd International Workshop on Protocols and Applications with Multi-Homing Support (PAMS 2012), WAINA ’12, pages 1119–1124, Washington, DC, USA, 2012. IEEE Computer Society. [4] G. Dugué, C. Diop, C. Chassot, and E. Exposito. Towards autonomic multipath transport for infotainment-like systems. In 3rd IEEE 125A. Publications de l’auteur International Workshop on Smart Communications in Network Technologies (SaCoNeT 2012), pages 6453–6457, June 2012. [5] C. Diop, J. Gomez-Montalvo, G. Dugué, C. Chassot, and E. Exposito. Towards a semantic and mptcp-based autonomic transport protocol for mobile and multimedia applications. In 3rd International Conference on Multimedia Computing and Systems, May 10-12, 2012 (ICMCS 2012), pages 496–501, May 2012. [6] G. Dugué, M. Oulmahdi, and C. Chassot. Design principles of a service-oriented and component-based autonomic transport layer. In 4th Track on Adaptive and Reconfigurable Service-oriented and component-based Applications and Architectures, June 2014. [7] M. Oulmahdi, G. Dugué, and C. Chassot. Towards a service-oriented and component-based transport layer. In IEEE 5th International Conference on Smart Communications in Network Technologies (SaCoNeT 2014), June 2014. 126Acronymes A-EC Autonomic Error Control. AC Autonomic Computing. API Application Programming Interface. ATL Autonomic Transport Layer. CTP Configurable Transport Protocol. DCCP Datagram Congestion Control Protocol. ETP Enhanced Transport Protocol. MPTCP Multipath TCP. PNSR Peak Signal to Noise Ratio. QoS Qualité de Service (Quality of Service). SACK Selective Acknowledgement. SACK-FR Selective Acknowledgement with Full Reliability. SCTP Stream Control Transmission Protocol. TCP Transmission Control Protocol. Tng Transport Next Generation. UDP User Datagram Protocol. 127Bibliographie [AGM+10] Mohammad Alizadeh, Albert Greenberg, David A. Maltz, Jitendra Padhye, Parveen Patel, Balaji Prabhakar, Sudipta Sengupta, and Murari Sridharan. Data center tcp (dctcp). SIGCOMM Comput. Commun. Rev., 40(4) :63–74, August 2010. [BP95] L.S. Brakmo and L.L. Peterson. Tcp vegas : end to end congestion avoidance on a global internet. Selected Areas in Communications, IEEE Journal on, 13(8) :1465–1480, 1995. [BWH+07] Patrick G. Bridges, Gary T. Wong, Matti Hiltunen, Richard D. Schlichting, and Matthew J. Barrick. A configurable and extensible transport protocol. IEEE/ACM Trans. Netw., 15(6) :1254–1265, December 2007. [Car02] B. Carpenter. Middleboxes : Taxonomy and Issues. RFC 3234, RFC Editor, February 2002. [CF04] Carlo Caini and Rosario Firrincieli. Tcp hybla : a tcp enhancement for heterogeneous networks. INTERNATIONAL JOURNAL OF SATELLITE COMMUNICATIONS AND NETWORKING, 22, 2004. [Con94] Connolly, T. and Amer, P. and Conrad, P. An Extension to TCP : Partial Order Service. RFC 1693, RFC Editor, November 1994. Obsoleted by RFC 6247. [DABR12] Thomas Dreibholz, Hakim Adhari, Martin Becke, and Erwin Paul Rathgeb. Simulation and Experimental Evaluation of Multipath Congestion Control Strategies. In Proceedings of the 2nd International Workshop on Protocols and Applications with Multi-Homing Support (PAMS), Fukuoka/Japan, March 2012. ISBN 978-0-7695-4652-0. [DBA13] Thomas Dreibholz, Martin Becke, and Hakim Adhari. SCTP Socket API Extensions for Concurrent Multipath Transfer. Internet Draft Version 06, IETF, Network Working Group, July 2013. draft-dreibholztsvwg-sctpsocket-multipath-06.txt, work in progress. 129Bibliographie [Die08] Dierks, T. and Rescorla, E. The Transport Layer Security (TLS) Protocol Version 1.2. RFC 5246, RFC Editor, August 2008. [Egg11] Eggert, L. Moving the Undeployed TCP Extensions RFC 1072, RFC 1106, RFC 1110, RFC 1145, RFC 1146, RFC 1379, RFC 1644, and RFC 1693 to Historic Status. RFC 6247, RFC Editor, May 2011. [ETS13] ETSI. Digital video broadcasting (dvb) ; second generation framing structure, channel coding and modulation systems for broadcasting, interactive services, news gathering and other broadband satellite applications (dvb-s2). Technical report, European Telecommunications Standards Institute, March 2013. [Exp03] Ernesto Exposito. Specification and implementation of a QoS oriented transport protocol for multimedia applications. PhD thesis, Université de Toulouse, Institut National Polytechnique de Toulouse, 2003. [FI08] Bryan Ford and Janardhan Iyengar. Breaking up the transport logjam. In In HOTNETS, 2008. [Flo03] Floyd, S. HighSpeed TCP for Large Congestion Windows. RFC 3649, RFC Editor, December 2003. [Flo06a] Floyd, S. and Kohler, E. Profile for Datagram Congestion Control Protocol (DCCP) Congestion Control ID 2 : TCP-like Congestion Control. RFC 4341, RFC Editor, March 2006. [Flo06b] Floyd, S. and Kohler, E. and Padhye, J. Profile for Datagram Congestion Control Protocol (DCCP) Congestion Control ID 3 : TCPFriendly Rate Control (TFRC). RFC 4342, RFC Editor, March 2006. [Flo07] Floyd, S. and Kohler, E. TCP Friendly Rate Control (TFRC) : The Small-Packet (SP) Variant. RFC 4828, RFC Editor, April 2007. [Flo08] Floyd, S. and Handley, M. and Padhye, J. and Widmer, J. TCP Friendly Rate Control (TFRC) : Protocol Specification. RFC 5348, RFC Editor, September 2008. [Flo09] Floyd, S. and Kohler, E. Profile for Datagram Congestion Control Protocol (DCCP) Congestion ID 4 : TCP-Friendly Rate Control for Small Packets (TFRC-SP). RFC 5622, RFC Editor, August 2009. [For11] Ford, A. and Raiciu, C. and Handley, M. and Barre, S. and Iyengar, J. Architectural Guidelines for Multipath TCP Development. RFC 6182, RFC Editor, March 2011. [Fox89] Fox, R. TCP Big Window and Nak Options. RFC 1106, RFC Editor, June 1989. Obsoleted by RFC 6247. 130Bibliographie [GMPG00] T. Goff, J. Moronski, D.S. Phatak, and V. Gupta. Freeze-tcp : a true end-to-end tcp enhancement mechanism for mobile environments. In INFOCOM 2000. Nineteenth Annual Joint Conference of the IEEE Computer and Communications Societies. Proceedings. IEEE, volume 3, pages 1537–1545 vol.3, 2000. [Hen12] Henderson, T. and Floyd, S. and Gurtov, A. and Nishida, Y. The NewReno Modification to TCP’s Fast Recovery Algorithm. RFC 6582, RFC Editor, April 2012. [HRX08] Sangtae Ha, Injong Rhee, and Lisong Xu. Cubic : a new tcp-friendly high-speed tcp variant. SIGOPS Oper. Syst. Rev., 42(5) :64–74, July 2008. [IEE12a] IEEE. Ieee standard for ethernet. IEEE Std 802.3-2012 (Revision to IEEE Std 802.3-2008), pages 1–0, 2012. [IEE12b] IEEE. Ieee standard for information technology – telecommunications and information exchange between systems local and metropolitan area networks – specific requirements part 11 : Wireless lan medium access control (mac) and physical layer (phy) specifications. IEEE Std 802.11- 2012 (Revision of IEEE Std 802.11-2007), pages 1–2793, 2012. [ITU99a] ITU. G.992.1 : Asymmetric digital subscriber line (adsl) transceivers. Technical report, International Telecommunication Union, July 1999. [ITU99b] ITU. G.992.2 : Splitterless asymmetric digital subscriber line (adsl) transceivers. Technical report, International Telecommunication Union, July 1999. [ITU07] ITU. G.707 : Network node interface for the synchronous digital hierarchy (sdh). Technical report, International Telecommunication Union, January 2007. [ITU11a] ITU. G.1010 : End-user multimedia qos categories. Technical report, International Telecommunication Union, January 2011. [ITU11b] ITU. G.993.2 : Very high speed digital subscriber line transceivers 2 (vdsl2). Technical report, International Telecommunication Union, December 2011. [Jac88] Jacobson, V. and Braden, A. TCP Extensions for Long-Delay Paths. RFC 1072, RFC Editor, October 1988. Obsoleted by RFC 1323, RFC 2018, RFC 6247. [Kho06] Kholer, E. and Handley, M. and Floyd, S. Datagram Congestion Control Protocol (DCCP). RFC 4340, RFC Editor, March 2006. 131Bibliographie [KRW03] Jirka Klaue, Berthold Rathke, and Adam Wolisz. Evalvid - a framework for video transmission and quality evaluation. In In Proc. of the 13th International Conference on Modelling Techniques and Tools for Computer Performance Evaluation, pages 255–272, 2003. [LBL89] M.M. Lara-Barron and G.B. Lockhart. Selective discarding procedure for improved tolerance to missing voice packets. Electronics Letters, 25(19) :1269–1271, Sept 1989. [Mat96] Mathis, M. and Mahdavi, J. and Floyd, S. and Romanow, A. TCP Selective Acknowledgment Options. RFC 2018, RFC Editor, October 1996. [Mil10] Mills, D. and Martin, J. and Burbank, J. and Kasch, W. Network Time Protocol Version 4 : Protocol and Algorithms Specification. RFC 5905, RFC Editor, June 2010. [Nag84] J. Nagel. Congestion Control in IP/TCP Internetworks. RFC 896, RFC Editor, January 1984. [Nis] Yoshifumi Nishida. Ns2 implementation for mtcp. https://code. google.com/p/multipath-tcp/. [Phe12] Phelan, T. and Fairhurst, G. and Perkins, C. DCCP-UDP : A Datagram Congestion Control Protocol UDP Encapsulation for NAT Traversal. RFC 6773, RFC Editor, November 2012. [Pos80] J. Postel. User Datagram Protocol. RFC 768, RFC Editor, August 1980. [Pos81] J. Postel. Transmission Control Protocol. RFC 793, RFC Editor, September 1981. [Pre02] Presuhn, R. and Case, J. and McCloghrie, K. and Rose, M. and Waldbusser, S. Management Information Base (MIB) for the Simple Network Management Protocol (SNMP). RFC 3418, RFC Editor, December 2002. [Sch13] Scharf, M. and Ford, A. Multipath TCP (MPTCP) Application Interface Considerations. RFC 6897, RFC Editor, March 2013. [STBT08] M. Sridharan, K. Tan, D. Bansal, and D. Thaler. Compound TCP : A New TCP Congestion Control for High-Speed and Long Distance Networks. Internet Draft Version 02, IETF, Network Working Group, November 2008. draft-sridharan-tcpm-ctcp-02.txt, expired. 132Bibliographie [Ste04] Stewart, R. and Ramalho, M. and Xie, Q. and Tuexen, M. and Conrad, P. Stream Control Transmission Protocol (SCTP) Partial Reliability Extension. RFC 3758, RFC Editor, May 2004. [Ste07] Stewart, R. and Ed. Stream Control Transmission Protocol. RFC 4960, RFC Editor, September 2007. [VW09] Nicolas Van Wambeke. Une approche pour la composition autonome de services de communication orientés QoS. PhD thesis, Université de Toulouse, 2009. [WJLH06] D.X. Wei, Cheng Jin, S.H. Low, and S. Hegde. Fast tcp : Motivation, architecture, algorithms, performance. Networking, IEEE/ACM Transactions on, 14(6) :1246–1259, 2006. [XHR04] Lisong Xu, K. Harfoush, and Injong Rhee. Binary increase congestion control (bic) for fast long-distance networks. In INFOCOM 2004. Twenty-third AnnualJoint Conference of the IEEE Computer and Communications Societies, volume 4, pages 2514–2524 vol.4, 2004. 133 Gestion de la variabilit´e et automatisation des processus de d´eveloppement logiciel Emmanuelle Rouill´e To cite this version: Emmanuelle Rouill´e. Gestion de la variabilit´e et automatisation des processus de d´eveloppement logiciel. Software Engineering. Universit´e Rennes 1, 2014. French. . HAL Id: tel-01061129 https://tel.archives-ouvertes.fr/tel-01061129 Submitted on 5 Sep 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.ANNÉE 2014 THÈSE / UNIVERSITÉ DE RENNES 1 sous le sceau de l’Université Européenne de Bretagne pour le grade de DOCTEUR DE L’UNIVERSITÉ DE RENNES 1 Mention : Informatique École doctorale Matisse présentée par Emmanuelle ROUILLÉ préparée à l’unité de recherche IRISA – UMR6074 Institut de Recherche en Informatique et Systèmes Aléatoires Gestion de la variabilité et automatisation des processus de développement logiciel Thèse soutenue à Rennes le 16 avril 2014 devant le jury composé de : Marie-Pierre GERVAIS Professeur à l’Université de Paris Ouest Nanterre La Défense / Présidente Pierre-Alain MULLER Professeur à l’Université de Haute-Alsace / Rapporteur Bernard COULETTE Professeur à l’Université de Toulouse II - Le Mirail / Rapporteur Reda BENDRAOU Maître de Conférence à l’Université Pierre et Marie Curie / Examinateur Benoit COMBEMALE Maître de Conférence à l’Université de Rennes 1 / Examinateur Olivier BARAIS Maître de Conférence à l’Université de Rennes 1 / Examinateur David TOUZET Architecte logiciel chez Sodifrance / Examinateur Jean-Marc JÉZÉQUEL Professeur à l’Université de Rennes 1 / Directeur de thèseRemerciements Je remercie le Professeur Bernard Coulette et le Professeur Pierre-Alain Muller d’avoir rapporté ce manuscrit, ainsi que pour leurs retours ayant permis de l’améliorer. Je les remercie également d’avoir fait partie de mon jury de thèse. Je remercie le Professeur Marie-Pierre Gervais d’avoir accepté de présider à ma soutenance, et je remercie le Docteur Reda Bendraou d’avoir examiné mes travaux. Merci à Jean-Marc Jézéquel d’avoir dirigé et également permis cette thèse. Un grand merci à Benoît Combemale, Olivier Barais, David Touzet, et à travers ce dernier Sodifrance, pour m’avoir encadrée, pour leur disponibilité, leur investissement et les nombreux conseils qu’ils m’ont prodigués. Merci à tous les collègues de DiverSE et de Sodifrance pour les discussions intéressantes et tous les bons moments partagés ensemble. Enfin, merci à ma famille, Clément, mes parents, pour leur présence et leur soutien.Résumé De nombreux outils ont été proposés par la communauté du génie logiciel afin de faire face à la complexité des logiciels et des projets de développement logiciel. À titre d’illustration, les systèmes de contrôle de version permettent de gérer les difficultés liées au travail collaboratif et géographiquement distribué, les outils de compilation, de test ou d’intégration continue supportent les méthodes de développement agiles, les IDE (Integrated Development Environments) permettent d’intégrer les différentes technologies utilisées sur un projet, etc. Ces outils sont d’autant plus nombreux qu’il en existent des version différentes, afin de satisfaire les besoins spécifiques à chaque projet. Par exemple des IDE différents peuvent être utilisés en fonction du langage de programmation utilisé. L’utilisation de tous ces outils est cependant à l’origine de nombreuses tâches manuelles répétitives, sources d’erreurs et coûteuses en temps. L’automatisation de ces tâches est un moyen de gagner en productivité. Mais la difficulté est de réutiliser des automatisations de tâches manuelles répétitives. En effet, toutes les automatisations ne sont pas forcément utiles pour tous les projets et elles peuvent avoir des dépendances avec d’autres tâches réalisées pendant un projet. De plus, une automatisation peut être utilisée dans des cas différents, c’est-à-dire dans des projets différents ou à des moments différents d’un même projet. Les défis sont donc de déterminer les projets et les moments d’un projet pour lesquels une automatisation doit être réutilisée, ainsi que de créer des automatisations réutilisables à travers leurs différents cas d’utilisation. Afin de répondre à ces défis, la contribution principale de cette thèse est une approche pilotant la réutilisation des automatisations de tâches manuelles répétitives par les processus de développement logiciel, où un processus de développement logiciel décrit les étapes à réaliser pour mener à bien un projet de développement logiciel. Cette approche consiste à capitaliser sur un ensemble de processus et à réutiliser des processus de cet ensemble en fonction des exigences des projets. Elle s’appuie sur une première sous-contribution, à savoir une approche permettant de réutiliser les processus indépendamment du formalisme utilisé pour les définir. L’approche principale consiste également à lier des automatisations de tâches manuelles répétitives aux étapes d’un ensemble de processus qu’elles automatisent. Ce lien permet de savoir quelles automatisations utiliser pour un projet donné et quand. L’approche principale s’appuie également sur une deuxième sous-contribution, à savoir une méthodologie fournissant un support à la création d’automatisations réutilisables à travers leurs différents cas d’utilisation. Dans cette méthodologie, le lien entre les processus et les automatisations est utilisé afin d’expliciter les différents cas d’utilisation de ces dernières et de créer des automatisations réutilisables. Afin de démontrer la faisabilité de l’approche proposée dans cette thèse, nous proposons un outillage la supportant. Cet outillage a été appliqué a deux cas d’utilisation : une famille de processus industriels de développement Java ainsi qu’une famille de processus consistant à définir et outiller un langage de modélisation.Table des matières 1 Introduction 5 1.1 La prolifération des outils de développement logiciel . . . . . . . . . . . 5 1.2 Le défi : réutiliser des automatisations de tâches manuelles récurrentes . 6 1.3 Contributions de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4 Contexte de réalisation de la thèse . . . . . . . . . . . . . . . . . . . . . . 8 1.5 Plan de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 I Contexte scientifique 11 2 Background 15 2.1 L’ingénierie dirigée par les modèles (IDM) . . . . . . . . . . . . . . . . . 15 2.2 Les processus de développement logiciel . . . . . . . . . . . . . . . . . . 17 2.2.1 Introduction aux processus de développement logiciel . . . . . . 17 2.2.2 Modélisation des processus de développement logiciel avec SPEM 2.0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.3 L’ingénierie des lignes de produits logiciels . . . . . . . . . . . . . . . . . 23 2.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.3.2 CVL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3 État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus 35 3.1 Support à la réutilisation des processus sans spécification de leur variabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.1.1 Identification du processus correspondant à un projet . . . . . . . 38 3.1.2 Réutilisation de processus définis en extension . . . . . . . . . . . 40 3.1.3 Les patrons de processus . . . . . . . . . . . . . . . . . . . . . . . 40 3.2 Ingénierie des lignes de processus . . . . . . . . . . . . . . . . . . . . . . 42 3.2.1 Utilisation des mécanismes d’un langage . . . . . . . . . . . . . . 43 3.2.2 Extension d’un langage de modélisation de processus . . . . . . . 44 3.2.2.1 Utilisation de processus agrégats . . . . . . . . . . . . . 44 3.2.2.2 Modification d’un processus de base . . . . . . . . . . . 46 12 TABLE DES MATIÈRES 3.2.2.3 Spécification des points de variation et des variantes d’un processus . . . . . . . . . . . . . . . . . . . . . . . . 47 3.2.2.4 Configuration de processus par composition . . . . . . . 49 3.2.2.5 Association de plusieurs techniques . . . . . . . . . . . . 50 3.2.3 Transformation en une structure pivot . . . . . . . . . . . . . . . . 50 3.2.4 Spécification de la variabilité sans réutilisation automatique . . . 51 3.2.5 Synthèse sur l’ingénierie des lignes de processus . . . . . . . . . . 52 3.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 II Automatisation des tâches manuelles récurrentes pilotée par les processus de développement logiciel 63 4 Gestion de la variabilité dans les processus 67 4.1 Exemple illustratif : une famille de processus de métamodélisation . . . 67 4.2 Approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 4.2.1 Définition de la ligne de processus de développement logiciel . . 72 4.2.1.1 Méthodologie pour la modélisation des éléments de processus (étape 1) . . . . . . . . . . . . . . . . . . . . . . 72 4.2.1.2 Spécification de la variabilité des exigences des projets (étape 2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.2.1.3 Liaison entre les exigences des projets et les processus (étape 3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 4.2.2 Dérivation d’un processus en fonction des exigences d’un projet 78 4.2.2.1 Résolution de la variabilité des exigences des projets (étape 4) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 4.2.2.2 Dérivation automatique de processus (étape 5) . . . . . 78 4.2.3 Exécution d’un processus résolu . . . . . . . . . . . . . . . . . . . 79 4.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 4.3.1 Capacité de CVL à gérer la variabilité des processus en fonction de la variabilité des exigences des projets . . . . . . . . . . . . . . 80 4.3.2 Indépendance de CVL vis-à-vis des métamodèles de processus . 80 4.3.3 Validité du modèle de processus résolu . . . . . . . . . . . . . . . 80 4.3.4 Extension possible à la méthodologie pour modéliser le processus de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5 Création de composants d’automatisation réutilisables 85 5.1 Exemple illustratif : automatisation de la configuration de l’espace de travail local d’un développeur . . . . . . . . . . . . . . . . . . . . . . . . . 85 5.2 La méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.2.1 Définition d’une ligne de processus de développement logiciel (étape 1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 5.2.1.1 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . 90TABLE DES MATIÈRES 3 5.2.1.2 Illustration . . . . . . . . . . . . . . . . . . . . . . . . . . 90 5.2.2 Spécification des composants d’automatisation (étape 2) . . . . . 91 5.2.2.1 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . 91 5.2.2.2 Illustration . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.2.3 Liaison entre les CA et leurs contextes d’utilisation (étape 3) . . . 92 5.2.3.1 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . 92 5.2.3.2 Illustration . . . . . . . . . . . . . . . . . . . . . . . . . . 93 5.2.4 Conception des composants d’automatisation (étape 4) . . . . . . 93 5.2.4.1 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . 93 5.2.4.2 Illustration . . . . . . . . . . . . . . . . . . . . . . . . . . 94 5.2.5 Implémentation des composants d’automatisation (étape 5) . . . 95 5.2.5.1 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . 95 5.2.5.2 Illustration . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5.3.1 Bénéfices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 5.3.2 Une limitation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.3.3 Un inconvénient . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 III Outillage et application 101 6 Outil pour la gestion de la variabilité et l’automatisation des processus 105 6.1 Exemples de tâches manuelles récurrentes . . . . . . . . . . . . . . . . . . 105 6.2 Vue générale de l’outil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 6.2.1 Définition d’une ligne de processus . . . . . . . . . . . . . . . . . 109 6.2.2 Définition des CA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 6.2.3 Dérivation d’un processus en fonction des exigences d’un projet 111 6.2.4 Automatisation de l’exécution des processus . . . . . . . . . . . . 112 6.3 Implémentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 6.3.1 Les modeleurs de VAM et de VRM . . . . . . . . . . . . . . . . . . 113 6.3.2 Les modeleurs de CA abstraits et de liaisons . . . . . . . . . . . . 115 6.3.3 Le framework support à l’implémentation des CA . . . . . . . . . . 117 6.3.3.1 Liaison entre un CA et le plug-in Eclipse l’implémentant 118 6.3.3.2 Exécution générique des plug-in Eclipse implémentant les CA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 6.3.3.3 Gestion de l’accès aux informations contextuelles . . . . 119 6.3.4 L’assistant à la résolution de la variabilité . . . . . . . . . . . . . . 122 6.3.5 Le moteur de dérivation CVL . . . . . . . . . . . . . . . . . . . . . 124 6.3.6 L’interpréteur de processus . . . . . . . . . . . . . . . . . . . . . . 126 6.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 6.4.1 Recommandations . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 6.4.2 Extensions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 6.5 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1304 TABLE DES MATIÈRES 7 Applications de l’approche 133 7.1 Application sur une famille de processus de métamodélisation . . . . . . 133 7.2 Application sur une famille de processus de développement web Java . 139 7.3 Synthèse et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 8 Conclusion et perspectives 149 8.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 8.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 8.2.1 Perspectives industrielles . . . . . . . . . . . . . . . . . . . . . . . 151 8.2.1.1 Utilisation de T4VASP quel que soit le cas d’application 151 8.2.1.2 Limitation des erreurs . . . . . . . . . . . . . . . . . . . . 151 8.2.1.3 Suppression des redondances dans le modèle de CA abstraits et de liaisons . . . . . . . . . . . . . . . . . . . . 152 8.2.2 Perspectives de recherche à court terme . . . . . . . . . . . . . . . 153 8.2.3 Perspectives de recherche à long terme . . . . . . . . . . . . . . . 153 8.2.3.1 Gestion de la variabilité des processus au moment de leur l’exécution . . . . . . . . . . . . . . . . . . . . . . . . 153 8.2.3.2 Amélioration de la réutilisation des CA . . . . . . . . . . 154 Appendices 155 A Extrait des modèles et CA de la famille de processus de métamodélisation 157 B Extrait des modèles et CA de la famille de processus de développement web Java 163 Bibliographie 169 Liste des figures 179 Liste des tables 183 Liste des publications 185Chapitre 1 Introduction 1.1 La prolifération des outils de développement logiciel La variabilité et l’évolution des exigences d’un projet de développement logiciel sont connues comme une des sources principales de complexité de l’activité de création logiciel [TI93, JMD04, Mar03]. En outre, les projets de développement logiciel sont de plus en plus réalisés de manière collaborative [HMR06], dans un contexte géographiquement distribué [CBHB07], et dans un contexte de globalisation faisant collaborer un ensemble d’entreprises au sein d’un même projet. Ces caractéristiques apportent une complexité accidentelle supplémentaire à la problématique du développement logiciel. Un des objectifs du génie logiciel est de conserver l’intelligibilité du processus de construction et de maintenance de ces applications. Dans ce cadre, de nombreux outils sont apparus afin de gérer, voire automatiser, une partie de cette complexité. Cependant, de part le nombre d’acteurs intervenant dans la construction d’un logiciel et leurs multiples préoccupations, il existe maintenant un écosystème riche et lui-même complexe lié à la problématique de développement logiciel. Parmi ces outils, sans être exhaustifs, nous pouvons citer : – des systèmes de contrôle de version (SVN, Git...) qui permettent de gérer les difficultés liées au travail collaboratif et géographiquement distribué, – des outils de compilation (Maven, Ant, PDE...) qui permettent de gérer les problé- matiques d’intégration de composants ou de librairies réutilisables au moment de la construction d’un logiciel complexe, – des outils d’analyse statique comme PMD, Findbugs ou Sonar qui aident à amé- liorer la qualité du logiciel, – des outils de support à l’exécution des différents types de test logiciel (JUnit, Selenium, Quality Center...), – des environnements de développement intégrés (IDE, Integrated Development Environment) permettant d’intégrer les différentes technologies utilisées sur un projet (langages, outils, frameworks, librairies...), – des outils d’intégration continue permettant d’automatiser une partie de l’orchestration de la problématique de production logicielle. 56 Introduction La forte variabilité des exigences entre différents projets logiciels motive l’existence d’outils différents prenant en compte des préoccupations similaires, mais chacun avec des spécificités permettant de répondre au mieux aux exigences des différents projets. Ceci permet de comprendre le nombre d’outils existants et l’utopie de viser l’émergence d’un unique outil. Ainsi, certaines équipes de développement font le choix de l’IDE Visual Studio pour développer des applications Windows afin de profiter de toutes les facilités proposées par Microsoft pour ce faire, alors que si l’application à développer a des contraintes d’indépendance vis-à-vis du système d’exploitation sur lequel elle sera déployée, une équipe de développement pourra préférer l’IDE Eclipse pour faire du développement en Java. L’utilisation de tous ces outils est généralement bénéfique au bon fonctionnement d’un projet mais elle engendre aussi un ensemble de tâches d’ingénierie logicielle qui sont réalisées manuellement par les équipes de développement. Utiliser ces différents outils peut impliquer de devoir s’en procurer une version, de devoir les installer, les configurer, ou encore les mettre à jour. Par exemple, un développeur utilisant un IDE peut être amené à installer les librairies et les plug-ins nécessaires pour un projet, ainsi qu’à configurer ces derniers. Ces tâches sont de plus récurrentes dans le sens où elles peuvent avoir lieu plusieurs fois pendant un même projet mais aussi qu’elles se répètent d’un projet à l’autre, toujours dans un contexte différent. Par exemple, dans un projet, chaque développeur doit installer un IDE conforme aux exigences de ce projet. Nous appelons dans cette thèse ces tâches répétitives et réalisées manuellement des Tâches Manuelles Récurrentes (TMR). Ces TMR, bien qu’étant toujours similaires, doivent prendre en compte le contexte particulier dans lequel elles sont réalisées. Elles se révèlent être coûteuses en temps et sources d’erreurs pour les équipes de développement [RCB+11]. 1.2 Le défi : réutiliser des automatisations de tâches manuelles récurrentes L’automatisation des TMR liées à l’utilisation des outils de développement logiciel doit permettre de gagner en productivité. Cela doit aussi permettre d’éviter les erreurs humaines inhérentes à toute activité répétitive. Cependant, l’intérêt de la mise en place d’une telle automatisation est limité si les automatisations de TMR ne sont pas réutilisées, au sein d’un même projet mais également d’un projet à l’autre. Or, la réutilisation d’automatisations de TMR est un exercice difficile pour les trois raisons suivantes : 1. Bien qu’une automatisation de TMR puisse être utile pour différents projets, toutes les automatisations de TMR ne sont pas forcément utiles pour chaque projet. La difficulté est donc de déterminer quelles automatisations de TMR réutiliser pour un projet donné. 2. Une automatisation de TMR pouvant avoir des dépendances avec d’autres tâches d’un projet, une difficulté supplémentaire est de déterminer à quels moments d’un projet utiliser une automatisation de TMR.Contributions de la thèse 7 3. La problématique du niveau de généralisation est aussi un problème complexe. Comment déterminer qu’une automatisation de TMR utile pour des projets différents, ou à des moments différents d’un même projet, soit bien réutilisable à travers ces différents cas d’utilisation ? 1.3 Contributions de la thèse Afin de répondre aux défis précédemment énoncés, la contribution de cette thèse est de piloter l’automatisation des TMR liées à l’utilisation des outils de développement logiciel par les processus de développement logiciel. Un processus de développement logiciel correspond à l’ensemble des activités d’ingénierie logicielle requises pour transformer les exigences d’un utilisateur en logiciel [Hum88]. La mise en œuvre de cette contribution s’appuie sur la définition d’une famille de processus de développement logiciel et sur la réutilisation des processus de cette famille en fonction des exigences des projets. Des formalismes différents pouvant être utilisés pour définir les processus de développement logiciel en fonction des exigences des utilisateurs [Zam01], nous proposons une approche (première sous-contribution) permettant de réutiliser les processus indépendamment du langage utilisé pour les définir. Cette approche repose sur l’ingénierie des lignes de produits [PBL05] (où ici les produits sont des processus de développement logiciel) afin de gérer la variabilité dans les processus. La mise en œuvre de la contribution consiste également à lier des automatisations de TMR aux unités de travail d’une famille de processus qu’elles automatisent. Une même automatisation de TMR peut être liée à des unités de travail différentes, appartenant ou non à un même processus. Nous proposons donc une méthodologie (deuxième sous-contribution) fournissant un support à la création d’automatisations de TMR qui soient réutilisables pour toutes les unités de travail auxquelles elles sont liées. L’idée consiste à utiliser le lien entre les automatisations de TMR et la famille de processus pour identifier ces différentes unités de travail. Cette information est ensuite utilisée afin d’implémenter des automatisations réutilisables pour toutes ces unités de travail. Lors de la réalisation d’un processus d’une famille, le lien entre les processus et les automatisations de TMR est utilisé afin de savoir quelles automatisations exécuter pour un projet donné et quand. Pour réaliser cette contribution, nous nous appuyons sur l’IDM (Ingénierie Dirigée par les Modèles) [JCV12] qui offre les outils et méthodes nécessaires pour obtenir une représentation holistique et abstraite des différentes préoccupations (exigences, variabilité et processus) et raisonner de manière uniforme au travers de celles-ci. Afin de valider notre contribution, nous avons développé un outillage supportant sa mise en œuvre. La validation de la contribution a été démontrée sur une famille de processus industriels de développement web Java issue de la société Sodifrance, ainsi que sur une famille de processus consistant à définir et outiller un langage de modélisation.8 Introduction 1.4 Contexte de réalisation de la thèse Cette thèse s’est déroulée dans le cadre d’un contrat Cifre avec la société Sodifrance. Cela nous a permis d’appréhender concrètement la difficulté majeure à laquelle sont confrontées les ESN (Entreprises de Services du Numérique) du secteur du tertiaire. En effet, afin de faire face à la concurrence, ces sociétés sont dans une situation paradoxale où elles doivent réduire leur coûts et temps de développement, tout en garantissant la qualité des produits livrés au client. C’est d’ailleurs cette difficulté qui justifie ces travaux de thèse. Ceux-ci s’inscrivent en effet dans une démarche d’augmentation de la productivité des équipes de développement de Sodifrance. Bénéficier d’une collaboration industrielle a également fait ressortir les exigences principales auxquelles des travaux de recherche doivent répondre pour être utilisés dans l’industrie : être pertinents, outillés et validés. Des travaux de recherche n’ont en effet d’intérêt pour une entreprise que s’ils apportent une solution à des problèmes rencontrés par cette entreprise. Le coût de production élevé de l’outillage support à des travaux de recherche peut de plus empêcher l’adoption d’une approche. D’autre part, les contraintes fi- nancières auxquelles sont souvent confrontées les entreprises peuvent être un frein à l’adoption d’une approche qui n’a pas fait ses preuves. Ce sont ces exigences qui ont permis d’orienter la réalisation de ces travaux de thèse et de déterminer les améliorations à leur apporter. Enfin, la collaboration avec Sodifrance nous a permis d’avoir accès à des cas concrets de projets de développement, à partir desquels nous avons pu concevoir, réaliser et appliquer les contributions de cette thèse. 1.5 Plan de la thèse Cette thèse s’organise en trois parties principales, qui sont le contexte scientifique (partie I), les contributions (partie II) et la validation des travaux de thèse (partie III). Le contexte scientifique (partie I) s’organise en deux chapitres. Le chapitre 2 introduit l’environnement scientifique sur lequel s’appuient ces travaux de thèse. Plus précisément, il introduit l’IDM, les processus de développement logiciel, ainsi que l’ingénierie des lignes de produits logiciels. Il introduit également SPEM et CVL, deux langages de l’OMG permettant respectivement de définir des processus de développement logiciel et de mettre en œuvre l’ingénierie des lignes de produits. Le chapitre 3, traite de l’état de l’art sur la réutilisation d’automatisations de TMR. Cet état de l’art porte plus particulièrement sur les approches permettant de savoir quand réutiliser des automatisations de TMR et permettant de développer des composants logiciels réutilisables. La contribution de la thèse, le pilotage de l’automatisation des TMR par les processus de développement logiciel, est présentée dans la partie II. Les sous-contributions de la thèse sont détaillées dans deux chapitres. Le chapitre 4 présente la première sous-contribution, à savoir notre approche permettant de réutiliser les processus de développement logiciel en fonction des exigences des projets et indépendamment du langage utilisé pour définir ces processus. Le chapitre 5 détaille la deuxième sous-Plan de la thèse 9 contribution, une méthodologie fournissant un support à la création d’automatisations de TMR réutilisables dans tous leurs cas d’utilisation. La validation des travaux de thèse (partie III) comprend deux chapitres. Dans le chapitre 6, nous présentons l’outillage support aux contributions de cette thèse. Dans le chapitre 7, nous appliquons cet outillage à une famille de processus consistant à définir et outiller un langage de modélisation ainsi qu’à une famille de processus de développement web Java issue de Sodifrance. Enfin, nous concluons et présentons nos perspectives de travail dans le chapitre 8.10 IntroductionPremière partie Contexte scientifique 1113 Dans cette partie, nous commençons par présenter dans le chapitre 2 les diffé- rents champs de recherche sur lesquels nous nous appuyons dans cette thèse. Nous présentons ensuite dans le chapitre 3 l’état de l’art de cette thèse.14Chapitre 2 Background Nous présentons dans ce chapitre les différents champs de recherche sur lesquels nous nous appuyons dans cette thèse. Nous commençons par présenter, dans la section 2.1, l’IDM (Ingénierie Dirigée par les Modèles), que nous utilisons pour mettre en œuvre les contributions de cette thèse. Nous présentons ensuite, dans la section 2.2, les processus de développement logiciel, ainsi que l’ingénierie des lignes de produits logiciels dans la section 2.3. En plus d’introduire, dans les sections 2.2 et 2.3, les concepts relatifs aux processus de développement logiciel et à l’ingénierie des lignes de produits, nous montrons comment l’IDM s’applique à ces domaines. Enfin, nous faisons une synthèse de ce chapitre dans la section 2.4. 2.1 L’ingénierie dirigée par les modèles (IDM) La séparation des préoccupations [Dij82] est un moyen de gérer la complexité des logiciels. En effet, il est plus simple et efficace pour l’esprit humain de résoudre un problème complexe en le décomposant en sous-problèmes de complexité moindre plutôt que de considérer le problème complexe dans son ensemble. L’IDM [JCV12] est un moyen de mettre en œuvre la séparation des préoccupations, en s’appuyant sur le principe de l’abstraction. En effet, le principe général de l’IDM est d’utiliser une représentation simplifiée d’un aspect du monde réel (c’est-à-dire un modèle) dans un objectif donné, en s’abstrayant des détails qui n’ont pas de rapport avec cet aspect. Dans le domaine de l’ingénierie logicielle, chaque aspect d’un système logiciel peut donc être représenté par un modèle. Ce modèle est lui-même exprimé avec un langage de modélisation généraliste tel qu’UML [OMG11b, OMG11c] ou avec un langage de modélisation dédié à un domaine métier particulier. L’intérêt de ces langages est qu’ils soient plus simples à appréhender pour des humains que les langages de programmation classiques (Java, C#, ...) ou que le langage machine. Un modèle peut alors être vu comme un support plus adapté pour des humains pour exprimer un aspect particulier d’un logiciel ainsi que pour réfléchir et communiquer sur cet aspect. Une problématique clé de l’IDM est également de rendre les modèles opération- 1516 Background nels. Cependant, à cette fin, ceux-ci doivent être interprétables par des machines. Le langage dans lequel ils sont exprimés doit donc être clairement défini. Comme tout langage informatique, un langage de modélisation est caractérisé par sa syntaxe abstraite, sa syntaxe concrète et sa sémantique [JCV12]. La syntaxe abstraite est la syntaxe manipulée par l’ordinateur. Dans le contexte des langages de modélisation, elle sert généralement de base à la définition de la syntaxe concrète et de la sémantique. La syntaxe concrète est la syntaxe manipulée par l’utilisateur du langage à l’aide d’un éditeur. Elle comprend des éléments syntaxiques dont le but est de faciliter l’utilisation d’un langage pour des humains. Elle associe des représentations pour chacun des élé- ments de la syntaxe abstraite. Il est tout à fait possible de définir des syntaxes concrètes différentes pour une même syntaxe abstraite, en fonction des besoins. La sémantique d’un langage de modélisation est définie en associant un sens à chacun des éléments de la syntaxe abstraite. Il est également possible de définir des sémantiques différentes pour une même syntaxe abstraite, en fonction des besoins (ex : vérification, simulation, compilation, etc.). Dans le domaine de l’IDM, la syntaxe abstraite peut prendre la forme d’un modèle, appelé métamodèle. On dit d’un modèle m qu’il est conforme à un métamodèle mm si chaque élément de m est une instance d’un élément de mm [Guy13]. Cependant, face à la prolifération des métamodèles, le besoin est apparu de les unifier avec un langage de description commun, afin de les rendre compatibles entre eux et de pouvoir définir des outils capables de les manipuler de manière générique. L’OMG a donc proposé un langage de description des métamodèles, qui prend lui aussi la forme d’un modèle : le métamétamodèle MOF (Meta-Object Facility) [OMG06]. La particularité du métamétamodèle est qu’il se définit lui-même, limitant ainsi le nombre de niveaux de modélisation. Quand le métamétamodèle MOF ne permet pas d’exprimer toutes les propriétés d’un métamodèle, il est possible d’utiliser un langage de contrainte, tel qu’OCL (Object Constraint Language) [OMG10], afin d’exprimer ces propriétés. Dans la pratique, l’utilisation de modèles de manière opérationnelle peut prendre plusieurs formes. Nous ne présentons ici que celles qui sont pertinentes pour la compréhension de cette thèse. Ainsi, les modèles peuvent être utilisés directement comme le système logiciel final à produire, en les exécutant tout comme il est possible d’exé- cuter n’importe quel programme informatique. Deux méthodes existent pour exécuter des modèles : l’interprétation et la compilation. L’interprétation consiste à analyser chaque élément d’un modèle et à l’exécuter en fonction de sa sémantique. La compilation consiste à transformer un modèle conforme à un langage en un modèle ou du texte conforme à un autre langage, et ensuite à exécuter le modèle ou le texte obtenu après transformation. Il existe à ce jour de nombreux outils support à l’IDM. Dans cette thèse, nous utilisons EMF (Eclipse Modeling Framework) [SBPM09], un framework de l’environnement de développement Eclipse 1 , afin de définir des métamodèles, de générer des éditeurs arborescents permettant de créer des modèles conformes à ces métamodèles, ainsi que de manipuler ces modèles et métamodèles en Java. EMF s’appuie sur le langage de 1. http://www.eclipse.orgLes processus de développement logiciel 17 métamodélisation Ecore [BSE03], qui est similaire au MOF. Nous faisons également référence dans cette thèse à l’utilisation d’UML afin de définir des langages de modé- lisation dédiés à un domaine métier particulier. Le mécanisme de profil UML permet en effet d’étendre UML de façon générique. Plus précisément, il permet d’ajouter de nouveaux concepts propre à un domaine métier particulier, de définir leurs propriétés, de spécifier des contraintes sur ces concepts et également de leur associer une repré- sentation graphique. Un profil est définit principalement à l’aide de stéréotypes, où un stéréotype définit un nouveau concept, mais toujours sous la forme d’une extension d’un élément UML. Un stéréotype peut avoir des propriétés ainsi qu’une représentation graphique. Des contraintes (telles que des contraintes OCL) peuvent également être définies sur ce stéréotype. 2.2 Les processus de développement logiciel 2.2.1 Introduction aux processus de développement logiciel Un processus de développement logiciel correspond à l’ensemble des activités d’ingénierie logicielle requises pour transformer les exigences d’un utilisateur en logiciel [Hum88]. La maîtrise de ces processus est un enjeu crucial pour les entreprises qui développent des logiciels. Pour preuve, le CMM (Capability Maturity Model) [Ins95] est une méthodologie qui se base sur l’amélioration des processus de développement logiciel afin d’améliorer la qualité des logiciels produits, tout en réduisant les coûts et les temps de production [HZG+97, Dio93]. La maîtrise des processus de développement logiciel passe, entre autres, par l’utilisation de formalisations de processus afin de supporter leur exécution [Ost87, Ins95]. L’exécution d’un processus de développement logiciel consiste en la réalisation des différentes unités de travail définies par ce processus, dans l’ordre dans lequel elles sont définies [Ben07]. Des méthodes 2 de développement logiciel, telles que les méthodes de développement en cascade [Roy87] ou en spirale [Boe88], ont dans un premier temps été proposées afin de définir les processus de développement logiciel. Ces méthodes donnent une vue générale des activités à accomplir pour mener à bien un projet de développement logiciel. Mais leur principale limitation est qu’elles ne fournissent pas assez de détails pour guider la réalisation concrète de ces activités [CKO92]. La notion de modèle de processus est alors apparue afin de faire face à cette limitation, où un modèle de processus capture de manière plus détaillée les informations nécessaires pour guider la réalisation d’un projet. Ces modèles de processus sont exprimés selon un langage de modélisation de processus de développement logiciel. Il existe à ce jour plusieurs langages de modélisation de processus de développement logiciel, comme SPEM [OMG08], xSPEM [BCCG07], Little-JIL [Wis06], UML4SPM [BGB06], ou encore SEMDM [ISO07]. Nous présentons plus en détails un de ces langages, SPEM, en section 2.2.2. 2. Une méthode définit comment mettre en œuvre des unités de travail et des artéfacts qui servent à la définition de processus de développement logiciel [HIMT96].18 Background Figure 2.1 – Modèle conceptuel de SPEM Un modèle de processus peut ensuite servir à guider l’exécution d’un processus. En effet, le modèle de processus peut être utilisé comme support de communication entre les différents membres d’une équipe [Ost87, Ins95]. Un modèle de processus peut aussi être utilisé comme un programme qu’il est possible d’exécuter [Ost87], afin d’automatiser les étapes de l’exécution du processus qui peuvent l’être [RGC04]. Des outils supportant l’exécution de langages de modélisation de processus ont ainsi vu le jour, comme Wilos 3 pour SPEM, Juliette [CLM+99, CLS+00] pour Little-JIL, ainsi qu’un compilateur et un interpréteur [Ben07] pour UML4SPM. 2.2.2 Modélisation des processus de développement logiciel avec SPEM 2.0 SPEM 2.0 (Software & Systems Process Engineering Metamodel) [OMG08] est le standard de l’OMG dédié à la modélisation des processus logiciels et systèmes. Il vise à offrir un cadre conceptuel pour modéliser, échanger, documenter, gérer et présenter les processus et méthodes. Les concepts de SPEM 2.0 sont décrits par un métamodèle qui repose sur l’idée qu’un processus de développement est une collaboration entre des entités actives et abstraites, les rôles, qui représentent un ensemble de compétences et qui effectuent des opérations, les activités, sur des entités concrètes et réelles, les produits. Les différents rôles agissent les uns par rapport aux autres ou collaborent en échangeant des produits et en déclenchant l’exécution de certaines activités. Ce modèle conceptuel est synthétisé sur la figure 2.1. La particularité de SPEM 2.0 est qu’il sépare les aspects contenus et données relatifs aux méthodologies de développement, de leurs possibles instanciations dans un projet particulier. Ainsi, pour pleinement exploiter ce framework, la première étape devrait être de définir toutes les phases, activités, produits, rôles, guides, outils, etc., qui peuvent composer une méthode pour ensuite, dans une deuxième étape, choisir en fonction du contexte et du projet, le contenu de la méthode appropriée pour l’utiliser dans la définition du processus. SPEM 2.0 est défini sous la forme d’un métamodèle MOF [OMG06] qui s’appuie sur les spécifications UML 2.0 Infrastructure [OMG11b] et UML 2.0 Diagram Defini- 3. www.wilos.ups-tlse.frLes processus de développement logiciel 19 Figure 2.2 – Structure du métamodèle de SPEM 2.0 [OMG08] tion [OMG12]. De UML 2.0 Infrastructure, il réutilise les concepts de base tels que Classifier ou Package. Aucun concept de UML 2.0 Superstructure [OMG11c] n’est réutilisé. Le standard est défini également sous la forme d’un profil UML où chaque élément du métamodèle de SPEM 2.0 est défini comme un stéréotype de UML 2.0 Superstructure. Le métamodèle de SPEM 2.0 est composé de sept paquetages liés avec le mécanisme «merge» [OMG11b], chaque paquetage traitant d’un aspect particulier (cf. figure 2.2). Le paquetage Core introduit les classes et les abstractions qui définissent les fondations pour tous les autres paquetages. La structure de décomposition de ce paquetage est la classe WorkDefinition, qui généralise toutes les activités de travail de SPEM 2.0. Le paquetage ProcessStructure définit les éléments permettant de représenter les modèles de processus. Cependant, la possibilité de documenter textuellement ces élé- ments (c.-à-d. ajouter les propriétés décrivant chaque élément) n’est pas fournie dans ce paquetage mais dans ManagedContent, qui définit les concepts pour gérer les descriptions textuelles des éléments de processus. Des exemples de ces concepts sont les classes ContentDescription et Guidance. Le paquetage MethodContent définit les concepts de base pour spécifier le contenu de méthodes basiques. Le paquetage ProcessWithMethod regroupe l’ensemble des éléments requis pour intégrer les processus définis avec les concepts du paquetage ProcessStructure, selon les contenus définis avec les concepts du paquetage MethodContent. Le paquetage MethodPlugin offre les mécanismes pour gérer et réutiliser des bibliothèques de contenus de méthode et processus. Ceci est assuré grâce aux concepts MethodLibrary et MethodPlugin. Une instance de MethodLibrary est un conteneur pour tout élément SPEM 2.0. C’est donc l’élément racine d’un modèle SPEM 2.0. Une instance de MethodPlugin est plus particulièrement un conteneur pour des contenus de méthodes et des processus. Enfin, le paquetage ProcessBehavior offre le moyen de lier un élément de procédé SPEM 2.0 avec un comportement externe comme des diagrammes d’activités UML 2.0 ou des modèles BPMN (Business Process Modeling Notation) [OMG11a].20 Background Figure 2.3 – Extraits de certains paquetages du métamodèle de SPEM 2.0 La figure 2.3 détaille le contenu des paquetages Core, MethodContent, ProcessStructure et ProcessWithMethod qui est utile pour la compréhension de la suite de cette thèse. Le paquetage MethodContent contient des éléments de contenu de méthode (MethodContentElement), tels que des définitions de rôles (RoleDefinition), qui réalisent des définitions de tâches (TaskDefinition) en utilisant des définitions d’outils (ToolDefinition). Une définition de tâche a des définitions de produits de travail (WorkProductDefinition) en tant qu’entrées et sorties. Le paquetage ProcessStructure définit des éléments de processus appartenant à une structure de décomposition (BreakdownElement). Parmi ces éléments de processus sont définis des produits de travail (WorkProductUse), des rôles (RoleUse), et également des éléments représentant un travail (WorkBreakdownElement). Parmi les éléments représentant un travail, une activité (Activity) est un conteneur pour d’autres éléments de processus appartenant à une structure de décomposition. Le paquetage ProcessWithMethod spécifie qu’un produit de travail se base sur une définition de produit de travail et qu’un rôle se base sur une définition de rôle. Il spécifie également un nouveau type d’élément de processus représentant un travail, la tâche (TaskUse), qui se base sur une définition de tâche. Une tâche est réalisée par un rôle, et c’est la classe ProcessPerformer qui fait le lien entre les deux. Une tâche a également des produits de travail en entrée et en sortie, et c’est un paramètre (classe ProcessParameter du paquetage ProcessStructure) qui permet de faire le lien entre une tâche et ses entrées et sorties. Le paquetage Core contient entre autres une classe ParameterDirectionKind, qui permet de définir si un produit de travail est une entrée (in) ou une sortie (out) d’un travail.Les processus de développement logiciel 21 Figure 2.4 – Syntaxe concrète de SPEM 2.0 et des diagrammes d’activités SPEM 2.0 définit également un plug-in de base, sous la forme d’une instance de MethodPlugin. Ce plug-in définit un type particulier d’activité, le processus (DeliveryProcess), qui correspond à l’approche complète pour réaliser un type de projet particulier. Un processus définit donc la séquence d’activités à réaliser pour mener à bien un projet de développement logiciel, tandis qu’une activité définit la séquence de tâches à effectuer pour réaliser cette activité. Étant donné qu’en SPEM 2.0 les tâches et les activités sont des actions (Action) UML 2.0 stéréotypées, il est possible d’utiliser les diagrammes d’activités UML 2.0 pour modéliser une séquence d’activités ou de tâches. En UML 2.0, une action, un flot de contrôle (ControlFlow), un nœud initial (InitialNode), un nœud final (ActivityFinalNode), un nœud de jointure (JoinNode), un nœud de parallélisation (ForkNode) et un nœud de décision (DecisionNode) sont des sous-types de nœud d’activité (ActivityNode). Un flot de contrôle représente l’enchaînement de deux nœuds d’activité, où un nœud d’activité source est suivi par un nœud d’activité cible. La condition d’un flot de contrôle, quand elle existe, spécifie à quelle condition ce flot de contrôle est navigable. Les nœuds initiaux et finaux spécifient respectivement le début et la fin d’un enchaînement d’activités ou de tâches. Un nœud de parallélisation divise un flot de contrôle en plusieurs flots de contrôle navigables simultanément. Un nœud de jointure fusionne plusieurs flots de contrôle en un seul. Un nœud de décision divise un flot de contrôle en plusieurs flots de contrôle alternatifs. La figure 2.4 illustre la syntaxe concrète que nous utilisons dans cette thèse pour représenter des processus SPEM 2.0 ainsi que des diagrammes d’activités. Pour terminer, nous illustrons l’utilisation de SPEM 2.0 en modélisant un exemple de processus simplifié de développement d’une application Java. Ce processus (cf. fi- gure 2.5) commence avec l’activité spécifier, durant laquelle un expert fonctionnel produit un document définissant les spécifications techniques et fonctionnelles de l’application à développer, en fonction des exigences d’un projet. L’activité spécifier est suivie par l’activité développer, pendant laquelle un développeur code manuellement l’application. Lors de l’activité tester suivante, un testeur vérifie que l’application en cours de dé- veloppement est bien conforme aux spécifications. Si cette activité révèle des erreurs, celles-ci doivent être corrigées, ce qui se traduit dans le processus par un retour à l’activité de développement. S’il n’y a pas d’erreur, le processus se termine par l’activité mettre en production, qui consiste à déployer l’application sur l’environnement du client. Dans le cas de cet exemple, l’activité de développement consiste en la création et la22 Background modification de projets Eclipse, comme illustré par la figure 2.6. Les tâches créer premier projet Eclipse, créer projet Eclipse, modifier projets Eclipse ainsi que le produit de travail projet(s) Eclipse font respectivement référence aux éléments de contenu de méthode de même nom de la figure 2.7. Figure 2.5 – Un processus simplifié de développement Java Figure 2.6 – Détail de l’activité de développement du processus de la figure 2.5L’ingénierie des lignes de produits logiciels 23 Figure 2.7 – Éléments de contenu de méthode du processus simplifié de développement Java de la figure 2.5 2.3 L’ingénierie des lignes de produits logiciels 2.3.1 Introduction Une ligne de produits logiciels, ou famille de produits logiciels, est un ensemble de produits logiciels partageant des caractéristiques communes et développés à partir d’un ensemble commun d’artéfacts [CN01]. L’ingénierie des lignes de produits logiciels [WL99, CN01, PBL05] permet la réutilisation d’artéfacts logiciels pour créer un nouveau produit logiciel, plutôt que de développer ce produit à partir de rien [Kru92]. Elle s’appuie sur l’identification de la variabilité et des parties communes d’une ligne de produits afin de réutiliser ces parties communes. L’ingénierie des lignes de produits logiciels apporte des bénéfices en termes de réduction des coûts et des temps de développement ainsi qu’en termes d’amélioration de la qualité des produits logiciels. Afin de permettre la réutilisation des artéfacts logiciels, l’ingénierie des lignes de produits logiciels s’appuie sur deux processus : l’ingénierie de domaine et l’ingénierie d’application [PBL05]. Le processus d’ingénierie de domaine consiste à identifier la variabilité et les parties communes d’une ligne de produits, ainsi qu’à développer les artéfacts communs aux produits de la ligne, en vue de leur réutilisation. Les artéfacts partagés par plusieurs produits ne sont définis qu’une seule fois, afin d’assurer leur réutilisation et d’en faciliter la maintenance [Kru06]. Le processus d’ingénierie d’application, aussi appelé processus de dérivation d’un produit logiciel, consiste à développer un produit logiciel spécifique à partir de la réutilisation des artéfacts développés pendant le processus d’ingénierie de domaine. Il s’appuie sur une phase de résolution de la variabilité, qui consiste à définir la configuration de produit souhaitée en spécifiant la valeur de chaque partie variable de la ligne de produits. On distingue deux types de variabilité : variabilité positive et variabilité néga-24 Background Figure 2.8 – Principe général de CVL, issu de la spécification de CVL 4 tive [VG07]. La variabilité positive consiste, durant le processus d’ingénierie de domaine, à ne définir que les artéfacts communs à tous les produits d’une famille. Les artéfacts spécifiques à un produit sont quant à eux créés au moment de la dérivation de ce produit, en fonction de sa spécification. Au contraire, la variabilité négative consiste, durant le processus d’ingénierie de domaine, à définir tous les artéfacts nécessaires à la définition des produits d’une famille. Lors de la dérivation d’un produit, les artéfacts ne correspondant pas à ce produit ne sont donc pas sélectionnés. Plusieurs approches s’appuient sur l’IDM afin de mettre en œuvre les concepts de l’ingénierie des lignes de produits logiciels [Jéz12]. L’IDM est ainsi utilisée pour définir des lignes produits et pour dériver des produits de ces lignes de produits. Nous présentons plus en détails une de ces approches, CVL [FHMP+11], dans la section suivante. 2.3.2 CVL CVL (Common Variability Language) 4 [FHMP+11], un standard de l’OMG en cours de spécification, est un langage de modélisation qui permet de spécifier et de résoudre de la variabilité sur n’importe quel modèle dont le métamodèle est conforme au MOF. Comme illustré en figure 2.8, CVL propose de définir un modèle de base (base model), qui est une instance de n’importe quel métamodèle conforme au MOF. Ce modèle de base contient les éléments de modèle nécessaires à la définition des différents produits d’une famille. CVL fournit également des constructions pour capturer la variabilité (VAM, Variability Abstraction Model) entre les différents produits d’une famille. Le VAM peut être comparé à un BFM (Basic Feature Model) [KCH+90], dans le sens où 4. La spécification complète de CVL peut être trouvée sur le wiki de CVL, à l’adresse http://www. omgwiki.org/variability/doku.php.L’ingénierie des lignes de produits logiciels 25 tout comme un BFM, il permet d’expliciter les différences et les similitudes entre les caractéristiques de produits logiciels d’une même famille. CVL fournit aussi des constructions pour définir la réalisation de cette variabilité sur le modèle de base (VRM, Variability Realization Model). Le VRM permet d’expliciter le lien entre le VAM et les éléments du modèle de base. Plus précisément, le VRM spécifie quels sont les éléments de modèle de base qui sont impactés par la variabilité définie dans le VAM et comment ces éléments de modèle sont impactés. En d’autres termes, le VRM spécifie comment dériver un produit du modèle de base, en fonction de la variabilité spécifiée dans le VAM. Enfin, CVL fournit des constructions permettant de résoudre la variabilité définie dans le VAM, afin de sélectionner une configuration du modèle de base (RM, Resolution Model). Le VAM, le VRM et le RM contiennent les informations nécessaires à la dérivation, à partir du modèle de base, d’un modèle résolu (resolved model), c’est-à-dire sans variabilité. Le modèle résolu est alors une autre instance du métamodèle auquel le modèle de base est conforme. Dans la suite, nous présentons les trois parties du métamodèle de CVL (abstraction de la variabilité, réalisation de la variabilité et résolution de la variabilité). Nous dé- taillons plus particulièrement les éléments du métamodèle de CVL qui seront utilisés pour illustrer la suite de cette thèse. Cependant, tous les éléments du métamodèle de CVL peuvent être utilisés pour mettre en œuvre ces travaux de thèse, en fonction des spécificités de chaque cas. Figure 2.9 – Extrait de la partie abstraction de la variabilité du métamodèle de CVL La figure 2.9 présente un extrait de la partie abstraction de la variabilité du métamodèle de CVL. Cette partie permet de définir de la variabilité à l’aide de spécifications de variabilité (VSpec). Une spécification de variabilité peut être un choix (Choice), c’est- à-dire une caractéristique qui appartiendra ou non au modèle résolu selon que ce choix sera résolu positivement ou négativement (c’est-à-dire selon que le choix sera sélectionné ou non). Une spécification de variabilité est également un conteneur pour26 Background d’autres spécifications de variabilité, qui sont alors ses enfants (child). Ces enfants peuvent être résolus à vrai seulement si leur parent (parent) est résolu à vrai. Une spécification de variabilité a aussi une multiplicité de groupe (groupMultiplicity) qui définit les nombres minimum et maximum (attributs lower et upper de la classe MultiplicityInterval) d’enfants directs qui peuvent être résolus positivement. La multiplicité de groupe permet donc d’exprimer si des spécifications de variabilité ayant le même parent direct sont mutuellement exclusives ou non. Si un choix est impliqué par son parent (attribut isImpliedByParent à vrai), alors il doit forcément être sélectionné si son parent l’est. L’implication par le parent permet donc d’exprimer qu’une spécification de variabilité enfant est optionnelle ou obligatoire. CVL fournit également le concept de dérivation de spécification de variabilité (VSpecDerivation), qui spécifie que la résolution d’une spécification de variabilité (identifiée par la référence derivedVSpec) est dérivée (c’est-à-dire calculée) de la résolution d’autres spécifications de variabilité. De ce fait, un RM ne définit pas de résolution pour une spécification de variabilité dont la résolution est dérivée. Un type particulier de dérivation de spécification de variabilité est la dérivation de choix (ChoiceDerivation), qui s’applique à un choix, identifié par la référence derivedChoice. Une dérivation de choix est associée à une contrainte de dérivation (Constraint) via la référence derivingConstraint. C’est cette contrainte de dérivation qui définit comment la résolution d’un choix est dérivée de la résolution d’autres spécifications de variabilité. Cette contrainte peut par exemple être exprimée à l’aide d’un langage de contrainte tel qu’OCL. Figure 2.10 – Exemple VAM spécifiant la variabilité d’un site d’achat en ligne À titre d’illustration (cf. figure 2.10), nous utilisons un VAM pour spécifier la variabilité d’un site d’achat en ligne. Les choix CVL permettent de spécifier les différentesL’ingénierie des lignes de produits logiciels 27 caractéristiques que peut avoir un tel site (paiement, catalogue, langue, recherche, sécurité, etc.). L’implication par le parent permet de spécifier les caractéristiques obligatoires (paiement, catalogue, langue, sécurité) et optionnelles (recherche, internationalisation). Une multiplicité de groupe dont la borne supérieure vaut 1 spécifie que des choix enfants sont mutuellement exclusifs (élevé et standard), tandis qu’une borne supérieure valant plus de 1 spécifie que plusieurs choix enfants peuvent appartenir à une même confi- guration de produit (par exemple français et anglais). La résolution du choix internationalisation est dérivée de la résolution des choix français et anglais. Plus précisément, un mécanisme d’internationalisation est utilisé pour développer un site d’achat en ligne si celui-ci doit être disponible dans les deux langues. Figure 2.11 – Extrait de la partie réalisation de la variabilité du métamodèle de CVL La figure 2.11 illustre un extrait de la partie réalisation de la variabilité du métamodèle de CVL. Le concept principal de cette partie réalisation de la variabilité est celui de point de variation (VariationPoint). Un point de variation est une opération à effectuer sur le modèle de base afin de dériver un modèle résolu. Un point de variation est effectué sur le modèle de base lorsque la spécification de variabilité qui lui est associée (bindingVSpecs) est résolue positivement. CVL définit différents types de points de variation. Parmi eux, un point de variation de choix (ChoiceVariationPoint) est un point de variation associé à une spécification de variabilité de type choix. Un point de variation de choix s’applique donc lorsque le choix associé (bindingChoice) est sélectionné. Différents types de points de variation de choix existent. Parmi eux, une substitution d’objet (ObjectSubstitution) remplace un objet du modèle de base, l’objet placement (placementObject), par un autre objet du modèle de base, l’objet remplaçant (replacementObject), et supprime l’objet placement. Une substitution de fin de lien (LinkEndSubstitution) assigne une nouvelle valeur à un lien du modèle de base. Ce lien est identifié par le nom de la référence qu’il instancie (linkEndIdentifier) ainsi que par l’objet qui contient ce lien (link). La nouvelle28 Background valeur à affecter au lien est un objet désigné par la référence replacementObject associée à la classe LinkEndSubstitution. Une existence d’objet (ObjectExistence) spécifie qu’un objet optionnel (optionalObject) du modèle de base existera toujours dans le modèle résolu. L’objet optionnel est supprimé du modèle de base (et donc du modèle résolu) si le choix associé au point de variation qui le contient n’est pas sélectionné. Ainsi, l’existence d’objet s’exécute en variabilité négative. Cela signifie qu’il n’est pas possible de créer des objets dans le modèle résolu. Si un objet appartient au modèle résolu, c’est forcément qu’il était défini dans le modèle de base. Il est uniquement possible de supprimer des objets du modèle de base pour qu’ils n’appartiennent pas à un modèle résolu. Au contraire, la variabilité positive signifie qu’il est possible de créer des objets au moment de la dérivation. Un pointeur de lien (LinkHandle) et un pointeur d’objet (ObjectHandle) permettent de référencer un objet du modèle de base via leur attribut MOFRef, qui correspond à l’URI de l’objet à référencer. Figure 2.12 – VRM de l’exemple de site d’achat en ligne Comme illustré par la figure 2.12, un VRM associé à l’exemple de site d’achat enL’ingénierie des lignes de produits logiciels 29 ligne spécifie que si le choix carte de crédit est sélectionné, alors, dans un modèle de base, la classe ClasseC doit référencer la classe ClasseD au lieu de la classe ClasseB. Si le choix recherche n’est pas sélectionné, alors la classe ClasseA du modèle de base appartiendra au modèle résolu. Enfin, si le choix standard est sélectionné, alors la classe ClasseE sera substituée par la classe ClasseH dans le modèle résolu. Figure 2.13 – Extrait de la partie résolution de la variabilité du métamodèle de CVL La figure 2.13 présente un extrait de la partie résolution de la variabilité du métamodèle de CVL. Le concept central de cette partie est celui de résolution de spécification de variabilité (VSpecResolution), qui résout une spécification de variabilité identifiée par la référence resolvedVSpec. Un type particulier de résolution de spécification de variabilité est la résolution de choix (ChoiceResolution), qui résout un choix identifié par la référence resolvedChoice. L’attribut decision d’une résolution de choix permet d’indiquer la valeur de résolution d’un choix. Un choix est en effet sélectionné ou non selon que cet attribut vaut vrai ou faux. Figure 2.14 – Exemple de RM résolvant le VAM de la figure 2.10 Le RM présenté en figure 2.14 résout la variabilité du VAM de la figure 2.10. Tous les choix sont sélectionnés sauf les choix recherche et standard. En conséquence, les substitutions de fin de lien et d’objet du VRM de la figure 2.12 sont appliquées au modèle de base afin de dériver le modèle résolu (figure 2.15), tandis que l’existence d’objet n’est pas appliquée. Dans le modèle résolu, la classe ClasseA n’existe donc pas,30 Background Figure 2.15 – Modèle résolu obtenu en fonction des modèles des figures 2.10, 2.12 et 2.14 la classe ClasseC référence la classe ClasseD au lieu de la classe ClasseB et la classe ClasseE a été substituée par la classe ClasseH. CVL propose également d’autres concepts permettant de gérer la variabilité, dont nous ne nous servirons pas pour illustrer la suite de cette thèse, bien qu’ils puissent être utilisés pour mettre en œuvre ces travaux. Nous en donnons un aperçu dans la suite de cette section. Il existe ainsi d’autres types de point de variation de choix. Parmi eux, l’affectation d’attribut permet d’assigner une nouvelle valeur à un attribut. L’existence de lien et l’existence d’attribut, de manière similaire à l’existence d’objet, permettent respectivement de spécifier l’existence d’un lien ou de la valeur d’un attribut. La figure 2.16 illustre un exemple d’utilisation de ces trois points de variation. Lorsque le choix choix 1 est sélectionné, alors la classe ClasseB est renommée en ClasseZ, le nom de la classe ClasseC existe et cette dernière hérite de ClasseZ (cf. figure 2.17). À l’inverse, lorsque le choix choix 1 n’est pas sélectionné, la classe ClasseB n’est pas renommée et le nom de la classe ClasseC est supprimé ainsi que la relation d’héritage (cf. figure 2.18). CVL permet également à ses utilisateurs de définir leurs propres points de variation, appelés points de variation opaques, en définissant des transformations d’un modèle vers un autre modèle. CVL définit aussi des points de variation paramétrables, tels que la substitution de fin de lien paramétrable, l’affectation d’attribut paramétrable et la substitution d’objet paramétrable. Ceux-ci se comportent comme leurs homologues non paramétrables, à la différence qu’une valeur à assigner ou un objet remplaçant ne sont spécifiés qu’au moment de la résolution, dans le RM. Cela est utile lorsqu’un élément du modèle de base a des variantes qui ne sont pas connues au moment de l’édition du VRM. Un point de variation paramétrable est relié à un type de spécification particulier, la variable. La valeur assignée à une variable est affectée au moment de la résolution, en utilisant un type de résolution de spécification de variabilité particulier, l’affectation de valeur à une variable. CVL propose également un point de variation dit répétable, la substitution de fragment. Exécutée une seule fois, la substitution de fragment remplace un fragment du modèle de base par un autre. Lorsqu’elle est répétée, une substitution de fragment crée une nouvelle instance du fragment remplaçant à chaque répétition. CVL définit un type de spécification de variabilité et un type de résolution de spécification de variabilité spécifiques au point de variation répétable, respectivement le classificateur de variabilité et l’instance de variabilité. Le classificateur de variabilité permet de spécifier deL’ingénierie des lignes de produits logiciels 31 Figure 2.16 – Exemple de définition d’affectation d’attribut, d’existence de lien et d’existence d’attribut Figure 2.17 – Modèle résolu obtenu lorsque le choix de la figure 2.16 est sélectionné Figure 2.18 – Modèle résolu obtenu lorsque le choix de la figure 2.16 n’est pas sélectionné la variabilité sur le nombre d’instances d’un fragment du modèle de base, tandis que l’instance de variabilité permet de déterminer ce nombre d’instances. Des exemples de VAM, VRM et modèle de base sont présentés en figure 2.19 afin d’illustrer une substitution de fragment. Si une instance de variabilité résout le classificateur de variabilité mon classificateur de variabilité, alors le fragment constitué des classes ClasseB et ClasseC est remplacé par le fragment constitué des classes ClasseD et ClasseE (cf. figure 2.20). Ce dernier est dupliqué si deux instances de variabilité résolvent mon classificateur de variabilité (cf. figure 2.21). Aucune substitution de fragment n’a lieu si aucune instance de variabilité ne résout mon classificateur de variabilité. Un autre type de point de variation introduit par CVL est le point de variation32 Background Figure 2.19 – Exemple de VAM, VRM et modèle de base pour une substitution de fragment Figure 2.20 – Modèle résolu obtenu lorsque le classificateur de variabilité de la fi- gure 2.19 est résolu par une seule instance de variabilité Figure 2.21 – Modèle résolu obtenu lorsque le classificateur de variabilité de la fi- gure 2.19 est résolu par deux instances de variabilité composite. Ce type de point de variation manipule des conteneurs, qui sont des objets du modèle de base contenant d’autres éléments de modèle, et sur lesquels de la variabilité est spécifiée. Comme illustré par la figure 2.22, le point de variation composite permet de cloner un conteneur (le paquetage paquetage configurable sur la figure), de résoudre la variabilité de chaque clone (paquetages une configuration du paquetage configurable etSynthèse 33 une autre configuration du paquetage configurable sur la figure), et de rediriger vers ces clones les liens des éléments du modèle de base qui les utilisent (paquetages paquetage 1 et paquetage 2 sur la figure). Ce type de point de variation est utile lorsqu’un conteneur est utilisé plusieurs fois dans un même modèle, mais que les différentes utilisations de cet objet requièrent des résolutions différentes de sa variabilité. CVL définit également un type de spécification de variabilité ainsi qu’un type de résolution de spécification de variabilité spécifiques à l’utilisation des points de variation composites, à savoir la spécification de variabilité composite et la configuration de variabilité. La spécification de variabilité composite, qui est un conteneur pour d’autres spécifications de variabilité, permet de spécifier de la variabilité au niveau du contenu d’un élément du modèle de base. La configuration de variabilité permet quant à elle de résoudre cette variabilité. Figure 2.22 – Illustration du principe du point de variation composite Enfin, CVL permet l’expression de contraintes transversales, c’est-à-dire de contraintes sur la résolution de spécifications de variabilité qui n’ont pas de relation de parent à enfant. Pour ce faire, CVL fournit le moyen d’exprimer des contraintes en utilisant la logique du premier ordre (incluant les quantificateurs universel et existentiel), ainsi que des contraintes arithmétiques. 2.4 Synthèse Nous avons présenté dans ce chapitre les différents champs de recherche sur lesquels nous nous appuyons dans cette thèse, à savoir l’IDM, les processus de développement logiciel et l’ingénierie des lignes de produits logiciels. Il est à noter que ces trois champs sont également très dynamiques dans le domaine de la recherche puisqu’ils ont leurs propres conférences (International Conference on Model Driven Engineering Languages and Systems, International Conference on Software and Systems Processes34 Background et International Software Product Line Conference) et qu’ils sont largement utilisés dans l’industrie [Nor08, HWRK11, Ins13]. Nous avons également présenté un langage de modélisation de processus de développement logiciel, SPEM 2.0, ainsi que CVL, un langage de modélisation permettant de spécifier et de résoudre de la variabilité sur des modèles. Dans cette thèse, nous proposons de lier des automatisations de TMR (Tâches Manuelles Récurrentes) à des processus de développement logiciel. Nous utilisons ensuite ce lien pour savoir : – quelles automatisations de TMR réutiliser pour un projet donné (en nous appuyant sur la réutilisation des processus de développement logiciel en fonction des exigences des projets), – à quels moments d’un projet les réutiliser – et pour identifier les différents cas d’utilisation de chaque automatisation de TMR et ainsi créer des automatisations de TMR qui soient réutilisables à travers ces différents cas d’utilisation. L’IDM nous offre pour ce faire deux langages de modélisation spécifiques à deux préoccupations distinctes : SPEM 2.0 et CVL. SPEM 2.0 nous permet de définir les processus de développement logiciel et nous l’avons choisi car c’est un standard de l’OMG. Il est cependant tout à fait possible d’utiliser un autre langage de modélisation de processus de développement logiciel pour mettre en œuvre l’approche proposée dans cette thèse, en fonction des besoins d’un groupe d’utilisateurs. CVL nous permet de réutiliser les processus de développement logiciel. Il a l’avantage d’appliquer les principes de l’ingénierie des lignes de produits de logiciel et de pouvoir être utilisé quel que soit le langage de modélisation de processus utilisé pour peu qu’il soit conforme au MOF. L’IDM nous offre de plus des outils (par exemple EMF) permettant l’implémentation de SPEM 2.0 et de CVL et la création de nouveaux langages de modélisation, tel qu’un langage spécifique aux automatisations de TMR. Enfin, l’utilisation d’un même métamétamodèle pour différents langages de modélisation permet de créer des liens entre ces langages. Il nous est ainsi possible de tisser les liens nécessaires dans le contexte de cette thèse, à savoir entre gestion de la variabilité et processus et entre processus et automatisations de TMR.Chapitre 3 État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus L’automatisation des TMR (Tâches Manuelles Récurrentes) liées à l’utilisation des outils de développement logiciel n’a qu’un intérêt limité si les mêmes automatisations de TMR sont re-développées pour chaque projet. La réutilisation d’automatisations de TMR amène cependant trois difficultés principales. La première est de savoir pour quels projets réutiliser une automatisation de TMR. En effet, une même automatisation de TMR peut être utile pour des projets différents, mais elle n’est pas forcément utile pour tous les projets. De plus, comme une automatisation de TMR peut avoir des dépendances avec d’autres tâches d’un projet, la deuxième difficulté est de déterminer à quels moments d’un projet utiliser une automatisation de TMR. La troisième difficulté est de s’assurer qu’une automatisation de TMR utile pour des projets différents, ou utile à des moments différents d’un même projet, soit bien réutilisable à travers ses différents cas d’utilisation. La difficulté est donc d’identifier le bon niveau de généricité d’une automatisation de TMR. Une méthodologie est proposée par Sadovykh et Abherve [SA09] afin de supporter l’exécution de processus SPEM. Elle consiste à définir un processus SPEM et à le transformer en un processus BPEL [OAS07] afin de l’exécuter. L’apport principal de cette méthodologie est que le processus BPEL obtenu par transformation est directement exécutable. Pour ce faire, la méthodologie consiste à assigner au processus SPEM, avant sa transformation, les informations nécessaires pour le rendre exécutable (ressources humaines concrètes associées aux rôles, nombre des itérations et durée des tâches). Durant l’exécution du processus BPEL, les TMR sont automatisées à l’aide de services web, qui sont reliés aux unités de travail du processus BPEL et sont appelés au moment de l’exécution de ces unités de travail. Le lien entre les services web (similaires à des automatisations de TMR) et les unités de travail du processus qu’ils automatisent permet donc de savoir quand lancer ces services web au cours d’un projet. Mais la limite de cette méthodologie est qu’elle ne propose pas de support à la sélection des 3536État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus automatisations de TMR à réutiliser pour un projet donné. Si des automatisations de TMR sont liées à des processus de développement logiciel, alors réutiliser un processus de développement logiciel pour un projet donné permet de connaître les automatisations de TMR à réutiliser pour ce projet. Or, réutiliser les processus de développement logiciel est un exercice difficile. En effet, la variabilité au niveau des exigences des projets est la source d’un nombre de processus trop élevé pour qu’un humain puisse tous les connaître et savoir quand les réutiliser [Rom05, CDCC+13]. De nombreuses approches sont donc apparues afin d’apporter un support à la réutilisation des processus de développement logiciel. Figure 3.1 – Représentation en extension des processus d’une famille [LS07] Dans le cadre de cette thèse, nous fixons certaines exigences qu’une telle approche doit satisfaire. Premièrement, elle doit permettre de définir un ensemble de processus et de dériver automatiquement un processus de cet ensemble, afin de permettre la réutilisation des processus. Deuxièmement, l’approche doit permettre de définir les différents processus à réutiliser en intention, c’est-à-dire en factorisant leurs parties communes, afin d’en faciliter la maintenance et de permettre leur réutilisation [RMvdT09, HBR10, KY12]. Plus précisément, la définition en intention de processus consiste à ne définir qu’une seule fois une partie commune à plusieurs processus et à y faire référence pour l’utiliser. À l’inverse, la définition en extension de processusSupport à la réutilisation des processus sans spécification de leur variabilité 37 consiste à les définir entièrement et indépendamment les uns des autres, en dupliquant leurs parties communes d’un processus à l’autre (mais pas nécessairement au sein d’un même processus puisque les flots de contrôle sont souvent utilisés pour retourner à une partie d’un processus). La figure 3.1, issue de [LS07], illustre la représentation en extension de différents processus d’une même famille. On remarque que ces processus partagent des parties communes qui sont dupliquées (par exemple la tâche T1). Cela pose des problèmes de maintenance car lorsqu’une de ces parties évolue, elle doit être mise à jour dans tous les processus auxquels elle appartient, ce qui est source d’erreurs et coûteux en temps. Cela limite de plus la réutilisation de fragments de processus. Troisièmement, une approche supportant la réutilisation des processus doit pouvoir s’appliquer quel que soit le formalisme utilisé pour définir les processus, afin que les utilisateurs de cette approche puissent utiliser le formalisme qui satisfait le mieux leurs exigences [Mee10, WKK+11, KY12]. Cela permet à un groupe d’utilisateurs de pouvoir changer de formalisme de définition de processus, mais cela permet également que l’approche puisse être utilisable par des groupes d’utilisateurs utilisant des formalismes différents. En plus de nous intéresser aux approches traitant de la réutilisation des processus de développement logiciel, nous nous intéressons aux approches traitant de la réutilisation des processus métiers, où un processus métier correspond à l’ensemble des tâches permettant de créer un résultat de valeur pour un client [Ham96]. En effet, un processus de développement logiciel est également un processus métier [Ben07]. De la même manière, comme un workflow, c’est-à-dire une automatisation partielle ou totale d’un processus métier [(WF99], peut être considéré comme un processus mé- tier [Ben07, LRvdADM13], et que les diagrammes d’activités UML sont parfois utilisés pour capturer les processus métiers [LRvdADM13], nous incluons dans cet état de l’art les approches traitant de la réutilisation des workflows et des diagrammes d’activités. Nous présentons les approches supportant la réutilisation de processus dans la suite de ce chapitre et nous les évaluons en fonction des exigences précédemment définies. La section 3.1 présente des approches apportant un support à la réutilisation des processus sans traiter de la spécification de leur variabilité. La section 3.2 porte sur les approches s’appuyant sur l’ingénierie des lignes de processus [Rom05] afin de réutiliser les processus, où l’ingénierie des lignes de processus est une activité similaire à l’ingénierie des lignes de produits mais où le produit est un processus. Nous faisons la synthèse de ces approches en section 3.3. 3.1 Support à la réutilisation des processus sans spécification de leur variabilité Nous présentons dans cette section des approches offrant des mécanismes pour supporter la réutilisation des processus sans pour autant permettre de spécifier leur variabilité. La section 3.1.1 traite des approches permettant d’identifier le processus correspondant le mieux à un projet. La section 3.1.2 présente des approches permettant de réutiliser des processus définis en extension. Enfin, la section 3.1.3 aborde les patrons38État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus de processus. 3.1.1 Identification du processus correspondant à un projet Les approches suivantes permettent d’identifier à quels types de projets correspondent quels types de processus, afin de faciliter le choix d’un processus pour un projet donné. Elles sont toutes assez abstraites pour pouvoir être appliquées quel que soit le formalisme de définition de processus utilisé. L’approche Promote (Process Models Taxonomy for Enlightening choices) [CDCC+13] définit un ensemble de caractéristiques de processus de développement logiciel et propose une classification de processus existants en fonction de ces caractéristiques. Les processus sont caractérisés selon 6 axes principaux : i) le cycle, c’est-à-dire la granularité des itérations, la durée du cycle de vie, les incréments, etc., ii) la collaboration, c’est-à- dire les différents types de relations qui existent entre les intervenants sur un projet iii) les artéfacts, c’est-à-dire les types de livrables qui doivent être produits, iv) l’utilisation recommandée, c’est-à-dire dans quels contextes un processus est le plus adapté, v) le niveau de maturité du processus, et vi) la flexibilité, c’est-à-dire la capacité du processus à être adapté. Cependant, Promote ne propose pas de mécanisme permettant d’obtenir un processus correspondant à un projet dans un formalisme permettant son exécution. D’autre part, la problématique de la définition d’une famille de processus en intention est en dehors des objectifs de cette approche. D’autres approches, en plus de proposer des caractéristiques pour définir les processus et les projets, proposent un support à la sélection du processus correspondant le mieux à un projet. Ainsi, l’approche de Pérez et al. [PEM95] propose une méthodologie permettant d’évaluer l’efficacité d’un processus pour un projet donnée, en fonction de leurs caractéristiques respectives. L’approche d’Alexander et Davis [AD91] fournit quant à elle une méthode permettant de déterminer le processus qui correspond le mieux à un projet donné, toujours en fonction des critères des processus et de ce projet. L’approche de Sharon et al. [SdSSB+10] propose un framework supportant la sélection du processus correspondant le mieux à un projet donné. Mais ces approches ne traitent pas de la définition d’une famille de processus et de la dérivation d’un processus de cette famille en fonction des exigences des projets. Comme résumé dans le tableau 3.1, les approches présentées ici, bien qu’indépendantes du formalisme utilisé pour définir les processus, ne fournissent pas tous les mécanismes nécessaires à la réutilisation des processus de développement logiciel. La définition en intention d’un ensemble de processus n’est de plus pas traitée par ces approches.Support à la réutilisation des processus sans spécification de leur variabilité 39 Approche Concepts proposés Apports réutilisation processus Limites réutilisation processus Déf. des pro- cessus en in- tention Indépendante du formalisme pour définir les processus Promote [CDCC+13] Caractéristiques de processus et classification de processus en fct. de ces caractéristiques Identification du pro- cessus correspondant à un projet Obtention d’un pro- cessus exécutable non oui Pérez et al. [PEM95] Méthodologie pour évaluer l’effica- cité d’un processus pour un projet donné Identification du pro- cessus correspondant à un projet Déf. d’une famille de processus et dériva- tion d’un processus non oui Alexander et Davis [AD91] Méthode pour déterminer le proces- sus qui correspond le mieux à un projet Identification du pro- cessus correspondant à un projet Déf. d’une famille de processus et dériva- tion d’un processus non oui Sharon et al. [SdSSB+10] Framework supportant la sélection du processus correspondant le mieux à un projet Identification du pro- cessus correspondant à un projet Déf. d’une famille de processus et dériva- tion d’un processus non oui Table 3.1 – Évaluation des approches permettant d’identifier le processus correspondant le mieux à un projet40État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus 3.1.2 Réutilisation de processus définis en extension D’autres approches permettent quant à elles de définir un ensemble de processus et de réutiliser des processus de cet ensemble. L’approche de Lu et Sadiq [LS07] permet l’extraction d’un processus depuis un ensemble de processus capturés dans un dépôt, en fonction des caractéristiques de ce processus. Elle définit pour ce faire une mesure de similarité, qui permet de déterminer quel est le processus du dépôt qui est le plus proche d’un ensemble de caractéristiques. Cette approche est cependant dépendante du formalisme utilisé pour définir les processus. En effet, la définition de la mesure de similarité dépend de la sémantique des éléments à comparer. De plus, l’approche est définie pour un formalisme de processus particulier et devrait donc être adaptée pour pouvoir être utilisée avec un formalisme différent. L’approche de Song et Osterweil [SO98] applique le principe de la programmation des processus [Ost87] à la méthodologie de conception logicielle BOOD (Booch Object Oriented Design Methodology) [Boo91]. Le principe de la programmation des processus suggère que les processus soient considérés comme des logiciels et soient donc conçus, développés et exécutés comme tels. Il est assez générique pour pouvoir être utilisé quel que soit le langage de modélisation de processus. BOOD est considérée comme étant l’architecture d’un processus de conception. Des processus de conception plus détaillés sont élaborés à partir de cette méthodologie puis exécutés, à l’aide du prototype DebusBooch. Celui-ci permet entre autres de sélectionner un processus de conception logiciel depuis une famille de tels processus. Il apporte de plus un support à cette sélection en fournissant des informations sur la nature des différents processus et des étapes qui les composent. Bien que permettant la réutilisation des processus, les deux approches précédentes ne proposent pas de mécanismes permettant de définir un ensemble de processus en intention, comme résumé dans le tableau 3.2. À défaut d’un tel mécanisme, les processus sont donc définis en extension. 3.1.3 Les patrons de processus Un patron de processus, ou composant de processus, est un fragment de processus réutilisable [GLKD98, ABC96, Amb99]. De nombreuses approches proposent des patrons de processus (par exemple [VDATHKB03, RHEdA05, KR10, BnCCG11, KYSR09, IMCH+07]). Ceux-ci peuvent être définis à des niveaux d’abstraction diffé- rents. Des patrons généraux devront donc être adaptés à un contexte particulier pour pouvoir être réutilisés, tandis que des patrons plus détaillés pourront être réutilisés tels quels [GLKD98, ABC96, GM05, Amb99]. Certains langages de modélisation de processus, comme SPEM 2.0 ou Little-JIL [Wis06], permettent quant à eux de définir des patrons de processus et de les intégrer à un processus. D’autre part, plusieurs approches proposent de définir des processus par réutilisation et composition de patrons de processus [GLKD98, ABC96, Zhu03, PS05, BBM05]. Elles fournissent les mécanismes nécessaires à la définition et à la composition de ces patrons. Mais, dans toutes les précédentes approches, la sélection et la composition de patrons de processus, ouSupport à la réutilisation des processus sans spécification de leur variabilité 41 Approche Concepts proposés Apports réutilisation processus Limites réutilisation processus Déf. des processus en intention Indépendante du formalisme pour définir les processus Lu et Sadiq [LS07] Extraction d’un dépôt du processus le plus proche d’un ensemble de caractéristiques Définition d’un ensemble de processus et réutilisation des processus de cet ensemble aucune non non Song et Osterweil [SO98] Application du principe de la programmation des processus à BOOD Définition d’un ensemble de processus et réutilisation des processus de cet ensemble aucune non oui Table 3.2 – Évaluation des approches de Lu et Sadiq [LS07] et Song et Osterweil [SO98] leur intégration à un processus, restent manuelles. D’autres approches apportent donc un support à la réutilisation de patrons de processus. L’outil Intelligent Workflow Designer [IMCH+07] permet la modélisation de processus métiers basée sur la réutilisation de patrons de workflows. Au moment de la modélisation d’un processus, il analyse ce processus et propose des patrons à appliquer, parmi un ensemble de patrons prédéfinis. Mais la modélisation d’un processus reste en grande partie manuelle. Un processus doit d’ailleurs être modélisé manuellement une première fois avant d’être analysé en vue de détecter les patrons qui pourraient être appliqués. L’outil ne permet pas de définir un ensemble de processus en intention et l’indépendance vis-à-vis des langages de modélisation de processus n’est pas traitée. L’approche Design by Selection [ASKW11] permet également la réutilisation de composants de processus durant la modélisation d’un processus. Un processus est dans un premier modélisé manuellement et l’approche permet de définir manuellement les parties de ce processus pour lesquelles un composant doit être réutilisé. Ces parties sont alors utilisées pour faire des requêtes sur un dépôt de composants de processus, afin de récupérer un ensemble de composants pouvant correspondre à une partie de processus. La sélection d’un composant parmi l’ensemble retourné est elle aussi manuelle, même si l’approche offre un support à cette sélection en classant les composants proposés en fonction de leur pertinence. Là encore une partie de la définition des processus reste manuelle et leur réutilisation n’est donc pas complètement automatisée. L’approche est assez abstraite pour pouvoir être appliquée indépendamment d’un langage de modélisation de processus. Mais son implémentation dépend quant à elle d’un tel langage. Cette approche ne traite pas non plus de la définition de processus42État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus en intention. L’outil CAT (Composition Analysis Tool) [KSG04] assiste un utilisateur dans la défi- nition de workflows basée sur la réutilisation de composants. CAT analyse un workflow en cours de définition et suggère des actions possibles à la personne en charge de cette définition (par exemple des ajouts ou des suppressions de composants) et s’assure que le workflow produit est correct (par exemple en vérifiant que des flots de contrôle de sont pas inconsistants avec la description d’un composant). La définition de processus reste là encore en grande partie manuelle et la spécification de processus en intention ainsi que l’indépendance vis-à-vis des langages de modélisation de processus ne sont pas abordées. Aldin [Ald10] propose une méthodologie pour l’extraction de patrons de processus métiers depuis un ensemble de processus et la réutilisation de ces patrons lors de la modélisation d’un nouveau processus métier. Un patron de processus est sélectionné en fonction des exigences correspondant à un problème métier. Il est ensuite adapté à un problème métier spécifique puis intégré au processus correspondant à ce problème métier. Cette méthodologie est assez générique pour pouvoir être appliquée quel que soit le langage de modélisation de processus utilisé. En revanche, rien n’est proposé afin d’automatiser la réutilisation des patrons de processus. La spécification en intention d’un ensemble de processus n’est pas non plus abordée. Comme résumé dans le tableau 3.3, plusieurs approches apportent un support à la réutilisation de patrons de processus, mais la définition d’un processus reste en grande partie manuelle. Ces approches ne permettent pas de capturer un ensemble de processus et d’en dériver automatiquement un processus. D’autres approches permettent quant à elles de réutiliser automatiquement un processus dont la définition s’appuie sur des patrons de processus [AB12, Ist13, BDKK04, FPLPdL01]. Nous les présentons plus en détails dans la section 3.2. 3.2 Ingénierie des lignes de processus D’autres approches s’appuient sur l’ingénierie des lignes de processus [Rom05] afin de réutiliser les processus. L’ingénierie des lignes de processus est une activité similaire à l’ingénierie des lignes de produits, mais où le produit est un processus. Les approches existantes définissent une ligne de processus en spécifiant les différents processus d’une famille ainsi que leurs parties variables et communes [Ter09]. Une ligne de processus est donc définie en intention et non en extension. Ainsi, lorsqu’une partie commune à plusieurs processus évolue, celle-ci n’est mise à jour qu’une seule fois. Il est possible de réutiliser un processus d’une famille en le dérivant de la ligne de processus. Les approches existantes s’appuient sur l’IDM afin de définir une ligne de processus et d’en dériver un processus. Nous détaillons ces approches dans la suite de cette section.Ingénierie des lignes de processus 43 Approche Concepts proposés Apports réutilisation processus Limites réutilisation processus Déf. des processus en intention Indépendante du formalisme pour définir les processus Intelligent Workflow Designer [IMCH+07] proposition de patrons à réutiliser réutilisation de patrons de workflows déf. de processus en partie manuelle non non Design by Selection [ASKW11] proposition de patrons à réutiliser réutilisation de composants de processus déf. de processus en partie manuelle non non CAT [KSG04] proposition de patrons à réutiliser réutilisation de composants de workflows déf. de processus en partie manuelle non non Aldin [Ald10] méthodologie pour la dé- couverte et la réutilisation de patrons de processus réutilisation de patrons de processus déf. de processus et réutilisation de patrons manuelles non oui Table 3.3 – Évaluation des approches apportant un support à la réutilisation de patrons de processus, mais sans permettre la réutilisation automatique de processus 3.2.1 Utilisation des mécanismes d’un langage Deux approches, d’Alegría et al. [HABQO11] et d’Alegría et Bastarrica [AB12], gèrent la variabilité des processus de développement logiciel en s’appuyant sur les mécanismes de variabilité fournis par SPEM 2.0. SPEM 2.0 offre en effet des mécanismes permettant de spécifier qu’un élément de processus est optionnel, d’ajouter des propriétés à un élément ou d’étendre ou de remplacer les propriétés d’un élément. Il permet également de définir des patrons de processus, que l’approche d’Alegría et Bastarrica permet de réutiliser automatiquement lors de la dérivation d’un processus. Cependant, ces mécanismes sont spécifiés directement dans le métamodèle de SPEM 2.0 et aucun moyen permettant de les découpler de ce métamodèle n’est proposé. En conséquence, réutiliser ces mécanismes avec un autre langage de modé- lisation de processus implique, en plus de devoir adapter ces mécanismes, de devoir modifier le métamodèle de cet autre langage.44État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus 3.2.2 Extension d’un langage de modélisation de processus Les approches de cette catégorie étendent un langage de modélisation de processus existant avec des concepts permettant de gérer la variabilité. Cependant, la plupart d’entre elles ne propose pas de mécanisme permettant d’appliquer ces concepts à un langage sans le modifier. Celles qui le font proposent quant à elles des concepts qui doivent être adaptés pour pouvoir être réutilisés avec des langages de modélisation de processus autres que celui pour lequel ils ont été initialement définis. 3.2.2.1 Utilisation de processus agrégats Figure 3.2 – Un exemple de modèle de processus agrégat [HBR10] Afin de gérer la variabilité des processus, certaines approches s’appuient sur des modèles de processus agrégats [RMvdT09]. Un processus agrégat capture les différents processus d’une famille en les combinat dans un même et unique processus à l’aide de mécanismes spécifiques à la modélisation d’un flot d’unités de travail (nœuds de décision, de jointure, de parallélisation, flots de contrôle, etc.) [KL07, RvdA07]. Par exemple, la figure 3.2 illustre un processus agrégat qui capture les différents processus d’une famille en utilisant des nœuds de décision. Néanmoins, un simple modèle de processus agrégat n’offre pas de support à la réutilisation des processus [GvdAJV07, RvdA07, HBR10]. Par exemple, il n’est pas possible de distinguer les nœuds de décision représentant des choix qui doivent être faits au moment de l’exé- cution d’un processus de ceux qui dénotent des processus différents [HBR10]. Il n’est pas non plus possible de distinguer les éléments de processus optionnels [RvdA07]. Les approches existantes proposent donc d’étendre un langage de modélisation de processus avec des mécanismes permettant d’expliciter la variabilité dans un modèle de processus agrégat, et elles offrent un support à la sélection et à la dérivation d’un processus de ce processus agrégat. Selon les approches, un processus peut ainsi être dérivé par sélection ou omission d’éléments du processus agrégat, par adaptation des éléments du processus agrégat à des exigences particulières, par ajout d’éléments spécifiques à un cas particulier, ou par instanciation (c’est-à-dire en fournissant une implémentation à un concept abstrait). Aucun moyen n’est cependant proposé afin d’étendre un langage de modélisation de processus sans le modifier. Nous présentons ces approches dans la suite de cette partie, en détaillant plus particulièrement les extensions qu’elles proposent. L’approche KobrA (KOmponenten BasieRte Anwendungsentwicklung, allemand pourIngénierie des lignes de processus 45 développement d’applications basé sur les composants) [ABM00] intègre l’ingénierie des lignes de produits logiciels et l’ingénierie logicielle basée sur les composants [Crn02]. Dans ce cadre, elle propose une notation afin de distinguer dans un processus agrégat les nœuds de décision dénotant des processus différents de ceux dénotant des choix à faire au moment de l’exécution d’un processus. L’approche Superimposed Variants [CA05] s’appuie sur les BFM (Basic Feature Model) [KCH+90] afin de gérer la variabilité de modèles et permet de faire le lien entre les BFM et les modèles desquels ils spécifient la variabilité. Cette approche étend un langage de modélisation avec des mécanismes permettant d’associer à des éléments de modèle i) des informations déterminant dans quels cas ces éléments sont sélectionnés et ii) des méta-expressions, qui spécifient comment configurer les propriétés d’un élé- ment en fonction de ses différents cas d’utilisation. Cette approche n’est pas spécifique à la gestion de la variabilité dans les processus mais est appliquée à des modèles de processus agrégats définis à l’aide de diagrammes d’activité UML 2.0. D’autres approches permettent de configurer des modèles de processus référence, où un processus de référence est un processus général qui définit les bonnes pratiques recommandées dans un domaine particulier [FL03, Fra99]. Dans ces approches, les modèles de processus de référence sont définis comme des modèles agrégats, bien que rien n’impose qu’un modèle de référence soit un modèle agrégat [Tho05]. Ainsi, l’approche C-EPC (Configurable Event-driven Process Chain) [RvdA07] permet de configurer les processus de référence définis à l’aide du langage de modélisation de processus EPC [Sch00]. Celui-ci est étendu avec des mécanismes permettant de spé- cifier qu’une unité de travail est optionnelle, qu’un connecteur (c’est-à-dire un nœud de décision, de jointure ou de parallélisation) peut être remplacé par un connecteur qui restreint son comportement, ou qu’au moment de la dérivation un seul des flots de contrôle navigables à l’issue d’un nœud de décision pourra être sélectionné. C-EPC propose également d’étendre EPC avec des mécanismes permettant d’exprimer des contraintes entre les résolutions d’éléments de modèle variables (implication, exclusion, etc.). L’approche C-iEPC (Configurable integrated EPC) [RDH+08, LRDtHM11] étend EPC avec les concepts de rôle et d’objet (où la notion d’objet est similaire à la notion de produit de travail) et avec des mécanismes permettant de spécifier que des rôles ou des objets sont optionnels, alternatifs, ainsi que le nombre minimal et maximal de rôles ou d’objets qui peuvent être sélectionnés. L’approche aEPC (Aggregate EPC) [RMvdT09] permet de déterminer les cas d’utilisation des éléments d’un processus de référence. Pour ce faire, elle étend le langage de modélisation de processus utilisé avec des mécanismes permettant d’associer aux éléments d’un modèle de processus de référence des informations déterminant dans quels cas ces éléments sont sélectionnés. L’approche Configurative Process Modeling [BDK07] étudie l’applicabilité des mécanismes utilisés pour configurer des modèles de processus de référence aux méthodes d’ingénierie logicielle. Dans ce contexte, elle propose d’étendre le formalisme utilisé pour définir une méthode logicielle avec des mécanismes permettant i) d’associer aux éléments d’une méthode des informations déterminant dans quels cas ces éléments46État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus sont sélectionnés, ii) de définir qu’un élément d’une méthode est abstrait et doit être instancié au moment de la dérivation et iii) d’associer à un élément d’une méthode des informations aidant à l’adapter aux exigences d’un projet. L’approche ADOM (Application-based DOmain Modeling) [RBSS09, RBSS10] permet de définir la variabilité d’un modèle de processus de référence, d’en dériver un processus spécifique et de vérifier qu’un processus spécifique appartient bien à la famille de processus capturée par le modèle de référence. Un processus peut être dérivé en adaptant les éléments du modèle de processus agrégat ou en lui ajoutant des éléments, en plus de pouvoir sélectionner ou omettre des éléments du processus agrégat. ADOM étend un langage de modélisation de processus avec les concepts d’indicateur de multiplicité et de classificateur de modèle de référence. Un indicateur de multiplicité permet de spécifier qu’un élément du modèle de processus de référence est optionnel, obligatoire, qu’il a des variantes et combien. Un classificateur de modèle de référence permet de spécifier à quel élément du modèle de processus de référence un élément d’un modèle de processus résolu correspond. Il permet de vérifier qu’un processus appartient bien à la famille de processus capturée par le modèle de processus de référence. L’approche Configurable Workflow [GvdAJVLR08] se concentre sur la configuration de modèles de workflows, afin de permettre la production de modèles directement exécutables. Elle propose d’étendre les unités de travail d’un langage de modélisation de workflows avec des ports d’entrée et de sortie, où un port est un endroit connectant un flot de contrôle à une unité de travail. La configuration d’un modèle de processus de référence consiste à définir si un port est activé, bloqué ou caché. Cela permet de spécifier les parties d’un workflow qui peuvent être exécutées. 3.2.2.2 Modification d’un processus de base Une limitation des approches qui s’appuient sur les modèles de processus agrégats est que lorsque les processus à capturer sont complexes et nombreux, alors le processus agrégat devient illisible et difficile à créer et à maintenir [HBR10, DB10]. Afin de faire face à cette difficulté, l’approche Provop (PROcess Variants by OPtions) [HBR10] propose de modéliser un processus de base (qui peut être un processus de référence, un processus d’une famille, le processus commun à tous les processus d’une famille, etc.) et de définir les opérations à appliquer à ce processus afin d’en dériver les différents processus d’une famille. Des points d’ajustement sont utilisés pour spécifier les parties du processus de base auxquelles des opérations sont appliquées. Cependant, aucun mécanisme n’est proposé pour définir des points d’ajustement sans modifier le langage de modélisation de processus utilisé. L’approche proposée par Mosser et Blay-Fornarino [MBF13] supporte l’évolution automatique de modèles de processus métiers, c’est-à-dire la modification automatique de modèles de processus métiers afin qu’ils soient conformes aux changements apportés à un domaine métier. Cette approche supporte également la détection d’interférences entre les évolutions apportées à un processus métier, où une interférence est une interaction entre des évolutions qui engendre un comportement non souhaité d’une ou plusieurs de ces évolutions. Une évolution est apportée à un modèle de processusIngénierie des lignes de processus 47 métier en lui composant un fragment de processus. À cette fin, le métamodèle ADORE (Activity meta-moDel supOrting oRchestration Evolution) est proposé. Il permet de définir des processus métiers, des fragments de processus ainsi que les endroits d’un processus où ces fragments peuvent être intégrés. Mais aucun mécanisme n’est proposé afin de pouvoir définir des fragments de processus ainsi que leurs points d’intégration sans modifier le langage de modélisation de processus utilisé. 3.2.2.3 Spécification des points de variation et des variantes d’un processus Plusieurs approches définissent une ligne de processus en modélisant le processus commun à tous les processus d’une famille et en spécifiant quelles sont les parties de ce processus qui varient (points de variation) et leurs différentes valeurs (variantes). Contrairement aux processus agrégats, les différents processus d’une famille ne sont pas tous intégrées dans un même processus en utilisant les mécanismes spécifiques à la modélisation d’un flot d’unités de travail. La figure 3.3 illustre un exemple de définition de points de variation et de variantes sur un modèle de processus. Elle illustre que l’unité de travail P2 est en fait un point de variation ayant pour variantes les unités de travail A1 à An. Un processus d’une famille est dérivé en remplaçant chaque point de variation par une variante, sélectionnée en fonction des exigences d’un projet. Les approches existantes étendent donc un langage de modélisation de processus avec des mécanismes permettant de définir des points de variation et des variantes. Figure 3.3 – Exemple de définition de points de variation et de variantes sur un modèle de processus [MHY08] Ainsi, l’approche vSPEM [MRGP08] étend SPEM 2.0 avec des mécanismes de variabilité évalués empiriquement comme plus compréhensibles que ceux proposés par SPEM 2.0 [MRGPM11]. Ces mécanismes permettent de définir que des activités, des produits de travail, des rôles ou des tâches sont des points de variation. Ils permettent également de définir les variantes associées à chaque point de variation ainsi que des relations de dépendance (inclusion et exclusion) entre points de variation et variantes. L’approche de Kulkarni et Barat [KB10] étend le langage de modélisation de processus BPMN (Business Process Model and Notation) [OMG11a] afin de gérer la variabilité48État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus dans les modèles de processus BPMN. L’extension proposée permet de spécifier qu’une activité ou qu’un évènement sont des points de variation, quelles sont leurs variantes, et de sélectionner les variantes à affecter aux points de variation. L’approche de Nguyen et al. [NCH11] gère la variabilité dans des services définis par des processus métiers. Elle s’attache en particulier à gérer les dépendances de variabilité entre un service et les services qui le compose. Afin de gérer la variabilité de services, elle étend BPMN avec des concepts permettant de définir des points de variation sur le séquencement d’activités, ainsi que sur les données et messages échangés par ces activités. Ces concepts permettent également de spécifier les variantes d’un point de variation ainsi que le nombre minimum et maximum de variantes qui peuvent être sélectionnées pour chaque point de variation. Trois approches, PESOA (Process Family Engineering in Service-Oriented Applications) [PSWW05], BPFM (Business Process Family Model) [MHY08] et celle proposée par Ripon et al. [RTM10], s’appuient sur les stéréotypes UML afin de spécifier la variabilité de processus capturés dans des diagrammes d’activités UML. L’approche PESOA identifie les mécanismes de variabilité pertinents pour la gestion de la variabilité dans les processus, parmi un ensemble de mécanismes existants (paramétrage, extension, remplacement, omission, ajout, etc.), et les applique aux processus. Dans ce contexte, elle propose des stéréotypes permettant de spécifier qu’une unité de travail est un point de variation, quelles sont ses variantes, si une variante peut être utilisée par défaut, si des variantes sont mutuellement exclusives et si une unité de travail est optionnelle. L’approche PESOA propose également d’utiliser les mêmes stéréotypes pour spécifier la variabilité de processus modélisés avec BPMN. Pour cela, elle propose d’étendre BPMN avec le concept de stéréotype. L’approche BPFM consiste à analyser la variabilité d’un processus métier à diffé- rents niveaux d’abstraction afin d’identifier les points de variation et les variantes de ce processus. Afin de spécifier ces derniers, elle propose des stéréotypes permettant de définir qu’une activité est optionnelle ou obligatoire, qu’elle a des variantes, le nombre minimum et maximum de variantes d’une activité qui peuvent être sélectionnées, ainsi que les dépendances entre les points de variation et les variantes. Ces stéréotypes permettent également de spécifier de la variabilité au niveau des flots de contrôle. Il est aussi possible de spécifier si de nouvelles variantes peuvent être définies au moment de la résolution. L’approche proposée par Ripon et al. se concentre sur la gestion de la variabilité dans les modèles de domaine, qui définissent les aspects conceptuels d’un système. Elle propose un stéréotype afin de spécifier les éléments d’un modèle UML qui ont des variantes. Les éléments marqués avec ce stéréotype sont également marqués avec des valeurs taguées, afin d’identifier quelles sont leurs variantes et quelles décisions un ingénieur doit prendre pour résoudre la variabilité de ces éléments. Cette approche est appliquée sur des diagrammes d’activité UML. Deux approches, l’une proposée par Ternité [Ter09] et l’autre par Ciuksys et Caplinskas [CC07], fournissent un métamodèle permettant de définir une ligne de processus. Le métamodèle proposé par Ternité permet de définir que des éléments de processus sont optionnels, obligatoires, ou alternatifs. Le métamodèle proposé parIngénierie des lignes de processus 49 Ciuksys et Caplinskas permet de spécifier de la variabilité uniquement sur des activités. Il permet de définir qu’une activité est un point de variation, quelles sont ses variantes ainsi que les dépendances entre ses variantes. Les deux métamodèles offrent également des concepts permettant de résoudre la variabilité et de spécifier les opé- rations à réaliser sur la ligne de processus afin d’en dériver un processus. Mais afin d’être concrètement utilisés, ces métamodèles doivent être spécialisés en fonction du langage de modélisation de processus. Plus précisément, les éléments d’un langage de modélisation de processus sur lesquels spécifier de la variabilité doivent hériter de certains des concepts proposés par ces métamodèles. L’approche proposée par Acher et al. [ACG+12] permet de gérer la variabilité des services qui composent un workflow, où un service est un composant qui automatise une activité de ce workflow. Des BFM sont utilisés afin de spécifier la variabilité des services. Afin de lier ces BFM aux services dont ils spécifient la variabilité, chaque service est augmenté avec un identifiant unique. Toutes les approches précédentes sont cependant dépendantes du langage de modélisation de processus utilisé. En effet, afin d’être appliquées, elles nécessitent toutes d’étendre ce langage, mais aucune approche ne propose de mécanisme permettant de réaliser cette extension sans modifier ce langage. L’approche ABIS (Adaptive Business Process Modeling in the Internet of Services) [WKK+11] introduit quant à elle des constructions pour gérer la variabilité dans des processus BPMN, mais sans modifier le métamodèle BPMN. En effet, ces constructions sont instanciées dans un fichier XML différent du fichier dans lequel sont définis les processus BPMN. Ces constructions permettent de définir de la variabilité au niveau d’une activité BPMN ou au niveau d’un attribut d’un élément de modèle BPMN. Des fragments de processus spécifient les différentes valeurs que peut prendre chaque activité variable. Des constructions sont également proposées afin de spécifier comment connecter un fragment de processus à un processus sur lequel de la variabilité est définie. Mais cette approche est dépendante de BPMN, puisque les constructions proposées doivent être adaptées pour être utilisées avec un autre langage de modélisation de processus. Par exemple, il faut définir une correspondance entre les éléments de modèle BPMN et ceux de l’autre langage pour savoir comment réutiliser les constructions proposées par ABIS. 3.2.2.4 Configuration de processus par composition L’approche proposée par Istoan [Ist13] permet de gérer la variabilité sur les aspects comportementaux d’un produit logiciel, alors que les approches actuelles se concentrent plutôt sur la gestion de la variabilité au niveau de la structure de produits logiciels. Le comportement d’un produit logiciel est défini à l’aide d’un processus mé- tier. L’approche proposée permet de définir un ensemble de fragments de processus et de composer ces fragments pour dériver le processus correspondant à un produit logiciel spécifique. Le concept d’interface est introduit afin de spécifier les éléments d’un fragment de processus qui peuvent être connectés avec d’autres fragments de processus et comment ces éléments peuvent être connectés. Cependant, aucun moyen n’est50État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus proposé afin de pouvoir définir des interfaces sans modifier le langage de modélisation de processus utilisé. 3.2.2.5 Association de plusieurs techniques L’approche Configurative Process Modeling [BDKK04] permet de créer différentes vues d’un même modèle de processus afin de ne garder que les informations qui sont pertinentes pour un groupe d’utilisateurs. Mais certains des mécanismes proposés par cette approche peuvent également être utilisés afin de configurer des modèles de processus agrégats. Ainsi, cette approche permet d’associer des termes à des élé- ments d’un modèle afin de spécifier dans quels cas ceux-ci peuvent être sélectionnés. De plus, l’approche Configurative Process Modeling a été étendue afin de permettre la configuration de processus par agrégation (c’est-à-dire par composition de fragments de processus), par instanciation (c’est-à-dire affectation d’une valeur concrète à un concept abstrait) ou par spécialisation (ajout, suppression ou modification d’éléments de modèle) [BDK07]. Cependant, pour être mis en œuvre ces mécanismes requièrent d’étendre le langage de modélisation de processus utilisé, afin de pouvoir associer à des éléments de modèles des informations concernant leurs cas d’utilisation ou afin de pouvoir définir quels sont les éléments qui peuvent être instanciés, spécialisés ou composés avec d’autres éléments. Là encore, aucun moyen n’est proposé afin de réaliser cette extension sans modifier le langage de modélisation de processus utilisé. 3.2.3 Transformation en une structure pivot Les approches de cette catégorie transforment les modèles de processus en des structures pivot sur lesquelles sont définis des mécanismes permettant de définir et de résoudre la variabilité. Une fois la variabilité résolue sur la structure pivot, une transformation de cette structure vers le métamodèle de processus utilisé permet d’obtenir un processus résolu. Les mécanismes nécessaires à la gestion de la variabilité ne sont donc plus couplés aux langages de modélisation de processus. L’approche GV2BPMN (Goal-Oriented Variability Analysis toBPMN) [SCS10] propose de transformer les modèles de processus en des modèles de buts [YLL+08], afin de faciliter la sélection d’un processus d’une famille. Un modèle de buts permet en effet de capturer les différents objectifs qu’un système doit atteindre, ainsi que la variabilité entre ces objectifs. Cette approche permet de gérer la variabilité au niveau du séquencement des unités de travail d’une famille de processus. L’approche de Meerkamm [Mee10] permet de gérer la variabilité au niveau des ressources nécessaires à la réalisation d’une unité de travail, en plus de la variabilité au niveau du séquencement de ces unités de travail. Elle permet de plus de différencier les variantes de processus (qui correspondent à des processus différents d’une même famille) des alternatives, c’est-à-dire des choix qui sont faits au moment de l’exécution d’un processus. Cette approche propose de transformer les modèles de processus en une structure arborescente qui permet de capturer à la fois les unités de travail et leurs ressources, et qui permet de gérer leur variabilité.Ingénierie des lignes de processus 51 L’approche de Kumar et Yao [KY12] permet de gérer la variabilité au niveau du sé- quencement des unités de travail d’un processus et au niveau des ressources liées à ces unités de travail. Elle permet également de découpler la logique métier des processus afin d’éviter la modification des processus lorsque la logique métier change. De plus, elle propose des techniques pour faciliter la recherche et la récupération de variantes de processus stockées dans un dépôt. Afin de gérer la variabilité des processus tout en les découplant de la logique métier, cette approche consiste à appliquer des opérations de modification à un processus afin d’en dériver des variantes. La logique métier est donc capturée dans ces opérations. Ainsi, lorsque cette logique métier change, seules les opérations sont modifiées et pas les processus. Afin que les opérations de modifi- cations puissent être réutilisées quel que soit langage de modélisation de processus, celles-ci sont définies sur une structure arborescente en laquelle sont transformés les modèles de processus. Mais ces approches restent tout de même dépendantes des langages de modélisation de processus. En effet, elles nécessitent la définition d’une transformation pour chaque langage de modélisation de processus. 3.2.4 Spécification de la variabilité sans réutilisation automatique Pour terminer, nous présentons des approches se concentrant sur la spécification de la variabilité d’une famille de processus, mais ne permettant pas la réutilisation automatique des processus de cette famille. L’approche de Razavian et Khosravi [RK08] permet de modéliser la variabilité dans les processus métiers en utilisant UML. Pour ce faire, un profil UML est proposé afin de modéliser la variabilité dans des diagrammes d’activité UML. Ce profil propose plusieurs stéréotypes permettant de spécifier la variabilité au niveau des activités, des flots de contrôle, des données consommées et produites par les activités et des magasins de données (éléments utilisés pour persister les données). Deux types de variabilité peuvent être spécifiés : l’optionnalité et les alternatives. Cette approche ne propose cependant pas de mécanisme permettant de résoudre la variabilité et de dériver un processus en fonction de cette résolution de variabilité. De plus, aucun mécanisme n’est proposé afin de pouvoir appliquer les concepts proposés pour spécifier la variabilité sans modifier le langage de modélisation de processus utilisé. L’approche de Simmonds et Bastarrica [SB11] investigue l’utilisation des BFM et des OVM (Orthogonal Variability Model) [PBL05] afin de spécifier la variabilité des processus. Les BFM sont indépendants du langage de modélisation de processus utilisé. Cependant, ils ne fournissent pas de mécanisme permettant de faire le lien avec les modèles de processus, ce qui empêche de pouvoir dériver un processus en fonction de la résolution de la variabilité spécifiée par le BFM. Les OVM fournissent quant à eux un mécanisme permettant de faire le lien avec un modèle de processus. Mais celui-ci implique de modifier le langage de modélisation de processus utilisé. En effet, afin de pouvoir définir de la variabilité sur les éléments de ce langage, ceux-ci doivent hériter de certains des éléments des OVM. D’autre part, les OVM ne fournissent pas de mécanisme pour dériver un processus.52État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus Afin de faciliter la maintenance d’une famille de processus, l’approche de Derguech et Bhiri [DB10] consiste en l’utilisation d’une structure arborescente afin de définir une famille de processus et propose un support pour mettre à jour cette structure. Les nœuds de la structure arborescente sont des fragments de processus. Lorsqu’un nœud a des enfants, cela signifie que ce nœud est un point de variation et les enfants représentent les différentes variantes de ce point de variation. Cependant, l’aspect sélection et dérivation d’un processus de cette structure arborescente n’est pas traité par cette approche. De plus, aucun mécanisme n’est proposé afin de permettre l’utilisation de cette structure indépendamment du langage de modélisation de processus utilisé. Les travaux de Simidchieva et al. [SCO07] caractérisent ce que devrait comprendre une famille de processus et introduisent une approche formelle pour définir une famille de processus en fonction de cette caractérisation. L’approche consiste à modéliser un processus de base ainsi que les éléments de processus nécessaires à la création d’autres variantes de ce processus. Une variante particulière de processus est obtenue en augmentant le processus de base à l’aide de ces éléments de processus, sélectionnés en fonction d’une spécification de buts de processus. La notion de spécification de buts de processus est proche de la notion d’exigences de projet. Cette approche est assez abstraite pour être indépendante du formalisme utilisé pour définir les processus. Cependant, elle ne fournit pas de mécanisme concret permettant d’obtenir le processus correspondant aux exigences d’un projet. Fiorini et al. [FPLPdL01] proposent une architecture de réutilisation de processus, qui permet d’organiser et de décrire des processus et de les réutiliser. Cette architecture comprend un framework de processus, qui est ici un processus capturant les différents processus d’un domaine. Certaines parties de ce framework peuvent s’appuyer sur des processus standards (par exemple CMM [Ins95]) ou des patrons de processus capturés dans un dépôt. À ce framework sont associées des directives de réutilisation, qui définissent les activités du framework qui sont obligatoires, optionnelles, celles qui doivent être spécialisées, leur contenu... Une activité peut par exemple être spécialisée en utilisant un patron de processus du dépôt, récupéré à l’aide d’une recherche par mots clés. Mais malgré ces directives, la configuration du framework reste manuelle. Il est également possible de récupérer des patrons de processus pour les réutiliser indépendamment du framework. L’architecture est assez abstraite pour être utilisée avec des langages de modélisation de processus différents. 3.2.5 Synthèse sur l’ingénierie des lignes de processus Les approches s’appuyant sur l’ingénierie des lignes de processus afin de réutiliser les processus de développement logiciel sont, à notre connaissance, dépendantes du langage de modélisation utilisé pour définir les processus de la ligne, comme résumé par le tableau 3.4. En effet, certaines utilisent les concepts natifs d’un tel langage pour gérer la variabilité d’une famille de processus. D’autres approches étendent un langage de modélisation de processus existant avec des concepts permettant de gérer la variabilité. Cependant, dans ces deux cas, il peut être nécessaire d’adapter ces concepts pour les utiliser avec un autre langage de modélisation de processus. De plus, la plu-Ingénierie des lignes de processus 53 part de ces approches ne propose pas de mécanisme permettant d’utiliser ces concepts sans modifier un langage de modélisation de processus. Or, la modification d’un tel langage implique que les outils qui lui sont spécifiques (ex : modeleurs) deviennent inutilisables à moins d’être eux-aussi adaptés. D’autres approches résolvent partiellement le problème de la dépendance vis-à-vis du langage de modélisation de processus en transformant les modèles de processus en des structures pivot permettant de gérer la variabilité. Ces approches sont cependant également dépendantes du langage de modélisation de processus. En effet, une transformation doit être définie pour chaque langage. Enfin, quelques approches se concentrent uniquement sur l’aspect spécifi- cation de la variabilité, et certaines d’entre elles sont indépendantes des langages de modélisation de processus. Mais ces approches ne permettent pas la réutilisation automatique des processus dont la variabilité a été spécifiée.54Approche Concepts proposés Apports réutilisation processus Limites État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus réutili- sation processus Déf. des processus en intention Indépendante du formalisme pour définir les processus SPEM 2.0, d’après Alegría et al. [HABQO11] et Alegría et Bastarrica [AB12] Utilisation de SPEM 2.0 Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non KobrA [ABM00] Extension d’un langage de modélisation de processus Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Superimposed Variants [CA05] Extension d’un lan- gage de modélisation de processus Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non C-EPC [RvdA07] Extension d’EPC Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non C-iEPC [RDH+08, LRDtHM11] Extension d’EPC Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non aEPC [RMvdT09] Extension d’EPC Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Configurative Process Modeling [BDK07] Extension d’un langage permettant de définir des mé- thodes d’ingénierie logicielle Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui nonIngénierie des lignes de processus 55 Approche Concepts proposés Apports réutilisation processus Limites réutili- sation processus Déf. des proces- sus en intention Indépendante du formalisme pour définir les processus ADOM [RBSS09, RBSS10] Extension d’un lan- gage de modélisa- tion de processus Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Configurable Workflow [GvdAJVLR08] Extension d’un lan- gage de modélisa- tion de workflows Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Provop (PROcess Variants by OP- tions) [HBR10] Extension d’un lan- gage de modélisa- tion de processus Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non ADORE [MBF13] Extension d’un lan- gage de modélisa- tion de processus Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non vSPEM [MRGP08] Extension de SPEM 2.0 Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Kulkarni et Barat [KB10] Extension de BPMN Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Nguyen et al. [NCH11] Extension de BPMN Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non PESOA [PSWW05] profil UML Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non56Approche Concepts proposés Apports réutilisation processus Limites État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus réutili- sation processus Déf. des processus en intention Indépendante du formalisme pour définir les processus BPFM [MHY08] profil UML Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Ripon et al. [RTM10] profil UML Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Ternité [Ter09] Métamodèle Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Ciuksys et Caplinskas [CC07] Métamodèle Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Acher et al. [ACG+12] Extension des services qui composant un workflow Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non ABIS [WKK+11] Extension de BPMN Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Istoan [Ist13] Extension d’un langage de modélisation de processus Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Configurative Process Modeling [BDK07] Extension d’un langage de modélisation de processus Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui nonIngénierie des lignes de processus 57 Approche Concepts proposés Apports réutilisation processus Limites réutili- sation processus Déf. des proces- sus en intention Indépendante du formalisme pour définir les processus GV2BPMN [SCS10] Transformation de modèles de proces- sus en modèles de buts Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Meerkamm [Mee10] Transformation des modèles de proces- sus en une structure arborescente Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Kumar et Yao [KY12] Transformation d’un processus en une structure arborescente Déf. d’un ensemble de processus et réutilisation des processus de cet ensemble aucune oui non Razavian et Khosravi [RK08] profil UML pour spécifier la variabi- lité dans les dia- grammes d’activités spécification de la variabilité des processus résolution de la va- riabilité, dériva- tion de processus oui non Simmonds et Bas- tarrica [SB11] BFM et OVM pour spécifier la variabi- lité des processus spécification de la variabilité des processus dérivation de proces- sus oui oui BFM, non OVM58Approche Concepts proposés Apports réutilisation processus Limites État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus réutili- sation processus Déf. des processus en intention Indépendante du formalisme pour définir les processus Derguech et Bhiri [DB10] Structure arborescente pour définir une famille de processus spécification de la variabilité des processus résolution de la variabilité, dérivation de processus oui non Simidchieva et al. [SCO07] Caractérisation du contenu d’une famille de processus et approche pour définir une telle famille spécification de la variabilité des processus dérivation de processus oui oui Fiorini et al. [FPLPdL01] Architecture de réutilisation de processus spécification de la variabilité des processus dérivation de processus oui oui Table 3.4 – Évaluation des approches s’appuyant sur l’ingénierie des lignes de processusSynthèse 59 3.3 Synthèse L’approche de Sadovykh et Abherve permet de savoir à quels moments d’un projet réutiliser des automatisations de TMR. Cette approche ne permet cependant pas de savoir pour quels projets réutiliser des automatisations de TMR. Une solution consiste donc à réutiliser les processus de développement logiciel afin de réutiliser les automatisations de TMR qui leurs sont liées. Parmi les approches supportant la réutilisation des processus de développement logiciel, certaines ne sont pas suffisantes pour mettre en œuvre cette réutilisation. D’autres approches permettent effectivement de réutiliser les processus de développement logiciel. Cependant, soit celles-ci ne proposent pas de mécanisme pour définir les processus en intention, soit elles sont dépendantes du langage de modélisation de processus utilisé. Le tableau 3.5 résume dans quelle catégorie se trouve chaque approche supportant la réutilisation des processus. En conclusion, aucune des approches existantes ne permet de définir un ensemble de processus en intention et de dériver un processus de cet ensemble, tout en étant indépendante du formalisme utilisé pour définir les processus. De plus, aucune approche ne traite la problématique de l’automatisation des processus de développement logiciel réutilisés, ce qui est loin d’être trivial. En effet, les contraintes d’un projet peuvent imposer de commencer l’exécution d’un processus alors que toutes les exigences de ce projet ne sont pas encore déterminées. Par exemple, afin de gagner du temps, il est possible de commencer l’exécution d’un processus de développement d’une application web Java (par exemple en écrivant les spécifications fonctionnelles) alors que le framework pour l’IHM de l’application à développer (par exemple Struts, JSF, Flex ou GWT) n’est pas encore choisi. Mais comment exécuter un processus s’il n’est que partiellement défini à cause des exigences non déterminées ? Approche Suffisante 1pour la réutilisation de processus Définition des processus en intention Indépendante du formalisme pour définir les processus Promote [CDCC+13] non non oui Pérez et al. [PEM95] non non oui Alexander et Davis [AD91] non non oui Sharon et al. [SdSSB+10] non non oui Lu et Sadiq [LS07] oui non non Song et Osterweil [SO98] oui non oui Intelligent Workflow Designer [IMCH+07] non non non Design by Selection [ASKW11] non non non CAT [KSG04] non non non60État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus Approche Suffisante 1pour la réutilisation de processus Définition des processus en intention Indépendante du formalisme pour définir les processus Aldin [Ald10] non non oui SPEM 2.0, d’après Alegría et al. [HABQO11] et Alegría et Bastarrica [AB12] oui oui non KobrA [ABM00] oui oui non C-EPC [RvdA07] oui oui non C-iEPC [RDH+08, LRDtHM11] oui oui non aEPC [RMvdT09] oui oui non Configurative Process Modeling [BDK07] oui oui non Superimposed Variants [CA05] oui oui non ADOM [RBSS09, RBSS10] oui oui non Configurable Work- flow [GvdAJVLR08] oui oui non Provop (PROcess Variants by OPtions) [HBR10] oui oui non vSPEM [MRGP08] oui oui non Kulkarni et Barat [KB10] oui oui non Nguyen et al. [NCH11] oui oui non PESOA [PSWW05] oui oui non BPFM [MHY08] oui oui non Ripon et al. [RTM10] oui oui non Ternité [Ter09] oui oui non Ciuksys et Caplinskas [CC07] oui oui non Acher et al. [ACG+12] oui oui non ABIS [WKK+11] oui oui non Configurative Process Modeling [BDK07] oui oui non Istoan [Ist13] oui oui nonSynthèse 61 Approche Suffisante 1pour la réutilisation de processus Définition des processus en intention Indépendante du formalisme pour définir les processus ADORE [MBF13] oui oui non GV2BPMN [SCS10] oui oui non Meerkamm [Mee10] oui oui non Kumar et Yao [KY12] oui oui non Razavian et Khosravi [RK08] non oui non Simmonds et Bastarrica [SB11] non oui oui BFM, non OVM Derguech et Bhiri [DB10] non oui non Simidchieva et al. [SCO07] non oui oui Fiorini et al. [FPLPdL01] non oui oui Table 3.5 – Évaluation de l’ensemble des approches supportant la réutilisation des processus Concernant la capacité des automatisations de TMR à être réutilisées à travers leurs différents cas d’utilisation, certaines approches supportent le développement de composants logiciels réutilisables. Par exemple, l’ingénierie des lignes de produits logiciels [PBL05] s’appuie sur la spécification de la variabilité de produits logiciels afin de produire des artéfacts de développement réutilisables. Plusieurs approches permettent d’implémenter des artéfacts réutilisables, comme par exemple la programmation orientée objet [Cox85], la programmation orientée aspect [CB05] ou encore l’ingénierie logicielle basée sur les composants [Crn02]. Mais pour être appliquées ces approches requièrent toutes au préalable d’avoir identifié la variabilité des artéfacts de développement, ce qu’elles ne permettent pas de faire. Des approches permettent quant à elle d’identifier la variabilité de composants logiciels. FORM (Feature-Oriented Reuse Method) [KKL+98] est une méthodologie mettant en œuvre l’ingénierie des lignes de produits logiciels. À ce titre, elle supporte la conception et le développement d’architectures et de composants réutilisables, et le développement de produits logiciels à partir de ces artéfacts. FORM fournit des directives permettant d’identifier la variabilité des artéfacts de développement qui réalisent des produits logiciels, en fonction de la spécification de la variabilité de ces produits logiciels. Un BFM est utilisé pour spécifier la variabilité d’un produit logiciel et l’identification de la variabilité d’un composant logiciel est basée sur l’analyse de la hiérarchie du BFM. Un exemple de directive proposée par FORM est que la hiérarchie des composants qui réalisent un produit logiciel correspond en grande partie à la 1. Comme défini page 36, une approche est suffisante pour la réutilisation de processus si elle permet de définir un ensemble de processus et de dériver un processus de cet ensemble.62État de l’art : de la réutilisation d’automatisations de TMR à la réutilisation de processus hiérarchie du BFM. L’approche de Lee et Kang [LK04] étend l’approche FORM et s’appuie sur l’analyse des dépendances opérationnelles entre les caractéristiques capturées par le BFM (c’est- à-dire lorsque la réalisation d’une caractéristique dépend de la réalisation d’autres caractéristiques) afin d’identifier la variabilité d’un composant logiciel. Un exemple de directive proposée par cette approche est que des caractéristiques alternatives peuvent implémenter une interface commune. L’approche de Lee et al. [LKCC00] étend elle aussi l’approche FORM afin d’identi- fier des objets réutilisables pour l’implémentation de composants à partir de l’analyse d’un BFM. Un exemple de directive est que des catégories d’objets peuvent être dé- duites de catégories de caractéristiques. Dans le cas de l’application de ces approches à des automatisations de TMR qui réalisent des processus de développement logiciel, le BFM spécifierait la variabilité d’une famille de processus et les automatisations de TMR seraient les composants logiciels dont la variabilité doit être identifiée. Cependant, il ne serait pas possible de réutiliser les directives proposées par ces approches telles qu’elles sont. En effet, chaque caractéristique du BFM (correspondant dans ce cas à un fragment de processus) n’est pas systématiquement réalisée par une automatisation de TMR. Ces approches ne sont donc pas adaptées pour identifier la variabilité d’automatisations de TMR. Une autre méthode permet d’identifier les parties réutilisables d’un composant en identifiant les parties communes entre les variantes des points de variation de ce composant [ZXD05]. Mais cette méthode requière au préalable d’avoir identifié les points de variation et les variantes d’un composant. Cette méthode permet donc d’aller plus loin dans l’identification de la variabilité d’un composant, mais ne peut pas être appliquée si des parties variables et communes d’un composant n’ont pas déjà été identifiées. En conclusion, il manque une approche permettant de réutiliser les processus de développement logiciel qui soit à la fois indépendante du langage de modélisation de processus utilisé, qui offre les mécanismes nécessaires à la définition en intention d’un ensemble de processus, et qui intègre réutilisation et automatisation des processus. Il manque également une approche permettant d’identifier la variabilité d’automatisations de TMR.Deuxième partie Automatisation des tâches manuelles récurrentes pilotée par les processus de développement logiciel 6365 Les travaux présentés dans cette partie ont fait l’objet d’une publication : Emmanuelle Rouillé, Benoît Combemale, Olivier Barais, David Touzet and Jean-Marc Jézéquel. Integrating Software Process Reuse and Automation. In Proceedings of the 20th Asia-Pacific Software Engineering Conference, APSEC ’13, 2013 [RCB+13b]. Nous présentons dans cette partie la contribution principale de cette thèse, à savoir notre approche pilotant la réutilisation d’automatisations de TMR (Tâches Manuelles Récurrentes) par les processus de développement logiciel. La figure 3.4 illustre le principe général de cette approche. Figure 3.4 – Principe général de la contribution principale La réutilisation des automatisations de TMR consiste dans notre approche à réutiliser les processus de développement logiciel auxquels ces automatisations sont liées. Notre approche s’appuie sur l’ingénierie des lignes de processus afin de réutiliser les processus de développement logiciel. Une ligne de processus est définie en intention et un processus peut être réutilisé en le dérivant de cette ligne, en fonction des exigences des projets. L’ingénierie des lignes de processus permet non seulement de réutiliser les processus de développement logiciel, mais également tous les fragments de processus communs à plusieurs processus, puisque ceux-ci sont factorisés (définition en intention). De plus, la définition en intention d’une famille de processus permet d’en faciliter66 la maintenance, puisque les fragments de processus communs à plusieurs processus ne sont mis à jour qu’une seule fois en cas d’évolution. D’autres part, comme des langages de modélisation de processus de développement logiciel différents sont utilisés en fonction des exigences des utilisateurs [Zam01], nous proposons, dans le chapitre 4, une approche permettant de gérer la variabilité dans les processus de développement logiciel qui est indépendante du langage de modélisation de processus utilisé. Les TMR à automatiser étant des tâches réalisées par ordinateur, nous utilisons des composants logiciels afin de les automatiser. Dans la suite de cette thèse, nous appelons composants d’automatisation (CA) un composant logiciel automatisant une TMR. Ces CA sont reliés aux unités de travail (tâches, activités...) des processus de la ligne de processus qu’ils automatisent. Cependant, un CA peut être lié à des unités de travail différentes, appartenant ou non à un même processus, ce qui peut induire de la variabilité au niveau de ce CA. Par exemple, un CA qui met du code source sous contrôle de version peut être utilisé lors de projets différents, pour lesquels le dépôt distant sur lequel partager le code source n’est pas le même. Nous proposons donc, dans le chapitre 5, une méthodologie fournissant un support à la création de CA qui soient réutilisables pour toutes les unités de travail auxquelles ils sont liés. Un processus dérivé de la ligne de processus est automatisé en lançant au fur et à mesure de son exécution les CA qui lui sont liés. Le lien entre ces CA et les unités de travail du processus qu’ils automatisent permet de savoir à quel moment de l’exécution du processus exécuter les différents CA.Chapitre 4 Gestion de la variabilité dans les processus Nous présentons dans ce chapitre notre approche permettant de gérer la variabilité dans les processus de développement logiciel indépendamment du langage utilisé pour les définir. Nous commençons par introduire dans la section 4.1 l’exemple dont nous nous servons pour illustrer cette approche. La section 4.2 détaille ensuite l’approche en elle-même. Nous discutons cette approche dans la section 4.3 et nous en faisons la synthèse dans la section 4.4. Les travaux présentés dans ce chapitre ont fait l’objet d’une publication : Emmanuelle Rouillé, Benoît Combemale, Olivier Barais, David Touzet and Jean-Marc Jézéquel. Leveraging CVL to Manage Variability in Software Process Lines. In Proceedings of the 19th Asia-Pacific Software Engineering Conference, APSEC ’12, pages 148-157, 2012 [RCB+12]. 4.1 Exemple illustratif : une famille de processus de métamodélisation Nous introduisons dans cette section un exemple de famille de processus, que nous utilisons ensuite pour illustrer l’approche proposée dans ce chapitre. Il s’agit d’une famille simplifiée de processus de métamodélisation, issue de l’équipe de recherche Triskell 1 , au sein de laquelle cette thèse a été réalisée. Un processus de métamodélisation consiste à définir et outiller un langage de modélisation spécifique à l’expression d’une préoccupation particulière, en tirant parti pour ce faire des concepts et outils 1. http://triskell.irisa.fr/ 6768 Gestion de la variabilité dans les processus Figure 4.1 – Flot de tâches de l’exemple illustratif de processus de métamodélisation Figure 4.2 – Ressources de l’exemple illustratif de processus de métamodélisation du domaine de l’IDM. Un tel langage permet de mettre en œuvre la séparation des préoccupations et ainsi maîtriser la complexité des systèmes logiciels [JCV12]. Nous introduisons d’abord un exemple simplifié de processus de métamodélisation, illustré par les figures 4.1 et 4.2. Plus précisément, la figure 4.1 illustre le flot de tâches de ce processus, tandis que la figure 4.2 illustre les ressources (outils, entrées et sorties) quiApproche 69 entrent en jeu lors de la réalisation de ces tâches. Nous détaillons ensuite des exemples de variantes de ce processus. L’exemple de processus de métamodélisation présenté ici est un processus itératif qui commence avec la définition d’un métamodèle. Des tâches parallèles suivent la définition de ce métamodèle : définition d’un éditeur textuel et d’un éditeur arborescent permettant la création de modèles conformes au métamodèle, définition d’un vérificateur permettant de vérifier qu’un modèle est bien conforme à son métamodèle, définition d’un interpréteur et définition d’un compilateur. L’outil utilisé pour définir le métamodèle et l’éditeur arborescent est EMF 2 . L’outil XText 3 est utilisé pour définir l’éditeur textuel. L’outil utilisé pour définir le vérificateur, l’interpréteur et le compilateur est Kermeta 4 , un environnement de métamodélisation. L’interpréteur est mis sous contrôle de version en utilisant SVN. Il existe des variantes de ce processus de métamodélisation. Par exemple, en fonction des exigences des projets, les tâches de définition d’un éditeur textuel ou arborescent, d’un interpréteur, d’un compilateur et d’un vérificateur peuvent ne pas avoir lieu. D’autre part, toujours selon les exigences des projets, l’outil EMFText 5 peut être utilisé à la place de XText et Git peut remplacer SVN. 4.2 Approche Des langages de modélisation de processus différents peuvent être utilisés en fonction des exigences de leurs utilisateurs. Il est donc intéressant, à des fins de réutilisation, d’avoir une approche permettant de gérer la variabilité dans les processus qui soit indépendante de ces langages. Par indépendante nous entendons qu’une approche n’ait pas à être adaptée pour être utilisée avec des langages de modélisation de processus différents et qu’elle ne nécessite pas non plus de modifier ces langages. Cela permet de pouvoir réutiliser à la fois l’approche et les langages de modélisation de processus, ainsi que les outils associés. Nous avons vu en section 2.3.2 que CVL était un langage permettant de spécifier et de résoudre de la variabilité sur des modèles, quel que soit leur métamodèle pour peu qu’il se conforme au MOF. Nous utilisons donc ici CVL afin de gérer la variabilité dans les processus de développement logiciel indépendamment de leur langage de modélisation. Nous présentons dans ce chapitre notre approche, appelée CVL4SP (CVL for Software Processes). Il s’agit de la première sous-contribution de cette thèse. La figure 4.3 illustre la partie de la contribution principale que nous détaillons ici. 2. http://www.eclipse.org/modeling/emf/ 3. http://www.eclipse.org/Xtext/ 4. http://www.kermeta.org/ 5. http://www.emftext.org70 Gestion de la variabilité dans les processus Figure 4.3 – Partie de la contribution principale réalisée par CVL4SP Figure 4.4 – Apperçu de l’approche consistant à utiliser CVL pour gérer la variabilité dans les processus de développement logicielApproche 71 Figure 4.5 – Processus de l’approche consistant à utiliser CVL pour gérer la variabilité dans les processus de développement logiciel72 Gestion de la variabilité dans les processus Comme illustré par la figure 4.4, le principe général de CVL4SP consiste à utiliser le VAM (Variability Abstraction Model, cf. section 2.3.2) de CVL afin de capturer la variabilité des exigences des projets. Nous utilisons le modèle de base de CVL afin de capturer les éléments de processus nécessaires pour définir la famille de processus attendue. Ce modèle de base devient alors un modèle de processus de base. Grâce au VRM (Variability Realization Model, cf. section 2.3.2) de CVL, nous faisons le lien entre la variabilité des exigences des projets capturée dans le VAM et les éléments de processus du modèle de processus de base. Plus précisément, nous utilisons le VRM afin de définir comment dériver un processus du modèle de processus de base en fonction des exigences des projets. Nous utilisons le RM (Resolution Model, cf. section 2.3.2) afin de sélectionner les exigences pour un projet donné. Enfin, le modèle résolu de CVL contient le processus dérivé du modèle de processus de base en fonction des exigences sélectionnées dans le RM. On parle alors de modèle de processus résolu. Notre approche préserve la séparation entre les exigences des projets et les processus, puisque les aspects exigences et processus sont définis dans des modèles distincts (le VAM et le modèle de processus de base), qui ne sont pas liés directement l’un à l’autre mais par l’intermédiaire du VRM. Cela permet donc de pouvoir réutiliser et faire évoluer les aspects exigences et processus indépendamment l’un de l’autre. De plus, en capturant dans le VAM la variabilité des exigences des projets et non la variabilité des processus, notre approche permet de relier directement les exigences des projets aux processus, en évitant une couche intermédiaire de définition de la variabilité des processus. La figure 4.5 présente le processus de notre approche. Elle implique deux rôles : un expert processus, qui connaît les différents processus d’une entreprise ainsi que leurs contextes d’utilisation, et un utilisateur d’une ligne de processus, qui est impliqué dans un projet et a besoin d’un processus spécifique à ce projet. L’expert processus capture la variabilité des exigences des projets et fait le lien entre ces exigences et une ligne de processus (étapes 1 à 3). Ensuite, l’utilisateur de cette ligne de processus lance la dérivation automatique d’un processus (de cette ligne) en fonction des exigences d’un projet spécifique (étapes 4 et 5). Les étapes 4 et 5 ont lieu à chaque fois qu’un utilisateur d’une ligne de processus souhaite dériver un processus. L’expert processus et l’utilisateur d’une ligne de processus utilisent l’outillage associé à CVL pour réaliser les étapes 2 à 5. N’importe quel langage de modélisation de processus de développement logiciel peut être utilisé pour réaliser l’étape 1. Nous détaillons dans la suite de cette section les différentes étapes de notre approche. Nous les illustrons à l’aide de l’exemple illustratif introduit dans la section 4.1. 4.2.1 Définition de la ligne de processus de développement logiciel 4.2.1.1 Méthodologie pour la modélisation des éléments de processus (étape 1) Approche L’expert processus modélise ici les éléments de processus requis pour définir la famille de processus attendue. Dans un premier temps, l’expert processus modélise, dans un modèle de processusApproche 73 de base, le processus de l’entreprise le plus souvent utilisé. Nous ne traitons pas dans cette thèse de la manière de déterminer le processus le plus souvent utilisé. Ensuite, l’expert processus modélise tous les autres éléments de processus qui n’appartiennent pas au processus le plus souvent utilisé et qui sont requis pour créer des variantes de ce processus. Dans la suite, nous appellerons ces éléments de processus des éléments de processus externes. Ces éléments de processus externes sont ajoutés au modèle contenant le processus le plus souvent utilisé (c’est-à-dire le modèle de processus de base), mais sans les relier à ce processus. Même si plusieurs processus utilisent un même élément de processus externe, celui-ci n’est modélisé qu’une seule fois dans le modèle de processus de base, afin de respecter la définition en intention de processus. De ce fait, quand un élément de processus commun à plusieurs processus évolue, il ne faut le mettre à jour qu’une seule fois. Quand différents processus utilisent un même élément de processus externe, ils peuvent requérir différentes valeurs pour les propriétés de cet élément de processus externe. Dans ce cas, dans le modèle de processus de base, l’expert processus affecte aux propriétés de cet élément de processus les valeurs correspondant au processus le plus utilisé parmi les processus qui utilisent cet élément de processus externe. Nous détaillons maintenant comment notre méthodologie s’applique dans le cas de la modélisation avec SPEM 2.0. L’expert processus commence par modéliser les éléments de contenu de méthode qui serviront à définir le processus le plus souvent utilisé ainsi que les éléments de processus externes. L’expert processus modélise ensuite le processus le plus souvent utilisé ainsi que les éléments de processus externes dans différentes activités représentant des processus. De cette manière, il n’y a pas d’opération à effectuer sur le modèle de processus de base pour dériver le processus le plus souvent utilisé. En effet, en SPEM 2.0, un processus décrivant le cycle de vie complet d’un projet est décrit dans un type d’activité particulier, le processus. De cette manière, le processus le plus souvent utilisé est déjà décrit dans ce type d’activité. Il est possible de modéliser le processus de base différemment. Par exemple, toutes les variantes de processus peuvent être modélisées dans le même processus en utilisant des branchements conditionnels. Il est également possible de modéliser des éléments de processus sans modéliser les relations entre eux et de les composer au moment de la dérivation. Une autre possibilité est de modéliser le processus commun à tous les processus d’une famille ainsi que les éléments de processus qui varient, sans les relier au processus commun. Par rapport à ces autres approches, notre méthodologie permet à un humain de visualiser directement au moins un processus d’une famille, qui plus est le processus le plus souvent utilisé de cette famille. Illustration Nous détaillons maintenant le modèle de processus de base dans le cas de l’exemple illustratif de la famille de processus de métamodélisation. La figure 4.6 illustre les éléments de contenu de méthode de la famille de processus de métamodélisation. La définition de tâche définir métamodèle produit en sortie la définition de produit de travail métamodèle et requiert l’utilisation de l’outil EMF. Les définitions de tâche définir éditeur arborescent, définir éditeur textuel, définir vérificateur, définir compilateur et définir interpréteur prennent en entrée la définition de produit de travail métamodèle, et74 Gestion de la variabilité dans les processus produisent respectivement en sortie les définitions de produit de travail éditeur arborescent, éditeur textuel, vérificateur, compilateur et interpréteur. Comme pour les éléments de processus externes, on ne modélise que les propriétés correspondant au processus le plus utilisé qui utilise ces éléments de contenu de méthode. Ainsi, la définition de tâche définir éditeur textuel utilise la définition d’outil XText et non pas la définition d’outil EMFText, et la définition de tâche définir interpréteur utilise la définition d’outil SVN et non pas Git. Figure 4.6 – Eléments de contenu de méthode de l’exemple illustratif Comme illustré par la figure 4.7, le processus le plus utilisé de la famille de processus de métamodélisation consiste uniquement en la définition d’un métamodèle et d’un éditeur arborescent. Figure 4.7 – Processus le plus souvent utilisé de l’exemple illustratif La figure 4.8 illustre les fragments de processus représentant les éléments de processus externes de la famille de processus de métamodélisation. Ces éléments de processusApproche 75 externes sont les tâches définir éditeur textuel, définir vérificateur, définir interpréteur et définir compilateur, avec leurs produits de travail respectifs (éditeur textuel, vérificateur, interpréteur et compilateur). Les éléments de processus externes comprennent également un nœud de jointure et un nœud de parallélisation, ainsi que les flots de contrôle nécessaires à la dérivation de processus de métamodélisation autres que celui qui est le plus utilisé. Figure 4.8 – Eléments de processus externes de l’exemple illustratif 4.2.1.2 Spécification de la variabilité des exigences des projets (étape 2) Approche Dans la seconde partie de notre approche, l’expert processus s’appuie sur le VAM de CVL afin de spécifier la variabilité des exigences des projets. Illustration La figure 4.9 présente un extrait du VAM des exigences des différents projets de métamodélisation de l’exemple illustratif. On y voit que les définitions d’un interpréteur, d’un compilateur, d’un vérificateur, d’un éditeur arborescent ainsi que d’un éditeur textuel (respectivement représentées par les choix interpréteur, compilateur, vérificateur, éditeur arborescent et éditeur textuel) sont des tâches optionnelles. La définition d’un éditeur textuel peut être réalisée soit avec l’outil XText soit avec l’outil EMFText (respectivement représentés par les choix XText et EMFText). L’utilisation d’un SCV (Système de Contrôle de Version), représenté par le choix SCV, est obligatoire, et il s’agit soit de SVN, soit de Git (respectivement représentés par les choix SVN et Git). Ce VAM contient également des choix dont la résolution est dérivée (éditeur textuel parallèle, vérificateur parallèle, compilateur parallèle, interpréteur parallèle, éditeur arborescent parallèle et parallélisation). Le choix parallélisation est automatiquement sélectionné lorqu’au moins deux tâches optionnelles de la famille de processus de métamodélisation sont sélectionnées. Chacun des choix éditeur textuel parallèle, vérifi- cateur parallèle, compilateur parallèle, interpréteur parallèle et éditeur arborescent parallèle est76 Gestion de la variabilité dans les processus automatiquement sélectionné si le choix parallélisation est sélectionné et si le choix de nom correspondant (c’est-à-dire éditeur textuel pour éditeur textuel parallèle, vérificateur pour vérificateur parallèle, ...) est également sélectionné. Ces choix dont la résolution est dérivée ne reflètent pas la variabilité au niveau des exigences des projets. Nous allons voir par la suite qu’ils sont utiles pour savoir quelles opérations effectuer sur le modèle de processus de base afin de dériver un processus. Figure 4.9 – Extrait du VAM de l’exemple illustratif 4.2.1.3 Liaison entre les exigences des projets et les processus (étape 3) Approche Dans la troisième étape de notre approche, l’expert processus définit dans un VRM la liaison entre la variabilité des exigences des projets (définie à l’étape 2 dans le VAM) et les processus (définis à l’étape 1 dans le modèle de processus de base). Le VRM spécifie comment dériver un processus du modèle de processus de base en fonction des exigences des projets. Illustration La figure 4.10 représente un extrait du VRM de l’exemple illustratif suffisant pour dériver un processus de métamodélisation avec définition d’un éditeur arborescent et d’un interpréteur. Pour des raisons de lisibilité, nous avons scindé ce VRM en deux dans les sous-figures 4.10(a) et 4.10(b). Dans la sous-figure 4.10(a), l’activité métamodélisation représente le processus le plus souvent utilisé. La première série d’opérations consiste à mettre dans ce processus les éléments de processus externes dont on a besoin pour dériver un processus en fonction des exigences. Ainsi, si le choix interpréteur est sélectionné, alors il faut mettre la tâche définir interpréteur, ses flots de contrôle entrants et sortants, ainsi que le produit de travail interpréteur dans l’activité métamodélisation. Si le choix parallélisation est sélectionné, cela signifie qu’au moins deux tâches optionnelles auront été sélectionnées et donc que le processus dérivé contiendra de la parallélisation car les tâches optionnelles sont exécutées en parallèle dans notre exemple. Il faut donc, dans ce cas, mettre le nœud de parallélisation, son flot de contrôle entrant, le nœud de jointure et son flot de contrôle sortant dans l’activité métamodélisation. Détaillons maintenant la sous-figure 4.10(b). Si le choix parallélisation est sélectionné,Approche 77 alors la source du flot de contrôle entrant du nœud de parallélisation doit être affectée à la tâche définir métamodèle. Le flot de contrôle sortant du nœud de jointure doit de plus être affecté au nœud de décision. Si le choix éditeur arborescent parallèle est sélectionné, cela signifie que le processus dérivé contiendra des tâches parallèles, et que la tâche définir éditeur arborescent en fera partie. Il faut donc, dans ce cas, affecter la source du flot de contrôle entrant de la tâche définir éditeur arborescent au nœud de parallélisation et il faut affecter la cible du flot de contrôle sortant de la tâche définir éditeur arborescent au nœud de jointure. De manière similaire, si le choix interpréteur parallèle est sélectionné, alors il faut affecter la source du flot de contrôle entrant de la tâche définir interpréteur au nœud de parallélisation et il faut affecter la cible du flot de contrôle sortant de la tâche définir interpréteur au nœud de jointure. Enfin, si l’outil Git est sélectionné (choix Git sélectionné), alors il faut remplacer l’outil SVN par l’outil Git. (a) Première partie du VRM (b) Deuxième partie du VRM Figure 4.10 – Extrait du VRM de l’exemple illustratif78 Gestion de la variabilité dans les processus 4.2.2 Dérivation d’un processus en fonction des exigences d’un projet 4.2.2.1 Résolution de la variabilité des exigences des projets (étape 4) Approche Un utilisateur de la ligne de processus précédemment définie résout la variabilité des exigences des projets. Il sélectionne pour ce faire dans le RM de CVL les exigences pour un projet donné, parmi les exigences spécifiées dans le VAM. Illustration La figure 4.11 présente un extrait du RM pour un processus de métamodélisation, avec uniquement éditeur arborescent, interpréteur et SVN comme choix sélectionnés. Les choix dérivés sont automatiquement résolus en fonction de la résolution des autres choix. Ici, seuls les choix dérivés parallélisation, interpreteur parallèle et éditeur arborescent parallèle sont sélectionnés. Figure 4.11 – Extrait du RM de l’exemple illustratif 4.2.2.2 Dérivation automatique de processus (étape 5) Approche La dernière étape de notre approche consiste à dériver automatiquement le processus correspondant aux exigences d’un projet donné. Dans ce but, nous utilisons le moteur de dérivation de CVL afin de permettre à l’utilisateur de la ligne de processus de dériver un modèle de processus depuis le modèle de processus de base (étape 1), en fonction i) des exigences sélectionnées dans le RM (étape 4), et ii) de la réalisation de la variabilité capturée dans le VRM (étape 3). Cette étape produit un modèle de processus résolu. Si un projet a des besoins spécifiques qui ne se retrouvent pas dans d’autres projets, alors l’utilisateur de la ligne de processus peut adapter manuellement le modèle de processus résolu à ces besoins, à l’issue de la dérivation automatique de ce modèle de processus. En effet, il n’est pas utile de capitaliser des besoins spécifiques à un projet dans une ligne de processus si ces besoins ne se retrouvent pas dans d’autres projets. Illustration Comme illustré par la figure 4.12, le processus résolu correspondant au RM de la figure 4.11 est un processus de métamodélisation avec les étapes de définitionApproche 79 d’un métamodèle, d’un éditeur arborescent, d’un interpréteur, et avec le SCV SVN. Figure 4.12 – Modèle de processus résolu 4.2.3 Exécution d’un processus résolu La difficulté au moment de l’exécution d’un processus dérivé d’une ligne de processus réside dans le fait qu’en fonction des contraintes d’un projet, ce processus peut être exécuté alors que sa variabilité n’est que partiellement résolue. Par exemple, afin de gagner du temps, il est possible de démarrer l’exécution d’un processus de développement d’une application web en Java (par exemple en écrivant les spécifications fonctionnelles) alors que le framework pour l’IHM de l’application à développer (par exemple Struts 6, JSF 7 (Java Server Faces), Flex 8 ou GWT 9 (Google Web Toolkit)) n’a pas encore été choisi. Dans ce cas, l’automatisation de l’exécution du processus peut donner lieu à des erreurs à cause de la variabilité non résolue. En effet, si une partie d’un processus contient de la variabilité non résolue, alors : – soit cette partie de processus est dans un état où elle n’est pas exécutable par un outil, car elle possède des éléments considérés comme invalides par cet outil (par exemple un flot de contrôle qui ne pointe vers rien) ; – soit cette partie est dans un état exécutable, mais qui ne correspond pas à l’état dans lequel elle aurait dû être si la variabilité avait été résolue. Dans ce cas, le résultat de l’exécution ne sera pas celui attendu. Afin de gérer les cas où la variabilité du processus en cours d’exécution n’est que partiellement résolue, notre approche consiste à demander à l’acteur courant du processus de résoudre la variabilité d’un fragment de processus dont la variabilité n’est que partiellement résolue au moment de l’exécution de ce fragment. 6. http://struts.apache.org/ 7. http://www.oracle.com/technetwork/java/javaee/javaserverfaces-139869.html 8. http://www.oracle.com/technetwork/java/javaee/javaserverfaces-139869.html 9. http://www.gwtproject.org/80 Gestion de la variabilité dans les processus 4.3 Discussion Nous discutons dans cette section de la capacité de CVL à gérer la variabilité des processus en fonction de la variabilité des exigences des projets (section 4.3.1), de l’indépendance de CVL vis-à-vis des métamodèle de processus (section 4.3.2), de la validité du modèle de processus résolu (section 4.3.3), ainsi que des extensions possibles à la méthodologie proposée pour définir le modèle de processus de base (section 4.3.4). 4.3.1 Capacité de CVL à gérer la variabilité des processus en fonction de la variabilité des exigences des projets Selon notre approche, le VAM capture la variabilité des exigences des projets, tandis que le VRM spécifie le lien entre cette variabilité des exigences et le modèle de processus de base. Le VRM permet de refléter directement la variabilité des exigences des projets sur les processus. Ces trois modèles (VAM, VRM et modèle de processus de base) constituent donc la définition d’une ligne de processus de développement logiciel. CVL permet ensuite à un utilisateur de cette ligne de processus i) de sélectionner les exigences pour un projet donné dans un RM et ii) de dériver automatiquement un modèle de processus depuis le modèle de processus de base en fonction de ce RM. CVL permet donc bien de gérer la variabilité des processus de développement logiciel en fonction de la variabilité des exigences des projets. 4.3.2 Indépendance de CVL vis-à-vis des métamodèles de processus Actuellement, le seul lien entre CVL et les modèles métiers pour lesquels il permet de gérer la variabilité est fait par l’intermédiaire des points de variation, qui permettent de faire des références aux éléments du modèle de base. Ces références sont faiblement couplées aux éléments du modèle de base. En effet, CVL utilise une chaîne de caractères dans les éléments de modèle de type ObjectHandle et LinkHandle pour référencer les éléments du modèle de base. Dans son état actuel, CVL est donc bien indépendant du langage sur lequel il s’applique. Nous allons cependant voir dans la section suivante que le couplage faible entre CVL et les langages sur lesquels il s’applique peut être à l’origine d’erreurs dans le modèle de processus résolu. 4.3.3 Validité du modèle de processus résolu Nous avons observé que l’opérateur de dérivation de CVL pouvait produire un modèle de processus résolu invalide (c’est-à-dire non conforme à son métamodèle), alors que les VAM, VRM et RM sont valides. Dans la suite de cette section, nous identifions les sources possibles de cette invalidité, et nous les classifions en fonction de la manière de les éviter. Le premier type d’erreur que nous avons observé concerne les affectations (affectation d’attribut, paramétrable ou non) ou les substitutions (substitution de fin de lien,Discussion 81 substitution de fin de lien paramétrable, substitution d’objet, substitution d’objet paramétrable, substitution de fragment) qui ne respectent pas la compatibilité de type avec le modèle de base. Ces erreurs constituent la première catégorie que nous avons identifiée. Elles ont lieu parce que CVL ne contraint pas la spécification du VRM en fonction du métamodèle auquel il s’applique. L’expression de contraintes génériques sur le métamodèle de CVL permettrait d’assurer la validité du VRM par rapport au métamodèle du modèle auquel il s’applique. Par exemple, le problème de compatibilité de type mentionné plus haut dans le contexte d’une substitution de fin de lien pourrait être évité en utilisant la contrainte suivante exprimée avec OCL (Object Constraint Language) [OMG10] sur le métamodèle de CVL : 1 c on t e x t LinkEndSubstitution inv: 2 -- où ’find ’ résoud l’URI d’un élément de modèle , ’getRef ’ retourne la référence , dont le nom est passé en paramètre , de l’élément de modèle sur lequel est appelée la fonction , ’OclType ’ retourne le type de l’élément de modèle sur lequel il est appelé et ’isOfType ’ retourne vrai si le type sur lequel il s’applique est du même type que le type passé en paramètre. 3 find(self. replacementObject .MOFRef).OclType.isOfType(find(self.link.MOFRef). getRef(self. linkEndIdentifier ).OclType) Cette contrainte spécifie en effet que dans le cas d’une substitution de fin de lien, l’objet correspondant à la nouvelle valeur d’un lien doit être du même type que la référence que ce lien instancie. Le second type d’erreur concerne le non-respect de la multiplicité d’une référence. Par exemple, lorsqu’une référence avec une borne inférieure n et une borne supérieure p est instanciée par m liens, avec m < n ou m > p. Cela a lieu lorsqu’une substitution de fin de lien ou une substitution de fin de lien paramétrable (une existence de lien) crée (supprime) un lien, rendant ainsi le nombre de liens instanciant une référence supérieur (inférieur) à sa borne supérieure (inférieure). Cela a également lieu durant une substitution de fragment, car CVL permet de créer et de supprimer des liens entrants et sortants au fragment remplaçant et à ses copies, sans assurer le respect de la multiplicité des références dont ces liens sont instances. Finalement, ce type d’erreur peut aussi arriver lors de l’exécution d’un point de variation composite, quand le conteneur du conteneur configurable ne peut pas contenir une nouvelle instance du conteneur configurable. Afin de prévenir ce type d’erreur, certaines contraintes doivent être respectées au moment de la dérivation. Un nouveau lien ne doit pouvoir être instance d’une référence dont la borne supérieure est strictement supérieure à un que si le nombre de liens qui sont déjà instances de cette référence est strictement plus petit que la borne supérieure de cette référence. Un lien peut être supprimé seulement si la référence dont il est instance avant sa suppression a un nombre de liens strictement supérieur à sa borne inférieure. Un fragment de processus peut être dupliqué seulement si ses liens entrants peuvent également être dupliqués tout en assurant le respect de la multiplicité des références dont ils sont instances. Un point de variation composite peut être exécuté seulement si le conteneur du conteneur configurable peut contenir un conteneur configurable de plus. Le troisième type d’erreur concerne le non-respect des propriétés d’un métamodèle82 Gestion de la variabilité dans les processus capturées à l’aide d’un langage de contraintes. Ce type d’erreur peut apparaître à la suite de l’exécution de n’importe quel type de point de variation. Les second et troisième types d’erreur constituent la seconde catégorie d’erreurs que nous avons identifiée. Ces erreurs sont possibles parce que CVL ne contraint pas la spécification du VRM en fonction du modèle de base auquel il s’applique et en fonction du métamodèle de ce modèle de base. Une solution pour assurer les contraintes des second et troisième types d’erreur serait un outil générique d’analyse statique qui vérifierait avant la dérivation si ces contraintes sont satisfaites. Par générique, nous entendons indépendant du métamodèle du modèle de processus de base. Il est possible d’implémenter un tel outil en raisonnant sur le métamétamodèle MOF, commun à tous les modèles de processus de base, et non pas sur un métamodèle particulier. Si ces contraintes ne sont pas satisfaites, l’outil informerait alors l’utilisateur de la ligne de processus de la contrainte qui a été violée et du point de variation ayant introduit cette violation. L’expert processus et l’utilisateur de la ligne de processus devraient alors corriger l’erreur pour pouvoir commencer la dérivation. La quatrième erreur apparaît quand le modèle de processus résolu est bien conforme à son métamodèle, mais est sémantiquement inconsistant. Un modèle de processus peut être sémantiquement inconsistant dans deux cas : soit lorsque ce modèle est trop permissif vis-à-vis d’un métier spécifique, soit lorsque ce modèle est incohérent. La figure 4.13 illustre le cas d’un modèle incohérent. En SPEM 2.0, une séquence de travail spécifie les dépendances au moment de l’exécution d’activités. Ici, la séquence de travail de type finishToFinish signifie que l’activité B peut finir quand l’activité A est terminée. La séquence de travail finishToStart signifie que l’activité B peut commencer quand l’activité A est terminée. Ici la séquence de travail de type fi- nishToFinish est inutile car elle est automatiquement respectée si la séquence de travail de type finishToStart l’est. Afin d’éviter ce problème, on doit s’assurer qu’il n’y a pas d’inconsistances au niveau de la sémantique dans le modèle de processus résolu. Figure 4.13 – Séquence de travail sur-spécifiée Ce quatrième type d’erreur constitue la troisième catégorie que nous avons identi- fiée. L’origine de ces erreurs est l’utilisation d’un métamodèle de processus non adapté à un domaine métier ou permettant la création de modèles incohérents. Comme CVL ne contraint pas la spécification du VRM en fonction du modèle de base et de son mé- tamodèle, les erreurs de la troisième catégories peuvent avoir lieu. Cependant, dans ce cas, les erreurs sont spécifiques à un métamodèle et ne peuvent pas être généralisées. Nous proposons deux solutions pour éviter ces erreurs. L’une préserve l’indépendance vis-à-vis du métamodèle de processus, l’autre non. La première solution serait de modifier le métamodèle du modèle de processus résolu afin qu’il ne permette plus de définir des instances incohérentes et qu’il satisfasse les contraintes d’un domaine mé- tier spécifique. La deuxième solution serait d’implémenter un moteur de dérivationDiscussion 83 spécifique au métamodèle de processus utilisé (ici SPEM). Il assurerait que durant la dérivation des contraintes spécifiques à ce métamodèle soient satisfaites, en plus d’effectuer les mêmes opérations que le moteur de dérivation générique de CVL. Dans le cas où une contrainte spécifique au métamodèle ne serait pas respectée, le moteur de dérivation informerait l’utilisateur de la ligne de processus de l’étape de dérivation qui a introduit cette erreur et de la contrainte qui a été violée. Le choix entre la première et la deuxième solution dépend de leur coût de mise en œuvre. En effet, dans le cas de la première solution, la modification du métamodèle de processus implique de modifier les outils le supportant (éditeurs, compilateurs, interpréteurs...). En contrepartie, on peut continuer à utiliser le moteur de dérivation générique de CVL. Cette solution pré- serve donc l’indépendance de CVL vis-à-vis du langage de modélisation de processus utilisé. La deuxième solution, étant donné qu’elle n’implique pas de modifier le métamodèle de processus, n’implique pas non plus de mettre à jour les outils supportant ce métamodèle. Elle impose en revanche de définir un moteur de dérivation spécifique à un métamodèle de processus, lorsque celui-ci n’est pas parfaitement adapté à un mé- tier ou lorsqu’il permet la création d’instances incohérentes. Il incombe donc à chaque utilisateur de CVL de déterminer la solution qui lui convient le mieux, en fonction de ses ressources et des erreurs qu’il souhaite éviter. En conclusion, même s’il est actuellement possible de dériver un modèle de processus résolu invalide, cela ne remet pas en cause l’indépendance actuelle de CVL vis-à-vis du métamodèle du modèle de base et du modèle résolu, et il existe des solutions à ce problème qui préservent cette indépendance. 4.3.4 Extension possible à la méthodologie pour modéliser le processus de base La modélisation des éléments de processus externes peut conduire à des modèles qui ne sont pas conformes à leur métamodèle. En effet, comme les éléments de processus externes sont modélisés indépendamment d’un processus, certains ne respectent pas toutes les contraintes imposées par leur métamodèle. Par exemple, le modèle de la figure 4.8 n’est pas conforme au métamodèle des diagrammes d’activité UML. En effet, tous les flots de contrôle n’ont pas forcément à la fois une source et une cible, alors que le métamodèle des diagrammes d’activité UML l’impose. Puisque certains modeleurs de processus (par exemple, SPEM-Designer 10) ne permettent pas de modéliser des éléments de processus invalides, l’application de la méthodologie que nous proposons pour définir le modèle de processus de base peut se révéler difficile. Nous proposons donc d’utiliser des approches (par exemple [RBJ07]) permettant de générer des élé- ments de modèles en fonction de contraintes prédéfinies afin de gérer ce cas. Il serait ainsi possible de générer les éléments de modèles que les modeleurs ne permettent pas de modéliser, et également de générer les éléments de modèles manquants pour les rendre valides. Ces éléments de modèle générés ne seraient bien entendu pas utilisés pour dériver des processus de la ligne de processus. 10. http://marketplace.eclipse.org/content/spem-designer-helios-version84 Gestion de la variabilité dans les processus 4.4 Synthèse Nous avons proposé dans ce chapitre une approche permettant de gérer la variabilité des processus de développement logiciel en fonction des exigences des projets, et ce quel que soit le langage de modélisation de processus utilisé pour peu qu’il se conforme au MOF. Notre approche s’appuie sur CVL afin de spécifier et de résoudre la variabilité dans les processus. Nous avons fait le choix de CVL car il préserve la séparation des préoccupations entre l’aspect gestion de la variabilité et l’aspect métier dont on souhaite gérer la variabilité. Il est donc possible de réutiliser les concepts et outils spécifiques à ces aspects, sans qu’ils soient impactés par des préoccupations externes. D’autre part, bien que CVL permette actuellement de dériver des modèles résolus invalides, il existe des solutions permettant de prévenir ce problème. Ces solutions ont également l’avantage de préserver l’indépendance vis-à-vis du domaine métier dont la variabilité est gérée. De plus, CVL permet de définir en intention les différents processus d’une famille. Il permet en effet, dans le modèle de processus de base, de ne définir qu’une seule fois les éléments de processus communs à plusieurs processus, et il fournit des mécanismes permettant d’intégrer ces éléments à un processus au moment de la dérivation. Cela facilite la maintenance d’une famille de processus puisque les redondances entre les différents processus sont évitées. Cela facilite également la réutilisation des fragments de processus communs à plusieurs processus d’une famille. D’autre part, notre approche préserve la séparation entre exigences et processus et elle permet de refléter directement la variabilité des exigences sur les processus, plutôt que de passer par une couche intermédiaire définissant la variabilité des processus. Enfin, la méthodologie que nous proposons pour définir le modèle de processus de base a l’avantage d’expliciter le processus d’une famille qui est le plus souvent utilisé.Chapitre 5 Création de composants d’automatisation réutilisables Nous avons vu au début de cette partie que la réutilisation des CA (Composants d’Automatisation, c’est-à-dire composants logiciels automatisant des TMR) était réalisée via la réutilisation des processus de développement logiciel auxquels ces CA sont liés. Chaque CA peut être lié à des processus différents ou à des unités de travail différentes d’un même processus, constituant ainsi des cas d’utilisation différents d’un CA. Nous présentons donc dans ce chapitre notre méthodologie fournissant un support à la création de CA réutilisables à travers tous leurs cas d’utilisation. Nous commençons par introduire, dans la section 5.1, l’exemple dont nous nous servirons pour illustrer cette méthodologie, qui est elle-même détaillée dans la section 5.2. Nous discutons cette méthodologie dans la section 5.3 et nous en faisons la synthèse dans la section 5.4. Les travaux présentés dans ce chapitre ont fait l’objet d’une publication : Emmanuelle Rouillé, Benoît Combemale, Olivier Barais, David Touzet and Jean-Marc Jézéquel. Improving Reusability in Software Process Lines. In Proceedings of the 39th Euromicro Conference on Software Engineering and Advanced Applications, SEAA ’13, pages 90-94, 2013 [RCB+13a]. 5.1 Exemple illustratif : automatisation de la configuration de l’espace de travail local d’un développeur Nous présentons dans cette section l’exemple dont nous nous servirons pour illustrer la méthodologie fournissant un support à la création de CA réutilisables. Il s’agit d’un script PowerShell qui automatise la configuration de l’espace de travail local d’un 8586 Création de composants d’automatisation réutilisables développeur. Ce script est utilisé pendant les projets de développement Java de l’entreprise Sodifrance. Il est exécuté au début de l’activité de développement par chaque développeur du projet. Il est également exécuté à chaque fois qu’un nouveau développeur intègre un projet de développement Java dont l’activité de développement est déjà commencée. La figure 5.1 montre un extrait de ce script PowerShell, sur lequel notre méthodologie n’a pas encore été appliquée (c’est-à-dire que le script est configuré pour être utilisé avec un projet particulier). Il prend en paramètre (ligne 1) le chemin de l’espace de travail local d’un développeur (wsPath), ainsi que les URL des dépôts contenant le code source de l’application en cours de développement (sourceUrl) et le code de build (buildUrl). Le code de build correspond à des ressources, autres que le code source, utiles à la configuration de l’espace de travail local d’un développeur. Le script automatise les étapes suivantes : 1. import, en utilisant SVN, du code source (ligne 10) et du code de build (ligne 13), 2. compilation Maven des projets Java et alimentation initiale du dépôt Maven local si nécessaire (ligne 18), 3. configuration Maven des projets Eclipse (ligne 19), 4. configuration Maven de l’espace de travail Eclipse (ligne 20), 5. import Buckminster des projets dans l’espace de travail Eclipse (à partir de la ligne 23). 5.2 La méthodologie Nous constatons que les CA peuvent contenir de la variabilité. En effet, un même CA peut être lié à des unités de travail différentes appartenant à un même processus, représentant alors des contextes d’utilisation différents de ce CA. Par exemple, dans le cas d’un processus de métamodélisation comprenant des étapes de définition d’un mé- tamodèle, d’un éditeur textuel et d’un éditeur arborescent, un CA pourrait automatiser la mise sous contrôle de version de code source lors de toutes ces étapes. De plus, une même unité de travail peut varier en fonction des exigences d’un projet (par exemple utilisation de Git au lieu de SVN), créant ainsi encore plus de contextes d’utilisation différents d’un CA. La variabilité au niveau des contextes d’utilisation d’un CA crée, quant à elle, de la variabilité au niveau des CA eux-mêmes. Par exemple, l’implémentation d’un CA qui fait de la mise sous contrôle de version sera différente selon le SCV utilisé, ou selon l’adresse du dépôt distant utilisé. Une difficulté supplémentaire concernant la réutilisation des CA est donc d’identifier les parties d’un CA qui varient et celles qui ne varient pas (c’est-à-dire identifier le niveau de réutilisation d’un CA), afin ensuite d’être capable d’implémenter des CA qui soient réutilisables à travers leurs différents contextes d’utilisation (en utilisant par exemple des mécanismes tels que le paramétrage, la modularisation...). Pour ce faire, nous présentons dans cette partie une méthodologie permettant d’améliorer l’identification du niveau de réutilisation de CA. Nous appelons cette méthodologie M4RAC (Methodology for Reusable Automation Components). Elle constitue la deuxième sous-contribution de cette thèse. La figure 5.2La méthodologie 87 1 Param ([ string] $wsPath , [string] $sourceUrl , [string] $buildUrl ) 2 3 # Variable settings 4 $sourcePath = $wsPath + "/ source" 5 $buildPath = $wsPath + "/ build" 6 7 [...] 8 9 # Checkout of source code from URL $sourceUrl to folder $sourcePath 10 svn checkout $sourceUrl $sourcePath 11 12 # Checkout of build code from URL $buildUrl to folder $buildPath 13 svn checkout $buildUrl $buildPath 14 15 # Run Maven commands to compile and configure Eclipse projects and to configure the workspace 16 $sourcePom = $sourcePath + "/ pom.xml" 17 [...] 18 mvn compile -f $sourcePom 19 mvn eclipse:eclipse -f $sourcePom 20 Invoke - Expression (" mvn -D eclipse. workspace =" + $wsPath + " eclipse:configure - workspace ") 21 22 # Run Buckminster commands to import projects into the workspace 23 $buckyBuild = $buildPath + "/ buckybuild . properties " 24 [...] 25 $cQueryFile = $buildPath + "/ org.eclipse. buckminster . myproject .build/ buckminster / myproject -build.cquery" 26 buckminster import --properties $buckyBuild -data $wsPath $cQueryFile 27 [...] Figure 5.1 – Extrait d’un script PowerShell qui automatise la configuration de l’espace de travail d’un développeur illustre la partie de la contribution principale que nous détaillons ici, tandis que la figure 5.3 montre le processus de la méthodologie. Nous expliquons plus en détails ce processus dans la suite de cette section.88 Création de composants d’automatisation réutilisables Figure 5.2 – Partie de la contribution principale réalisée par M4RACLa méthodologie 89 Figure 5.3 – Vue générale de M4RAC90 Création de composants d’automatisation réutilisables Figure 5.4 – Première étape de M4RAC Figure 5.5 – Exemple simplifié de ligne de processus de développement Java 5.2.1 Définition d’une ligne de processus de développement logiciel (étape 1) 5.2.1.1 Méthodologie La première étape de M4RAC, illustrée par la figure 5.4, implique comme rôle un expert processus, tout comme pour CVL4SP (chapitre 4). Cet expert processus définit une ligne de processus de développement logiciel en utilisant CVL4SP. 5.2.1.2 Illustration La figure 5.5 montre un exemple simplifié de ligne de processus de développement Java. Dans le modèle de processus de base (à droite sur la figure 5.5), le processus le plus souvent utilisé est composé des tâches spécifier, développer et tester, et les outils SVN et Maven servent à réaliser la tâche développer. Le modèle de processus de base contient également un élément de processus externe, l’outil Git. Le VAM (à gaucheLa méthodologie 91 Figure 5.6 – Deuxième étape de M4RAC sur la figure 5.5) spécifie qu’un SCV (correspondant sur la figure au choix SCV) est obligatoirement utilisé pendant un projet de développement Java (correspondant sur la figure au choix développement Java), et que ce SCV peut être soit Git (correspondant sur la figure au choix Git) soit SVN (correspondant sur la figure au choix SVN). Le VRM, au centre de la figure 5.5, spécifie quant à lui que si Git est choisi comme SCV, alors, dans le modèle de processus de base, l’outil SVN doit être remplacé par l’outil Git. 5.2.2 Spécification des composants d’automatisation (étape 2) 5.2.2.1 Méthodologie La figure 5.6 met en évidence la deuxième étape de M4RAC. Cette étape implique comme rôle un architecte, c’est-à-dire une personne ayant l’expérience et le recul nécessaire pour identifier des TMR qui gagneraient à être automatisées, et capable de concevoir des CA automatisant ces TMR. Lors de la deuxième étape de M4RAC, l’architecte spécifie les CA abstraits qui sont utiles pour l’entreprise dans laquelle il travaille, à l’aide d’un modeleur de CA abstraits. Un CA abstrait est une définition conceptuelle d’un CA, où l’architecte spécifie uniquement qu’un CA existe et ce qu’il automatise, sans rentrer dans les détails de conception et d’implémentation. Durant cette étape, l’architecte ne se préoccupe pas de l’identification du niveau de réutilisation de ces CA, ni de leur conception et de leur implémentation. Il se préoccupe uniquement de la spécification, de manière abstraite, des CA existants ainsi que des CA futurs. Il détermine les CA futurs en identifiant les TMR qui gagneraient à être automatisées, et en supposant dans un premier temps que chacune de ces tâches sera automatisée par un CA.92 Création de composants d’automatisation réutilisables Figure 5.7 – Troisième étape de M4RAC 5.2.2.2 Illustration Un exemple de CA spécifié à l’issue de la deuxième étape de M4RAC est le CA dont le but est de configurer l’espace de travail local d’un développeur. 5.2.3 Liaison entre les CA et leurs contextes d’utilisation (étape 3) 5.2.3.1 Méthodologie Au moment de la troisième étape de M4RAC, mise en évidence par la figure 5.7, l’architecte modélise les liens entre les CA abstraits (spécifiés à l’étape 2) et les unités de travail (par exemple les tâches) de la ligne de processus qu’ils contribuent à automatiser. Il utilise pour ce faire un modeleur de liaisons, où ici le terme liaisons dé- signe les liens entre les CA et les unités de travail qu’ils automatisent. Si plusieurs CA contribuent à automatiser une même unité de travail, alors la liaison spécifie l’ordre dans lequel ces CA doivent s’exécuter. Si une unité de travail varie, alors la liaison spécifie quelle variante de cette unité de travail un CA contribue à automatiser. On considère qu’une unité de travail varie soit si l’unité de travail elle-même varie, soit si ce sont les éléments de modèle directement reliés à cette unité de travail (ex : outils, rôles, produits de travail, flots de contrôle) qui varient. Finalement, la liaison spécifie si un CA contribue à automatiser l’initialisation, l’exécution ou la finalisation d’une unité de travail. Définir une initialisation (une finalisation) pour une unité de travail est utile car cela permet d’empêcher l’oubli de cette initialisation (finalisation). En effet, l’initialisation (finalisation) est dans ce cas fortement couplée à l’unité de travail qu’elle initialise (finalise). Ce n’est pas le cas quand l’initialisation (la finalisation) est remplacée par une unité de travail qui a lieu avant (après) l’unité de travail initialisée (finalisée). Cette étape permet donc d’identifier les contextes d’utilisation des CA. Plus pré- cisément, ce sont les unités de travail liées à un CA, leurs ressources (c’est-à-dire lesLa méthodologie 93 Figure 5.8 – Liaison entre le CA configurant l’espace de travail d’un développeur et la ligne de processus de la figure 5.5 outils, les rôles et les produits de travail), leurs itérations et leur séquencement qui définissent les contextes d’utilisation des CA. En effet, les variantes des unités de travail qu’un CA automatise sont ses contextes d’utilisation. Et c’est la spécification des variantes de ressources, itérations et séquencement associés à une unité de travail qui définit quelle variante d’unité de travail est considérée. De plus, nous verrons dans la prochaine partie de cette thèse que les unités de travail et leurs ressources fournissent les données (par exemple l’URL d’un dépôt) requises pour exécuter les CA. 5.2.3.2 Illustration La figure 5.8 illustre la liaison entre le CA configurant l’espace de travail local d’un développeur et la ligne de processus de la figure 5.5. Le CA configurant l’espace de travail local d’un développeur contribue à l’automatisation de l’initialisation de toutes les variantes (c’est-à-dire en utilisant Git ou SVN) de la tâche développer. Cela permet donc d’identifier que ce CA a deux contextes d’utilisation : l’un lorsque SVN est utilisé comme SCV, et l’autre lorsque c’est Git qui est utilisé à la place de SVN. 5.2.4 Conception des composants d’automatisation (étape 4) 5.2.4.1 Méthodologie Lors de la quatrième étape deM4RAC, mise en évidence par la figure 5.9, l’architecte conçoit les CA spécifiés de manière abstraite à l’étape 2. Pendant cette étape, le modèle de liaisons permet d’améliorer l’identification du niveau de réutilisation des CA. En effet, en réfléchissant à comment concevoir un CA de manière à ce qu’il soit réutilisable à travers ses différents contextes d’utilisation, l’architecte est capable de déterminer son niveau de réutilisation, c’est-à-dire les parties de ce CA qui varient et celles qui ne varient pas. Une fois cette information établie, l’architecte conçoit des CA réutilisables en s’appuyant sur des mécanismes tels que le paramétrage ou la modularisation. En concevant les CA, l’architecte peut se rendre compte que le modèle de liaisons est incorrect. Par exemple, un CA peut contenir des parties inutiles pour certains de ses contextes d’utilisation. Il sera donc, dans ce cas, plus judicieux de diviser ce CA en plusieurs CA afin de pouvoir sélectionner uniquement les parties de ce CA utiles94 Création de composants d’automatisation réutilisables Figure 5.9 – Quatrième étape de M4RAC pour chaque contexte d’utilisation. Dans ce cas, l’architecte revient à l’étape 3 afin de corriger le modèle de liaisons. 5.2.4.2 Illustration Comme abordé dans la section 5.1, la configuration de l’espace de travail local d’un développeur se compose de 5 étapes : 1. import du code source et du code de build depuis un dépôt distant, 2. compilation Maven des projets Java et alimentation initiale du dépôt Maven local si nécessaire, 3. configuration Maven des projets Eclipse, 4. configuration Maven de l’espace de travail Eclipse, 5. import Buckminster des projets dans l’espace de travail Eclipse. Le CA configurant l’espace de travail local d’un développeur doit donc réaliser ces 5 étapes. Or, l’étape 3 de M4RAC a permis de déterminer que ce CA pouvait être utilisé dans deux contextes différents : avec Git ou avec SVN. Cela permet donc de déterminer le niveau de réutilisation de ce CA, à savoir que ses parties dépendantes d’un SCV (étape 1 de la configuration de l’espace de travail local d’un développeur) peuvent varier tandis que les autres non (étapes 2 à 5 de la configuration de l’espace de travail local d’un développeur). L’architecte doit donc assurer que l’étape 1 soit découplée des étapes 2 à 5 de la configuration de l’espace de travail local d’un développeur, de manière à pouvoir réutiliser les étapes 2 à 5 indépendamment du SCV. Une manière de réaliser ce découplage est d’avoir trois CA : deux CA réalisant l’étape 1, l’un avec SVN (CA 1) et l’autre avec Git (CA 2), et un CA réalisant les étapes 2 à 5 (CA 3). L’initialisation de la tâche de développement serait alors effectuée par l’exécution des CA 1 puis 3 lorsque le SCV est SVN, et par l’exécution des CA 2 puis 3 lorsque leLa méthodologie 95 SCV est Git. Le modèle de liaisons réalisé lors de l’étape précédente de M4RAC est également mis à jour, afin de refléter cette conception, comme illustré par la figure 5.10. Figure 5.10 – Liaisons entre les CA permettant de configurer l’espace de travail d’un développeur et la ligne de processus de la figure 5.5 5.2.5 Implémentation des composants d’automatisation (étape 5) 5.2.5.1 Méthodologie Figure 5.11 – Cinquième étape de M4RAC Finalement, lors de la dernière étape de M4RAC, mise en évidence par la figure 5.11,96 Création de composants d’automatisation réutilisables un développeur implémente les CA en fonction de leur conception (étape 4 deM4RAC). 5.2.5.2 Illustration Le script PowerShell de la figure 5.1 correspond à une implémentation de la confi- guration de l’espace de travail local d’un développeur, dans le cas où SVN est utilisé comme SCV. Il sert de base à la création des trois CA conçus lors de l’étape 4 de M4RAC. Les scripts des figures 5.12, 5.13 et 5.14 correspondent respectivement à l’implémentation des CA 1, 2 et 3 identifiés précédemment. 1 Param ([ string] $wsPath , [string] $sourceUrl , [string] $buildUrl ) 2 3 # Variable settings 4 $sourcePath = $wsPath + "/ source" 5 $buildPath = $wsPath + "/ build" 6 7 [...] 8 9 # Checkout of source code from URL $sourceUrl to folder $sourcePath 10 svn checkout $sourceUrl $sourcePath 11 12 # Checkout of build code from URL $buildUrl to folder $buildPath 13 svn checkout $buildUrl $buildPath Figure 5.12 – Extrait du CA automatisant l’étape 1 de la configuration de l’espace de travail d’un développeur, avec SVN 1 Param ([ string] $wsPath , [string] $sourceUrl , [string] $buildUrl ) 2 3 # Variable settings 4 $sourcePath = $wsPath + "/ source" 5 $buildPath = $wsPath + "/ build" 6 7 [...] 8 9 # Checkout of source code from URL $sourceUrl to folder $sourcePath 10 git clone $sourceUrl $sourcePath 11 12 # Checkout of build code from URL $buildUrl to folder $buildPath 13 git clone $buildUrl $buildPath Figure 5.13 – Extrait du CA automatisant l’étape 1 de la configuration de l’espace de travail d’un développeur, avec Git 5.3 Discussion Nous discutons dans cette partie M4RAC. Cette discussion porte sur ses bénéfices, ses limitations, ainsi que ses inconvénients.Discussion 97 1 Param ([ string] $wsPath) 2 3 # Variable settings 4 $sourcePath = $wsPath + "/ source" 5 $buildPath = $wsPath + "/ build" 6 7 # Run Maven commands to compile and configure Eclipse projects and to configure the workspace 8 $sourcePom = $sourcePath + "/ pom.xml" 9 [...] 10 mvn compile -f $sourcePom 11 mvn eclipse:eclipse -f $sourcePom 12 Invoke - Expression (" mvn -D eclipse. workspace =" + $wsPath + " eclipse:configure - workspace ") 13 14 # Run Buckminster commands to import projects into the workspace 15 $buckyBuild = $buildPath + "/ buckybuild . properties " 16 [...] 17 $cQueryFile = $buildPath + "/ org.eclipse. buckminster . myproject .build/ buckminster / myproject -build.cquery" 18 buckminster import --properties $buckyBuild -data $wsPath $cQueryFile 19 [...] Figure 5.14 – Extrait du CA automatisant les étapes 2 à 5 de la configuration de l’espace de travail d’un développeur 5.3.1 Bénéfices Notre méthodologie fournit deux bénéfices principaux pour identifier le niveau de réutilisation de CA. Le premier bénéfice de notre méthodologie est qu’elle aide l’architecte à identifier les différents contextes d’utilisation des CA. C’est parce qu’elle permet de spécifier les différents contextes d’utilisation des CA. En effet, chez Sodifrance, nous avons répertorié au moins 512 processus de développement Java possibles en pratique, identifiés suite à l’interview d’un chef de projet. Il est bien sûr impossible pour un humain d’avoir en tête ces différents processus et les différents contextes d’utilisation de tous les CA. Le second bénéfice de notre méthodologie est qu’elle empêche l’architecte de considérer de la variabilité inutile. Cela prévient donc la conception et l’implémentation de CA inutiles. Le fait que M4RAC permette d’expliciter la variabilité des processus ainsi que les contextes d’utilisation des CA est la raison de ce bénéfice. Par exemple, dans le cas d’un CA en charge d’automatiser la mise sous contrôle de version du code source d’un projet, l’architecte pourrait concevoir trois variantes de ce CA : une utilisant CVS, une autre utilisant SVN et encore une autre utilisant Git. En effet, l’architecte pourrait déjà avoir utilisé ces trois SCV sur des projets différents. Cependant, l’architecte pourrait ne pas être au courant que CVS n’est plus utilisé (dans l’hypothèse où il est possible de déterminer que c’est le cas). Dans ce cas, implémenter un CA automatisant la mise sous contrôle de version du code source d’un projet en utilisant CVS serait une perte de temps. En revanche, si CVS n’est plus utilisé, alors il n’apparaîtra pas dans la ligne de processus comme un SCV possible. De ce fait, en appliquant notre méthodologie,98 Création de composants d’automatisation réutilisables l’architecte aurait réalisé que CVS n’était plus utilisé. Il n’aurait alors pas conçu un CA inutile. 5.3.2 Une limitation Une limitation de notre méthodologie est que son efficacité dépend des langages utilisés pour définir la ligne de processus. En effet, si ces langages ne permettent pas de capturer certaines informations concernant les contextes d’utilisation des CA (par exemple certains métamodèles de processus ne permettent pas de capturer une définition d’outil), alors l’architecte ne peut dans ce cas pas s’appuyer sur la ligne de processus pour identifier tous les contextes d’utilisation des CA. L’architecte ne peut alors s’appuyer que sur sa propre connaissance pour identifier les contextes d’utilisation qui ne sont pas capturés par la ligne de processus. Ceci est moins efficace que de s’appuyer sur la ligne de processus. En effet, l’architecte peut oublier des contextes d’utilisation ou peut considérer des contextes d’utilisation inutiles. 5.3.3 Un inconvénient Un inconvénient de M4RAC est qu’il est difficile d’identifier les contextes d’utilisation des CA. En effet, avec la définition en intention des processus, il est difficile pour un humain de visualiser explicitement chacun des processus de la ligne. Par exemple, l’architecte peut avoir des difficultés à visualiser ce qui se passe avant et après une variante d’unité de travail, et donc il peut avoir des difficultés à déterminer à quelles unités de travail il est pertinent d’associer un CA. La définition de processus en extension n’est pas une solution satisfaisante à ce problème. En effet, plus le nombre de processus est élevé, plus il est tout aussi difficile pour un humain d’identifier les différents contextes d’utilisation des CA. Une solution serait d’avoir un outil support à l’identification des contextes d’utilisation des CA (étape 3 de M4RAC). Celui-ci pourrait par exemple calculer et afficher les différents processus d’une famille en fonction de leur spécification en intention, et afficher également les CA associés aux unités de travail de ces différents processus, au fur et à mesure de leur association. Afin de limiter le nombre de processus affichés, une idée serait de définir des contextes d’utilisation de CA similaires, et donc de n’afficher qu’un seul de ces contextes. De plus, cet outil pourrait vérifier la consistance entre des pré et post-conditions associées aux CA, afin de détecter d’éventuelles erreurs au moment de l’association d’un CA à une unité de travail. 5.4 Synthèse Nous avons proposé, dans ce chapitre, une méthodologie qui permet d’améliorer l’identification du niveau de réutilisation d’un CA. Le principe de cette méthodologie consiste à lier chaque CA aux unités de travail qu’il contribue à automatiser dans une ligne de processus. Cela permet d’identifier les différents contextes d’utilisation de chacun de ces CA. Ensuite, en réfléchissant à la conception d’un CA afin qu’il soitSynthèse 99 réutilisable à travers ses différents contextes d’utilisation, il est possible d’identifier le niveau de réutilisation de ce CA. Cette méthodologie permet d’expliciter les différents contextes d’utilisation d’un CA. De ce fait, cela permet à l’architecte en charge de la conception des CA de ne pas oublier certains contextes d’utilisation et de ne pas prendre en compte des contextes d’utilisation inutiles. Une limitation de cette méthodologie en revanche est que son efficacité dépend des langages utilisés pour définir la ligne de processus. En effet, les contextes d’utilisation que la ligne de processus peut capturer dépendent des informations que les langages utilisés pour définir la ligne de processus permettent de capturer. D’autre part, avoir un outil permettant d’expliciter les différents processus d’une ligne ainsi que les CA déjà associés à ces processus aiderait l’architecte à identifier les contextes d’utilisation des CA.100 Création de composants d’automatisation réutilisablesTroisième partie Outillage et application 101103 Dans cette partie, nous commençons par présenter dans le chapitre 6 l’outil que nous avons développé afin de démontrer la faisabilité de l’approche proposée dans cette thèse. Ensuite, dans le chapitre 7, nous appliquons cet outil à une famille de processus de métamodélisation ainsi qu’à une famille de processus de développement web Java issue de Sodifrance.104Chapitre 6 Outil pour la gestion de la variabilité et l’automatisation des processus Ce chapitre traite de l’outil développé comme support à l’approche proposée dans cette thèse. Nous commençons par introduire, en section 6.1, l’exemple dont nous nous servons pour présenter cet outil. La vue générale de l’outil est présentée en section 6.2 et son implémentation est décrite en section 6.3. Nous présentons, dans la section 6.4, des éléments de méthodologie relatifs à l’utilisation de l’outil, ainsi que des extensions possibles. Enfin, nous faisons la synthèse de ce chapitre dans la section 6.5. 6.1 Exemples de tâches manuelles récurrentes Cette section introduit les exemples de TMR (Tâches Manuelles Récurrentes) utilisés pour illustrer l’utilisation de l’outil développé dans cette thèse. Ces TMR, issues de l’exécution de processus de la famille des processus de métamodélisation (présentée dans la section 4.1), gagneraient à être automatisées. Elles correspondent à la manière de réaliser des processus de métamodélisation dans l’équipe de recherche Triskell. Il existe d’autres manières de réaliser des processus de métamodélisation qui ne sont pas traitées ici (utilisation d’un outil autre que Kermeta, utilisation différente d’EMFText, etc.). TMR Unité de travail pendant laquelle la TMR a lieu Étape de l’unité de travail Itération Création projet EMF et fichier Ecore vide déf. métamodèle initialisation première Validation métamodèle déf. métamodèle finalisation toutes 105106 Outil pour la gestion de la variabilité et l’automatisation des processus TMR Unité de travail pendant laquelle la TMR a lieu Étape de l’unité de travail Itération Création fichier contenant la syntaxe concrète du métamodèle déf. éditeur arborescent initialisation première Mise à jour fichier contenant la syntaxe concrète du métamodèle déf. éditeur arborescent initialisation à partir de la seconde Génération éditeur arborescent déf. éditeur arborescent finalisation toutes Génération syntaxe textuelle déf. éditeur textuel avec EMFText initialisation première Génération éditeur textuel déf. éditeur textuel avec EMFText finalisation toutes Création projet XText déf. éditeur textuel avec XText initialisation première Génération éditeur textuel déf. éditeur textuel avec XText finalisation toutes Création projet Kermeta initilisé avec un appel à une fonction Kermeta qui vérifie qu’un modèle respecte bien les contraintes définies sur son métamodèle déf. vérificateur initialisation première Création projet Kermeta et application patron de conception interpréteur au métamodèle déf. interpréteur initialisation première Application patron de conception interpréteur aux nouvelles métaclasses du métamodèle déf. interpréteur initialisation à partir de la seconde Mise sous contrôle de version interpréteur déf. interpréteur finalisation première Propagation, sur un dépôt partagé, du code source de l’interpré- teur déf. interpréteur finalisation toutes Création projet Kermeta et application patron de conception visiteur au métamodèle déf. compilateur initialisation première Application patron de conception visiteur aux nouvelles métaclasses du métamodèle déf. compilateur initialisation à partir de la seconde Table 6.1 – Exemples de TMR réalisées durant un processus de métamodélisationExemples de tâches manuelles récurrentes 107 Nous avons identifié 16 exemples de TMR. Le tableau 6.1 les répertorie et précise pour chacune d’elle l’unité de travail, son étape (initialisation, exécution ou finalisation), ainsi que l’itération de processus concernées. Deux TMR sont liées à la définition d’un métamodèle. La première consiste à créer un projet EMF ainsi qu’un fichier Ecore vide, qui contiendra plus tard la définition d’un métamodèle. Cette TMR a lieu au moment de l’initialisation de la définition d’un métamodèle, lors de la première itération. La seconde TMR consiste à valider un métamodèle et a lieu au moment de la finalisation de la définition d’un métamodèle, à chaque itération. Trois autres TMR sont liées à la définition d’un éditeur arborescent. Celle-ci est initialisée par la création d’un fichier destiné à contenir la syntaxe concrète du mé- tamodèle, lors de la première itération. La mise à jour de ce fichier a lieu lors des itérations suivantes, toujours à l’initialisation. À chaque itération, la définition d’un éditeur arborescent est finalisée par la génération de l’éditeur en lui-même. Quatre TMR sont liées à la définition d’un éditeur textuel. Si celui-ci est défini avec EMFText, alors, dans le cadre de cet exemple, la TMR consistant à générer la syntaxe textuelle est réalisée à l’initialisation, lors de la première itération. Si l’éditeur textuel est défini avec XText, alors la TMR consistant à créer un projet XText est réalisée, à l’initialisation et lors de la première itération également. Dans les deux cas, la définition d’un éditeur textuel se termine par la TMR consistant à générer l’éditeur en lui-même. Une TMR concerne la définition d’un vérificateur. Elle consiste à créer un projet Kermeta et à l’initialiser avec un appel à une fonction Kermeta vérifiant qu’un modèle respecte bien les contraintes définies sur son métamodèle. Elle a lieu au moment de l’initialisation, lors de la première itération. Quatre TMR concernent la définition d’un interpréteur. Au moment de l’initialisation, lors de la première itération, une TMR crée un projet Kermeta et applique le patron de conception interpréteur à chaque méta-classe du métamodèle. Lors des itérations suivantes, la définition d’un interpréteur est initialisée par une TMR appliquant le patron de conception interpréteur seulement aux nouvelles méta-classes du métamodèle. Le cas des méta-classes du métamodèle supprimées ou modifiées n’est pas traité dans cet exemple. Lors de la première itération, la définition d’un interpréteur est finalisée par la TMR consistant à mettre l’interpréteur sous contrôle de version. De plus, à chaque itération, une TMR de propagation du code de l’interpréteur sur un dépôt distant a également lieu au moment de la finalisation. Enfin, deux TMR sont liées à la définition d’un compilateur. La première consiste à créer un projet Kermeta et à appliquer le patron de conception visiteur à chaque métaclasse du métamodèle. Elle initialise la définition d’un compilateur et n’a lieu que lors de la première itération. La deuxième TMR applique le patron de conception visiteur seulement aux nouvelles méta-classes du métamodèle. Elle initialise la définition d’un compilateur à partir de la deuxième itération. Tout comme pour la définition d’un interpréteur, le cas des méta-classes du métamodèle supprimées ou modifiées n’est pas non plus traité dans cet exemple. D’autres TMR non spécifiques au processus de métamodélisation, comme la confi- guration de l’environnement de développement, la configuration de l’environnement108 Outil pour la gestion de la variabilité et l’automatisation des processus d’intégration continue ou la configuration du schéma de compilation, peuvent également être réalisées dans ce contexte. 6.2 Vue générale de l’outil Figure 6.1 – Vue générale de l’architecture de T4VASP T4VASP (Tool for Variability management and Automation of Software Processes) est l’outil que nous avons développé pour valider l’approche proposée dans cette thèse . La figure 6.1 illustre ses composants : – un modeleur de VAM (Variability Abstraction Model, modèle spécifiant la variabilité (section 2.3.2 et chapitre 4)), – un modeleur de VRM (Variability Realization Model, modèle définissant comment dériver un modèle résolu du modèle de base, en fonction de la résolution de la variabilité (section 2.3.2 et chapitre 4)), – un assistant à la résolution de la variabilité, – un moteur de dérivation CVL,Vue générale de l’outil 109 – un modeleur de CA (Composants d’Automatisation, composants logiciels automatisant des TMR (partie II)) abstraits, – un modeleur de liaisons, – un framework supportant l’implémentation des CA – et un interpréteur de processus. Les modeleurs de VAM et de VRM permettent respectivement de produire des VAM et des VRM. L’assistant à la résolution de la variabilité permet de résoudre la variabilité d’un VAM (donc permet de sélectionner les exigences pour un projet particulier) et produit un RM (Resolution Model, modèle permettant de résoudre la variabilité définie dans un VAM (section 2.3.2 et chapitre 4)). Le moteur de dérivation de CVL permet de dériver un modèle de processus résolu, en fonction d’un modèle de processus de base, d’un VRM et d’un RM. Le modèle de processus de base est produit à l’aide d’un modeleur de processus SPEM que nous réutilisons. Le modeleur de CA abstraits permet, comme son nom l’indique, de spécifier des CA abstraits, qui sont des définitions conceptuelles de CA (cf. section 5.2.2). Le modeleur de liaisons permet quant à lui de lier les CA abstraits i) aux unités de travail qu’ils contribuent à automatiser dans une ligne de processus et ii) à leur implémentation. Le framework support à l’implémentation des CA offre un cadre technique pour l’implémentation des CA. Enfin, l’interpréteur de processus permet d’exécuter un processus (obtenu par dérivation d’une ligne de processus), et de lancer au fur et à mesure de son exécution les CA qui l’automatisent. Nous détaillons ces composants dans la suite de cette section, en les présentant en fonction des parties de l’approche de cette thèse qu’ils supportent. 6.2.1 Définition d’une ligne de processus Les modeleurs de VAM et de VRM supportent la définition d’une ligne de processus de développement logiciel, comme illustré par la figure 6.2. L’implémentation de ces modeleurs consiste à développer des éditeurs permettant de créer des VAM et des VRM conformes au métamodèle de la spécification de CVL. Des modeleurs autorisant la définition de VAM et de VRM dans des modèles distincts ont de plus l’avantage de permettre la réutilisation de ces modèles indépendamment les uns des autres. Ce besoin apparaît par exemple lorsqu’une même ligne de processus est définie avec deux langages de modélisation de processus différents, suite par exemple à un changement de modeleur dans l’entreprise. Dans ce cas, le même VAM est réutilisé pour spécifier la variabilité de la ligne de processus, quel que soit le langage de modélisation de processus utilisé, alors que des VRM différents sont utilisés pour chaque langage de modélisation de processus. 6.2.2 Définition des CA Le modeleur de CA abstraits, le modeleur de liaisons ainsi que le framework support à l’implémentation des CA contribuent à la définition des CA. Plus précisément, ils contribuent à la spécification de CA abstraits, à leur liaison à la ligne de processus et à leur implémentation. La figure 6.3 illustre la partie de l’approche proposée dans cette110 Outil pour la gestion de la variabilité et l’automatisation des processus Figure 6.2 – Partie de l’approche supportée par les modeleurs de VAM et de VRM Figure 6.3 – Partie de l’approche supportée par les modeleurs de CA abstraits et de liaisons et le framework support à l’implémentation des CAVue générale de l’outil 111 thèse qui est supportée par ces composants. Le modeleur de liaisons permet de lier des CA abstraits (spécifiés à l’aide du modeleur de CA abstraits) aux unités de travail d’une ligne de processus qu’ils contribuent à automatiser. Le modeleur de liaisons permet également de lier les CA abstraits à leur implémentation. Lorsque plusieurs CA contribuent à l’automatisation d’une même unité de travail, ce modeleur doit permettre de spécifier l’ordre dans lequel ces CA doivent s’exécuter. Le modeleur de liaisons doit également permettre de spécifier si un CA contribue à automatiser l’initialisation, l’exécution ou la finalisation d’une unité de travail. Le framework support à l’implémentation des CA permet premièrement aux CA d’accéder à des informations contextuelles nécessaires à leur exécution. Pour s’exécuter, les CA ont en effet besoin d’avoir accès à des informations spécifiques à leur contexte d’utilisation, c’est-à-dire à des informations contextuelles. Par exemple, un CA qui met du code source sous contrôle de version doit avoir accès à l’URL du dépôt distant sur lequel partager ce code source. Selon le langage de modélisation utilisé pour définir la ligne de processus, ces informations contextuelles peuvent, ou non, être capturées dans la ligne de processus (et donc dans le modèle de processus résolu). Par exemple, en SPEM 2.0, il n’est pas possible de capturer l’URL d’un dépôt distant. En effet, même si cette information peut, par exemple, être capturée en utilisant une recommandation (Guidance), elle ne serait pas typée comme étant une information relative à l’URL d’un dépôt distant et ne pourrait donc pas être traitée comme telle par un outil recherchant des informations contextuelles. Il est donc nécessaire d’avoir un mécanisme permettant aux CA d’accéder aux informations contextuelles, qu’elles soient ou non capturées dans le modèle de processus résolu. Le framework support à l’implémentation des CA permet également d’exécuter les CA de manière générique. En effet, l’interpréteur de processus doit pouvoir être réutilisé indépendamment des CA. Or, il n’est pas possible de déterminer à l’avance un ensemble fini de CA puisque i) il n’est pas possible de prévoir toutes les évolutions qui peuvent être apportées à une famille de processus et ii) il n’est pas possible d’avoir une vision exhaustive de toutes les familles de processus existantes. Il est donc nécessaire de pouvoir, au fur et à mesure de l’exécution de processus, lancer l’exécution des CA de manière générique. Par ceci nous entendons plus précisément que le framework doit permettre de lancer automatiquement l’exécution des CA, quels qu’ils soient. 6.2.3 Dérivation d’un processus en fonction des exigences d’un projet L’assistant à la résolution de la variabilité et le moteur de dérivation CVL supportent la dérivation d’un processus de la ligne de processus en fonction des exigences d’un projet, comme illustré par la figure 6.4. L’assistant à la résolution de la variabilité offre un support à la résolution de la variabilité, étape pouvant s’avérer fastidieuse et source d’erreurs. En effet, dans le VAM, la non séparation des préoccupations entre les spécifications de variabilité nécessitant une résolution manuelle et celles dont la résolution est dérivée (c’est-à-dire calculée automatiquement en fonction de la résolution d’autres spécifications de variabilité) peut compliquer la résolution de la variabilité112 Outil pour la gestion de la variabilité et l’automatisation des processus Figure 6.4 – Partie de l’approche supportée par l’assistant à la résolution de la variabilité et le moteur de dérivation CVL pour un humain. De plus, plus le nombre de contraintes entre des spécifications de variabilité du VAM sera important, plus il sera difficile pour un humain de les prendre en compte. D’autre part, un humain peut toujours faire des erreurs conduisant au nonrespect de la spécification de CVL. L’assistant à la résolution de la variabilité apporte donc un support i) en mettant en œuvre la séparation des préoccupations entre les spé- cifications de variabilité nécessitant une résolution manuelle et celles dont la résolution est dérivée, ii) en forçant le respect des contraintes entre les différentes spécifications de variabilité, et iii) en assurant le respect de la spécification de CVL. Le moteur de dérivation CVL, quant à lui, dérive un processus de la ligne de processus conformément à la spécification de CVL. Afin de créer le modèle de processus résolu, il applique donc sur le modèle de processus de base les points de variation dont les spécifications de variabilité ont été résolues positivement. 6.2.4 Automatisation de l’exécution des processus L’interpréteur de processus supporte l’automatisation de l’exécution des processus, comme illustré par la figure 6.5. Il exécute un processus résolu en fonction de la sé- mantique du langage de modélisation de processus utilisé. De plus, pour chaque unité de travail de ce processus, il lance, s’il y a lieu, l’exécution des CA associés. D’autre part, comme la réalisation de certaines unités de travail est manuelle [Ben07], l’interpréteur de processus informe l’acteur courant du processus lorsqu’une intervention manuelle est requise, afin d’assurer le bon déroulement de l’exécution. Enfin, commeImplémentation 113 Figure 6.5 – Partie de l’approche supportée par l’interpréteur de processus le processus à exécuter peut contenir de la variabilité non encore résolue, l’interpréteur de processus permet de résoudre cette variabilité au moment de l’exécution. 6.3 Implémentation Les composants de T4VASP sont implémentés en Java, sous la forme de plugins Eclipse. Nous détaillons dans la suite de cette section comment nous les avons implémentés. 6.3.1 Les modeleurs de VAM et de VRM Les modeleurs de VAM et de VRM correspondent chacun à un éditeur arborescent généré par défaut avec EMF, sur la base de fichiers Ecore capturant les parties du métamodèle de CVL relatives au VAM et au VRM. Les figures 6.6 et 6.7 illustrent respectivement des extraits du VAM et du VRM de l’exemple illustratif de famille de processus de métamodélisation, édités avec les modeleurs générés. L’extrait de VAM de la figure 6.6 comporte un choix sans enfant (Choice checker), un choix avec enfants (Choice version control system), ainsi qu’un choix dont la résolution est dérivée (Choice parallelization). Les enfants du choix version control system sont les choix SVN et Git. Ils sont mutuellement exclusifs, comme indiqué par la multiplicité de groupe valant 1 (Multiplicity Interval 1), élément spécifiant qu’un seul choix enfant peut être sélectionné. L’extrait de VRM de la figure 6.7 contient deux points de variation, qui sont des114 Outil pour la gestion de la variabilité et l’automatisation des processus Figure 6.6 – Extrait du VAM de l’exemple illustratif de la famille de processus de modélisation, édité avec le modeleur de VAM Figure 6.7 – Extrait du VRM de l’exemple illustratif de la famille de processus de modélisation, édité avec le modeleur de VRM Figure 6.8 – Propriétés de l’existence d’objet tree editor de la figure 6.7 opérations à appliquer au modèle de base pour en dériver un modèle résolu (cf. section 2.3.2) : une substitution d’objet (Object Substitution replace SVN by Git) et une existence d’objet (Object Existence tree editor). Chacun de ces points de variation impacte des objets et des liens (Object Handle SVN, Object Handle Git, Object Handle tree editor definition). Les modeleurs de VAM et de VRM ne font pas apparaître toutes les propriétés de chaque élément de modèle dans la vue arborescente. Par exemple, l’extrait de VRM de la figure 6.7 ne fait pas apparaître la spécification de variabilité associée à chaque point de variation. Les modeleurs de VAM et de VRM offrent donc en plus une vue exhaustive des propriétés de chaque élément de modèle, à travers laquelle elles peuvent être éditées. La figure 6.8 illustre les propriétés de l’existence d’objet tree editor de la figure 6.7. Cette figure permet de constater que la variabilité de spécification associée à l’existence d’objet tree editor est le choix tree editor (les propriétés Binding Choice et Binding Vspec ont pour valeur Choice tree editor).Implémentation 115 6.3.2 Les modeleurs de CA abstraits et de liaisons Figure 6.9 – Métamodèle de CA abstraits et de liaisons Dans cette thèse, les modèles de CA abstraits et de liaisons sont définis dans un même modèle, à l’aide d’un modeleur commun. Nous appelons ce dernier le modeleur de CA abstraits et de liaisons. Afin de développer ce modeleur, nous avons utilisé EMF pour définir son métamodèle sous-jacent, le métamodèle de CA abstraits et de liaisons (cf. figure 6.9), et pour générer l’éditeur arborescent correspondant à ce métamodèle, c’est-à-dire le modeleur de CA abstraits et de liaisons en lui-même. Dans le métamodèle de CA abstraits et de liaisons, une liste de CA (ACL, pour Automation Component List) automatise une unité de travail (AutoWU). L’intérêt de la classe ACL est de pouvoir réutiliser une liste d’AC. Les références onStart, onDo et onEnd entre une liste de CA et une unité de travail automatisée spécifient respectivement si la liste de CA automatise l’initialisation, l’execution ou la finalisation de l’unité de travail. Une liste de CA définit un ensemble de CA abstraits (AC, pour Automation Component). Une unité de travail automatisée référence une unité de travail de la ligne de processus via un pointeur d’unité de travail (WUHandle) et son attribut MOFRef, qui correspond à l’URI de l’unité de travail dans la ligne de processus. Si une unité de travail varie, une condition de variante (référence variantCondition) spécifie de quelle variante il s’agit. Des pré-conditions (référence preConditions) et post-conditions (référence PostCond) spécifient respectivement le contexte requis pour exécuter un CA et les résultats attendus de l’exécution d’un CA. La condition de variante ainsi que les pré et post conditions sont des conditions (Condition) exprimées à l’aide d’une expression OCL [OMG10] (OCLExpr). La figure 6.10 illustre un extrait du modèle de CA abstraits et de liaisons de l’exemple illustratif, représenté sous forme de diagramme d’objets et non édité avec le modeleur de CA abstraits et de liaisons. Il comprend deux unités de travail automatisées (NewInterpGit et NewInterpSVN), qui sont deux variantes de la tâche de définition116 Outil pour la gestion de la variabilité et l’automatisation des processus Figure 6.10 – Diagramme d’objets représentant un extrait du modèle de CA abstraits et de liaisons de l’exemple illustratif d’un interpréteur (référencée par le pointeur d’unité de travail InterpDef). La condition de variante NoInterpGit (NoInterpSVN) spécifie que l’unité de travail automatisée NewInterpGit (NewInterpSVN) correspond à la tâche de définition de l’interpréteur lors de la première itération du processus et avec Git (SVN) comme SCV (Système de Contrôle de Version). La liste de CA InitInterp initialise cette tâche en créant un projet Kermeta (CA NewKermetaProject) et en générant le patron de conception interpréteur pour chaque métaclasse du métamodèle (CA GeneInterp). La finalisation de cette tâche consiste à mettre le code de l’interpréteur sous contrôle de version. La liste de CA EndInterpGit (EndInterpSVN) réalise cette mise sous contrôle de version via le CA VersionProjectGit (respectivement VersionProjectSVN) quand le SCV est Git (respectivement SVN). La pré-condition ExistMM spécifie que le CA GeneInterp requière l’existence du métamodèle pour son exécution. Une action (Action) permet de lier un CA abstrait à son implémentation. Le métamodèle de CA abstraits et de liaisons définit différents types d’actions : action Kermeta (KermetaAction) et action Java Eclipse (JEclipseAction). Ils définissent la technologie utilisée pour implémenter les CA. Il est bien sûr possible d’ajouter de nouveaux types d’actions (Shell, Groovy,...) en fonction des besoins pour un cas d’application. L’implémentation d’une action Java Eclipse (respectivement d’une action Kermeta) est écrite dans un plug-in Eclipse (respectivement dans l’expression, identifiée par l’at-Implémentation 117 tribut expr, de cette action Kermeta). C’est l’identifiant de l’action Java Eclipse qui permet de faire le lien avec le plug-in Eclipse implémentant cette action, comme nous allons le voir dans la section suivante. Figure 6.11 – Extrait du modèle de CA abstraits et de liaisons de l’exemple illustratif de la famille de processus de modélisation, édité avec le modeleur de CA abstraits et de liaisons La figure 6.11 illustre un extrait du modèle de CA abstraits et de liaisons de l’exemple illustratif de famille de processus de métamodélisation, édité avec le modeleur de CA abstraits et de liaisons. À noter également que cet exrait est différent de celui de la figure 6.10. Cet extrait contient quatre éléments de modèle : une action Java Eclipse (Java Eclipse Action subclipse configuration), un pointeur d’unité de travail (Work Unit Handle metamodel definition), un CA (Primitive AC Create empty EMF project) et une liste de CA (ACL put under version control). 6.3.3 Le framework support à l’implémentation des CA Figure 6.12 – Composants du framework Comme illustré par la figure 6.12, le framework se compose : – du plug-in javaimplementationsupport, qui permet de faire le lien entre un CA et le plug-in Eclipse l’implémentant et qui permet également d’exécuter de manière générique ce plug-in Eclipse, – du plug-in contextualinformationdeclaration, qui permet aux CA de déclarer les informations contextuelles dont ils ont besoin pour s’exécuter, – d’un gestionnaire d’informations contextuelles, dont le but est de trouver la valeur des informations contextuelles. Nous détaillons ces trois composants dans la suite de cette section.118 Outil pour la gestion de la variabilité et l’automatisation des processus 6.3.3.1 Liaison entre un CA et le plug-in Eclipse l’implémentant Le plug-in javaimplementationsupport permet de faire le lien entre un CA spécifié dans le modèle de CA abstraits et de liaisons et le plug-in Eclipse l’implémentant. Ce plug-in fournit en effet un point d’extension, appelé activityautomationregistry, auprès duquel doit s’enregistrer un plug-in Eclipse implémentant un CA. Au moment de cet enregistrement, le lien entre un plug-in Eclipse et un CA est réalisé en spécifiant l’identifiant de l’action Java Eclipse correspondant à ce CA. La figure 6.13 illustre un exemple de déclaration de l’action Java Eclipse implémentée par un plug-in. Sur la partie droite de cette figure se trouvent les informations à renseigner au moment de l’enregistrement auprès du point d’extension activityautomationregistry. L’action Java Eclipse implémentée est déclarée en mettant son identifiant dans le champ action. Figure 6.13 – Enregistrement auprès du point d’extension activityautomationregistry 6.3.3.2 Exécution générique des plug-in Eclipse implémentant les CA Afin de pouvoir lancer de manière générique l’exécution des CA implémentés en Java avec des plug-ins Eclipse, le plug-in javaimplementationsupport fournit une interface, appelée ActivityAutomation, qui doit être implémentée par chaque plug-in. L’implémentation de cette interface consiste à implémenter une méthode run(). C’est cette méthode qui est appelée pour lancer l’exécution d’un CA. Le corps de cette mé- thode doit donc contenir l’implémentation d’un CA. Pour pouvoir appeler la méthode run() de cette interface, il est nécessaire, pour des raisons techniques, de préciser quelle est la classe (d’un plug-in Eclipse correspondant à l’implémentation d’un CA) qui implémente cette méthode. Encore une fois, cette information est fournie au moment de l’enregistrement auprès du point d’extension activityautomationregistry du plug-in correspondant à l’implémentation d’un CA. La figure 6.13 illustre également un exemple de déclaration d’une classe implémentant l’interface ActivityAutomation. Le nom de cette classe est spécifié dans le champ class dans la liste des informations à renseigner au moment de l’enregistrement auprès du point d’extension activityautomationregistry. Toujours afin de pouvoir lancer les CA de manière générique, l’interpréteur de processus doit pouvoir les instancier de manière générique. Chaque classe implémentant l’interface ActivityAutomation doit donc avoir un constructeur Java par défaut.Implémentation 119 6.3.3.3 Gestion de l’accès aux informations contextuelles Chaque CA déclare la liste des informations contextuelles nécessaires à son exé- cution en s’enregistrant auprès du point d’extension parameterregistry, fournit par le plug-in contextualinformationdeclaration. Le gestionnaire d’informations contextuelles se charge d’affecter des valeurs aux informations contextuelles déclarées par les CA. Comme illustré par la figure 6.14, si une information contextuelle peut être capturée par le modèle du processus en cours d’exécution, alors le gestionnaire récupère sa valeur dans ce modèle. Sinon, il la récupère dans un modèle de contexte, qui contient un ensemble de clés/valeurs associant une information contextuelle à sa valeur. L’interpréteur de processus crée un modèle de contexte pour chaque exécution de processus. Si une information contextuelle n’est dans aucun modèle, alors le gestionnaire la demande à l’acteur courant du processus et la sauve dans le modèle de contexte afin qu’elle puisse être réutilisée. Le gestionnaire n’a pas besoin de sauver une information contextuelle dans le modèle du processus en cours d’exécution. En effet, si une information contextuelle pouvant être capturée par le modèle de processus ne l’est pas, alors il s’agit d’un cas de variabilité non résolue qui est traité par l’interpréteur de processus. Au moment de la déclaration des informations contextuelles nécessaires à l’exécution d’un CA, il est possible de spécifier qu’une information est confidentielle. Dans ce cas, cette information n’apparait pas en clair si elle est saisie par l’acteur courant. Figure 6.14 – Comportement du gestionnaire d’informations contextuelles Lorsqu’un CA est réutilisé plusieurs fois dans un même processus, mais avec des120 Outil pour la gestion de la variabilité et l’automatisation des processus artéfacts différents, alors les informations contextuelles liées à ces artéfacts, qui ne peuvent pas être capturées dans le modèle de processus, sont à demander à l’acteur courant, tant qu’elles n’ont pas été écrites dans le modèle de contexte. Par exemple, un CA qui crée un projet Kermeta a besoin pour s’exécuter du nom du projet Kermeta à créer. Or, ce nom sera différent pour chaque projet à créer. Le gestionnaire d’informations contextuelles devra donc demander à chaque fois le nom du projet à créer à l’acteur courant. Cependant, lorsqu’une information contextuelle spécifique à un artéfact est réutilisée par un CA, il faut pouvoir la différencier d’une information contextuelle capturant le même type d’information mais spécifique à un autre artéfact. Par exemple, il faut pouvoir différencier les noms de deux projets Kermeta. Ce problème ne se pose pas avec les informations contextuelles pouvant être capturées dans le modèle de processus. Il est en effet dans ce cas possible de les différencier car elles sont liées à des artéfacts différents. Des CA différents sont utilisés pour demander des informations contextuelles qui doivent être différenciées. Par exemple, dans le cas de la création de projets Kermeta, chaque projet a son propre CA. Chaque CA déclare l’information contextuelle correspondant au nom du projet à créer avec une clé spécifique, afin que celle-ci puisse être différenciée des autres clés dans le modèle de contexte. Afin d’éviter les redondances entre les CA, les traitements métiers qui leur sont communs (par exemple la création d’un projet) sont factorisés dans une même fonction, prenant en paramètres les informations contextuelles spécifiques à chaque CA. Cette manière de gérer les informations contextuelles ne fonctionne que si tous les cas d’utilisation d’un CA sont connus au moment de la définition des CA. Cela n’est pas toujours le cas. Par exemple, lors d’un processus de développement Java, plusieurs projets Java peuvent être créés mais leur nombre n’est souvent pas connu à l’avance. Il n’est donc pas possible de créer autant de CA mettant un projet Java sous contrôle de version que de projets Java. Dans ce cas, un seul CA est créé pour automatiser une TMR particulière. Il demande à l’acteur courant les informations contextuelles spécifiques à des artéfacts et non encore sauvées dans le modèle de contexte. Il écrase l’ancienne valeur de l’information contextuelle dans le modèle de contexte si elle existe, et sinon il crée un nouveau couple clé/valeur. Cette deuxième manière de gérer les informations contextuelles ne fonctionne que si l’ancienne valeur d’une information contextuelle n’est plus utilisée. Dans le cas contraire, une information contextuelle est toujours demandée à l’acteur courant sans jamais la sauver dans le modèle de contexte. Cette dernière manière de gérer les informations contextuelles implique de solliciter plusieurs fois l’acteur courant pour lui demander la même chose, ce qui est source d’erreurs. Nous ne la réservons donc que pour les cas où les deux premières manières de procéder ne sont pas adéquates. Le gestionnaire d’informations contextuelles doit être en mesure de déterminer si i) une information n’est à demander à l’acteur courant que si elle n’est pas déjà dans le modèle de contexte, ii) une information est à demander à l’acteur courant et son ancienne valeur doit être écrasée dans le modèle de contexte, ou iii) une information est demandée à l’acteur courant sans sauvegarde dans le modèle de contexte. À cette fin, les CA, lorsqu’ils déclarent les informations contextuelles nécessaires à leur exécution,Implémentation 121 spécifient comment chaque information doit être traitée. Afin que l’acteur courant puisse se concentrer sur la réalisation d’autres tâches pendant que les CA s’exécutent, il est nécessaire qu’il n’ait pas à donner des informations contextuelles aux CA au fur et à mesure de leur exécution. Aussi, le gestionnaire récupère les valeurs de toutes les informations contextuelles nécessaires à l’exécution d’une liste de CA au début de l’exécution de cette liste. Le principal intérêt du gestionnaire d’informations contextuelles est qu’il découple l’accès aux informations contextuelles de l’implémentation des CA. Cela permet de rendre les CA plus réutilisables. En effet, l’accès aux informations contextuelles (et donc le gestionnaire d’informations contextuelles) dépend du langage de modélisation de processus utilisé, puisque selon ce langage une information contextuelle est récupérée dans le modèle du processus en cours d’exécution ou dans le modèle de contexte. Gérer l’accès aux informations contextuelles directement dans l’implémentation des CA aurait donc rendu ces CA dépendant du langage de modélisation de processus utilisé. Figure 6.15 – Extrait du modèle de contexte d’un processus de métamodélisation avec contrôle de version Figure 6.16 – Exemple de déclaration par un CA d’informations contextuelles La figure 6.15 illustre un extrait du modèle de contexte d’un processus de métamodélisation avec contrôle de version. Ce modèle de contexte contient la clé url of the remote repository, qui correspond à l’URL du dépôt distant sur lequel partager des ressources. À cette clé est associée la valeur file :///C :/Users/erouille/depotsvn. La figure 6.16 illustre un exemple de déclaration par un CA des informations contextuelles nécessaires à son exécution. Il s’agit ici d’un CA qui connecte l’espace de travail Eclipse d’un acteur courant du processus à un nouveau dépôt SVN distant. Ce CA a besoin pour s’exécuter de trois informations contextuelles : l’URL du dépôt SVN distant (url of the remote repository), le nom d’utilisateur (username to connect to the remote repository) et le mot de passe (password to connect to the remote repository) de122 Outil pour la gestion de la variabilité et l’automatisation des processus Figure 6.17 – Exemple de demande d’informations contextuelles à l’acteur courant du processus l’acteur courant. Cette dernière information est ici déclarée comme confidentielle. La figure 6.17 illustre la demande de ces informations contextuelles à l’acteur courant d’un processus de métamodélisation de l’exemple illustratif. Cette demande a lieu au moment de la finalisation de la définition d’un interpréteur. Pour rappel, la finalisation de la définition d’un interpréteur consiste à mettre cet interpréteur sous contrôle de version. Plus précisément, la mise sous contrôle de version d’un interpréteur consiste à connecter l’espace de travail Eclipse du développeur de l’interpréteur à un dépôt SVN distant, puis à exporter sur ce dépôt le projet Kermeta contenant le code source de l’interpréteur. Les informations contextuelles demandées ne peuvent pas être capturées dans un modèle de processus SPEM et n’ont pas déjà été sauvées dans le modèle de contexte à ce stade de l’exécution du processus. 6.3.4 L’assistant à la résolution de la variabilité L’assistant à la résolution de la variabilité que nous avons développé parcourt un VAM et pour chaque spécification de variabilité de ce VAM dont la résolution n’est pas dérivée, il demande à l’utilisateur de la ligne de processus de résoudre la variabilité via une interface. La manière de résoudre la variabilité qui est proposée dans l’interface dépend du type de spécification de variabilité, afin d’assurer le respect de la spécification de CVL. Par exemple, pour faire un choix, l’utilisateur de la ligne de processus ne peut que donner une réponse booléenne en sélectionnant ou non une case à cocher. De plus, la résolution de certaines spécifications de variabilité peut être forcée afin d’assurer le respect des contraintes entre les spécifications de variabilité du VAM. Par exemple, si un choix est obligatoire il est automatiquement sélectionné et l’utilisateur de la ligne de processus ne peut pas modifier cette résolution. Si deux choix sont mutuellement exclusifs alors l’interface ne permet de sélectionner qu’un seul de ces deux choix. Si des choix peuvent être combinés, l’interface permet alors deImplémentation 123 sélectionner plusieurs de ces choix. L’assistant à la résolution de la variabilité crée dans un RM les résolutions de spécifications de variabilité (VSpecResolution, section 2.3.2). L’utilisateur de la ligne de processus a également la possibilité de passer la résolution d’une spécification de variabilité, dans le cas où la variabilité ne peut pas être résolue tout de suite. Dans ce cas, les résolutions de spécification de variabilité associées ne sont pas créées dans le RM. Figure 6.18 – Utilisation de l’assistant à la résolution de la variabilité avec l’exemple illustratif de famille de processus de métamodélisation La figure 6.18 illustre l’utilisation de l’assistant à la résolution de la variabilité avec l’exemple illustratif de famille de processus de métamodélisation. Cet assistant permet à un utilisateur de la ligne de processus de résoudre la variabilité du VAM de la famille de processus de métamodélisation (cf. figure 4.9 pour un extrait de ce VAM) en résolvant les choix tree editor, compiler, interpreter, checker, textual editor, XText, EMFText, SVN et Git. Le choix version control system étant obligatoire, il est déjà sélectionné et il n’est pas possible de changer cette résolution. Les choix tree editor, compiler, interpreter, checker et textual editor n’étant pas mutuellement exclusifs, des cases à cocher sont utilisées pour les résoudre. Comme les choix XText et EMFText d’une part et SVN et Git d’autre part sont mutuellement exclusifs, des boutons radio sont utilisés pour les résoudre. Il est possible de passer la résolution de la variabilité d’un choix en cochant la case skip the resolution of this variability specification associée à ce choix.124 Outil pour la gestion de la variabilité et l’automatisation des processus 6.3.5 Le moteur de dérivation CVL Figure 6.19 – Comportement du moteur de dérivation CVL Nous décrivons ici le fonctionnement du moteur de dérivation CVL que nous avons implémenté dans le cadre de cette thèse. Comme illustré par la figure 6.19, pour chaque résolution de choix d’un RM, le moteur de dérivation CVL trouve le choix correspondant dans le VAM. Ensuite, le moteur de dérivation CVL trouve les points de variation qui sont associés à ce choix. Si le choix est sélectionné, ces points de variation sont exécutés conformément à la sémantique définie dans la spécification de CVL. Le cas échéant, les objets optionnels associés à des points de variation de type ObjectExistence sont supprimés. Les points de variation s’exécutent sur une copie du modèle de processus de base, afin de créer un modèle de processus résolu sans écraser le modèle de processus de base.Implémentation 125 Figure 6.20 – Comportement de l’interpréteur de processus126 Outil pour la gestion de la variabilité et l’automatisation des processus 6.3.6 L’interpréteur de processus Nous détaillons maintenant l’interpréteur de processus développé dans le cadre de cette thèse. Son fonctionnement est illustré par la figure 6.20. Lors de son lancement, l’interpréteur de processus commence par afficher dans une vue spécifique, la vue processus, les différentes unités de travail qui composent le processus à exécuter. L’interpréteur de processus démarre ensuite l’exécution du processus, en fonction de la sémantique des diagrammes d’activités UML 2. Cependant, avant l’exécution d’un élément de processus, l’interpréteur de processus détermine si de la variabilité non ré- solue est associée à cet élément de processus. Si c’est le cas, l’interpréteur de processus appelle l’assistant à la résolution de la variabilité avec en paramètre les spécifications de variabilité non résolues associées à l’élément de processus courant, afin que l’acteur courant du processus résolve cette variabilité. Une fois la variabilité résolue, l’interpréteur met à jour le processus en cours d’exécution en fonction de la résolution de la variabilité, et met également à jour la vue processus. Pour mettre à jour le processus en cours d’exécution, l’interpréteur exécute sur ce processus les points de variation associés aux spécifications de variabilité qui viennent d’être résolues positivement. Figure 6.21 – Détection de variabilité non résolue Pour déterminer si de la variabilité non résolue est associée à un élément de processus, l’interpréteur cherche dans le VRM si des points de variation référencent cet élément de processus. Si de tels points de variation existent, l’interpréteur vérifie dans le RM si les spécifications de variabilité associées à ces points de variation sont toutes résolues. Si tel n’est pas le cas, cela signifie que de la variabilité n’est pas résolue. La figure 6.21 illustre la détection de variabilité non résolue par l’interpréteur. Si l’élément de processus à exécuter est une unité de travail, alors l’interpréteur affiche dans la vue processus l’étape (initialisation, exécution, finalisation) de cette unité de travail qui peut être lancée. L’ordre entre les étapes d’une unité de travail est respecté. C’est-à-dire qu’une étape peut être lancée seulement si les étapes précédentes ont été réalisées. Par exemple, la finalisation ne peut être lancée que si l’exécution a déjàImplémentation 127 été réalisée. De plus, une initialisation ou une finalisation ne peut être lancée que si elle est automatisée, alors qu’une exécution peut être lancée qu’elle soit automatisée ou manuelle. Lorsque la finalisation d’une unité de travail est terminée (ou son exécution si elle n’a pas de finalisation), l’interpréteur de processus exécute les éléments de processus qui suivent cette unité de travail dans le processus. C’est l’acteur courant qui lance l’initialisation, l’exécution ou la finalisation d’une unité de travail. Cela lui permet de suivre l’exécution du processus. Ainsi, s’il a une tâche manuelle à réaliser pour participer à l’exécution du processus, il saura où l’exécution en est rendue et donc ce qui a déjà été fait et qu’il n’a pas à refaire. L’initialisation ou la finalisation d’une unité de travail consiste à lancer automatiquement l’exécution de la liste de CA associée. L’exécution d’une unité de travail consiste à faire de même lorsque celle-ci est automatisée. Sinon, l’interpréteur informe l’acteur courant qu’il doit réaliser l’exécution manuellement et attend que ce soit fait avant de continuer l’exécution du processus. Lancer l’exécution d’une liste de CA consiste à lancer l’exécution de ses CA, dans leur ordre de définition. Pour lancer l’exé- cution d’un CA associé à une action Kermeta, l’interpréteur appelle une fonction qui évalue dynamiquement l’expression de cette action. Pour lancer l’exécution d’un CA associé à une action Java Eclipse, l’interpréteur trouve le plug-in qui est relié à cette action et appelle la méthode run() de la classe implémentant le CA. Si une unité de travail est optionnelle, l’interpréteur de processus offre à l’acteur courant la possibilité de passer l’exécution de cette unité de travail. Attention, ici nous considérons une unité de travail qui est optionnelle dans un processus résolu, ce qui dénote donc de la variabilité au moment de l’exécution du processus (et non au moment de sa conception), tout comme les nœuds de décision par exemple. L’interpréteur de processus capture également les traces d’exécution de processus, afin de savoir quelle est l’itération de processus en cours et par quels flots de contrôle une unité de travail est accédée ou quittée. L’exécution de certains CA dépend en effet de ce qui se passe avant ou après l’unité de travail qu’ils automatisent. Par exemple, dans le cas de la famille de processus de métamodélisation, le CA créant un nouveau projet Kermeta au début de la tâche de définition d’un interpréteur ne s’exécute que lors de la première itération du processus. La figure 6.22 illustre la vue processus d’une variante de processus de métamodélisation comprenant les tâches de définition d’un métamodèle, d’un éditeur arborescent, d’un interpréteur, d’un compilateur et d’un vérificateur. Chacune de ces tâches a des boutons on start, on do, done, on end et skip. Ces boutons permettent de lancer l’initialisation d’une unité de travail (on start), de lancer l’exécution d’une unité de travail (on do), de signaler que l’exécution manuelle d’une unité de travail est terminée (done), de lancer la finalisation d’une unité de travail (on end) et de passer l’exécution d’une unité de travail lorsque celle-ci est optionnelle (skip). Sur la figure 6.22, l’exécution du processus vient juste de démarrer. Aussi, seule l’initialisation de la tâche de définition d’un métamodèle, ici automatisée, peut être lancée. En effet, sur la figure 6.22 seul le bouton on start lié à cette tâche est actif, les autres étant grisés.128 Outil pour la gestion de la variabilité et l’automatisation des processus Figure 6.22 – Vue processus d’une variante de processus de métamodélisation 6.4 Discussion Nous énonçons dans cette partie des recommandations pour implémenter les CA et les relier à leurs contextes d’utilisation (section 6.4.1), puis nous abordons les extensions possibles à T4VASP (section 6.4.2). 6.4.1 Recommandations Lorsque la ligne de processus spécifie qu’un outil peut être substitué par un autre, alors, dans l’implémentation des CA, les parties qui dépendent de cet outil doivent être découplées des parties qui n’en dépendent pas. Cela permet de pouvoir réutiliser ces dernières lorsque l’outil est remplacé. Dans le modèle de CA abstraits et de liaisons, l’architecte doit spécifier pour quels séquencements et pour quelles itérations d’une unité de travail des CA sont appropriés, si les CA dépendent de ces séquencements et de ces itérations. En effet, la variabilité de ce qui se passe avant ou après une unité de travail (entre les différentes variantes d’un processus ou au sein d’une même variante de processus) peut impliquer de la variabilité au niveau des CA qui automatisent cette unité de travail. Des CA peuvent donc être requis, inutiles ou inutilisables en fonction de ce qui se passe avant ouDiscussion 129 après une unité de travail. De plus, une unité de travail peut varier en fonction de ses itérations. Par exemple, la première itération d’une unité de travail peut consister à créer des artéfacts, tandis que les itérations suivantes consistent à modifier ces derniers. Cela peut impliquer des variations des CA qui automatisent cette unité de travail ainsi que des CA automatisant les unités de travail précédentes et suivantes. 6.4.2 Extensions Actuellement, T4VASP fonctionne uniquement dans un environnement local. Or, plusieurs personnes peuvent participer à la réalisation d’un processus de développement logiciel, chacune avec son propre poste informatique. Il est donc important que l’automatisation de l’exécution d’un processus puisse se faire dans un environnement distribué. Une extension serait donc que T4VASP devienne une application client-serveur, et que l’exécution d’un processus soit centralisée sur la partie serveur, tandis que les automatisations des TMR s’exécuteraient sur les postes clients. Ainsi, plusieurs personnes pourraient partager l’exécution d’un même processus. L’interpréteur de processus ne permet actuellement pas à l’acteur courant du processus de lancer l’initialisation ou la finalisation d’une unité de travail si ces initialisations et finalisations ne sont pas automatisées. En effet, comme SPEM 2.0 ne permet pas de définir d’initialisation et de finalisation à une unité de travail, l’interpréteur ne peut pas savoir si une unité de travail a une initialisation ou une finalisation, à moins que celle-ci soit automatisée car cela est dans ce cas spécifié dans le modèle de CA abstraits et de liaisons. Si une initialisation ou une finalisation n’est pas spécifiée elle peut être omise par l’acteur courant du processus. Lorsqu’une unité de travail a une initialisation ou une finalisation manuelle, la seule manière de le spécifier en SPEM 2.0 est de faire précéder (suivre) cette unité de travail par une autre unité de travail consistant en l’initialisation (la finalisation). Par exemple, si l’unité de travail U1 a une initialisation manuelle, cela pourra apparaître dans un modèle de processus SPEM 2.0 en faisant précéder U1 d’une unité de travail U0 consistant à réaliser l’initialisation. Mais l’inconvénient de cette solution est que les initialisations et les finalisations ne sont pas fortement couplées aux unités de travail qu’elles initialisent ou finalisent. Il est donc possible pour un humain d’omettre l’initialisation ou la finalisation d’une unité de travail lors de sa réutilisation. Par exemple lors de la création d’un nouveau modèle de processus contenant l’unité de travail U1 précédente, la personne en charge de la modélisation peut omettre de faire précéder U1 de U0. Une extension à T4VASP serait donc de faire évoluer le métamodèle de CA abstraits et de liaisons de manière à pouvoir spécifier qu’une initialisation ou une finalisation est manuelle. Dans le cas où une initialisation, exécution ou finalisation d’unité de travail est composée à la fois d’étapes automatisées et manuelles, l’outillage actuel impose de dé- finir dans le modèle de processus les unités de travail à un niveau de granularité plus fin, de sorte qu’une initialisation, exécution ou finalisation soit complètement manuelle ou complètement automatisée. L’outillage actuel ne prend en effet pas en compte les initialisations, exécutions ou finalisations partiellement automatisées. Ainsi, si l’exé- cution d’une unité de travail U1 consiste par exemple à réaliser trois actions, A1, A2130 Outil pour la gestion de la variabilité et l’automatisation des processus et A3, avec A1 et A3 automatisées et A2 manuelle, alors dans le modèle de processus U1 devra être décomposée en trois unités de travail, consistant respectivement en la réalisation des actions A1, A2 et A3. Si les actions A1 et A3 peuvent être considérées comme les initialisations et finalisations respectives de A2, une autre solution serait de définir A1 comme initialisation de U1, A2 comme exécution de U1 et A3 comme finalisation. Cela conduit à des définitions de processus plus détaillées. Afin de satisfaire le cas où les utilisateurs d’un modèle de processus préfèrent une définition plus abstraite, une extension à T4VASP serait de faire évoluer le métamodèle de CA abstraits et de liaisons de manière à pouvoir spécifier des listes d’AC qui soient entrecoupées de tâches manuelles et ainsi pouvoir gérer les initialisations, exécutions ou finalisations partiellement automatisées. 6.5 Synthèse Nous avons présenté dans ce chapitre T4VASP, l’outil support à l’approche proposée dans cette thèse. T4VASP se compose de 8 composants : un modeleur de VAM, un modeleur de VRM, un assistant à la résolution de la variabilité, un moteur de dérivation CVL, un modeleur de CA abstraits et de liaisons, un framework supportant l’implémentation des CA ainsi qu’un interpréteur de processus. T4VASP permet de définir une ligne de processus, de lier des CA à cette ligne de processus, de dériver automatiquement un processus de la ligne de processus en fonction des exigences d’un projet et d’automatiser l’exécution d’un processus. Il permet de plus de prendre en charge la variabilité non résolue au fur et à mesure de l’exécution d’un processus. T4VASP offre également des avantages dans la manière dont il met en œuvre l’approche proposée. Ainsi, au moment de la liaison des CA à la ligne de processus, T4VASP permet à l’architecte de spécifier l’étape (initialisation, exécution ou finalisation) d’une unité de travail qu’une liste de CA automatise, ainsi que l’ordre d’exécution de ces CA. Cela permet de définir plus finement l’automatisation des processus et également d’assurer que les initialisations et finalisations des unités de travail ne sont pas omises. T4VASP offre de plus un support à la résolution de la variabilité, i) en abstrayant le VAM des informations non pertinentes pour la personne en charge de la résolution de la variabilité, ii) en forçant le respect des contraintes entre les spécifications de variabilité et iii) en assurant le respect de la spécification de CVL. Au moment de l’exé- cution d’un processus, T4VASP offre un mécanisme permettant de lancer les CA qui automatisent ce processus de manière générique, ce qui en fait un outil indépendant des CA associés à une ligne de processus. De plus, les CA peuvent avoir accès aux informations contextuelles dont ils ont besoin pour s’exécuter, y compris celles qui ne peuvent pas être capturées par le modèle du processus en cours d’exécution. En effet, T4VASP demande ces informations contextuelles à l’acteur courant du processus et les sauvegarde dans un modèle contexte. Toutefois, afin que l’acteur courant du processus puisse se concentrer sur d’autres tâches pendant l’exécution d’une liste de CA, toutes les informations contextuelles nécessaires sont demandées au début de l’exécution de la liste. Pendant l’exécution d’un processus, T4VASP informe l’acteurSynthèse 131 courant du processus lorsque des interventions manuelles sont requises de sa part, afin d’assurer le bon déroulement de l’exécution. Enfin, T4VASP permet à l’acteur courant du processus de suivre l’exécution du processus, car c’est cet acteur courant qui lance les initialisations, exécutions et finalisations des unités de travail. Nous avons également identifié plusieurs extensions à T4VASP. Ainsi, faire évoluer T4VASP vers une application client-serveur permettrait l’exécution de processus en environnements distribués, ce qui correspond à la majorité des contextes de réalisation de projets de développement logiciel. D’autre part, spécifier, dans le modèle de CA abstraits et de liaisons, qu’une initialisation ou une finalisation d’unité de travail est manuelle permettrait que l’acteur courant d’un processus puisse les lancer même si elles ne sont pas automatisées. Enfin, en faisant évoluer le métamodèle de CA abstraits et de liaisons de manière à pouvoir spécifier que des listes d’AC sont entrecoupées de tâches manuelles, les utilisateurs d’un modèle de processus auraient la liberté de le définir au niveau d’abstraction qui leur convient le mieux. Ils pourraient en effet définir des unités de travail composées à la fois de tâches manuelles et automatisées. Nous avons actuellement implémenté uniquement les fonctionnalités de T4VASP dont nous avions besoin pour pouvoir l’utiliser avec les cas d’application présentés dans le chapitre suivant. Afin d’assurer que T4VASP soit utilisable quel que soit le cas d’application, il reste donc à implémenter les fonctionnalités suivantes : – prise en compte de l’ensemble de CVL par l’assistant à la résolution de la variabilité et par le moteur de dérivation, – évaluation dynamique des expressions Kermeta, – évaluation des conditions (liées aux AC ou aux unités de travail automatisées) définies dans un modèle de CA abstraits et de liaisons, – découplage de l’accès aux informations contextuelles de l’implémentation des CA, – résolution de la variabilité à l’exécution. Nous évaluons le degré de maturité de T4VASP au niveau TRL (Technology Readiness Level) 2, où le TRL est une mesure permettant d’évaluer la maturité d’une technologie [oD11]. Au niveau TRL 2, les concepts et des applications d’une technologie ont été définis, mais la technologie n’est pas encore prête à être utilisée sur n’importe quel cas d’application. Le code source de T4VASP peut être consulté à l’adresse suivante : https: //github.com/emmanuellerouille/T4VASP/tree/master/source_code.132 Outil pour la gestion de la variabilité et l’automatisation des processusChapitre 7 Applications de l’approche À ce jour, T4VASP a été appliqué à deux cas : la famille de processus de métamodé- lisation qui sert d’exemple illustratif tout au long de cette thèse, ainsi qu’une famille simplifiée de processus de développement web Java issue de Sodifrance. Pour ce faire, nous avons pour chacun de ces deux cas défini une ligne de processus de développement logiciel en nous appuyant sur CVL4SP (section 4.2). Nous avons donc spécifié dans un VAM la variabilité au niveau des exigences des projets, défini un modèle de processus de base afin de capturer les éléments de modèle nécessaires à la création des différents processus de la famille, et défini un VRM afin de spécifier comment dériver un processus résolu du modèle de processus de base en fonction des exigences des projets. Nous avons utilisé l’outil SPEM-Designer pour modéliser les processus de base. Nous avons ensuite identifié et implémenté des CA pour chaque cas d’application en suivant M4RAC (section 5.2). Nous avons pour ce faire créé un modèle de CA abstraits et de liaisons pour chacuns des deux cas d’application. Toujours pour chacun des deux cas, un modèle de processus résolu a été dérivé en fonction d’une sélection d’exigences. Ce modèle de processus a ensuite été exécuté, et les CA qui lui sont liés ont été lancés au fur et à mesure de cette exécution. Nous détaillons dans la suite de ce chapitre les deux cas d’application. Les sections 7.1 et 7.2 présentent respectivement l’application à la famille de processus de métamodélisation et l’application à la famille de processus de développement web Java. 7.1 Application sur une famille de processus de métamodélisation Nous appliquons dans cette section T4VASP à une famille de processus de métamodélisation, issue de l’équipe de recherche Triskell. Il s’agit de la famille qui a servi d’exemple illustratif à CVL4SP et T4VASP. Nous invitons donc le lecteur à se référer aux sections 4.1 et 6.1 pour une description complète de cette famille de processus et des tâches qui ont lieu durant l’exécution des processus de cette famille et qui gagneraient à être automatisées. 133134 Applications de l’approche Le VAM de la famille de processus de métamodélisation contient 39 éléments de modèle. Ce VAM permet de capturer les exigences de 128 projets différents, chacun ayant un processus différent. Le modèle de processus de base ainsi que le VRM de la famille de processus de métamodélisation contiennent quant à eux respectivement 134 et 123 éléments de modèle. Le VAM, le modèle de processus de base, ainsi que le VRM forment donc une ligne de processus permettant de capturer 128 processus différents. Le modèle de CA abstraits et de liaisons contient 27 éléments de modèle. Nous avons implémenté 10 CA en Java : 1. un CA permettant de créer un nouveau projet EMF avec un nouveau fichier Ecore vide, 2. un CA permettant de valider un métamodèle Ecore, 3. un CA permettant de générer un éditeur arborescent, 4. un CA permettant de créer un nouveau projet XText, 5. un CA permettant de créer un nouveau projet Kermeta et de l’initialiser avec un appel à une fonction Kermeta qui vérifie qu’un modèle respecte bien les contraintes définies sur son métamodèle, 6. un CA permettant de créer un nouveau projet Kermeta et de l’initialiser avec la génération du patron de conception interpréteur pour chaque méta-classe d’un métamodèle, 7. un CA permettant de créer un nouveau projet Kermeta et de l’initialiser avec la génération du patron de conception visiteur pour chaque méta-classe d’un métamodèle, 8. un CA permettant de connecter un espace de travail Eclipse à un dépôt SVN distant, 9. un CA permettant de mettre un projet sous contrôle de version, 10. un CA permettant de propager avec SVN du code source vers un dépôt distant. Le CA 1 initialise la définition d’un métamodèle. Il a besoin de deux informations contextuelles pour s’exécuter : le nom du projet EMF et le nom du fichier Ecore. Le gestionnaire d’informations contextuelles les demande à l’acteur courant du processus puis les sauvegarde dans le modèle de contexte. Le CA 2 finalise la définition d’un métamodèle et le CA 3 exécute la tâche de définition d’un éditeur arborescent. Ces deux CA ont besoin pour cela des deux mêmes informations contextuelles : le nom du projet EMF et du fichier Ecore contenant la définition du métamodèle. Le gestionnaire d’informations contextuelles trouve ces informations dans le modèle de contexte, où elles ont été préalablement écrites. Le CA 4 initialise la définition d’un éditeur textuel, lorsque celle-ci est réalisée avec l’outil XText. Ce CA utilise l’information contextuelle correspondant au nom du projet EMF contenant la définition du métamodèle. Cette information est récupérée dans le modèle de contexte par le gestionnaire d’informations contextuelles. Ce CA nécessite également une autre information contextuelle pour s’exécuter, à savoir leApplication sur une famille de processus de métamodélisation 135 Figure 7.1 – Point d’entrée du CA permettant de générer un éditeur arborescent nom du projet XText à créer. Le gestionnaire d’informations contextuelles demande cette information à l’acteur courant du processus. Les CA 5, 6 et 7 initialisent respectivement les tâches de définition d’un vérificateur, d’un interpréteur et d’un compilateur. Ils ont besoin tous les trois pour s’exécuter du nom du projet Kermeta à créer, ainsi que du nom du projet EMF et du fichier Ecore contenant la définition du métamodèle. Le gestionnaire d’informations contextuelles demande le nom du projet à créer à l’acteur courant du processus et récupère dans le modèle de contexte le nom du projet EMF et du fichier Ecore contenant la définition du métamodèle. La création d’un projet Kermeta est commune à ces trois CA et n’est pas factorisée dans son propre CA. En effet, les initialisations des projets Kermeta (appel à une fonction Kermeta vérifiant qu’un modèle respecte bien les contraintes définies sur son métamodèle et génération du patron de conception interpréteur ou compilateur) ont besoin pour s’exécuter de connaître le nom du projet à initialiser, qui est différent dans les trois cas. Il faut donc pouvoir différencier les noms des projets Kermeta. De plus, le nom d’un projet Kermeta ne peut pas être écrasé dans le modèle de contexte car il est réutilisé dans le cas de l’interpréteur pour sa mise sous contrôle de version (et l’information pourrait être écrasée avant que la mise sous contrôle de version n’ait lieu car les tâches de définition d’un interpréteur, d’un compilateur et d’un vérificateur s’exécutent en parallèle). Nous avons vu, dans la section 6.3.3, que dans ce cas des CA différents automatisent la même TMR, mais en demandant chacun des informations contextuelles spécifiques aux artéfacts qu’ils impactent. Les CA 8, 9 et 10 finalisent la tâche de définition d’un interpréteur. Le CA 8 a besoin pour s’exécuter de l’URL d’un dépôt SVN distant, ainsi que d’un nom d’utilisateur et d’un mot de passe pour se connecter à ce dépôt distant. Le gestionnaire d’informations contextuelles demande ces trois informations à l’acteur courant du processus. Les CA 9 et 10 ont besoin pour s’exécuter du nom du projet dont le contrôle de version doit être géré (ici le projet Kermeta contenant le code source de l’interpréteur). Le CA 9 a de plus besoin de connaître l’URL du dépôt SVN distant. Le gestionnaire d’informations contextuelles récupère toutes ces informations dans le modèle de contexte. Ici,136 Applications de l’approche Figure 7.2 – Méthode run de la classe GenerateTreeEditor, appelée par la méthode run de la figure 7.1 l’automatisation de la propagation avec SVN du code source vers un dépôt distant est mise dans son propre CA (ici le 10), afin de pouvoir la réutiliser indépendamment des CA 8 et 9. En effet, la première fois que la tâche de définition d’un interpréteur a lieu, il faut, lors de sa finalisation, exécuter les CA 8, 9 et 10, alors que les fois suivantes, seul le CA 10 doit être exécuté. Nous avons implémenté l’automatisation de la connexion d’un workspace Eclipse à un dépôt SVN distant et la mise d’un projet sous contrôle de version, dans des CA séparés, les CA 8 et 9, afin de séparer les préoccupations. Les figures 7.1 à 7.4 présentent des extraits de code des CA. C’est la méthode run de la figure 7.1 qui est appelée pour exécuter le CA 3, qui permet de générer un éditeur arborescent. Cette méthode fait elle-même appel à la méthode run de la figure 7.1, qui contient le code générant l’éditeur arborescent. Dans un premier temps (lignes 53 à 83) les noms du projet EMF et du fichier Ecore contenant la définition du métamodèle sont récupérés dans le modèle de contexte. Rappelons à cette occasion que commeApplication sur une famille de processus de métamodélisation 137 Figure 7.3 – Point d’entrée du CA initialisant la tâche de définition d’un interpréteur indiqué en section 6.5, le découplage de l’accès aux informations contextuelles de l’implémentation du CA, grâce au gestionnaire d’informations contextuelles, n’a pas encore été implémenté. Le code restant (de la ligne 83 à la fin) permet quant à lui de générer l’éditeur arborescent, en fonction du nom du projet EMF et du fichier Ecore précédemment récupérés. La méthode run de la figure 7.3 est appelée pour exécuter le CA 6, qui crée un nouveau projet Kermeta et l’initialise avec la génération du patron de conception interpréteur. Cette méthode appelle la méthode run de la figure 7.4. Cette dernière méthode commence par créer un nouveau projet Kermeta (lignes 59 à 67), puis elle appelle la méthode generateInterpreter (ligne 69). Cette dernière génère dans le projet Kermeta nouvellement créé le patron interpréteur pour chaque métaclasse d’un métamodèle, dont le nom du projet EMF et du fichier Ecore correspondant sont récupérés dans le modèle de contexte (cf. lignes 75 à 79). Le début de la méthode generateInterpreter est présenté à partir de la ligne 72. Pour résoudre la variabilité, au maximum 7 choix sont à faire dans ce cas. Il faut en effet déterminer si un interpréteur, un compilateur, un éditeur textuel, un éditeur arborescent ou un vérificateur sont requis pour un projet donné. Dans le cas ou un interpréteur (respectivement un éditeur textuel) est requis, la personne en charge de la résolution de la variabilité doit également déterminer si c’est l’outil SVN ou Git (respectivement XText ou EMFText) doit être utilisé. Dans le cadre de ce cas d’application, nous avons sélectionné un interpréteur, un compilateur, un éditeur arborescent ainsi qu’un vérificateur. Nous avons également sélectionné l’outil SVN comme SCV. La figure 7.5 illustre le processus résolu correspondant.138 Applications de l’approche Figure 7.4 – Extrait des méthodes permettant l’initialisation d’un interpréteur Kermeta Une démonstration du cas d’application de la famille de processus de métamodélisation peut être visualisée à l’adresse suivante : http://youtu.be/NYZT5cA5-cY. Les modèles ainsi que les CA relatifs à ce cas d’utilisation peuvent être consultés sur le dépôt SVN suivant : http://t4vasp.googlecode.com/svn/trunk/application_ metamodeling_process_line. Nous en présentons un extrait dans l’annexe A.Application sur une famille de processus de développement web Java 139 Figure 7.5 – Modèle de processus résolu du cas d’application de la famille de processus de métamodélisation 7.2 Application sur une famille de processus de développement web Java Nous présentons dans cette section l’application de T4VASP à une famille simplifiée de processus de développement d’une application web en Java, issue de Sodifrance. Nous commençons par présenter cette famille. Pour ce faire, nous introduisons d’abord un exemple simplifié de processus de développement web Java, illustré dans la figure 7.6. Nous détaillons ensuite des exemples de variantes de ce processus ainsi que les TMR qui ont lieu durant l’exécution des processus de cette famille et qui gagneraient à être automatisées. La sous-figure 7.6(a) montre le flot d’activités du processus de développement web Java illustré dans la figure 7.6, ainsi que les produits de travail consommés et produits par ces activités. L’exemple de processus de développement web Java présenté commence avec l’activité spécifier. Durant cette activité, un client produit un document définissant les spécifications techniques et fonctionnelles de l’application à développer, en fonction des exigences d’un projet. Vient ensuite l’activité développer, qui consiste à coder manuellement l’application à développer. L’activité tester suit, durant laquelle des développeurs testent l’application en cours de développement. Si cette activité révèle des erreurs dans le code de l’application, celles-ci doivent être corrigées, ce qui se traduit dans le processus par un retour à l’activité de développement. S’il n’y a pas d’erreurs, le processus se termine par l’activité mettre en140 Applications de l’approche (a) Flot d’activités et produits de travail associés (b) Détail de l’activité développer (c) Outils utilisés pendant l’activité développer Figure 7.6 – Un exemple simplifié de processus de développement web Java production, qui consiste à déployer l’application sur l’environnement du client. La sous-figure 7.6(b) détaille l’activité de développement. Celle-ci consiste, dans le cas de cet exemple, en la création et la modification de projets Eclipse. La sous-Application sur une famille de processus de développement web Java 141 figure 7.6(c) détaille les outils utilisés lors de l’activité de développement. L’environnement de développement est Eclipse, le SCV est SVN, le serveur web est Tomcat 1 , la base de données est MySQL 2 , le framework pour l’IHM web est Struts 3 et l’outil de compilation est Maven 4 . Il existe des variantes de ce processus, dont quelques exemples sont présentés dans ce paragraphe. Ainsi, si le client fournit les spécifications dans un langage interprétable par un ordinateur (par exemple UML 2), alors une activité de génération de code a lieu avant l’activité de développement. L’activité de génération de code consiste à générer le code Java qui est similaire pour toutes les entités de l’application à développer. Lorsque l’activité de génération de code a lieu, alors l’activité de développement consiste juste à rajouter manuellement le code qui n’a pas pu être généré. L’activité de mise en production peut également prendre des formes différentes. En effet, pendant cette activité, selon les exigences du client, la livraison de l’application peut se faire en livrant uniquement le code source de l’application, en livrant uniquement le code compilé de l’application, en livrant les deux (code source et code compilé), ou un ingénieur de Sodifrance peut aller chez le client pour installer lui-même l’application. Les exigences des projets peuvent également motiver l’utilisation d’outils autres que ceux présentés dans la sous-figure 7.6(c). Par exemple, une base de données Oracle 5 ou Postgresql 6 peut être utilisée à la place de la base de données MySQL, et il peut même ne pas y avoir de base de données s’il n’y a pas de donnée à persister. De même, Ant 7 peut être utilisé à la place de Maven, et un framework autre que Struts peut être utilisé pour l’IHM web, tel que JSF 8 (Java Server Faces), Flex 9 ou GWT 10 (Google Web Toolkit). Des TMR qui gagneraient à être automatisées ont lieu durant l’exécution des processus de cette famille. Nous en présentons ici quelques exemples. Ainsi, lors de l’initialisation de l’activité développer, chaque développeur et architecte doit configurer son environnement de travail Eclipse. Cette configuration consiste, entre autres, à installer les plug-ins Eclipse WTP 11 et Subclipse 12 (plug-ins permettant respectivement d’utiliser Tomcat et SVN dans Eclipse), à créer dans l’environnement de travail Eclipse un nouveau serveur Tomcat et à connecter l’espace de travail Eclipse à un dépôt SVN distant. Lors de l’initialisation de l’activité de développement, un architecte est de plus en charge de créer un nouveau dossier sur ce dépôt distant, qui contiendra le code de l’application à développer. La création d’un projet Eclipse se termine toujours par sa 1. http://tomcat.apache.org/ 2. http://www.mysql.com/ 3. http://struts.apache.org/ 4. http://maven.apache.org/ 5. http://www.oracle.com/us/products/database/overview/index.html 6. http://www.postgresql.org/ 7. http://ant.apache.org/ 8. http://www.oracle.com/technetwork/java/javaee/javaserverfaces-139869.html 9. http://www.oracle.com/technetwork/java/javaee/javaserverfaces-139869.html 10. http://www.gwtproject.org/ 11. http://www.eclipse.org/webtools/ 12. http://subclipse.tigris.org/142 Applications de l’approche mise sous contrôle de version, puis par sa propagation vers le dépôt SVN distant. En particulier, seules les sources contenues par ce projet doivent être mises sous contrôle de version, et pas les fichiers binaires contenant le code Java compilé, afin d’éviter de stocker des données inutiles sur le dépôt distant. La modification d’un projet Eclipse se termine toujours par la propagation des modifications sur le dépôt SVN distant. Le VAM de la famille de processus de développement web Java contient 27 élé- ments de modèle. Ce VAM permet de capturer les exigences de 512 projets différents, chacun ayant un processus différent. Le modèle de processus de base ainsi que le VRM de la famille de processus de développement web Java contiennent quant à eux respectivement 100 et 44 éléments de modèle. Le VAM, le modèle de processus de base ainsi que le VRM forment donc une ligne de processus capturant 512 processus différents. Le modèle de CA abstraits et de liaisons contient 25 éléments de modèle. Nous avons implémenté 9 CA en Java : 1. un CA permettant d’installer le plug-in Eclipse WTP, 2. un CA permettant d’installer le plug-in Eclipse Subclipse, 3. un CA permettant de redémarrer Eclipse, 4. un CA permettant de créer un nouveau serveur Tomcat, 5. un CA permettant de connecter un espace de travail Eclipse à un dépôt SVN distant, 6. un CA permettant de créer un nouveau dossier sur un dépôt SVN distant, 7. un CA permettant de mettre un projet Eclipse sous contrôle de version avec SVN (ce CA ne met sous contrôle de version que les sources, pas les fichiers binaires), 8. un CA permettant de propager avec SVN le code source d’un projet Eclipse spécifique vers un dépôt distant, 9. un CA permettant de propager vers un dépôt SVN distant particulier le code source de tous les projets Eclipse partagés sur ce dépôt, lorsque ceux-ci ont subit des modifications. Les CA 1 à 6 initialisent l’activité de développement. Le CA 1 a besoin pour s’exécuter du chemin, sur le poste local d’un développeur ou d’un architecte, de l’environnement Eclipse sur lequel installer le plug-in WTP. Le gestionnaire d’informations contextuelles demande cette information à l’acteur courant du processus et la sauvegarde dans le modèle de contexte. Le CA 2 a besoin pour s’exécuter de la même information contextuelle, que le gestionnaire d’informations contextuelles trouve donc dans le modèle de contexte. L’intérêt du CA 3 est de déployer dans l’environnement Eclipse les plug-ins nouvellement installés. Ce CA, tout comme le CA 4, n’a pas besoin d’informations contextuelles pour s’exécuter. Le CA 5 a besoin de trois informations contextuelles pour s’exécuter : l’URL d’un dépôt SVN distant, ainsi qu’un nom d’utilisateur et un mot de passe pour se connecter à ce dépôt distant. Le gestionnaire d’informations contextuelles demande ces trois informations à l’acteur courant du processus. Afin d’exécuter le CA 6, le gestionnaire d’informations contextuelles demande à un architecte le nom du dossier à créer sur le dépôt distant et récupère dansApplication sur une famille de processus de développement web Java 143 le modèle de contexte l’URL de ce dépôt distant. Afin de séparer les préoccupations, nous avons implémenté dans des CA différents (à savoir les CA 1 à 6) l’automatisation de l’installation des plug-ins WTP et Subclipse, le redémarrage d’Eclipse, la création d’un nouveau serveur Tomcat, la connection d’un espace de travail Eclipse à un dépôt SVN distant et la création d’un nouveau dossier sur un dépôt SVN distant. Les CA 7 et 8 finalisent la tâche de création d’un nouveau projet Eclipse. Le CA 7 a besoin de deux informations contextuelles pour s’exécuter : le nom du projet Eclipse à mettre sous contrôle de version et l’URL du dépôt distant. Le gestionnaire d’informations contextuelles demande la première information à l’acteur courant du processus, à chaque fois que le CA 7 est appelé, et sauve l’information dans le modèle de contexte en écrasant son ancienne valeur si elle existe. Cette information est en effet différente pour chaque projet, les projets à créer ne sont pas forcément connus à l’avance (il n’est donc pas possible de créer un CA spécifique à chaque projet) et l’information n’est pas réutilisée après l’exécution des CA 7 et 8 (le fait qu’elle soit écrasée ne pose donc pas de problème). Toujours pour le CA 7, le gestionnaire d’informations contextuelles récupère l’URL du dépôt distant dans le modèle de contexte. Pour le CA 8, le gestionnaire d’informations contextuelles récupère dans le modèle de contexte le nom du projet Eclipse à mettre sous contrôle de version. Nous avons implémenté dans deux CA différents (les CA 7 et 8) l’automatisation de la mise sous contrôle de version d’un projet Eclipse et la propagation de ce projet vers un dépôt SVN distant afin de séparer les préoccupations. Figure 7.7 – Code du CA permettant d’installer le plug-in Eclipse Subclipse Enfin, le CA 9 finalise la tâche de modification de projets Eclipse. Il a besoin pour144 Applications de l’approche Figure 7.8 – Code du CA créant un nouveau serveur Tomcat s’exécuter de l’URL du dépôt SVN distant. Le gestionnaire d’informations contextuelles récupère cette information dans le modèle de contexte. Les figures 7.7 et 7.8 présentent l’implémentation des CA 2 et 4 respectivement.Synthèse et discussion 145 L’implémentation du CA 2 consiste à exécuter une commande Windows installant, sur un environnement Eclipse,les archives Java relatives au plug-in Subclipse. L’implémentation du CA 4 consiste quant à elle à créer et sauvegarder un serveur Tomcat et une configuration associée. Pour résoudre la variabilité, la personne en charge de cette résolution doit faire au maximum 7 choix : déterminer le SCV, si une base de données est utilisée, et si oui de quel type de base de données il s’agit, le framework pour l’IHM, l’outil de compilation, si une partie du code est générée et le mode de livraison. Pour ce cas d’application nous avons sélectionné un processus avec SVN comme SCV, MySQL comme base de données, Struts comme framework pour l’IHM, Maven comme outil de compilation, sans génération de code, et avec livraison à la fois du code source et du code compilé. Le processus résolu correspondant est donc le même que celui de la figure 7.6. Une démonstration du cas d’application de la famille de processus de développement web Java peut être visualisée à l’adresse suivante : http://youtu.be/71shRD6ax9k. Les modèles ainsi que les CA relatifs à ce cas d’utilisation peuvent être consultés sur le dépôt SVN suivant : http://t4vasp.googlecode.com/svn/trunk/application_java_ development_process_line. Nous en présentons un extrait dans l’annexe B. 7.3 Synthèse et discussion Ces applications montrent que notre approche permet de gérer la variabilité et d’automatiser des exemples réels de processus, qui ont de nombreuses variantes ainsi que de nombreuses tâches récurrentes qui gagnent à être automatisées. Le tableau 7.1 récapitule le nombre d’éléments de modèle et de CA nécessaires à la réalisation de chacun des deux cas d’application. Cas d’application nb élts processus de base nb élts VAM nb élts VRM nb élts modèle CA abstraits et liaisons nb CA nb processus dans la famille Famille processus métamodélisation 134 39 123 27 10 128 Famille processus développement web Java 100 27 44 25 9 512 Table 7.1 – Tableau récapitulatif du nombre d’éléments de modèle et de CA pour chaque cas d’application Ces applications ont également permis d’observer des points forts de notre approche. Premièrement, pour les deux cas d’application, la modélisation des familles146 Applications de l’approche de processus avec CVL4SP s’est révélée être plus économique, en termes de nombre d’éléments à modéliser, que la modélisation en extension de ces familles. En effet, pour la famille de processus de métamodélisation, la ligne de processus est constituée de 296 éléments de modèle et capture 128 processus différents. La modélisation en extension de ces 128 processus aurait nécessité au moins 5248 éléments de modèle. En effet, la variante de processus de métamodélisation qui contient le moins d’éléments de modèle est celle qui consiste uniquement en la définition d’un métamodèle, et dans ce cas 41 éléments de processus sont nécessaires pour modéliser cette variante. Dans le cas de la famille de processus de développement web Java, la ligne de processus est constituée de 171 éléments de modèle et elle capture 512 processus différents. La modélisation en extension de ces 512 processus aurait nécessité au moins 41472 éléments de modèle. En effet, les variantes de processus qui contiennent le moins d’éléments de modèle sont celles sans génération de code et sans base de données, indépendamment des outils utilisés pour le SCV, l’IHM et la compilation, et indépendamment du mode de livraison considéré. Dans ce cas, 81 éléments de processus sont nécessaires pour modéliser une telle variante. Si, dans les deux cas d’application, la modélisation avec CVL4SP des familles de processus s’est révélée être plus économique que leur modélisation en extension, c’est parce que les familles sont modélisées en intention, et qu’assez d’éléments sont communs aux processus de chaque famille pour que leur factorisation permette de faire des économies de modélisation, même si cette factorisation implique de devoir modéliser plus d’éléments pour spécifier comment dériver un processus de la famille. D’une manière générale, quel que soit le cas d’application, plus les processus d’une famille ont d’éléments en commun, plus leur modélisation en intention permettra de réduire le nombre d’éléments à modéliser par rapport à la modélisation en extension. Le deuxième point fort observé est que l’automatisation des TMR permet de réduire l’occurrence des erreurs humaines. Par exemple, lors de la mise sous contrôle de version d’un projet Java Eclipse avec Subclipse, les fichiers binaires sont également ajoutés au contrôle de version par défaut. Il arrive que les personnes en charge de la mise sous contrôle de version d’un projet Java Eclipse oublient de retirer ces fichiers binaires du contrôle de version, ce qui n’arrive plus une fois que cette tâche est automatisée. Un troisième point fort observé lors de ces applications est que l’automatisation des TMR permet de gagner du temps lorsqu’une personne en charge de la réalisation d’une tâche ne sait pas comment la réaliser. En effet, l’automatisation d’une TMR permet à cette personne d’éviter de passer du temps à se former à la réalisation de cette tâche. Ces applications ont aussi permis de mettre en évidence une faiblesse de l’approche proposée dans cette thèse. Ainsi, M4RAC ne s’applique qu’au niveau d’une famille de processus, et ne permet donc pas d’améliorer la réutilisation de CA entre familles. Par exemple, les CA permettant de connecter un espace de travail Eclipse à un dépôt SVN distant, de mettre un projet sous contrôle de version et de propager du code source vers un dépôt distant sont communs aux deux cas d’application présentés dans ce chapitre. Or, comme M4RAC ne s’applique que sur un seul cas d’application à la fois, elle ne permet pas d’identifier le niveau de réutilisation de ces CA afin qu’ils soient réutilisables pour les deux cas d’application. Élargir M4RAC à l’ensemble des famillesSynthèse et discussion 147 de processus d’une entreprise permettrait de surmonter cette limitation.148 Applications de l’approche8 Conclusion et perspectives Dans ce chapitre, nous faisons le bilan des contributions cette thèse (section 8.1) et nous discutons les perspectives ouvertes par ces contributions (section 8.2). 8.1 Conclusion La complexité des logiciels et des projets de développement logiciel amène une multiplication des outils de développement logiciel afin de faire face à cette complexité. Par exemple, les systèmes de contrôle de version permettent de gérer les difficultés liées au travail collaboratif et géographiquement distribué, les outils de compilation, de test ou d’intégration continue supportent les méthodes de développement agiles, les IDE permettent d’intégrer les différentes technologies utilisées sur un projet, etc. De plus, des versions différentes de ces outils existent afin de satisfaire les besoins spécifiques à chaque projet, ce qui augmente le nombre d’outils existant. L’utilisation de tous ces outils est cependant à l’origine de nombreuses TMR (Tâches Manuelles Récurrentes), sources d’erreurs et coûteuses en temps. L’automatisation des TMR permet de réduire les erreurs liées à leur réalisation et donc le temps passé à corriger ces erreurs. La réutilisation des automatisations de TMR permet quant à elle de réduire le temps passé à les définir. Mais cette réutilisation est difficile. En effet, une automatisation de TMR n’étant pas forcément utile pour tous les projets et pouvant avoir des dépendances avec d’autres tâches, pour quels projets et à quels moments d’un projet réutiliser une automatisation de TMR ? De plus, une automatisation de TMR pouvant être utile dans des projets différents, ou à des moments différents d’un même projet, comment s’assurer qu’elle soit bien réutilisable à travers ses différents cas d’utilisation ? Dans la littérature, il n’y a, à notre connaissance, pas d’approche permettant à la fois de savoir pour quels projets réutiliser des automatisations de TMR et à quels moments d’un projet les réutiliser. De plus, même s’il existe des approches centrées sur la conception et le développement de composants logiciels réutilisables, celles-ci ne sont pas adaptées au cas des automatisations de TMR. En effet, elles sont spécifiques aux composants logiciel réalisant des produits logiciels et supposent que chaque caracté- 149150 Conclusion et perspectives ristique d’un produit logiciel est réalisée par un composant. Or, toutes les étapes d’un processus ne sont pas forcément réalisées par des automatisations de TMR. Afin de surmonter ces limitations, nous proposons dans cette thèse une approche pilotant l’automatisation des TMR par les processus de développement logiciel. Elle s’appuie sur une première sous-contribution, CVL4SP, afin de définir en intention une ligne de processus et d’en dériver un processus en fonction des exigences d’un projet. Des composants automatisant des TMR (CA) sont liés aux unités de travail de la ligne de processus qu’ils automatisent. L’approche proposée s’appuie sur une deuxième sous-contribution, M4RAC, afin d’améliorer la réutilisation de ces CA à travers les différentes unités de travail qu’ils automatisent. Un processus dérivé de la ligne de processus est automatisé en lançant, au fur et à mesure de son exécution, les CA qui lui sont liés. La réutilisation des CA passe donc par la réutilisation des processus de développement logiciel, le lien entre eux permettant de savoir pour quels projets et à quels moments d’un projet réutiliser ces CA. D’autre part, certaines contraintes de projet impliquant de commencer l’exécution d’un processus alors que sa variabilité n’est que partiellement résolue, l’approche proposée permet de résoudre de la variabilité lors de l’exécution d’un processus. Cela permet d’assurer le bon déroulement de l’exécution d’un processus même lorsque sa variabilité n’est que partiellement résolue. CVL4SP s’appuie sur CVL afin de gérer la variabilité des processus de développement logiciel. Le point fort de CVL4SP, en comparaison des autres approches gérant la variabilité dans les processus, est son indépendance vis-à-vis du formalisme utilisé pour définir les processus. M4RAC améliore l’identification du niveau de réutilisation des CA, c’est-à-dire des parties de ces CA qui varient et qui ne varient pas. Cette information est nécessaire à la création de CA réutilisables à travers leurs différents cas d’utilisation. M4RAC s’appuie sur le lien entre la ligne de processus et les CA afin d’identifier les différents contextes d’utilisation de ces derniers. Ce sont ces différents contextes d’utilisation qui guident l’identification du niveau de réutilisation d’un CA. L’avantage principal de M4RAC est qu’elle explicite les différents contextes d’utilisation de chaque CA, ce qui permet de ne pas en oublier et de ne pas prendre en compte des contextes d’utilisation inutiles. Afin de démontrer la faisabilité de notre approche, nous avons développé un outil la supportant : T4VASP. Il a été appliqué à deux cas d’utilisation, à savoir une famille de processus de métamodélisation et une famille de processus de développement web Java issue de Sodifrance. T4VASP permet de définir en intention une ligne de processus, de lui lier des CA, d’en dériver un processus en fonction des exigences d’un projet, d’automatiser l’exécution de ce processus et de résoudre sa variabilité non résolue au moment de son exécution. 8.2 Perspectives Les contributions de cette cette thèse ouvrent plusieurs perspectives de travail. Certaines sont d’ordre industriel, tandis que d’autres sont des pistes de recherche àPerspectives 151 investiguer à court et long terme. 8.2.1 Perspectives industrielles Nous présentons ici différents axes de travail afin de permettre l’utilisation de T4VASP dans un contexte industriel. 8.2.1.1 Utilisation de T4VASP quel que soit le cas d’application T4VASP ne fonctionne actuellement que dans un environnement local. Or, les projets de développement logiciel requièrent souvent l’intervention de plusieurs personnes, chacune ayant son propre poste de travail. Aussi, faire évoluer T4VASP vers une application client-serveur permettrait de l’utiliser en environnements distribués. Nous n’avons implémenté que les fonctionnalités de T4VASP permettant de l’utiliser avec les deux cas d’applications présentés dans cette thèse. L’implémentation des fonctionnalités restantes de T4VASP permettrait donc de pouvoir l’utiliser quel que soit le cas d’application. Les fonctionnalités non encore implémentées portent sur la prise en compte exhaustive de CVL par l’assistant à la résolution de la variabilité et par le moteur de dérivation, l’évaluation dynamique des expressions Kermeta, l’évaluation des conditions définies dans un modèle de CA abstraits et de liaisons, le découplage de l’accès aux informations contextuelles de l’implémentation des CA et la résolution de la variabilité à l’exécution. Nous avons vu dans la section 4.3.4 que la modélisation des éléments de processus externes pouvait se révéler difficile lorsqu’ils ne respectent pas toutes les contraintes définies sur leur métamodèle et que le modeleur utilisé ne permet pas de modéliser des éléments invalides. L’ajout à T4VASP d’un composant permettant de générer automatiquement ces éléments, ainsi que les éléments de modèle manquants pour les rendre valides, permettrait de faire face à cette difficulté. 8.2.1.2 Limitation des erreurs T4VASP ne permet actuellement pas à l’acteur courant du processus de lancer des initialisations ou des finalisations d’unités de travail lorsqu’elles ne sont pas automatisées. Elles sont alors traitées par l’interpréteur de processus comme si elles n’existaient pas. L’acteur courant du processus peut donc omettre de les réaliser. La solution idéale serait de pouvoir spécifier dans le modèle de processus qu’une unité de travail a une initialisation ou une finalisation, qu’elle soit manuelle ou non. Cela permettrait à l’interpréteur de processus de différencier les cas où une initialisation ou finalisation est manuelle de ceux où il n’y en a pas. Cependant, tous les langages de modélisation de processus ne permettent pas de définir qu’une unité de travail a une initialisation ou une finalisation. Une autre solution serait donc d’étendre le métamodèle de CA abstraits et de liaisons, afin que celui-ci permette de spécifier si une initialisation ou une finalisation d’unité de travail est manuelle. Cette extension pourrait prendre la forme d’une action spécifique qui serait une action manuelle. Cela permettrait que152 Conclusion et perspectives les unités de travail ayant des initialisations et finalisations manuelles soient traitées différemment de celles n’en ayant pas. CVL permet actuellement de dériver des modèles de processus résolus invalides, alors que le modèle de processus de base, le modèle d’abstraction de la variabilité (VAM), le modèle de réalisation de la variabilité (VRM) ainsi que le modèle de résolution de la variabilité (RM) sont valides. Pour rappel, nous avons identifié trois catégories d’erreurs qui rendent le modèle de processus résolu invalide. La première catégorie concerne les erreurs liées au non-respect de la compatibilité de type lorsqu’une nouvelle valeur est assignée à une instance de propriété. La deuxième catégorie englobe les erreurs liées au non-respect de la multiplicité d’une référence ou des contraintes définies sur le métamodèle du modèle de processus résolu. La troisième catégorie concerne les erreurs sémantiques, c’est-à-dire quand le modèle du processus résolu est bien conforme à son métamodèle, mais qu’il est trop permissif pour un métier donné ou qu’il contient des incohérences. Contraindre l’application des points de variation de CVL (opération à appliquer au modèle de base pour dériver un modèle résolu), à l’aide de contraintes exprimées de manière générique sur le métamodèle de CVL, permettrait d’éviter les erreurs de la première catégorie. Un outil générique d’analyse statique, qui assurerait que le modèle de processus résolu respecte bien les contraintes définies sur son métamodèle, permettrait d’éviter les erreurs de la deuxième caté- gorie. La modification du métamodèle de processus utilisé permettrait d’éviter les erreurs de la troisième catégorie. Cependant, dans les cas où cette modification s’avère trop coûteuse, un moteur de dérivation spécifique aux besoins d’un métier particulier permettrait de restreindre ce que le modèle de processus résolu peut capturer. Un outil vérifiant la consistance des pré et post conditions associées aux CA, ainsi qu’aux unités de travail qu’ils automatisent, permettrait quant à lui de s’assurer qu’un modèle de CA abstraits et de liaisons est correct. 8.2.1.3 Suppression des redondances dans le modèle de CA abstraits et de liaisons Dans le modèle de CA abstraits et de liaisons, il est actuellement nécessaire de spécifier quelle variante d’unité de travail chaque liste de CA automatise. Lorsque des variantes différentes d’une unité de travail sont automatisées par des listes différentes de CA, cela implique de définir plusieurs fois des éléments de modèle référençant la même unité de travail, en spécifiant à chaque fois à l’aide de conditions quelle est la variante de cette unité de travail. Afin de supprimer ces redondances, CVL pourrait être utilisé pour créer le modèle de CA abstraits et de liaisons correspondant à un modèle de processus résolu, en fonction des exigences d’un projet. Dans le modèle de CA abstraits et de liaisons, seule l’unité de travail automatisée par un CA serait spécifiée, sans préciser de quelle variante il s’agit. Une fois les exigences d’un projet définies, le modèle de CA abstraits et de liaisons serait transformé afin qu’il ne reste que les listes de CA correspondant aux variantes d’unités de travail qui sont dans le modèle de processus résolu.Perspectives 153 8.2.2 Perspectives de recherche à court terme En plus de l’application de notre approche à une famille de processus industriels (cf. section 7.2), une expérimentation, réalisée elle aussi dans un contexte industriel, permettrait de déterminer dans quelle proportion notre approche permet de réduire les temps de développement. Cette expérimentation pourrait consister à comparer le temps passé par un ensemble d’utilisateurs à réaliser un processus de développement logiciel manuellement et en utilisant l’approche et l’outillage de cette thèse. De plus, l’élaboration de l’approche proposée dans cette thèse ainsi que la conception et le dé- veloppement de l’outillage support et des CA implique un investissement en terme de temps. Les résultats de l’expérimentation permettraient donc de déterminer combien de processus de développement logiciel il est nécessaire d’automatiser en suivant notre approche pour obtenir un retour sur investissement. Cette information serait utile pour déterminer dans quels cas il est rentable d’appliquer notre approche. 8.2.3 Perspectives de recherche à long terme Nous abordons dans cette section les perspectives de recherche afin de gérer également la variabilité des processus qui a lieu pendant leur exécution et afin d’améliorer la réutilisation des CA. 8.2.3.1 Gestion de la variabilité des processus au moment de leur l’exécution Un processus en cours d’exécution peut avoir besoin d’être adapté à cause de changements au niveau de son environnement d’exécution ou de l’organisation d’une entreprise, parce que certaines parties d’un processus dépendent de l’exécution de parties amont, ou encore à cause des spécificités d’un projet [BFG93]. Étendre l’approche actuellement proposée dans cette thèse afin qu’elle permette de mettre à jour automatiquement le modèle du processus en cours d’exécution en fonction de certains évènements permettrait de répondre à ce besoin. Les travaux de Morin [Mor10], qui permettent de reconfigurer dynamiquement des modèles en réponse aux changements dans leur environnement d’exécution, pourraient être réutilisés à cette fin. Il faudrait également que les différents artéfacts de développement liés au processus en cours d’exécution soient adaptés, tout en assurant leur cohérence [DO04]. Pour ce faire, une piste serait de réutiliser les travaux de Fouquet [Fou13], qui permettent de piloter à partir des modèles la reconfiguration dynamique de composants dans un environnement distribué. La présence d’activités plus opportunes que celles définies par le processus peut justifier un besoin de déviation vis-à-vis de ce processus lors de son exécution [Vis90]. La difficulté est ici de dévier d’un processus tout en continuant à utiliser de manière cohérente les parties de ce processus qui restent pertinentes pour le projet [DO04]. Une piste de recherche serait donc d’étendre l’approche proposée dans cette thèse afin qu’elle permette de dévier du processus en cours d’exécution. À cette fin, les travaux de Kabbaj et al. [KLC08] pourraient être réutilisés. Ceux-ci permettent de détecter154 Conclusion et perspectives les déviations vis-à-vis d’un processus au moment de son exécution et de gérer ces déviations en les acceptant ou en les refusant. 8.2.3.2 Amélioration de la réutilisation des CA M4RAC ne s’appliquant qu’au niveau d’une famille de processus, elle ne permet pas d’améliorer la réutilisation de CA entre familles de processus. Étendre M4RAC, de manière à ce qu’elle s’applique à un ensemble de familles de processus, permettrait d’améliorer la réutilisation des CA entre familles de processus. Nous avons identifié une première directive pour implémenter les CA afin d’amé- liorer leur réutilisation : lorsque la ligne de processus spécifie qu’un outil peut être substitué par un autre, alors, dans l’implémentation d’un CA, les parties qui dépendent de cet outil doivent être découplées des parties qui n’en dépendent pas. Une perspective de travail serait d’identifier des recommandations supplémentaires pour implémenter les CA, afin d’améliorer encore leur capacité à être réutilisés. Il est difficile pour un humain d’identifier les contextes d’utilisation des CA, à cause de la définition en intention de processus, mais également à cause du nombre important de processus. En effet, il est dans ce cas difficile pour un humain de visualiser explicitement chacun des processus de la ligne et aussi de les intégrer mentalement. Un outil offrant un support à l’identification des contextes d’utilisation des CA serait une solution à ce problème. Il pourrait expliciter les différents processus d’une famille définie en intention, ainsi que les CA déjà associés à ces processus. Afin de limiter le nombre de processus affichés, il pourrait s’appuyer sur une définition de contextes d’utilisation de CA similaires, et donc n’afficher qu’un seul de ces contextes. La vérifi- cation de la consistance entre les pré et post-conditions associées aux CA permettrait quant à elle de détecter d’éventuelles erreurs au moment de l’association d’un CA à une unité de travail.Appendices 155Annexe A Extrait des modèles et CA de la famille de processus de métamodélisation Nous présentons dans cette annexe un extrait des modèles et des CA relatifs au cas d’application de la famille de processus de métamodélisation (cf. section 7.1). Un extrait du VAM de cette famille est illustré en figure A.1. Les choix tree editor, compiler, interpreter, checker, textual editor, EMFText, XText, version control system, SVN et Git doivent être résolus manuellement. De plus, les choix SVN et Git, tout comme les choix EMFText et XText, sont mutuellement exclusifs. La résolution des autres choix est quant à elle dérivée. Seul le choix version control system est obligatoire (propriété Is Implied By Parent à vrai). Dans le VRM, dont un extrait est présenté en figure A.2, les propriétés associées à la substitution de fin de lien compiler creation into metamodeling activity indiquent que la tâche de définition d’un compilateur est intégrée au processus le plus souvent utilisé (cf. figure 4.7) lorsque le choix compiler est sélectionné. Cette tâche est identifiée par le pointeur d’objet compiler creation et appartient initialement aux éléments de processus externes du modèle de processus de base (cf. figure 4.8). Les propriétés associées à la substitution de fin de lien Fork into metamodeling activity indiquent quant à elles que le nœud de parallélisation appartenant aux éléments de processus externes du modèle de processus de base est intégré au processus le plus souvent utilisé dès lors que des tâches sont exécutées en parallèle (choix parallelization résolu positivement). Le nœud de parallélisation est identifié par le pointeur d’objet Fork et le processus le plus souvent utilisé est représenté par l’activité Metamodeling Activity. La figure A.3 illustre un extrait du modèle de liaisons de la famille de processus de métamodélisation. Les propriétés des pointeurs d’unités de travail (éléments de type WorkUnitHandle sur la figure) spécifient quelles sont les étapes (initialisation, exécution, finalisation) de ces unités de travail qui sont automatisées, et par quels CA. Ainsi, l’initialisation et la finalisation de la définition d’un métamodèle sont respectivement automatisées par un CA créant un projet EMF vide (Primitive AC Create empty EMF 157158 Extrait des modèles et CA de la famille de processus de métamodélisation Figure A.1 – Extrait du VAM de la famille de processus de métamodélisation project) et par un CA validant le métamodèle créé (Primitive AC validate EMF model). L’exécution de la définition d’un éditeur arborescent est automatisée par un CA gé- nérant cet éditeur (Primitive AC generate tree editor). Les initialisations des définitions d’un compilateur, d’un interpréteur et d’un vérificateur sont automatisées par des CA créant et initialisant un projet Kermeta (Primitive AC create Kermeta compiler, Primitive AC create Kermeta interpreter, Primitive AC create Kermeta checker). Enfin, la finalisation de la définition d’un interpréteur est automatisée par une liste de CA (ACL put under version control, constituée des CA subclipse configuration, share project SVN et commit project SVN) mettant cet interpréteur sous contrôle de version. Tous les CA sont im-159 Figure A.2 – Extrait du VRM de la famille de processus de métamodélisation plémentés par des actions Java Eclipse. Parmi elles, l’action CreateEmptyEMFProject est implémentée par la classe CreateEmptyEMFProjectActivityAutomation, comme illustré par la figure A.4. La méthode run de cette classe lance deux assistants Eclipse (cf. figure A.5). Le premier demande à l’acteur courant le nom du nouveau projet EMF, sauve cette information dans le modèle de contexte et crée le nouveau projet EMF. Le deuxième réalise la même séquence d’étapes concernant le fichier Ecore contenant le métamodèle. Pour terminer, un extrait du RM est illustré par la figure A.6. Les propriétés des résolutions de choix tree editor, SVN et Git indiquent que les choix du même nom sont respectivement résolus à vrai, vrai et faux.160 Extrait des modèles et CA de la famille de processus de métamodélisation Figure A.3 – Extrait du modèle de liaisons de la famille de processus de métamodélisation161 Figure A.4 – Déclaration de la classe implémentant l’action Java Eclipse CreateEmptyEMFProject Figure A.5 – Code de la classe CreateEmptyEMFProjectActivityAutomation162 Extrait des modèles et CA de la famille de processus de métamodélisation Figure A.6 – Extrait du RM du cas d’application de la famille de processus de métamodélisation de la section 7.1Annexe B Extrait des modèles et CA de la famille de processus de développement web Java Nous présentons dans cette annexe un extrait des modèles et des CA relatifs au cas d’application de la famille de processus de développement web Java (cf. section 7.2). Figure B.1 – Extrait du VAM de la famille de processus de développement web Java 163164 Extrait des modèles et CA de la famille de processus de développement web Java Le VAM de cette famille, dont un extrait est illustré par la figure B.1, comporte 22 choix. Leur résolution est manuelle et ils permettent de déterminer le SCV, la base de données, le framework pour l’IHM web, l’outil de compilation, si une étape de génération de code intervient avant le développement manuel, ainsi que le mode de livraison. La figure B.2 illustre un extrait du VRM. La substitution d’objet SVN replaced by Git spécifie que l’outil SVN (référencé par le pointeur d’objet SVN) est remplacé par l’outil Git (référencé par le pointeur d’objet Git) lorsque le choix Git est sélectionné. L’existence d’objet MySQL spécifie que l’outil MySQL existe dans le modèle de processus résolu lorsque le choix MySQL est sélectionné. Sinon, cet outil est supprimé. La substitution d’objet MySQL replaced by Oracle spécifie quant à elle que l’outil MySQL est remplacé par l’outil Oracle lorsque le choix Oracle est sélectionné. Un extrait du modèle de liaisons est illustré par la figure B.3. Le pointeur d’unité de travail development spécifie que l’initialisation de l’activité de développement (Activity development) est automatisée par la liste de CA development initialization. Celle-ci permet : – d’installer les plug-ins WTP (Primitive AC install wtp) et Subclipse (Primitive AC install subclipse), – de rédémarrer Eclipse (Primitive AC restart), – d’initialiser un serveur Tomcat (Primitive AC new Tomcat server), – de connecter un espace de travail Eclipse à un nouveau dépôt SVN (Primitive AC subclipse configuration) – et de créer un nouveau dossier sur ce dépôt SVN (Primitive AC create directory on remote repository). Les pointeurs d’unité de travail project creation et first project creation spécifient que les tâches de création de projets (Task Use project creation et Task Use first project creation) sont finalisées par une liste d’AC (ACL share and commit project with SVN) mettant ce projet sous contrôle de version (Primitive AC share project with SVN) et propageant son contenu sur un dépôt distant (commit project with SVN). Le pointeur d’unité de travail projects modification spécifie que la tâche de modification de projets (Task Use projects modification) est finalisée par un CA propageant les modifications apportées sur un dépôt distant (Primitive AC commit the modified projects). Comme pour le cas d’application précédent, tous les CA sont implémentés par des actions Java Eclipse. Parmi elles, l’action Java Eclipse install wtp a pour identifiant installwtp. Comme illustré par les figures B.4 et B.5, cette action est implémentée par la classe InstallWTP et nécessite comme information contextuelle le chemin de l’environnement Eclipse sur lequel installer le plug-in. La méthode run de cette classe lance l’exécution d’une commande Windows installant, sur un environnement Eclipse, les archives Java relatives au plug-in WTP (cf. figure B.6). Enfin, la figure B.7 illustre un extrait du RM. Les propriétés des résolutions de choix SCV, SVN, Git et code generation indiquent que les choix du même nom sont respectivement résolus à vrai, vrai, faux et faux.165 Figure B.2 – Extrait du VRM de la famille de processus de développement web Java166 Extrait des modèles et CA de la famille de processus de développement web Java Figure B.3 – Extrait du modèle de liaisons de la famille de processus de développement web Java Figure B.4 – Déclaration de la classe implémentant l’action Java Eclipse install wtp167 Figure B.5 – Information contextuelle du CA installant le plug-in WTP Figure B.6 – Code de la classe InstallWTP168 Extrait des modèles et CA de la famille de processus de développement web Java Figure B.7 – Extrait du RM du cas d’application de la famille de processus de développement web Java de la section 7.2Bibliographie [AB12] J.A.H. Alegría and M.C. Bastarrica. Building Software Process Lines with CASPER. In ICSSP, pages 170–179, 2012. [ABC96] D. Avrilionis, N. Belkhatir, and P.-Y. Cunin. A unified framework for software process enactment and improvement. In ICSP, pages 102–111, 1996. [ABM00] C. Atkinson, J. Bayer, and D. Muthig. Component-Based Product Line Development : The KobrA Approach. In SPLC, pages 289–309, 2000. [ACG+12] M. Acher, P. Collet, A. Gaignard, P. Lahire, J. Montagnat, and R. France. ComposingMultiple Variability Artifacts to Assemble CoherentWork- flows. Software Quality Journal, 20(3-4) :689–734, 2012. [AD91] L.C. Alexander and A.M. Davis. Criteria for Selecting Software Process Models. In COMPSAC, pages 521–528, 1991. [Ald10] L. Aldin. Semantic Discovery and Reuse of Business Process Patterns. PhD thesis, School of Information Systems, Computing and Mathematics Brunel University, 2010. [Amb99] S. W. Ambler. More Process Patterns Delivering Large-Scale Systems Using Object Technology. Cambridge University Press, 1999. [ASKW11] A. Awad, S. Sakr, M. Kunze, and M. Weske. Design by Selection : A Reuse-Based Approach for Business Process Modeling. In ER, pages 332–345, 2011. [BBM05] J. Bhuta, B. Boehm, and S. Meyers. Process Elements : Components of Software Process Architectures. In SPW, pages 332–346, 2005. [BCCG07] R. Bendraou, B. Combemale, X. Cregut, and M.-P. Gervais. Definition of an Executable SPEM 2.0. In APSEC, pages 390–397, 2007. [BDK07] J. Becker, P. Delfmann, and R. Knackstedt. Adaptive Reference Modeling : Integrating Configurative and Generic Adaptation Techniques for Information Models. In RM, pages 27–58, 2007. [BDKK04] P. Becker, J. Delfmann, A. Dreiling, R. Knackstedt, and D. Kuropka. Configurative Process Modeling - Outlining an Approach to Increased Business Process Model Usability. In IRMA, pages 615–619, 2004. 169170 BIBLIOGRAPHIE [Ben07] R. Bendraou. UML4SPM : Un Langage De Modélisation De Procédés De Développement Logiciel Exécutable Et Orienté Modèle. PhD thesis, Université Pierre & Marie Curie - Paris VI, 2007. [BFG93] S.C. Bandinelli, A. Fuggetta, and C. Ghezzi. Software Process Model Evolution in the SPADE Environment. IEEE TSE, 19(12) :1128–1144, 1993. [BGB06] R. Bendraou, M.-P. Gervais, and X. Blanc. UML4SPM : An Executable Software Process Modeling Language Providing High-Level Abstractions. In EDOC, pages 297–306, 2006. [BnCCG11] S. J. Bolaños Castro, R. G. Crespo, and V. H. M. García. Patterns of Software Development Process. IJIMAI, 1(4) :33–40, 2011. [Boe88] B.W. Boehm. A Spiral Model of Software Development and Enhancement. Computer, 21(5) :61–72, 1988. [Boo91] G. Booch. Object Oriented Design : With Applications. Benjamin/- Cummings Publishing Company, 1991. [BSE03] F. Budinsky, D. Steinberg, and R. Ellersick. Eclipse Modeling Framework : A Developer’s Guide. Addison-Wesley Professional, 2003. [CA05] K. Czarnecki and M. Antkiewicz. Mapping Features to Models : A Template Approach Based on Superimposed Variants. InGPCE, pages 422–437, 2005. [CB05] S. Clarke and E. Baniassad. Aspect-Oriented Analysis and Design : The Theme Approach. Addison-Wesley, 2005. [CBHB07] M. Cataldo, M. Bass, J.D. Herbsleb, and L. Bass. On Coordination Mechanisms in Global Software Development. In ICGSE, pages 71– 80, 2007. [CC07] D. Ciuksys and A. Caplinskas. Reusing Ontological Knowledge about Business Processes in IS Engineering : Process Configuration Problem. Informatica, 18(4) :585–602, 2007. [CDCC+13] E. Céret, S. Dupuy-Chessa, G. Calvary, A. Front, and D. Rieu. A Taxonomy of Design Methods Process Models. Information and Software Technology, 55(5) :795 – 821, 2013. [CKO92] B. Curtis, M. I. Kellner, and J. Over. Process Modeling. Commun. ACM, 35(9) :75–90, 1992. [CLM+99] A. G. Cass, B. S. Lerner, E. K. McCall, L. J. Osterweil, and A. Wise. Logically Central, Physically Distributed Control in a Process Runtime Environment. Technical Report 99-65, University of Massachusetts at Amherst, 1999. [CLS+00] A. G. Cass, B. S. Lerner, S. M. Sutton, Jr., E. K. McCall, A. Wise, and L. J. Osterweil. Little-JIL/Juliette : A Process Definition Language and Interpreter. In ICSE, pages 754–757, 2000.BIBLIOGRAPHIE 171 [CN01] P. Clements and L. Northrop. Software Product Lines : Practices and Patterns. Addison-Wesley Longman Publishing Co., Inc., 2001. [Cox85] B.J. Cox. Object Oriented Programming. Addison-Wesley,Reading, MA, 1985. [Crn02] I. Crnkovic. Building Reliable Component-Based Software Systems. Artech House, Inc., 2002. [DB10] W. Derguech and S. Bhiri. Reuse-Oriented Business Process Modelling Based on a Hierarchical Structure. In BPM, pages 301–313, 2010. [Dij82] E. W. Dijkstra. On the Role of Scientific Thought. In Selected Writings on Computing : A Personal Perspective, pages 60–66. Springer-Verlag, 1982. [Dio93] R. Dion. Process Improvement and the Corporate Balance Sheet. IEEE Software, 10(4) :28–35, 1993. [DO04] J.-C. Derniame and F. Oquendo. Key Issues and New Challenges in Software Process Technology. UPGrade, The European Journal for the Informatics Professional, 5(5) :11–16, 2004. [FHMP+11] F. Fleurey, Ø. Haugen, B. Møller-Pedersen, A. Svendsen, and X. Zhang. Standardizing Variability - Challenges and Solutions. In SDL Forum, pages 233–246, 2011. [FL03] P. Fettke and P. Loos. Classification of reference models : a methodology and its application. Information Systems and e-Business Management, 1(1) :35–53, 2003. [Fou13] F. Fouquet. Kevoree : Model@Runtime pour le développement continu de systèmes adaptatifs distribués hétérogènes. PhD thesis, University of Rennes 1, 2013. [FPLPdL01] S. T. Fiorini, J. C. S. Prado Leite, and C. J. Pereira de Lucena. Process Reuse Architecture. In CAiSE, pages 284–298, 2001. [Fra99] U. Frank. Conceptual Modelling as the Core of the Information Systems Discipline – Perspectives and Epistemological Challenges. In AMCIS, pages 695–697, 1999. [GLKD98] K. Gary, T. Lindquist, H. Koehnemann, and J.-C. Derniame. Component-based Software Process Support. In ASE, pages 196–199, 1998. [GM05] R. J. Glushko and T. S. McGrath. Document Engineering : Analyzing And Designing Documents For Business Informatics & Web Services. MIT Press, 2005. [Guy13] C. Guy. Facilités de typage pour l’ingénierie des langages. PhD thesis, Université de Rennes 1, 2013. [GvdAJV07] F. Gottschalk, W. M. P. van der Aalst, and M. H. Jansen-Vullers. SAP WebFlow Made Configurable : Unifying Workflow Templates into a Configurable Model. In BPM, pages 262–270, 2007.172 BIBLIOGRAPHIE [GvdAJVLR08] F. Gottschalk, W. M.P. van der Aalst, M. H. Jansen-Vullers, and M. La Rosa. Configurable Workflow Models. Cooperative Information Systems, 17(2) :177–221, 2008. [HABQO11] J.A. Hurtado Alegría, M.C. Bastarrica, A. Quispe, and S.F. Ochoa. An MDE Approach to Software Process Tailoring. In ICSSP, pages 43–52, 2011. [Ham96] Michael Hammer. Beyond Reengineering : How the Process-Centered Organization is Changing Our Work and Our Lives. Harper Collins Publishers, 1996. [HBR10] A. Hallerbach, T. Bauer, and M. Reichert. Capturing Variability in Business Process Models : the Provop Approach. Software Maintenance, 22(67) :519–546, 2010. [HIMT96] N. Hanakawa, H. Iida, K.-i. Matsumoto, and K. Torii. A Framework of Generating Software Process Including Milestones for ObjectOriented Development Method. In APSEC, pages 120–130, 1996. [HMR06] J. D. Herbsleb, A. Mockus, and J. A. Roberts. Collaboration in Software Engineering Projects : A Theory of Coordination. In ICIS, 2006. [Hum88] W. S. Humphrey. The Software Engineering Process : Definition and Scope. SIGSOFT Softw. Eng. Notes, 14(4) :82–83, 1988. [HWRK11] J. Hutchinson, J. Whittle, M. Rouncefield, and S. Kristoffersen. Empirical Assessment of MDE in Industry. In ICSE, pages 471–480, 2011. [HZG+97] J. Herbsleb, D. Zubrow, D. Goldenson, W. Hayes, and M. Paulk. Software Quality and the Capability Maturity Model. Commun. ACM, 40(6) :30–40, 1997. [IMCH+07] C. Iochpe, C. Ming Chiao, G. Hess, G. Nascimento, L. Thom, and M. Reichert. Towards an intelligent workflow designer based on the reuse of workflow patterns. In WBPM, 2007. [Ins95] Software Engineering Institute. The Capability Maturity Model : Guidelines for Improving the Software Process. Addison-Wesley, 1995. [Ins13] CMMI Institute. Maturity Profile Reports, September 2013. [ISO07] ISO/IEC. ISO/IEC 24744 :2007 Software Engineering – Metamodel for Development Methodologies, 2007. [Ist13] P. Istoan. Methodology for the derivation of product behaviour in a Software Product Line. PhD thesis, University of Rennes 1 and University of Luxembourg, 2013. [JCV12] J.-M. Jézéquel, B. Combemale, and D. Vojtisek. Ingénierie Dirigée par les Modèles : des concepts à la pratique... Ellipses, 2012. [Jéz12] J.-M. Jézéquel. Model-Driven Engineering for Software Product Lines. ISRN Software Engineering, 2012(2012), 2012.BIBLIOGRAPHIE 173 [JMD04] T. Javed, M. Maqsood, and Q. S. Durrani. A Study to Investigate the Impact of Requirements Instability on Software Defects. SIGSOFT Softw. Eng. Notes, 29(3) :1–7, 2004. [KB10] V. Kulkarni and S. Barat. Business Process Families Using ModelDriven Techniques. In BPM, pages 314–325, 2010. [KCH+90] K. C. Kang, S. G. Cohen, J. A. Hess, W. E. Novak, and A. S. Peterson. Feature-Oriented Domain Analysis (FODA) Feasibility Study. Technical report, Carnegie-Mellon University Soft. Eng. Institute, 1990. [KKL+98] C. K. Kang, S. Kim, J. Lee, K. Kim, E. Shin, and M. Huh. FORM : A Feature-Oriented Reuse Method with Domain-Specific Reference Architectures. Annals of Software Engineering, 5 :143–168, 1998. [KL07] B. Korherr and B. List. A UML 2 Profile for Variability Models and their Dependency to Business Processes. In DEXA, pages 829–834, 2007. [KLC08] M. Kabbaj, R. Lbath, and B. Coulette. A Deviation Management System for Handling Software Process Enactment Evolution. In ICSP, pages 186–197, 2008. [KR10] M. Khaari and R. Ramsin. Process Patterns for Aspect-Oriented Software Development. In ECBS, pages 241–250, 2010. [Kru92] C. W. Krueger. Software Reuse. ACM Comput. Surv., 24(2) :131–183, 1992. [Kru06] C. W. Krueger. Introduction to the Emerging Practice of Software Product Line Development. Methods and Tools, 14(3) :3–15, 2006. [KSG04] J. Kim, M. Spraragen, and Y. Gil. An Intelligent Assistant for Interactive Workflow Composition. In IUI, pages 125–131, 2004. [KY12] A. Kumar and W. Yao. Design and management of flexible process variants using templates and rules. Comput. Ind., 63(2) :112–130, 2012. [KYSR09] E. Kouroshfar, H. Yaghoubi Shahir, and R. Ramsin. Process Patterns for Component-Based Software Development. In CBSE, pages 54–68, 2009. [LK04] K. Lee and K. Kang. Feature Dependency Analysis for Product Line Component Design. In ICSR, pages 69–85, 2004. [LKCC00] K. Lee, K. C. Kang, W. Chae, and B. W. Choi. Featured-Based Approach to Object-Oriented Engineering of Applications for Reuse. Softw. Pract. Exper., 30(9) :1025–1046, 2000. [LRDtHM11] M. La Rosa, M. Dumas, A. H.M. ter Hofstede, and J. Mendling. Configurable Multi-Perspective Business Process Models. Information Systems : Databases : Their Creation, Management and Utilization, 36(2) :313–340, 2011.174 BIBLIOGRAPHIE [LRvdADM13] M. La Rosa,W.M.P. van der Aalst,M. Dumas, and F. P.Milani. Business Process Variability Modeling : A Survey. ACM Computing Surveys, 2013. [LS07] R. Lu and S. Sadiq. On the Discovery of Preferred Work Practice Through Business Process Variants. In ER, pages 165–180, 2007. [Mar03] R. C. Martin. Agile Software Development : Principles, Patterns, and Practices. Prentice Hall/Pearson Education, 2003. [MBF13] S. Mosser and M. Blay-Fornarino. "Adore", a Logical Meta-model Supporting Business Process Evolution. Sci. Comput. Program., 78(8) :1035–1054, 2013. [Mee10] S. Meerkamm. Configuration of Multi-perspectives Variants. In BPM, pages 277–288, 2010. [MHY08] M. Moon, M. Hong, and K. Yeom. Two-Level Variability Analysis for Business Process with Reusability and Extensibility. In COMPSAC, pages 263–270, 2008. [Mor10] B. Morin. Leveraging Models from Design-time to Runtime to Support Dynamic Variability. PhD thesis, University of Rennes 1, 2010. [MRGP08] T. Martínez-Ruiz, F. García, and M. Piattini. Towards a SPEM v2.0 Extension to Define Process Lines Variability Mechanisms. In SERA, pages 115–130, 2008. [MRGPM11] T. Martínez-Ruiz, F. García, M. Piattini, and J. Münch. Modelling Software Process Variability : an Empirical Study. IET Software, 5(2) :172– 187, 2011. [NCH11] T. Nguyen, A. Colman, and J. Han. Modeling and Managing Variability in Process-Based Service Compositions. In ICSOC, pages 404–420, 2011. [Nor08] L. Northrop. Software Product Lines Essentials, 2008. [OAS07] OASIS. Web Services Business Process Execution Language Version 2.0, 2007. [oD11] United States Department of Defense. Technology Readiness Assessment (TRA) Guidance, 2011. [OMG06] OMG. Meta Object Facility (MOF) 2.0 Core Specification, 2006. [OMG08] OMG. Software and Systems Process Engineering Metamodel Speci- fication (SPEM) Version 2, 2008. [OMG10] OMG. Documents associated with Object Constraint Language, Version 2.2, 2010. [OMG11a] OMG. Documents Associated with Business Process Model and Notation (BPMN) Version 2.0, 2011. [OMG11b] OMG. OMG Unified Modeling Language (OMG UML), Infrastructure Version 2.4.1, 2011.BIBLIOGRAPHIE 175 [OMG11c] OMG. OMG Unified Modeling Language (OMG UML), Superstructure Version 2.4.1, 2011. [OMG12] OMG. Diagram Definition (DD) Version 1.0, 2012. [Ost87] L. Osterweil. Software Processes are Software Too. In ICSE, pages 2–13, 1987. [PBL05] K. Pohl, G. Böckle, and F. J. van der Linden. Software Product Line Engineering : Foundations, Principles and Techniques. Springer, 2005. [PEM95] G. Pérez, K. Emam, and N. H. Madhavji. Customising Software Process Models. In SPT, pages 70–78, 1995. [PS05] V. Pankratius and W. Stucky. A Formal Foundation for Workflow Composition, Workflow View Definition, and Workflow Normalization Based on Petri Nets. In APCCM, pages 79–88, 2005. [PSWW05] F. Puhlmann, A. Schnieders, J. Weiland, and M. Weske. Variability Mechanisms for Process Models. Technical report, PESOA-Report TR 17/2005, Process Family Engineering in Service-Oriented Applications (PESOA), 2005. [RBJ07] R. Ramos, O. Barais, and J.M. Jézéquel. Matching Model-Snippets. In MoDELS 07, pages 121–135, 2007. [RBSS09] I. Reinhartz-Berger, P. Soffer, and A. Sturm. Organisational reference models : Supporting an adequate design of local business processes. International Journal of Business Process Integration and Management, 4(2) :134–149, 2009. [RBSS10] I. Reinhartz-Berger, P. Soffer, and A. Sturm. Extending the Adaptability of Reference Models. IEEE Transactions on Systems, Man and Cybernetics, Part A : Systems and Humans, 40(5) :1045–1056, 2010. [RCB+11] E. Rouillé, B. Combemale, O. Barais, D. Touzet, and J.-M. Jézéquel. Bridging the Gap between Software Process and Software Development. In IDM, pages 103–108, 2011. [RCB+12] E. Rouillé, B. Combemale, O. Barais, D. Touzet, and J.-M. Jézéquel. Leveraging CVL to Manage Variability in Software Process Lines. In APSEC, pages 148–157, 2012. [RCB+13a] E. Rouillé, B. Combemale, O. Barais, D. Touzet, and J.-M. Jézéquel. Improving Reusability in Software Process Lines. In SEAA, pages 90–94, 2013. [RCB+13b] E. Rouillé, B. Combemale, O. Barais, D. Touzet, and J.-M. Jézéquel. Integrating Software Process Reuse and Automation. In APSEC, pages 380–387, 2013. [RDH+08] M. Rosa, M. Dumas, A. H. Hofstede, J. Mendling, and F. Gottschalk. Beyond Control-Flow : Extending Business Process Configuration to Roles and Objects. In ER, pages 199–215, 2008.176 BIBLIOGRAPHIE [RGC04] F. Ruiz-Gonzalez and G. Canfora. Software Process : Characteristics, Technology and Environments. UPGrade, The European Journal for the Informatics Professional, 5(5) :6–10, 2004. [RHEdA05] N. Russell, A. H. M. Hofstede, D. Edmond, and W. M. P. der Aalst. Workflow Data Patterns : Identification, Representation and Tool Support. In ER, pages 353–368, 2005. [RK08] M. Razavian and R. Khosravi. Modeling Variability in Business Process Models Using UML. In ITNG, pages 82–87, 2008. [RMvdT09] H. A. Reijers, R. S. Mans, and R. A. van der Toorn. Improved Model Management with Aggregated Business Process Models. Data Knowledge Engineering, 168(2) :221–243, 2009. [Rom05] H. D. Rombach. Integrated Software Process and Product Lines. In ISPW, pages 83–90, 2005. [Roy87] W. W. Royce. Managing the Development of Large Software Systems : Concepts and Techniques. In ICSE, pages 328–338, 1987. [RTM10] S. H. Ripon, K. H. Talukder, and M. K. I. Molla. Modelling Variability for System Families. Malaysian Journal of Computer Science, 16(1) :37– 46, 2010. [RvdA07] M. Rosemann and W. M. P. van der Aalst. A Configurable Reference Modelling Language. Information Systems, 32(1) :1–23, 2007. [SA09] A. Sadovykh and A. Abherve. MDE Project Execution Support via SPEM Process Enactment. In MDTPI, 2009. [SB11] J. Simmonds and M. C. Bastarrica. Modeling Variability in Software Process Lines. Technical report, Universidad de Chile, 2011. [SBPM09] D. Steinberg, F. Budinsky, M Paternostro, and E. Merks. EMF : Eclipse Modeling Framework 2.0. Addison-Wesley Professional, 2009. [Sch00] A.-W. Scheer. Aris-Business Process Modeling. Springer-Verlag New York, Inc., 2000. [SCO07] B. I. Simidchieva, L. A. Clarke, and L. J. Osterweil. Representing Process Variation with a Process Family. In ICSP, pages 109–120, 2007. [SCS10] E. Santos, J. Castro, and O. Sánchez, J.and Pastor. A Goal-Oriented Approach for Variability in BPMN. In WER, pages 17–28, 2010. [SdSSB+10] I. Sharon, M. dos Santos Soares, J. Barjis, J. van den Berg, and J. L. M. Vrancken. A Decision Framework for Selecting a Suitable Software Development Process. In ICEIS, pages 34–43, 2010. [SO98] X. Song and L. J. Osterweil. Engineering Software Design Processes to Guide Process Execution. IEEE Transactions on Software Engineering, 24(9) :759–775, 1998.BIBLIOGRAPHIE 177 [Ter09] T. Ternité. Process Lines : A Product Line Approach Designed for Process Model Development. In SEAA, pages 173–180, 2009. [Tho05] O. Thomas. Understanding the Term Reference Model in Information Systems Research : History, Literature Analysis and Explanation. In BPM, pages 484–496, 2005. [TI93] T. Tamai and A. Itou. Requirements and Design Change in LargeScale Software Development : Analysis from the Viewpoint of Process Backtracking. In ICSE, pages 167–176, 1993. [VDATHKB03] W. M. P. Van Der Aalst, A. H. M. Ter Hofstede, B. Kiepuszewski, and A. P. Barros. Workflow Patterns. Distrib. Parallel Databases, 14(1) :5– 51, 2003. [VG07] M. Voelter and I. Groher. Product Line Implementation using AspectOriented and Model-Driven Software Development. In SPLC, pages 233–242, 2007. [Vis90] W. Visser. More or Less Following a Plan During Design : Opportunistic Deviations in Specification. International Journal of Man-Machine Studies, 33(3) :247–278, 1990. [(WF99] WorkFlow Managment Coalition (WFMC). Terminology & Glossary, Document Number WFMC-TC-1011, 1999. [Wis06] A. Wise. Little-jil 1.5 language report. Technical Report UM-CS-2006- 51, Department of Computer Science, University of Massachusetts, Amherst, MA, 2006. [WKK+11] M. Weidmann, F. Koetter, M. Kintz, D. Schleicher, and R. Mietzner. Adaptive Business Process Modeling in the Internet of Services (ABIS). In ICIW, pages 29–34, 2011. [WL99] D. M. Weiss and C. T. R. Lai. Software Product-Line Engineering : A Family-Based Software Development Process. Addison-Wesley Professional, 1999. [YLL+08] Y. Yu, A. Lapouchnian, S. Liaskos, J. Mylopoulos, and J. C.S.P. Leite. From Goals to High-Variability Software Design. In ISMIS, pages 1–16, 2008. [Zam01] K. Z. Zamli. Process Modeling Languages : A Literature Review. Malaysian Journal of Computer Science, 14(2) :26–37, 2001. [Zhu03] H. Zhuge. Component-based workflow systems development. Decision Support Systems, 35(4) :517 – 536, 2003. [ZXD05] W. Zhongjie, X. Xiaofei, and Z. Dechen. A Component Optimization Design Method Based on Variation Point Decomposition. In SERA, pages 399–406, 2005.178 BIBLIOGRAPHIEListe des figures 2.1 Modèle conceptuel de SPEM . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.2 Structure du métamodèle de SPEM 2.0 [OMG08] . . . . . . . . . . . . . . 19 2.3 Extraits de certains paquetages du métamodèle de SPEM 2.0 . . . . . . . 20 2.4 Syntaxe concrète de SPEM 2.0 et des diagrammes d’activités . . . . . . . 21 2.5 Un processus simplifié de développement Java . . . . . . . . . . . . . . . 22 2.6 Détail de l’activité de développement du processus de la figure 2.5 . . . 22 2.7 Éléments de contenu de méthode du processus simplifié de développement Java de la figure 2.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.8 Principe général de CVL, issu de la spécification de CVL 4 . . . . . . . . 24 2.9 Extrait de la partie abstraction de la variabilité du métamodèle de CVL . 25 2.10 Exemple VAM spécifiant la variabilité d’un site d’achat en ligne . . . . . 26 2.11 Extrait de la partie réalisation de la variabilité du métamodèle de CVL . 27 2.12 VRM de l’exemple de site d’achat en ligne . . . . . . . . . . . . . . . . . . 28 2.13 Extrait de la partie résolution de la variabilité du métamodèle de CVL . 29 2.14 Exemple de RM résolvant le VAM de la figure 2.10 . . . . . . . . . . . . . 29 2.15 Modèle résolu obtenu en fonction des modèles des figures 2.10, 2.12 et 2.14 30 2.16 Exemple de définition d’affectation d’attribut, d’existence de lien et d’existence d’attribut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.17 Modèle résolu obtenu lorsque le choix de la figure 2.16 est sélectionné . 31 2.18 Modèle résolu obtenu lorsque le choix de la figure 2.16 n’est pas sélectionné 31 2.19 Exemple de VAM, VRM et modèle de base pour une substitution de fragment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.20 Modèle résolu obtenu lorsque le classificateur de variabilité de la fi- gure 2.19 est résolu par une seule instance de variabilité . . . . . . . . . . 32 2.21 Modèle résolu obtenu lorsque le classificateur de variabilité de la fi- gure 2.19 est résolu par deux instances de variabilité . . . . . . . . . . . . 32 2.22 Illustration du principe du point de variation composite . . . . . . . . . 33 3.1 Représentation en extension des processus d’une famille [LS07] . . . . . 36 3.2 Un exemple de modèle de processus agrégat [HBR10] . . . . . . . . . . . 44 3.3 Exemple de définition de points de variation et de variantes sur un modèle de processus [MHY08] . . . . . . . . . . . . . . . . . . . . . . . . 47 3.4 Principe général de la contribution principale . . . . . . . . . . . . . . . . 65 4.1 Flot de tâches de l’exemple illustratif de processus de métamodélisation 68 179180 LISTE DES FIGURES 4.2 Ressources de l’exemple illustratif de processus de métamodélisation . . 68 4.3 Partie de la contribution principale réalisée par CVL4SP . . . . . . . . . . 70 4.4 Apperçu de l’approche consistant à utiliser CVL pour gérer la variabilité dans les processus de développement logiciel . . . . . . . . . . . . . . . . 70 4.5 Processus de l’approche consistant à utiliser CVL pour gérer la variabilité dans les processus de développement logiciel . . . . . . . . . . . . . 71 4.6 Eléments de contenu de méthode de l’exemple illustratif . . . . . . . . . 74 4.7 Processus le plus souvent utilisé de l’exemple illustratif . . . . . . . . . . 74 4.8 Eléments de processus externes de l’exemple illustratif . . . . . . . . . . 75 4.9 Extrait du VAM de l’exemple illustratif . . . . . . . . . . . . . . . . . . . 76 4.10 Extrait du VRM de l’exemple illustratif . . . . . . . . . . . . . . . . . . . 77 4.11 Extrait du RM de l’exemple illustratif . . . . . . . . . . . . . . . . . . . . 78 4.12 Modèle de processus résolu . . . . . . . . . . . . . . . . . . . . . . . . . . 79 4.13 Séquence de travail sur-spécifiée . . . . . . . . . . . . . . . . . . . . . . . 82 5.1 Extrait d’un script PowerShell qui automatise la configuration de l’espace de travail d’un développeur . . . . . . . . . . . . . . . . . . . . . . . 87 5.2 Partie de la contribution principale réalisée par M4RAC . . . . . . . . . . 88 5.3 Vue générale de M4RAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 5.4 Première étape de M4RAC . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 5.5 Exemple simplifié de ligne de processus de développement Java . . . . . 90 5.6 Deuxième étape de M4RAC . . . . . . . . . . . . . . . . . . . . . . . . . . 91 5.7 Troisième étape de M4RAC . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.8 Liaison entre le CA configurant l’espace de travail d’un développeur et la ligne de processus de la figure 5.5 . . . . . . . . . . . . . . . . . . . . . 93 5.9 Quatrième étape de M4RAC . . . . . . . . . . . . . . . . . . . . . . . . . . 94 5.10 Liaisons entre les CA permettant de configurer l’espace de travail d’un développeur et la ligne de processus de la figure 5.5 . . . . . . . . . . . . 95 5.11 Cinquième étape de M4RAC . . . . . . . . . . . . . . . . . . . . . . . . . 95 5.12 Extrait du CA automatisant l’étape 1 de la configuration de l’espace de travail d’un développeur, avec SVN . . . . . . . . . . . . . . . . . . . . . 96 5.13 Extrait du CA automatisant l’étape 1 de la configuration de l’espace de travail d’un développeur, avec Git . . . . . . . . . . . . . . . . . . . . . . 96 5.14 Extrait du CA automatisant les étapes 2 à 5 de la configuration de l’espace de travail d’un développeur . . . . . . . . . . . . . . . . . . . . . 97 6.1 Vue générale de l’architecture de T4VASP . . . . . . . . . . . . . . . . . . 108 6.2 Partie de l’approche supportée par les modeleurs de VAM et de VRM . . 110 6.3 Partie de l’approche supportée par les modeleurs de CA abstraits et de liaisons et le framework support à l’implémentation des CA . . . . . . . . 110 6.4 Partie de l’approche supportée par l’assistant à la résolution de la variabilité et le moteur de dérivation CVL . . . . . . . . . . . . . . . . . . . . . 112 6.5 Partie de l’approche supportée par l’interpréteur de processus . . . . . . 113LISTE DES FIGURES 181 6.6 Extrait du VAM de l’exemple illustratif de la famille de processus de modélisation, édité avec le modeleur de VAM . . . . . . . . . . . . . . . . 114 6.7 Extrait du VRM de l’exemple illustratif de la famille de processus de modélisation, édité avec le modeleur de VRM . . . . . . . . . . . . . . . . 114 6.8 Propriétés de l’existence d’objet tree editor de la figure 6.7 . . . . . . . . . 114 6.9 Métamodèle de CA abstraits et de liaisons . . . . . . . . . . . . . . . . . . 115 6.10 Diagramme d’objets représentant un extrait du modèle de CA abstraits et de liaisons de l’exemple illustratif . . . . . . . . . . . . . . . . . . . . . 116 6.11 Extrait du modèle de CA abstraits et de liaisons de l’exemple illustratif de la famille de processus de modélisation, édité avec le modeleur de CA abstraits et de liaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 6.12 Composants du framework . . . . . . . . . . . . . . . . . . . . . . . . . . 117 6.13 Enregistrement auprès du point d’extension activityautomationregistry . . 118 6.14 Comportement du gestionnaire d’informations contextuelles . . . . . . . 119 6.15 Extrait du modèle de contexte d’un processus de métamodélisation avec contrôle de version . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 6.16 Exemple de déclaration par un CA d’informations contextuelles . . . . . 121 6.17 Exemple de demande d’informations contextuelles à l’acteur courant du processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 6.18 Utilisation de l’assistant à la résolution de la variabilité avec l’exemple illustratif de famille de processus de métamodélisation . . . . . . . . . . 123 6.19 Comportement du moteur de dérivation CVL . . . . . . . . . . . . . . . . 124 6.20 Comportement de l’interpréteur de processus . . . . . . . . . . . . . . . . 125 6.21 Détection de variabilité non résolue . . . . . . . . . . . . . . . . . . . . . 126 6.22 Vue processus d’une variante de processus de métamodélisation . . . . . 128 7.1 Point d’entrée du CA permettant de générer un éditeur arborescent . . . 135 7.2 Méthode run de la classe GenerateTreeEditor, appelée par la méthode run de la figure 7.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 7.3 Point d’entrée du CA initialisant la tâche de définition d’un interpréteur 137 7.4 Extrait des méthodes permettant l’initialisation d’un interpréteur Kermeta138 7.5 Modèle de processus résolu du cas d’application de la famille de processus de métamodélisation . . . . . . . . . . . . . . . . . . . . . . . . . . 139 7.6 Un exemple simplifié de processus de développement web Java . . . . . 140 7.7 Code du CA permettant d’installer le plug-in Eclipse Subclipse . . . . . 143 7.8 Code du CA créant un nouveau serveur Tomcat . . . . . . . . . . . . . . 144 A.1 Extrait du VAM de la famille de processus de métamodélisation . . . . . 158 A.2 Extrait du VRM de la famille de processus de métamodélisation . . . . . 159 A.3 Extrait du modèle de liaisons de la famille de processus de métamodé- lisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 A.4 Déclaration de la classe implémentant l’action Java Eclipse CreateEmptyEMFProject . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 A.5 Code de la classe CreateEmptyEMFProjectActivityAutomation . . . . . 161182 LISTE DES FIGURES A.6 Extrait du RM du cas d’application de la famille de processus de métamodélisation de la section 7.1 . . . . . . . . . . . . . . . . . . . . . . . . . 162 B.1 Extrait du VAM de la famille de processus de développement web Java . 163 B.2 Extrait du VRM de la famille de processus de développement web Java . 165 B.3 Extrait du modèle de liaisons de la famille de processus de développement web Java . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 B.4 Déclaration de la classe implémentant l’action Java Eclipse install wtp . . 166 B.5 Information contextuelle du CA installant le plug-in WTP . . . . . . . . 167 B.6 Code de la classe InstallWTP . . . . . . . . . . . . . . . . . . . . . . . . . 167 B.7 Extrait du RM du cas d’application de la famille de processus de développement web Java de la section 7.2 . . . . . . . . . . . . . . . . . . . . . 168Liste des tables 3.1 Évaluation des approches permettant d’identifier le processus correspondant le mieux à un projet . . . . . . . . . . . . . . . . . . . . . . . . . 39 3.2 Évaluation des approches de Lu et Sadiq [LS07] et Song et Osterweil [SO98] 41 3.3 Évaluation des approches apportant un support à la réutilisation de patrons de processus, mais sans permettre la réutilisation automatique de processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.4 Évaluation des approches s’appuyant sur l’ingénierie des lignes de processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.5 Évaluation de l’ensemble des approches supportant la réutilisation des processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 6.1 Exemples de TMR réalisées durant un processus de métamodélisation . 106 7.1 Tableau récapitulatif du nombre d’éléments de modèle et de CA pour chaque cas d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 183184 LISTE DES TABLESListe des publications [RCB+11] E. Rouillé, B. Combemale, O. Barais, D. Touzet, and J.-M. Jézéquel. Bridging the Gap between Software Process and Software Development. In IDM, pages 103–108, 2011. [RCB+12] E. Rouillé, B. Combemale, O. Barais, D. Touzet, and J.-M. Jézéquel. Leveraging CVL to Manage Variability in Software Process Lines. In APSEC, pages 148–157, 2012. [RCB+13a] E. Rouillé, B. Combemale, O. Barais, D. Touzet, and J.-M. Jézéquel. Improving Reusability in Software Process Lines. In SEAA, pages 90–94, 2013. [RCB+13b] E. Rouillé, B. Combemale, O. Barais, D. Touzet, and J.-M. Jézéquel. Integrating Software Process Reuse and Automation. In APSEC, pages 380–387, 2013. 185Résumé De nombreux outils existent afin de faire face à la complexité des logiciels et des projets de développement logiciel. Leur utilisation est cependant à l’origine de tâches manuelles répétitives, sources d’erreurs et coûteuses en temps. L’automatisation de ces tâches permet de gagner en productivité. Mais la difficulté est de déterminer quand une automatisation de tâche manuelle répétitive doit être réutilisée, ainsi que de créer des automatisations réutilisables à travers leurs différents cas d’utilisation. Nous proposons donc une approche outillée pilotant la réutilisation des automatisations de tâches manuelles répétitives par les processus de développement logiciel, où un processus de développement logiciel décrit les étapes à réaliser pour mener à bien un projet de développement logiciel. Cette approche consiste à capitaliser sur un ensemble de processus et à réutiliser des processus de cet ensemble en fonction des exigences des projets, indépendamment du formalisme utilisé pour définir les processus. Des automatisations de tâches manuelles répétitives sont liées aux étapes des processus qu’elles automatisent. Ce lien permet de savoir quelles automatisations utiliser pour un projet donné et quand. Il permet également d’expliciter les différents cas d’utilisation de chaque automatisation. Cette information est utilisée afin de créer des automatisations réutilisables à travers leurs différents cas d’utilisation. L’approche ainsi que l’outillage associé ont été appliqués sur une famille de processus industriels de développement Java ainsi que sur une famille de processus consistant à définir et outiller un langage de modélisation. Abstract Many tools have been developped in order to manage the complexity of the software and of the software development projects. However, using these tools is the source of manual recurrent tasks that are error prone and time consuming. Automating these tasks enables to improve the productivity. But the difficulties are i) to determine when the automation of a manual recurrent task must be used, and ii) to create automations that are reusable across their different use cases. We propose a tool-supported approach that drives the reuse of the automations of the manual recurrent tasks by software processes. A software process defines the sequence of steps to perform in order to realize a software engineering project. This approche consists of capitalizing on a set of software processes and of reusing processes from this set according to projects’ requirements and independently of the formalism used to define the processes. The automations of the manual recurrent tasks are bound to the processes’ steps they automate. This binding enables to know which automations to reuse for a specific project and when to reuse these automations during the project. This binding also enables to explicit the different use cases of each automation. We use this information to create automations that are reusable across their different use cases. We applied this tool-supported approach on a family of Java development processes coming from the industry as well as on a family of processes consisting of designing and implementing a modeling language. Faciliter le d´eveloppement des applications de robotique Selma Kchir To cite this version: Selma Kchir. Faciliter le d´eveloppement des applications de robotique. Robotics. Universit´e Pierre et Marie Curie - Paris VI, 2014. French. . HAL Id: tel-01071062 https://tel.archives-ouvertes.fr/tel-01071062 Submitted on 3 Oct 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.Thèse de doctorat de l’Université Pierre & Marie Curie Spécialité Informatique Ecole Doctorale Informatique, Télécommunications et Électronique (Paris) Présentée par Selma Kchir Pour obtenir le grade de DOCTEUR de l’UNIVERSITÉ PIERRE ET MARIE CURIE Sujet de la thèse Faciliter le développement des applications de robotique Date de soutenance: le 26/06/2014 Devant le jury composé de: M.Xavier Blanc Professeur à l’Université Bordeaux 1 Examinateur M.Noury Bouraqadi Maître de conférences HDR à l’Ecole des mînes de Douai Rapporteur M.Jacques Malenfant Professeur à l’Université Pierre et Marie Curie Examinateur M.Bernard Pottier Professeur à l’Université de Bretagne Occidentale Examinateur M.Amar Ramdane-Chérif Professeur à l’Université de Versailles Saint Quentin en Yvelines Rapporteur M.Serge Stinckwich Maître de conférences à l’Université Caen Co-Encadrant M.Tewfik Ziadi Maître de conférences à l’Université Pierre et Marie Curie Co-Encadrant M.Mikal Ziane Maître de conférences HDR à l’Université Paris Descartes DirecteurTable des matières Table des figures vii Liste des tableaux xi Introduction générale 1 1 Contexte et problèmatique . . . . . . . . . . . . . . . . . . . . . . . . 1 2 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 3 Plan de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 I Etat de l’art 5 La variabilité dans le domaine de la robotique 7 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 3 La variabilité dans le domaine de la robotique . . . . . . . . . . . . . 9 3.1 La variabilité des capteurs . . . . . . . . . . . . . . . . . . . . 9 3.2 La variabilité des effecteurs . . . . . . . . . . . . . . . . . . . 11 3.3 La variabilité dans les architectures de robotique . . . . . . . . 12 3.3.1 Les architectures délibératives . . . . . . . . . . . . . 12 3.3.2 Les architectures réactives . . . . . . . . . . . . . . . 13 3.3.3 Les architectures hybrides . . . . . . . . . . . . . . . 15 3.4 La variabilité dans les algorithmes de robotique . . . . . . . . 15 4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 iTable des matières Les middleware de robotique 19 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2 La gestion de la variabilité dans les middleware de robotique : abstraction du matériel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.1 Player . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.1.1 Description . . . . . . . . . . . . . . . . . . . . . . . 20 2.1.2 Les abstractions du matériel dans Player . . . . . . . 21 2.1.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . 22 2.2 Robot Operating System (ROS) . . . . . . . . . . . . . . . . . 23 2.2.1 Description . . . . . . . . . . . . . . . . . . . . . . . 23 2.2.2 Les abstractions du matériel dans ROS . . . . . . . . 24 2.2.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . 24 2.3 Middleware for Robots (MIRO) . . . . . . . . . . . . . . . . . 25 2.3.1 Description . . . . . . . . . . . . . . . . . . . . . . . 25 2.3.2 Les abstractions du matériel dans MIRO . . . . . . . 27 2.3.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . 28 2.4 Python Robotics (PyRo) . . . . . . . . . . . . . . . . . . . . . 29 2.4.1 Description . . . . . . . . . . . . . . . . . . . . . . . 29 2.4.2 Les abstractions du matériel dans PyRo . . . . . . . 29 2.4.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . 30 3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 Langages de modélisations spécifiques à la robotique 33 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2 Langages de Modélisation Spécifiques aux domaines (DSML) . . . . . 34 2.1 Les techniques d’ingénierie dirigée par les modèles . . . . . . . 35 2.1.1 Les niveaux de modélisation . . . . . . . . . . . . . . 36 2.1.2 Les transformations . . . . . . . . . . . . . . . . . . 38 3 Cycle de vie d’un DSML . . . . . . . . . . . . . . . . . . . . . . . . . 39 3.1 Analyse du domaine . . . . . . . . . . . . . . . . . . . . . . . 40 3.1.1 Les ontologies . . . . . . . . . . . . . . . . . . . . . . 41 3.2 Conception des DSML . . . . . . . . . . . . . . . . . . . . . . 42 3.2.1 Définition de la syntaxe abstraite . . . . . . . . . . . 42 3.2.2 Définition de la syntaxe concrète . . . . . . . . . . . 44 iiTable des matières 3.3 Intégration des plateformes : Transformations et Génération de code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.4 Utilisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 4 Les DSML pour la robotique . . . . . . . . . . . . . . . . . . . . . . . 46 4.1 Exigences des langages de domaine pour la robotique . . . . . 46 4.2 Travaux existants . . . . . . . . . . . . . . . . . . . . . . . . . 47 4.2.1 BRICS Component Model (BCM) . . . . . . . . . . 48 4.2.2 Open Robot Controller Computer Aided Design (ORCCAD) . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.2.3 SmartSoft . . . . . . . . . . . . . . . . . . . . . . . . 51 4.2.4 The 3 View Component Meta-Model (V3CMM) . . . 53 4.2.5 GenoM3 . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.2.6 Robot Technology Component (RTC) . . . . . . . . 56 4.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 II Contributions 61 Robotic Modeling Language (RobotML) 63 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 2 Vue d’ensemble sur le cycle de vie de RobotML . . . . . . . . . . . . 65 3 Analyse du domaine . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4 Conception de RobotML . . . . . . . . . . . . . . . . . . . . . . . . . 69 4.1 Syntaxe abstraite . . . . . . . . . . . . . . . . . . . . . . . . . 69 4.1.1 Le modèle de domaine RobotML : méta-modèle . . . 71 4.1.2 Le profil RobotML . . . . . . . . . . . . . . . . . . . 80 4.2 Syntaxe concrète : L’éditeur graphique de RobotML . . . . . . 82 5 Intégration du middleware OROCOS : génération de code . . . . . . 84 5.1 Génération du squelette d’un composant . . . . . . . . . . . . 85 5.2 Génération de la communication entre les composants . . . . . 86 5.3 Génération du comportement d’un composant . . . . . . . . . 87 6 Utilisation : chaîne d’outillage RobotML . . . . . . . . . . . . . . . . 90 7 Validation et Expérimentations . . . . . . . . . . . . . . . . . . . . . 91 7.1 Scénario de l’AIROARP . . . . . . . . . . . . . . . . . . . . . 92 iiiTable des matières 7.2 Conception du scénario avec RobotML . . . . . . . . . . . . . 92 7.3 Génération de code vers OROCOS . . . . . . . . . . . . . . . 94 8 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique 99 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 2 Approche pour la gestion de la variabilité dans les algorithmes de robotique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 2.1 Identification des abstractions . . . . . . . . . . . . . . . . . . 101 2.2 Identification de l’algorithme générique . . . . . . . . . . . . . 103 2.3 Organisation de l’implantation . . . . . . . . . . . . . . . . . . 104 2.3.1 Implantation des abstractions non algorithmiques . . 105 2.3.2 Implantation des abstractions algorithmiques et de l’algorithme générique . . . . . . . . . . . . . . . . . 106 3 Application sur la famille d’algorithmes Bug . . . . . . . . . . . . . . 108 3.1 La famille d’algorithmes Bug . . . . . . . . . . . . . . . . . . . 108 3.1.1 Bug1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 3.1.2 Bug2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 3.1.3 Alg1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 3.1.4 Alg2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 3.1.5 DistBug . . . . . . . . . . . . . . . . . . . . . . . . . 112 3.1.6 TangentBug . . . . . . . . . . . . . . . . . . . . . . . 114 3.2 Identification des abstractions de la famille Bug . . . . . . . . 114 3.3 Identification de l’algorithme générique de la famille Bug . . . 121 3.4 Organisation de l’implantation de la famille Bug . . . . . . . . 122 3.5 Expérimentations et Validation . . . . . . . . . . . . . . . . . 124 3.5.1 Environnement de simulation : Stage-ROS . . . . . . 125 3.5.2 Configurations des environnements et des capteurs . 126 3.5.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . 127 4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 Conclusion générale et perspectives 131 ivTable des matières Références bibliographiques 135 vTable des figures viTable des figures I.1 Architecture verticale - paradigme hiérarchique (adaptée de [1]) . . 13 I.2 Architecture de subsomption . . . . . . . . . . . . . . . . . . . . . 15 II.3 Communication entre les noeuds ROS . . . . . . . . . . . . . . . . 24 II.4 Le regroupement des capteurs dans PyRO . . . . . . . . . . . . . . 30 III.5 Les différents niveaux de modélisation . . . . . . . . . . . . . . . . 36 III.6 Les artefacts du DSL - extrait de [2] . . . . . . . . . . . . . . . . . 44 III.7 Intégration des plateformes - basé sur [2] . . . . . . . . . . . . . . . 45 III.8 Les concepts de l’OMG appliqués à l’approche BCM - (tiré de [3]) . 48 III.9 Le méta-modèle CPC - (tiré de [3]) . . . . . . . . . . . . . . . . . . 50 III.10 Le méta-modèle RT extrait du méta-modèle d’ORCCAD - (tiré de [4]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 III.11 Le méta-modèle de SmartSoft - (tiré de [5]) . . . . . . . . . . . . . 52 III.12 Méta-modèle V3CMM - tiré de [6] . . . . . . . . . . . . . . . . . . 54 III.13 Architecture de Genom3 . . . . . . . . . . . . . . . . . . . . . . . . 55 III.14 Composant RTC . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 IV.15 Classification des systèmes dans l’ontologie (extrait de [7]) . . . . . 67 IV.16 Intéraction entre les systèmes dans l’ontologie (extrait de [7]) . . . 68 IV.17 La classe Information dans l’ontologie (extrait de [7]) . . . . . . . . 68 IV.18 RobotML Domain Model . . . . . . . . . . . . . . . . . . . . . . 71 IV.19 RoboticArchitecture Package . . . . . . . . . . . . . . . . . . . . . 72 IV.20 La méta-classe Property . . . . . . . . . . . . . . . . . . . . . . . . 73 viiTable des figures IV.21 Le package RoboticSystem . . . . . . . . . . . . . . . . . . . . . . . 73 IV.22 RobotML Data Types . . . . . . . . . . . . . . . . . . . . . . . . 74 IV.23 physicalData . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 IV.24 Types composés de RobotML . . . . . . . . . . . . . . . . . . . . . 75 IV.25 Types primitifs de RobotML . . . . . . . . . . . . . . . . . . . . . 75 IV.26 Intégration des geometry_msgs de ROS à RobotML . . . . . . . . 76 IV.27 Le package Platform . . . . . . . . . . . . . . . . . . . . . . . . . . 77 IV.28 Le package Deployment . . . . . . . . . . . . . . . . . . . . . . . . 77 IV.29 Le package RoboticBehavior . . . . . . . . . . . . . . . . . . . . . . 78 IV.30 Le package FSM . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 IV.31 Les mécanismes de communication . . . . . . . . . . . . . . . . . . 80 IV.32 Extrait de la partie Architecture : Stéréotypes extensions de la méta-classe Class d’UML . . . . . . . . . . . . . . . . . . . . . . . 81 IV.33 Extrait de la partie communication : Stéréotypes extensions de la méta-classe Port d’UML . . . . . . . . . . . . . . . . . . . . . . . . 82 IV.34 Extrait de la partie Control : Stéréotypes extensions des métaclasses du méta-modèle d’UML . . . . . . . . . . . . . . . . . . . . 82 IV.35 À gauche, les icônes attachées aux stéréotypes, à droite la palette montrant les différentes icônes . . . . . . . . . . . . . . . . . . . . . 83 IV.36 Environnement de modélisation de RobotML . . . . . . . . . . . . 84 IV.37 Génération de code avec OROCOS . . . . . . . . . . . . . . . . . . 90 IV.38 Etapes de modélisation en utilisant RobotML . . . . . . . . . . . . 91 IV.39 Modèle des types de données AIR OARP . . . . . . . . . . . . . . 93 IV.40 Les interfaces du scénario AIR OARP . . . . . . . . . . . . . . . . 94 IV.41 Le composant AvionicSystem . . . . . . . . . . . . . . . . . . . . . 94 IV.42 Le composant CameraSystem . . . . . . . . . . . . . . . . . . . . . 95 IV.43 Modèle du scénario AIR OARP . . . . . . . . . . . . . . . . . . . . 95 V.44 Implantation des abstractions non algorithmiques : adaptateurs . . 106 V.45 Application du pattern Bridge . . . . . . . . . . . . . . . . . . . . . 107 V.46 Application du pattern Template Method . . . . . . . . . . . . . . 108 viiiTable des figures V.47 Le contournement d’obstacle : (1) le robot à droite doit tourner à droite pour se rapprocher de l’obstacle et réduire l’écart entre la distance de sécurité et sa distance actuelle par rapport à l’obstacle. (2) le robot à gauche doit tourner à gauche pour s’éloigner de l’obstacle et réduire l’écart entre la distance de sécurité et sa distance actuelle par rapport à l’obstacle . . . . . . . . . . . . . . . . . . . . 117 V.48 La détection d’obstacle devant, à gauche et à droite du robot avec des capteurs de distance . . . . . . . . . . . . . . . . . . . . . . . . 117 V.49 Exemple de getDistanceRight : la distance retournée est la moyenne des distances détectées parmi tous les rayons émanant du capteur droit du robot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 V.50 Extrait du digramme de classe de la famille Bug . . . . . . . . . . . 124 V.51 Architecture de l’application correspondant à Bug1 . . . . . . . . . 125 V.52 Environnement1 : but inatteignable . . . . . . . . . . . . . . . . . . 126 V.53 Environnement2 : Environnement avec un seul obstacle . . . . . . . 126 V.54 Environnement3 : Environnement avec plusieurs obstacles . . . . . 127 ixListe des tableaux xListe des tableaux I.1 Classification des capteurs inspirée de [8] et de [9] . . . . . . . . . . 10 II.2 Exemple de sensor messages de ROS . . . . . . . . . . . . . . . . . 25 II.3 à gauche le code écrit en fonction du capteur Laser, à droite le code après sa modification avec les Infrarouges . . . . . . . . . . . . . . 26 III.4 Comparaison entre les DSML pour la robotique existants . . . . . . 60 IV.5 Correspondance entre OWL et UML . . . . . . . . . . . . . . . . . 70 IV.6 Correspondance entre le DSL Architecture et les concepts d’OROCOS 86 IV.7 Correspondance entre le DSL Communication et les concepts d’OROCOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 IV.8 Correspondance entre le DSL Communication et les concepts d’OROCOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 IV.9 Correspondance entre le DSL Contrôle et les concepts d’OROCOS . 88 xiIntroduction générale 1 Contexte et problèmatique Les roboticiens sont confrontés à plusieurs difficultés pour le développement de leurs applications en raison de l’hétérogénéïté des concepts de la robotique. En effet, dans le cas de la robotique mobile les roboticiens doivent maîtriser les détails liés aux moyens de locomotion du robot, à sa morphologie ainsi qu’à ses capteurs. De plus, la variabilité du matériel rend les applications de robotique fragiles : un changement du matériel dans une application déjà développée impliquerait la réécriture du code de celle-ci. Il faudrait alors découpler le code de l’application à travers des abstractions de haut niveau afin de la rendre plus stable vis-à-vis des changements du matériel. Pour répondre à ce constat de variabilité du matériel, certains middleware de robotique tels que ROS [10], MIRO [11], PyRO [12] et Player [13] ont proposé des abstractions du matériel pour permettre une montée en niveau d’abstractions par rapport aux détails du matériel. Ces dernières permettent d’encapsuler des données spécifiques au matériel afin de fournir des données de plus haut niveau. Cependant, ces abstractions restent de bas niveau et ne permettent pas une isolation de certains changements dans le matériel. Il serait alors plus simple pour les roboticiens de manipuler, à travers des outils, des concepts qu’ils ont l’habitude d’utiliser et qui soient de plus haut niveau que ceux proposés par les middleware. Dans cette optique qui vise à définir des abstractions de haut niveau pour les applications de robotique et à faciliter leur développement, les langages de modélisation spécifiques au domaine (en anglais DSML : Domain Specific Modeling Language) offrent à travers des notations appropriées et des abstractions, une puissance expressive axée sur, et généralement limitée à, un domaine particulier [14]. 1Introduction générale Ces abstractions sont définies par les experts du domaine d’application réduisant ainsi le fossé sémantique entre les développeurs et les experts du domaine afin de faciliter le développement des applications du domaine. L’utilisation de l’ingénierie dirigée par les modèles (IDM) (en anglais Model Driven Engineering (MDE)) [15] dans ce contexte permettrait de gérer les problèmes de dé- pendance de bas niveau (c.-à-d. variabilité du matériel et des plateformes) à travers des modèles stables basés sur des abstractions du domaine. De plus, la génération automatique de code à partir de ces modèles vers plusieurs plateformes cibles offrirait un gain de temps et une facilité pour le développement des applications de robotique. Plusieurs DSML pour la robotique ont été définis tels que BCM [3], SmartSoft [16] et ORCCAD [4] mais ils s’intéressent essentiellement aux aspects qui relèvent de l’architecture d’une application (architecture à base de composants) et à la communication entre ses composants. Les abstractions utilisées dans ces DSML sont insuffisantes car elles ne permettent pas de représenter tous les concepts d’une application tels qu’ils sont manipulés par les roboticiens. Par ailleurs, ils ne définissent pas d’abstractions pour le matériel. Il faudrait alors convenir d’un ensemble d’abstractions stables qui permettraient de représenter les concepts d’une application de robotique afin de faciliter son développement et garantir son indépendance par rapport aux plateformes cibles. Ces concepts peuvent être des concepts de haut niveau comme ceux proposés par les DSML. Cependant ces derniers manquent souvent de sémantique opérationnelle car ils représentent souvent des concepts généraux du domaine. Il faudrait alors défi- nir des abstractions de haut niveau qui permettent , indépendamment du matériel utilisé, d’obtenir des informations sur l’environnement du robot et de définir des actions de haut niveau d’une part et d’encapsuler les détails algorithmiques d’une application d’une autre part. 2 Contributions Cette thèse tente d’apporter des solutions aux problèmes présentés précédemment. Dans cette optique, nous avons contribué au développement d’un DSML pour la robotique (RobotML) dans le cadre d’un projet ANR, appelé PROTEUS. Les abstractions fournies par RobotML se basent sur une ontologie du domaine de la 2Introduction générale robotique basée sur les connaissances des experts du domaine. Des outils ont été dé- veloppés autour de RobotML permettant la modélisation de scénarios de robotique et une génération automatique de code vers une ou plusieurs plateformes cibles. – Il devient alors facile pour un expert en robotique et même pour des simples utilisateurs débutants en robotique de représenter les scénarios de leurs applications. – Les modèles représentés avec RobotML sont stables et indépendants des plateformes cibles. – La génération de code à partir de RobotML se fait vers une ou plusieurs plateformes hétérogènes (c.-à-d. simulateurs ou robots réels d’une part et middleware d’une autre part) et permet d’obtenir une application compilable ainsi que les artefacts nécessaires pour son exécution. Cependant, les expériementations basées sur RobotML ont montré que les abstractions du domaine définies dans l’ontologie sont insuffisantes. En effet, les abstractions de l’ontologie sont basées sur les connaissances du domaine et non pas sur plusieurs itérations appliquées sur des exemples concrets. Par conséquent, elles manquent de sémantique opérationnelle et sont trop générales pour pouvoir être utilisées pour la définition d’abstractions du matériel par exemple. Il faudrait alors partir d’exemples concrets et appliquer une approche complémentaire pour enrichir les abstractions du domaine avec des abstractions a posteriori. Nous avons donc proposé une approche qui, à partir de la description d’une tâche de robotique et des hypothèses sur l’environnement et sur les capacités du robot, produit : – un ensemble d’abstractions non algorithmiques représentant des requêtes sur l’environnement y compris le robot ou des actions de haut niveau ; – un ensemble d’abstractions algorithmiques représentant un ensemble d’instructions permettant de réaliser une sous-tâche de la tâche à développer ; – un algorithme générique configurable défini en fonction de ces abstractions. Ainsi, l’impact du changement du matériel et des stratégies définies dans les soustâches n’est pas très important. Il suffit d’adapter l’implantation de ces abstractions sans avoir à modifier l’algorithme générique. 3Introduction générale 3 Plan de la thèse Cette thèse s’organise comme suit : Le chapitre 1 présente tout d’abord le contexte de ce travail : la variabilité dans le domaine de la robotique. Nous pré- senterons les différentes catégories des capteurs, des effecteurs, des architectures de robotique et des algorithmes de robotique. Nous dresserons ensuite dans le chapitre 2 un état de l’art sur les abstractions proposées par certains des middlewares de robotique existants pour répondre au problème de la variabilité du matériel. Nous présenterons ensuite dans le chapitre 3 les DSML de robotique proposés pour faciliter le développement des applications de robotique et garantir leur indépendance par rapport aux plateformes cibles. Nous présenterons notre DSML pour la robotique (RobotML) ainsi que la génération de code vers un middleware de robotique (OROCOS) et un scénario que nous avons utilisé pour la validation de nos travaux dans le chapitre 4. Notre approche pour la définition des abstractions pertinentes et d’un algorithme générique à partir de la description d’une tâche de robotique ainsi que son application sur une famille d’algorithmes de navigation sera présentée dans le chapitre 5. Nous concluerons cette thèse par un rappel de nos contributions et des discussions sur les perspectives. 4Première partie Etat de l’art 5La variabilité dans le domaine de la robotique 1 Introduction La robotique mobile désigne l’étude des robots à base mobile qui, par opposition aux robots marcheurs, aux robots manipulateurs ou encore aux robots aériens, sont des robots ayant pour moyen de locomotion des roues. Les définitions du terme robot dans la littérature sont diverses, quelquefois très générales comme la définition de Brady [17] ”[...] une connexion intelligente entre la perception et l’action”. Arkin [1], quant à lui, a donné une définition plus spécifique ”Un robot intelligent mobile est une machine capable d’extraire des informations sur son environnement et d’utiliser les connaissances sur son monde afin de se déplacer de manière significative et en toute sécurité”. Par sa définition, Arkin explique qu’il existe une connexion entre la perception et l’action ; deux concepts fondamentaux en robotique qui varient d’un robot à l’autre. Cette connexion n’est autre que le système de contrôle du robot qui définit un ensemble de fonctions permettant au robot d’atteindre le but de sa mission. La perception, l’action et le système de contrôle forment une application de robotique. On peut parler alors de plusieurs types de variabilités : la variabilité liée à la perception, à l’action et au contrôle du robot qui concerne les aspects architecturaux d’une application. Dans ce chapitre, nous nous proposons de présenter les concepts de la robotique que nous allons utiliser tout au long de cette thèse ainsi que les principaux types de variabilité en robotique. 7Chapitre I. La variabilité dans le domaine de la robotique 2 Définitions En raison de la diversité des définitions présentes dans la littérature, nous nous proposons dans cette section de présenter les définitions des concepts que nous utiliserons tout au long de cette thèse. Nous nous plaçons dans le contexte de la robotique mobile non humanoïde où les robots sont équipés de capteurs et d’effecteurs afin d’intéragir avec leur environnement. Definition 1 (Robot mobile autonome). Un robot mobile autonome est un robot intelligent capable d’exécuter une tâche sans l’intervention des humains, il est capable de percevoir l’état de son environnement et de se déplacer dans celui-ci afin d’accomplir une tâche particulière (définition adaptée de la définition d’Arkin [1]). Definition 2 (Perception). La perception est l’extraction d’informations sensorielles, à partir des capteurs, indiquant l’état du robot dans son environnement. Definition 3 (Action). L’action est l’interprétation des données sensorielles ou de directives envoyées par le système de contrôle du robot en commandes envoyées aux effecteurs du robot. Definition 4 (Tâche). Une tâche est constituée d’un ensemble d’actions permettant au robot d’accomplir un but ou un sous-but. Definition 5 (Planification). La planification est l’analyse d’une séquence d’actions primitives afin de réduire l’écart entre l’état actuel du robot et le but qu’il doit atteindre. (définition adaptée de Nilsson [18] et du paradigme General Problem Solver [19]). Definition 6 (Système de contrôle). Le système de contrôle du robot est le système responsable de coordonner les parties perception et action du robot afin de réaliser une tâche particulière. Definition 7 (Paradigme). Un paradigme est une philosophie ou un ensemble d’hypothèses et/ou de techniques qui caractérisent une approche pour une classe de problèmes [20]. Definition 8 (Architecture). Une architecture de robotique est une discipline consracrée à la conception de robots hautement spécifiques et individuels à partir d’une collection de modules logiciels communs [1]. Une architecture est un pattern pour l’implémentation d’un paradigme [20]. 8I.3 La variabilité dans le domaine de la robotique Definition 9 (Middleware). Un middleware est une couche d’abstraction entre le système d’exploitation et l’application [21]. Definition 10 (Variabilité). La variabilité désigne l’étendue des différentes catégories que peut prendre un concept. En robotique, on trouve de la variabilité dans les capteurs, dans les effecteurs, dans les algorithmes, dans les architectures, etc. 3 La variabilité dans le domaine de la robotique Dans cette section, nous présentons la variabilité dans les concepts présentés dans la section précédente. La variabilité désigne la diversité des catégories ou des classifications pour un concept donné (une tâche, un capteur, un effecteur, un environnement, etc). 3.1 La variabilité des capteurs La perception, comme nous l’avons définie précédemment, est l’extraction d’informations de l’environnement du robot à travers ses capteurs. Le choix des capteurs dépend de la nature des informations dont le robot a besoin pour accomplir sa tâche. Les capteurs sont des dispositifs qui répondent à un signal ou à un stimulus. Un stimulus est une quantité, une propriété ou une condition détectée et convertie en un signal électrique [22]. À la différence des transducteurs qui convertissent un type d’énergie en un autre type d’énergie, les capteurs convertissent une énergie en un signal électrique. Dans la littérature, les capteurs sont généralement regroupés selon deux principales catégories : proprioceptifs ou exteroceptifs. – Les capteurs proprioceptifs mesurent l’état interne du robot. Comme par exemple, la vitesse du moteur, le niveau de batterie, etc. – Les capteurs exteroceptifs récupèrent les informations à partir de l’environnement du robot. Par exemple, l’intensité de la lumière, une mesure de distance, etc. Les capteurs sont également classés relativement à la nature de leur fonctionnement : – Les capteurs passifs mesurent l’énergie présente dans l’environnement, par exemple les microphones, les sondes de température, etc. – Les capteurs actifs émettent une énergie dans l’environnement et mesurent la réaction de l’environnement à celle-ci. 9Chapitre I. La variabilité dans le domaine de la robotique Une autre classification des capteurs dans la littérature dépend des données que les capteurs peuvent mesurer (stimulus), leurs spécifications, le mécanisme de conversion qu’ils utilisent et le matériel à partir duquel ils sont conçus [22]. Par exemple dans le cas des capteurs à portée (appelés aussi capteurs à rayons), nous notons une variabilité par rapport à la portée des capteurs, aux nombres de rayons, à la largeur du (ou des) rayons dont ils disposent, au champs de vision (Field of view) des capteurs, etc. Classification Capteurs Type Capteurs de localisation GPS exteroceptif actif Odométrie proprioceptif actif Capteurs à rayons Laser exteroceptif actif Infrarouge exteroceptif actif Ultrasonic exteroceptif actif Capteurs basés sur la vision Caméra exteroceptif passif Capteurs Moteur/Roues encodeurs inductifs proprioceptif passif Capteurs tactiles Bumpers, Contact switches exteroceptif passif Table I.1 – Classification des capteurs inspirée de [8] et de [9] Le tableau I.1 montre quelques exemples de capteurs proprioceptifs et exteroceptifs. Typiquement, le cas du GPS et de l’odométrie qui tous deux, servent à la localisation du robot mais ne sont pas de la même nature. La localisation consiste à indiquer la position du robot et son orientation. – l’Odométrie : Les roues motrices d’un robot sont habituellement associées à un servomoteur. Celui-ci est équipé d’un dispositif de mesure de rotation, il s’agit d’un capteur proprioceptif appelé odomètre. L’odométrie est le moyen de localisation le plus simple qui permet d’estimer la position d’un robot mobile en mouvement. À une position donnée correspondent une multitude d’orientations possibles du robot. L’orientation du robot ne peut s’obtenir qu’en connaissant son orientation de départ ainsi que son évolution sur sa trajectoire. L’utilisation de l’odométrie est basée sur l’hypothèse de roue sans glissement (contrainte non holonomique que nous présenterons dans la section suivante) et sur la supposition que les paramètres géométriques du robot sont parfaitement connus. 10I.3 La variabilité dans le domaine de la robotique – Global Positionning System (GPS) : est un système de géolocalisation qui effectue des émissions synchronisées dans le temps à des satellites. A l’aide des messages émis aux satellites, le récepteur peut calculer sa position. Le principe de calcul de la position s’appuye sur le principe de la triangulation (calcul de la distance par rapport à 3 satellites). Néanmoins, des imprécisions de la mesure du temps peuvent se produire résultant du décalage entre les horloges des satellites (très précises) et les horloges des récepteurs (moins précises). Un quatrième satellite est donc nécessaire afin d’assurer la robustesse de la mesure. Le GPS permet une localisation approximative (à quelques mètres près). En robotique, une méthode différentielle est utilisée pour obtenir des résultats plus précis. La localisation se fait alors à l’aide de deux récepteurs dont l’un est statique et positionné avec précision dans l’environnement. La précision devient alors meilleure. L’utilisation du GPS impose la navigation à l’extérieur en raison de la présence de satellites. Les applications de robotique sont implémentées en fonction des capteurs qu’elles utilisent. La variabilité des capteurs rend ces applications fragiles aux changements du matériel. D’un point de vue conceptuel, séparer l’acquisition des données du traitement de celles-ci est une étape importante pour assurer la pérennité et la consistence des applications de robotique. 3.2 La variabilité des effecteurs Un robot agit sur son environnement à travers ses effecteurs. Dans la littérature, un effecteur (appelé aussi actionneur), à l’opposé d’un capteur, convertit un signal électrique en une énergie non électrique ou un phénomène physique [22]. Par exemple, un moteur convertit un signal en une action mécanique. L’étude détaillée des effecteurs, qui relève à la fois de la cinématique, de la mécanique et l’électronique ne sera pas présentée ici. Nous nous intéresserons dans cette section aux mouvements des robots mobiles. Les robots mobiles sont généralement équipés par des roues. Chaque roue contribue au mouvement du robot et impose des contraintes sur le mouvement de celui-ci. Par conséquent, les contraintes définies sur les roues combinent les contraintes définies sur chaque roue individuelle [8]. Les mouvements des robots sont traditionnellement classés en deux catégories : les robots holonomes et les robots non-holonomes [23]. 11Chapitre I. La variabilité dans le domaine de la robotique Les robots de type holonomes n’ont pas de restriction sur le déplacement contrairement aux robots de type non-holonomes qui possèdent des contraintes cinématiques sur leurs mouvements. Lorsque le contact entre le robot et le sol est ponctuel et que les roues sont indéfomables, celà se traduit mathématiquement par une vitesse nulle entre le sol et la roue. Il s’agit de contraintes de roue sans glissement. Ces contraintes sont des contraintes non holonomes. L’existence de contraintes non-holonomes implique que le robot ne peut pas effectuer certains mouvements instantanément, il doit manoeuvrer. Les robots mobiles à roues sont typiquement des systèmes nonholonomes. Cette contrainte représente aussi une variabilité car la vitesse de rotation ou d’avancement des effecteurs diffère non seulement selon l’environnement dans lequel se trouve le robot mais aussi selon le chemin que ce dernier doit suivre. De même que pour les capteurs, les applications de robotique sont généralement écrites en fonction des effecteurs du robot. Par conséquent, un découplage du code de l’application des détails des effecteurs du robot rendrait les applications résistantes aux changements des robots plus généralement et des effecteurs plus particulièrement. 3.3 La variabilité dans les architectures de robotique Le but de choisir une architecture de robotique est de rendre la programmation d’un robot plus facile, plus flexible et plus sûre [24]. Les architectures de robotique permettent de définir la façon dont le robot doit agir de façon à satisfaire le but de sa mission. Dans cette section, nous présentons les différentes architectures définies dans la littérature. 3.3.1 Les architectures délibératives Les architectures de robotique ont apparu à la fin des années 60 avec le paradigme hiérarchique (sense-plan-act) [18] (perception - planification - action) : le robot pense d’abord puis agit. La perception dans ce cas consiste à la traduction des informations sensorielles et cognitives en un modèle du monde [18, 25, 26]. À partir de ce modèle, le planificateur détermine quelles sont les actions à effectuer et renvoie les commandes à exécuter aux effecteurs. Le schéma de cette architecture est donné par la figure I.1. Parmi les architectures hiérarchiques/délibératives, 12I.3 La variabilité dans le domaine de la robotique nous citons NASREM (The NASA Standard Reference Model for Telerobot Control System) [27] développée par la NASA au milieu des années 80. Figure I.1 – Architecture verticale - paradigme hiérarchique (adaptée de [1]) L’architecture délibérative a été adoptée dans les applications de robotique jusqu’au milieu des années 80 lorsqu’il a été constaté que le processus de planification est un processus complexe et non adapté à un environnement dynamique. En effet, le robot reste bloqué jusqu’à la réception des directives du module de planification. De plus, l’exécution d’un plan sans la prise en compte des changements qui peuvent surgir dans l’environnement rend cette architecture non adaptée à un environnement dynamique. C’est pour cette raison que les architectures réactives ont ensuite été définies afin de répondre aux situations où le robot doit agir rapidement. 3.3.2 Les architectures réactives À l’opposé du paradigme Sense-Plan-Act, les architectures réactives s’appuient sur le paradigme réactif Sense-Act (Perception - Action) : le robot ne pense pas mais agit. Un système réactif associe étroitement la perception à l’action sans l’utilisation de représentations abstraites ou d’historique du temps [1]. Le robot ne se base plus sur le modèle de son monde mais uniquement sur des collections de conditions/actions définies à partir des données des capteurs. Cette architecture est adaptée aux environnements où le robot doit agir rapidement, typiquement dans le cas des environnements dynamiques. Les architectures basées sur le comportement ont également été définies pour pallier aux problèmes des paradigmes hiérarchiques. Ces architectures sont souvent confondues avec les architectures réactives dans la littérature, notamment dans [28]. Cette confusion découle de l’utilisation des architectures basées sur le comportement de comportements réactifs dans la plupart des cas (même si la définition d’un comportement est plus sophistiquée que la définition d’une action dans les architectures réactives [29]). Un comportement est défini comme une activité primitive [30] 13Chapitre I. La variabilité dans le domaine de la robotique qui prend en entrée les données des capteurs et retourne une action à effectuer (principe de stimulus/réponse). Il peut être exprimé avec un triplet (S, R, β) où S est le stimulus, R est la réponse et β est le lien S− > R [1]. La définition et l’extraction de ces comportements ont fait l’objet de plusieurs travaux et plusieurs approches ont été définies notamment l’approche éthologique (basée sur l’observation des comportements des animaux) [30, 31], l’approche guidée par les expérimentations (consistant à définir un comportement basique et à ajouter d’autres comportements ou à raffiner les comportements définis) [32] et l’approche dirigée par les buts, etc. Afin d’assember les comportements, plusieurs approches ont été définies dont l’approche compétitive. Dans l’approche compétitive, on distingue 3 approches différentes : – La coordination basée sur la priorité [33] : Le système d’arbitrage sélectionne la réponse envoyée par le comportement ayant la priorité la plus élevée. – La coordination basée sur le vote [34] : Chaque comportement retourne un vote à une réponse et la réponse ayant le plus de votes est exécutée. – La coordination basée sur la sélection des actions [35] : Tous les comportements retournent leurs réponses à l’arbitre qui se charge de sélectionner la réponse majoritaire. Parmi les architectures basées sur le comportement, l’architecture de subsomption(subsumption architecture), proposée par Brooks [30, 32, 33] vers la fin des années 80 est une architecture purement réactive. C’est une architecture incrémentale bottom-up (du bas vers le haut) allant du comportement le plus basique (placé en bas) vers le comportement ayant le degré de compétence le plus élevé (placé en haut). Chaque comportement est modulaire et est représenté par une machine à états finis. L’architecture de subsomption s’appuye sur la notion de parallélisme, elle permet l’exécution simultanée de plusieurs comportements qui interrogent les mêmes capteurs et agissent sur les mêmes effecteurs. Le mécanisme de coordination utilisé est un mécanisme compétitif ayant un système d’arbitrage basé sur la priorité à travers l’inhibition et la suppression comme le montre la figure I.2. Un comportement peut supprimer les sorties d’un autre comportement (cercle avec un S), dans ce cas le comportement dominant remplace les sorties de l’autre comportement par ses propores commandes. Un comportement peut également inhiber (cercle avec un I) les sorties d’un autre comportement en les bloquant. L’architecture de subsomption ne permet pas l’utilisation de comportements indépendants. En effet, il y a une dépendance entre les comportements qui permet de 14I.3 La variabilité dans le domaine de la robotique Figure I.2 – Architecture de subsomption savoir comment les placer dans l’architecture (toujours en suivant un ordre de priorité). Malgré leurs avantages, les architectures basées sur le comportement ne sont pas adaptées à tous les types d’environnements. Il est difficile d’avoir la localisation du robot dans le modèle de son monde et ses connaissances par rapport à son monde sont limitées voire inexistantes [1]. 3.3.3 Les architectures hybrides L’architecture hybride a ensuite été définie afin de combiner les meilleurs aspects de l’architecture délibérative et de celle basée sur le comportement en utilisant le paradigme Plan, Sense-Act (Plannification, Perception-Action). La plannification est effectuée en une étape, la perception et l’action sont effectuées ensemble. L’architecture hybride comporte un système réactif pour le contrôle de bas niveau et un système délibératif de haut niveau pour la prise de décisions. L’architecture hybride a émergé au début des années 90 avec l’architecture AuRA [36] [37] (Autonomous Robot Architecture). Chaque application de robotique utilise une architecture particulière. Dans certains systèmes existants, il est difficile de comprendre l’architecture utilisée. En effet, l’architecture et l’implémentation spécifique au domaine (à la plateforme, au langage, etc.) sont souvent liées brouillant ainsi le style architectural utilisé [24]. Il est donc important de séparer l’architecture des détails de l’implémentation afin de garantir la modularité des composants architecturaux. 3.4 La variabilité dans les algorithmes de robotique Un autre type de variabilité concerne les algorithmes. Elle est souvent relative aux différentes variantes d’une famille d’algorithmes. Prenons le cas d’une tâche de navigation. La navigation est l’une des capacités les plus importantes des robots 15Chapitre I. La variabilité dans le domaine de la robotique mobiles. Le problème de la navigation consiste principalement à trouver un chemin sans collision pour se déplacer d’un point donné vers un autre point ou tout simplement à explorer un environnement tout en évitant les obstacles présents dans celui-ci. Il existe une grande variété de travaux permettant d’aborder le problème de la navigation. D’une façon générale, on peut distinguer deux types de navigation : – La navigation dans un environnement connu (avec un modèle du monde). Le robot dispose du modèle de son monde et planifie par conséquent les actions à exécuter pour se déplacer dans celui-ci. On retrouve alors le paradigme hié- rarchique ou le paradigme hybride. – La navigation dans un environnement inconnu. Elle consiste à appliquer un ensemble de comportements réactifs dont on estime que l’enchaînement peut permettre au robot d’atteindre son but. Par exemple, le contournement d’obstacle, la poursuite de chemin, etc. La navigation requiert des fonctionnalités que le robot doit être capable d’effectuer notamment, la localisation (qui permet au robot de se positionner dans son environnement s’il dispose du modèle de celui-ci ou par rapport à son but ou à sa position de départ) et l’évitement d’obstacles. Il existe diverses stratégies pour l’évitement d’obstacles. Ces obstacles peuvent être de formes inconnues et placés de façon arbitraire dans l’environnement du robot. Ainsi, même avec un ensemble d’hypothèses très simplifiées comme le cas de la famille Bug [38] (voir section 3.1 - chapitre 5), qui comporte environ vingt variantes, il n’est pas évident de comprendre ces algorithmes ou même de les comparer entre eux afin de décider quel algorithme est le plus efficace dans un environnement donné. Si nous pouvions utiliser une seule implémentation d’un algorithme, la comparaison entre les variantes de cet algorithme devient simple et significative. 4 Conclusion Nous avons présenté dans ce chapitre les principaux concepts de la robotique. Nous avons vu également les différents types de variabilité en robotique. Cette variabilité a un impact sur les applications de robotique les rendant ainsi – difficiles à développer car le roboticien doit maîtriser les détails des capteurs, des effecteurs et de la tâche qu’il doit développer. 16I.4 Conclusion – fragiles car elles sont dépendantes des détails de bas niveau du matériel donc le changement de matériel a un impact important sur le code de l’application. – difficiles à comprendre car elles sont confondues avec les détails d’implé- mentation des plateformes sous lesquelles elles sont développées. Nous verrons dans le chapitre suivant comment certains middleware ont tenté de pallier la dépendance des applications de robotique au matériel en proposant des abstractions du matériel. 17Chapitre I. La variabilité dans le domaine de la robotique 18Les middleware de robotique 1 Introduction Nous avons présenté dans le chapitre précédent la variabilité dans les concepts qui composent une application de robotique. Cette variabilité, notamment la variabilité du matériel, a orienté la conception de certains middleware de robotique pour (1) simplifier le processus de développement de ces applications (2) rendre ces applications indépendantes des détails du matériel (3) assurer la connexion entre les différents modules d’une application distribuée. Bakken [39] définit un middleware comme étant : “[...] une classe de technologies logicielles conçues pour aider à la gestion de la complexité et l’hétérogénéïté dans les systèmes distribués [...] Il fournit des abstractions de plus haut niveau que les APIs (Application Programming Interfaces) comme les sockets (fournies par le système d’exploitation)”. Des études détaillées qui présentent les middleware de robotique, leurs architectures ainsi que leurs propriétés peuvent être trouvées dans [21, 40, 41]. Dans ce chapitre, nous ne présenterons pas l’aspect communication des middleware mais nous nous intéresserons particulièrement à l’abstraction du matériel dans les middlewares de robotique pour la gestion de la variabilité de bas niveau. Nous présentons la description de certains des middlewares les plus utilisés en robotique : Player [13, 42], ROS [10, 43], MIRO [11] et PyRo [12, 44] ainsi que les abstractions du matériel qu’ils proposent et une discussion sur l’impact du changement du matériel illustrée sur un exemple d’évitement d’obstacles. 19Chapitre II. Les middleware de robotique 2 La gestion de la variabilité dans les middleware de robotique : abstraction du matériel Selon [21, 41], idéalement les middleware de robotique devraient permettre la communication et l’interopérabilité des modules robotiques. Ces derniers étant implantés par des développeurs différents, il est difficile de les faire interagir entre eux. Un middleware doit donc supporter l’intégration des composants et des dispositifs de bas niveau du robot, assurer une utilisation efficace des ressources disponibles et supporter l’intégration avec les autres systèmes. Comme nous l’avons mentionné précédemment, les aspects qui relèvent de la communication et des systèmes distribués ne font pas l’objet de ce travail. Nous nous intéressons essentiellement à la gestion de la variabilité du matériel. Certains middleware de robotique ont défini des données abstraites afin d’encapsuler les détails spécifiques au matériel utilisé. Dans cette section, nous présentons pour chaque middleware sa description, les abstractions du matériel proposées dans celui-ci ainsi qu’une discussion qui montre l’impact du changement du matériel sur un exemple d’évitement d’obstacles. 2.1 Player 2.1.1 Description Le but de Player [13, 42] consiste à permettre l’exécution des mêmes applications aussi bien en simulation que sur des robots réels. Il fournit un framework de développement supportant différents périphériques matériels 1 , des services communs requis pas les applications robotiques et transfère un contrôleur de la simulation à des robots réels avec le minimum d’effort possible [21]. Un programme client communique avec Player, qui s’exécute sur le robot, à l’aide d’une connexion de socket TCP pour le transfert de données. Player contient trois modèles : – Le modèle dispositif (Character device). Les character devices sont des dispositifs qui fournissent et consomment des flots de données au fil du temps. C’est typiquement le cas des capteurs et des effecteurs. L’interface Character device définit des opérations (open, close, read, write, etc.) pour l’accès et le contrôle des capteurs et des effecteurs. 1. http://playerstage.sourceforge.net/doc/Player-2.1.0/player/supported_ hardware.html 20II.2 La gestion de la variabilité dans les middleware de robotique : abstraction du matériel – Le modèle Interface/Pilote (Interface/Driver ) : Le modèle interface/driver regroupe les dispositifs selon des fonctionnalités logiques de façon à ce que les dispositifs capables d’effectuer la même fonctionnalité apparaissent d’une fa- çon similaire à l’utilisateur. – Le modèle Client/serveur : Player supporte plusieurs connexions clientes aux dispositifs, créant ainsi des nouvelles possibilités pour la perception et le contrôle collaboratif. 2.1.2 Les abstractions du matériel dans Player Les abstractions du matériel résident dans le modèle Interface/Driver. L’interface est une spécification du contenu des flots de données. Elle fournit un ensemble de messages communs à une certaine classe de dispositifs indépendamment de la plateforme utilisée. Le code qui implémente l’interface et qui convertit le format natif des commandes de l’API de communication en commandes requises par l’interface et inversement est appelé driver. Le modèle Character device relie les flots en entrée du programme aux données des capteurs et les flots de sortie aux commandes des effecteurs. Les drivers sont spéci- fiques aux dispositifs ou à une famille de dispositifs d’un même “vendeur”. Player sépare les fonctionnalités logiques des détails d’implémentation des dispositifs. On peut dire alors que Interface correspond à la notion de classe abstraite regroupant l’ensemble des fonctionnalités d’un type spécifique de capteurs ou d’actionneurs et que Driver est une classe concrète. /* Request and change the device ’s configuration . */ typedef struct player_ranger_config { double min_angle ; /** Start angle of scans [ rad ]. May be unfilled . */ double max_angle ; /** End angle of scans [ rad ]. May be unfilled . */ double angular_res ; /** Scan resolution [ rad ]. May be unfilled . */ double min_range ; /** Minimum range [m ]. */ double max_range ; /** Maximum range [m ]. May be unfilled . */ double range_res ; /** Range resolution [m ]. May be unfilled . */ double frequency ; /** Scanning frequency [ Hz ]. May be unfilled . */ } player_ranger_config_t ; /* The ranger device position , orientation and size . */ typedef struct player_ranger_geom { player_pose3d_t pose ; /** Device centre pose in robot CS [m , m , m , rad , rad , rad ]. */ player_bbox3d_t size ; /** Size of the device [m , m , m ]. */ uint32_t element_poses_count ; /** Number of individual elements that make up the device . */ player_pose3d_t * element_poses ; /** Pose of each individual element that makes up the device ( in device CS ). */ uint32_t element_sizes_count ; /** Number of individual elements that make up the device . */ player_bbox3d_t * element_sizes ; /** Size of each individual element that makes up the device . */ } player_ranger_geom_t ; Listing II.1 – Extrait de l’Interface RangeSensor de Player 21Chapitre II. Les middleware de robotique L’interface Ranger (voir le listing II.1) fournit une API commune aux capteurs de distance. Les attributs min_angle, max_angle, angular_res, min_range, max_angle, range_res et frequency de la structure player_ranger_config permettent de configurer un capteur de distance donné. La structure player_ranger_geom permet de spécifier la géométrie du capteur à configurer. Dans ce qui suit, nous discuterons l’impact du changement du capteur de distance dans un algorithme d’évitement d’obstacles écrit avec Player. 2.1.3 Discussion Le listing II.2 est un exemple d’algorithme d’évitement d’obstacles founi avec Player et programmé en C++ avec un capteur Sonar. Dans cet exemple, le robot avance dans son environnement. Si sa distance par rapport à l’obstacle le plus proche est inférieure à really_min_front_dist (lignes 9-13) il fait demi-tour sinon si cette distance est inférieure à min_front_dist (lignes 14-17), il s’arrête (ligne 27). Supposons maintenant que l’on veuille remplacer dans cet exemple le capteur Sonar par un capteur Laser. Il faudrait remplacer SonarProxy par LaserProxy et décomposer ensuite les rayons contenus dans l’angle de perception du capteur Laser (si leur nombre le permet) en 5 sous-ensembles afin de regrouper les rayons du capteur Laser et les traiter comme les rayons du Sonar. Cela éviterait de modifier le code. 1 PlayerClient robot ( gHostname , gPort ); 2 Position2dProxy pp (& robot , gIndex ); 3 SonarProxy sp (& robot , gIndex ); 4 pp . SetMotorEnable ( true ); 5 double newspeed = 0.0 f , newturnrate = 0.0 f; 6 for (;;) { 7 robot . Read (); 8 avoid = 0; newspeed = 0.200; 9 if ( avoid == 0) { 10 if (( sp [2] < really_min_front_dist ) || ( sp [3] < really_min_front_dist ) || 11 ( sp [4] < really_min_front_dist ) || ( sp [5] < really_min_front_dist )){ 12 avoid = 50; newspeed = -0.100; 13 } 14 else if (( sp [2] < min_front_dist ) || ( sp [3] < min_front_dist ) || 15 ( sp [4] < min_front_dist ) || ( sp [5] < min_front_dist )){ 16 newspeed = 0; avoid = 50; 17 } 18 } 19 if ( avoid > 0){ 20 if (( sp [0] + sp [1]) < ( sp [6] + sp [7])) 21 newturnrate = dtor ( -30); 22 else 23 newturnrate = dtor (30); 24 avoid - -; 25 } 26 else 27 newturnrate = 0; 28 pp . SetSpeed (2 * newspeed , newturnrate ); 29 } Listing II.2 – Evitement d’obstacle avec Sonar 22II.2 La gestion de la variabilité dans les middleware de robotique : abstraction du matériel Cependant cette nouvelle décomposition dépendra de la position des capteurs sur le robot, du nombre de rayons du Laser, etc. Par conséquent, le remplacement d’un capteur par un autre impliquerait une modification du code existant car celui-ci reste écrit en fonction des données de bas niveau du Sonar. En effet, les abstractions de Player sont fournies pour certaines plateformes de robotique mais elles restent de bas niveau [45] : c’est encore au système de contrôle du robot d’interpréter les nombres retournés par les capteurs et envoyés aux effecteurs. Il faudrait encapsuler ces détails de bas niveau afin de séparer les responsabilités liées au traitement des données de celles liées à leur acquisition ou à leur exécution. Cela permettrait de faciliter le développement des applications et de pouvoir gérer les changements éventuels de matériel dans l’application. 2.2 Robot Operating System (ROS) 2.2.1 Description L’un des middlewares les plus communément utilisé dans la communauté robotique de nos jours est ROS [10, 43]. Il supporte l’intégration de modules logiciels indépendants distribués, appelés noeuds (ROS nodes). ROS fournit un ensemble d’outils qui permettent de packager et de déployer (à travers les notions de package et de stack) les applications de robotique. Il fournit également un nombre important de librairies qui implémentent des drivers de capteurs (par exemple : Hokuyo Scanning range finder, Sharp IR range finder, etc) permettant ainsi d’encapsuler les données spécifiques et de fournir certaines fonctionnalités pour les robots (par exemple ROS navigation stack). Les noeuds ROS sont des blocks de code et sont implémentés dans des classes C++ ou Python. Un système ROS est un graphe composé d’un ensemble de noeuds qui communiquent entre eux à travers des messages. Ces messages sont échangés avec le mécanisme Publish/Subscribe de manière asynchrone à travers un bus de communication appelé ROS-Topic [46]. Chaque topic est typpé par le type du message ROS publié dessus. La figure II.3 montre le mécanisme de communication entre 2 noeuds. En dépit de ses nombreux avantages, ROS ne gère pas l’aspect temps-réel, il délègue cet aspect à des middlewares tiers comme OROCOS [47]. Les Topics ROS permettent la communication entre ces 2 middleware. 23Chapitre II. Les middleware de robotique Figure II.3 – Communication entre les noeuds ROS 2.2.2 Les abstractions du matériel dans ROS Les messages ROS [48] sont des structures de données comportant des attributs typpés. L’une des bibliothèques des messages ROS, appelée sensor_msgs, est dé- diée aux capteurs communément utilisés. Ces messages regroupent les propriétés définies pour chaque type de capteurs. Nous citons par exemple les messages sensor_msgs/LaserScan pour les capteurs Laser, les messages sensor_msgs/CameraInfo pour les caméras, les messages sensor_msgs/Range pour les capteurs Infrarouge, etc. En utilisant ces messages, le code de l’application ne dépend pas d’un modèle de capteurs particulier ayant une configuration particulière mais dépend uniquement du type du capteur. Le tableau II.2 montre les deux messages sensor_msgs/LaserScan et sensor_msgs/Range qui sont des capteurs de distance à rayons dont les propriétés diffèrent. Pour le message LaserScan, le header signifie le temps d’acquisition du premier rayon Laser alors que pour le Range, le header signifie le temps d’acquisition de la distance du rayon Infrarouge. Pour le message LaserScan, il est important de spécifier les attributs angles min et max de début et de fin du scan ainsi que l’attribut angle_increment qui indique la distance angulaire entre les mesures. Pour le message Range, il faut spécifier l’attribut filed_of_view qui représente la taille de l’arc où la distance est valide. Ensuite, dans les deux messages, on peut spécifier min_range et max_range qui définissent les valeurs minimales et maximales qui peuvent être perçues. 2.2.3 Discussion Afin de tester les abstractions proposées par ROS, nous avons programmé un code très simple d’un composant d’évitement d’obstacles sous OROCOS qui est un framework temps-réel à base de composants C++ [47] que nous détaillerons dans la section 5. Cet exemple a été développé en fonction d’un capteur Laser en utilisant 24II.2 La gestion de la variabilité dans les middleware de robotique : abstraction du matériel Sensor_msgs/LaserScan.msg Sensor_msgs/Range.msg Header header Header header float32 angle_min uint8 ULTRASOUND=0 float32 angle_max uint8 INFRARED=1 float32 angle_increment uint8 radiation_type float32 time_increment float32 field_of_view float32 scan_time float32 min_range float32 range_min float32 max_range float32 range_max float32 range float32[] ranges float32[] intensities Table II.2 – Exemple de sensor messages de ROS le topic ROS Sensor_msg : :LaserScan. Le principe est simple, si les capteurs droits du robot détectent un obstacle, le robot tourne à gauche. Si les capteurs gauches du robot détectent un obstacle, le robot tourne à droite et s’il n’y a pas d’obstacle le robot avance. Maintenant supposons que l’on veuille réutiliser ce code pour un robot disposant de 2 capteurs Infrarouges. Il faut alors adapter le code pour récupérer les informations des 2 capteurs infrarouges et faire le même traitement de données. Le listing II.3 montre les 2 codes avec Laser et Infrarouge. Le code en gris est le code qui n’a pas été modifié. Le code en bleu représente le code à modifier pour le composant écrit en fonction du capteur Laser et le code en rouge est le code qui a été modifié pour tenir compte des capteurs Infrarouges. L’impact du changement au niveau d’un composant n’est pas très important car l’exemple que nous avons pris est très simple. Imaginons maintenant une application comportant plusieurs composants qui intéragissent entre eux. Il faudrait alors faire des modifications au sein des composants et au niveau des composants avec lesquels ils intéragissent. Ces abstractions sont alors de bas niveau. Il faudrait définir des abstractions qui soient plus indépendantes des caractéristiques du matériel utilisé. 2.3 Middleware for Robots (MIRO) 2.3.1 Description Le but de MIRO est de fournir un framework général pour le développement des applications de robotique [11]. Ce but a été défini après le développement de plusieurs applications sous différentes plateformes de robotique, avec différents langages de programmation et pour différents robots mobiles lorsque les développeurs 25Chapitre II. Les middleware de robotique Capteur Laser Capteurs Infrarouge #include #include #include #include //include Orocos libraries //include Orocos libraries using namespace std ; using namespace std ; using namespace RTT ; using namespace RTT ; class AvoidObstaclesWithLaserScanRobot : class AvoidObstaclesWithIR : public RTT : :TaskContext{ public RTT : :TaskContext{ private : private : InputPortinport ; InputPortinport_infrared_left ; InputPortinport_infrared_rightt ; OutputPort OutputPort public : public : AvoidObstaclesWithLaserScanRobot AvoidObstaclesWithIRRobot (const std : :string& name) : (const std : :string& name) : TaskContext(name), TaskContext(name), inport("laser_in"), inport_infrared_left("infrared_left_in"), inport_infrared_right("infrared_right_in"), outport("twist_out") { outport("twist_out") { ports()->addPort(inport) ; ports()->addPort(inport_infrared_left) ; ports()->addPort(inport_infrared_right) ; ports()->addPort(outport) ; ports()->addPort(outport) ; } } AvoidObstaclesWithLaserScanRobot() {} AvoidObstaclesWithIRRobot() {} } ; } ; private : private : void updateHook() { void updateHook() { sensor_msgs : :LaserScan msg ; sensor_msgs : :Range msg_infrared_left ; sensor_msgs : :Range msg_infrared_right ; geometry_msgs : :Twist cmd ; geometry_msgs : :Twist cmd ; double midA, midB ; double ir_left = -1.0, ir_right = -1.0 ; if (NewData == inport.read(msg)) { if (NewData == inport_infrared_left.read(msg_infrared_left)) ir_left = msg_infrared_left.range ; if(NewData == inport_infrared_right.read(msg_infrared_right)) ir_right = msg_infrared_right.range ; bool halt = false ; bool halt = false ; for (int i = msg.angle_min ; i <= msg.angle_max ; i++) { if ( ((ir_left > msg_infrared_left.min_range) if(msg.ranges[i] < msg.range_max) { && (ir_left < msg_infrared_left.max_range)) || ((ir_right > msg_infrared_right.min_range) && (ir_right < msg_infrared_right.max_range)) ) { halt = true ; halt = true ; break ; } } } if (halt) { if (halt) { midA = std : :accumulate(msg.ranges.begin(),msg.ranges.end()-45, 0) ; midB = std : :accumulate(msg.ranges.begin()+45,msg.ranges.end(), 0) ; if (midA > midB){ cmd.angular.z = -1 ; } if(ir_left > ir_right) { cmd.angular.z = -1 ; } else { cmd.angular.z = 1 ; } else { cmd.angular.z = 1 ; } } } else { else { cmd.linear.x = 1 ; cmd.linear.x = 1 ; outport.write(cmd) ;} outport.write(cmd) ; } } } } ORO_CREATE_COMPONENT(AvoidObstaclesWithLaserScanRobot) ORO_CREATE_COMPONENT(AvoidObstaclesWithIR) Table II.3 – à gauche le code écrit en fonction du capteur Laser, à droite le code après sa modification avec les Infrarouges ont réalisé l’importance de la définition d’un framework général pour éviter de réimplémenter les mêmes applications si on change de robot. MIRO a été conçu et implé- menté en utilisant l’approche orientée objet ainsi que l’architecture du middleware CORBA (Common Object Request Broker Architecture) [49] qui permet d’assurer la communication entre les différents modules du robot et entre plusieurs robots. L’architecture de MIRO est composée de trois couches : – Une couche dispositif (device layer). – Une couche service (service layer). – La classe framework MIRO (MIRO framework class) qui fournit un ensemble 26II.2 La gestion de la variabilité dans les middleware de robotique : abstraction du matériel de modules fonctionnels fréquemment utilisés en robotique comme la localisation, la plannification de chemin, etc. 2.3.2 Les abstractions du matériel dans MIRO Le framework MIRO contient trois couches dont deux qui permettent d’abstraire le matériel utilisé. La couche dispositif encapsule les messages de communication de bas niveau (liés au bus de communication, etc.) dans des appels de méthodes pour l’invocation des services demandés. Cette couche fournit une interface pour les capteurs et les actionneurs d’un robot. Ces derniers sont définis comme des objets qui peuvent être interrogés et controlés par leurs méthodes. La couche dispositif est dépendante des détails des robots et de la plateforme. La couche service fournit des abstractions de services pour les capteurs et les actionneurs à travers l’interface de définition CORBA (CORBA Interface Description Language : IDL) et implémente ensuite ces services d’une manière indépendante des plateformes. L’interface RangeSensor_IDL définie dans le langage IDL permet d’abstraire les données de Laser et de l’infrarouge II.3. 1 interface RangeSensor 2 { 3 /** 4 * The specific sensor is either masked out or didn ’t provide usefull data . 5 */ 6 const long INVALID_RANGE = -2; 7 /** 8 * The scan value is bigger than the maximum distance the range 9 * sensor can measure . 10 */ 11 const long HORIZON_RANGE = -1; 12 //! The range sensor does not send events 13 const long NONE_PUSHING = 0; 14 //! The range sensor sends a full scan with its events ( @ref RangeScanEventIDL ). 15 const long FULL = 1; 16 //! The range sensor sends one sensor group scan with its events ( @ref RangeGroupEventIDL ). 17 const long GROUPWISE = 2; 18 //! The range sensor sends a bunch of sensor readings with its events ( @ref RangeBunchEventIDL ). 19 const long BUNCHWISE = 3; 20 //! Query the layout of a range sensor type . 21 ScanDescriptionIDL getScanDescription (); 22 //! Query a range sensor group . 23 RangeGroupEventIDL getGroup ( in unsigned long id ) raises ( EOutOfBounds ); 24 //! Wait and query a range sensor group . 25 RangeGroupEventIDL getWaitGroup ( in unsigned long id ) raises ( EOutOfBounds , ETimeOut ); 26 //! Query a range sensor . 27 RangeScanEventIDL getFullScan (); 28 //! Wait and query a range sensor . 29 RangeScanEventIDL getWaitFullScan () raises ( ETimeOut ); 30 }; Listing II.3 – Interface RangeSensor_IDL de MIRO 27Chapitre II. Les middleware de robotique 2.3.3 Discussion Le listing II.4 montre un exemple présenté dans les travaux de Krüger et al. [50] programmé en Python en utilisant les interfaces fournies par MIRO. Dans cet exemple, le robot est équipé par des capteurs sonar. Il avance jusqu’à ce que l’obstacle le plus proche détecté soit plus proche que 3000 millimètres, dans ce cas il s’arrête. 1 import pyMiro 2 sonar = pyMiro . getSonar () 3 loko = pyMiro . getMotion () 4 while (1): 5 scan = sonar . getFullScan () 6 front_scan = scan . range [0] 7 if min ( front_scan ) <3000: 8 loko . limp () 9 else : 10 loko . setLRVelocity (50 ,50) Listing II.4 – Evitement d’obstacle avec les abstractions de MIRO L’abstraction getFullScan() (ligne 5) est définie dans l’interface RangeSensor présentée dans la section précédente. L’abstraction limp() est définie dans une interface appelée Motion afin d’abstraire les mouvements des effecteurs, elle représente un arrêt passif (c.-à-d. le robot ne s’arrête pas complètement). Le retour d’expérience de Krüger et al. dans [50] sur l’utilisation de MIRO montre qu’on peut intégrer des nouveaux capteurs à MIRO en implémentant les interfaces fournies mais n’évoque pas le changement de capteur dans les applications existantes. Supposons maintenant que l’on veuille réutiliser ce même code mais avec un capteur Laser. On peut remplacer getSonar() (ligne 2) par getLaser(), scan.rang[0] (ligne 6) par l’identifiant du rayon Laser placé à l’avant du robot et le code fonctionnerait. Cependant, il faut tenir compte de la portée du rayon Laser, de sa position s’il est placé à gauche du centre du robot par exemple, etc. On peut dire que les abstractions de MIRO permettent une intégration de nouveaux capteurs en supposant qu’il remplit toutes les hypothèses sur les besoins du code. Cette intégration implique l’adaptation du code existant et donc des changements qui peuvent être assez importants. En revanche, il faudrait modifier les paramètres spécifiques à la portée du capteur par exemple. Typiquement dans ce cas, 3000 mm est la distance à partir de laquelle le robot doit s’arrêter. Si la portée du nouveau capteur est inférieure à 3000 millimètres, il faut modifier ce paramètre. Plus les tests sont importants, plus les paramètres à modifier le seront aussi. Ces changements ont un impact sur la visibilité du code car les détails de bas niveau seront confondus avec les détails d’implémentation et ceux 28II.2 La gestion de la variabilité dans les middleware de robotique : abstraction du matériel de l’algorithme. Si on prend maintenant un autre exemple où on voudrait utiliser des capteurs tactiles, il faut réécrire tout le code et implémenter les abstractions d’une nouvelle interface. Il faudrait alors encapsuler toutes les données de bas niveau à travers des abstractions de plus haut niveau sous forme de requêtes sur l’environnement par exemple. 2.4 Python Robotics (PyRo) 2.4.1 Description PyRo [12, 44] est un environnement de développement de robotique en Python qui permet aux étudiants et aux chercheurs d’explorer différents thèmes en robotique indépendamment des robots utilisés. Il a été intégré à plusieurs cours académiques car il offre un support simple pour les étudiants pour le développement des applications de robotique. Le but de PyRo est de faciliter le développement des applications de robotique et d’assurer leur portabilité, sans la modification du code, à travers des abstractions de haut niveau qui encapsulent les détails de bas niveau. PyRo est composé d’un ensemble de classes Python qui encapsulent les détails de bas niveau. Les utilisateurs programment leurs applications en utilisant une API. Cette dernière est implémentée avec une hiérarchie orientée objet offrant ainsi une couche d’abstraction. 2.4.2 Les abstractions du matériel dans PyRo Les abstractions du matériel définies dans PyRo sont les suivantes : – Range sensors : Indépendamment du capteur utilisé, cette interface définit des abstractions pour les capteurs Laser, Infratouge et Sonar. – Robot units : L’unité de la distance retournée par les capteurs peut être en mètres ou en millimètres ou simplement une valeur numérique où les grandes valeurs indiquent un espace libre et les petites valeurs indiquent la présence d’un obstacle proche. Robot unit est une nouvelle unité de mesure qui unifie toutes les autres. – Sensor groups regroupe les capteurs selon leur emplacement. L’utilisateur n’aura plus à se soucier du nombre de capteur disponibles mais utilisera sim- 29Chapitre II. Les middleware de robotique plement des abstractions du type : front, frontleft, left, etc. comme le montre la figure II.4. Les abstractions proposées sont les suivantes : front-all pour tous les capteurs avant du robot, front pour les capteurs placés à l’avant du robot, front-left pour les capteurs à l’avant gauche, front-right pour les capteurs placés à l’avant droit du robot. De la même façon, les abstractions back, back-right et back-left sont définies par rapport à l’arrière du robot. Figure II.4 – Le regroupement des capteurs dans PyRO – Motion control : définit des abstractions pour les commandes des effecteurs : move(translate, rotate) et motors(leftpower, rightpower) – Devices : Permet d’introduire des nouveaux dispositifs qui n’ont pas encore été pris en charge. 2.4.3 Discussion PyRo propose des abstractions pour le matériel sous forme d’actions de plus haut niveau que les commandes spécifiques envoyées au robot et de regroupement de capteurs selon leurs positions. Prenons maintenant un exemple défini en fonction de ces abstractions (voir listing II.5). Cet exemple représente une tâche d’évitement d’obstacle très simple, si un obstacle est rencontré à gauche le robot tourne à droite, si un obstacle est rencontré à droite le robot tourne à gauche et s’il n’y a pas d’obstacle, le robot avance. 1 # i f a p p r o ac h ing an o b s t a c l e on t h e l e f t s i d e 2 # t u rn r i g h t 3 # e l s e i f a p p r o ac h ing an o b s t a c l e on t h e r i g h t s i d e 4 # t u rn l e f t 30II.3 Conclusion 5 # e l s e go f o rw a r d 6 from pyro . b r ai n import Brain 7 c l a s s Avoid ( Brain ) : 8 def s t e p ( s e l f ) : 9 s a f e Di s t a n c e = 1 # in Robot Un i t s 10 # i f a p p r o ac h ing an o b s t a c l e on t h e l e f t s i d e , t u rn r i g h t 11 i f min ( s e l f . g e t ( ’ r o b o t / r an ge / f r o n t −l e f t / v al u e ’ ) ) < s a f e Di s t a n c e : 12 s e l f . r o b o t . move ( 0 , −0. 3 ) 13 #e l s e i f a p p r o ac h ing an o b s t a c l e on t h e r i g h t s i d e , t u rn l e f t 14 e l i f min ( s e l f . g e t ( ’ r o b o t / r an ge / f r o n t −r i g h t / v al u e ’ ) ) < s a f e Di s t a n c e : 15 s e l f . r o b o t . move ( 0 , 0 . 3 ) 16 #e l s e go f o rw a r d 17 e l s e : 18 r o b o t . move ( 0 . 5 , 0 ) Listing II.5 – Evitement d’obstacle programmé avec PyRo extrait de [12] Le code présenté est très simple grâce aux abstractions proposées, il nécessite des connaissances sur la vitesse du robot (ligne 13), son angle de rotation (ligne 10) et sur les valeurs retournées par les capteurs. La fonction min (lignes 6 et 9) est une fonction Python permettant de retourner le minimum des valeurs lues à partir des capteurs. Ce code peut être utilisé pour tout robot équipé de capteurs à rayons avant gauche et avant droit. Supposons maintenant que l’on veuille réutiliser ce même code mais avec des capteurs tactiles, il faut modifier alors les conditions sur les valeurs des capteurs et sur leurs positions. Par conséquent, bien que ces abstractions soient de plus haut niveau que les capteurs en permettant de les regrouper et de ne pas se soucier du nombre de rayons, elles restent insuffisantes. En effet, elles ne permettent pas de fournir des informations de haut niveau sur l’environnement car elles sont spécifiques à la position des capteurs et ne font que des regroupements de ces derniers. Il faudrait définir des abstractions de plus haut niveau afin de garantir une indépendance par rapport à la position des capteurs en fournissant des informations sur l’environnement du robot. 3 Conclusion Une étude complète des middleware de robotique existants est présentée dans [21] montrant les particularités de chaque middleware et les avantages de son utili- 31Chapitre II. Les middleware de robotique sation. Dans ce chapitre, nous avons présenté certains des middleware de robotique qui traitent l’aspect abstraction du matériel. Nous avons vu que ces abstractions sont insuffisantes car elles restent de bas niveau et n’isolent pas bien de certains changements sur les capteurs. En effet, le traitement des données des capteurs reste confondu avec les détails d’implantation de l’application. Ces abstractions ne permettent pas d’encapsuler les détails de bas niveau et de faciliter le développement des applications de robotique. De plus, les middleware ne traitent pas les aspects qui concernent la variabilité algorithmique. Afin de faciliter le développement de ces applications, il faudrait permettre aux roboticiens de manipuler des concepts qu’ils ont l’habitude d’utiliser pour le développement de leurs applications. Ces concepts peuvent être des concepts de haut niveau du domaine comme ceux proposés par les DSML (langage de modélisation spécifiques au domaine). Cependant, les concepts proposés par les DSML manquent souvent de sémantique opérationnelle. Il faudrait alors définir des abstractions de haut niveau qui permettent d’obtenir des informations sur l’environnement du robot et de définir des actions de haut niveau d’une part et d’encapsuler les détails algorithmiques d’autre part. ne sont autres que les concepts du domaine. Les techniques de l’ingénierie dirigiée par les modèles ont été appliquées dans ce contexte afin de définir ce qui est appelé les DSML (langage de modélisation spécifique). Dans le chapitre suivant, nous présentons les différentes phases de création d’un DSML. Nous présenterons ensuite les DSML pour la robotique existants. 32Langages de modélisations spécifiques à la robotique 1 Introduction La définition des applications de robotique est souvent considérée comme un processus complexe car ceci requiert une expertise du domaine (matériel utilisé, tâche à programmer, etc.) ainsi qu’une expertise en développement (plateforme, architecture, etc.). Nous avons présenté dans le premier chapitre la variabilité dans la robotique mobile. Les middleware ont essayé de pallier le problème de la variabilité du matériel en introduisant des abstractions qui restent toutefois de bas niveau comme nous l’avons vu dans le chapitre précédent. D’autre part, chaque middleware s’appuie sur un protocole de communication qui lui est propre ou qui s’appuie sur le standard CORBA. Par conséquent, un problème de portabilité d’un middleware vers un autre a été constaté en plus de la difficulté de faire interopérer les applications entre elles. L’une des priorités pour la communauté robotique consiste alors à définir des abstractions communes pour garantir l’indépendance des applications des middleware, assurer leur portabilité et ainsi optimiser le processus de développement. Afin de répondre à cet objectif, il faudrait tout d’abord réduire le fossé sémantique entre les développeurs et les roboticiens en utilisant un langage commun compré- hensible par les roboticiens d’un côté et par les développeurs d’un autre côté. Ce langage commun est appelé langage spécifique à un domaine ou langage dédié (DSL : domain specific language), il doit répondre au besoin de définir des spécialisations du domaine étudié [51]. Les langages de modélisation spécifiques au domaine (DSML : Domain Specific Mo- 33Chapitre III. Langages de modélisations spécifiques à la robotique deling Language) sont des DSL basés sur les modèles qui visent à définir des abstractions de haut niveau et à accélérer le processus du développement à travers l’utilisation des modèles. Ils permettent une meilleure compréhension des systèmes représentés ainsi qu’une accessibilité au développement des applications pour les roboticiens à travers des notations appropriées du domaine. Dans ce chapitre, nous commençons par une présentation générale des DSML et des techniques d’ingénierie dirigée pas les modèles. Nous présentons ensuite le cycle de vie d’un DSML puis les DSML existants pour la robotique. 2 Langages de Modélisation Spécifiques aux domaines (DSML) Un DSL est un langage de programmation ou un langage de spécification qui offre, à travers des notations appropriées et des abstractions, une puissance expressive axée sur, et généralement limitée à, un domaine particulier [14]. Les DSL sont souvent des langages déclaratifs, ils peuvent par conséquent être considérés comme des langages de spécification aussi bien que des langages de programmation [14]. Le développement d’un DSL requiert une expertise du domaine auquel il est dédié ainsi qu’une expertise en développement des langages [52]. L’un des objectifs principaux d’un DSL consiste à réduire l’ambiguïté de la terminologie et le fossé sémantique entre les experts du domaine d’application et les développeurs et ainsi convenir d’un ensemble d’abstractions communes pour un domaine particulier. Par conséquent, les experts du domaine doivent être mis au centre du développement du DSL [53]. Idéalement, un DSL apporterait plusieurs avantages aux développeurs ainsi qu’aux experts du domaine auquel il est dédié. Plusieurs travaux soulignent ces avantages, notamment Kieburtz et al. [54] qui ont réalisé une comparaison entre deux approches dans le cadre d’une étude empirique. La première consistait au développement d’une application en utilisant un ensemble de templates fournissant des fonctionnalités et des types génériques et la deuxième était l’utilisation d’un générateur de templates à partir d’un DSL. Ils ont constaté que l’utilisation de la deuxième approche améliorait considérablement la productivité des développeurs, la fiabilité de l’application et garantissait une facilité d’utilisation offrant ainsi un outil de réflexion et de communication ([55], page 41) aussi bien pour les développeurs que pour les ex- 34III.2 Langages de Modélisation Spécifiques aux domaines (DSML) perts du domaine. Grâce à cette facilité d’utilisation, les experts du domaine peuvent comprendre les programmes définis avec le DSL, les modifier et même les développer eux-même [14]. D’après Van Deursen [56], l’utilisation des DSLs renforcerait également la maintenance des applications et assurerait leur portabilité. Idéalement, un DSL devrait être réutilisable [57] dans le sens où l’on peut réutiliser les connaissances capitalisées du domaine afin de définir plusieurs programmes différents. Cette réutilisabilité découle également de l’indépendance des DSL des plateformes cibles ([55], page 43) car lors de la conception d’un DSL, une séparation des reponsabilités est réalisée entre les notations du domaine et les détails d’implémentations liés aux plateformes. En dépit de tous ces avantages, les DSLs présentent certaines limites comme par exemple, un coût non négligeable de conception, d’implémentation et d’apprentissage pour leur utilisation [14]. Un DSL bien défini apporterait alors des solutions aux limites constatées. Les DSL sont souvent définis comme des langages de modélisation spécifiques au domaine (DSML) qui incluent une infrastructure pour des transformations automatiques à partir de modèles vers un code source et des artefacts [2]. Les techniques de l’ingénierie dirigée par les modèles permettent la conception des DSML. Dans la section suivante nous présentons ces techniques. 2.1 Les techniques d’ingénierie dirigée par les modèles L’Ingénierie Dirigée par les Modèles (IDM) ou Model Driven Engineering (MDE) [15] répond au besoin de définir des abstractions du domaine en plaçant les modèles au centre du développement logiciel. Un modèle est une représentation simplifiée d’un système destiné à améliorer notre capacité à comprendre, prévoir et éventuellement contrôler le comportement de ce système [58]. Nous pouvons dire, par exemple, qu’une carte géographique est un modèle. L’interprétation de cette carte diffère d’une personne à une autre en l’absence de légende. Nous devons donc définir une légende standard pour cette carte afin de pouvoir l’interpréter de manière unique. C’est de cette même façon que nous pouvons définir le lien entre les modèles et les méta-modèles. Un méta-modéle (niveau M2 de la figure III.5) est un langage dont l’interprétation est unique car il définit les concepts d’un domaine particulier et il est lui-même conforme à un méta-méta- 35Chapitre III. Langages de modélisations spécifiques à la robotique Figure III.5 – Les différents niveaux de modélisation modèle (MOF : Meta Object Facility) (niveau M3 de la figure III.5). Les modèles (niveau M1 de la figure III.5), instances du méta-modèle, respectent donc les notations du domaine et contiennent une combinaison particulière de ses concepts. L’OMG (Object Management Group) est un consortium d’industriels et de chercheurs dont l’objectif est d’établir des standards permettant de résoudre les problèmes d’interopérabilité des systèmes d’infomation [59]. L’architecture proposée par l’OMG pour les différents niveaux de modélisation est présentée dans la figure III.5. La MDE est une généralisation de l’approche MDA (Model Driven Architecture), proposée et soutenue par l’OMG. La MDA applique la séparation des préoccupations qui consiste à élaborer des modèles métier (indépendants des détails techniques des plateformes) et des modèles spécifiques aux plateformes (pour la partie technique d’une plateforme). L’avantage le plus important qu’offre MDA est la pérennité des modèles indépendants des plateformes grâce à la modélisation des spécifications mé- tier. Dans ce qui suit nous présentons les différents niveaux de modélisation en MDA et les transformations entre ces modèles ainsi que les outils dédiés à la modélisation et aux transformations. 2.1.1 Les niveaux de modélisation Trois niveaux de modélisation interviennent en MDA : – Les Modèles Indépendants des Plateformes (PIM : Platform Independent Model). Ces modèles sont proches des contraintes et des considérations des experts du domaine et permettent de représenter la structure et les opérations 36III.2 Langages de Modélisation Spécifiques aux domaines (DSML) du système et ce, d’un point de vue indépendant des plateformes. – Les Modèle Spécifiques aux Plateformes (PSM : Platform Specific Model). Ces modèles résultent d’une association du PIM aux détails techniques d’une plateforme donnée. À partir du PSM le code vers la plateforme cible est généré. – Les Modèles de Description des Plateformes (PDM : Platform Description Model). Ces modèles permettent de spécifier la façon dont les fonctionnalités de la plateforme sont implémentées. Ils spécifient également comment ces fonctionnalités sont utilisées. Un PIM est conforme à un méta-modèle indépendant des plateformes et un PSM est conforme à un méta-modèle représentant les concepts d’une plateforme spéci- fique. Nous allons maintenant présenter les différents outils permettant de réaliser les différents niveaux de modélisation notamment les méta-modèles et les modèles. 2.1.1.1 Outils Le projet de modélisation d’Eclipse (EMP) [60] offre une multitude d’outils dédiés au développement dirigé par les modèles. Une partie de l’EMP comprend EMF (Eclipse Modeling Framework) qui permet la définition de métamodèles sous forme de fichiers Ecore. Une instance d’un méta-modèle est un modèle défini sous forme de fichier XMI. Papyrus [61] est un outil d’édition graphique de modèles, basé sur l’environnement Eclipse EMF, pour UML2 [62]. Conformément à son objectif principal, il met en œuvre la spécification standard complète de UML2 notamment les diagrammes de structure (c.-à-d. diagramme de classe, diagramme de déploiement, etc.), les diagrammes de comportement (c.-à-d. le diagramme d’activités, diagramme de machine à états) et les diagrammes d’intéraction (c.-à-d. diagramme de séquence, etc.). Papyrus est également conforme au standard graphique DI (Diagram Interchange) qui permet d’échanger les données graphiques. Papyrus fournit aussi un support large pour les profils UML [63]. Ces derniers permettent d’étendre UML afin de l’adapter à plusieurs domaines d’applications. Dans le cadre du projet PROTEUS, nous avons utilisé Papyrus afin de définir un éditeur graphique permettant de modéliser des scénarios de robotique en utilisant les concepts du domaine. Afin d’avoir une application exécutable vers une plateforme cible à partir des diffé- rents modèles présentés précédemment, des transformations sont définies pour transformer les modèles en code exécutable. Nous les présentons dans la section suivante. 37Chapitre III. Langages de modélisations spécifiques à la robotique 2.1.2 Les transformations MDA passe par la transformation respective de ses modèles afin d’obtenir une application exécutable à partir de ces derniers. Ces transformations sont effectuées : – du PIM vers le PSM (de modèle vers modèle) : pour établir les liens entre les concepts généraux et les concepts spécifiques aux plateformes ; – du PSM vers du code (de modèle vers texte) : pour obtenir du code exécutable correspondant au modèle spécifique à la plateforme d’exécution. Théoriquement, il faudrait que le PDM intervienne dans les transformations de PIM vers PSM pour spécifier les fonctionnalités relatives à la plateforme utilisée. Cependant, pour la définition des transformations, il faudrait au préalable définir des méta-modèles du PIM, du PDM et du PSM. La définition des méta-modèles du PIM et du PSM ne pose pas de problème particulier. En revanche, le méta-modèle du PDM n’est actuellement pas réalisable car il devrait permettre de construire des modèles de toutes les plateformes et vu que ces dernières sont différentes, il n’existe pas de nos jours de solution à ce problème. Les transformations existantes se résument alors à des transformations du PIM vers le PSM (de modèle vers modèle) et du PSM vers le code (de modèle vers texte). Plusieurs outils sont proposés pour réaliser ces transformations. Nous les présentons dans la section suivante. 2.1.2.1 Outils Les outils disponibles aujourd’hui basés sur les techniques d’ingénierie dirigée par les modèles permettent de construire des méta-modèles, des modèles et leurs équivalents en XMI (XML Metadata Interchange) [64] ou en UML facilement manipulables par les outils de génération de code assurant ainsi la géné- ration de code vers multiples et diverses plateformes cibles. Une plateforme cible est une plateforme constituée de ressources logicielles et matérielles servant de support d’exécution à l’application générée. Nous soulignons la différence entre un outil de génération de code et un générateur de code. Un outil de génération de code est un compilateur qui permet de définir des règles de transformations entre le DSL et la plateforme cible tandis qu’un générateur de code est un programme qui établit des règles de transformations entre le DSL et la plateforme cible. Le générateur de code est implémenté avec un outil de génération de code. Il existe plusieurs outils de génération de code, certains de modèle vers modèle 38III.3 Cycle de vie d’un DSML comme Epsilon [65], Kermeta [66] et d’autres, de modèle vers texte, comme Acceleo [67] et TOM-EMF [68]. Acceleo permet de définir des transformations de Modèle vers Texte (approche MDA) et supporte les standards de modélisation comme UML, XMI, etc.. La syntaxe mise en oeuvre par Acceleo se base sur des templates qui contiennent des informations tirées sur les modèles en entrée (à travers des requêtes) et leur associent le code à générer à travers des conditions et des boucles. Dans le cadre de cette thèse et du projet ANR PROTEUS, nous utiliserons Acceleo comme outil de génération de code. Dans la section suivante, nous présentons les différentes étapes de conception d’un DSML. 3 Cycle de vie d’un DSML Avant de concevoir un DSML, plusieurs questions doivent être soulevées : – Par qui sera conçu le DSML ? – Pour qui sera conçu le DSML ? – Quels sont les concepts du domaine qui doivent être représentés et comment les représenter ? Ces questions permettent d’orienter les choix de conception d’un DSML afin de ré- duire le coût en terme de maintenance et de développement et garantir ainsi des solutions aux problèmes existants. La création d’un DSML est un processus itératif. Un DSML se base souvent sur une compréhension limitée et simple du domaine, puis évolue progressivement avec l’intervention des experts du domaine. Nous pouvons distinguer sans ambiguïté quatre phases qui déterminent le cycle de vie d’un DSL. Tout d’abord, une phase d’analyse du domaine afin d’identifier les abstractions appropriées. Une abstraction est un concept. Ce concept fait partie du domaine modélisé et représente une entité abstraite ou concrète dans ce domaine [69]. L’analyse du domaine est succédée d’une phase de conception afin de représenter ces abstractions puis d’une phase d’intégration des plateformes. La dernière phase est enfin l’utilisation du DSL [14]. 39Chapitre III. Langages de modélisations spécifiques à la robotique 3.1 Analyse du domaine Les deux premières questions présentées précédemment doivent être traitées dans la phase de l’analyse du domaine. L’étape de l’analyse du domaine consiste à rassembler les connaissances du domaine et à les regrouper en notions sémantiques et en opérations. La modélisation des domaines, désignée par l’ingénierie des domaines (Domain engineering) [70], est un aspect de l’ingénierie logicielle introduit afin de pallier les problèmes de réutilisabilité. L’ingénierie des domaines peut être utilisée afin de construire des librairies réutilisables pour les DSLs [14]. Selon l’utilisateur final de l’application, l’identification des concepts du domaine peut varier. Prenons par exemple le cas de la robotique mobile. Pour un expert en robotique, les concepts relevant du contrôle, de la communication, de la perception, de l’action et de l’environnment réel du robot ou de la simulation définissent les concepts de base de la robotique mobile. Un développeur, quant à lui, traitera les aspects techniques liés à la programmation et à l’architecture logicielle des plateformes de robotique (langages à base de composants, langages orientés objets, etc.). La délimitation du domaine est un processus qui pourrait être conflictuel s’il n’est pas clairement défini. Simos et al. [71] ont distingué deux catégories d’utilisation du domaine : – Le domaine comme étant un “monde réel” : Ceci désigne le domaine du monde où le travail final va être réalisé. On retrouve cette vision du domaine en intelligence artificielle, en génie cognitif ou encore en programmation orientée objet (OO). L’analyse du domaine en OO traduit souvent l’analyse du domaine en une description orientée-objet des entités et des transactions dans le monde réel. Cette description forme une base pour l’implantation d’un système qui supporte ces activités du monde réel. En d’autres termes, cette théorie se base souvent sur le principe que les experts d’un domaine ne prêtent pas beaucoup d’importance à l’aspect logiciel d’une application. – Le domaine comme étant un “ensemble de systèmes” : Cette définition du domaine se base sur la théorie de l’analyse du domaine orientée par la réutilisabilité. Par opposition au domaine en tant que monde réel, les systèmes sont eux même l’objet de l’étude du domaine dans cette catégorie. Le domaine est défini comme une famille ou un ensemble de systèmes incluant des fonctionnalités communes dans un domaine particulier. La modélisation des similarités 40III.3 Cycle de vie d’un DSML et des variabilités à travers les systèmes existants dans le domaine est la base de cette définition du domaine. Dans certains cas, les concepts d’un DSL en général et d’un DSML en particulier peuvent être extraits à partir d’un système existant et les abstractions du domaine peuvent être dérivées directement à partir de ce système existant. Si l’architecture du système existant est documentée en utilisant un langage de modélisation graphique par exemple, cette architecture peut être une source valuable pour l’obtention des abstractions du domaine [2]. Parmi les approches de modélisation des domaines, nous citons l’analyse de domaine orientée par les features (FODA : Feature Oriented Domain Analysis) [72] et les ontologies [73]. 3.1.1 Les ontologies L’ontologie est une approche de modélisation des domaines qui vise à fournir une compréhension des éléments d’un domaine particulier. Elle permet de représenter des bases de connaissances qui offrent un contenu sémantique réutilisable et accessible depuis diverses applications. Elle définit des concepts ainsi que leur signification et les relations entre eux pour représenter un domaine de connaissances. Une ontologie doit être exprimée suivant une syntaxe donnée, associée à une interprétation donnée. Le langage OWL (Ontology Web Language) est l’un des langages qui permettent de représenter les ontologies. Nous le présentons dans ce qui suit. 3.1.1.1 Le langage OWL (Ontology Web Language) Le langage OWL est un langage pour la représentation des ontologies Web. Il est compatible avec le Web sémantique ce qui permet aux utilisateurs de donner une définition formelle aux termes qu’ils créent. Ainsi les machines peuvent raisonner sur ces termes. La terminologie de OWL se base essentiellement sur espaces de nommages (namespace), les classes et les propriétés. Un namespace est un conteneur qui fournit le contexte du contenu d’un fichier OWL. Une classe encapsule la signification d’un concept. Des hiérarchies de classes peuvent être créées en déclarant qu’une classe peut être une sous-classe (subClassOf) d’une autre classe. Une propriété décrit une association entre les classes. Une hiérarchie de propriétés peut également être créée en précisant qu’une propriété est une sous propriété d’une autre propriété (Property :IsA). Une composition générique des pro- 41Chapitre III. Langages de modélisations spécifiques à la robotique priétés est exprimée avec le mode clé Property :hasA, cela veut dire qu’une propriété peut s’appliquer à d’autres propriétés. Dans le cadre du projet ANR PROTEUS qui a défini le contexte de cette thèse, nous nous baserons sur une ontologie existante du domaine de la robotique mobile, développée dans le cadre de ce projet, afin d’extraire les abstractions du domaine appropriées pour notre DSML : RobotML. L’ontologie de RobotML sera présentée dans la section 3 du chapitre 5. 3.2 Conception des DSML Dans cette section, nous tentons de répondre à la troisième question sur l’extraction des abstractions pertinentes du domaine et leur représentation. La conception d’un DSML doit permettre une définition non ambigûe d’abstractions de haut niveau représentant les concepts identifiés à partir de l’analyse du domaine. Ces abstractions doivent être indépendants des détails des plateformes (middleware) et doivent représenter les concepts du domaine. La conception d’un DSL passe par deux étapes importantes qui sont la définition de la syntaxe abstraite et la définition de la syntaxe concrète ([55], p.175). À ces deux étapes peut s’ajouter la définition de la sémantique de la syntaxe abstraite. Dans cette section nous présentons ces différentes étapes. 3.2.1 Définition de la syntaxe abstraite La syntaxe abstraite d’un DSML peut être définie de deux façons principales qui peuvent être complémentaires. La première façon consiste à définir le modèle du domaine sous forme d’un méta-modèle représentant les abstractions du domaine et les relations entre elles. La deuxième façon consiste à étendre les concepts d’UML sous forme d’un profil afin de les adapter aux abstractions identifiées dans le métamodèle. Dans cette section nous présentons donc le modèle de domaine en tant que méta-modèle ainsi que les profils UML. 3.2.1.1 Modèle du domaine : Méta-modèle La syntaxe abstraite appelée aussi modèle du domaine regroupe les concepts du domaine cible du DSL, leurs propriétés et les relations entre eux dans un modèle du domaine. Le modèle du domaine formalise les connaissances du domaine et doit être validé par les experts du domaine. Les éléments du DSL peuvent aussi avoir une sémantique. La définition de cette 42III.3 Cycle de vie d’un DSML dernière n’est pas une étape indispensable pour la conception d’un DSL. La sémantique peut être statique ou dynamique. Dans le premier cas, elle permet de définir la sémantique qui ne peut pas être exprimée directement au niveau du modèle du domaine comme par exemple les éléments invariants et les relation entre eux. Quant à la sémantique dynamique, elle permet de définir les effets comportementaux ré- sultant de l’utilisation des éléments du DSL. Elle définit également la façon dont les éléments du DSL doivent intéragir à l’exécution. Le comportement peut être exprimé de différentes façons allant de modèles de flots de contrôle de haut niveau en passant par des modèles de comportements plus détaillés jusqu’à une spécification textuelle précise. Dans le cas des DSML, le modèle du domaine est défini comme un PIM qui représente les concepts du domaine. Des modèles spécifiques aux plateformes peuvent aussi être définis afin de représenter les concepts des plateformes cibles du DSML. Ces modèles, si définis, interviendront dans l’étape intégration des plateformes des DSML. 3.2.1.2 Profil UML Un profil étend les concepts d’UML afin de les adapter à un domaine d’application. L’extension d’UML à travers les profils passe par trois concepts principaux [63] : – Stereotype : Un stéréotype étend une méta-classe existante du méta-modèle UML pour en changer la sémantique. Un stéréotype peut posséder des propriétés (tagged value) et être sujet à des contraintes. Un stéréotype est une extension limitée d’une méta-classe, on ne peut pas définir un stéréotype sans définir le lien vers la méta-classe qu’il étend. UML permet egalement d’associer à chaque stéréotype sa propre notation sous forme d’une icône et/ou un cadre (shape) pour le distinguer graphiquement du concept qu’il étend. – Tagged Value : Ce sont des propriétés des stéréotypes qui offrent un moyen de spécifier les caractéristiques du concept UML étendu. Une propriété a un type qui appartient impérativement à UML sinon il doit être défini et annexé au profil. – Constraint On peut définir des contraintes sur le méta-modèle UML afin de le spécialiser. Ces contraintes sont définies avec le langage OCL (Object Constraint Language). Le profil UML sert de support pour la définition d’un éditeur graphique qui va utiliser les différentes icônes associées aux stéréotypes par exemple. Il est également possible 43Chapitre III. Langages de modélisations spécifiques à la robotique Figure III.6 – Les artefacts du DSL - extrait de [2] de vérifier les contraintes sur l’association et la composition des différents éléments proposés à travers cet éditeur et de valider ainsi les modèles réalisés. Dans la section suivante, nous précisions en quoi consiste la définition de la syntaxe concrète d’un DSML. 3.2.2 Définition de la syntaxe concrète La syntaxe concrète est une interface à travers laquelle sont représentées les abstractions définies dans la syntaxe abstraite [2]. Chaque DSL peut avoir plusieurs syntaxes concrètes : graphique et textuelle. Pour un DSML, la syntaxe concrète est présentée sous forme graphique. Elle est représentée à travers des outils permettant à l’utilisateur de créer des modèles qui représentent une combinaison particulière des éléments de la syntaxe abstraite. La définition de la syntaxe concrète est une étape importante du point de vue de l’utilisateur final du DSML. La figure III.6 résume les différents artefacts intervenant dans la conception d’un DSL. Un DSL correspond à un domaine, il possède une syntaxe abstraite qui peut avoir une sémantique statique ou (et) dynamique (que nous ne détaillerons pas car nous ne traitons pas ces parties dans cette thèse). Un DSL a une ou plusieurs syntaxes concrètes qui correspondent à cette syntaxe abstraite. Dans le cadre du projet PROTEUS, Papyrus a été utilisé pour la définition de la syntaxe concrète de notre DSML. Un fois que le modèle du domaine et la syntaxe concrète sont définis, il faut 44III.3 Cycle de vie d’un DSML Figure III.7 – Intégration des plateformes - basé sur [2] définir des règles de transformations qui permettront de faire le lien entre le modèle du domaine et les concepts des plateformes cibles. 3.3 Intégration des plateformes : Transformations et Géné- ration de code Comme nous l’avons indiqué précédemment, l’intégration des plateformes vient compléter la phase de conception en faisant le lien entre les concepts du domaine et les concepts des plateformes. Cette phase est aussi appelée phase d’implémentation ; elle consiste à mettre en place un compilateur qui traduit les programmes du DSL en une séquence d’appels de librairies [14]. Des transformations sont définies pour transformer les modèles définis à l’aide de la syntaxe concrète du DSML vers d’autres modèles ou vers un langage de programmation (correspondant à une plateforme cible) comme le montre la figure III.7. Il existe alors deux types de transformations : – De modèle vers modèle : elles consistent à convertir un modèle en un autre modèle du même système. – De modèle vers texte : elles consistent à convertir un modèle en code qui lui correspond. 45Chapitre III. Langages de modélisations spécifiques à la robotique 3.4 Utilisation L’étape d’utilisation consiste à représenter les programmes souhaités par l’utilisateur final et à les compiler [14]. Dans notre cas, cette étape consiste à modéliser le système souhaité et à générer le code correspondant. Le code doit être compilable et exécutable sur la ou les plateformes cibles. L’utilisation d’un DSL ne se restreint pas seulement à la modélisation et la génération de code. On peut faire également des analyses sur les modèles pour valider les fonctionnalités du système dès les premières phases de conception. 4 Les DSML pour la robotique Dans cette section, nous présentons tout d’abord les exigences que doivent respecter les DSML pour la robotique, nous présenterons ensuite les travaux qui ont adopté les techniques d’ingénierie dirigée par les modèles comme solution aux problèmes constatés dans le développement des applications de robotique et nous conclurons par une synthèse de ces travaux. 4.1 Exigences des langages de domaine pour la robotique En plus des caractéristiques des DSL présentées précédemment, idéalement un DSL pour la robotique respecterait les caractéristiques suivantes [74]. 1. Facilité d’utilisation. L’utilisation du DSL devrait être non seulement à la portée des experts en programmation mais aussi à la portée des experts en robotique et idéalement à la portée de simples utilisateurs de logiciels de robotique. 2. Spécification d’une architecture à base de composants. En supposant que la majorité des plateformes de robotique sont actuellement basées sur une architecture à base de composants, le DSL devrait permettre la spécification d’architectures à base de composants de systèmes de robotique autonomes. 3. Spécification des comportements des composants. Le DSL doit permettre la spécification des différents types de contrôle des composants. Il devrait être possible d’exprimer le contrôle sous forme algorithmique ou sous forme de machine à états finis. 46III.4 Les DSML pour la robotique 4. Neutralité vis à vis des architectures de robotique. Le DSL ne devrait pas imposer une architecture de robotique particulière : délibérative, hybride, réactive ou basée sur le comportement (voir section 3.3). 5. Plusieurs plateformes cibles hétérogènes. Les composants de l’application devraient être indépendants des plateformes cibles et devraient pouvoir s’exécuter sur des robots réels ou des simulateurs. De plus, il devrait être possible de déployer certains composants générés à partir du DSL sur une plateforme et les autres composants sur une autre plateforme. 6. Indépendance vis à vis des plateformes cibles. Même si l’indépendance par rapport aux plateformes cibles est difficile à réaliser, le DSL devrait être aussi indépendant que possible des spécificités des platesformes d’exécution. 7. Prise en charge de l’évolution des plateformes La génération de code doit être aussi agile que possible de façon à ce que si les plateformes cibles évoluent, l’impact de leur évolution n’affecte pas énormèment le code des générateurs. De plus, idéalement, si des nouvelles plateformes sont ajoutées, elles pourraient réutiliser les transformations déjà définies. 8. Evolution du DSL. Idéalement, il devrait être possible de changer au moins certains aspects du DSL sans avoir à construire une nouvelle implémentation. L’évolution du DSL peut faire partie du processus du développement. En effet, si le processus de développement du DSL est itératif, les concepts du domaine sont adaptés ou renommés selon les besoins des plateformes et des applications. Une autre façon de gérer l’évolution des DSL consisterait de partir d’exemples concrets pour la définition des concepts du DSL, la génération de code, etc. De cette façon, le DSL conçu permettra le développement de ces applications. 9. Abstractions du matériel Idéalement, le DSL offrirait un ensemble d’abstractions du matériel sous forme de librairies afin de rendre les modèles définis indépendants du matériel du robot en plus d’être indépendant des plateformes. 4.2 Travaux existants De nos jours, ils n’existe pas énormément de travaux qui mettent en oeuvre les techniques de l’ingénierie dirigée par les modèles pour la conception des DSLs pour la robotique. Certains travaux, notamment [75] et [76] ont appliqué ces techniques dans le cadre de l’étude d’un robot particulier ou d’une architecture de robotique 47Chapitre III. Langages de modélisations spécifiques à la robotique Figure III.8 – Les concepts de l’OMG appliqués à l’approche BCM - (tiré de [3]) particulière. Dans cette section, nous nous intéressons aux travaux qui ont défini des DSML en traitant les aspects de la variabilité en robotique (à travers des abstractions) et leur indépendance des plateformes cibles. 4.2.1 BRICS Component Model (BCM) 4.2.1.1 Description BRICS [77] est un projet européen qui vise à structurer et à formaliser le processus de développement des applications robotiques en fournissant des outils, des modèles et des librairies permettant d’accélérer le processus de développement. BRICS s’appuie sur les techniques d’ingénierie dirigée par les modèles afin de fournir un modèle appelé BCM (BRICS Component Model) [3] indépendant des plateformes à partir duquel une génération automatique de code est réalisée vers des plateformes de robotique (voir figure III.8). Le niveau M3 repré- sente le méta-méta-modèle Ecore. Il s’ensuit un méta-modèle minimal et général de composants, indépendant des plateformes, de niveau M2 appelé CPC (Component Port Connector). Au même niveau, des méta-modèles spécifiques aux plateformes ROS et OROCOS sont définis. Au niveau M1, on retrouve des modèles instances 48III.4 Les DSML pour la robotique des méta-modèles du niveau M2. Le méta-modèle CPC est spécialisé par les modèles des plateformes comme ROS et OROCOS. BRIDE [78] est le générateur de code qui assure les transformations de modèle vers modèle (du modèle instance du méta-modèle général vers le modèle instance du méta-modèle spécifique à la plateforme cible) ainsi que des transformations modèle vers texte (du modèle instance du méta-modèle spécifique à la plateforme cible vers la plateforme cible). Le méta-modèle CPC est présenté dans la figure III.9, il spécifie qu’un System peut avoir plusieurs connecteur(s) (méta-classe Connector) et des composants (métaclasse Component). Un composant peut avoir des ports (méta-classe Port), une ou plusieurs propriétés (Property) et des sous-composants. Les abstractions représentées dans ce méta-modèle reflètent l’architecture des plateformes cibles (c.-à-d. une architecture à base de composants) mais ne sont pas représentatives des concepts du domaine. En dehors du BCM, le projet BRICS propose une séparation des pré- occupations entre les composants de différentes natures à travers les 5Cs : – Computation : C’est la fonctionnalité responsable de l’accès aux données en lecture ou en écriture entre les différents composants, de leurs synchronisation et de leurs traitements. – Coordination : Cette fonctionnalité détermine comment les composants d’un système doivent travailler ensemble. Elle détermine le rôle d’un composant dans un système. – Composition : C’est la fonctionnalité qui permet de définir des composants composites. – Communication : Se charge de l’envoi de données aux composants de computation. – Configuration : Cette fonctionnalité permet de configurer les composants de communication et de computation. Cependant, cette architecture n’a pas été intégrée au BCM car les auteurs argumentent que cette distinction n’est pas effectuée au niveau des plateformes cibles. 4.2.1.2 Discussion Le BCM permet une représentation de modèles à bases de composants et une génération automatique de squelettes de code vers ROS et OROCOS. Cependant, les abstractions du domaine ne sont pas représentées et la distinction entre les différentes natures des composants (c.-à-d. contrôle et matériel) 49Chapitre III. Langages de modélisations spécifiques à la robotique Figure III.9 – Le méta-modèle CPC - (tiré de [3]) d’une application de robotique n’a pas été intégrée au BCM. Les aspects comportementaux des composants notamment, les machines à états finis et les algorithmes ne sont pas représentés dans le BCM. De plus, la génération de code est effectuée vers une et une seule plateforme cible à la fois ; la génération de code vers plusieurs plateformes cibles hétérogènes n’est pas supportée. L’évolution du BCM n’est pas envisageable éventuellement pour une intégration des 5Cs car il n’y aurait pas de correspondance avec les plateformes cibles [3]. 4.2.2 Open Robot Controller Computer Aided Design (ORCCAD) 4.2.2.1 Description ORCCAD est un framework pour la spécification de la partie contrôle et commande d’un système de robotique [79, 80] destiné aux applications de robotique temps-réel. Le but d’ORCCAD consiste à fournir un ensemble d’outils qui permettent d’aider l’utilisateur tout au long du processus de conception, de vérification et de développement de son application. Cet ensemble d’outils, appelé CASE (Computer Aided Software Engineering), a été défini en utilisant les outils du projet de modélisation d’Eclipse [60] qui se basent sur les techniques d’ingénierie dirigée par les modèles. L’approche ORCCAD utilise deux niveaux d’abstractions : un niveau fonctionnel et un niveau de contrôle [4]. Le niveau fonctionnel permet de représenter les tâches élémentaires du robot (Robot Task (RT)). Celles-ci sont décrites sous forme de comportements spécifiés dans des fichiers source écrits en ESTEREL [81] (voir figure III.10). Le niveau de contrôle (Robot Procedure (RP)) décrit ensuite la composition 50III.4 Les DSML pour la robotique Figure III.10 – Le méta-modèle RT extrait du méta-modèle d’ORCCAD - (tiré de [4]) hiérarchique des RTs. Les abstractions utilisées sont suffisament de haut niveau pour ne pas être spécifiques à une plateforme particulière et pour représenter les aspects temps-réel requis pour une application de robotique. A partir des modèles réalisés avec l’éditeur graphique d’ORCCAD (instance du méta-modèle dont une partie a été présentée précédemment), le générateur de code fournit du code C++, à partir des RTs et RPs, ainsi que le glue code qui permet de les connecter avec le système d’exploitation utilisé. 4.2.2.2 Discussion Malgré les avantages d’utilisation d’ORCCAD notamment la généricité de ses modèles et leur indépendance des détails des plateformes cibles, ORCCAD ne définit pas des abstractions du matériel et ne prend pas en charge la génération de code vers d’autres plateformes cibles de robotique. L’une des solutions possibles pour assurer la prise en charge de l’hétérogénéïté des plateformes consisterait à mettre en oeuvre un générateur de code à partir du code C++ généré vers d’autres plateformes. De plus, ces middlewares doivent prendre en charge l’aspect temps-réel, il n’est donc pas possible de générer du code vers des middlewares tel que ROS qui ne prend pas en compte cet aspect. 4.2.3 SmartSoft 4.2.3.1 Description SmartSoft [82][83] est un framework qui offre un ensemble de patterns de communication générique qui permettent l’assemblage et la composi- 51Chapitre III. Langages de modélisations spécifiques à la robotique tion des composants grâce à des interfaces structurées et consistantes correspondant à une sémantique bien définie. Ces interfaces sont basées sur des services de communication standard (client/server, master/slave, publish/subscribe, request/response, etc.). Le modèle de composants comporte également un automate générique qui gère le cycle de vie d’un composant [84]. Figure III.11 – Le méta-modèle de SmartSoft - (tiré de [5]) Le modèle de composants SmartSoft et ses mécanismes de communication ont été définis dans un méta-modèle appelé SmartMars (Modeling and Analysis of Robotic Systems) [16]. Les patterns de communication produisent différents modes de communication comme la communication dans une seule direction ou l’intéraction request/response. Par exemple, le pattern send est un mode de communication Client/Serveur dans une seule direction. Le pattern Query est un mode de communication Client/Serveur qui utilise l’intéraction request/response. Ces concepts sont représentés dans le méta-modèle SmartMars à travers les méta-classes QueryPattern, PushNewestPattern, ClientServerPort, MasterSlavePort, et CommunicationObject. Deux types de méta-modèles sont définis dans le méta-modèle SmartMars (voir fi- gure III.11) : un méta-modèle indépendant des plateformes représentant les patterns de communication de SmartSoft ainsi que la structure générale des composants et 52III.4 Les DSML pour la robotique leur cycle de vie et un méta-modèle spécifique aux plateformes permettant de spéci- fier les informations relatives à la plateforme choisie (méta-classes PSM-Connector, PSM-Target et PSM-NS dans la figure III.11). Le méta-modèle SmartMars a été implémenté sous forme de profil UML constituant ainsi une base de développement pour un outil intégré à Eclipse appelé SmartMDSD (Model Driven Software Design). SmartMDSD offre une chaîne d’outillage de la modélisation jusqu’à la génération de code (vers CORBA et ACE). 4.2.3.2 Discussion SmartSoft permet la modélisation à base de composants des applications de robotique indépendamment des plateformes cibles et permet également une spécification claire et concise des concepts de communication entre les différents composants définis. Les patterns de communication exprimés sont stables et ont été utilisés en robotique depuis plus de dix ans. Le méta-modèle de SmartSoft permet aussi de représenter le cycle de vie d’un composant à l’aide d’un automate où les états initialisent le composant, l’exécutent et peuvent indiquer l’échec de son exécution. Cependant, il n’y a pas de disctinction entre la nature des composants utilisés. En d’autres termes, on ne sait pas si ces composants sont matériel ou logiciels. Par conséquent, la prise en charge de plusieurs plateformes cibles hétérogènes n’est pas possible (c.-à-d. si on souhaite générer du code vers un simulateur et un middleware). De plus, les abstractions du domaine ne sont pas suffisantes car il n’est pas possible d’exprimer les abstractions du matériel par exemple. Concernant l’évolution des plateformes cibles et du méta-modèle, ces points n’ont pas été abordés dans les travaux de SmartSoft. 4.2.4 The 3 View Component Meta-Model (V3CMM) 4.2.4.1 Description V3CMM [6] s’appuie sur les concepts de l’OMG afin de fournir un méta-modèle indépendant des plateformes pour la conception des applications de robotique à base de composants. Ses principales caractéristiques sont la simplicité et l’économie des concepts d’un côté et la réutilisabilité des composants de l’autre. V3CMM utilise certains concepts d’UML afin d’offrir trois vues principales : (1) une vue structurelle pour la description de la structure des composants et de la communication entre eux (2) une vue de coordination décrivant le comportement de chaque composant sous forme de machine à états finis (en réutilisant les concepts 53Chapitre III. Langages de modélisations spécifiques à la robotique Figure III.12 – Méta-modèle V3CMM - tiré de [6] d’UML) (3) une vue algorithmique pour la description de l’algorithme de chaque composant selon l’état dans lequel il se trouve (qui reprend une représentation simplifiée du diagramme d’activités d’UML). Un extrait de ce méta-modèle est présenté dans la figure III.12. Une chaîne d’outillage a été développée avec les outils de modélisation d’Eclipse permettant ainsi la génération de code en deux étapes. Tout d’abord des transformations de modèle-vers-modèle sont définies entre un modèle instance du méta-modèle V3CMM et un modèle instance du méta-modèle représentant les concepts de la programmation orientée objets. Puis, à partir du deuxième modèle, des transformations de modèle vers texte sont définies vers le langage ADA. 4.2.4.2 Discussion Il est à noter que même si V3CMM ne contient pas les concepts de la robotique, il a été testé et essentiellement utilisé en robotique et dans le domaine des réseaux de capteurs sans fils [85] et d’autres domaines comme la domotique. Actuellement, V3CMM a été étendu afin de permettre la spécification des contraintes temps-réel. Des éditeurs textuels avec une validation de modèle V3CMM ainsi que plusieurs implémentations vers différents frameworks cibles. Cependant, V3CMM ne fait pas distinction entre les composants matériel et logiciel d’une application. Ainsi, il n’est pas possible de générer du code vers plusieurs pla- 54III.4 Les DSML pour la robotique Figure III.13 – Architecture de Genom3 teformes cibles hétérogènes. De plus, il n’est pas possible d’exprimer les abstractions du matériel de haut niveau. L’évolution du méta-modèle et des plateformes cibles n’a pas été abordée dans les travaux V3CMM. 4.2.5 GenoM3 4.2.5.1 Description GenoM3 [86] a été défini dans le but d’assurer l’indépendance des composants logiciels d’une application des middleware de robotique. L’idée principale consiste à découpler la structure des composants de leurs noyaux algorithmiques. Cette idée a été réalisée en mettant en oeuvre un template par middleware pour la définition des squelettes des composants dans celui-ci. Ce template est organisé sous forme d’un fichier source. En plus de ce template, un DSL textuel a été défini permettant la description des composants et de leurs fonctionnalités, notamment les ports, les types de données, les services, les opérations (définies sous forme de codels [87]) et le contexte d’éxécution (task ou thread), sous forme de spécification formelle (voir figure III.13). Un interpréteur se charge ensuite d’instancier les composants à partir de leurs descriptions conformément au template du middleware choisi. Du code exécutable est alors généré correspondant aux composants décrits. 55Chapitre III. Langages de modélisations spécifiques à la robotique Figure III.14 – Composant RTC 4.2.5.2 Discussion À travers plusieurs études de cas, il a été prouvé que l’indépendance des plateformes est garantie à travers l’utilisation de GenoM3 [88]. Cependant, l’architecture d’une application doit être conforme à la structure des templates définis et la spécification formelle des composants n’est pas au même niveau d’abstraction que les méta-modèles. La transformation sous forme de template de composants ne correspond pas aux meilleures pratiques du développement dirigé par les modèles [16] (MDSD : Model Driven Software Development). De plus, la génération de code vers des plateformes hétérogènes n’est pas prise en charge. De plus l’aspect abstraction des données du matériel n’est pas pris en charge. 4.2.6 Robot Technology Component (RTC) 4.2.6.1 Description OpenRTC [89] a été conçu par l’OMG afin de proposer un standard pour la robotique. Plusieurs plateformes se basent sur le standard RTC et utilisent son modèle de composants comme OpROS [90–92] et RTM [93]. Un RTC est une représentation logique du matériel et/ou d’une entité logicielle qui fournit des fonctionnalités et des services souvent utilisés. RTC étend les fonctionnalités des composants proposés par UML et s’appuie sur les technologies de la MDA pour proposer un modèle indépendant des plateformes exprimé en UML et composé de trois parties : – Lightweight RTC : un modèle basique contenant la définition de concepts simples comme composant et port comme le montre la figure III.14. Il dé- finit des interfaces avec des abstractions et des stéréotypes. – Execution semantics : C’est une extension du modèle basique (Lightweight RTC) qui supporte les patrons de conception critiques de communication utilisés en robotique. 56III.4 Les DSML pour la robotique – Introspection : Une API qui permet d’examiner les composants, leurs ports et leurs connexions à l’exécution. Trois modèles spécifiques aux plateformes (PSM) ont ensuite été définis dans le langage IDL (Interface Definition Language) de l’OMG et ont été proposés afin de spécifier les mécanismes de communication : – Local : indique que les composants communiquent entre eux et qu’ils sont placés dans le même réseau. – Lightweight CCM (Corba Component Model) Les composants sont distribués et communiquent via l’interface CCM-based middleware. – CORBA Les composants sont distribués et communiquent via CORBA. En plus des composants LightWeight RTC, RTC définit trois autres types de composants : – Le traitement des flots de données (Data flow processing/Periodic sampled data processing) : correpond à l’exécution de type périodique. Les composants de type flots de données sont exécutés périodiquement. Un composant de ce type peut aussi être un composant composite contenant d’autre composants de flots de données. De cette façon, le traitement de données peut être décomposé de manière hiérarchique. – Le traitement Stimulus/Réponse appelé également traitement de données asynchrone. Les applications utilisant ce type de composant doivent généralement réagir aux changements qui surgissent dans l’environnement du robot. Le comportement est représenté sous forme de machine à états finis (FSM). Lorsqu’un événement est signalé, la FSM change d’état en exécutant l’action associée à la transition par laquelle elle est passée. – Modes d’opération : fournit un support pour les applications qui doivent naviguer entre différentes implémentations de la même fonctionnalité. 4.2.6.2 Discussion Le modèle de composant RTC est considéré comme une spé- cification avancée proposée par l’OMG dans le domaine de la robotique. Ce modèle a servi de standard pour beaucoup de plateformes de robotique : RTM (Robot Technology Middleware) [93], OPRoS [90], GostaiRTC [94], etc. Cependant, la spécification de RTC est fortement influencée par des architectures qui se basent sur un échange de flots de données. Par conséquent, le modèle de composant RTC est influencé par un automate interne fortement lié à un modèle d’activités à l’intérieur d’un composant. Il ne permet pas la spécification de plusieurs 57Chapitre III. Langages de modélisations spécifiques à la robotique tâches à l’intérieur d’un composant. De plus, les composants de natures différentes ne sont pas distingués, il n’est pas donc pas possible de générer du code vers plusieurs plateformes hétérogènes. L’évolution du DSL et des plateformes cibles n’a pas été abordée pour le modèle RTC. Par ailleurs, les abstractions du matériel ne sont pas prises en charge. 4.3 Synthèse Les DSML existants pour la robotique répondent partiellement aux exigences présentées précédemment comme le montre le tableau III.4. BCM [3], SmartSoft [16], V3CMM [6], GenoM3 [86] et RTC [89] permettent la représentation d’une architecture à base de composants contrairement à ORCCAD [4] qui spécifie plutôt le niveau fonctionnel (Robot Task) et le niveau contrôle (Robot Procedure) d’une application. L’indépendance par rapport aux plateformes cibles a été respectée dans les DSML existants soit à travers des modèles indépendant des plateformes comme le cas de BCM, SmartSoft, V3CMM, ORCCAD et RTC ou à travers des templates comme le cas de GenoM3. Concernant la neutralité vis-à-vis des architectures de robotique elle est également gérée dans les travaux existants vu qu’aucun concept spécifique à une architecture particulière n’est spécifié. En revanche, la génération de code vers plusieurs plateformes cibles hétérogènes (c.-à-d. simulateur et middleware ou plusieurs middleware), la prise en charge de l’évolution des plateformes cibles, l’évolution du DSL ainsi que la représentation des abstractions du matériel ne sont pas actuellement prises en charge dans les travaux existants. 5 Conclusion Dans ce chapitre, nous avons présenté les DSML et leur cycle de vie. Nous avons ensuite étudié les travaux existants mettant en oeuvre les techniques d’ingénierie dirigée par les modèles afin de répondre aux problèmes constatés dans le développement des applications de robotique dûs à la variabilité du matériel, des algorithmes et des middleware et permettre ainsi une facilité d’utilisation, de développement et de réutilisabilité des applications. Nous avons vu que ces travaux ne gèrent pas l’hétérogénéïté des plateformes cibles. La distinction entre les composants matériel et les composants logiciels n’est pas 58III.5 Conclusion effectuée au niveau de la modélisation. De plus, les abstractions du domaine définies sont insuffisantes car elles sont très générales, elles sont souvent basées sur l’architecture des plateformes cibles (architecture à base de composants). SmartSort se distingue par la stabilité des patterns de communication qu’il propose et donc par des abstractions pour la communication basées sur une expertise du domaine. Certes ces DSML traitent le problème de l’indépendance par rapport aux plateformes cibles mais il devrait être possible de manipuler les concepts de robotique tels qu’ils sont utilisés par les roboticiens en fixant tout d’abord une terminologie du domaine définie par des roboticiens. De plus, il devrait être possible de générer du code vers plusieurs plateformes supportant ou non les aspects temps-réels. Dans le chapitre suivant, nous présentons notre DSML pour la robotique : RobotML et les solutions que nous proposons afin de répondre aux exigences présentées dans ce chapitre. 59Chapitre III. Langages de modélisations spécifiques à la robotique Caractéristiques V3CMM [6] SmartSoft [16] ORCCAD [ 4] BCM [3] Ge noM3 [86] RTC [89] Facilité d’utilisation Oui Oui Oui Oui Oui Oui Spécification d’une Oui Oui Non Oui Oui Oui architecture à base de composants Spécification du Oui Non Oui Non Oui Oui comportement des composants Indépendance des Oui Oui Oui Oui Oui Oui plateformes cibles Neutralité vis-à-vis Oui Oui Oui Oui Oui Oui des architectures de robotique Plusieurs plateformes Non Non Non Non Non Non cibles hétérogènes Prise en charge Non Non Non Non Non Non de l’évolution des plateformes Evolution du DSL Non Non Non Non Non Non Abstractions Non Non Non Non Non Non du matériel Table III.4 – Comparaison entre les DSML pour la robotique existants 60Deuxième partie Contributions 61Robotic Modeling Language (RobotML) 1 Introduction Notre étude des travaux existants a montré que les concepts utilisés dans les DSML de robotique actuels sont insuffisants pour représenter tous les aspects d’une application de robotique. D’une part les DSML existants se concentrent sur la repré- sentation de la partie architecturale ou (et) celle de contrôle et de communication d’une application en utilisant des modèles à base de composants généralistes qui ne se basent pas sur des abstractions du domaine. Par conséquent, ces abstractions ne permettent pas la gestion de la variabilité du matériel ou l’expression de données abstraites. De plus les travaux existants ne prennent pas en charge plusieurs plateformes cibles hétérogènes (de natures différentes : simulateurs et middlewares). Afin de faciliter le développement des applications de robotique, il devrait être possible pour un roboticien de pouvoir manipuler des concepts qu’il a l’habitude d’utiliser à travers des modèles et des outils qui leurs sont associés. Ces concepts peuvent être extraits à partir de systèmes existants telles que les ontologies qui représentent des bases de connaissance du domaine. Il devrait aussi être possible d’exprimer le comportement d’un composant à un niveau plus abstrait que le code à travers des automates par exemple. Enfin, les concepts d’un DSML devraient être suffisamment génériques pour prendre en charger plusieurs plateformes cibles hétérogènes. Nous avons ainsi contribué au développement d’un DSML pour la robotique : RobotML qui offre un langage axé sur des abstractions du domaine permettant tout d’abord de réduire le fossé sémantique entre les roboticiens et les développeurs. Ces abstractions sont basées sur une ontologie du domaine définie par des experts de 63Chapitre IV. Robotic Modeling Language (RobotML) robotique. De plus, RobotML offre une chaîne d’outillage allant de la modélisation de scénarios de robotique jusqu’à la génération de code vers plusieurs plateformes cibles hétérogènes facilitant ainsi le développement des applications de robotique. Les composants de différentes natures sont distingués dans RobotML. Par exemple, on distingue les composants matériels des composants de contrôle et des composants de déploiement. RobotML permet : – la spécification de l’architecture d’un système de robotique : composants de contrôle, composants matériel, leurs ports et les types de données qu’ils s’échangent. – la spécification de la communication entre les composants à travers des ports de flots de données ou des ports de service. Il est également possible de préciser le type de communication entre les composants (synchrone ou asynchrone). – la spécification du comportement des composants de l’architecture du système à travers des machines à états ou des algorithmes. – la spécification d’un plan de déploiement qui permet de définir plusieurs plateformes cibles hétérogènes (simulateurs et middleware). RobotML a été développé dans le cadre du projet ANR PROTEUS (Plateforme pour la Robotique Organisant les Transferts Entre Utilisateurs et Scientifiques) [95]. PROTEUS compte quinze partenaires notamment, DASSAULT Aviation [96], ECA [97], CEA [98], GOSTAI [99], Intempora [100], THALES [101], LASMEA [102], TOSA [103], GREYC [104], INRIA [105], ONERA [106], PRISME [107], EFFIDENCE [108], WIFIBOT [109] et enfin le LIP6 [110] au sein duquel cette thèse a été réalisée. Notre contribution dans le cadre du projet PROTEUS a consisté à participation aux différentes phases de développement de RobotML et à la définition des parties contrôle et communication de RobotML. De plus, nous avons défini un générateur de code à partir de RobotML vers le middleware OROCOS. Dans ce chapitre, nous décrivons le cycle de vie de RobotML et sa chaîne d’outillage. Nous présenterons enfin un exemple de scénario défini avec RobotML. 64IV.2 Vue d’ensemble sur le cycle de vie de RobotML 2 Vue d’ensemble sur le cycle de vie de RobotML Comme nous l’avons présenté dans le chapitre 3, le cycle de vie d’un DSML comporte quatre phases : l’analyse du domaine, la conception, l’intégration des plateformes cibles à travers la définition de générateurs de code et enfin l’utilisation. Pour effectuer l’Analyse du domaine, nous nous sommes basés sur un état de l’art sur les middleware, les simulateurs et les DSL existants pour la robotique. Cet état de l’art a permis d’identifier certaines exigences notamment l’indépendance par rapport aux plateformes cibles (middleware et simulateurs) et la représentation d’une architecture à base de composants. Ces dernières, combinées avec les concepts du domaine fournis par une ontologie de la robotique mobile définie dans le cadre du projet PROTEUS, ont permis de délimiter le domaine d’application (c.-à-d. la robotique mobile) et d’extraire de l’ontologie les abstractions dont les roboticiens ont besoin pour la définition de leurs applications. Après cette étape d’analyse du domaine arrive l’étape de Conception où l’on identi- fie la syntaxe abstraite ainsi qu’une syntaxe concrète qui s’articule autour de cette syntaxe abstraite afin de fournir un éditeur graphique permettant de manipuler les concepts du domaine. Plusieurs générateurs de code ont ensuite été implantés afin d’établir des règles de transformations à partir de ces abstractions vers les plateformes cibles. Enfin, la phase d’utilisation de RobotML consiste à tester toute la chaîne d’outillage de la modélisation vers la génération de code. 3 Analyse du domaine L’analyse du domaine pour la définition de notre DSML se base sur une ontologie de la robotique mobile définie dans le cadre du projet PROTEUS [7] ainsi que sur l’état de l’art des simulateurs et des middleware robotique. Une ontologie est une représentation formelle des connaissances décrivant un domaine donné [111]. L’ontologie de PROTEUS a été construite à partir de la connaissance des experts en robotique dans différents sous-domaines. Leur expertise porte sur les domaines suivants : commande, contrôle, perception, navigation, localisation, contrôle du trafic, optimisation, planification et simulation. Afin de partager leurs connaissances, des experts du domaine partenaires du projet PROTEUS, se sont réunis pour décrire des scénarios et pour exprimer leurs connaissances et leurs besoins dans la robotique 65Chapitre IV. Robotic Modeling Language (RobotML) mobile autonome. À partir de ces réunions, les exigences de l’ontologie ont été défi- nies. Ces exigences concernent la modélisation de la mécanique et des composants électroniques ainsi que des architectures de contrôle, les systèmes, les simulateurs, etc. Ces exigences incluent également la modélisation d’un robot donné ainsi que le suivi de son évolution (comportement) pendant l’exécution de son scénario. Comme il faut modéliser le comportement du robot, il est nécessaire de modéliser son environnement et sa mission. L’ontologie a été définie autour du concept System. Ce dernier représente une entité ayant des intéractions, il peut être considéré comme un composant au sens du génie logiciel. Un System est défini comme un bloc qui déclenche des intéractions et est impacté par les intéractions des autres systèmes. Le choix d’une représentation d’une telle architecture a pour but de permettre la définition des composants, de leurs comportements et des différents échanges de données entre eux. Ainsi, le code final généré à partir du DSML (dont les concepts sont extraits de l’ontologie) pourra correspondre aux concepts architecturaux utilisés par les plateformes cibles. L’ontologie de PROTEUS a été décrite avec le langage OWL que nous avons pré- senté dans la section 3.1.1.1 et est organisée de manière modulaire où les modules sont définis comme une spécialisation du module principal (le Kernel). Certains modules permettent de spécifier les classes décrivant les System, leurs ports et leurs caractéristiques. D’autres modules servent à décrire l’environnement du robot, les outils de simulation utilisés pour tester les solutions ou encore les expérimentations (validation, vérification, tests). La figure IV.15 montre la classification des différents systèmes (System) définis par l’ontologie. Comme nous l’avons dit un System est une entité ou une unité logique qui réalise une intéraction, il peut lui même comporter d’autres Systems dans ce cas, il s’agit d’un CompositeSystem. Les PhysicalObject, Software et AtomicSystem sont des Systems. Un PhysicalObject décrit toutes les entités physiques dans un scénario de robotique. Il peut être un Hardware (c.-à-d. horloge, effecteur, un bus de communication ou encore un capteur) sur lequel le Software s’exécute. Un PhysicalObject peut également être un Agent capable d’agir comme les robots (Robot) et les humains (Human). La figure IV.16 montre la relation entre les différentes Systems. Une Interaction est un concept abstrait utilisé pour décrire les intéractions entre les Systems. Elle s’effectue à travers des Ports qui représentent des interfaces pour les entrées/sor- 66IV.3 Analyse du domaine Figure IV.15 – Classification des systèmes dans l’ontologie (extrait de [7]) ties entre les Systems. Un System possède un état et un modèle d’évolution. Un EvolutionModel représente la propriété intrinsèque d’un composant d’évoluer à travers le temps. Deux types spécifiques d’EvolutionModel sont distingués mais ne sont pas représentés dans cette figure : Algorithm et StateMachine. Un Algorithm est une méthode pour la résolution d’un problème sous forme d’une séquence d’instructions. Une machine à états est définie par des transitions, des événements et s’appuie sur des états (State) pour indiquer l’évolution d’un système à travers des états. Les données échangées entre les différents Systems sont représentées dans le module Information (voir figure IV.17). Une Information est directement ou indirectement liée à une intéraction. Le lien direct indique qu’une intéraction transmet des informations. Le lien indirect indique qu’une intéraction possède un protocole qui contient des informations. Une Abstraction est une Information qui n’est pas directement interprétée par la machine. Contrairement aux abstractions, Data est une information directement interprétée par la machine. Une spécification de Data qui n’est pas représentée sur cette figure est PhysicalData ; elle désigne un objet mathématique-algébrique ayant une unité physique associée. 67Chapitre IV. Robotic Modeling Language (RobotML) Figure IV.16 – Intéraction entre les systèmes dans l’ontologie (extrait de [7]) Figure IV.17 – La classe Information dans l’ontologie (extrait de [7]) Les classes de l’ontologie représentant les concepts du domaine peuvent être reprises, modifiées ou supprimées dans le DSML. Par exemple, Interaction permet de définir un lien entre deux Systems mais n’est pas assez explicite. Nous l’avons remplacé dans le modèle du domaine par les concepts Port et Connector pour cap- 68IV.4 Conception de RobotML turer les propriétés d’une intéraction. Le principal avantage de cette démarche est de pouvoir réutiliser les bases de connaissance des experts du domaine pour enrichir le DSML [112]. L’ontologie constitue le point d’entrée du modèle du domaine de RobotML. Dans le projet PROTEUS, le but de la définition de l’ontolgie dépasse la représentation des concepts du domaine. L’une des ambitions de son utilisation consiste à normaliser le domaine de la robotique mobile. Cet objectif n’est pas encore atteint car les abstractions définies dans l’ontologie sont basées sur les connaissances des roboticiens comme nous l’avons présenté précédemment ou sur des descriptions de scénarios qu’ils souhaitent représenter et non pas sur des exemples concrets. On ne sait donc pas comment implanter certaines de ces abstractions. Dans la section suivante nous présentons la conception de RobotML qui se base sur les concepts de l’ontologie pour représenter les abstractions du domaine. 4 Conception de RobotML La conception de RobotML est passée par les étapes suivantes : 1. Extraction des abstractions du domaine à partir de l’ontologie : Les exigences d’un langage de domaine pour la robotique présentées dans la section 4.1 du chapitre 3. sont extraites de l’ontologie d’une part et de l’état de l’art sur les simulateurs et les middleware d’une autre part. 2. Représentation de ces abstractions dans un modèle du domaine sous forme d’un méta-modèle puis dans un profil qui étend les concepts d’UML pour les adapter aux concepts du domaine. 3. Après la vérification et la validation de la syntaxe abstraite, définition de la syntaxe concrète sous forme d’un éditeur graphique basé sur le profil UML. Dans cette section nous présentons toutes ces étapes. 4.1 Syntaxe abstraite Le DSML doit correspondre aux concepts du domaine provenant de l’ontologie. Ceci constitue la première exigence du DSML afin d’utiliser une terminologie défi- nie par les experts du domaine de la robotique. À partir de l’ontolgie, les concepts 69Chapitre IV. Robotic Modeling Language (RobotML) spécifiques aux domaines sont alors extraits. Ces concepts sont filtrés pour n’en retenir que ceux dont on a besoin pour la définition d’une application de robotique : l’architecture (les composants, leurs ports, les types de données), la communication entre les composants ainsi que leurs comportements. La syntaxe abstraite de RobotML a d’abord été représentée dans un modèle du domaine (méta-modèle) puis dans un profil qui étend les concepts d’UML pour les adapter aux concepts du domaine. Les concepts du modèle du domaine ont généralement le même nom que ceux de l’ontologie sauf si ces derniers ne sont pas assez explicites comme le cas du concept Interaction que nous avons remplacé par les concepts Port et Connector. Étant donné que l’on souhaiterait que notre DSML supporte plusieurs plateformes cibles hétérogènes, les concepts du DSML sont également extraits à partir d’un état de l’art sur les simulateurs et les middlewares. Deux stratégies simples sont possibles pour extraire les concepts correspondant à plusieurs plateformes : faire l’union ou l’intersection des concepts de ces plateformes. Autrement il faudrait réaliser un travail considérable de factorisation et de construction de nouvelles abstractions ce qui n’a pas été possible dans Proteus malheureusement. Si nous choisissons l’intersection des concepts identifiés dans les plateformes, on imposerait des restrictions et les concepts de certaines plateformes ne pourraient pas être représentés. Si nous choisissons l’union, nous couvrons les concepts existants et aussi, il sera plus facile de supporter des nouvelles plateformes. Nous avons alors choisi l’union des concepts identifiés dans les plateformes. Cependant, le DSML devient ainsi plus complexe que les plateformes cibles et il est possible que des concepts ne soient pas traduisibles sur certaines plateformes Le tableau IV.5 montre la correspondance entre les concepts utilisés pour définir l’ontologie en OWL (voir section 3.1.1.1 et les concepts d’UML que nous avons utilisés pour représenter notre modèle de domaine. Classe OWL Concepts d’UML Concept Class subClassOf Inheritence Property Association, Attribute Property :IsA Inheritence Property :HasA Composition Cardinality Multiplicity Table IV.5 – Correspondance entre OWL et UML 70IV.4 Conception de RobotML Dans ce qui suit nous présentons notre modèle de domaine ainsi que le profil UML. 4.1.1 Le modèle de domaine RobotML : méta-modèle L’objectif principal de notre DSML consiste à permettre aux roboticiens de manipuler les concepts dont ils ont l’habitude d’utiliser pour la définition de leurs applications. Nous avons distingué trois parties dans notre modèle de domaine : la partie architecture, la partie communication et la partie contrôle. Cette distinction découle des principales parties à définir pour une application de robotique. La figure IV.18 montre une vue globale des principaux packages du modèle du domaine RobotML : Figure IV.18 – RobotML Domain Model – Le package RoboticArchitecture regroupe les concepts architecturaux et structurels qui définissent une application de robotique. Ce package représente la partie Architecture. – Le package RoboticBehavior permet de définir le comportement d’un composant d’une application de robotique à travers une machine à états finis ou des algorithmes. Ce package représente la partie Control. – Le package RoboticCommunications définit la communication entre les composants à travers des ports et des connecteurs. Ce package représente la partie Communication. – Le package Deployment permet de spécifier les propriétés relatives au déploiement des composants en représentant les plateformes cibles (middleware ou 71Chapitre IV. Robotic Modeling Language (RobotML) simultaurs) vers lesquelles le code des composants sera généré. 4.1.1.1 La partie Architecture Cette partie représente les concepts qui permettent de définir l’architecture d’un scénario de robotique sous forme d’un modèle à base de composants ayant des propriétés, des ports et des types. La partie Architecture comporte six packages comme le montre la figure IV.19 : le package RoboticSystem, le package SystemEnvironment, le package DataType, le package RoboticMission, le package Platform et le package Deployment que nous détaillerons dans ce qui suit. Figure IV.19 – RoboticArchitecture Package 1. Le package Robotic System (voir Figure IV.21). La méta-classe System représente un composant ayant une activité (attribut activity) et qui peut être local ou non (attribut native). Cet attribut permet d’indiquer si un composant qui satisfait le même rôle existe déjà localement sur la machine. Les attributs libraryPath et LibraryComponentName sont respectivement le chemin et le nom de ce composant existant qu’on peut associer au composant représenté. Un System a une ou plusieurs propriétés (Property), un ou plusieurs ports (Port) et des connecteurs (Connector) qui permettent de relier les ports entre eux. La méta-classe Property est soit une propriété d’un système dans le sens attribut (méta-classe BasicProperty de la figure IV.20) soit une partie d’un système (méta-classe Part de la figure IV.20). 72IV.4 Conception de RobotML Figure IV.20 – La méta-classe Property La méta-classe Port sera développée dans la partie Communication. Un System a un comportement exprimé à travers la méta-classe Evolution Model que nous détaillerons dans la partie Control. Un RoboticSystem est un System permettant de représenter un composant concret, il a une position et une orientation. La méta-classe SensorSystem représente les capteurs, l’attribut frequency est la fréquence de chargement des données des capteurs. La métaclasse ActuatorSystem représente les effecteurs. Ces deux méta-classes sont spécialisées dans d’autres types de capteurs et d’effecteurs spécifiques que nous ne présenterons pas car nous nous intéressons uniquement aux concepts du DSML et non aux détails spécifiques des capteurs et des effecteurs. Figure IV.21 – Le package RoboticSystem 73Chapitre IV. Robotic Modeling Language (RobotML) 2. Le package SystemEnvironment. Ce package définit les concepts de l’environnement où le robot évolue. Cette représentation permet de définir les environnements de simulation par exemple. 3. Le package DataType. Ce package permet de spécifier les types de données qui vont être utilisés par les ports, les propriétés, etc. (voir figure IV.22). Figure IV.22 – RobotML Data Types Un data type peut être : – une donnée physique Physical Data : Ce type représente une unité mathé- matique associée à un objet physique. Cet object mathématique peut être considéré comme une abstraction d’une donnée physique. On trouve par exemple les types Distance, Angle, Acceleration comme le montre la figure IV.23. La sémantique exacte de ces types est gérée ensuite par l’utilisateur. En effet, au niveau du DSML, ces types n’ont pas de sémantique opérationnelle. Par exemple, le type distance peut désigner une distance par rapport à un obstacle ou une distance de sécurité, etc. Figure IV.23 – physicalData 74IV.4 Conception de RobotML – un type composé ComposedData. C’est un type qui représente des données communes à des objets du domaine de la robotique. Comme par exemple GPS, Image, etc. (voir figure IV.24). Figure IV.24 – Types composés de RobotML – un type primitif PrimitiveData comme par exemple le type bool, int, char, etc. (voir figure IV.25). – une collection c.-à-d. listes, tables de hashage, séquences, etc. – un timestamped data qui associe un horodateur à une donnée pour connaître son évolution au fil du de l’exécution (si elle reste valide, etc.). Figure IV.25 – Types primitifs de RobotML Étant donné que le middleware ROS a été intégré à la plupart des plateformes cibles de RobotML (OROCOS, RT-Maps, etc.), nous avons également défini une librairie basée sur les types ROS afin de faciliter leur utilisation par les uti- 75Chapitre IV. Robotic Modeling Language (RobotML) lisateurs de RobotML. Ces types sont représentés comme des DataType comme le montre la figure IV.26 où les geometry_msgs de ROS sont représentés. Figure IV.26 – Intégration des geometry_msgs de ROS à RobotML 4. Le package Robotic Mission. Ce package décrit les concepts qui sont requis pour la définition d’une mission opérationnelle et qui sont utilisés par les composants de l’architecture qui réalisent cette mission. Ce package est typiquement utilisé pour la représentation des scénarios. 5. Le package Platform (voir figure IV.27). Il définit les plateformes qui représentent l’environnement d’exécution. La méta-classe Platform peut être un middleware (méta-classe RoboticMiddleware) ou un simulateur (RoboticSimulator). L’attribut RoboticMiddlewareKind est typpé par une énumération où les noms des middleware pris en charge par le DSML sont spécifiés. Aucune propriété des middleware n’est représentée. Le choix d’un middleware servira uniquement au déploiement. De même pour la méta-classe RoboticSimulator qui est spécialisée en trois méta-classes où il y a seulement besoin de spécifier la configuration souhaitée de l’exécution (temps-réel ou non, valeur de la gravité, etc.) selon le simulateur choisi. 6. Le package Deployment permet l’allocation d’un composant (méta-classe System) vers une plateforme (méta-classe Platform) comme le montre la figure IV.28. 76IV.4 Conception de RobotML Figure IV.27 – Le package Platform Figure IV.28 – Le package Deployment Pour résumer, à partir de la partie architecture, il est possible de représenter le squelette d’un composant : ses ports, les types de ses ports ainsi que ses propriétés. Un composant peut être un composant matériel (capteur ou effecteur) ou un composant de contrôle. Dans la section suivante, nous présentons la partie control qui permet de spécifier le comportement d’un composant. 4.1.1.2 La partie Contrôle Cette partie du DSML est la partie responsable de la spécification du comportement des composants de contrôle d’un système de robotique. Nous allons maintenant expliquer quel contrôle nous souhaitons exprimer : – Le contrôle à boucle fermée (Feedback control) : Dans ce cas le système doit avoir un retour (une connaissance) sur son état après l’exécution d’une commande. 77Chapitre IV. Robotic Modeling Language (RobotML) – Le contrôle à boucle ouverte (open loop control) : Dans ce cas le système ne récupère pas les informations sur son état après l’exécution d’une commande. On retrouve ces boucles de contrôle dans les architectures que nous avons présentées dans la section 3.3 du chapitre 1. Si l’architecture est réactive, le principe est celui de Stimulus/Réponse. Il y a donc une action qui est définie suite à un état dans lequel se trouve le robot. Si l’architecture est basée sur le comportement, il devrait être possible de suivre l’évolution des comportements du robot et de les activer/dé- sactiver. Si l’architecture est hybride ou délibérative, le contrôle se base sur un plan. Il devrait alors être possible de représenter l’état du robot dans son plan. Le contrôle peut alors être exprimé comme un automate qui permet l’expression des instructions d’un composant à un niveau plus abstrait que le code. Pour commencer, l’utilisateur peut spécifier un automate où les états par lesquels le robot pourrait passer sont représentés. Il faudrait ensuite spécifier quels sont tous les états possibles à partir d’un état donné et sous quelle condition la transition entre ces états est déclenchée. Si le contrôle se base sur une boucle ouverte, la transition d’un état à un autre est déclenchée directement à partir du premier état. En revanche lorsqu’il s’agit d’une boucle fermée, la transition est déclenchée selon le retour de la commande exécutée. La figure IV.29 montre une vue globale des packages qui interviennent pour la définition de la partie comportementale d’un composant. Le comportement des composants est défini sous forme de machines à états finis (FSM) ou avec des algorithmes. Figure IV.29 – Le package RoboticBehavior La figure IV.30 donne une vue détaillée sur le package FSM. Evolution Model, conformément à sa description dans l’ontologie, est utilisé pour décrire le cycle de vie ou le comportement d’un composant (System). La méta-classe FSM hérite de 78IV.4 Conception de RobotML la méta-classe EvolutionModel. Une FSM est un automate composé d’états et de transitions. Ce package est fortement inspiré de la spécification des machines à états du méta-modèle d’UML. Les états représentent les actions que le robot doit effectuer. Nous distinguons les états initiaux des étaux finaux dans les FSMs. L’état initial Initial State est le premier état visité lorsqu’une FSM est exécutée, il est typiquement utilisé pour effectuer les initialisations requises pour la FSM. L’état final Final State indique que l’exécution de la FSM est terminée. Les transitions (Transition) forment des liens entre les états de la FSM. Une transition a un état source incoming et un état destination outgoing. Une transition peut aussi avoir une GuardCondition et un évènement (Event). Les états et les transitions sont composés de FSM Activities spécifiant les actions à exécuter (méta-classe Effect) pendant un état ou lors d’une transition donnée. Figure IV.30 – Le package FSM Dans la section suivante, nous présentons la communication entre les différents composants d’une application. 4.1.1.3 La partie communication Cette partie doit permettre la spécification de la communication entre les composants à travers des ports et des connecteurs. Nous nous sommes inspirés des mécanismes de communication utilisés dans SmartSoft [82] et nous les avons adapté aux concepts décrits par l’ontologie. La communication est réalisée à travers un échange synchrone ou asynchrone de données ou des appels de service. La figure IV.31 décrit les ports d’un composant. La méta-classe Port représente un point d’intéraction du système. On distingue deux sortes de ports : 79Chapitre IV. Robotic Modeling Language (RobotML) – Les ports de données DataFlowPort qui permettent la communication à travers des flots de données entre les composants. La méta-classe DataFlowPort a pour type un DataType et possède un attribut direction = {In, Out, InOut} qui spécifie le sens de l’échange de données et un attribut bufferSize qui définit la taille du buffer où les données sont enregistrées. La direction des ports est l’un des exemples de l’union des concepts des plateformes cibles que nous avons évoqué lorsque nous avions parlé de l’extraction des abstractions pertinentes dans le DSML. En effet, la direction InOut n’est pas présente dans toutes les plateformes cibles. Cependant, interdire sa représentation au niveau du DSML engendrerait des contraintes pour l’utilisation des plateformes qui prennent en charge ce concept. – Les ports de service ServicePort qui sont spécifiques à la communication client/serveur. La méta-classe ServicePort a un attribut serviceKind qui indique si le port est fourni ou requis. Un ServicePort a pour type une interface qui définit un ensemble d’opérations abstraites. La méta-classe CommunicationPolicy spécifie le type de communication utilisé (attribut synchronizationPolicy= {Synchrone/Asynchrone}) et la stratégie employée par le buffer (attribut strategyPolicy= {FIFO, LIFO}). Figure IV.31 – Les mécanismes de communication 4.1.2 Le profil RobotML Le profil RobotML définit des extensions des méta-classes du méta-modèle UML afin de les adapter aux concepts identifiés dans le modèle de domaine RobotML. 80IV.4 Conception de RobotML L’objectif de notre démarche est de pouvoir définir un éditeur graphique avec Papyrus [61] qui se base sur le profil RobotML et qui permet de manipuler les concepts identifiés à travers des modèles de scénarios de robotique. Pour définir le profil, les abstractions identifiées dans les parties représentées dans le modèle de domaine RobotML ont été reprises pour étendre les méta-classes d’UML. Le profil comporte alors trois parties principales conformément au modèle de domaine RobotML : architecture, communication et contrôle. Dans la partie architecture du profil, la méta-classe System et toutes les méta-classes qui la spécialisent sont transformées en stéréotypes qui étendent la méta-classe Class du méta-modèle UML comme le montre la figure IV.32. Les propriétés des métaclasses de RobotML comme par exemple les méta-classes RoboticSystem, Robot et Software sont transformées en tagged values des stéréotypes RoboticSystem, Robot et Software du profil. Figure IV.32 – Extrait de la partie Architecture : Stéréotypes extensions de la métaclasse Class d’UML Concernant la partie communication, la méta-classe Port du modèle de domaine RobotML et toutes les classes qui la spécialisent sont également transformées en stéréotypes qui étendent la méta-classe Port du méta-modèle UML comme le montre la figure IV.33. Les propriétés des méta-classes ServicePort et DataFlowPort du modèle de domaine RobotML sont définies comme des tagged values des stéréotypes ServicePort et DataFlowPort du profil. De la même façon, les méta-classes de RobotML représentant les aspects qui relèvent du contrôle ont été représentés à travers des stéréotypes qui étendent les méta-classes définissant les machines à états dans le méta-modèle UML (State, Transition, etc.) comme le montre la figure IV.34 pour les stéréotypes State et Transition. Concernant la méta-classe Algorithm de RobotML, elle est définie comme un stéréotype qui étend la méta-classe Operation du méta-modèle UML. 81Chapitre IV. Robotic Modeling Language (RobotML) Figure IV.33 – Extrait de la partie communication : Stéréotypes extensions de la métaclasse Port d’UML Figure IV.34 – Extrait de la partie Control : Stéréotypes extensions des méta-classes du méta-modèle d’UML Chaque stéréotype du profil que nous défini peut avoir une icône associée pour sa représentation graphique. Nous allons présenter dans ce qui suit l’éditeur graphique de RobotML. 4.2 Syntaxe concrète : L’éditeur graphique de RobotML L’éditeur graphique de RobotML a été conçu en utilisant l’outil Papyrus [61]. Afin de définir l’éditeur graphique, des icônes peuvent être rattachées graphiquement aux stéréotypes du profil de RobotML. Selon la sémantique d’utilisation l’une des icônes est affichée. La partie gauche de la figure IV.35 montre les icônes attachées aux stéréotypes SensorSystem, ActuatorSystem, DataFlowPort et ServicePort. Ces icônes sont ensuite représentées dans la palette (partie droite de la figure). Les stéréotypes SensorSystem, ActuatorSystem ont une seule icône attachée qui représente un capteur ou un effecteur. Le stéréotype DataFlowPort a trois icônes attachées, chacune 82IV.4 Conception de RobotML correspond à un type de DataFlowPort selon la direction utilisée {In, Out, InOut}. Le stéréotype ServicePort n’a que deux états possibles {Required, Provided}, chacun d’entre eux a une icône qui lui correspond. Figure IV.35 – À gauche, les icônes attachées aux stéréotypes, à droite la palette montrant les différentes icônes En plus des icônes, il est possible d’associer un ensemble de stéréotypes à des diagrammes dédiés à une représentation d’une partie du modèle. Plusieurs diagrammes sont proposés comme le montre la figure IV.36. Le model Explorer contient les élé- ments du modèle représentés à travers les différents diagrammes. Le diagramme de définition des composants permet de représenter les composants d’une application ainsi que les capteurs et les effecteurs. Le diagramme de machine à états et la palette qui lui est associé contient les concepts State, Final State, Initial State et Transition. La vue Properties permet de spécifier les propriétés des éléments du modèle. À partir des modèles représentés avec cet éditeur graphique on peut générer du code exécutable vers une ou plusieurs plateformes cibles. La section suivante présente la génération de code vers le middleware OROCOS. 83Chapitre IV. Robotic Modeling Language (RobotML) Figure IV.36 – Environnement de modélisation de RobotML 5 Intégration du middleware OROCOS : génération de code Les concepts de RobotML étant définis à partir de l’état de l’art sur les middlewares et les simulateurs et d’une ontologie de la robotique, regroupent l’union des concepts identifiés dans les plateformes cibles ainsi que des abstractions du domaine. Par exemple, les ports d’entrée sortie présentés précédemment : le concept InOutPort n’est pas présent dans toutes les plateformes. Nous l’avons représenté dans le modèle du domaine car nous avons fait le choix de ne pas imposer de restrictions sur les concepts des plateformes. Ainsi il est possible de représenter les plateformes qui utilisent ce concept. La génération de code permet de founir à partir d’un modèle de scénario une application exécutable facilitant ainsi le développement des applications de robotique. Les plateformes cibles des générateurs peuvent évoluer mais les abstractions que nous avons utilisées sont suffisamment stables pour supporter cette évolution à court terme. En d’autres termes, le développement des générateurs de code définis à partir de RobotML est un processus plus rapide que l’évolution des plateformes cibles. Bruyninckx et al. [3] ont argumenté le fait qu’ils ne pouvaient pas intégrer leur approche de la séparation des responsabilités à leur méta-modèle (voir figure III.8) par le fait que les plateformes cibles se basaient sur des architectures stables qui ne vont pas évoluer vers d’autres architectures. Ainsi, la définition des générateurs de code faciliterait le développement des appli- 84IV.5 Intégration du middleware OROCOS : génération de code cations de robotique et permettrait d’accélérer le processus de développement. La première étape pour l’intégration des plateformes cibles est d’établir des règles de correspondance entre les éléments du DSML et les plateformes cibles. Grâce au respect de RobotML des exigences du domaine et de celles des middleware et des simulateurs de robotique, il est possible d’établir des règles de transformations à partir de RobotML vers plusieurs plateformes hétérogènes. Dans le cadre du projet PROTEUS, plusieurs générateurs de code ont été réalisés vers : OROCOS-RTT[47], RTMaps[113], Urbi [114] et Arrocam [115] et les simulateurs MORSE [116] et CycabTK [117]. Notre approche se base sur les techniques de la MDA présentées précédemment à l’exception que notre PSM est le code. Nous utilisons une API commune implantée qui permet d’interroger les éléments du modèle. En se basant sur cette API commune, chaque générateur définit les règles de transformation vers sa plateforme cible en utilisant l’outil Acceleo [67]. Le middleware ROS a joué un rôle important dans le développement des générateurs de code. Étant donné qu’il a été intégré aux plateformes cibles prises en charge par RobotML, nous utilisons les topics ROS pour l’échange des données entre les composants générés vers des plateformes hétérogènes. Nous présentons dans cette section le générateur de code OROCOS-RTT qui définit des transformations de modèle vers texte à partir de RobotML. Le générateur de code a été implanté en utilisant Acceleo. OROCOS (Open RObot COntrol Software) est un framework temps-réel à base de composants C++ [47], appelé aussi OROCOS-RTT (Real-Time Toolkit) pour son aspect temps-réel. Les composants OROCOS intéragissent par un échange de données, d’évènements ou de services à travers des ports. L’échange de données est effectué par des data flow ports d’entrée/sortie, les événements indiquent un changement dans le système et l’échange de services est effectué à travers des simples appels de méthodes. Les composants OROCOS peuvent être définis sous forme de machine à états finis hiérarchiques. 5.1 Génération du squelette d’un composant Le tableau IV.6 montre la correspondance entre les concepts du DSL architecture décrivant les concepts relavant de la structure globale d’un composant et les 85Chapitre IV. Robotic Modeling Language (RobotML) Concepts de RobotML concepts d’OROCOS Property Task Context Attribute Attribute Port – Primitive DataType C++ types Composed DataType Data structure Interface Abstract class Attribute Attribute Interface Operation Virtual Method Operation Operation Parameter Parameter Table IV.6 – Correspondance entre le DSL Architecture et les concepts d’OROCOS concepts d’OROCOS. Les composants OROCOS héritent de l’interface TaskContext et possèdent des propriétés et des threads d’exécution. Concernant les interfaces, elles sont géné- rées comme des classes abstraites ayant des méthodes virtuelles. Ces méthodes sont Concernant les Data Types, les Primitive DataTypes sont transformés en types C++. Concernant les types ComposedDataTypes ils sont générés comme des structures de données. 5.2 Génération de la communication entre les composants Concepts de RobotML concepts d’OROCOS Data Flow Port direction {In} Input Port Data Flow Port direction {Out} Output Port Service Port {Provided } this->provides(Operation) Service Port {Required} this->requires(OperationCaller) Table IV.7 – Correspondance entre le DSL Communication et les concepts d’OROCOS Les composants échangent les données et les appels de service à travers des ports de données (DataFlowPort) et des ports de service (ServicePort). Selon leurs directions, les ports de données sont transformés en InputPort ou en OutputPort comme le montre le tableau IV.7. Les ports de service, quant à eux, sont transformés en ServicePort qui fournissent ou requièrent une opération. Si le service est requis, le composant fait appel à l’opération définie dans l’interface à travers le mot clé OperationCaller en précisant le type de l’opération et ses paramètres. Dans le cas contraire (c.-à-d. si le service est fourni), le composant implémente l’opération en 86IV.5 Intégration du middleware OROCOS : génération de code question et indique qu’il la fournit en utilisant la méthode provides. L’échange de données à travers les composants est effectué à travers des ports de données. RobotML fournit un ensemble de types communément utilisés en robotique (Composed DataType) sous forme de bibliothèques. Ces bibliothèques permettent de réutiliser ces types sans avoir à les redéfinir à chaque fois. Selon la nature de ces composants et le plan de déploiement, les types de ces ports sont générés : – Si le composant est un composant de contrôle (System) et est connecté à d’autres composants de contrôle déployés sous le même middleware alors les types de ses ports sont les types indiqués dans le modèle. – Si le composant est un composant de contrôle et est connecté à un autre composant déployé sous un autre middleware alors le type de ses ports est traduit en type ROS. – Si le composant est un composant matériel (c.-à-d. capteur ou effecteur) alors les types de ses ports seront traduits en types ROS. – Si le composant est composant de contrôle et est connecté à un composant matériel alors les types de ses ports seront traduits en types ROS. Les bibliothèques définissant les types utilisés par les propriétés ou les ports d’un composant sont automatiquement importées dans le fichier source du composant. La connexion entre les composants est configurée dans un script OPS (OROCOS Program Script) qui permet la spécification de la périodicité, du type de communication entre les composants (ROS ou CORBA) comme le montre le tableau IV.8. Le plan de déploiement intervient également pour cette configuration. Une distinction est effectuée entre la communication inter-composants du même middleware (mot clé connectPeers) pour indiquer que la communication va s’appuyer sur CORBA. Autrement, le mot clé stream est utilisé pour spécifier que la connexion se fait entre des composants de natures différentes et que ROS sera utilisé. 5.3 Génération du comportement d’un composant Chaque composant a un comportement décrit en utilisant une machine à états finis (FSM) ou un algorithme. Les FSMs peuvent être définies grâce au package rFSM 2 intégré à OROCOS. Il permet la définition de scripts en Lua [118] puis de 2. http://people.mech.kuleuven.be/~mklotzbucher/rfsm/README.html#sec-1 87Chapitre IV. Robotic Modeling Language (RobotML) Concepts de RobotML Fichier OPS Communication Policy setActivity("ComponentA", period, priority, scheduler) setActivity("ComponentB", period, priority, scheduler) loadComponent("ComponentA", "A") loadComponent("ComponentB", "B") Connector var connPolicy x ; (composants homogènes) x.type = DATA ; //DATA = 0, BUFFER = 1 x.size = 1 ; //size of the buffer x.lock_policy = LOCK_FREE ; //UNSYNC = 0, LOCKED = 1, LOCK_FREE = 2 x.transport = 3 ; //ROS = 3 stream("componentA", x) Connector connectPeers("ComponentA", "ComponentB") (composants hétérogènes) Table IV.8 – Correspondance entre le DSL Communication et les concepts d’OROCOS les charger par les composants OROCOS. La tableau IV.9 décrit la correspondance entre les concepts de RTT-Lua et les concepts de RobotML. Concepts de RobotML concepts d’OROCOS State Machine StateMachine Initial State initial state{ entry{} run{} exit{}} Final State final state{ entry{} run{} exit{}} State state{ entry{} run{} exit{}} Transition rfsm.transition {src="InitialState", tgt="state1" Event ,events{} Guard ,guard=function() end Effect ,effect=function() end } Table IV.9 – Correspondance entre le DSL Contrôle et les concepts d’OROCOS La correspondance entre les états est triviale. Les gardes et les effets sur les transitions sont des fonctions dont le corps est défini par l’utilisateur à travers un stéréotype d’UML appelé OpaqueBehavior. À la génération, ces fonctions sont capturées à partir du modèle et injectées à la place de la balise . Un exemple de requête permettant de récupérer les transitions définies dans une machine à 88IV.5 Intégration du middleware OROCOS : génération de code états du modèle est donné dans le listing IV.6. Cette requête retourne un ensemble de transition (sequence(Transition) et fait appel à la fonction getTransitions(org.eclipse.uml2.uml.StateMachine) du template Acceleo FSMQueries. [ query public getTransitions ( sm : StateMachine ) : Sequence ( Transition ) = invoke ( ’ org . eclipse . robotml . generators . acceleo . mmqueries . FSMQueries ’ , ’ getTransitions ( org . eclipse . uml2 . uml . StateMachine ) ’ , Sequence { sm }) /] Listing IV.6 – Requête pour récupérer les transitions d’une machine à états D’autres requêtes sont également utilisées pour générer le code d’une machine à états. Un extrait d’un tempate Acceleo définissant les règles de transformation pour chaque requête sur les transitions, leurs gardes et leurs effets sont présentées dans listing IV.7. Pour chaque transition on récupère à partir des triggers qui lui sont associés les guards et les opérations qui leur sont associés (lignes 13 - 23) ainsi que les effets (lignes 24 - 34). 1 [ l e t t r a n s i t i o n s : S equ en c e (RobotML : : T r a n s i t i o n ) = g e t T r a n s i t i o n s ( fsm ) ] 2 [ fo r ( t r a n s i t i o n : RobotML : : T r a n s i t i o n | t r a n s i t i o n s ) ] 3 r fsm . t r a n s i t i o n { s r c=" 4 ␣␣␣␣ ␣ [ t r a n s i t i o n . b a s e_T r a n s i t i o n . s o u r c e . name / ] " , 5 t g t=" [ t r a n s i t i o n . b a s e_T r a n s i t i o n . t a r g e t . name / ] " 6 [ i f ( h a s T r i g g e r s ( t r a n s i t i o n . b a s e_T r a n s i t i o n ) ) ] 7 , e v e n t s={ 8 [ fo r ( t r i g : T r i g g e r | t r a n s i t i o n . b a s e_T r a n s i t i o n . t r i g g e r ) ] 9 ’ [ t r i g . name / ] ’ 10 [ / fo r ] 11 } 12 [ / i f ] 13 [ i f ( t r a n s i t i o n . guard <> nu l l ) ] 14 [ l e t guard : RobotML : : A lgor ithm = t r a n s i t i o n . guard ] 15 , guard=f u n c t i o n ( ) 16 [ l e t op : Op e r a t i on = g e tA s s o c i a t e dO p e r a t i o n ( guard . bas e_Op erat ion ) ] 17 [ fo r ( o : OpaqueBehav ior | g etOp erat ionM ethod ( op ) ) ] 18 [ o . _body / ] 19 [ / fo r ] 20 [ / l e t ] 21 end 22 [ / l e t ] 23 [ / i f ] 24 [ i f ( t r a n s i t i o n . e f f e c t <> nu l l ) ] 25 [ l e t e f f e c t : RobotML : : A lgor ithm = t r a n s i t i o n . e f f e c t ] 26 , e f f e c t=f u n c t i o n ( ) 27 [ l e t op : Op e r a t i on = g e tA s s o c i a t e dO p e r a t i o n ( e f f e c t . bas e_Op erat ion ) ] 28 [ fo r ( o : OpaqueBehav ior | g etOp erat ionM ethod ( op ) ) ] 29 [ o . _body / ] 30 [ / fo r ] 31 [ / l e t ] 32 end 33 [ / l e t ] 34 [ / i f ] 35 } , 36 [ / fo r ] 37 [ / l e t ] Listing IV.7 – Template de génération des transitions des machines à états vers OROCOS 89Chapitre IV. Robotic Modeling Language (RobotML) Nous avons implanté des templates définissant des règles de transformation pour tous les éléments du modèle vers du code OROCOS. Le but du générateur OROCOS consiste à fournir une application compilable et exécutable. Pour ce faire, un ensemble d’artefacts est également généré notamment : – un fichier makefile – un fichier CMakeLists.txt spécifiant le chemin des composants à charger pour l’application ainsi leurs noms. – un fichier manifest.xml spécifiant les librairies à importer pour l’application. Pour résumer, le générateur de code OROCOS prend en entrée le modèle représenté avec les outils de RobotML et fournit un ensemble de fichiers correspondants aux concepts de notre DSML comme le montre la figure IV.37. Figure IV.37 – Génération de code avec OROCOS 6 Utilisation : chaîne d’outillage RobotML Afin de valider notre DSML sur des exemples industriels, plusieurs scénarios (appelées challenges) ont été proposés dans le cadre du projet PROTEUS. RobotML fournit une chaîne d’outillage pour le développement des applications de robotique allant de la modélisation jusqu’à la génération de code et le déploiement vers des simulateurs ou des robots réels. L’utilisateur de RobotML commence par modéliser sa mission en représentant les types de données et les interfaces, les composants de contrôle et matériels, ainsi que 90IV.7 Validation et Expérimentations les connexions entre eux. Une fois le modèle validé, l’utilisateur définit un plan de déploiement qui consiste en un ensemble de middlewares et/ou de simulateurs inter-connectés pour former une plateforme d’exécution pour l’application finale. Chacun des composants définis doit être alloué vers une plateforme cible d’un modèle de déploiement. Typiquement, le système de contrôle du robot modélisé est généré vers un ou plusieurs middleware (selon le plan de déploiement défini). Quant aux capteurs, aux actionneurs et à l’environnement du robot, ils sont générés vers le simulateur choisi. De plus, l’utilisateur a la possibilité de réutiliser des composants déjà existants sur la plateforme qu’il souhaite en spécifiant leur chemin et leur nom. Dans ce cas, pour ce composant, seule sa connexion avec le reste des composants est générée. L’utilisateur peut maintenant générer du code exécutable à partir du plan de déploiement qu’il a défini. Figure IV.38 – Etapes de modélisation en utilisant RobotML 7 Validation et Expérimentations Pour réaliser la validation de RobotML et de la génération de code vers OROCOS, nous avons choisi d’utiliser l’un des scénarios proposés dans le cadre du projet 91Chapitre IV. Robotic Modeling Language (RobotML) PROTEUS par l’ONERA 3 appelé le scénario aérien (AIR OARP). 7.1 Scénario de l’AIROARP Le scénario Air OARP considère le problème de la planification pour la perception et la perception pour la planification d’un véhicule aérien sans pilote. Le sujet de recherche adressé par Air OARP concerne les questions en matière de planification de mouvement pour la recherche et le suivi d’une cible. La plateforme ReSSac sera utilisée afin de réaliser les différentes expérimentations de site Caylus. Le site Caylus est une zone rurale et légèrement urbanisée. La zone comprend des routes, des pistes, des arbres et des bâtiments. Certains bâtiments comme les granges et les hangars ont de grandes portes ouvertes. Certains intrus peuvent tenter de traverser la zone, de se cacher dans cette zone ou tenter de s’échapper quand ils sont détectés. L’objectif pourrait être alors de détecter, reconnaître, identifier, localiser et suivre les intrus. La surveillance d’une zone est incluse dans un carré avec 400 mètres de long bord et est réalisée en utilisant un véhicule aérien sans pilote (UAV). Quand un intrus est reconnu dans le domaine d’un appareil photo, l’objectif peut être de le garder dans le domaine aussi longtemps que possible. Dans la section suivante, nous montrons la modélisation de ce scénario avec RobotML. 7.2 Conception du scénario avec RobotML Nous commençons tout d’abord par présenter les différents types de données nécessaires pour ce scénario (voir figure IV.39). Le type State est un type utilisateur qui est défini par un numéro de phase, un compteur de trames, une altitude en baromètre, la vélocité et d’autres attributs qui spécifient l’état dans lequel se trouve le robot. Le type Image est un type utilisateur qui désigne l’image d’une caméra. Il est défini par une largeur, une longueur, un nombre de pixels et un attribut qui indique si cette image a une couleur ou non. Le type Waypoint est un type utilisateur qui indique les propriétés d’un point cible. Ce point a des coordonnées en 3 dimensions (m_x, m_y, m_z). Ce type permet aussi d’indiquer la direction que doit prendre le robot pour atteindre ce point ainsi que la vitesse d’approche pour aller à ce point. 3. http://www.onera.fr/ 92IV.7 Validation et Expérimentations Le type Way est un type qui spécifie le chemin du robot. Enfin, les types primitifs Double, bool, unsigned et char sont représentés. Figure IV.39 – Modèle des types de données AIR OARP Après les types des données, les interfaces ont été représentées avec RobotML (voir figure IV.40). L’interface ObcInterface est l’interface qui définit les actions du robot (par exemple : move, goTo, track et l’évolution de sa trajectoire dans son environnement (par exemple wayPointadd, wayPush, obstacleAdd). L’interface CameraInterface définit les opérations relatives aux images perçues par la caméra du robot (par exemple setBrighteness, setGain, etc.). Après avoir défini les types et les interfaces qui définissent les services que les composants vont s’échanger, les composants de l’application sont maintenant repré- sentés. Le composant Obc du package AvionicSystem prend en entrée les informations des capteurs de localisation afin de récupérer les informations sur l’état du robot en implémentant les opérations de l’interface ObcInterface. Le composant m_talc_cam_driv (voir figure IV.42) est un driver qui transforme les données physiques envoyées par la caméra en données de type Image (le type utilisateur défini). Ce composant implémente aussi les opérations de l’interface CameraInterface. Ces deux composants envoient ensuite l’état du robot et l’image perçue au composant RMaxControlSystem qui va décider de l’action à effectuer. Les opérations des 93Chapitre IV. Robotic Modeling Language (RobotML) Figure IV.40 – Les interfaces du scénario AIR OARP Figure IV.41 – Le composant AvionicSystem deux interfaces ObcInterface et CameraInterface sont des services requis par le composant de contrôle principal RMaxControlSystem. Dans la section suivante, nous présenterons la génération de code vers le middleware OROCOS. 7.3 Génération de code vers OROCOS La génération de code comme nous l’avons présentée précédemment permet de générer pour chaque concept de RobotML le code associé. Les interfaces et les types de données ont été traduits en structures de données définissant leurs propriétés et leurs opérations. Les composants représentés ont été traduits en composants OROCOS. Les interactions entre eux sont tranduites par des propriétés au niveau des fichiers de configuration ainsi qu’au niveau des ports. Enfin pour le composant de contrôle RMaxControlSystem, nous avons généré une 94IV.8 Discussion Figure IV.42 – Le composant CameraSystem Figure IV.43 – Modèle du scénario AIR OARP machine à états finis. Les résultats de cette génération de code sont disponibles sur la page 4. 8 Discussion L’objectif principal de RobotML est de fournir aux roboticiens un langage dédié qui facilite le développement de leurs applications et qui répond aux exigences du domaine. Dans ce contexte, un ensemble d’exigences a été défini dans 4.1. RobotML a apporté une réponse à ces exigences : 1. Facilité d’utilisation. Grâce à RobotML, les utilisateurs du DSL peuvent modéliser leurs applications sans avoir à connaître ou à maîtriser les lanagages 4. https://github.com/RobotML/RobotML-documentation/blob/master/ RobotMLCodeGenerators/OROCOSGenerator/index.rst 95Chapitre IV. Robotic Modeling Language (RobotML) de programmation des plateformes de robotique. En effet, les détails des plateformes sont masqués pour les utilisateurs du DSL et les concepts utilisés dans RobotML sont basés sur une ontologie définie par des experts de la robotique. 2. Spécification d’une architecture à base de composants. L’architecture utilisée est une architecture à base de composants de contrôle et matériels. 3. Spécification des comportements des composants. RobotML permet la spécification du comportement des composants à travers des machines à états finis ou des algorithmes. 4. Neutralité vis à vis des architectures de robotique. La plupart des plateformes de robotique sont basées sur une architecture à base de composants. C’est pour cette raison que RobotML n’est spécifique à aucune autre architecture (délibérative, réactive ou hybride). N’importe quelle architecture peut donc être définie avec RobotML. 5. Plusieurs plateformes cibles hétérogènes. En raison de la distinction de la nature des composants au niveau de la modélisation (matériel ou contrôle) et de la possibilité de spécifier un plan de déploiement, il est possible de gé- nérer du code vers plusieurs plateformes hétérogènes. Lorsqu’il s’agit de faire interopérer ces plateformes hétérogènes (c.-à-d. : un middleware et un simulateur ou plusieurs middlewares) la communication s’appuie sur les messages ROS (automatiquement pris en charge par les composants générés) en raison de son intégration dans la plupart des plateformes de robotique actuelles. 6. Indépendance vis à vis des plateformes cibles. Grâce à l’ontologie du domaine, les concepts de RobotML sont abstraits et se basent sur la terminologie du domaine. Cependant, ces concepts correspondent aussi aux plateformes cibles sans être spécifiques à une plateforme particulière. Il n’y a pas de restriction imposée par une plateforme. 7. Prise en charge de l’évolution des plateformes Etant donné que le DSML est indépendant des détails des plateformes cibles, l’évolution des plateformes cibles n’affecte pas le modèle de domaine RobotML. Cette évolution pourrait cependant avoir un impact sur les générateurs. Notons quand même que le temps de développement des générateurs est moins important que l’évolution des plateformes cibles). 96IV.9 Conclusion 8. Evolution du DSL. RobotML est défini de manière itérative à partir d’exemples exécutables. Cette approche a été combinée avec une approche complémentaire top-down à partir d’une ontologie du domaine de la robotique définissant des concepts précis. L’évolution du DSL est considérée comme un processus intégré et incrémental au processus du développement. Dans certains cas, une absence de correspondance entre le modèle de domaine et les plateformes cibles a été constaté. Dans ce cas, ce concept est ajouté au DSL et des nouvelles règles de transformation sont définies pour la génération de code. Par exemple, nous avons constaté que l’utilisateur doit être capable de spécifier la taille du buffer pour l’échange de données entre les composants au niveau de la modélisation. Un nouvel attribut a alors été ajouté à la méta-classe CommunicationPolicy de RobotML. 9. Abstraction du matériel Les types Physical Data permettent de définir des abstractions à partir du matériel. Cependant, ils représentent des abstractions générales et n’ayant pas de sémantique précise. C’est pour cette raison qu’ils ont été définis au niveau du modèle du domaine et pas implémentés dans la syntaxe concrète de RobotML. La validation de RobotML et du générateur de code OROCOS a été effectuée sur le scénario AIR OARP que nous présenterons dans le chapitre suivant. 9 Conclusion Nous avons présenté dans ce chapitre notre DSML pour la robotique : RobotML. Les concepts de RobotML sont des concepts du domaine définis par des experts en robotique. Nous avons montré que ces concepts nous ont permis de représenter des scénarios de robotique indépendamment des plateformes d’exécution (middleware et simulateurs). RobotML offre également un ensemble d’outils qui visent à faciliter le développement des applications de robotique. Nous avons vu également que le modèle de domaine RobotML propose des types abtraits, extraits de l’ontologie, appelés PhysicalData afin d’abstraire les données des capteurs (voir IV.23). Cependant, ces types n’ont pas de sémantique d’utilisation précise car ce sont des abstractions a priori qui n’ont pas été définies à partir d’exemples concrets. Il faudrait établir un certain nombre d’itérations à partir d’exemples concrets afin de 97Chapitre IV. Robotic Modeling Language (RobotML) convenir d’un ensemble d’abstractions ayant une sémantique bien définie et pouvoir les intégrer éventuellement à l’ontologie. Par conséquent, les méta-classes de PhysicalData n’ont pas été étendues par le profil UML et ne sont donc pas visibles pour le moment pour les utilisateurs de RobotML. Nous nous proposons alors dans le chapitre suivant de présenter une démarche, qui pourrait compléter l’ontologie, avec des abstractions définies a posteriori (c.-à- d. après une étude détaillée d’un exemple de tâche de robotique). 98Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique 1 Introduction Les roboticiens sont confrontés à plusieurs difficultés pour le développement de leurs applications. La principale difficulté concerne la maîtrise des détails du matériel du robot. En effet, l’implantation d’une tâche de robotique requiert des informations sur les moyens de locomotion du robot, sa morphologie et ses capteurs. Implanter une tâche de robotique qui marcherait pour tous les moyens de locomotion et qui tiendrait compte des entrées de tous les capteurs est un processus très complexe [45]. Il faudrait au moins utiliser des abstractions comme celles proposées par les middleware ou celles proposées par l’ontologie de RobotML. Cependant, les abstractions proposées par les middleware sont de bas niveau. Il est très difficile de les appliquer dans le cas où l’on souhaite développer une application pour un robot de forme inconnue, dont les capteurs sont inconnus et où les moyens de locomotion le sont aussi. En effet, toutes ces informations doivent être connues afin de calculer les données des capteurs et exécuter les mouvements du robot [45]. D’autre part, les abstractions proposées par l’ontologie du domaine représentent des concepts du domaine [69] définis a priori et non à partir d’exemples concrets. Par conséquent, ces abstractions sont insuffisantes et n’ont pas de sémantique opérationnelle précise à savoir qu’on ne sait pas forcément comment les implanter dans un programme. 99Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique Une autre difficulté peut être soulevée lorsqu’il s’agit d’une tâche de robotique où plusieurs stratégies visent à atteindre un même objectif en se basant sur les mêmes hypothèses sont définies comme la famille de navigation Bug [38]. Il s’agit alors de variabilité algorithmique. Il est difficile de comparer les variantes d’une famille ou même de les comprendre car elles sont proposées par différents auteurs dans la littérature et sont souvent implantées sous différentes plateformes. Si on pouvait définir un algorithme générique pour les variantes d’une famille d’algorithmes, il serait plus facile de les comprendre, de les implanter et plus significatif de les comparer entre elles. À notre connaissance, très peu de travaux se sont intéressés à la gestion de ce type de variabilité. Brugali et al. [119] ont proposé une ligne de produits logicielle pour la gestion de la variabilité au sein des tâches de robotique telles que la localisation, la navigation et l’évitement d’obstacles. Cependant, leurs composants sont interdépendants. En d’autres termes, ils sont spécifiques à un type de capteur en particulier : le capteur Laser. Leur implantation se base sur des messages ROS ce qui reste spécifique aux types fournis par ce middleware. Afin de faciliter le développement des applications de robotique et les rendre résistantes aux différents types de variabilité cités précédemment, il faudrait alors définir des abstractions qui soient : 1. de plus haut niveau que celles proposées par les middleware : qui encapsulent les mesures et les données retournées par les capteurs et les commandes spé- cifiques des effecteurs 2. plus précises que celles proposées par l’ontologie : elles doivent avoir une sé- mantique opérationnelle Ces abstractions masqueraient alors les détails non algorithmiques et pourraient varier indépendamment des algorithmes. Concernant les détails algorithmiques dans le cas où il s’agit d’une famille d’algorithmes, il faudrait également définir des abstractions qui masquent la variabilité au sein d’une même famille. Dans cette optique, nous proposons une approche top-down qui, à partir de la description d’une tâche de robotique et des hypothèses sur l’environnement et sur les capacités du robot, produit : – un ensemble d’abstractions non algorithmiques ainsi que des abstractions algorithmiques 100V.2 Approche pour la gestion de la variabilité dans les algorithmes de robotique – un algorithme générique défini en fonction de ces abstractions L’intervention d’un expert de robotique est requise pour l’identification de ces abstractions et leur combinaison pour définir un algorithme générique de façon analogue à un planificateur. Les hypothèses définies sur les capacités du robot ne doivent pas être liées à des capteurs ni à des effecteurs spécifiques. Elles doivent plutôt se baser sur les données requises par l’algorithme. L’expert définit donc des abstractions comme étant des requêtes sur l’environnement et des actions de plus haut niveau que les commandes spécifiques aux effecteurs. Dans ce chapitre, nous présentons notre approche pour l’identification de ces abstractions et d’un algorithme générique défini en fonction de ces dernières. Nous proposerons ensuite une démarche pour implanter les abstractions ainsi que l’algorithme générique. Nous appliquerons ensuite notre approche sur une famille d’algorithmes de navigation appelée Bug [38]. 2 Approche pour la gestion de la variabilité dans les algorithmes de robotique À partir d’une tâche de robotique, notre approche permet de produire un algorithme générique configurable en fonction d’un ensemble d’abstractions qui masquent les détails du matériel et les détails algorithmiques. Une fois l’algorithme générique défini, nous proposons une démarche pour l’implantation de ces abstractions et de l’algorithme générique de façon à faire varier l’implantation de ces abstractions sans avoir à modifier l’implantation de l’algorithme générique. Nous présentons dans cette section les différentes étapes de notre approche. 2.1 Identification des abstractions La forme des robots varie d’un robot à l’autre ce qui affecte le fonctionnement des capteurs surtout s’ils sont placés sur celui-ci comme les capteurs à rayons (range sensors). Le nombre, la nature et la position de ces capteurs varient aussi d’un robot à l’autre. Un capteur Laser a un angle de perception, les Infrarouges ont des rayons de perception, etc. Les capteurs tactiles ont un autre mode de fonctionnement mais permettent d’indiquer par exemple si un obstacle est détecté tout comme les cap- 101Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique teurs à rayons mais avec un mode de fonctionnement différent. Nous avons vu que certains middleware ont défini des interfaces pour les range sensors par exemple. Leurs abstractions sont liées aux types des capteurs. Nous avons mentionné précédemment que les abstractions que nous voulons définir sont de plus haut niveau que celles proposées par les middleware et ont une sémantique par rapport à celles proposées par l’ontologie du domaine et donc RobotML. Les abstractions dans ce travail permettent d’encapsuler les détails impertinents dans l’algorithme représentant la tâche à développer. Nous distinguons deux types d’abstractions : algorithmiques et non algorithmiques, nos définitions sont les suivantes : Definition 11 (Abstraction non algorithmique). Une abstraction non algorithmique est soit une requête qui retourne des informations sur l’environnement y compris le robot soit une action de haut niveau que le robot doit effectuer. Definition 12 (Abstraction algorithmique). Une abstraction algorithmique est liée à la tâche à développer. Elle peut encapsuler un ensemble d’instructions permettant de réaliser une sous-tâche ou des détails liés aux variantes d’un algorithme lorsqu’il s’agit d’une famille d’algorithmes. Les abstractions non algorithmiques sont des abstractions qu’on peut capitaliser car elles sont indépendantes des détails algorithmiques d’une tâche. Les abstractions algorithmiques, quant à elles, peuvent dépendre des abstractions non algorithmiques mais restent spécifiques à la tâche à développer. Lorsqu’il s’agit d’abstractions non algorithmiques, on peut distinguer deux cas : 1. L’abstraction est une requête sur l’environnement y compris le robot. Dans ce cas, cette requête indique par exemple si le robot est face à un obstacle, s’il perçoit de la lumière, etc. Les paramètres de configuration de cette requête sont spécifiés au niveau de leur implantation. 2. L’abstraction est une action de haut niveau permettant au robot d’agir dans son environnement. Cette action peut être simple comme l’action avancer ou composée d’actions simples comme suivre un obstacle dans une direction donnée. Les variables permettant de spécifier la vitesse ou la direction que doit suivre une action sont passées en paramètres à celle-ci. 102V.2 Approche pour la gestion de la variabilité dans les algorithmes de robotique Concernant les abstraction algorithmiques, elles sont de plus haut niveau que les abstractions non algorithmiques. Elles font appel à des actions et à des requêtes sur l’environnement afin d’effectuer une sous-tâche de la tâche à implanter. De notre point de vue, l’identification des abstractions ne nécessite pas de connaissances approfondies des capteurs ou des effecteurs physiques d’un robot particulier comme la démarche adoptée par les middleware. Cette étape requiert une connaissance de la tâche à développer d’où l’intervention d’un expert du domaine. Notre approche s’appuie sur la description d’une tâche de robotique ce qui permet de définir des hypothèses sur l’environnement et sur les capacités que doit avoir un robot pour qu’il puisse exécuter cette tâche. À partir de la description d’une tâche, un expert en robotique peut identifier des fonctionnalités que le robot doit effectuer en se basant par exemple sur une démarche dirigée par les buts. Ces fonctionnalités font appel à des actions, lancent des requêtes sur l’environnement et effectuent des traitements sur les données récupérées afin de se rapprocher de l’état but de la tâche à réaliser. Les requêtes sur l’environnment définissent par conséquent la catégorie des capteurs à utiliser. Par exemple, dans une tâche de navigation, l’une des fonctionnalités du robot consiste à éviter les obstacles rencontrés. Il faut que le robot soit capable de détecter cet obstacle. On peut donc définir des hypothèses sur les capacités du robot à indiquer la présence d’un obstacle dans son champs de perception. Ces requêtes pourront ensuite être appliquées sur des capteurs de distance ou de contact par exemple. Concernant les actions de haut niveau, elles sont également liées à la description de la tâche. Si par exemple le robot doit avancer ou tourner dans un environnement terreste, il doit être équipé par des roues. Nous pouvons alors définir des hypothèses sur les moyens de locomotion requis pour l’accomplissement des actions. Une fois ces abstractions identifiées, l’expert du domaine combine ensuite les abstractions algorithmiques et les abstractions non algorithmiques afin de définir un algorithme générique. 2.2 Identification de l’algorithme générique Dans cette étape, un expert en robotique organise les abstractions identifiées précédemment. Un algorithme générique est une séquence d’instructions qui utilisent les abstractions non algorithmiques et les abstractions algorithmiques. Cette 103Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique combinaison se fait sous forme d’algorithme ou sous forme de machine à états finis représentant la tâche étudiée. Étant donné que les abstractions définissent des hypothèses sur les capacités du robot à percevoir ou à agir dans son environnement, l’algorithme générique reste stable pour une catégorie de robots. De cette façon, on peut faire varier les implantations des abstractions sans avoir à modifier l’algorithme générique. Pour une tâche de robotique donnée, on ne peut pas définir un algorithme générique qui restera stable pour toutes les catégories des capteurs et des effecteurs car il faut que ces derniers correspondent aux hypothèses définies sur les abstractions. Pour résumer, notre approche comporte deux étapes principales : 1. L’identification des abstractions 2. La définition de l’algorithme générique Dans ces deux étapes, un expert de robotique doit intervenir afin de combiner les abstractions ou les valider. Ainsi, les abstractions obtenues seront extraites à partir d’exemples concrets et pourront être réutilisées. Nous verrons dans la section suivante comment ces abstractions doivent être organisées au niveau de l’implantation. 2.3 Organisation de l’implantation L’algorithme générique défini en fonction des abstractions est complètement indé- pendant des détails des capteurs, des effecteurs et des middleware. Aucune propriété spécifique à un middleware ne doit être utilisée au sein de l’application qui implante l’algorithme générique (c.-à-d. protocole de communication, types spécifiques, etc.). On voudrait maintenant organiser l’implantation des abstractions non algorithmiques et des abstractions algorithmiques. Une abstraction a une sémantique opérationnelle bien définie. Elle peut avoir un type de retour, dans ce cas, le type de retour est un type abstrait (c.-à-d. indépendant des types retournés par le matériel et des types fournis par les middleware). Un type abstrait désigne un type primitif (booléen, entier, réel, etc.) ou un type de données ayant des propriétés dont les types sont primitifs. Par exemple, le type Point est un type abstrait. Il est caractérisé par trois coordonnées x, y et z de types réels. Comme nous l’avons défini précédemment, les abstractions algorithmiques sont de plus haut niveau que les abstractions non algorithmiques et dépendent généralement de celles-ci. Il est donc essentiel des faire varier les abstractions non algorithmiques 104V.2 Approche pour la gestion de la variabilité dans les algorithmes de robotique indépendamment des abstractions algorithmiques afin d’éviter les situations où on pourrait avoir une explosion combinatoire. Dans ce qui suit, nous présentons d’abord l’implantation des abstractions non algorithmiques puis l’implantation des abstractions algorithmiques et de l’algorithme générique. 2.3.1 Implantation des abstractions non algorithmiques Afin d’implanter les abstractions non algorithmiques, il faudrait tout d’abord rassembler les abstractions qui se basent sur le (ou les) même(s) capteur(s) physique(s) ou qui agissent sur le (ou les) même(s) effecteur(s) physique(s). Pour ce faire, nous nous proposons d’utiliser des adaptateurs des capteurs qui implantent les abstractions basées sur un ou plusieurs capteurs. L’implantation des abstractions au sein des adaptateurs permettra de convertir les données physiques capturées par les capteurs en données de types abstraits séparant ainsi l’acquisition des données de leurs traitements. Un adaptateur de capteur peut prendre en entrée différents capteurs pour calculer la donnée requise en sortie, dans ce cas il s’agit d’un adaptateur mixte. De la même façon, nous utiliserons des adaptateurs pour les effecteurs qui permettent d’implanter les actions du robot. L’implantation des actions consiste à spécifier les commandes que les effecteurs doivent exécuter. Pour résumer, les adaptateurs permettent d’implanter les abstractions du matériel en convertissant les données physiques en données abstraites ou en convertissant les actions en commandes spécifiques comme le montre la figure V.44. Notons que les adaptateurs sont les seules parties de l’application qui sont spé- cifiques aux capteurs et aux effecteurs physiques. Au niveau de l’implantation, il faut spécifier certains paramètres de configuration du matériel utilisé. Les seules informations requises par le code de l’application sont les abstractions. Il ne doit pas y avoir de lien permanent entre un adaptateur et le code de l’application. Ce lien ne doit être spécifié qu’au niveau de la configuration de l’application (c.-à-d. au niveau du déploiement) afin de rendre l’application la plus indépendante possible des détails du matériel et de permettre une flexibilité pour les changements de ce dernier. La fréquence d’exécution des composants, la nature des données requises (avec ou sans Buffer par exemple), le mécanisme de transport en particulier et plus généra- 105Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique Figure V.44 – Implantation des abstractions non algorithmiques : adaptateurs lement les paramètres de configuration sont délégués aux middleware. Chacun a un moyen de configuration propre à lui donc cette partie n’est pas spécifiée au niveau de l’implantation des abstractions mais au niveau du déploiement. Le design pattern Bridge [120] permet de séparer les abstractions de leurs implantations dans différentes hiérarchies de classes. Les abstractions sont définies dans une interface correspondant aux opérations qui doivent être fournies adaptateurs. Les adaptateurs implantent ensuite ces opérations comme le montre la figure V.45. L’avantage de cette approche est que le changement des implantations n’affecte pas le reste du code de l’application. De plus, les changements dans l’implantation des abstractions n’ont aucun impact sur le code de l’application. 2.3.2 Implantation des abstractions algorithmiques et de l’algorithme générique Prenons maintenant le cas d’une famille d’algorithmes qui a plusieurs variantes. Il faudrait alors définir des abstractions algorithmiques en plus des abstractions non algorithmiques. 106V.2 Approche pour la gestion de la variabilité dans les algorithmes de robotique Figure V.45 – Application du pattern Bridge Nous devons séparer l’implantation des abstractions non algorithmiques de l’implantation des abstractions algorithmiques. Afin d’organiser l’implantation de ces abstractions, nous nous proposons d’utiliser le design pattern Template Method. Le design pattern Template Method (TM) [120] permet la définition d’un squelette d’algorithme comme une template méthode d’une classe abstraite. Cette méthode n’est autre que l’algorithme générique identifié dans l’étape précédente. Les points de variations parmi les variantes d’une famille d’algorithmes sont définis en tant que méthodes abstraites, spécialisées dans chaque sous-classe. Les parties invariantes de l’algorithme sont implantées dans la classe abstraite en tant que méthodes concrètes. Les instructions qui existent dans certaines variantes et pas dans d’autres sont défi- nies en tant que hook methods (avec un corps vide dans la classe abstraite mais qui peut être spécialisé dans les sous-classes) de la classe abstraite. Par conséquent, Chaque variante de l’algorithme est implantée comme une sousclasse de la classe abstraite et les méthodes abstraites correspondant aux variabilités algorithmiques sont implantées dans chaque sous-classe comme le montre la figure V.46. Pour résumer, l’organisation de l’implantation combine les deux design pattern Bride et Template Method afin de séparer les abstractions non algorithmiques de celles algorithmiques. 107Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique Figure V.46 – Application du pattern Template Method 3 Application sur la famille d’algorithmes Bug En raison de la variabilité constatée dans les algorithmes de navigation, nous nous sommes intéressés à la famille de navigation Bug [38] où l’environnement du robot est inconnu mais la position du but est connue. Dans cette section, nous commençons d’abord par présenter la famille Bug, nous présenterons par la suite l’application de notre approche sur cette famille. 3.1 La famille d’algorithmes Bug Bug est une famille d’algorithmes de navigation dans un environnement inconnu. Le robot doit se déplacer de sa position de départ vers son but tout en évitant les obstacles sur son chemin vers celui-ci. Dans la famille Bug, le robot contourne les obstacles qu’il rencontre suivant diffé- rentes stratégies. Certains comportements du robot sont réactifs, par exemple, si un obstacle est détecté, le robot contourne l’obstacle. Si le but est atteint, le robot s’arrête, etc. D’autres comportements s’appuient sur des calculs un peu plus élaborés. Par exemple, le contournement de l’obstacle rencontré consiste à maintenir une distance de sécurité par rapport à celui-ci et à chercher un point potentiel pour quitter cet obstacle. Dans ce qui suit, nous donnons une description des algorithmes Bug. 1. Hypothèses sur l’Environnement : Environnement inconnu 2 dimensions : – Un obstacle est un chemin fermé de longueur finie et d’épaisseur non nulle (car l’une des variantes de cette famille utilise l’épaisseur des obstacles dans ses hypothèses). 108V.3 Application sur la famille d’algorithmes Bug – Il existe un nombre fini d’obstacles dans l’environnement 2. Hypothèses sur le robot : (a) Forme : Le robot est un point. (b) Perception : – capacité de détecter les obstacles : capteurs tactiles ou à rayons selon les algorithmes. – localisation parfaite. (c) Action : – s’orienter vers le but. – avancer vers le but. – contourner un obstacle. – s’arrêter. (d) Notations – Données en entrée : qstart, qgoal ; où qstart et qgoal sont respectivement la position de départ et du but du robot – Variables : – q i H , appelé hitPoint dans la littérature, est le point de rencontre d’un obstacle. – q i L , appelé leavePoint dans la littérature, est le point à partir duquel le robot peut quitter l’obstacle rencontré et se dirige de nouveau vers son but. – x est la position courante du robot – distance est la distance par rapport à l’obstacle le plus proche – distM inT oGoal est la distance euclidienne minimale du robot jusqu’au but. – Step épaisseur minimale d’un obstacle. – F = r(θ) est la distance perçue le long d’un rayon r émanant du centre du robot à un angle θ où θ est la direction du but. – direction est la direction du contournement d’obstacle du robot : dans le sens des aiguilles d’une montre (clockwise) ; contre les sens des aiguilles d’une montre (counter-clockwise). – dreach est la distance minimale parmi tous les points perçus par le robot. 109Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique – df ollowed est la distance minimale parmi tous les points autour d’un obstacle et le but. Nous présentons dans les sections suivantes six algorithmes de la famille Bug : Bug1, Bug2, Alg1, Alg2, DistBug et TangentBug. 3.1.1 Bug1 L’algorithme Bug1 [38, 121] est le premier algorithme proposé dans la famille Bug. La description de Bug1 est donnée dans l’algorithme 1. Bug1 se base sur des capteurs tactiles pour la détection d’obstacles. Lorsque le robot rencontre un obstacle, il contourne l’obstacle à gauche (en le maintenant à sa droite) tout en cherchant le point ayant la distance euclidienne minimale par rapport au but. Il effectue un tour complet autour de l’obstacle pour identifier le point optimal. Une fois ce point identifié, il y retourne et reprend son chemin vers le but. Si le but est inatteignable alors le robot s’arrête et termine sa mission. Algorithm 1: Bug1 pseudo-code [38, 121] Sensors : Une méthode de localisation parfaite. Un capteur de détection d’obstacles Input : Position de départ (qstart), Position du but (qgoal) Initialisation: Point q 0 L ← qstart ; int i ← 1 ; (1) A partir de q i L avancer vers le but jusqu’à ce que l’une de ces conditions soient satisfaites : qgoal atteint, Stop. Un obstacle est rencontré, i ← i + 1, q i H ← x, aller à l’étape (2). (2) Contourner l’obstacle à gauche tout en cherchant un point y autour de l’obstacle tel que : deuclidian (y, qgoal) est minimale. Si y trouvé, q i L ← y, enregistrer le chemin de q i H vers q i L S’arrêter lorsque q i H est rencontré de nouveau. Suivre le chemin le plus court pour retourner à q i L Si but inatteignable, retourner échec Sinon retourner à l’étape (1). 3.1.2 Bug2 La description de Bug2 est donnée dans l’algorithme 2. Bug2 a été défini initialement en utilisant des capteurs tactiles. Dans Bug2 [121], lorsque le robot rencontre un obstacle, il le contourne à gauche et ne le quitte que s’il trouve un point sur une 110V.3 Application sur la famille d’algorithmes Bug ligne imaginaire appelée M-line passant par son point de départ et le but. Lorsque ce point est trouvé, le robot vérifie que ce point est plus proche que le point où il a rencontré l’obstacle et si le but est atteignable à partir de celui-ci. Si ces conditions sont satisfaites, le robot s’oriente vers son but et continue son chemin vers celui-ci sinon si aucun point correspondant à ces conditions n’est identifié, l’algorithme indique que le but est inatteignable, le robot s’arrête et termine sa mission. Algorithm 2: Bug2 pseudo-code [38, 121] Sensors : Une méthode de localisation parfaite. Un capteur de détection d’obstacles Input : Position de départ (qstart), Position du but (qgoal) Initialisation: Point q 0 L ← qstart ; int i ← 1 ; (1) A partir de q i L avancer vers le but en suivant la ligne (qstart,qgoal) jusqu’à ce que l’une de ces conditions soient satisfaites : qgoal atteint, Stop. Un obstacle est rencontré, i ← i + 1, q i H ← x, aller à l’étape (2). (2) Contourner l’obstacle à gauche jusqu’à ce que : (A) q i H rencontré de nouveau, retourner échec (B) un nouveau point y est trouvé sur la ligne (qstart, qgoal) tel que y est plus proche du but que q i H Si but atteignable à partir de y, q i L ← x, retourner à l’étape (1) Sinon d(q i H, qgoal) ← d(x, qgoal), continuer à contourner l’obstacle. 3.1.3 Alg1 Alg1 [122, 123] est une extension de Bug2. Sa description est donnée dans l’algorithme 3. Comme Bug1 et Bug2, Alg1 a été défini dans la littérature avec des capteurs tactiles. À la différence de Bug2, Alg1 enregistre tous les hit points et les leave points qu’il a rencontré sur la M-line. L’identification d’un leave point dans Alg1 est similaire à celle dans Bug2 (c.-à-d. un leave point est un point sur la M-line plus proche que tous les points déjà visités). Dans Alg1, lorsque le robot rencontre un ancien point visité, il retourne au dernier hit point. Une fois le dernier hit point atteint, il contourne l’obstacle dans la direction contraire à sa direction initiale (c.-à-d. contournement à droite) toujours à la recherche d’un leave point potentiel. 111Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique Algorithm 3: Alg1 pseudo-code [122] Sensors : Une méthode de localisation parfaite. Un capteur de détection d’obstacles Input : Position de départ (qstart), Position du but (qgoal) Initialisation: Point q 0 L ← qstart ; int i ← 1 ; (1) A partir de q i L avancer vers le but en suivant la ligne (qstart,qgoal) jusqu’à ce que l’une de ces conditions soient satisfaites : qgoal atteint, Stop. Un obstacle est rencontré, i ← i + 1, q i H ← x, aller à l’étape (2). (2) Contourner l’obstacle à gauche jusqu’à ce que : (A) q i H rencontré de nouveau, retourner échec (B) un nouveau point y est trouvé sur la ligne (qstart, qgoal) tel que y est plus proche du but que q i H et le but est atteignable à partir de y, q i L ← x, retourner à l’étape (1). (C) q j H ou q j L rencontré tel que (j < i), retourner à q i H et à partir de q i H contourner l’obstacle à gauche. Cette règle ne peut pas être répétée avant qu’un nouveau q i L soit défini. 3.1.4 Alg2 Alg2 [124] est une extension de Alg1. Sa description est donnée dans l’algorithme 4. Alg2 se base aussi sur des capteurs tactiles. Le robot ne se base plus sur la condition de la M-line pour quitter l’obstacle rencontré mais sur une nouvelle condition qui consiste à trouver le premier point ayant la distance minimale par rapport au but et à partir duquel le but est atteignable. Le robot peut quitter l’obstacle sur ce point et continue son chemin vers le but. 3.1.5 DistBug Dans DitBug [125], le robot utilise une nouvelle donnée introduite par l’utilisateur ainsi que des capteurs de distance. Cette donnée est l’épaisseur minimale du mur d’un obstacle appelée STEP. Le robot utilise ses capteurs de distance et l’épaisseur minimale des obstacles présents dans l’environnement pour trouver un point qui est plus proche du but, à une valeur STEP près, que tous les points déjà visités. La description de DistBug est présentée dans l’algorithme 5. 112V.3 Application sur la famille d’algorithmes Bug Algorithm 4: Alg2 pseudo-code [124] Sensors : Une méthode de localisation parfaite. Un capteur de détection d’obstacles Input : Position de départ (qstart), Position du but (qgoal) Initialisation: Point q 0 L ← qstart ; int i ← 1 ; double distM inT oGoal ← deuclidian (qstart, qgoal) (1) A partir de q i L avancer vers le but en suivant la ligne (qstart,qgoal) en mettant à jour distM inT oGoal si deuclidian (x, qgoal) < distM inT oGoal, jusqu’à ce que l’une de ces conditions soient satisfaites : qgoal atteint, Stop. Un obstacle est rencontré, i ← i + 1, q i H ← x, aller à l’étape (2). (2) Contourner l’obstacle à gauche, vérifier si deuclidian (x, qgoal) < distM inT oGoal, si oui alors distM inT oGoal ← deuclidian (x, qgoal) jusqu’à ce que : (A) q i H rencontré de nouveau, retourner échec (B) un nouveau point y est trouvé tel que deuclidian (y, qgoal) < distM inT oGoal et le but est atteignable à partir de y, q i L ← y, retourner à l’étape (1). (C) q j H ou q j L rencontré tel que (j < i), retourner à q i H et à partir de q i H contourner l’obstacle à gauche. Cette règle ne peut pas être répétée avant qu’un nouveau q i L soit défini. Algorithm 5: DistBug pseudo-code [125] Sensors : Une méthode de localisation parfaite. Un capteur de détection d’obstacles Input : Position de départ (qstart), Position du but (qgoal) Initialisation: Point q 0 L ← qstart ; int i ← 1 ; double distM inT oGoal ← deuclidian (qstart, qgoal) ; double Step ← userData (1) A partir de q i L avancer vers le but en mettant à jour distM inT oGoal si deuclidian (x, qgoal) < distM inT oGoal, jusqu’à ce que l’une de ces conditions soient satisfaites : qgoal atteint, Stop. Un obstacle est rencontré, i ← i + 1, q i H ← x, aller à l’étape (2). (2) Contourner l’obstacle à gauche, vérifier si deuclidian (x, qgoal) < distM inT oGoal, si oui alors distM inT oGoal ← deuclidian (x, qgoal) jusqu’à ce que : (A) q i H rencontré de nouveau, retourner échec (B) deuclidian (x, qgoal) - F <= 0, c-à-d que le but est visible à partir de x, q i L ← x, retourner à l’étape (1). (C) deuclidian (x, qgoal) - F <= distM inT oGoal- Step alors q i L ← x, retourner à l’étape (1). 113Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique 3.1.6 TangentBug L’algorithme Tangent Bug [126] (voir algorithme 6) requiert l’utilisation de capteurs de distance. À partir de n’importe quelle position, le robot doit récupérer sa distance par rapport à l’obstacle le plus proche le long d’un rayon r émanant du centre du robot à un angle θ [] tel que : distance = ϕ(x, θ) = min α∈[O,∞) d(x, x + α   cos θ sin θ  ) (V.1) tel que x + α   cos θ sin θ   ∈ ∪iBoundary(Oi) (V.2) Cette distance permet au robot de calculer les points discontinuités autour d’un obstacle. Les points de discontinuité sont des points situés sur l’obstacle détectés par les rayons des capteurs du robot et dont la valeur de la distance indique u’un intervalle de valeurs est fini et qu’un autre intervalle a commencé. Pour chaque point de discontinuité, l’algorithme calcule la distance heuristique qui est égale à la distance du robot vers un point de discontinuité et de ce point de discontinuité vers le but : dheuristic = d(x, Pi) + d(Pi , qgoal); où x est la position courante du robot comme défini plus haut et Pi est un point de discontinuité. À chaque itération, le robot cherche le point ayant la distance heuristique minimale parmi tous les points de discontinuité et se dirige vers ce point. À partir de ce point, le robot commence à effectuer le contournement d’obstacle en gardant la même direction que celle qu’il a suivi pour aller à ce point. Il calcule maintenant les deux distances dreach et df ollowed et s’arrête lorsque dreach < df ollowed pour se diriger vers son but de nouveau. 3.2 Identification des abstractions de la famille Bug Les algorithmes Bug sont très similaires fondamentalement mais diffèrent dans certains points. Il existe deux comportements principaux dans les algos de Bug : éviter les obstacles (obstacle avoidance) et se diriger vers le but (motion to goal). 1. Le comportement Motion-to-Goal. Le robot s’oriente vers son but et avance en suivant la direction qui le mène vers celui-ci. Selon les algorithmes, 114V.3 Application sur la famille d’algorithmes Bug Algorithm 6: TangentBug pseudo-code [126] Sensors : Une méthode de localisation parfaite. Un capteur de détection d’obstacles Input : Position de départ (qstart), Position du but (qgoal) Initialisation: Point q 0 L ← qstart ; int i ← 1 ; double distM inT oGoal ← deuclidian (qstart, qgoal) (1) A partir de q i L avancer vers le but, jusqu’à ce que l’une de ces conditions soient satisfaites : qgoal atteint, Stop. Un obstacle est rencontré, i ← i + 1, q i H ← x, aller à l’étape (2). (2) Calculer points de discontinuités autour de l’obstacle rencontré. Parmi les points de discontinuité, chercher le point ayant la distance heuristique minimale et la direction vers ce dernier. Le robot se déplace jusqu’à ce point jusqu’à ce que la distance heuristique ne diminue plus. Contourner l’obstacle dans la même direction, jusqu’à ce que : (A) q i H rencontré de nouveau, retourner échec (B) dreach < df ollowed, q i L ← y, retourner à l’étape (1). Motion-To-Goal peut être trivial ou avec un enregistrement de données qui seront utiles pour le reste de l’algorithme comme le cas de l’algorithme DistBug présenté précédemment par exemple. En effet, dans DistBug le robot doit avancer vers son but en mettant à jour sa distance euclidienne minimale par rapport au but. Cette variable sera utilisée dans la suite de l’algorithme lorsque le robot rencontrera un obstacle pour identifier le meilleur point qui lui permettra de quitter cet obstacle. Nous retrouvons le comportement trivial de Motion-To-Goal dans tous les algorithmes de Bug où il faut que le robot avance simplement vers son but. Le robot s’arrête, quitte ce mode et bascule vers le mode Obstacle-Avoidance dès qu’un obstacle est détecté. 2. Le mode Obstacle-Avoidance : Contrairement à Motion-To-Goal, ObstacleAvoidance est différent d’un algorithme à l’autre mais se base sur les mêmes étapes pour l’identification d’un leave point. Dans tous les algorithmes de Bug, lorsqu’un obstacle est détecté, le robot enregistre sa position courante et calcule dans certains cas des données supplémentaires qu’il va utiliser tout au long de l’algorithme. En effet, étant donné que l’environnement inconnu, la position du robot permet de savoir s’il a atteint la position de son but en calculant la distance euclidienne par rapport à celui-ci. D’autre part, sa po- 115Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique sition est utile lorsqu’il s’agit de retenir la position d’un point par lequel il est passé. Après l’enregistrement des données, le robot contourne l’obstacle jusqu’à ce que la condition d’évitement d’obstacle définie par l’algorithme soit satisfaite (c.-à-d. leave point identifié) ou lorsque l’algorithme indique que le but est inatteignable. Si la condition de l’algorithme est satisfaite, le robot se dirige vers le leave point identifié, et reprend son chemin vers le but en rebasculant vers le comportement Motion-To-Goal. Le robot change de comportement si un obstacle est détecté ou si un point potentiel (c.-à-d. leave Point) qui permet de quitter l’obstacle a été identifié. L’identification de ce point potentiel représente le point de variabilité principal des algorithmes de Bug. La description informelle de Bug cache la variabilité algorithmique et celle du matériel. La variabilité du matériel a un impact sur la détection d’obstacles et sur la localisation en raison de leurs dépendances des capteurs du robot utilisé. Quant à la variabilité algorithmique, elle est liée à l’identification d’un leave point pour quitter l’obstacle rencontré. En se basant sur une démarche dirigée par les buts et sur une étude détaillée des algorithmes de Bug, on a identifié les abstractions suivantes : – Motion-To-Goal : Le robot doit pouvoir se positionner face à son but et être capable d’avancer vers celui-ci : faceGoal(Point qgoal), goAhead(double speed) – Le robot s’arrête : halt() – La détection d’obstacle sur le chemin du robot : bool obstacleInFrontOfTheRobot() interroge sur les capteurs sur la présence d’un obstacle en face du robot. – La position courante : Point getPosition() – Le contournement d’obstacles consiste à suivre une direction (clockwise ou counter-clockwise) en réduisant l’écart entre la distance du robot par rapport au mur suivi et la distance de sécurité comme le montre la figure V.47. Cette abstraction est appelée wallFollowing(bool direction). – double getSafeDistance() indique la distance minimale que le robot doit maintenir par rapport à l’obstacle rencontré. – obstacleOnTheRight(), bool obstacleOnTheLeft() permettent de situer l’obstacle le plus proche détecté à gauche ou à droite du robot. Imaginons le cas où les capteurs situés à gauche détectent un obstacle et les capteurs droits 116V.3 Application sur la famille d’algorithmes Bug Figure V.47 – Le contournement d’obstacle : (1) le robot à droite doit tourner à droite pour se rapprocher de l’obstacle et réduire l’écart entre la distance de sécurité et sa distance actuelle par rapport à l’obstacle. (2) le robot à gauche doit tourner à gauche pour s’éloigner de l’obstacle et réduire l’écart entre la distance de sécurité et sa distance actuelle par rapport à l’obstacle détectent un obstacle, il est important de savoir de quel coté se trouve l’obstacle le plus proche. Ces abstractions ne sont pas spécifiques aux capteurs à rayons. Vu qu’elles se présentent sous forme de requêtes qui ne sont pas spécifiques à un type particulier elle peut aussi bien être utilisée pour des capteurs tactiles que pour des capteurs à rayons. Par exemple dans le cas des capteurs à rayons, elles désignent les cadrans à droite et à gauche du robot sur la figure V.48. Ces cadrans peuvent varier selon les champs de vision des capteurs et leurs portées. Cette figure représente le cas où le robot est un point. Figure V.48 – La détection d’obstacle devant, à gauche et à droite du robot avec des capteurs de distance – double getRightDistance(), double getLeftDistance() : afin de maintenir une distance de sécurité par rapport au mur qui représente l’obstacle, nous devons savoir quelle est la distance par rapport à l’obstacle le 117Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique plus proche à gauche ou à droite (selon la direction suivie) comme le montre la figure V.49. La distance retournée est la moyenne des distances détectées par les rayons du capteur gauche (ou droit) du robot par rapport à l’obstacle le plus proche. Figure V.49 – Exemple de getDistanceRight : la distance retournée est la moyenne des distances détectées parmi tous les rayons émanant du capteur droit du robot – Trouver un leave Point : identifyLeavePoint(bool direction, Point robotPosition, Point goalPosition). La recherche d’un leave point consiste à contourner l’obstacle tout en vérifiant les conditions définies par l’algorithme pour l’identification de celui-ci. La stratégie d’évitement d’obstacle peut se baser sur une décision locale (choisir le premier point qui répond aux conditions de l’algorithme) ou une décision globale (choisir le point parmi tous les points visités qui répond au mieux aux conditions de l’algorithme). Par consé- quent, nous avons identifié une abstraction qui sera appliquée à chaque point visité autour de l’obstacle et qui varie d’un algorithme à un autre : findLeavePoint(Point robotPosition, Point hitPoint, Point goalPosition). Les données enregistrées varient aussi d’un algorithme à l’autre, dans certains algorithmes on n’enregistre que le point de rencontre de l’obstacle. Dans d’autres, on enregistre les points perçus par le robot ayant une distance heuristique minimale. C’est pour cette raison qu’on a identifié l’abstraction computeData(Point RobotPos) Le code de identifyLeavePoint est donné dans l’algorithme 7. Algorithm 7: Identify leavePoint method identifyLeavePoint(Bool direction, P oint robotP os, P oint goalP os){ computeData(robotPos) ; wallFollowing(direction) ; findLeavePoint(robotPos, getLastHitPoint()) ; } 118V.3 Application sur la famille d’algorithmes Bug – Leave point identifié : bool isLeavePointFound() indique si un leave point a été identifié. – Recherche Complète bool researchComplete(Point robotPosition, Point hitPoint, Point goalPosition) : Dans le cas où la stratégie appliquée se base sur une décision locale, la recherche est terminée se traduit par l’identification d’un leave point qui répond aux conditions de l’algorithme. En d’autres termes, research complete est équivalent à leavePointidentified dans le cas d’une décision locale. Lorsqu’il s’agit d’une décision globale, la recherche n’est terminée que lorsque le robot a effectué un tour complet autour de l’obstacle afin d’être sûr qu’il a identifié le meilleur point qui répond aux conditions de l’algorithme. – Aller au leave point goToPoint(Point leavePoint) : Une fois le leave point identifié, le robot se dirige vers celui-ci. Ceci constitue un point de variation parmi les algorithmes car le robot peut par exemple suivre le chemin le plus court pour aller vers ce point ou appliquer d’autres stratégies. – but inatteignable : Cette condition est vérifiée si aucun leave point n’a été identifié après que le robot ait effectué un tour complet autour de l’obstacle rencontré (not isleavePointFound() and completeCycleAroundObstacle(Point robotPosition,Point hitPoint)). – but atteint : Selon le but de l’algorithme, nous définission une marge d’erreur qui indique si le robot doit atteindre son but ou s’il doit s’arrêter peu avant de l’atteindre : bool goalReached(Point robotPosition, Point goalPosition, double err). Ces abstractions combinent les abstractions algorithmiques et les abstractions non algorithmiques. Nous pouvons alors les classifier comme suit : 1. Abstractions non algorithmiques : les paramètres de configuration des capteurs sont définis au niveau du déploiement et les caractéristiques spécifiques comme par exemple le nombre de rayons des capteurs, leurs portée, etc. sont spéci- fiées au niveau des adaptateurs. Etant donné que le robot est considéré comme un point dans les hypothèses de la famille Bug, nous n’allons pas prendre en compte la position des capteurs sur le robot mais simplement de leur emplacement (devant, derrière, à gauche ou à droite) en supposant qu’ils sont placés au même niveau que la plateforme du robot. Les abstractions non algorithmiques sont classées dans 2 sous-catégories : – Abstractions non algorithmiques en tant que requêtes sur l’environnement 119Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique nécessitant des capteurs à rayons : – double getSafeDistance() – double getLeftDistance() – double getRightDistance() Nous avons vu que ces abstractions servent au contournement d’obstacle. Elles permettent de retourner la distance à gauche ou à droite du robot par rapport à l’obstacle le plus proche. C’est pour cette raison que nous avons besoin de capteurs à rayons pour pouvoir les implanter et faire des regroupements des rayons des capteurs. – Abstractions non algorithmiques en tant que requêtes générales : – bool obstacleInFrontOfTheRobot() – bool obstacleOnTheLeft() – bool obstacleOnTheRight() Ces abstractions interrogent les capteurs afin de savoir s’il y a un obstacle devant, à droite ou à gauche du robot. Concrètement ces abstractions pourrait être utilisées pour des capteurs à rayons aussi bien que pour des capteurs tactiles ou même pour d’autres types de capteurs tant qu’ils sont capables de founir ces informations. Il n’y a donc aucune contrainte sur ces abstractions qui requiert un type de capteurs particulier. – Abstractions non algorithmiques en tant qu’actions de haut niveau : – halt() – faceGoal(Point goalPosition) – goAhead(double speed) – turnRight(double translation, double angle) – turnLeft(double translation, double angle) – goToPoint(Point leavePoint) – motionToGoal() 2. Abstractions algorithmiques : – righHand() – leftHand() – wallFollowing(bool direction) – identifyLeavePoint(bool direction, Point robotPosition, Point goalPosition) – findLeavePoint(Point robotPosition, Point hitPoint, Point goalPosition) – bool isLeavePointFound() – bool researchComplete(Point robotPosition, Point hitPoint, Point goalPosi- 120V.3 Application sur la famille d’algorithmes Bug tion) – bool completeCycleAroundObstacle(Point robotPosition,Point hitPoint) – goalReached(Point robotPosition, Point goalPosition, double err) 3.3 Identification de l’algorithme générique de la famille Bug L’algorithme générique est une combinaison des abstractions identifiées dans la section précédente comme une séquence d’instructions. Notre algorithme générique est presenté dans l’algorithme 8. Algorithm 8: Algorithme générique de la famille Bug Sensors : Une méthode de localisation parfaite. Un capteur de détection d’obstacles input : Position of Start (qstart), Position of Target (qgoal) Initialisation: robotPos ← getPosition() ; direction ← getDirection() ; if goalReached(robotPos) then EXIT_SUCCESS ; end else if obstacleInFrontOfTheRobot() == true then identifyLeavePoint (direction, robotPos, goalPos); if leavePointFound() && researchComplete(robotPos, getHitPoint(), qgoal) then goToPoint(getLeavePoint()); faceGoal() ; end else if completeCycleAroundObstacle(robotPos, getHitPoint()) && !leavePointFound() then EXIT_FAILURE ; end end else motionToGoal() ; end 121Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique 3.4 Organisation de l’implantation de la famille Bug Comme nous l’avons mentionné précédemment, le design pattern Template Method permet de gérer le problème de la variabilité en proposant de définir les sé- quences d’un algorithme dans une template méthode d’une classe abstraite écrite en fonction d’abstractions qui seront implantées dans les sous classes de celle-ci. D’autre part, le design pattern Bridge permet de séparer les abstractions de leur implantation dans différentes hiérarchies de classes. Chaque variante de l’algorithme est alors implantée dans une sous-classe de la classe abstraite. Quant aux abstractions du matériel, elles sont définies dans des interfaces et implantées par la suite par les adaptateurs correspondant aux capteurs virtuels et aux effecteurs virtuels. Nous avons besoin d’un adaptateur de capteurs qui va implanter les abstractions suivantes : – double getSafeDistance() – bool obstacleInFrontOfTheRobot() – bool obstacleOnTheLeft() – bool obstacleOnTheRight() – double getLeftDistance() – double getRightDistance() Cet adaptateur peut prendre en entrée des données d’un ou de plusieurs capteurs physiques capables de founir les informations dont on a besoin. Les paramètres de configuration des capteurs sont définis au sein de ces adaptateurs. De plus, nous avons besoin d’un adaptateur pour les effecteurs du robot qui va implanter les abstractions suivantes : – halt() – faceGoal(Point q_goal) – goAhead(double speed) – turnRight(double translation, double angle) – turnLeft(double translation, double angle) Prenons maintenant le cas d’un adaptateur Laser ayant un angle de perception de 180° et une portée de 2 mètres. Il faut arriver à extraire les informations de ce capteur afin de les adapter aux besoins des requêtes sur l’environnement. Nous avons alors défini une fonction propre à l’adaptateur appelée getDistanceSensors() qui s’occupe de regrouper les rayons en se basant sur leur nombre et leurs positions (voir 122V.3 Application sur la famille d’algorithmes Bug listing V.8). 1 vector LaserAdapter :: getDistanceSensors (){ 2 sensor_msgs :: LaserScan msg ; 3 vector rays ; 4 laser_port . read ( msg ); 5 int j = 18; 6 int nbRays = samples / nb_sensors ; 7 for(int i =0; i < nb_sensors ; i ++){ 8 rays . push_back ( std :: accumulate ( msg . ranges . begin ()+ j - nbRays , 9 msg . ranges . begin ()+ j , 0)); 10 j = j + nbRays ; 11 } 12 return rays ; 13 } Listing V.8 – implantation de getDistanceSensors() Les autres abstractions implantées dans cet adaptateur utilisent alors ce nouveau regroupement des rayons du capteur afin de renvoyer le résultat de la requête. Par exemple l’implantation de obstacleOnTheLeft() (listing V.9) qui indique si l’obstacle le plus proche est situé à gauche du robot utilise ce regroupement des rayons donné par la fonction getDistanceSensors(). 1 bool LaserAdapter :: obstacleOnTheLeft (){ 2 sensor_msgs :: LaserScan msg ; 3 vector rays = getDistanceSensors (); 4 double sensorLeft = rays [4]; 5 double sensorLeftFront = rays [3]; 6 double sensorRightFront = rays [1]; 7 double sensorRight = rays [0]; 8 9 return ( sensorRight + sensorRightFront > 10 sensorLeft + sensorLeftFront ); 11 } Listing V.9 – implantation de l’abstraction obstacleOnTheLeft() L’architecture de notre application est présentée dans la figure V.50. 123Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique Figure V.50 – Extrait du digramme de classe de la famille Bug parler de l’implantion de main droite et main gauche : réduire l’écart pour maintenir le mur à droite ou à gauche. Mettre figure mur et orientation robot Les sources correspondant aux différentes variantes des algorithmes sont disponibles sur https://github.com/SelmaKchir/BugAlgorithms. 3.5 Expérimentations et Validation Nous avons choisi d’implanter notre application sous OROCOS en utilisant une architecture à base de composants. La classe abstraite BugAlgorithm contient la template method représentant l’algorithme générique. Chaque variante de la famille Bug est un composant OROCOS qui implante les méthodes abstraites et qui peut implanter les hook méthodes de la classe abstraite. Des interfaces correspondant aux abstractions du matériel sont également définies afin de préciser les services qui doivent être fournis par les adaptateurs. Chaque adaptateur est un composant OROCOS lié à un composant matériel (capteur ou actionneur). Aucun détail spécifique au matériel n’est présenté dans le code de l’application. Les composants sont déployés dans des libraries OROCOS et les liens entre les composants de contrôle et les composants matériels ne sont spécifiés qu’au niveau de 124V.3 Application sur la famille d’algorithmes Bug l’exécution à travers un fichier de configuration. Cela garantit une indépendance par rapport aux détails de bas niveau. L’architecture d’une application correspondant à la variante Bug1 de la famille Bug est présentée dans la figure V.51. Plusieurs études Figure V.51 – Architecture de l’application correspondant à Bug1 comparatives sur les performances des variantes de la famille Bug ont été réalisées dans [127]. Dans cette section, notre objectif n’est pas de comparer ces variantes mais de prouver que chaque variante de Bug peut être implantée avec notre algorithme générique. Les six variantes présentées précédemment : Bug1 [38], Bug2 [121], Alg1 [122], Alg2 [124], DistBug [125] et TangentBug [126] ont été correctement implantées à partir de notre algorithme générique sous OROCOS. 3.5.1 Environnement de simulation : Stage-ROS Stage est un environnement de simulation deux dimensions qui fait partie de l’outil de simulation Player/Stage. Il fournit des modèles simples de plusieurs dispositifs. Stage a été intégré à ROS afin de permettre la simulation de programmes développés dans ce middleware ou développés dans d’autres middleware intégrés à ROS. Le noeud stageros simule un monde défini dans un fichier .world, qui contient les détails des capteurs, des robots et des obstacles dans le monde simulé. Stageros étant un noeud de ROS, il est possible de le faire communiquer avec d’autres middleware intégrés à ROS comme OROCOS. Nous pouvons ainsi simuler notre application implantée avec OROCOS avec Stage en passant pas les messages ROS pour l’intéraction avec les capteurs et les effecteurs physiques du robot simulé. 125Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique 3.5.2 Configurations des environnements et des capteurs La simulation a été réalisée au sein de trois environnements. Le premier environnement présenté dans la figure V.52 nous permet de tester si le robot est capable d’atteindre son but et si l’abstraction goalIsReachable() fonctionne correctement. Figure V.52 – Environnement1 : but inatteignable Le second environnement présenté dans la figure V.53 est un environnement de simulation simple avec un seul obstacle. Le but de l’utilisation de cet environnement est de tester simplement le contournement d’obstacle et la capacité du robot d’identifier un point pour le quitter. Nous ne pouvons pas distinguer le comportement du robot dans les algorithmes Bug2 et Alg1 à travers cet environnement car le robot ne revisite pas de points qu’il a déjà visités. Figure V.53 – Environnement2 : Environnement avec un seul obstacle 126V.3 Application sur la famille d’algorithmes Bug Nous avons alors défini un troisième environnement V.54 pour pouvoir distinguer les trajectoires d’exécution du robot dans les environnement Bug2 et Alg1 et dans les autres algorithmes. Concernant les capteurs, nous avons utilisé deux configurations de robots : le preFigure V.54 – Environnement3 : Environnement avec plusieurs obstacles mier avec un capteur Laser et le deuxième avec trois capteurs infrarouges. La première configuration a été effectuée en utilisant un capteur Laser ayant un angle de perception de 180 degré et dont les rayons de cet angle ont une portée variant de 0.02 mètres et allant jusqu’à 4 mètres. Pour la localisation, nous avons utilisé un GPS (en supposant que l’environnement de simulation est à l’extérieur). La deuxième configuration a été réalisée en utilisant trois capteurs infrarouges placés sur l’avant, sur la gauche et sur la droite du robot par rapport à son axe central. Ces capteurs ont un champs de vision (Field Of View) de 26 degré et une portée qui va jusqu’à 2 mètres. Afin de valider notre démarche nous avons testé nos algorithmes avec deux configurations différentes dans ces trois environnements. 3.5.3 Résultats Les résultats de simulation montrent une différence de trajectoire entre la première et la deuxième configuration. En effet, la trajectoire suivie par le robot ayant un capteur Laser est différente de celle suivie par le robot ayant les capteurs infrarouges. Ceci est dû au temps d’interprétation des données et aux configurations différentes. Cependant dans tous les cas le robot termine sa mission et ar- 127Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique rive à atteindre son but. Concernant les différents algorithmes, ils sont correctement exécutés dans ces trois environnements. Les résultats de simulation sont disponibles sur le lien : https://github.com/SelmaKchir/BugAlgorithms/wiki/ Implementing-Bug-Algorithms-variants 4 Discussion Nous avons démontré que les abstractions identifiées permettent d’être réutilisées indépendamment du robot utilisé grâce à l’utilisation des adaptateurs des capteurs et des effecteurs. Ces abstractions ont une sémantique car elles ont été définies à partir pour une tâche de robotique. Si nous souhaitons ajouter une nouvelle variante de la famille Bug, il faut implanter les abstractions algorithmiques, les abstractions non algorithmiques quant à elles ne doivent pas forcément être implantées s’il n’y a pas de changement de robot. Dans le cas contraire, il faut ajouter un adaptateur pour les abstractions non algorithmiques. Concernant les requêtes sur l’environnement, nous avons distingué des requêtes générales indépendantes de la classe des capteurs utilisés (range, tactiles, etc.) et des requêtes spécifiques aux capteurs à rayons. Si nous souhaitons supporter les capteurs tactiles par exemple, il faudrait alors changer l’implantation de l’abstraction wallFollowing vu qu’elle utilisait les abstractions getLeftDistance(), getRightDistance(), getSafeDistance() qui s’appuient sur les capteurs à rayons. Les abstractions algorithmiques résistent aux variations non algorithmiques. En effet, si on prend l’exemple de l’abstraction identifyLeavePoint (voir algorithme 7), même si on change la façon de contourner l’obstacle et les capteurs qu’on veut utiliser, l’implantation de cette abstraction reste inchangée. Nous avons besoin d’enregistrer plus de données donc on peut les ajouter au niveau de l’implantation de cette variante... L’ajout est alors facile, il suffit de comprendre l’algorithme et de l’intégrer. L’algorithme générique, quant à lui, est stable, il n’y a pas de changement à faire au sein de l’algorithme générique si on veut ajouter une nouvelle variante ou un nouveau matériel. 128V.5 Conclusion 5 Conclusion Dans ce chapitre, nous avons proposé une approche qui permet de produire des abstractions algorithmiques, des abstractions non algorithmiques et un algorithme générique défini en fonction de ces dernières. Nous avons présenté également comment implanter ces abstractions de façon à les faire varier dans l’application sans avoir à modifier l’algorithme générique et sans qu’il n’y ait d’explosion combinatoire. En effet, nous avons séparé l’implantation des abstractions non algorithmiques de celles algorithmiques étant donné que ces dernières sont de plus haut niveau et sont spécifiques à la tâche qu’on veut implanter. Cependant, l’inconvénient d’une telle approche est qu’il faudrait définir autant d’adaptateurs que de capteurs ou d’effecteurs physiques. Afin d’assurer la réutilisabilité de ces abstractions, on pourrait enrichir notre démarche par une librairie d’adaptateurs qui convertissent les données à partir de dispositifs physiques vers les abstractions requises (dans le cas des capteurs) ou inversement (dans le cas des effecteurs). Cette librairie pourrait compléter l’ontologie du domaine proposée dans le cadre du projet PROTEUS en apportant une sémantique aux abstractions définies. 129Chapitre V. Approche Top-down pour la gestion de la variabilité dans les algorithmes de robotique 130Conclusion générale et perspectives Le projet PROTEUS a constitué le contexte général de cette thèse dont l’objectif principal est de faciliter le développement des applications de robotique et les rendre résistantes vis-à-vis aux changements des détails de bas niveau. Ce travail de thèse a alors consisté à : 1. Choisir des abstractions indépendantes des plateformes de robotique mobile pour représenter le contrôle et la communication d’une application ; 2. traduire les abstractions de RobotML vers le middleware OROCOS à travers un générateur de code ; 3. proposer une démarche descendante pour rendre les algorithmes résistants aux changements des détails de bas niveau. Afin de faciliter le développement des applications de robotique, il faudrait permettre aux roboticiens de manipuler des concepts qu’ils ont l’habitude d’utiliser pour le développement de leurs applications. Pour ce faire et afin de traiter le point (1) présenté ci-dessus, nous avons étudié les différents concepts utilisés en robotique. Pour l’aspect contrôle, nous permettons la modélisation de plusieurs types de contrôle (à boucle fermée ou à boucle ouverte) à travers des machines à états finis. Pour l’aspect communication, nous permettons la spécification d’un échange de données synchrone ou asynchrone entre les composants d’une application ainsi que la communication à travers des services. Les abstractions de RobotML sont proposées à travers un éditeur graphique offrant ainsi une facilité d’utilisation aux roboticiens et même à des simples utilisateurs qui ne sont pas experts en robotique. À partir des modèles représentés avec l’éditeur graphique de RobotML, nous générons le code correspondant vers la plateforme OROCOS. Nous arrivons alors au point (2) ci-dessus. Cette contribution a 131Conclusion générale et perspectives consisté à l’élaboration de règles de transformations des abstractions de RobotML vers les concepts d’OROCOS. La génération de code permet d’accélérer le processus de développement d’une application. En effet, le temps passé dans la phase de conception d’une application avec RobotML est largement inférieur au temps passé à développer une application à partir de zéro. Cette contribution a été validée sur un scénario aérien proposé par l’ONERA. Les abstractions proposées par RobotML sont des abstractions de haut niveau du domaine qui permettent de spécifier les aspects généraux d’une application de robotique : architecture, contrôle et communication. Cependant, elles ne permettent pas de gérer la variabilité liée aux détails de bas niveau des capteurs et des effecteurs d’une part. D’autre part, elles ne permettent pas d’encapsuler les détails algorithmiques d’une application car elles manquent de sémantique opérationnelle. En effet, l’approche adoptée pour la définition des abstractions est une approche qui se base sur les connaissances du domaine pour l’identification des abstractions. Le dernier volet des travaux de cette thèse a été alors de proposer une approche qui permet de définir des abstractions ayant une sémantique opérationnelle. Nous sommes partis de la description d’une tâche de robotique afin d’identifier ce que nous avons appelés des abstractions non algorithmiques et des abstractions algorithmiques. Les abstractions non algorithmiques concernent essentiellement le matériel et se présentent sous forme de requêtes sur l’environnement ou des actions de haut niveau. Les abstractions algorithmiques sont de plus haut niveau que les abstractions non algorithmiques, elles encapsulent les détails algorithmiques relatifs à une sous-tâche de robotique et utilisent les abstractions non algorithmiques. Un expert de robotique combine ensuite ces abstractions afin de définir un algorithmique générique qui résiste aux changements de bas niveau ainsi qu’aux variations algorithmiques. Notre approche a été validée sur une famille d’algorithmes de navigation appelée Bug [38]. Nous avons fait varier les capteurs utilisés ainsi que les stratégies proposées par six variantes de cette famille et nous avons démontré que l’algorithme générique reste inchangé malgré ces variations. Une perspective immédiate de nos travaux serait d’enrichir les abstractions de RobotML avec une librairie d’abstractions contenant celles que nous avons identifiées pour une famille de navigation. Ainsi, il devient possible au niveau de la modélisation d’utiliser des abstractions qu’on sait comment implanter. Une deuxième perspective 132Conclusion générale et perspectives consiste à appliquer notre approche sur une autre étude de cas afin d’identifier davantage d’abstractions. L’implantation de notre approche pour la définition d’un algorithme générique en fonction d’abstractions ayant une sémantique opérationnelle se base sur les patrons de conception Template Method et Bridge. Il n’est pas encore possible avec notre approche de définir des contraintes sur les algorithmes comme par exemple les capteurs requis qui peuvent être des capteurs de distance dans certains cas. Une perspective possible serait d’utiliser les lignes de produits algorithmiques dans ce contexte afin de définir des contraintes sur l’association entre les capteurs requis pour des abstractions algorithmiques particulières. Une ébauche de cette perspective a été réalisée dans le cadre de cette thèse mais les résultats sont insuffisants pour être présentés dans ce travail. Une perspective de recherche à long terme des travaux de cette thèse serait de s’intéresser à un autre sous-domaine de la robotique comme par exemple les robots manipulateurs. À partir de notre expérience avec RobotML, nous pouvons savoir quelles sont les abstractions qui peuvent être réutilisées et celles qu’il faut ajouter afin de faciliter le développement de ce sous-domaine. 133Conclusion générale et perspectives 134Références bibliographiques [1] Ronald C. Arkin. Behavior Based Robotics (Intelligent Robotics and Autonomous Agents). The MIT Press (1998). vii, 7, 8, 13, 14, 15 [2] Mark Strembeck and Uwe Zdun. An approach for the systematic development of domain-specific languages. Softw. Pract. Exper. 39(15), 1253–1292 October (2009). vii, 35, 41, 44, 45 [3] Herman Bruyninckx, Markus Klotzbücher, Nico Hochgeschwender, Gerhard Kraetzschmar, Luca Gherardi, and Davide Brugali. The brics component model : a model-based development paradigm for complex robotics software systems. In Proceedings of the 28th Annual ACM Symposium on Applied Computing, SAC ’13, pages 1758–1764, New York, NY, USA (2013). ACM. vii, 2, 48, 50, 58, 60, 84 [4] Soraya Arias, Florine Boudin, Roger Pissard-Gibollet, and Daniel Simon. ORCCAD, robot controller model and its support using Eclipse Modeling tools. In 5th National Conference on Control Architecture of Robots, Douai, France May (2010). vii, 2, 50, 51, 58, 60 [5] Smartsoft metamodel. http://www.program-transformation.org/pub/ GPCE11/ConferenceProgram/slides-gpce11-steck.pdf. vii, 52 [6] Diego Alonso, Cristina Vicente-Chicote, Francisco Ortiz, Juan Pastor, and Barbara Alvarez. V3CMM : a 3-View Component MetaModel for Model-Driven Robotic Software Development. Journal of Software Engineering for Robotics 1(1), 3–17 (2010). vii, 53, 54, 58, 60 [7] Saadia Dhouib, Nicolas Du Lac, Jean-Loup Farges, Sebastien Gerard, Miniar Hemaissia-Jeannin, Juan Lahera-Perez, Stephane Millet, Bruno Patin, and Serge Stinckwich. Control architecture 135Références bibliographiques concepts and properties of an ontology devoted to exchanges in mobile robotics. In 6th National Conference on Control Architectures of Robots (2011). vii, 65, 67, 68 [8] Roland Siegwart and Illah R. Nourbakhsh. Introduction to Autonomous Mobile Robots. Bradford Company, Scituate, MA, USA (2004). xi, 10, 11 [9] Henrik I. Christensen and Gregory D. Hager. Sensing and estimation. In Bruno Siciliano and Oussama Khatib, editors, Springer Handbook of Robotics, pages 87–107. Springer (2008). xi, 10 [10] Morgan Quigley, Ken Conley, Brian P. Gerkey, Josh Faust, Tully Foote, Jeremy Leibs, Rob Wheeler, and Andrew Y. Ng. Ros : an open-source robot operating system. In ICRA Workshop on Open Source Software (2009). 1, 19, 23 [11] H. Utz, S. Sablatnog, S. Enderle, and G. Kraetzschmar. Miro - middleware for mobile robot applications. Robotics and Automation, IEEE Transactions on 18(4), 493–497 (2002). 1, 19, 25 [12] Douglas Blank, Deepak Kumar, Lisa Meeden, and Holly Yanco. Pyro : A python-based versatile programming environment for teaching robotics. J. Educ. Resour. Comput. 4(3) December (2003). 1, 19, 29, 31 [13] Toby H. J. Collett and Bruce A. Macdonald. Player 2.0 : Toward a practical robot programming framework. In in Proc. of the Australasian Conference on Robotics and Automation (ACRA (2005). 1, 19, 20 [14] Arie van Deursen, Paul Klint, and Joost Visser. Domain-specific languages : an annotated bibliography. SIGPLAN Not. 35(6), 26–36 June (2000). 1, 34, 35, 39, 40, 45, 46 [15] Jean Bézivin. On the unification power of models. Software and Systems Modeling 4(2), 171–188 (2005). 2, 35 [16] Christian Schlegel, Andreas Steck, and Alex Lotz. Model-driven software development in robotics : Communication patterns as key for a robotics component model. Introduction to Modern Robotics (2012). 2, 52, 56, 58, 60 [17] Michael Brady. Artificial intelligence and robotics. Artif. Intell. 26(1) apr (1985). 7 [18] Nils J. Nilsson. A mobius automation : an application of artificial intelligence techniques. In Proceedings of the 1st international joint conference 136Références bibliographiques on Artificial intelligence, IJCAI’69, pages 509–520, San Francisco, CA, USA (1969). Morgan Kaufmann Publishers Inc. 8, 12 [19] Allen Newell, J. C. Shaw, and Herbert A. Simon. Report on a general problem-solving program. In IFIP Congress, pages 256–264 (1959). 8 [20] Robin R. Murphy. Introduction to AI Robotics. MIT Press, Cambridge, MA, USA, 1st edition (2000). 8 [21] A. Elkady and T. Sobh. Robotics middleware : A comprehensive literature survey and attribute-based bibliography. Journal of Robotics 2012 (2012). 9, 19, 20, 31 [22] Jacob Fraden. Handbook of Modern Sensors : Physics, Designs, and Applications (Handbook of Modern Sensors). SpringerVerlag (2003). 9, 10, 11 [23] J.P. Laumond, S. Sekhavat, and F. Lamiraux. Robot motion planning and control chapter Guidelines in nonholonomic motion planning for mobile robots, pages 1–53. Lectures. Notes in Control and Information Sciences 229. Springer, N.ISBN 3-540-76219-1 (1998). 11 [24] David Kortenkamp and Reid G. Simmons. Robotic systems architectures and programming. In Springer Handbook of Robotics, pages 187–206. (2008). 12, 15 [25] Georges Giralt, Raja Chatila, and Marc Vaisset. An integrated navigation and motion control system for autonomous multisensory mobile robots. In IngemarJ. Cox and GordonT. Wilfong, editors, Autonomous Robot Vehicles, pages 420–443. Springer New York (1990). 12 [26] R. Chatila and J. Laumond. Position referencing and consistent world modeling for mobile robots. , 2, pages 138–145 (1985). 12 [27] James S. Albus, Harry G. McCain, and Ronald Lumia. Nasa/nbs standard reference model for telerobot control system architecture (nasrem). (1989). 13 [28] Ronald C. Arkin and Ronald Arkin. Reactive robotic systems, (1995). 13 [29] Maja J. Mataric. Behavior-based control : Examples from navigation, learning, and group behavior. Journal of Experimental and Theoretical Artificial Intelligence 9, 323–336 (1997). 13 [30] Jonathan Connell. A colony architecture for an artificial creature. Technical report, Cambridge, MA, USA (1989). 13, 14 137Références bibliographiques [31] David Zeltzer and Michael B. Johnson. Motor planning : An architecture for specifying and controlling the behaviour of virtual actors. The Journal of Visualization and Computer Animation 2(2), 74–80 (1991). 14 [32] R.A. Brooks. A robot that walks ; emergent behaviors from a carefully evolved network. In Robotics and Automation, 1989. Proceedings., 1989 IEEE International Conference on, pages 692–4+2 vol.2 (1989). 14 [33] Rodney A. Brooks. A robust layered control system for a mobile robot. IEEE Journal of Robotics and Automation 2(10) (1986). 14 [34] Julio Rosenblatt. Damn : A distributed architecture for mobile navigation - thesis summary. In Journal of Experimental and Theoretical Artificial Intelligence, pages 339–360. AAAI Press (1995). 14 [35] Pattie Maes. The dynamics of action selection. In Proceedings of the 11th international joint conference on Artificial intelligence - Volume 2, IJCAI’89, pages 991–997, San Francisco, CA, USA (1989). Morgan Kaufmann Publishers Inc. 14 [36] Ronald C. Arkin. Path planning for a vision-based autonomous robot. Technical report, Amherst, MA, USA (1986). 15 [37] Ronald Craig Arkin. Towards cosmopolitan robots : intelligent navigation in extended man-made environments. Thèse de Doctorat, (1987). AAI8805889. 15 [38] Vladimir J. Lumelsky and Alexander A. Stepanov. Effect of uncertainty on continuous path planning for an autonomous vehicle. , 23, pages 1616 –1621 dec. (1984). 16, 100, 101, 108, 110, 111, 125, 132 [39] David Bakken. Middleware. Encyclopedia of Distributed Computing (2001). 19 [40] James Kramer and Matthias Scheutz. Development environments for autonomous mobile robots : A survey. Auton. Robots 22(2), 101–132 feb (2007). 19 [41] N. Mohamed, J. Al-Jaroodi, and I. Jawhar. Middleware for robotics : A survey. In Robotics, Automation and Mechatronics, 2008 IEEE Conference on, pages 736–742 (2008). 19, 20 [42] Richard T. Vaughan, Brian P. Gerkey, and Andrew Howard. On device abstractions for portable, reusable robot code. In Proc. of the IEEE/RSJ Intl. Conf. on Intelligent Robots and Systems (IROS), page 2121–2427, Las Vegas, Nevada (2003). 19, 20 138Références bibliographiques [43] ROS : Robot-Operating System. http://www.ros.org/. 19, 23 [44] PYRO : Python Robotics. http://pyrorobotics.com/. 19, 29 [45] William D. Smart. Is a Common Middleware for Robotics Possible ? In IEEE/RSJ Int. Conf. on Intelligent Robots and Systems (IROS’07) Workshop on Measures and Procedures for the Evaluation of Robot Architectures and Middleware November (2007). 23, 99 [46] ROS - Topics. http://wiki.ros.org/Topics. 23 [47] RTT : Real-Time Toolkit. http://www.orocos.org/rtt. 23, 24, 85 [48] ROS - Messages. http://wiki.ros.org/Messages. 24 [49] Corba. http://www.corba.org/. 26 [50] N. Sünderhauf R. Baumgartl P. Protzel D. Krüger, I. Lil. Using and extending the miro middleware for autonomous robots. In Towards Autonomous Robotic Systems (TAROS), Guildford, September 2006. (2006). 28 [51] Michael Jackson. Specializing in software engineering. IEEE Softw. 16(6), 120–121,119 November (1999). 33 [52] Marjan Mernik, Jan Heering, and Anthony M. Sloane. When and how to develop domain-specific languages. ACM Comput. Surv. 37(4), 316–344 December (2005). 34 [53] Diomidis Spinellis. Notable design patterns for domain-specific languages, (2001). 34 [54] Richard B. Kieburtz, Laura McKinney, Jeffrey M. Bell, James Hook, Alex Kotov, Jeffrey Lewis, Dino P. Oliva, Tim Sheard, Ira Smith, and Lisa Walton. A software engineering experiment in software component generation. In Proceedings of the 18th international conference on Software engineering, ICSE ’96, pages 542–552, Washington, DC, USA (1996). IEEE Computer Society. 34 [55] Markus Voelter, Sebastian Benz, Christian Dietrich, Birgit Engelmann, Mats Helander, Lennart C. L. Kats, Eelco Visser, and Guido Wachsmuth. DSL Engineering - Designing, Implementing and Using Domain-Specific Languages. dslbook.org (2013). 34, 35, 42 [56] Arie van Deursen and Paul Klint. Little languages : little maintenance. Journal of Software Maintenance 10(2), 75–92 March (1998). 35 139Références bibliographiques [57] David A. Ladd and Christopher J. Ramming. Two Application languages in software production. In VHLLS’94 : Proceedings of the USENIX 1994 Very High Level Languages Symposium Proceedings on USENIX 1994 Very High Level Languages Symposium Proceedings, page 10, Berkeley, CA, USA (1994). USENIX Association. 35 [58] Francis Neelamkavil. Computer simulation and modelling. John Wiley & Sons, Inc., New York, NY, USA (1987). 35 [59] Omg. http://www.omg.org/. 36 [60] Richard C. Gronback. Eclipse Modeling Project : A Domain-Specific Language (DSL) Toolkit. Addison-Wesley Professional, 1 edition (2009). 37, 50 [61] Papyrus. http://www.eclipse.org/papyrus/. 37, 81, 82 [62] Uml. http://www.uml.org/. 37 [63] L. Fuentes-Fernández and A. Vallecillo-Moreno. An Introduction to UML Profiles. UPGRADE, European Journal for the Informatics Professional 5(2), 5–13 April (2004). 37, 43 [64] OMG MOF 2 XMI Mapping Specification, Version 2.4.1, August (2011). 38 [65] Epsilon. http://www.eclipse.org/epsilon/. 39 [66] Kermeta. http://www.kermeta.org/overview/model_transformation. 39 [67] Acceleo. http://www.eclipse.org/acceleo/. 39, 85 [68] Tom-emf. http://tom.loria.fr/wiki/index.php5/Documentation:EMF. 39 [69] Paul Oldfield. Domain modelling, (2002). 39, 99 [70] G. Arango. Domain analysis : from art form to engineering discipline. In Proceedings of the 5th international workshop on Software specification and design, IWSSD ’89, pages 152–159, New York, NY, USA (1989). ACM. 40 [71] Mark A. Simos. Organization domain modeling (odm) : Formalizing the core domain modeling life cycle, (1996). 40 [72] K. C. Kang, S. G. Cohen, J. A. Hess, W. E. Novak, and A. S. Peterson. Feature-oriented domain analysis (foda) feasibility study. Technical report Carnegie-Mellon University Software Engineering Institute November (1990). 41 [73] Nicola Guarino. Formal ontology and information systems. pages 3–15. IOS Press (1998). 41 140Références bibliographiques [74] Saadia Dhouib, Selma Kchir, Serge Stinckwich, Tewfik Ziadi, and Mikal Ziane. Robotml, a domain-specific language to design, simulate and deploy robotic applications. , 7628, pages 149–160. Springer Berlin Heidelberg (2012). 46 [75] Piotr Trojanek. Model-driven engineering approach to design and implementation of robot control system. CoRR abs/1302.5085 (2013). 47 [76] Xavier Blanc, Jérôme Delatour, and Tewfik Ziadi. Benefits of the MDE approach for the development of embedded and robotic systems. In Proceedings of the 2nd National Workshop on “Control Architectures of Robots : from models to execution on distributed control architectures” (CAR 2007) (2007). 47 [77] Brics. http://www.best-of-robotics.org/. 48 [78] Bride. http://www.best-of-robotics.org/bride/. 49 [79] D. Simon, B. Espiau, K. Kapellos, and R. Pissard-Gibollet. Orccad : software engineering for real-time robotics. a technical insight. Robotica 15(1), 111–115 January (1997). 50 [80] D. Simon, R. Pissard-Gibollet, and S. Arias. Orccad, a framework for safe robot control design and implementation. In 1st National Workshop on Control Architectures of Robots : software approaches and issues CAR’06, Montpellier (2006). 50 [81] Gerard Berry, Georges Gonthier, Ard Berry Georges Gonthier, and Place Sophie Laltte. The esterel synchronous programming language : Design, semantics, implementation, (1992). 50 [82] Christian Schlegel. Communication Patterns as Key Towards Component-Based Robotics. International Journal of Advanced Robotic Systems 3(1), 49–54 March (2006). 51, 79 [83] Smartsoft reference implementation. http://smart-robotics. sourceforge.net/. 51 [84] C. Schlegel, A. Lotz, and A. Steck. Smartsoft : The state management of a component. Technical report Hochschule Ulm January (2011). 52 [85] Cristina Vicente-Chicote, Fernando Losilla, Bárbara Álvarez, Andrés Iborra, and Pedro Sánchez. Applying mde to the development of flexible and reusable wireless sensor networks. Int. J. Cooperative Inf. Syst. 16(3/4), 393–412 (2007). 54 141Références bibliographiques [86] Genom3. http://homepages.laas.fr/mallet/soft/architecture/ genom3/. 55, 58, 60 [87] S. Fleury, M. Herrb, and R. Chatila. Genom : a tool for the speci- fication and the implementation of operating modules in a distributed robot architecture. , 2, pages 842–849 vol.2 (1997). 55 [88] Anthony Mallet, Cédric Pasteur, Matthieu Herrb, Séverin Lemaignan, and François Felix Ingrand. Genom3 : Building middlewareindependent robotic components. In ICRA, pages 4627–4632. IEEE (2010). 56 [89] Robotic Technology Component (RTC), August (2012). 56, 58, 60 [90] Byoungyoul Song, Seugwoog Jung, Choulsoo Jang, and Sunghoon Kim. An introduction to robot component model for opros (open platform for robotic services). (2008). 56, 57 [91] Choulsoo Jang, Byoungyoul Song, Seungwoog Jung, Sunghoon Kim, Byeongcheol Choi, Hyo-Young Lee, and Cheol-Hoon Lee. A development of software component framework for robotic services. Convergence Information Technology, International Conference on 0, 1–6 (2009). 56 [92] Mi-sook Kim and Hong Seong Park. Open platform for ubiquitous robotic services. In Proceedings of the 2012 ACM Conference on Ubiquitous Computing, UbiComp ’12, pages 892–893, New York, NY, USA (2012). ACM. 56 [93] N. Ando, T. Suehiro, K. Kitagaki, T. Kotoku, and Woo-Keun Yoon. RT-middleware : distributed component middleware for RT (robot technology). In 2005 IEEE/RSJ International Conference on Intelligent Robots and Systems, pages 3933–3938. IEEE (2005). 56, 57 [94] Gostai rtc. http://www.gostai.com/products/rtc/. 57 [95] Proteus. http://www.anr-proteus.fr/. 64 [96] Dassault aviation. http://www.dassault-aviation.com/fr/. 64 [97] ECA : Etudes et Constructions Aéronotiques. http://www.eca-robotics. com/. 64 [98] CEA : Commissariat de l’Energie Atomique. http://www.cea.fr/. 64 [99] GOSTAI. http://www.gostai.com/. 64 [100] Intempora. http://www.intempora.com/. 64 142Références bibliographiques [101] Thales. https://www.thalesgroup.com/fr. 64 [102] Lasmea. http://tims.isima.fr/lasmea.php. 64 [103] Thales optronoique sa. https://www.thalesgroup.com/fr/worldwide/ defense/notre-offre-forces-terrestres-c4isr/optronique. 64 [104] Greyc. https://www.greyc.fr/. 64 [105] Inria. http://www.inria.fr/. 64 [106] Onera. http://www.onera.fr/. 64 [107] Prisme. http://www.univ-orleans.fr/prisme. 64 [108] Effidence. http://effistore.effidence.com/. 64 [109] Wifibot. http://www.wifibot.com/. 64 [110] Lip6 : Laboratoire d’Informatique de Paris 6. http://www.lip6.fr. 64 [111] Thomas R. Gruber. Toward principles for the design of ontologies used for knowledge sharing. Int. J. Hum.-Comput. Stud. 43(5-6), 907–928 dec (1995). 65 [112] Gaëlle Lortal, Saadia Dhouib, and Sébastien Gérard. Integrating ontological domain knowledge into a robotic DSL. In Proceedings of the 2010 international conference on Models in software engineering, MODELS’10, Berlin, Heidelberg (2011). Springer-Verlag. 69 [113] RTMAPS : Real-Time, Multisensor, Advanced, Prototyping Software. http: //www.intempora.com/rtmaps4/rtmaps-software/overview.html. 85 [114] URBI : Universal Real-time Behavior Interface. http://www.urbiforge. org/. 85 [115] Arrocam. http://effistore.effidence.com/. 85 [116] Morse. http://www.openrobots.org/wiki/morse/. 85 [117] Cycabtk. http://cycabtk.gforge.inria.fr/. 85 [118] Rtt-lua. http://www.orocos.org/wiki/orocos/toolchain/luacookbook. 87 [119] Davide Brugali, Luca Gherardi, A. Biziak, Andrea Luzzana, and Alexey Zakharov. A Reuse-Oriented Development Process for ComponentBased Robotic Systems. , 7628, pages 361–374. Springer (2012). 100 143Références bibliographiques [120] Erich Gamma, Richard Helm, Ralph Johnson, and John Vlissides. Design Patterns : Elements of reusable object-oriented software. AddisonWesley Publishing (1995). 106, 107 [121] V. Lumelsky and A. Stepanov. Dynamic path planning for a mobile automaton with limited information on the environment. Automatic Control, IEEE Transactions on 31(11), 1058 – 1063 nov (1986). 110, 111, 125 [122] H. Noborio, K. Fujimura, and Y. Horiuchi. A comparative study of sensor-based path-planning algorithms in an unknown maze. , 2, pages 909 –916 vol.2 (2000). 111, 112, 125 [123] A. Sankaranarayanan and M. Vidyasagar. A new path planning algorithm for moving a point object amidst unknown obstacles in a plane. In Robotics and Automation, 1990. Proceedings., 1990 IEEE International Conference on, pages 1930 –1936 vol.3 may (1990). 111 [124] A. Sankaranarayanar and M. Vidyasagar. Path planning for moving a point object amidst unknown obstacles in a plane : a new algorithm and a general theory for algorithm development. In Decision and Control, 1990., Proceedings of the 29th IEEE Conference on, pages 1111 –1119 vol.2 dec (1990). 112, 113, 125 [125] Ishay Kamon. Sensory based motion planning with global proofs. In In Proceedings of the IROS95, pages 435–440 (1995). 112, 113, 125 [126] Ishay Kamon, Elon Rimon, and Ehud Rivlin. Tangentbug : A rangesensor-based navigation algorithm. The International Journal of Robotics Research 17(9), 934–953 September (1998). 114, 115, 125 [127] James Ng and Thomas Bräunl. Performance comparison of bug navigation algorithms. J. Intell. Robotics Syst. 50(1), 73–84 September (2007). 125 144Résumé L’un des challenges des roboticiens consiste à gérer un grand nombre de variabilités. Ces dernières concernent les concepts liés au matériel et aux logiciels du domaine de la robotique. Par conséquent, le développement des applications de robotique est une tâche complexe. Non seulement, elle requiert la maîtrise des détails de bas niveau du matériel et du logiciel mais aussi le changement du matériel utilisé dans une application entraînerait la réécriture du code de celle-ci. L’utilisation de l’ingénierie dirigée par les modèles dans ce contexte est une voie prometteuse pour (1) gérer les problèmes de dépendance de bas niveau des applications des détails de bas niveau à travers des modèles stables et (2) faciliter le développement des applications à travers une génération automatique de code vers des plateformes cibles. Les langages de modélisation spécifiques aux domaines mettent en oeuvre les techniques de l’ingénierie dirigée par les modèles afin de représenter les concepts du domaine et permettre aux experts de celui-ci de manipuler des concepts qu’ils ont l’habitude d’utiliser. Cependant, ces concepts ne sont pas suffisants pour représenter tous les aspects d’une application car ils très généraux. Il faudrait alors s’appuyer sur une démarche pour extraire des abstractions à partir de cas d’utilisations concrets et ainsi définir des abstractions ayant une sémantique opérationnelle. Le travail de cette thèse s’articule autour de deux axes principaux. Le premier axe concerne la contribution à la conception d’un langage de modélisation spécifique au domaine de la robotique mobile (RobotML). Nous extrayons à partir d’une ontologie du domaine les concepts que les roboticiens ont l’habitude d’utiliser pour la définition de leurs applications. Ces concepts sont ensuite représentés à travers une interface graphique permettant la représentation de modèles afin d’assurer une facilité d’utilisation pour les utilisateurs de RobotML. On offre ainsi la possibilité aux roboticiens de représenter leurs scénarios dans des modèles stables et indépendants des plateformes cibles à travers des concepts qu’ils ont l’habitude de manipuler. Une génération de code automatique à partir de ces modèles est ensuite possible vers une ou plusieurs plateformes cibles. Cette contribution est validée par la mise en oeuvre d’un scénario aérien dans un environnement inconnu proposé par l’ONERA. Le deuxième axe de cette thèse tente de définir une approche pour rendre les algorithmes résistants aux changements des détails de ba niveau. Notre approche prend en entrée la description d’une tâche de robotique et qui produit : – un ensemble d’abstractions non algorithmiques représentant des requêtes sur l’environnment y compris le robot ou des actions de haut niveau ; – un ensemble d’abstractions algorithmiques encapsulant un ensemble d’instructions permettant de réaliser une sous-tâche de la tâche étudiée ; – un algorithme générique configurable défini en fonction de ces abstractions. Ainsi, l’impact du changement du matériel et des stratégies définies dans les sous-tâches n’est pas très important. Il suffit d’adapter l’implantation de ces abstractions sans avoir à modifier l’algorithme générique. Cette approche est validée sur six variantes d’une famille d’algorithmes de navigation appelée Bug.Abstract One of the challenges of robotics is to manage a large number of variability. The latter concerns the concepts related to hardware and software in the field of robotics. Therefore, the development of robotic applications is a complex task. Not only it requires mastery of low-level details of the hardware and software but also if we change the used hardware in an application, this would impact the code. The use of model-driven engineering in this context is a promising way to (1) manage low-level dependency problems through stable models and (2) facilitate the development of applications through automatic code generation to target platforms . Domain Specific Modeling Languages implement the model driven engineering technologies to represent the domain concepts and enable experts to manipulate concepts they are used to use. However, these concepts are not sufficient to represent all aspects of an application because they are very general. We would then use an approach to extract abstractions from concrete use cases and thus define abstractions with an operational semantics . The work of this thesis focuses on two main axes. The first concerns the contribution to the design of a domain specific modeling language for mobile robots (RobotML). We extract from a domain ontology concepts that roboticists have used to use to define their applications. These concepts are then represented through a graphical interface representation model to ensure ease of use for RobotML users. An automatic code generation from these models can then be performed to one or more target platforms. This contribution is enabled by setting implement an air scenario, in an unknown environment, proposed by ONERA. The second focus of this thesis attempts to define an approach to make the algorithms resistant to the change of low-level details. Our approach takes as input a description of a task and produces robotic : – a set of non-algorithmic abstractions representing queries on environnment (including robot) or high-level actions ; – a set of algorithmic abstractions encapsulating a set of instructions to perform a sub-task of the studied task ; – a generic configurable algorithm defined according to these abstractions. Thus, the impact of changing hardware and strategies defined in the sub-tasks is not very important. Simply adapt the implementation of these abstractions without changing the generic algorithm. This approach is validated on six variants of a navigation algorithms family called Bug. M´eta-mod´elisation du Comportement d’un Mod`ele de Processus : Une D´emarche de Construction d’un Moteur d’Ex´ecution Sana Mallouli To cite this version: Sana Mallouli. M´eta-mod´elisation du Comportement d’un Mod`ele de Processus : Une D´emarche de Construction d’un Moteur d’Ex´ecution. Modeling and Simulation. Universit´e Panth´eon-Sorbonne - Paris I, 2014. French. HAL Id: tel-01061466 https://tel.archives-ouvertes.fr/tel-01061466 Submitted on 6 Sep 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.DE L’UNIVERSITE PARIS 1 DOCTEUR DE L’UNIVERSITE PARIS 1 Méta-modélisation du Comportement d’un Une Démarche de Construction d Soutenue le 25/07 Slimane Corine Samira Carine SOUVEYET Saïd ASSAR THESE DE DOCTORAT DE L’UNIVERSITE PARIS 1 PANTHEON – SORBONNE Réalisée par : Sana Damak Mallouli Pour l’obtention du titre de : CTEUR DE L’UNIVERSITE PARIS 1 PANTHEON Spécialité : INFORMATIQUE modélisation du Comportement d’un Modè Une Démarche de Construction d’un Moteur d’Exécution Soutenue le 25/07/2014 devant le jury composé de : Slimane HAMMOUDI Membre du jury Corine CAUVET Rapporteur amira SI SAID Rapporteur Carine SOUVEYET Directeur de thèse Saïd ASSAR Encadrant de thèse SORBONNE PANTHEON – SORBONNE Modèle de Processus : Moteur d’Exécution devant le jury composé de : de thèseii iii Remerciements iv Remerciements Comme toute thèse, cette recherche a été ponctuée de nombreux moments d’enthousiasme et de joie, mais également de nombreuses périodes de doute et de découragement. L’achèvement de ce travail n’aurait pas été possible sans la précieuse contribution de nombreuses personnes que je veux remercier ici. Je souhaiterais tout d’abord adresser mes sincères remerciements à la directrice de cette thèse Madame Carine Souveyet, Professeur à l’université Paris1 Panthéon-Sorbonne, pour la confiance qu’elle m’a accordée en acceptant de diriger cette thèse, puis pour m'avoir guidée, encouragée et conseillée, tout au long de ce travail de recherche. Je la remercie infiniment pour m’avoir fait bénéficier de sa grande compétence, de sa rigueur intellectuelle et de ces précieux conseils. Je tiens également à exprimer ma plus vive reconnaissance à mon encadrant de recherche Mr Saïd Assar, Maitre de conférences à Institut Mines Telecom -Telecom Ecole de Management. Il m’a encouragée par ses orientations sans cesser d’être une grande source de motivation et d’enthousiasme. Je le remercie sincèrement pour sa disponibilité, sa persévérance, et ses encouragements continus. Je tiens à le remercier également pour ses qualités humaines d’écoute et son soutien moral pendant les moments difficiles. Je remercie Madame Corine Cauvet, Professeur à l’université Aix-Marseille 3, et Madame Samira Si-Saïd Cherfi, Maître de conférences, HDR à la Conservatoire National des Arts et Métiers (CNAM) Paris, qui ont eu la gentillesse d’accepter le rôle de rapporteur de cette thèse. Elles ont contribué par leurs nombreuses remarques et suggestions à améliorer la qualité de ce mémoire, et je leur en suis très reconnaissante. Je remercie également Mr Slimane Hammoudi, Professeur ESEO, HDR à l’Université d’Angers d’avoir accepté de présider le jury de cette thèse. Je remercie chaleureusement, Madame Colette Rolland, Professeur Emérite à l’Université de Paris 1 Panthéon – Sorbonne, pour la confiance qu’elle m’a témoignée en m’accueillant dans son équipe. Mes remerciements vont également à Mr Camille Salinesi, Professeur - Directeur du Centre de Recherche en Informatique à l’Université de Paris 1 Panthéon – Sorbonne. Je tiens aussi à mentionner le plaisir que j'ai eu à travailler au sein du CRI (Centre de Recherche Informatique) et j'en remercie ici tous les membres pour leurs amitiés et leurs encouragements. Une pensée particulière va à Amina, Assia, Adrian, Ali, Bénédicte, Camille, Carine, Charlotte, Daniel, Elena, Ghazalleh, Hela, Ines, Islem, Kahina, Manuele, Saïd, Salma, Selmine, Raul, Rawia et Rebbeca. Ces années de thèses resteront ancrées dans ma mémoire comme une période très enrichissante de ma vie. Cet aboutissement ne pouvait se réaliser sans être associé au soutien Remerciements v des personnes les plus proches de moi. Merci à mes parents et mes grands parents pour l’affection qu’ils m’ont toujours manifestée et pour leur soutien lors des moments les plus difficiles de cette thèse même quand je suis loin d’eux. Merci à mes adorables sœurs Olfa et Wafa pour leur amour inconditionnel et leur bonne humeur. Merci infiniment à ma bellefamille, à mes proches et à mes amis notamment ma tante Souad et Faten pour leurs encouragements continus. L’affection qu’ils m’ont apportée durant ces années m’a aidée à garder le moral haut et à achever ma thèse. Je garde pour la fin un remerciement particulier pour mon mari, Wissam. Je le remercie du fond du cœur de m’avoir aidée, soutenue, encouragée et surtout aimée. Ces dernières années n’ont pas été très simples, il m’a supportée dans les moments les plus difficiles et m’a aidée à retrouver le sourire pendant les périodes de doute. Pour finir, je souhaiterais dédier ce travail à tous ceux que j’aime. Qu’ils y trouvent ici l’expression de ma profonde affection et de mes plus sincères remerciements. Sana Résumé vi Résumé De nos jours, le nombre de langages de modélisation ne cesse d’augmenter en raison de différentes exigences et contextes (par exemple les langages spécifiques au domaine). Pour être utilisés, ces langages ont besoin d'outils pour réaliser différentes fonctionnalités comme l'édition, la transformation, la validation et l'exécution de modèles conformes à ces langages. La construction de ces outils est un enjeu et un objectif important aussi bien dans la communauté du génie logiciel que celle des Systèmes d’Information. C’est une tâche nontriviale qui fait appel à des approches différentes parmi lesquelles l’utilisation des environnements méta-CASE et des langages de méta-programmation. Par rapport à une approche ad-hoc, les méta-CASE définissent un support outillé et une démarche basée sur la méta-modélisation. Ils apportent des améliorations significatives à la problématique de construction d’outils. Néanmoins, des limitations majeures persistent, notamment pour les langages de modélisation des processus, à cause de la complexité de l’expression de la sémantique opérationnelle d’un modèle de processus et la capture de la logique d’exécution de celui-ci. La construction de ces outils selon une approche ad-hoc engendre un coût élevé, des risques d’erreurs et des problèmes de maintenabilité et de portabilité. En outre, un outil d’exécution de modèle doit satisfaire un critère d’interactivité avec son environnement d’exécution. Cet aspect n’est pas suffisamment pris en compte dans les travaux de recherche actuels sur la spécification des langages de modélisation. Pour répondre à cette problématique, nous proposons dans cette thèse une démarche dirigée par les modèles qui permet de dériver l’architecture d’un moteur d’exécution à partir de la spécification conceptuelle d’un langage de modélisation de processus. Cette spécification repose sur une méta-modélisation élargie qui intègre l’expression de la sémantique d’exécution d’un méta-modèle de processus. Elle est composée, d’une part, d’une structure à deux niveaux d’abstraction qui permet de représenter de manière générique les modèles à exécuter et les instances générées lors de leur exécution. D’autre part, cette spécification est complétée par une représentation déclarative et graphique du comportement du méta-modèle de processus. Pour cette représentation, nous avons choisi un formalisme orienté événement qui reflète la vision systémique et les différentes interactions du modèle de processus avec son environnement. Finalement, afin d’exploiter la sémantique d’exécution, nous proposons des règles de transformation permettant de dériver l’architecture technique d’un outil d’exécution sous une forme standard pour pouvoir l’implémenter dans un environnement de génération de code existant, le code généré correspondra à l’outil d’exécution souhaité. La démarche proposée a été appliquée dans le cas d’un modèle de processus intentionnel appelé Map. Cette application a permis d’explorer la faisabilité de la proposition et d’évaluer la qualité de la spécification de l’outil d’exécution obtenue par rapport aux exigences fixées. La pertinence de notre proposition est qu’elle permet de guider l’ingénieur dans le processus de spécification et de construction d’un outil d’exécution tout en minimisant l’effort de programmation. De plus, en appliquant les étapes de la démarche proposée, nous sommes en mesure de fournir un outil d’exécution d’une certaine qualité ; à savoir un outil interagissant avec son environnement, facilement maintenable et à moindre coût. Abstract vii Abstract Nowadays, the number of modeling languages is increasing due to different requirements and contexts (e.g., domain-specific languages). These languages require appropriate tools to support them by achieving various functionalities such as editing, transforming, validating and implementing models that conform to these languages. The construction of such tools constitutes a challenging goal for both software engineering and information systems communities. This non obvious task is involves different approaches such as meta-CASE and meta-programming languages. Unlike ad-hoc approach, meta-CASE environments define software tools and metamodeling based approaches to improve tools construction. However, major limitations still exist, in particular for process modeling languages, due to the complexity of expressing process model operational semantics and capturing its execution logics. These limitations commonly lead to a manual construction of tools which is labor-intensive, error-prone and poses maintainability and portability issues. Besides, a process model execution tool should satisfy the criterion of interactivity with its environment. This aspect is not sufficiently taken into account in actual research works on the specification of modeling languages. To address this problem, we propose in this thesis a model driven approach to derive the software architecture of an enactment engine from the conceptual specification of the process modeling language. This specification relies on an enlarged meta-modeling approach that includes the expression of the execution semantics of a process meta-model. It consists of a structural specification incorporating both concepts structures and instances that are generated during execution. This specificaiton is completed by a declarative and graphical representation of the process behavioural meta-model. For this representation, an eventoriented paradigm is adopted to reflect the dynamic vision and the different interactions of the process model with its environment. Finally, transformation rules are proposed in order to obtain an enactment engine architecture in an object-oriented form. The enactment engine will be obtained by implementing the object-oriented architecture in an existing code-generation environment. The proposed approach has been applied to the case of an intentional process model called “Map”. This application case aims at evaluating the feasibility of the proposed approach and assessing the quality of the derived enactment engine in regard with initial requirements. The proposed approach is relevant, since on one hand, it allows better guidance for engineers during the specification of the modeling language and the implementation of an enactment tool, and on the other hand, it minimizes programming efforts. In addition, by applying the different steps of the proposed approach, we are able to guarantee a certain quality of the enactment tool ensuring interactivity, maintainability and development low cost. Table des matières Table des matières REMERCIEMENTS .................................................................................................................................... IV RESUME ...................................................................................................................................................... VI ABSTRACT .................................................................................................................................................. VII TABLE DES MATIÈRES ......................................................................................................................... VIII TABLE DES FIGURES .............................................................................................................................. XI TABLE DES TABLEAUX ......................................................................................................................... XV CHAPITRE 1 : INTRODUCTION ......................................................................................................................... 13 1.1. LES OUTILS CASE ................................................................................................................................... 13 1.2. L’IDM ET L’INGENIERIE DES LANGAGES ........................................................................................................ 14 1.3. META-CASE, INGENIERIE DES METHODES ET CAME ...................................................................................... 15 1.4. META-MODELES ET SEMANTIQUE D’EXECUTION ............................................................................................ 17 1.5. CONSTATS ET PROBLEMATIQUE .................................................................................................................. 19 1.6. OBJECTIF DE LA THESE .............................................................................................................................. 19 1.7. DEMARCHE DE RECHERCHE SUIVIE DANS CETTE THESE ..................................................................................... 20 1.8. APERÇU DE LA SOLUTION PROPOSEE ............................................................................................................ 21 1.9. PLAN DE LA THESE ................................................................................................................................... 23 CHAPITRE 2 : PROJET EXPLORATOIRE ............................................................................................................. 25 2.1. INTRODUCTION ....................................................................................................................................... 25 2.2. MOTIVATION POUR LE PROJET EXPLORATOIRE ............................................................................................... 25 2.2.1. Un outil d’exécution pour le Map .................................................................................................. 25 2.2.2. Exploration de la nouvelle technologie méta-CASE ....................................................................... 26 2.3. METHODOLOGIE DE L’EXPERIMENTATION ..................................................................................................... 26 2.4. DESCRIPTION DU PROJET EXPLORATOIRE ...................................................................................................... 28 2.4.1. L’approche d’évaluation du projet exploratoire ............................................................................ 28 2.4.2. L’outil MetaEdit+ ........................................................................................................................... 28 2.4.3. Le modèle de processus : Map....................................................................................................... 31 2.4.4. La sémantique opérationnelle du modèle Map ............................................................................. 32 2.4.5. Le cas d’application : La méthode CREWS l’Ecritoire ..................................................................... 34 2.4.6. Le développement du prototype ................................................................................................... 39 2.5. LES RESULTATS DE L’EXPERIMENTATION ....................................................................................................... 46 2.5.1. Le méta-modèle de produit ........................................................................................................... 46 2.5.2. Le méta-modèle de processus ....................................................................................................... 47 2.5.3. Le moteur d’exécution de la carte de CREWS L’Ecritoire ............................................................... 48 2.6. EVALUATION DE L’EXPERIMENTATION .......................................................................................................... 51 2.6.1. Les critères d’évaluation ................................................................................................................ 51 2.6.2. Les résultats de l’évaluation .......................................................................................................... 52 2.6.3. Exigences fondamentales pour une méta-modélisation des processus dans les outils méta-CASE 53 2.7. CONCLUSION .......................................................................................................................................... 54 CHAPITRE 3 : ETAT DE L’ART ........................................................................................................................... 56 3.1. EXEMPLES INTRODUCTIFS .......................................................................................................................... 56 3.2. PRESENTATION DES CONCEPTS ................................................................................................................... 58 3.2.1. La construction des outils .............................................................................................................. 58 3.2.2. L’ingénierie des méthodes ............................................................................................................. 59 3.2.3. Les méta-outils et les CAME .......................................................................................................... 60 3.2.4. La méta-modélisation .................................................................................................................... 61 3.2.5. Les langages de méta-modélisation .............................................................................................. 63 3.3. DE L’EXECUTION DES PROGRAMMES VERS L’EXECUTABILITE DES MODELES ........................................................... 64 3.3.1. Quelques définitions ...................................................................................................................... 64Table des matières ix 3.3.2. L’exécutabilité des modèles ........................................................................................................... 68 3.3.3. L’expression de l’exécutabilité des modèles .................................................................................. 69 3.4. EXEMPLES DE LANGAGES DE META-MODELISATION ........................................................................................ 70 3.4.1. Meta Object Facility (MOF) ........................................................................................................... 70 3.4.2. Ecore .............................................................................................................................................. 71 3.4.3. GOPRR ........................................................................................................................................... 73 3.4.4. Synthèse sur les langages de méta-modélisation .......................................................................... 75 3.5. LES APPROCHES DE CONSTRUCTION D’OUTILS D’EXECUTION DE MODELES ........................................................... 75 3.5.1. Approche ad-hoc ........................................................................................................................... 75 3.5.2. Eclipse Modeling Framework (EMF) .............................................................................................. 76 3.5.3. Méta-programmation avec Kermeta ............................................................................................ 77 3.5.4. Spécification de systèmes industriels avec TOPCASED .................................................................. 79 3.5.5. Exécution des processus d’ingénierie avec UML4SPM .................................................................. 80 3.5.6. Méta-modélisation et génération de code avec MetaEdit+ .......................................................... 81 3.5.7. Méta-modélisation déclarative avec Concept Base ...................................................................... 82 3.5.8. Méta-modélisation et grammaire des attributs avec JastAdd et JastEMF .................................... 84 3.5.9. Ingénierie des méthodes basée sur l’IDM avec Moskitt4ME ......................................................... 85 3.6. NOTRE GRILLE DE COMPARAISON................................................................................................................ 86 3.6.1. Les critères de comparaison .......................................................................................................... 86 3.6.2. Le tableau de comparaison ........................................................................................................... 89 3.7. ANALYSE DE L’ETUDE COMPARATIVE ........................................................................................................... 93 3.8. CONCLUSION .......................................................................................................................................... 93 CHAPITRE 4 : PROPOSITION D’UNE DEMARCHE IDM POUR LA CONSTRUCTION D’OUTILS D’EXECUTION ....... 95 4.1. INTRODUCTION ....................................................................................................................................... 95 4.2. UNE APPROCHE IDM POUR L’INGENIERIE D’OUTILS D’EXECUTION ..................................................................... 97 4.3. UNE VUE DETAILLEE DE LA DEMARCHE PROPOSEE ........................................................................................... 98 4.3.1. La 1ère étape : La spécification structurelle du méta-modèle de processus ................................... 99 4.3.2. La 2ème étape : Compléter la spécification structurelle par une spécification du comportement du méta-modèle ............................................................................................................................................. 102 4.3.3. La 3ème étape : Transformation pour obtenir une architecture orientée objet de l’outil d’exécution 103 4.4. ETAPE 1 : LA SPECIFICATION STRUCTURELLE DU META-MODELE DE PROCESSUS .................................................. 104 4.4.1. Le méta-modèle de diagramme de classes ................................................................................. 105 4.4.2. Exemple d’un diagramme de classes UML .................................................................................. 105 4.5. ETAPE 2 : LA SPECIFICATION GRAPHIQUE DE LA SEMANTIQUE D’EXECUTION ...................................................... 108 4.5.1. Pourquoi le modèle Remora ? ..................................................................................................... 108 4.5.2. Le modèle événementiel .............................................................................................................. 109 4.5.3. Le schéma dynamique de la sémantique opérationnelle du Méta-Modèle de Processus ........... 126 4.6. ETAPE 3: TRANSFORMATION DU MODELE COMPORTEMENTAL VERS UN MODELE OBJET TECHNIQUE STANDARD ........ 129 4.6.1. Formalisation des schémas d’entrée et de sortie pour la transformation ................................... 130 4.6.2. La dérivation de l’architecture objet de l’outil d’exécution à partir de la sémantique opérationnelle ............................................................................................................................................ 134 4.6.3. Les principes de la gestion événementielle.................................................................................. 134 4.6.4. Règle n°1 : Cas d’un événement interne ...................................................................................... 137 4.6.5. Règle n°2: Cas d’un événement externe avec réception d’un message ....................................... 144 4.6.6. Règle n°3 : Cas d’une opération externe vers un acteur externe ................................................. 149 4.6.7. Règles spécifiques à EngineContext ............................................................................................ 155 4.7. ADAPTATION DE LA SPECIFICATION OO DE L’ARCHITECTURE DE L’OUTIL A UNE PLATEFORME CIBLE ......................... 157 4.8. L’ORIGINALITE DE NOTRE PROPOSITION ...................................................................................................... 158 4.9. CONCLUSION ........................................................................................................................................ 159 CHAPITRE 5 : APPLICATION DE LA DEMARCHE AU CAS DU MAP ET VALIDATION.......................................... 160 5.1. INTRODUCTION ..................................................................................................................................... 160 5.2. ETAPE 1 : COMPLETER LE META-MODELE DU MAP PAR LA STRUCTURE DES INSTANCES ........................................ 162 5.2.1. La structure des concepts du méta-modèle Map ........................................................................ 162 5.2.2. La spécification structurelle à deux niveaux relative au méta-modèle Map ............................... 163Table des matières x 5.3. ETAPE 2 : COMPLETER LA SPECIFICATION A 2 NIVEAUX PAR L’EXPRESSION DE LA SEMANTIQUE D’EXECUTION ........... 167 5.3.1. La démarche suivie pour l’élaboration du schéma dynamique ................................................... 167 5.3.2. Le schéma dynamique relatif au méta-modèle du Map .............................................................. 168 5.4. ETAPE 3 : TRANSFORMATION DES SPECIFICATIONS VERS UNE ARCHITECTURE ORIENTE OBJET DU MOTEUR D’EXECUTION 172 5.4.1. Exemple d’application de la règle n°1 ......................................................................................... 173 5.4.2. Exemple d’application de la règle n°2 ......................................................................................... 175 5.4.3. Exemple d’application de la règle n°3 ......................................................................................... 176 5.4.4. Exemple d’applications des transformations relatives à la structure à 2 niveaux et à l’acces aux données 179 5.5. EVALUATION DE LA DEMARCHE ................................................................................................................ 180 5.6. CONCLUSION ........................................................................................................................................ 182 CHAPITRE 6 : CONCLUSION ET PERSPECTIVES ............................................................................................... 184 6.1. CONCLUSION ........................................................................................................................................ 184 6.1.1. Rappel de la problématique ........................................................................................................ 184 6.1.2. Bilan du travail réalisé ................................................................................................................. 185 6.2. PERSPECTIVES ....................................................................................................................................... 187 BIBLIOGRAPHIE .................................................................................................................................... 189 ANNEXES ................................................................................................................................................. 199 ANNEXE 1: LISTE DES FONCTIONS DU SCRIPT SCRIPT1_MAP_PROCESS ........................................................ 199 ANNEXE 2: LISTE DES JOINTURES DU SCRIPT SCRIPT4_MAP_LINKS .............................................................. 200 ANNEXE 3: PROCÉDURE FOREACH .STRATEGY, SCRIPT SCRIPT5_MAP_INIT .................................................. 200 ANNEXE 4: PROCÉDURE FOREACH .INTENTION, SCRIPT SCRIPT5_MAP_INIT ................................................ 200 ANNEXE 5: PROCESSUS DU CALCUL DES CANDIDATES .................................................................................. 201 ANNEXE 6: INITIAL GOAL IDENTIFICATION STRATEGY .................................................................................. 205 ANNEXE 7: L’INTERFACE DE LA STRATEGIE « FREE PROSE » PERMETTANT A L’UTILISATEUR DE SAISIR SON SCENARIO. .................................................................................................................................................... 206 ANNEXE 8: L’INTERFACE DE LA STRATEGIE « SCENARIO PREDEFINED STRUCTURE » QUI PERMET DE CHOISIR UN SCENARIO PREDEFINIE............................................................................................................................ 206 ANNEXE 9: L’INTERFACE DE LA STRATEGIE « MANUAL » : QUI PERMET A L’UTILISATEUR DE CONCEPTUALISER SON SCENARIO DE MANIERE MANUELLE. ..................................................................................................... 207 ANNEXE 10: SPECIFICATION EVENEMENTIELLE EN XML DE L’EXEMPLE DU WORKFLOW ............................... 207 ANNEXE 11 : L’ARCHITECTURE OO DU MOTEUR D’EXECUTION DU MAP ...................................................... 211 Table des figures Table des figures Figure 1. Les fonctionnalités d’un outil CASE dans l’ingénierie des SI ................................. 13 Figure 2. Les fonctionnalités d’un outil méta-CASE ............................................................... 16 Figure 3. Exemple de conception d’un CASE pour le modèle E/R avec l’outil MetaEdit+ .... 16 Figure 4. Schéma générique pour un moteur d’exécution ....................................................... 18 Figure 5. Les étapes de la démarche de recherche suivie ......................................................... 20 Figure 6. Aperçu de l’approche ................................................................................................ 21 Figure 7. Interface graphique principale de l’outil MetaEdit+................................................. 29 Figure 8. L’interface de l’éditeur d’objet dans MetaEdit+ ....................................................... 30 Figure 9. Extrait d’une carte de conception d’un schéma de classes ....................................... 31 Figure 10. Le méta-modèle du Map ......................................................................................... 32 Figure 11. Un exemple d’une carte Map .................................................................................. 33 Figure 12. Une illustration des sections candidates ................................................................. 33 Figure 13. Map de CREWS l’Ecritoire .................................................................................... 35 Figure 14. La structure d’un fragment de besoin ..................................................................... 37 Figure 15. Les deux niveaux d’abstraction de la structure du produit et d’un processus (Edme, 2005) ............................................................................................................................ 37 Figure 16. Relation entre parties du produit construit et réalisations d’intentions. ................. 38 Figure 17. Aperçu de la méta-démarche suivie dans le projet avec MetaEdit+ ....................... 39 Figure 18. Représentation de l’architecture de l’outil d’exécution ......................................... 40 Figure 19. Base de données générée pour notre moteur d’exécution ....................................... 43 Figure 20. Le méta-modèle de produit : formalisme Entité/Relation exprimé en GOPRR ..... 47 Figure 21. Le méta-modèle statique du formalisme de carte Map défini avec GOPRR .......... 47 Figure 22. Le modèle du processus CREWS L’Ecritoire défini dans l’outil CASE cible ....... 48 Figure 23. La structure de la DB du moteur du Map ............................................................... 49 Figure 24. Interface Graphique du Moteur d’exécution ........................................................... 49 Figure 25. Un extrait du méta-modèle SPEM (SPEM, 2008) .................................................. 57 Figure 26. Méta-modèle de workflow (Hollingsworth, 1996) ................................................. 58 Figure 27. Le croisement des préoccupations des deux communautés SI et GL ..................... 59 Figure 28. Environnement CAME ........................................................................................... 61 Figure 29. Notions de base de la méta-modélisation ............................................................... 62 Figure 30. Les concepts principaux de MOF 1.4 (Blanc, 2005) .............................................. 71 Figure 31. Les concepts du méta-modèle Ecore ..................................................................... 72 Figure 32. Les concepts du langage GOPRR ........................................................................... 74 Figure 33. Architecture d’EMF ................................................................................................ 76 Figure 34. Méta-modèle de Kermeta (Zoé et al., 2009) ........................................................... 77 Figure 35. Définition d’une opération en Kermeta (sémantique opérationnelle) .................... 79 Figure 36. Vue globale du méta-modèle UML4SPM (Bendraou, 2007) ................................. 80 Figure 37. Architecture générale de MetaEdit+ (Kelly et al., 1996) ........................................ 82 Figure 38. Éditeur graphique de l’outil ConceptBase : un exemple d’instanciation du modèle ‘entité-association’ en 4 niveaux d’abstraction ........................................................................ 83 Figure 39. Aperçu de l’approche moskitt4ME (Cervera et al., 2012) ...................................... 85 Figure 40. La grille de comparaison des méta-outils ............................................................... 86 Figure 41. Un aperçu de la démarche proposée ....................................................................... 96 Figure 42. Le synopsis de notre proposition pour la construction d’outils d’exécution .......... 97 Figure 43. La vue détaillée de notre proposition ...................................................................... 98 Figure 44. Le principe de dérivation de la structure d’instances à partir de la structure des concepts .................................................................................................................................. 100Table des figures xii Figure 45. La sémantique d’exécution par rapport aux niveaux d’abstraction d’un modèle de processus ................................................................................................................................ 100 Figure 46. L’expression explicite de la sémantique d’exécution grâce au modèle événementiel ................................................................................................................................................ 102 Figure 47. Le méta-modèle de diagramme de classes UML (Blanc, 2005) ........................... 105 Figure 48. Le diagramme de classes simplifié du méta-modèle de Workflow ...................... 106 Figure 49. L’architecture à deux niveaux du méta-modèle de Workflow ............................. 107 Figure 50. Le modèle d’événement Remora .......................................................................... 109 Figure 51. La structure du concept Objet ............................................................................... 110 Figure 52. La structure du concept Opération ........................................................................ 110 Figure 53. Le modèle événementiel et sa représentation graphique ...................................... 112 Figure 54. La forme graphique de la structure du concept Evénements ................................ 113 Figure 55. La forme textuelle de la structure du concept d’Evénement ................................ 113 Figure 56. La structure d’un événement interne. ................................................................... 114 Figure 57. Un exemple d’événement interne ......................................................................... 114 Figure 58. La représentation textuelle de l’exemple d’un événement interne ....................... 115 Figure 59. La structure d’un événement externe .................................................................... 115 Figure 60. La structure du concept Message .......................................................................... 116 Figure 61. Un exemple d’événement externe ......................................................................... 116 Figure 62. La représentation textuelle de l’exemple d’un événement externe ....................... 116 Figure 63. La structure du concept Acteur ............................................................................. 117 Figure 64. La forme textuelle de la structure du concept Acteur ........................................... 117 Figure 65. La structure du concept Opération-Externe .......................................................... 118 Figure 66. La forme textuelle de la structure du concept Opération-Externe ........................ 118 Figure 67. Un exemple illustrant les acteurs du workflow et leurs interactions avec l’outil . 119 Figure 68. Un exemple illustratif du concept Acteur ............................................................. 120 Figure 69. La structure d’un Trigger ...................................................................................... 121 Figure 70. Forme textuelle de la structure d’un Trigger ........................................................ 122 Figure 71. Les deux concepts Condition et Facteur ............................................................... 122 Figure 72. Un exemple d’un Facteur ...................................................................................... 122 Figure 73. Un exemple d’un trigger extrait du modèle dynamique de workflow .................. 123 Figure 74. Un exemple illustratif d’un Trigger ...................................................................... 124 Figure 75. La structure du modèle Remora étendu en format XML graphique ..................... 125 Figure 76. Le schéma dynamique du méta-modèle de Workflow (exemple simplifié) ......... 127 Figure 77. Un extrait de la spécification en XML du schéma dynamique de workflow ....... 128 Figure 78. La 3ème étape de la proposition: La transformation ............................................... 129 Figure 79. La relation entre le méta-modèle UML et le méta-modèle événementiel ............ 130 Figure 80. Le méta-modèle source de la transformation ........................................................ 131 Figure 81. Les documents XML qui représentent les entrées de l’étape de transformation .. 131 Figure 82. Le méta-modèle cible de la transformation .......................................................... 132 Figure 83. Les trois situations de comportement possibles dans un modèle événementiel ... 133 Figure 84. Le principe de gestion d’une interaction interne .................................................. 135 Figure 85. Le principe de gestion d’une interaction formalisée dans un événement externe 136 Figure 86. Le principe de gestion d’une interaction externe avec message sortant ............... 136 Figure 87. Schéma d’un événement interne ........................................................................... 137 Figure 88. La règle de transformation n°1 : cas d’un événement interne .............................. 140 Figure 89. Un exemple générique pour la construction des objets observés et objets dynamiques ............................................................................................................................. 140 Figure 90. Le diagramme de séquence pour la création des objets relatifs à un événement interne ..................................................................................................................................... 141Table des figures xiii Figure 91. Le diagramme de séquence pour l’exécution d’un événement interne ................. 141 Figure 92. Un extrait du diagramme de classes de workflow après application de la règle n°1 ................................................................................................................................................ 142 Figure 93. Le diagramme de séquence pour la création des objets correspondant à l’événement interne EV5 du workflow .................................................................................. 143 Figure 94. Le diagramme de séquence pour l’exécution de l’événement interne EV5 du workflow ................................................................................................................................ 143 Figure 95. Le schéma d’un événement externe : action provenant d’un acteur ..................... 144 Figure 96. Les règles de transformation dans le cas d’un événement externe ....................... 146 Figure 97. Extrait du diagramme de séquence pour la création des objets suite à l’arrivée d’un événement externe .................................................................................................................. 147 Figure 98. Le diagramme de séquence pour l’exécution d’un événement externe ................ 147 Figure 99. Un extrait du diagramme de classes de workflow obtenu par l’application de la règle n°2 ................................................................................................................................. 148 Figure 100. Extrait du diagramme de séquence obtenu par l’application de la règle n°2 pour l’initialisation de l’événement externe EV1 du modèle de workflow ................................... 148 Figure 101. Le diagramme de séquence pour l’exécution de l’événement externe EV1 du modèle de workflow ............................................................................................................... 149 Figure 102. Le schéma d’une opération externe .................................................................... 149 Figure 103. La règle n°3 pour la transformation d’une opération externe (Cas1) ................ 151 Figure 104. Extrait du diagramme de séquence pour la création des objets lors d’une opération externe (Cas1) ........................................................................................................................ 151 Figure 105. Le diagramme de séquence relatif à l’exécution d’une opération externe (Cas 1) ................................................................................................................................................ 152 Figure 106. La règle n°3 pour la transformation d’une opération externe (Cas2) ................ 153 Figure 107. Extrait du diagramme de séquence pour la création des objets lors d’une opération externe (Cas2) ........................................................................................................................ 153 Figure 108. Le diagramme de séquence relatif à l’exécution d’une opération externe (Cas 2) ................................................................................................................................................ 153 Figure 109. Un extrait du diagramme de classes de workflow après application de la règle n°3 : Exemple de l’opération externe déclenchée par l’événement EV2 .......................... 154 Figure 110. Un extrait du diagramme de séquence pour l’opération externe NotifierAffectation dans l’exemple du workflow ............................................................................... 154 Figure 111. Un exemple de diagramme de séquence relatif àl’exécution d’une opération externe (Cas1) ........................................................................................................................ 155 Figure 112. Les classes et les diagrammes générés par l’application de la règle R12 pour la gestion des liens de référence entre les classes de la structure à deux niveaux ..................... 156 Figure 113. Règle de transformation pour la gestion des classes du niveau « type » et du niveau « instance » ................................................................................................................. 157 Figure 114. Variable de classe et méthode de classe de la classe globale EngineContext ..... 157 Figure 115. Une vue globale de l’application de la démarche proposée dans le cas du Map 160 Figure 116. Les étapes de la démarche proposée appliquées dans le cas du Map ................. 161 Figure 117. Le diagramme de classes du méta-modèle du Map (M2) ................................. 162 Figure 118. Le principe de dérivation de la structure des instances pour le cas du Map ....... 163 Figure 119. La spécification à deux niveaux (concept-type et instances) duméta-modèle Map ................................................................................................................................................ 164 Figure 120. Le diagramme de séquence du méta-modèle Map .............................................. 166 Figure 121. La démarche suivie pour l’élaboration du schéma dynamique ........................... 167 Figure 122. Les modules qui interagissent avec le moteur d’exécution ................................ 170 Figure 123. Le schéma dynamique du Map en utilisant le formalisme Remora étendu ........ 170Table des figures xiv Figure 124. Le résultat de l’application de la règle de transformation n°1 au modèle Map .. 173 Figure 125. Le diagramme de séquence résultant de l’application de la règle n°1 : Exemple d’initialisation des objets pour l’événement interne EV6 du modèle Map ............................ 174 Figure 126. Le diagramme de séquence résultant de l’application de la règle n°1 : Exemple d’exécution de l’événement interne EV6 du modèle Map ..................................................... 174 Figure 127. La structure des classes obtenue par l’application de la règle de transformation n°2 au Map ............................................................................................................................. 175 Figure 128. Un extrait du diagramme de séquence résultant de l’application de la règle n°2 : Exemple d’initialisation pour l’événement externe EV1 du Map .......................................... 176 Figure 129. Le diagramme de séquence résultant de l’application de la règle n°2 : Exemple d’exécution de l’événement externe EV1 du Map ................................................................. 176 Figure 130. Les classes résultant de l’application de la règle de transformation n°3 au modèle Map ......................................................................................................................................... 177 Figure 131. Un extrait du diagramme de séquence relatif à l’application de la règle n°3 pour l’initialisation d’une opération externe : Exemple EV12 du Map ......................................... 178 Figure 132. Un extrait du diagramme de séquence relatif à l’application de la règle n°3 pour l’exécution d’une opération externe : Exemple EV12 du Map .............................................. 178 Figure 133. Exemple d’application des règles relatives à la gestion de la structure à deux niveaux ................................................................................................................................... 179 Figure 134. La Classe globale EngineContext relative au Map ............................................. 180 Figure 135. Le principe de transformation de modèle en IDM .............................................. 188 Table des tableaux Table des tableaux Tableau 1. Les intentions de la carte de CREWS L’Ecritoire .................................................. 35 Tableau 2. Les stratégies de la carte de CREWS L’Ecritoire .................................................. 35 Tableau 3. Les sections de la carte de CREWS L’Ecritoire ..................................................... 36 Tableau 4. Récapitulatif des tables de la Base de données ...................................................... 44 Tableau 5. Les critères d’évaluation ........................................................................................ 52 Tableau 6. Les résultats de l’évaluation du projet .................................................................... 52 Tableau 7. Comparaison entre langage de modélisation et langages de programmation (Kleppe, 2008) .......................................................................................................................... 65 Tableau 8. Le domaine des valeurs des attributs d’état dans le modèle Map ........................ 165 Tableau 9 . La liste des opérations de la structure des instances ........................................... 165 Tableau 10. La liste des événements du schéma dynamique du méta-modèle Map ............. 168 Tableau 11. La liste des messages du schéma dynamique du méta-modèle Map .................. 169 Tableau 12. Le tableau comparatif pour évaluation de la démarche proposée ...................... 181Chapitre 1 : Introduction 13 CHAPITRE 1 : INTRODUCTION 1.1. Les Outils CASE La complexité croissante des systèmes d’information (SI) rend le développement des SI lourd et coûteux (Giraudin, 2007). Afin de maitriser cette complexité, différentes techniques et approches sont proposées par l’ingénierie des SI (ISI). Le but des outils connus sous le nom d’Ateliers de Génie Logiciel (CASE en anglais pour Computer-Aided Software Engineering) est d’assister et d’aider l’ingénieur à concevoir et développer des SI (Fuggetta, 1993) grâce à un ensemble de fonctionnalités permettant d'alléger le travail de l’ingénieur et aussi d'introduire l'automatisation dans la mise en œuvre d’une méthode d’ingénierie (Figure 1). Figure 1. Les fonctionnalités d’un outil CASE dans l’ingénierie des SI Comme exemples d’outil CASE, on peut citer StarUML1 , Power AMC2 , WebRatio3 , NetBeans4 , Rational Rose5 , Eclipse6 . Ces outils proposent diverses fonctionnalités avec des niveaux de sophistication variables, et ne couvrent pas forcément les mêmes phases du cycle de vie d’un système. Une distinction courante est entre upper- et lower-CASE (Fuggetta, 1993). Un upper-CASE est dédié aux phases d'analyse et de conception et il est généralement associé à une méthode d’ingénierie de SI. Il inclut des interfaces graphiques pour éditer les spécifications d’un système et des dictionnaires de données pour les stocker, des fonctions pour gérer la documentation, des moyens de contrôle de qualité et de correction de schémas. Un lower-CASE est destiné aux phases d’implémentation avec des éditeurs syntaxiques, des librairies de programmes, des compilateurs, des générateur d'interfaces homme/machine, ou encore des outils pour la mise au point de programmes et la configuration des codes sources. La distinction entre lower- et upper-CASE s’estompe lorsque l’outil intègre des fonctionnalités de génération de code et de transformation de modèle, c’est ce que préconise l’ingénierie dirigée par les modèles. 1 http://staruml.sourceforge.net/en/ 2 http://wikipedia.org/wiki/PowerAMC 3 http://www.webratio.com/ 4 https://netbeans.org/ 5 http://www.ibm.com/developerworks/rational/products/rose/ 6 Eclipse : http://www.eclipse.org/ Ingénieur SI Spécification du Edition système Validation Exécution ou simulation OutilCASE Transformation ou génération de code Application Langage de modélisation Utilisateur finalChapitre 1 : Introduction 14 1.2. L’IDM et l’ingénierie des langages Les outils CASE jouent un rôle important dans l’ingénierie dirigée par les modèles (IDM ou MDE7 ). En effet, l’IDM place les modèles au centre du processus d’ingénierie des systèmes, et grâce à des outils logiciels adéquats, attribue aux modèles une fonction productive par opposition au rôle contemplatif8 habituel (Favre, 2006). Cette production s’effectue à travers des transformations, pour aller vers une génération automatique – ou semi automatique – de logiciels pour des plateformes d’implémentation cibles. Avec le développement de l’IDM, la construction des outils CASE est devenue un enjeu et un objectif important. C’est une tâche non-triviale qui fait appel à la définition de langages de modélisation et à l’implémentation de fonctionnalités non seulement de transformation et de génération de code mais aussi de test, vérification et exécution. Elle soulève des questionnements multiples : Quelle architecture pour l’outil? Quelles fonctionnalités à fournir? Est ce qu’on cherche à développer un générateur de code, un moteur d’exécution ou simplement un éditeur de modèles? Comment implémenter chacune de ces fonctionnalités? Comment garantir certaines propriétés de l’outil telles que la portabilité (en cas d’évolution de la plateforme sur laquelle s’exécute l’outil), la maintenabilité (en cas d’évolution des langages de modélisation), ou la réutilisabilité (en cas de développement de nouveaux langages)? Enfin, quelles méthodes et quels (méta-) outils pour concevoir, spécifier et implémenter ces outils? Pour traiter ces problématiques, en plus de l’IDM, un domaine de recherche complémentaire a émergé : l’ingénierie des langages pour le génie logiciel9 (Kleppe, 2009), (Favre et al., 2009). Il est à l’intersection de multiples thématiques de l’ingénierie des SI et du génie logiciel telles que la modélisation conceptuelle et la transformation de modèles, l’ingénierie des méthodes, la méta-modélisation, les outils méta-CASE, les langages spécifiques au domaine (ou DSM10) ou encore la compilation et les langages de programmation. La problématique des langages pour le génie logiciel dépasse le cadre restreint des langages de programmation (tels que C ou Java). Les langages de génie logiciel sont des artéfacts au cœur du développement de différents domaines d’ingénierie informatique. Ils sont conçus et développés pour résoudre une problématique générique de représentation de systèmes (UML, XML), ou des problématiques plus spécifiques telles que l’exécution des processus à base de services web (BPEL11), l’ingénierie des besoins (i*12 , Tropos13) ou la modélisation des processus d’ingénierie (SPEM14). La spécification de tels langages, et surtout la construction d’outils pour les accompagner, sont au cœur du sujet de cette thèse. 7 MDE: Model-Driven Engineering 8 (un modèle contemplatif est utilisé pour représenter graphiquement une spécification conceptuelle ou bien pour la documentation et la compréhension d’un projet 9 SLE: Software Language Engineering 10 DSM: Domain Specific Modeling 11 BPEL: Business Process Execution Language 12 i*: http://www.cs.toronto.edu/km/istar/ 13 Tropos: http://www.troposproject.org/ 14 SPEM: Software Process Engineering Metamodel Chapitre 1 : Introduction 15 1.3. Méta-CASE, ingénierie des méthodes et CAME Apparue dans les années 1990, l’objectif de la technologie méta-CASE est de faciliter et accélérer la conception et le développement d'outils CASE dédiés à une méthode d’ingénierie particulière (Alderson, 1991) (Smolander et al., 1991). Alors que la méthode est prédéfinie dans un outil CASE, les outils méta-CASE permettent la personnalisation et la construction de méthodes d’ingénierie afin de les adapter aux besoins spécifiques des ingénieurs (Kelly et Smolander, 1996) (Assar et al., 2012). La technologie méta-CASE introduit un niveau d’architecture supplémentaire pour la spécification de la méthode que l’ingénieur souhaite outiller. Alors qu’une méthode comporte des « produits » (tout livrable ou artéfact produit par l’application de la méthode) et des « processus » (des cheminements suivis pour aboutir aux produits) (Olle, 1988), il est fréquent dans la littérature des méta-CASE qu’une méthode soit restreinte à sa composante « produit ». C’est le cas notamment dans les premières publications de l’outil MetaEdit+ par exemple (Smolander et al., 1991) (Kelly et al., 1996), où par la suite, c’est la spécificité du « produit » pour un domaine qui est mise en avant (Kelly et Tolvanen, 2008) (Kelly et al., 2013). L’ingénierie des méthodes a grandement contribué à expliciter l’importance du processus dans la description d’une méthode (Brinkkemper et al., 1996). Et c’est dans le domaine des environnements de génie logiciel centrés processus (PCSE15 ou PSEE16) que plusieurs langages ont été proposés pour modéliser et spécifier les processus d’ingénierie logiciel (Fuggetta, 1996) (Zamli and Lee, 2001)(Arbaoui et al., 2002). Le terme CAME17 a été introduit pour désigner des outils logiciels semblables aux méta-CASE, la différence se situant surtout au niveau de la finalité : pour un méta-CASE, c’est la génération d’un outil spécifique (pour un langage de modélisation de produit) ; pour un CAME, c’est la spécification d’une méthode avec les deux perspectives « produit » et « processus » (Heym et Österle, 1993) (Saeki, 2003). Ces deux termes sont souvent semblables sinon identiques étant donné que la spécification d’une méthode nécessite la construction d’un outil correspondant. L’outil MetaEdit+ est ainsi mentionné dans la littérature en tant que méta-CASE pour l’outillage des DSM, mais aussi en tant qu’environnement CAME pour outiller des méthodes (Kelly et Tolvanen, 2008) (Niknafs and Ramsin, 2008) (Kelly et al., 2013). Le niveau d’architecture supplémentaire qu’introduit les méta-CASE et les CAME inclut, d’une part, des langages de modélisation et de méta-modélisation pour la méta-spécification d’une méthode, et d’autre part, des fonctionnalités pour la construction (ou génération semiautomatique) d’un outil CASE à partir de cette méta-spécification. Le langage de métamodélisation sert à définir les méta-modèles de la méthode, c'est-à-dire les méta-modèles de produit et de processus. Un méta-modèle de produit contient les concepts, les règles et les notations graphiques du langage de modélisation des produits dans une méthode donnée. Par exemple, un méta-modèle d’UML (ou de BPMN18 respectivement) spécifie des concepts tels que ‘classe’ et ‘héritage’ (ou ‘tâche’ et ‘événement’ respect.) et des liens entre ces concepts. 15 PCSE: Process Centred Software Engineering 16 PSEE: Process-centred Software Engineering Environments 17 CAME: Computer Aided Method Engineering 18 Business Process Modeling Notation Chapitre 1 : Introduction 16 Figure 2. Les fonctionnalités d’un outil méta-CASE L’ingénieur outil utilise le langage de méta-modélisation pour définir les méta-modèles de la méthode pour laquelle il souhaite construire un outil CASE (Figure 2). Pour la perspective « produit », cette méta-définition doit couvrir les trois facettes fondamentales d’un langage de modélisation : la syntaxe abstraite19 (les concepts et les liens entre ces concepts), la syntaxe concrète (la forme extérieure – graphique ou textuelle – des concepts et des liens) et la sémantique (le sens attribué à ces concepts). Figure 3. Exemple de conception d’un CASE pour le modèle E/R avec l’outil MetaEdit+ Dans l’outil MetaEdit+ (Kelly and Smolander, 1996) par exemple, la méta-spécification s’exprime avec le langage de méta-modélisation GOPRR 20. Un outil CASE cible dérivé à partir de cette méta-spécification comporte par défaut des fonctionnalités d’édition de modèle. 19 La syntaxe abstraite est généralement définie, en IDM, sous la forme d’un ensemble de classes et un modèle issu du langage est un ensemble d’objets, instances de ces classes. 20 GOPRR: Graph, Object, Property, Relationship, Role Ingénieur outil Méta-Spécification Du langage de modélisation Edition Validation Outil méta-CASE Langage de méta- modélisation Ingénieur SI ? Personnalisation ou dérivation de l’outil Exécution ou simulation Outil CASE Générer Méta-modèle E/R en GOPRR Scripts en MERL Éditeur de modèles E/R SQL Créer le script à partir du MM E/RChapitre 1 : Introduction 17 Le méta-modèle peut être complété par des scripts écrits dans un méta-langage spécifique (MERL). Ces scripts, qui incluent des commandes de navigation dans les instances des métamodèles, peuvent décrire un comportement permettant à l’outil CASE cible d’avoir une fonctionnalité de génération de code. La figure 3 illustre cette démarche pour construire un outil de modélisation à base de la notation Entité/Relation. Le générateur de code implémente les règles de transformation de structure du type « une entité devient une table » ou « une association de cardinalité 1- N devient une clé étrangère ». Alors que la phase de méta-modélisation se fait d’une manière déclarative et avec des outils graphiques, le processus de construction du générateur de code est de nature algorithmique à l’aide de simple éditeur de texte. Dans ces scripts séquentiels organisés en modules non paramétrés, l’ingénieur méthode utilise sa connaissance implicite de la sémantique des méta-modèles manipulés pour définir le générateur de code. 1.4. Méta-modèles et sémantique d’exécution Généralement, la pratique de la méta-modélisation consiste à spécifier des méta-modèles contemplatifs qui reflètent l’aspect statique des modèles. L’aspect statique d’un modèle représente l’ensemble des concepts qui ont servi à décrire ce modèle ainsi que les liens entre ces concepts (Jeusfeld et al., 2009). On utilise aussi le terme aspect structurel. L’aspect dynamique complète l’aspect statique et renseigne sur la manière avec laquelle les instances des concepts vont intéragir lors de l’exécution du méta-modèle. Cela revient à décrire le comportement dynamique des instances des concepts, c'est-à-dire la sémantique d’exécution du modèle. Selon le langage de méta-modélisation utilisé, un méta-modèle contemplatif peut être complété par la spécification de certaines contraintes. En utilisant UML par exemple pour construire un (méta-) diagramme de classes, il est possible de compléter cette spécification avec des contraintes exprimées avec le langage OCL. Pour un langage de modélisation de processus (tels que XPDL21, BPMN ou SPEM), la méta-modélisation telle qu’elle vient d’être illustrée avec l’outil MetaEdit+, se restreint à décrire la syntaxe abstraite des concepts qui correspond à l’aspect statique (ou structurel) de ces concepts, et ne prend pas en compte la sémantique des concepts. Par exemple, un méta-modèle de BPMN représente un « produit » avec des objets et des propriétés (les concepts), des relations et des rôles (les liens entre ces concepts). Tandis que la sémantique d’un modèle de processus BPMN correspond à un certain comportement dans un environnement d’exécution donné. Ce comportement peut être assuré par un moteur d’exécution qui interprète les instances du modèle de processus, interagit avec l’environnement et fournit un résultat qui varie en fonction de cette interaction (Figure 4). 21 XML Process Definition Language Chapitre 1 : Introduction 18 Figure 4. Schéma générique pour un moteur d’exécution Pour exécuter un processus, il est en effet souvent nécessaire de communiquer et d’interagir avec d’autres acteurs humains et/ou agents logiciels afin de déléguer des tâches ou de recevoir des éléments indispensables pour continuer l’exécution (un fragment de produit, une décision, un choix, etc.). Par ailleurs, l’évocation de l’exécution d’un modèle de processus est généralement faite à l’aide du terme anglo-saxon « enactment » pour souligner la différence qu’il y a entre « exécuter un programme » et « énacter un processus » et mettre en œuvre l’aspect distribué, coopératif et parfois asynchrone d’un processus. L’expression de la sémantique des langages est une problématique connue et bien développée depuis plusieurs décennies dans le domaine de la compilation et des langages de programmation. Les techniques les plus probantes s’appuient sur la grammaire des attributs (Knuth, 1968), (Paakki, 1995). Pour les langages de modélisation, l’intérêt pour l’expression explicite de la sémantique est assez récent (Harel and Rumpe, 2004). L’intérêt pour l’expression de la sémantique des modèles va de pair avec la question de comment rendre exécutable un modèle, à priori contemplatif, décrit à l’aide d’un méta-langage (Muller et al., 2005). La direction suivie pour résoudre ces problèmes cherche à enrichir les langages et environnements de méta-modélisation pour permettre l’expression explicite et adéquate de la sémantique d’un langage de modélisation. Dans (Paige et al., 2006) par exemple, il est proposé d’enrichir le méta-méta-modèle MOF22 avec un langage d’action qui permettra de programmer des « méta-méthodes » rattachées aux méta-classes d’un méta-diagramme MOF. 22 MOF : Meta Object Facility, formalism de méta-modélisation proposé par l’OMG (http://www.omg.org/mof/) Moteur d’exécution Spécifique à un métamodèle de processus Entrée Environnement du moteur d’exécution Modèle de processus Produit résultant de l’exécution du processus BD Acteur externe Application externe Sortie Interactions Evénements externes Agir Réagir Agir RéagirChapitre 1 : Introduction 19 1.5. Constats et problématique Nous constatons qu’aujourd’hui, par rapport à l’approche ad-hoc, les environnements méta-CASE définissent des démarches basées sur la méta-modélisation, et qui apportent des améliorations significatives aux problématiques de spécification d’un langage de modélisation et de construction d’outils correspondants. Néanmoins, trois limitations majeures persistent: • D’une part, la méta-modélisation est fortement orientée « produit » ; d’un point de vue d’ingénierie de méthode, la spécification du processus méthodologique est complexe, difficile, sinon impossible, à capturer et à énacter. Les tentatives de l’environnement MetaEdit+ dans ce sens par exemple (Koskinen et Marttiin, 1998) n’ont finalement pas été retenues dans l’outil commercialisé par la suite par l’entreprise MetaCASE23 . • D’autre part, cette spécification des « produits » n’en capture que la syntaxe abstraite et une partie réduite de la sémantique sous forme de contraintes. Si le produit est un modèle de processus, et si l’ingénieur méthode souhaite exécuter ces processus, et cherche à obtenir un moteur d’exécution de ces modèles, la construction d’un tel moteur se fait manuellement. Elle nécessite une connaissance en programmation et un effort supplémentaire de la part de l’ingénieur. De plus, cette implémentation artisanale entraine des difficultés de maintenance du moteur d’exécution car toute évolution des modèles oblige l’ingénieur outil à propager les changements dans le code (les scripts Merl dans le cas de MetaEdit+). • Enfin, la spécification du modèle de processus n’integre pas l’aspect interactif avec des acteurs externes ce qui implque que l’outil d’exécution associé ne va pas satisfaire des contraintes en termes d’interactivité avec l’environnement d’exécution. 1.6. Objectif de la thèse Notre objectif est de proposer une approche de spécification de langage de modélisation de processus et de construction d’outils d’exécution de modèles permettant de satisfaire les contraintes suivantes : • Cette approche doit offrir un support de méta-modélisation avec une prise en compte claire et explicite de la sémantique d’exécution du modèle et un formalisme graphique pour une représentation visuelle de cette spécification. • L’approche devra comporter une démarche et des techniques pour exploiter la sémantique d’exécution du méta-modèle de processus afin d’en dériver de manière systématique une architecture d’un moteur d’exécution qui satisfait des contraintes de maintenabilité et de portabilité. • La spécification du modèle de processus doit interagir avec son environnement pour que le moteur d’exécution associé à ce modèle puisse avoir ce critère d’interactivité. • Cette approche doit être suffisamment générique pour pouvoir être appliquée sur n’importe quel modèle de processus. 23 http://www.metacase.com Chapitre 1 : Introduction 20 1.7. Démarche de recherche suivie dans cette thèse La démarche de recherche de la thèse est schématisée à la Figure 5. La première étape est un projet exploratoire que nous avons mené pour acquérir une expérience pratique dans le développement d’un outil par méta-modélisation. Ce projet à été réalisé dans le cadre d’un co-encadrement d’un Master Recherche pour explorer une technologie méta-CASE pour le développement d’outil d’exécution pour un modèle de processus intentionnel (Harrous, 2011) et dont une synthèse des résultats a été publiée dans (Mallouli, 2013). A l’issue de ce projet exploratoire, nous avons déterminé un ensemble de constats qui ont permis de fixer des exigences précises pour répondre à notre problématique. La seconde étape de notre recherche est une synthèse de l’état de l’art concernant l’exécutabilité des modèles, la construction d’outils ainsi que les langages et outils de métamodélisation. Cette étape a été réalisée en parallèle avec un co-encadrement de deux mémoires de Master Recherche pour étudier et comparer les langages et les outils de métamodélisation (Souag, 2010) (Zaidi, 2010). A la fin de l’étude de l’état de l’art, nous avons réalisé une comparaison entre différentes approches de construction d’outils en se basant sur des critères définis à la lumière des exigences fixées lors de la première étape. Figure 5. Les étapes de la démarche de recherche suivie La troisième étape correspond à l’élaboration de la solution que nous proposons. Les principales idées de notre démarche consistent à élargir le périmètre d’expression d’un métamodèle en y ajoutant la spécification de sa sémantique d’exécution, et à introduire plus d’automatisation dans le processus de construction d’outils grâce à l’exploitation des spécifications du niveau « méta ». Etat de l’art Étudier de manière approfondie différentes approches Rebondir sur les constats du projet exploratoire En se basant sur ces constats, définir un ensemble de critères pour comparer différentes approches Projet exploratoire Obtenir les premiers constats en se basant sur un cas pratique de construction d’outil Définir des exigences à satisfaire dans la solution à partir de ces constats Elaborer une solution de spécification d’outils d’exécution Compléter le méta-modèle de processus pour prendre en compte la sémantique d’exécution en faisant appel à une notation événementielle. Exploiter la spécification de la sémantique d’exécution pour obtenir un outil d’exécution. Définir des règles de transformation pour obtenir une architecture technique d’un outil d’exécution. 1 2 3Chapitre 1 : Introduction 21 1.8. Aperçu de la solution proposée Contrairement aux approches classiques, qui se basent sur la structure d’un méta-modèle puis définissent la sémantique d’exécution directement dans le code ou sous forme de scripts attachés aux éléments statiques, notre démarche utilise un formalisme soigneusement choisi pour la spécification de la sémantique d’exécution, ce qui facilite la génération de l’architecture d’un outil d’exécution. Notre solution comporte trois étapes schématisées à la Figure 6 : • La première étape définit le méta-modèle structurel du langage de modélisation. • La seconde étape définit la sémantique d’exécution du modèle à travers un méta-modèle de comportement. Pour ce faire, il faut au préalable compléter le méta-modèle structurel en introduisant un second niveau de représentation qui correspond aux instances du métamodèle. Ce second niveau est nécessaire pour l’expression de la sémantique d’exécution ; en effet, celle-ci s’exprime en manipulant les instances du méta-modèle au moment de l’exécution d’un modèle afin d’extraire l’instance intéressante à un instant t précis. • La troisième étape applique des règles de transformation pour dériver une architecture d’outil d’exécution à partir de la spécification conceptuelle. Figure 6. Aperçu de l’approche Pour spécifier le comportement du modèle et sa sémantique d’exécution, nous adoptons une persepctive «systémique» du modèle de comportement et introduisons une notation basée sur les événements (Assar et al., 2011). La vision systémique préconise de voir le comportement d’un système selon un schéma où l’action est un stimulus externe de l’environnement du système et la réaction est l’activité que le système déclenche en réponse. Concrètement, notre approche consiste à introduire de nouveaux concepts (Evénement, Acteur, Transition, Trigger) dans le langage de méta-modélisation. Ces concepts serviront à spécifier le comportement dynamique des structures définies au niveau des métamodèles. De cette manière, la spécification de la sémantique d’exécution du modèle intègre Spécification structurelle à deux niveaux Schéma dynamique Spécification de la sémantique d’exécution du méta-modèle Architecture Orientée Objet de l’outil d’exécution Métamodélisation Structure statique des modèles de processus en fonction d’un MMP Structure des Processus (instances) Perspective Comportement Perspective Données Perspective Traitements UML Formalisme orienté événement Formalisme OO Ingénieur basées sur les patrons PublishSubscribe UML Formalisme OO Etape3 Etape2 Etape1 Règles de TransformationChapitre 1 : Introduction 22 une représentation des éléments de l’environnement du processus dans lequel le modèle s’exécutera ainsi que les éléments échangés avec lui. La sémantique d’exécution est ainsi exprimée à travers un schéma graphique. Cette expression de la sémantique d’exécution est de nature opérationnelle, elle montre l’interprétation du modèle par un outil d’exécution qui gère les événements, assure les interactions avec l’environnement et contrôle l’interprétation du modèle. Cette sémantique opérationnelle peut de ce fait être traduite en une architecture d’outil logiciel à l’aide d’une technique de type « par traduction » (Combemale et al., 2006). Nous élaborons donc un ensemble de règles pour transformer la spécification conceptuelle en une spécification exécutable. En raison de la nature dynamique et interactive du modèle de comportement, nous choisissons le patron publication/abonnement (publish/subscribe) comme modèle cible d’implémentation du concept d’événement au niveau conceptuel. Dans ce modèle, les abonnés (des agents ou composants logiciels) manifestent leur intérêt pour un événement, et sont automatiquement notifiés de toute occurrence de cet événement (Eugster et al., 2003). Une occurrence d’événement est donc propagée de manière synchrone ou asynchrone à tous les abonnés qui sont inscrits à cet événement. Les abonnés réagissent àla notification d’un événement par le déclenchement d’un traitement spécifié dans une méthode particulière. En appliquant un ensemble de règles de transformation, la spécification conceptuelle permet de dériver l’architecture d’un outil logiciel directement implémentable. Notre solution présente deux contributions majeures: • Un apport conceptuel qui consiste à capturer la sémantique opérationnelle du métamodèle avec une vision systémique et l’exprimer à travers des concepts événementiels. • Une démarche par méta-modélisation qui exploite les méta-modèles conceptuels pour arriver à la phase d’implémentation avec une architecture exécutable en appliquant de manière systématique des règles de transformation. L’originalité de ce travail se résume dans les points suivants : • L’approche suivie est de type « méta-démarche » et permet de guider l’ingénieur dans le processus de spécification et de construction d’un outil d’exécution. • Dans la partie spécification conceptuelle, le comportement de l’outil d’exécution à construire est représenté par un modèle orienté événement, Le modèle de comportement choisi est fondé sur le paradigme systémique, Ce modèle est largement utilisé en SI et il est bien adapté aux outils d’exécution qui sont en complète interaction avec leur environnement. • Dans la partie implémentation de cette démarche, une approche par transformation, du niveau conceptuel vers le niveau technique, des concepts liés au comportement, est appliquée afin de générer une architecture d’un outil d’exécution de manière méthodique à partir de la spécification conceptuelle. Cette approche favorise les critères de maintenabilité, de portabilité et de minimisation de coût. Langage de mashup pour l’int´egration autonomique de services de donn´ees dans des environements dynamiques Mohamad Othman-Abdallah To cite this version: Mohamad Othman-Abdallah. Langage de mashup pour l’int´egration autonomique de services de donn´ees dans des environements dynamiques. Databases. Universit´e de Grenoble, 2014. French. HAL Id: tel-01011470 https://tel.archives-ouvertes.fr/tel-01011470 Submitted on 26 Jun 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.THÈSE Pour obtenir le grade de DOCTEUR DE L’UNIVERSITÉ DE GRENOBLE Spécialité : Informatique Arrêté ministériel : 7 août 2006 Présentée par Mohamad OTHMAN ABDALLAH Thèse dirigée par Christine COLLET et Co-encadrée par Genoveva VARGAS-SOLAR préparée au sein du Laboratoire d’Informatique de Grenoble dans l'École Doctorale de Mathématiques, Sciences et Technologies de l'Information et de l'Informatique MELQART : un système d’exécution de mashups avec disponibilité de données Thèse soutenue publiquement le 24 février 2014, devant le jury composé de : Mme, Chirine GHEDIRA GUEGAN Professeur, IAE Lyon, Rapporteur Mme, Parisa GHODOUS Professeur, Université Claude Bernard Lyon 1, Rapporteur M. Omar BOUCELMA Professeur, Université d’Aix Marseille, Examinateur Mme Christine COLLET Professeur, Grenoble INP, Directeur de thèse Mme Genoveva VARGAS-SOLAR Chargé de recherche, CNRS, Co-encadrant1 REMERCIEMENTS Je tiens à remercier : Madame Cherine Ghedira Guegan, Professeur à l’IAE de Lyon, et Madame Parisa Ghodous, Professeur à l’Université Claude Bernard Lyon 1, de leur intérêt pour mon travail et pour avoir accepté de l’évaluer. Monsieur Omar Boucelma, Professeur à l’Université d’Aix-Marseille, pour avoir accepté d’examiner mon travail et de faire partie du jury de cette thèse. Madame Christine Collet, Professeur à Grenoble INP et responsable de l’équipe HADAS au LIG, pour avoir assuré la direction de cette thèse, et pour la confiance qu’elle m’a témoignée. Ce manuscrit doit beaucoup à ses suggestions et ses relectures attentives. Madame Genoveva Vargas-Solar, Chargé de recherche au CNRS, pour avoir assuré le coencadrement de cette thèse, et pour ses conseils avisés qui m’ont permis d’avancer vers des résultats meilleurs. Monsieur José Luis Zechinelli Martini, professeur à l’Universidad de las Americas à Puebla, Mexique, pour m’avoir accueilli dans son équipe lors de mes séjours scientifiques au Mexique. Les membres de l’équipe HADAS pour leur soutien tout au long de la réalisation de cette thèse. Un merci particulier à Noha pour son encouragement continu et à Mustafa pour sa participation active dans mes démarches administratives pour soutenir cette thèse. Je remercie, également, mes collègues du bureau pour les riches discussions que nous avons partagées. Mes remerciements vont naturellement à Mireille et aux familles Khalaf, Bibent, Messmer et Suc pour leur amitié, leur gentillesse et pour les moments agréables passés ensemble. Je tiens aussi à remercier Fatin, Sherine, Omar, Timo et Jordi pour leurs constants encouragements et pour avoir su me réconforter dans des moments difficiles. Je ne saurai terminer sans adresser tous mes remerciements à ma famille dont la confiance et le soutien n’ont jamais fait défaut.3 TABLE%DES%MATIERES CHAPITRE)1)INTRODUCTION..............................................................................................11 1.1 Contexte......................................................................................................................11 1.2 Problématique ............................................................................................................12 1.3 Objectif!et!approche ...................................................................................................13 1.4 Organisation!du!document .........................................................................................14 CHAPITRE)2)MASHUPS)ET)DISPONILBILITE)DE)DONNEES)SUR)LE)WEB ................................15 2.1 Modèles!de!Mashups..................................................................................................15 2.1.1 Modèles!de!données.............................................................................................16 2.1.2 Opérateur!de!données..........................................................................................17 2.1.3 Mashlet.................................................................................................................18 2.1.4 Wiring ...................................................................................................................19 2.1.5 Mashup .................................................................................................................19 2.1.6 Modèle!relationnel!de!mashups...........................................................................20 2.1.7 Modèle!de!Hoyer ..................................................................................................21 2.1.8 Modèle!de!mashups!MACE...................................................................................22 2.2 Systèmes!d’exécution!de!mashups.............................................................................22 2.2.1 Architecture!générale ...........................................................................................22 2.2.2 Déploiement .........................................................................................................24 2.3 Disponibilité!de!données!fraiches!sur!le!web..............................................................26 2.3.1 Mesure!de!la!disponibilité!de!données!dans!les!mashups....................................26 2.3.2 Rafraichissement!de!données!des!mashups.........................................................27 2.3.3 Disponibilité!de!données!par!la!réplication ..........................................................28 2.3.4 Disponibilité!de!données!par!le!cache ..................................................................29 2.4 Conclusion...................................................................................................................32 CHAPITRE)3)MODELE)DE MASHUPS ...................................................................................33 3.1 Données!de!mashups..................................................................................................34 3.1.1 Types!de!données.................................................................................................!34 3.1.2 Instances!des!types...............................................................................................35 3.1.3 Types!et!valeurs!d’instances.................................................................................38 3.1.4 Opérations!sur!les!instances.................................................................................38 3.2 Activité ........................................................................................................................39 3.2.1 Activités!basiques .................................................................................................!39 3.2.2 Activités!composites.............................................................................................44 3.2.3 Définition!du!domaine!des!activités!O..................................................................47 3.3 Mashlet .......................................................................................................................47 3.4 Wiring..........................................................................................................................49 3.5 Mashup .......................................................................................................................51 3.6 Conclusion...................................................................................................................534 CHAPITRE)4)EXECUTION DE)MASHUPS)AVEC)DISPONIBILITE)DE)DONNEES .........................55 4.1 Exécution!d’un!mashup...............................................................................................56 4.1.1 Exécution!d’une!activité........................................................................................57 4.1.2 Exécution!d’un!mashlet ........................................................................................62 4.1.3 Exécution!d’un!wiring ...........................................................................................62 4.2 Disponibilité!des!données!dans!les!mashups..............................................................63 4.2.1 Organisation!de!données!du!Store.......................................................................65 4.2.2 Gestion!du!Store...................................................................................................66 4.2.3 Remplacement!de!données..................................................................................68 4.2.4 Rafraichissement!de!données...............................................................................70 4.2.5 Exécution!d’un!nœud!Retrieve++ .........................................................................74 4.3 Conclusion...................................................................................................................75 CHAPITRE)5)IMPLANTATION)DE)MELQART ........................................................................77 5.1 Architecture!du!système .............................................................................................78 5.2 Valeurs!complexes ......................................................................................................80 5.3 Activité ........................................................................................................................81 5.3.1 Activités!basiques .................................................................................................!82 5.3.2 Activités!composites.............................................................................................86 5.4 Mashlet .......................................................................................................................93 5.5 Wiring..........................................................................................................................94 5.6 Mashup .......................................................................................................................94 5.7 Item.............................................................................................................................96 5.8 Store............................................................................................................................97 5.9 ReplacementManager.................................................................................................!97 5.10 FreshnessManager....................................................................................................98 5.11 Interaction!des!mashups!avec!le!Store ...................................................................100 5.12 Validation................................................................................................................101 5.12.1 ItineraryPlanner................................................................................................102 5.12.2 MyDashboard ...................................................................................................104 5.12.3 Execution!des!instances!des!mashups..............................................................105 5.13 Conclusion...............................................................................................................105 CHAPITRE)6)CONCLUSION)................................................................................................)107 6.1 Contribution!et!bilan.................................................................................................!107 6.2 Perspectives..............................................................................................................108 BIBLIOGRAPHIE ...............................................................................................................111 ANNEXE)A :))SYSTEMES)D’EXECUTION)DE)MASHUPS)ETUDIES..........................................119 ANNEXE)B :))SYNTAXE)DE)JSON........................................................................................1235 LISTE%DES%TABLEAUX Tableau!1 :!Modèle!de!données!des!mashups!dans!les!outils/modèles!étudiés...................................................17 Tableau!2 :!Opérateurs!proposés!dans!les!outils!étudiés......................................................................................18 Tableau!3 :!Gestion!de!wirings!dans!les outils!étudiés..........................................................................................19 Tableau!4 :!Protocoles!d'accès!aux!données!des!fournisseurs!dans!les!outils!de!mashups!étudiés.....................23 Tableau!5 :!Coût!des!opérations!dans!différentes!structures!de!données............................................................74 Tableau!6 :!Durées!des!vies!des!données du!mashup!ItineraryPlanner..............................................................103 Tableau!7 :!Durées!des!vies!des!données!du!mashup!MyDashboard .................................................................!1057 LISTE DES"FIGURES Figure!1!:!Le!mashup!ItineraryPlanner ..................................................................................................................12 Figure!2!:!Logique!applicative!de!mashup!ItineraryPlanner..................................................................................13 Figure!3 :!Échange!de!données!entre!les!mashlets!Map!et!Weather!défini!par!un!wiring....................................19 Figure!4!:!Modèle!de!mashups!de!Hoyer...............................................................................................................21 Figure!5!:!Les!composants!d'une!architecture!générale!d'un!système!d'exécution!de!mashups..........................23 Figure!6:!Diagra .........................................................................................................................................................!! mme!de!déploiement!des!composants!d'un!système!d’exécution!de!mashups!(côté!client)...............................24 Figure!7!:!Diagramme!de!communication!illustrant!le!fonctionnement!d'un!mashup!exécuté!côté!Client..........25 Figure!8!:!Diagramme!de!déploiement!des!composants!d'un!système!d’exécution!de!mashups!(côté!serveur)!.!25 Figure!9!:!Diagramme!de!communication!illustrant!le!fonctionnement!d'un!mashup!exécuté!côté!serveur.......26 Figure!10 :!Architecture!du!cache!distribué!proposé!dans![91] ............................................................................30 Figure!11 :!Pile!de!concepts!de!mashups ..............................................................................................................34 Figure!12!:!Représentation!graphique!d'une!activité ............................................................................................39 Figure!13!:!Représentation!graphique!d'une!activité!Sequence ............................................................................45 Figure!14!:!Représentation!graphique!d’un!exemple!d’une!activité!Sequence .....................................................45 Figure!15!:!Représentation!graphique!d'une!activité!Foreach ..............................................................................46 Figure!16!:!Représentation!graphique!d’un!exemple!d’une!activité!Foreach .......................................................46 Figure!17!:!Représentation!graphique!d'une!activité!Parallel ...............................................................................47 Figure!18!:!Représentation!graphique!d'un!mashlet.............................................................................................48 Figure!19!:!Représentation!graphique!du!mashlet!Map........................................................................................48 Figure!20!:!Représentation!graphique!du!mashlet!Weather.................................................................................49 Figure!21!:!Représentation!graphique!d'un!wiring................................................................................................50 Figure!22!:!Représentation!graphique!du!wiring!entre!les!mashlets!Map!et!Weather.........................................51 Figure!23!:!Représentation!graphique!du!mashup!ItineraryPlanner.....................................................................52 Figure!24!:!Diagramme!d’activité!UML!de!l’exécution!d’un!mashup ....................................................................56 Figure!25!:!Graphe!du!mashup!ItineraryPlanner...................................................................................................57 Figure!26!:!Exécution!du!mashup!ItineraryPlanner ...............................................................................................58 Figure!27!:!Arbre!de!l’activité!du!wiring!Map2Weather .......................................................................................58 Figure!28!:!Exécution!du!mashup!ItineraryPlanner ...............................................................................................59 Figure!29!:!Composition!d'un!nœud!d'une!activité!basique..................................................................................598 Figure!30!:!Diagramme!d’activité!UML!du!processus!d’exécution!d'une!activité!basique ....................................60 Figure!31!:!Diagramme!de!communication!entre!le!nœud!Retrieve et!le!fournisseur!de!données ......................60 Figure!32 :!Arbre!de!nœuds!d’une!activité!Sequence ...........................................................................................61 Figure!33!:!diagramme!d’activité!UML!du!processus!d’exécution!d'une!activité!Sequence..................................61 Figure!34 :!Diagramme!d’activité!UML!de!l’exécution!d’un!mashlet ....................................................................62 Figure!35!:!Diagramme!d’activité!UML!de!l’exécution!d’un!wiring .......................................................................63 Figure!36!:!Diagramme!de!communication!UML!entre!le!nœud!Retrieve++,!le!fournisseur!de!données!et!le Store .......................................................................................................................................................................63 Figure!37 :!Exécution!d’un!mashup!avec!disponibilité!de!données.......................................................................64 Figure!38!:!Représentation!du!Store .....................................................................................................................66 Figure!39!:!Utilisation!des!fonctionnalités!de!gestion!du!Store dans!l’exécution!d’un!nœud!Retrieve++.............67 Figure!40!:!Utilisation!de!la!fonction!makeroom dans!l’exécution!d’un!nœud!Retrieve++ ..................................68 Figure!41 :!Rafraichissement!des!items.................................................................................................................70 Figure!42!:!Exécution!d'un!nœud!Retrieve++ ........................................................................................................75 Figure!43!:!Approche!de!MELQART!pour!la!création!et!l’exécution!des!mashups................................................78 Figure!44 :!Interaction!des!utilisateurs!avec!MELQART.........................................................................................78 Figure!45!:!Architecture!de!MELQART...................................................................................................................79 Figure!46!:!Classe!Activity......................................................................................................................................82 Figure!47!:!Les!classes!des!activités!basiques........................................................................................................83 Figure!48!:!Les!classes!des!activités!composites....................................................................................................87 Figure!49 :!Exécution!de!la!méthode!run()!d’une!instance!de!la!classe!Sequence................................................88 Figure!50!:!Exécution!de!la!méthode!run()!d'une!instance!de!WOEIDCitySeq ......................................................89 Figure!51 :!Exécution!de!la!méthode!run()!d’une!instance!de!la!classe!Foreach...................................................90 Figure!52!:!Exécution!de!la!méthode!run()!d’une!instance!de!CitiesListForeach ..................................................91 Figure!53!:!Interactions!entre!une!activité!Parallel!et!ses!soushactivités ..............................................................92 Figure!54!:!Classe!Mashlet.....................................................................................................................................93 Figure!55!:!Interaction!entre!une!instance!de!Mashlet!et!son!activité..................................................................93 Figure!56!:!Classe!Wiring .......................................................................................................................................94 Figure!57!:!Classe!Mashup.....................................................................................................................................95 Figure!58!:!Classe!Item ..........................................................................................................................................96 Figure!59!:!Instance!de!la!classe!Item....................................................................................................................96 Figure!60!:!Classe!Store .........................................................................................................................................97 Figure!61!:!La!classe!ReplacementManager ..........................................................................................................98 Figure!62!:!La!classe!FreshnessManager ...............................................................................................................99 Figure!63!:!Exécution!de!la!méthode!run()!de!l'activité!Retrieve!avec!utilisation!du!Store ................................101 Figure!64!:!Résultats!du!mashup!ItinerayPlanner!pour!l’itinéraire!de!Grenoble!à!Paris .....................................103 Figure!65!:!Résultats!du!mashup!MyDashboard!avec!Grenoble!comme!paramètre!en!entrée. .........................104 Figure!66!:!Chronologie!des!exécutions ..............................................................................................................1069 Figure!67!:!Sources!de!données!dans!Montage...................................................................................................119 Figure!68!:!Construction!de!mashlets!dans!Yahoo!!Pipes....................................................................................120 Figure!69!:!Architecture!de!MSS..........................................................................................................................122 Figure!70!:!Syntaxe!de!JSON................................................................................................................................12311 Chapitre!1 INTRODUCTION 1.1 Contexte A l'origine, le terme mashup désigne un morceau musical hybride composé d’échantillons de musique issus de chansons différentes. Par analogie, en Informatique, un mashup est une application web qui combine des ressources (données, fonctionnalités etc.) provenant de sources hétérogènes. Ces ressources sont agrégées pour former un résultat affiché dans des composants appelés mashlets, comme iGoogle1 . Une des premières définitions des mashups apparaît en 2006 dans [1] : “Mashups are an exciting genre of interactive Web applications that draw upon content retrieved from external data sources to create entirely new and innovative services”. Les mashups sont utilisés dans différents domaines comme la biologie [2], la santé [3], l’électroménager [4], la formation en ligne (E-learning) [5][6] et la gestion des documents en entreprise [7]. Exemple de mashup Supposons qu'Alice veuille planifier un voyage de Grenoble à Paris et qu'elle veuille déterminer l'itinéraire qu'elle va prendre, ainsi que les prévisions météorologiques dans les villes de passage. Comme le voyage est long, Alice aura faim à l’arrivée. Elle voudrait choisir un restaurant parmi une liste de restaurants proposés ayant une moyenne de notes supérieure à 3 sur 5. Au lieu de contacter des services sur le Web de manière séparée, Alice veut exprimer ses besoins d’une manière globale et avoir les réponses de différents services sur une même page Web. Pour cela, Alice a recours à un mashup qui combine des données issues des services disponibles sur le web comme Google maps et Yahoo météo et Google Places. Le mashup est composé de trois mashlets affichant l’itinéraire, les conditions météorologiques et la liste de restaurants. Dans ce document, nous nous référons à ce mashup sous le nom d’ItineraryPlanner (illustré dans la Figure 1). Nous avons choisi ce scénario parce qu’il intègre des données de nature hétérogènes : dynamiques et multimédia où l’on prend en considération des données spatiales comme dans [8][9]. Un mashup fonctionne selon une logique applicative. Les deux points clés de cette logique applicative sont les services de données et la coordination des appels des services. Les services font office de fournisseurs des données par des appels des méthodes. La coordination sert à coordonner la récupération et la transformation de données afin de pouvoir les échanger entre les composants du mashup. Les fonctions de gestion de données qui en ressortent sont : 1 http://www.google.fr/ig, Google a mis fin à ce service en novembre 2013.12 Figure'1':'Le'mashup'ItineraryPlanner • La récupération de données : o À partir des services de données en appelant des méthodes exportées par ces services, par exemple obtenir l’itinéraire entre Grenoble et Paris sollicité depuis le service Google maps. o En interagissant avec les utilisateurs à travers des interfaces fournies par le mashup : par exemple, entrer la ville de départ et la destination. • La transformation de données récupérées pour les afficher de manière agrégée ou adaptée au dispositif utilisé pour les visualiser. Il s’agit de mettre en place cette transformation au sein et entre les mashlets. • L’échange de données : les données transformées peuvent servir comme entrée pour appeler d’autres services. Par exemple, les villes de passage dans l’itinéraire obtenu de Google maps, sont envoyées à Yahoo! Weather pour obtenir les informations sur les conditions météorologiques dans ces villes. La Figure 2 présente la logique applicative du mashup ItineraryPlanner définie avec l’outil Yahoo! Pipes [10]. Le mashlet Map s’adresse à Google maps pour récupérer l’itinéraire, ceci est suivi par une transformation pour récupérer les villes intermédiaires et les mettre dans le bon format pour les envoyer d’une manière itérative à Yahoo! Weather pour récupérer la météo. Les coordonnées de la ville d’arrivée sont récupérées par le mashlet Restaurants pour récupérer une liste de restaurants auprès du service Google Places. Cette gestion de données s’appuie sur une hypothèse forte et que nous adoptons : les interfaces des services ont des paramètres d’entrée/sortie typés selon un modèle de données de mashups. Ceci revient à considérer qu’il y a un mapping implicite entre les modèles des données sous-jacents aux services et le modèle de données propre aux mashups. 1.2 Problématique Les travaux existants, sur les mashups, se sont intéressés principalement à leur fonctionnement et aux différentes manières de les construire [11][12][13][14], aux domaines de leur utilisation et à l’interaction avec les utilisateurs [15][16][17]. Dans cette thèse nous nous intéressons à la gestion de données dans les mashups et plus particulièrement à la disponibilité des données fraîches dans les mashups. Améliorer la disponibilité des données au sein d’un mashup se définit à travers les aspects suivants : 13 Figure'2':'Logique'applicative'de'mashup'ItineraryPlanner • La continuité d’accès aux données même si le service est inaccessible. • La gestion de la fraîcheur de données du mashup. Ces données sont de nature dynamique et une mauvaise stratégie de mise à jour peut engendrer des mashups avec des données périmées. • Éviter de récupérer la même donnée plusieurs fois. L’approfondissement de ces problèmes nous a amené à nous poser différentes questions : • Quelles sont les données dont on a besoin pour le bon fonctionnement du mashup ? et comment les identifier dans les résultats des appels services ? • Comment retrouver ces données ? • Comment garder la fraicheur de ces données ? 1.3 Objectif)et)approche L’objectif de cette thèse est de proposer une approche pour améliorer la disponibilité des données des mashups qui garantit : • L’accès aux données même si le service est indisponible pour maintenir un mashup en état de fonctionnement. • La fraicheur de données et pour cela il faut prendre en compte la durée entre deux appels qui doit faire l’objet d’un compromis entre les caractéristiques du service et les besoins de l’utilisateur. • Un partage de données entre les mashups et les mashlets. Ce partage permet d’augmenter la probabilité de disponibilité de données.14 Pour atteindre cet objectif, nous proposons MELQART 2 un système d’exécution de mashups avec un mécanisme de disponibilité de données. Notre contribution inclut : • Une étude de l’état de l’art présentant une analyse des modèles de mashups existants et de leurs concepts ainsi que les travaux existants sur les systèmes d’exécution des mashups et sur la disponibilité et la fraicheur de données du web. L’étude de ces travaux constitue une base à partir de laquelle nous proposons notre approche pour améliorer la disponibilité des données des mashups. • La définition d’un modèle de mashups qui s’appuie sur les modèles de valeurs complexes [19]. Ce modèle permet de spécifier les caractéristiques de la disponibilité de données. Les concepts de ce modèle sont illustrés avec notre scénario ItineraryPlanner. • La définition du principe d’exécution de mashups selon le modèle de mashup proposé. Nous améliorons la disponibilité et la fraicheur des données du mashup par des fonctionnalités orthogonales à son processus d’exécution. Ces fonctionnalités prennent en charge la gestion et le rafraichissement de données 1.4 Organisation)du)document Le reste du document est organisé comme suit : • Le Chapitre 2 présente les concepts et les modèles des mashups (aspect statique des mashups) et étudie l’architecture générale des systèmes d’exécution de mashups existants (aspect dynamique des mashups). Ensuite, il s’intéresse à la disponibilité des données fraiches sur le web et aux solutions logicielles possibles pour la garantir. • Le Chapitre 3 présente les concepts de notre modèle de mashup. Parmi eux nous retrouvons les données, les mashlets etc. • Le Chapitre 4 commence par introduire les principaux éléments de l’exécution d’un mashup. Ensuite, il décrit notre proposition pour assurer la disponibilité de données lors de l’exécution des mashups et son intégration au processus d’exécution de mashups. Cette solution est à base de fonctions que nous associons d’une façon orthogonale au processus d’exécution de mashups. • Le Chapitre 5 décrit l’implantation et la validation d’un prototype de MELQART. Il commence par présenter l’architecture du système et l’implantation des concepts de notre modèle de mashups et des fonctionnalité proposées pour améliorer la disponibilité de données fraiches des mashups. L’implantation est décrite avec les diagrammes de classes et de séquence de la notation UML. Ensuite le chapitre présente la validation de notre implantation avec l’exécution de plusieurs instances de deux scenarios de mashups. • Le Chapitre 6 récapitule les principaux éléments de notre contribution et présente des orientations définissant la perspective de notre travail afin de l’améliorer et le consolider. 2 Dans la mythologie phénicienne, Melqart [18] signifie le roi (melk) de la cité (qart). Il est le dieu et protecteur de Tyr et de ses activités commerciales. Il accompagna les navigateurs phéniciens dans leur colonisation de la Méditerranée. Il est assimilé à Héraclès dans la mythologie gréco-romaine.15 Chapitre!2 MASHUPS%ET DISPONILBILITE+DE+DONNEES#SUR# LE#WEB Ce chapitre présente les travaux existants dans les domaines des mashups (modèles et systèmes d’exécution de mashups) et de la disponibilité et la fraicheur de données du web. L’étude de ces travaux constitue une base à partir de laquelle nous proposons notre approche pour améliorer la disponibilité des données des mashups. Le chapitre est organisé de la manière suivante : la section 2.1 présente les concepts et les modèles des mashups (aspect statique des mashups). La section 2.2 étudie l’architecture générale des systèmes d’exécution de mashups existants (aspect dynamique des mashups). Ensuite, la section 2.3 s’intéresse à la disponibilité des données fraiches sur le web et aux solutions logicielles possibles pour la garantir. Enfin, la section 2.4 conclut le chapitre. 2.1 Modèles)de)Mashups Cette section décrit les modèles existants de mashups. Nous avons constaté qu’il y a peu de travaux qui ont proposé des modèles de mashups (ceci est dû à l’apparition récente de cette notion de mashups) et que la plupart se sont focalisés sur les outils de création et d’exécution de mashups et leur fonctionnement. L’étude des modèles et des outils proposés (cf. Annexe A) nous a permis d’identifier les concepts nécessaires pour décrire un mashup. Donnée, Operateur, Mashlet, Wiring et Mashup. Un mashlet affiche des données définies selon un certain modèle de données. Elles sont récupérées auprès des fournisseurs de données. Des opérateurs décrivent la manipulation de ces données. Un mashup est un ensemble de mashlets qui échangent des données via des wirings. Dans le scenario ItineraryPlanner, introduit dans le Chapitre 1, ces concepts se présentent comme suit : • Les données sont récupérées depuis des fournisseurs de données : Google maps, Yahoo! Weather et Google Places. • Les opérateurs décrivent le traitement de ces données. • Les mashlets (Map, Weather, Restaurants) constituent les composants qui affichent les résultats. • Deux wirings décrivent le transfert de la liste de villes de passage de Map vers Weather, et celui des coordonnées de la ville d’arrivée de Map vers Restaurants). • Le mashup ItineraryPlanner est constitué des mashlets Map, Weather, Restaurants et des wirings sous-jacents.16 Ces concepts sont présentés dans les sous-sections 2.1.1 à 2.1.5. Ensuite les sous-sections 2.1.6, 2.1.7 et 2.1.8 présentent des modèles de mashups étudiés dans l’état de l’art. 2.1.1 Modèles)de)données Les données des mashups peuvent être définies selon différents modèles de données3 . Dans cette sous-section, nous présentons les modèles de données utilisées dans les modèles et les outils de mashups étudiés. • Le modèle relationnel [21] fut introduit pour pallier aux lacunes du modèle hiérarchique et du modèle réseau, comme la redondance et la rigidité. Il permet d’assurer une indépendance de données et d’améliorer les langages de requête. Il est basé sur les concepts de la théorie des relations. Le modèle relationnel de données est adopté dans le modèle relationnel de mashups [3] (cf. sous-section 2.1.6). Les auteurs y considèrent, également, que toutes les données (provenant de fournisseurs externes ou manipulées au sein des mashups) sont décrites selon le modèle relationnel. Ce choix de modélisation de données est justifié par les bases mathématiques du modèle relationnel. • Les modèles orientés objet furent proposés pour rapprocher les bases de données aux langages de programmation. Certains travaux ont focalisé sur l’intégration des caractéristiques de persistance et de transactions, présentes dans les SGBDs, aux langages de programmation orientées-objet. Tandis que d’autres ont focalisé sur l’intégration des caractéristiques de l’orienté-objet aux SGBDs comme l’encapsulation, la hiérarchie des classes ou l’attachement dynamique (dynamic binding). Ces travaux ont contribué au développement de SGBDs objets comme O2 [22] et SAMOS [23]. Un groupe ODMG (Object Data Management Group) fut crée. Il est responsable de la définition de standards pour les bases de données objets [24] dont le langage OQL (Object Query Language). Le modèle orienté-objet fut adopté par l’outil Popfly [25] de Microsoft. Ce choix est justifié par une proximité recherchée des langages de programmation. Nous n’avons pas pu étudier et tester cet outil, parce que Microsoft y a arrêté son développement avant le début des travaux sur cette thèse. • Les modèles de données semi-structurées sont basés sur une organisation de données dans des structures d’arbres étiquetées ou des graphes et des langages de requêtes pour accéder et modifier les données [26][27]. Les modèles de données semi-structurées sont utilisés pour décrire des données sans schéma explicite. Dans les modèles de données structurés, on distingue entre le type de données (schéma) et les données mêmes. Cependant, cette distinction est estompée dans les modèles de données semi-structurées : on parle de données auto-décrites [27]. Les données semi-structurées le plus répandues sont des données XML. La richesse d’XML provient des langages associés comme XPath, XQuery, XSLT qui facilitent la manipulation des données XML. Le Tableau 1 indique les modèles de données manipulées dans les modèles et les outils de création et d’exécution de mashups étudiés. Nous constatons que la plupart des outils de mashups utilisent des modèles à base d’XML pour représenter les données manipulées. Ceci est justifié par le fait que la plupart des données du web sont décrites avec XML. 3 Un modèle de données fournit les moyens pour (1) spécifier des structures de données, (2) définir un ensemble de contraintes associées à ces structures et (3) et les manipuler [20]. 17 Modèle de données Outil/Modèles de mashups Relationnel Modèle relationnel de mashups [3] Orientés-objet Popfly [25] Semi-structurées Montage [28] (XML), Yahoo! Pipes [10] (flux RSS), Intel MashMaker [29] (RDF), EMML/Presto [30] (XML), MSS [31] (XML), WSO2 Application Server [32] (XML) Tableau'1':'Modèle'de'données'des'mashups'dans'les'outils/modèles'étudiés 2.1.2 Opérateur)de)données Un opérateur de données est modélisé avec une fonction qui manipule des données en entrée pour en produire d’autres en sortie. Les principaux opérateurs de données, pour les différents modèles, sont la jointure, le filtrage, le tri, la troncature, le comptage, l’élimination de doublons etc. Certains fournisseurs de données (Wikipédia, Craiglist4 etc.) n’exposent pas leurs contenus via des méthodes exportées. Ainsi, certains outils offrent des opérateurs décrivant l’extraction des données avec la technique du web scraping 5 [1][33]. Les données extraites sont décrites selon le modèle de données adopté dans le mashup. Par exemple, le mashup HousingMaps6 a recours à cette technique pour extraire les annonces depuis le site Craiglist. Le Tableau 2 indique la nature des opérateurs définis dans les outils de création et d’exécution de mashups étudiés. Nous constatons que les outils, qui s’adressent à des utilisateurs sans compétence en programmation (comme Montage, Intel MashMaker), proposent peu d’opérateurs, offrant ainsi une moindre complexité pour construire un mashup. D’autre part, certains outils nécessitent des compétences en programmation comme WSO2 Mashup Server. Les outils Yahoo ! Pipes et Presto offrent des opérateurs similaires pour manipuler les données. Le modèle relationnel de mashups ne propose pas d’opérateurs pour manipuler les données ; Ils font partie des perspectives évoquées par les auteurs. L’outil MSS propose un langage de manipulation de données : Mashup Service Query Langage (MSQL). Celui-ci est basé sur le langage SQL et il est enrichi avec des opérateurs exécutant des tâches spécifiques interprétées selon une ontologie propre à MSS (par exemple, « trouver des maisons », « trouver des vols »). Modèle relationnel de mashups • Récupération de données par appel de services. • Ce modèle ne propose pas d’opérateurs pour manipuler les données. A l’heure actuelle, les données récupérées sont rendues en entier. Néanmoins, les auteurs proposent, dans leur perspective, d’enrichir le modèle avec des opérateurs de manipulation de données. (cf. soussection 2.1.6) Montage Récupération de flux RSS. 4 Craiglist est un site web américain de petites annonces 5 Un web scraper est un programme qui extrait des données depuis un site web dans le but de les exploiter. 6 http://www.housingmaps.com/18 Yahoo! Pipes L'ensemble des opérateurs de Yahoo! Pipes comprend : • Les opérateurs de récupération de données : depuis des services REST ou bien des flux RSS. • Les opérateurs de transformation de données (tri, filtrage, élimination de doublons, troncature, inverser une liste, l’extraction de données) • les opérateurs arithmétiques • les opérateurs sur les expressions régulières. Intel MashMaker Les données sont manipulées avec des formules comme dans les feuilles de calcul. WSO2 Mashup Server Les opérations sont définies avec un code JavaScript. EMML/Presto L'ensemble des opérateurs de EMML / Presto : • Les opérateurs de récupération de données : depuis des services REST, SOAP ou bien des flux RSS ou bien par le web scraping. • Les opérateurs de transformation de données (jointure, tri, filtrage, élimination de doublons, troncature, inverser une liste, extraction de données). • Des opérateurs définis par encapsulation de code JavaScript, XQuery. MSS L’ensemble des opérateurs de MSS comprend : • Des opérateurs qui réalisent des tâches que nous retrouvons dans le langage SQL comme la sélection, la jointure. • Des opérateurs exécutant des tâches spécifiques interprétées selon l’ontologie de MSS (par exemple, « trouver des maisons », « trouver des vols »). Tableau'2':'Opérateurs'proposés'dans'les'outils'étudiés 2.1.3 Mashlet Un mashlet est un composant graphique qui affiche des données sous la forme d’un widget. Il récupère des données auprès de fournisseurs de données, il les manipule avec des opérateurs de données et il les retourne en sortie. Les données produites sont alors visualisées graphiquement. Par exemple, le mashup ItineraryPlanner (défini dans le Chapitre 1) contient trois mashlets : le premier « Map » permet l'affichage de l'itinéraire entre deux villes sur une carte, le deuxième « Weather » se charge d’afficher les informations météorologiques dans les principales villes sur cet itinéraire et le troisième « Restaurants » affiche une liste de restaurants dans la ville d’arrivée. Cette définition n’est pas unique. Elle est générale et couvre les différents points de vue des modèles et les outils étudiés. En effet certains utilisent des terminologies différentes pour désigner ce concept et d’autres ne couvrent pas tous les aspects mentionnées : • Dans [3][34], un mashlet est un composant qui a des données en entrée et en sortie. Il interroge des sources des données, utilise des services web externes et définit la coordination entre ces composants. Il peut intégrer une représentation graphique de ses données.19 • Dans [35][36][37], ce concept est décrit avec le terme largement connu : widget. Un widget est une interface graphique affichant des informations récupérées auprès d’une source de données externe. • Dans [32][38][10][39], les auteurs utilisent même le terme mashup pour désigner ce concept. Un mashup est une application qui combine des données provenant de différentes sources. La combinaison est réalisée par le moyen d’un flot de données. • Enfin, dans [40], les auteurs séparent l’aspect combinaison de données et l’aspect visualisation. Ils désignent la combinaison de données sous le nom de mashup alors que le terme mashlet désigne la visualisation de ces données. 2.1.4 Wiring) Un wiring définit un échange de données entre deux mashlets [35][14][41]. Par exemple, dans le mashup ItineraryPlanner, un wiring (cf. Figure 3) est nécessaire pour envoyer les données des villes de passage depuis le mashlet « Map » au mashlet « Weather ». Dans [34][42], les auteurs intègrent ce concept dans leur outil sans y donner un nom. On parle de navigation entre mashlets. Dans [3], les auteurs intègrent le principe d’échange de données entre mashlet, mais sans lui donner de nom. Figure'3':'Échange'de'données'entre'les'mashlets'Map'et'Weather'défini'par'un'wiring Le Tableau 3 indique les modèles/outils qui permettent de définir des wirings entre les mashlets. Nous constatons que le principe d’échange de données entre les mashlets (définition de wirings) n’est pas omniprésent dans les modèles/outils de mashups étudiées. Par exemple dans iGoogle, les mashlets ne communiquent pas entre eux ; ainsi avec ce genre d’outil, nous ne pouvons pas modéliser le mashup ItineraryPlanner. Ce constat souligne l’hétérogénéité des visions de ce qu’est un mashup. Ceci est dû à l’apparition récente de cette notion de mashups Modèles/Outils intégrant le concept Wiring Modèle relationnel de mashups, Intel MashMaker, WSO2 Mashup Server, Presto Modèles/Outils ne prenant pas en charge le concept Wiring Montage, Yahoo ! Pipes Tableau'3':'Gestion'de'wirings'dans'les'outils'étudiés 2.1.5 Mashup Dans les travaux étudiés, nous avons constaté qu’un mashup est défini sous-différentes terminologies. Dans [31][36], il est défini en tant que technologie émergente qui consiste en la 20 création d’applications ad hoc par des utilisateurs finaux. Dans [1][43][37], un mashup est défini en tant qu’un nouveau type d’applications web qui permettent de combiner de données issues de différents sources. Dans [44], un mashup est défini en tant qu’une approche de développement d’applications qui permet à des utilisateurs finaux de combiner des données provenant de différentes sources. Dans ces définitions, le terme récurrent est application et l’idée sous-jacente est la combinaison de données provenant de différentes sources. Dans les modèles/outils qui intègrent le principe de transfert de données entre mashlets (définition de wirings, voit sous-section 2.1.4), un mashup est vu comme un ensemble de mashlets et de wirings qui coordonnent ces mashlets. Alors que dans les modèles/outils qui n’intègrent pas la définition de wiring, un mashup est vu comme un ensemble de mashlets seulement. Par exemple, le mashup ItineraryPlanner prend en entrée des paramètres indiquant les villes de départ et d’arrivé et un tarif moyen pour les restaurants. Il contient les trois mashlets « Map », « Weather » et « Restaurants ». Il contient aussi deux wirings : le premier pour transférer les villes de passages depuis le mashlet « Map » vers le mashlet « Weather » et le deuxième pour transférer les coordonnées géographiques du lieu d’arrivé depuis le mashlet « Map » vers le mashlet « Restaurants ». Comme indiqué dans la sous-section 2.1.3, le concept de mashlet est parfois désigné avec le terme mashup dans certains modèles/outils. Ceux ci emploient le terme « dashboard » pour faire référence au mashup (en tant qu’ensemble de mashlets). 2.1.6 Modèle)relationnel)de)mashups Dans [3], les auteurs introduisent un modèle relationnel pour définir les mashups de données. Le modèle est basé sur les relations. Ce choix de modélisation est justifié par les bases mathématiques du modèle relationnel. Un mashlet est défini comme un ensemble de relations. Celles ci sont classifiées comme suit : • Relations internes : elles sont utilisées pour contenir des données propres au mashlet et non exposées à d’autres mashlets. • Relations entrée/sortie : elles sont utilisées pour définir l’interface du mashlet via laquelle il interagit avec l’utilisateur et d’autres mashlets. • Relations de service : elles représentent des web services que le mashlet peut importer. L’interaction entre ces relations est définie par des règles actives (du style Datalog [45][46]). Par exemple, soit un mashlet !"#$ dont les relations sont liées par la règle active suivante : !!"# !"#, !"#$%%$, !"# ∶ − !!" ! , !!"#$! !, !"# , !"!"" !"#, !"#$%%$, !"# !!" est une relation qui représente un formulaire où l’utilisateur entre le nom d’une maladie !. La relation locale !!"#$! !, !"# fournit les noms des médecins spécialistes dans le traitement de la maladie !. Soit le service web !"!"" !"#, !"#$%%$, !"# qui fournit l’adresse, et le numéro de téléphone pour un médecin identifié par son nom. La relation !!"# !"#, !"#$%%$, !"# affiche le résultat contenant les noms des médecins, leurs adresses ainsi que leurs numéros de téléphones. 21 Dans le même esprit, les interactions entre mashlets (sans mention du terme wiring) peuvent être décrites avec des règles actives. Soit un mashlet !"#$%& qui affiche les adresses des médecins sur une carte. Il importe la relation de sortie du mashlet !"#$ via la règle active suivante7 : !"#$%&. !"#!" !, !, !"# ∶ − !"#$. !!"# !"#, !"#$%%$, !"# , !""#$%&'!"" !"#$%!", !, ! L’adresse, donnée par la relation !"#$. !!"# !"#, !"#$%%$, !"# , est convertie en coordonnées géographiques ! et ! via le service web !""#$%&'!"". Un mashup est vu comme un réseau de mashlets qui interagissent entre eux. Les auteurs évoquent le besoin éventuel de manipuler les données (filtrage tri etc.). Pour répondre à ce besoin, ils proposent, dans une perspective ultérieure, la possibilité d’enrichir les règles actives avec des fonctions de manipulation de données ou de déléguer ces fonctionnalités à des services web. 2.1.7 Modèle)de)Hoyer Dans [37], les auteurs proposent un modèle des concepts de mashups. Il est fait avec un digramme de classes de la notation UML (Figure 4 8 ). Ils y introduisent la notion d’usage qui correspond à l’autorisation de l’utilisation d’une ressource ou d’un mashlet (widget) par une certaine personne (client) contre certaines conditions et certains frais. Les « pipings » correspondent aux opérateurs d’agrégation de données. Un wiring y est défini comme étant un moyen de communication entre deux widgets avec des paramètres de mapping indiquant les connections entre les entrées et les sorties des widgets. Figure'4':'Modèle'de'mashups'de'Hoyer 7 Une relation ! d’un mashlet ! est notée !. ! 8 Image obtenue de [37]. 22 2.1.8 Modèle)de)mashups)MACE MACE [39] est une plateforme de cache pour les mashups. Les auteurs y intègrent une proposition d’un modèle de mashups. Un mashup9 (1) récupère des données depuis des sources différentes, (2) les manipules et (3) les retournes à l’utilisateur final. !"#$% = !"! , !"! , … , !"!!! représente l’ensemble de mashups définis dans la plateforme de mashups à un moment donnée. La plateforme de mashup inclut un ensemble de classes d’opérateurs décrivant la manipulation des données comme le tri, le filtrage, l’élimination de doublons, la troncature, la jointure, le comptage, l’extraction de données. Les auteurs introduisent deux classes d’opérateurs décrivant la récupération de données depuis une source externe (fetch) et la livraison du résultat (dispatch). !"#$% = !"! , !"! , … , !"!!! dénote l’ensemble de classes d’opérateurs disponibles dans la plateforme de mashups. Chaque classe d’opérateur définit sa propre signature. Un mashup comprend un ensemble d’instances d’opérateurs de !"#$%. Cet ensemble contient un ou plusieurs instances de l’opérateur fetch et une seule instance de l’opérateur dispatch. Un mashup est modélisé avec une structure d’arbre. Chaque nœud correspond à une instance d’opérateur. Le nœud racine correspond à l’instance de l’opérateur dispatch et les nœuds feuilles correspondent aux instances de l’opérateur fetch. La valeur de la sortie de l’instance d’opérateur d’un nœud est l’entrée (ou une des entrées) de l’instance d’opérateur du nœud parent. Les mashups, vus comme des arbres, peuvent partager les données provenant des mêmes sources. Ainsi l’ensemble des mashups forme des graphes orientés acycliques (Directed Acyclic Graphs DAGs). 2.2 Systèmes)d’exécution)de)mashups Cette section présente les composants d’une architecture générale des systèmes d’exécution de mashups (sous-section 2.2.1). Ensuite, elle présente les manières de déploiement de ces composants (sous-section 2.2.2). La présentation est accompagnée d’un positionnement des systèmes d’exécution des outils étudiés par rapport à l’architecture et au déploiement des composants. 2.2.1 Architecture)générale La Figure 5 présente l’architecture générale, d’un système d’exécution de mashups, déduite à partir de nos lectures des travaux existants. D’un point de vue architectural, les systèmes d’exécution de mashups mettent en jeu plusieurs composants disjoints qui interagissent entre eux pour réaliser l’exécution des mashups. Tous ces composants ne sont pas présents dans toutes les architectures : • Les fournisseurs de données (Providers) sont des composants autonomes que l’on peut interroger (Invoke) à l’aide d’une requête ayant un ou plusieurs paramètres. L’interrogation de ces fournisseurs se fait selon un protocole d’accès. Ils ne font pas partie des systèmes de mashups. Cependant, nous les évoquons pour illustrer et comparer les capacités des outils étudiés à interagir avec des fournisseurs hétérogènes. Le Tableau 4 indique les protocoles 9 Notons que cette définition correspond au concept mashlet présenté à la sous-section 2.1.3 où nous avons souligné que dans certains modèles/outils le concept de mashlet est parfois désigné avec le terme mashup.23 d'accès aux données des fournisseurs pris en charge dans les outils de mashups étudiés. Pour un outil de mashup, plus le nombre de protocoles d’accès pris en charge est grand, plus le choix offert de fournisseurs de données est large lors de la création de mashups. Montage Yahoo ! Pipes Intel MashMaker WSO2 Mashup Server Presto MSS REST10 REST, HTTP11 HTTP REST, SOAP12, HTTP REST, SOAP, HTTP SOAP Tableau'4':'Protocoles'd'accès'aux'données'des'fournisseurs'dans'les'outils'de'mashups'étudiés • Le Catalog est un composant optionnel qui n’est pas présent dans tous les outils de mashups. Il enregistre les mashlets et les mashups crées et les mets à disposition des utilisateurs des mashups Tous les outils d’exécution de mashups étudiés intègrent le composant Store sauf MSS où l’utilisateur doit définir son besoin sans avoir recourir à un tel composant. • Le composant MashupGUI, généralement un navigateur web, constitue l’interface via laquelle l’utilisateur choisit un mashup depuis le Catalog et demande son exécution au composant MashupEngine. • Le composant MashupEngine est responsable de l’exécution des mashups. Il interagit avec les composants Providers afin de récupérer des données. o Dans les outils Montage (comme dans iGoogle), le composant retourne ces données directement à l’utilisateur (via le composant MashupGUI). o Dans les autres outils étudiés, ce composant manipule ces données et coordonne les exécutions des mashlets et des wirings des mashups. Il contient un buffer qui offre les outils pour le stockage temporaire de données en cours de traitement. Le résultat est retourné au composant MashupGUI. Figure'5':'Les'composants'd'une'architecture'générale'd'un'système'd'exécution'de'mashups 10 http://www.ics.uci.edu/~fielding/pubs/dissertation/rest_arch_style.htm 11 http://www.w3.org/Protocols/rfc2616/rfc2616.html 12 http://www.w3.org/TR/soap/24 2.2.2 Déploiement L’amélioration de la disponibilité de données des mashups est impactée par les choix faits au niveau du déploiement des composants présentés dans la sous-section 2.2.1. En effet, sa portée est limitée à l’endroit où les mashups sont exécutés. D’un point de vue du déploiement, les systèmes d’exécution de mashups sont classés en 2 catégories [47][48][49][11] : les systèmes où les mashups sont exécutés côté serveur (server-side mashup) et les systèmes où les mashups sont exécutés côté client (client-side mashup). (a) Côté(client Dans un mashup exécuté côté client (client-side mashup) la récupération et la manipulation de données se produisent chez le client, généralement dans un navigateur Web. La Figure 6 présente le diagramme de déploiement dans un environnement où les mashups sont exécutés côté client. On y remarque que le composant responsable de l’exécution des mashups est déployé sur la machine de l’utilisateur final. Ce choix de déploiement est adopté par l’outil Intel MashMaker [50]. Celui ci fonctionne en tant qu’une extension de navigateur web qui manipule de données contenues dans des pages web. Figure'6:'Diagramme'de'déploiement'des'composants'd'un'système'd’exécution'de'mashups'(côté'client)' La Figure 7 présente le diagramme de communication13 illustrant le fonctionnement d’un mashup exécuté côté client : 1. L’utilisateur lance le mashup via l’interface graphique (MashupGUI). Ainsi l’interface envoie une requête au serveur des mashups (MashupsServer) pour demander le code source du mashup des paramètres donnés. 2. Le code source du mashup est chargé sur la machine de l’utilisateur. Ce code comprend un script JavaScript qui contient des requêtes pour la récupération des contenus des services de données. 3. La machine du client envoie des demandes de récupération de données auprès des fournisseurs de données (Service). 4. Les fournisseurs de données retournent les données demandées. 5. Les données récupérées sont agrégées pour produire le résultat du mashup. Pour des raisons de sécurité, les navigateurs appliquent la politique « Same Origin Policy 14 » : interdisant, dans une page web, la communication entre le client et plusieurs serveurs 13 Dans la norme UML 1, le diagramme de communication s’appelait diagramme de collaboration. 14 http://www.w3.org/Security/wiki/Same_Origin_Policy Mashup User Machine Mashups Server Store& MashupGUI& MashupEngine&25 (cross-domain communication) 15 . Pour cela la plupart de outils de mashups étudiés privilégient l’exécution des mashups sur un serveur dédié et non sur les machines des clients. Figure'7':'Diagramme'de'communication'illustrant'le'fonctionnement'd'un'mashup'exécuté'côté'Client (b) Côté(serveur Dans un mashup exécuté côté serveur (server-side mashup) la récupération et la manipulation de données se produisent sur le server de mashups. La Figure 8 présente le diagramme de déploiement dans un environnement où les mashups sont exécutés côté serveur. On y remarque que le composant responsable de l’exécution des mashups est déployé sur un serveur de mashups. Ce choix de déploiement est adopté par la plupart de systèmes d’exécutions de mashups étudiés. Plusieurs raisons justifient ce choix : la politique Same Origin Policy ne s’applique pas dans ce cas (voir sous-section 2.2.2(a)) . Ce choix permet d’alléger la quantité de données envoyées au client. Le serveur peut gérer les messages d’erreur des fournisseurs des données avant de retourner un résultat au client. Figure'8':'Diagramme'de'déploiement'des'composants'd'un'système'd’exécution'de'mashups'(côté'serveur) La Figure 9 présente le diagramme de communication illustrant le fonctionnement d’un mashup exécuté côté serveur : 1. L’utilisateur lance le mashup via l’interface graphique (MashupGUI). Ainsi l’interface envoie une requête au serveur des mashups pour exécuter le mashup avec des paramètres donnés. 15 Récemment, HTML5 [51] inclut dans ses spécification une caractéristique Cross-Site XMLHttpRequest autorisant la communication du client avec plusieurs serveurs. :"User"Machine" :"Mashups"server" :"Service"" 1 : Récupération du code source du mashup 2 : code source du mashup 3 : demande de données 4 : données demandées 5 : agrégation de données Mashup User Machine Mashups Server MashupEngine, Store, MashupGUI,26 2. Le serveur de mashups (MashupsServer) envoie des demandes de récupération de données auprès des fournisseurs de données (Service). 3. Les fournisseurs de données retournent les données demandées. 4. Les données récupérées sont agrégées pour produire le résultat du mashup. 5. Le résultat du mashup est retourné à l’interface graphique. Figure'9':'Diagramme'de'communication'illustrant'le'fonctionnement'd'un'mashup'exécuté'côté'serveur 2.3 Disponibilité)de)données fraiches)sur)le)web La disponibilité désigne le fait de pouvoir être rapidement utilisé, d'être à la disposition de quelqu'un. En informatique, la disponibilité de données (data availability) signifie avoir les données obtenues et accessibles à n’importe quel moment [52][53][54]. La fraicheur caractérise l’état de ce qui est frais. En informatique, la fraicheur de données (data freshness) signifie que les données qu’un utilisateur a à disposition sont les mêmes que celles qui peuvent être fournies par le fournisseur de service au même moment [55][56][57]. Cette section étudie la disponibilité de données fraiches sur le web et en particulier dans les mashups. Lors de notre étude de l’état de l’art nous avons constaté que, bien qu’il existe des études qui ont identifié la disponibilité et la fraicheur de données comme des qualités à prendre en compte pour les mashups, il n’existe pas de travaux qui ont proposé des solutions pour garantir la disponibilité des données fraiches dans les mashups. Nous avons identifié (1) des travaux proposant des formules pour mesurer les qualités de la disponibilité et de la fraicheur de données dans les mashups et (2) d’autres travaux proposant des solutions pour améliorer la disponibilité des donnés sur le web. Généralement, la disponibilité de données est garantie et améliorée par différentes solutions logicielles [58][54] comme la réplication [59][60][61] ou le cache [62][63]. Ces solutions peuvent être accompagnées d’une solution orthogonale matérielle qui consiste en la redondance du matériel au niveau des fournisseurs des données [64][65][66]. 2.3.1 Mesure)de)la)disponibilité)de)données)dans)les)mashups) Dans les mashups, la disponibilité des données correspond à la capacité du mashup à fournir les données attendues par l’utilisateur. La disponibilité des données d’un mashup est :"Mashups"server" :"Service"" 1 : lancer l’exécution du mashup 5 : résultat du mashup 2 : demande des 3 : données données demandées :"MashupGUI 4 : agrégation de données 27 relative à la disponibilité de données des fournisseurs. L’exécution d’un mashup peut souffrir d'une indisponibilité des données qui pourrait être causée par de nombreux facteurs : • L’indisponibilité des fournisseurs de données. • La déconnexion du client. • Des limitations d'accès possibles, telles que les licences d’utilisation des services. En fonction du contexte d'utilisation, on peut considérer ces limitations comme des restrictions diminuant la qualité des fournisseurs ou une décision nécessaire pour prévenir la surcharge des fournisseurs qui peut diminuer leur disponibilité. Dans [67], les auteurs présentent cette qualité sous le nom la complétude des données. (data completeness). Celle ci fait référence à la capacité d'un mashup de produire toutes les valeurs de données attendues. Elle est évaluée en estimant le rapport entre la quantité de données récupérées !"# et la quantité de données attendues !"# : ! = !"# !"# D’autre part, les auteurs définissent la disponibilité d’un mashup comme étant la possibilité de fournir les données d’au moins un des mashlets. Ainsi elle est exprimée selon la formule suivante : !"#$% = 1 − (1 − !"#$%! ) ! !!! Dans cette formule, la valeur de !"#$% vaut 0 (non disponible) ou 1 (disponible). !"#$%! désigne la disponibilité d’un mashlet ! du mashup. Si les données d’un des mashlets sont disponibles (i.e. ∃! !"#$%! = 1) alors le produit dans la formule est nul et le mashup est considéré disponible ( !"#$% = 1 − 0 = 1 ). Inversement, si les données de tous les mashlets sont non disponibles (i.e. ∀!, !"#$%! = 0) alors le produit dans la formule vaut 1 et toutes le mashup est non disponible (!"#$% = 1 − 1 = 0). 2.3.2 Rafraichissement)de)données)des)mashups Dans certains cas, le mashup a besoin que les données soient générées et mises à jour en permanence (par exemple, marchés boursiers ou données météorologiques). Un grand nombre de décisions stratégiques, en particulier dans les entreprises, sont généralement faites selon les derniers états ou valeurs des données. Il est donc important qu'un système de mashups propage les mises à jour des sources de données pour les utilisateurs concernés. Dans [68], les auteurs définissent la qualité de la fraicheur d’une donnée sous le terme Timeliness. Elle est mesurée avec la formule suivante : !"#$%"&$'' = !"# 0, 1 − !"##$%!& !"#$%&#&' ! Dans cette formule, l’exposant ! est un facteur qui permet de contrôler la sensibilité de la valeur de la fraicheur au rapport !"##$%!& !"#$%&#&' . La valeur de ! dépend du contexte et elle est fixée d’une façon subjective et elle est sujette d’un jugement de celui qui analyse les données. Dans cette formule la valeur de !"#$%"&$'' varie de 0 à 1. La valeur de !"##$%!& exprime l’âge de la donnée alors que la valeur de !"#$%&#&' exprime la durée de vie fixée pour la donnée selon le contexte. Les données fraiches sont ceux dont le rapport !"##$%!& !"#$%&#&' est inférieur à 1. 28 Dans [67], les auteurs expriment dans une formule la qualité de la fraicheur d’un mashup par rapports aux valeurs du paramètre !"#$%"&$'' des données du mashups. La formule est la suivante : !"#$%"&$''!"#!!" = ! !"#$%"&$'!! , … , !"#$%"&$''! Où ! peut être la fonction maximum, minimum ou moyenne. Elle est définit en fonction du contexte par celui qui analyse les données. La fraicheur des données du web est assurée par un mécanisme de rafraîchissement des données. Il peut être fait suivant deux stratégies [69][70] : pull et push. À l'heure actuelle, les systèmes d’exécution de mashup n’implantent que la stratégie pull. La valeur de la fréquence de récupération est statique. Il y a deux stratégies pour gérer les intervalles de rafraichissement dans les systèmes d’exécution de mashups [69] : • Stratégie globale : Dans cette stratégie l’intervalle de rafraichissement est le même pour toutes les données. il est fixé par le système d’exécution de mashup ou l’utilisateur final. Ce choix est adopté dans : o Yahoo! Pipes : une heure selon [69]. o Popfly : l’intervalle dépend de la fréquence du chargement de la page par l’utilisateur final. o Intel MashMaker : l’intervalle est fixé par défaut par le système d’exécution du mashup. Cependant l’utilisateur final peut demander le rafraichissement d’une page. • Stratégie locale : Dans cette stratégie, un intervalle spécifique de rafraichissement est affecté à chaque source de données. Cette stratégie est adoptée par Damia [38] où les auteurs supposent les valeurs des intervalles de rafraichissement sont indiquées par les fournisseurs de données. 2.3.3 Disponibilité)de)données)par)la)réplication La réplication de données est la création de copies multiples (nœuds de réplication) des données avec l’objectif d’améliorer leur disponibilité et leur fiabilité et d’améliorer les performances d’accès à ces données [61][59]. La plupart des travaux visant à améliorer la disponibilité de données sont basés sur un processus de réplication. Malgré ces avantages, la réplication a un coût qui consiste en le maintien de la cohérence entre les copies d’une même donnée. D’où la naissance d’un compromis entre deux contradictions majeures : assurer la cohérences des copies toute en conservant des QoS de performance. Chaque copie de données est accompagnée de la copie du système d’interrogation sous-jacent. Une politique de réplication fait référence à l’algorithme gérant les différentes copies d’une même donnée [71]. Il existe deux stratégies de propagation des mises à jour : la stratégie impatiente (eager replication) [72]. et la stratégie paresseuse (lazy replication) [73]. Dans le premier cas, la mise à jour est appliquée sur toutes les copies en même temps, au sein d’une même transaction (le nœud traitant la transaction envoie des messages aux autres nœuds avant de procéder au commit). Alors que dans le second cas, la mise à jour est appliquée à une seule copie par la transaction originelle. Elle est propagée de manière asynchrone vers les autres copies. Dans [74], les auteurs proposent d’améliorer la disponibilité des bases de données en adaptant la stratégie impatiente. Ce choix est justifié par la possibilité de détection de conflits avant la fin de la transaction ce qui augmente le niveau de cohérence entre les nœuds. Leur proposition d’adaptation vise à réduire les messages (qui correspondent à des mises à jour) entre les nœuds. Pour cela ils proposent de transférer ces messages au sein d’une même transaction et ceci une fois les opérations de lecture en cours sont terminées.29 Dans [75], les auteurs proposent d’améliorer la disponibilité de données en adaptant la stratégie paresseuse. Ce choix est justifié par la rapidité de traitement des transactions. Normalement dans un processus de réplication, les opérations doivent être exécutées toutes dans le même ordre. Dans leur contribution, les auteurs décrivent un type d’opérations pouvant ne pas respecter l’ordre d’exécution donnant lieu à des meilleurs performance ceci sans altérer la cohérence des nœuds. Ils proposent trois types d’opérations (avec des exemples des opérations sur un système de messagerie, où les données sont répliquées) : • Opérations causales : l’exécution de l’une affecte l’exécution de l’autre. Par exemple : l’envoie et la lecture de messages. o Opérations forcées : elles sont ordonnées entre elles mais pas forcement par rapport aux autres opérations. Par exemple : l’ajout et la suppression d’un contact. o Opérations immédiates : elles sont exécutées en ordre par rapport à toutes les autres opérations. Par exemple : la suppression multiple. • Opérations non causales : elles n’ont aucune dépendance. Par exemple : la lecture d’un message m1 et celle d’un autre m2. Dans [61], les auteurs étudient les approches de la propagation des messages entre les nœuds afin d’assurer la disponibilité de données : • Dans l’approche de la réplication passive primaire-sauvegarde (Primary-Backup), un nœud est désigné comme étant primaire. Il reçoit la requête (d’interrogation ou de mise à jour) d’un client, l’exécute et propage le résultat aux autres nœuds (backup). Ces derniers interviennent en cas de défaillance au niveau de la copie primaire. L’avantage de cette approche est d’assurer que toutes les copies sont dans le même état. • Dans l’approche réplication active ou en chaine (Chain Replication), le client soumet sa requête à un des nœuds, cette requête est propagée en chaine d’un nœud à un autre. Chaque nœud exécute la requête et le dernier nœud transmet le résultat au client. L’avantage de cette approche est que n’importe quel nœud peut être interrogé. 2.3.4 Disponibilité)de)données)par)le)cache L’utilisation de caches de données sur le réseau Internet a suscité l’attention de différents travaux de recherche dans différents domaines : données du web [76][63][77], les systèmes de gestion de bases de données [78][79][80], les entrepôts de données [81][82][83] ainsi que les moteurs de recherche [84][85][86]. Dans [63], les auteurs ont dressé les avantages de l’utilisation du cache. Parmi ces avantages, nous trouvons l’amélioration de la disponibilité de données en cas d’une défaillance au niveau du fournisseur ou du réseau. Dans [58], les auteurs proposent une solution pour améliorer la disponibilité de données scientifiques utilisées par des chercheurs pour procéder à des calculs. Ils proposent d’utiliser les espaces disque disponibles sur leurs ordinateurs de bureau (au sein d’un réseau local LAN) pour cacher les données récupérées depuis des sources externes. Chaque ordinateur est considéré comme un nœud. Un de ces nœuds maintient des informations sur l’état des autres nœuds, la distribution des données cachées sur les nœuds et les informations sur la récupération des données (URI, protocoles de récupération etc. Le cache de données pour les services web a été étudié dans différents travaux. Dans [87], les auteurs proposent une architecture de progiciels pour cacher les réponses XML des web services. Dans [88], les auteurs estiment que la description WSDL des services web manque d’informations pour mettre en place un mécanisme de cache. Ils proposent une version étendue de WSDL pour définir les données qui doivent être cachées. Dans [89], les auteurs constatent que les 30 réponses XML des services web nécessitent une analyse (avec l’interface DOM par exemple) avant d’être exploitées. Ainsi, ils proposent de cacher le résultat de l’analyse (arbre DOM). D’autres travaux se sont intéressés au cache des résultats de services web dans les environnements mobiles où le cache permet de maintenir l’accès aux données même en cas de perte de connexion avec les fournisseurs des données. Dans [90], les auteurs présente une implantation d’un cache sur un dispositif mobile afin d’assurer la disponibilité de données en cas de déconnexion. Ils présentent ensuite des défis à traiter dans ce domaine : • Développer la sémantique des opérations offertes par le web service. Ces opérations sont hétérogènes. Il faut au moins (1) pouvoir identifier si une opération exécute une mise à jour, (2) savoir si des données obsolètes d’une opération restent acceptables pour l’utilisateur. • Maintenir la cohérence du cache. pendant la déconnexion du dispositif mobile, la cohérence ne peut pas être garantie fortement. En plus il faut prendre en compte des opérations des mises à jours qui affectent la cohérence de données dans le cache. Par exemple, supposons que le cache contient une liste de contacts. La demande de suppression d’un contact affecte la cohérence de la liste stockée dans le cache. Ainsi il faudrait mener des études qui permettent au cache de pouvoir invalider des données suite à l’exécution d’autres requêtes. • Étudier l’expérience de l’utilisateur, pour évaluer l’impact de la solution proposée. • En cas de déconnexion, comment le cache doit réagir lorsqu’il reçoit une nouvelle requête. Les auteurs proposent comment idée, d’étudier la possibilité d’une réponse par défaut adaptée à chaque requête. • Étudier et proposer des mécanismes de préchargement de données afin d’améliorer la disponibilité des données. Dans [91], les auteurs proposent un cache distribué pour améliorer la disponibilité des données dans les environnements mobiles. Les données sont cachées sur des terminaux mobiles. Chacun de ces terminaux met son cache à disposition des autres terminaux. L’architecture (cf. Figure 1016) du cache est basée sur l’attribution de rôles aux terminaux mobiles : Figure'10 :'Architecture'du'cache'distribué'proposé'dans'[91] • Nœuds de cache (Caching Nodes CNs) : ils stockent les résultats des requêtes. 16 Figure obtenue de [91]31 • Répertoires de requêtes (Request Directories RDs) : pour une requête donnée, ils indiquent les nœuds de cache qui contiennent sont résultat. • Les nœuds interrogateurs (Requesting Nodes RNs) : ce sont les terminaux qui émettent les requêtes et qui pourraient devenir ensuite des nœuds de cache s’ils sont amenés à stocker le résultat de la requête (au cas où aucun des autres nœuds de cache ne contient le résultat). • Proxys des caches (Proxy Caches PCs) : ils font office d’intermédiaires entre les nœud interrogateurs qui soumettent les requêtes et les autres terminaux et les fournisseurs de données. Cette proposition impose une bonne disponibilité matérielle des proxys des caches qui constituent un point central pour assurer la communication entre les terminaux et même avec les fournisseurs de données. En plus, ses bénéfices dépendent de la connectivité des terminaux mobiles. Les auteurs n’aborde pas dans leur proposition les problèmes liées aux remplacement et le rafraichissement des données du cache. Dans [92], les auteurs proposent un cache de navigateur associé à iMashup [93] : un outil de création de mashups exécutés côté client. Le cache sert à stocker, sur la machine de l’utilisateur, les données récupérées depuis les fournisseurs de données externes. Une entrée du cache a une durée de vie adaptative !. Celle ci est inversement proportionnelle à la fréquence d’accès à cette donnée, et proportionnelle au nombre de succès de cache lors de la demande d’accès. Elle est définie avec les formules suivantes : !"#$ = ! !×!!"_!"#$% ! !" si !"#$ > ! alors ! = !"#$ sinon ! = ! ℎ!"_!"#$% correspond au nombre des succès de cache avec un poids ! (dans l’implantation ! = 1000). ! !" est une fonction croissante par rapport à la fréquence d’accès !". Cette formule indique que pour une entrée du cache, (1) plus le nombre de succès de cache est élevé plus il faut augmenter la durée de vie, et (2) et plus la fréquence d’accès à une donnée est élevée, plus il faut diminuer la durée de vie. Dans [39], les auteurs présentent MACE un système de cache pour les données des mashups. Ils proposent un modèle de mashups (cf. sous-section 2.1.8), où chaque mashup est vu comme un arbre dont les nœuds sont des opérateurs (similaire à un « pipe » dans Yahoo! Pipes). Un arbre peut être commun à plusieurs mashups ou utilisé comme un sous-arbre dans un arbre d’un autre mashup. Les auteurs y intègrent un cache qui sélectionne dynamiquement le nœud dont les données produites doivent être cachées. Chaque nœud ! possède (1) une valeur de coût associée !"! qui correspond à la latence de son exécution et une valeur de coût cumulatif !!"! qui représente la somme définie par la formule suivante : !!"! = !"! + !"! ! !"# !" !"#$% !"#$ !" ! Le choix du nœud à cacher prend en compte la fréquence d’exécution du nœud et la fréquence des mises à jour : il est plus intéressant de cacher les données du nœud qui est le plus fréquemment exécuté et qui demande le moins de mises à jour. La différence de fréquence d’exécution entre les nœuds d’un même arbre vient du fait qu’un nœud (et ses nœuds fils) peut faire partie d’un autre arbre. Ainsi le nœud ! choisi est celui qui maximise la valeur de l’expression !"#! = !"!×!!"! − !"!×!!"! où !"! et !"! dénotent respectivement la fréquence d’exécution et la fréquence de mise à jour du nœud !. Si le cache ne peut pas contenir, dans son espace libre, les données produites par le nœud, alors les données d’un autre nœud (le suivant qui maximise 32 l’expression du !"# ) sont choisies pour être cachées. Les auteurs n’aborde pas dans leur proposition les problèmes liées aux remplacement et le rafraichissement des données du cache. 2.4 Conclusion Nous avons dressé un état de l’art des travaux sur les modèles des mashups, les systèmes d’exécution de mashups et leurs architectures ainsi que la disponibilité de données fraiches sur le web. L’étude des modèles et de certains outils de création de mashups nous a permis d’identifier les concepts nécessaires pour décrire un mashup. Nous avons remarqué que dans ces travaux, la définition du mashup n’est pas la même : certains ont défini le mashup comme étant un ensemble de mashlets alors que d’autres ont restreint la définition d’un mashup à un mashlet. D’un autre côté les outils de création de mashups qui permettent l’échange de données entre les mashlets, définissent les wirings comme des simples intermédiaires qui permettent le transfert de données. Nous trouvons que cette conception de wiring est pauvre. Ceux ci peuvent être enrichis pour permettre d’effectuer un mapping de données lors du transfert entre le mashlet envoyeur et le mashlet receveur : ceci rend le mashlet receveur indépendant du format de données envoyées par le mashlet envoyeur. En plus, nous trouvons que ces modèles n’intègrent pas la spécification des caractéristiques de la disponibilité de données dans les mashups. Lors de analyse des approches existantes pour améliorer la disponibilité de données sur le web, nous avons identifiée des solutions à base de réplication et à base de cache. Ces solutions sont difficilement applicables dans le contexte de mashups. En effet, la réplication doit être mise en place au niveau des fournisseurs de données qui sont autonomes ou bien au niveau du client de ces fournisseurs : le système d’exécution des mashups. Or, dans ce cas, il faut répliquer des données hétérogènes avec des systèmes d’interrogations spécifiques à ces données. Dans le contexte des mashups, les fournisseurs de données ne sont pas connus à l’avance (avant la création des mashups), ainsi pour chaque nouveau fournisseur identifié, il faut lui demander l’accès à ses données internes et à son systèmes d’interrogation pour les répliquer, ce que nous considérons comme non garanti. D’autre part, les solutions à base de cache sont adaptées à des applications construites par des développeurs : le choix des politiques de cache sont faites par des développeurs : ils décident quelles données et à quelles étapes de la composition des services il faut cacher. Or de telles décisions ne doivent pas être laissées aux constructeurs des mashups qui ont souvent des compétences limitées en programmation et ne maitrisent pas les aspects non fonctionnels de l’environnement de construction des mashups. Bien que la plateforme MACE propose de cacher les données des mashups, cependant le fonctionnement du cache est défini avec l’objectif de diminuer la latence de l’exécution des mashups et non pour assurer la disponibilité des données des mashups. D’autre part nous trouvons que dans la solution de cache de [92] l’estimation d’une durée de vie adaptative ne prend pas prendre en compte des facteurs comme l’ancienne valeur de la durée de vie, la date du dernier accès à la donnée et la comparaison d’une donnée récupérée à celle existante en cache. Dans toutes ces solutions il manque la prise en compte de la fraicheur de données. Dans le Chapitre 3, nous proposons un modèle de mashup basé sur les modèles de valeurs complexes [19]. Ce modèle nous permettra de spécifier les caractéristiques de la disponibilité de données dans le Chapitre 4. 33 Chapitre!3 MODELE%DE%MASHUPS Ce chapitre présente les concepts de notre modèle de mashups : Donnée, Activité, Mashlet, Wiring, et Mashup. Une activité peut être basique ou composite. Une activité basique décrit une tâche spécifique permettant d’accomplir un traitement de données (le filtrage, la projection, l’extraction, l’élimination de doublons, le tri, l’union). Ces activités sont coordonnées par des activités composites (Sequence, Foreach, Parallel). Les mashlets affichent des données produites par des activités. Tandis que les wirings définissent le flot de données entre les mashlets. Ils peuvent aussi, décrire le traitement des données nécessaire pour les délivrer sous le bon format aux mashlets destinataires. L’ensemble de ces concepts décrit des composants qui constituent des mashups. Dans le mashup ItineraryPlanner, présenté dans le Chapitre 1 (cf. Figure 1), ces concepts se présentent comme suit : • Les données sont : o récupérées depuis des services (fournisseurs de données : Google Maps, Yahoo! Weather et Google Places). Ces services sont autonomes et indépendants des mashups. o ou saisies par l’utilisateur (viles de départ de et de destination)… o ou traitées et échangés entre les mashlets (villes de passages sur l’itinéraire). • Les activités qui décrivent le traitement de ces données (extraction de données, filtrage…). • Les mashlets (Map, Weather, Restaurants) constituent les composants qui affichent les résultats produits par des activités sous-jacentes. Ces composants sont réutilisables. C’est à dire un mashlet peut être utilisé dans la définition de différents mashups. • Le transfert des données entre les mashlets se fait via des wirings (la liste de villes de passage de Map vers Weather, les coordonnées de la ville d’arrivée de Map vers Restaurants). Les wirings procèdent à la manipulation des données transférées afin de les livrer dans le bon format. • Le mashup ItineraryPlanner est constitué des mashlets Map, Weather, Restaurants et des wirings qui définissent le flot de données entre ces mashlets. La Figure 11 présente les concepts Mashup, Mashlet, Wiring et Activités sous la forme d’une pile. Chaque mashlet et wiring est associé à une activité (basique ou composite). Un mashlet est réutilisable : il peut faire partie de plusieurs mashups. Un wiring appartient au mashup qui contient les mashlets sous-jacents. 34 Figure'11 :'Pile'de'concepts'de'mashups Le chapitre est organisé comme suit. La section 3.1 présente la caractérisation des données des mashups. Les concepts Activités, Mashlet, Wiring, Mashup sont décrit respectivement dans les sections 3.2 à 3.5. Ces concepts sont illustrés avec des exemples décrivant le mashup ItineraryPlanner présenté dans le Chapitre 1. Enfin la section 3.6 conclut ce chapitre. 3.1 Données)de)mashups Nous avons besoin d’une représentation de données qui permet l’homogénéisation de données de mashups. Pour cela, nous adoptons une caractérisation de données basée sur les valeurs complexes. 3.1.1 Types)de)données Un domaine est un ensemble fini de valeurs. Nous considérons les domaines prédéfinies des chaines de caractères !, des booléens !, des entiers ℤ, des entiers naturels ℕ,! et! des! réels!ℝ.! Nous définissons le domaine des noms de types ! = !! , !! , … ⊆ ! et celui des noms des instances ! = !! ,!! , … ⊆ ! avec ! ∩ ! = ∅. Un type de valeurs complexes ! dénoté !, est défini par une paire ! ∶ !"#, où A est le nom du type (A ∈ !) et !"# est sa définition. Nous considérons les fonctions !"#$ et !"# pour accéder respectivement aux composants de la paire. Par exemple pour le type !"#$"%&!'%" ∶ ℤ , Mashups Mashlets / Wirings Activités m1# m3# m2# Mashup Mashlet Activité w1# m1 m2# m3# m2# Wiring consomme w1# Données Donnée est associé à 35 !"#$ !"#$"%&!'%" ∶ ℤ retourne !"#$"%&!'%" et !"# !"#$"%&!'%" ∶ ℤ retourne ℤ. Le nom est unique et il est utilisé pour référencer le type. L’ensemble ! de types de données est défini par les règles suivantes : • Si ! est un domaine alors ! ∶ ! est un type atomique. • Si ! est un type alors ! ∶ ! est un type liste. • Si !! ,!! , … ,!! sont des types tels que ∀ !,! !"#$ (!! ) ≠ !"#$ (!! )alors ! ∶ !! ,!! , … ,!! est un type tuple. Chaque !! est un type caractérisant un attribut de nom !"#$ (!! ). • Si !! ,!! , … ,!!,!!, … !! sont des types tels que ∀ !,! !"#$ (!! ) ≠ !"#$ (!! ), alors ! ∶ !!× !!× …× !! → !!× …×!! est un type fonction17. Pour ! ∈ 1. . ! , !! est un type paramètre d’entrée de nom !a!" !! . Pour ! ∈ !. . ! , !! est un type paramètre paramètre de sortie de nom !"#$ !! . Dans la suite de ce document, lorsque nous introduisons un type, dans un souci de simplification, nous pourrons omettre le nom du type. Cette simplification s’applique également aux paramètres des types fonction. Notons que l’ensemble de types ! est lui même un domaine. 3.1.2 Instances)des)types ! dénote l’ensemble des instances de type !. Cet ensemble est défini par induction de la manière suivante : • ! ∶ ! = ! ∶ ! ! ∈ ! . Les valeurs du domaine ! sont connues. • ! ∶ ! = ! ∶ !! , … , !! | ! ∈ ℕ !" ∀ 1 ≤ ! ≤ !, !! ∈ ! . • Pour un type tuple ! ∶ !! ,!! , … ,!! où !!est de la forme !! : d!"! , ! ∶ !! ,!! , … ,!! = ! ∶ !! : !! , !! : !! , … , !!: !! | ∀ ! ∈ 1. . ! , !! ∶ !! ∈ !! . • ! ∶ !!× !!× …×!! → !!× …×!! = !| ! !"# !"# !"#$%&"n !"#$ !" !"#$%&'() !"# !!× !!× …×!! → !!× …×!! . Nous définissons le domaine !"#" incluant toutes les instances possibles et le domaine !"#$%&'#( incluant toutes les instances possibles de type fonction. !"#" = ! !∈! !"#$%&'#( = ! ! !"# !" !"#$ !"#$%&"# !"#$%&'#( ⊂ !"#" Nommage des instances Chaque instance ! ∶ ! d’un type ! ∈ ! peut être nommée comme suit : ! = ! ∶ !. Où ! ∈ ! est le nom de l’instance. Exemples : La suite présente des exemples de types et instances utilisés dans le mashup ItineraryPlanner décrit dans le Chapitre 1 (cf. Figure 1). 17 Dans notre modèle, une fonction possède plusieurs paramètres de sortie ; ce type de fonctions a été introduit par Maurice Fréchet dans ses travaux sur l’analyse fonctionnelle.36 Le service Yahoo! Weather retourne la météo d’une localisation décrite sous format WOEID18 . Par exemple l’instance !"#$% ∶ 12724717 correspond à la localisation de la ville de Grenoble. Elle est de type !"#$% ∶ ℕ. Le type !"#$%& ∶ !"#$% ∶ ℕ décrit une liste de localisations de villes décrites sous format WOEID. Par exemple l’instance !"#$%& ∶ !"#$% ∶ 12724717, !"#$%: 12724728, !"#$% ∶ 12726958, woeid ∶ 20068148, !"#$% ∶ 20068141 correspond à la liste de localisations des villes de passage entre Grenoble et Paris dans ItineraryPlanner et décrites sous format WOEID. !"#$%&!%'$ ∶ !"#$ ∶ !, !"#$%&'%() ∶ !, !"!"#$$ ∶ !, !"#$%& ∶ ℝ décrit le type tuple !"#$%&!%'$ avec les attributs : le nom du restaurant, sa spécialité, son adresse et sa note. L’expression !"#$ = !"#$%&!%'$ ∶ 〈!"#$:"!"#1", !"#$%&'%():"!"#$ç!!"#", !""#$%% ∶ "!"1", !"#$%& ∶ 4.5〉 définit une instance de ce type nommée !"#$. L’itinéraire entre deux villes est décrit dans un type tuple, nommé routes19, donnée ci dessous. On y retrouve par exemple les attributs suivants : • Un tuple nommé legs (manches). Il contient des attributs indiquant la distance, la durée totale, les adresses départ et d’arrivée de l’itinéraire et les étapes (steps) de l’itinéraire sous la forme d’une liste. • Chaque étape contient des informations sur sa distance (distance), durée (duration), points de départ et d’arrivée (start_location et end_location) des instructions (html_instructions). Chacune est décrite sous la forme d’une chaine de caractère. routes : 〈 bounds : 〈 northeast : 〈 lat : ℝ, lng : ℝ 〉, southwest : 〈 lat : ℝ, lng : ℝ 〉 〉, copyrights : !, legs :!〈! distance : 〈 text : !, value : ℝ 〉, duration : 〈 text : !, value : ℝ 〉, end_address : !, end_location : 〈 lat : ℝ, lng : ℝ 〉, start_address : !, 18 Un identifiant WOEID (Where on Earth IDentifier) est un identifiant de référence assigné par Yahoo! Pour identifier des points géographiques sur la terre. 19 La définition du type routes est basée sur la structure du document JSON renvoyé par le service Google Maps37 start_location : 〈 lat : ℝ, lng : ℝ 〉, steps : [ step : 〈 distance : 〈 text : !, value : ℝ 〉, duration : 〈 text : !, value : ℝ 〉, end_location : 〈 lat : ℝ, lng : ℝ 〉, html_instructions : !, polyline : 〈 points : ! 〉, start_location : 〈 lat : ℝ, lng : ℝ 〉, travel_mode : ! 〉 ] 〉 〉 L’exemple suivant présente une partie d’une instance20 de ce type donnant l’itinéraire entre Grenoble et Paris, nommé !"#$%&'. !"#$%&' = routes : 〈 bounds : 〈 northeast : 〈 lat : 48.857240, lng : 5.724690000000001 〉, southwest : 〈 lat : 45.18839000000001, lng : 2.306130 〉 〉, copyrights : "Données cartographiques ©2012 GeoBasis-DE/BKG (©2009), Google", legs :!〈! distance : 〈 text : "574 km", value : 573623 〉, duration : 〈 text : "5 heures 21 minutes", value : 19284 〉, end_address : "Paris, France", 20 Le tuple !"!"#$% est similaire à l’objet JSON obtenu par invocation du service Google Maps : http://maps.googleapis.com/maps/api/directions/json?origin=Grenoble&destination=Paris&senso r=false&38 end_location : 〈 lat : 48.857240, lng : 2.35260 〉, start_address : "Grenoble, France", start_location : 〈 lat : 45.18839000000001, lng : 5.724690000000001 〉, steps : [ step : 〈 distance : 〈 text : "92 m", value : 92 〉, duration : 〈 text : "1 minute", value : 7 〉, end_location : 〈 lat : 45.188890, lng : 5.725610000000001 〉, html_instructions : "Prendre la direction \u003cb\u003enordest\u003c/b\u003e sur \u003cb\u003ePl. Victor Hugo\u003c/b\u003e vers \u003cb\u003eRue Paul Bert\u003c/b\u003e", polyline : 〈 points : "mzxrGib}a@g@gA{@oB" 〉, start_location : 〈 lat : 45.18839000000001, lng : 5.724690000000001 〉, travel_mode : "DRIVING" 〉, step : 〈…〉, …… ], 〉, …… 〉 3.1.3 Types)et)valeurs)d’instances Pour accéder aux types et aux valeurs des instances de la forme ! ∶ !"#$%, nous définissons les fonctions !"#$ et !"# de la manière suivante : • !"#$ ! ∶ !"#$% = !. Nous rappelons qu’un type ! ∶ !"# est référencé par son nom et qu’il est possible d’inférer le type ! ∶ !"# à partir de !. • !"# ! ∶ !"#$% = !"#$%. Par exemple, si ! dénote !"#$%& ∶ !"#$% ∶ 12724717, !"#$% ∶ 12724728, !"#$% ∶ 12724752, !"#$% ∶ 12726960, !"#$% ∶ 582081 , nous avons : • !"#$ ! = !"#$%& • !"# ! = !"#$% ∶ 12724717, !"#$% ∶ 12724728, !"#$% ∶ 12724752, !"#$% ∶ 12726960, !"!"# ∶ 582081 3.1.4 Opérations)sur)les)instances Chaque type possède un ensemble d’opérations qui définit le comportement de ses instances. Toute opération est d’un type fonction ∈ !"#$%&'#( , en considérant qu’elle a pour paramètres de types !! ,!! , … ,!! et pour signature !× !!× !!× …×!! → !!. Pour une instance ! de ! et 39 des instances !! ∈ !! , nous adoptons une notation pointée : !. !" !! , … , !! pour designer l’appel de l’opération !" sur l’instance ! avec les instances !! en paramètres d’entrée. Parmi les opérations sur les types, nous retrouvons des opérations qui définissent les relations d’ordre entre les instances d’un type ! comme !"##, !"#$%#", !"##$%&'()!, !"##$%&'()!, !"#$%#"!"#$%&' et !"#$%. Les types de ces opérations sont de la forme !×! → !. Ces opérations comparent les instances selon une des stratégies définies dans [94][95] : • Identité d’instance : comparer les identificateurs des instances. • Comparaison superficielle : comparer les valeurs des instances. • Isomorphisme (comparaison structurelle) : égalité si les structures sont isomorphes. • Comparaison profonde : comparer les valeurs des feuilles des instances. Nous définissons également l’opération !"#$%ℎ qui, pour une instance ! de type liste, retourne sa taille. Le type de !"#$%ℎ est de la forme ! → ℕ . L’appel de l’opération se fait avec la notation !. !"#$%ℎ (). Nous considérons aussi l’opération !"#$%& définie sur tous les types fonction pour réaliser l’exécution de leurs instances. Pour une fonction !, l’opération !"#$%& l’exécute avec des valeurs des paramètres données dans une liste d’instances. Elle retourne la valeur du paramètre de sortie correspondante de la fonction !. Elle est de type !"#$%&'#(× !"#$% ∶ !"#" → !"#" . Fonction !"#$%&'()* Nous définissons la fonction !"#$%&'()* qui pour chaque type retourne la liste des opérations qui définissent le comportement de ses instances. Elle est de type ! → !"#$%&'#( . 3.2 Activité Une activité consomme et produit des données. Elle peut être basique ou composite. Une activité basique décrit une tâche spécifique permettant d’accomplir un traitement de données. Une activité composite permet de coordonner les activités qu’elles soient basiques ou composites. La représentation graphique d’une activité est donnée dans la Figure 12. Figure'12 :'Représentation'graphique'd'une'activité Une activité est de type fonction. Nous considérons le domaine des activités ! ⊂ !"#$%&'#(. Notons que, dans notre modèle, certaines fonctions ne sont pas forcement des activités. Comme les fonctions définissant le comportement des instances d’un type : elle sont définies en tant qu’opérations (sous-section 3.1.4). 3.2.1 Activités)basiques Nous considérons un ensemble fini d’activités basiques comme l’extraction (Extract), le filtrage (Filter), l’élimination de doublons (Unique), le tri (Sort), l’union (Union) et l’annexe (Append). Ces activités sont présentées dans les sous-sections 3.2.1.1 à 3.2.1.6. 40 Les fournisseurs de données exportent des méthodes représentées par des activités. Des exemples de ces activités sont donnés au cours du chapitre lors du déroulement du scénario ItineraryPlanner. 3.2.1.1 Extract Une activité Extract retourne une valeur composante d’une instance ! d’un certain type !. Le résultat est construit à partir d’un chemin d’accès !"#ℎ. • Notation : !!"#! ! L’expression du chemin d’accès !"#ℎ est construite avec la règle suivante : !"#ℎ ∶= ! !. !"#ℎ ! ! ! ! . !"#ℎ Où ! y désigne le nom d’un type tandis que ! est un entier naturel. Validité du chemin par rapport à un type Pour un type ! donné, nous définissons !"#ℎ! ! comme étant l’ensemble des expressions de chemins d’accès !"!ℎ valides par rapport à !. Cet ensemble est définit comme suit : 1. Si !"#$ ! = ! alors !"#ℎ = ! ∈ !"#ℎ! ! . 2. Si ! est de la forme ! ∶ … , ! ! : !"#! , … et !"#ℎ′ ∈ !"#ℎ! ! ! : !"#! . alors !"#ℎ = !. !"#ℎ′ ∈ !"#ℎ! ! . 3. Si ! est de la forme ! ∶ ! ∶ !"# alors !"#ℎ = ! ! ∈ !"#ℎ! ! . 4. Si ! est de la forme ! ∶ ! ∶ !"# et !"#ℎ′ ∈ !"#ℎ! ! ∶ !"# , alors !"#ℎ = ! ! . !"#ℎ′ ∈ !"#ℎ! ! . • Type de l’activité : ! ∶ ! → !′ • Sémantique de l’activité : !!"#! ! est défini comme suit La valeur de !!"#! ! est donnée par les règles suivantes : 1. Si !"#$ ! = ! et !"#ℎ = ! alors !!"#! ! = !. 2. Si ! = ! ∶ … , ! ! : ! ! , … et !"#ℎ = !. !′ alors !!"#! ! = ! ! ∶ ! ! . Cette valeur est désignée avec la notation !. ! ! . 3. Si ! = ! ∶ … , ! ! : ! ! , … et !"#ℎ = !. ! ! . !"#ℎ′ alors !!"#! ! = !! ! .!"#! ! ! ! ∶ ! ! . Cette valeur est désignée avec la notation !. ! ! . !"#ℎ ! . 4. Si ! = ! ∶ ! ∶ !! , … , ! ∶ !! , … , ! ∶ !! et !"#ℎ = ! ! alors !!"#! ! = ! ∶ !! . Cette valeur est désignée avec la notation ! ! . 5. Si ! = ! ∶ ! ∶ !! , … , ! ∶ !! , … , ! ∶ !! et !"#ℎ = ! ! . !"#ℎ′ alors !!"#! ! = !!"#! ! ! ∶ !! . Cette valeur est désignée avec la notation ! ! . !"#ℎ ! . Exemple !!"#$%&.!"#$.!!"#$ ! .!"#$.!"#$"_!"#$%&"' !"#$%&' = !"#$"_!"#$%&"' ∶ !"# ∶ 45,18839000000001, !"# ∶ 5.724690000000001 . Cette valeur est désignée avec la notation !"#$%&'. !"#$. !"#$! 0 . !"#$. !"#$"_!"#$%&"!. Et !"#$%&' est l’instance du type !"#$%, tous les deux définis dans la sous-section 3.1.2. 41 3.2.1.2 Filter Une activité Filter prend en entrée une liste ! d’instances de ! de la forme ! ∶ ! ∶ !! , … , ! ∶ !! . Elle sélectionne les éléments de ! vérifiant une condition !"#$. Elle produit comme résultat une sous-liste de !. • Notation : !!"#$ ! • Type de l’activité : ! ∶ ! → ! L’expression de !"#$ est définie comme suit : Nous commençons par définir les termes avec les règles suivantes : ! Les valeurs constantes ! des instances ! ∶ ! sont des termes constants. Par extension, les termes constants dénotent aussi leurs valeurs. ! Si ! est un chemin d’accès alors ! est un terme (chemin). ! Si ! est une fonction d’arité n et que !1 … !" sont des termes alors ! (!1 … !") est un terme (fonction). Nous définissons des conditions basiques (basic conditions bcond) sur les termes (!1 et !2) avec les règles suivantes : !"#$% ∶= !1 ! !2 ! ∶= = ≠ < > ≤ ≥ ∈ ⊂ ⊆ Les opérateurs ensemblistes et de comparaisons doivent être compatibles avec les valeurs des termes. En plus, pour faciliter le calcul de la valeur booléenne d’une condition, nous définissons l’interprétation d’un terme !, par rapport à une instance !, dénoté ! !comme suit : ! Pour les termes constants !, ! ! = ! ! Pour les termes chemins !, ! ! = !!, !!, … , !! !" !!"#! ! !"# !"# !"#$% !" !" !"#$% ! ∶ ! ∶ !!, ! ∶ !! … , ! ∶ !! !"# !! ! !"#$# Dans le deuxième cas, le chemin d’accès aboutit à une valeur atomique dont la valeur est utilisée comme opérande de la condition. ! L’interprétation d’un terme fonction ! (!! … !!) par rapport à une instance ! est la valeur de l’instance résultat de l’application de la fonction ! sur les interprétations des termes !! … !! par rapport à ! : !(!! … !!) ! = !"# ! !! ! , … , !! ! . Une condition basique de la forme !1!"2 est considérée comme étant interprétable par rapport à un type ! si !1 et !2 sont interprétables par rapport à !. Une instance ! de ! satisfait cette condition basique, si !! !!!! !est vrai. Dans ce cas, nous notons ! ⊨ !!!!! . L’expression !"#$ est définie avec la grammaire ci dessous. !"#$ ∶= !"#$% ¬ !"#$ !"#$ ∧ !"#$ !"#$ ∨ !"#$ !"#$ !"#$% !!"ℎ !"#$% ∶= ∀ ∃42 Où !"#ℎ est un chemin d’accès qui identifie une liste et dont la grammaire est définie dans la sous-section 3.2.1.1. • Sémantique de l’activité !!"#$ ! = ! ∶ ! ∶ !! , … , ! ∶ !! ∀! ∈ !, ! , ! ∶ !! est présente dans ! et ! ∶ !! ⊨ !"#$ Satisfiabilité des expressions de filtrage La satisfiabilité des conditions de filtrage par rapport à une instance ! est définie avec les règles suivantes : 1. ! ⊨ ¬!"#$ si ! ⊨ !"#$ est faux. 2. ! ⊨ !"#$! ∧ !"#$! si ! ⊨ !"#$! et ! ⊨ !"#$! 3. ! ⊨ !"#$! ∨ !"#$! si ! ⊨ !"#$! ou ! ⊨ !"#$! 4. ! ⊨ !"#$ ∀ !"#ℎ!"# si pour chaque !! ∈ !"# !!"#!!"# ! , !! ⊨ !"#$ et !!"#!!"# ! est une liste 5. ! ⊨ !"#$ ∃ !"#ℎ!"# si pour un certain !! ∈ !"# !!"#!!"# ! , !! ⊨ !"#$ et !!"#!!"# ! est une liste Exemple Soit l’instance liste suivante : ! = !"#$%&!%'$# ∶ ∶ !"#$%&!%'$ ∶ !"#$ ∶ "!"#1", !"#$%&'%() ∶ "!"#$ç!"#$", !""#$%% ∶ "!"1", !"#$%& ∶ 4.5 , !"#$%&!%'$ ∶ !"#$ ∶ "!"#2", !"#$%&'%() ∶ "!"#$!%&&%", !""#$%% ∶ "!"2", !"#$%& ∶ 4 , !"#$%&!%'$ ∶ !!"# ∶ "!"#3", !"#$%&'%() ∶ "!"#$%$"&'", !""#$%% ∶ "!"3", !"#$%& ∶ 4.1 , !"#$%&!%'$ ∶ !"#$ ∶ "!"#4", !"#$%&'%() ∶ "!"#$%"&'(", !""#$%% ∶ "!"4", !"#$%& ∶ 3.6 L’expression !"#$%&!"# = !!"#$%&!%'$.!"#$%&!! ! produit : ! = !"#$%&!%'$# ∶ !"#$%&!%'$ ∶ !"#$ ∶ "!"#1", !"#$%&'%() ∶ "!"#$ç!"#$", !""#$%% ∶ "!"1", !"#$%& ∶ 4.5 !"#$%&!%'$ ∶ !"#$ ∶ "!"#2", !"#$%&'%() ∶ "!"#$!%&&%", !""#$%% ∶ "!"2", !"#$%& ∶ 4 , !"#$%&!%'$ ∶ !"#$ ∶ "!"#3", !"#$%&'%() ∶ "!"#$%$"&'", !""#$%% ∶ "!"3", !"#$%& ∶ 4.1 Lors de l’évaluation de !"#$%&'%(, la condition !"#$%&!%'$. !"#$%& ≥ 4 est évaluée sur tous les éléments de !. Nous traçons son évaluation sur le premier élément !! = !"#$%&!%'$ ∶ !"#$ ∶ "!"#1", !"#$%&'%() ∶ "!"#$ç!"#$", !!!"#$$ ∶ "!"1", !"#$%& ∶ 4.5 : !! ⊨ !"#$%&!%'$. !"#$%& ≥ 4 si !"#$%&!%'$. !"#$%&!! ≥ 4 !!. Nous avons !"#$%&!%'$. !"#$%&!! = !"# !!"#$%&!%'$.!"#$%& !! = !"# !"#$%& ∶ 4.5 = 4.5 (deuxième cas). Nous avons également 4 !! = 4 (premier cas). Donc !"#$%&!%'$. !"#$%&!! ≥ 4 !! est vraie. Ainsi !! vérifie la condition de filtrage de !"#$%&'%(. 43 3.2.1.3 Unique Une activité Unique prend en entrée une instance !, de type liste, contenant des instances !! d’un certain type !. Pour un chemin d’accès !"#ℎ ∈ !"#ℎ! ! 21 , Elle retourne une liste avec les doublons éliminés. • Notation : ! !"#! ! • Type de l’activité : ! ∶ ! → ! • Sémantique de l’activité : ! !"#! ! = !! , … !! tel que : o ∀!, !! ∈ ! ∄!! ,! ≠ ! !!"#! !! . !"#$% !!"#! !! si une opération d’égalité !"#$% est définie sur le type sous-jacent. o Sinon ! !"#! ! = ! Exemple Soit la liste d’instances ci dessous. Elle indique les villes intermédiaires entre Grenoble et Paris sous format WOEID22 . ! = !"#$%& ∶ !"#$% ∶ 12724717, !"#$% ∶ 12724717, !"#$% ∶ 12724717, !"#$% ∶ 12724728, !"#$% ∶ 12724728, !"#$% ∶ 12726958, !"#$% ∶ 12726958, !"#$% ∶ 20068148, !"#$% ∶ 20068141, !"#$% ∶ 20068141 L’expression !"#$!%&'()* ! = ! !"#$% ! retourne l’instance suivante : !"#$%& ∶ [!"#$% ∶ 12724717, !"#$% ∶ 12724728, !"#$% ∶ 12726958, !"#$% ∶ 20068148, !"#$% ∶ 20068141] 3.2.1.4 Sort Nous considérons le domaine !"#$" = "!"#$%&'%(","!"#$"%!&%'" . Une activité Sort prend en entrée une instance !, de type liste, contenant des instances !! d’un certain type ! et une instance ! de type atomique défini sur le domaine !"#$". Pour un chemin d’accès !"#ℎ ∈ !"#ℎ! ! 23 , Elle retourne une liste avec les valeurs !! ordonnées d’une manière croissante ou décroissante selon la valeur de !. • Notation : !!"#! !, ! • Type de l’activité : ! ∶ ! ×!"#$" → ! • Sémantique de l’activité : !!"#! !, ! = !! , … , !! tel que ∀!, !! ∈ ! et : o ∀! ≤ ! < !. !"#$%ℎ() ∈ ℕ, nous avons !! . !"##$%&'()! !! si ! = "!"#$%&'%(" et une opération !"##$%&'()! est définie sur le type sous-jacent. o ∀! ≤ ! < !. !"#$%ℎ() ∈ ℕ, nous avons !! . !"##$%&'()! !! si ! = "!"#$"%!&%'" et une opération !"##$%&'()! est définie sur le type sous-jacent. o Sinon !!"#! !, ! = !. 21 !"#ℎ est un chemin d’accès dont la grammaire est définie dans la sous-section 3.2.1.1. 22 La présence de doublons est due au fait de la présence de plusieurs étapes de l’itinéraire dans la même ville. 23 !"#ℎ est un chemin d’accès dont la grammaire est définie dans la sous-section 3.2.1.1. 44 Exemple L’expression !"#$%&' = !!"#$%&!%'$.!"#$%& !,"!"#$%&'%(" 24 retourne la liste suivante : !"#$%&!%'$# ∶ !"#$%&!%'$ ∶ !"#$ ∶ "!"#1", !"#$%&'%() ∶ "!"#$ç!"#$", !""#$%% ∶ "!"1", !"#$%& ∶ 4.5 , !"#$%&!%!" ∶ !"#$ ∶ "!"#3", !"#$%&'%() ∶ "!"#$%$"&'", !""#$%% ∶ "!"3", !"#$%& ∶ 4.1 , !"#$%&!%'$ ∶ !"#$ ∶ "!"#2", !"#$%&'%() ∶ "!"#$!%&&%", !""#$%% ∶ "!"2", !"#$%& ∶ 4 3.2.1.5 Append Une activité Append prend en entrée deux instances ! et ! de type liste contenant des instances de même type !. Elle retourne une liste qui est le résultat de l’union des deux listes. • Notation : ! ∪ ! • Type de l’activité : ∪∶ ! × ! → ! • Sémantique de l’activité : ! ∶ !! … !! ∪ ! ∶ !! … !! = ! ∶ !! … !!, !! … !! 3.2.1.6 Concatenate Une activité Concatenate prend en entrée deux instances ! et ! de type tuple. Elle retourne un tuple ayant les attributs de ! et !. • Notation : !⨁! • Type de l’activité : ⨁ ∶ ! ∶ !! , … , !! ×! ∶ !! , … , !! → !_! ∶ !! , … , !!, !! , … , !! Il est nécessaire que !"#$ !! ≠ !"#$ !! pour chaque ! et !. • Sémantique de l’activité : Pour un tuple ! de la forme ! ∶ !! ∶ !! , … , !! ∶ !! et un tuple ! de la forme ! ∶ !! ∶ !! , … , !! ∶ !! , nous avons : !⨁! = !_! ∶ !! ∶ !! , … , !! ∶ !!, !! ∶ !! , … , !! ∶ !! . 3.2.2 Activités)composites Les activités que nous venons de présenter permettent de manipuler les instances de données dans les mashups. La coordination de ces activités définit l’ordre de leur exécution. Elle est définie avec des activités composites qui sont de type fonction. Nous considérons les activités composites suivantes25 : Sequence, Foreach et Parallel. 3.2.2.1 Sequence Une activité Sequence est définie à partir de deux ou plusieurs activités !"#! , !"#! , … !"#! ∈ ! considérées comme des sous-activités de l’activité Sequence. • Notation : ≫ !"#!,!"#!,…!"#! • Type de l’activité : ≫∶ !!× !!× …×!! → !′!× !′!× …×!′ ! • Sémantique de l’activité : o ≫ !"#!,!"#!,…!"#! !! , … , !! = !"#! … !"#! !"#! !! , … , !! o !"#! est de type !!× !!× …×!! → !!.!× …×!!.! o ∀ 2 ≤ ! ≤ !, !"#! est de type ! !!! .!× …×! !!! .! → !!.!× …×!!.! o !"#! est de type ! !!! .!× …×! !!! .! → !′!× !′!× …×!′ ! 24 ! est la liste obtenue par filtrage dans la sous-section 3.2.1.2. 25 Le modèle peut être enrichi avec d’autres activités composites dans le futur selon les besoins qui peuvent apparaître. 45 Représentation graphique La Figure 13 donne la représentation graphique d’une activité Sequence ayant deux sousactivités. Figure'13 :'Représentation'graphique'd'une'activité'Sequence Exemple : Soit le fournisseur de données Google Places qui offre une activité !"#$"%#&'(&)# de type !"#$%&' ∶ !"# ∶ ℕ, !"# ∶ ℕ → !"#$%&!%'$# ∶ !"#$%&!%'$ Nous définissons une activité Sequence !"#$%"#$&'(&)$# = ≫ !"#$"%#&'(&)#,!"#$%&'%(,!"#$%&' . Elle est de type ≫ ∶ !"#_!"#$%&"' ∶ !"# ∶ ℕ, !"# ∶ ℕ → !"#$%&!%'$# ∶ !!"#$%&$'# . L’activité !"#$"%#&'(&)# récupère la liste de restaurants présents près du point géographique défini par le paramètre d’entrée !"#$%&' . Ensuite l’activité !"#$%&'%( (définie dans la sous-section 3.2.1.2) sélectionne les restaurants dont la note est supérieure à 4. Enfin l’activité !"#$%&' (définie dans la sous-section 3.2.1.4) trie la liste des restaurants selon la valeur de la note par ordre croissant. La représentation graphique de cette activité est donnée dans la Figure 14. Figure'14 :'Représentation'graphique'd’un'exemple'd’une'activité'Sequence 3.2.2.2 Foreach Une activité Foreach prend en entrée une instance de type liste. Elle est définie à partir d’une activité !"# ∈ ! considérée comme une sous-activité de l’activité Foreach. • Notation : ∞ !"# • Type de l’activité : ∞ ∶ ! → !′ • Sémantique de l’activité : ∞ !"# ! = !"# ! 1 , !"# ! 2 , … , !"# ! ! tel que !"# est de type ! → !′ L’activité exécute itérativement sa sous-activité sur les éléments de la liste ! retourne dans une liste les résultats des exécutions. L’exécution s’arrête avec la dernière exécution de la sousactivité sur le dernier élément de la liste !. act1% act2% Sequence46 Représentation graphique La Figure 15 présente une représentation graphique d’une activité Foreach et de sa sousactivité. La discontinuité des flèches représente le découpage le l’entrée de Foreach en valeurs et leur transmission à la sous-activité. Figure'15 :'Représentation'graphique'd'une'activité'Foreach Exemple : Soit le fournisseur de données Yahoo! Weather qui offre une activité !"#$"%#ℎ!! de type !"#$% ∶ ℕ → ! , où ! est un type décrivant des données météorologiques d’une certain ville identifiée par son identifiant !"#$%. Nous définissons une activité Foreach !"#"$%&$'#ℎ!" = ∞ !"#$"%#!!" . Elle est de type ∞ ∶ !"#$%& ∶ !"#$% ∶ ℕ → !"#"$%& ∶ ! . Elle retourne les données météorologiques des villes passées en entrée. Elle est représentée graphiquement dans la Figure 16. Figure'16 :'Représentation'graphique'd’un'exemple'd’une'activité'Foreach 3.2.2.3 Parallel Une activité Parallel est définie à partir de deux ou plusieurs activités !"#! , !"#! , … !"#! ∈ ! considérées comme des sous-activités de l’activité Parallel. • Notation : ∥ !"#!,!"#!,…!"#! • Type de l’activité : ∥∶ !!× !!× …×!! → !!.!× … × !!.!×!!.!× …×!!.!× … ×!!.!× … ×!!.! • Sémantique de l’activité : !"#! est de type !!× …×!! → !!.!× …× !!.! où 1 ≤ ! ≤ ! ≤ ! !"#! est de type !!× …×!! → !!.!× …×!!.! où 1 ≤ ! ≤ ! ≤ ! … !"#! est de type !!× …×!! → !!.!× …×!!.! où 1 ≤ ! ≤ ! ≤ ! ∥ !"#!,!"#!,…!"#! !! , … , !! = !"#! !! , … , !! , !"#! !!, … , !! , … , !"#! !! , … , !! Représentation graphique La Figure 17 donne la représentation graphique d’une activité Parallel et de ses sousactivités. act$ Foreach getWeather Foreach47 Figure'17 :'Représentation'graphique'd'une'activité'Parallel 3.2.3 Définition)du)domaine)des)activités)! Le domaine des activités ! ⊂ !"#$%&'#( est construit avec les règles suivantes : • Si ! est une activité proposée par un fournisseur de données, alors ! ∈ !. • Si ! est une activité Extract de type ! ∶ ! → !′ , alors ! ∈ !. • Si ! est une activité Filter, de type ! ∶ ! → ! , alors ! ∈ !. • Si ! est une activité Unique de type ! ∶ ! → ! , alors ! ∈ !. • Si ! est une activité Sort de type ! ∶ ! ×!"#$" → ! , alors ! ∈ !. • Si ! est une activité Append, de type ∪∶ ! × ! → ! , alors ! ∈ !. • Si ! est une activité Concatenate, de type ∶ ! ∶ !! , … , !! ⨁! ∶ !! , … , !! → !_! ∶ !! , … , !!, !! , … , !! , alors ! ∈ !. • Si !! , !! , … , !! ∈ !, alors l’activité Sequence ≫ !!,!!,…,!! ∈ !. • Si ! ∈ !, alors l’activité Foreach ∞ ! ∈ !. C • Si !"#! , !"#! , … !"#! ∈ !, alors l’activité Parallel ∥ !"#!,!"#!,…!"#! ∈ !. Dans ces règles, !, !′,!! , … , !!, !! , … , !! sont des types quelconques qui appartiennent à !. Le domaine ! est extensible : il peut être enrichi dans le futur selon les besoins qui peuvent apparaître. 3.3 Mashlet Un mashlet est une entité réutilisable d’un mashup. Il affiche des données sous la forme d’un widget. Ces données sont produites par une activité. Le type !"#ℎ!"# est définit comme suit : !"#ℎ!"# ∶ !"#$%&'(#)& ∶ !! ,!! , … ,!! , !"#$"#%&$' ∶ !! , !"#$%$#& ∶ ! . Une instance de !"#ℎ!"# définit les types des entrées et des sorties et l’activité qui exécute le traitement de données. Pour chaque instance ! de !"#ℎ!"#, !"#$%$#& est une fonction de type !!× !!× …×!! → !! . !"é!"#$%&' !"#ℎ!"# = !"# ∶ !"#, !"#$"! • !"# est une opération de type !"#ℎ!"# → ! ∶ ∅ . • !"#$"! est une opération de type !"#ℎ!"# → ! ∶ ∅ . act2 act1 Parallel actn … 48 La Figure 18 montre la représentation graphique d’un mashlet avec son activité. L’entrée et la sortie du mashlet sont liées à l’entrée et la sortie de l’activité. Figure'18 :'Représentation'graphique'd'un'mashlet Exemple Soit le fournisseur de données Google maps qui offre une activité !"#$%&#" de type26 !"#$%! ∶ !"#$" ∶ !, !"# ∶ ! → !"#$%& . Dans le mashup ItineraryPlanner, le mashlet !"# reçoit en entrée une donnée contenant une ville de départ et une ville de destination. L’activité sous-jacente est !"#$%&#"' qui récupère l’itinéraire du fournisseur de données Google Maps. !"# = !"#ℎ!"# ∶ !"#$%&'(#)& ∶ !"#$%& ∶ !"#$" ∶ !, !"# ∶ ! , !"#$"#%&$' ∶ !"#$%& , !"#$%$#& ∶ !"#$%&#"' . La représentation graphique de ce mashlet est donnée dans la Figure 19. Figure'19 :'Représentation'graphique'du'mashlet'Map Dans le mashup ItineraryPlanner, le mashlet !"#$ℎ!" reçoit en entrée la liste de localisations des villes de passage sur la route. L’activité sous-jacente est l’activité Foreach !"#"$%&$'#ℎ!" (définie dans la sous-section 3.2.2.2) qui pour chaque ville, récupère les données météorologiques (activité !"#$"%#ℎ!") depuis le fournisseur de donnée Yahoo! Weather. !"#$ℎ!" = !"#ℎ!"# ∶ !"#$%&'(#)& ∶ !"#$%& ∶ !"#$% ∶ ℕ , !"#!"#$%!& ∶ !"#"$%& ∶ ! , !"#$%$#& ∶ !"#"$%&$'#ℎ!" La représentation graphique de ce mashlet est donnée dans la Figure 20. 26 Nous rappelons qu’un type peut être référencé par son nom. Ce qui est le cas de l’utilisation du type !"#$%& ici et dont la définition est donnée à la page 3. Mashlet Ac#vity( input output Map Mashlet getRoutes(49 Figure'20 :'Représentation'graphique'du'mashlet'Weather 3.4 Wiring Un wiring est une entité du mashup qui décrit le flot de données entre deux mashlets. Dans notre modèle, les wirings ne décrivent pas qu’un simple transfert de données entre mashlets : ils peuvent aussi, intégrer une transformation des données pour les délivrer sous le bon format aux mashlets destinataires. Cette transformation définie avec une activité sous-jacente. Un wiring est représenté par un type tuple : !"#"$% ∶ !"#$%&'#( ∶ ! , !"#$"#%&$' ∶ !′ , !"#$"% ∶ !"#ℎ!"# , !"#"$%"! ∶ !"#ℎ!"# , !"#$%$#& ∶ ! . Une instance de !"#"$% définit les types des entrées et des sorties, les mashlets envoyeur (!"#$"%) et receveur (!"#"$%"!) et l’activité qui exécute le traitement de données. Pour chaque instance ! de !"#"$%, nous avons : • L’entrée du wiring est du même type que la sortie de l’instance de !"#ℎ!"# définie dans l’attribut !"#$"% : !"# !. !"#$%&'#( = !"# !"# !. !"#$"% . !"#$"#%&$' • !"#$%$#& est une fonction de type ! → !′ . !"é!"#$%&' !"#"$% = !"# ∶ !"#$ℎ, !"#, !"#$%&'ℎ • !"#$ℎ est une opération de type !"#"$% → ! ∶ ∅ . • !"# est une opération de type !"#"$% → ! ∶ ∅ . • !"#$%&'ℎ est une opération de type !"#"$% → ! ∶ ∅ . Le comportement d’un Wiring est décrit comme suit : il (1) prend les données (!"#$ℎ) en entrée du mashlet envoyeur, (2) les manipule (!!"), en exécutant un processus de transformation de données (défini par l’attribut !"#$%$#& ), pour (3) envoyer le résultat (!"#$%&'ℎ) en sortie au mashlet receveur. La Figure 21 montre la représentation graphique d’un wiring avec son activité. L’entrée et la sortie du wiring sont liées à l’entrée et la sortie de l’activité. getWeather( Weather Mashlet Foreach50 Figure'21 :'Représentation'graphique'd'un'wiring Exemple Dans le mashup ItineraryPlanner, un wiring est nécessaire pour transmettre les villes de passages du mashlet !"# au mashlet !"#$ℎ!". Cependant, dans le mashlet !"#, une ville est décrite comme une paire de longitude et de latitude. D’un autre côté, le mashlet !"#$ℎ!" nécessite qu’une ville soit représentée par un identifiant WOEID. Pour cela le wiring doit procéder à une transformation entre les deux formats. La Figure 22 présente la représentation graphique du wiring !"#2!"#$ℎ!" entre les mashlets !"# et !"#$ℎ!". Soit un fournisseur de données qui offre une activité !"#$%&'( de type !"#$%&' ∶ !"# ∶ ℝ, !"# ∶ ℝ → !"#$% ∶ ℕ . 1. Le wiring prend en entrée la sortie du mashlet !"# : l’itinéraire entre les deux villes de type !"#$%&. L’activité (définie dans l’attribut !"#$%$#&) commence par extraire les villes de passage des étapes de l’itinéraire. Dans la Figure 22, pour des raisons d’espace, nous représentons cette tâche avec une seule activité ExtractRouteCities qui est une activité Sequence. Elle est composée comme suit : a. L’activité !"#$%&#'#!() est une fonction dont la signature est !"#$%& → !"#$!. Le chemin d’accès correspondant est !"#ℎ = !"#$%&. !"#$. !"#$!. Elle retourne la liste des étapes. b. Pour chaque étape de type !"#$. Il faut extraire les coordonnées géographiques du point de départ avec l’activité !"#$%&#'(#) dont la signature est !"#$ → !"#$!_!"#$%&"'. Le chemin d’accès correspondant est !"#ℎ = !"#$. !"#$"_!"#$%&"'. c. Une activité Foreach permet d’extraire les points géographiques de toutes les villes étapes : !"#$%&#'(#(!) = ∞ !"#$%&#'(#) d. Une activité Sequence permet de coordonner les activités : !"#$%&#'()#!*+#+!, = ≫ !"#$%&#'#!(), !"#$%&#'(#(!) 2. Pour chaque paire (longitude, latitude) un service est appelé pour récupérer les différentes descriptions géographiques du lieu (activité !"#$%"&' ). L’identifiant WOEID en est extrait (activité !"#$%&#'()*+ ). Ces activités sont coordonnées avec des activités Sequence et Foreach : !"#$%&'""( = ∞ ≫ !"#$%"&', !"#$%&#'()!" 3. Ensuite, il faut éliminer les doublons27 avec l’activité Unique !"#$!%&'()* décrite dans la soussection 3.2.1.3. 4. Les activités !"#$%&#'()!"#$!$"%, !"#$%& et !"#$!%&'()* sont coordonnées avec une activité Sequence !"#2!"#$ℎ!"#$% = ≫ !"#$%&#'()#!*+#+!,,!"#$%&'""(,!"#$!%&'()* En sortie le wiring !"#2!"#$ℎ!" transmet au mashlet !"#$ℎ!" la liste de localisations des villes décrites sous le format WOEID. Il est modélisé ainsi : !"#2!"#$ℎ!" = !"#"$% ∶ !"#$%&'#( ∶ !"#$%& , !"#$"#%&$' ∶ !"#$%& ∶ !"#$% ∶ ℕ , !"#$"! ∶ !"#, !"#"$%"! ∶ !"#$ℎ!", !"#$%$#& ∶ !"#2!"#$ℎ!"#$% . 27 La présence de doublons est due au fait de la présence de plusieurs étapes de l’itinéraire dans la même ville. Wiring Ac#vity( input output 51 Figure'22 :'Représentation'graphique'du wiring'entre'les'mashlets'Map'et'Weather 3.5 Mashup Un mashup est un ensemble de mashlets et de wirings. Les wirings définissent le flot de données entre les mashlets du mashup. Un mashup définit les types des ses paramètres d’entrées !"#$%&'(#)&, l’ensemble de ses mashlets !"#ℎ!"#$ et de ses wirings !"#"$%&. Il définit également un ensemble de propriétés comme la fréquence d’exécution du mashup, la définition des durées de vie (fixées en nombre d’heures, etc.) des données caractérisées par les noms de leurs types. Il est représenté par un type tuple28 : !"#ℎ!" ∶ 〈!"#$%&'!"#$ ∶ !! ,!! , … ,!! , !"#ℎ!"#$ ∶ !"#ℎ!"# , !"#"$%& ∶ !"#"$% , !"#!$"%&$' ∶ !"#$%#&'( ∶ ℕ, !!"# ∶ !"#"$$%&'( ∶ !"#"$%&'(")' ∶ !,!!" ∶ ℕ 〉 Une instance de !"#ℎ!" définit les types des entrées du mashup, les mashlets et les wirings qui constituent le mashup. !"é!"#$%&' !"#ℎ!" = !"# ∶ !"#$%&'ℎ!"#$%&, !"# !"# et !"#$%&'ℎ!"#$%& sont des opérations de type est !"#ℎ!" → ! ∶ ∅ . Le mashup ItineraryPlanner présenté dans le Chapitre 1 est défini de la façon suivante : !"#$%&'&()*'$$%& = !"#ℎ!" ∶ !"#$%&'(#)& ∶ !"#$" ∶ !, !"# ∶ ! , !"#ℎ!"#$ ∶ !"#, !"#$ℎ!", !"#$%&!%'$# , !"#"$%& ∶ !"#2!"#$ℎ!", !"#2!"#$%&'%($ , !"#!$"%&$' ∶ !"#$%#&'( ∶ 4,!!"# ∶ !"#"$$%&'( ∶ !"#"$%&!"#$! ∶ "!"#$%",!!" ∶ 720 , !"#"$$%&'( ∶ !"#"$%&'(")' ∶ "!"#$ℎ!"",!!" ∶ 6 , !"#"$$%&'( ∶ !"#"$%&'(")' ∶ "!"#$%",!!" ∶ 720 , . Où le mashlet !"#$%&'%($# et le wiring !"#2!"#$!"#!$% sont définis d’une manière similaire que les autres mashlets et wirings définis dans les sections précédentes. Ils sont explicités dans la Figure 23. Celle ci montre la représentation graphique de tous les composants du mashup !"#$%&'&()*'$$%&. Les mashlets !"# et !"#$ℎ!" et le wiring !"#2!"#$ℎ!" furent exposés dans les sections précédentes de ce chapitre. Dans cette figure, nous montrons aussi le mashlet !"#$%&!%'$# qui fournit la liste des restaurants dans la ville de destination. L’attribut !"#$%$#& correspondant est l’activité !"#$%"#$&'(&)$# présentée dans la sous-section 3.2.2.1. Un wiring !"#2!"#$%&'%($ est nécessaire pour transférer la paire (longitude, latitude) de la ville de destination depuis le mashlet !"# vers le mashlet !"#$%&!%'$# (via une activité Extract). 28 Nous rappelons que ! est le domaine des noms de types défini dans la sous-section 3.1.1 Extract Route+ Ci.es+ Foreach Map2Weather Wiring Extract WOEID+ Sequence getWOEID+ Sequence Unique WOEID+52 Figure'23 :'Représentation'graphique'du'mashup'ItineraryPlanner53 3.6 Conclusion Ce chapitre a présenté les concepts de notre modèle de mashup. Nous avons adopté un modèle de données basé sur les valeurs complexes. Des activités basiques décrivent la manipulation des données de mashups (le filtrage, la projection, l’extraction, l’élimination de doublons, le tri, l’union et l’annexe). Elle sont coordonnées par des activités composites (Sequence, Foreach, Parallel). Les activités sont utilisées par des mashlet et des wirings. Les mashlets affichent des données produites par des activités tandis que les wirings coordonnent l’exécution des mashlets. Dans notre modèle, les wirings ne décrivent pas qu’un transfert de données entre mashlets. Ils peuvent aussi, décrire le traitement des données pour les délivrer sous le bon format aux mashlets destinataires. Ces concepts décrivent des entités qui forment des mashups. Chacun de ces concepts était illustré par une représentation graphique qui sert dans la description des activités et de la coordination des mashlets. Les composants du mashup ItineraryPlanner ont été définis selon les concepts du modèle présenté et ils ont été illustrés selon la représentation graphique proposée.55 Chapitre!4 EXECUTION)DE)MASHUPS)AVEC%DISPONIBILITE% DE#DONNEES Ce chapitre présente le processus d’exécution de mashups avec disponibilité de données. L’exécution d’un mashup repose sur la disponibilité de données. Celle ci peut être réduite ou altérée à cause d'une panne au niveau du fournisseur de données ou d’une restriction de nombre de requêtes imposée par ce dernier. Ceci entraîne le dysfonctionnement du mashup. Nous avons constaté dans le Chapitre 2 que les techniques actuelles de disponibilité de données ne sont pas adaptées à des applications comme les mashups. Nous avons constaté, également, que parmi le peu de travaux qui se sont intéressés à la disponibilité des données des mashups, le problème de la fraicheur des données disponibles n’est pas abordé. Pour cela nous proposons un processus pour assurer la disponibilité de données. Ce processus permet également (1) de définir les données dont la disponibilité n’est plus à assurer et (2) d’assurer la fraicheur de données rendues disponibles. Le scénario ItineraryPlanner est utilisé comme exemple pour illustrer le processus d’exécution de mashups. Nous rappelons qu’il affiche l’itinéraire entre deux villes (mashlet !"#), les données météorologiques dans les villes de passage (mashlet !"#$ℎ!") et une liste de restaurants situés dans la ville d’arrivée (mashlet !"#$%&!%'$#). Les wirings !"#2!"#$ℎ!! et !"#2!"#$%&'%($# définissent le flot de données entre les mashlets. Des activités définissent le traitement des données dans les mashlets et les wirings. Le chapitre est organisé comme suit : la section 4.1 présente les principaux éléments de l’exécution d’un mashup. Ensuite, la section 4.2 décrit notre proposition pour assurer la disponibilité de données lors de l’exécution des mashups. Cette solution est à base de fonctions que nous introduisons d’une façon orthogonale au processus d’exécution de mashups. Elles permettent d’améliorer la disponibilité des données de mashups et d’assurer leur fraicheur. Enfin, la section 4.3 conclut ce chapitre.56 4.1 Exécution d’un)mashup Un mashup est vu comme une instance du modèle décrit dans le Chapitre 3. L’exécution d’un mashup (cf. Figure 24) déclenche les exécutions de mashlets et de wirings sous-jacents. Figure'24 :'Diagramme'd’activité UML'de'l’exécution'd’un'mashup57 Ces exécutions partagent leurs données à travers un espace mémoire (privée au mashup). Celui ci est partagé en lecture et en écriture. Ainsi les mashlets, les wirings et les activités d’un mashup partagent leurs données par des lectures et des écritures concurrentes. Le contenu de cet espace est supprimé, une fois l’exécution du mashup achevée. L’ordre des exécutions des mashlets et des wirings est représenté à travers un graphe dirigé qui constitue le plan d’exécution du mashup appelé graphe de mashup. Les nœuds de ce graphe correspondent aux wirings et mashlets du mashup. Un graphe de mashup est un quadruple !, !, !, !"#$" , où : • ! est un ensemble de nœuds mashlets. • ! est un ensemble de nœuds wirings. • ! ⊂ !×! ∪ !×! est un ensemble d’arcs construits ainsi : ∀ ! ∈ !, ∃ !! , !! ∈ ! tel que !! , ! , !, !! ∈ !. • !"#$" ⊆ ! est un ensemble de nœuds de départ. Par exemple, le graphe du mashup ItineraryPlanner est donné dans la Figure 25. Figure'25 :'Graphe'du'mashup'ItineraryPlanner L’exécution du mashup utilise le graphe pour réaliser l’exécution des mashlets et des wirings le composant, par exécution des activités correspondantes (voir sous-sections 4.1.2 et 4.1.3). Le graphe est parcouru de manière classique : un nœud est visité si tous ses prédécesseurs ont déjà été visités. La Figure 26 donne une vision globale de l’exécution du mashup ItineraryPlanner. Les numéros, dans le graphe, indiquent un ordre possible, des exécutions des nœuds, défini lors du parcours du graphe. Chaque exécution d’un nœud (mashlet et wiring) du graphe déclenche l’exécution de l’activité correspondante (cf. sous-sections 4.1.1 à 4.1.3). Les sections suivantes décrivent les processus d’exécution de mashlets et de wirings. Comme ces deux processus exécutent tous les deux des activités, nous commençons par préciser l’exécution de ces activités. 4.1.1 Exécution)d’une)activité Une activité est représentée sous la forme d’un arbre. Les feuilles d’un arbre d’activités correspondent à des activités basiques, alors que les nœuds intermédiaires correspondent à des activités composites (cf. le modèle de mashups Chapitre 3). Un arbre d’activité est définie comme suit : mashlet( Weather wiring map2Restaurants mashlet( Map mashlet( Restaurants wiring map2weather(58 • Soit ! l’ensemble des activités basiques et ℭ celui des activités composites • Un arbre est constitué : o Soit d’une feuille ! ∈ ! o Soit d’une racine ! ∈ ℭ et d’un ou plusieurs arbres disjoints s! , … , s! appelés arbres fils. On le note !, s! , … , s! . Figure'26 :'Exécution'du'mashup'ItineraryPlanner Par exemple, l’arbre de l’activité du wiring !"#2!"#$ℎ!" (cf. section 3.4) est représenté dans la Figure 27. Cette activité extrait (séquence d’activités Extract) les villes de passages sous format (longitude, latitude). Ensuite pour chaque ville (boucle Foreach) un service est appelé (via le nœud Retrieve) pour procéder à la conversion en format WOEID. Ensuite, la valeur entière est extraite (Extract). Enfin les doublons sont éliminés (Unique). Figure'27 :'Arbre'de'l’activité du'wiring'!"#$%&"'(&) Exécution du graphe : parcours des nœuds mashlet( Weather wiring map2Restaurants mashlet( Map mashlet( Restaurants wiring map2weather( 1 2 3 4 5 Map Mashlet getRoutes( getWeather( Weather Mashlet Foreach Sequence' Sequence' Retrieve' Foreach' Unique' Sequence' Extract' Foreach' Extract' Extract'59 L’exécution de l’activité consiste à parcourir l’arbre selon une stratégie en profondeur préfixe [96]. C’est un parcours récursif qui lors de la visite d’un nœud n, continue la visite en parcourant les sous-arbres de gauche à droite. L’exécution d’activités est une phase commune aux processus d’exécutions de mashlets et de wirings. La Figure 28 présente le processus d’exécution du mashup ItineraryPlanner tout en prenant en compte la représentation des arbres d’activités. Figure'28 :'Exécution'du mashup ItineraryPlanner' Chaque nœud possède son propre tampon. Celui ci stocke les adresses des valeurs entrée/sortie de l’activité sous-jacentes. Ces valeurs sont stockées dans l’espace mémoire partagé. Dans la suite de cette sous-section, nous allons décrire le nœud d’une activité basique et à titre d’exemple celui de l’arbre de l’activité composite Sequence. 4.1.1.1 Activité basique Une activité basique est représentée par un nœud feuille (Figure 29) dans un arbre d’activités. Le nœud contient les paramètres de l’activité sous-jacente, par exemple : condition de filtrage, expressions de chemins d’accès. Figure'29 :'Composition'd'un'nœud'd'une'activité'basique L’exécution d’une activité basique (cf. Figure 30) commence par la lecture de la valeur de l’entrée de l’activité. Celle ci est écrite dans la mémoire partagée et son adresse est indiquée dans Exécution du graphe : parcours des nœuds Retrieve' Mashlet Map Foreach' Retrieve Mashlet Weather entrée& sor)e& Tampon Nom de l’activité Paramètres de l’activité 60 le tampon de l’activité. La deuxième phase correspond à l’exécution de l’opération sous-jacente : filtrage extraction, élimination de doublons… Ces opérations sont proposées dans la plupart des langages de d’interrogation de données. Enfin le résultat de l’exécution est écrit dans la mémoire partagée à l’adresse indiqué dans le tampon de l’activité. Figure'30 :'Diagramme'd’activité'UML'du'processus'd’exécution'd'une'activité'basique Cas(des(activités(proposées(par(des(fournisseurs(de(données Nous introduisons le nœud de type Retrieve (cf. le diagramme de communication de la Figure 31) pour lancer l’exécution une activité proposée par un fournisseur de données et indiquée dans les paramètres du nœud. Figure'31 :'Diagramme'de'communication'entre'le'nœud'Retrieve et'le'fournisseur'de'données L’exécution d’un nœud Retrieve envoie les valeurs des paramètres d’entrée (écrites dans le champ « entrée ») d’une activité proposée par un fournisseur de données et demande son exécution. Le résultat reçu est stocké dans l’espace mémoire partagé. L’adresse de ce résultat est indiquée dans le champ « sortie » du tampon du nœud. 4.1.1.2 Activité)Sequence Pour une activité Sequence ≫ !"#!,!"#!,…!"#! , l’arbre de nœuds correspondant est présenté dans la Figure 32, où « Nœud 1 », « Nœud 2 », … et « Nœud n » sont les nœuds représentant les arbres correspondants aux sous-activités !"#! , !"#! , …, et !"#!. Les nœuds échangent les adresses des données stockées dans la mémoire partagée. Retrieve 1 : Valeurs des Paramètres d’entrée 2 : Résultat61 Figure'32 :'Arbre'de'nœuds'd’une'activité'Sequence L’exécution d’une activité Sequence (cf. Figure 33) déclenche l’exécution de ses sousactivités d’une façon séquentielle. Pour chaque sous-activité, elle (1) commence par écrire l’adresse de l’entrée dans le tampon. Pour la première sous-activité, l’entrée correspond à celle de l’activité Sequence alors que pour chacune des autres sous-activités, elle correspond à la sortie de la sousactivité précédente. Ensuite elle (2) déclenche l’exécution de la sous-activité. Enfin (3), elle récupère l’adresse de la sortie pour l’écrire dans le champ « entrée » du tampon de la sous-activité suivante. La valeur du champ « sortie » du tampon de la dernière sous-activité est écrite dans le champ « sortie » du tampon du nœud parent. Figure'33 :'diagramme'd’activité UML du'processus'd’exécution'd'une'activité'Sequence Valeur'de'l’input' de'Sequence Valeur'de'l’output' du'nœud'1'(input' du'nœud'2)' Valeur'de'l’output' du'nœud(n71)' (input'du'nœud'n)' Valeur'de'l’output' de'Sequence Valeur'de'l’output' du'nœud'2'(input' du'nœud'3)' Mémoire partagée Nœud 1 Input' Output' Nœud n Sequence Input' Output' Input' Output' Nœud 2 Input' Output' … 62 4.1.2 Exécution)d’un)mashlet La Figure 34 présente les phases du processus d’exécution d’un mashlet et montre qu’il déclenche principalement l’exécution de l’activité sous-jacente et la génération d’une visualisation définissant l’affichage graphique de la sortie du mashlet. Chaque mashlet possède son propre tampon. Celui ci stocke les adresses des valeurs de ses entrée/sortie. Ces valeurs sont stockées dans l’espace mémoire du processus exécutant le mashup. Les valeurs des entrées de certains mashlets sont connues dès le début de l’exécution du mashup comme les villes de départ et d’arrivée dans le mashlet !"# du le mashup ItineraryPlanner. Les adresses de ces valeurs sont écrites dans le tampon du mashlet avant le parcours du graphe. C’est le processus exécutant le mashup qui s’occupe de cette tâche. Les valeurs des entrées d’autres mashlets sont connues au cours de l’exécution du mashup (parcours du graphe) et transférées par des wirings (voir sous-section 4.1.3) : par exemple, la liste de villes de passages comme entrée du mashlet !"#$ℎ!" obtenue via le wiring !"#2!"#$ℎ!". Les premières phases du processus d’exécution d’un mashlet correspondent au transfert de l’adresse de l’entrée du mashlet à son activité sous-jacente ainsi qu’à l’exécution de cette activité d’activités (cf. sous-section 4.1.1). Ensuite, l’adresse de la sortie de l’activité est écrite dans le tampon du mashlet. Cette adresse peut être lue par des wirings afin qu’ils accèdent à la donnée, la manipuler, et la transférer à d’autres mashlets : par exemple les données de l’itinéraire du mashlet !"# sont manipulées par le wiring !"#2!"#$ℎ!" afin de transférer la liste de villes de passage au mashlet !"#$ℎ!". Enfin, la dernière phase consiste en la génération d’une visualisation graphique de ces données. Cette visualisation est affichée sur le terminal de l’utilisateur sous la forme d’un widget. Figure'34 :'Diagramme'd’activité UML'de'l’exécution'd’un'mashlet 4.1.3 Exécution)d’un)wiring Le processus d’exécution d’un wiring est constitué de trois phases (cf. Figure 35). La première phase consiste en la récupération de l’adresse de la valeur de la sortie du mashlet envoyeur : par exemple le wiring !"#2!"#$ℎ!" récupère l’adresse des les données de l’itinéraire 63 depuis le tampon du mashlet !"#. La deuxième phase correspond à l’exécution de l’activité correspondante. Enfin, lors de la phase de Livraison, les données produites à la fin de la phase précédente sont livrées au mashlet receveur (écriture de l’adresse dans le tampon du mashlet) : par exemple le wiring !"#2!"#$ℎ!" écrit l’adresse de la liste de villes de passage dans le tampon du mashlet !"#$ℎ!". Figure'35 :'Diagramme'd’activité'UML'de'l’exécution'd’un'wiring 4.2 Disponibilité)des)données)dans)les)mashups Nous proposons une approche pour assurer la disponibilité de données récupérées auprès des fournisseurs de données. Ces données sont stockées dans une structure que nous nommons !"#$%. Nous introduisons dans l’arbre d’activités une nouvelle famille de nœuds : Retrieve++. A la différence d’un nœud Retrieve, un nœud Retrieve++ vérifie la présence des données recherchées dans le !"#$% avant de lancer l’exécution de l’activité sous-jacente proposée par un fournisseur de données. Le processus proposé permet de rendre, disponibles, les données récupérées. Ce processus est illustré dans la Figure 36. Figure'36':'Diagramme'de'communication UML entre'le'nœud'Retrieve++,'le'fournisseur'de'données'et' le !"#$% La Figure 37 qui donne une vision globale de la phase d’exécution du mashup ItineraryPlanner avec intégration du processus de disponibilité de donnée. 64 Figure'37 :'Exécution'd’un'mashup'avec'disponibilité'de'données Dans cette section, nous présentons un diagramme d’activité décrivant le processus d’exécution d’un nœud Retrieve++. Ce diagramme est présenté dans plusieurs figures (Figure 39, Figure 40 et Figure 42). Il est dans un premier temps minimaliste. Ensuite, il sera enrichi tout au long de cette section lors de la présentation des fonctionnalités du processus de disponibilité de données. Il s’intègre au diagramme de la Figure 24, en faisant partie du processus de l’exécution des activités. Lorsque le !"#$% devient saturé (capacité maximale atteinte), une partie des données est supprimée pour libérer de l’espace et pouvoir stocker des nouvelles données. Les données des mashups sont dynamiques et ont une durée de vie limitée. Pour cela ces données doivent être rafraichies en anticipant les nouvelles demandes de récupération lors d’une exécution ultérieure d’un mashup. Ainsi, notre processus de disponibilité est basé sur des fonctions de gestion, de remplacement et de rafraichissement de données du !"#$% (sous-sections 4.2.2, 4.2.3 et 4.2.4). Celui ci est administré par un administrateur qui doit faire certains choix au niveau des fonctions du !"#$%. Ces choix seront explicités au cours des sous-sections qui suivent. Ces fonctions sont orthogonales par rapport au processus d’exécution de mashups réalisé par un moteur de mashups. La section 4.2.5 récapitule le processus d’exécution d’un nœud Retrieve++ avec exploitation du !"#$% et des fonctions associées. Comme ces fonctions opèrent sur des données rendues disponibles, nous commençons par préciser l’organisation de ces données.65 4.2.1 Organisation)de)données du)!"#$% Les données sont organisées, au sein du !"#$%, sous la forme d’items. Un item est un tuple qui possède les attributs « id » et « object ». Il est identifié avec la valeur de son attribut « id ». Dans le contexte des mashups, l’attribut « id » correspond à une activité et les valeurs de ses paramètres d’entrée (sous la forme d’une liste de valeurs) alors que l’attribut « objet » correspond à la valeur du paramètre de sortie produite par l’exécution de l’activité. Un item maintient, de plus, d’autres informations nécessaires pour assurer les fonctions comme le remplacement et le rafraichissement des données. Il est représenté par un tuple : !"#$ ∶ 〈!" ∶ 〈!"#$%$#& ∶ !, !"#$%& ∶ [!"#$% ∶ !"#"]〉, !"#$%& ∶ !"#",!!" ∶ ℕ, !""#$$%& ∶ ℕ, !"#$ℎ!"#$ ∶ !"#$, !"#$%!&' ∶ !"#$, !"#$%&&'## ∶ !"#$, !"#$%&' ∶ ℕ〉. où : • !"#$29 est une définition de type définie comme suit : !"#$%& ∶ 1,2, … 60 , ℎ!"# ∶ 1,2, … 24 , !"#$ℎ ∶ 1,2, … 12 , !"# ∶ 1,2, … 31 , !"#$ ∶ ℕ . • accessNb de type entier, il indique le nombre d’accès à item. • ttl de type entier, il indique la durée de vie de l’item (en nombre d’heures). • birthDate indique la date de création de l’item. • expireOn indique la date d’expiration de l’item. • lastAccess indique la date du dernier accès à l’item. • latency indique le temps mis pour récupérée les données depuis le fournisseur. !"#$%&'()* !"#$ = !"# ∶ !"#!"$ℎ, !"#$%!&'(, !"#$%&''( où : • Pour une instance ! de type !"#$, l’opération !"#!"$ℎ exécute l’opération !. !". !"#$%$#& avec les valeurs des paramètres indiquées par !. !". !"#$%&. Elle écrit le résultat de l’opération dans !. !"#$%&. Ensuite elle retourne un booléen indiquant le bon déroulement de l’opération. o Type de !"#!"$ℎ : !"#$ → ! o Sémantique : l’appel de !. !"#!"$ℎ() exécute l’instruction suivante30 : !. !"#$%& = !"!"#$ !. !". !"#$%$#&, !. !". !"#$%& • Pour une instance ! de type !"#$, l’opération !"#$%!&'( vérifie si la donnée enregistrée dans ! est encore fraiche. o Type de !"#$%!&'( : !"#$ → ! o Sémantique : l’appel de !. !"#$%!&'(() retourne !. !"#$%!&' < !"#() • Pour une instance ! de type !"#$ , l’opération !"#$%&''( permet de modifier la valeur de l’attribut « ttl » de ! et de lui affecter une valeur passée en entrée. La fonction retourne un booléen indiquant le bon déroulement du processus d’ajustement. o Type de !"#$%&''(: !"#$×!"#$$% ∶ ℕ → ! o Sémantique : l’appel de !. !"#$%&''( !!"#$" exécute l’instruction suivante : !.!!" = !!"#$". où !!"#$! est une instance du type du paramètre d’entrée d’!"#$%&''(. La durée de vie d’un item peut être modifiée au cours du temps. Ce point sera expliqué dans la sous-section 4.2.4.2 lors de la description du processus de rafraichissement des items. 29 Nous considérons la fonction !"#() qui retourne une instance de !"#$ correspondante à l’instant courant. 30 Nous rappelons que !"#$%& est une opération définie sur tous les types fonction pour réaliser l’exécution de leurs instances (cf. sous-section 3.1.4) 66 Exemple Nous considérons !"#$%&'($%) une instance de !"#$ . Elle correspond à la donnée !"#$%&' (cf. sous-section 3.1.2) et récupérée avec l’activité !"#$%&#"' définie dans la section 3.3. Elle est définie comme suit : !"#$%&'($%) = !"#$ ∶ 〈!" ∶ !"#$%$#& ∶ !"#$%&#"', !"#$%& ∶ !"#$% ∶ Grenoble, !"#$% ∶ Paris , !"#$%& ∶ !"#$%&', !!" ∶ 720, !""#$$%& ∶ 8, !"#$ℎ!"#$ ∶ !"#$%& ∶ 05, ℎ!"# ∶ 15 !"#$ℎ ∶ 11, !"# ∶ 1, !"#$ ∶ 2012 , !"#$%!&' ∶ !"#$%& ∶ 05, ℎ!"# ∶ 15 !"#$ℎ ∶ 12, !"# ∶ 1, !"#$ ∶ 2012 , !"#$%&&'## ∶ !"#$%& ∶ 30, ℎ!"# ∶ 7 !"#$ℎ ∶ 11, !"# ∶ 10, !"#$ ∶ 2012 , !"#$%&' ∶ 1000〉 La Figure 38 montre la représentation graphique de !"#$% contenant des items pour différents mashups. Le premier ItineraryPlanner et d’autres mashups à la iGoogle contenant des mashlets dont certains affichent la météo de la ville de résidence des utilisateurs. Les différents mashlets météo partagent leurs items. Figure'38 :'Représentation'du'!"#$% 4.2.2 Gestion)du)!"#$% La gestion du !"#$% se fait par des fonctions qui permettent d’ajouter, de supprimer et de rechercher des items. Elles sont définies comme suit : 4.2.2.1 Ajout)d’un)item Nous définissons la fonction !"#$. Elle crée une instance d’!"#$ dont les valeurs des attributs « id » « objet » et « ttl » sont passées en paramètre. La valeur de l’attribut « accessNb » est initialisée à 1. Les valeurs des attributs « birthDate » est « lastAccess » sont initialisées à la date courante. Et la valeur de l’attribut « expireOn » est calculée à partir de la date courante et la valeur de l’attribut « ttl ». Ensuite l’instance créée est ajoutée au !"#$%. La fonction retourne un booléen indiquant le bon/mauvais déroulement du processus. • Type de !"#$ : !" ∶ 〈!"#$%$#& ∶ !, !"#$%& ∶ [!"#$% ∶ !"#"] 〉, !"#$%& ∶ !"#",!!" ∶ ℕ → ! • Sémantique : Pour !"#$ !"#$%, !"#$%&,!!"#$" : o !"#$%"& = !"#$ ∶ !" ∶ !"#$%, !"#$%& ∶ !"#$%&,!!" ∶ !!"#$", !""#$$%& ∶ 1, !"#$ℎ!"#$ ∶ !"#(), !"#$%!&' ∶ !"#() + !!"#$", !"#$%&&'## ∶ !"#() Grenoble( Lyon( Road2( Paris( Weather1( Lyon( Weather2( Grenoble Weather3( entry( item( item( item( item( item( item( entry( item( Grenoble( Paris( Road1(67 o !"#$% = !"#$% + !!"#$!% o !"#$%, !"#$%&,!!"#$" sont respectivement des instances de type des paramètres d’entrée de !"#$ : !", !"#$%&,!!". 4.2.2.2 Suppression)d’un)item Nous définissons la fonction !"#$"%. Elle prend en entrée la valeur de l’attribut « id » d’une instance ! d’!"#$ présente dans !"#$%. La fonction permet de supprimer ! du !"#$%. Elle retourne un booléen indiquant le bon déroulement du processus de suppression. • Type de !"#$"% : !" ∶ !"#$%$#& ∶ !, !"#$%& ∶ !"#$% ∶ !"#" → ! • Sémantique : Pour !"#$"% !"#$% où !"#$% est une instance du type du paramètre d’entrée de !"#$"% : !". !"#$% = !"#$% − ! !. !" = !"#$% 4.2.2.3 Recherche)d’un)item Nous définissons la fonction !""#$%. Elle prend en entrée une valeur possible !"#$% de l’attribut « id » du type !"#$. La fonction vérifie si une instance ! d’!"#$ (avec !. !" = !"#$%) est présente dans !"#$% et dans ce cas elle la retourne en sortie. • Type de !""#$%: !" ∶ !"#$%$#& ∶ !, !"#$%& ∶ !"#$% ∶ !"#" → !"#$ • Sémantique : !""#$% !"#$% = ! ! ∈ !"#$% !" !. !" = !"#$% La Figure 39 présente l’utilisation des fonctions !""#$% et !"#$ dans le processus d’exécution d’un nœud Retrieve++ afin de (1) rechercher des données au sein du !"#$% avant de les récupérer auprès du fournisseur de données et (2) d’ajouter les données récupérées dans le !"#$% pour une utilisation ultérieure. Rappelons que le diagramme présenté dans la figure est une version minimaliste du processus d’exécution du nœud Retrieve++ et qu’elle sera enrichie toute au long de la section 4.2. Figure'39 :'Utilisation'des'fonctionnalités'de'gestion'du'!"#$% dans'l’exécution'd’un'nœud'Retrieve++68 4.2.3 Remplacement)de)données Le remplacement des items dans le !"#$% se fait selon une politique de remplacement. Celle-ci détermine les items devant être supprimés du !"#$% pour libérer de la place pour pouvoir stocker des nouveaux items. Elle vise à maximiser les avantages de l’utilisation du !"#$%. Nous définissons la fonction !"#$%&&!. Elle libère du !"#$% un espace dont la taille est égale ou supérieure à une valeur donnée !"#$%ℎ. Elle retourne une valeur booléenne indiquant si l’opération s’est bien exécutée ou pas. • Type de la fonction : !"#$%ℎ ∶ ℕ → ! . • Sémantique de la fonction : • Pour !"#$%&&! ! avec ! ∈ ℕ : o Taille des données dans le !"#$% avant l’exécution = ! o Taille des données dans le !"#$% après l’exécution = ! − ! La Figure 40 présente l’utilisation de la fonction !"#$%&&! dans le processus d’exécution d’un nœud Retrieve++ afin de libérer de l’espace lorsque le !"#$% devient saturé. Figure'40':'Utilisation'de'la'fonction'!"#$%&&! dans'l’exécution'd’un'nœud'Retrieve++ Le remplacement se fait selon plusieurs facteurs (sous-section 4.2.3.1) qui sont pondérés dans une formule de poids d’item (sous-section 4.2.3.2). 69 4.2.3.1 Facteurs)de)la)politique)de)remplacement La plupart des politiques de remplacement existantes (comme FIFO, LIFO, LRU (Last Recently Used), MRU (Most Recenty Used) …) sont basées sur le moment d’ajout et d’accès à une données. D’autres politiques sont basées sur des facteurs comme : • La taille des données : en effet, il est plus intéressant de supprimer des items de grande taille pour laisser la place à plusieurs items de petite taille. • La latence du fournisseur des données : en effet, il est plus intéressant de garder les items dont la récupération est plus lente. Ces facteurs sont présents en tant qu’attributs dans la définition du type !"#$. Les valeurs de certains sont déterminées lors de la création de l’item (voir la fonction !"#$ dans la sous-section 4.2.2.1) alors que les valeurs d’autres attributs évoluent avec le temps comme le nombre d’accès et la date du dernier accès à l’item. Dans le contexte des mashups les données sont dynamiques, elles ont une durée de validité déterminée dont il faut tenir compte. Les facteurs à prendre en compte sont • La durée de vie restante pour un item. En effet, il est plus intéressant de garder un item i1 dont la durée de vie restante est supérieure à celle d’un item i2. Pour un item i du !"#$% ce facteur est calculé avec la formule : !. !"#$%!&' − !"#() • Le nombre d’accès à un item i en prenant en compte son âge (calculé avec la formule !"#() − !. !"#$ℎ!"#$). En effet, il est plus intéressant de maintenir dans le !"#$% un item i1 pour lequel il y a eu 10 accès en une heure qu’un item i2 pour laquelle il y a eu 20 accès en 24 heures. Ce facteur est calculé avec la formule : !.!""#$$%& !"#()!!.!"#$!!"#$ 4.2.3.2 Le)poids)d’un)item La politique de remplacement associe un poids à chaque item présent dans le !"#$%. Le poids d’un item définit la probabilité que cet item soit accédé dans le futur. Les items dont les poids sont les moins élevés, sont retenus pour être évincés lors du processus de remplacement. L’expression du poids est définie par une formule algébrique ayant comme variables des facteurs de remplacement de données. Une politique de remplacement choisie peut être adaptative : la formule correspondante contient des paramètres (coefficients ou exposants) de poids pour favoriser des facteurs par rapport à d’autres. Ces paramètres sont modifiables par l’administrateur du !"#$%. Une politique de remplacement adaptative peut donc être définie par la formule suivante : !"!"# = !. !" + !. !" ! + ! !"# + ! !"# Où : • LT : durée de vie restante avant expiration. • A : âge de l’item. • AN : nombre d’accès à l’item. • Lat : latence de la récupération de la donnée. • Len : taille de l’item. • !, !, ! et ! sont des coefficients attachés aux facteurs de la politique remplacement de données pour définir leurs poids. 70 Le type de fonctions de poids est !"#$%#!&ℎ! ∶ !"#$ → !"#$ℎ! ∶ ℝ . Une fonction de ce type permet de définir le poids (selon une formule déterminée) d’une instance de !"#$ donnée en entrée. Lors de l’éviction des données (par appel de la fonction !"#$%&&!), les instances, dont les poids sont les moins élevés, seront supprimées. Cette fonction peut être modifiée au cours du temps. Ceci donne à la fonction de remplacement une caractéristique d’adaptabilité. 4.2.4 Rafraichissement)de)données Intuitivement, lorsqu’un item du !"#$% expire, il doit émettre une notification pour demander sa mise à jour. Ce processus nécessite d’associer à chaque item un mécanisme (thread) pour surveiller sa date d’expiration. Or le !"#$% est amené à stocker, au minimum, des milliers d’items. Techniquement, ceci revient à lancer autant de threads. Nous considérons que cette solution n’est pas optimale (gourmande en ressources) et donc nous l’écartons. Nous proposons un processus de rafraichissement où les items doivent être parcourus périodiquement, pour mettre à jour ceux qui sont périmés. Pour éviter de parcourir tous les items, nous proposons de stocker des références aux items du !"#$% dans une structure de données ordonnée : !"#$%&#'% (cf. Figure 4131 et la sous-section 4.2.4.3). Figure'41 :'Rafraichissement'des'items Les éléments de !"#$%&#'% sont des instances de type !"#$%#&. Chacune de ces instances contient une référence à un item du !"#$% et sa date d’expiration. L’ordre de ces instances dans !"#$%&#'% est défini selon la date d’expiration. Le type !"#$%#& est défini comme suit : !"#$%#& ∶ !"# ∶ !, !"#$%&'()! ∶ !"#$ où ! est l’ensemble des références des instances de type !"#$. !"#$%&'()* !"#$%#& = !"#$#"% où l’opération !"#$#"% est de type !"#$ ∶ !!"#$"% → !"#$"# ∶ !"#$ . Pour une instance ! de !"#$%#& , !. !"#$#"% retourne l’item référencé par la référence !. !". La fréquence de rafraichissement ainsi que la gestion des durées de vie des items seront étudiées dans les sous-sections 4.2.4.1 et 4.2.4.2. Ensuite, le choix de la structure de données de 31 La représentation graphique linéaire de !"#$%&#'% est indépendante de la structure de données choisie. ItemsRefs ir1 ir2 ir3 ir4 ir5 … d1 < d2 < d3 < d4 < … ! !" !" !"#$% !"#$%& !" !"#$%"# !""è! < ! !!" 10 !"#$# Où ! et ! sont des seuils définis par l’administrateur du !"#$%. (b) Item valide Si l’item est jugé encore valide, ceci constitue une justification pour considérer que la valeur de TTL est sous-estimée et qu’il faut l’augmenter. L’incrément est calculé par une fonction !"# en fonction de la valeur actuelle de TTL et des données statistiques comme le nombre d’accès à l’item, la date du dernier accès. !"# est de type !"#$$" ∶ ℕ, !" ∶ ℕ, !" ∶ !"#$ → !"#$%&%"' ∶ ℕ . Plus (1) le nombre d’accès est grand (plus grand qu’un seuil donné), ou (2) plus le temps écoulé depuis la dernière date d’accès est petit (plus petit qu’une durée donnée) alors plus l’incrément doit être petit. Et inversement, plus le nombre d’accès est petit et le temps écoulé depuis la dernière date d’accès est grand, plus l’incrément doit être grand. Ce choix est justifié par le souci de maintenir le plus possible la fraicheur (ajout d’un petit incrément) des données qui sont fréquemment ou récemment demandées. La valeur de TTL peut être incrémentée jusqu’à une valeur maximale !!"# . Ce seuil constitue une limite supérieure des valeurs TTL des items pour éviter le risque de la présence des données périmées dans le !"#$% pour longtemps. Ainsi la valeur de TTL est définie selon la formule suivante : 73 !!" = !"# !!"#, !!" + !"# !!", !", !" Où : • !!" est la valeur actuelle de la durée de vie de l’item. • !" est le nombre d’accès à l’item. • !" est la date du dernier accès à l’item. Par exemple, un incrément peut être défini selon la formule suivante : !"# !!", !", !" = !!" 10 !" !" > ! !" !" !"#!" !"#$%& !" !"#$%"# !""è! < ! !!" 2 !"#$# Où ! et ! sont des seuils définis par l’administrateur du !"#$%. 4.2.4.3 Choix)de)la)structure)de)données de)!"#$%&#'% Le choix de la structure de !"#$%&#'% peut se faire entre différentes structures comme un tableau ordonné, une liste chainée ordonnée, un arbre binaire ou un arbre rouge-noire. Pour des détails à propos de ces structures, le lecteur est invité à consulter la référence [96]. Pour toutes ces structures, La recherche d’un objet (instance de !"#$%#&) à partir de la valeur de l’attribut !"# nécessite le parcours séquentiel du tableau (Complexité ! (!)). Ceci est dû au fait que les objets sont triés par rapport à la date d’expiration de l’item référencé et non pas par rapport à la référence de l’item. Dans un tableau ordonné, les objets sont accédés par leurs indices. Les coûts de l’insertion et la suppression d’un objet sont linéaires par rapport à la taille du tableau. Dans une liste chainée, les objets sont arrangés linéairement. Les coûts de l’insertion et la suppression d’un objet sont linéaires par rapport à la taille de la liste. Dans un arbre binaire de recherche les coûts de l’insertion et de la suppression dépendent de la profondeur de l’arbre. Chacun est de l’ordre ! (ℎ) sur un arbre de profondeur maximale ℎ. Les coûts peuvent aller de ! (lg ! ) dans les cas les plus favorables (arbres binaires complets) jusqu’à ! (!) dans les cas les plus défavorable (arbre constituée d’une chaine linéaire de n nœuds). Un arbre rouge-noir est un type particulier d’arbre binaire de recherche. Chaque nœud est coloré (rouge ou noire) selon les règles suivantes : • La racine et les feuilles sont noires. • Si un nœud est rouge alors ses deux nœuds fils sont noirs. • Pour tout nœud, les chemins reliant ce nœud à des feuilles contiennent le même nombre de nœuds noirs. La coloration garantie qu’aucun des chemins allant de la racine aux feuilles n’est plus de deux fois plus long que n’importe quel autre, ce qui rend l’arbre approximativement équilibré. Les coûts de l’insertion et la suppression d’un objet sont de l’ordre logarithmique (Complexité ! (lg ! )). Le Tableau 5 dresse la complexité des opérations d’insertion, de suppression et de recherche dans différentes structures. Nous constatons que l’arbre rouge-noir offre de meilleures performances en ce qui concerne l’insertion et la suppression de nouveaux objets.74 Insertion/suppression Recherche Tableau !(!) !(!) Liste chainée !(!) !(!) Arbre binaire !(ℎ) !(!) Arbre rouge-noir !(lg (!)) !(!) Tableau'5':'Coût'des'opérations'dans'différentes'structures'de'données32 Cette comparaison nous permet de choisir l’arbre rouge-noir comme structure de données pour stocker les références des items du !"#$%. Nous définissons le type arbre rouge noir comme suit : • Si ! est un type alors ! ∶ ! ∈ ! est un type arbre rouge noir nommé !. Ses nœuds sont des instances du type !. • Pour un type arbre rouge noir ! ∶ ! , ! ∶ ! = ! ∶ ! ! ∈ ! ∪ ! × ! ∶ ! × ! ∶ ! . !"#$%&'()*(! ∶ ⌊!⌋) = {!"#$%&, !"#"$", !""#$%, !"#$%&", !"#$"%#&ℎ!"#, !"#$%!ℎ!"ℎ!"#} 4.2.5 Exécution d’un)nœud)Retrieve++)) L’interaction entre le mashup et le !"#$% se déroule lors de l’exécution des nœuds Retrieve++. Elle se fait en exploitant les fonctions associées au !"#$%. Elle est illustrée dans le diagramme d’activité de la notation UML dans la Figure 42. L’interaction se déroule comme suit : • Vérifier (avec la fonction !""#$%) si un item du !"#$% contient la donnée recherchée. o Si l’item existe : " S’il est périmé, il est rafraichi et sa durée de vie est ajustée selon la stratégie TTL incrémental décrite dans la sous-section 4.2.4.2 " Dans tous les cas, la donnée qu’il contient est prise comme résultat de l’exécution du nœud Retrieve++. o Sinon : " La donnée est récupérée directement auprès du fournisseur. Et elle est prise comme résultat de l’exécution du nœud Retrieve++. " Si le Store est plein, des items sont supprimés avec la fonction !"#$%&&! . La suppression se fait selon une formule de remplacement comme celle définie dans la sous-section 4.2.3.2. " Un nouvel item, contenant la donnée récupérée, est crée et ajouté au !"#$% avec la fonction !"#$. Nous rappelons que, parallèlement à ce processus, le !"#$% est parcouru périodiquement pour rafraichir les items périmés d’une façon proactive sans attendre l’arrivé d’une nouvelle 32 n fait référence au nombre des éléments dans la structure tandis que h fait référence à la hauteur de l’arbre (profondeur maximale d’une branche)75 demande d’accès aux items. Ce processus prend en compte des formules de rafraichissement comme celles définies dans la sous-section 4.2.4. Figure'42 :'Exécution'd'un'nœud'Retrieve++ 4.3 Conclusion Dans ce chapitre, nous avons présenté les phases du processus d’exécution d’un mashup. et notre solution pour améliorer la disponibilité de données fraiches des mashups. Celle ci est à base de fonctions orthogonales au processus d’exécution des mashups. Dans une première section, nous avons décrit la représentation d’un mashup sous la forme d’un graphe dont le parcours permet de coordonner l’exécution des mashlets et des wirings du mashup. Nous avons décrit les phases des processus d’exécution des mashlets et des wirings et de leurs activités sous-jacentes.76 Dans une deuxième section, Nous avons présenté des fonctions permettant d’améliorer la disponibilité des données récupérées auprès des fournisseurs de données. Ces données sont rendues disponibles dans un !"#$%. Pour cela, nous avons décrit l’organisation du contenu du !"#$% en un ensemble d’items. Nous avons ensuite décrit la gestion de ce contenu et les fonctions qui y sont relatives : ajouter, modifier, supprimer et rechercher des items. Ensuite, nous avons décrit les fonctions de remplacement et de rafraichissement des items. Pour le remplacement des items, nous avons dressé une liste de facteurs entrant en jeu lors de la définition de la politique de remplacement dans le contexte des mashups. Le rafraichissement des items est exécuté d’une façon incrémentale. Nous avons adopté une stratégie adaptative pour la définition des durées de vie des items ainsi nous avons adapté la stratégie TTL incrémental au contexte des mashups. Enfin nous avons illustré, avec des diagrammes d’activité de la notation UML, le processus d’exécution d’un nœud Retrieve++ avec l’exploitation du Store et des fonctions associées.77 Chapitre!5 IMPLANTATION)DE)MELQART L’implantation de MELQART consiste en la séparation et l’abstraction des concepts des mashups ainsi que des gestionnaires de cache implantant les fonctionnalités proposées pour améliorer la disponibilité des données des mashups. Ceux ci sont définis avec des classes abstraites avec des signatures d’opérations (Figure 43). Cette abstraction permet de représenter l’interdépendance entre les composants en terme d’opérations fournies et utilisées par les classes. Ainsi la modification de l’implantation d’une opération n’affecte pas les classes qui l’utilisent. Les concepts des mashups sont définis par des classes abstraites et concrètes par les programmeurs de MELQART. Lors de la définition de mashups, les classes abstraites sont spécialisées par des classes concrètes. Des instances de ces classes permettent d’obtenir des mashups. Nous avons utilisé le canevas de cache ACS [62]. Il est à base de gestionnaires ; chaque gestionnaire est un composant réalisant une fonctionnalité spécifique (gestion de données, remplacement de données etc.). Dans MELQART, nous avons adapté ces gestionnaires au contexte des mashups et nous avons introduit un gestionnaire de rafraichissement. Les gestionnaires de remplacement et de rafraichissement MELQART sont spécifiés par des classes abstraites. Leurs comportements sont spécialisés par des classes concrètes. Par exemple définir des gestionnaires de remplacement, chacun ayant sa propre politique de remplacement. Des instances de ces classes permettent de faire fonctionner un cache pour stocker les données des instances de mashups. Elles sont manipulées par des administrateurs de MELQART qui peuvent contrôler le cache : augmenter sa taille, le vider, ou changer de politique de remplacement. Le chapitre est organisé comme suit : l’architecture du système est présentée dans la section 5.1. L’implantation des concepts de notre modèle de mashups et l’adaptation des gestionnaires d’ACS sont présentées dans les sections 5.2 à 5.11. L’implantation est décrite avec les diagrammes de classes et de séquence de la notation UML. Dans la section 5.12, nous avons validé notre implantation avec l’exécution de plusieurs instances de deux scenarios de mashups. Enfin, la section 5.13 conclut ce chapitre.78 Figure'43 :'Approche'de'MELQART'pour'la'création'et'l’exécution'des'mashups 5.1 Architecture)du)système L’interaction avec le système MELQART se fait selon une architecture client-serveur (cf. Figure 44). Les mashups sont exécutés côté serveur et les résultats sont affichés sur les machines des utilisateurs (clients). Ainsi, deux utilisateurs peuvent demander l’exécution d’un même mashup. Figure'44 :'Interaction'des'utilisateurs'avec'MELQART La Figure 45 présente les composants de MELQART : MashupEngine, Mashup, Mashlet, Wiring, Activity, Store, ReplacementManager et FreshnessManager. Il interagit avec des composants externes qui représentent les fournisseurs de données : Services. Un fournisseur de donnée (Service) est un composant autonome que l’on peut interroger (Invoke) par le biais des activités qu’il propose. L’exécution d’un mashup est accomplie par le spécialiser Instancier Concepts de MELQART Définitions de mashups et des gestionnaires du cache Exécution des instances des mashups et du cache Classes abstraites/concrètes Classes concrètes Objets Ac#vity( Mashup( Wiring I#neraryPlanner Classe abstraite Classe concrète Objet Mashlet( Légendes : Data( Ac#vity( Ac#vity( Item( Replacement( Manager( Freshness Manager( Store(79 composant MashupEngine. Celui ci exécute les composants Mashup, Mashlet, Wiring! et Activity33. Il contient un buffer qui offre les outils pour le stockage temporaire de données en cours de traitement. Il interagit avec les composants Services afin de les interroger et récupérer des données. Il interagit également avec le composant Store qui stocke des résultats des activités de fournisseurs de données. Dans notre implantation, les fonctions du composant MashupEngine sont assurées par le moteur d’exécution d’Eclipse (notre environnement de développement). Figure'45 :'Architecture'de'MELQART Le composant Store est un cache. Il fournit les opérations de base permettant l’ajout (bind), la suppression (unbind) et la recherche de données (lookup). Il interagit avec le gestionnaire de remplacement (ReplacementManager). Celui ci définit les données qu’il faut supprimer pour laisser de la place à des nouvelles données. Le Store interagit également avec le gestionnaire de rafraichissement (FreshnessManager) qui vise à maintenir la fraicheur des données dans le cache. Le fonctionnement des ces composants est défini en prenant en compte le caractère dynamique des données des mashups comme décrit dans le Chapitre 4. 33 Il existe différents composants activité (Filter, Extract…). Dans cette section, nous nous y référons sous le nom générique Activity80 Dans notre implantation le cache est déployé sur le serveur d’exécution des mashups. Néanmoins, il peut très bien être déployé aussi sur un autre serveur et ceci sans affecter le principe de son fonctionnement. Nous exploitons le Store pour stocker les résultats des activités proposées par des fournisseurs de données. Ceci permet d’assurer (1) leur disponibilité même en cas de défaillance d’un des fournisseurs et (2) leur partage entre différents mashlets de différents mashups, et ceci avant de les manipuler. 5.2 Valeurs)complexes Les données consommées par les mashups sont disponibles sur le web ou saisies par l’utilisateur en entrée. Les données du web sont récupérées chez des fournisseurs de données (des services web) et chacune est identifiée par un URI (Universal Resource Identifier). Les récupérations des données se font via des appels de méthodes REST. Nous adoptons la notation JSON34 pour représenter les données. En effet, les types des valeurs complexes sont compatibles avec la notation JSON35. En principe, les objets JSON peuvent représenter les valeurs complexes de type tuple. Alors que les tableaux JSON peuvent représenter les valeurs complexes de type liste ou ensemble. Ce choix n’écarte pas les données décrites sous format XML ou un autre langage de la même famille. En effet une donnée décrite sous XML peut très bien être convertie en donnée JSON et vice versa. Dans notre environnement, nous utilisons la librairie36 de référence JSON de Java pour implanter les valeurs complexes. Classe JSONObject Nous considérons la classe JSONObject37 pour implanter les données des mashups. Cette classe est offerte par la librairie de référence JSON de Java. Elle contient des méthodes qui permettent de lire les valeurs des attributs, d’ajouter et modifier des attributs. Représentation)des)valeurs)complexes)via)JSON La représentation des valeurs complexes via JSON peut être faite avec l’ensemble de règles suivantes : 1. Une valeur complexe de type tuple de la forme ! ∶ !! ∶ !! , … , !! ∶ !! est représentée par deux objets JSON imbriqués de la forme "!" ∶ "!! " ∶ !! , … ,"!!" ∶ !! . 2. Une valeur complexe de type liste de la forme ! ∶ !′ ∶ !! , … , !′ ∶ !! est représentée par un tableau d’objets JSON imbriqué lui même dans un objet JSON de la forme "!" ∶ "!′" ∶ !! , … , "!′" ∶ !! . 3. Une valeur complexe de type ensemble de la forme ! ∶ !′ ∶ !! , … , !′ ∶ !! est représentée par un tableau d’objets JSON imbriqué lui même dans un objet JSON de la forme "!" ∶ "!′" ∶ !! , … , "!′" ∶ !! . Étant donné que les valeurs JSON n’ont pas de nom associé, à l’exception des valeurs contenues dans des objets, nous utilisons un objet JSON englobant pour spécifier les noms des valeurs complexes (tuples, listes, ensembles). Bien que ce choix puisse paraître encombrant pour 34 http://www.json.org/json-fr.html 35 La syntaxe de JSON est présentée dans l’Annexe B 36 http://www.json.org/java/ 37 http://www.json.org/javadoc/org/json/JSONObject.html81 une écriture manuelle des données JSON, il ne représente pas un problème pour une implantation de données par programmation. Exemple La valeur complexe !"#$%&!%'$# ∶ !"#$%&!%'$ ∶ !"#$ ∶ "!"#4", !"#$%&'%() ∶ "!"#$!%&&%", !""#$%% ∶ "!"1", !"#$%& ∶ 3.5 , !"#$%!"#$% ∶ !"#$ ∶ "!"#1", !"#$%&'%() ∶ "!"#$ç!"#$", !""#$%% ∶ "!"2", !"#$%& ∶ 4.5 , !"#$%&!%'$ ∶ !"#$ ∶ "!"#2", !"#$%&'%() ∶ "!"#$%$"&'", !""#$%% ∶ "!"3", !"#$%& ∶ 4 , !"#$%!"#$% ∶ !"#$ ∶ "!"#3", !"#$%&'%() ∶ "!"#$%"&'(", !""#$%% ∶ "!"4", !"#$%& ∶ 3.3 peut être représentée avec l’objet JSON suivant : {"restaurants" : [ { "restaurant" : { "name" : "nom4", "speciality" : "italienne", "address" : "ad1", "rating" :3.5 }, { "restaurant" : { "name" : "nom1", "speciality" : "française", "address" : "ad2", "rating " :4.5 }, { "restaurant" : { "name" : "nom2", "speciality" : "libanaise", "address" : "ad3", "rating " :4 }, { "restaurant" : { "name" : "nom3", "speciality" : "japonaise", "address" : "ad4", "rating " :3.3 } ], } 5.3 Activité Les activités sont implantées en tant que classes. La classe Activity (Figure 46), est une classe abstraite : elle ne peut pas être instanciée directement. Deux associations avec la classe JSONObject spécifient qu’une instance de la classe Activity consomme une instance de la classe JSONObject en entrée (input) et en produit une autre en sortie (output) de type JSONObject. 82 Figure'46 :'Classe'Activity La classe Activity contient une méthode abstraite run(). Les classes filles spécialisent le fonctionnement de cette méthode. Celle ci définit le traitement que l’activité doit opérer pour produire la sortie. Une activité peut être basique ou composite. Une activité basique exécute une opération alors qu’une activité composite coordonne l’exécution de certaines activités qu’elles soient basiques ou composites. 5.3.1 Activités)basiques Dans notre modèle, Nous avons considéré un ensemble fini d’activités basiques pour le filtrage (Filter), l’extraction (Extract), le tri (Sort), la récupération de données (RetrievePP) et l’élimination de doublons (Unique). L’implantation de chacune de ces activités est faite avec une classe portant le même nom. Ces classes sont données dans la Figure 47. Elles étendent la classe Activity, et spécialisent le fonctionnement de la méthode run(). Elles sont abstraites et chacune possèdent des méthodes abstraites. Celles ci sont spécialisées par des classes filles qui sont définies lors de l’implantation des mashups. Dans les sous-sections suivantes, nous présentons (1) les classes de ces activités basiques, (2) comment elles spécialisent la méthode run() et (3) illustrer comment elle peuvent être étendues (définition de classes filles) pour l’implantation du mashup ItineraryPlanner. Des instances de ces classes sont présentées dans la sous-section 5.3.2 qui définit la coordination des activités (illustrant ainsi comment ces instances peuvent interagir entre elles).83 Figure'47 :'Les'classes'des'activités'basiques 5.3.1.1 RetrievePP La classe RetrievePP contient un attribut uri de type chaine de caractères, un attribut isJSON de type booléen et un attribut ttl de type entier. Elle contient également deux méthodes abstraites buildURI() et defineFormat(). Une instance de la classe RetrievePP récupère une donnée (1) du Store si celle ci s’y trouve elle y est, ou (2) du web auprès d’un fournisseur de données avec la méthode run(). La donnée récupérée est retournée en sortie. Cette donnée est identifiée par l’attribut uri. L’activité prend en entrée une donnée dont la valeur intervient dans la construction de l’URI via la méthode buildURI(). L’attribut ttl (Time To Live) de type entier, définit la durée de vie de la donnée récupérée auprès du fournisseur des données. Sa valeur est fixée par le constructeur du mashup pour chaque classe fille de la classe Retrieve. La valeur dépend de la nature des données récupérées. Le fonctionnement de la méthode run() est décrit dans la soussection 5.11 décrivant l’interaction entre les mashups et le Store. La méthode defineFormat() définit la valeur de l’attribut isJSON. Celui ci indique si la donnée récupérée est sous format JSON (isJSON = true) ou sous format XML (isJSON = false). Dans ce dernier la méthode run() convertit la donnée dans un format JSON. Les classes filles spécialisent le fonctionnement des méthodes buildURI() et defineFormat(). Par exemple, lors de l’implantation du mashup ItineraryPlanner, le constructeur définit une classe concrète RouteRetrieve qui étend la classe Retrieve. Cette classe spécialise le fonctionnement des deux méthodes. buildURI() définit l’URI pour la récupération de l’itinéraire entre deux villes alors que defineFormat() indique que la donnée récupérée est sous format JSON. Le fonctionnement de ces méthodes est le suivant : 84 void buildURI() { depart = input.departure ; destination = input.destination ; this.uri = "http://maps.googleapis.com/maps/api/directions/json?origin="+departure+"&des tination="+destination+"&sensor=false" ; } void defineFormat () { this.isJSON = true ; } 5.3.1.2 Filter La classe Filter contient les méthodes abstraites check(JSONObject value) et extractArray(). Une instance de la classe Filter prend en entrée une instance de JSONObject contenant un tableau d’objets JSON. Celui ci est extrait avec la méthode extractArray(). La méthode run() retourne le tableau des objets qui vérifient une certaine condition. La vérification de la condition est exécutée par la méthode check(JSONObject value). Elle se fait, éventuellement, par rapport à des valeurs contenues dans l’entrée de l’activité. La méthode run() est décrite dans le pseudo-code suivant : void run() { JSONArray valuesArray = this.extractArray() ; JSONArray resultArray; for (int i=1 ; i< valuesArray.length() ; i++) { value = valuesArray[i] ; if (check(value)) then resultArray.put(value) ; } JSONObject output = {“result” : resultArray} ; this.output = output ; } Les classes filles spécialisent le fonctionnement des méthodes extractArray() et check(). Par exemple, lors de la définition du mashup ItineraryPlanner, le constructeur définit une classe concrète RestaurantFilter. L’entrée de l’activité contient la liste de restaurants sous la forme d’un tableau JSON et la note minimale pour les restaurants recherchés (“ratingMin”) Les méthodes extractArray() et check() sont décrites avec le pseudo-code suivant : JSONArray extractArray() { JSONArray valuesArray = this.input.getJSONArray(“restaurants”) ; return valuesArray ; } Boolean check(JSONObject value) { If (value.getInt((“rating”) >= this.input.getInt(“ratingMin”)) then return true ; else return false ; } 85 5.3.1.3 Unique La classe Unique contient les méthodes abstraites extractValue(JSONObject o) et extractArray(). Une instance de la classe Unique prend en entrée une instance de JSONObject contenant un tableau d’objets JSON. Celui ci est extrait avec la méthode extractArray(). La méthode run() élimine les doublons parmi les objets de ce tableau. L’élimination des doublons se fait selon des valeurs contenues dans les objets et désignées par un même chemin d’accès. La méthode extractValue (JSONObject o) retourne la valeur contenue dans l’objet o sous la forme d’une chaine de caractère. La méthode run() est décrite dans le pseudo-code suivant : void run() { JSONArray objectArray = this.extractArray() ; JSONArray resultArray; String[] objKeys for (int i=1 ; i< objectArray.length() ; i++) { obj = objectArray [i] ; if ( ! objKeys.contains(extractValue(obj))) then resultArray.put(obj) ; } JSONObject output = {“result” : resultArray} ; this.output = output ; } Les classes filles spécialisent le fonctionnement des méthodes extractArray() et extractValue(JSONObject o). Par exemple dans le mashup ItineraryPlanner, la liste de villes (sous format WOEID) de passage entre les villes de départ et de destinations contient des doublons qu’il faut éliminer. Pour cela, le constructeur définit une classe concrète UniqueWOEID qui étend la classe Unique. Le fonctionnement des méthodes extractArray() et extractValue(JSONObject o) de cette classe est décrit avec les pseudo-codes suivants : JSONArray extractArray() { JSONArray valuesArray = this.input.getJSONArray(“result”) ; return valuesArray ; } String extractValue(JSONObject o) { int woeid = o.getInt(“woeid”) ; return String(woeid) ; } 5.3.1.4 Extract La classe Extract contient la méthode abstraite path(). Une instance de la classe Extract prend en entrée une ressource, et retourne dans un objet JSON la valeur indiquée par la méthode path(). La méthode run() est décrite dans le pseudo-code suivant : void run() { this.output = this.path() } 86 Les classes filles spécialisent le fonctionnement de la méthode path(). Par exemple, lors de l’implantation du mashup ItineraryPlanner, le constructeur du mashup définit une classe concrète StepsExtractor qui étend la classe Extract. La méthode path(), de cette classe, extrait les étapes de l’itinéraire. Elle est décrite avec le pseudo-code suivant : JSONObject path() { JSONArray steps = this.input.getJSONArray("routes").getJSONObject(0). getJSONArray("legs").getJSONObject(0).getJSONArray("steps") return {"steps" : steps} ; } 5.3.1.5 Sort La classe Sort contient un attribut ascending de type booléen et les méthodes abstraites extractArray() et compare(JSONObject o1, JSONObject o2). Une instance de la classe Sort prend en entrée une ressource contenant un tableau d’objets JSON. Celui ci est extrait avec la méthode extractArray(). La méthode run() trie les objets que le tableau contient. Le tri se fait selon une relation d’ordre définie par la méthode compare() qui défini la relation d’ordre entre deux objets. Le tri des objets peut être ascendant ou descendant selon la valeur de l’attribut ascending. Les classes filles spécialisent le fonctionnement des méthodes extractArray et compare. La méthode run() est décrite par le pseudo-code suivant : void run() { JSONArray objectArray = this.extractArray() ; JSONArray resultArray; resultArray = sort(objectArray) ;38 } 5.3.2 Activités)composites Les classes des activités composites sont données dans la Figure 48. Elles étendent la classe Activity, et spécialisent le fonctionnement de la méthode run(). Dans les sous-sections suivantes, nous présentons les classes permettant de décrire des activités composites, et comment elles spécialisent la méthode run(). Nous présentons également des classes concrètes définies lors la phase de l’implantation du mashup ItineraryPlanner. Ensuite nous allons montrer comment des instances de ces classes interagissent entre elles. 38 Nous considérons que la méthode sort(JSONArray a) implante un des algorithmes de tri proposés dans l’état de l’art [97]. 87 Figure'48 :'Les'classes'des'activités'composites 5.3.2.1 Sequence La classe Sequence est une clase concrète en association avec la classe Activity. Cette association indique qu’une instance de la classe Sequence contient un ensemble ordonné d’activités appelées sous-activités (Sub-activities). L’exécution d’une instance iseq (Figure 49) de la classe Sequence (ayant deux sousactivités) lance l’exécution des sous-activités séquentiellement. Chacune des sous-activités transmet sa sortie à la sous-activité suivante. La dernière sous–activité transmet sa sortie à la sortie de iseq. La méthode run() de l’activité Sequence correspond donc au pseudo-code suivant : run() { Activity a = this.sub-activities[0] ; a.input = this.input ; a.run() ; for (int i=1 ; i ready ; this.setMashletsInputs() ; //ajouter les mashlets, prêts à l’exécution, à ready ready = prepareMashup() ; while (not ready.empty()){ object o = ready.pop() ; if type(o) = Mashlet { o.run() ; foreach w in o.wiringAfter do { notify (w) ; ready.put(w) ; } } else {// o est de type Wiring o.run() ; Mashlet m = o.receiver ; notify (m) ; ready.put(m) ; } } 96 5.7 Item La classe Item est présentée dans la Figure 58. Elle contient les attributs uri de type chaine de caractère, result de type JSONObject et des attributs donnant des informations statistiques : Figure'58 :'Classe Item • accessNb de type entier, il indique le nombre d’accès à l’item. • ttl de type entier, il indique la durée de vie de l’item. • birthDate de type Date, il indique la date de création de l’item. • expireOn de type Date, il indique la date d’expiration de l’item. • lastAccess de type Date, indique la date du dernier accès à l’item. La classe contient également trois méthodes : la première refresh() permet de rafraichir la valeur de l’attribut result en récupérant les données depuis le fournisseur via la valeur de l’attribut uri. Alors que la seconde adjustTTL(ttl : Integer) permet de modifier la durée de vie ttl d’un item au sein du cache. Enfin, la méthode isExpired() indique si la donnée enregistrée dans l’attribut result est périmée ou pas. La Figure 59 montre un exemple d’une instance de la classe. Elle correspond au document JSON routeGP défini dans l’Annexe B et récupéré avec l’uri uriGP où : uriGP = "http://maps.googleapis.com/maps/api/directions/json?origin="+departure+"&des tination="+destination+"&sensor=false" Figure'59 :'Instance'de'la'classe'Item :Item% accessNb = 8 birthDate = 1-11-12 ttl = 30 days expireOn = 30-1-13 lastAcess = 30-11-12 result = routeGP uri = uriGP 97 5.8 Store Les fonctionnalités de gestion des items sont définies dans la classe Store (Figure 60). Celle ci est en association avec la classe Item. Cette association indique qu’une instance de la classe Store contient un ensemble d’items. Elle contient un attribut length de type entier définissant la capacité du !"#$%. La classe Store contient aussi les méthodes lookup(uri : String), bind(uri : String, result : JSONObject, ttl : Integer) et unbind(uri : String). • La méthode lookup(uri : String) permet de vérifier l’existence d’un item, ayant l’identifiant uri, au sein du Store. Le résultat de cette méthode est l’item correspondant, s’il est présent, ou null sinon. Si l’item est périmé, la méthode demande au gestionnaire de rafraichissement de le rafraichir avant de le retourner. • La méthode bind(uri : String, result : JSONObject, ttl : Integer) permet de construire un item ayant l’identifiant uri, la donnée result et une durée de vie ttl. Et elle ajoute cet item au Store. • La méthode unbind(uri : String) permet de supprimer du Store l’item dont l’identifiant possède la valeur de uri. Figure'60 :'Classe'Store La classe Store est spécifiée avec un patron de conception41 singleton : c’est à dire que son instanciation est restreinte à un seul objet. En effet, dans notre architecture, il y a un seul cache pour stocker les données provenant des services de données. Lors de la poursuite de ces travaux pour les étendre aux caches distribués pour les mashups, le patron de conception singleton sera écarté. Pour s’assurer de l’unicité de l’instance, dans la représentation de diagramme de classes dans la notation UML, les constructeurs de la classe sont définis avec une visibilité privée. Pour permettre l’accès à l’instance unique on crée une méthode getInstance() qui permet de la créer, si elle n’existe pas encore, et de la retourner. 5.9 ReplacementManager La classe ReplacementManager est présentée dans la Figure 61. Elle implante les méthodes de l’interface ReplacementManager de ACS. Comme dans des implantations fournies 41 Un patron de conception (design pattern) est la description d’un problème logiciel et des éléments d’une solution à ce problème [98]98 dans ACS, La méthode addForReplacement ajoute une référence à l’item dans une liste ordonnée gérant les items éligibles lors d’un remplacement. L’ordre des éléments est défini selon les poids des items42. Les deux méthodes addForReplacement et adjustForReplacement réalisent des actions pour mettre à jour le poids de l’item utilisé par la politique de remplacement. La classe ReplacementManager est abstraite : elle contient une méthode abstraite itemWeight(Item e). Celle ci est spécialisée par des classes filles. Son objectif est de définir le poids de l’item. Lors de l’éviction des données, les items, dont les poids sont les moins élevés, seront supprimées. Les coefficients de la formule de poids sont définis comme des attributs des classes filles et sont modifiables avec des méthodes setter. La possibilité de modifier ces attributs donne au gestionnaire une caractéristique d’adaptabilité. La classe ReplacementManager est en association avec la classe Store. Cette association indique que l’instance unique de Store possède une instance de ReplacementManager pour gérer la politique de remplacement dans MELQART. Figure'61 :'La'classe'ReplacementManager 5.10 FreshnessManager La Figure 62 présente la classe FreshnessManager. Elle possède les attributs refreshFresq, ttlMin, ttlMax et itemsRefs et les méthodes run(), addForFreshness(), removeForFreshness() et les méthodes abstraites defineRefreshFreq(), increment() et decrement(). 42 Dans l’implantation des classes d’ACS, les items (entrées de cache) sont ordonnés selon une donnée temporelle.99 Figure'62 :'La'classe'FreshnessManager La classe FreshnessManager est en association avec la classe Store qui précise que l’instance unique de Store possède une instance de FreshnessManager pour gérer le rafraichissement des items. La méthode defineRefreshFreq est une méthode abstraite. Elle est spécialisée par des classes filles de la classe FreshnessManager. Elle définit la valeur de l’attribut refreshFreq. Celui ci indique la fréquence d’exécution de la méthode run(). Tandis que l’attribut itemsRefs est de type arbre rouge et noir. Les attributs ttlMin et ttlMax définissent les valeurs minimales et maximales que peuvent avoir les durées de vies des items !!"# et !!"#. Les méthodes increment et decrement sont des méthodes abstraites. Elles sont spécialisées par des classes filles de la classe FreshnessManager. Elles définissent les valeurs à ajouter à (ou à retirer de la valeur de TTL d’un item. Elles prennent en paramètres : la valeur de TTL, le nombre d’accès à l’item et la date du dernier accès à l’entrés. Par exemple, une classe fille de FreshnessManager peut implanter les méthodes increment et decrement selon les formules définies dans les sous-sections 4.2.4.2(a) et 4.2.4.2(b). Les paramètres !, !, ! !" ! sont alors définis dans des attributs. Ils sont modifiables par des méthodes setter. La méthode addForFreshness est appelée par le Store pour signaler au gestionnaire de rafraichissement l’ajout d’un nouvel item au Store (par le biais de la méthode bind). Une référence à cet item est ajoutée dans itemsRefs. La méthode removeForFreshness prend en comme paramètre un identifiant d’un item. Elle est invoquée par le Store pour signaler au gestionnaire de rafraichissement la suppression de l’item correspondant depuis le Store (par le biais de la méthode unbind). La référence correspondante est supprimée depuis itemsRefs. La méthode processItem prend en paramètres un item dont la durée de vie est expirée. Elle exécute le processus de rafraichissement selon la stratégie TTL incrémental définie dans la sous-section 4.2.4.2. La méthode run() parcourt les premiers éléments de la liste ordonnée itemsRefs et les met à jour. Elle est lancée périodiquement, selon la valeur de l’attribut refreshFreq. Elle fonctionne selon le pseudo code suivant : 100 run() { int i = 0 ; Item it= itemsRefs[i].getItem() ; while (it.isExpired() == true) { processItem(it) ; i++ ; it= itemsRefs[i].getItem ; } } 5.11 Interaction)des)mashups)avec)le)Store L’interaction entre les mashups et le Store se déroule au niveau des activités de type RetrievePP. La méthode run() fait appel aux méthodes de la classe Store. L’exécution de la méthode est illustrée dans le diagramme de séquence de la Figure 63. Elle commence par construire l’uri, et vérifier si le Store contient un item ayant un identifiant la valeur de l’attribut uri (avec la méthode lookup(uri)) et si oui, Elle retourne le résultat stocké dans le Store. Sinon, elle récupère les données auprès du fournisseur, les convertit en format JSON si nécessaire et les stocke dans le Store (bind(uri, result, ttl)). Nous rappelons que la méthode lookup vérifie l’état de l’item avant de la retourner : si elle est déjà périmée, la méthode demande au gestionnaire de rafraichissement de rafraichir l’item (avec la méthode processItem()). La méthode run() de la classe RetrievePP est décrite avec le pseudo-code suivant void run() { this.buildURI() ; Store st= Store.getInstance() ; Item it = st.lookup(this.uri) ; if (it != null) { this.output = it.getResult(); } else { String data= getData(uri) ; // conversion du résultat en JSON if ( this.isJSON()){ this.output = new JSONObject(data) } else { this.output = XML.toJSONObject(data) } st.bind(this.uri, this.output, this.ttl) ; } } 101 Figure'63 :'Exécution'de'la'méthode'run()'de'l'activité'Retrieve'avec'utilisation'du'Store 5.12 Validation Cette section présente la validation de notre contribution. Elle a pour objectif de démontrer que les fonctionnalités que nous avons proposées et implantées avec un cache adapté au contexte des mashups répondent au problème de la non disponibilité de données dans les mashups. Nous avons implanté un prototype de MELQART avec le langage Java dans un environnement Eclipse43 . Le cache de données de mashups storeM est implanté en tant qu’une instance de la classe Store. Il associée à toutes les instances de mashups avec une taille de 1000 items (dans ACS, le prototype de cache est implanté avec un gestionnaire de taille de cache basé 43 http://www.eclipse.org/ 102 sur le nombre des items). Nous avons associé à storeM des gestionnaires de remplacement et de rafraichissement rm et fm exécutant les politiques données en exemple dans le Chapitre 4. La fréquence de rafraichissement est fixée à deux heures. Nous soulignons que l’objectif de cette validation n’est pas de démontrer que telle politique (de remplacement ou de rafraichissement) est meilleure qu’une autre ou de trouver la meilleur politique (de remplacement ou de rafraichissement). Pour valider notre implantation, nous avons défini deux scenarios de mashups ItineraryPlanner (sous-section 5.12.1) et MyDashboard (sous-section 5.12.2). L’exécution de plusieurs instances de ces mashups pour valider notre approche et notre implantation. Nous ne nous sommes pas intéressé à la visualisation des données. En effet, la visualisation ne constitue pas un aspect nécessaire de la validation de notre approche pour améliorer la disponibilité de données dans les mashups. Les données des mashlets sont présentées sous la forme d’objets JSON dans des widgets. 5.12.1ItineraryPlanner Nous avons implanté le mashup ItineraryPlanner avec les mashlets Map et Weather. Ce mashup a servi de scenario pour illustrer notre approche. Son fonctionnement fut décrit tout au long de ce document. Le corps de la méthode defineMashupComponents() de la classe ItineraryPlanner et définissant la logique applicative du mashup est présenté dans le code JAVA commenté suivant : public void defineMashupComponents() { ////Mashlet Map RetrievePP rt = new RouteRetrieve(); Mashlet map = new Mashlet("map",rt); this.addMashlet(map.getName(),map); ////Mashlet Weather WeatherRetrieve wr = new WeatherRetrieve(); WeatherExtractor extractWeatherAct = new WeatherExtractor(); // Sequence Sequence weatherSeq = new Sequence(); weatherSeq.addActivity(wr); weatherSeq.addActivity(extractWeatherAct); // Foreach CitiesWeatherForeach itpWeatherForeach = new CitiesWeatherForeach(); itpWeatherForeach.setSubActivity(weatherSeq); Mashlet weather = new Mashlet("weather", itpWeatherForeach); this.addMashlet(weather.getName(),weather); ////Wiring Map2Wiring //extraction des villes de passage StepsExtractor stepsExtO = new StepsExtractor(); // conversion au format WOEID RetrieveWOEIDPlace rw = new RetrieveWOEIDPlace(); WoeidPlaceExtractor woeidExtractorAct = new WoeidPlaceExtractor(); Sequence woeidSeq = new Sequence(); woeidSeq.addActivity(rw); woeidSeq.addActivity(woeidExtractorAct); CitiesListForeach citiesListForeachAct = new CitiesListForeach(); citiesListForeachAct.setSubActivity(woeidSeq); // élimination des doublons WOEID UniqueWOEID uniqueWOEIDAct = new UniqueWOEID(); // mise en séquence Sequence stepsSeq = new Sequence();103 stepsSeq.addActivity(stepsExtO); stepsSeq.addActivity(citiesListForeachAct); stepsSeq.addActivity(uniqueWOEIDAct); Wiring map2weather = new Wiring("map2weather", map,weather, stepsSeq); this.addWiring(map2weather.getName(), map2weather); } La Figure 64 présente les résultats du mashup pour un itinéraire allant de Grenoble jusqu’à Paris. Figure'64 :'Résultats'du'mashup'ItinerayPlanner'pour l’itinéraire'de'Grenoble'à'Paris Le mashup a deux entrées : la ville de départ et la ville d’arrivées. Toutes les deux sont de type chaine de caractères. Les données, du mashlet maps, proviennent du service Google maps44 . Alors que les données du mashlet weather proviennent du service Yahoo! Weather45. Un mapping est nécessaire pour transformer les descriptions des villes de passage du format (longitude, latitude) au format WOEID. Ce mapping est fait via le service Yahoo! BOSS Geo Services46. Le Tableau 6 donne les durées de vie que nous avons estimées pour les données récupérées de chaque service. Fournisseur des données Durée de vie des données Google maps 30 jours Yahoo! Weather 5 heures Yahoo! Boss 60 jours Tableau'6':'Durées'des'vies'des'données'du'mashup'ItineraryPlanner 44 https://developers.google.com/maps/documentation/directions/ 45 http://developer.yahoo.com/weather/ 46 http://developer.yahoo.com/boss/geo/104 5.12.2MyDashboard Le deuxième mashup est nommé MyDashboard. Il contient deux mashlets. Un mashlet « Weather » qui donne la météo pour une ville saisie par l’utilisateur et un Mashlet « Programmes TV » qui affichent les programmes TV de différentes chaines de la soirée. Le corps de la méthode defineMashupComponents() de la classe MyDashboard et définissant la logique applicative du mashup définissant son implantation est présenté dans le code JAVA commenté suivant : public void defineMashupComponents() { ////Mashlet Weahter RetrieveWOEIDPlace rwc = new RetrieveWOEIDPlace(); WoeidPlaceExtractor ewc = new WoeidPlaceExtractor(); WeatherRetrieve wr = new WeatherRetrieve(); Sequence ws = new Sequence(); ws.addActivity(rwc); ws.addActivity(ewc); ws.addActivity(wr); Mashlet weather = new Mashlet("weather",ws); this.addMashlet(weather.getName(),weather); ////Mashlet TV TVProgRetrieve tvp = new TVProgRetrieve(); Mashlet myprg = new Mashlet("myprg",tvp); this.addMashlet(myprg.getName(),myprg); } La Figure 64 présente les résultats du mashup MyDashboard avec Grenoble comme paramètre en entrée. Figure'65 :'Résultats'du'mashup'MyDashboard'avec'Grenoble'comme'paramètre'en'entrée. Le mashup possède une seule entrée : la ville de l’utilisateur de type chaine de caractères. Les données du mashlet « Programmes TV » proviennent d’un flux RSS47. Alors que les données du 47 http://feeds.feedburner.com/programme-television105 mashlet « Weather » proviennent du service Yahoo! Weather. Un mapping est nécessaire pour transformer la description de la ville de l’utilisateur du format « nom de ville » au format WOEID. Ce mapping est fait via le service Yahoo! GeoPlanet48. Le Tableau 7 donne les durées de vie que nous avons estimées pour les données récupérées de chaque service. Fournisseur des données Durée de vie des données Flux TV 1 jour Yahoo! Weather 5 heures Yahoo! GeoPlanet 60 jours Tableau'7':'Durées'des'vies'des'données'du'mashup'MyDashboard 5.12.3Execution)des)instances)des)mashups Nous avons crée plusieurs instances des mashups ItineraryPlanner et MyDashboard, que nous avons lancées avec plusieurs valeurs en paramètres d’entrée (cf. Figure 66). Les exécutions se sont terminées correctement et ont retourné les résultats attendus. Par injection d’impressions de traces dans le code, nous avons pu observer la gestion des données des mashups. Les données produites par les activités de type RetrievePP sont bien stockées dans le Store. Ces données sont récupérées directement du Store, lors d’une exécution ultérieure des mêmes activités avec les mêmes valeurs de paramètres d’entrées. Ceci fut observé également avec la rapidité d’exécution des mashups et l’obtention rapide des résultats. En plus, ce qui est le plus important est le fait de pouvoir accéder aux données du Store pour exécuter des instances de mashups même en cas de rupture de communication avec les fournisseurs de données (simulée par une déconnexion de la machine du réseau) ce qui valide notre approche implantée avec un cache pour garantir la disponibilité des données dans les mashups. Le gestionnaire de remplacement évinçait les items jugés les moins importantes par la politique de remplacement choisie. Le gestionnaire de rafraichissement s’est lancé périodiquement pour vérifier l’état de validités des items. Ainsi, les items, correspondant aux données provenant du service Yahoo! Weather, furent mises à jour pendant la journée de test. En plus, lorsque nous avons lancé le mashup ItineraryPlanner, à un moment où les données météorologiques étaient périmées dans le Store (avant le déclenchement du processus périodique de rafraichissement), le Store demandait au gestionnaire de rafraichissement de rafraichir les items avant de les retourner. 5.13 Conclusion Ce chapitre a présenté l’implantation d’un prototype de MELQART notre système d’exécution de mashups avec disponibilité de données. L’architecture du système fut présentée en premier. Ensuite, nous avons présenté l’implantation des concepts de mashups et des fonctionnalités proposées pour améliorer la disponibilité de données. Pour implanter ces fonctionnalités, Nous avons adapté des gestionnaires d’ACS au contexte des mashups et nous avons introduit le gestionnaire de rafraichissement. La validation de notre implantation nous a montré que les dites fonctionnalités implantées via un cache constituent une solution crédible pour garantir la disponibilité de données dans les mashups. 48 http://developer.yahoo.com/geo/geoplanet/guide/index.html 106 Figure'66 :'Chronologie'des'exécutions t0 • Exécu&on)d’I&neraryPlanner) entre)Grenoble)et)Paris.)) • Récupéra&on)de)données) depuis)les)fournisseurs) t1 • Exécu&on)d’I&neraryPlanner) entre)Grenoble)et)Paris.)) • Récupéra&on)de)données) depuis)le)Store) • Exécu&on)de)MyDashboard) avec)Grenoble)comme)ville.)) • Récupéra&on)des)données) météorologiques)depuis)le) Store) t2 t0+2h • Les)données)météo) récupérées)lors)de)la) première)exécu&on) sont)périmées) • Exécu&ons)successives)des) instances)des)mashups)avec) différentes)entrées,)avec) interrup&on)de)connexion) t0+4h t0+5h • Lancement)du)processus)de) rafraichissement) • Rien)à)rafraichir) t0+5h10 t0+6h • Exécu&on)d’I&neraryPlanner) entre)Grenoble)et)Paris.)) • Récupéra&on)des)données)de) l’i&néraire)depuis)le)Store.) • Récupéra&on)des)données) météorologiques)depuis)le) fournisseur)) • Rafraichissement)des)données) et)adapta&on)de)la)durée)de)vie) des)données)météorologiques) • Exécu&ons)successives)des) instances)des)mashups.) • Le)processus)de)remplacement) se)déclenchait)afin)de)libérer)de) l’espace)dans)le)Store • Lancement)du)processus)de) rafraichissement) • Rafraichissement)des) données)météorologiques) récupérées)entre)t0)et)t0+1h)107 Chapitre!6 CONCLUSION L’objectif de ce travail était d’améliorer la disponibilité de données fraiches dans les mashups. Nous avons proposé MELQART : un système d’exécution de mashups avec une solution pour améliorer la disponibilité et la fraicheur de données des mashups. Dans la suite nous soulignons nos contributions et les perspectives de notre travail. 6.1 Contribution)et)bilan La première contribution de ce travail est un état de l’art sur les modèles des mashups, les systèmes d’exécution de mashups et leurs architectures ainsi que la disponibilité de données fraiches sur le web. Nous avons observé qu’il y a peu de travaux qui proposent des modèles de mashups et que ceux qui existent ne sont pas suffisamment riches pour spécifier les caractéristiques de la disponibilité de données. Nous avons également constaté que les techniques actuelles de disponibilité de données ne sont pas adaptées à des applications comme les mashups. Enfin, parmi le peu de travaux qui se sont intéressés à la disponibilité des données des mashups, le problème de la fraicheur des données disponibles n’est pas abordé. Nous avons en conséquence proposé MELQART : un système d’exécution de mashups avec une solution pour améliorer la disponibilité et la fraicheur de données des mashups. Cette solution propose des fonctionnalités orthogonales au processus d’exécution de mashups pour améliorer la disponibilité de données récupérées auprès des fournisseurs de données. Dans la suite de cette section, nous présentons nos conclusions au regard de nos contributions dans le cadre de MELQART. Nous avons défini un modèle de description de mashups basé sur les valeurs complexes. Des activités basiques décrivent la manipulation des données de mashups (le filtrage, la projection, l’extraction, l’élimination de doublons, le tri, l’union et l’annexe). Ces activités sont coordonnées par des activités composites (Séquence, Foreach, Parallel). Le modèle peut être enrichi avec d’autres activités dans le futur selon les besoins qui peuvent apparaître. Elles sont utilisées par des mashlet et des wirings. Les mashlets affichent des données produites par les activités tandis que les wirings coordonnent l’exécution des mashlets. Dans notre modèle, les wirings ne décrivent pas qu’un transfert de données entre mashlets comme c’est le cas dans les modèles existants. Ils peuvent aussi, décrire le traitement des données pour les délivrer sous le bon format aux mashlets destinataires. Notre modèle permet également de spécifier les caractéristiques de la disponibilité et de la fraicheur de données. 108 Nous avons présenté les phases du processus d’exécution d’un mashup et notre solution pour améliorer la disponibilité de données fraiches des mashups. Celle ci est à base de fonctions orthogonales au processus d’exécution des mashups. Ce processus est basé sur la représentation d’un mashup sous la forme d’un graphe dont le parcours permet de coordonner l’exécution des mashlets et des wirings du mashup. Nous avons décrit les phases des processus d’exécution des mashlets et des wirings et de leurs activités sous-jacentes. Des fonctionnalités permettant l’améliorer la disponibilité des données récupérées auprès des fournisseurs de données et d’assurer leur fraicheur. Les données sont rendues disponibles dans un !"#$%. Pour cela, nous avons décrit l’organisation du contenu du !"#$% en un ensemble d’items. Nous avons ensuite décrit la gestion de ce contenu et les fonctions qui y sont relatives : ajouter, modifier, supprimer et rechercher des items. Ensuite, nous avons décrit les fonctions de remplacement et de rafraichissement des items. Pour le remplacement des items, nous avons dressé une liste de facteurs entrant en jeu lors de la définition de la politique de remplacement dans le contexte des mashups. Le rafraichissement des items est exécuté d’une façon incrémentale. Nous avons adopté une stratégie adaptative pour la définition des durées de vie des items ainsi nous avons adapté la stratégie TTL incrémental au contexte des mashups. Nous avons implanté les concepts de mashups et les fonctionnalités proposées pour améliorer la disponibilité de données. Pour implanter ces fonctionnalités, Nous avons adapté des gestionnaires d’ACS au contexte des mashups et nous y avons introduit le gestionnaire de rafraichissement. La validation de notre implantation, via des tests sur l’exécution de deux scénarios de mashups, nous a montré que les dites fonctionnalités implantées via un cache constituent une solution crédible pour garantir la disponibilité de données dans les mashups. 6.2 Perspectives Les travaux réalisés dans cette thèse ne sont que le premier pas vers la définition d’un environnement pour la construction et l’exécution de mashups. Des nouveaux défis et améliorations doivent être traités. Les points qui nous apparaissent intéressants pour la suite sont : • Définir un langage déclaratif permettant à un utilisateur final de définir son mashup. Ce langage peut être aussi bien textuel que graphique. Ceci constitue une amélioration apportée à MELQART en vue d’une évolution vers un environnement de définition et d’exécution de mashups. Actuellement, la définition d’un langage de mashups fait partie des projets RedShine49 et Clever50 . • Considérer le cas de figure où les données du !"#$% sont périmées et qu’il est impossible de les rafraichir (dans le cas de rupture de connexion avec le fournisseur de données correspondant). Ceci implique la mise en œuvre d’un traitement d’exceptions et des actions pour palier ces exceptions en assurant un fonctionnement du mashup même détérioré. Une solution possible peut inclure la recherche d’un autre fournisseur de données offrant des données contenant l’information recherchée. Ceci nécessite la mise en place d’un processus de mapping de données pour récupérer des données décrites selon le même format. Ce travail a été démarré dans le cadre des projets Clever et e-Cloudss51 et dans un des scénarios de validation de la thèse de Javier Espinosa [99]. Ils implantent des stratégies simples de rafraîchissement. Ils doivent évoluer pour prendre en considération des stratégies adaptatives, modifiables et tenant compte des besoins de l’utilisateur. 49 http://red-shine.imag.fr/ 50 http://clever.imag.fr 51 http://e-cloudss.imag.fr/109 • Mettre en cache les résultats de certaines activités intermédiaires dans un arbre d’activités. Toutefois, pour cela, il faut prendre en considération plusieurs facteurs pour choisir l’activité ; comme le nombre d’exécutions (cette différence entre activités d’un arbre provient de la possibilité de qu’une activité peut faire partie de deux arbres ou plus), l’espace restant dans le !"#$% etc. • Mettre des données en cache sur la machine du client. Le cache, en question, pourrait être utilisé pour stocker les données des mashlets d’un mashup. Ces données sont produites sur le serveur de MELQART et envoyées à l’utilisateur. Cacher ces données permet d’assurer leur disponibilité même en cas d’une déconnexion de la machine du client. • Considérer le cas des données récupérées avec un mécanisme de pagination ou les données récupérées en continue sous la forme d’un flux. Dans ce cas Comment réorganiser le !"#$% ? Comment le gérer ? Et Comment réadapter les fonctionnalités de disponibilités de données ? • Étudier et procéder à l’amélioration d’autres qualités de services QoS. Il existe déjà des travaux comme [100][101] qui ont traité le problème de la confidentialité des données (data privacy). D’autres propriétés QoS pour la gestion des mashups et des données ont été identifiées dans [67][102][103][33][104]. Parmi ces propriétés, nous retrouvons, la sécurité des données (data security), la précision des données (data accuracy) et l’utilisabilité de la présentation (presentation usability). o La sécurité réfère aux stratégies qui assurent la sureté d’un mashup et de ses données. Comment s’assurer de l’intégrité des données : le fait que les données ne subissent aucune altération ou déformation lors du transfert des données entre les fournisseurs et le mashup ? Comment gérer les données confidentielles dans une application où les données sont mélangées ? o La précisons des données réfère à l'exactitude et la cohérence des données du mashup par rapport au monde. La précision est mesurée comme la proximité des données récupérées aux données correctes (dans le monde réelle). La précision des données d’un mashup dépend de la précision des fournisseurs de données. Dans [67], la précision des données est exprimée comme étant la probabilité que les donnés soient correctes : ! !"" = 1 − !(!"") Où !(!"") est la probabilité qu’une erreur se produise. L’erreur de précision peut se produire pour différentes raisons, telles que les fautes de frappe, la représentation erronée ou mises à jour manquantes. Comment un système d’exécution de mashups peut vérifier l’exactitude des données récupérées ? Comment détecter si un service de données n’est plus maintenu à jour par ses propriétaires ? Et comment réagir dans ce cas ? o L’utilisabilité de la présentation est une propriété qui caractérise l’expérience de l’utilisateur. Les mêmes attributs de l’utilisabilité de présentation, définis pour les pages web [105][106], peuvent être pris en compte pour l’utilisabilité de la présentation des mashups. En particulier la compréhension du fonctionnement (learnability) et la compréhension du contenu (understandability) et l’attractivité de la présentation (attractiveness). Dans le cas des mashups, est ce qu’il faut revoir ces attributs ? Quelles stratégies faut il mettre en place pour aider le constructeur de mashups à construire des mashups respectant ces attributs ? • Etudier la prise en compte des préférences de l’utilisateur. Dans [107], les auteurs proposent un système de mashups avec la prise en compte des préférences de l’utilisateur liées aux informations qu’il recherche (par exemple : préférer le moins cher etc.). Nous pensons qu’il faut également développer une étude sur les préférences de l’utilisateur en matière de qualités de service du mashup comme la sécurité, la fraicheur, la précision des données. • Étudier la répartition de la charge de l’exécution des mashups entre le serveur de MELQART et sur la machine de l’utilisateur. Comment repartir les tâches ? Et dans ce cas, la machine du client peut être faible en ressources (capacité de calcul mémoire, énergie), ainsi il faut mettre une place une stratégie d’optimisation d’exécution des mashups. Cette stratégie doit prendre en 110 considération l’ordre des exécutions des activités et le choix des algorithmes pour l’exécution des opérations de manipulation de données.111 BIBLIOGRAPHIE [1] D. Merrill, “Mashups: The new breed of Web app,” IBM Corporation, CT316, Aug. 2006. [2] F. Belleau, M.-A. Nolin, N. Tourigny, P. Rigault, and J. Morissette, “Bio2RDF: Towards a mashup to build bioinformatics knowledge systems,” Journal of Biomedical Informatics, vol. 41, no. 5, pp. 706–716, Oct. 2008. [3] S. Abiteboul, O. Greenshpan, and T. Milo, “Modeling the mashup space,” in Proceeding of the 10th ACM workshop on Web information and data management, Napa Valley, California, USA, 2008, pp. 87–94. [4] Ke Xu, Meina Song, and Xiaoqi Zhang, “Home Appliance Mashup System Based on Web Service,” in Service Sciences (ICSS), 2010 International Conference on, 2010, pp. 94–98. [5] C. Safran, D. Helic, and C. Gütl, “E-Learning practices and Web 2.0,” presented at the Proc. of the 10th International Conference of Interactive computer aided learning (ICL 2007), Villach Austria, 2007. [6] M. Eisenstadt, “Does Elearning Have To Be So Awful? (Time to Mashup or Shutup),” in Advanced Learning Technologies, 2007. ICALT 2007. Seventh IEEE International Conference on, 2007, pp. 6 –10. [7] N. Schuster, C. Zirpins, M. Schwuchow, S. Battle, and S. Tai, “The MoSaiC model and architecture for service-oriented enterprise document mashups,” in Proceedings of the 3rd and 4th International Workshop on Web APIs and Services Mashups, New York, NY, USA, 2010, pp. 5:1–5:8. [8] M. Essid, Y. Lassoued, and O. Boucelma, “Processing Mediated Geographic Queries: a Space Partitioning Approach,” in The European Information Society, S. I. Fabrikant and M. Wachowicz, Eds. Springer Berlin Heidelberg, 2007, pp. 303–315. [9] O. Boucelma, “Spatial Data Integration on the Web: Issues and Solutions,” presented at the MoMM, 2006, pp. 5–6. [10] “Pipes: Rewire the web.” [Online]. Available: http://pipes.yahoo.com/pipes/. [Accessed: 12- Jan-2011]. [11] Jin Yu, B. Benatallah, F. Casati, and F. Daniel, “Understanding Mashup Development,” Internet Computing, IEEE, vol. 12, no. 5, pp. 44–52, 2008. [12] H. Chen, B. Lu, Y. Ni, G. Xie, C. Zhou, J. Mi, and Z. Wu, “Mashup by surfing a web of data APIs,” Proc. VLDB Endow., vol. 2, no. 2, pp. 1602–1605, 2009. [13] E. M. Maximilien, A. Ranabahu, and K. Gomadam, “An Online Platform for Web APIs and 112 Service Mashups,” Internet Computing, IEEE, vol. 12, no. 5, pp. 32–43, 2008. [14] E. M. Maximilien, H. Wilkinson, N. Desai, and S. Tai, “A Domain-Specific Language for Web APIs and Services Mashups,” in Proceedings of the 5th international conference on ServiceOriented Computing, Vienna, Austria, 2007, pp. 13–26. [15] Nan Zang and M. B. Rosson, “Playing with information: How end users think about and integrate dynamic data,” in Visual Languages and Human-Centric Computing, 2009. VL/HCC 2009. IEEE Symposium on, 2009, pp. 85–92. [16] R. Ennals and D. Gay, “User-friendly functional programming for web mashups,” in Proceedings of the 12th ACM SIGPLAN international conference on Functional programming, Freiburg, Germany, 2007, pp. 223–234. [17] J. Lin, J. Wong, J. Nichols, A. Cypher, and T. A. Lau, “End-user programming of mashups with vegemite,” in Proceedings of the 13th international conference on Intelligent user interfaces, Sanibel Island, Florida, USA, 2009, pp. 97–106. [18] E. Acquaro, V. Manferto de Fabianis, and L. Cohen, Les Phéniciens trésors d’une civilisation ancienne. Vercelli (Italie); Paris: White Star, 2009. [19] S. Abiteboul and C. Beeri, “The power of languages for the manipulation of complex values,” The VLDB Journal, vol. 4, no. 4, pp. 727–794, Oct. 1995. [20] S. Abiteboul, R. Hull, and V. Vianu, Eds., Foundations of Databases: The Logical Level, 1st ed. Boston, MA, USA: Addison-Wesley Longman Publishing Co., Inc., 1995. [21] E. F. Codd, “A relational model of data for large shared data banks,” Commun. ACM, vol. 13, no. 6, pp. 377–387, juin 1970. [22] F. Bancilhon, “The O2 object-oriented database system,” in Proceedings of the 1992 ACM SIGMOD international conference on Management of data, New York, NY, USA, 1992, pp. 7–7. [23] K. R. Dittrich, H. Fritschi, S. Gatziu, A. Geppert, and A. Vaduva, “SAMOS in hindsight: experiences in building an active object-oriented DBMS,” Inf. Syst., vol. 28, no. 5, pp. 369– 392, juillet 2003. [24] R. G. G. Cattell, D. K. Barry, M. D. Berler, J. Eastman, D. Jordan, C. Russel, O. Schadow, T. Stanienda, and F. Velez, The Object Data Satandard: ODMG 3.0. Morgan Kaufmann, 2000. [25] E. Griffin, Foundations of Popfly: Rapid Mashup Development. Apress, 2008. [26] S. Abiteboul, P. Buneman, and D. Suciu, Data on the Web: From Relations to Semistructured Data and Xml. Morgan Kaufmann, 2000. [27] S. Abiteboul, I. Manolescu, P. Rigaux, M.-C. Rousset, and P. Senellart, Web Data Management. Cambridge University Press, 2011. [28] C. R. Anderson and E. Horvitz, “Web montage: a dynamic personalized start page,” in Proceedings of the 11th international conference on World Wide Web, New York, NY, USA, 2002, pp. 704–712. [29] R. J. Ennals and M. N. Garofalakis, “MashMaker: mashups for the masses,” in Proceedings of the 2007 ACM SIGMOD international conference on Management of data, Beijing, China, 113 2007, pp. 1116–1118. [30] “JackBe.com - Real-Time Intelligence Solutions | Presto.” [Online]. Available: http://www.jackbe.com/products/. [Accessed: 12-Jan-2011]. [31] A. Bouguettaya, S. Nepal, W. Sherchan, Xuan Zhou, J. Wu, Shiping Chen, Dongxi Liu, L. Li, Hongbing Wang, and Xumin Liu, “End-to-End Service Support for Mashups,” Services Computing, IEEE Transactions on, vol. 3, no. 3, pp. 250–263, 2010. [32] “Mashup Server by WSO2 - Open Source Mashup Server for easy Web service composition and aggregation using JavaScript | WSO2.” [Online]. Available: http://wso2.com/products/mashup-server/. [Accessed: 12-Jan-2012]. [33] J. Palfrey and U. Gasser, “Case Study: Mashups Interoperability and eInnovation,” University of St. Gallen, 2007. [34] D. Deutch, O. Greenshpan, and T. Milo, “Navigating through Mashed-up Applications with COMPASS,” in Data Engineering (ICDE), 2010 IEEE 26th International Conference on, 2010, pp. 1117–1120. [35] V. Hoyer and M. Fischer, “Market Overview of Enterprise Mashup Tools,” in ServiceOriented Computing – ICSOC 2008, 2008, pp. 708–721. [36] Amin Andjomshoaa, G. Bader, and A. M. Tjoa, “Exploiting Mashup Architecture in Business Use Cases,” presented at the NBIS 2009, Indianapolis, USA, 2009. [37] V. Hoyer and K. Stanoevska-Slabeva, “Towards a Reference Model for Grassroots Enterprise Mashup Environmentd,” in Proceedings of the 17th European Conference on Information Systems (ECIS 2009), Verona, Italy, 2009, p. 10. [38] M. Altinel, P. Brown, S. Cline, R. Kartha, E. Louie, V. Markl, L. Mau, Y.-H. Ng, D. Simmen, and A. Singh, “Damia: a data mashup fabric for intranet applications,” in Proceedings of the 33rd international conference on Very large data bases, Vienna, Austria, 2007, pp. 1370– 1373. [39] L. Ramaswamy, J. A Miller, and O. Al-Haj Hassan, “The MACE Approach for Caching Mashups,” International Journal of Web Services Research, vol. 7, no. 4, pp. 64–88, 2010. [40] J. Crupi, “A Business Guide to Enterprise Mashups,” JackeBe Corporation, 2008. [41] V. Hoyer and K. Stanoevska-Slabeva, “Generic Business Model Types for Enterprise Mashup Intermediaries,” Value Creation in E-Business Management, 2009. [Online]. Available: http://dx.doi.org/10.1007/978-3-642-03132-8_1. [Accessed: 11-Dec-2009]. [42] D. Deutch, O. Greenshpan, and T. Milo, “Navigating in complex mashed-up applications,” Proc. VLDB Endow., vol. 3, pp. 320–329, Sep. 2010. [43] A. Thor, D. Aumueller, and E. Rahm, “Data Integration Support for Mashups,” 2007. [44] G. Di Lorenzo, H. Hacid, H. Paik, and B. Benatallah, “Data integration in mashups,” SIGMOD Rec., vol. 38, no. 1, pp. 59–66, Jun. 2009. [45] N. Bidoit, Bases de données déductives: présentation de Datalog. Armand Colin, 1991. [46] P. G. Kolaitis and M. Y. Vardi, On the Expressive Power of Datalog: Tools and a Case Study. 114 University of California, Santa Cruz, Computer Research Laboratory, 1990. [47] E. Ort, S. Brydon, and M. Balser, “Mashup Styles, Part 1: Server-Side Mashups,” Oracle, 2007. [48] E. Ort, S. Brydon, and M. Balser, “Mashup Styles, Part 2: Client-Side Mashups in the Java EE Platform,” Oracle, 2007. [49] A. Koschmider, V. Torres, and V. Pelechano, “Elucidating the Mashup Hype: Definition, Challenges, Methodical Guide and Tools for Mashups,” in 2nd Workshop on Mashups, Enterprise Mashups and Lightweight Composition on the Web in conjunction with the 18th International World Wide Web Conference, Madrid, 2009. [50] R. Ennals, E. Brewer, M. Garofalakis, M. Shadle, and P. Gandhi, “Intel Mash Maker: join the web,” SIGMOD Rec., vol. 36, no. 4, pp. 27–33, 2007. [51] S. Aghaee and C. Pautasso, “Mashup development with HTML5,” in Proceedings of the 3rd and 4th International Workshop on Web APIs and Services Mashups, New York, NY, USA, 2010, pp. 10:1–10:8. [52] K. Pfeil, “Data Security and Data Availability in the Administrative Authority,” Microsoft TechNet. [53] F. Piedad and M. W. Hawkins, High Availability: Design, Techniques, and Processes, 1st ed. Prentice Hall, 2000. [54] E. Marcus and H. Stern, Blueprints for High Availability. Wiley, 2003. [55] V. Peralta, “Data freshness and data accuracy: A state of the art,” Instituto de Computación, Facultad de Ingeniería, Universidad de la República, URUGUAY, 2006. [56] M. Bouzeghoub, “A framework for analysis of data freshness,” in Proceedings of the 2004 international workshop on Information quality in information systems, New York, NY, USA, 2004, pp. 59–67. [57] B. Shin, “An Exploratory Investigation of System Success Factors in Data Warehousing,” Journal of the Association for Information Systems, vol. 4, no. 1, Aug. 2003. [58] X. Ma, S. S. Vazhkudai, and Z. Zhang, “Improving Data Availability for Better Access Performance: A Study on Caching Scientific Data on Distributed Desktop Workstations,” J Grid Computing, vol. 7, no. 4, pp. 419–438, Dec. 2009. [59] S. Drapeau, “RS2.7 : un Canvas Adaptable de Services de Duplication,” Institut National Polytechnique De Grenoble, Grenoble, 2003. [60] R. van Renesse and R. Guerraoui, “Replication,” B. Charron-Bost, F. Pedone, and A. Schiper, Eds. Berlin, Heidelberg: Springer-Verlag, 2010, pp. 19–40. [61] R. van Renesse and R. Guerraoui, “Replication Techniques for Availability,” in Replication, B. Charron-Bost, F. Pedone, and A. Schiper, Eds. Springer Berlin Heidelberg, 2010, pp. 19–40. [62] L. D’Orazio, “Caches adaptables et applications aux systèmes de gestion de données répartis à grande échelle,” Grenoble INP, 2007. [63] J. Wang, “A survey of web caching schemes for the Internet,” SIGCOMM Comput. 115 Commun. Rev., vol. 29, no. 5, pp. 36–46, Oct. 1999. [64] K. S. Ahluwalia and A. Jain, “High availability design patterns,” in Proceedings of the 2006 conference on Pattern languages of programs, New York, NY, USA, 2006, pp. 19:1–19:9. [65] G. Attiya and Y. Hamam, “Reliability oriented task allocation in heterogeneous distributed computing systems,” in Ninth International Symposium on Computers and Communications, 2004. Proceedings. ISCC 2004, 2004, vol. 1, pp. 68 – 73 Vol.1. [66] N. R. May, H. W. Schmidt, and I. E. Thomas, “Service Redundancy Strategies in ServiceOriented Architectures,” in Proceedings of the 2009 35th Euromicro Conference on Software Engineering and Advanced Applications, Washington, DC, USA, 2009, pp. 383– 387. [67] C. Cappiello, F. Daniel, M. Matera, and C. Pautasso, “Information Quality in Mashups,” Internet Computing, IEEE, vol. 14, no. 4, pp. 14–22, 2010. [68] D. Ballou, R. Wang, H. Pazer, and G. K. Tayi, “Modeling Information Manufacturing Systems to Determine Information Product Quality,” Manage. Sci., vol. 44, no. 4, pp. 462–484, avril 1998. [69] G. Di Lorenzo, H. Hacid, H. Paik, and B. Benatallah, “Mashups for Data Integration: An Analysis,” UNSW-CSE, 0810, 2008. [70] M. Bhide, P. Deolasee, A. Katkar, A. Panchbudhe, K. Ramamritham, and P. Shenoy, “Adaptive Push-Pull: Disseminating Dynamic Web Data,” IEEE Trans. Comput., vol. 51, no. 6, pp. 652–668, juin 2002. [71] G. Soundararajan, C. Amza, and A. Goel, “Database replication policies for dynamic content applications,” SIGOPS Oper. Syst. Rev., vol. 40, no. 4, pp. 89–102, avril 2006. [72] P. A. Bernstein, V. Hadzilacos, and N. Goodman, Concurrency control and recovery in database systems. Boston, MA, USA: Addison-Wesley Longman Publishing Co., Inc., 1987. [73] C. Pu and A. Leff, “Replica control in distributed systems: as asynchronous approach,” in Proceedings of the 1991 ACM SIGMOD international conference on Management of data, New York, NY, USA, 1991, pp. 377–386. [74] B. Kemme and G. Alonso, “A new approach to developing and implementing eager database replication protocols,” ACM Trans. Database Syst., vol. 25, no. 3, pp. 333–379, Sep. 2000. [75] R. Ladin, B. Liskov, L. Shrira, and S. Ghemawat, “Providing high availability using lazy replication,” ACM Trans. Comput. Syst., vol. 10, no. 4, pp. 360–391, Nov. 1992. [76] M.-K. Liu, F.-Y. Wang, and D. Zeng, “Web caching: A way to improve web QoS,” Journal of Computer Science and Technology, vol. 19, no. 2, pp. 113–127, 2004. [77] J. Yin, L. Alvisi, M. Dahlin, and A. Iyengar, “Engineering web cache consistency,” ACM Trans. Internet Technol., vol. 2, no. 3, pp. 224–259, août 2002. [78] Y. Ahmad, O. Kennedy, C. Koch, and M. Nikolic, “DBToaster: higher-order delta processing for dynamic, frequently fresh views,” Proc. VLDB Endow., vol. 5, no. 10, pp. 968–979, juin 2012.116 [79] M. Altinel, C. Bornhövd, S. Krishnamurthy, C. Mohan, H. Pirahesh, and B. Reinwald, “Cache tables: paving the way for an adaptive database cache,” in Proceedings of the 29th international conference on Very large data bases - Volume 29, 2003, pp. 718–729. [80] A. Labrinidis and N. Roussopoulos, “Exploring the tradeoff between performance and data freshness in database-driven Web servers,” The VLDB Journal, vol. 13, no. 3, pp. 240–255, Sep. 2004. [81] P. Scheuermann, J. Shim, and R. Vingralek, “WATCHMAN: A Data Warehouse Intelligent Cache Manager,” in Proceedings of the 22th International Conference on Very Large Data Bases, San Francisco, CA, USA, 1996, pp. 51–62. [82] Y. Kotidis and N. Roussopoulos, “DynaMat: a dynamic view management system for data warehouses,” SIGMOD Rec., vol. 28, no. 2, pp. 371–382, juin 1999. [83] W. Ye, N. Gu, G. Yang, and Z. Liu, “Extended derivation cube based view materialization selection in distributed data warehouse,” in Proceedings of the 6th international conference on Advances in Web-Age Information Management, Berlin, Heidelberg, 2005, pp. 245–256. [84] I. S. Altingovde, R. Ozcan, B. B. Cambazoglu, and Ö. Ulusoy, “Second chance: a hybrid approach for dynamic result caching in search engines,” in Proceedings of the 33rd European conference on Advances in information retrieval, Berlin, Heidelberg, 2011, pp. 510–516. [85] B. B. Cambazoglu, F. P. Junqueira, V. Plachouras, S. Banachowski, B. Cui, S. Lim, and B. Bridge, “A refreshing perspective of search engine caching,” in Proceedings of the 19th international conference on World wide web, New York, NY, USA, 2010, pp. 181–190. [86] Sadiye Alici, I. S. Altingovde, R. Ozcan, B. B. Cambazoglu, and Ö. Ulusoy, “Adaptive timeto-live strategies for query result caching in web search engines,” in Proceedings of the 34th European conference on Advances in Information Retrieval, Berlin, Heidelberg, 2012, pp. 401–412. [87] J. Tatemura, O. Po, A. Sawires, D. Agrawal, and K. S. Candan, “WReX: a scalable middleware architecture to enable XML caching for web-services,” in Proceedings of the ACM/IFIP/USENIX 2005 International Conference on Middleware, New York, NY, USA, 2005, pp. 124–143. [88] V. Ramasubramanian and D. B. Terry, “Caching of XML Web Services for Disconnected Operation,” Microsoft Research, 2002. [89] T. Takase and M. Tatsubori, “Efficient Web services response caching by selecting optimal data representation,” in 24th International Conference on Distributed Computing Systems, 2004. Proceedings, 2004, pp. 188 – 197. [90] D. D. Terry and V. Ramasubramanian, “Caching XML Web Services for Mobility,” Queue, vol. 1, no. 3, pp. 70–78, mai 2003. [91] H. Artail and H. Al-Asadi, “A Cooperative and Adaptive System for Caching Web Service Responses in MANETs,” in International Conference on Web Services, 2006. ICWS ’06, 2006, pp. 339 –346. [92] J. Huang, X. Liu, Q. Zhao, J. Ma, and G. Huang, “A browser-based framework for data cache in Web-delivered service composition,” in 2010 IEEE International Conference on Service-117 Oriented Computing and Applications (SOCA), 2010, pp. 1–8. [93] Qi Zhao, Gang Huang, Jiyu Huang, Xuanzhe Liu, and Hong Mei, “A Web-Based Mashup Environment for On-the-Fly Service Composition,” in Service-Oriented System Engineering, 2008. SOSE ’08. IEEE International Symposium on, 2008, pp. 32–37. [94] P. Grogono and P. Santas, “Equality in Object Oriented Languages,” presented at the EastEurOOPe’93, 1993. [95] P. Grogono and M. Sakkinen, “Copying and Comparing: Problems and Solutions,” in ECOOP 2000 — Object-Oriented Programming, E. Bertino, Ed. Springer Berlin Heidelberg, 2000, pp. 226–250. [96] T. H. Cormen, C. E. Leiserson, R. L. Rivest, and C. Stein, Introduction To Algorithms, 3rd Edition, 3rd Revised ed. Cambridge, Massachusetts - London, England: The MIT Press, 2009. [97] V. Estivill-Castro and D. Wood, “A survey of adaptive sorting algorithms,” ACM Comput. Surv., vol. 24, no. 4, pp. 441–476, décembre 1992. [98] E. Gamma, R. Helm, R. Johnson, and J. Vlissides, Design Patterns: Elements of Reusable Object-Oriented Software. USA: Addison-Wesley, 1994. [99] J. Espinosa-Oviedo, “Coordination fiable de services de données à base de politiques actives,” de Grenoble, 2013. [100] M. Barhamgi, D. Benslimane, C. Ghedira, A. N. Benharkat, and A. L. Gancarski, “PPPDM - a privacy-preserving platform for data mashup,” International Journal of Grid and Utility Computing, vol. 3, no. 2/3, p. 175, 2012. [101] R. Hasan, M. Winslett, R. Conlan, B. Slesinsky, and N. Ramani, “Please Permit Me: Stateless Delegated Authorization in Mashups,” in Computer Security Applications Conference, 2008. ACSAC 2008. Annual, 2008, pp. 182, 173. [102] C. Cappiello, F. Daniel, and M. Matera, “A Quality Model for Mashup Components,” in Web Engineering, 2009, pp. 236–250. [103] A. Koschmider, V. Hoyer, and A. Giessmann, “Quality metrics for mashups,” in Proceedings of the 2010 Annual Research Conference of the South African Institute of Computer Scientists and Information Technologists, New York, NY, USA, 2010, pp. 376–380. [104] A. Portilla, V. Hernandez-Baruch, G. Vargas-Solar, J.-L. Zechinelli-Martini, and C. Collet, “Building reliable services based mashups,” presented at the IV Jornadas CienfificoTécnicas en Servicios WEB y SOA (JSWEB 2008), Sevilla, Spain, 2008. [105] C. Calero, J. Ruiz, and M. Piattini, “A Web Metrics Survey Using WQM,” in Web Engineering, vol. 3140, N. Koch, P. Fraternali, and M. Wirsing, Eds. Springer Berlin / Heidelberg, 2004, pp. 766–766. [106] M. Matera, F. Rizzo, and G. Carughi, “Web Usability: Principles and Evaluation Methods,” in Web Engineering, E. Mendes and N. Mosley, Eds. Springer Berlin Heidelberg, 2006, pp. 143–180. [107] S. Amdouni, D. Benslimane, M. Barhamgi, A. Hadjali, R. Faiz, and P. Ghodous, “A Preference-aware Query Model for Data Web Services,” in Proceedings of the 31st International Conference on Conceptual Modeling, Berlin, Heidelberg, 2012, pp. 409–422.118 [108] O. Beletski, “End User Mashup Programming Environments,” in T-111.5550 Seminar on Multimedia, 2008. [109] “Microsoft Research FUSE Labs - Project Montage.” [Online]. Available: http://fuse.microsoft.com/page/montage. [Accessed: 27-Jun-2012]. [110] R. Ennals, E. Brewer, M. Garofalakis, M. Shadle, and P. Gandhi, “Intel Mash Maker: join the web,” SIGMOD Rec., vol. 36, no. 4, pp. 27–33, 2007. [111] D. E. Simmen, M. Altinel, V. Markl, S. Padmanabhan, and A. Singh, “Damia: data mashups for intranet applications,” in Proceedings of the 2008 ACM SIGMOD international conference on Management of data - SIGMOD ’08, Vancouver, Canada, 2008, p. 1171.119 ANNEXE$A : SYSTEMES D’EXECUTION)DE)MASHUPS ETUDIES Pendant ces dernières années, plusieurs environnements de création de mashups ont vu le jour. Chacun de ces environnements offre un ensemble de fonctionnalités et caractéristiques qui répondent à des besoins spécifiques d’un certain public. Ainsi, certains environnements sont dédiés aux constructeurs novices, alors que d’autres s’adressent aux développeurs. Dans cette section, nous présentons une sélection d’environnements de création et d’exécution de mashups. Pour des études poussées sur ces outils, le lecteur peut se référer à [35][11][108]. Montage Montage [109] est un outil de création de mashups développé par Microsoft. Il permet aux utilisateurs novices de créer des pages web personnalisées, qui peuvent afficher des données provenant de différentes sources, comme le montre la Figure 6752: vidéos, flux RSS, images, tweets … Figure'67 :'Sources'de'données'dans'Montage Le contenu est disposé sur la page sous la forme d’une grille. Celle-ci peut être décomposée horizontalement et verticalement. Chaque rectangle de la grille représente un mashlet et affiche les données choisies par l’utilisateur. Il n’y a aucune communication entre les mashlets. 52 La figure est scindée en deux, pour une raison d’espace.120 Yahoo!)Pipes Yahoo! Pipes [10] permet aux utilisateurs d’agréger des données provenant de différents sources comme des flux ou des pages web via un éditeur graphique, comme le montre la Figure 68. Figure'68 :'Construction'de'mashlets'dans'Yahoo!'Pipes Il est principalement destiné aux utilisateurs ayant quelques notions de programmation. En effet, les mashups sont créés via un mécanisme de glisser-déposer. Un « Pipe » est un ensemble de modules connectés. Un module correspond à un opérateur qui exécute une tâche spécifique. L'ensemble des opérateurs disponibles comprend les opérateurs de transformation de données (tri, filtrage ...), les opérateurs de contrôle (boucle), les opérateurs arithmétiques (comptage…) et les opérateurs sur les expressions régulières. Intel)MashMaker MashMaker [110][16][29] est un outil de construction de mashups proposé par Intel en version bêta, mis hors service en 2011. Il est fourni sous la forme d’une extension pour les navigateurs Firefox et Internet Explorer. L’outil offre des fonctionnalités qui permettent de personnaliser des pages web en ajoutant des informations supplémentaires et des widgets. L’utilisateur peut définir des extracteurs (scrapers) pour extraire des données des pages web. Les données extraites sont organisées sous la forme d’une structure arborescente qui peut être lue et enrichie par d’autres widgets. Les mashups sont construits par un mécanisme de copier-coller de widgets (qui affichent des données extraites d’autres sites) et par l’ajout de widgets qui exécutent des requêtes de transformations de données.121 WSO2)Mashup)Server WSO2 Mashup Server [32] est une plateforme open source qui est dédiée aux développeurs. Elle offre un environnement pour créer, déployer et exécuter les mashups. La plateforme est basée sur les technologies XML et JavaScript. Elle permet d’agréger des données issues de différentes sources comme les pages web, les services web, les flux ou les bases de données. Le résultat peut être exposé sous la forme d’un flux, d’un service web, d’une page web, ou d’un widget à ajouter dans iGoogle. Damia Damia [38][111] est un outil de construction de mashups proposé par IBM. Il permet d’agréger des données issues de différentes sources comme Notes, Excel, des pages web, … Les données sont agrégées par le moyen d’opérateurs comme l’union, le tri, le filtrage. La création du mashup se fait au sein d’un navigateur. Comme dans Yahoo! Pipes, le constructeur glisse les sources et les opérateurs et les branches via des connecteurs. Presto)Enterprise)Mashups Presto Enterprise Mashups [40] est une plateforme de création de mashups proposée par JackBe Corporation. La plateforme est dédiée à la création de mashups d’entreprises. Elle permet d’agréger des données issues de sources internes et d’autres issues de sources externes. La plateforme fournit également des outils pour définir les échanges entre mashlets ainsi que l’interface graphique du mashup et des mashlets. L’agrégation de données peut se faire soit d’une manière graphique, soit par programmation. Dans le premier cas, la construction est similaire à celle de Yahoo! Pipes, et se fait dans un navigateur web. Dans le second cas, le développeur est amené à écrire son code en langage EMML, via une extension Eclipse : Presto Mashup Studio. La plateforme fournit également des extensions qui permettent d’importer des données et/ou d’exporter les mashlets vers d’autres plateformes comme : • Microsoft SharePoint • Des produits Oracles. • Des terminaux mobiles • Des portails • Des fichiers Excel Mashup)Service)System Mashup Service System MSS [31] est une plateforme conçue pour les utilisateurs novices, qui leur permet de construire des mashups personnalisés qui répondent à des besoins spécifiques. Comme illustré dans la Figure 69, les données sont accessibles via des services. Ces services sont décrits selon un certain modèle sémantique de services (basé sur une certaine ontologie définie par « une communauté »), qui permet d’avoir un raisonnement automatique sur les services. L'utilisateur est invité à exprimer ses besoins, qui sont traduits en requêtes MSQL (Mashup Service Query Language, langage de type SQL). MSS recherche alors, automatiquement, les services 122 appropriés et crée le mashup en composant automatiquement les services. Le mashup est exécuté et le résultat est retourné à l’utilisateur comme réponse à sa requête. Dans [107], les auteurs proposent une approche similaire. Elle est basée également sur une description sémantique des services web et de l’expression des besoins de l’utilisateur. Ils permettent de surcroit, à l’utilisateur d’exprimer des préférences dans sa requête. Celles ci sont prises en considération lors du calcul et du tri du résultat. Figure'69 :'Architecture'de'MSS 123 ANNEXE$B : SYNTAXE'DE'JSON La syntaxe de JSON est présentée dans la Figure 7053. JSON se base sur deux structures : les objets (une collection de paires nom : valeur) et les tableaux (une liste de valeurs ordonnées). Pratiquement tous les langages de programmation proposent ces structures de données sous une forme ou une autre. Les valeurs peuvent être atomiques de type chaine de caractère, nombre, booléen ou des objets ou des tableaux. Figure'70 :'Syntaxe'de'JSON 53 Images obtenues de http://www.json.org/json-fr.html124 Un objet JSON est représenté par un ensemble de paires nom : valeurs séparées par des virgules entre deux accolades. Par exemple une valeur de l’entrée du mashlet Map du mashup ItineraryPlanner peut être représentée par un l’objet JSON entreeMashup suivant : entreeMashup = {“depart” : “Grenoble”, “destination” : “Paris”, “note” : 4} Un tableau JSON est une liste de valeurs ordonnées séparées par des virgules et délimitées par deux crochets. Par exemple, la liste de valeurs de villes intermédiaires entre Grenoble et Paris sous format WOEID54 peut être représentée par le tableau JSON listeVilles suivant : listeVilles = [{"woeid":12724717}, {"woeid":12724728}, {"woeid":12724752}, {"woeid":12726960}, {"woeid":582081}, {"woeid":12726917}, {"woeid":12726920},{"woeid":12726958}, {"woeid":12723642}, {"woeid":12728226}, {"woeid":12728378}, {"woeid":12728381}, {"woeid":20068149}, {"woeid":20068148}, {"woeid":20068141}] Un document JSON est un objet JSON. Il peut être constitué d’imbrications d’un nombre non limité d’objets et tableaux [27]. L’itinéraire entre Grenoble et Paris est décrit par le document JSON routeGP dont une partie est donnée ci dessous. {"routes" : [ { "bounds" : { "northeast" : { "lat" : 48.857240, "lng" : 5.724690000000001 }, "southwest" : { "lat" : 45.18839000000001, "lng" : 2.306130 } }, "copyrights" : "Données cartographiques ©2012 GeoBasis-DE/BKG (©2009), Google", "legs" : [ { "distance" : { "text" : "574 km", "value" : 573623 }, "duration" : { "text" : "5 heures 21 minutes", "value" : 19284 }, "end_address" : "Paris, France", "end_location" : { "lat" : 48.857240, "lng" : 2.35260 }, "start_address" : "Grenoble, France", "start_location" : { "lat" : 45.18839000000001, "lng" : 5.724690000000001 }, 54 Un identifiant WOEID (Where on Earth IDentifier) est un identifiant de référence assigné par Yahoo! Pour identifier des points géographiques sur la terre. 125 "steps" : [ { "distance" : { "text" : "92 m", "value" : 92 }, "duration" : { "text" : "1 minute", "value" : 7 }, "end_location" : { "lat" : 45.188890, "lng" : 5.725610000000001 }, "html_instructions" : "Prendre la direction \u003cb\u003enord-est\u003c/b\u003e sur \u003cb\u003ePl. Victor Hugo\u003c/b\u003e vers \u003cb\u003eRue Paul Bert\u003c/b\u003e", "polyline" : { "points" : "mzxrGib}a@g@gA{@oB" }, "start_location" : { "lat" : 45.18839000000001, "lng" : 5.724690000000001 }, "travel_mode" : "DRIVING" …… } ], "status" : "OK" } L’accès à une valeur dans un tableau se fait classiquement par une notation indexée. Par exemple listeVilles[1] ={"woeid":12724717}. Tandis que l’accès à une valeur d’une paire d’un objet JSON se fait en indiquant le nom de la paire. Par exemple entreeMashup.depart = “Grenoble”. En combinant ces 2 notations, on peut spécifier des chemins d’accès à des valeurs à l’intérieur d’un document JSON. Par exemple, le chemin d’accès suivant : routeGP.routes[0].legs[0].steps[0].start_location permet d’accéder à la donnée qui représente les coordonnées géographiques du point de départ de la première étape de l’itinéraire. {"lat" : 45.18839000000001,"lng" : 5.724690000000001}. 127 128 Cette thèse présente MELQART, un système d’exécution de mashups avec disponibilité de données. Un mashup est une application web qui combine des données provenant de fournisseurs hétérogènes (web services). Ces données sont agrégées pour former un résultat homogène affiché dans des composants appelés mashlets. Les travaux dans le domaine des mashups, se sont principalement intéressés au fonctionnement des mashups, aux différents outils de construction et à leur utilisation et interaction avec les utilisateurs. Dans cette thèse, nous nous intéressons à la gestion de données dans les mashups et plus particulièrement à la disponibilité et la fraîcheur de ces données. L’amélioration de la disponibilité tient compte du caractère dynamique des données des mashups. Elle garantit (1) l’accès aux données même si le fournisseur est indisponible, (2) la fraicheur de ces données et (3) un partage de données entre les mashups afin d’augmenter la disponibilité de données. Pour cela nous avons défini un modèle de description de mashups permettant de spécifier les caractéristiques de la disponibilité des données. Le principe d’exécution de mashups est défini selon ce modèle en proposant d’améliorer la disponibilité et la fraicheur des données du mashup par des fonctionnalités orthogonales à son processus d’exécution. Le système MELQART implante ce principe et permet de valider notre approche à travers l’exécution de plusieurs instances de mashups dans des conditions aléatoires de rupture de communication avec les fournisseurs de données. Mots clés : Mashups, Web 2.0, services web, disponibilité de données, fraicheur de données --------------------------------------------------------------------------------------------------------------------------- This thesis presents MELQART: a mashup execution system that ensures data availability. A mashup is a Web application that application that combines data from heterogeneous provides (Web services). Data are aggregated for building a homogenous result visualized by components named mashlets. Previous works have mainly focused, on the definition of mashups and associated tools and on their use and interaction with users. In this thesis, we focus on mashups data management, and more specifically on fresh mashups data availability. Improving the data availability take into account the dynamic aspect of mashups data. It ensures (1) the access to the required data even if the provider is unavailable, (2) the freshness of these data and (3) the data sharing between mashups in order to avoid the multiple retrieval of the same data. For this purpose, we have defined a mashup description formal model, which allows the specification of data availability features. The mashups execution schema is defined according to this model with functionalities that improve availability and freshness of mashed-up data. These functionalities are orthogonal to the mashup execution process. The MELQART system implements our contribution and validates it by executing mashups instances with unpredictable situations of broken communications with data providers. Keywords : mashups, Web 2.0, web services, data availability, data freshness Mesure de la fragilit´e et d´etection de chutes pour le maintien `a domicile des personnes ˆag´ees Amandine Dubois To cite this version: Amandine Dubois. Mesure de la fragilit´e et d´etection de chutes pour le maintien `a domicile des personnes ˆag´ees. Artificial Intelligence. Universit´e de Lorraine, 2014. French. HAL Id: tel-01070972 https://tel.archives-ouvertes.fr/tel-01070972 Submitted on 2 Oct 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.D´epartement de formation doctorale en informatique Ecole doctorale IAEM Lorraine ´ Sciences et T´echnologies Mesure de la fragilit´e et d´etection de chutes pour le maintien `a domicile des personnes ˆag´ees THESE ` pr´esent´ee et soutenue publiquement le 15 septembre 2014 pour l’obtention du Doctorat de l’Universit´e de Lorraine (mention informatique) par Amandine Dubois Composition du jury Pr´esident : Jean Paysant Professeur `a la Facult´e de M´edecine de Nancy Rapporteurs : Philippe Lalanda Professeur `a l’Universit´e Joseph Fourier de Grenoble Jean-Louis Vercher Directeur de Recherche au CNRS `a Marseille Examinateurs : Jacques Demongeot Professeur `a l’Universit´e Joseph Fourier de Grenoble Jacques Duchˆene Professeur `a l’Universit´e de Technologie de Troyes Michel Vacher Ing´enieur de recherche au CNRS de Grenoble Directeur de th`ese : Fran¸cois Charpillet Directeur de recherche INRIA Laboratoire Lorrain de Recherche en Informatique et ses Applications — UMR 7503Mis en page avec la classe thesul.Remerciements Je tiens à remercier tout d’abord François Charpillet de m’avoir donné l’opportunité de faire une thèse en Informatique et de m’avoir accordé sa confiance. Je remercie également les membres de mon jury : monsieur Jean Paysant pour avoir présidé ce jury, messieurs Philippe Lalanda et Jean-Louis Vercher de m’avoir fait l’honneur de rapporter ce travail de thèse et messieurs Jacques Demongeot, Jacques Duchêne et Michel Vacher pour leurs remarques et leurs questions constructives. Merci également à Abdallah, Manel, Marion, Olivier et à tous ceux que j’ai pu côtoyer pendant ces trois ans, collègues de bureau, de couloir, de bâtiment, pour les discussions, leurs suggestions et surtout pour leur bonne humeur. Je remercie mes parents et mon frère qui m’ont toujours soutenue et encouragée et sans lesquels je ne serais pas parvenue à accomplir ce travail de thèse. Je remercie mes grands-parents pour avoir été les premiers « cobayes » et surtout pour m’avoir donné l’envie de travailler sur ce sujet. Je te remercie Cédric pour ton soutien permanent. iiiSommaire Table des figures xi Liste des tableaux xv Introduction 1 1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 3 Approche proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 3.1 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 3.2 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Partie I Approches pour la mesure de la fragilité et la détection des chutes 9 Introduction 11 Chapitre 1 Panorama des approches pour l’analyse de la fragilité à l’hôpital 1.1 L’œil expert à travers les tests cliniques . . . . . . . . . . . . . . . . . . . . . 13 1.2 Outils d’analyse du mouvement . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.2.1 Systèmes avec capteurs embarqués sur la personne . . . . . . . . . . . 14 1.2.2 Systèmes sans capteur embarqué sur la personne . . . . . . . . . . . . 16 1.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 Chapitre 2 Panorama des systèmes de détection de chutes au domicile 2.1 Systèmes avec capteurs embarqués sur la personne . . . . . . . . . . . . . . . 19 iiiSommaire 2.1.1 Détecteurs de chutes automatiques . . . . . . . . . . . . . . . . . . . . 19 2.1.2 Systèmes d’alerte manuels . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.2 Systèmes ambiants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.2.1 Capteurs environnementaux : la télé-assistance . . . . . . . . . . . . . 21 2.2.2 Systèmes à base de caméra : la vidéo-vigilance . . . . . . . . . . . . . 22 2.2.3 Capteurs au sol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Conclusion 25 Partie II Algorithmes pour l’évaluation et la sécurisation au domicile 27 Introduction 29 Chapitre 3 Détecter et suivre une personne avec une caméra : état de l’art 3.1 Détection de la personne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.1.1 Détecteur de points d’intérêt . . . . . . . . . . . . . . . . . . . . . . . 34 3.1.2 Soustraction du fond . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.1.3 Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.1.4 Apprentissage supervisé . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.2 Suivi de la personne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.2.1 Modèles d’objets animés . . . . . . . . . . . . . . . . . . . . . . . . . 35 Différentes représentations . . . . . . . . . . . . . . . . . . . . . . . . 35 Caractéristiques pour obtenir la représentation . . . . . . . . . . . . . 37 3.2.2 Suivi de l’objet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 Objet représenté par des points . . . . . . . . . . . . . . . . . . . . . . 38 Objet représenté par des formes géométriques . . . . . . . . . . . . . . 39 Objet représenté par sa silhouette . . . . . . . . . . . . . . . . . . . . 39 3.3 Caméra de profondeur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Chapitre 4 Application à la détection et au suivi de personnes avec une caméra RGB-D 4.1 Détecter la personne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 iv4.1.1 Extraction et apprentissage du fond . . . . . . . . . . . . . . . . . . . 44 4.1.2 Extraction du sol et changement de repère . . . . . . . . . . . . . . . 44 Etape 1 : Redressement de la scène . . . . . . . . . . . . . . . . . . . 44 Etape 2 : Sélection des points bas . . . . . . . . . . . . . . . . . . . . 45 Etape 3 : Calcul de l’équation du sol . . . . . . . . . . . . . . . . . . . 45 Etape 4 : Construction du repère sol . . . . . . . . . . . . . . . . . . . 46 Projection d’un point dans le repère sol . . . . . . . . . . . . . . . . . 46 4.1.3 Extraction des points mobiles . . . . . . . . . . . . . . . . . . . . . . . 46 4.1.4 Extraction des objets mobiles . . . . . . . . . . . . . . . . . . . . . . . 47 4.1.5 Détection de la personne . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.2 Suivre la personne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.2.1 Représentation de la personne . . . . . . . . . . . . . . . . . . . . . . 49 4.2.2 Suivi du centre de masse . . . . . . . . . . . . . . . . . . . . . . . . . 51 Calcul du centre de masse . . . . . . . . . . . . . . . . . . . . . . . . . 51 Description de la trajectoire du centre de masse . . . . . . . . . . . . 51 Lissage de la trajectoire du centre de masse . . . . . . . . . . . . . . 52 Paramètres dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . . 53 4.2.3 Suivi de la distribution verticale . . . . . . . . . . . . . . . . . . . . . 53 4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Chapitre 5 Mesurer à domicile les paramètres de la marche 5.1 Définition et description de la marche . . . . . . . . . . . . . . . . . . . . . . 58 5.1.1 Définition de la marche . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.1.2 Description du cycle de la marche . . . . . . . . . . . . . . . . . . . . 58 Phase d’appui . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Phase d’oscillation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5.2 Indicateurs de l’analyse de la marche . . . . . . . . . . . . . . . . . . . . . . . 59 5.2.1 Paramètres spatio-temporels . . . . . . . . . . . . . . . . . . . . . . . 59 Principaux paramètres spatiaux . . . . . . . . . . . . . . . . . . . . . 59 Principaux paramètres temporels . . . . . . . . . . . . . . . . . . . . . 60 5.2.2 Paramètres cinématiques . . . . . . . . . . . . . . . . . . . . . . . . . 60 5.2.3 Paramètres dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . . 61 Les forces de réaction du sol . . . . . . . . . . . . . . . . . . . . . . . 61 Pressions plantaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 5.3 Sélection des indicateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 5.3.1 Troubles de la marche et risques de chute . . . . . . . . . . . . . . . . 64 vSommaire 5.3.2 Troubles de la marche et risques d’hospitalisation . . . . . . . . . . . 64 5.3.3 Troubles de la marche et troubles cognitifs . . . . . . . . . . . . . . . 64 5.4 Extraction des indicateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5.4.1 Longueurs de pas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5.4.2 Cadence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.4.3 Vitesse de marche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.4.4 Résultat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Chapitre 6 Reconnaitre l’activité humaine en temps réel par l’analyse d’images de profondeur 6.1 Approches pour détecter l’activité . . . . . . . . . . . . . . . . . . . . . . . . 70 6.1.1 Approches non paramétriques . . . . . . . . . . . . . . . . . . . . . . 70 6.1.2 Approches volumétriques . . . . . . . . . . . . . . . . . . . . . . . . . 70 6.1.3 Approches paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . 71 6.2 Positionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 6.3 Proposition d’un modèle de l’activité . . . . . . . . . . . . . . . . . . . . . . . 73 6.3.1 Modèle avec fonction d’observation seule . . . . . . . . . . . . . . . . 74 Inférence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 6.3.2 Utilisation d’un MMC unique . . . . . . . . . . . . . . . . . . . . . . . 75 MMC à 8 états et 3 observations . . . . . . . . . . . . . . . . . . . . . 75 MMC à 9 états et 5 observations . . . . . . . . . . . . . . . . . . . . . 76 Inférence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 6.3.3 Utilisation de MMC combinés . . . . . . . . . . . . . . . . . . . . . . 79 Système de 8 MMC . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 Système de 9 MMC . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 Inférence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 6.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 Conclusion 83 Partie III Evaluation du système 85 Introduction 87 viChapitre 7 Expérimentations pour l’analyse de la marche 7.1 Première évaluation du système . . . . . . . . . . . . . . . . . . . . . . . . . 89 7.1.1 Description de l’expérimentation . . . . . . . . . . . . . . . . . . . . . 89 7.1.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 Angle de la caméra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 Choix du filtre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 7.1.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 7.2 Évaluation globale du système . . . . . . . . . . . . . . . . . . . . . . . . . . 94 7.2.1 Description de l’expérimentation . . . . . . . . . . . . . . . . . . . . . 94 7.2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 Résultats basés sur l’erreur de chaque séquence . . . . . . . . . . . . . 96 Résultats basés sur la moyenne de chaque paramètre de la marche . . 96 7.3 Discussion et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Chapitre 8 Expérimentations pour la reconnaissance d’activité 8.1 Cas de la personne entièrement visible . . . . . . . . . . . . . . . . . . . . . . 99 8.1.1 Description de l’expérimentation . . . . . . . . . . . . . . . . . . . . . 99 Protocole expérimental . . . . . . . . . . . . . . . . . . . . . . . . . . 99 Base d’apprentissage et base de test . . . . . . . . . . . . . . . . . . . 100 8.1.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 Représentation des bonnes classifications et des fausses détections . . 102 Comparaison entre les algorithmes Forward-Backward et de Viterbi . 103 Modèle avec fonction d’observation seule . . . . . . . . . . . . . . . . 105 MMC à 8 états et 3 observations . . . . . . . . . . . . . . . . . . . . . 105 MMC à 9 états et 5 observations . . . . . . . . . . . . . . . . . . . . . 107 Système de 8 MMC à 2 états et 3 observations . . . . . . . . . . . . . 107 Système de 8 MMC à 3 états et 3 observations . . . . . . . . . . . . . 107 Système de 9 MMC à 2 états et 5 observations . . . . . . . . . . . . . 107 Système de 9 MMC à 3 états et 5 observations . . . . . . . . . . . . . 108 Résultats pour l’activité debout . . . . . . . . . . . . . . . . . . . . . 108 8.1.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 8.2 Cas de la personne partiellement visible . . . . . . . . . . . . . . . . . . . . . 109 8.2.1 Description de l’expérimentation . . . . . . . . . . . . . . . . . . . . . 109 8.2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 8.2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 viiSommaire Chapitre 9 Tests en situations réelles 9.1 Test de l’algorithme d’analyse de la marche . . . . . . . . . . . . . . . . . . . 115 9.2 Test de l’algorithme de détection d’activité . . . . . . . . . . . . . . . . . . . 116 9.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Conclusion 121 Partie IV Système pour le maintien à domicile 123 Introduction 125 Chapitre 10 Vers une implantation au domicile 10.1 Couplage des fonctionnalités actuelles du système . . . . . . . . . . . . . . . 127 10.2 Cartographie des habitudes dans l’environnement . . . . . . . . . . . . . . . . 129 10.2.1 Limitations du système et contraintes de l’environnement . . . . . . . 129 10.2.2 Détection des cas d’occlusions partielles de la personne . . . . . . . . 130 10.2.3 Cartographie des habitudes . . . . . . . . . . . . . . . . . . . . . . . . 133 10.2.4 Détection des anomalies . . . . . . . . . . . . . . . . . . . . . . . . . . 134 10.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 Chapitre 11 Autres perspectives d’utilisation du système 11.1 Différenciation des personnes . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 11.2 Couplage de plusieurs capteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 138 11.3 Observance des patients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 11.4 Prévention de certains troubles . . . . . . . . . . . . . . . . . . . . . . . . . . 139 11.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 Conclusion 141 viiiConclusion générale et perspectives 143 Annexe 149 Annexe A Modèle de Markov caché 149 A.1 Définition des modèles de Markov cachés . . . . . . . . . . . . . . . . . . . . 149 A.1.1 Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 A.1.2 Modèle de Markov caché . . . . . . . . . . . . . . . . . . . . . . . . . 150 A.2 Algorithmes d’apprentissage et d’inférence . . . . . . . . . . . . . . . . . . . . 150 A.2.1 Inférence pour le cas du MMC unique . . . . . . . . . . . . . . . . . . 150 Algorithme Forward-Backward . . . . . . . . . . . . . . . . . . . . . . 150 Algorithme de Viterbi . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 A.2.2 Apprentissage et inférence pour les systèmes de plusieurs MMC . . . . 155 Apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 Inférence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 Publications 157 Références 159 ixSommaire xTable des figures 1 Pyramide des âges en 2007 et 2060 selon une étude INSEE de 2010. . . . . . . . . 3 1.1 Représentation de la marche humaine en diagramme bâton par Marey. . . . . . . 14 1.2 Le système Walkmeterc est inspiré du locomètre de Bessou. . . . . . . . . . . . 15 1.3 Le tapis roulant instrumenté de la société Biometrics. . . . . . . . . . . . . . . . . 17 1.4 Le tapis actimètrique de la marque GaitRite. . . . . . . . . . . . . . . . . . . . . 17 2.1 Système d’alerte de Vitalbase. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.2 Système de détection de chute de la société Vigilio. . . . . . . . . . . . . . . . . . 20 2.3 Système d’analyse du mouvement par le sol d’INRIA à Nancy. . . . . . . . . . . . 23 3 Vision pour la conception d’un système permettant le maintien à domicile des personnes âgées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.1 Détection des points d’intérêts dans une scène. . . . . . . . . . . . . . . . . . . . 34 3.2 Différentes représentations de l’objet à suivre : (a) silhouette, (b) contour, (c) points, (d) centre géométrique, (e) ellipse, (f) rectangle, (g) plusieurs ellipses et (h) squelette. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.3 Détection des contours dans une scène. . . . . . . . . . . . . . . . . . . . . . . . . 37 3.4 Différentes hypothèses utilisées pour le suivi d’un objet : (a) proximité, (b) vitesse maximale, (c) mouvement similaire, (d) constance de la vitesse et de la direction, (e) rigidité de l’objet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.5 Transformation paramétrique d’une ellipse. . . . . . . . . . . . . . . . . . . . . . 39 3.6 Modèle d’apparence. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.7 Le capteur Kinect de Microsoft. . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.1 Étapes pour détecter la personne du fond et la suivre dans le temps. . . . . . . . 44 4.2 L’extraction du sol est représentée en rouge. . . . . . . . . . . . . . . . . . . . . 47 4.3 a) Les cases bleues représentent des points mobiles et les cases vertes les points appartenant au fond, b) le filtre érosion est appliqué, c) le filtre dilatation est appliqué. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.4 a) Les cases colorées représentent des points mobiles, b) l’algorithme assigne un nombre aux points mobiles, c) les points avec un nombre plus grand que ses voisins sont modifiés, d) le résultat final est atteint. . . . . . . . . . . . . . . . . . . . . 48 4.5 Déplacement horizontal théorique du centre de masse. . . . . . . . . . . . . . . . 50 4.6 Déplacement vertical théorique du centre de masse. . . . . . . . . . . . . . . . . 50 xiTable des figures 4.7 Déplacement du centre de masse extrait à partir de notre algorithme pour une personne marchant en ligne droite perpendiculairement à la caméra. La montée et la descente en début et fin de trajectoire correspondent aux entrées et sorties de la personne dans le champ de vision de la caméra. . . . . . . . . . . . . . . . . . . 51 4.8 Comparaison entre la trajectoire du centre de masse et le nombre de pixels mobiles appartenant à une personne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.9 a) Courbe non lissée, b) courbe lissée avec le filtre passe-bas, c) courbe lissée avec le filtre de Kalman. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.10 Trajectoire de l’écart type vertical pour une personne qui marche. . . . . . . . . 54 4.11 Comparaison entre la trajectoire du point maximum filtrée et non filtrée pour une personne qui marche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5.1 Représentation du cycle de la marche selon Viel (2000). . . . . . . . . . . . . . . 58 5.2 Représentation des paramètres spatiaux. . . . . . . . . . . . . . . . . . . . . . . . 60 5.3 Représentation des paramètres cinématiques. . . . . . . . . . . . . . . . . . . . . 61 5.4 Représentation des forces exercées lorsqu’une personne marche. . . . . . . . . . . 62 5.5 Force de réaction du sol selon l’axe vertical (bleu), antéro-postérieur (vert) et média-latéral (rouge) lors d’un cycle de marche selon Kirtley. . . . . . . . . . . . 63 5.6 Trajectoire des pressions plantaires lors de la marche. . . . . . . . . . . . . . . . . 63 5.7 Correspondance entre le cycle de la marche et la trajectoire du centre de masse sur l’axe vertical. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.8 Extraction des paramètres de la marche à partir du centre de masse. . . . . . . . 67 6.1 Positionnement du problème de la reconnaissance d’activité au domicile. . . . . . 71 6.2 Représentation graphique d’une chaine de Markov cachée, avec Xt le processus Markovien caché et Ot la séquence d’observations correspondantes. . . . . . . . . 73 6.3 Modèle à 8 états avec fonction d’observation seule. . . . . . . . . . . . . . . . . . 75 6.4 MMC à 8 états avec des transitions définies manuellement. . . . . . . . . . . . . . 77 6.5 MMC à 9 états avec des transitions définies manuellement. . . . . . . . . . . . . . 78 6.6 Système de 8 MMC à deux états chacun. . . . . . . . . . . . . . . . . . . . . . . 80 6.7 Système de 9 MMC à deux états chacun. . . . . . . . . . . . . . . . . . . . . . . 81 7.1 Méthode utilisée comme référence pour mesurer les longueurs de pas. . . . . . . . 90 7.2 Positionnement des caméras : la plus basse avec un angle de 0˚ et la plus haute avec un angle de -27˚. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 7.3 Représentation des erreurs sur les longueurs de pas obtenues à partir d’une caméra avec un angle de -27˚ et avec un angle de 0˚. . . . . . . . . . . . . . . . . . . . . 92 7.4 Représentation des erreurs sur les longueurs de pas extraites à partir du filtre de Kalman et du filtre passe-bas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 7.5 Expérience comprenant un tapis actimètrique. . . . . . . . . . . . . . . . . . . . 95 7.6 En phase de double appui, de nombreux points mobiles sont détectés dans la partie basse de la silhouette quand le sujet porte une jupe. . . . . . . . . . . . . . . . . 98 7.7 Comparaison des oscillations de la trajectoire du centre de masse. . . . . . . . . . 98 8.1 Plan de l’appartement expérimental avec le positionnement de la caméra. . . . . 100 8.2 Suivi des situations, effectuées par un sujet, à différents pas de temps. . . . . . . 101 8.3 Différence dans l’analyse faite par les algorithmes Forward-Backward et de Viterbi, pour une séquence où la personne s’assoit puis monte sur une chaise. . . . . . . . 104 8.4 Comparaison d’une séquence où la personne s’assoit analysée par deux modèles. . 105 xii8.5 Sujet s’allongeant différemment de ce qui a été appris dans la base de donnée. . 106 8.6 Sujet s’asseyant différemment de ce qui a été appris dans la base de donnée. . . . 106 8.7 Suivi des situations où le sujet n’est pas entièrement visible à différents pas de temps. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 8.8 Résultat de l’analyse avec le modèle à 9 états et 5 observations, pour une personne réalisant des demi-tours. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 9.1 Utilisation de notre système avec une patiente, lors de sa consultation à l’hôpital. 116 9.2 Représentation du centre de masse, sur l’axe vertical, de quatre personnes âgées. 117 9.3 Détection de l’activité « Marche », pour une personne de 81 ans marchant à son domicile. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 9.4 Représentation du centre de masse, sur l’axe vertical, pour différentes activités réalisées par une personne âgée de 81 ans. . . . . . . . . . . . . . . . . . . . . . . 118 10.1 Les différentes actions réalisées par l’algorithme selon l’état dans lequel se trouve la personne d’après le MMC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 10.2 Personne sortant du champ de vision et étant à moitié détectée. . . . . . . . . . 129 10.3 Courbes des vraisemblances pour différentes activités réalisées par un sujet entiè- rement et partiellement visible. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 10.4 Séquence dans laquelle le sujet réalise plusieurs activités. . . . . . . . . . . . . . . 133 10.5 Carte de l’environnement représentant les habitudes apprises d’une personne (en blanc : zones non explorées, en bleu : zones passives, en vert : zones actives et en rouge : zones se trouvant derrière un meuble). . . . . . . . . . . . . . . . . . . . 134 10.6 Carte de l’environnement sur laquelle est représentée la dernière position du centre de masse perçue par le système. . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 11.1 Proposition d’emplacement de plusieurs caméras permettant de couvrir tout un appartement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 11.2 Représentation du centre de masse, sur l’axe vertical, d’une personne de 90 ans ayant des problèmes d’équilibre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 A.1 Exemple de modèle de Markov à deux états. . . . . . . . . . . . . . . . . . . . . . 149 A.2 Représentation graphique d’une chaine de Markov. . . . . . . . . . . . . . . . . . 150 A.3 Représentation graphique d’une chaine de Markov cachée, avec Xt le processus Markovien caché et Ot la séquence d’observations correspondantes. . . . . . . . . 150 A.4 Représentation du calcul αt+1(j = 1) par l’algorithme Forward pour un modèle à trois états. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 A.5 Représentation du calcul pour l’état βt(i = 1) par l’algorithme Backward pour un modèle à trois états. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 A.6 Représentation du calcul δt(j = 1) et ψt(j = 1) par l’algorithme de Viterbi pour un modèle à trois états. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 A.7 Représentation du calcul de l’algorithme de Viterbi avec la rétro-propagation (en vert) pour quatre pas de temps successifs et trois états. . . . . . . . . . . . . . . . 154 xiiiTable des figures xivListe des tableaux 7.1 Comparaison des résultats, entre le tapis et la caméra, en fonction de l’angle de la caméra. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 7.2 Précision des longueurs de pas fournies par l’algorithme, obtenues avec un filtre de Kalman et avec un filtre passe-bas (pour tous les pas, pour les pas « normaux » et pour les petits pas). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 7.3 Erreurs moyennes des longueurs (Long), cadences (Cad) et vitesses (Vit) pour chaque situation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 7.4 Comparaison des paramètres de la marche obtenus avec le tapis et avec notre algorithme utilisant la caméra. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 8.1 Classification des activités par l’algorithme selon le modèle utilisé. . . . . . . . . 103 8.2 Fausses détections effectuées par l’algorithme selon le modèle utilisé. . . . . . . . 104 8.3 Classification de l’activité « Debout » selon le modèle utilisé. . . . . . . . . . . . 108 8.4 Détection d’activité quand la personne n’est pas entièrement visible pour différents modèles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 xvListe des tableaux xviIntroduction 11. Contexte 1 Contexte L’un des sujets majeurs des prochaines années dans les pays développés sera le vieillissement de la population. En France, l’INSEE [Blanpain and Chardon, 2010] prévoit que le nombre de personnes de plus de 60 ans augmentera de 10,4 millions entre 2007 et 2060 pour atteindre le nombre de 23,6 millions de personnes en 2060, soit une hausse de 80 % en 53 ans. Le nombre de personnes de plus de 75 ans passera de 5,2 millions en 2007 à 11,9 millions en 2060. Quant aux personnes de plus de 85 ans, leur nombre passera de 1,3 à 5,4 millions. Ces chiffres sont représentés sur la pyramide des âges fournie par l’INSEE à la figure 1. Figure 1 – Pyramide des âges en 2007 et 2060 selon une étude INSEE de 2010. Une des conséquences de l’augmentation du vieillissement de la population est l’augmentation du nombre de personnes âgées dépendantes 1 . Selon l’INSEE en 2004, 1 200 000 personnes seraient dépendantes en 2040 contre 800 000 aujourd’hui. La problématique qui découle de ces chiffres est la prise en charge de ces personnes. En effet, le nombre d’instituts spécialisés ne devrait pas permettre de toutes les accueillir. Actuellement, les personnes ont tendance à rester au domicile. 92 % des plus de 75 ans vivent chez eux et 75 % pour les plus de 85 ans, soit pour des raisons liées au coût qu’implique un placement, ou soit parce que la personne elle-même préfère rester chez elle (80 % des personnes âgées souhaitent vivre le plus longtemps possible au domicile [Webe, 2006]). Le vieillissement de la population est donc un problème majeur et, partant de ce constat, cette thèse cherche à apporter une contribution au maintien à domicile des personnes âgées par des dispositifs technologiques. 1. La dépendance s’évalue en fonction de la capacité de la personne à accomplir les actes de la vie quotidienne. L’outil Aggir est une grille nationale évaluant le degré de dépendance chez les personnes âgées à partir des activités qu’elles peuvent effectuer seules comme s’habiller, se laver, etc. 32 Objectifs Notre objectif est de développer un dispositif simple et facile à installer, permettant de favoriser le maintien à domicile des personnes âgées. Il s’agit de proposer une démarche de prévention de l’aggravation de la fragilité de la personne et d’aider à la sécuriser chez elle. Pour savoir si la personne est en sécurité à son domicile, il est nécessaire de connaître son niveau d’autonomie, de savoir si la personne est fragile, si elle peut se débrouiller dans son logement (se faire à manger, se laver, etc.). Pour cela, l’idée est de développer un outil d’évaluation permettant de mesurer le risque initial et l’évolution du risque que prend la personne en restant chez elle. Ces mesures permettront alors de prendre des actions de prévention comme diriger la personne vers un médecin spécialisé, modifier son environnement pour le rendre plus sûr, adapter son traitement, etc. L’évaluation du degré d’autonomie peut se faire au quotidien en installant un système à domicile. Cette évaluation constitue une information supplémentaire à l’analyse faite par le médecin lors des consultations, car l’information recueillie au domicile constitue une mesure en milieu écologique forcément différente de l’évaluation qui peut être faite en milieu hospitalier. La sécurisation de la personne passe également par la mise en place de systèmes d’alerte, car maintenir les personnes âgées à domicile n’est pas sans risque. En effet, 61 % des accidents surviennent au domicile et 85 % de ces accidents sont dus aux chutes. La chute est la première cause de mortalité des plus de 65 ans provoquant chaque année 10 000 décès [Alexander et al., 1997]. Elle peut causer des blessures physiques comme des fractures (en particulier du col du fémur), des luxations, des plaies, etc. Les blessures physiques peuvent entraîner une hospitalisation prolongée, voire même le placement en institut (40 % des sujets âgés hospitalisés pour chute sont ensuite orientés vers une institution). Une cascade de complications psychologiques peut également survenir suite à la chute elle-même et/ou du fait d’être resté immobilisé au sol en état d’impuissance sans pouvoir se relever. En effet, près de 50 % des personnes ayant chuté ont besoin d’une aide pour se relever [Tinetti et al., 1993]. L’anxiété d’une deuxième chute peut entraîner chez les personnes une tendance à réduire leur mobilité et à minimiser leur activité [Gaxatte et al., 2011] (en limitant leur sortie et en restant plus souvent assise ou allongée). Cette inactivité provoque une perte d’autonomie. Des études ont montré que la perte d’autonomie pouvait directement être corrélée au temps passé au sol, 1h au sol provoque 10 % de perte d’autonomie, 3h, 30 %, 6h, 50 % et 12h, 70 %. La chute est un marqueur de fragilité et ses conséquences physiques et surtout psychologiques aggravent l’état de fragilité initiale de la personne. Cet engrenage est confirmé par des chiffres montrant que le nombre de récidives est très important : après une première chute le risque de retomber à nouveau est multiplié par vingt. Il est donc nécessaire, pour sécuriser la personne, d’être en mesure de détecter les chutes. Un tel détecteur pourrait permettre, d’une part, de limiter les conséquences physiques et psychologiques de la chute et, d’autre part, de mettre la personne en confiance pour ainsi ralentir les effets de l’inactivité (réduire l’effet engendré par le cercle vicieux). La détection précoce est cruciale, le fait d’obtenir une aide rapidement après une chute diminue le risque d’hospitalisation de 26 % et la mort de plus de 80 %. 3 Approche proposée 3.1 Problématique Dans ce travail de thèse, nous nous intéressons à développer un système couplant l’évaluation de la fragilité et la sécurisation de la personne à son domicile. Sécuriser la personne à son domicile implique de pouvoir détecter les éventuelles chutes, ou 43. Approche proposée comportements pouvant mener à une chute (comme monter sur une chaise), pour ainsi alerter des personnes extérieures et permettre d’agir au plus vite sur les conséquences physiques et psychologiques. La prise en charge rapide d’une personne ayant chuté limite l’aggravation de la perte d’autonomie. L’évaluation de la fragilité de la personne permet de mesurer sa capacité à être autonome à son domicile. Une personne est fragile, selon la définition de Fried et al. [Fried et al., 2001], si apparaît trois critères ou plus parmi les cinq suivants : une perte de poids involontaire, une faiblesse dans la force de préhension, une faible endurance, une vitesse de marche lente et une faible activité physique. La vitesse de marche diminuée et la faible activité sont les deux critères auxquels nous nous sommes intéressés pour l’évaluation de la fragilité. Notre approche vise à analyser les indicateurs de marche pour ainsi mesurer leur évolution au cours du temps et analyser l’activité de la personne pour pouvoir comptabiliser le temps passé à réaliser différentes activités. Par exemple, la perte d’autonomie, analysée à travers l’évaluation de l’activité de la personne, peut s’exprimer en fonction du temps passé debout comparé au temps passé assis et allongé sur un canapé ou un lit. Les changements d’habitudes sont également des indicateurs importants de l’évolution de la fragilité. Nous nous sommes fixé certaines contraintes pour développer un système permettant le maintien à domicile. Notamment, le système doit être basé sur une technologie réaliste, c’est-à-dire utilisable. Nous voulions, entre autres, développer des algorithmes qui puissent fonctionner sur des machines à bas coût. Pour cela, nous proposons des algorithmes simples et peu coûteux en temps de calcul et en mémoire, afin de pouvoir les insérer dans n’importe quelle machine. Pour être utilisable, l’équipement nécessaire ne doit pas être trop encombrant pour pouvoir être installé à domicile. La contrainte d’utilisation de capteurs ambiants, plutôt que de capteurs portés par la personne, a également été posée. L’idée est de laisser libre la personne sans qu’elle n’ait besoin de penser à porter le système ou à l’activer. Le choix final s’est donc porté sur le capteur Kinect de Microsoft qui est une caméra de profondeur à bas coût. 3.2 Contributions Dans l’organisation de ce mémoire, nous distinguons deux contributions. La première porte sur l’analyse du mouvement de la personne et la seconde sur l’analyse de l’activité. Ces deux contributions pourront permettre la conception d’un système d’évaluation et de sécurisation de la personne à son domicile. L’analyse du mouvement et la détection des activités d’une personne sont deux thèmes de recherche traités dans la littérature séparément, car chacun a ses propres difficultés faisant appel à des compétences différentes. Nous montrons dans cette thèse que les deux problématiques peuvent être abordées par l’analyse d’un ensemble de paramètres simples extraits d’images de profondeur. La partie I présente les systèmes existants pour d’un côté mesurer le degré de fragilité à l’hôpital et de l’autre détecter les chutes au domicile. En observant les systèmes existants et les contraintes que nous nous sommes fixées, nous expliquons les raisons pour lesquels nous avons choisi les caméras de profondeur pour développer le système. Dans une deuxième partie, nous présentons les différents algorithmes conçus à partir des informations obtenues avec la caméra. Nous y apportons, au chapitre 3, un état de l’art non exhaustif des méthodes utilisées en vision pour détecter et suivre une personne au cours du temps. Puis, au chapitre 4, nous développons nos algorithmes de détection et de suivi de la personne, fondés sur des méthodes simples que sont l’extraction de fond et le suivi de la silhouette de la personne. Ces algorithmes sont communs pour l’analyse de la marche et la détection d’activité. Plus précisément, les deux contributions sont fondées sur l’analyse des mêmes paramètres, ex- 5traits des images de profondeur fournies par la caméra, qui sont le centre de masse estimé de la personne et la distribution verticale des points de la silhouette. Nous développons dans deux chapitres distincts, les algorithmes propres à chacun des deux axes de recherche. Le chapitre 5 de ce mémoire présente les aspects concernant la marche des personnes. Ce chapitre introduit, dans un premier temps, un certain nombre de notions et de techniques, notamment dans le domaine médical, auxquelles nous faisons référence. Nous présentons les différents paramètres qu’il est possible d’analyser pour évaluer la marche d’une personne. Puis, nous présentons les paramètres que nous avons sélectionnés (longueur de pas, cadence et vitesse de marche) et les algorithmes d’extraction de ces paramètres. Cette contribution concerne la mesure de paramètres de la marche comme indicateur de l’évolution de la fragilité chez les personnes âgées. Le chapitre 6 de ce mémoire est consacré au développement d’un détecteur d’activité. Il repose sur l’utilisation du formalisme des modèles de Markov cachés, défini en annexe A. Dans ce chapitre, nous développons les différents modèles construits pour répondre au problème de la détection d’activité au domicile des personnes. La détection de l’activité apporte des informations à la fois pour la sécurisation et l’évaluation de la personne âgée. D’un côté, le travail présenté contribue à la problématique de sécurisation en détectant les chutes et les comportements anormaux. De l’autre, il contribue à la problématique d’évaluation de la perte d’autonomie permettant une analyse au long cours de l’évolution des habitudes de la personne. Les contributions des chapitres 5 et 6 sont ensuite évaluées indépendamment à la partie III de ce mémoire. Dans une première expérimentation en laboratoire nous montrons, sur des personnes jeunes, que la précision des paramètres de la marche extraits avec notre algorithme est similaire aux valeurs extraites d’un tapis actimètrique, pris comme mesure de référence. D’autres expérimentations en laboratoire ont permis de constater que certains modèles de Markov cachés fournissent une classification robuste des activités, aussi bien lorsque la personne est entièrement visible que partiellement visible. Des premiers tests ont également été effectués avec des personnes âgées en situation réelle (à l’hôpital et au domicile). Les résultats ont montré que, malgré la variabilité des trajectoires du centre de masse des sujets, l’extraction des paramètres de la marche et la reconnaissance des activités sont possibles. Enfin, la partie IV présente, dans un premier chapitre, l’association des deux contributions dans un système unique aidant à la sécurisation et à l’évaluation pour le maintien à domicile des personnes âgées. Plus précisément, nous intégrons l’algorithme de détection d’activité et celui de l’extraction des paramètres de la marche dans un seul système. Ainsi, selon l’activité détectée par l’algorithme, celui-ci enverra une alerte aux secours en cas de chute, comptabilisera le temps passé dans des activités passives (allongé ou assis) et actives (marcher ou être debout) ou analysera les paramètres de la marche quand la personne sera détectée comme marchant. Nous développons également une méthode pour cartographier les habitudes des personnes âgées, c’est-à-dire apprendre les habitudes les plus fréquentes dans les différentes zones du logement. Cela permettra de détecter les évolutions des habitudes de la personne et donc de détecter les anomalies. La carte est construite à partir de l’algorithme détectant les activités de la personne. La carte intègre aussi l’information concernant la vraisemblance permettant de distinguer les moments où la personne est entièrement ou partiellement visible. Dans le dernier chapitre, nous proposons d’autres perspectives pour le système. Nous pensons que ce système peut être utilisé avec d’autres objectifs que le maintien à domicile, comme différencier les personnes ou encore prévenir les troubles cognitifs et les risques d’hospitalisation. L’apport de ce travail de thèse se situe à la fois sur le plan méthodologique et technique. Sur le plan méthodologique, la particularité de ce travail est qu’il est guidé par l’approche expérimentale. Les différentes décisions ont été prises avec l’objectif de développer un système correspondant au « réalisme du terrain », qui une fois construit, pourrait être expérimenté au domicile des personnes 63. Approche proposée âgées. Cette nécessité de développer des approches expérimentées et évaluées, au regard des contraintes particulières que pose l’environnement d’une personne âgée, a eu des répercussions sur le plan technique et sur les choix pris pour concevoir le système. L’objectif visé était de construire un système simple en vue des expérimentations futures. Nous montrons donc qu’en utilisant des indicateurs simples, que sont la trajectoire du centre de masse de la personne et la distribution verticale des points de sa silhouette, extraits à partir d’algorithmes utilisés en vision, il est possible de créer un système à haut pouvoir de décision. A partir de ces deux indicateurs, il est possible de sécuriser la personne dans son environnement, en détectant ses chutes et ses comportements dangereux, et d’évaluer son degré de fragilité en analysant sa marche et ses activités. 78Première partie Approches pour la mesure de la fragilité et la détection des chutes 9Introduction Nous avons posé les objectifs de ce travail, à savoir développer un système permettant de détecter les chutes et de mesurer le degré de fragilité d’une personne. Dans cette première partie, nous recensons les différentes approches existantes pour traiter ces deux questions. Les systèmes détectant la chute et analysant la fragilité des personnes sont souvent conçus pour résoudre l’un ou l’autre des deux problèmes. C’est pourquoi, nous avons construit l’état de l’art en deux chapitres. Le premier chapitre présente les différentes approches pour évaluer le degré de fragilité d’une personne. Les dispositifs, décrits dans ce chapitre, sont des dispositifs utilisés dans le milieu mé- dical. Les médecins analysent la fragilité, notamment, à travers les paramètres de la marche et leur évolution. Certaines modifications sont facilement perceptibles à l’œil. Les tests cliniques peuvent alors être suffisants. Les tests cliniques sont les premiers outils des médecins pour analyser l’état général de la marche d’une personne. D’autres modifications de la marche requièrent des instruments de mesure, comme c’est souvent le cas pour évaluer les progrès réalisés en rééducation. Nous retrouvons des systèmes avec capteurs ou sans capteurs portés par la personne. Dans la catégorie des capteurs portés, les dispositifs sont nombreux, allant du simple accéléromètre au capteur plus évolué comme l’électromyographie, en passant par des systèmes de chaussures équipées de capteurs de pression ou encore des systèmes de caméras avec capteurs portés par les personnes. Les dispositifs, dans la catégorie des systèmes sans capteurs portés, sont les tapis roulants, les tapis actimètriques, ou encore les plateformes de force. Dans un deuxième chapitre, nous recensons les systèmes utilisés pour détecter la chute des personnes au domicile. Le découpage à l’intérieur de ce chapitre est effectué selon le type de capteurs utilisé : capteurs embarqués portés par la personne ou capteurs ambiants. Dans la catégorie des systèmes embarqués sur la personne, nous citons les capteurs tels que les accéléromètres ou les goniomètres. Concernant les systèmes ambiants, nous citons les capteurs environnementaux, comme les capteurs infrarouges de mouvement ou les détecteurs d’ouverture. Les systèmes à base de caméra appartiennent également à cette catégorie. Et enfin, plus récemment, des dispositifs placés au sol apparaissent. Chaque système décrit a plus ou moins d’avantages et d’inconvénients par rapport à ce que nous souhaitons développer. Les systèmes adaptés uniquement à une utilisation en cabinet médical (les systèmes à base de capteurs embarqués), fournissant peu d’information (comme les accéléromètres) ou encore ayant un prix élevé, ne correspondent pas à nos objectifs. 11Introduction 12Chapitre 1 Panorama des approches pour l’analyse de la fragilité à l’hôpital Sommaire 1.1 L’œil expert à travers les tests cliniques . . . . . . . . . . . . . . 13 1.2 Outils d’analyse du mouvement . . . . . . . . . . . . . . . . . . . 14 1.2.1 Systèmes avec capteurs embarqués sur la personne . . . . . . . . . 14 1.2.2 Systèmes sans capteur embarqué sur la personne . . . . . . . . . . . 16 1.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 La fragilité des personnes est évaluée essentiellement par le corps médical à travers une analyse de leurs capacités motrices. Les médecins analysent la marche des personnes à travers des tests cliniques. Ils peuvent, également, utiliser des outils de mesure pour quantifier la marche. 1.1 L’œil expert à travers les tests cliniques L’analyse de la marche à travers l’œil humain est une méthode souvent utilisée dans le monde médical, car peu coûteuse. Les médecins observent une éventuelle pathologie ou fragilité chez les personnes âgées en s’aidant d’outils tels que la vidéo, le chronomètre, le mètre et les tests cliniques. De nombreux tests ont été mis en place pour aider l’évaluation faite par le médecin. Aucun consensus n’a été posé sur le choix des tests à effectuer. Le médecin peut donc choisir parmi un large échantillon de test. La liste suivante n’est pas exhaustive, mais elle permet de citer quelques tests couramment utilisés durant la consultation des patients en cabinet : — le test des « dix mètres de marche » où le médecin calcule le nombre de pas et/ou chronomètre le temps pour faire cette tâche ; — le test « up and go » où le médecin calcule le temps mis par la personne pour s’asseoir, se lever, marcher sur 3 m et revenir s’asseoir ; — le test de « durée de l’appui unipodal » où le médecin calcule le temps durant lequel la personne tient l’équilibre sur un pied sans se tenir ; — le test de la « vitesse de marche confortable » où le médecin calcule la vitesse du patient marchant « normalement » ; — le test de « Tinetti » permettant, à l’aide d’un questionnaire et de petits exercices, de juger de la qualité de la marche et de l’équilibre. 13Chapitre 1. Panorama des approches pour l’analyse de la fragilité à l’hôpital Figure 1.1 – Représentation de la marche humaine en diagramme bâton par Marey. Ces tests permettent de fournir une évaluation de la qualité de la marche et de l’équilibre de la personne pour ainsi évaluer son état. Chaque médecin peut avoir un regard différent sur les résultats. Pour pallier au manque d’objectivité, d’autres techniques existent. 1.2 Outils d’analyse du mouvement Les systèmes de mesure du mouvement sont utilisés dans divers domaines et pour divers objectifs. Ils peuvent être utilisés : — pour étudier la marche (normale ou pathologique) de la personne dans le domaine médical ou biomécanique ; — pour analyser le corps en activité dans le domaine du sport ; — pour étudier l’influence de différents dispositifs sur la marche en ergonomie ; — pour analyser la marche humanoïde dans le but de la comprendre et la reproduire dans le cadre de la robotique ; — pour simuler la marche et l’intégrer dans des personnages virtuels dans le domaine de l’animation et la simulation de synthèse. L’objectif commun des différents domaines est de quantifier la marche, de l’analyser dans un contexte spatio-temporel. Dès la renaissance, le sujet intéresse les scientifiques. Léonard de Vinci, Galilée et Newton analysaient déjà la marche. Mais le premier instrument de mesure naquit avec l’apparition de la chronophotographie. Cette technique consiste à prendre des photographies lors d’un mouvement pour le décomposer et le représenter sous la forme d’un diagramme de bâton comme illustré par la figure 1.1 [Marey, 1894]. En 1878 Eadweard Muybridge et en 1882 Étienne-Jules Marey utilisèrent les premiers cette technique. Muybridge analysa le mouvement du cheval et Marey le mouvement de l’oiseau en vol. Ces travaux ont constitué les prémisses du développement de nombreux outils de mesure du mouvement humain. Aujourd’hui, il existe de nombreux systèmes pour mesurer le mouvement. Nous les séparons en deux catégories : les systèmes nécessitant de placer des capteurs sur la personne et ceux sans capteurs embarqués. 1.2.1 Systèmes avec capteurs embarqués sur la personne Différents capteurs, à poser sur le corps de la personne, existent permettant de fournir plus ou moins d’indications sur la marche. Le capteur de plus bas niveau, car apportant peu d’information, est le podomètre, comptant simplement le nombre de pas effectués par la personne lorsqu’elle marche. Cet outil peut être utile également, en dehors du cabinet du médecin, pour mener des recherches. Par exemple, en 2002 Silva et al. [Silva et al., 2002] ont réalisé une étude 141.2. Outils d’analyse du mouvement Figure 1.2 – Le système Walkmeterc est inspiré du locomètre de Bessou. sur le nombre de pas par an effectués par des personnes et ont cherché des spécificités selon la catégorie de personne (homme, femme, personne obèse, etc.). Les capteurs de mouvements (les capteurs infrarouges passifs) fournissent également un seul indicateur qui est la vitesse de marche. Un exemple d’utilisation peut être donné avec l’étude en 2010 réalisée par Hagler et al. [Hagler et al., 2010]. Ils ont eu l’idée d’installer 4 capteurs infrarouges (PIR) au plafond du domicile des personnes âgées. Le but était d’observer un éventuel déclin à travers la vitesse de la marche et ainsi poursuivre l’analyse en dehors du cabinet du médecin . Le locomètre de Bessou est l’instrument représenté à la figure 1.2. Il est composé d’une boite de laquelle deux câbles sortent, pour être attachés aux deux talons. Ainsi, ce système fournit la mesure des déplacements longitudinaux des câbles. Plusieurs paramètres de la marche en sont déduits comme la longueur des pas, la fréquence du pas, la durée des appuis, etc. Ce système est limité par la longueur des câbles. Un exemple d’utilisation pour les personnes hémiplégiques est présenté dans l’article de Condouret et al. en 1987 [Condouret et al., 1987]. Il existe également des chaussures munies de capteurs de pression permettant de récupérer les positions spatio-temporelles des pieds. A partir de ces positions, des valeurs telles que la vitesse de marche, les longueurs de pas peuvent être calculées. Les accéléromètres, les gyroscopes ou les goniomètres ([Bourke et al., 2007], [Wu, 2000]) sont des capteurs posés sur la jambe de la personne. Ils permettent d’analyser la marche et plus précisément l’accélération du corps ou l’angle des différents segments de la jambe lors de la marche. Ces systèmes sont posés sur les parties molles de la jambe donc il est nécessaire de vérifier qu’ils ne bougent pas au cours de la séance. De plus, le positionnement de ces capteurs varie selon la personne qui les pose. Les systèmes optoélectroniques à marqueurs actifs s’insèrent dans cette catégorie (comme le système Selspot). La personne marche dans le champ de vision des caméras qui captent la lumière émise par les capteurs, posés sur la personne à différents endroits du corps. Cette technique permet d’obtenir très précisément les trajectoires spatiales et ainsi d’en déduire un certain nombre de paramètres comme les longueurs de pas, les angles des différents segments du corps, etc. Chaque capteur est alimenté par un câble, ce qui limite les déplacements de la personne. Il existe également des systèmes optoélectroniques à marqueurs passifs permettant aux capteurs de ne plus être reliés à des câbles d’alimentation. Les systèmes Vicon et Qualisys, par exemple, sont 15Chapitre 1. Panorama des approches pour l’analyse de la fragilité à l’hôpital des systèmes à marqueurs passifs. Ces systèmes consistent à positionner, en certains points clés du corps, des marqueurs réfléchissant un signal infrarouge émis par les caméras. Ainsi, la position 3D des différentes parties du corps est évaluée et permet, tout comme les systèmes à marqueurs actifs, de calculer les longueurs de pas, les durées, les angles entre les segments, etc. Les systèmes optoélectroniques restent des systèmes assez contraignants et coûteux. A chaque nouvelle installation du système, une phase de calibration est nécessaire pour définir un repère commun entre toutes les caméras et les renseigner sur leur position les unes par rapport aux autres. Comme tout système à capteurs embarqués, le positionnement des capteurs reste dépendant de leur pose et peut bouger au cours de la marche. De plus, certains capteurs peuvent durant la marche être occultés par les segments corporels. Pour analyser correctement le mouvement de la personne, six caméras au minimum sont généralement nécessaires. Ces dispositifs sont toutefois très utilisés dans différents secteurs, notamment en milieu hospitalier, pour la simulation de personnages virtuels, pour le sport, pour la biomécanique, etc. L’électromyographie (EMG) est un système permettant d’enregistrer l’activité électrique musculaire en positionnant des électrodes sur le corps ou à l’intérieur du corps sur les muscles à étudier. Cette technique est assez controversée, car l’activité électrique enregistrée peut provenir de l’activité de muscles voisins et non pas de celui que l’on cherche à analyser. 1.2.2 Systèmes sans capteur embarqué sur la personne Des systèmes sans capteurs embarqués sur la personne peuvent également être utilisés, la laissant libre lors de ses mouvements. Les plates-formes de force sont des outils sans capteurs embarqués sur la personne. Ces systèmes sont composés d’une simple plateforme (d’environ 60*60 cm) placée sur le parcours de marche. Ils permettent de mesurer les forces appliquées par le pied sur la plateforme lors de la marche. Les tapis roulants instrumentés (figure 1.3) constituent également des systèmes permettant d’analyser la marche. Ils sont constitués de plateformes de force. L’avantage, comparé à la simple plateforme de force, est que le tapis analyse un grand nombre de pas successifs. La personne marche au rythme imposé par le tapis. La vitesse de marche de la personne n’est donc pas naturelle et ne peut pas être prise en compte pour juger de la qualité de la marche. D’autres paramètres comme la longueur de pas et les forces du pied sur le tapis peuvent être analysés. Les tapis actimètriques (figure 1.4) permettent également d’enregistrer la pression plantaire exercée par le pied sur le tapis. La force appliquée par le pied est alors calculée, permettant de déduire des paramètres tels que la longueur de pas, la vitesse de marche, etc. Ce système laisse la personne libre de marcher mais il est limité par sa taille. Ce genre de tapis n’excède pas les 6 m de long. 1.3 Conclusion Le milieu hospitalier est le premier endroit où l’on retrouve des systèmes analysant le mouvement des personnes dans le but d’évaluer le degré de fragilité d’une personne. La plupart de ces outils sont coûteux et nécessitent une expertise technique forte pour leur mise en œuvre. C’est pourquoi, chaque institut développe ses propres protocoles d’analyse, suivant les outils qu’ils ont à leur disposition. 161.3. Conclusion Figure 1.3 – Le tapis roulant instrumenté de la société Biometrics. Figure 1.4 – Le tapis actimètrique de la marque GaitRite. 17Chapitre 1. Panorama des approches pour l’analyse de la fragilité à l’hôpital 18Chapitre 2 Panorama des systèmes de détection de chutes au domicile Sommaire 2.1 Systèmes avec capteurs embarqués sur la personne . . . . . . . 19 2.1.1 Détecteurs de chutes automatiques . . . . . . . . . . . . . . . . . . 19 2.1.2 Systèmes d’alerte manuels . . . . . . . . . . . . . . . . . . . . . . . 21 2.2 Systèmes ambiants . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.2.1 Capteurs environnementaux : la télé-assistance . . . . . . . . . . . . 21 2.2.2 Systèmes à base de caméra : la vidéo-vigilance . . . . . . . . . . . . 22 2.2.3 Capteurs au sol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Nous présentons dans ce chapitre les dispositifs existants pour détecter les chutes d’une personne. Le marché des systèmes de détection de chutes est un marché grandissant, principalement destiné à la surveillance au domicile des personnes. En recherche, le sujet de la détection de chutes est également très étudié. Nous avons regroupé les capteurs permettant de détecter les chutes en deux catégories, d’un côté les systèmes utilisant des capteurs à poser sur la personne et de l’autre les systèmes de capteurs ambiants. 2.1 Systèmes avec capteurs embarqués sur la personne La première catégorie regroupe les systèmes à base de capteurs portés sur la personne. L’avantage de ces dispositifs est que bien souvent ils peuvent fonctionner à domicile et à l’extérieur. 2.1.1 Détecteurs de chutes automatiques Les accéléromètres, les gyroscopes et les goniomètres sont des capteurs pouvant servir à détecter automatiquement les chutes des personnes âgées. Dans le domaine de la recherche, certains auteurs, comme Bourke et al. [Bourke et al., 2007] et Wu [Wu, 2000], les ont d’ailleurs utilisés avec l’objectif de tester leur efficacité à détecter les chutes. Leur idée était de positionner ces capteurs sur la personne et d’observer la vitesse de mouvement du corps lorsque la personne réalisait différentes activités. L’hypothèse est que la vitesse est différente quand une personne chute, en comparaison à d’autres activités comme s’asseoir ou s’allonger dans un canapé. 19Chapitre 2. Panorama des systèmes de détection de chutes au domicile Figure 2.1 – Système d’alerte de Vitalbase. Ces capteurs ont été évalués en recherche et aujourd’hui, dans le commerce, certains dispositifs intègrent ce genre de capteurs. Des industriels, tels que Telecom Design avec VitalBase, intègrent un accéléromètre dans un dispositif à positionner au niveau de la ceinture ou au poignet comme le montre la figure 2.1. Ce système permet de détecter la chute à travers la perte de verticalité, l’accélération, le choc de la chute et enfin l’absence de mouvement. Les chutes brutales peuvent être détectées mais pas les chutes molles. Pour éviter les fausses alarmes, une phase de vérification est intégrée au système. Lorsqu’une chute est détectée, le système se met à vibrer durant 26 secondes et la personne doit, durant cette période, réaliser un mouvement ample du bras. Ce geste permet de bloquer l’envoi de l’alerte. Le téléphone portable de l’entreprise suédoise Doro intègre également un accéléromètre. Ce téléphone détecte la chute à travers la perte de verticalité. Ce système de détection de chute doit être activé par la personne lorsqu’elle pense en avoir besoin, par exemple lorsqu’elle se retrouve seule dans son appartement. La société Vigilio a mis en place un dispositif, détectant les chutes, à base d’un capteur accéléromètrique à porter sur le torse de la personne (figure 2.2(a)). En cas de chute ou d’immobilisation prolongée (dans le cas des chutes molles par exemple), leur boitier (figure 2.2(b)) directement connecté à une ligne téléphonique pourra alerter automatiquement un numéro qui a été pré-enregistré. (a) Capteur accéléromètrique à porter sur le torse. (b) Boitier d’alerte. Figure 2.2 – Système de détection de chute de la société Vigilio. D’autres capteurs peuvent également être utilisés notamment des capteurs sensoriels pouvant détecter la perte de conscience des personnes. La société Vivago a intégré ces capteurs dans une montre. L’idée est de détecter la chute des personnes due à un malaise. En utilisant ces capteurs couplés aux capteurs de température cutanée, l’entreprise a mis au point un système de détection de l’état d’inconscience des personnes et d’alerte des secours. 202.2. Systèmes ambiants 2.1.2 Systèmes d’alerte manuels Dans le commerce, il existe également des systèmes ne détectant pas automatiquement la chute. Ces systèmes requièrent la participation de la personne. Les boutons d’alarmes, existant sous forme de collier ou bracelet à porter sur soi, jour et nuit, permettent à la personne d’appuyer dessus pour alerter d’une chute. La marque Intervox du groupe Legrand ou encore le groupe Biotel-Tunstall développent, entre autres, des médaillons à porter par la personne. L’idée est d’éviter les fausses alarmes et de permettre à la personne de se sentir rassurée d’avoir à tout moment un dispositif d’alerte. Ces dispositifs doivent être portés pour fonctionner. C’est la cause principale de leur manque d’efficacité, car les personnes ne les portent pas, soit parce qu’ils sont perçus comme stigmatisants soit parce que la personne oublie tout simplement de les porter. Des études ont aussi montré que ces dispositifs pouvait être inefficaces, même lorsqu’ils sont portés, car les personnes ne les utilisent pas forcément après une chute. Dans l’article de Wild et al. [Wild et al., 1981], les auteurs ont mené une étude sur les personnes âgées de plus de 65 ans durant un an. Dans cette expérience, ils ont formé deux groupes, un groupe de « chuteurs » (constitué de personnes ayant déjà chuté une fois) et un groupe contrôle. Parmi les neuf chuteurs ayant un système d’alerte, seulement deux ont réussi à l’utiliser pour alerter après être tombés, l’un a tenté mais n’a pas réussi à l’utiliser et les six derniers n’ont même pas tenté de l’utiliser. L’incapacité d’appuyer sur le bouton peut être due à la perte de connaissance de la personne ou à son état de choc. 2.2 Systèmes ambiants Cette catégorie de dispositif, basée sur des capteurs ambiants, ne fonctionne qu’à l’intérieur. Ces systèmes ont l’avantage de fonctionner automatiquement sans que la personne n’ait besoin de le déclencher. 2.2.1 Capteurs environnementaux : la télé-assistance Les capteurs environnementaux permettent de rendre compte de l’activité d’une personne dans son lieu de vie. On peut compter le nombre de fois où la personne ouvre le réfrigérateur, le nombre de fois où elle s’est assise, etc. Ces différentes informations permettent d’en déduire l’activité d’une personne. Par exemple, les capteurs peuvent indiquer qu’une personne est inactive depuis longtemps ce qui révèle un comportement anormal. Différents capteurs peuvent être utilisés. Les capteurs infrarouges de mouvement informent de la présence ou non d’une personne dans une pièce. Ainsi, il est possible de s’assurer que la personne est sortie de sa chambre au cours de la journée par exemple. Des détecteurs d’ouverture, posés dans des endroits tels que le réfrigérateur ou le robinet, permettent de s’assurer de l’utilisation des différents points d’intérêts. La marque Intervox propose toute une gamme de capteurs parmi lesquels figurent les capteurs de mouvements et d’ouverture. Le but est de définir des tranches horaires où la personne doit être aperçue dans telle pièce ou doit ouvrir tel point d’intérêt. En cas de non conformité avec les événements prédéfinis, une alerte est déclenchée. Senioralerte utilise également ce genre de capteurs (détecteurs de présence, d’ouverture, etc.). L’objectif de cette entreprise est d’apprendre les habitudes des personnes au cours du temps pour déceler des activités anormales. Ces systèmes, en cas de détection d’un éventuel problème, déclenchent une alerte qui sera envoyée aux proches ou à une assistance s’assurant auprès de la personne qu’un réel problème 21Chapitre 2. Panorama des systèmes de détection de chutes au domicile est apparu avant d’appeler les urgences. 2.2.2 Systèmes à base de caméra : la vidéo-vigilance Les systèmes à base de caméra sont plus intrusifs dans la conscience des gens que les capteurs environnementaux mais ils permettent d’obtenir plus d’informations. Notamment, même si certains capteurs peuvent déduire, suite à un ensemble d’événements, qu’une chute s’est produite, ils ne peuvent pas réellement l’identifier comme telle. Les systèmes à base de caméra peuvent intégrer des algorithmes analysant l’activité d’une personne et surtout des algorithmes détectant la chute, avec beaucoup plus de discernement que ne peuvent le faire les détecteurs classiques. Peu de systèmes de vidéo-vigilance sont commercialisés. En France, le système EDAO propose d’installer des caméras à domicile pour détecter les chutes des personnes en perte d’autonomie. Ce système semi-automatisé détecte des situations à risque (grâce à des algorithmes d’analyse) et prévient un opérateur qui, en visionnant les images, alerte ou non la famille ou les secours. Le sujet de la détection de l’activité et des chutes reste un sujet de recherche. Le but est de dé- velopper des algorithmes d’analyse de l’activité toujours plus performants, ne commettant aucune fausse alarme et détectant chaque situation de chute ([Jansen et al., 2007], [Rougier et al., 2011], [Nait-Charif and McKenna, 2004], [Auvinet et al., 2011b], [Anderson et al., 2009]). 2.2.3 Capteurs au sol L’intérêt de ces capteurs est qu’ils sont dissimulés, les personnes âgées peuvent donc les oublier plus facilement et ne pas se sentir surveillées en permanence. Le principe de ces capteurs posés au sol est qu’ils détectent les pressions plantaires exercées par les personnes. Ainsi, les algorithmes développés peuvent déduire certaines informations, savoir dans quelle pièce se trouve la personne au cours de la journée, s’assurer qu’elle ne soit pas allongée au sol, etc. En recherche, la thématique des sols « intelligents» commence à se développer. Rimminen et al. ([Rimminen et al., 2009], [Rimminen et al., 2010]) décrivent dans leurs deux articles une technique pour suivre la personne (en utilisant entre autres un filtre de Kalman) puis pour détecter les chutes (en utilisant notamment des chaines de Markov). Un appartement construit au sein d’INRIA à Nancy a été recouvert d’un réseau de capteurs au sol ([Pepin et al., 2009]). Le sol est composé de dalles, mesurant 60×60 cm, qui ont été construites sur mesure. 100 dalles ont été installées dans cet appartement comme le montre la figure 2.3(a). Chaque dalle est équipée d’un accéléromètre, d’un magnétomètre et de quatre jauges de contraintes (des capteurs de force) positionnées à chaque angle comme précisé à la figure 2.3(b). Les dalles peuvent envoyer un message par le réseau ZigBee à d’autres dalles. L’un des objectifs, comme dans le travail de Rimminen, est de pouvoir détecter la chute des personnes parmi d’autres activités de la vie quotidienne. Rimminen travaille sur un sol instrumenté fondé sur la mesure du champ électrique. Un certain nombre de dispositifs commerciaux commencent à voir le jour. Pour n’en citer que quelques uns, nous pouvons mentionner les dispositifs proposés par Tarkett, Elsi et le SensFloor de la société Futur-Shape. Ces systèmes sont encore un peu coûteux et sont réservés à des installations dans les établissements d’hébergement pour personnes âgées dépendantes (EHPAD) ou dans des constructions neuves. 2.3 Conclusion Les systèmes qui sont actuellement installés au domicile des personnes âgées détectent la chute ou les situations à risque. En dehors des boutons d’alerte, les systèmes de détection restent 222.3. Conclusion (a) Appartement avec un réseau de dalles au sol. (b) Dessous d’une dalle. Figure 2.3 – Système d’analyse du mouvement par le sol d’INRIA à Nancy. peu courants. 23Chapitre 2. Panorama des systèmes de détection de chutes au domicile 24Conclusion Dans cette partie, nous avons présenté un panorama des systèmes existant pour analyser la fragilité d’une personne et détecter sa chute. Ces deux fonctionnalités nous sont utiles pour développer un système de maintien des personnes âgées au domicile. Les approches pour évaluer le degré de fragilité d’une personne sont surtout développées en hôpital ou en laboratoire. L’évaluation de la fragilité est réalisée à travers l’analyse de la marche. Les tests cliniques sont la méthode la plus simple à mettre en place et donc la plus répandue dans le milieu hospitalier. Les systèmes avec capteurs embarqués et sans capteurs embarqués peuvent être des techniques assez coûteuses et encombrantes mais plus précises que les tests cliniques pour quantifier le mouvement. Ces dispositifs ne correspondent pas à nos objectifs puisqu’ils ne sont pas adaptés pour être utilisés au domicile des personnes âgées dans le cadre d’un usage quotidien. Les systèmes détectant la chute sont principalement conçus pour le domicile. Des capteurs à porter sur soi, comme des boutons d’alerte ou des bracelets détectant automatiquement la chute, existent mais sont peu utilisés, car ils sont stigmatisants pour les personnes. Des capteurs ambiants comme les capteurs environnementaux, les caméras ou les capteurs au sol sont conçus pour détecter automatiquement la chute au domicile. 25Conclusion 26Deuxième partie Algorithmes pour l’évaluation et la sécurisation au domicile 27Introduction Nous développons dans cette partie les différents algorithmes et modèles que nous avons conçus pour suivre une personne dans le temps et l’espace, analyser son activité et sa marche. Nous exposons tout d’abord une vision globale du système proposé. 1 Vision générale Nous exposons, ici, la vision que nous proposons d’un système pour favoriser le maintien à domicile des personnes âgées. L’architecture générale du dispositif est résumée par le schéma 3. L’objectif global est de sécuriser et d’évaluer la fragilité de la personne au quotidien à son domicile. Pour cela, nous prévoyons d’installer, dans chaque pièce de la maison, un capteur 3D couplé à un mini ordinateur de façon à traiter les données au domicile et ne pas transmettre d’images. Nous avons donc opté pour des algorithmes et modèles légers, ne nécessitant pas de gros calculs pour qu’ils puissent être implémentés dans des mini ordinateurs à bas coût et fonctionner en temps réel. A chaque information reçue du capteur, les algorithmes analysent la scène en détectant la personne et ses activités. Nous voulons identifier des activités de la vie quotidienne telles que s’asseoir, marcher, s’accroupir, se pencher, monter sur un obstacle (une chaise, une marche, etc.), s’allonger sur un lit ou sur un canapé, et des situations particulières comme chuter et être allongé au sol. Ainsi, à la fin de chaque journée, un bilan du temps d’activité et d’inactivité pourra être fait. Cet indicateur de l’évolution de la fragilité de la personne sera couplé à l’évaluation de l’évolution de sa marche. Les observations sur l’activité et la marche de la personne seront envoyées, selon le protocole de suivi, au médecin, à la famille et à la personne elle-même pour ainsi évaluer l’évolution jour après jour de son état. Le médecin pourra alors coupler ces informations avec les différents tests qu’il effectuera durant les consultations pour affiner son évaluation de la fragilité de la personne. D’une manière plus générale, le système pourrait apprendre les habitudes des personnes, comme l’heure à laquelle elle se réveille ou la vitesse à laquelle la personne marche. Ainsi, les changements d’habitudes pourront être utilisés comme des indicateurs de l’évolution de l’état général de la personne. La deuxième fonctionnalité du système serait de sécuriser la personne en alertant les secours en cas de chute. Le système pourrait également prévenir la famille en cas de détection de situations à risque telles que monter sur une chaise et s’accroupir, qui sont des activités pouvant conduire à une chute. 2 Choix des capteurs Dans l’introduction de ce mémoire, nous avons indiqué quelques contraintes à prendre en compte dans le développement de notre système, notamment, il doit être réaliste par son coût et reposer sur des capteurs ambiants pour ne pas perturber la personne. Les systèmes avec capteurs embarqués sur la personne, tels que les accéléromètres, n’ont donc pas été retenus. Les capteurs 29Introduction 500 550 600 650 700 750 800 850 900 950 1000 33.5 34 34.5 35 35.5 36 36.5 37 37.5 Y (mm) Temps (s) Walking Salle Chambre Salle de bains Cuisine Ambulance Figure 3 – Vision pour la conception d’un système permettant le maintien à domicile des personnes âgées. au sol ne sont également pas retenus, car, aujourd’hui, ils n’apportent pas encore de solution facile à adopter dans un environnement déjà existant. Les capteurs environnementaux et les caméras correspondent au besoin. Il est possible d’installer un réseau de capteurs environnementaux au domicile de la personne sans la gêner et avec un coût peu élevé. Mais l’information sortant de ces capteurs est insuffisante pour ce que nous voulons faire. Ils permettent de détecter un grand nombre d’événements, comme l’heure à laquelle la personne a ouvert le réfrigérateur ou le nombre de fois où elle s’est levée de son fauteuil. Nous ne pouvons pas, en revanche, avoir d’information sur la qualité de sa marche. De plus, ces capteurs ne peuvent pas différencier les personnes. Ils ne peuvent pas savoir si la personne ouvrant le robinet est la personne à suivre, le conjoint, les visiteurs ou encore le personnel soignant. Nous avons donc opté pour des caméras permettant, comme nous allons le montrer, aussi bien de détecter l’activité de la personne que d’analyser le degré de fragilité à travers l’évolution de sa marche. Les caméras RGB-Depth de Microsoft (les caméras Kinect) ont été choisies, car elles permettent de fournir une information de profondeur pour chaque objet en plus de l’image couleur. De plus, elles se trouvent facilement dans le commerce, sont à bas coût et fonctionnent la nuit. 3 Conception des algorithmes La détection d’activité et l’analyse de la marche, à l’aide de caméras, nécessitent de concevoir au préalable un modèle d’extraction des personnes efficace et fiable. Les pixels extraits doivent ensuite être représentés sous une forme compacte permettant de suivre l’évolution dans l’image de la personne. Suivre une personne au cours du temps soulève plusieurs questions. 30— Sous quelle forme représenter l’objet d’intérêt pour qu’il soit reconnu dans toutes les situations ? — A partir de quelles caractéristiques obtenir la représentation de l’objet ? — Comment extraire le ou les objets d’intérêts dans la scène ? — Quelle méthode est adaptée pour suivre l’objet au cours du temps ? Dans le premier chapitre, nous présentons les méthodes utilisées pour traiter un flux vidéo. De nombreux articles traitent de la question du suivi d’objets (Object tracking en anglais) dans une vidéo. La liste des méthodes, que nous présentons dans ce chapitre, n’est donc pas exhaustive. Nous nous concentrons sur les méthodes permettant de détecter et suivre une personne au domicile. Suivre une personne dans une scène au cours du temps est un défi, car cela soulève de nombreux problèmes. Les difficultés rencontrées peuvent être dues à ses mouvements, à ses changements d’apparence (changement d’habit par exemple), à sa propriété non rigide (une personne est différente assise ou debout), aux changements de la scène (une chaise qui a bougé), aux occlusions pouvant cacher partiellement ou totalement la personne ou encore aux mouvements de la caméra. Dans ce premier chapitre, nous présentons la particularité de la caméra que nous utilisons. Les méthodes en vision ont été construites pour des caméras couleur classiques. L’apparition de la caméra fournissant une information de profondeur permet de faciliter un certain nombre de traitements qui auparavant étaient moins robustes. Dans le deuxième chapitre, nous présentons les méthodes que nous avons implémentées pour détecter et suivre une personne. Nous présentons, tout d’abord, la méthode de soustraction du fond que nous avons identifiée comme peu coûteuse en temps de calcul et robuste si elle est faite à partir de l’image de profondeur renvoyée par la caméra. Puis, nous montrons qu’à travers cinq caractéristiques, extraites des images de profondeur, nous pouvons représenter une personne et la suivre au cours du temps. Ces cinq caractéristiques sont : le centre de masse, la vitesse verticale, la vitesse horizontale, la dispersion verticale et le point maximum. Ces caractéristiques ont été choisies, car elles sont faciles à extraire et peuvent être suivies en temps réel. Dans le troisième chapitre, nous abordons l’algorithme permettant l’analyse de la marche d’une personne. L’idée est d’observer au cours du temps les paramètres de la marche d’une personne, comme indicateur de l’évolution de sa fragilité. Dans un premier temps, nous allons définir et décrire la marche. Nous verrons, entre autres, les différentes phases qui caractérisent la marche humaine et les indicateurs permettant de l’analyser. Nous verrons comment une analyse de différents paramètres spatio-temporels (longueurs de pas, vitesse de marche, etc.), cinématiques (angles formés par les différentes parties du corps) et dynamiques (les forces de réaction du pied, etc.) permet de révéler en grande partie les capacités physiques d’une personne. Pour notre étude nous nous sommes restreint à la seule mesure des paramètres spatio-temporels. Pour extraire ces paramètres, nous nous basons sur le centre de masse de la personne et sur la détection des maxima locaux sur l’axe vertical. La précision des paramètres de la marche est évaluée au chapitre 7 de la prochaine partie. Le quatrième chapitre est consacré au développement d’un algorithme détectant l’activité d’une personne. Nous avons vu en introduction, l’importance de détecter au plus vite les chutes, pour éviter à la personne de rester au sol trop longtemps et pour diminuer le risque de séquelles physiques et psychologiques. La personne peut avoir peur de rechuter et, ainsi, minimise ses activités. En ce sens, la chute peut accélérer la perte d’autonomie. Cet axe de recherche a donc un double objectif. Il permet, d’un côté, de sécuriser la personne en détectant les chutes et les activités à risque, comme monter sur une chaise. Et, d’un autre côté, il permet d’évaluer le degré de fragilité de la personne et de prévenir la perte d’autonomie en détectant les comportements inhabituels, comme l’immobilité prolongée. Pour détecter l’activité d’une personne, nous avons choisi d’utiliser le formalisme des modèles de Markov cachés (MMC). Ce sont des modèles qui 31Introduction permettent d’estimer un état caché à partir d’une séquence d’observations. Nous les définissons plus largement en annexe A. Parmi les nombreuses méthodes de la littérature, les MMC ont été souvent utilisés dans le cas de la reconnaissance d’activité. Les taux de reconnaissance d’activité sont très importants avec ce type de méthodes. Cependant, bien souvent, les algorithmes utilisent un grand nombre de caractéristiques pour déterminer l’état caché. Notre objectif est de construire des modèles de Markov cachés en prenant des caractéristiques simples à extraire et peu nombreuses, tout en conservant un bon niveau de classification des activités. Les caractéristiques, que nous prenons en compte, sont la position du centre de masse, la vitesse verticale et horizontale du centre de masse, la dispersion verticale de la silhouette et le point le plus haut du corps. Nous construisons plusieurs modèles pouvant tous correspondre à notre problème. Les différences entre les différents modèles portent sur le nombre d’activités que le modèle peut dé- tecter (entre 8 et 9) et sur le nombre de caractéristiques pris en compte (entre 3 et 5). Nous avons également construit des modèles où nous fixons à la main certains paramètres et d’autres n’ayant pas de connaissance a priori. Nous avons voulu construire plusieurs modèles pour dé- terminer si, en prenant un nombre restreint de caractéristiques, le modèle peut discriminer les activités correctement ou s’il est nécessaire d’ajouter des caractéristiques pour augmenter le taux de bonnes classifications. L’évaluation expérimentale des résultats est présentée au chapitre 8 de la partie III. 32Chapitre 3 Détecter et suivre une personne avec une caméra : état de l’art Sommaire 3.1 Détection de la personne . . . . . . . . . . . . . . . . . . . . . . . 33 3.1.1 Détecteur de points d’intérêt . . . . . . . . . . . . . . . . . . . . . . 34 3.1.2 Soustraction du fond . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.1.3 Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.1.4 Apprentissage supervisé . . . . . . . . . . . . . . . . . . . . . . . . 35 3.2 Suivi de la personne . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.2.1 Modèles d’objets animés . . . . . . . . . . . . . . . . . . . . . . . . 35 3.2.2 Suivi de l’objet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.3 Caméra de profondeur . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Ce chapitre se base, entre autres, sur le livre de Russell et Norvig [Russell and Norvig, 2010] et sur une étude réalisée en 2006 par Alper Yilmaz et al. [Yilmaz et al., 2006] recensant et classifiant les différentes méthodes utilisées dans la littérature, pour détecter et suivre une personne. Toutes les méthodes en vision ne sont pas abordées dans ce chapitre. Cet état de l’art est centré sur l’extraction d’une personne d’une scène avec une caméra fixe localisée en intérieur. Les deux grandes étapes en « vision par ordinateur » sont développées dans deux sections séparées, dédiées à la détection d’objets animés et au suivi spatio-temporel de ces objets. Ensuite, nous abordons, dans une nouvelle section, la particularité du capteur de profondeur choisi qui, comme nous le verrons, simplifie fortement les traitements nécessaires à notre proposition. 3.1 Détection de la personne La difficulté ici est de détecter dans la scène, vue par la caméra, la présence ou l’absence d’objet d’intérêt (la personne). Bien souvent la détection requiert plusieurs images. L’utilisation de seulement deux images consécutives peut provoquer de fausses détections. Par exemple, l’algorithme peut considérer qu’il y a un objet mobile alors qu’il s’agit juste d’une variation de la luminosité ou d’une ombre sur les deux images. Dans l’état de l’art, plusieurs catégories de méthodes ont été proposées : 1. des méthodes détectant des points d’intérêts ; 33Chapitre 3. Détecter et suivre une personne avec une caméra : état de l’art 2. des méthodes d’extraction de fond ; 3. des méthodes de segmentation de l’image ; 4. des méthodes d’apprentissage supervisé. 3.1.1 Détecteur de points d’intérêt Le principe, ici, est de détecter des points d’intérêt dans l’image comme observé à la fi- gure 3.1(b). L’avantage de ces méthodes est qu’elles sont robustes aux changements de lumière et indépendantes du champ de vision de la caméra. Le principe repose sur l’extraction des parties saillantes des objets à partir des variations d’intensité. Le détecteur de Moravec [Moravec, 1979], le détecteur de Harris [Harris and Stephens, 1988] et le détecteur SIFT [Lowe, 2004] (Scaleinvariant feature transform) reposent sur ce principe. Ces détecteurs ont comme particularité d’être invariants aux mouvements de la caméra et des personnes. (a) Image d’origine. (b) Résultat du détecteur de Harris. Figure 3.1 – Détection des points d’intérêts dans une scène. 3.1.2 Soustraction du fond Les méthodes dans cette catégorie consistent à obtenir une représentation de la scène sur plusieurs images. Les objets mobiles recherchés sont détectés lorsque les images fournies par la caméra sont suffisamment différentes de la représentation du fond. Les méthodes fondées sur ce principe sont plus communément regroupées sous le terme de « soustraction de fond » et ont comme objectif de séparer les objets mobiles du fond. Deux méthodes sont couramment utilisées dans la littérature pour obtenir une représentation du fond, la méthode des moyennes mobiles (Running average en anglais) et le mélange de gaussiennes (Gaussian Mixture Model en anglais). Dans la méthode des moyennes mobiles, chaque valeur de pixel, la valeur correspondant à la couleur par exemple, est moyennée sur plusieurs images pour obtenir une représentation du fond. Les valeurs des pixels des nouvelles images sont alors comparées aux valeurs des pixels du fond appris pour identifier les pixels mobiles. Des cas d’utilisation peuvent être trouvés dans la littérature, notamment dans les articles de Jansen et al.[Jansen et al., 2007], de Gómez-Conde et al. [Gómez-Conde, 2011] et de Auvinet et al. [Auvinet et al., 2011b]. Dans la méthode de mélange de gaussiennes, la valeur de chaque pixel est modélisée par un mélange de gaussienne. Pour chaque pixel, les paramètres du modèle, 343.2. Suivi de la personne à savoir les moyennes et les variances, sont appris à partir des observations obtenues sur plusieurs images consécutives. Cette technique a été utilisée pour la première fois par Stauffer et al. [Stauffer and Grimson, 2000]. Une comparaison des deux techniques a été faite par Gómez-Conde et al. [Gómez-Conde, 2011]. La méthode des moyennes mobiles est plus facile à implémenter et moins gourmande en calcul. Mais dans leur article, ils ont remarqué que cette méthode est moins robuste aux changements de couleur que le mélange de gaussienne. 3.1.3 Segmentation La segmentation correspond au processus qui permet de découper l’image en régions de pixels similaires. Les pixels ont chacun des propriétés, par exemple une certaine couleur, luminosité et texture. Les pixels appartenant à un même objet ont des valeurs aux propriétés similaires. L’idée est de repérer les changements notables dans les valeurs prises par ses propriétés, pour ainsi découper l’image en région. Chaque région délimite les frontières entre les objets. Deux caté- gories de méthodes de segmentation existent, des méthodes détectant les frontières entre les objets [Martin et al., 2004] et des méthodes détectant les régions [Shi and Malik, 2000]. Quelle que soit la méthode utilisée pour segmenter, la sélection des propriétés pour réaliser le regroupement est à définir en amont. 3.1.4 Apprentissage supervisé L’idée est de regrouper en classe des échantillons aux caractéristiques similaires. Les nouveaux objets sont associés à la classe ayant les caractéristiques les plus proches. Le choix des caracté- ristiques est très important et doit permettre une bonne discrimination entre les classes. Cette méthode requiert un grand nombre d’exemples pour chaque classe. Pour classifier les objets, différentes méthodes d’apprentissage existent comme les réseaux de neurones [Rowley et al., 1998], adaptive boosting [Viola et al., 2003] (AdaBoost), les arbres de décision [Grewe and Kak, 1995] et SVM [Papageorgiou et al., 1998] (Support Vector Machines). 3.2 Suivi de la personne Après avoir localisé la personne dans la scène (grâce aux méthodes de la section précédente), l’étape suivante est de suivre sa position dans le temps et dans l’espace. Pour suivre une personne, la première et la deuxième question de l’introduction de cette partie doivent être résolues, à savoir, sous quelle forme la personne sera représentée pour être suivi et à partir de quelles caractéristiques récupérer cette représentation. Après avoir recensé les différentes façons de représenter l’objet d’intérêt, à savoir la personne, nous citerons quelques méthodes existantes pour le suivre selon la représentation choisie. 3.2.1 Modèles d’objets animés Différentes représentations Nous nous intéressons à la personne mais pour cette section, nous nous plaçons dans le cadre plus général de la représentation des objets. Les différentes manières de représenter l’objet d’intérêt peuvent être regroupées en deux catégories : les représentations fondées d’une part sur la forme de l’objet et, d’autre part, sur son apparence. 35Chapitre 3. Détecter et suivre une personne avec une caméra : état de l’art Concernant les représentations par rapport à la forme de la personne, certains auteurs la suivent à travers la silhouette (figure 3.2(a)) et les contours(figure 3.2(b)). La silhouette représentant la région à l’intérieur des contours. Le corps peut être représenté par des points (figure 3.2(c)) ou même par un seul point (figure 3.2(d)), par exemple, par le centre géométrique de la personne [Rougier et al., 2011]. Pour représenter la personne, certains l’englobent dans une forme géométrique primitive, comme une ellipse (figure 3.2(e)) ou un rectangle (figure 3.2(f)), couramment appelée un « blob ». Anderson [Anderson et al., 2006], Jansen et al. [Jansen et al., 2007] et Auvinet et al. [Auvinet et al., 2011b] utilisent des blobs pour représenter la totalité du corps humain. D’autres techniques existent permettant de représenter plus finement le corps en distinguant les différentes parties telles que le torse, les jambes, les bras, la tête ou les pieds (fi- gure 3.2(g)). Chaque partie du corps peut être modélisée à travers un cylindre ou une ellipse, comme Rougier et al. qui entourent la tête [Rougier and Meunier, 2010] et Deeb et al. qui s’inté- ressent à la tête et aux pieds [Deeb et al., 2012]. Une dernière méthode de représentation, fondée sur la forme du corps, est fondée sur l’extraction du squelette (figure 3.2(h)). Par exemple, Zhen-Peng Bian et al. [Bian et al., 2012] et Saboune [Saboune and Charpillet, 2005] extraient le squelette dans le but d’étudier les chutes des personnes âgées. (a) (b) (c) + (d) (e) (f) (g) (h) Figure 3.2 – Différentes représentations de l’objet à suivre : (a) silhouette, (b) contour, (c) points, (d) centre géométrique, (e) ellipse, (f) rectangle, (g) plusieurs ellipses et (h) squelette. L’apparence est ce qui caractérise la ressemblance d’un objet. Deux objets se ressemblent s’ils ont la même apparence. L’apparence de certains objets varie peu c’est le cas, par exemple, d’une balle de tennis. Tous les objets n’ont pas une apparence aussi stable. Par exemple, les tables peuvent varier selon leur forme, leur couleur, leur taille et leur angle de vue. Les méthodes utilisées doivent donc être adaptées à l’apparence de l’objet à suivre. Dans notre cas, l’apparence d’une personne peut varier selon la façon dont elle est habillée, sa position, sa posture ou encore son angle de vue. Ces différentes représentations peuvent être combinées. Bien souvent le choix de la représentation s’impose de lui-même selon l’objectif poursuivi. 363.2. Suivi de la personne Caractéristiques pour obtenir la représentation L’algorithme doit se fonder sur certaines caractéristiques faciles à identifier de l’objet pour obtenir une représentation efficace (qui peut être sous la forme d’une ellipse, d’un point, d’un squelette, etc.). Plusieurs caractéristiques de l’objet peuvent être prises en compte. Sa couleur Chaque pixel a trois valeurs, une pour le rouge, une pour le vert et une dernière pour le bleu. Ses bords ou ses contours Les contours sont les lignes dans l’image où la luminosité est modifiée. En cherchant les différences de luminosité, il est possible de détecter les contours et donc de détecter des éléments importants de l’image, comme illustré à la figure 3.3(b). (a) Image d’origine. (b) Résultat de l’extraction des contours. Figure 3.3 – Détection des contours dans une scène. Son flot optique Le flot optique d’un objet révèle le mouvement d’un objet d’une image sur l’autre. Des groupes de pixels se déplaçant à la même vitesse et dans la même direction pourront alors être regroupés et associés à un objet particulier. Sa texture La texture correspond au motif qui se répète sur la surface d’un objet et qui est perceptible visuellement. La texture doit être observée, non pas pour chaque pixel, mais par zone. Les caractéristiques retenues pour représenter un objet sont choisies généralement en fonction du domaine, de l’objectif et du contexte. Des méthodes existent pour sélectionner automatiquement les caractéristiques discriminantes de l’objet. Les méthodes d’analyse en composantes principales ou la méthode Adaboost [Tieu and Viola, 2004] sont de bons exemples de méthodes ayant fait leurs preuves. 3.2.2 Suivi de l’objet Le suivi d’un objet à travers une série d’images n’est pas un problème facile à résoudre, car plusieurs facteurs peuvent venir perturber le suivi comme les occlusions, les mauvaises détections de l’objet, les entrées et sorties du champ de vision de la caméra. La méthode, pour suivre un objet, dépend du choix pris pour représenter l’objet. La méthode ne sera pas la même si l’objet 37Chapitre 3. Détecter et suivre une personne avec une caméra : état de l’art est représenté par un ou des points, par une forme géométrique ou par sa silhouette, et en fonction des hypothèses faites sur sa dynamique. Objet représenté par des points Si l’objet est représenté à travers un ou plusieurs points, le principe de la méthode de suivi consiste à apparier les points d’une image aux points des images consécutives. Le problème consistant à faire correspondre les points, à travers plusieurs images, peut être résolu en utilisant une combinaison d’hypothèses : — la position de l’objet dans des images consécutives ne doit pas énormément varier (3.4(a)) ; — la vitesse de l’objet d’une image à l’autre n’excède pas un certain seuil, ce qui permet de supposer que le point à l’image t + 1 se trouvera dans un certain rayon comparé à l’image t (3.4(b)) ; — la direction et la vitesse de l’objet ne changent pas énormément sur une succession de plusieurs images (3.4(d)) ; — la vitesse des objets dans un petit voisinage est similaire (3.4(c)) ; — l’objet en 3 dimensions est rigide, ainsi la distance entre deux points d’un même objet restera la même à la prochaine image (3.4(e)). X O t t+1 X X (a) X O t t+1 X X (b) O t t+1 X X X O O O X (c) O t t+1 X X X t+2 X X X (d) O t t+1 X X t+2 X X O (e) Figure 3.4 – Différentes hypothèses utilisées pour le suivi d’un objet : (a) proximité, (b) vitesse maximale, (c) mouvement similaire, (d) constance de la vitesse et de la direction, (e) rigidité de l’objet. A partir de ces hypothèses, deux catégories de méthodes existent pour déterminer la correspondance entre les points de différentes images consécutives. Les approches déterministes consistent à évaluer et à minimiser un coût de correspondance entre les points de deux images consécutives. A chaque image, une solution unique est sélectionnée. Plusieurs auteurs traitent de ces approches. Nous pouvons citer en particulier Sethi et Jain [Sethi and Jain, 1987], Rangarajan et Shah [Rangarajan and Shah, 1991] et Veenman et al. [Veenman et al., 2001]. Les approches statistiques (ou bayésiennes) consistent à estimer, à l’aide d’une mesure de l’incertain, la posi- 383.2. Suivi de la personne tion future de l’objet. L’idée est de supposer que l’observation peut être bruitée, ce qui induit de l’incertitude. A chaque image, ces approches fournissent un ensemble de solutions plus ou moins probables. Le filtre de Kalman (décrit à la section 4.2.2) et les filtres particulaires sont des approches bayésiennes souvent utilisées pour résoudre le problème de suivi d’une personne. Objet représenté par des formes géométriques L’objectif est de suivre l’objet en calculant le mouvement d’une image à l’autre, des formes géométriques qui l’entourent. Les mouvements des formes géométriques sont généralement sous la forme de transformations, comme la translation, la rotation et l’application affine. Un exemple de transformation d’une ellipse est présenté à la figure 3.5. Figure 3.5 – Transformation paramétrique d’une ellipse. Deux catégories de méthodes peuvent résoudre le problème du suivi du mouvement des formes géométriques d’un objet. La première catégorie se fonde sur l’hypothèse que la forme d’un objet change peu au cours du temps. L’algorithme définit un modèle d’apparence de l’objet, lorsqu’il apparaît dans la scène et recherche, au cours du temps, l’emplacement de ce modèle dans les images, pour ainsi suivre l’objet. Un exemple de modèle d’apparence est montré à la figure 3.6 représentant les différentes parties du corps par des rectangles. Chaque rectangle a ses propres dimensions et une certaine position par rapport aux autres. Plusieurs algorithmes ont été développés pour coupler le modèle à un élément de l’image, comme celui de Comaniciu [Comaniciu, 2002] et Jepson et al. [Jepson et al., 2003]. L’autre catégorie de méthodes émet l’hypothèse que l’objet peut apparaître complètement différemment d’une vue à l’autre. Le modèle défini risque, dans ce cadre, de ne pas pouvoir correspondre à toutes les vues de l’objet et de ne pas le reconnaître dans une image, perdant alors son suivi. Le but est d’apprendre plusieurs vues de l’image avant de le suivre en direct, par exemple avec des SVM [Avidan, 2004]. Objet représenté par sa silhouette La représentation par silhouette permet de suivre plus finement certaines formes complexes, comme la main, la tête, les épaules, que la représentation par forme géométrique. L’idée est d’extraire pour chaque image la silhouette de l’objet. La silhouette sera alors couplée à un modèle représentant la forme de l’objet ou représentant le contour. La forme de l’objet peut être suivie de la même manière que le suivi de modèle d’apparence du paragraphe précédent. La silhouette et son modèle associé sont recherchés à chaque image. La méthode de suivi de contour consiste à déplacer itérativement le contour initial dans l’image précédente pour le faire correspondre à celui de la nouvelle image. Le suivi de contour nécessite d’avoir un recouvrement des régions de l’objet dans les deux images consécutives. 39Chapitre 3. Détecter et suivre une personne avec une caméra : état de l’art Figure 3.6 – Modèle d’apparence. 3.3 Caméra de profondeur La caméra que nous utilisons est la caméra Kinect de Microsoft, comme montré à la figure 3.7. Elle a la particularité d’être un capteur actif fonctionnant dans l’infrarouge qui reconstitue, même de nuit, la profondeur de chaque pixel. Ses caractéristiques sont les suivantes. Elle fournit 30 images par seconde. Son champ de vision est de 57˚à l’horizontale et 43˚à la verticale. La profondeur peut être reconstruite jusqu’à 8 m avec une précision de quelques centimètres qui se dégrade au-delà de 4 m. L’apparition de ce type de caméras simplifie les méthodes utilisées en vision. Les méthodes précédentes ont été développées pour des caméras fournissant une information d’intensité ou de couleur pour chaque pixel. La caméra de Microsoft, en plus de fournir l’information couleur, indique à quelle distance chaque pixel se trouve dans la scène par rapport à la caméra. Les caméras classiques ont l’inconvénient d’être dépendantes des changements de luminosité. Ainsi, la plupart des méthodes construites pour détecter les personnes sont conçues pour résoudre ce problème. La méthode de soustraction du fond, peu robuste avec des caméras classiques puisque le fond varie avec l’éclairage ambiant, est très efficace avec une image de profondeur [Shotton et al., 2013]. Caméra couleur Caméra profondeur Micro Moteur Figure 3.7 – Le capteur Kinect de Microsoft. Microsoft a développé ses propres algorithmes de détection et suivi de la personne. Leur algorithme a été pensé pour être appliqué aux jeux où la personne est face à la caméra puisqu’à 403.4. Conclusion l’origine cette caméra est un périphérique destiné à la console de jeux vidéo Xbox360. Ces algorithmes sont très robustes. L’algorithme est fondé sur le suivi d’un modèle de squelette. Le squelette continue d’être détecté, même si la personne est à moitié visible. Il repose sur une base d’apprentissage de 500 000 images. L’inconvénient de leur algorithme est qu’il fonctionne surtout si la personne est face à la caméra. De plus, si la personne est dans certaines positions, comme allongée au sol, leur algorithme ne détecte plus la personne. Il est peu robuste aux situations nouvelles n’appartenant pas à la base d’apprentissage. L’algorithme est propriétaire mais peut être utilisé via le SDK fourni par Microsoft. Nous avons fait le choix de ne pas utiliser le SDK de Microsoft pour développer une approche plus adaptée aux situations que nous souhaitons identifier tout en montrant que cet objectif peut être atteint par l’analyse de paramètres simples, sans passer par une reconstruction de la configuration 3D du squelette. 3.4 Conclusion L’un de nos objectifs, comme nous l’avons mentionné, est de développer un système peu coûteux. En d’autres termes, le système doit pouvoir être installé sur une machine à bas coût. Les algorithmes doivent être simples et réaliser le traitement en temps réel. Les méthodes comme l’extraction du squelette, par exemple, sont des méthodes très précises mais coûteuses en temps. Une des méthodes les plus classiques pour détecter la personne en temps réel, et que nous avons sélectionnée pour développer notre système, est l’apprentissage du fond. Cette méthode est considérée comme l’une des moins robustes. Mais aujourd’hui, avec l’apparition des caméras nous fournissant l’information de profondeur, la représentation du fond peut être construite sur la profondeur de chaque pixel et non plus uniquement sur la couleur, la rendant ainsi plus robuste, car n’étant plus dépendante des changements de lumière. Nous avons choisi, pour suivre l’objet, une représentation en points du corps de la personne qui a l’avantage d’être une méthode légère. 41Chapitre 3. Détecter et suivre une personne avec une caméra : état de l’art 42Chapitre 4 Application à la détection et au suivi de personnes avec une caméra RGB-D Sommaire 4.1 Détecter la personne . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.1.1 Extraction et apprentissage du fond . . . . . . . . . . . . . . . . . . 44 4.1.2 Extraction du sol et changement de repère . . . . . . . . . . . . . . 44 4.1.3 Extraction des points mobiles . . . . . . . . . . . . . . . . . . . . . 46 4.1.4 Extraction des objets mobiles . . . . . . . . . . . . . . . . . . . . . 47 4.1.5 Détection de la personne . . . . . . . . . . . . . . . . . . . . . . . . 49 4.2 Suivre la personne . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.2.1 Représentation de la personne . . . . . . . . . . . . . . . . . . . . . 49 4.2.2 Suivi du centre de masse . . . . . . . . . . . . . . . . . . . . . . . . 51 4.2.3 Suivi de la distribution verticale . . . . . . . . . . . . . . . . . . . . 53 4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Dans ce chapitre, nous présentons les différentes étapes de traitement, allant de la détection de la personne, avec l’extraction des pixels mobiles, jusqu’au suivi d’une personne se déplaçant dans le champ de vision d’une caméra. Chaque étape de la détection et du suivi est schématisée sur la figure 4.1. Chaque encadré fait l’objet d’une sous section de ce chapitre. L’objectif final, de ce chapitre, est de suivre la personne à travers des paramètres simples à extraire. Nous avons choisi de suivre la personne à partir de son centre de masse et de la distribution verticale de sa silhouette. A partir de ces deux paramètres, nous pouvons déduire d’autres caractéristiques comme la vitesse verticale et la vitesse horizontale du centre de masse et le point maximum qui correspond au sommet du crâne lorsque la personne est debout. 4.1 Détecter la personne Il s’agit dans cette section de détecter la personne à partir de l’image de profondeur fournie par la caméra. Dans une image de profondeur, chaque pixel représente un point dans l’espace 3D donné dans le système de coordonnées de la caméra. Les points du plan image peuvent être projetés dans ce système de coordonnées grâce aux paramètres optiques de la caméra. Ces paramètres sont des données constructeur propres à chaque caméra. 43Chapitre 4. Application à la détection et au suivi de personnes avec une caméra RGB-D Extraction fond Detection points mobiles Detection de la personne Regroupement en objet Detection personne à suivre Detection sol Extraction centre de masse Suivi de la personne Projection repère sol Extraction distribution verticale Figure 4.1 – Étapes pour détecter la personne du fond et la suivre dans le temps. 4.1.1 Extraction et apprentissage du fond La première étape pour détecter la personne dans le champ de vision de la caméra est d’identifier les éléments fixes de la scène, que nous appelons le fond, pour pouvoir en déduire, par soustraction, les points appartenant à la silhouette de la personne. Tout d’abord, chaque pixel F0(x, y) représentant la carte de profondeur du fond au temps t = 0 est initialisé avec une valeur arbitraire nommée M axV alue et fixée à 12 mètres. Ensuite la méthode running average [Gómez-Conde, 2011] est utilisée pour apprendre le fond en moyennant, à chaque pas de temps, les distances pour chaque point de l’image. L’utilisation d’un poids α permet de donner plus d’importance au passé. La formule de mise à jour est la suivante : Ft(x, y) = (1 − α)Ft−1(x, y) + αIt(x, y) avec F la matrice des distances cumulées, It(x, y) l’image courante et α le poids. Le poids α est fixé à 0,0001. Pour les points non reconstruits (comme dans le cas des surfaces réfléchissantes), la carte de profondeurs F n’est simplement pas mise à jour et reste égale à M axV alue de façon à permettre la détection des personnes devant les surfaces réfléchissantes. Cette méthode permet de traiter le problème du fond non stationnaire. Quand un objet (comme une chaise) est déplacé, le fond est progressivement mis à jour. Un certain temps est nécessaire pour apprendre le fond. Afin d’accélérer cet apprentissage, il est possible d’initialiser α à 1, pour le faire décroitre ensuite progressivement jusqu’à 0,0001. Hormis cette phase initiale d’apprentissage du fond, mise en place pour faciliter les expérimentations, le système s’adapte automatiquement aux changements dans la scène. 4.1.2 Extraction du sol et changement de repère L’objectif de cette étape est de permettre de faire, par la suite, des calculs indépendants de la position de la caméra. Les coordonnées 3D des points de l’image sont au départ calculées dans le système de coordonnées de la caméra dont l’origine est le centre optique. Afin d’être capable de mesurer le déplacement au sol de la personne et la hauteur des points extraits, nous souhaitons travailler dans un système de coordonnées aligné sur le sol. Pour effectuer ce changement de repère, nous avons besoin d’extraire le sol. Le système de coordonnées du sol est calculé juste après l’initialisation du fond, sans nécessiter l’utilisation d’une procédure de calibration spécifique. Etape 1 : Redressement de la scène Dans le repère de la caméra, nous désignons par X l’axe horizontal, Y l’axe vertical et Z la profondeur. Les points 3D du fond subissent tout d’abord une rotation autour de l’axe X en 444.1. Détecter la personne utilisant l’angle γ d’inclinaison de la caméra obtenu à partir de son accéléromètre. Cette première transformation permet d’avoir un axe y proche de la verticale. L’équation de redressement des points Pi est la suivante : P 0 i = RγPi avec Rγ =   1 0 0 0 cos(γ) −sin(γ) 0 sin(γ) sin(γ)   . Etape 2 : Sélection des points bas Un nombre arbitraire de points sont ensuite sélectionnés parmi les points les plus bas. L’hypothèse est que la majorité de ces points appartiennent au sol. Nous prenons ainsi les 15 000 points les plus bas qui serviront à calculer l’équation du plan du sol. Etape 3 : Calcul de l’équation du sol Le sol est assimilé à un plan d’équation ax+by+cz+d = 0 dont nous calculons les paramètres a, b, c et d avec la méthode des moindres carrés. En rappelant que l’axe y est proche de la verticale suite à l’étape 1, nous pouvons considérer que b est non nul puisque l’axe y n’appartient pas au plan. L’ensemble des coefficients de l’équation du plan étant définis à une constante multiplicative près nous pouvons fixer b = 1. Chaque point P 0 i sélectionné à l’étape 2 nous donne donc une équation du type : xia + zic + 1d = −yi . Le système d’équations surdimensionné Ax = B où A =   x1 z1 1 ... xN zN 1   , x =   a c d   et B =   −y1 ... −yN   peut être résolu avec la méthode des moindres carrés qui nous donne la solution x = (A T A) −1A T B minimisant le résidu r = B − Ax. 45Chapitre 4. Application à la détection et au suivi de personnes avec une caméra RGB-D Etape 4 : Construction du repère sol Il s’agit enfin de construire le système de coordonnées du sol (Og, ~ux, ~uy, ~uz). Une origine arbitraire Og(0, y, 0) est définie telle que Og appartienne au plan calculé précédemment, ce qui nous donne : Og =   0 −d 0   . Un premier axe est construit également arbitrairement en prenant un second point sur le sol de coordonnées (1, yx, 0) ce qui nous donne le vecteur directeur ~ux = αx   1 −a 0   . L’axe Yg est défini par le vecteur normal au plan ~uy = αy   a 1 c   . L’axe Zg est enfin construit en faisant le produit vectoriel entre ux et uy : ~uz = αz(~ux ∧~uy), soit ~uz = αz   −ac −c a 2 + 1   . Les nombres αx, αy et αz sont des constantes de normalisation. Projection d’un point dans le repère sol Les points 3D P(x, y, z) peuvent, après rotation suivant l’angle γ comme montré à l’étape 1, être projetés dans le système de coordonnées du sol (Og, ~ux, ~uy, ~uz) en réalisant les produits scalaires entre le vecteur (OgP 0 ) et les vecteurs directeurs du repère. Les coordonnées P 00 de P dans le repère sol sont données par : P 00 =   1αx −aαx 0 aαy 1αy cαy acαz cαz (a 2 + 1)αz   (P 0 − Og) où P 0 = RγP. Un exemple d’extraction du sol est montré sur la figure 4.2. 4.1.3 Extraction des points mobiles Dans cette étape, nous cherchons à identifier les points mobiles de l’image, c’est-à-dire les points occupés par la personne. Pour cela, à chaque instant, le fond (l’image des distances du fond) est soustrait à l’image courante des distances, pour ne garder que les points ayant une distance plus courte dans l’image courante que dans l’image de fond. Pour éliminer le bruit, c’est-à-dire les points détectés comme mobiles mais ne l’étant pas, un filtre Erosion-Dilatation est utilisé. Tout d’abord l’étape d’érosion permet d’éliminer tous les points mobiles proches d’un point considéré comme appartenant au fond. Ainsi, tous les 464.1. Détecter la personne Figure 4.2 – L’extraction du sol est représentée en rouge. contours des objets seront éliminés et le bruit également. La figure 4.3a) est un exemple de représentation des points mobiles et fixes où sera appliqué le filtre Erosion-Dilatation. Sur cette figure les cases en bleu représentent les points détectés comme mobiles et les points en vert représentent le fond. Le filtre érosion est appliqué à la figure 4.3a). Le résultat est montré en figure 4.3b). Toutes les cases bleues, ayant une case verte dans leur voisinage, deviennent vertes. Dans l’exemple, un voisinage de taille 1 est sélectionné, c’est-à-dire seuls les points juxtaposés sont pris en compte. La deuxième étape est le filtre dilatation consistant à transformer tous les points du fond, proches des points mobiles, en des points mobiles. A la figure 4.3b) est appliqué le filtre dilatation permettant d’obtenir la figure 4.3c). Chaque case verte juxtaposée à une case bleue devient bleue. Cela permet aux objets mobiles de récupérer leurs contours. Dans notre algorithme la taille du voisinage est de 2. 4.1.4 Extraction des objets mobiles Dans cette section, l’objectif est de regrouper les points mobiles appartenant à un même objet, ainsi il sera possible de distinguer plusieurs objets dans une même scène. Pour cela, nous utilisons un étiquetage des composantes connexes [Suzuki et al., 2003]. Cette méthode consiste à affecter une étiquette (un nombre) différente à tous les points détectés comme mobiles. Dans la figure 4.4a), les cases colorées correspondent à des points détectés comme mobiles. Ainsi dans la figure 4.4b), l’algorithme assigne un nombre différent à chaque point mobile. Ensuite, la technique consiste à regarder pour chaque point p, si un de ses voisins a un nombre plus petit. Si ce cas est avéré, l’étiquette du voisin le plus petit est attribuée au point p. Cette opération est montrée à la figure 4.4c). Chaque point prend à l’étape t+2 le nombre le plus petit parmi ses voisins de l’étape t+1. Cette commande est répétée jusqu’à ce qu’il n’y ait plus de changement dans l’affectation des nombres aux points de l’image. La figure 4.4d) est la dernière étape de l’algorithme, car les étiquettes des points ne changent plus. Ainsi, tous les points ayant un même nombre seront regroupés comme étant un même objet mobile. Dans la figure 4.4d), l’algorithme a détecté deux objets différents, un objet avec les points portant le numéro 1 et un autre objet avec les points ayant le numéro 7. Cet algorithme pose la question du nombre de voisin à prendre en compte. Est-ce qu’il faut se limiter aux points juxtaposés de p ou alors déterminer un voisinage plus grand ? Un des problèmes, à ne considérer que les voisins juxtaposés du point (c’est-à-dire avec un voisinage de 47Chapitre 4. Application à la détection et au suivi de personnes avec une caméra RGB-D Erosion Dilatation a) b) c) Figure 4.3 – a) Les cases bleues représentent des points mobiles et les cases vertes les points appartenant au fond, b) le filtre érosion est appliqué, c) le filtre dilatation est appliqué. 1 2 3 5 6 4 7 8 9 10 11 12 151413 1716 1819 1 2 3 5 6 4 7 8 9 10 11 12 151413 1716 1819 1 2 3 5 6 4 7 8 9 10 11 12 151413 1716 1819 1 2 3 5 6 4 7 8 9 10 11 12 151413 1716 1819 1 2 3 5 6 4 7 7 9 11 111413 1 2 3 5 6 4 7 8 9 10 11 12 151413 1716 1819 1 1 2 2 4 1 7 7 7 9 9 1111 1 2 3 5 6 4 7 8 9 10 11 12 151413 1716 1819 1 1 1 1 1 1 7 7 7 7 7 7 777 77 7 7 étape 1 étape n 2 étape 13 131314 a) b) d) c) Figure 4.4 – a) Les cases colorées représentent des points mobiles, b) l’algorithme assigne un nombre aux points mobiles, c) les points avec un nombre plus grand que ses voisins sont modifiés, d) le résultat final est atteint. 484.2. Suivre la personne taille 1), est qu’il est possible que certaines parties ne soient pas détectées comme appartenant au même objet. Par conséquent, la jambe ou le bras peut être identifié comme un objet et le reste du corps comme un autre objet. La seconde solution est de prendre un voisinage de taille plus importante. L’algorithme avec un voisinage de taille 2 considérera les points positionnés en p−2, p − 1, p + 1 et p + 2. La contrepartie est alors le risque d’intégrer des points n’appartenant pas à l’objet. Pour illustrer ces deux méthodes, nous pouvons donner l’exemple suivant. La figure 4.4 montre le cas où nous considérons seulement les points juxtaposés. Deux objets sont alors détectés en figure 4.4d). Un voisinage de taille 3 modifierait le résultat, les deux blocs de points mobiles seraient rassemblés en un seul objet. Après une analyse qualitative, en variant la taille du voisinage, un voisinage de 3 est sélectionné pour notre algorithme. 4.1.5 Détection de la personne Après l’étape précédente, l’algorithme est capable de fournir tous les groupes d’objets mobiles visibles dans la scène. Nous faisons l’hypothèse qu’il n’y a qu’une personne dans la scène. Donc parmi les objets mobiles se trouvent la personne à suivre et des objets qui ont été déplacés (tels qu’une chaise, une porte). Le groupe correspondant à la personne à suivre est récupéré en prenant le groupe ayant le nombre de points mobiles le plus important. Comme nous l’avons précisé précédemment, le fond ne cesse d’être appris ce qui permet aux objets déplacés de revenir dans le fond au bout d’un certain temps. Par contre, le même effet se produit si une personne reste inactive pendant un certain temps. Pour éviter que la personne n’intègre le fond, l’algorithme d’apprentissage du fond ne prend pas en compte les pixels détectés comme mobiles et appartenant à la personne suivie. 4.2 Suivre la personne L’objectif de cette étape est de décrire la méthode utilisée dans l’algorithme pour suivre la personne au cours du temps. Comme précisé au chapitre précédent, la méthode pour suivre une personne découle du choix pris pour la représenter. Nous introduisons dans cette section une partie concernant le choix de la représentation, pour ensuite décrire la méthode pour obtenir cette représentation au cours du temps. 4.2.1 Représentation de la personne Comme nous l’avons présenté dans le chapitre précédent, plusieurs représentations de la personne sont possibles, par des points, par un squelette, par une ellipse représentant la totalité du corps ou une pour chaque partie du corps, etc. Notre objectif était de trouver une représentation assez légère en temps de calcul pour que le suivi se fasse en temps réel. Les étapes précédentes de détection de la personne nous permettent d’obtenir une série de points 3D la composant. Nous n’avons pas besoin de suivre très précisément les différentes parties du corps, une analyse globale de la personne est suffisante. Nous pouvons réduire les paramètres à un ensemble d’éléments descriptifs de la distribution verticale du corps. Un intérêt majeur de travailler avec une représentation simple est qu’elle sera moins sujette à variations et donc robuste à la diversité des situations. Le suivi des déplacements du corps dans l’espace peut être une tâche assez complexe, car chaque partie du corps peut faire l’objet d’une analyse à part entière. L’article de Saunders et al. [Saunders et al., 1953] traite du sujet des déplacements du corps en mouvement. Selon eux, 49Chapitre 4. Application à la détection et au suivi de personnes avec une caméra RGB-D l’analyse du corps en mouvement peut être réduite à la simple analyse du centre de masse en mouvement. Plus précisément, les déplacements horizontaux et verticaux du corps, lorsqu’une personne marche, peuvent être analysés en regardant les déplacements du centre de masse. La figure 4.5 et 4.6 représentent les déplacements horizontaux et verticaux du centre de masse quand une personne marche d’après l’article de Saunders et al.. Ces déplacements forment des courbes sinusoïdales d’une certaine amplitude. Ce sont ces mécanismes effectués ainsi qui permettent de minimiser la dépense énergétique au cours de la marche. Si les déplacements du centre de masse d’une personne ne respectent pas les formes et l’amplitude habituelle des courbes, la marche est alors dite pathologique. La trajectoire du centre de masse à elle seule permet de fournir de nombreuses informations sur le corps en mouvement. Figure 4.5 – Déplacement horizontal théorique du centre de masse. Figure 4.6 – Déplacement vertical théorique du centre de masse. Pour représenter le corps de la personne et le suivre au cours du temps, nous avons choisi de coupler l’analyse de la distribution verticale et de la trajectoire du centre de masse pour représenter le corps durant le cycle de déplacement. 504.2. Suivre la personne 4.2.2 Suivi du centre de masse Calcul du centre de masse Au début de cette étape, la personne à suivre est détectée. La personne extraite avec l’algorithme est composée d’un ensemble de points 3D. Dans notre algorithme le centre de masse est calculé comme étant un centre géométrique de la silhouette, il s’agit de l’emplacement moyen, de tous les éléments mobiles, calculé à partir de la formule suivante : Cm(x, y, z) = ( 1 N X i xi , 1 N X i yi , 1 N X i zi) où xi ,yi ,zi sont les coordonnées du i eme points 3D et N est le nombre de points mobiles. La trajectoire du centre de masse d’une personne marchant perpendiculairement à la caméra, obtenue avec notre méthode, est montrée à la figure 4.7. La trajectoire horizontale de la figure 4.7(b) est difficilement interprétable. La trajectoire verticale de la figure 4.7(a) est, en revanche, similaire à la courbe théorique sinusoïdale que Saunders et al. ont décrit et qui est représentée à la figure 4.6. De plus, Saunders et al. spécifient que l’amplitude bas-haut des déplacements du centre de masse est approximativement 1,08 pouce (soit 4,8 cm), ce qui correspond à peu près à l’amplitude trouvée avec nos courbes. 600 650 700 750 800 850 900 950 1000 1050 28 28.5 29 29.5 30 30.5 31 Y (mm) Temps (s) (a) Déplacement vertical du centre de masse. -2500 -2400 -2300 -2200 -2100 -2000 -1900 -1800 -1500 -1000 -500 0 500 1000 1500 Z (mm) X (mm) (b) Déplacement horizontal du centre de masse. Figure 4.7 – Déplacement du centre de masse extrait à partir de notre algorithme pour une personne marchant en ligne droite perpendiculairement à la caméra. La montée et la descente en début et fin de trajectoire correspondent aux entrées et sorties de la personne dans le champ de vision de la caméra. Description de la trajectoire du centre de masse L’amplitude de la courbe verticale du centre de masse est accentuée par un artefact lié aux occlusions périodiques faisant varier la répartition du nombre de points visibles appartenant à la personne. La figure 4.8(a) montre que les amplitudes de la courbe du centre de masse sur l’axe vertical sont dépendantes de la variation du nombre de pixels mobiles. Sur cette figure, les maxima locaux de la trajectoire du centre de masse, pour une personne marchant perpendiculairement à la caméra, correspondent aux instants où la personne a moins de pixels mobiles détectés. La raison est qu’à cet instant la personne est sur un pied d’appui et qu’une jambe est cachée par l’autre. Quand la personne est en double appui, les deux jambes sont visibles et il y a donc plus de pixels mobiles détectés dans la partie basse de la silhouette. 51Chapitre 4. Application à la détection et au suivi de personnes avec une caméra RGB-D Ensuite la trajectoire du centre de masse, d’une personne marchant cette fois en direction de la caméra, a été tracée sur le même graphe que la courbe représentant le nombre de pixels mobiles. Le résultat est montré à la figure 4.8(b). Le nombre de pixels mobiles augmente de plus en plus parce que la personne s’approche de la caméra et occupe donc plus de place dans le champ de vision. La trajectoire du centre de masse s’élève lorsque la personne se rapproche de la caméra. Ceci est dû au fait que, la caméra étant positionnée en hauteur et plongeant vers le bas, la zone supérieure du corps de la personne est de plus en plus visible au fur et à mesure que la personne s’approche de la caméra. La trajectoire du centre de masse sur l’axe vertical forme une trajectoire sinusoïdale mais avec une amplitude plus petite comparée à la situation où la caméra est perpendiculaire à la personne comme à la figure 4.8(a). Dans le cas où la caméra est face à la personne, l’artefact du nombre de points mobiles n’intervient pas. Comme on peut le voir sur la figure 4.8(b), la dépendance entre nombre de points et maxima locaux sur la courbe du centre de masse n’est pas évidente. Ceci montre que l’artefact, dû aux occlusions de profil, amplifie le mouvement vertical du centre de masse mais n’est pas le seul facteur à l’origine de ce mouvement et, lorsque la caméra est de face, c’est bien le déplacement vertical de la personne qui est observé. 0.58 0.6 0.62 0.64 0.66 0.68 34 34.5 35 35.5 36 36.5 37 5000 10000 15000 20000 25000 Y Nombre de points Temps (s) Nombre de points Y (a) Une personne marche perpendiculairement à la caméra. 0.58 0.6 0.62 0.64 0.66 0.68 39 39.5 40 40.5 41 41.5 5000 10000 15000 20000 25000 Y Nombre de points Temps (s) Nombre de points Y (b) Une personne marche face à la caméra. Figure 4.8 – Comparaison entre la trajectoire du centre de masse et le nombre de pixels mobiles appartenant à une personne. Lissage de la trajectoire du centre de masse Les trajectoires, sur l’axe vertical du centre de masse que nous obtenons, sont filtrées. Deux méthodes pour filtrer la trajectoire ont été implémentées, un filtre passe-bas et un filtre de Kalman. Notre filtre passe-bas moyenne chaque centre de masse gt avec les deux centres de masse précédents gt−1, gt−2 et les deux centres suivants gt+1, gt+2. Cette méthode permet de filtrer la courbe. Le résultat du lissage de la courbe 4.9(a) avec le filtre passe-bas est montré à la figure 4.9(b). Le filtre de Kalman [Rabiner, 1989] est un cas particulier du filtre bayésien général, estimant l’état d’un système à partir d’une série d’observations bruitées. Dans notre cas, les observations sont les positions 3D du centre de masse. Le modèle est paramétré par, d’un côté, l’incertitude de la prédiction et, de l’autre, par l’incertitude de l’observation. Le bruit relatif R donné à l’observation, comparé au bruit de la prédiction Q, permet de définir l’inertie du filtre. Nous 524.2. Suivre la personne utilisons un filtre simple défini par : xt+1 = xt + Q gt = xt + R où gt représente l’observation à l’instant t (centre de masse calculé sur l’image t) et xt représente le résultat du filtre. Les bruits Q et R du filtre sont réglés manuellement. L’inférence est réalisée en deux étapes avec les équations de Kalman. Prédiction L’étape de prédiction permet d’estimer la position à l’instant t à partir des observations précédentes (des instants 1 à t − 1). xt|t−1 = F xt−1|t−1 Pt|t−1 = F Pt−1|t−1F T + Q Dans notre cas, la fonction de transition F est égale à la matrice identité. xt|t−1 représente l’état prédit sans prendre encore en compte l’observation à l’instant t et Pt|t−1 représente la covariance de la prédiction. Correction L’étape de correction consiste à mettre à jour la prédiction en prenant en compte l’observation à l’instant t. yt = gt − Hxt|t−1 St = HPt|t−1HT + R Kt = Pt|t−1HT S −1 t xt|t = xt|t−1 + Ktyt Pt|t = (I − KtH)Pt|t−1 . Dans notre cas, la fonction d’observation H est égale à la matrice identité. yt l’innovation, St la covariance de l’innovation et Kt le gain de Kalman sont des variables intermédiaires utilisées pour calculer l’état xt|t et la covariance Pt|t a posteriori en intégrant l’observation gt . Le résultat du lissage de la courbe 4.9(a) avec le filtre de Kalman est montré à la figure 4.9(c). La comparaison visuelle des deux filtres montre que le filtre de Kalman est moins sensible aux valeurs extrêmes. Paramètres dynamiques En plus de la position du centre géométrique, nous utilisons les paramètres représentatifs de son déplacement à savoir sa vitesse horizontale et verticale. 4.2.3 Suivi de la distribution verticale Pour compléter la représentation de la personne, nous ajoutons deux autres paramètres représentatifs de la distribution verticale qui sont l’écart type et le maximum des coordonnées verticales des points mobiles. 53Chapitre 4. Application à la détection et au suivi de personnes avec une caméra RGB-D -1550 -1500 -1450 -1400 -1350 -1300 -1250 -1200 -1150 -1100 -1050 -1000 27.5 28 28.5 29 29.5 30 30.5 Y (mm) Temps (s) -1350 -1300 -1250 -1200 -1150 -1100 -1050 27.5 28 28.5 29 29.5 30 30.5 Y (mm) Temps (s) (a) (b) -1400 -1350 -1300 -1250 -1200 -1150 -1100 -1050 27.5 28 28.5 29 29.5 30 30.5 Y (mm) Temps (s) (c) Figure 4.9 – a) Courbe non lissée, b) courbe lissée avec le filtre passe-bas, c) courbe lissée avec le filtre de Kalman. L’écart type des coordonnées des points 3D mobiles, composant le corps de la personne est calculé sur l’axe y par la formule suivante : σy = sPN i=1 [yi − Cm(y)]2 N avec N le nombre de points composant le corps de la personne et Cm(y) la coordonnée sur l’axe y du centre de masse. Un exemple de variation de la distribution verticale pour une personne qui marche est illustré à la figure 4.10. 1.5 2 2.5 3 3.5 4 4.5 5 5.5 6 33.5 34 34.5 35 35.5 36 36.5 37 Ecart type Temps (s) Figure 4.10 – Trajectoire de l’écart type vertical pour une personne qui marche. 544.3. Conclusion Le point maximum des points mobiles sur l’axe vertical y est calculé par la formule suivante : Ymax = maxX N i=1 yi avec N le nombre de points composant le corps de la personne et yi la coordonnée sur l’axe y du point mobile i. Tout comme pour le centre de masse, la trajectoire du point maximum est lissée par un filtre de Kalman. La figure 4.11(a) représente la trajectoire du point maximum lorsqu’une personne marche et la figure 4.11(b) correspond à sa trajectoire filtrée. Nous pouvons voir que l’amplitude des oscillations du point maximum est moins grande que celle des oscillations du centre de masse représenté à la figure 4.7(a). 1250 1300 1350 1400 1450 1500 1550 1600 1650 1700 1750 33.5 34 34.5 35 35.5 36 36.5 37 Y (mm) Temps (s) (a) Trajectoire du point maximum sur l’axe vertical. 1250 1300 1350 1400 1450 1500 1550 1600 1650 1700 33.5 34 34.5 35 35.5 36 36.5 37 Y (mm) Temps (s) (b) Trajectoire du point maximum lissée sur l’axe vertical. Figure 4.11 – Comparaison entre la trajectoire du point maximum filtrée et non filtrée pour une personne qui marche. 4.3 Conclusion L’objectif pour détecter et suivre la personne était d’utiliser des algorithmes simples. Ainsi, notre méthode nous permet un suivi de la personne en temps réel. Nous avons opté pour une représentation de la personne à travers 5 paramètres faciles à extraire qui sont : — la position du centre de masse ; — la vitesse verticale du centre de masse ; — la vitesse horizontale du centre de masse ; — la dispersion verticale de la silhouette ; — le point maximum de la silhouette. Les traitements de plus haut niveau qui sont décrits par la suite (l’analyse des paramètres de la marche et la détection de l’activité d’une personne) se basent sur l’analyse d’un ou de l’ensemble de ces paramètres. 55Chapitre 4. Application à la détection et au suivi de personnes avec une caméra RGB-D 56Chapitre 5 Mesurer à domicile les paramètres de la marche Sommaire 5.1 Définition et description de la marche . . . . . . . . . . . . . . . 58 5.1.1 Définition de la marche . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.1.2 Description du cycle de la marche . . . . . . . . . . . . . . . . . . . 58 5.2 Indicateurs de l’analyse de la marche . . . . . . . . . . . . . . . . 59 5.2.1 Paramètres spatio-temporels . . . . . . . . . . . . . . . . . . . . . . 59 5.2.2 Paramètres cinématiques . . . . . . . . . . . . . . . . . . . . . . . . 60 5.2.3 Paramètres dynamiques . . . . . . . . . . . . . . . . . . . . . . . . 61 5.3 Sélection des indicateurs . . . . . . . . . . . . . . . . . . . . . . . . 62 5.3.1 Troubles de la marche et risques de chute . . . . . . . . . . . . . . . 64 5.3.2 Troubles de la marche et risques d’hospitalisation . . . . . . . . . . 64 5.3.3 Troubles de la marche et troubles cognitifs . . . . . . . . . . . . . . 64 5.4 Extraction des indicateurs . . . . . . . . . . . . . . . . . . . . . . . 65 5.4.1 Longueurs de pas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5.4.2 Cadence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.4.3 Vitesse de marche . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.4.4 Résultat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 L’être humain effectue en moyenne 5 000 à 15 000 pas par jour soit 2 à 5 millions par an. La marche s’acquiert au travers d’un processus d’apprentissage qui est qualifié de difficile selon Viel [Viel, 2000]. L’apprentissage de la marche prend plusieurs années, pour être par la suite automatique. Le but pour les nouveaux apprenants est d’acquérir les différentes phases composant la marche, de maintenir leur équilibre et de s’adapter aux contraintes de l’environnement extérieur tout en réduisant le coût énergétique. L’objectif dans ce chapitre est de décrire ce qu’est la marche. Nous commençons par décrire la marche dans sa globalité en analysant les différentes phases qui la constituent. Puis une seconde section abordera la façon dont la marche peut être analysée en énumérant différents indicateurs utilisés pour la décrire. Cette section est inspirée des thèses de Gillet en 2004 [Gillet, 2004] et Fusco en 2008 [Fusco, 2008]. Après avoir brossé un panorama des indicateurs existants pour analyser la marche, nous proposons de sélectionner certains paramètres pertinents pour l’étude de la fragilité. Enfin, nous décrivons l’algorithme qui permet d’extraire ces paramètres. 57Chapitre 5. Mesurer à domicile les paramètres de la marche Figure 5.1 – Représentation du cycle de la marche selon Viel (2000). 5.1 Définition et description de la marche 5.1.1 Définition de la marche La marche humaine « normale » est définie par Perry[Perry and Davids, 1992] comme un phénomène complexe impliquant la coordination de mouvements de rotations des segments corporels pour maintenir l’équilibre du corps pendant son déplacement vers l’avant. Chaque être humain a sa propre façon de marcher, sa propre démarche. Malgré tout, la marche peut être découpée en séquences de mouvements cycliques, qui sont identifiables chez tous les humains, pour les deux sexes et âges confondus, et qui apparaissent à chaque pas. La description de la marche, ci-après, concerne la marche « normale », par opposition à la marche pathologique. 5.1.2 Description du cycle de la marche Un cycle de marche (une foulée) commence par le contact initial d’un pied au sol (par le talon) et se termine par le contact suivant du même pied (par le même talon). Le cycle de la marche est lui-même découpé en phases, permettant ainsi de poser les bases pour analyser la marche d’une personne. Selon le découpage de Viel [Viel, 2000], le cycle de marche est découpé principalement en deux phases, une phase d’appui et une phase d’oscillation comme illustré à la figure 5.1. La phase d’appui (droite ou gauche) dure 60 % du cycle et est définie comme la phase débutant lorsque le pied (droit ou gauche) est en contact avec le sol. La phase d’oscillation (droite ou gauche) dure 40 % du cycle et est définie comme la phase débutant lorsque la jambe (gauche ou droite), en l’air, se déplace vers l’avant et se termine lorsque le talon reprend contact avec le sol. Un découpage plus fin du cycle peut être donné à l’intérieur des phases d’appui et d’oscillation. 585.2. Indicateurs de l’analyse de la marche Phase d’appui Le double appui de réception Lors de cette phase, les deux pieds sont en contact avec le sol. Cette phase commence à 0 % du cycle avec le contact initial du talon sur le sol et se termine lorsque les orteils controlatéraux se soulèvent à 10 % du cycle. Le rôle de cette phase est de diriger le mouvement du corps vers l’avant et vers le côté lorsque le pied controlatéral quitte le sol. La phase d’appui unilatéral Après la phase de double appui de réception se produit la phase d’appui unilatéral qui dure environ 40 % du cycle. Lors de cette phase, un seul membre inférieur est en appui. La phase commence à 10 % du cycle avec le décollement des orteils controlatéraux et se termine à environ 50 % du cycle avec le contact du talon controlatéral. Cette période permet la progression du corps en avant par le pied en appui. Le double appui de propulsion Tout comme la phase de double appui de réception, les deux pieds sont en contact avec le sol. Cette phase commence lors du contact controlatéral à environ 50 % du cycle et se finit à 60 % du cycle avec le décollement des orteils du pied en appui. Le but de cette phase est de propulser le corps vers l’avant, grâce au transfert de poids vers la jambe controlatérale. Phase d’oscillation Durant cette phase, le membre oscillant ne décolle que très légèrement les orteils (1,29 cm) puis le talon frôle la surface du sol d’environ 1 cm. Habituellement, cette phase n’est pas dé- coupée plus finement. Nous pouvons tout de même noter que, lors de cette période, une phase d’accélération et une phase de décélération peuvent être distinguées. La phase d’accélération commence lorsque le pied décolle du sol et se termine lorsque les deux pieds se croisent. Ensuite une phase de décélération est observée dans laquelle le membre oscillant ralentit dans le but de préparer le prochain contact. 5.2 Indicateurs de l’analyse de la marche Pour analyser la marche d’une personne, différentes variables peuvent être prises en compte selon le but de l’analyse. Les indicateurs peuvent être regroupés selon trois catégories. 5.2.1 Paramètres spatio-temporels Tout d’abord, les paramètres spatio-temporels sont couramment étudiés, car ils informent sur les caractéristiques globales de la marche, c’est-à-dire qu’ils informent sur le déroulement de la marche dans le temps et l’espace. Les paramètres spatio-temporels ont la particularité de prendre des valeurs variables selon le sexe et l’âge de la personne. Principaux paramètres spatiaux Les paramètres souvent évalués sont la longueur du pas, la largeur du pas, la longueur et largeur d’enjambée et, l’angle du pas. Ces paramètres ont une définition parfois différente selon les articles. Il n’y a pas vraiment de consensus en analyse de la marche. Nous proposons ici des définitions inspirées de ce qui est le plus couramment proposé et nous reprenons également la thèse de Faivre de 2003 qui propose un lexique terminologique [Faivre, 2003]. 59Chapitre 5. Mesurer à domicile les paramètres de la marche La longueur du pas (droit pour notre exemple) correspond à la distance entre les deux talons lors du temps du double appui de réception (double appui de réception droit dans notre exemple). La largeur du pas est définie comme la distance entre la ligne de progression (ligne traversant tous les pas effectués par la personne) et le point médian du talon. L’enjambée correspond à la succession de deux pas. La longueur d’enjambée est alors définie comme la somme algébrique des longueurs de deux pas successifs. La largeur d’enjambée quant à elle est déterminée par la somme algébrique de la largeur de deux pas successifs. Ces paramètres sont exprimés en mètres. L’angle du pas, exprimé en degrés, correspond à l’angle formé entre la ligne de progression et le point médian du talon. Tous ces paramètres sont représentés à la figure 5.2. Longueur pas droit Longueur pas gauche Ligne de progression Longueur d'enjambée Largeur pas droit Angle pas Largeur pas gauche Largeur d'enjambée + + Figure 5.2 – Représentation des paramètres spatiaux. Principaux paramètres temporels Les paramètres souvent évalués sont la cadence (la fréquence), la vitesse de marche, le temps d’appui bipodal et unipodal (ou temps d’oscillation). Tout comme les paramètres spatiaux, les définitions de chaque terme ne sont pas des définitions « universelles ». La cadence correspond à la vitesse de marche en fonction du nombre de pas. Il s’agit de la fréquence à laquelle une personne marche. Le terme « fréquence » est d’ailleurs souvent employé à la place de « cadence ». La cadence est calculée comme le nombre de pas par minute ou par seconde. La vitesse de marche correspond à la relation mathématique entre la cadence (enjambées/min) et la longueur d’enjambée (en mètre). La vitesse de marche est exprimée en mètre par seconde. La formule est donc : Vitesse de marche = (Longueur × Cadence)/120 Bien souvent dans la réalité, la vitesse de marche est obtenue en chronométrant le temps mis par le sujet pour parcourir une distance donnée. Le temps d’appui bipodal est la durée moyenne des temps de double appui lors d’un cycle de la marche (pour rappel le cycle de marche correspond au moment entre le contact initial du talon et le contact suivant du même talon). Le temps d’appui unipodal est la durée moyenne du temps d’appui unilatéral lors d’un cycle de marche droit ou gauche. Ce temps est égal au temps d’oscillation du pied controlatéral. Les temps d’appui bipodal et unipodal sont exprimés en secondes ou en % du cycle de marche. 5.2.2 Paramètres cinématiques La deuxième catégorie correspond aux paramètres cinématiques qui sont des variables fré- quemment étudiées, car elles reflètent le mouvement des membres inférieurs au cours de la marche. 605.2. Indicateurs de l’analyse de la marche Il s’agit d’analyser l’aspect de la marche. Les paramètres correspondent aux angles permettant d’analyser la flexion de la cheville, la flexion du genou et la flexion de la hanche. La flexion de la cheville est analysée en observant l’angle formé entre le pied et le tibia (os du membre inférieur). La flexion du genou correspond à l’angle entre le tibia et le fémur (os de la cuisse). Et la flexion de la hanche représente l’angle formé entre le fémur et le bassin. Ces angles sont représentés à la figure 5.3. (a) Angle entre le pied et le tibia. (b) Angle entre le tibia et le fé- mur. (c) Angle entre le fémur et le bassin. Figure 5.3 – Représentation des paramètres cinématiques. 5.2.3 Paramètres dynamiques L’analyse dynamique constitue l’étude des forces et moments internes qui engendrent le mouvement. L’utilisation de la technique de l’électromyographie décrite dans la section 1.2.1 permet cette analyse. Mais celle-ci est invasive, elle requiert de poser des capteurs sur les muscles. Pour faciliter l’analyse dynamique, il est courant d’étudier les forces et les moments externes à travers l’analyse de l’interaction du pied avec le sol. Ainsi, les forces de réaction du sol et les pressions plantaires permettent une évaluation du pied. Les forces de réaction du sol Les forces de réaction du sol sont mesurées lors de la réception et la propulsion des pieds durant la marche. La force de réaction correspond à un vecteur se divisant selon trois axes d’après Kirtley [Kirtley, 2006], un axe vertical, antéro-postérieur et média-latéral. Composante verticale La composante verticale correspond à la force décrite à la figure 5.4(a). Il s’agit de la composante où les forces ont le plus d’amplitude. Lors d’un cycle de la marche, la courbe de cette composante évolue en forme de « M » comme représentée en bleue à la figure 5.5. Les deux pics de cette courbe représentent les phases de réception et de propulsion. Lors de la phase d’oscillation, le pied n’est plus en contact avec le sol donc la force de réaction est nulle. Composante antéro-postérieure La composante antéro-postérieure correspond à la force décrite à la figure 5.4(b). Deux phases sont identifiables sur la courbe formée par cette composante 61Chapitre 5. Mesurer à domicile les paramètres de la marche lors du cycle de la marche comme montré en vert à la figure 5.5. Lors de la phase de réception, la courbe est négative, le sujet freine, donc la force est exercée vers l’arrière. La deuxième phase, la phase de propulsion, est le moment où la courbe est positive, le sujet propulse son corps vers l’avant donc la force est exercée vers l’avant. Composante média-latérale La composante média-latérale, illustrée à la figure 5.4(c), correspond aux forces qui ont le moins d’amplitude. Toutefois il est possible de constater deux phases dans la forme de la courbe des forces, comme le montre en rouge la figure 5.5. Une phase de réception très courte où la force est orientée vers l’extérieur, vers l’axe latéral. Et une phase d’appui qui dure plus longtemps et où la force est orientée vers le centre, vers l’axe médian. (a) La force verticale. (b) La force antéro-postérieure. (c) La force média-latérale. Figure 5.4 – Représentation des forces exercées lorsqu’une personne marche. Pressions plantaires Les pressions plantaires correspondent aux points d’appui sur l’ensemble de la plante du pied lors du contact avec le sol. Les points d’appuis successifs lorsque le pied est en contact avec le sol sont représentés à la figure 5.6 et inspirés selon Allard en 1996 [Allard and Blanchi, 1996]. Tout d’abord les pressions débutent au niveau de l’extérieur du talon lorsque la personne pose son talon au sol. Ensuite, la trajectoire se poursuit sur le bord externe du pied, pour se propager vers toutes les têtes métatarsiennes et aboutir au niveau de la phalange distale de l’orteil. 5.3 Sélection des indicateurs Lorsqu’une personne vieillit, sa marche est modifiée. Plusieurs changements dans la marche des personnes âgées peuvent être cités, notamment une diminution de la vitesse de la marche [Guimaraes and Isaacs, 1980], une réduction des longueurs de pas ([Guimaraes and Isaacs, 1980], [Winter et al., 1990]), une augmentation du temps de double appui [Winter et al., 1990] et une plus grande variabilité de la marche [Guimaraes and Isaacs, 1980]. Ces modifications de la marche sont considérées comme « normales », car dues à l’avancée dans l’âge. Ce qui nous intéresse dans 625.3. Sélection des indicateurs 0 200 400 600 800 1000 -200 Force (N) 0 20 40 60 80 100 % cycle de la marche Figure 5.5 – Force de réaction du sol selon l’axe vertical (bleu), antéro-postérieur (vert) et média-latéral (rouge) lors d’un cycle de marche selon Kirtley. Figure 5.6 – Trajectoire des pressions plantaires lors de la marche. 63Chapitre 5. Mesurer à domicile les paramètres de la marche cette partie, concerne les changements « anormaux » de la marche, pouvant être des indicateurs d’une augmentation de la fragilité des personnes. Dans cette section, nous présentons des articles mettant en évidence une corrélation entre une détérioration de la santé de la personne et une évolution des indicateurs de sa marche. L’analyse de ces articles nous permettra de déterminer quels sont les indicateurs pouvant informer sur l’état d’une personne indépendamment de l’âge. 5.3.1 Troubles de la marche et risques de chute En 1980, Guimaraes et al. [Guimaraes and Isaacs, 1980] ont réalisé une étude sur l’analyse de la marche en comparant deux groupes, un groupe de 30 personnes hospitalisées pour cause de chute (sans blessure particulière) et un groupe de 22 personnes de même âge se trouvant à l’hôpital mais n’ayant pas subi de chute récente. L’étude a révélé que le groupe hospitalisé, pour cause de chute, avait une vitesse de marche réduite, de plus petite longueur et largeur de pas et une augmentation dans la variabilité des fréquences de pas. En 2001, Hausdorff et al. [Hausdorff et al., 2001] reprennent l’idée d’une dégradation des paramètres chez les personnes ayant chuté et testent l’hypothèse que la prévention des chutes est possible à partir de ces paramètres. Après un an d’expérimentation, ils ont montré que les variabilités de temps des foulées et les variabilités de temps d’oscillation sont associées à une augmentation du risque de chute dans le futur. Auvinet et al. [Auvinet et al., 2003] ont mis en place en 2003 une expérimentation où 53 sujets, dont 20 étaient considérés comme le groupe des « chuteurs », devaient marcher sur un parcours de 40 mètres. Ils ont alors pu montrer que la vitesse, la fréquence et les longueurs de pas avaient des valeurs réduites pour le groupe des « chuteurs ». L’irrégularité des longueurs de pas était considérée, dans leur étude, comme une variable fiable pour prévenir les chutes. 5.3.2 Troubles de la marche et risques d’hospitalisation D’autres articles montrent l’intérêt d’étudier les paramètres spatio-temporels pour leur corrélation avec le risque d’hospitalisation. En effet, l’analyse de la vitesse de la marche serait un bon indicateur pour prédire un risque d’hospitalisation et un déclin de la santé selon Studenskiet al. [Studenski et al., 2003]. Dans cet article, les auteurs montrent que 41 % des marcheurs lents (<0.6 m/s) sont hospitalisés au moins une fois par an, tandis que seulement 26 % des marcheurs intermédiaires (0.6-1.0 m/s) et 11 % des marcheurs rapides (>1.0 m/s) sont hospitalisés. 5.3.3 Troubles de la marche et troubles cognitifs Les troubles cognitifs les plus répondus chez les personnes âgées sont regroupés sous le terme de démence. La démence est une détérioration des fonctions cognitives, provoquant un changement dans la vie de la personne et une perte d’autonomie. Les démences couramment citées sont la maladie d’Alzheimer et la maladie de Parkinson. Les désordres liés à la marche sont plus répandus chez les personnes âgées ayant des démences que chez les sujets « normaux ». Iersel et al. [Van Iersel et al., 2004] ont comparé ces deux groupes de sujets et en ont déduit que les personnes avec des démences ont une vitesse de marche plus lente, des longueurs de pas plus petites et un temps de double appui plus grand que les sujets âgés sains. La vitesse de marche plus lente chez les personnes avec des démences est mise en évidence également dans l’article de Bramell-Risberg et al. [Bramell-Risberg et al., 2005]. Plusieurs études ont également déterminé qu’un dysfonctionnement mesuré par une vitesse de marche lente peut être un indicateur de déficits cognitifs précoces ([Holtzer et al., 2006], 645.4. Extraction des indicateurs [Kuo et al., 2007], [Waite et al., 2005]). Les déficits cognitifs sont définis comme une dégradation d’un ou des processus cognitifs mais sans provoquer de perte d’autonomie de la personne. Ce trouble peut éventuellement subvenir plusieurs années avant l’apparition des démences. En sachant que les personnes âgées atteintes de démence ou présentant un déficit cognitif précoce ont une marche altérée, en comparaison aux personnes âgées sans démence et sans déficit, d’autres chercheurs se sont intéressés à l’analyse des indicateurs de la marche pouvant permettre de prévenir une éventuelle apparition de démence ou déficit cognitif dans les mois ou années qui suivent. Bien que le principal signe de démence soit un déclin cognitif, plusieurs articles montrent que des désordres moteurs sont présents au premier stade de la maladie. Selon Camicioli et al. [Camicioli et al., 1998], une marche lente pourrait précéder des déficiences cognitives. Leur expérience consistait à évaluer 85 personnes âgées saines durant 3 ans. L’objectif était de déterminer les différences motrices entre les personnes sans problème cognitif et ceux développant des détériorations cognitives, durant 3 ans. Ils remarquèrent alors que les 18 sujets, développant des troubles cognitifs, avaient un ralentissement moteur (constat à travers le temps mis pour parcourir une certaine distance). Ces différentes études indiquent que l’analyse de la vitesse pourrait améliorer le diagnostic des problèmes cognitifs, en sachant particulièrement que 50 % des personnes affectées par la maladie d’alzheimer sont diagnostiquées et seulement 30 % au premier stade de la maladie ([Ferri et al., 2006], [Rimmer et al., 2005]). De plus, les sujets avec des démences chutent deux ou trois fois plus que les sujets sans déclin cognitif [Shaw, 2002]. 5.4 Extraction des indicateurs L’analyse des paramètres spatio-temporels s’avère être une approche intéressante pour évaluer l’état général d’une personne. Les paramètres auxquels nous allons nous intéresser sont la vitesse de marche, les longueurs de pas et la cadence. Ces paramètres sont extraits à partir des déplacements verticaux du centre de masse de la personne. Plus précisément, les paramètres sont extraits à partir de la courbe lissée (avec le filtre passe-bas ou le filtre de Kalman). 5.4.1 Longueurs de pas Comme nous l’avons déjà défini à la section 5.2.1, la longueur de pas, dans la littérature, correspond à la distance séparant les deux talons lors du double appui de réception. Notre méthode, pour récupérer la longueur de pas, consiste à chercher la position du pied d’appui. Le centre de masse est au plus haut au moment où il se trouve à la vertical du pied d’appui. La position du pied d’appui peut donc être estimée par la projection sur le sol du centre de masse au moment du point max sur la courbe, comme illustré par la figure 5.7. Dans notre cas, la longueur de pas est calculée comme la distance entre la projection de deux maxima locaux consécutifs de la trajectoire du centre de masse sur l’axe vertical. La distance est obtenue en calculant la distance euclidienne entre les deux points (A et B) en trois dimensions : da,b = p (xb − xa) 2 + (yb − ya) 2 + (zb − za) 2 L’extraction de la première longueur de pas est montrée à la figure 5.8. Nous exprimons les longueurs de pas en centimètres. 65Chapitre 5. Mesurer à domicile les paramètres de la marche 5.4.2 Cadence Nous calculons la cadence sur une séquence et non pas pour chaque pas. Pour calculer la cadence de l’ensemble des pas d’une séquence, nous appliquons la formule suivante : Cadence = N ( PN i=1 duree(i)) avec N le nombre de pas réalisés au cours de la séquence et duree(i) la durée du pas i. La cadence est exprimée ici en nombre de pas par seconde. La durée d’un pas est définie comme étant le temps entre le point de contact avec le sol d’un pied et le point de contact de l’autre pied (controlatéral). Pour obtenir la durée du pas, nous utilisons la même méthode que pour extraire les longueurs de pas. Le temps entre la projection de deux maxima locaux consécutifs sur la trajectoire du centre de masse sur l’axe vertical constitue la durée d’un pas. La durée d’un pas est exprimée en secondes. L’extraction de la durée du premier pas est montrée à la figure 5.8. 5.4.3 Vitesse de marche Les vitesses de marche moyenne et instantanée peuvent être calculées de la même façon. Dans la section 5.2.1, nous avions précisé que la vitesse de marche était souvent calculée en chronométrant le temps mis par le sujet pour parcourir une distance donnée. Nous reprenons cette idée pour extraire la vitesse moyenne. La vitesse de marche est calculée par la formule suivante : V itesse = PN i=1 longueur(i) PN i=1 duree(i) avec longueur(i) et duree(i) la longueur de pas (ici, exprimée en mètres) et la durée du pas i. Nous obtenons donc la vitesse de marche moyenne exprimée en mètre par seconde. L’extraction de la vitesse de la marche est montrée à la figure 5.8. Double Appui unilatéral droit appui Appui unilatéral gauche Double appui Double appui Déplacement vertical Figure 5.7 – Correspondance entre le cycle de la marche et la trajectoire du centre de masse sur l’axe vertical. 5.4.4 Résultat Lorsqu’une personne marche en ligne droite perpendiculairement à la caméra, nous obtenons entre 2 et 4 pas d’environ 50 à 60 cm selon les personnes. Les derniers pas de chaque séquence (une séquence correspond au moment où la personne traverse le champ de vision de la caméra 665.5. Conclusion -1600 -1550 -1500 -1450 -1400 -1350 -1300 -1250 -1200 -1150 -1100 7.5 8 8.5 9 9.5 10 10.5 11 Y (mm) Temps (s) Longueur du premier pas Vitesse de marche Durée du premier pas Figure 5.8 – Extraction des paramètres de la marche à partir du centre de masse. en entrant d’un côté et en sortant de l’autre) ne sont pas pris en compte. Les derniers pas correspondent aux moments où la personne sort du champ de vision de la caméra. Une fausse détection du pas peut se produire à proximité des bords de l’image. C’est pourquoi nous préférons enlever le dernier pas de chaque séquence lorsque la personne sort du champ de vision de la caméra. 5.5 Conclusion Ce chapitre nous a permis de poser les bases et les notions à connaître pour comprendre les différentes phases de la marche. Il liste, également, les différents paramètres existants pour analyser la marche de la personne. Les paramètres spatio-temporels représentent l’analyse des longueurs, cadences et vitesses de marche. Les paramètres cinématiques correspondent à l’analyse des angles formés par le pied, le genou et la hanche. Et les paramètres dynamiques étudient les forces de réaction au sol et les pressions plantaires. Les systèmes analysant la marche des personnes sont fondés sur l’analyse d’un ou de plusieurs de ces paramètres. Par exemple, les tapis actimètriques fournissent les paramètres spatio-temporels et les paramètres dynamiques, les accéléromètres, quant à eux, calculent les paramètres cinématiques. Nous avons également présenté, dans ce chapitre, différentes études mettant en évidence des liens entre troubles de la marche et dégradation de l’état de fragilité de la personne. D’après ces articles, l’analyse de la marche peut permettre de prévenir les chutes, les risques d’hospitalisation et les troubles cognitifs. La plupart des études concordent sur le fait que la longueur de pas, la cadence et la vitesse de marche sont des paramètres fiables pour étudier l’évolution de l’état de santé de la personne. Ainsi, nous avons présenté l’algorithme d’extraction de ces trois paramètres, à partir du centre de masse et de la détection des maxima locaux sur l’axe vertical. L’évaluation de la précision des paramètres extraits est présentée dans la prochaine partie. 67Chapitre 5. Mesurer à domicile les paramètres de la marche 68Chapitre 6 Reconnaitre l’activité humaine en temps réel par l’analyse d’images de profondeur Sommaire 6.1 Approches pour détecter l’activité . . . . . . . . . . . . . . . . . . 70 6.1.1 Approches non paramétriques . . . . . . . . . . . . . . . . . . . . . 70 6.1.2 Approches volumétriques . . . . . . . . . . . . . . . . . . . . . . . . 70 6.1.3 Approches paramétriques . . . . . . . . . . . . . . . . . . . . . . . . 71 6.2 Positionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 6.3 Proposition d’un modèle de l’activité . . . . . . . . . . . . . . . . 73 6.3.1 Modèle avec fonction d’observation seule . . . . . . . . . . . . . . . 74 6.3.2 Utilisation d’un MMC unique . . . . . . . . . . . . . . . . . . . . . 75 6.3.3 Utilisation de MMC combinés . . . . . . . . . . . . . . . . . . . . . 79 6.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 De nombreuses méthodes ont été développées dans le domaine de la reconnaissance d’activité. Les méthodes de reconnaissance d’activité peuvent être regroupées en trois catégories : les méthodes non paramétriques, les méthodes volumétriques et les méthodes paramétriques. En annexe A, nous présentons en particulier une méthode paramétrique, les modèles de Markov cachés (MMC), sur laquelle nous nous sommes basés pour construire nos modèles de détection d’activité. L’un des intérêts des MMC est de posséder de bonnes capacités de généralisation et donc d’être adaptée à nos contraintes. En effet, les données disponibles pour l’apprentissage sont nécessairement limitées et partiellement représentatives de la diversité des situations pouvant être rencontrées en situation réelle. Nous cherchons à déterminer l’activité d’une personne étant données les mesures que nous pouvons effectuer avec une caméra de profondeur. Cette activité est un état caché, que nous cherchons à déterminer à partir d’une séquence d’observations extraites des images de profondeur de la caméra RGB-D. Ces observations ont été choisies pour leur robustesse et la simplicité avec laquelle elles sont extraites des images de profondeur. Ces indicateurs sont cités au chapitre 4. Il s’agit du centre de masse de la personne, de ses vitesses verticale et horizontale, de la dispersion verticale du corps et du point le plus haut de la silhouette. Nous avons construit plusieurs modèles. Certains sont constitués d’un MMC unique, d’autres plus complexes requièrent plusieurs MMC, un par activité. Nous faisons varier le nombre d’observations et le nombre d’états afin de pouvoir, 69Chapitre 6. Reconnaitre l’activité humaine en temps réel par l’analyse d’images de profondeur ensuite, les comparer pour déterminer le modèle étant le plus pertinent. Cette comparaison est faite dans le chapitre 8. 6.1 Approches pour détecter l’activité Plusieurs études classifiant les méthodes de détection d’activités à partir d’images vidéo ont été réalisées ces dernières années. Les classifications réalisées sont différentes d’un article à l’autre car la reconnaissance d’activités est un large sujet. Ke et al. [Ke et al., 2013] propose ainsi un dé- coupage de la problématique sur trois niveaux, faisant apparaître les grandes étapes de l’analyse d’images, identifiant plusieurs catégories de problèmes en fonction des objectifs et enfin définissant des types d’applications. Les méthodes d’analyse d’images sont en effet liées au dispositif technique et à son environnement. Il faut par exemple prendre en compte les capacités de la caméra choisie, comme le type de capteur, l’ouverture de son champ de vision, la mobilité ou non de la caméra. La classification peut également être faite en fonction des méthodes d’analyse utilisées qui sont très nombreuses et peuvent s’étudier selon les différents niveaux de traitement de l’image et du flux vidéo. Les méthodes d’analyse dépendent en particulier de la complexité et du type des activités à reconnaitre. Les méthodes pour détecter qu’une personne lève les bras et se fait un thé ne sont, par exemple, pas les mêmes. Les moyens à mettre en œuvre dépendent enfin du contexte applicatif. Par exemple, la reconnaissance d’activités anormales ne requiert pas les mêmes méthodes si on s’intéresse aux activités dangereuses d’une personne dans le métro ou aux chutes des personnes âgées à leur domicile. Le regroupement des méthodes de reconnaissance d’activités peut donc se faire de nombreuses façons et il est par conséquent difficile d’être exhaustif. Ainsi, nous retrouvons dans la littérature des études se focalisant sur les mé- thodes appliquées à la surveillance [Valera and Velastin, 2005], sur la détection des activités des piétons [Enzweiler and Gavrila, 2009] ou encore proposant une classification selon la reconnaissance d’activités d’un groupe de personnes [Aggarwal and Ryoo, 2011]. Comme illustré par la fi- gure 6.1, nous nous intéressons plus spécifiquement à la reconnaissance d’activités simples, c’est à dire ne faisant pas intervenir une séquence longue d’événements, que nous cherchons à reconnaître à l’aide d’une caméra fixe, positionnée dans un environnement relativement peu maitrisé (l’intérieur d’un habitat, avec toute la diversité des aménagements possibles). Nous reprenons, pour positionner notre contribution, la classification réalisée par Turaga et al. [Turaga et al., 2008] qui regroupent les méthodes couramment utilisées pour la détection d’activités simples en trois catégories : les approches non paramétriques, volumétriques et paramétriques. 6.1.1 Approches non paramétriques Ces approches consistent à récupérer une série de caractéristiques à chaque image de la vidéo. Cela permet d’obtenir une séquence de caractéristiques qui sera alors comparée aux séquences de caractéristiques des exemples types qui ont été pré-enregistrés. L’exemple pré-enregistré le plus similaire est considéré comme représentatif de l’activité réalisée par la personne. Cette approche peut être utilisée pour des objets extraits en 2 ou 3 dimensions. 6.1.2 Approches volumétriques Ces approches consistent à analyser en un bloc l’enregistrement vidéo de l’activité réalisée par une personne. L’idée est d’analyser la séquence d’images en une seule fois et non pas image par image. A partir d’une séquence d’images, un volume en trois dimensions est créé à partir de l’ensemble des pixels appartenant à la personne. Chaque image constitue une coupe de ce 706.2. Positionnement Reconnaissance d'activités au domicile Caméra fixe Caméra mobile Plusieurs personnes Personne seule Activités simples Approches non paramétriques Approches volumétriques Approches paramétriques Activités complexes Figure 6.1 – Positionnement du problème de la reconnaissance d’activité au domicile. volume qui représente le trajet effectué par la personne durant la séquence. A partir de ce volume, des caractéristiques sont extraites. Ces caractéristiques peuvent ensuite être comparées aux caractéristiques des exemples pré-enregistrés. 6.1.3 Approches paramétriques Les approches paramétriques consistent à construire un modèle à partir d’hypothèses faites sur la dynamique de l’activité à reconnaitre. Les paramètres spécifiques d’une activité sont appris à partir d’une base d’exemple. Les séquences d’images à reconnaitre sont ensuite confrontées aux modèles des différentes activités. Le modèle le plus représentatif de la séquence permet d’identifier l’activité réalisée. 6.2 Positionnement L’objectif est de détecter les chutes et situations à risque mais aussi de reconnaitre des activités ou postures que peut prendre la personne dans la vie de tous les jours, en différenciant les activités où la personne est passive et celles où la personne est active. Les activités ont été choisies en s’inspirant des travaux de Noury et al. [Noury et al., 2007]. Dans cet article, les auteurs indiquent comment construire un système détectant les chutes. Notamment, ils précisent que pour détecter les chutes, il est nécessaire de confronter le système à des situations réalistes pouvant se confondre aux situations de chute, qui peuvent entraîner des faux positifs. Ils précisent qu’il ne suffit pas de comparer la chute à des activités telles que la marche, mais de prendre également des situations telles que se pencher ou s’accroupir. Ils énumèrent ainsi une liste d’activités à prendre 71Chapitre 6. Reconnaitre l’activité humaine en temps réel par l’analyse d’images de profondeur en compte pour détecter efficacement les chutes. Nous avons identifié les activités — à risque : chuter et être allongé au sol, monter sur un obstacle ; — passives : être assis, allongé sur un lit ou sur un canapé ; — actives : marcher, s’accroupir, se pencher, debout. Les approches non paramétriques et volumétriques requièrent un grand nombre d’exemples pour rendre la détection d’activité la plus fiable possible. Dans notre cas, nous sommes partis du principe que notre base de données ne peut pas être exhaustive. En effet, il est difficile d’enregistrer toutes les activités ou les postures qu’une personne peut réaliser au cours de la journée. Enregistrer les mouvements naturels et complètement réalistes d’une personne est très difficile à faire en situation de laboratoire. Nous ne disposons, par exemple, pas d’enregistrements de chutes réelles. De plus, une même activité peut se différencier par l’angle de vue de la caméra, l’endroit où elle est réalisée ou la façon qu’ont les personnes de la réaliser. Les personnes âgées peuvent se comporter différemment du fait de leurs capacités motrices plus ou moins conservées. Nous avons donc utilisé des modèles de Markov cachés qui font partie des approches paramétriques et qui ont de bonnes capacités de généralisation à partir d’une base de données restreinte. En plus de la question de la reconnaissance de l’activité, ces modèles permettent de traiter le problème de la segmentation des activités dans les séquences d’images, alors que les autres approches nécessitent de renseigner le début et la fin de l’activité. Dans la littérature, les articles traitant la détection d’activité à l’aide de méthodes paramé- triques utilisent généralement un grand nombre de paramètres extraits des images. Par exemple, dans l’article de Peursum et al. [Peursum et al., 2005], les auteurs décrivent leur méthode pour reconnaître l’action « imprimer » ou « préparer un thé » résultant d’une succession de 15 activités comme « marcher », « s’asseoir », etc. Pour reconnaître ces activités, ils se sont basés sur 10 caractéristiques à extraire de chaque image, comme la taille de la personne, la vitesse horizontale, la longueur du torse, l’angle du torse par rapport au sol, la longueur des mains, la longueur des jambes, etc. L’extraction de ces caractéristiques nécessite d’effectuer un certain nombre de traitements comme extraire la personne, localiser sa main, son torse, ses jambes et mesurer les angles au niveau des articulations. Comme pour le choix des états, les caractéristiques ont été choisies en se basant sur l’article de Noury et al. [Noury et al., 2007]. Les auteurs ont réalisé un état de l’art sur les méthodes utilisées pour développer un système de détection de chute. Ainsi, 4 approches sont couramment utilisées (séparément) pour détecter une chute d’une autre activité : — détecter la position allongée sur le sol ; — détecter l’impact du choc lorsque la personne se cogne au sol ou dans un obstacle, repré- senté par l’inversion de polarité du vecteur d’accélération dans la direction de la trajectoire ; — détecter un manque de mouvement ; — détecter la vitesse verticale, augmentant linéairement, due à l’accélération gravitationnelle lors de la chute. Chaque approche prise séparément peut provoquer des fausses détections. Notre idée est de coupler les sources d’informations pour établir une décision plus robuste et reconnaître des activités pouvant se ressembler (comme se pencher et s’accroupir). Nous avons repris l’idée qu’une chute se produit, lorsque le corps de la personne a une vitesse verticale qui augmente et que la personne se trouve allongée au sol. Pour obtenir ces informations, nous prenons en compte, dans un premier temps, trois caractéristiques, la vitesse verticale du centre de masse, la position du centre de masse et la dispersion verticale du corps de la personne (l’écart-type) sur l’axe vertical, auxquelles nous ajouterons ensuite la vitesse horizontale et la position de la tête. La vitesse verticale du centre de masse informe sur le déplacement du corps à chaque instant. La position 726.3. Proposition d’un modèle de l’activité du centre de masse permet de savoir si la personne est proche du sol. La distribution verticale du corps renseigne sur la forme du corps, ainsi il sera possible de distinguer des activités, comme s’allonger et s’accroupir, qui sont toutes deux des activités où la position du centre de masse est proche du sol et où la vitesse verticale est nulle, mais qui auront des dispersions verticales différentes. Nous proposons une approche nécessitant peu de caractéristiques pour reconnaître l’activité d’une personne tout en étant capable de généraliser à partir d’une base de données restreinte. En effet, la base de données sur laquelle nous travaillons est formée à partir de différentes situations réalisées par 28 sujets jeunes. Ces situations correspondent aux activités que nous voulons détecter. Plus d’informations sur la constitution de cette base est donnée au chapitre 8.1. Il s’agit de trouver un compromis minimisant la complexité du modèle et en particulier le nombre d’observations tout en garantissant une bonne robustesse dans la reconnaissance. Nous proposons plusieurs modèles dont les paramètres peuvent être ajustés par apprentissage mais avec relativement peu de données. Certains de ces modèles permettent de prendre en compte une connaissance de bon sens par la définition manuelle d’une partie des paramètres. Dans la suite de ce chapitre, nous présentons différents modèles d’activité que nous avons évalués. Il différent par le nombre d’activités modélisées, le nombre d’observations et par l’insertion ou non de connaissance a priori. Ces différents modèles sont proposés dans le but d’être ensuite évalués expérimentalement afin d’identifier le niveau de complexité permettant d’obtenir une reconnaissance précise des activités tout en étant suffisamment général pour permettre la reconnaissance de situations éloignées de la base d’apprentissage. 6.3 Proposition d’un modèle de l’activité Les modèles de Markov cachés (MMC) fournissent un cadre efficace pour modéliser des phé- nomènes ou processus régis par une dynamique d’états cachés. Seules des observations partielles sur le processus sont accessibles et les états peuvent être inférés avec une certaine probabilité à partir d’une séquence d’observations. La figure 6.2 illustre un MMC évoluant dans le temps avec Xt les états cachés, représentés en gris, et Ot les observations. Un MMC est défini formellement par : — un ensemble d’états ; — une matrice aij = P(Xt = j|Xt−1 = i) représentant toutes les probabilités de transition entre chaque paire d’états ; — une probabilité initiale πi = P(X0 = i) pour chaque état i, qui est la probabilité a priori que le système se trouve dans l’état i à t = 0 ; — une fonction d’observation bi(o) = P(Ot = o|Xt = i). Des algorithmes d’apprentissage et d’inférence bien connus sont présentés en annexe A. L’objectif est de construire un modèle permettant de reconnaître l’activité réalisée par la personne filmée. X0 O0 X1 O1 Xt Ot Figure 6.2 – Représentation graphique d’une chaine de Markov cachée, avec Xt le processus Markovien caché et Ot la séquence d’observations correspondantes. 73Chapitre 6. Reconnaitre l’activité humaine en temps réel par l’analyse d’images de profondeur Le modèle le plus simple que nous proposons est constitué d’un état par activité avec pour chaque état une distribution gaussienne formant la fonction d’observation. Les paramètres de ces distributions sont appris à partir de la base de données. Nous ajoutons ensuite à ce modèle de référence une fonction de transition définie manuellement qui nous permet d’injecter de la connaissance sur l’enchainement des activités. La fonction de transition est définie manuellement car nous ne disposons pas de données représentatives des enchainements possibles des situations que nous voulons reconnaitre. Cette seconde proposition prend donc la forme d’un MMC unique permettant de reconnaitre les différentes activités avec un état par activité. Enfin nous proposons d’utiliser plusieurs MMC, un MMC pour chaque activité dont les paramètres sont appris à partir de la base de données. Dans cette dernière proposition les transitions entre activités ne sont pas définies. Il n’y a donc pas de contraintes a priori sur les enchainements ce qui nous permet d’avoir un modèle plus général. 6.3.1 Modèle avec fonction d’observation seule Etats Le modèle contient 8 états correspondant à 8 activités qui sont : s’asseoir, marcher, s’accroupir, se pencher, monter sur un obstacle (une chaise, une marche, etc.), s’allonger sur un lit ou sur un canapé, chuter et être allongé au sol. Dans ce modèle, les activités « marcher » et « être debout » sont confondues. Observations Nous utilisons les caractéristiques suivantes : — la position du centre de masse sur l’axe vertical ; — la vitesse verticale du centre de masse ; — la dispersion verticale du corps de la personne (l’écart-type) sur l’axe vertical. La fonction d’observation, donnant la probabilité d’observer une valeur o dans l’état i, suit une loi normale multidimensionnelle pour chaque valeur de i : P(O = o|X = i) = 1 (2π)N/2|Σi | 1/2 e −1/2(o−µi) T Σ −1 i (o−µi) (6.1) avec Σi la matrice de covariance, µi la moyenne et N le nombre de dimensions (pour ce MMC le N est égal à 3, car il y a trois observations). Σi et µi sont calculés, pour chaque état i, par apprentissage à partir de la base de données. Après apprentissage, nous obtenons donc 8 lois normales, une pour chaque état. Conclusion Ce modèle sans transition est représenté à la figure 6.3. Sur cette figure, les huit carrés représentent les huit états de notre modèle. Les 8 états représentent les 8 activités réalisées par le sujet, détecté en vert par l’algorithme. Cette figure montre qu’aucune transition n’est définie entre les états. La décision de l’état dans lequel se trouve la personne repose, ici, essentiellement sur les observations. Inférence Pour réaliser l’inférence, l’état Xt le plus probable est donnée à chaque pas de temps en comparant les valeurs prises, pour l’observation ot, par les 8 distributions gaussiennes. Le calcul est le suivant : P(Xt = i|O = ot) = P(O = ot|Xt = i)P(Xt = i) P i P(O = ot|Xt = i)P(Xt = i) . 746.3. Proposition d’un modèle de l’activité Marche Assis Allongé Canapé Chute Allongé Sol Accroupi Monté Penché Figure 6.3 – Modèle à 8 états avec fonction d’observation seule. Nous n’avons pas considéré de différence a priori entre les états. La probabilité P(Xt = i) est donc uniforme pour toutes les valeurs de i et l’équation précédente se résume donc à : P(Xt = i|O = ot) = P(O = ot|Xt = i) P i P(O = ot|Xt = i) . 6.3.2 Utilisation d’un MMC unique Nous ajoutons à la proposition précédente, qui associe un état à chaque activité, une matrice de transition qui modélise l’enchainement dans le temps des activités. Nous obtenons donc un MMC représentant l’activité comme un processus dynamique partiellement observable. Nous proposons dans cette section un premier modèle à 8 états et un second à 9 états. Pour chaque modèle, nous définissons l’espace d’états (les activités à reconnaitre), la probabilité initiale qu’à le processus (l’activité) d’être dans un état donné, la dynamique (transition entre états) ainsi que les observations considérées. Dans ces modèles, la fonction d’observation est apprise à partir de la base de données. La matrice de transition est, quant à elle, définie manuellement. Nous partons en effet du principe qu’il n’est pas possible d’apprendre les transitions entre activités à partir d’une base de donnée constituée en laboratoire. Cette base de donnée, constituée à partir de situations jouées, ne peut pas être représentative de la diversité des enchainements d’activité d’une personne dans la vie de tous les jours. Il est en revanche possible d’injecter une connaissance a priori, de bon sens, par la définition manuelle des probabilités de transition. MMC à 8 états et 3 observations Etats Les états sont les mêmes que précédemment, à savoir : s’asseoir, marcher, s’accroupir, se pencher, monter sur un obstacle (une chaise, une marche, etc.), s’allonger sur un lit ou sur un canapé, chuter et être allongé au sol. Probabilités initiales Nous considérons qu’au début de l’analyse la personne peut se trouver dans n’importe quel état. Nous attribuons donc la même probabilité initiale pour chaque état, 75Chapitre 6. Reconnaitre l’activité humaine en temps réel par l’analyse d’images de profondeur soit 0,125. Matrice de transition L’activité est modélisée comme un processus stochastique. Les transitions entre les différents états expriment la dynamique de l’activité qui tient compte autant des contraintes biomécaniques que d’un a priori sur le comportement des personnes. Pour insérer les transitions possibles, nous avons fait plusieurs hypothèses. — La journée d’une personne âgée, à son domicile, peut être résumée en une succession de passages assis-debout. Nous définissons les transitions les plus probables comme étant celles qui mènent vers l’état « Marche ». — La personne marche (ou est debout) juste avant et après avoir effectué les activités « Accroupi », « Monté », « Penché », « Assis ». — Une personne ne peut pas directement passer de la position debout à allonger mais elle doit d’abord s’asseoir pour pouvoir s’allonger. — La probabilité d’aller dans l’état « Chute » est très faible comparée aux autres activités. — Une personne se trouvant allongée au sol est obligatoirement passée par l’état « Chute ». — Une fois au sol, la personne peut soit y rester soit, dans le cas où la personne est capable de se relever, passer directement à l’état « Marche » ou passer par l’état « Accroupi » qui lui permettra de passer par l’état « Marche » (ou être debout) par la suite. Le MMC construit sur la base de ces hypothèses est représenté à la figure 6.4. Les transitions correspondent aux flèches et les états aux rectangles. Nous définissons les probabilités relatives des différentes transitions sur une échelle à quatre niveaux : — pp, la plus petite probabilité de transition ; — p, une probabilité de transition faible ; — m, une probabilité de transition moyenne ; — C, la probabilité majoritaire correspondant au complément à 1 des autres probabilités sortantes de l’état. Observations Le modèle construit ici reprend les 3 mêmes observations que le précédent modèle, à savoir la position et la vitesse verticale du centre de masse et la distribution du corps sur l’axe vertical. La fonction d’observation est également conservée, elle suit une loi normale multidimensionnelle. Conclusion Avec la construction de ce MMC, nous injectons de la connaissance à travers la matrice de transition. MMC à 9 états et 5 observations Dans l’objectif de mesurer les paramètres de la marche d’une personne à son domicile et donc de pouvoir appliquer au domicile les résultats présentés au chapitre 5, il est important d’isoler précisément les moments où la personne se déplace. Cela implique de différencier l’activité « Marche » de l’activité « Debout ». Etats Dans ce nouveau modèle, nous ajoutons un état « Debout » aux huit états précédents. Probabilités initiales Comme pour les précédents modèles, nous attribuons une même probabilité de 1/9 à chaque état. 766.3. Proposition d’un modèle de l’activité Marche Assis Allongé Canapé Allongé Sol Accroupi Chute Monté Penché p C pp p pp p m C p C m C m p p C C m C m C m Figure 6.4 – MMC à 8 états avec des transitions définies manuellement. Matrice de transition Les transitions et les probabilités sont définies sur la base des mêmes hypothèses que celles du modèle précédent, en ajoutant : — l’état « Debout » précède et suit la plupart des activités. Seules les activités « Monté » et « Chute » peuvent être aussi précédées et suivies de l’état « Marche ». Le MMC construit sur la base de ces hypothèses est représenté à la figure 6.4. Les probabilités relatives des différentes transitions sont définies sur la même échelle à quatre niveaux que précédemment. Observation L’ajout de l’état « Debout » nécessite une augmentation du nombre d’observations. En effet, les trois observations précédentes ne suffisent pas à différencier les états « Debout » et « Marche ». Intuitivement, nous pouvons penser que la vitesse horizontale diffère entre les deux états. Nous ajoutons également la position verticale de la tête pour améliorer la robustesse du modèle. Ainsi, dans ce modèle nous insérons 5 observations : la position du centre de masse, la dispersion verticale du corps, la vitesse verticale et la vitesse horizontale du centre de masse et le point maximum du corps. La fonction d’observation suit toujours une loi normale multidimensionnelle avec cette fois un nombre de dimensions égal à 5 soit N = 5 dans la formule 6.1. Comme précédemment, à partir de la base de données, les moyennes µ des cinq observations et la covariance Σ sont calculées pour chacun des neuf états. Nous obtenons ici 9 lois normales. Conclusion Nous voulons ici démontrer que nous pouvons affiner les activités réalisées, notamment distinguer la personne active (marchant) de la personne statique. La contrepartie est d’augmenter la complexité du modèle en augmentant le nombre des observations en passant de 3 à 5. 77Chapitre 6. Reconnaitre l’activité humaine en temps réel par l’analyse d’images de profondeur Marche Debout Assis Allongé Canapé Chute Allongé Sol Accroupi Penché Monté p C pp pp p C p pp p p pp m C p C m C m p p p C C m p C m C m Figure 6.5 – MMC à 9 états avec des transitions définies manuellement. 786.3. Proposition d’un modèle de l’activité Inférence Pour savoir dans quel état se trouve la personne, nous avons implémenté les algorithmes Forward-Backward et de Viterbi, décrit en annexe A. En implémentant les deux algorithmes, les plus couramment utilisés avec les MMC, nous avons voulu savoir si des différences notables pouvaient apparaître dans la décision finale de l’état dans lequel se trouve la personne. La comparaison des deux algorithmes est présentée dans le chapitre 8 lors de la présentation des résultats de l’expérimentation. 6.3.3 Utilisation de MMC combinés Dans les modèles précédents, chaque activité correspondait à un état et nous obtenions donc un MMC à 8 ou 9 états selon le modèle. Avec l’approche multi-modèles, chaque activité correspond à un MMC, nous obtenons donc 8 ou 9 MMC selon le nombre d’activités à reconnaître. Une autre différence avec les modèles précédents est que nous n’insérons aucune connaissance a priori (ni transition, ni probabilité initiale). Comme dans le cas du modèle avec les observations seules, la dynamique entre les situations n’est pas prise en compte. Système de 8 MMC Etat Nous construisons deux types de systèmes de modèles. Ces deux systèmes de modèles sont identiques à la seule différence que l’un est constitué de 8 MMC à 2 états et l’autre à trois états chacun. Nous voulions ainsi tester l’influence qu’a le nombre d’état choisi. Probabilités initiales et matrice de transition Comme nous venons de le préciser, aucune connaissance n’est insérée dans ce modèle. Cela signifie que nous ne définissons pas manuellement les probabilités de transition et les probabilités initiales. Ces probabilités sont apprises automatiquement à partir de la base de données. Observations Les observations sont les mêmes que pour les MMC à 8 états, à savoir la position et la vitesse du centre de masse sur l’axe vertical et la distribution du corps sur l’axe vertical. Chacun des huit MMC se base sur ces trois observations. La fonction d’observation reste elle aussi inchangée, elle suit une loi normale multidimensionnelle. Les paramètres de cette loi normale sont calculés à partir de la base de données. Les paramètres sont appris pour chaque état des 8 MMC. Nous obtenons donc 16 ou 24 lois normales selon le modèle à deux ou trois états par MMC. Conclusion Le système des 8 MMC à deux états chacun et sans probabilité de transition est représenté à la figure 6.6. Nous appliquons à ces systèmes de modèle l’algorithme de BaumWelch permettant d’apprendre par lui-même les paramètres du MMC, à partir de la base de données. Les paramètres qui sont appris sont les probabilités de transition entre chaque état, les probabilités initiales et les lois normales pour chaque état. Le nombre d’états pour chacun des 8 MMC est le seul paramètre que nous déterminons à la main. Système de 9 MMC Etat Comme précédemment, nous construisons deux types de systèmes de modèles. C’est-à- dire que nous développons un système de 9 modèles à 2 états et un autre système à trois états chacun. 79Chapitre 6. Reconnaitre l’activité humaine en temps réel par l’analyse d’images de profondeur Accroupi Chute Allongé Sol Monté Marche Assis Penché Allongé Canapé Figure 6.6 – Système de 8 MMC à deux états chacun. Probabilités initiales et matrice de transition Comme précédemment aucune connaissance n’est insérée dans ce modèle. Cela signifie que les probabilités initiales et les matrices de transition sont apprises automatiquement à partir de la base de données. Observations Les observations sont les mêmes que pour les MMC à 9 états, à savoir la position et la vitesse du centre de masse sur l’axe vertical, la dispersion du corps sur l’axe vertical, la vitesse horizontale du centre de masse et la position du point maximum du corps. Chacun des neuf MMC se base sur ces cinq observations. La fonction d’observation reste elle aussi inchangée, elle suit une loi normale multidimensionnelle. Les paramètres de cette loi normale sont calculés à partir de la base de données. Les paramètres sont appris pour chaque état des 9 MMC. Nous obtenons donc 18 ou 27 lois normales selon le modèle à deux ou trois états par MMC. Conclusion Le système des 9 MMC à deux états chacun et sans probabilité de transition est représenté à la figure 6.7. Nous appliquons à ces systèmes de modèle, comme pour les 8 MMC, l’algorithme de Baum-Welch permettant d’apprendre par lui-même les paramètres du MMC à partir de la base de données. Les paramètres, qui sont appris, sont les probabilités de transition entre chaque état, les probabilités initiales et les lois normales pour chaque état. Le nombre d’états pour chacun des 9 MMC est donc le seul paramètre que nous déterminons à la main. Inférence Pour savoir dans quel état se trouve la personne, nous devons d’abord appliquer un algorithme d’apprentissage, avant d’utiliser les algorithmes d’inférence, comme décrit en annexe A. Nous avons donc utilisé l’algorithme de Baum-Welch pour apprendre les paramètres de chaque modèle à partir de la base de données que nous avons construite. L’inférence est réalisée, avec l’algorithme Forward, en calculant à chaque pas de temps la vraisemblance des différents modèles sur les 806.4. Conclusion Accroupi Chute Allongé Sol Monté Marche Assis Penché Debout Allongé Canapé Figure 6.7 – Système de 9 MMC à deux états chacun. dernières images de la séquence. L’activité la plus probable est celle qui correspond au modèle donnant la plus grande vraisemblance. 6.4 Conclusion Dans ce chapitre, nous avons présenté les différents modèles que nous avons construits pour reconnaître l’activité. Chaque modèle a des avantages et inconvénients. Certains modèles sont plus simples en ne prenant que trois observations (les modèles à 8 états ou 8 MMC combinés) mais ne font, par conséquent, pas la différence entre être debout et marcher (comme c’est le cas avec les modèles à 9 états ou 9 MMC combinés). Certains modèles n’ont pas de connaissance a priori et reposent sur un nombre plus grand de paramètres à apprendre, ce qui implique de travailler avec une base de données plus importante comparée aux modèles où l’on insère les paramètres manuellement en utilisant une connaissance humaine de l’enchainement des situations. Les résultats donnant les meilleurs taux de classification sont présentés dans le chapitre 8. 81Chapitre 6. Reconnaitre l’activité humaine en temps réel par l’analyse d’images de profondeur 82Conclusion Nous avons identifié la caméra de profondeur comme capteur répondant à nos besoins pour développer un système de maintien à domicile des personnes âgées. Un certain nombre de traitements sur le flux vidéo sont à effectuer pour, ensuite, pouvoir extraire de l’information de plus haut niveau, comme détecter l’activité ou analyser la marche d’une personne. Le premier chapitre nous a permis de présenter les différentes méthodes en vision pour détecter la personne et la suivre au cours du temps sur l’ensemble des images fournies par la caméra. L’état de l’art n’est pas exhaustif, mais nous avons identifié les méthodes utilisées pour détecter et suivre une seule personne en intérieur avec une caméra fixe. Le deuxième chapitre présente les algorithmes de détection de la personne et de suivi que nous avons développés. Nous avons opté pour des méthodes légères, ne nécessitant pas de temps de calcul importants pour que ces méthodes restent compatibles avec les objectifs de traitement bas coût et de temps réel, que nous nous sommes fixés. A partir des images de profondeur, fournies par la caméra, nous obtenons le fond par apprentissage, puis la silhouette de la personne est extraite par soustraction avec l’image de profondeur courante. La silhouette est représentée par un ensemble de points, dont sont extraits 5 paramètres : le centre de masse, la vitesse verticale et la vitesse horizontale du centre de masse, la dispersion verticale et le point maximum de la silhouette. L’algorithme d’analyse de la marche, développé dans le troisième chapitre, nous permettra d’évaluer le degré de fragilité de la personne en analysant l’évolution des paramètres de la marche spatio-temporels (longueurs, cadence, vitesse de marche). Cet algorithme est très simple, puisqu’il se base uniquement sur l’information du centre de masse et la détection des maxima locaux sur l’axe vertical. Ainsi, le système peut fournir, en temps réel, les paramètres de la marche de la personne suivie. Il sera alors possible d’observer des évolutions des paramètres de la marche au cours du temps, pour déterminer des éventuels risques de perte d’autonomie. Actuellement, les médecins observent certains de ces paramètres en consultation et évaluent l’évolution lors des visites suivantes. Le problème étant qu’entre chaque visite, il peut se passer quelques mois. Or, il serait possible d’effectuer une analyse quotidienne des paramètres de la marche en installant notre système au domicile des personnes. Ainsi, l’évaluation de la fragilité d’une personne pourrait être faite à partir d’un plus grand volume d’informations. Le quatrième chapitre est consacré à la présentation des algorithmes utilisés pour reconnaître l’activité d’une personne. Le but de cet axe de recherche est de sécuriser et évaluer la personne. Ainsi pour sécuriser la personne, nous voulons développer un système détectant la chute et les situations à risque telles que monter sur une chaise et s’accroupir, qui sont des activités pouvant conduire à une chute, en particulier chez les personnes âgées. Puis, pour évaluer la personne, nous voulons développer un système capable de déterminer si la personne réalise des activités actives, autres que s’asseoir et s’allonger. Ainsi, nous avons construit un algorithme qui identifie les activités suivantes : s’asseoir, marcher, s’accroupir, se pencher, monter sur un obstacle (une chaise, une marche, etc.), s’allonger sur un lit ou sur un canapé, chuter et être allongé au sol. 83Conclusion Parmi les méthodes existantes pour reconnaître les activités, nous avons choisi de développer un algorithme appartenant à la catégorie des méthodes paramétriques. L’une des difficultés, en reconnaissance d’activité, est la variabilité des données, du fait de la différence entre les personnes, de la façon qu’elles ont de réaliser les activités, de l’angle de vue de la caméra, etc. Nous avons choisi les modèles de Markov cachés qui ont de bonnes capacités de généralisation. Dans ce quatrième chapitre, nous avons présenté différents modèles que nous avons construits pour reconnaître l’activité. Nous avons proposé deux approches. La première utilise un modèle unique dans lequel une connaissance a priori est injectée par la définition de la matrice de transition. Dans la seconde, plusieurs modèles sont construits par apprentissage et les transitions entre activités ne sont pas modélisées. Nous avons fait varier la complexité des modèles en jouant sur le nombre d’activité à reconnaître et sur le nombre d’observations. Nous avons construit des modèles pour reconnaître 8 activités, utilisant 3 observations, la position et la vitesse verticale du centre de masse et la distribution verticale de la silhouette. Nous avons construit d’autres modèles reconnaissant 9 activités en ajoutant l’activité « Debout ». Ces modèles discriminent les 9 activités à partir de 5 observations, les trois mêmes que précédemment, en ajoutant la vitesse horizontale du centre de masse et le point le plus haut du corps. Dans le cas des systèmes de MMC, nous avons implémenté l’algorithme de Baum-Welch pour apprendre les paramètres des modèles, puis nous avons implémenté Forward pour inférer l’état dans lequel se trouve la personne. Dans le cas des MMC uniques, nous avons implémenté l’algorithme Forward-Backward et de Viterbi pour inférer l’état à partir de la séquence d’observation. Le point commun entre tous ces modèles est qu’ils sont fondés sur peu d’observations et que ces observations sont simples à extraire des images. Les différents modèles sont ensuite testés et comparés sur la base du nombre de bonnes classifications qu’ils effectuent. Les résultats sont présentés au chapitre 8. 84Troisième partie Evaluation du système 85Introduction Dans les deux chapitres précédents, nous avons présenté nos contributions à la reconnaissance d’activités et à l’analyse en milieu écologique des paramètres de la marche. Dans cette partie, nous en évaluons les performances. Plusieurs expérimentations sont mises en place. Les deux premiers chapitres présentent des expérimentations qui ont été menées dans un appartement expérimental avec des sujets jeunes. Le dernier chapitre présente quelques résultats obtenus avec des personnes âgées. Le premier chapitre décrit une expérimentation qui a été menée pour vérifier les performances du dispositif d’analyse de la marche que nous proposons, en comparaison avec les mesures fournies par un tapis actimètrique que nous considérons comme la vérité terrain. Dans cette expérimentation, nous testons la précision pour différentes situations, pouvant être rencontrées dans la réalité. Par exemple, nous avons demandé aux personnes de marcher perpendiculairement à la caméra, puis de face, ensuite nous leur avons demandé de faire des petits pas comme pourraient le faire des personnes âgées. Les résultats nous montrent que le système est précis lorsque la personne marche perpendiculairement à la caméra, et ce pour toutes les situations. Le deuxième chapitre teste l’algorithme de détection des activités. Nous avons constitué une base de données à partir de laquelle, une partie des séquences sont conservées pour que l’algorithme apprenne, automatiquement, les paramètres de chaque MMC. Nous évaluons, ensuite, les modèles sur la base du nombre de bonnes classifications des séquences restantes. Les modèles à 8 états ou 8 MMC donnent les meilleurs résultats sur des séquences proches de celles constituant la base d’apprentissage, avec la personne entièrement visible. Nous testons les capacités de gé- néralisation de l’algorithme avec une deuxième expérimentation. Nous présentons à l’algorithme des séquences où la personne n’est pas entièrement visible. Les résultats montrent que certains modèles sont robustes sur ces nouvelles séquences, ce qui est le cas pour le modèle à 9 états. Le dernier chapitre de cette partie présente des tests qui ont été effectués dans un hôpital et au domicile, avec des personnes âgées. 6 personnes âgées ont marché devant notre système. Il ne s’agit pas d’une réelle expérimentation mais de premiers tests pour lesquels nous n’avons effectué qu’une analyse qualitative des résultats. Concernant l’algorithme de la marche, les résultats montrent que, malgré l’irrégularité des trajectoires du centre de masse, comparées aux trajectoires que nous obtenions avec des sujets plus jeunes, l’algorithme réussit à extraire des paramètres de la marche. Concernant la détection des activités, seules quelques activités ont été testées. Parmi celles-ci, la marche, la position assise et la position penchée ont été reconnues. 87Introduction 88Chapitre 7 Expérimentations pour l’analyse de la marche Sommaire 7.1 Première évaluation du système . . . . . . . . . . . . . . . . . . . 89 7.1.1 Description de l’expérimentation . . . . . . . . . . . . . . . . . . . . 89 7.1.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 7.1.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 7.2 Évaluation globale du système . . . . . . . . . . . . . . . . . . . . 94 7.2.1 Description de l’expérimentation . . . . . . . . . . . . . . . . . . . . 94 7.2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 7.3 Discussion et conclusion . . . . . . . . . . . . . . . . . . . . . . . . 97 L’expérimentation a pour but de tester la précision des paramètres de la marche fournis par notre algorithme, lorsqu’une personne marche dans le champ de vision de la caméra. Une première évaluation a tout d’abord été réalisée. L’objectif est de vérifier que l’algorithme est assez robuste pour commencer l’évaluation et de valider ou non certaines hypothèses. A la suite des résultats obtenus avec cette première évaluation, le protocole expérimental d’une seconde expérimentation a été construit. 7.1 Première évaluation du système Cette section présente la première évaluation basée sur le papier et l’encre et qui constitue notre référence pour évaluer la précision de l’algorithme à extraire les indicateurs de la marche. Nous présentons le protocole expérimental et les résultats. 7.1.1 Description de l’expérimentation 5 sujets sains ont intégré l’expérience dont une femme et quatre hommes, âgés de 20 à 53 ans. L’expérience consiste à placer, sur environ 4 m2 , du papier blanc au sol (figure 7.1(b)). Nous avons placé des tampons imbibés d’encre sur la pointe et le talon des chaussures du sujet, comme montré à la figure 7.1(a). Ainsi lorsque le sujet marche sur le papier, il le marque de ses pas. Des méthodes similaires de marquage sur le sol peuvent être trouvées dans la littérature. Notamment, Georges Gilles de la Tourette a utilisé une technique similaire pour enregistrer la marche [André et al., 2001]. Cette méthode a l’avantage d’être simple à mettre en place, peu 89Chapitre 7. Expérimentations pour l’analyse de la marche coûteuse et de ne nécessiter aucun équipement spécifique. Dans le cadre de l’expérience, la méthode « papier/encre » est considérée comme l’étalon permettant d’obtenir la vérité terrain. L’unique variable prise en compte dans cette étude est la longueur de pas. Pour obtenir les longueurs de pas, l’expérimentateur mesure manuellement la distance entre la marque du talon droit et celle du talon gauche sur le papier. Ces longueurs de pas sont alors comparées aux longueurs fournies par notre approche fondée sur une caméra RGB-D. (a) Tampons imbibés d’encre sous les chaussures. (b) Un sujet marche sur le papier et le marque. Figure 7.1 – Méthode utilisée comme référence pour mesurer les longueurs de pas. Le sujet marche perpendiculairement à la caméra. Sachant que les personnes âgées font des plus petits pas [Hageman and Blanke, 1986] que les sujets testés dans notre étude, nous évaluons la précision de l’algorithme en le sollicitant sur un large échantillon de longueurs de pas. Les sujets réalisent les deux situations suivantes : — marcher en ligne droite « normalement » ; — marcher en ligne droite en faisant des petits pas. Cette première évaluation a plusieurs objectifs : 1. évaluer si les résultats sont invariants à l’angle de la caméra, 2. évaluer la précision des mesures en fonction des différents algorithmes de filtrage choisis. Nous voulons savoir si l’angle de la caméra a une incidence sur les résultats. C’est pourquoi les sujets réalisent les deux situations citées précédemment deux fois, une fois avec un angle égal à -27˚ et l’autre à 0˚. Le placement de la caméra avec un angle à -27˚ correspond à la caméra positionnée en haut de la figure 7.2 et la caméra avec un angle à 0˚ correspond à la caméra positionnée en bas de la figure 7.2. Lors de l’expérience, une seule caméra enregistre à la fois. Nous voulons aussi tester la précision des longueurs de pas fournies par l’algorithme en fonction du filtre de lissage de la trajectoire du centre de masse sélectionné. A la section 4.2.2, deux méthodes de lissage des trajectoires ont été présentées, une méthode utilisant le filtre de Kalman et une autre utilisant un filtre passe-bas. Nous voulons savoir si la précision de l’extraction des maxima locaux, permettant d’obtenir les longueurs de pas, dépend du filtre utilisé. Pour tester la précision de notre algorithme, nous comparons les longueurs de pas fournies par le papier avec les longueurs fournies par l’algorithme utilisant soit le filtre de Kalman, soit le filtre passe-bas. 907.1. Première évaluation du système Figure 7.2 – Positionnement des caméras : la plus basse avec un angle de 0˚ et la plus haute avec un angle de -27˚. 7.1.2 Résultats Pour réaliser les différents tests statistiques et les graphes, nous avons utilisé le logiciel R (qui est un langage et un environnement pour les calculs statistiques). Angle de la caméra Afin de savoir si l’angle de la caméra modifie la qualité des résultats, les erreurs moyennes des longueurs de pas, obtenues quand la caméra a un angle à -27˚ et à 0˚, sont calculées. Plus précisément, nous calculons l’erreur entre les longueurs fournies par le papier et par notre algorithme selon l’angle de la caméra, pour chaque pas. L’erreur moyenne est calculée comme la moyenne sur toutes les erreurs, considérant d’un côté les données pour la caméra à -27˚ et de l’autre les données pour la caméra à 0˚. Les résultats sont montrés à la Table 7.1. L’erreur moyenne est donnée en centimètres et en pourcentages. Les erreurs moyennes sont similaires entre la caméra à -27˚ et à 0˚. Comme indiqué par la table, l’erreur moyenne avec l’angle à -27˚ est de 5,4 cm soit une erreur moyenne de 11,6 %. Ce résultat est proche de l’erreur moyenne de 5,2 cm, soit une erreur moyenne de 11,9 %, obtenue avec l’angle à 0˚. Un test statistique complète ces résultats, dans le but de savoir si les erreurs sur les longueurs de pas obtenues avec les deux angles sont significativement différentes. Avec un test de Student, pour deux échantillons indépendants, la p-value obtenue est de 0,4777. La p-value étant plus grande que 0, 05, nous ne pouvons pas en conclure qu’il existe une différence significative entre les résultats fournis par la caméra positionnée à -27˚ et celle positionnée à 0˚. Pour finir, le graphe, de la figure 7.3, montre que la variabilité des erreurs sur les longueurs de pas est la même pour l’angle à 0˚ que pour l’angle à -27˚. Cela est montré par la forme des deux boites à moustache. La conclusion, que nous pouvons faire, est que notre algorithme est robuste à l’angle de la caméra choisi. 91Chapitre 7. Expérimentations pour l’analyse de la marche Angle -27˚ Angle 0˚ Erreur moyenne (cm) 5,4 5,2 Erreur moyenne (%) 11,6 11,9 Nombre de pas 56 50 Table 7.1 – Comparaison des résultats, entre le tapis et la caméra, en fonction de l’angle de la caméra. Angle de 0° Angle de 27° -5 0 5 10 15 20 Erreur (cm) Figure 7.3 – Représentation des erreurs sur les longueurs de pas obtenues à partir d’une caméra avec un angle de -27˚ et avec un angle de 0˚. 927.1. Première évaluation du système Choix du filtre Dans cette partie, le système est évalué sur la précision des longueurs de pas qu’il fournit, en fonction du filtre de lissage de la trajectoire du centre de masse. La trajectoire qui est correctement filtrée, nous permet de localiser plus précisément les maxima locaux, et ainsi nous permet d’en déduire les longueurs de pas les plus justes. Nous voulons ainsi tester la précision des longueurs de pas lorsque l’algorithme utilise le filtre de Kalman et le filtre passe-bas. Suite à l’expérience effectuée sur 5 sujets, nous avons extrait les pas et selon le filtre utilisé, le filtre de Kalman ou le filtre passe-bas, nous obtenons des pas différents. 106 pas ont été récupérés en utilisant le filtre de Kalman, dont 39 sont de longueurs « normales » (supérieures à 50 cm) et 67 sont de « petites » longueurs (inférieures à 50 cm). 108 pas ont été récupéré en utilisant le filtre passe-bas dont 40 sont de longueurs « normales » et 68 sont de « petites » longueurs. Les erreurs entre les longueurs de pas fournies par le papier et par notre algorithme sont calculées pour chaque pas. L’erreur moyenne (en centimètres et en pourcentage) est calculée comme la moyenne sur toutes les erreurs, considérant toutes les données, ensuite considérant seulement les longueurs « normales » et finalement que les « petites » longueurs. Les résultats sont montrés à la Table 7.2. Les colonnes représentent la distinction entre les données, « Tous » signifie que tous les pas sont pris, « Normaux » signifie que tous les pas considérés comme « normaux » sont sélectionnés et « Petits » signifie que les petits pas sont analysés. Nous présentons les résultats pour le filtre de Kalman et pour le filtre passe-bas (noté « valeur filtre de Kalman | valeur filtre passe-bas » dans chaque case de la table). Cette table nous montre qu’il y a une différence entre l’erreur moyenne obtenue avec le filtre de Kalman et avec le filtre passe-bas. En effet, pour toutes les longueurs de pas, l’erreur moyenne pour le filtre de Kalman est 5,3 cm, soit 11,8 %, et pour le filtre passe-bas nous obtenons une erreur moyenne de 6,9 cm, soit 15,6 %. La décomposition des données en pas normaux et petit pas nous permet de constater que l’erreur moyenne sur la série de données est principalement due aux erreurs sur les petits pas. L’erreur moyenne, pour le filtre de Kalman, pour les petits pas est de 4, 7 cm, soit 12,8 % et pour les pas normaux, l’erreur est 6,4 cm, soit 10,0 %. L’erreur moyenne, avec le filtre passe-bas, pour les petits pas est de 6,5 cm, soit 18,0 % et pour les pas normaux, l’erreur est de 7,5 cm, soit 11,7 %. Les boites à moustaches de la figure 7.4 permettent d’observer la variabilité des données. Les médianes des deux filtres sont identiques (représentées par la barre du milieu dans la boite). Cependant, le filtre passe-bas ne lisse pas toujours les données correctement, ce qui provoque une erreur dans l’extraction des maxima locaux indiquée par les valeurs aberrantes de la figure. Les valeurs aberrantes sont représentées par les cercles en dehors de la boite à moustache. Tous Normaux Petits Erreur moyenne (cm) 5,3|6,9 6,4|7,5 4,7|6,5 Erreur moyenne (%) 11,8|15,6 10,0|11,7 12,8|18,0 Nombre de pas 106|108 39|40 67|68 Table 7.2 – Précision des longueurs de pas fournies par l’algorithme, obtenues avec un filtre de Kalman et avec un filtre passe-bas (pour tous les pas, pour les pas « normaux » et pour les petits pas). 93Chapitre 7. Expérimentations pour l’analyse de la marche Filtre passe-bas Filtre Kalman -10 0 10 20 30 40 20 30 40 Erreur (cm) Figure 7.4 – Représentation des erreurs sur les longueurs de pas extraites à partir du filtre de Kalman et du filtre passe-bas. 7.1.3 Conclusion Cette première expérience nous permet de conclure que la hauteur et l’angle de la caméra n’ont pas d’influence sur la précision des paramètres de la marche fournis par notre dispositif. Cette expérience nous permet également de constater qu’il est préférable de filtrer la trajectoire du centre de masse avec un filtre de Kalman. En effet, les longueurs de pas obtenues lorsque la trajectoire est filtrée par Kalman sont plus proches des valeurs réelles que les longueurs de pas obtenues lorsque la trajectoire est filtrée par un filtre passe-bas. 7.2 Évaluation globale du système Les résultats obtenus dans la première évaluation permettent de constater qu’une expérience plus importante peut être réalisée et surtout permet de construire le nouveau protocole expérimental en prenant en compte les hypothèses que nous venons de tester. 7.2.1 Description de l’expérimentation 11 sujets sains ont intégré l’expérience, dont quatre femmes et sept hommes, âgés de 22 à 53 ans. L’expérience consiste à marcher sur un tapis actimètrique (le tapis de la marque GAITRite) de 5 mètres de longueur, comme montré à la figure 7.5. L’utilisation du tapis est une méthode plus coûteuse que la méthode « papier/encre », mais l’avantage est que nous pouvons traiter plus de données, car l’obtention des paramètres de la marche est automatisée. De plus, la récupération des longueurs de pas, dans la première évaluation, pouvait comporter des erreurs, car cette tâche était effectuée manuellement. L’erreur de mesure avec le tapis est 1,27 cm, représentant la distance entre chaque capteur. Les paramètres de la marche obtenus avec le tapis sont comparés aux valeurs fournies par l’algorithme de la caméra. Dans cette expérience, les trois paramètres de la marche sont comparés : les longueurs de pas, la cadence et la vitesse de la marche. 947.2. Évaluation globale du système Figure 7.5 – Expérience comprenant un tapis actimètrique. La première évaluation permet de structurer la nouvelle expérimentation. Notamment, elle nous a permis de constater qu’il n’y avait pas de différence significative concernant la précision des longueurs de pas liée à l’angle de la caméra (entre un angle de -27˚et 0˚). Donc, dans cette nouvelle expérience, nous considérons cette hypothèse de l’angle de la caméra comme avérée et c’est pourquoi nous ne testons pas différents angles, mais gardons le même pour toute l’expérience. La caméra est positionnée en hauteur avec un angle de -27˚. De plus, la première évaluation a montré que le filtre de Kalman donnait une meilleure précision des longueurs de pas comparé au filtre passe-bas. Donc, nous analysons uniquement les paramètres extraits à partir du filtre de Kalman. Enfin, lorsque les longueurs de pas sur le papier ont été récupérées, le dernier pas n’était pas conservé, étant situé au bord de l’image à l’endroit où le sujet quitte le champ de vision de la caméra. Les derniers pas sont donc enlevés pour chaque séquence dans cette nouvelle expérience. Comme dans la première évaluation, pour tester un large échantillon de données, les sujets marchent normalement puis font des petits pas. Trois nouvelles situations sont ajoutées : — marcher avec une longue robe (allant jusqu’au pied et pour tous les sujets) pour savoir si les vêtements peuvent perturber l’extraction des paramètres de la marche ; — marcher face à la caméra, toutes les autres situations étant réalisées avec la caméra positionnée perpendiculairement aux sujets ; — marcher avec deux caméras observant la même scène pour savoir si l’interférence ne dé- grade pas la précision des résultats. Pour suivre une personne à son domicile nous avons en effet besoin de couvrir les différentes pièces avec plusieurs caméras. En plaçant dans une même pièce plusieurs caméras, il est probable qu’il y ait des recouvrements entre leurs champs de vision. Avec la dernière situation, nous voulons évaluer si dans cette zone commune les résultats sont dégradés, car la caméra RGB-D que nous utilisons est un capteur actif. Les 11 sujets réalisent les cinq situations trois fois pour permettre d’obtenir une base de données suffisantes en nombre de pas. 7.2.2 Résultats Les valeurs des longueurs de pas, de la cadence et de la vitesse de marche sont mesurées avec le tapis et avec notre dispositif pour chaque séquence. Nous traitons 165 séquences, composées chacune de 2 à 5 pas, selon les sujets et la situation analysée. Les résultats sont présentés, dans 95Chapitre 7. Expérimentations pour l’analyse de la marche un premier temps, à travers une analyse de l’erreur sur chaque séquence, puis à travers une étude évaluant la moyenne des paramètres de la marche. Résultats basés sur l’erreur de chaque séquence Les erreurs entre les moyennes des paramètres de la marche, fournies par le tapis et notre algorithme, sont calculées pour chaque séquence. Les séquences sont ensuite regroupées par situations et nous présentons l’erreur moyenne calculée pour chaque situation. La table 7.3 montre les résultats. Dans chaque case de la table, le premier chiffre correspond soit aux erreurs moyennes des longueurs de pas exprimées en centimètres, soit aux erreurs moyennes de la cadence exprimée en nombre de pas par seconde, soit aux erreurs moyennes des vitesses en mètre par seconde. Puis le deuxième chiffre correspond à l’écart-type de ces données et le troisième à l’erreur en pourcentage. Normal Petit Jupe 2 caméras Face Long (cm|σ|%) 2,5|1,6|3,7 1,9|1,7|4,7 2,7|1,8|4,6 3,8|2,8|5,5 9,0|9,5|12,5 Cad (Pas/s|σ|%) 0,09|0,08|6,2 0,10|0,08|6,7 0,06|0,07|3,9 0,09|0,06|6,0 0,14|0,13|8,8 Vit (m/s|σ|%) 0,04|0,02|3,7 0,02|0,01|3,3 0,04|0,02|4,4 0,02|0,02|2,0 0,11|0,09|10,0 Nombre de pas 50 94 61 44 34 Table 7.3 – Erreurs moyennes des longueurs (Long), cadences (Cad) et vitesses (Vit) pour chaque situation. Les erreurs moyennes des longueurs, concernant les situations « Normal », « Petit » et « Jupe », sont similaires avec une erreur moyenne de 3,7 % à 4,7 %, représentant une erreur de moins de 2,7 cm. L’erreur moyenne, pour la situation où il y a deux caméras, est un peu plus grande avec une erreur de 5,5 %. L’erreur moyenne des longueurs est extrêmement grande avec une valeur de 12,5 % pour la situation où la personne marche face à la caméra. Les erreurs concernant les cadences sont plus grandes, à part pour la situation « Jupe » qui conserve une erreur d’environ 3,9 %. Les erreurs moyennes pour « Normal », « Petit » et « 2 caméras » sont entre 6 % et 6,7 %. L’erreur moyenne pour la situation « Face » est la plus grande, avec une erreur de 8,8 %. Les erreurs commises pour les vitesses sont inférieurs aux erreurs des deux autres paramètres de la marche. Pour les situations « Normal », « Petit », « 2 caméras » et « Jupe », les erreurs moyenne vont de 2,0 % à 4,4 %. En revanche, l’erreur moyenne pour la situation « Face » est très grande, soit 10,0 %. Résultats basés sur la moyenne de chaque paramètre de la marche Une autre façon d’analyser les résultats est de calculer la moyenne, pour toutes les séquences d’une même situation, de chaque paramètres de la marche. Les résultats sont montrés à la table 7.4. Cette table représente toutes les moyennes et les écart-types (notés σ) calculés, pour chaque paramètre et chaque situation, à partir des mesures fournies par le tapis et par notre algorithme. Pour les longueurs de pas, nous pouvons voir qu’il n’y a pas de grosses différences entre les moyennes obtenues avec le tapis et avec notre algorithme quelque soit la situation. L’écart maximal, entre le tapis et la caméra, est de 2,2 cm, obtenu pour la situation où les personnes portaient une jupe. Les situations « Normal », « 2 caméras » et « Petit » sont celles pour 967.3. Discussion et conclusion Longueur(cm) Cadence(Pas/s) Vitesse(m/s) Situation Technique Moyenne | σ Moyenne | σ Moyenne | σ Pas normaux Tapis 67,6 | 7,11 1,53 | 0,15 1,09 | 0,12 Caméra 67,0 | 8,31 1,61 | 0,20 1,12 | 0,12 Petits pas Tapis 38,4 | 6,82 1,44 | 0,19 0,57 | 0,11 Caméra 38,3 | 9,09 1,51 | 0,24 0,59 | 0,12 Avec jupe Tapis 57,1 | 8,72 1,46 | 0,31 0,92 | 0,14 Caméra 59,3 | 9,93 1,49 | 0,31 0,96 | 0,13 Face caméra Tapis 68,1 | 7,18 1,64 | 0,13 1,13 | 0,16 Caméra 66,5 | 27,77 1,61 | 0,75 1,02 | 0,16 Deux caméras Tapis 66,9 | 6,91 1,55 | 0,13 1,10 | 0,16 Caméra 66,8 | 8,65 1,60 | 0,16 1,11 | 0,16 Table 7.4 – Comparaison des paramètres de la marche obtenus avec le tapis et avec notre algorithme utilisant la caméra. lesquelles les écarts entre les moyennes du tapis et de la caméra sont les plus faibles. Pour la situation « Face », nous obtenons une erreur de 1,6 cm, mais avec une très grande variabilité. L’écart entre l’écart-type pour le tapis et pour la caméra est de 20 cm. Pour la cadence, l’écart entre les moyennes du tapis et de la caméra n’excède pas une erreur de 0,08 pas par seconde. Concernant la vitesse de marche, l’erreur est plus importante pour la situation « Face » que pour les autres situations. Pour la situation « Face », l’écart entre les moyennes est de 0,11 m/s alors que dans les autres situations, elle n’excède pas 0,04 m/s. 7.3 Discussion et conclusion Une première évaluation nous a permis de constater que le système fournit des valeurs proches de la réalité. Nous en avons déduit qu’il était possible d’investir dans une expérimentation plus importante. Cette première évaluation nous a également permis de valider l’hypothèse que l’angle de la caméra n’a pas d’influence sur la précision des résultats. Aussi, elle nous a permis de remarquer que le lissage de la trajectoire du centre de masse avec le filtre de Kalman fournit une plus grande précision des longueurs de pas comparée à la précision obtenue avec le filtre passe-bas. La seconde évaluation avait pour but de tester la précision des paramètres de la marche, obtenue avec la caméra, dans diverses situations pouvant être rencontrées au domicile. Ainsi lorsque deux caméras ont le même champ de vision, les résultats sont légèrement dégradés, comparés à la situation où la personne marche devant une seule caméra. Nous avons constaté que l’habillement n’avait, apparemment, pas d’influence sur la précision des résultats obtenus. A la section 4.2.2, nous avons décrit que les oscillations de la trajectoire du centre de masse sont dues au mouvement du centre de masse de la personne, amplifié par un artefact lié aux occlusions de profil du corps. La situation où la personne porte une jupe renforce l’idée de l’existence d’un artefact. En effet, les oscillations de la trajectoire du centre de masse, de la personne portant une jupe, sont plus grandes que celles où la personne porte un pantalon, comme montré à la figure 7.7. Le nombre de points détectés en bas du corps de la personne est encore plus grand quand elle marche vêtue d’une jupe, en position de double appui comme le montre la figure 7.6. Le 97Chapitre 7. Expérimentations pour l’analyse de la marche phénomène de l’artefact explique également pourquoi beaucoup d’erreurs sont commises quand la personne marche face à la caméra. Quand la caméra est face à la personne, l’artefact n’est plus présent, rendant la trajectoire du centre de masse plus lisse. L’atténuation de l’amplitude des oscillations est également due à la position de la caméra qui se trouve en hauteur, avec un angle de -27˚comme nous l’avons déjà décrit à la section 4.2.2. La trajectoire étant plus lisse, des erreurs d’extraction des maxima locaux et, par conséquent, d’extraction des paramètres de la marche sont commises. Les résultats, de cette deuxième évaluation, nous montrent également que si l’on souhaite installer un système au domicile, analysant les paramètres de la marche, nous devons analyser les moyennes obtenues pour chaque paramètre, par exemple à la fin de la journée. Nous avons montré que les moyennes pour chaque paramètre sont justes et fidèles aux valeurs réelles et cela pour toutes les situations même celles où la personne marche face caméra. Figure 7.6 – En phase de double appui, de nombreux points mobiles sont détectés dans la partie basse de la silhouette quand le sujet porte une jupe. 500 550 600 650 700 750 800 850 900 950 1000 33.5 34 34.5 35 35.5 36 36.5 37 37.5 Y (mm) Temps (s) Walking (a) Trajectoire du centre de masse d’un sujet marchant avec une jupe. 600 650 700 750 800 850 900 950 1000 1050 1100 34 34.5 35 35.5 36 36.5 37 Y (mm) Temps (s) Walking (b) Trajectoire du centre de masse d’un sujet marchant avec un pantalon. Figure 7.7 – Comparaison des oscillations de la trajectoire du centre de masse. 98Chapitre 8 Expérimentations pour la reconnaissance d’activité Sommaire 8.1 Cas de la personne entièrement visible . . . . . . . . . . . . . . . 99 8.1.1 Description de l’expérimentation . . . . . . . . . . . . . . . . . . . . 99 8.1.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 8.1.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 8.2 Cas de la personne partiellement visible . . . . . . . . . . . . . . 109 8.2.1 Description de l’expérimentation . . . . . . . . . . . . . . . . . . . . 109 8.2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 8.2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 Nous présentons deux expérimentations qui ont pour but de tester la capacité des différents modèles de Markov cachés à reconnaître l’activité de la personne. Nous les comparons entre eux pour identifier celui reflétant au mieux la réalité. Cette comparaison est effectuée en prenant une unique base de données pour l’apprentissage contenant des situations où les personnes sont entièrement visibles. Dans la première expérimentation, nous testons les différents modèles de Markov cachés construits pour reconnaître l’activité sur des séquences où la personne est entiè- rement visible. Puis dans la seconde expérimentation, nous évaluons le comportement de chaque modèle construit, face aux situations où la personne n’est pas entièrement visible. Cette évaluation est nécessaire, car, même en plaçant les caméras de façon à maximiser la couverture de la pièce, il est fort probable que la personne ne soit pas entièrement visible dans certaines zones. 8.1 Cas de la personne entièrement visible 8.1.1 Description de l’expérimentation Protocole expérimental 28 sujets, âgés de 20 à 53 ans, ont participé à l’expérience, dont 8 femmes et 20 hommes. Cette expérience s’est déroulée dans l’appartement laboratoire du centre de Nancy. Les sujets ont réalisés 8 situations filmés par une caméra RGB-D posée dans un angle de l’appartement. Le plan de l’appartement, avec la position de la caméra, est montré à la figure 8.1. La table représentée sur la figure, en face de la caméra, a été retirée pour permettre la réalisation des différentes situations. Chaque situation correspondait à une activité. Il s’agit des activités de la 99Chapitre 8. Expérimentations pour la reconnaissance d’activité vie quotidienne que nous avons définies précédemment, lors de la construction des modèles de Markov cachés au chapitre 6. Pour rappel, ces activités sont : s’accroupir, se pencher, s’asseoir, marcher, chuter, être allongé au sol, monter sur un obstacle et s’allonger sur un canapé. Plus précisément, la consigne donnée aux sujets était : — pour la situation « Se pencher » : ramasser un stylo en pliant le moins possible les genoux ; — pour la situation « S’accroupir » : ramasser un stylo en pliant les genoux, pour ainsi être plus proche du sol à la différence de la situation « Se pencher » ; — pour la situation « S’asseoir » : s’asseoir sur une chaise ; — pour la situation « Marcher » : marcher une fois en ligne droite et une fois en réalisant un demi-tour dans le champ de vision de la caméra. Ces deux séquences ont été regroupées dans l’unique situation « Marcher » ; — pour les situations « Chuter » et « Allongé au sol » : chuter sur un matelas et rester allongé, enregistrés en une seule séquence qui a ensuite été découpée manuellement ; — pour la situation « Monter sur un obstacle » : réaliser deux séquences, une en montant sur une chaise et une autre en montant sur un marche pied. La réalisation de deux séquences a permis d’apprendre la situation « Monté sur un obstacle » pour plusieurs tailles d’obstacle ; — pour la situation « S’allonger sur un canapé » : s’allonger sur trois chaises mises côte à côte. Les éléments tels que la chaise, le marche pied, le matelas, le stylo, étaient placés au milieu du champ de vision de la caméra. Avant d’atteindre ces éléments et de pouvoir réaliser la situation demandée, les personnes devaient d’abord marcher. Ensuite, après avoir réalisé ce qui était demandé, les sujets devaient remarcher, pour sortir du champ de vision de la caméra. Chaque situation est illustrée à la figure 8.2, montrant ainsi les étapes réalisées. Figure 8.1 – Plan de l’appartement expérimental avec le positionnement de la caméra. Par la suite, nous avons demandé à des sujets d’effectuer une situation où il devait marcher, se tenir debout à un endroit de la pièce, puis se déplacer pour rester à nouveau debout en répétant cela environ 5 fois. Ainsi, nous obtenons l’activité « Debout » à différentes distances de la caméra. Base d’apprentissage et base de test Les situations effectuées par les 28 sujets permettent de construire une base de données contenant 229 séquences. Chaque séquence a été segmentée et étiquetée manuellement. La base de données est utilisée pour apprendre les paramètres des modèles de Markov cachés et également pour tester la capacité des modèles à détecter correctement les activités réalisées. 1008.1. Cas de la personne entièrement visible Se pencher S’accroupir S’asseoir Marcher Faire un demi-tour Chute+Allongé au sol Monter S’allonger sur un canapé Figure 8.2 – Suivi des situations, effectuées par un sujet, à différents pas de temps. 101Chapitre 8. Expérimentations pour la reconnaissance d’activité 185 séquences (soit 22 sujets) sont conservées pour l’apprentissage. Pour les modèles des sections 6.3.1 et 6.3.2, avec fonction d’observation seule et n’utilisant qu’un MMC, la moyenne de chaque paramètre (position verticale du centre de masse, sa vitesse verticale et la dispersion verticale du corps de la personne et pour certains modèles, la vitesse horizontale et le point maximum) et la covariance sont apprises à partir de cette base d’apprentissage. Elles sont également apprises pour chaque état du MMC, pour ainsi construire la fonction d’observation. Pour les modèles utilisant plusieurs MMC de la section 6.3.3, la matrice de transition, les probabilités initiales et la fonction d’observation (utilisant les moyennes et les covariances des trois ou cinq paramètres selon le modèle) sont apprises, pour chaque MMC, à partir de cette même base de données et ce grâce à l’algorithme de Baum-Welch. Les 44 séquences restantes (correspondant à 6 sujets) sont utilisées pour tester le modèle. Nous fournissons à l’algorithme ces 44 séquences et nous observons si celui-ci détecte correctement l’activité réalisée. Les résultats sont montrés à la section suivante. 8.1.2 Résultats Comme indiqué précédemment, 44 séquences sont données à chacun des modèles construits. Les algorithmes Forward-Backward et de Viterbi fournissent les classifications dans le cas des modèles à un seul MMC. La vraisemblance du modèle permet de classer les situations dans le cas de l’utilisation de plusieurs MMC. Représentation des bonnes classifications et des fausses détections Deux façons de représenter les résultats sont proposées pour évaluer les modèles, tout d’abord en observant les bonnes classifications puis en calculant le nombre de fausses détections. Bonnes classifications Tout d’abord, le tableau 8.1 indique le nombre de bonnes classifications pour chaque activité selon le modèle utilisé. Les différents modèles sont exprimés dans ce tableau par des abréviations dont la signification est la suivante : — « Modèle observations seules » correspond au modèle à 8 états avec la fonction d’observation seule de la section 6.3.1 ; — « 1MMC 3 observations » représente le MMC à 8 états avec matrice de transition, définie manuellement, et 3 observations décrit à la section 6.3.2 ; — « 1MMC 5 observations » représente le MMC à 9 états avec matrice de transition, définie manuellement, et 5 observations décrit à la section 6.3.2 ; — « 8MMC 2 états » et « 8MMC 3 états » correspondent au système de 8 MMC à 2 ou 3 états et 3 observations décrit à la section 6.3.3 ; — « 9MMC 2 états » et « 9MMC 3 états » correspondent au système de 9 MMC à 2 ou 3 états et 5 observations décrit à la section 6.3.3. Les colonnes représentent les différentes activités (« Acc » : Accroupi, « All » : Allongé sur un Canapé, « Ass » : Assis, « Chu » : Chute, « Sol » : Allongé au sol, « Mar » : Marche, « Mon » : Monté sur un obstacle, « Pen » : Penché, « Dem » : Demi-tour). Nous séparons l’activité « Marche » et « Demi-tour » dans le tableau mais toutes les deux doivent être reconnues comme « Marche » par l’algorithme pour être correctes. Dans chaque case du tableau, le premier chiffre (dans certain cas l’unique chiffre) correspond au nombre de bonnes classifications. Nous considérons comme « bonne classification » toutes les activités qui ont été réalisées dans une séquence et qui ont été détectées par l’algorithme avant la fin de l’activité. Par exemple, si une personne s’assoit et que l’algorithme détecte l’activité 1028.1. Cas de la personne entièrement visible « Assis » lorsque la personne se relève, nous considérons que l’algorithme n’a pas détecté la bonne activité, car il l’a détectée trop tard. Dans certains cas, un deuxième chiffre est présent dans la case, correspondant au nombre de fois, inclus dans le premier chiffre, où l’algorithme donne la bonne activité en insérant, toutefois, une autre activité non réalisée dans la séquence. Ainsi, nous comptons comme juste cette séquence dans le premier chiffre mais nous indiquons son erreur par le deuxième chiffre. Nous considérons qu’il s’agit d’une classification correcte, car bien souvent l’insertion d’activité, non réalisée dans la séquence, se produit dans les phases de transition entre deux activités réalisées par la personne. Par exemple, lorsque la personne s’assoit, ce qui nous intéresse est que l’algorithme détecte correctement « Assis » quand la personne est effectivement assise et non pas quand elle passe de debout à assise. Pour expliquer la deuxième case du tableau, la situation « S’allonger sur un canapé », analysée par le modèle avec la fonction d’observation seule, contient « 5 | 2 » signifiant que 5 séquences ont été correctement identifiées et que, parmi ces 5 séquences, une autre activité a été indiquée 2 fois avant que la bonne activité soit finalement détectée. La ligne « Total » du tableau indique le nombre total d’occurrences qui aurait dû être trouvé pour chaque activité. Par exemple, pour la deuxième case du modèle sans transition, l’algorithme a reconnu que la personne était dans la situation « Allongé Canapé » dans 5 séquences sur 6. Acc All Ass Chu Sol Mar Mon Pen Dem Modèle observations seules 6 | 6 5 | 2 5 | 5 6 | 5 6 5 6 2 4 | 1 1MMC 3 observations 6 5 5 6 6 5 6 2 5 1MMC 5 observations 6 5 6 6 6 5 6 2 5 8MMC 2 états 6 | 3 4 6 | 1 6 4 5 | 1 4 | 1 4 5 | 1 8MMC 3 états 6 5 5 6 6 5 5 2 5 9MMC 2 états 1 5 6 6 1 5 4 4 4 9MMC 3 états 6 3 6 6 0 5 1 0 4 Total 6 6 6 6 6 5 6 4 5 Table 8.1 – Classification des activités par l’algorithme selon le modèle utilisé. Le tableau 8.1 présente le nombre de fois où une séquence a été correctement détectée. Fausses détections La deuxième représentation est de créer un tableau indiquant, quant à lui, les fausses détections. Les résultats sont présentés, pour chaque modèle, dans le tableau 8.2. Par exemple, pour le modèle sans transition, l’algorithme commet 2 fausses détections en détectant « Assis », 9 pour « Chuter » et 3 pour « Pencher ». Nous considérons une fausse détection lorsque l’activité réalisée n’est à aucun moment détectée dans la séquence ou l’est trop tard. Les activités « Chute » et « Allongé au sol » sont considérées comme des cas particuliers. A chaque fois que l’algorithme indique l’état « Chute » ou « Allongé Sol » alors que ces activités n’ont pas été réalisées, nous considérons qu’il commet une fausse détection, même si l’algorithme donne finalement la bonne activité. L’idée est de considérer la détection d’une chute (ou être allongé au sol) comme une information très importante et commettre une fausse détection de ces activités est plus grave que de produire une fausse détection des autres activités. Comparaison entre les algorithmes Forward-Backward et de Viterbi Les algorithmes Forward-Backward et de Viterbi s’utilisent dans le cas du modèle sans transition, du MMC à 8 et 9 états avec matrice de transition. Dans les tableaux 8.1 et 8.2, les résultats 103Chapitre 8. Expérimentations pour la reconnaissance d’activité Acc All Ass Chu Sol Mar Mon Pen Modèle observations seules 0 0 2 9 0 0 0 3 1MMC 3 observations 1 0 2 0 0 0 0 1 1MMC 5 observations 1 0 1 1 0 0 0 0 8MMC 2 états 4 0 0 3 0 0 0 3 8MMC 3 états 2 0 2 0 0 0 0 1 9MMC 2 états 0 0 1 3 0 2 0 6 9MMC 3 états 13 0 0 3 0 0 0 0 Table 8.2 – Fausses détections effectuées par l’algorithme selon le modèle utilisé. des trois premières lignes concernent l’algorithme Forward-Backward. La distinction entre les deux algorithmes n’est pas présentée, car peu de différences existent au niveau des résultats. La seule différence (mais elle n’est de toute façon pas prise en compte dans les tableaux) se situe au niveau des « états de transition » comme montré à la figure 8.3. Celle-ci présente les résultats de l’analyse effectuée pour les deux algorithmes, avec le MMC à 8 états et 3 observations, à partir d’une même séquence. Dans cette séquence, le sujet devait s’asseoir et se lever sur une chaise sans marcher entre les deux situations. Forward-Backward infère correctement les bonnes activités comme le montre la figure 8.3(a). L’algorithme de Viterbi de la figure 8.3(b) fournit plus d’états. Pour passer de « Assis » à « Monté sur un obstacle », le sujet ne marche pas, or l’algorithme de Viterbi infère l’état « Marche ». Cette décision de l’algorithme de Viterbi n’est pas correcte, mais il a l’avantage de coller aux contraintes fournies par le MMC. Dans l’approche à un unique MMC, où la matrice de transition est définie manuellement, l’état « Marche » est défini comme précédent et suivant l’état « Assis ». Donc la figure 8.3(b) montre que l’algorithme de Viterbi passe par l’état « Marche » avant et après l’état « Monté sur un obstacle » respectant ainsi le modèle défini, même si le sujet ne marche pas.                          (a) Analyse par l’algorithme Forward-Backward.                            (b) Analyse par l’algorithme de Viterbi. Figure 8.3 – Différence dans l’analyse faite par les algorithmes Forward-Backward et de Viterbi, pour une séquence où la personne s’assoit puis monte sur une chaise. Pour la suite, les résultats seront donnés uniquement pour l’algorithme Forward-Backward, car nous préférons conserver l’algorithme qui colle aux situations réalisées plutôt que de conserver l’algorithme qui colle au modèle défini manuellement. 1048.1. Cas de la personne entièrement visible Modèle avec fonction d’observation seule D’après le tableau 8.1, le modèle sans matrice de transition, détecte toutes les activités correspondant à « Accroupi », « Chute », « Allongé au sol », « Marche » et « Monté sur un obstacle ». Pour l’activité « Allongé Canapé », « Assis » et « Demi-tour » l’algorithme manque une détection. Malgré une bonne détection des chutes, la performance de ce modèle est atténuée par le nombre important de fausses détections concernant les chutes comme montré à la Table 8.2. Pour chaque état nécessitant une descente du corps de la personne (par exemple « Assis », « Accroupi »), l’algorithme détecte une chute puis rectifie en donnant le bon état. Les bonnes classifications sont rarement données directement comme on peut le voir par la présence du deuxième chiffre, dans les cases de la première ligne du Tableau 8.1, indiquant que la décision est bruitée. C’est-à-dire que l’algorithme, avant de donner le bon état, donne d’autres états non atteints dans la réalité. Cela peut être constaté par la figure 8.4(b) représentant la trajectoire du centre de masse sur l’axe vertical et le déroulement des décisions de l’activité dans le temps, par le modèle avec fonction d’observation seule. La figure représente le centre de masse d’une personne s’asseyant et montre que l’algorithme hésite à plusieurs reprises avant de donner la bonne activité réalisée « Assis ». -1500 -1450 -1400 -1350 -1300 -1250 -1200 -1150 -1100 -1050 850 900 950 1000 1050 1100 1150 Y (mm) Temps (s) Walking Sitting Walking Sitting (a) Séquence analysée par le MMC à trois observations. -1500 -1450 -1400 -1350 -1300 -1250 -1200 -1150 -1100 -1050 850 900 950 1000 1050 1100 1150 Y (mm) Temps (s) Sitting Walking Going up Walking Going up Walking Going up Sitting Bending Falling Bending Squatting Sitting Squatting Sitting Squatting Walking Falling Sitting (b) Séqunce analysée par le modèle sans transition. Figure 8.4 – Comparaison d’une séquence où la personne s’assoit analysée par deux modèles. MMC à 8 états et 3 observations Les résultats pour le MMC avec une matrice de transition montrent que les activités « Accroupi », « Chute », « Allongé au sol », « Marche » (pour les séquences où la personne marche et où elle fait un demi-tour) et « Monté sur un obstacle » sont toutes reconnues par le modèle. L’activité « Penché » est l’activité la moins bien reconnue, seulement deux fois sur quatre. Cette activité est remplacée par l’état « Assis ». Cette information est renseignée par le tableau des fausses détections 8.2. Le modèle commet une erreur pour l’activité où la personne s’allonge sur un canapé en désignant cette activité comme étant l’état « Accroupi ». Cette erreur vient du fait que la personne ne s’allonge pas complètement sur le canapé mais s’appuie sur son coude comme le montre la figure 8.5 provoquant une situation différente de ce qui a été appris par le modèle. Le modèle ne reconnaît pas non plus une situation où la personne est assise. En réalité, l’algorithme indique correctement l’état « Assis » lors de la descente et la remontée de la personne mais lorsque celle-ci est assise, le modèle reconnaît cette situation comme étant l’état « Penché », comme illustré à la figure 8.6. Sur cette figure, nous pouvons comprendre l’erreur 105Chapitre 8. Expérimentations pour la reconnaissance d’activité qui a été commise du fait que la personne en s’asseyant a remonté sa jambe sur son autre jambe. Ainsi, la trajectoire du centre de masse est remontée correspondant, pour le modèle, à l’état « Penché ». Figure 8.5 – Sujet s’allongeant différemment de ce qui a été appris dans la base de donnée. 700 750 800 850 900 950 1000 1050 1100 29 30 31 32 33 34 35 36 37 38 39 Y (mm) Temps (s) Walking Sitting Bending Sitting Walking Figure 8.6 – Sujet s’asseyant différemment de ce qui a été appris dans la base de donnée. Ce modèle détecte les bonnes activités de façon similaire au modèle sans matrice de transition. De plus, il présente l’avantage de faire moins de fausses détections comme le montre le tableau 8.2 et aucune fausse détection concernant les chutes. Ce modèle diffère également du précédent par le fait qu’il donne la bonne activité sans hésiter avec d’autres états (ceci est démontré par l’absence du deuxième chiffre dans les cases du tableau 8.1). Cette différence entre les deux modèles peut être observée à la figure 8.4. Les deux figures représentent la trajectoire du centre de masse sur l’axe vertical pour une personne marchant puis s’asseyant et enfin marchant pour sortir du champ de vision de la caméra. Ces figures indiquent les détections, par l’algorithme, des états dans lesquels est passée la personne. La figure 8.4(b) montre que le modèle sans transition est plus bruité que le modèle avec matrice de transition représenté à la figure 8.4(a). Selon nos critères, la classification pour le modèle sans transition est correcte, puisqu’au final l’algorithme 1068.1. Cas de la personne entièrement visible indique l’état « Assis », mais la décision apparaît plus lentement comparé au modèle avec des transitions, qui lui n’hésite pas sur l’activité réalisée. MMC à 9 états et 5 observations Les résultats pour le MMC à 9 états montrent que la classification des activités est semblable au modèle précédent. Dans ce modèle, les situations « Assis » sont toutes reconnues. De plus, toutes les activités sont reconnues directement, sans hésitation avec une autre activité comme le montre l’absence du deuxième chiffre dans les cases du tableau 8.1. Le modèle à 9 états fait moins d’erreur au niveau des fausses détections que le précédent modèle à 8 états. Par contre, l’inconvénient est qu’il commet une fausse détection importante en donnant l’activité « Chute » à la place de l’état « Penché ». Système de 8 MMC à 2 états et 3 observations La reconnaissance d’activité est similaire aux autres modèles avec néanmoins les activités « Monté » et « Allongé Canapé » qui sont moins bien reconnues. Toutes les activités, où la personne se penche, sont ici reconnues. Les séquences où la personne « Chute » sont toutes reconnues, par contre l’activité « Allongé au sol » suivant la chute n’est pas toujours reconnue. La matrice de transition forçant le passage de « Chute » à « Allongé au sol » n’est plus présente dans ce modèle, cela permet de détecter l’état « Chute » sans forcément être suivi de l’état « Allongé au sol ». Remarquons que, dans certain cas les sujets se levaient directement après leur chute ne passant pas forcément par la situation « Allongé au sol ». Il y a un peu d’hésitation sur l’activité réalisée, la bonne classification ne se faisant pas toujours directement (comme on peut le voir avec la présence du deuxième chiffre du Tableau 8.1). Peu de fausses détections sont présentes ici, mais l’inconvénient est qu’il y a trois détections de « Chute » non pertinentes. Système de 8 MMC à 3 états et 3 observations Le nouveau modèle classifie correctement les activités. L’état « Penché » reste celui qui est le moins bien distingué. Les décisions de l’algorithme, concernant l’état dans lequel se trouve la personne, sont directes comme on peut le voir par l’absence d’un deuxième chiffre dans la ligne « 8MMC 3 états » du Tableau 8.1. La différence avec le précédent modèle se trouve également au niveau des fausses détections. L’algorithme ne commet aucune fausse détection concernant les chutes. De plus, peu d’erreurs sont commises en règle générale par ce modèle. Système de 9 MMC à 2 états et 5 observations Le tableau 8.1 montre que ce modèle classifie correctement les activités sauf pour deux états, « Accroupi » et « Allongé Sol ». Les situations « Allongé Sol » ne sont pas reconnues mais cela ne gêne pas la détection de l’état « Chute ». Ce modèle commet peu de fausses détections. Les erreurs proviennent surtout de l’état « Accroupi » qui n’est pas détecté. L’algorithme remplace toutes les situations où la personne s’accroupit par l’état « Chute » suivi de l’état « Penché ». 107Chapitre 8. Expérimentations pour la reconnaissance d’activité Système de 9 MMC à 3 états et 5 observations Ce modèle commet de nombreuses erreurs de classification notamment pour les états « Allongé Canapé », « Monté », « Allongé Sol » et « Penché ». Les états « Allongé Sol » et « Penché » ne sont d’ailleurs jamais reconnus. L’état « Penché » est confondu avec l’état « Accroupi ». L’état « Allongé Sol » n’est jamais reconnu mais cela n’empêche pas la chute d’être quant à elle détectée. Le modèle infère l’état « Accroupi » très souvent puisque 13 fausses détections ont été ré- pertoriées pour cet état. Le modèle commet également trois fausses détections concernant l’état « Chute ». Résultats pour l’activité debout Nous avons demandé à une personne de se tenir debout dans le but de savoir ce qu’infèrent les différents modèles. Le modèle à 9 états 5 observations et les systèmes de 9 MMC ont appris à différencier l’activité « Debout », donc il devrait la reconnaître. En revanche, les modèles à 8 états et les systèmes de 8 MMC n’ont pas eu, dans leur base d’apprentissage, une telle activité. Nous voulons ainsi connaître l’activité inférée, en pensant qu’ils vont la classifier comme étant l’activité « Marche ». Les résultats sont montrés à la table 8.3. Debout Modèle observations seules Marche 1MMC 3 observations Marche 1MMC 5 observations Debout 8MMC 2 états Marche 8MMC 3 états Marche 9MMC 2 états Assis 9MMC 3 états Accroupi Table 8.3 – Classification de l’activité « Debout » selon le modèle utilisé. Les résultats montrent que seul le modèle à 9 états et 5 observations détecte l’état « Debout ». La plupart des autres modèles infèrent l’état « Marche ». 8.1.3 Conclusion L’expérimentation nous a permis de comparer les différents modèles construits sur une même base de test. Les résultats nous permettent de savoir quels sont les modèles les plus justes. La classification réalisée par le modèle sans matrice de transition, après de nombreuses hésitations entre différents états, donne finalement de bons résultats. Mais ce modèle ne peut pas être conservé, car il fournit beaucoup de fausses détections concernant les chutes. Le modèle avec transitions à 8 états et 3 observations produit peu de fausses détections et surtout aucune concernant les chutes. La probabilité de transition d’aller dans l’état « Chute » a été définie manuellement comme très faible. Ainsi, l’observation doit être vraiment « forte » pour passer dans l’état « Chute » avec ce modèle. Le modèle réalise peu d’erreurs de classification. L’état le moins bien détecté est « Penché » en omettant 2 situations sur 4. Toutes les chutes sont détectées. Le modèle à 9 états et deux observations en plus des modèles précédents n’apporte pas de meilleurs résultats de classification. Au contraire, il commet une fausse détection concernant l’état « Chute », ce que ne faisait pas le modèle précédent. L’idée en combinant plusieurs modèles de Markov cachés est de 1088.2. Cas de la personne partiellement visible tester des modèles sans connaissance a priori. Le système de 8 MMC, appris par Baum-Welch, à 3 états et 3 observations s’avère le modèle s’approchant au mieux de la réalité. Ce modèle donne de bons résultats au niveau de la classification et c’est le seul parmi les systèmes de MMC à ne faire aucune fausse détection concernant les chutes. Pour développer un algorithme capable de détecter les activités de la personne au cours de la journée et de détecter ses chutes, nous avons besoin d’un modèle classifiant les bonnes activités et surtout un modèle effectuant peu de fausses détections. L’algorithme à un modèle de Markov caché à 8 états et celui utilisant le système de 8 MMC à trois états détectent toutes les chutes sans produire de fausse détection et classifient correctement les autres activités, ce qui correspond à nos attentes. Ces deux modèles sont équivalents au niveau des résultats, mais on préfère un modèle ayant appris par lui-même les différentes probabilités. En effet, le système de 8 MMC, n’étant pas contraint au niveau de la dynamique des situations, est plus général et correspond alors mieux aux situations non prévues qu’un modèle où nous avons inséré de la connaissance. Ces résultats nous montrent que les modèles à trois observations sont tout autant, voire plus justes que les modèles à cinq observations. Bien que nous ayons ajouté un état et qu’il est donc possible de distinguer l’état « Debout » avec 5 observations, la qualité de classification s’avère dégradée pour certains modèles. Donc, en ajoutant des états et des observations, nous ajoutons de la complexité et perdons au niveau précision des résultats. 8.2 Cas de la personne partiellement visible 8.2.1 Description de l’expérimentation Nous avons demandé à une personne d’effectuer des activités en étant cachée par des objets. Ces activités correspondent à celles utilisées pour construire les MMC. Les consignes pour réaliser ces neuf situations sont les suivantes : — la personne se penche derrière une table ; — la personne s’accroupit derrière une table ; — la personne s’assoit sur une chaise placée derrière une table ; — la personne marche derrière trois chaises posées l’une à côté de l’autre ; — la personne marche et réalise plusieurs demi-tours derrière les trois chaises ; — la personne chute et s’allonge au sol derrière une table ; — la personne s’allonge sur un canapé en posant un drap sur elle ; — la personne monte sur une chaise placée derrière une table ; — la personne reste debout derrière une table. Chaque situation est illustrée à la figure 8.7, montrant ainsi les étapes réalisées par le sujet à chaque séquence. La table correspond à une table à manger d’environ 80 cm de hauteur. Lorsque la personne chute, elle n’est donc plus visible. Dans le cas des autres situations, une partie du corps de la personne reste toujours visible. 8.2.2 Résultats Chaque situation, que devait réaliser le sujet, est analysée par les différents modèles construits. Nous avons regroupé dans la table 8.4 les activités inférées par chaque modèle à chaque situation. Les colonnes représentent les différentes activités réalisées par la personne (« Acc » : Accroupi, « Ass » : Assis, « Chu » : Chute, « Mar » : Marche, « Mo » : Monté sur un obstacle, « Pen » : Penché, « Dem » : Demi-tour, « All » : Allongé sur un canapé, « De » : Debout). Chaque case 109Chapitre 8. Expérimentations pour la reconnaissance d’activité Se pencher S’accroupir S’asseoir Marcher 1108.2. Cas de la personne partiellement visible Faire des demi-tours Chute+Allongé au sol S’allonger sur un canapé Monter Debout Figure 8.7 – Suivi des situations où le sujet n’est pas entièrement visible à différents pas de temps. 111Chapitre 8. Expérimentations pour la reconnaissance d’activité indique l’activité que le modèle a inféré. Les activités inscrites en vert correspondent aux bonnes classifications. Le précédent tableau 8.1 indiquait les bonnes classifications dans le cadre de situations semblables à celles contenues dans la base de données. Dans cette nouvelle table 8.4, les erreurs de classifications sont plus fréquentes, car il s’agit de situations nouvelles, non apprises, où la personne est à moitié visible par la caméra. Le tableau nous informe que l’activité « Monté » est l’activité la mieux détectée par presque tous les modèles. La situation « S’allonger sur un canapé », sous un drap, est particulière, car sa réalisation entraîne la modification du fond appris. Lorsque la personne s’allonge, elle prend le drap pour le mettre sur elle. Ce qui a pour conséquence de cacher son corps et de sortir le drap du fond appris. Comme nous pouvons le voir sur les images de la figure 8.7, le drap est détecté comme mobile. La plupart des modèles reconnaissent l’activité « Assis », qui précède et suit l’activité « Allongé Canapé ». Cependant l’activité « Allongé Canapé » en elle-même, lorsqu’elle est réalisée sous un drap, n’est pas reconnue. Le modèle commettant le moins d’erreurs de classification est le modèle à 9 états et 5 observations. De plus, dans la situation où la personne a réalisé plusieurs demi-tours derrière des chaises, ce modèle est le seul à indiquer les demi-tours comme le montre la figure 8.8. L’activité « Demi-tour » n’est pas contenue dans la base de donnée, mais le modèle à 9 états et 5 observations infère l’état « Debout » lorsque la personne tourne sur elle-même pour réaliser le demi-tour, puis infère l’état « Marche » entre chaque deux demi-tours. 800 850 900 950 1000 1050 1100 1150 1200 1250 1300 38 40 42 44 46 48 50 52 54 56 Y Temps (s) Walking Upright Walking Upright Walking Upright Walking Upright Walking Upright Walking Upright Walking (mm) Figure 8.8 – Résultat de l’analyse avec le modèle à 9 états et 5 observations, pour une personne réalisant des demi-tours. Pour l’ensemble des modèles, nous pouvons remarquer qu’il y a confusion entre les états « Accroupi », « Penché » et « Chute ». Ce problème peut être résolu en ajoutant la notion de temps. Par exemple, pour l’état « Accroupi » et « Penché » la personne reste très peu de temps dans ces activités alors que l’activité « Chute » correspond à une situation où la personne n’est plus visible durant une certaine période. 1128.2. Cas de la personne partiellement visible Acc Ass Chu Mar Mo Pen Modèle observations seules Acc Pen Acc Mon + Ma Mo Pe 1MMC 3 observations Chu + Acc Acc Chu Ma Mo Acc 1MMC 5 observations Chu + Acc Ass Chu Ma Mo Acc 8MMC 2 états Acc Acc Acc Acc Mo Acc 8MMC 3 états Acc Acc Acc Acc Mo Acc 9MMC 2 états Acc Ass Ass Ma Mo Acc 9MMC 3 états Acc Acc Acc Acc Acc Acc Dem All De Modèle observations seules Mo +Acc + Ma Acc Ma 1MMC 3 observations Ma Acc Acc + Ma 1MMC 5 observations De +Ma Acc De 8MMC 2 états Acc Acc Acc 8MMC 3 états Acc Acc Acc 9MMC 2 états Ma Acc Ass + Ma 9MMC 3 états Acc Acc Acc Table 8.4 – Détection d’activité quand la personne n’est pas entièrement visible pour différents modèles. 8.2.3 Conclusion Avec la première expérimentation pour la reconnaissance d’activité d’une personne entièrement visible, nous avions conclu que le modèle à 8 états 3 observations et le système de 8 MMC étaient ceux commettant le moins d’erreurs de classification et peu de fausses détections. Le modèle à 9 états et 5 observations avait l’avantage de distinguer l’activité « Debout » de « Marche ». Mais ce modèle ajoutait de la complexité, en ajoutant deux observations de plus que ceux à 8 états, sans pour autant donner de meilleurs résultats. Avec la deuxième expérimentation pour la reconnaissance d’activité d’une personne partiellement visible, nous avons montré que le modèle à 9 états et 5 observations est celui donnant les meilleurs résultats pour traiter les situations d’occlusion de la personne non apprises dans la base de données. Pour le domicile, nous pensons que ce modèle fournira les meilleures classifications. 113Chapitre 8. Expérimentations pour la reconnaissance d’activité 114Chapitre 9 Tests en situations réelles Sommaire 9.1 Test de l’algorithme d’analyse de la marche . . . . . . . . . . . . 115 9.2 Test de l’algorithme de détection d’activité . . . . . . . . . . . . 116 9.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Une limite des expérimentations, décrites dans les deux chapitres précédents, est qu’elles ont été réalisées en laboratoire avec des sujets ne représentant pas la catégorie à laquelle cette thèse s’adresse. Ces expérimentations doivent être effectuées avec des sujets appropriés pour savoir si les résultats restent les mêmes. Dans ce chapitre, nous présentons des résultats de quelques tests effectués sur des personnes âgées. 9.1 Test de l’algorithme d’analyse de la marche 6 personnes âgées ont réalisé quelques séquences filmées par notre dispositif. Ces enregistrements ont été réalisés dans des milieux réels en dehors de l’appartement expérimental. Tout d’abord, nous avons demandé à deux personnes, à l’hôpital, de marcher devant notre système. Ces deux patientes, ayant des problèmes liés à la marche et à l’équilibre, sont venues pour réaliser un bilan médical avec un médecin. Les consultations durent une heure, pendant laquelle de nombreux tests cliniques sont effectués pour constituer un bilan de la fragilité de la personne. Un des tests cliniques réalisé était de marcher sur 10 mètres. Durant ce test, nous avons filmé ces deux personnes. La figure 9.1 montre la marche de l’une des deux personnes et la trajectoire de son centre de masse, sur l’axe vertical, avec les longueurs de pas détectées. Pour cette expérience, nous n’avons pas de système de référence. Nous ne savons donc pas si notre système fournit des paramètres de la marche justes par rapport à la réalité. Nous pouvons, uniquement, effectuer une analyse qualitative en observant que le système détecte, comme dans nos précédentes expérimentations effectuées sur les sujets jeunes, des oscillations et est capable d’extraire les paramètres de la marche. De plus, nous pouvons remarquer que les longueurs de pas détectées (68 cm, 53 cm et 55 cm) sont des mesures plausibles et que leur nombre est juste. Nous avons également filmé quatre personnes de plus de 80 ans, chez elles. Trois personnes sur quatre ont déjà chuté. Nous avons demandé aux personnes de marcher perpendiculairement à la caméra que nous avons posée dans le salon, sur des meubles hauts. Dans les quatre cas, les oscillations du centre de masse sont présentes comme nous pouvons le voir sur la figure 9.2. Cette figure présente les trajectoires du centre de masse, sur l’axe vertical, des quatre personnes. Les maxima des oscillations étant perceptibles, l’algorithme peut en déduire les paramètres de 115Chapitre 9. Tests en situations réelles Figure 9.1 – Utilisation de notre système avec une patiente, lors de sa consultation à l’hôpital. la marche. Nous n’avons, toutefois, pas de méthode de référence pour savoir si la localisation des oscillations permet de fournir les paramètres de la marche proche de la réalité. L’analyse qualitative nous permet de constater que la trajectoire du centre de masse la plus régulière, parmi les figures 9.2, appartient à la personne âgée n’ayant jamais chuté 9.2(a). Parmi les quatre personnes, une des personnes a d’importants problèmes d’équilibre. La personne a déjà chuté plusieurs fois. La trajectoire de son centre de masse, sur l’axe vertical, est représentée à la figure 9.2(d). Les oscillations sont moins régulières que ce que nous pouvons voir avec des personnes jeunes, mais la trajectoire reste sinusoïdale. Il est donc possible d’obtenir les paramètres de la marche. Une autre personne, de 84 ans ayant récemment chuté, a marché devant notre système. La trajectoire de son centre de masse, représentée à la figure 9.2(c), oscille peu. L’espacement des maxima indique une cadence plus lente que pour la personne représentée à la figure 9.2(a). Quand la personne a marché, nous avons pu voir qu’elle restait très droite. Pour finir, un des sujets a une jambe artificielle et a donc marché avec 2 cannes. Quand il marche, la jambe artificielle est peu soulevée du sol. La représentation de la trajectoire de son centre de masse est montré à la figure 9.2(b). Nous pouvons voir que, malgré les différentes façons de marcher, différentes de ce que nous pouvions avoir avec les sujets jeunes, le système fournit le même type de trajectoires, même si elles sont moins régulières avec les personnes âgées qu’avec les plus jeunes. 9.2 Test de l’algorithme de détection d’activité L’algorithme de détection d’activité fournit de bons résultats au niveau de la classification, comme nous l’avons vu au chapitre 8, sur des personnes jeunes. Nous avons testé l’algorithme pour quelques activités réalisées par des personnes âgées. Pour les précédentes situations où la personne marchait devant la caméra à leur domicile ou à l’hôpital, l’algorithme de détection d’activité a correctement classifié les personnes en train de marcher. Comme nous pouvons le voir à la figure 9.3, pour une personne, marchant à son domicile, l’algorithme indique qu’elle marche. Nous avons également testé la capacité de l’algorithme à détecter d’autres activités. Nous avons demandé à un des sujets de s’asseoir, de se pencher et de monter sur un marche pied. La figure 9.4 montre le résultat pour chacune des activités réalisées par le sujet. Chaque figure représente la trajectoire du centre de masse de la personne, sur l’axe vertical, avec l’évaluation par 1169.2. Test de l’algorithme de détection d’activité 550 600 650 700 750 800 850 900 34 34.5 35 35.5 36 36.5 37 37.5 38 Y (mm) Temps (s) (a) Marche d’une personne de 81 ans n’ayant jamais chuté. 500 550 600 650 700 750 800 850 900 950 36 37 38 39 40 41 42 43 44 45 Temps (s) Y (mm) (b) Marche d’une personne de 80 ans ayant une jambe artificielle. 450 500 550 600 650 700 750 800 850 900 55.5 56 56.5 57 57.5 58 58.5 59 59.5 60 Y (mm) Temps (s) (c) Marche d’une personne de 84 ans ayant chuté. 550 600 650 700 750 800 850 900 47 48 49 50 51 52 53 54 Y (mm) Temps (s) (d) Marche d’une personne de 90 ans ayant des problèmes d’équilibre. Figure 9.2 – Représentation du centre de masse, sur l’axe vertical, de quatre personnes âgées. Figure 9.3 – Détection de l’activité « Marche », pour une personne de 81 ans marchant à son domicile. 117Chapitre 9. Tests en situations réelles l’algorithme de l’état dans lequel se trouve la personne. Les situations où la personne s’assoit et où elle se penche sont correctement reconnues. Nous pouvons également constater que les phases où la personne marche avant et après la réalisation de l’activité « Assis » et « Penché » sont reconnues comme « Marche ». L’activité « Monté » n’est pas reconnue. La personne montait sur un marche pied de 13,5 cm. La personne a tout d’abord essayé de monter mais est retombée au sol très rapidement, n’arrivant pas à tenir sur le marche pied. Puis, elle est remontée et est restée immobile quelques secondes. La montée n’était peut être pas assez grande pour que l’algorithme la détecte. Dans la base de donnée, pour la situation « Monté », les personnes montaient sur une chaise et seulement 5 d’entre elles ont réalisé une deuxième séquence avec un marche pied. Nous pensons que les paramètres appris pour une chaise sont différents de ceux qui seraient appris pour un marche pied. C’est pourquoi la situation n’a pas été reconnue. 600 650 700 750 800 850 900 950 32 34 36 38 40 42 44 46 48 Y (mm) Temps (s) Walking Walking Sitting (a) Trajectoire du centre de masse pour une personne s’asseyant. 650 700 750 800 850 900 950 36 38 40 42 44 46 48 Y (mm) Walking Walking Sitting Sitting Sitting Walking Bending Temps (s) (b) Trajectoire du centre de masse pour une personne se penchant. 500 550 600 650 700 750 800 850 900 950 1000 30 35 40 45 50 55 60 65 Y (mm) Temps (s) Walking Sitting Walking (c) Trajectoire du centre de masse pour une personne montant sur un marche pied. Figure 9.4 – Représentation du centre de masse, sur l’axe vertical, pour différentes activités réalisées par une personne âgée de 81 ans. 9.3 Conclusion Les différents tests effectués avec des personnes âgées permettent de nous donner des premiers résultats de ce que nous pourrions obtenir si nous réalisions des expérimentations avec elles. Ainsi, nous pouvons constater que les trajectoires du centre de masse, sur l’axe vertical, sont plus irrégulières que ce que nous obtenions avec des personnes plus jeunes. Les courbes suivent, tout de même, une trajectoire sinusoïdale, ce qui nous permet d’extraire les paramètres de la marche. Toutefois, nous ne pouvons pas en conclure que les paramètres extraits sont précis, 1189.3. Conclusion n’ayant pas de système de référence lors des tests. Concernant la détection d’activité, les tests nous montrent que nous devons modifier la base de données sur laquelle les modèles sont appris, avant de nous lancer dans une expérimentation, notamment pour la situation « Monter sur un obstacle ». 119Chapitre 9. Tests en situations réelles 120Conclusion Différentes expérimentations ont été mises en place pour tester les algorithmes d’analyse des paramètres de la marche et de détection des activités. Les expérimentations concernant la détection d’activité nous ont permis d’identifier les modèles, que nous avons construits, les plus proches de la réalité. Nous avons également constaté que certains d’entre eux pouvaient s’adapter à des situations n’appartenant pas à la base d’apprentissage. Notamment, certains modèles se sont adaptés aux situations d’occlusions, qui sont des situations très souvent rencontrées dans une maison. Les expérimentations testant la précision des paramètres de la marche fournis par l’algorithme nous ont révélé que des erreurs subsistent, plus ou moins grandes selon les situations réalisées. La caméra Kinect étant précise à quelques centimètres près, comme nous l’avions précisé à la section 3.3, nous nous approchons de cette erreur. L’expérimentation réalisée avec les personnes âgées nous donne une idée du type de trajectoires que nous pouvons obtenir. Mais les tests effectués sont insuffisants pour pouvoir conclure que le système est adapté aux personnes âgées. De plus, avant de tester sur les personnes âgées, nous devons compléter la base d’apprentissage. Actuellement, les paramètres des modèles sont appris à partir d’une base de données contenant uniquement des images de sujets jeunes. Le système sera, dans les prochains mois, testé dans des conditions réelles et avec des personnes âgées dans le cadre du projet SATELOR. Ce projet, financé par la région Lorraine, regroupe des industriels, des hospitaliers et des chercheurs. L’objectif est d’industrialiser un système permettant de maintenir la personne à son domicile. La prochaine étape de ce projet est d’installer le système, dans un premier temps, dans une chambre de l’OHS (Office Hygiène Sociale) à Nancy et d’enregistrer l’activité d’un patient pour pouvoir, par la suite, traiter les données avec notre système. Nous pourrons ainsi constater les manques et atouts du système en situation réelle. Le but final étant d’installer le système au domicile des personnes âgées pour apprendre leurs habitudes, évaluer l’évolution de leur état au quotidien et détecter les éventuelles chutes. 121Conclusion 122Quatrième partie Système pour le maintien à domicile 123Introduction La reconnaissance d’activité et l’extraction des paramètres de la marche sont les deux axes de recherche que nous avons développés pour traiter le problème de la sécurisation de la personne à son domicile et de l’évaluation de son degré d’autonomie. Dans les parties précédentes, nous avons présenté la méthode et les résultats obtenus pour chacun des deux problèmes de manière séparée, tout en sachant que les deux contributions s’appuient sur une base commune de caractéristiques extraites des images de profondeur. L’objectif final est de développer un système unique pour le maintien à domicile. Nous présentons, dans le premier chapitre de cette partie, notre vision du système final, en intégrant la détection d’activité et l’analyse de la marche dans un seul système. Par exemple, lorsque l’algorithme détecte que la personne est dans l’état « Marche », l’algorithme analysant les paramètres de la marche est activé. Nous proposons également une méthode pour apprendre les habitudes de la personne et ainsi, détecter toutes anomalies suite à un événement inhabituel. La méthode consiste à cartographier l’environnement des habitudes de la personne. Dans un deuxième chapitre, nous indiquons d’autres problématiques pour lesquelles le système pourrait être adapté. Par exemple, ce système peut servir à discriminer plusieurs personnes dans la scène et ainsi, suivre l’évolution de l’état de fragilité de plusieurs personnes en même temps. Chaque personne pourrait être identifiée à travers un certain nombre de caractéristiques, comme sa taille, la forme de sa trajectoire de son centre de masse, etc. Ce système pourrait également prévenir, en plus des chutes et de la perte de fragilité des personnes, les troubles cognitifs. En effet, certaines études ont montré qu’une vitesse lente pouvait être un indicateur de troubles cognitifs et de démences à venir. 125Introduction 126Chapitre 10 Vers une implantation au domicile Sommaire 10.1 Couplage des fonctionnalités actuelles du système . . . . . . . . 127 10.2 Cartographie des habitudes dans l’environnement . . . . . . . . 129 10.2.1 Limitations du système et contraintes de l’environnement . . . . . . 129 10.2.2 Détection des cas d’occlusions partielles de la personne . . . . . . . 130 10.2.3 Cartographie des habitudes . . . . . . . . . . . . . . . . . . . . . . 133 10.2.4 Détection des anomalies . . . . . . . . . . . . . . . . . . . . . . . . 134 10.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 Actuellement, le système développé est conçu pour reconnaître différentes activités et extraire des paramètres de la marche. Dans ce chapitre, nous présentons la manière dont nous avons imaginé intégrer les deux fonctionnalités pour former un système unique, répondant à la problématique du maintien à domicile des personnes âgées. Nous présentons, dans un premier temps, comment coupler les fonctionnalités actuelles du système pour sécuriser et évaluer le degré d’autonomie de la personne. Puis, nous proposons une méthode pour apprendre les habitudes des personnes. 10.1 Couplage des fonctionnalités actuelles du système Nous avons précisé, dans l’introduction de cette thèse, que pour sécuriser la personne, nous avons besoin d’utiliser un algorithme de détection de chutes et d’activités à risque. Concernant l’évaluation du degré d’autonomie de la personne, nous avons précisé que les activités réalisées par la personne et les évolutions dans les paramètres de la marche seraient prises en compte. L’idée est de coupler les algorithmes de détection d’activités et d’extraction des paramètres de la marche pour faire un système unique répondant à la problématique du maintien à domicile des personnes âgées. Nous avons imaginé mettre au domicile une ou plusieurs caméras. L’algorithme détectant l’activité de la personne permettrait, en temps réel, de savoir quelle activité la personne réalise. Selon l’activité qui sera reconnue, l’algorithme effectuera telle ou telle tâche, comme montré à la figure 10.1. Les différentes tâches sont dépendantes de l’activité identifiée : — « Marche » : enregistrement du temps passé dans cette situation, que l’on nommera activité « active », et extraction des paramètres de la marche quand la personne est entièrement visible ; 127Chapitre 10. Vers une implantation au domicile — « Debout » : enregistrement du temps passé dans cette situation nommée activité « active » ; — « Chute » et « Allongé Sol » : envoi d’une alerte à la famille ou aux secours ; — « Monté » et « Accroupi » : envoi d’un signal à la famille ou au médecin pour avertir que la personne adopte des comportements dangereux pouvant la conduire à des situations telles que la chute ; — « Assis » et « Allongé Canapé » : enregistrement du temps passé dans cette situation que l’on nommera activité « passive ». Ainsi à la fin de chaque journée, le système pourra fournir un résumé des informations concernant : — le cumul du temps passé dans une activité « passive » ; — le cumul du temps passé dans une activité « active » ; — le nombre de changements d’activité ; — la moyenne des longueurs de pas, cadence et vitesse de marche de la journée. Il sera alors possible d’observer l’évolution dans le temps (dans la semaine, le mois ou l’année) de ces indicateurs. Cette information, couplée à l’évolution des paramètres de la marche de la personne, est un critère d’évaluation de la perte ou non d’autonomie de la personne. L’alerte automatique aux proches ou aux professionnels de la santé, en cas de chutes et d’activités à risque, permettra de sécuriser la personne au domicile. Les différents algorithmes construits permettent donc d’apporter un ensemble d’informations, qui couplées ensembles, pourront aider à maintenir la personne plus longtemps à son domicile. Marche Temps actif Mesure des paramètres Allongé Sol Alerte Chute Assis Monter Accroupi Signaler Allongé Temps passif Figure 10.1 – Les différentes actions réalisées par l’algorithme selon l’état dans lequel se trouve la personne d’après le MMC. 12810.2. Cartographie des habitudes dans l’environnement 10.2 Cartographie des habitudes dans l’environnement L’objectif dans cette section est de développer une méthode d’apprentissage des habitudes des personnes dans l’environnement. Plus précisément, nous voulons cartographier les activités courantes de la personne selon l’endroit de la pièce dans lequel elle se trouve. Ainsi, l’évolution des habitudes au cours des semaines ou des mois peut constituer un indicateur de modification de l’état de la personne, par exemple si elle reste plus longtemps allongée qu’à son habitude. Pour constituer la carte des habitudes de la personne, nous devons relever ses activités au cours du temps. Lors de l’apprentissage de cette carte, nous devons tenir compte du fait que quand la personne n’est pas entièrement visible, l’activité qu’elle réalise n’est pas certaine. Par exemple, quand la personne se trouve derrière une table à moitié visible nous ne pouvons pas connaitre avec certitude son activité. Nous devons différencier dans la carte les zones où la personne est vue entièrement des zones où elle peut être cachée. 10.2.1 Limitations du système et contraintes de l’environnement Les occlusions peuvent être de différentes natures. Comme nous l’avons étudié à la section 8.2, les occlusions peuvent être dues aux meubles de la pièce. En effet, les tables ou les chaises peuvent, par exemple, bloquer la visibilité de la personne. De la même façon, en bordure du champ de vision de la caméra, la personne n’est que partiellement visible. Donc, les problèmes d’occlusions, dues aux meubles et aux limites du champ de vision de la caméra, sont à prendre en compte lorsque l’on suit la trajectoire d’une personne. En effet, si l’analyse des activités est effectuée lorsque la personne est à moitié cachée l’activité ne sera peut être pas reconnue, comme nous l’avons vu à la section 8.2. La figure 10.2 illustre le cas d’une personne marchant à la limite du champ de vision de la caméra. L’image couleur nous montre que la personne est à moitié détectée. Son côté gauche se trouve en dehors du champ de vision de la caméra. Figure 10.2 – Personne sortant du champ de vision et étant à moitié détectée. La section 8.2 permet de constater que certains de nos modèles de Markov cachés sont robustes aux occlusions, en classifiant correctement les activités, dans des conditions non rencontrées lors de l’apprentissage. La plupart des modèles ont le même problème qui est de confondre les trois activités « Penché », « Accroupi » et « Chute ». Ainsi, même s’il est possible de reconnaitre certaines activités dans les zones d’occlusion il est important d’identifier ces zones dans lesquelles les performances du système sont différentes. Les zones de sortie du champ de 129Chapitre 10. Vers une implantation au domicile vision sont également à prendre en compte dans l’interprétation des résultats produits par le système. Ces zones de sorties se situent en bord d’image mais également dans les franchissements de portes si celles-ci se trouvent dans le champ de vision. Nous devons donc différencier les moments où la personne est cachée, des situations où elle est entièrement visible pour intégrer cette information dans la carte des habitudes. 10.2.2 Détection des cas d’occlusions partielles de la personne La méthode proposée pour détecter les cas d’occlusions est fondée sur le calcul de la vraisemblance permettant de savoir si le modèle correspond aux observations. La vraisemblance est une mesure de la probabilité des observations O sachant le modèle λ, soit P(O|λ). Elle est calculée à partir des probabilités obtenues dans la phase Forward de l’algorithme Forward-Backward. Pour rappel, la phase Forward permet de calculer le α pour chaque état, à chaque instant. La vraisemblance correspond au calcul suivant : V raisemblance(t) = logΣ N i=1αt(i). La vraisemblance à l’instant t est égale à la somme des probabilités α à t pour tous les états. Le logarithme de la vraisemblance est préféré pour représenter les résultats. L’idée ici est de comparer les valeurs prises par la vraisemblance lorsque la personne est entièrement visible, avec les valeurs prises lorsque la personne n’est pas entièrement visible. Nous avons alors demandé à une personne d’effectuer les huit activités (les mêmes qui étaient utilisées pour construire les MMC) pour obtenir l’échantillon des valeurs prises par la vraisemblance lorsque la personne effectue les différentes activités en étant entièrement visible. Ensuite nous avons demandé à la personne de réaliser les séquences derrière des obstacles pour obtenir un échantillon de valeurs prises par la vraisemblance lorsque la personne est cachée. Chaque sé- quence a été analysée avec le MMC à 8 états et 3 observations. Ces situations correspondent aux situations décrites au chapitre 8. Les valeurs de la vraisemblance pour chaque activité, réalisée en condition « Caché » et entièrement « Visible », sont représentées à la figure 10.3. Chaque courbe correspond aux valeurs de la vraisemblance à chaque pas de temps. Nous avons inscrit sur chaque graphe les situations réalisées par le sujet. Par exemple, pour le graphe correspondant à la situation « Marcher - Caché », la personne marche en étant visible jusqu’à 44,1 s, puis continue de marcher derrière des chaises en étant à moitié visible. En comparant les situations réalisées lorsque la personne est visible et cachée, nous pouvons voir que les valeurs prises par la vraisemblance sont plus petites quand la personne est cachée. En d’autres termes, le modèle correspond mieux aux observations quand la personne est entièrement visible. Ce constat est logique puisque le modèle a appris sur une base de données ne contenant que des situations où la personne est entièrement visible. Nous pouvons également constater que les valeurs de la vraisemblance effectuent un pic vers le bas lorsque la personne passe d’une activité où elle est entièrement visible à une activité où elle est en partie cachée. Par exemple, pour la situation « Marcher - Caché », le passage de l’état visible à caché est très net par rapport aux valeurs de la vraisemblance. Dans le cas des situations réalisées en étant visibles, nous pouvons également constater une descente des valeurs de la vraisemblance, mais moins prononcée, lorsque la personne change d’activité. Par exemple, les situations « S’accroupir - Visible » ou « S’asseoir - Visible » ont une légère descente des valeurs de la vraisemblance lorsque la personne passe de l’activité « Marche » à « Accroupi » ou « Assis ». Pour la situation « S’accroupir - Caché » et « Chuter+Allongé au sol - Caché », nous voyons que la courbe de la vraisemblance ne cesse de diminuer à un moment. Ce passage correspond au moment où la personne est entièrement cachée et où le modèle ne reçoit plus aucune information. 13010.2. Cartographie des habitudes dans l’environnement Se pencher - Visible Se pencher - Caché -80 -70 -60 -50 -40 -30 -20 28.5 29 29.5 30 30.5 31 31.5 32 32.5 Log Vraisemblance Temps (s) Marche Visible Marche Visible Penché Visible -90 -80 -70 -60 -50 -40 -30 -20 42 43 44 45 46 47 48 49 50 Log Vraisemblance Temps (s) Marche Visible Penché Caché Marche Visible S’accroupir - Visible S’accroupir - Caché -90 -80 -70 -60 -50 -40 -30 -20 27 27.5 28 28.5 29 29.5 30 30.5 31 31.5 Log Vraisemblange Temps (s) Accroupi Visible -90 -80 -70 -60 -50 -40 -30 -20 35 40 45 50 55 60 65 Log V raisem blance Tem p s (s) Accroupi Visible Accroupi Caché Accroupi Visible S’asseoir - Visible S’asseoir - Caché -90 -80 -70 -60 -50 -40 -30 -20 27 28 29 30 31 32 33 34 Log Vraisemblance Temps (s) Marche Visible Assis Visible Marche Visible -100 -90 -80 -70 -60 -50 -40 -30 -20 34 36 38 40 42 44 46 48 Log Vraisemblance Temps (s) Assis Caché Marche Visible Marche Visible S’allonger - Visible S’allonger - Caché -90 -80 -70 -60 -50 -40 -30 -20 30 32 34 36 38 40 42 Log Vraisemblance Temps (s) Marche Visible Allongé Visible Marche Visible -100 -90 -80 -70 -60 -50 -40 -30 -20 30 35 40 45 50 55 60 65 Log Vraisemblance Temps (s) Marche Visible Allongé Caché Marche Visible 131Chapitre 10. Vers une implantation au domicile Marcher - Visible Marcher - Caché -75 -70 -65 -60 -55 -50 -45 -40 -35 -30 -25 28 28.5 29 29.5 30 30.5 31 Log Vraisemblance Temps (s) Marche Visible -70 -65 -60 -55 -50 -45 -40 -35 -30 -25 38 39 40 41 42 43 44 45 46 47 48 Log Vraisemblance Temps (s) Marche Visible Marche Visible Marche Caché Chuter+Allongé au sol - Visible Chuter+Allongé au sol - Caché -80 -70 -60 -50 -40 -30 -20 28 30 32 34 36 38 40 42 44 46 Log Vraisemblance Temps (s) Chute Visible Marche Visible Marche Allongé Visible Visible -90 -80 -70 -60 -50 -40 -30 -20 32 34 36 38 40 42 44 46 48 50 52 54 Log Vraisemblance Temps (s) Marche Visible Chute Caché Marche Visible Allongé Caché Monter - Visible Monter - Caché -90 -80 -70 -60 -50 -40 -30 -20 28 29 30 31 32 33 34 35 Log Vraisemblance Temps (s) Marche Visible Monté Visible Marche Visible -80 -75 -70 -65 -60 -55 -50 -45 -40 -35 -30 -25 32 34 36 38 40 42 44 46 Log Vraisemblance Temps (s) Monté Visible Monté Caché Marche Visible Monté Caché Marche Visible Figure 10.3 – Courbes des vraisemblances pour différentes activités réalisées par un sujet entièrement et partiellement visible. 13210.2. Cartographie des habitudes dans l’environnement 1 2 3 4 5 6 7 8 Figure 10.4 – Séquence dans laquelle le sujet réalise plusieurs activités. Donc, à partir des valeurs de vraisemblance, il est possible de reconnaître une situation où la personne est cachée en utilisant un seuil en dessous duquel la personne sera considérée cachée par un obstacle. Ainsi, nous pouvons discriminer les situations où la personne est entièrement visible et celles où elle ne l’est pas. 10.2.3 Cartographie des habitudes Pour apprendre l’environnement, nous découpons la scène en zones de 50 cm de côté. Nous demandons à une personne d’effectuer plusieurs activités dans l’appartement expérimental. Nous y avons placé deux fauteuils mis côte à côte. Ainsi, la personne a pu s’asseoir, s’allonger, marcher derrière les fauteuils en étant cachée et marcher devant les fauteuils en étant visible. Cette séquence est montrée à la figure 10.4. Les images représentent les différentes activités réalisées par la personne. Le corps de la personne est toujours en partie visible durant toutes ces activités. L’algorithme apprend, pour chaque zone de l’environnement, la fréquence des activités réalisées par la personne, la visibilité ou non du corps de la personne et les bords du champ de vision de la caméra. Plus précisément, l’algorithme observe si la personne est cachée ou entièrement visible, par rapport à la valeur prise par la vraisemblance. Si la personne est visible, le modèle apprend pour la zone de l’environnement où elle se trouve qu’il est possible, à cet endroit, d’effectuer l’activité détectée. Si la personne est cachée par un meuble, le modèle apprend que la case, où elle se trouve, est localisée derrière un obstacle. Pour finir, nous considérons un bord comme étant l’endroit où la personne sort entièrement du champ de vision de la caméra. La figure 10.5 représente l’apprentissage de l’environnement qui a été construit lorsque la personne a effectué les différentes activités dans l’appartement expérimental. Les cases blanches correspondent aux zones non explorées. La personne n’a jamais été détectée à ces endroits. La couleur bleue représente les zones où la personne a été détectée comme réalisant une activité dite « passive ». Nous avons représenté une chaise dans cette case, pour montrer que dans cette zone se trouve une chaise, car le MMC a détecté que la personne était soit dans l’état « Allongé Canapé », soit dans l’état « Assis ». La couleur rouge représente les zones où la personne a été détectée comme étant cachée par un obstacle. La couleur verte représente les zones où la personne a été détectée réalisant une activité dite « active ». Le MMC a détecté que la personne était soit dans l’état « Marche », soit dans l’état « Debout ». Les proportions des couleurs dans chaque 133Chapitre 10. Vers une implantation au domicile case représentent les proportions des situations détectées. Nous pouvons voir que les zones rouges se situent correctement derrière les deux fauteuils. Les zones bleues, représentant les activités « passives », sont situées à l’endroit où se trouvent les deux fauteuils. Cela nous montre que les activités « Allongé Canapé » et « Assis » ont été correctement identifiées au niveau des deux fauteuils. Les zones vertes, représentant les activités « actives », sont situées à l’endroit où la personne a marché en étant entièrement visible. Sur la carte, nous pouvons également voir l’inscription « bord », placée là où la personne est sortie entièrement du champ de vision de la caméra. Figure 10.5 – Carte de l’environnement représentant les habitudes apprises d’une personne (en blanc : zones non explorées, en bleu : zones passives, en vert : zones actives et en rouge : zones se trouvant derrière un meuble). Dans la réalité, au domicile des personnes âgées, nous imaginons apprendre au fur et à mesure les activités réalisées par la personne pour construire la carte de leur environnement et de leurs habitudes. 10.2.4 Détection des anomalies La carte peut être utilisée comme une méthode de détection d’anomalies. La cartographie des habitudes de la personne permet d’identifier, à différents intervalles de temps par exemple, l’évolution des activités de la personne. L’évolution des habitudes peut être un indicateur d’une éventuelle anomalie dans l’état général de la personne. D’autres anomalies peuvent être détectées, en utilisant la carte, pouvant faire l’objet d’une alerte envoyée aux personnes extérieures. Notamment, lorsque la personne disparait du champ de vision, la carte peut renseigner sur sa proximité avec une zone d’occlusion et nous indiquer un risque de chute non visible. Nous détectons les moments où la personne est entièrement cachée après avoir visité une case rouge. L’algorithme calcule le temps passé dans cette situation. Si le temps est supérieur à un certain seuil (de quelques secondes), nous en déduisons une possibilité de chute. La figure 10.6 correspond à une situation où une personne se trouve cachée derrière un fauteuil. Sur l’image de l’apprentissage de l’environnement en haut à gauche, le cercle représente 13410.3. Conclusion la dernière position du centre de masse qui a été détectée lorsque la personne était encore visible. Nous pouvons voir que la position du cercle se trouve au dessus d’une case rouge, signifiant que cette zone a été apprise comme étant une case où la personne peut potentiellement être cachée. Un compteur est lancé à partir du moment où la personne n’a plus été visible, pour déterminer s’il y a chute ou non. A l’inverse, la carte peut nous aider à prendre en compte les zones de sorties habituelles du champ de vision. La personne peut sortir du champ de vision en bord d’image mais aussi suite au franchissement d’une porte qui serait visible dans la scène. Si la personne disparait du champ de vision à proximité d’une zone de sortie habituelle, l’alerte ne sera pas déclenchée. bord Figure 10.6 – Carte de l’environnement sur laquelle est représentée la dernière position du centre de masse perçue par le système. 10.3 Conclusion Le couplage entre la fonctionnalité de détection des activités et la fonctionnalité permettant d’extraire les indicateurs de marche permet d’obtenir de nombreuses données qui peuvent servir à sécuriser la personne à son domicile et évaluer son degré de fragilité. En mettant des outils en place, tels que la détection des occlusions et l’apprentissage de l’environnement, nous renforçons la robustesse du système pour permettre son fonctionnement au domicile, dans un environnement où les occlusions de la personne sont très courantes. 135Chapitre 10. Vers une implantation au domicile La carte de l’environnement permet de connaître les zones d’occlusions habituelles en cumulant au cours du temps l’analyse de la vraisemblance. La détection d’une occlusion peut ensuite se faire en regardant la position de la personne sur la carte, en étant robuste aux éventuelles variations ponctuelles de vraisemblance. Elle peut être utilisée pour éviter d’éventuelles fausses détections, en prenant en compte les zones d’occlusions et les activités habituelles dans la zone où l’alerte a été détectée. Enfin, la carte de l’environnement donne une représentation spatiale des habitudes qui peut être utilisée pour analyser plus finement les évolutions des habitudes de la personne. 136Chapitre 11 Autres perspectives d’utilisation du système Sommaire 11.1 Différenciation des personnes . . . . . . . . . . . . . . . . . . . . . 137 11.2 Couplage de plusieurs capteurs . . . . . . . . . . . . . . . . . . . . 138 11.3 Observance des patients . . . . . . . . . . . . . . . . . . . . . . . . 139 11.4 Prévention de certains troubles . . . . . . . . . . . . . . . . . . . 139 11.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 Le système est actuellement conçu pour apporter une solution à la problématique du maintien à domicile des personnes âgées. Nous pensons que ce système pourrait avoir d’autres applications. Nous proposons ici quelques perspectives d’évolution et exemples d’utilisation du système. 11.1 Différenciation des personnes Le système actuel est prévu pour qu’il n’y ait qu’une seule personne dans le champ de vision de la caméra. Lorsque plusieurs personnes entrent dans le champ de vision de la caméra, le système analyse la marche et l’activité de l’une des personnes, qui n’est pas nécessairement la personne que l’on souhaite suivre. Ces erreurs d’attributions provoqueront des données aberrantes, pouvant gêner l’analyse de l’évolution des paramètres de la marche de la personne à suivre. Nous aimerions donc pouvoir distinguer les personnes entre elles pour analyser l’activité et la marche de la ou les personnes à suivre. Nous nous basons sur l’idée que chaque personne a une façon de marcher différente. Nous pourrions alors identifier chaque personne en prenant en compte un certain nombre de caracté- ristiques telles que sa taille, sa longueur de pas moyenne, sa cadence, sa vitesse de marche, la symétrie de sa marche, etc. La taille de la personne est une information que nous connaissons, car nous avons une méthode d’extraction du sol, comme présenté à la section 4.1, et une méthode de détection du point maximum du corps. Les longueurs, cadences et vitesses de marche sont également connues avec l’algorithme d’analyse de la marche. Et la symétrie des pas peut être obtenue en analysant la régularité des trajectoires du centre de masse. Nous pensons qu’il serait alors possible, à l’installation du système, d’apprendre les caractéristiques de la personne et de les mettre à jour au cours des évolutions. Ainsi, l’algorithme pourrait suivre plusieurs personnes en leurs attribuant les paramètres observés. 137Chapitre 11. Autres perspectives d’utilisation du système 11.2 Couplage de plusieurs capteurs Nous imaginons poser plusieurs caméras aux domiciles des personnes. Le positionnement des caméras serait effectué pour qu’il n’y ait pas de zone de recouvrement, car nous avons montré, au chapitre 7, que l’interférence entre caméras dégrade la précision des résultats. Par exemple, dans l’appartement expérimental, nous pensons installer les caméras comme montré à la figure 11.1. Une caméra serait installée pour couvrir le salon ayant une profondeur d’environ 7 m, une autre pour la cuisine et une dernière pour la chambre. Les caméras n’ayant pas de zone de recouvrement, certains endroits ne seront pas couverts. Les zones importantes où sont situés la table, les chaises, les fauteuils, le canapé et le lit doivent être vues. Une solution pour pallier au problème des zones non vues est d’effectuer les traitements concernant l’analyse de l’activité et l’apprentissage de l’environnement pour chaque caméra. Ainsi, lorsqu’une personne ne sera visible d’aucune caméra, sa dernière position visible sera recherchée. La carte de l’environnement de la caméra, où la personne est apparue visible, nous permettra de connaître la distance entre la personne et une zone d’occlusion ou une zone de bord du champ de vision. Si la personne était proche d’un bord, nous pourrons en conclure qu’elle se trouve, sûrement, entre deux champs de vision de caméra. Comme précédemment, nous pourrons ajouter la notion de temps et apprendre les habitudes de la personne. C’est-à-dire que nous pourrions apprendre combien de temps, la personne passe, généralement, entre chaque zone non visible par la caméra, pour savoir si la situation est normale. Figure 11.1 – Proposition d’emplacement de plusieurs caméras permettant de couvrir tout un appartement. Nous n’avons pas mis de caméra dans la salle de bains et les toilettes, à la figure 11.1, pour préserver l’intimité de la personne. L’idée serait de mettre d’autres capteurs, tels que des détecteurs d’ouvertures sur les robinets pour savoir si la personne est active. Ainsi, si aucune activité n’est détectée dans la pièce, nous pourrons en déduire un risque d’activité anormale. 13811.3. Observance des patients 11.3 Observance des patients Nous pensons que ce système pourrait servir au médecin, pour vérifier que le patient respecte, par exemple, les indications qui lui ont été données sur sa façon de marcher. En d’autres termes, le médecin pourrait évaluer l’observance du patient. Nous avons testé le système avec une personne âgée de 90 ans, ayant des problèmes d’équilibre. Nous lui avons demandé de marcher sans sa canne et avec sa canne. Quand la personne marche sans sa canne, la trajectoire du centre de masse n’est pas régulière comme illustré à la figure 11.2(a). A l’inverse, quand elle marche avec sa canne, la courbe du centre de masse suit une trajectoire sinusoïdale plus régulière, comme le montre la figure 11.2(b). Le médecin de cette personne lui a conseillé de marcher uniquement avec sa canne au domicile pour lui éviter de chuter et pour ne pas empirer ses problèmes d’équilibre. Ce système lui permettrait donc de pouvoir observer, à travers la régularité, ou non, de la trajectoire du centre de masse, si la personne respecte ses conseils. Ainsi, il pourrait prévenir les futures évolutions de l’état de la personne liées à la non utilisation de la canne, alors qu’actuellement le médecin constate les dégradations lorsque la personne chute. 550 600 650 700 750 800 850 900 47 48 49 50 51 52 53 54 Y (mm) Temps (s) (a) Marche sans la canne. 550 600 650 700 750 800 850 900 46 46.5 47 47.5 48 48.5 49 49.5 50 50.5 Y (mm) Temps (s) (b) Marche avec canne. Figure 11.2 – Représentation du centre de masse, sur l’axe vertical, d’une personne de 90 ans ayant des problèmes d’équilibre . En restant dans le même contexte, cet outil pourrait également être utile pour que le mé- decin évalue l’observance dans le cas des patients en rééducation, suite à un accident ou une amputation par exemple. Un des problèmes en rééducation est le retour des patients au domicile. Les personnes à l’hôpital suivent les exercices qui leur sont indiqués par le personnel soignant. Mais, une fois de retour chez eux, ils ne continuent pas l’entrainement instauré par le médecin. L’installation d’un tel système au domicile permettrait au médecin de revoir avec le patient chaque semaine, chaque mois, les trajectoires de son centre de masse. Il pourrait alors savoir si son patient continue la rééducation en marchant correctement chez elle et continue de progresser. 11.4 Prévention de certains troubles L’analyse de la marche est utilisée, dans le système actuel, comme indicateur de fragilité et de chute à venir. A la section 5.3, nous avons présenté certaines études montrant que l’analyse des troubles de la marche peut aider à détecter les risques d’hospitalisations, les troubles cognitifs et les démences. Nous pouvons imaginer, tout comme pour la prévention de la fragilité, d’évaluer au quotidien les paramètres de la marche et d’observer leur évolution dans le temps. Les personnes seraient alors orientées, assez rapidement, vers les spécialistes adéquates. Comme il a été dit à 139Chapitre 11. Autres perspectives d’utilisation du système la section 5.3.3, dans le cas des démences, l’un des problèmes majeurs est que bien souvent les personnes sont prises en charge trop tard. Avec un système analysant la marche au quotidien, nous pouvons alerter dès les premiers signes de troubles et les orienter vers des neuropsychologues par exemple, pour leur faire passer des tests cognitifs. Pour rendre le système capable de prévenir ces différents troubles, nous devons mettre en place des expérimentations pour connaître les seuils à partir desquelles nous alerterons les médecins. Aujourd’hui, il y a peu d’information à ce sujet, car l’évaluation de la marche n’est pas une pratique courante pour déceler un problème cognitif ou un risque d’hospitalisation. 11.5 Conclusion Ce système a été pensé pour répondre au besoin du maintien à domicile des personnes âgées. La détection de chutes des personnes âgées au domicile est une thématique pouvant concerner d’autres populations comme les personnes handicapées ou même les personnes épileptiques, dont un des symptômes possibles est la perte de connaissance entrainant des chutes. La chute est souvent brutale et peut entraîner des conséquences physiques empêchant la personne de se relever. Nous pouvons également imaginer que l’analyse de la marche puisse être détournée de sa fonction première qui était de prévenir les chutes et la fragilité des personnes âgées. L’analyse de la marche, au quotidien au domicile, peut être un outil supplémentaire pour le médecin pour prévenir les risques d’hospitalisations et de démences. Cet outil peut également permettre d’analyser les anomalies de symétrie de la marche et ainsi fournir une indication concernant l’évolution des progrès d’une personne suite à un accident par exemple. Sur le plan technique, nous avons identifié la possibilité d’utiliser les mêmes algorithmes pour distinguer et suivre plusieurs personnes en constatant que les caractéristiques extraites sont spécifiques à chacun. Une autre perspective d’évolution est le couplage de plusieurs caméras pour permettre une meilleure couverture du domicile. Ce couplage pose la question du non recouvrement des champs de vision et de la gestion des zones aveugles entre les caméras. Enfin, la fusion de l’information provenant de capteurs complémentaires installés dans des pièces telles que la salle de bains ou les toilettes permettrait de compléter la zone de surveillance tout en conservant l’acceptabilité du système. 140Conclusion Cette partie permet de montrer le couplage des deux contributions de la thèse, la détection d’activités et l’analyse de la marche, pour former un système permettant le maintien à domicile des personnes âgées. Le système pourrait envoyer une alerte aux personnes extérieures en cas de détection de l’activité « Chute » et des activités à risque, « Accroupi » et « Monté ». Il pourrait, également, évaluer au quotidien les paramètres de la marche de la personne et comparer ses activités à celles réalisées habituellement, dans le but d’évaluer l’état de fragilité de la personne. Ce système peut fonctionner pour une personne entièrement visible et cachée par des meubles. Une carte de l’environnement, représentant les habitudes des personnes et découpant la scène en zones d’activités possibles à cet endroit, est ajoutée au système pour le rendre plus robuste dans les cas des zones partiellement occultées par des meubles. Ce système peut également avoir d’autres applications. Il pourrait nous servir à distinguer les personnes. Actuellement, une seule personne est détectée dans la scène. Dans le cas où plusieurs personnes sont dans la scène, le système pourrait suivre la personne qui nous intéresse parmi d’autres, ou en suivre plusieurs et distinguer les informations appartenant à chacune d’entre elles. Cette distinction se ferait par l’apprentissage de caractéristiques discriminant chaque personne. Une autre utilité, que nous avons évoquée dans ce chapitre, est la possibilité de coupler les caméras entre elles et avec d’autres capteurs pour ainsi avoir des informations dans toutes les pièces de la maison. Nous avons, également, évoqué dans cette partie la possibilité d’utiliser ce système comme outil de suivi de l’observance pour les médecins. Ce système pourrait, aussi, prévenir d’autres risques comme les troubles cognitifs ou les risques d’hospitalisation. 141Conclusion 142Conclusion générale et perspectives 143L’augmentation du nombre de personnes âgées est un enjeu majeur de santé publique des prochaines années. Le maintien à domicile s’avère être une préoccupation importante pour les personnes âgées et leur famille. Mais le domicile n’est pas un endroit sans risque pour les personnes, il peut même être responsable de leur perte d’autonomie. Une des causes fréquentes de perte d’autonomie au domicile est la chute. Les séquelles physiques peuvent conduire la personne au handicap ou à des incapacités locomotrices, entrainant une perte d’autonomie pouvant mener au placement en institution. Les séquelles psychologiques sont aussi très fréquentes après une chute. Le risque de séquelles psychologiques augmente avec le temps passé au sol. Elles provoquent la diminution des activités et des sorties par peur de rechuter. Ces séquelles ont pour effet d’entraîner les personnes vers une perte d’autonomie et de compromettre leur maintien à domicile. Pour que les personnes âgées puissent rester le plus longtemps possible autonomes à leur domicile, il est nécessaire de les sécuriser chez elles en détectant les chutes pour intervenir le plus rapidement possible et diminuer les risques de séquelles physiques et psychologiques. En plus de détecter les chutes, nous pensons qu’il est également nécessaire de prévenir les chutes et plus généralement de prévenir les risques de fragilité de la personne. Actuellement, à l’hôpital, il est possible de mesurer, lors des consultations, le niveau de dépendance des personnes à l’aide de tests cliniques, analysant la marche de la personne. Ces mesures sont alors faites dans des conditions modifiées comparées aux mesures qui pourraient être faites au domicile. Notre objectif est donc de proposer un système permettant de détecter les chutes pour éviter l’aggravation des séquelles physiques et psychologiques et détecter, dans le milieu écologique, une détérioration du comportement locomoteur pour ainsi prévenir la fragilité des personnes. Ainsi, nous aurons une mesure quotidienne pour évaluer l’évolution de la personne. Dans cette thèse, nous proposons un système, pour détecter les chutes et prévenir la fragilité des personnes âgées. Pour détecter les chutes, nous avons développé un algorithme de reconnaissance des chutes et des comportements à risque pouvant entraîner une chute, comme monter sur une chaise ou s’accroupir. Pour prévenir la fragilité, nous avons développé un algorithme de détection d’activité, pour savoir si la personne continue de réaliser autant d’activité qu’à son habitude, et un algorithme d’analyse de la marche, pour évaluer l’évolution de ses comportements locomoteurs. Ces deux algorithmes permettent d’établir un degré de fragilité des personnes, comme les médecins le font en consultation avec leurs tests cliniques. En résumé, nous avons contribué à la conception d’un système d’aide au maintien à domicile des personnes âgées, par le développement d’un algorithme de détection d’activité (capable, entre autres, de nous détecter les chutes et les situations à risque) et le développement d’un algorithme d’analyse de la marche. Le système que nous avons imaginé doit, pour pouvoir être installé au domicile, être peu coûteux et ne pas perturber la vie quotidienne des personnes. Nous avons donc développé des algorithmes possibles à implémenter dans n’importe quelle machine bas coût et fonctionnant en temps réel pour pouvoir détecter les chutes le plus rapidement possible. Le système repose sur un capteur bas coût, non embarqué sur la personne. Nous avons choisi d’utiliser la caméra de profondeur de Microsoft. A partir de cette caméra, nous pouvons détecter la personne à son domicile avec un algorithme de soustraction du fond très simple et peu coûteux en temps de calcul. Le fond est appris à partir de l’image de profondeur et la personne est extraite de la scène par soustraction. Suivre la personne dans le temps peut requérir beaucoup de ressource, car chaque partie du corps a des mouvements indépendants qu’il est possible de suivre séparément. Par souci d’économie, nous extrayons quelques paramètres de l’image nous permettant de représenter la personne au cours du temps. Tout d’abord, nous nous intéressons au centre de masse, car certains auteurs ont mis en évidence que pour suivre le déplacement du corps en mouvement, la trajectoire du centre de masse est une information riche. A partir du centre de masse, nous pouvons obtenir des informations comme la position, la vitesse verticale et horizontale. Nous avons également 145extrait deux autres paramètres qui ont une importance pour détecter l’activité, il s’agit de la dispersion verticale de la silhouette et du point maximum du corps. Ces 5 paramètres, simples à extraire, sont les caractéristiques représentant la personne au cours du temps et sur lesquels nos algorithmes de détection d’activité et d’analyse de la marche sont fondés. Selon la littérature, l’analyse des paramètres de la marche, tels que les longueurs de pas, la cadence et la vitesse de marche sont de bons indicateurs de l’évolution de la fragilité des personnes âgées. L’algorithme d’extraction des paramètres de la marche d’une personne est fondé sur une seule caractéristique représentant la personne, à savoir le centre de masse. A partir du centre de masse et de la détection des maxima locaux sur l’axe vertical, nous obtenons les paramètres de la marche. En comparant les paramètres de la marche fournis par notre algorithme et ceux obtenus avec une méthode de référence, pour 10 sujets participant à l’expérience, nous obtenons des résultats assez précis puisque l’erreur obtenue est comparable à l’erreur due à la précision de la caméra. L’algorithme de détection d’activité, fondé sur des modèles de Markov cachés, permet de discriminer entre 8 et 9 activités selon le modèle construit. Il permet de reconnaître les activités s’asseoir, marcher, s’accroupir, se pencher, monter sur un obstacle, s’allonger sur un lit ou un canapé, chuter, être allongé au sol et certains modèles identifient aussi l’activité être debout. Les modèles construits distinguent les activités à partir de 3 ou 5 observations représentant les personnes. Les modèles reconnaissant 8 activités se basent sur la position et vitesse du centre de masse et la distribution verticale de la silhouette. Les modèles reconnaissant 9 états se basent sur 5 paramètres en ajoutant la vitesse horizontale et le point maximum du corps. Une base de données a été construite en demandant à 28 sujets de réaliser des situations correspondantes aux activités devant être reconnues. Les paramètres des différents modèles construits, comme les probabilités de transition, les probabilités initiales, les fonctions d’observations sont apprises à partir de quelques séquences de la base de données. Les séquences restantes de la base servent à vérifier la validité des modèles pour classifier correctement les activités. Ainsi, nous avons pu constater que les modèles discriminants 8 activités classifient correctement toutes les situations sans faire de fausses détections, notamment sans déclarer une chute alors qu’il n’y en a pas. Les modèles détectant 9 activités ont des bons taux de classifications également mais indiquent trop souvent l’activité chute alors qu’elle n’est pas réalisée. Malgré l’augmentation du nombre d’observations pour discriminer les activités (5 pour les modèles discriminant 9 états, et 3 pour ceux discriminant 8 activités), l’augmentation de la complexité du modèle ne permet pas d’être plus performant pour reconnaître les activités, au contraire cela ajoute du bruit. En revanche, les modèles discriminant les activités à partir de 5 observations ont l’avantage d’être plus robustes aux situations où la personne n’est pas entièrement visible. Ces situations sont considérées comme nouvelles, car la base de données ne contenait que des situations où la personne était entièrement visible. Les algorithmes de détection d’activité et d’analyse de la marche ont été testés sur quelques personnes âgées. Les tests montrent que certaines situations sont reconnues. Pour la suite, il est toutefois nécessaire de refaire des expérimentations avec des personnes âgées pour créer une nouvelle base de données adaptée à la bonne catégorie de personnes. De plus, même si les personnes âgées ont une façon de marcher différente des personnes jeunes, l’algorithme est toujours capable d’extraire les paramètres de la marche. Une étude plus approfondie permettra de déterminer si la précision des paramètres de la marche, extrait avec notre système, est similaire à la précision obtenue dans l’expérimentation avec les sujets jeunes. Ces premiers tests nous ont également permis de constater d’autres applications possibles du système. Notamment, l’observation de la trajectoire générale du centre de masse pourrait être un indicateur d’observance pour le médecin. La trajectoire pourrait également servir comme indicateur pour discriminer plusieurs 146personnes dans une scène, car chaque trajectoire présente des irrégularités qui sont propres à chaque personne. L’une des difficultés est de concevoir un système assez générique pour pouvoir être utilisé pour une population de personnes très disparate. Nous ne pouvons pas insérer manuellement des seuils à partir desquelles alerter les personnes d’une perte d’autonomie. Le système doit être capable de s’adapter à chaque personne, à partir d’une quantité suffisante de données, pour qu’il puisse apprendre ses habitudes au fur et à mesure. Il doit également apprendre les paramètres de la marche habituels et pouvoir ainsi détecter les seuils au-delà desquels l’évolution doit être considérée comme anormale. Ces seuils doivent être appris automatiquement par l’algorithme. L’algorithme d’analyse de la marche et celui de détection d’activité peuvent être regroupés dans un système unique. Chaque caméra placée dans une pièce de la maison analyserait l’activité de la personne. Chaque détection des activités « Chute », « Accroupi » ou « Monté Obstacle » serait signalée aux personnes extérieures pour intervenir le plus rapidement possible en cas de chute. Les détections de l’activité « Marche » permettraient de lancer l’algorithme d’extraction des paramètres et de calculer le temps passé dans cette activité. Ce temps serait alors comparé au temps passé dans les situations « Assis » et « Allongé ». L’analyse de l’évolution des paramètres de la marche et l’évolution des activités constituerait des informations dans le cadre de la prévention de la fragilité. Ce système a été pensé en vue d’être expérimenté au domicile des personnes âgées. Dans les objectifs, nous avions mentionné que nous voulions construire un système réaliste, utilisable. Se pose également la question de l’acceptation du système par les personnes. Peu d’études évaluent la perception qu’ont les personnes âgées face aux nouvelles technologies pouvant être installées à leur domicile. La question de l’acceptabilité est davantage nécessaire pour l’installation de caméras qui pose le problème du respect de la vie privée de la personne. Bellotti et Sellen [Bellotti and Sellen, 1993] précise qu’il est nécessaire de répondre à quatre catégories de questions lorsque l’on crée un système ayant pour objectif d’être installé au domicile. La réponse à ces problématiques peuvent influencer la façon dont la personne perçoit l’intrusion dans sa vie privée de la technologie, à savoir : quand et quelle information est enregistrée, comment l’information est enregistrée et une fois enregistrée ce qui lui arrive, qui a accès à l’information et comment l’information est utilisée. Les systèmes doivent être techniquement fiables et inspirer la confiance chez les utilisateurs. Malgré le peu d’articles existants sur l’acceptation des caméras à domicile, nous pouvons citer quelques auteurs proposant des débuts de réponse et des pistes à prendre en compte pour développer un système qui sera mieux accepté. Selon Caine et al. [Caine et al., 2005], les personnes seraient prêtes à faire des compromis par rapport à leur vie privée si cela leur permet de rester indépendantes. Melenhorst et al. [Melenhorst et al., 2004] ont également montré que les technologies perçues comme envahissantes pour l’intimité sont susceptibles d’être acceptées si elles sont considérées comme nécessaires pour répondre à un besoin. D’autres articles montrent que l’anonymat des images pourrait être une solution pour rendre les systèmes à base de caméra moins intrusifs dans l’intimité des personnes. Notamment l’étude de Demiris et al. [Demiris et al., 2009] consistait à demander à 10 personnes d’effectuer plusieurs scénarios représentants des activités de la vie quotidienne comme s’asseoir dans le salon, accueillir un visiteur, préparer un repas, etc. Ces séquences étaient enregistrées par deux webcams et analysées de façon à rendre les images anonymes. Pour cela, ils ont utilisé une méthode de soustraction du fond pour obtenir uniquement la silhouette. Puis ils ont créé une deuxième représentation en modifiant la silhouette pour la transformer en 3 dimensions. Les deux représentations étaient alors montrées aux personnes lors d’interviews. Les interviews ont été menées autour des quatre problématiques qui ont été décrites par Bellotti et Sellen. Les réponses aux interviews ont montré que les personnes s’intéressaient à comprendre comment le système fonctionne, comment est 147extraite la silhouette. Les interviews ont également indiqué que l’utilisation des vidéos réduite au simple suivi de la silhouette atténuait les préoccupations concernant le respect de la vie privée, car pour les personnes la vidéo restait anonyme. Par contre la représentation 3D n’a pas été appréciée. Selon les commentaires des personnes, cette représentation enlevait ce qui caractérise la personne, ils ne se reconnaissaient plus et donc ils ne voyaient pas comment le système pouvait être utilisé à des fins de sécurisation. Cela confirme la nécessité pour les utilisateurs d’avoir une compréhension non seulement de la sortie du système, mais aussi de ses processus et de son but. Elles ont également exprimé le désir de contrôler le fonctionnement du système en étant en mesure de l’éteindre et de l’allumer quand elles le désiraient. De plus, elles ont souligné l’importance de pouvoir déterminer elles-mêmes les personnes qui pourront avoir accès à l’information recueillie. Selon les personnes interrogées, certaines voulaient que les proches puissent avoir accès à l’information pour les rassurer et d’autres ne le souhaitaient pas. A la question de l’intérêt d’un tel système, neuf personnes sur dix ont répondu qu’elles ne voulaient pas installer ce système chez elles, car elles ne jugeaient pas en avoir besoin, elles se sentaient indépendantes. La seule personne qui voulait installer ce dispositif avait récemment chuté et a précisé qu’un tel système aurait été utile lors de sa chute pour alerter des personnes. Pour construire le système final, nous devons donc prendre en compte ces différentes préconisations pour que le système soit accepté. Les images doivent rester anonymes. Pour cela, le système est conçu pour que l’analyse des images puisse être faite localement et que seules les mesures d’activité soient transmises ou stockées. Nous ajouterons au système la possibilité de l’éteindre ou l’allumer. Cette action est non seulement utile pour la personne suivie mais aussi pour les personnes extérieures (personnel soignant et famille) qui pourraient avoir des réticences à être filmées. L’utilisateur doit être mis dans la boucle en lui expliquant l’intérêt qu’il a d’installer un tel système, lui expliquer le fonctionnement et lui laisser la décision de qui aura accès aux données. 148Annexe A Modèle de Markov caché Le modèle de Markov caché est la méthode paramétrique choisie pour développer un algorithme de détection d’activité. Avant de définir le formalisme, nous présentons le cas plus général des processus de Markov. Nous présentons également les différents algorithmes, de la littérature, utilisés pour l’apprentissage et l’inférence dans les modèles de Markov cachés. A.1 Définition des modèles de Markov cachés A.1.1 Processus de Markov Un modèle de Markov est un processus stochastique dont le but est de représenter l’évolution dans le temps de l’état d’un système. Les modèles de Markov suivent l’hypothèse de Markov, selon laquelle l’état courant ne dépend que d’un nombre fini et fixé d’états précédents. En d’autres termes, l’état dans lequel se trouve le système au temps t ne dépend que de l’état dans lequel il se trouvait aux temps t−1, t−2, . . . , t−n, n étant le nombre d’états antérieurs que l’on souhaite prendre en compte. Les processus satisfaisant cette hypothèse sont appelés processus de Markov ou chaînes de Markov. Deux éléments composent un modèle de Markov, les états et les transitions. Une transition est définie comme la probabilité de passer d’un état à un autre. A chaque pas de temps, une transition est appliquée au modèle qui modifie son état selon une certaine probabilité. La représentation d’un modèle de Markov, à deux états, est présentée à la figure A.1. Sur cette figure sont représentés deux états et les probabilités de transition entre chaque état. Par exemple, la probabilité de passer de l’état 1 à l’état 2 est de 70 %. Etat 1 Etat 2 0,7 0,3 0,8 0,2 Figure A.1 – Exemple de modèle de Markov à deux états. Les modèles de Markov permettent d’étudier l’évolution de la séquence d’états produite par le modèle, et surtout sa probabilité d’apparition. C’est pourquoi, une autre façon de représenter les chaines de Markov est fondée sur le temps. La chaine de Markov à la figure A.2 représente une séquence d’états de 0 à t, où Xi représente l’état à l’instant i. 149Annexe A. Modèle de Markov caché X0 X1 Xt Figure A.2 – Représentation graphique d’une chaine de Markov. A.1.2 Modèle de Markov caché Un modèle de Markov caché (MMC), en anglais Hidden Markov Model (HMM), est basé sur un modèle de Markov avec la particularité que les états ne sont pas directement observables [Rabiner, 1989]. Chaque état conditionne les observations qui sont visibles et qui permettront d’estimer l’état courant. Un MMC étudie l’évolution d’une séquence d’observations mesurées dans un système, comme représenté à la figure A.3. La figure illustre un MMC évoluant dans le temps avec Xt les états cachés, représentés en gris, et Ot les observations. Un MMC est défini par : — un ensemble d’états ; — une matrice aij = P(Xt = j|Xt−1 = i) représentant toutes les probabilités de transition entre chaque paire d’états ; — une probabilité initiale πi = P(X0 = i) pour chaque état i, qui est la probabilité a priori que le système se trouve dans l’état i à t = 0 ; — une fonction d’observation bi(o) = P(Ot = o|Xt = i). X0 O0 X1 O1 Xt Ot Figure A.3 – Représentation graphique d’une chaine de Markov cachée, avec Xt le processus Markovien caché et Ot la séquence d’observations correspondantes. A.2 Algorithmes d’apprentissage et d’inférence L’objectif de cette section est de présenter les algorithmes capables d’inférer, pour un MMC, dans quel état se trouve la personne à chaque pas de temps. Les MMC peuvent être utilisés soit individuellement, soit par combinaison. Pour résoudre les systèmes basés sur un unique MMC, les algorithmes d’inférences couramment utilisés sont les algorithmes Forward-Backward et de Viterbi [Rabiner, 1989]. Pour résoudre les systèmes à base de combinaison de MMC, un algorithme d’inférence et un algorithme d’apprentissage, tel que l’algorithme de Baum-Welch, sont nécessaires. A.2.1 Inférence pour le cas du MMC unique Deux algorithmes peuvent résoudre l’inférence, l’algorithme Forward-Backward et l’algorithme de Viterbi. Algorithme Forward-Backward L’algorithme Forward-Backward est utilisé ici pour calculer la probabilité d’être dans tel ou tel état, connaissant les observations et le modèle. Le modèle constitue un ensemble d’hypothèses 150A.2. Algorithmes d’apprentissage et d’inférence que l’on définit comme vrai. La probabilité de chaque état est représentée par la variable γ et l’équation qui en découle est la suivante : γt(i) = P(qt = i|O, λ) avec qt l’état au temps t, O la séquence d’observation O = (o1o2 . . . oT ) et λ le modèle. La variable γ calcule donc la probabilité d’être dans l’état i au temps t, sachant la séquence d’observation O et le modèle λ. Pour calculer la variable γ, il est nécessaire de calculer des variables intermédiaires obtenues grâce à deux étapes, Forward et Backward. La phase Forward permet de calculer la probabilité jointe d’observer une séquence de valeurs passées et d’être dans tel état. La phase Backward calcule la probabilité d’être dans tel état sachant les observations futures. Ainsi, la probabilité γ de l’état sachant les observations passées et futures est calculée à partir des deux variables obtenues avec Forward et Backward. Forward L’idée est de calculer la probabilité jointe de la séquence d’observation O = (o1, o2, . . . , ot) (jusqu’au temps t) et de l’état i au temps t, sachant le modèle λ. L’équation à résoudre est la suivante : αt(i) = P(o1, o2, . . . , ot , qt = i|λ). La première étape de l’algorithme initialise la probabilité α comme la probabilité jointe de l’état i et de l’observation initiale o1 : α1(i) = πibi(o1), pour 1 ≤ i ≤ N c’est-à-dire que la valeur α de l’état i au temps t = 1 est égale à πi , la probabilité initiale de l’état i, multipliée par bi(o1), la probabilité d’observation de l’état i. Pour l’induction allant de t > 1 à t = T, le α est égal à : αt+1(j) = "X N i=1 αt(i)aij# bj (ot+1), pour 1 ≤ t ≤ T − 1 et pour 1 ≤ j ≤ N, avec N le nombre d’état, aij la probabilité de transition entre i et j, bj (ot+1) la probabilité d’observation de l’état j au temps t + 1. Ce calcul est représenté graphiquement à la figure A.4. Cette figure est une illustration, pour un MMC à trois états, du calcul de la probabilité effectué pour αt+1(j = 1) par Forward. Dans l’implémentation, une étape de normalisation est nécessaire pour permettre aux valeurs de rester dans un domaine représentable numériquement, soit : α 0 t+1(j) = αt+1(j) hPN j=1 αt+1(j) i, pour 1 ≤ j ≤ N. Backward L’idée est de calculer la probabilité d’être dans un état sachant les observations futures. Contrairement à Forward, la probabilité à l’instant t est calculée à partir de la probabilité à l’instant t + 1 c’est-à-dire que le calcul se fait à partir du dernier pas de temps T jusqu’au début de la séquence, sachant le modèle λ. L’équation à résoudre est : βt(i) = P(ot+1, ot+2, . . . , oT , qt = i|λ). 151Annexe A. Modèle de Markov caché α(i = 1) α(i = 2) α(i = 3) α(j = 1) t t + 1 i = 1 i = 2 i = 3 j = 1 j = 2 j = 3 a11 a21 a31 Figure A.4 – Représentation du calcul αt+1(j = 1) par l’algorithme Forward pour un modèle à trois états. A l’initialisation, le β vaut 1 pour tous les états : βT (i) = 1, pour 1 ≤ i ≤ N. Pour l’induction allant de t = T − 1 à t = 1, le β est égal à : βt(i) = X N j=1 aij bj (ot+1)βt+1(j), pour t = T − 1, T − 2, . . . , 1 et pour 1 ≤ i ≤ N, avec N le nombre d’état, aij la probabilité de transition entre i et j, bj (ot+1) la probabilité d’observation de l’état j au temps t + 1. Ce calcul est représenté graphiquement à la figure A.5. Cette figure est une illustration, pour un MMC à trois états, du calcul de la probabilité effectuée pour βt(i = 1) par Backward. Dans l’implémentation, une étape de normalisation est effectuée à chaque pas de temps soit : β 0 t (i) = βt(i) hPN i=1 βt(i) i, pour 1 ≤ i ≤ N. Couplage Forward-Backward Après avoir calculé α et β pour chaque pas de temps, γ est alors déduit à partir de ces deux valeurs pour ainsi donner les probabilités d’apparition de chaque état de t = 1 à t = T, sachant les observations passées et futures et le modèle. L’équation à calculer est la suivante : γt(i) = αt(i)βt(i) PN i=1 αt(i)βt(i) , pour 1 ≤ i ≤ N. L’état le plus probable à chaque pas de temps est déduit en prenant la valeur du γ la plus grande. M ax(γt(i)) conserve l’état parmi tous les états au temps t ayant le γ le plus élevé. Ainsi dans notre cas, nous obtiendrons l’état dans lequel la personne est passée. Et comme à chaque état du MMC correspond une activité, ainsi nous obtenons, en conservant l’état ayant la plus grande probabilité, l’activité qui est réalisée par la personne. 152A.2. Algorithmes d’apprentissage et d’inférence β(j = 1) β(j = 2) β(j = 3) β(i = 1) t t + 1 i = 1 i = 2 i = 3 j = 1 j = 2 j = 3 a11 a12 a13 Figure A.5 – Représentation du calcul pour l’état βt(i = 1) par l’algorithme Backward pour un modèle à trois états. Algorithme de Viterbi L’algorithme de Viterbi, à la différence de l’algorithme Forward-Backward, fournit le « chemin » le plus probable, c’est-à-dire la meilleure séquence d’état (q1, q2, . . . , qT ), sachant les observations et le modèle. Pour résoudre ce problème, il est nécessaire de passer par le calcul de δ défini par : δt(i) = max q1,q2,...,qt−1 P[q1q2 . . . qt−1, qt = i, o1o2 . . . ot |λ]. A travers le δt(i), cet algorithme calcule pour chaque état caché du modèle, le chemin le plus probable atteignant l’état i au temps t. Pour mémoriser le chemin, l’état qui maximise les probabilités à chaque pas de temps sera conservé à travers la variable ψ. Au temps t = 1, l’initialisation est définie par : δ1(i) = πibi(o1), pour 1 ≤ i ≤ N ψ1(i) = 0. Pour l’induction allant de t > 1 à t = T : δt(j) = max 1≤i≤N [δt−1(i)a(ij)] bj (ot), pour 2 ≤ t ≤ T, ψt(j) = arg max 1≤i≤N [δt−1(i)a(ij)] et pour 1 ≤ j ≤ N. ψt(j) est donc la mémorisation de l’état précédent (au temps t − 1) appartenant au meilleur chemin qui mène à l’état j au temps t. La figure A.6 représente le calcul de δ et de ψ pour l’état j au temps t, effectué par l’algorithme de Viterbi pour un modèle à trois états. Le rouge symbolise l’état et la transition atteignant l’état j qui a la plus grande probabilité. A l’implémentation, à chaque pas de temps et pour chaque état, il est nécessaire de normaliser : δ 0 t (j) = δt(j) PN j=1 δt(j) , pour 1 ≤ j ≤ N. Au dernier pas de temps, pour t = T, la plus grande probabilité entre tous les états est calculée : P ∗ = max 1≤i≤N [δT (i)], 153Annexe A. Modèle de Markov caché δ(i = 1) δ(i = 2) δ(i = 3) δ(j = 1) ψ(j = 1) t − 1 t i = 1 i = 2 i = 3 j = 1 j = 2 j = 3 a11 a21 a31 Figure A.6 – Représentation du calcul δt(j = 1) et ψt(j = 1) par l’algorithme de Viterbi pour un modèle à trois états. q ∗ T = arg max 1≤i≤N [δT (i)]. Une dernière étape est nécessaire, il s’agit d’une étape de rétro-propagation. En prenant la plus haute probabilité parmi les états du temps t = T, on retrace le meilleur chemin en remontant jusqu’au premier pas de temps : q ∗ t = ψt+1(q ∗ t+1), pour t = T − 1, T − 2, . . . , 1. La figure A.7 représente les différentes étapes effectuées par l’algorithme de Viterbi. A chaque étape de l’induction, l’algorithme se souvient de l’état le plus probable (rond rouge) et pour chaque état il se souvient de son prédécesseur le plus probable (transition rouge).Cette figure représente également la rétro-propagation à partir du dernier temps t = T sur 4 pas de temps. Le chemin le plus probable trouvé par l’algorithme de Viterbi, sur cette figure, est représenté en vert. Les chiffres correspondent aux différentes itérations de l’étape d’induction (en rouge) et de l’étape de rétro-propagation (en vert). Nous pouvons remarquer que le chemin le plus probable ne correspond pas forcément aux transitions des états les plus probables (représentées en rouge) définies par les calculs de l’induction. t = 1 T − 2 T − 1 T 1 2 3 3 2 1 Figure A.7 – Représentation du calcul de l’algorithme de Viterbi avec la rétro-propagation (en vert) pour quatre pas de temps successifs et trois états. 154A.2. Algorithmes d’apprentissage et d’inférence A.2.2 Apprentissage et inférence pour les systèmes de plusieurs MMC L’utilisation de MMC combiné permet de ne pas insérer de connaissance a priori. L’objectif est de générer un modèle appris en fonction des données qui lui sont fournies. La solution consiste à construire un modèle qui maximise la vraisemblance, c’est-à-dire la probabilité d’apparition d’une séquence d’observations O = (o1, o2, . . . , oT ). En d’autres termes, l’objectif est de trouver le modèle qui explique le mieux la séquence. Pour construire un modèle collant au plus près des données, il est nécessaire d’apprendre les paramètres du modèle qui sont les probabilités initiales, les probabilités de transition et les paramètres de la fonction d’observation (moyenne et covariance de chaque état). Pour estimer les paramètres, l’algorithme de Baum-Welch est utilisé. Cet algorithme présente le défaut de ne pas toujours converger vers la même solution. Apprentissage L’algorithme de Baum-Welch est un cas particulier de l’algorithme Espérance-Maximisation, qui sont les deux étapes à appliquer itérativement pour apprendre les paramètres du modèle. La première étape permet d’estimer la séquence d’états correspondant aux observations à partir du modèle courant. La seconde étape consiste à ré-estimer les paramètres du modèle pour augmenter sa vraisemblance. La base d’apprentissage est composée d’un ensemble d’exemples pour chaque état à modéliser. Espérance Cette première étape consiste à calculer pour chaque séquence, les probabilités a postériori. Cette étape est réalisée avec l’algorithme Forward-Backward décrit précédemment à la section A.2.1. Le résultat de cette étape est pour chaque séquence s de longueur Ts, composant les exemples de l’activité à modéliser, les valeurs α s t β s t et γ s t . Pour la première itération, les valeurs prises par le modèle sont des valeurs d’initialisation arbitraires. Pour les probabilités initiales de chaque état, nous les fixons à l’identique. Concernant la matrice de transition, toutes les probabilités sont fixées également de manière équivalente. Concernant les observations, la moyenne et la covariance, nécessaires pour former les gaussiennes multivariées de chaque état et chaque MMC, doivent être initialisées. Les moyennes pour la position du centre de masse, la vitesse, et la distribution verticale sont initialisées en prenant, de manière aléatoire, les valeurs d’une observation correspondant à une activité. A partir de ces moyennes tirées au hasard, la covariance est calculée pour chaque état. Pour les itérations suivantes, l’algorithme consiste à reprendre les paramètres estimés par l’étape de maximisation. Maximisation Dans cette étape, la moyenne et la covariance sont alors recalculées de façon à maximiser la vraisemblance, pour faire en sorte que le modèle soit plus proche de la réalité. En d’autres termes, l’ensemble des MMC est réévalué par rapport à la séquence d’observations sur laquelle nous voulons l’entraîner. L’estimation des paramètres est renouvelée jusqu’à ce qu’il y ait convergence. Réestimation de la matrice de transition Les probabilités de transition sont recalculées en comptant les transitions à partir des données obtenues à l’étape Espérance. L’équation suivante permet de calculer ξt(i, j), qui est la probabilité de transition entre les états i et j entre les instants 155Annexe A. Modèle de Markov caché t et t + 1. ξ s t (i, j) = α s t (i)aij bj (o s t+1)β s t+1(j) PN k=1 PN l=1 α s t (k)aklbl(o s t+1)β s t+1(l) où s est le numéro de la séquence dans la base d’apprentissage. La probabilité de transition entre i et j est ensuite obtenue en faisant la somme sur toutes les séquences des ξ s t (i, j) divisée par la somme des γ s t (i) qui représente la probabilité de se trouver dans l’état i : aij = PS s=1 PTs−1 t=1 ξ s t (i, j) PS s=1 PTs−1 t=1 γ s t (i) . Réestimation de la matrice des probabilités initiales La probabilité initiale est obtenue en regardant la probabilité des différents états en début de séquences dans les données de l’étape Espérance : πi = PS s=1 γ s 0 (i) S . Réestimation de la matrice des probabilités d’observations. Les moyennes et covariances des fonctions d’observations sont recalculées pour chaque état en prenant en compte à chaque instant la probabilité d’appartenir à l’état : µi = PS s=1 PTs t=1 γ s t (i)o s t PS s=1 PTs t=1 γ s t (i) , Σi = PS s=1 PTs t=1 γ s t (i)(o s t − µi)(o s t − µi) 0 PS s=1 PTs t=1 γ s t (i) . Inférence L’inférence est réalisée en calculant à chaque pas de temps la vraisemblance du modèle. L’état le plus probable est celui qui correspond au modèle donnant la plus grande vraisemblance. La vraisemblance L se calcule en reprenant les valeurs de l’étape Forward en fin de séquence : L = X N i=1 αT (i). Dans l’implémentation, il est habituel d’utiliser le logarithme de la vraisemblance qui permet de garder les valeurs dans un domaine représentable numériquement. Et comme les valeurs α ont été normalisées à chaque pas de temps, le logarithme de la vraisemblance se calcule en faisant la somme des logarithmes des coefficients de normalisation. 156Publications [1] Amandine Dubois and François Charpillet. A gait analysis method based on a depth camera for fall prevention. In 36th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC). IEEE, 2014. [2] Amandine Dubois and François Charpillet. Detecting and preventing falls with depth camera, tracking the body center. In 12th European Association for the Advancement of Assistive Technology in Europe (AAATE), 2013. [3] Amandine Dubois and François Charpillet. Human activities recognition with RGB-Depth camera using HMM. In 35th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), pages 4666–4669. IEEE, 2013. [4] Amandine Dubois and François Charpillet. Automatic fall detection system with a RGB-D camera using a Hidden Markov Model. In 11th International Conference on Smart Homes and Health Telematics (ICOST), pages 259–266, 2013. [5] Amandine Dubois and François Charpillet. Système d’évaluation de la fragilité chez les personnes âgées. In Journée d’étude sur la TéléSanté (JETSAN). IEEE france, 2013. [6] Amandine Dubois and François Charpillet. Tracking mobile objects with several kinects using HMMs and component labelling. In Workshop Assistance and Service Robotics in a human environment, International Conference on Intelligent Robots and Systems (IROS). IEEE, 2012. [7] Amandine Dubois, Abdallah Dib, and François Charpillet. Using HMMs for discriminating mobile from static objects in a 3D occupancy grid. In 23rd International Conference on Tools with Artificial Intelligence (ICTAI), pages 170–176. IEEE, 2011. 157BIBLIOGRAPHIE 158Références [Aggarwal and Ryoo, 2011] J.K. Aggarwal and Michael S. Ryoo. Human activity analysis : A review. ACM Computing Surveys, 43(3), 2011. [Alexander et al., 1997] Neil B. Alexander, Jessica Ulbrich, Aarti Raheja, and Dwight Channer. Rising from the floor in older adults. Journal of the American Geriatrics Society, 45(5) :564– 569, 1997. [Allard and Blanchi, 1996] Paul Allard and Jean-Pierre Blanchi. Analyse du mouvement humain par la biomécanique. Décarie, 1996. [Anderson et al., 2006] Derek Anderson, James M. Keller, Marjorie Skubic, Xi Chen, and Zhihai He. Recognizing falls from silhouettes. In 28th Annual International Conference of the Engineering in Medicine and Biology Society, (EMBS), pages 6388–6391. IEEE, 2006. [Anderson et al., 2009] Derek Anderson, Robert H. Luke, James M. Keller, Marjorie Skubic, Marilyn Rantz, and Myra Aud. Linguistic summarization of video for fall detection using voxel person and fuzzy logic. Computer Vision and Image Understanding, 113(1) :80–89, 2009. [André et al., 2001] J.-M. André, J. Paysant, N. Martinet, J-M. Beis, and C. Beyaert. Georges Gilles de la Tourette, initiateur de l’enregistrement de la marche dans les maladies du système nerveux. Revue neurologique, 157(3) :293–296, 2001. [Auvinet et al., 2003] Bernard Auvinet, Gilles Berrut, Claude Touzard, Nadine Collet, Denis Chaleil, and Eric Barrey. Gait abnormalities in elderly fallers. Journal of Aging and Physical Activity, pages 40–52, 2003. [Auvinet et al., 2011b] Edouard Auvinet, Franck Multon, Alain Saint-Arnaud, Jacqueline Rousseau, and Jean Meunier. Fall detection with multiple cameras : An occlusion-resistant method based on 3-D silhouette vertical distribution. IEEE transactions on information technology in biomedicine : a publication of the IEEE EMBS, 15(2) :290–300, 2011. [Avidan, 2004] Shai Avidan. Support vector tracking. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 26(8) :1064–1072, 2004. [Bellotti and Sellen, 1993] Victoria Bellotti and Abigail Sellen. Design for privacy in ubiquitous computing environments. In Proceedings of the Third European Conference on ComputerSupported Cooperative Work (ECSCW), pages 77–92. Springer, 1993. [Bian et al., 2012] Zhen-Peng Bian, Lap-Pui Chau, and Nadia Magnenat-Thalmann. Fall detection based on skeleton extraction. In Proceedings of the 11th ACM SIGGRAPH International Conference on Virtual-Reality Continuum and its Applications in Industry, pages 91–94. ACM, 2012. [Blanpain and Chardon, 2010] Nathalie Blanpain and Olivier Chardon. Projections de population à l’horizon 2060. Un tiers de la population âgé de plus de 60 ans, INSEE. Octobre 2010. 159BIBLIOGRAPHIE [Bourke et al., 2007] A.K. Bourke, J.V. O’Brien, and G.M. Lyons. Evaluation of a thresholdbased tri-axial accelerometer fall detection algorithm. Gait & posture, 26(2) :194–199, 2007. [Bramell-Risberg et al., 2005] Eva Bramell-Risberg, G-B Jarnlo, Lennart Minthon, and Sölve Elmståhl. Lower gait speed in older women with dementia compared with controls. Dementia and geriatric cognitive disorders, 20(5) :298–305, January 2005. [Caine et al., 2005] Kelly E. Caine, Wendy A. Rogers, and Arthur D. Fisk. Privacy perceptions of an aware home with visual sensing devices. In Proceedings of the Human Factors and Ergonomics Society Annual Meeting, volume 49, pages 1856–1858. SAGE Publications, 2005. [Camicioli et al., 1998] R. Camicioli, D. Howieson, B. Oken, G. Sexton, and J. Kaye. Motor slowing precedes cognitive impairment in the oldest old. American Academy of Neurology, 50(5) :1496–1498, 1998. [Comaniciu, 2002] Dorin Comaniciu. Bayesian kernel tracking. In Pattern Recognition, pages 438–445. Springer, 2002. [Condouret et al., 1987] J. Condouret, M. Iehl, C. F. Roques, P. Dupui, F. Montoya, B. Pages, P. Bessou, and M. Pujol. Analyse spatio-temporelle de la marche par la technique de Bessou : résultats chez l’hémiplégique. In Annales de réadaptation et de médecine physique, volume 30, pages 267–278. Elsevier, 1987. [Deeb et al., 2012] Rada Deeb, Félix Lédée, Elodie Desserée, and Saida Bouakaz. Méthode robuste pour la détection de chute dans un environnement non-contrôlé. In Actes de la conférence RFIA, Reconnaissance des Formes et Intelligence Artificielle, 2012. [Demiris et al., 2009] George Demiris, Debra Parker Oliver, Jarod Giger, Marjorie Skubic, and Marilyn Rantz. Older adults’ privacy considerations for vision based recognition methods of eldercare applications. Technology and Health Care, 17(1) :41–48, 2009. [Enzweiler and Gavrila, 2009] Markus Enzweiler and Dariu M. Gavrila. Monocular pedestrian detection : Survey and experiments. Transactions on Pattern Analysis and Machine Intelligence, 31(12) :2179–2195, 2009. [Faivre, 2003] Arnaud Faivre. Conception et validation d’un nouvel outil d’analyse de la marche. PhD thesis, Université de Franche-Comté, 2003. [Ferri et al., 2006] Cleusa P. Ferri, Martin Prince, Carol Brayne, Henry Brodaty, Laura Fratiglioni, Mary Ganguli, Kathleen Hall, Kazuo Hasegawa, and Hugh Hendrie. Global prevalence of dementia : a Delphi consensus study. The Lancet Neurology, 2006. [Fried et al., 2001] Linda P. Fried, Catherine M. Tangen, Jeremy Walson, Anne B. Newman, Calvin Hirsch, John Gottdiener, Teresa Seeman, Tracy Russell, Willem J. Kop, Gregory Burke, and Mary Ann McBurnie. Frailty in older adults : Evidence for a phenotype. Journal of Gerontology Series A : Biological Sciences and Medical Sciences, 56(3) :146–156, 2001. [Fusco, 2008] Nicolas Fusco. Analyse, modélisation et simulation de la marche pathologique. PhD thesis, Université Rennes 2, 2008. [Gaxatte et al., 2011] C. Gaxatte, T. Nguyen, F. Chourabi, J. Salleron, V. Pardessus, I. Delabrière, A. Thévenon, and F. Puisieux. Fear of falling as seen in the multidisciplinary falls consultation. Annals of physical and rehabilitation medicine, 54(4) :248–258, 2011. [Gillet, 2004] Christophe Gillet. Analyse Biomécanique de la marche et proposition de classes de marcheurs -Application au portage de sacs à dos. PhD thesis, Université de Valenciennes et du Hainaut-Cambrésis, 2004. 160BIBLIOGRAPHIE [Gómez-Conde, 2011] Iván Gómez-Conde. Simple human gesture detection and recognition using a feature vector and a real-time histogram based algorithm. Journal of Signal and Information Processing, 02(04) :279–286, 2011. [Grewe and Kak, 1995] Lynne Grewe and Avinash C. Kak. Interactive learning of a multipleattribute hash table classifier for fast object recognition. Computer Vision and Image Understanding, 61(3) :387–416, 1995. [Guimaraes and Isaacs, 1980] R.M. Guimaraes and Bernard Isaacs. Characteristics of the gait in old people who fall. Disability & Rehabilitation, 2(4) :177–180, 1980. [Hageman and Blanke, 1986] Patricia A. Hageman and Daniel J. Blanke. Comparison of gait of young women and elderly women. Physical therapy, 66(9) :1382–1387, September 1986. [Hagler et al., 2010] Stuart Hagler, Daniel Austin, Tamara L. Hayes, Jeffrey Kaye, and Misha Pavel. Unobtrusive and ubiquitous in-home monitoring : A methodology for continuous assessment of gait velocity in elders. IEEE transactions on bio-medical engineering, 57(4) :813–820, April 2010. [Harris and Stephens, 1988] Chris Harris and Mike Stephens. A combined corner and edge detector. In 4th Alvey Vision Conference, volume 15, pages 147–151. Manchester, UK, 1988. [Hausdorff et al., 2001] Jeffrey M. Hausdorff, Dean A. Rios, and Helen K. Edelberg. Gait variability and fall risk in community-living older adults : A 1-year prospective study. Archives of physical medicine and rehabilitation, 82(8) :1050–1056, August 2001. [Hewson et al., 2007] David J. Hewson, Jacques Duchêne, François Charpillet, Jamal Saboune, Valérie Michel-Pellegrino, Hassan Amoud, Michel Doussot, Jean Paysant, Anne Boyer, and Jean-Yves Hogrel. The PARAchute project : remote monitoring of posture and gait for fall prevention. EURASIP Journal on Advances in Signal Processing, 2007. [Holtzer et al., 2006] Roee Holtzer, Joe Verghese, Xiaonan Xue, and Richard B. Lipton. Cognitive processes related to gait velocity : Results from the einstein aging study. Neuropsychology, 20(2) :215–223, March 2006. [Jansen et al., 2007] Bart Jansen, Frederik Temmermans, and Rudi Deklerck. 3D human pose recognition for home monitoring of elderly. In 29th Annual International Conference of the Engineering in Medicine and Biology Society (EMBS), pages 4049–4051. IEEE, January 2007. [Jepson et al., 2003] Allan D. Jepson, David J. Fleet, and Thomas F. El-Maraghi. Robust online appearance models for visual tracking. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 25(10) :1296–1311, 2003. [Ke et al., 2013] Shian-Ru Ke, Hoang Le Uyen Thuc, Yong-Jin Lee, Jenq-Neng Hwang, Jang-Hee Yoo, and Kyoung-Ho Choi. A review on video-based human activity recognition. Computers, 2(2) :88–131, 2013. [Kirtley, 2006] Christopher Kirtley. Clinical Gait Analysis : Theory and practice. Elsevier Health Sciences, 2006. [Kuo et al., 2007] Hsu-Ko. Kuo, Suzanne G. Leveille, Yau-Hua Yu, and William P. Milberg. Cognitive function, habitual gait speed, and late-life disability in the national health and nutrition examination survey (NHANES) 1999-2002. Gerontology, 53(15) :102–110, 2007. [Lowe, 2004] David G. Lowe. Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision, 60(2) :91–110, 2004. [Marey, 1894] Etienne-Jules Marey. Le mouvement. Masson, 1894. 161BIBLIOGRAPHIE [Martin et al., 2004] David R. Martin, Charless C. Fowlkes, and Jitendra Malik. Learning to detect natural image boundaries using local brightness, color, and texture cues. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 26(5) :530–549, 2004. [Melenhorst et al., 2004] Anne-Sophie Melenhorst, Arthur D. Fisk, Elizabeth D. Mynatt, and Wendy A. Rogers. Potential intrusiveness of aware home technology : Perceptions of older adults. In Proceedings of the Human Factors and Ergonomics Society Annual Meeting, volume 48, pages 266–270. SAGE Publications, 2004. [Moravec, 1979] Hans P. Moravec. Visual mapping by a robot rover. In Proceedings of the 6th International Joint Conference on Artificial Intelligence-Volume 1, pages 598–600. Morgan Kaufmann Publishers Inc., 1979. [Nait-Charif and McKenna, 2004] H. Nait-Charif and S.J. McKenna. Activity summarisation and fall detection in a supportive home environment. In 17th International Conference on Pattern Recognition (ICPR), volume 4, pages 323–326. IEEE, 2004. [Noury et al., 2007] Norbert Noury, Anthony Fleury, Pierre Rumeau, A.K. Bourke, G.O. Laighin, Vincent Rialle, and J.E. Lundy. Fall detection-principles and methods. In Engineering in Medicine and Biology Society (EMBS), 29th Annual International Conference of the IEEE, pages 1663–1666. IEEE, 2007. [Papageorgiou et al., 1998] Constantine P. Papageorgiou, Michael Oren, and Tomaso Poggio. A general framework for object detection. In International conference on Computer Vision, 1998, pages 555–562. IEEE, 1998. [Pepin et al., 2009] Nicolas Pepin, Olivier Simonin, and François Charpillet. Intelligent tiles : Putting situated multi-agents models in real world. In International Conference on Agents and Artificial Intelligence (ICAART’09), pages 513–519, 2009. [Perry and Davids, 1992] Jacquelin Perry and Jon R. Davids. Gait analysis : Normal and pathological function. Journal of Pediatric Orthopaedics, 12(6) :815, 1992. [Peursum et al., 2005] Patrick Peursum, Hung H. Bui, Svetha Venkatesh, and Geoff West. Robust recognition and segmentation of human actions using HMMs with missing observations. EURASIP Journal on Applied Signal Processing, 2005(13) :2110–2126, 2005. [Rabiner, 1989] Lawrence Rabiner. A tutorial on hidden Markov models and selected applications in speech recognition. In Proceedings of the IEEE, pages 257–286, 1989. [Rangarajan and Shah, 1991] Krishnan Rangarajan and Mubarak Shah. Establishing motion correspondence. Conference Vision Graphies Image Process, 54(1) :56–73, 1991. [Rimmer et al., 2005] E. Rimmer, M. Wojciechowska, C. Stave, A. Sganga, and B. O’Connell. Implications of the facing dementia survey for the general population, patients and caregivers across europe. International Journal of Clinical Practice, 1(146) :17–24, March 2005. [Rimminen et al., 2009] Henry Rimminen, Juha Lindström, and Raimo Sepponen. Positioning accuracy and multi-target separation with a human tracking system using near field imaging. International Journal on Smart Sensing and Intelligent System, 2(1) :156–175, 2009. [Rimminen et al., 2010] Henry Rimminen, Juha Lindström, Matti Linnavuo, and Raimo Sepponen. Detection of falls among the elderly by a floor sensor using the electric near field. IEEE transactions on information technology in biomedicine : a publication of the IEEE Engineering in Medicine and Biology Society, 14(6) :1475–1476, November 2010. [Rose et al., 2008] Cédric Rose, Jamal Saboune, and François Charpillet. Reducing particle filtering complexity for 3D motion capture using dynamic bayesian networks. In Twenty-Third AAAI Conference on Artificial Intelligence, pages 1396–1401, 2008. 162BIBLIOGRAPHIE [Rougier and Meunier, 2010] Caroline Rougier and Jean Meunier. 3D head trajectory using a single camera. In Image and Signal Processing, pages 505–512. Springer, 2010. [Rougier et al., 2011] Caroline Rougier, Edouard Auvinet, Jacqueline Rousseau, Max Mignotte, and Jean Meunier. Fall detection from depth map video sequences. International Conference on Smart Homes and Health Telematics (ICOST), pages 121–128, 2011. [Rowley et al., 1998] Henry A. Rowley, Shumeet Baluja, and Takeo Kanade. Neural networkbased face detection. Pattern Analysis and Machine Intelligence, 20(1) :23–38, 1998. [Russell and Norvig, 2010] Stuart Jonathan Russell and Peter Norvig. Intelligence artificielle. Pearson Education France, 2010. [Saboune and Charpillet, 2005] Jamal Saboune and Francois Charpillet. Using interval particle filtering for marker less 3D human motion capture. In 17th IEEE International Conference on Tools with Artificial Intelligence (ICTAI’05). IEEE, 2005. [Saunders et al., 1953] M. Saunders, Verne T. Inman, and Howard D. Eberhart. The major determinants in normal and pathological gait. The Journal of Bone & Joint Surgery, pages 543–558, July 1953. [Sethi and Jain, 1987] Ishwar K. Sethi and Ramesh Jain. Finding trajectories of feature points in a monocular image sequence. Pattern Analysis and Machine Intelligence, IEEE Transactions on, (1) :56–73, 1987. [Shaw, 2002] Fiona E. Shaw. Falls in cognitive impairment and dementia. Clinics Geriatric Medicine, pages 18 :159–280, 2002. [Shi and Malik, 2000] Jianbo Shi and Jitendra Malik. Normalized cuts and image segmentation. Pattern Analysis and Machine Intelligence, 22(8) :888–905, 2000. [Shotton et al., 2013] Jamie Shotton, Toby Sharp, Alex Kipman, Andrew Fitzgibbon, Mark Finocchio, Andrew Blake, Mat Cook, and Richard Moore. Real-time human pose recognition in parts from single depth images. Communications of the ACM, 56(1) :116–124, 2013. [Silva et al., 2002] Mauricio Silva, Eric F. Shepherd, Walter O. Jackson, Frederick J. Dorey, and Thomas P. Schmalzried. Average patient walking activity approaches 2 million cycles per year : pedometers under-record walking activity. The Journal of Arthroplasty, 17(6) :693–697, 2002. [Stauffer and Grimson, 2000] Chris Stauffer and W. Eric L. Grimson. Learning patterns of activity using real-time tracking. Pattern Analysis and Machine Intelligence, 22(8) :747–757, 2000. [Studenski et al., 2003] Stephanie Studenski, Subashan Perera, Dennis Wallace, Julie M. Chandler, Pamela W. Duncan, Earl Rooney, Michael Fox, and Jack M. Guralnik. Physical performance measures in the clinical setting. Journal of the American Geriatrics Society, 51(3) :314– 322, March 2003. [Suzuki et al., 2003] Kenji Suzuki, Isao Horiba, and Noboru Sugie. Linear-time connectedcomponent labeling based on sequential local operations. Computer Vision and Image Understanding, 89(1) :1–23, January 2003. [Thomesse et al., 2001] Jean-Pierre Thomesse, David Bellot, Anne Boyer, Eric Campo, Marie Chan, François Charpillet, Jocelyne Fayn, Claire Leschi, Norbert Noury, Vincent Rialle, Laurent Romary, Paul Rubel, Nazha Selmaoui, François Steenkeste, and Gilles Virone. Integrated information technologies for patients remote follow-up and homecare. 3rd International Workshop on Enterprise Networking and Computing in Health Care Industry (HealthCom), 2001. 163BIBLIOGRAPHIE [Tieu and Viola, 2004] Kinh Tieu and Paul Viola. Boosting image retrieval. International Journal of Computer Vision, 56(1-2) :17–36, 2004. [Tinetti et al., 1993] Mary E. Tinetti, Wen-Liang Liu, and Elizabeth B. Claus. Predictors and prognosis of inability to get up after falls among elderly persons. Journal of the American Medical Association (Jama), 269(1) :65–70, 1993. [Turaga et al., 2008] Pavan Turaga, Rama Chellappa, Venkatramana S. Subrahmanian, and Octavian Udrea. Machine recognition of human activities : A survey. IEEE Transactions on Circuits and Systems for Video Technology, 18(11) :1473–1488, 2008. [Valera and Velastin, 2005] M. Valera and Sergio A. Velastin. Intelligent distributed surveillance systems : a review. In Vision, Image and Signal Processing, IEE Proceedings-, volume 152, pages 192–204. IET, 2005. [Van Iersel et al., 2004] M.B. Van Iersel, W. Hoefsloot, M. Munneke, B.R. Bloem, and M.G.M. Olde Rikkert. Systematic review of quantitative clinical gait analysis in patients with dementia. Zeitschrift für Gerontologie und Geriatrie, 37(1) :27–32, February 2004. [Veenman et al., 2001] Cor J. Veenman, Marcel J.T. Reinders, and Eric Backer. Resolving motion correspondence for densely moving points. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 23(1) :54–72, 2001. [Viel, 2000] Eric Viel. La marche humaine, la course et le saut. Biomécanique, explorations, normes et dysfonctionnements. Elsevier Masson, Paris, 2000. [Viola et al., 2003] Paul Viola, Michael J. Jones, and Daniel Snow. Detecting pedestrians using patterns of motion and appearance. In Proceedings of the International Conference on Computer Vision, pages 734–741. IEEE, 2003. [Waite et al., 2005] L.M. Waite, D.A Grayson, O. Piguet, H. Creasey, H.P. Bennett, and G.A. Broe. Gait slowing as a predictor of incident dementia : 6-year longitudinal data from the sydney older persons study. Journal of the Neurological Sciences, 229-230 :89–93, March 2005. [Webe, 2006] Amandine Webe. Dépendance des personnes âgées et handicap : les opinions des Français entre 2000 et 2005. DREES Études et résultats, mai 2006. [Wild et al., 1981] D. Wild, U.S. Nayak, and B. Isaacs. How dangerous are falls in old people at home ? British Medical Journal (Clinical research ed.), 282(6260) :266, 1981. [Winter et al., 1990] David A. Winter, Aftab E. Patla, James S. Frank, and Sharon E. Walt. Biomechanical walking pattern changes in the fit and healthy elderly. Physical therapy, 70(6) :340– 347, June 1990. [Wu, 2000] Ge Wu. Distinguishing fall activities from normal activities by velocity characteristics. Journal of Biomechanics, 33(11) :1497–1500, 2000. [Yilmaz et al., 2006] Alper Yilmaz, Omar Javed, and Mubarak Shah. Object tracking : A survey. ACM Computing Surveys, 38(4) :13, dec 2006. 164Résumé Le vieillissement de la population est un enjeu majeur pour les prochaines années en raison, notamment, de l’augmentation du nombre de personnes dépendantes. La question du maintien à domicile de ces personnes se pose alors, du fait de l’impossibilité pour les instituts spécialisés de les accueillir toutes et, surtout, de la volonté des personnes âgées de rester chez elles le plus longtemps possible. Or, le développement de systèmes technologiques peut aider à résoudre certains problèmes comme celui de la sécurisation en détectant les chutes, et de l’évaluation du degré d’autonomie pour prévenir les accidents. Plus particulièrement, nous nous intéressons au développement des systèmes ambiants, peu coûteux, pour l’équipement du domicile. Les caméras de profondeur permettent d’analyser en temps réel les déplacements de la personne. Nous montrons dans cette thèse qu’il est possible de reconnaître l’activité de la personne et de mesurer des paramètres de sa marche à partir de l’analyse de caractéristiques simples extraites des images de profondeur. La reconnaissance d’activité est réalisée à partir des modèles de Markov cachés, et permet en particulier de détecter les chutes et des activités à risque. Lorsque la personne marche, l’analyse de la trajectoire du centre de masse nous permet de mesurer les paramètres spatio-temporels pertinents pour l’évaluation de la fragilité de la personne. Ce travail a été réalisé sur la base d’expérimentations menées en laboratoire, d’une part, pour la construction des modèles par apprentissage automatique et, d’autre part, pour évaluer la validité des résultats. Les expérimentations ont montré que certains modèles de Markov cachés, développés pour ce travail, sont assez robustes pour classifier les différentes activités. Nous donnons, également dans cette thèse, la précision, obtenue avec notre système, des paramètres de la marche en comparaison avec un tapis actimètrique. Nous pensons qu’un tel système pourrait facilement être installé au domicile de personnes âgées, car il repose sur un traitement local des images. Il fournit, au quotidien, des informations sur l’analyse de l’activité et sur l’évolution des paramètres de la marche qui sont utiles pour sécuriser et évaluer le degré de fragilité de la personne. Mots-clés: Caméra de profondeur, Modèle de Markov caché, Reconnaissance d’activité, Analyse de la marche. Abstract Population ageing is a major issue for society in the next years, especially because of the increase of dependent people. The limits in specialized institutes capacity and the wish of the elderly to stay at home as long as possible explain a growing need for new specific at home services. Technologies can help securing the person at home by detecting falls. They can also help in the evaluation of the frailty for preventing future accidents. This work concerns the development of low cost ambient systems for helping the stay at home of elderly. Depth cameras allow analysing in real time the displacement of the person. We show that it is possible to recognize the activity of the person and to measure gait parameters from the analysis of simple feature extracted from depth images. Activity recognition is based on Hidden Markov Models and allows detecting at risk behaviours and falls. When the person is walking, the analysis of the trajectory of her centre of mass allows measuring gait parameters that can be used for frailty evaluation. This work is based on laboratory experimentations for the acquisition of data used for models training and for the evaluation of the results. We show that some of the developed Hidden Markov Models are robust enough for classifying the activities. We also evaluate de precision of the gait parameters measurement in comparison to the measures provided by an actimetric carpet. We believe that such a system could be installed in the home of the elderly because it relies on a local processing of the depth images. It would be able to provide daily information on the person activity and on the evolution of her gait parameters that are useful for securing her and evaluating her frailty. Keywords: Depth camera, Hidden Markov Model, Activity recognition, Gait analysis. Intégration de l’inférence abductive et inductive pour la repr´esentation des connaissances dans les r´eseaux de g`enes Tan Le To cite this version: Tan Le. Int´egration de l’inf´erence abductive et inductive pour la repr´esentation des connaissances dans les r´eseaux de g`enes. Automatic Control Engineering. Universit´e Paul Sabatier - Toulouse III, 2014. French. HAL Id: tel-00996894 https://tel.archives-ouvertes.fr/tel-00996894 Submitted on 27 May 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es. THÈSE En vue de l’obtention du DOCTORAT DE L’UNIVERSITÉ DE TOULOUSE Dévilré par l’Université Toulouse III – Paul Sabatier Discipline ou spécialité : Systèmes informatiques Présentée et soutenue par LE Tan Le 28 Avril 2014 Titre : Intégration de l’inférence abductive et inductive pour la représentation des connaissances dans les réseaux de gènes JURY Gilles RICHARD Président du jury Professeur, Université Toulouse III Jacques DEMONGEOT Rapporteur Professeur, Université Joseph Fourier, Grenoble Yves LACROIX Rapporteur Professeur, Université de Toulon Jean-Charles FAYE Examinateur Directeur de Recherche INSERM, Toulouse Belaid BENHAMOU Examinateur Maître de conférences, Université de Provence, Marseille Vincent RISCH Examinateur Maître de conférences, Université de Provence, Marseille Andrei DONCESCU Directeurs de thèse Maître de conférences, Université Toulouse III Pierre SIEGEL Co-directeurs de thèse Professeur, Université de Provence, Marseille Ecole doctorale : EDSYS Unité de recherche : LAAS-CNRS Directeur(s) de Thèse : Andrei DONCESCU et Pierre SIEGEL Rapporteurs : Jacques DEMONGEOT et Yves LACROIX A ceux qui m’aiment, A ceux que j’aime, A mes filles Hanh Quynh et Hanh Quyen, je vous aime !!! i Résumé Le raisonnement diagnostique (abductif) et le raisonnement de prédiction (inductif) sont deux des méthodes de raisonnement qui permettent la découverte de connaissances nouvelles. Lorsque le raisonnement abductif est le processus permettant de trouver la meilleure explication (hypothèse) pour un ensemble d’observations (Josephson, 1994), le raisonnement de prédiction est le processus, à partir d’un ensemble d’observations, permettant de trouver tous les résultats possibles. Ces observations peuvent être les symptômes d’un patient, des expériences concernant les réseaux métaboliques et génomiques, etc. Dans cette thèse, nous nous sommes intéressés à la représentation, l’analyse et la synthèse des réseaux de signalisation génomique en utilisant la logique des hypothèses. En fait, ce mémoire se focalise sur la modélisation des voies de signalisation en réponse à la cassure double-brin de l’ADN. Pour implémenter l’abduction nous utilisons les algorithmes de production. Ensuite, la logique des défauts permet de construire des modèles de représentation minimale. Ces algorithmes de découvertes de connaissances sont prouvés sur la carte de cassure double brin de l’ADN. Cette carte est minimale en tant que graphe de causalité biologique et elle permet d’intégrer les données biomoléculaires. Mots clés : conclusion conséquente, abduction, champ de production, logique des défauts, raisonnement diagnostique, raisonnement de prédiction, cassure double-brin de l’ADN, voie de signalisation, voie métabolique, représentation, modélisation, connaissances biologiques. iii Abstract Diagnostic reasoning (abductive) and predictive reasoning (inductive) are two methods of reasoning that enable the discovery of new knowledge. When abductive reasoning is the process of finding the best explanation (hypothesis) for a set of observations (Josephson, 1994), the inductive reasoning is the process of predicting, from a set of observations, to find all possible results. These observations may be symptoms of a patient, experiments on genomic and metabolic networks, etc. In this PhD thesis, we are interested in the representation, analysis and synthesis of genomic signaling networks using hypothetical logic. In fact, this thesis focuses on modeling of signaling pathways in response to the DNA double stranded break. To implement the abduction, we use algorithms of production. Then, the default logic is used to build models of minimum representation. These algorithms are proven knowledge discovery on the map of DNA double-strand break. This map is minimal as biological causality graph and allows integrating bio-molecular data. Keywords: consistent conclusion, abduction, field of production, default logic, diagnostic reasoning, predictive reasoning, double-stranded break DNA, signaling pathway, metabolic pathway, representation, modeling, biological knowledge. v Remerciements Le travail présenté dans ce rapport a été réalisé au sein du groupe Diagnostic, Supervision et Conduite (DISCO), du Laboratoire d’Analyse et d’Architecture et des Systèmes (LAAS) du Centre National de la Recherche Scientifique (CNRS). Il a été effectué grâce au support financier du gouvernement vietnamien, et également du LAAS – CNRS, avec le support de la vie du Centre Régional des œuvres Universitaires et Scolaires (CROUS) de Toulouse. Je tiens, en premier lieu, à adresser mes plus sincères remerciements et ma plus profonde reconnaissance à Monsieur Andrei DONCESCU et Monsieur Pierre SIEGEL, pour avoir bien voulu être mes directeurs de thèse, pour leur soutien et pour leur direction souple et sécurisante tout au long de ce travail. Je souhaite exprimer ma plus profonde gratitude à Monsieur Jean ARLAT, Directeur du LAAS – CNRS, pour m’avoir accueilli au sein de laboratoire. Je tiens à exprimer ma sincère gratitude à Messieurs : Jean-Charles FAYE, Directeur de Recherche à l’Institut Claudius Regaud (ICR) Olivier SORDET, Rechercheur à l’Institut Claudius Regaud Barthélémy DWORKIN Henri BONNABAU pour leurs connaissances de la voie de réponse à la cassure double-brin de l'ADN. Finalement, je tiens également à remercier spécialement tous les amis français et vietnamiens que je côtoie pendant mon séjour en France. vii Table des matières Résumé.................................................................................................................................................i Abstract..............................................................................................................................................iii Remerciements.................................................................................................................................... v Table des matières.............................................................................................................................vii Liste des figures...................................................................................................................................ix Liste des tableaux................................................................................................................................xi Introduction......................................................................................................................................... 1 Chapitre 1. Contexte et cas d’application.......................................................................................... 5 1.1. Contexte ........................................................................................................................... 5 1.1.1. Connaissances biologiques ...................................................................................... 5 1.1.2. Inhibiteurs de Chk2 comme nouveaux agents anticancéreux................................. 27 1.1.3. Problématique ........................................................................................................27 1.1.4. Exigences................................................................................................................28 1.2. Cas d’application............................................................................................................28 1.2.1. Contexte des gènes et leurs interactions ................................................................28 1.2.2. Définitions..............................................................................................................31 1.2.3. Règles de comportements.......................................................................................34 Chapitre 2. Conclusion conséquente et la production......................................................................35 2.1. Conclusion conséquente et SOL.....................................................................................35 2.1.1. Conclusion conséquente .........................................................................................35 2.1.2. SOL.........................................................................................................................35 2.2. Production pour l’abduction et l’induction.....................................................................41 2.2.1. Définition................................................................................................................41 2.2.2. Exemple d’utilisation..............................................................................................41 2.3. Champ de production .....................................................................................................42 2.3.1. Définition................................................................................................................42 2.3.2. Exemple d’utilisation..............................................................................................44 2.4. Algorithmes de calcul de production..............................................................................45 2.4.1. Description simplifiée.............................................................................................45 2.4.2. Algorithme avec coupure........................................................................................49 2.4.3. Algorithme en Prolog .............................................................................................52 Chapitre 3. La logique des défauts..................................................................................................55 3.1. Introduction ....................................................................................................................55viii Table des matières 3.2. Notion de défaut.............................................................................................................55 3.3. Syntaxe de la logique des défauts...................................................................................57 3.4. Extensions. .....................................................................................................................58 3.4.1. Extensions - définition formelle..............................................................................58 Chapitre 4. Approche proposée et résultats....................................................................................63 4.1. Utilisation de l’algorithme de production de clauses. ....................................................63 4.2. Utilisation de la logique des défauts...............................................................................70 4.2.1. Dans le cas général ................................................................................................70 4.2.2. Utilisation dans le domaine temporel discret.........................................................77 Conclusion .........................................................................................................................................93 Bibliographie......................................................................................................................................95Liste des figures ix Liste des figures Figure 1.1. Structure d’une cellule animale eucaryote typique .............................................................. 6 Figure 1.2. Structure des nucléotides ..................................................................................................... 7 Figure 1.3. Structure des 22 acides aminés ............................................................................................ 8 Figure 1.4. Mécanismes intracellulaires de régulation de l’apoptose................................................... 12 Figure 1.5. Les étapes du cycle cellulaire : la mitose ........................................................................... 13 Figure 1.6. Les étapes du cycle cellulaire : la méiose .......................................................................... 14 Figure 1.7. Division des chromosomes dans un noyau cellulaire......................................................... 15 Figure 1.8. Les quatre phases du cycle cellulaire avec des chromosomes dans le noyau .................... 15 Figure 1.9. Cycle cellulaire avec des points de contrôle ...................................................................... 16 Figure 1.10. Molécules régulant intervenant dans le cycle cellulaire chez les mammifères................ 18 Figure 1.11. Composants de la voie de signalisation p53 .................................................................... 23 Figure 1.12. Définitions des symboles et des conventions de la carte ................................................. 28 Figure 1.13. La carte d'interaction de la réponse ATM-dépendante de la cassure double-brin............ 29 Figure 2.1 Tableaux résolus pour l’Exemple 2.1.................................................................................. 39 Figure 2.2. La procédure conséquente de recensement SOL................................................................ 40 Figure 2.3. Les étapes d’une production............................................................................................... 42 Figure 3.1. Arbre de recherche des solutions pour le calcul d'extensions............................................ 60 Figure 4.1. Interactions de la carte de Pommier................................................................................... 64 Figure 4.2. Un exemple d’interactions dans une cellule....................................................................... 70 Figure 4.3. Système équilibré de masse ............................................................................................... 77 Figure 4.4. La première relation entre les états de réaction et les changements de concentration de métabolites ............................................................................................................................................ 79 Figure 4.5. La deuxième relation entre les états de réaction et les changements de concentration de métabolites ............................................................................................................................................ 79 Figure 4.6. La troisième relation entre les états de réaction et les changements de concentration de métabolites ............................................................................................................................................ 79 Figure 4.7. Une extension de la carte de Pommier............................................................................... 92 Liste des tableaux xi Liste des tableaux Tableau 1.1. Les codes des 22 acides aminés......................................................................................... 9 Introduction 1 Introduction Une fonction biologique n’est pratiquement jamais le produit d’une seule macromolécule mais plutôt le résultat de l’interaction d’un groupe de macromolécules (gènes, protéines). Comprendre les mécanismes complexes à l’œuvre dans la cellule requiert donc une approche intégrative de la modélisation de toutes les interactions entre les macromolécules. Modéliser, identifier et éventuellement simuler les réseaux d’interactions entre macromolécules qui interviennent à différents niveaux dans la cellule forment les enjeux principaux d’une nouvelle discipline transversale qu’on appelle biologie de systèmes. Les systèmes biologiques changent sans cesse. La reconstruction de réseaux biologiques à partir de données expérimentales constitue un des éléments clefs des objectifs scientifiques en biologie moléculaire: le biologiste s’intéresse souvent à la réponse cellulaire d’un organisme ou d’un certain tissu dans un organe à un signal ou stress donné. Il cherche par exemple à définir ou à compléter le réseau de régulation impliqué dans le contrôle de cette réponse en exploitant des données expérimentales (données d’expression de gènes etc.). L’apprentissage automatique intervient alors comme une des composantes de l’activité de découverte scientifique : à partir des données, à partir d’une classe de modèles de réseaux de régulation, un algorithme d’apprentissage permet de définir une ou plusieurs solutions candidates (graphe d’interaction et paramètres des modèles) que le biologiste peut ensuite tester en générant d’autres expériences pour vérifier telle ou telle particularité du modèle. Pour cela, il est habituel de considérer qu’il y a deux modes de raisonnements, deux façons de progresser dans la connaissance : le raisonnement diagnostique, et le raisonnement de prédiction. Le raisonnement diagnostique (ou abductif) est une partie essentielle d’un grand nombre tâches du monde réel, par exemple le diagnostic médical, le débogage des programmes d’ordinateur, la découverte scientifique, etc. En règle générale, le raisonnement abductif est le processus permettant de trouver la meilleure explication pour un ensemble d’observations (Josephson, 1994). Ces observations peuvent être les symptômes d’un patient, les messages d’erreur d’un programme d’ordinateur, ou les résultats d’une expérience. La tâche de la résolution des problèmes dans chacun de ces domaines est de trouver un ensemble d’hypothèses élémentaires qui explique le mieux ces symptômes. Une autre méthode est tout aussi importante pour la représentation et le traitement des connaissances biologiques, c’est le raisonnement de prédiction par la logique des défauts. Quand un système intelligent essaye de résoudre un problème, il peut être en mesure de s’appuyer sur des informations complètes sur ce problème, et sa tâche principale est de tirer la bonne conclusion par un raisonnement classique. Dans ce cas, la logique des prédicats classique peut être suffisante. Cependant, dans de nombreuses situations, le système a seulement l’information incomplète, parce que certaines informations ne sont pas disponibles, ou bien parce qu’il doit répondre vite et n’a pas de temps de recueillir toutes les données pertinentes. La logique classique a en effet la capacité de représenter et raisonner avec certains aspects de 2 Introduction l’information incomplète. Mais il y a des occasions où l’information supplémentaire doit être remplie pour surmonter l’incomplétude, parce que certaines décisions doivent être prises. Dans ce cas, le système doit faire des conjectures plausibles, qui dans le cas du raisonnement par défaut sont basés sur des règles empiriques, appelé des défauts. Par exemple, un médecin d’urgence doit faire des conjectures sur les causes les plus probables des symptômes observés. Évidemment, il serait inapproprié d’attendre le résultat de tests éventuellement étendus et chronophages avant le début du traitement. Puisque les décisions sont fondées sur des hypothèses, elles peuvent se révéler fausses face à de nouvelles informations qui seront disponibles, à savoir les examens médicaux peuvent conduire à un diagnostic modifié. Le phénomène d’avoir à reprendre certaines conclusions précédentes est appelé non-monotonie, ça veut dire que si une déclaration X découle d’une série de prémisses M, et M est un sous-ensemble de N, X ne découle pas nécessairement de N. La logique des défauts, à l’origine présentée by Reiter [1980], fournit la méthode formelle pour soutenir ce genre de raisonnement. Elle est peut-être la méthode la plus importante pour le raisonnement non-monotone, essentiellement en raison de la simplicité de l’idée d’un défaut, et parce que les défauts prévalent dans de nombreux domaines d’application. Cependant, il existe plusieurs décisions de conceptions alternatives qui ont conduit à des variations de l’idée initiale. En fait, il y a une famille de méthodes de raisonnement par défauts qui partagent les mêmes fondements. Le travail présenté dans ce mémoire se focalise sur le raisonnement par l’abduction et par la logique des défauts pour la modélisation des voies de signalisation en réponse à la cassure double-brin de l’ADN. En fait, on a utilisé les algorithmes de production avec un champ de production pour faire le raisonnement diagnostique sur la carte d’interactions de Pommier. Ensuite, la logique des défauts a été utilisée pour faire le raisonnement de prédiction à partir de la carte. Toutefois, cette méthode ne nous permettait pas de connaitre l’ordre dans lequel se déroulaient les événements. Nous avons alors ajouté une variable temps à la logique des défauts ce qui nous a permis d’obtenir une chronologie des événements. Dans le processus de travail, on se rend compte que les algorithmes ne fonctionnent pas bien avec les variables lorsqu’ils sont implémentés en Prolog, alors on a cherché à résoudre ce problème et nous avons fourni des solutions. Introduction 3 Plan de la thèse Ce document s’organise en quatre chapitres suivants : Le chapitre 1 introduit le contexte applicatif considéré dans le cadre de la thèse, en examinant les notions de gènes, de protéines et de métabolites, ainsi que les règles de base de comportement d’une cellule. Le chapitre 2 présente les bases des outils mathématiques utilisés pour exécuter la synthèse des voies de signalisation. Ce chapitre se concentre sur la conclusion conséquence et la production. Le chapitre 3 détaille la logique des défauts, l’outil est utilisé pour représenter les interactions dans les réseaux de régulation. Le chapitre 4 propose une approche de représentation des connaissances – de la voie de signalisation cellulaire : utilisation de la production pour le raisonnement diagnostique ; et de la logique des défauts pour le raisonnement de prédiction. En conclusion, nous présentons un bilan du travail réalisé et des orientations pour développer le sujet. Contexte et cas d’application 5 Chapitre 1. Contexte et cas d’application Ce chapitre présente le contexte et le cas d’application de la thèse. Tout d’abord, il faut examiner les notions de gènes et leurs interactions dans les réseaux biologiques. 1.1. Contexte Comme nous le savons, la plupart des médicaments anticancéreux qui sont encore actuellement utilisés en clinique ciblent l’ADN. L’action de ces médicaments anticancéreux sur les tissus tumoraux est probablement due au fait qu’ils peuvent supprimer les défauts tumeur-spécifiques des points de contrôle (checkpoint en anglais) du cycle cellulaire et améliorer la réparation de l’ADN, afin d’augmenter la réponse apoptotique des cellules tumorales. Nous nous intéresserons ici à l’interaction moléculaire qui apparaît dans la voie ATM-Chk2. 1.1.1. Connaissances biologiques L’interaction moléculaire implique une liste de notions biologiques qui doivent être clarifiées. D’abord, nous étudierons la notion de cycle cellulaire. Le cycle cellulaire est l’ensemble des phases par lesquelles une cellule passe entre deux divisions successives. Le cycle des cellules eucaryotes est divisé en quatre phases : G1, S, G2 et M. L’ensemble des trois premières phases est souvent appelé l’interphase. Cellule : La cellule est une unité structurale et fonctionnelle de la plupart des organismes. Chaque organisme est structuré d’une ou plusieurs cellules. Des cellules ne sont produites qu’à partir des cellules précédentes. Toutes les fonctions vitales d’un organisme ont lieu dans la cellule. Les cellules contiennent des informations génétiques nécessaires pour diriger leurs fonctions et peuvent transmettre les matériaux génétiques aux générations suivantes. Caractères de la cellule : Chaque cellule est un système ouvert, autonome et autoproductif. La cellule peut recevoir des nutriments, les convertir en énergie, exercer des fonctions spéciales, et produire des nouvelles cellules s’il est nécessaire. Chaque cellule contient un cryptage distinct dirigeant ses actions et a les capacités suivantes : - Reproduction par la division. - Métabolisme cellulaire : Recevoir des matières brutes et les transformer en substances nécessaires pour la cellule, produire les molécules à haute énergie et les sous-produits. Pour exercer leurs fonctions, les cellules ont besoin d’absorber et d’utiliser l’énergie chimique contenue dans les molécules organiques. Cette énergie est libérée dans les voies métaboliques. - Faire la synthèse des protéines. Ce sont des molécules qui assument des fonctions fondamentales de la cellule, par exemple les enzymes. - Répondre aux stimuli ou aux changements d’environnement extérieur tels que les changements de température ou de pH ou des éléments nutritifs.6 Contexte et cas d’application - Déplacer des vésicules. Figure 1.1. Structure d’une cellule animale eucaryote typique (source : wikipedia.org) (1) Nucléole, (2) Noyau, (3) Ribosome, (4) Vésicule, (5) Réticulum endoplasmique rugueux (granuleux), (6) Appareil de Golgi, (7) Microtubule, (8) Réticulum endoplasmique lisse, (9) Mitochondrie, (10) Lysosome, (11) Cytoplasme, (12) Peroxysome, (13) Centrosome Composants d’une cellule : chaque cellule a une membrane plasmique pour l’envelopper, isoler l’intracellulaire de l’extérieur, contrôler strictement le transport des substances, maintenir le potentiel de membrane et la concentration des substances intérieures et extérieures. Chaque cellule contient des molécules d’ADN, matériels génétiques importants et des molécules d’ARN qui participent directement au processus de synthèse des protéines. À l’intérieur de la cellule, dans les temps donnés, la cellule synthétise une grande variété de molécules différentes. - Membrane plasmique : l’enveloppe d’une cellule a la fonction d’encapsulation et de distinction de cellule avec le milieu environnant. La membrane est formée par une double couche de lipides et de protéines. - Cytosquelette : un composant important compliqué et flexible. Il inclut un système de microtubules et de protéines et forme et maintient la forme de la cellule. - Cytoplasme : le cytoplasme désigne le contenu d’une cellule vivante. Il s’agit de la totalité du matériel cellulaire du protoplasme délimité par la membrane plasmique et des organites. - Matériel génétique : ce sont des molécules d’acides nucléides (ADN et ARN). L’information génétique de l’organisme est le code génétique qui prescrit toutes les protéines nécessaires pour toutes les cellules d’un organisme. - Organites : les cellules ont souvent des petits organes appelés des organites, adaptés et différenciés pour une ou plusieurs fonctions vitales. Les organites se trouvent souvent dans les cellules eucaryotes et souvent ont leurs propres membranes. Noyaux : les noyaux sont aussi entourés d’une membrane les isolant du cytoplasme et contiennent des acides nucléiques, ce sont des grandes molécules ayant la structure multimoléculaire, incluant plusieurs molécules de nucléotides. Il existe deux types d’acides nucléiques : l’acide désoxyribonucléique (ADN) et l’acide ribonucléique (ARN). L’ADN Contexte et cas d’application 7 contient l’information génétique lorsque l’ARN est la copie d’ADN, souvent en un seul brin alors que l’ADN a deux brins. Nucléotide : Un nucléotide est une molécule organique. Certains nucléotides forment la base de l’ADN et de l’ARN, d’autres sont des cofacteurs ou coenzymes. Chaque molécule nucléotidique consiste en trois composants, ce sont une base azotée, un sucre et un groupement phosphate (ou acide phosphorique). Figure 1.2. Structure des nucléotides (source : wikipedia.org) - Base azotée : Variable en fonction du type de nucléotide (purine ou pyrimidine) fixé à l’atome de carbone 1' du désoxyribose. Pour l’ADN, il existe quatre nucléotides différents correspondant aux quatre bases azotées différentes, ce sont l’adénine (A), la guanine (G), la cytosine (C), et la thymine (T). Dans l’ARN, la thymine (T) est remplacée par l’uracile (U). - Sucre : Pentose (ou désoxyribose), les acides nucléiques se différencient par la base qui est fixée sur le sucre. - Groupement phosphate (acide phosphorique) : Grâce à la liaison covalente entre l’acide phosphorique d’un nucléotide avec un sucre, des nucléotides se relient et forment une chaîne de poly-nucléotides. Cette liaison suit la règle complémentaire : une grande base est supplée par une petite base. Alors il existe deux types de liaison : le dAMP (adénine) avec le dTMP (thymine) en établissant deux liaisons hydrogènes (A-T), et le dCMP (cytosine) avec le dGMP (guanine) en établissant trois liaisons hydrogènes (G-C). Par exemple : si on a un brin A G G C T A C alors l’autre brin est T C C G A T G ADN : L’acide désoxyribonucléique (ADN) est une molécule, elle est présente dans toutes les cellules vivantes, renferme l'ensemble des informations nécessaires au développement et au fonctionnement d’un organisme. C’est aussi le support de l’hérédité car il est transmis lors de la reproduction, de manière intégrale ou non. Il porte l’information génétique et constitue le génome des êtres vivants. La structure standard de l’ADN est une double-hélice droite, composée de deux brins complémentaires. Chaque brin d’ADN est constitué d’un enchaînement de nucléotides. 8 Contexte et cas d’application La fonction de l’ADN est de préserver et de transmettre des informations sur la structure des tous les types de protéines d’un organisme, de sorte qu’elles définissent les caractères de l’organisme. L’information génétique (l’information de structure des protéines) est codée dans l’ADN. Chaque section (tranche) de molécule ADN qui porte l’information régulant la séquence d’une protéine est appelée gène de structure (cistron). Chaque acide aminé de la molécule de protéine est régulé par trois nucléotides successifs dans l’ADN (codon), c’est le code triplet. La succession de trois nucléotides correspondant à un acide aminé est appelé l’unité de code (codon). Il est facile de voir que le nombre de combinaisons des trois à partir des quatre types de nucléotides est 4 3 = 64. En fait, seulement 61 combinaisons sont utilisées pour coder 22 acides aminés. Il existe certains cas où un acide aminé correspond à plusieurs codons différents (dégénérescence du code génétique). D’autre part, il existe des codons qui ne régulent aucun acide aminé, ils ont juste la tâche de finir la synthèse de chaîne polypeptique. Ce sont UAA, UAG, et UGA. Figure 1.3. Structure des 22 acides aminés (source : wikipedia.org) Un caractère très important de l’ADN est la capacité de réplication (reproduction). Sous l’action d’enzymes, la double hélice de l’ADN est étirée, deux brins se détachent pas à pas. Chaque nucléotide dans chaque brin se combine avec un nucléotide libre suivant la règle (AT, G-C) pour former une nouvelle double hélice, donnant deux molécules enfants. Contexte et cas d’application 9 Tableau 1.1. Les codes des 22 acides aminés Code Abrév Acide aminé Nature Codons Y Tyr Tyrosine Polaire, aromatique UAU, UAC W Trp Tryptophane Apolaire, aromatique UGG (et UGA chez les mycoplasmes) V Val Valine Apolaire, aliphatique GUU, GUC, GUA, GUG U Sec Sélénocystéine Polaire UGA associé à un élément SECIS T Thr Thréonine Polaire ACU, ACC, ACA, ACG S Ser Sérine Polaire UCU, UCC, UCA, UCG, AGU, AGC R Arg Arginine Basique CGU, CGC, CGA, CGG, AGA, AGG Q Gln Glutamine Polaire CAA, CAG P Pro Proline Apolaire CCU, CCC, CCA, CCG O Pyl Pyrrolysine Polaire UAG associé à un élément PYLIS N Asn Asparagine Polaire AAU, AAC M Met Méthionine Apolaire AUG L Leu Leucine Apolaire, aliphatique UUA, UUG, CUU, CUC, CUA, CUG K Lys Lysine Basique AAA, AAG I Ile Isoleucine Apolaire, aliphatique AUU, AUC, AUA H His Histidine Basique, aromatique CAU, CAC G Gly Glycine Apolaire, aliphatique GGU, GGC, GGA, GGG F Phe Phénylalanine Apolaire, aromatique UUU, UUC E Glu Acide glutamique Acide GAA, GAG D Asp Acide aspartique Acide GAU, GAC C Cys Cystéine Polaire UGU, UGC A Ala Alanine Apolaire, aliphatique GCU, GCC, GCA, GCG ARN : l’acide ribonucléique (ARN) est une molécule biologique trouvée pratiquement dans tous les organismes vivants, y compris dans certains virus. L’ARN est une molécule très proche chimiquement de l’ADN. Selon sa fonction, l’ARN est divisée en trois types : ARN messager (ARNm), ARN de transfert (ARNt), et ARN ribosomique (ARNr). - ARNm : l’ARN messager est une chaîne poly nucléotidique copiant exactement un ou parfois plusieurs cistrons d’ADN, mais l’Uracile (U) remplace la Thymine (T). L’ARNm a la tâche de transmettre l’information génétique qui précise la séquence d’acides aminés de la protéine synthétisée. - ARNt : l’ARN de transfert a la tâche de transporter des acides aminés au lieu de synthèse des protéines (le ribosome). L’ARN de transfert a une structure caractéristique en feuille de trèfle, composée de quatre tiges appariées. L’une de ces tiges est terminée par une boucle qui contient l’anticodon, le triplet de nucléotides qui s’apparie au codon lors de la traduction d’un ARNm par le ribosome. À l’autre extrémité, l’ARNt porte l’acide aminé correspondant attaché par une liaison ester à son extrémité 3'-OH. Cette estérification est catalysée par des enzymes spécifiques, les aminoacyl-ARNt synthétases. - ARNr : L’ARN catalytique ou ribozyme constitue les composants du ribosome. 10 Contexte et cas d’application Chromosome : Un chromosome est un élément microscopique constitué de molécules d’ADN et de protéines. Chez les cellules eucaryotes, les chromosomes se trouvent dans le noyau où ils prennent la forme soit d’un bâtonnet, soit d’un écheveau, selon qu’ils sont condensés ou non. Chez les cellules procaryotes (sans noyau), le chromosome se trouve dans le cytoplasme. Le chromosome est l’élément porteur de l’information génétique. Les chromosomes contiennent les gènes et permettent leur distribution égale dans les deux cellules enfants lors de la division cellulaire. Ils sont formés d’une longue molécule d’ADN, associée à des protéines (notamment les histones). Entre deux divisions, la séparation entre les molécules d’ADN différentes (chromosomes) est peu perceptible, l’ensemble porte alors le nom de chromatine. Ils se condensent progressivement au cours de la division cellulaire pour prendre une apparence caractéristique en forme de X à deux bras courts et deux bras longs, reliés par un centromère. Au figuré, le mot chromosome est utilisé pour décrire son contenu en termes d’information génétique. Les chromosomes portent les gènes, supports de l’information génétique transmise des cellules mères aux cellules filles lors de la mitose ou de la méiose (reproduction sexuée). Les chromosomes sont habituellement représentés par paires, en parallèle avec leur homologue. Ils sont souvent illustrés sous leur forme condensée et dupliquée (en métaphase de la mitose). L’ensemble des chromosomes est représenté sur un caryotype, ou carte de chromosomes. Processus de synthèse des protéines : L’ADN régule la séquence des protéines par l’ARNm, donc la synthèse de protéine se compose de deux étapes principales : la transcription et la traduction. - Transcription : C’est le processus de synthèse de l’ARNm. La plupart de l’ARN est synthétisée sur le modèle de l’ADN. Sous l’action des enzymes ARN-polymérases, une section de molécule d’ADN correspondant à un ou plusieurs gènes est étirée, deux brins se détachent. Chaque nucléotide du brin d’origine est relié avec un ribonucléotide libre selon la règle (A-U, G-C), formant une chaîne polyribonucléotidique d’ARN. Après la synthèse, pour la cellule eucaryote, l’ARNm quitte le noyau vers le cytoplasme pour participer au processus de synthèse de protéine. - Traduction : Elle inclut deux étapes principales, activation d’acide aminé et synthèse de polypeptide. Lors de l’étape de synthèse de l’acide aminé, des acides aminés libres dans le cytoplasme sont activés par la liaison avec des composés riches en énergie adénosines triphosphates (ATP) par l’action de certains enzymes. Ensuite, grâce à d’autres enzymes spécifiques, l’acide aminé activé est lié avec l’ARNt correspondante pour former l’acide aminé – ARNt (aa-ARNt). Dans la synthèse du polypeptide, d’abord, l’ARNm se lie avec le ribosome à la place du codon de départ. Ensuite, l’ARNt porte le premier acide aminé vers le ribosome, son codon coïncide avec le code de départ de l’ARNm par la règle (A-U, G-C). aa1-ARNt arrive à la position suivante, son codon coïncide avec le codon du premier acide aminé d’ARNm. Par la Contexte et cas d’application 11 suite, la chaîne forme la structure de degré plus élevé pour former la protéine complète. Par exemple : brin origine ADN T A C G T A C G G A A T A A G brin d’ARNm A U G C A U G C C U U A U U C Décodage Méthionine Histidine Alanine Leucine Phénylalanine Mort cellulaire : La cellule ayant reçu un signal de son environnement va exprimer un programme qui entraîne sa mort (l’apoptose est un de ces mécanismes). Ce phénomène est nécessaire au développement des organismes pluricellulaires ; autant chez les végétaux (avec par exemple la mort des cellules formant le tube criblé), que chez les animaux (lors de la mise en place de la main chez l’homme : On a initialement une main palmée, la mort des cellules permet l’individualisation des doigts). Ce phénomène a aussi été découvert chez certaines bactéries (la mort cellulaire permet de limiter le nombre de bactéries lorsque les ressources sont insuffisantes). La cellule, tant pour les êtres pluricellulaires que pour les unicellulaires, constitue une structure vouée avant tout à permettre la reproduction de l’organisme et donc la transmission d’une structure de base contenant un programme génétique. Ainsi, certains auteurs ont été amenés à formuler la théorie du gène égoïste, considérant les organismes (et donc les cellules) comme de simples structures destinées à assurer la transmission et la prolifération des gènes (le gène proliférant est qualifié d’égoïste). La mort cellulaire peut se faire par nécrose, par autophagie, ou par apoptose. - Mort cellulaire par nécrose : La mort est causée par des dommages physiques ou chimiques. La nécrose est causée par des enzymes spéciales produites par les lysosomes, petites usines à enzymes de la cellule. La cassure de la membrane plasmique qui en résulte conduit à la libération dans le milieu extérieur du contenu cytoplasmique. La nécrose est accompagnée habituellement d’une réponse inflammatoire qui consiste en la présence d’exsudat et de cellules spécialisées du système hématopoïétique comme les lymphocytes et les macrophages. Une nécrose peut également être causée par une ischémie (plus ou moins) longue d’un membre. - Mort cellulaire par autophagie : La dégradation d’une partie du cytoplasme de la cellule par ses propres lysosomes. Le terme ‘autophagie’ (se manger soi-même) regroupe plusieurs voies de dégradation de lysosome des constituants cellulaires, essentielles à l’homéostasie cellulaire. Il existe trois types différents d’autophagies : la micro-autophagie, l’autophagie réalisée par des protéines chaperonnées, et la macroautophagie (c’est le type principal). - Mort cellulaire par apoptose : Ou mort cellulaire programmée, c’est un processus par lequel des cellules déclenchent leur auto-destruction en réponse à un signal. C’est l’une des voies de mort cellulaire, génétiquement programmée, nécessaire à la survie des organismes multicellulaires. Elle est en équilibre constant avec la prolifération cellulaire. Contrairement à la nécrose, l’apoptose ne provoque pas d’inflammation : les membranes plasmiques ne sont pas détruites, du moins dans un premier temps, et la cellule émet des signaux. 12 Contexte et cas d’application Figure 1.4. Mécanismes intracellulaires de régulation de l’apoptose (source : wikipedia.org) Reproduction cellulaire : Comme mentionné ci-dessus, une capacité importante de la cellule est la reproduction (réplication, ou bien duplication) par la division. Ceci est fait pendant un cycle appelé le cycle cellulaire (ou bien cycle de division cellulaire). Avant d’entrer en division cellulaire, une cellule doit accumuler des éléments nutritifs durant l’interphase. L’interphase procède en trois phases : G1, S, et G2. La division cellulaire fonctionne dans un cycle. La première phase dans l’interphase est la phase G1 (phase gap 1, ou post-mitotique phase), c’est une période principale de la croissance cellulaire. Au cours de cette phase, la biosynthèse, qui a été diminuée considérablement pendant la phase M précédente, recommence à haut taux. La cellule se prépare pour le processus de réplication de l’ADN. La cellule intègre les mitogènes, grossit et en fin de G1 la cellule peut se mettre en pause ou quitter le cycle cellulaire. Un point de contrôle important en G1 a été identifié pour toutes les cellules de levure et de mammifère. C’est le moment où la cellule va entrer dans la phase de réplication de l’ADN avant l’achèvement d’un cycle cellulaire. La phase suivante S commence quand la synthèse (réplication) de l’ADN commence. C’est une période au cours de laquelle le matériel chromosomique est doublé par réplication de l'ADN : duplication des chromosomes. Lorsque la phase est complète, tous les chromosomes ont été produits, c’est à dire chaque chromosome a deux chromatides enfants. Ainsi, au cours de la phase, la quantité d’ADN dans la cellule est effectivement doublée, quoique la ploïdie de la cellule ne change pas. Les vitesses de transcription et de synthèse protéiques sont très basses pendant cette phase.Contexte et cas d’application 13 Figure 1.5. Les étapes du cycle cellulaire : la mitose (source : wikipedia.org) Ensuite, la phase G2 est la seconde phase de croissance cellulaire, où la cellule se prépare à se diviser en deux cellules enfants. À l’issue de cette phase, chaque chromosome est parfaitement identique à son homologue sur le plan morphologique et du point de vue des gènes présents, mais chaque gène n’est pas nécessairement identique à son homologue (généralement plusieurs allèles existent).14 Contexte et cas d’application Figure 1.6. Les étapes du cycle cellulaire : la méiose (source : wikipedia.org) Enfin, c’est la phase M. La lettre M représente la mitose. La mitose est un processus dans lequel une cellule eucaryote sépare les chromosomes dans son noyau cellulaire en deux ensembles identiques dans deux noyaux. Il est généralement suivi immédiatement par la cytokinèse, qui divise le noyau, le cytoplasme, les organelles et la membrane cellulaire en deux cellules contenant des parts à peu près égales de ces composants cellulaires. L’ensemble de la mitose et la cytokinèse définissant la phase mitotique (phase M) du cycle cellulaire – la division de cellule parente en deux cellules enfantes, généralement identiques et ressemblent à leur parent. La phase M a été décomposée en plusieurs phases distinctes, successivement connues sous les noms prophase, métaphase, anaphase, télophase, et cytokinèse. Les erreurs dans une mitose peuvent tuer la cellule par l’apoptose ou causer la mutation qui peut mener au cancer.Contexte et cas d’application 15 Figure 1.7. Division des chromosomes dans un noyau cellulaire (source : wikipedia.org) Pendant le cycle cellulaire, il existe une phase supplémentaire G0. C’est une phase de repos où la cellule quitte le cycle et arrête de se diviser. Les cellules non-prolifératives dans les eucaryotes multicellulaires sont en phase G0 de G1 et peuvent rester tranquillement pour longtemps et peut être indéfiniment. La décrépitude de la cellule est un état qui a lieu en réponse au dommage de l’ADN ou à la dégradation de l’ADN qui peuvent faire un descendant cellulaire non-viable. Il est souvent une alternative biochimique à l’autodestruction par apoptose d’une telle cellule endommagée. Figure 1.8. Les quatre phases du cycle cellulaire avec des chromosomes dans le noyau (source : wikipedia.org) Point de contrôle : Un terme très important qui a été rappelé est le point de contrôle. Le point de contrôle est utilisé par la cellule pour contrôler et régler le processus de cycle cellulaire. Les points de contrôle bloquent le processus de cycle cellulaire aux points spécifiques, laissent la vérification de phase nécessaire se faire et permettent de réparer les dommages à l’ADN. En d’autres mots, le point de contrôle traite l’ensemble des signaux 16 Contexte et cas d’application régulateurs reçus par la cellule et décide si elle doit se diviser. La cellule n’a pas pu passer à la phase suivante jusqu’à ce que le point de contrôle ait été passé. Quelques points de contrôle sont désignés pour assurer que les ADN incomplets ou endommagés ne sont pas passés à la cellule enfante. Il existe deux points de contrôle principaux : le point G1/S et le point G2/M. La transition G1/S est un pas dans le cycle cellulaire et est aussi appelé le point de restriction (non-retour). Le point G1/S est le contrôle de l’état de l’ADN. Si c’est bon, il met en route la réplication par l’activation de facteurs inducteurs de la réplication. Par contre, le point G2/M est le contrôle de l’état de l’ADN répliqué et le contrôle de la duplication des centrosomes. Si c’est bon, il met en route la mitose par l’activation de facteurs mitotiques. Figure 1.9. Cycle cellulaire avec des points de contrôle (source : wikipedia.org) Bague extérieure : I – interphase, M – Mitose ; Bague intérieure : M – Mitose, G1 – Gap 1, G2 – Gap 2, S – Synthèse ; Pas dans les bagues : G0 – Gap 0/ Repos Lorsque l'ADN génomique des cellules eucaryotes est endommagé par des processus spontanés, mutagènes chimiques ou l'exposition au soleil, la réplication de l'ADN endommagé déclenche une réponse cellulaire appelée un point de contrôle post-réplication. Cette réponse empêche la progression du cycle cellulaire jusqu'à ce que les processus de la réparation postréplicative soient terminés et puissent contrôler l'activité de ces voies de réparation de l'ADN. Dans les types de cellules qui exécutent la phase S avant la mitose, comme la levure de fission et les cellules humaines, le point de contrôle post-réplicatif prend le temps de réparation en retardant le début de la mitose. Dans les types cellulaires où la mitose et la phase S sont concurrentes, tels que la levure bourgeonnante, les retards aux points de contrôle postréplicatifs sont l'état d'avancement de la mitose à la métaphase. Rôle de complexes cycline-CDK : Les complexes cycline-CDK sont des kinases capables de phosphoryler des protéines substrats. Ils sont constitués des deux sous-unités : la cycline (sous-unité activatrice de la kinase), et le CDK (sous-unité catalytique de la kinase). Les cyclines n’ont pas d’activité catalytique et les CDKs sont inactives en absence d’une Contexte et cas d’application 17 partenaire cycline. Les CDKs effectuent une commune réaction biochimique lorsqu’activées par une cycline liée appelée la phosphorylation ; ceci active ou ralentit les protéines cibles pour orchestrer l’entrée coordonnée à la phase suivante du cycle cellulaire. Des combinaisons cycline-CDK différentes déterminent les protéines ciblées en aval. Les CDKs sont exprimées constitutivement dans les cellules alors que les cyclines sont synthétisées à des étapes spécifiques du cycle, en réponse à divers signaux moléculaires. Lors de la réception d’un signal pro-mitotique extracellulaire, les complexes cycline-CDK de G1 deviennent actifs afin de préparer la cellule pour la phase S, en promouvant l’expression des facteurs de transcription qui à leur tour promeuvent l’expression des cyclines de S et des enzymes nécessaires pour la réplication de l’ADN. Les complexes cycline-CDK de G1 promeuvent également la dégradation des molécules qui fonctionnent comme les inhibiteurs de la phase S en les ciblant pour l’ubiquitination. Une fois qu’une protéine a été ubiquitinilée, elle est dégradée par le protéasome. Les complexes cycline-CDK actifs de S phosphorylent des protéines qui forment des complexes pré-réplications assemblés durant la phase G1 sur les origines de réplication de l’ADN. La phosphorylation sert à deux objets : pour activer chaque complexe pré-réplication déjà-assemblé, et pour prévenir la formation de nouveaux complexes. Ceci assure que chaque portion de génome de la cellule sera reproduite une fois et une seule fois. La raison de prévention de gaps en réplication est claire, parce que les cellules enfants manquant de tout ou partie des gènes essentiels seront mortes. Toutefois, pour les raisons liées aux effets du nombre de copies de gènes, la possession de copies extra de certains gènes est aussi délétère pour les cellules enfants. Les complexes mitotiques cycline-CDK, synthétisés mais inactifs pendant les phases S et G2, promeuvent l’initiation de mitose en stimulant les protéines en aval impliquées dans la condensation des chromosomes et l’assemblage du fuseau mitotique. L’ubiquition ligase fait partie d’un complexe (APC) indispensable à la promotion de l’anaphase. Ce complexe chargé de dégrades les protéines vise également les cyclines mitotiques. La cycline D est la première cycline produite dans le cycle cellulaire, en réponse aux signaux extracellulaires (facteurs de croissance, par exemple). La cycline D se lie à la CDK4 existante, forme le complexe de cycline D-CDK4 actif. Le complexe de cycline D-CDK4 à son tour phosphoryle la protéine du rétinoblastome susceptibilité (Rb). Le Rb hyperphosphorylée se dissocie du complexe E2F/DP1/Rb, ceci active E2F. L’activation d’E2F entraîne la transcription de divers gènes, comme cycline E, cycline A, ADN polymérase, etc… La cycline E ainsi produite se lie à CDK2, ceci forme le complexe de cycline E-CDK2, qui pousse la cellule de phase G1 à la phase S (transition G1/S). La cycline B avec le complexe cdc2 (cdc2 – levures à fission, CDK1 – mammalien) forme le complexe de cycline B-cdc2, qui prend l’initiation de la transition G2/M. L’activation du complexe cycline B-cdc2 cause la rupture de l’enveloppe nucléaire et l’initiation de la prophase. Et par la suite, sa désactivation entraîne la cellule à sortir de la mitose.18 Contexte et cas d’application Figure 1.10. Molécules régulant intervenant dans le cycle cellulaire chez les mammifères (source : wikipedia.org) cdc2 (levures) = CDK1 (mammifères) Il semble qu’un réseau semi-autonome de la transcription agit en concert avec la machinerie cycline-CDK pour régler le cycle cellulaire. Plusieurs études d’expression génique ont identifié environs 800 à 1200 gènes dont l’expression change au cours du cycle cellulaire. Ils sont transcrits à des niveaux élevés à des points spécifiques du cycle cellulaire, et restent à des niveaux faibles dans le reste du cycle cellulaire. Tandis que l’ensemble des gènes identifiés diffère entre les études en raison de méthodes de calcul et des critères utilisés pour les identifier. L’expression de nombreux gènes est modulée par des facteurs de transcription exprimés aussi périodiquement. Les profils d’expression de ces facteurs de transcription sont modulés par les facteurs de transcription exprimés dans la phase précédente, et des modèles informatiques ont montré qu’un réseau CDK-autonome des facteurs de transcription est suffisant pour produire les oscillations dans l’expression de gènes. Rôle dans la formation tumorale : Une déréglementation du cycle cellulaire peut conduire à la formation de tumeur. Certains gènes tels que les inhibiteurs du cycle cellulaire, RB, p53, etc., lorsqu’ils sont mutés, peuvent permettre à la cellule de se multiplier sans contrôle, provoquant alors l’apparition de tumeurs. Bien que la durée du cycle cellulaire dans les cellules tumorales soit égale ou supérieure au cycle cellulaire dans les cellules normales, la proportion des cellules qui se trouvent dans la division cellulaire activée (par rapport à des cellules quiescentes en phase G0) dans les tumeurs est beaucoup plus élevée que dans les tissus normaux. L’ADN des cellules activées au cours du cycle cellulaire est ciblé dans le traitement du cancer car il est relativement exposé pendant la division cellulaire et donc susceptible d’être endommagé par des médicaments (intercalant de l'ADN) ou des radiations. La radiothérapie ou la chimiothérapie en suivant la procédure de réduction tumorale tuent les cellules qui sont récemment entrées dans le cycle cellulaire. En général, les cellules sont plus radiosensibles à la fin de M et de G2, et plus résistantes à la fin de S. Le motif de la résistance Contexte et cas d’application 19 et de la sensibilité est en corrélation avec le niveau de composé de sulfhydrile dans la cellule. Les sulfhydriles sont les radio-protecteurs et tendent à être à leur plus haut niveau en phase S et à leur plus bas près de la phase M. Le cycle cellulaire est contrôlé en plusieurs points de contrôle. Lorsque les cellules subissent un stress extracellulaire ou intracellulaire, ou les deux, ces points de contrôle, spécialement G1/S et G2/M qui sont contrôlés par un nombre de complexes composés des cyclines-CDKs et leurs régulateurs négatifs, incluant la famille Cip/Kip et la famille INK4a/ARF, sont activés. Le point G1/S est la première surveillance du système pour arrêter la synthèse de l’ADN quand les cellules subissent un stress extracellulaire et il est un pas effectif de contrôle de la prolifération et l’apoptose cellulaire. Le point de contrôle G1/S est situé à la fin de phase G1, juste avant la phase S, prend la décision importante de savoir si la cellule doit se diviser, retarder la division ou entrer en phase de repos. De nombreuses cellules s’arrêtent à ce stade et entrant en phase de repos appelée G0. Les cellules du foie, par exemple, n’entrent uniquement en phase M qu’une ou deux fois par an. Réseau de p53 : p53 (aussi appelé protéine 53 ou protéine tumorale 53) joue un rôle important en causant un contrôle mécanique aux deux points de contrôle G1/S et G2/M. La perte de contrôle de stabilité génomique est un élément central dans le développement du cancer, et p53, par la régulation des réponses normales au dommage de l’ADN et autres formes de stress gèno-toxique, est un élément très important dans le maintien de la stabilité génomique. Ainsi, il n’est pas surprenant que la protéine p53 fonctionnelle est perdue dans environ la moitié de tous les cancers humains. Qu’en est-il de l’autre moitié ? Une possibilité est que les mécanismes p53-indépendants de régulation ont été perdus. Une autre possibilité est que l’inactivation des voies p53-indépendantes peut arriver à n’importe lequel de plusieurs points différents et que la p53 elle-même n’est que la cible la plus courante. Par exemple, l’inhibiteur Mdm2 de p53 est surexprimé dans les tumeurs, indépendamment de la mutation de p53. Maintenant, vu les voies de signal qui arrivent à p53, en réponse à différentes formes de stress, et les voies de signal qui sortent de p53, déclenchés par p53 activée, il est clair que la p53 est le composant central d’un réseau complexe de voies de signalisation et que les autres composants de ces voies présentent les cibles alternatives pour l’inactivation. - Signal d’entrée : La quantité de p53 augmente en réponse à une série de signaux, tels que le dommage de l’ADN, l’arrêt de la synthèse de l’ARN ou de l’ADN, ou la déplétion de nucléotides. Les mêmes stimuli activent également la p53, qui est souvent latente en l’absence de stress. Des évidences récentes ont également montré que la protéine Mdm2, qui se lie à p53, accélère la dégradation de p53, éventuellement par la voie d’ubiquitine. Le fait que le gène Mdm2 est une cible traductionnelle de p53 suggère une base moléculaire pour les protéines p53 mutantes. Par conséquent, la stabilité de ces protéines mutantes semble être due à leur incapacité à régler positivement l’expression de Mdm2, une protéine impliquée dans leur dégradation, plutôt qu’une propriété intrinsèque conférée par la résistance à la dégradation.20 Contexte et cas d’application Une augmentation dans la transactivation de p53, sans augmentation dans le niveau de concentration de la protéine, a été trouvée dans les cellules traitées avec des doses basses de radiation d’UV, et la micro-injection d’un anticorps contre le domaine Cterminal stimule également la transcription p53-dépendente, même en l’absence de dommage à l’ADN. Plusieurs processus peuvent être impliqués dans l’activation de p53, ils incluent la phosphorylation, la glycosylation, la liaison aux protéines régulatrices, l’épissage alternatif, et l’acétylation. Comment p53 « sent » les signaux ? Plusieurs protéines connues sont suspectées. La protéine kinase ADN-dépendante (DNAPK), un candidat plausible, se lie à et est activée par les extrémités cassées de l’ADN, elle peut phosphoryler des résidus 15 et 37 de p53 d’une manière ADN-dépendante. La phosphorylation de la serine 15 affecte la transactivation et les fonctions d’arrêt de croissance de p53 dans des cellules. Cependant, les cellules dépourvues de DNAPK ne montrent aucun défaut dans l’inhibition p53-médiée du cycle cellulaire, montrant que si DNAPK a un rôle dans la régulation de p53, d’autres composants doivent être en mesure de compenser sa perte. De nombreuses protéines kinases ont été montrées pour phosphoryler p53 in vitro et sont des candidats pour être des régulateurs en amont. Cependant, très peu de données in vitro existent pour le rôle de la phosphorylation dans la régulation de p53. Les travaux récents qui montrent que p53 peut être acétylée in vitro sont intrigants et suggèrent la possibilité d’un mécanisme supplémentaire de régulation. Toutefois, il est nécessaire de montrer que l’acétylation se produit en réponse à un stress. La poly (ADP-ribose) polymérase (PARP) a longtemps été connue pour avoir un rôle dans la reconnaissance de l’ADN endommagé et dans sa réparation. Les cellules PARP-KO de hamster chinois sont défectueuses dans l’activation de p53 et résistantes à l’apoptose induite par le dommage à l’ADN. Toutefois, des fibroblastes PARP-KO d’embryon des souris ont une réparation normale de l’ADN, et bien qu’il existe une diminution appréciable dans l’induction de p53 après le dommage de l’ADN ou la déplétion de nucléotide, il n’y a pas de changement dans l’activité de p53 dans les réponses cellulaires au stress. Par conséquent, bien que PARP soit impliquée dans l’augmentation de la quantité de p53 dans les fibroblastes de souris, d’autres voies de signalisation doivent être plus importantes dans l’activation de p53 en réponse aux dommages de l’ADN. La perte de l’ATM, le produit du gène de l’ataxie télangiectasie, ralentit l’induction de p53 en réponse à des ruptures de brins d’ADN causées par γ- radiation, mais pas en réponse à des dimères de pyrimidine causées par radiation d’UV. De même, p53 est induite normalement dans les cellules ATM-KO humaines après traitement avec N-(phosphonacétyl)-L-aspartate (PALA), qui bloque la biosynthèse de novo UMP, ou l’adriamycine, qui endommage l’ADN. La p53 et l’ATM peuvent à la fois être des composants de complexes qui fonctionnent dans la recombinaison. De même, le produit du gène impliqué dans le syndrome de la rupture de Nimègue (NBS) a également été placé en amont de p53 dans la voie qui répond aux rayonnements ionisants mais pas dans les réponses à d’autres agents endommageant l’ADN. Parce que les défauts dans l’induction de p53 dans les cellules ATM-KO sont Contexte et cas d’application 21 partiels ou sélectifs pour certains types de dommages de l’ADN, ces produits de gènes sont impliqués dans certains mais pas tous les signaux. Des knockouts doublés ou triplés doivent avoir un défaut plus profond dans l’induction de p53 en réponse aux dommages de l’ADN. Les défauts partiels similaires dans la signalisation de p53 ont été observés dans le syndrome de l’anémie de Fanconi (FAS) et le syndrome de Bloom (BLS) des fibroblastes, ceci suggère que de nombreuses voies régulent p53. Récemment un rôle pour l'oncogène Ras et la voie des MAP kinases a été démontré dans la modulation et le fonctionnement de p53 dans les cellules humaines et de rongeurs. L’expression élevée de Ras ou l’activation de la voie de Mos/MAPK induit des niveaux de p53 de type sauvage et cause un arrêt de la croissance permanente, semblable à la sénescence cellulaire. Les cellules dépourvues de p53 peuvent tolérer des niveaux élevés de MAPK et affichent beaucoup d’arrêts p53-dépendants du cycle cellulaire et d’instabilité génomique. Dans une lignée de cellules défectueuses dans la voie des MAP kinases et dans l’expression de p53, une expression accrue de la MAP kinase, ERK2 restaure les niveaux normaux de p53, ce qui montre clairement que ERK2 est dans une voie qui régule le niveau d'expression de p53. Cette MAPK a été montrée pour phosphoryler les résidus 73 ou 83 de p53 in vitro, et cette phosphorylation peut être importante dans la stabilisation de la protéine. D’autres kinases, comme DNAPK II, cycline A-Cdc2, et cycline B-Cdc2, sont connues pour phosphoryler la protéine p53 in vitro et peuvent jouer un rôle dans la stabilisation de p53. Les mécanismes de l’induction de p53 en réponse aux types différents de stress sont encore largement méconnus. - Signalisation post p53 : p53 est impliquée dans plusieurs aspects différents de l’arrêt du cycle cellulaire, l’apoptose, contrôle de l’intégrité du génome, et la réparation de l’ADN. Comment p53 régule de nombreux processus différents ? p53 est un tétramère qui peut se lier à des séquences spécifiques de l'ADN et donc transactiver de nombreux gènes. Plusieurs travaux ont montré que la p53 active est associée différemment sur les promoteurs, ceci entraîne la liaison et la transactivation différentielles de l’ADN. La p53 peut également inhiber l’expression de certains gènes. En outre, certains phénotypes p53-dépendents ne comportent pas de régulation de la transcription du tout. - Contrôles du cycle cellulaire : La transition G1/S – Les anticorps, qui reconnaissent l’extrémité terminale C de p53, empêchent des fibroblastes stimulés d’entrer dans la phase S. Ce résultat, à l’origine interprété comme une preuve qu’une fonction positive de p53 a été nécessaire, pose un paradoxe quand la surexpression de la p53 typesauvage a été trouvée causant un arrêt de la croissance. Le paradoxe a été résolu quand on a constaté que ces anticorps inhibent plutôt que d’activer p53. Il est maintenant mieux compris que p53 est le médiateur pour l’arrêt en G1 en réponse aux dommages de l’ADN causés par les UV ou la γ-radiation, les médicaments chimio-thérapeutiques ou la privation de nucléotides. La variabilité de type cellulaire dans l’arrêt p53- dépendant en G1 est illustré par les études avec la γ-radiation, ce qui dans les fibroblastes diploïdes normaux provoque un arrêt long-terme p53-dépendant associé à l’induction prolongée de p21/Waf1. L’irréversibilité de cet arrêt dépend de 22 Contexte et cas d’application l’incapacité de ces cellules à réparer même un petit nombre de cassures double-brin de l’ADN, de sorte que le signal d’activation persiste. En revanche, la γ-irradiation de cellules HT1080, issues d’un fibrosarcome avec la p53 type-sauvage, provoque un arrêt en G1 transitoire, tandis que la lignée tumorale colorectale RKO et la lignée tumorale mammaire MCF7, qui ont également une p53 type-sauvage, ne parviennent pas à arrêter en G1 après l’irradiation. Ces différences peuvent indiquer que la formation tumorale peut impliquer l’inactivation des composants en amont ou en aval de p53, ce qui provoque un échec de la réponse cellulaire aux dommages à l’ADN. Par exemple, la γ-irradiation active p53 pour activer la transcription de p21/Waf1, qui se lie à et inhibe les kinases cycline-dépendantes, provoque une hypo-phosphorylation de Rb, empêchant ainsi la libération de E2F et bloque la transition G1/S. La modification d’un de ces composants en aval peut avoir un effet similaire à celui de l’inactivation de p53 lui-même dans la prévention de la voie de signalisation. La p53 fuseau est impliquée dans un point de contrôle qui empêche la réplication de l’ADN lorsque le fuseau mitotique a été endommagé. Lorsque le contenu de l’ADN des fibroblastes d’embryons a été mesuré après le traitement avec du nocodazole ou autres inhibiteurs de l’assemblage des microtubules, il a été constaté que les fibroblastes normaux ont un contenu 4 N de l’ADN, tandis que les fibroblastes p53- KO atteignent des contenues de l’ADN de 8 ou 16 N. La destruction du fuseau peut bloquer la progression en mitose, ou la réplication peut être contrôlée en bloquant l’entrée à la phase S. Dans la lignée cellulaire murine avec p53 type-sauvage, la nocodazole cause un arrêt mitotique transitoire, à la suite de l’entrée en G1 sans ségrégation des chromosomes. Après la mitose, p53 est induit. La conclusion selon laquelle p53 induite en réponse aux dommages du fuseau bloque l’entrée à la phase S a été obtenue par l’analyse de la synthèse de l’ADN dans les fibroblastes exposées au nocodazole ou à la colcémide. Il est intéressant de noter que, les fibroblastes des p21/Waf1-KO de souris ne reproduisent pas leur ADN lorsqu’ils sont traités avec des poisons du fuseau. Par conséquent, p53 doit également utiliser le mécanisme p21-indépendent pour arrêter les cellules en G1 et donc inhiber la réplication en réponse à des poisons du fuseau. L’homéostasie du centrosome – Les fibroblastes p53-KO d’embryon de souris acquièrent plus de deux centrosomes, conduisant à la mitose avec plus de deux pôles du fuseau. p53 est associée aux centrosomes et donc peut affecter directement la duplication des centrosomes. Comme alternatif, la duplication impropre des centrosomes peut induire l’activation de p53, ceci peut à son tour causer l’arrêt dans G2 ou G1. Il est curieux que les MAP kinases et Cdc2, capables de phosphoryler p53, sont également liées aux centrosomes, et, comme p53, la MAP kinase est importante pour l’homéostasie de centrosomes [25]. Contexte et cas d’application 23 Figure 1.11. Composants de la voie de signalisation p53 (source : Munna et all 1998 [25]) p53 s’accumule et est modifiée et activée en réponse aux signaux générés par une variété de stresses génotoxiques. Plusieurs protéines, incluant ATM, PARP, FAS, BLS, et NBS sont impliquées dans l’activation, mais les voies qui conduisent à la modification sont largement inconnues. La voie RAS-MAP kinase est impliquée dans les niveaux de base de p53 et peut également affecter sa fonction. Certaines des fonctions cellulaires affectées par p53 peuvent être compromises par l’expression dérégulée de Myc, Bcl2, E1B, ou E2F. Le contrôle de l’activité de p53 comprend une boucle autorégulatrice liée à Mdm2. L’ensemble des voies p53-dépendentes aident à maintenir l’intégrité génomique par l’élimination des cellules endommagées, soit en les arrêtant de façon permanente ou par apoptose. p53 aide également à régler l’entrée en mitose, la formation du fuseau, et l’intégrité centrosome. - Régulation de l’apoptose : p53 joue un rôle dans le déclenchement de l’apoptose dans certains types cellulaires, par exemple pour les cellules d’origine hématopoïétique. Les stimuli tels que les dommages à l’ADN, le retrait des facteurs de croissance, et l’expression de Myc ou E1A peuvent également causer l’apoptose p53-dépendente. La p53 doit être capable de fonctionner comme un facteur de transcription pour bloquer la transition G1/S, mais l’apoptose ne requiert pas nécessairement l’activation de la transcription, car l’inhibition de la transcription par l’actinomycine D ou de la traduction par la cycloheximide n’affectent pas toujours l’apoptose p53-dépendente. En outre, les inhibiteurs de phosphatase induisent l’apoptose p53-dépendente en l’absence de transactivation. Cependant, les protéines pré-apoptotiques Bax et Igf-Bp3 sont des cibles de la transcription activée par p53, ceci suggère que la transactivation par p53 est importante dans l’induction de l’apoptose dans certaines circonstances. En outre, les anti-apoptotiques Bcl2 et la protéine adénovirus 19-kDa E1B peuvent prévenir l’apoptose p53-médiée. En réponse à un même stimulus p53 induit une apoptose dans certains types de cellules, mais un arrêt du cycle cellulaire dans les Hausse de quantité ou d’activité de p53 E2F RB Arrêt de G1 MYC Stimuli Instabilité génomique Apoptose Voie de kinases RAS/MAP Inhibition de mitose checkpoint du fuseau centrosome duplication BAX BCL2 ou E1B PARP, ATM, NBS, BLS, FAS, Modificateurs biochimiques p21 MDM2 CDK4 Cycline D + E2F Progression de phase S P RB24 Contexte et cas d’application autres. Plusieurs variables, telles que l’ampleur des dommages à l’ADN et les niveaux de p53, affectent également le choix entre l’arrêt du cycle cellulaire et l’apoptose. Également, le dialogue entre les voies de p53 et de Rb peut être important dans la détermination de ces réponses biologiques aux dommages à l’ADN. Par exemple, l’inactivation de Rb cause la perte de l’arrêt en G1 et l’induction de l’apoptose après dommages à l’ADN. Ceci peut être expliqué par la libération de E2F, qui, lorsqu’il est surexprimé à lui seul peut induire l’apoptose. Par ailleurs, la surexpression de Rb bloque l’apoptose p53-médiée. - Stabilité génomique : Le contrôle p53-dépendant du cycle cellulaire maintient l’intégrité génétique dans la population des cellules. L’amplification du gène est un modèle utilisé largement pour étudier l’intégrité génétique. Dans la plupart des cellules transformées ou immortalisées, des médicaments tels que PALA ou méthotrexate inhibent la synthèse de précurseurs nucléotidiques. La fonction de p53 est fréquemment perdue au cours du processus de tumorigenèse et dans l’immortalisation spontanée des cellules primaires, ceci indique que p53 peut être le facteur principal déterminant la permissivité pour l’amplification génique. En effet, les fibroblastes d’embryons de souris p53-KO sont permissives pour l’amplification génique, et des cellules humaines primaires de patients de Li-Fraumeni sont devenues permissives dès qu’elles ont perdu leur seul exemplaire de p53 de type sauvage. Quel signal est généré en tant que partie du mécanisme de l’amplification génique qui pourrait activer les voies p53-dépendantes et prévenir la propagation de cellules résistantes aux médicaments? Le modèle actuel de l’amplification implique, dans une première étape essentielle, de multiples cycles pont-cassé-fusions dans lesquels l’ADN cassé est formé tout au long d’une lignée entière des cellules enfants. L'importance des lésions de l'ADN dans la régulation des stades précoces de l'amplification génique a été démontrée avec des cellules REF52 transfectées avec un mutant de grand antigène T de SV40 sensible à la température. Lorsque ces cellules sont choisies avec PALA à la température basse, l’antigène T inactive p53, ceci rend les cellules permissives pour l’amplification génique. La restauration de p53 en inactivant l’antigène T à une température plus élevée très tôt dans le processus de formation des colonies PALA-résistantes arrête stablement toutes les cellules contenant l’ADN nouvellement amplifié. Des lignées cellulaires humaines peuvent acquérir une résistance à PALA par des mécanismes autres que l’amplification génique in situ, qui est de loin le mécanisme le plus commun dans les cellules de rongeurs. La plupart des colonies PALA-résistantes, provenant de plusieurs lignées cellulaires humaines, ne contiennent pas d’ADN. Cependant, dans les deux cas, les voies p53-dépendantes sont toujours impliquées. L’épuisement des nucléotides pyrimidiques causés par PALA génère un signal pour l’induction de p53 avant que tout endommagement de l’ADN ne se produise, en arrêtant les cellules et inhibant la formation des colonies PALA-résistantes. Réseau de Chk2 : Pommier et al ont montré le rôle de Chk2 (et de Chk1 aussi) dans les cellules. Les agents ciblant l’ADN ont été utilisés dans la chimiothérapie du cancer, et peuvent guérir les patients atteints de leucémies, lymphomes, et cancers des testicules. Dans de nombreux autres cancers, les réponses à ces thérapies sont limitées et la rechute est Contexte et cas d’application 25 courante. Une approche consiste à rechercher les déterminants moléculaires de réponse tumorale et à extraire les paramètres moléculaires à utiliser pour prédire la réponse tumorale. Les paramètres moléculaires comprennent le point de contrôle du cycle cellulaire, les voies de la réparation de l’ADN et de l’apoptose. Les points de contrôle cellulaires sont des voies moléculaires, qui sont activées en réponse aux dommages à l’ADN. L’Activation des points de contrôle peut tuer les cellules endommagées par apoptose ou arrêter la progression du cycle cellulaire pour réparer l’ADN avant la reproduction/division cellulaire. Deux voies bien connues sont les voies ATM-Chk2 et ATR-Chk1. La voie ATM-Chk2 est principalement activée par la cassure double-brin de l’ADN (DSB) produite par les rayonnements ionisants (IR) ou les agents endommageant de l’ADN tels que la bléomycine et la camptotécine. La voie ATR-Chk1 apparaît dans le cas de la DSB réplication-médiée, à côté de la voie ATM-Chk2. Les deux voies ATM-Chk2 et ATRChk1 semblent fonctionner comme des cascades de transduction parallèles des dommages à l’ADN. Il existe cependant un dialogue entre les deux voies, ATM peut également phosphoryler Chk1 en réponse à IR, et ATR peut phosphoryler Chk2 en réponse aux dommages réplication-associés. ATM et ATR appartiennent à la famille des kinases phosphatidylinositol-3 (PI3K), qui contient également la kinase ADN-dépendante (DNA-PK) et ATX. La fonction des PI3K est de former des grands complexes multi-protéiques dans le voisinage des dommages à l’ADN. L’Activation de la famille PI3K conduit à la phosphorylation/activation directe des effecteurs du point de contrôle (Cdc25A et Cdc25C, p53, BRCA1), et indirectement par la phosphorylation/activation des kinases Chk1 et Chk2, qui, à leur tour, phosphorylent les effecteurs du point de contrôle. Les Chk1 et Chk2 ont des rôles redondants partiellement pour l’arrêt/point de contrôle du cycle cellulaire, la réparation de l’ADN, et la transcription de l’ADN, car elles partagent une gamme de substrats, incluant p53, Cdc25A et Cdc25C. Pour la Chk2 humaine, le domaine SQ/TQ est dans la partie NTerminale, et plus spécialement, T68 est une cible de PI3K’s. La phosphorylation de T68 est une condition préalable pour l’autophosphorylation ultérieure sur T383 et T387, et l’activation de Chk2. Le domaine FHA fonctionne comme des sites de liaison pour les protéines phospho-thréonines (pT)-contenant, y compris les substrats de Chk2 aussi bien que Chk2 T68-phosphorylée. Le domaine de kinase catalytique (résidu 226-486) contient une boucle de l’activation autour de l’autophosphorylation/activation de résidus T383/387. Deux mutations, D347A ou D368N induisent une Chk2 kinase-morte. Le signal nucléaire de localisation (NLS) de Chk2 se trouve vers le C-Terminus. La phosphorylation de la Sérine 516 est impliquée dans l’apoptose en réponse aux dommages de l’ADN (DSB). Ainsi, DSB active Chk2, qui à son tour phosphoryle les substrats dont la phosphorylation réglemente des points de contrôle, qui soit tuent les cellules par l’apoptose ou arrêtent le cycle cellulaire et améliorent la survie cellulaire en laissant du temps pour la réparation. - Activation de Chk2 par les dommages à l’ADN : En réponse aux DSB, Chk2 est phosphorylée par ATM (et ATR aussi) et DNA-PK, qui à son tour active Chk2 soit directement par phosphorylation de T68, soit indirectement lorsque ATM phosphoryle/active la Plk3. La phosphorylation de T68 est une condition préalable pour l’activation de Chk2. Elle est essentielle pour la dimérisation (une T68 phosphorylée d’une Chk2 fait l’interaction avec le domaine FHA d’autre), qui autorise 26 Contexte et cas d’application la trans-phosphorylation intermoléculaire de Chk2 sur T383/387 dans la boucle d’activation du domaine kinase et la cis-phosphorylation sur S516. La phosphorylation est nécessaire à l’activation complète de Chk2 vers ses substrats hétérologues. Le domaine FHA de Chk2 est essentiel pour que la mutation I157T diminue dans la dimérisation et l’activation de Chk2. La phosphorylation ATMdépendante ne peut pas arriver librement dans le nucléoplasme, mais nécessite des complexes de protéines adaptatrices spécifiques DSB-associées contenant des motifs BRTC. Ainsi, la phosphorylation ATM-dépendante de Chk2 nécessite Nbs1 intacte, Brca1, la réparation fonctionnelle de mésappariement, et est stimulée par la liaison à la protéine liée, 53BP1. Aussi, la protéine partenaire Chk2-liée MDC1 est nécessaire pour les réponses Chk2-médiées aux dommages de l’ADN. MDC1, comme Chk2, contient un domaine FHA, et est phosphorylée d’une manière ATM/Chk2-dépendante. La suppression de l’induction de MDC1 entraîne la défection du point de contrôle de phase S. MDC1 est trouvée sur les sites de cassures de l’ADN, et associée à Chk2 T68-phosphorylée après dommages à l’ADN. Chk2 active ses cibles en aval, dont sept sont actuellement connues. Trois sont impliquées dans l’apoptose : PML, p53 et E2F1. Deux sont impliquées dans l’arrêt au point de contrôle du cycle cellulaire : Cdc25A et Cdc25C. Brca1 règle probablement la structure de la chromatine, l’induction de la réparation de l’ADN. La cible de Chk2 la plus récemment identifiée est la phosphatase-2A (PP2A), qui à son tour peut inactiver Chk2 par la déphosphorylation de T68. - Cibles en aval de Chk2 impliquées dans l’apoptose : Chk2 peut régler l’apoptose par phosphorylation de PML. Les polymères PML sont normalement concentrés dans les corps nucléaires qui contiennent au moins 30 protéines différentes impliquées dans la réparation de l’ADN, le point de contrôle du cycle cellulaire, la dégradation de protéine et l’apoptose telles que p53, Nbs1, BLM, pRb, Dax. La deuxième cible de Chk2 impliquée directement dans l’apoptose est p53. Chk2 phosphoryle p53 sur la S20, la phosphorylation active p53 par prévention de la liaison de Mdm2 à p53, et donc la dégradation Mdm2-médiée de p53. Chk2 peut également induire l’activité de transcription de p53 par dissociation de Mdm2 à p53. La liaison de Chk2 à 53BP1 (un régulateur de transcription de p53), peut également contribuer à l’activation de la transcription de p53. Chk1 et Jnk peuvent également phosphoryler p53, ce qui explique que le knockout de Chk2 ne prévient pas la phosphorylation IR-inductive de p53 sur S20. Chk2 phosphoryle aussi E2F1. Un ensemble des gènes impliqués dans l’apoptose sont transactivés par la sur-induction d’E2F1, sont inclus INK4a/ARF, p73, Apaf-1, Noxa at PUMA. La phosphorylation d’E2F1 sur S364 par Chk2 augmente sa demi-vie en bloquant sa dégradation, qui améliore l’activité de transcription d’E2F1. E2F1 est également phosphorylée sur S31 et activée directement par ATM (et ATR) en réponse aux dommages de l’ADN. Les dommages à l’ADN peuvent diriger E2F1 sur ses gènes cibles apoptotiques. - Cibles en aval de Chk2 impliquées dans l’arrêt du cycle cellulaire : Chk2 peut inactiver les kinases cycline-dépendantes et induire l’arrêt du cycle cellulaire par phosphorylation et donc inactivation de Cdc25A et Cdc25C, deux des trois kinases de Cdc25. La phosphorylation de Cdc25A induit sa dégradation, et bloque les cellules à Contexte et cas d’application 27 la frontière G1/S. Les deux Chk1 et Chk2 peuvent effectivement phosphoryler Cdc25A sur S123. La phosphorylation qui en résulte conduit à l’ubiquitination et la dégradation rapide de Cdc25A par le protéasome. La phosphorylation Chk2-médiée de Cdc25C sur S216 inactive Cdc25C par induction de sa liaison à la protéine 14-3-3 et son exportation nucléaire. Donc, l’inactivation de Cdc25C prévient l’activation de Cdk1/cycline A et Cdk1/cycline B, et donc induit l’arrêt G2/M. La phosphorylation/l’activation de p53 peut également fonctionner comme une réponse d’arrêt du cycle cellulaire G1 retardée par induction de la transcription de p21 et de Gadd45. - Rôle possible de Chk2 en réparation de l’ADN : Aucun rôle direct de Chk2 en réparation de l’ADN a encore été montré. Cependant, il y a des preuves de relier l’hyper-phosphorylation Chk2-médiée de BRCA1 au processus qui règle la réparation de DSB. BRCA1 est un gène vital de suppresseur tumoral dont l’inactivation augmente le risque de cancer du sein et de l’ovaire. Les cellules déficientes en BRCA1 présentent une hypersensibilité aux agents d’IR et d’ADN-réticulation. La phosphorylation de BRCA1 induit la dissociation de BRCA1 de Chk2, une situation appelée interaction Chk2/PML. BRCA1 libre pourrait alors fonctionner en réparation de l’ADN et en régulation de la transcription. L’évidence récente suggère que l’inhibition de la phosphorylation Chk2-médiée via la mutation de S988 sur BRCA1 prévienne la régulation positive BRCA1-dépendante de la recombinaison homologue (HR) et la régulation négative d’end-jonction non-homologue (NHEJ). En vertu de la phosphorylation de p53, Chk2 est potentiellement capable de régler un certain nombre d’événements en aval qui sont réglementés par l’activité transcriptionnelle de p53 et impliqués en réparation. Une preuve supplémentaire que Chk2 pourrait fonctionner en réparation de l’ADN provient de l’interaction de Chk2 avec Msh2, qui est impliquée dans la réparation de décalage, et avec Mus81 qui est impliquée dans la réparation de DSB. - Autres substrats potentiels de Chk2 : Deux substrats potentiels supplémentaires de Chk2 sont la Phospho-kinase-3 (Plk3) et Mdm2. Plk3 forme une boucle d’activation positive avec Chk2, les deux kinases s’activent l’une l’autre. Par ailleurs, elles sont toutes les deux activées par ATM, et elles phosphorylent Cdc25C et p53. La phosphorylation de Mdm2 soit par Chk2, soit par Chk1 pourrait activer p53 en inactivant l’interaction p53-Mdm2, qui fonctionne comme un antagoniste de p53. 1.1.2. Inhibiteurs de Chk2 comme nouveaux agents anticancéreux Pommier et al ont trouvé que l’inhibition de l’activité de p53 a amélioré la réponse apoptotique des cellules p53-défectueuses à l’IR. Ainsi, il semble rationnel de proposer l’utilisation des inhibiteurs de Chk2 pour les tumeurs p53-déficients. 1.1.3. Problématique La régulation du cycle cellulaire est un processus décidant de la survie d’une cellule, contenant la détection et la réparation de dommage génétique ainsi que la prévention de la division cellulaire incontrôlée. Les événements moléculaires contrôlant le cycle cellulaire sont 28 Contexte et cas d’application ordonnés et directionnels. C’est à dire, chaque processus se déroule de manière séquentielle et il est impossible d’inverser le cycle. Deux classes principales de molécules, cyclines et kinases cycline-dépendantes (CDKs), déterminent un progrès cellulaire dans le cycle. Un grand nombre de gènes codant pour les cyclines et CDKs sont conservés chez tous les eucaryotes, mais en général, les organismes plus complexes ont des systèmes de contrôle du cycle cellulaire plus élaborés qui intègrent des composants individuels. 1.1.4. Exigences De nombreuses études se sont penchées sur la construction des réseaux de gènes grâce à des méthodes mathématiques ou logiques (Tomshine & Kaznessis, 2006 ; Brun et al, 2004). Le logiciel SOLAR [14] est un logiciel développé au Japon (Nabeshima et al, 2003), utilisant de la programmation logique et employé pour effectuer de la conséquence finding, c'est à dire trouver des conséquences logiques à partir d'un jeu de données. La logique basée sur l'abduction fait de ce logiciel un outil de choix pour une telle étude. D'autre part, c'est aussi et surtout parce que Katsumi Inoue a participé à son élaboration que le projet lui donne un rôle prépondérant. SOLAR a déjà été utilisé en biologie des systèmes, notamment sur p53 (Inoue et al, 2010), mais les résultats n'étaient pas aussi probants qu'on aurait pu espérer : un des objectifs de travail devait alors inclure une meilleure rigueur dans les données afin d'obtenir des résultats biologiquement significatifs. 1.2. Cas d’application 1.2.1. Contexte des gènes et leurs interactions Le modèle biologique adopté a suivi celui indiqué dans la carte de Pommier [24], et a été complété par des informations trouvées dans la littérature. Dans la carte, les symboles et conventions sont définis ci-dessous Figure 1.12. Définitions des symboles et des conventions de la carte Couleurs : Noir – interaction de liaison ; bleu – modification de protéine ; vert – processus enzymatiques ou autres stimulants ; rouge – inhibitions ou autres effets négatifs ; pourpre – activation de transcription ou répression.Contexte et cas d’application 29 Symboles : (a) Protéines A et B peuvent se lier, le nœud représente le complexe A:B ; (b) Complexes multimoléculaires ; (c) Modification covalente de A ; (d) Dégradation de A ; (e) Stimulation enzymatique en transcription ; (f) Stimulation enzymatique en trans; plus spécifiquement autophosphorylation en trans ; (g) Symbole général de stimulation; (h) Une barre derrière la tête de flèche signifie la nécessité ; (i) Symbole général d’inhibition ; (j) Symbole de raccourci pour l'activation de transcription ; (k) Symbole de raccourci pour l'inhibition de transcription Figure 1.13. La carte d'interaction de la réponse ATM-dépendante de la cassure double-brin (source : Pommier et al, 2005[24]) Explication de la carte : #1.D4 : Chk2 est activé suite à la phosphorylation par ATM en réponse à DSB (en anglais : double-strand break) et la réplication blocus menant à DSB de réplication-associée30 Contexte et cas d’application #2.D4 : ATR phosphoryle et active Chk2 en réponse à UV (ultraviolet) et réplication des blocs mais pas IR (en anglais : ionizing radiation). Ainsi, Chk2 peut être activé par des voies ATM indépendants #3.D5 : Chk2 est activé par homodimérisation et phosphorylé par des kinases PI3 #4.D4 : Nbs1 est nécessaire pour la phosphorylation ATM-dépendante et l’activation de Chk2. #5.C4 : Chaque molécule Nbs1 recrute un dimère de Mre11 et Rad50 aux foyers DSB, où le complexe nucléase Mre11-Rad50 répare le DSB #6.B4: Nbs1 est phosphorylée au S343 par ATM #7.B3: H2AX est phosphorylée au S139 (γH2AX) par ATM en réponse à DSB et par ATR et DNA-PK en réponse à la réplication-médiation DSB #8.D3: MDC1 forment les foyers nucléaires avec γ-H2AX et Chk2 T68-phosphorylée en réponse à l'IR. #9.D3: 53BP1, une autre protéine BRCT-contenant, améliore également la phosphorylation à T68 de Chk2 #10.C2: BRCA1 est phosphorylée par ATM sur plusieurs sites #11.D1: ATM phosphoryle CtIP sur S664 et S745, inhibant ainsi la liaison de CtIP à BRCA1 #12.C1: BRCA1 se lie à Rad50 en réponse à DSB et co-localise avec les foyers Mre11- Rad50-Nbs1 suivante l’IR #13.E4: Polo kinase 3 (PLK3), qui, comme Chk2, est présente pendant tout le cycle cellulaire, est phosphorylée et activée dans les minutes suivant IR et MMS de manière ATMdépendante #14.D3: Kinase Polo-like (Plk1) phosphoryle Chk2 (à T68), co-IP avec Chk2, et colocalise avec Chk2 à centrosomes #15.F4: Chk2 phosphoryle p53 sur T18 et S20, ceci empêche la liaison de p53-Mdm2 et de la dégradation de p53 #16.E5: Chk2 phosphoryle PML sur S117, qui se dissocie PML de Chk2 et active l'apoptose PML-médiation #17.F6: Chk2 phosphoryle E2F1 dans les cellules traitées avec de l'étoposide #18.C2: Chk2 phosphoryle BRCA1 au S988 #19.F2: La phosphorylation de Cdc25A par Chk2 et ATM au S123 induire la destruction de Cdc25A Contexte et cas d’application 31 #20.G2: La phosphorylation de Cdc25C par Chk2 et p38 MAPK inactive Cdc25C #21.D1: ATM est requis pour l'activation de p38-gamma, ce qui conduit à l'activation de Chk2, et est suffisante pour activer un arrêt G2-M en réponse à IR #22.E1: Jnk est activé par UV, et peut activer Cdc25C et inactiver p53 par la phosphorylation S20 #23.C5: La phosphorylation de FANCD2 en réponse à l'IR au S222 est ATM-dépendante (directe ou indirecte ne sait pas) et nécessite la phosphorylation au S343 de Nbs1 #24.D6: Mus81 se lie spécifiquement au domaine FHA de Chk2 et de Mus81 #25.D6: Msh2 lie à Chk2, et MLH1 lie à l'ATM #26.E6: La protéine phosphatase 2A (PP2A) se lie à Chk2 et déphosphoryle T68, inactivant ainsi Chk2 1.2.2. Définitions Quelques définitions sont données sur le langage de programmation utilisé dans la thèse : Prolog et logiciel SWI-Prolog. Le langage a en premier été conçu par un groupe autour d’Alain Colmerauer à Marseille, France, dans les années 1970. Il a été un des premiers langages de programmation logique, et reste le plus populaire parmi ces langages aujourd’hui, avec beaucoup d’implémentations gratuites et commerciales disponibles, l’une d’elles est SWI Prolog. Prolog (PROgramming in LOGic) est un langage de programmation de but général. Il est aussi appelé le langage de programmation de notation (symbolic programming) comme les langages de programmation fonctionnelle (functional programming) ou de programmation non-numérique (non-numerical programming). Ce langage de programmation est associé avec l’intelligence artificielle et la linguistique computationnelle. Il a ses racines en logique du premier ordre, une logique formelle, et contrairement à de nombreux autres langages de programmation. Prolog est déclaratif : le programme logique est exprimé en termes de relations : il est bien adapté pour résoudre les problèmes liés à des objets et des relations entre eux. Le principe de la programmation logique est basé sur les clauses de Horn. Une clause est appelée une clause de Horn si et seulement si elle a au plus un littéral positif. Par exemple, pour dire « Tous les hommes doivent mourir » et « Socrate est un homme », on peut déclarer: Clause 1 : mourir(X) ← homme(X) Clause 2 : homme(Socrate) Ce sont des clauses de Horn. La première clause est une règle, la deuxième est un fait. Un programme Prolog peut être considéré comme une base des données qui contient des clauses de Horn en forme de faits et/ou de règles. L’utilisateur peut exécuter un programme Prolog en posant des questions sur la base des données, par exemple : est-ce que Socrate doit mourir « mourir(Socrate) »? Le système va exécuter le programme en raisonnant – cherchant 32 Contexte et cas d’application sur la connaissance – la base des données, pour donner une réponse qu’elle soit « vraie » ou « fausse ». Pour l’exemple ci-dessus, le système va répondre à la question « Est-ce que mourir(Socrate) est vrai ?» en répondant à la question « Est-ce que « homme(Socrate) est vrai ?» (Clause 1). La réponse est « oui » (Clause 2), alors mourir(Socrate) est vrai. Un autre exemple plus compliqué, parent(Tom, Bob) signifie que Tom est parent de Bob. C’est un fait, dans lequel parent est un prédicat, Tom et Bob sont des arguments. Si on a parent(Tom, Bob) et parent(Bob, Liz), alors on a grandparent(Tom, Liz), signifie que Tom est grand parent de Liz. Généralement, X est grand parent de Z si et seulement s’il existe un Y, tel que X est parent de Y et Y est parent de Z. On a une règle comme grandparent(X, Z) ⃪ parent(X, Y) ⋀ parent(Y, Z) qui signifie que si X est parent de Y et Y est parent de Z, alors X est grand parent de Z. Dans Prolog, la règle est représentée par grandparent(X, Z) :- parent(X, Y), parent(Y, Z). Ensuite, une relation plus compliquée est définie, c’est l’ancêtre. X est ancêtre de Y si X est parent de Y, ou grand parent de Y, ou parent de grand parent de Y, etc. De façon récurrente, la relation peut être définie comme ça : X est ancêtre de Y si et seulement si (X est parent de Y ou X est parent de Z qui est ancêtre de Y). Dans Prolog, ceci est représenté par deux clauses consécutives : ancestor(X,Y) :- parent(X,Y) et ancestor(X,Y) :- parent(X,Z), ancestor(Z, Y). Pour écrire et exécuter des programmes, on utilise l’implémentation gratuite SWI-Prolog. SWI-Prolog appartient à la famille Prolog Edinburgh, il est en développement continu depuis 1987. Son principal auteur est Jan Wielemaker. Le nom est dérivé de SWI : SociaalWetenschappelijke Informatica (Social Science Informatique), le nom ancien du groupe de l’Université d’Amsterdam, où Wielemaker est employé. SWI-Prolog dispose d’une bibliothèque des prédicats et de guidage riche. Il fonctionne dans l’environnement graphique d’objet orienté. SWI-Prolog est assez simple à utiliser en exploitant les caractéristiques interactives graphiques. Après le téléchargement et l’installation de SWI-Prolog en ligne : http://www.swiprolog.org/, et l’exécution de swipl-win.exe, la fenêtre de travail apparaît pour déposer des questions. SWI-Prolog fonctionne en mode interactif : l’utilisateur dépose des questions et le système répond. L’invite de commande de SWI-Prolog est un point d’interrogation avec un tiret, l’ordre indiqué pour surveiller le processus de travail de l’utilisateur, puis un curseur clignotant. Après qu’un programme de Prolog soit compilé et chargé en mémoire, l’utilisateur peut déposer des questions (finies par un point). En fonction de la question, le système répond vrai (true) ou faux (false) avec une valeur X = < value > s’il y a une variable X quelconque dans la question. Dans le cas où il y a plusieurs réponses, après la première réponse, l’utilisateur peut taper un point-virgule s’il veut que le système continue à donner d’autres réponses, jusqu’à ce que le système réponde false (c’est à dire, il n’y a plus de réponse). Ou bien l’utilisateur peut Contexte et cas d’application 33 arrêter en tapant « entrée ». L’utilisateur peut également recevoir un message d’erreur s’il y a des problèmes dans la question déposée. Retourner au problème principal. Ayant pour base la carte de Pommier, le choix du prédicat le plus simple a été de se baser sur les types d’interactions déjà existantes sur cette carte : stimulation (une réaction enzymatique générale), phosphorylation, autophosphorylation, inhibition, nécessité (désigne une interaction nécessaire en tant que condition prérequis pour qu’une autre interaction soit réalisable), liaison, activation de transcription, dégradation et déphosphorylation. Le deuxième choix de stratégie est de vouloir représenter les interactions de la voie de signalisation de façon linéaire et chronologique, c’est à dire de vouloir créer un modèle dans lequel une interaction peut être issue d’une autre interaction, et va probablement entraîner une autre encore. Il s’agit alors de trouver une façon de représenter une succession chronologique des interactions. En effet, la carte d’interaction de Pommier ne montre que les interactions en elles-mêmes, de manière générale, sans distinction quant à leur ordre d’apparition dans la cascade d’événements. Le choix est alors d’inclure le facteur temps dans le modèle d’une manière indirecte, sur les conséquences de la succession des événements dans les états différents des protéines. En connaissant leur ordre chronologique d’apparition, on peut connaître l’évolution des événements en transposant chacun de ces états dans le modèle logique [22]. Par exemple : si ‘ATM → Chk2 → p53 → Apoptose’ est lu dans la carte, après descriptions on a alors ‘ATM/ATM (se phosphoryle) → pATM (ATM phosphorylé) → Chk2 (phosphoryle) → pChk2 (Chk2 phosphorylé) → Chk2/Chk2 (se lie) → p53 (phosphoryle) → pp53 (p53 phosphorylé) → Transcription → Apoptose’ L’étape suivante dans la réalisation de la thèse est de construire un modèle contenant les interactions présentes dans la voie de signalisation en réponse à la cassure double brin de l’ADN. Ce modèle doit avant tout être un modèle biologique avant d’être un modèle logique, car il faut dans un premier temps lister les interactions avant de les implémenter dans Prolog. La nécessité de définir un modèle biologique a entraîné de faire des choix dans les informations apportées à ce modèle. Pour pouvoir établir ce modèle, il faut une compréhension de la voie de réponse à la cassure double brin, or à l’heure actuelle, elle n’est pas encore bien connue. Des informations certaines restant encore à découvrir. Pour passer du modèle biologique au modèle logique, il faut considérer plusieurs contraintes : comment modéliser les interactions, bien faire attention au sens des implications logiques, respecter l'ordre chronologique préalablement défini et vérifier la cohérence des informations. Mais l'étape la plus importante à ce niveau d'avancement a été de bien définir les prédicats. Les prédicats choisis ont été calqués sur ceux de la carte de Pommier, à savoir stimulation, phosphorylation, autophosphorylation, inhibition, nécessité, liaison, activation de transcription, dégradation et déphosphorylation. Au départ, les prédicats ont été conceptualisés, pour la majorité d'entre eux, de la façon suivante : produit ⃪ réaction(enzyme, substrat). La réaction peut être stimulation, phosphorylation, déphosphorylation, liaison, activation ou dégradation. Par exemple, p*-Y ⃪34 Contexte et cas d’application phosphorylation(X, Y). Les autres prédicats qui ne sont pas de type produit ⃪ réaction(enzyme, substrat) sont modélisés séparément : p*-Y ⃪ autophosphorylation(Y) ¬Y ⃪ inhibition(X, Y) : si X est vrai, alors Y ne peut pas l’être Y ⃪ nécessité(X, Y) : pour que Y est vrai, X doit être vrai En effet, certains prédicats ont été modifiés, ou bien supprimés, au cours d’implémentations, tandis que d’autres ont été rajoutés grâce aux mises à jours effectuées dans le modèle biologique et avec l’avancement de son implémentation dans Prolog. Par exemple, les prédicats ajoutés sont ubiquitination, méthylation et dissociation. Une fois l’inventaire des réactions réalisé, un modèle biologique adopté, les prédicats choisis et réactualisés, il faut implémenter les informations dans Prolog. Pour la thèse, le logiciel SWI-Prolog a été utilisé. Ce programme utilise un fichier qui doit posséder une syntaxe propre. En effet, le fichier doit contenir des informations en forme de clauses, plus précisément des clauses en Forme Normale Conjonctive (CNF). Une CNF est une conjonction de clauses, de laquelle chaque clause est une disjonction de littéraux. Exemple : Soient A, B, C, et D des littéraux, contenus dans les clauses (A ⋁ B) et (C ⋁ D). Une CNF possible pourra alors être [(A ⋁ B) ⋀ (C ⋁ D)]. 1.2.3. Règles de comportements Il y a des règles de comportement entre les protéines dans le réseau de gènes. Par exemple, s’il y a une relation causale directe d’une protéine A à une protéine B, elle est définie que si cause(A, B) est vrai. En autres mots, si A cause B, et si A est vrai, alors B est vrai. Le fait qu’il n’y a pas de relation causale directe d’une protéine A à une protéine B est représenté par un contraire de la forme ¬cause(A, B). Similairement, s’il y a une relation de blocage directe d’une protéine A à une protéine B, elle est définie que bloque(A, B) est vrai, etc. Le prédicat bloque peut être expliqué ci-dessous : si A bloque B, est si A est vrai, alors B est faux. Dans ce contexte, pour donner les liens entre les relations cause et bloque, la logique classique est utilisé. La solution élémentaire est alors de donner explicitement les deux règles de comportements [3]. Règle 1 : cause(A, B) ⋀ cause(B, C) → cause(A, C) Règle 2 : cause(A, B) ⋀ bloque(B, C) → bloque(A, C) La règle 1 veut dire que si A cause B, et si B cause C, alors A cause C. Similairement, la règle 2 veut dire que si A cause B, et si B bloque C, alors A bloque C. Conclusion conséquente et la production 35 Chapitre 2. Conclusion conséquente et la production 2.1. Conclusion conséquente et SOL 2.1.1. Conclusion conséquente La conclusion conséquente est la tâche de calcul des théorèmes entraînés par un ensemble d'axiomes [10]. Son importance réside dans le fait que les tâches de raisonnement sont des cas particuliers de conclusions conséquentes [11]. Par exemple, la démonstration d’un théorème est équivalente à démontrer que la clause vide est une conséquence logique des axiomes et de la négation du théorème à démontrer. Un autre exemple est le raisonnement abductif, qui consiste à construire des hypothèses, lorsqu’est ajoutée à une théorie donnée une série d'observations [16]. Mais la génération des hypothèses par raisonnement abductif est équivalente à nier les conséquences de la théorie et de la négation des observations. De cette façon, la conclusion conséquente fournit un cadre général pour résoudre une variété de problèmes de raisonnement [17]. La plupart des applications de conclusion conséquente exigent les théorèmes générés pour satisfaire certaines propriétés syntaxiques. Par exemple, dans la démonstration de théorèmes, la seule conséquence d'intérêt est la clause vide, tandis que, dans l'abduction, les conséquences doivent en général être broyant des clauses unitaires dont les prédicats sont parmi un ensemble d’abductibles. En outre, pour éviter de produire un nombre infini de clauses redondantes et intérêt, il est généralement nécessaire de générer uniquement les conséquences qui ne sont pas englobées par d'autres [18,19]. 2.1.2. SOL G. Bossu et P. Siegel ont présenté un algorithme basé sur la SL-résolution pour implémenter une logique non-monotone, la sub-implication [29,30]. Cet algorithme est basé sur la génération de clauses caractéristiques. En [26] les clauses caractéristiques sont généralisées par P. Siegel pour définir les champs de production et leurs propriétés [26,31]. La thèse de 1987 [26] donne aussi un algorithme de production qui est une méthode complète pour calculer toutes les clauses impliquées par un ensemble de clauses et appartenant à un champ de production. Ces travaux ont été repris par Inoue [12] pour proposer la SOLrésolution comme une méthode complète pour trouver les clauses caractéristiques d'une théorie. Ensuite, Iwanuma et al. [14] ont reformulé la SOL-résolution dans le cadre des tableaux de la connexion et proposé plusieurs méthodes de taille pour élaguer des branches redondantes de l'espace de recherche. Tableaux de la connexion : Dans la logique du premier ordre, une clause est un multiensemble de littéraux, écrite comme une disjonction L1 ∨ …∨ Ln. La clause vide est notée ∅. Un littéral L est général maximum, si les arguments de L sont des variables distinctes. Par exemple, p(X, Y, Z) est un littéral général maximum. Un soulignement «_» est utilisé pour représenter une variable distincte si le nom de la variable n'est pas nécessaire, par exemple, p(_, _, _). L'ensemble de toutes les instances d'un littéral L est défini comme inst(L). Pour un 36 Conclusion conséquente et la production ensemble de littéraux L = {L1,. . . , Ln}, alors inst(L) = inst(L1) ∪…∪inst(Ln). Le nombre d'éléments dans un ensemble S est noté |S|. Occ(e, S) est le nombre d'occurrences de e dans S. Le signe ⊆ms désigne la relation d'inclusion sur les multi-ensembles, c'est-à-dire S1 ⊆ms S2 si et seulement si Occ(e, S1) ≤ Occ(e, S2) pour tout e contenu dans S1 ou S2. Lorsque C et D sont des clauses, C subsume D s’il y a une substitution θ telle que Cθ ⊆ms D. C subsume correctement D si C subsume D mais D ne subsume pas C. Pour un ensemble Σ de clauses, μΣ désigne l'ensemble des clauses de Σ non subsumées correctement par une clause dans Σ. Th(Σ) représente l'ensemble des conséquences logiques de Σ. Les clauses caractéristiques sont destinées à représenter les clauses «intéressantes», et sont construites sur un sous-vocabulaire du langage sous-jacent appelé un champ de production. Définition 2.1: Un champ de production P est une paire (L, Cond), où L est un ensemble de littéraux et Cond est une condition veut être satisfaite. Si Cond n'est pas spécifié, P est juste noté (L). Une clause C appartient à P = (L, Cond) si chaque littéral dans C appartient à inst(L) et C satisfaite Cond. Pour un ensemble de clauses Σ, l'ensemble des conséquences logiques de Σ appartenant à P est noté Thp(Σ). Un champ de production P est stable si, pour deux clauses des C et D telles que C subsume D, la clause D appartient à P seulement si C appartient à P. Définition 2.2: Les clauses caractéristiques de Σ par rapport à P sont Carc(Σ, P) = μThp(Σ). Soit C une clause. Les nouvelles clauses caractéristiques de C par rapport à Σ et P sont Newcarc(Σ, C, P) = μ[Thp(Σ ∪ {C}) \ Th (Σ)]. Proposition 2.1: Une clause est une nouvelle clause caractéristique de C par rapport à Σ et P si et seulement si elle est la clause caractéristique de Σ ∪ {C} mais pas la clause caractéristique de Σ. À savoir, Newcarc (Σ, C, P) = Carc(Σ ∪ {C}, P) \ Carc(Σ, P). Soit F = C1∧…∧Cm comme une forme normale conjonctive (CNF) de formule. Alors, �������(∑, �, �) = µ ���������(∑� , �� , �) � �=1 � où Σ1 = Σ et Σi+1 = Σi ∪ {Ci} pour i = 1,…, m - 1. Noter que Σ n’est pas consistent si et seulement si Carc(Σ, P) = {∅} pour tout champ de production stable P = (L, Cond). Cela signifie que la conclusion de preuve est un cas particulier de conclusion conséquente. D'autre part, si Σ |≠ L (Σ n’entraîne pas L) et Σ |≠ ¬L (Σ n’entraîne pas ¬L) pour les littéraux L et ¬L appartenant à P, Carc(Σ, P) contient une tautologie L ∨ ¬L tant que L ∨ ¬L satisfait Cond. Les clauses caractéristiques Carc(Σ, P) peuvent être exprimées en utilisant progressivement les opérations Newcarc. Soit Taut(L) l'ensemble des tautologies de la forme L ∨ ¬L tel que L et ¬L appartiennent à inst (L). Alors, pour un ensemble Σ de clauses, une clause C et un champ de production stable P = (L, Cond), il vient que : Conclusion conséquente et la production 37 Carc(∅, P) = μ{T | T ∈ Taut(L) et T satisfait Cond}, Carc(Σ ∪ {C}, P) = μ[Carc(Σ, P) ∪Newcarc(Σ, C, P)]. Pour calculer Newcarc(Σ, C, P), SOL se concentre sur la seule production des théorèmes appartenant à P, et traite une clause C nouvellement ajoutée comme la clause de départ. Ces caractéristiques sont importantes pour la conclusion conséquente car la procédure peut directement déduire les théorèmes relatifs à l'information ajoutée. Définition 2.3: Un tableau de clauses T est un arbre ordonné étiqueté, où chaque nœud non racine de T est marqué par un littéral. Un nœud est défini avec son étiquette (soit un littéral) si aucune confusion ne se pose. Si les successeurs immédiats d'un nœud sont des littéraux L1,…, Ln, alors la clause L1 ∨…∨ Ln est appelé une clause de tableau. La clause de tableau en dessous de la racine est appelée la clause de départ. T est un tableau de clauses pour un ensemble Σ de clauses si chaque clause de tableau C en T est une instance d'une clause D dans Σ. Dans ce cas, D est appelé une clause d'origine de C dans Σ. Un tableau de connexion (serré) est un tableau de clauses tel que, pour chaque nœud nonfeuille L sauf la racine, il y a un successeur immédiat marqué avec ¬L. Un tableau marqué T est un tableau de clauses tel que des feuilles sont marquées avec des étiquettes fermé ou sauté. Les feuilles non marquées sont appelées sous-buts. Un nœud N dans T est dit être résolu si N lui-même est un nœud de feuille marqué ou tous les nœuds de feuilles de branches à N de T sont marqués. T est résolu si toutes les feuilles sont marquées. Sauté(T) désigne l'ensemble des littéraux de nœuds marqués sauté. Définition 2.4: Un tableau T est régulier si chaque nœud sur une branche en T est étiqueté avec un littéral différent. T est dit libre-tautologie si aucune clause de tableau en T n’est une tautologie. T est dit libre-complément si deux nœuds non-feuilles sur une branche en T ne sont jamais étiquetés avec des littéraux complémentaires. Un tableau T est sauté-régulier s’il n’y a pas de nœud L en T tel que ¬L ∈ sauté(T). T est TCS-libre (TCS-Tableau de Clauses Subsumées libre) pour un ensemble de clauses Σ si aucune clause tableau C en T n’est subsumée par une clause dans Σ autre que les clauses d'origine de C. Définition 2.5: Une fonction φ de sélection est une application attribution d'un sous-but à chaque tableau. φ est dite profondeur d'abord si φ choisit de tout tableau T un sous-but avec une profondeur maximale. φ est stable par substitution si, pour tout tableau T et toute substitution, φ(t) = φ(Tσ) où Tσ est le tableau qui est construit en appliquant σ à tous les littéraux de T. Définition 2.6: Soit Σ un ensemble de clauses, C une clause, P un champ de production, et φ une fonction de sélection. Un SOL-déduction dérivée d’une clause S de Σ + C et P via φ est constituée d'une séquence de tableaux T0, T1,…, Tn satisfaisant: (1) T0 se compose seulement de la clause de départ C. Tous les nœuds de feuille de T0 ne sont pas étiquetés. (2) Tn est un tableau résolu, et sauté(Tn) = S. 38 Conclusion conséquente et la production (3) Pour chaque Ti (i = 0, ..., n), Ti est régulier, libre-tautologie, libre-complément, sauté- régulier, et TCS-libre pour Σ ∪ {C}. (4) Pour chaque Ti (i = 0, ..., n), la clause sauté(Ti) appartient à P. (5) Ti+1 est construit à partir de Ti comme suit. Sélectionner un sous-but K par φ, puis appliquer une des règles suivantes à Ti pour obtenir Ti +1: (a) Si sauté(Ti) ∪ {K} appartient à P, alors marquer K avec sauté. (b) Si sauté(Ti) contient un littéral L, et K et L sont unifiables (K et L peuvent être l’inverse l’un de l’autre) avec θ, marquer K avec sauté, et appliquer θ à Ti . (c) Sélectionner une clause B de Σ ∪ {C} et obtenir une variante B’ = L1 ∨…∨ Lm en renommant. S’il y a un littéral Lj tel que ¬K et Lj sont unifiables avec θ, puis ajouter les nouveaux nœuds L1,…, Lm à K comme les successeurs immédiats. Ensuite, marquer Lj avec fermé et appliquer θ au tableau prolongée. (d) Si K a un nœud ancêtre L, et ¬K et L sont unifiables avec θ, alors marquer K avec fermé, et appliquer θ à Ti . Théorème 2.1: (Correction et exhaustivité de SOL) Pour toute fonction φ de sélection, ce qui suit s'applique: (1) Correction : S’il y a un SOL-déduction d'une clause S de Σ + C et P par φ, alors S appartient à Thp(Σ ∪ {C}). (2) Exhaustivité : Si une clause F n'appartient pas à Thp(Σ), mais appartient à Thp(Σ ∪ {C}), alors il existe une SOL-déduction d'une clause S de Σ + C et P par φ tels que S subsume F. Exemple 2.1: Une clause de départ C, un ensemble de clauses Σ et un champ de production P sont définis comme suit. Soit φ une fonction de sélection. C = p(X) ∨ s(X), Σ = {q(X) ∨ ¬p(X), ¬s(Y), ¬p(Z) ∨ ¬q(Z) ∨ r(Z)} P = (L+ , la longueur est inférieure à 2) La Figure 2.1 montre trois tableaux résolus qui sont dérivés par SOL-déduction sur Σ + C et P par φ. Dans le tableau Ta, le nœud p(X) est sauté depuis le littéral positif p(X) qui appartient à P, et s(X) est étendu à l'aide de la clause d’unité ¬s(Y). Noter que s(X) ne peut pas être sauté puisque le champ de production P limite la longueur maximale des conséquences à 1. La conséquence est sauté(Ta) = {p(X)}. Tb représente un autre tableau dérivé dont le nœud p(X) est prolongé par q(X) ∨ ¬p(X), et le nœud q(X) est sauté. La conséquence de Tb est sauté(Tb) = {q(X)}. Dans Tc, le nœud p(X) est prolongé par q(X) ∨ ¬p(X) et q(X) par ¬p(Z) ∨ ¬q(Z) ∨ r(Z) respectivement. Le nœud du bas ¬p(X) est fermé par réduction avec l'ancêtre p(X), et r(X) est sauté. La conséquence est sauté(Tc) = {r(X)}. Dans cet exemple, il y a six Conclusion conséquente et la production 39 tableaux résolus. Car les tableaux restés génèrent la même conséquence que Tc, ils sont redondants. Comme résultats, trois nouvelles clauses caractéristiques sont obtenues dans cet exemple : Newcarc(Σ, C, P) = {p(X), q(X), r(X)}. La tâche de conclusion conséquente est de trouver toutes les (nouvelles) clauses caractéristiques. Cela signifie que même si un tableau résolu est trouvé, il faut continuer à chercher d'autres tableaux résolus pour trouver toutes les clauses caractéristiques. En conclusion de preuve, le processus de calcul peut être arrêté immédiatement si une réfutation apparait. Ceci est la différence importante entre la conclusion conséquente et la conclusion de preuve. Définition 2.7: L'ensemble de SOL-dérivées de Σ + C et P par φ est: �(∑, �, �, ϕ) = {�|� ��� �é���é� ��������� ��� ���−�é������� �� ∑ + � �� � ��� ϕ} L'ensemble des clauses de production de Σ + C et P par φ est: Prod(Σ, C, P, φ) = μΔ(Σ, C, P, φ). Proposition 2.2: Pour toute fonction φ de sélection, Newcarc(Σ, C, P) = Prod(Σ, C, P, φ) - Thp(Σ). Afin de clarifier l'espace de recherche du processus de conclusion conséquente, l'arbre de recherche SOL est défini pour explicitement toutes les SOL-déductions possibles. p(X) s(X) ¬s(X) fermé Tb q(X) sauté ¬p(X) fermé p(X) sauté s(X) ¬s(X) fermé Ta Tc p(X) s(X) ¬s(X) fermé q(X) ¬p(X) fermé ¬p(X) fermé r(X) sauté ¬q(X) fermé réduction Figure 2.1 Tableaux résolus pour l’Exemple 2.1 40 Conclusion conséquente et la production Définition 2.8: L'arbre de recherche SOL de Σ + C et P par φ est un arbre T marqué avec les tableaux comme suit. Un nœud est identifié avec son étiquette (c'est à dire un tableau) si aucune confusion ne se pose: (1) La racine de T est un tableau qui se compose seulement de la clause de départ C. (2) Chaque nœud non-feuille N dans T a autant de nœuds successeurs qu’il existe d’applications réussies d'une étape d'inférence unique appliquée au sous-but sélectionné dans N par φ, et les nœuds successeurs de N sont les tableaux de résultantes respectives. La procédure conséquente de recensement SOL visite constructivement tous les nœuds dans l'arbre de recherche SOL, et énumère l'ensemble des clauses de production. Définition 2.9: La procédure conséquente de recensement SOL de Σ + C et P via φ est définie comme suit: (1) T0 est un tableau qui comprend seulement la clause de départ C, et Conqs est initialisée comme {} (Conqs est une variable globale). (2) Appeler la procédure EnumConqs(T0) dans la Figure 2.2. (3) Renvoyer l’ensemble de clauses de production Conqs. La correction de la procédure conséquente de recensement SOL tient évidemment par les définitions de clauses de production et d’EnumConqs. Proposition 2.3: Laisser Conqs être un ensemble de conséquences obtenues de la procédure conséquente de recensement SOL de Σ + C et P par φ. Alors, Conqs = Prod(Σ, C, P, φ). EnumConqs(T) T: un tableau Commencer si Conqs = {∅} alors revenir; fin / * trouvé la conséquence la plus générale * / si T est un tableau résolu alors C := sauté(T); / * trouvé une nouvelle conséquence * / Conqs := μ(Conqs ∪ {C}); / * supprimer conséquences non minimales * / revenir; fin K := φ(T); / * sélectionner un sous-but de T * / R := un ensemble de règles d'inférence qui sont applicables à K; pour chaque r ∈ R faire T’ := le tableau obtenu à partir de T en appliquant r de K; EnumConqs(T’) ; / * Correspondant à l'extension de l'arbre de recherche SOL * / fin fin Figure 2.2. La procédure conséquente de recensement SOL.Conclusion conséquente et la production 41 2.2. Production pour l’abduction et l’induction 2.2.1. Définition Selon la thèse de P.Siegel [26], une production PR de C (un ensemble des clauses) est une suite finie de couples . Chacun de ces couples est une étape (ou une inférence) de PR dans laquelle pi est une clause, la clause en production et Ai un arbre. Cette suite a les propriétés A, B et C : A. La première étape de PR est = <0, (l1) ... (lm)> où les lj sont tous les littéraux d’une même clause c de C, l’origine de la production. Chacun de ces littéraux apparaissant une et une seule fois. La clause en production est vide. B. La dernière étape est si An est l’arbre vide. La clause pn est alors la clause produite par la production. C. Si la k-ième (k = où (l s) est une branche de feuille l (le littéral à effacer), B un arbre et p la clause en production, alors l’étape suivante a l’une des forme C1 ou C2. C1. On met en production le littéral l si l’étape suivante est : C2. On effectue une résolution si l’étape suivante est : où les littéraux l’i sont tels que les conditions de C2a et de C2b sont vérifiées. C2a. Il existe une clause c’ de C, la clause appelée à cette étape, - qui contient l’opposé de l, - dont aucun littéral n’est dans la branche (l s) (les littéraux de cette branche sont les ascendants ou a-ancêtres) - dont aucun littéral n’a pour opposé une feuille de l’arbre B (les frères de l) - dont aucun littéral n’a pour opposé un littéral de la clause en production p (les littéraux de cette clause sont les littéraux en production). Les trois dernières conditions sont les conditions de non répétition. C2b. Les l’i sont alors les littéraux de cette clause c’, qui ne sont pas immédiatement effaçables, c’est à dire ceux : - dont l’opposé n’est pas dans la branche (l s), - qui ne sont pas égaux à une feuille de l’arbre B, - qui ne sont pas égaux à un littéral de la clause en production. 2.2.2. Exemple d’utilisation Soit l’ensemble C de cinq clauses : 42 Conclusion conséquente et la production ¬a b c ¬b d e f e ¬a ¬d c ¬c e f ¬e f g L’ensemble C ⋃ {a f} implique la clause f g et C ne l’implique pas. Il existe donc au moins une production d’origine a f qui produit f g. C’est par exemple le cas de : 1. <0 ,(a) (f)> 2. ¬a b c <0 ,(ba) (ca) (f)> 3. ¬b d e <0 ,(dba) (eba) (ca) (f)> 4. f e ¬a ¬d c <0 ,(eba) (ca) (f)> 5. ¬e f g <0 ,(geba) (ca) (f)> 6. 7. ¬c e f 8. ¬e f g 9. Pour visualiser globalement toutes les étapes d’une production, il est possible de faire un dessin du type : Figure 2.3. Les étapes d’une production 2.3. Champ de production La notion de champ de production dépassant le cadre restreint du calcul propositionnel, cette partie en donnera la définition dans le cadre général du calcul des prédicats. Une « formule » sera donc ici une formule de la logique du premier ordre et, bien entendu, une « formule propositionnelle » une formule du calcul propositionnel. 2.3.1. DéfinitionConclusion conséquente et la production 43 Définition 2.10: Un champ de production P est un ensemble de formules dont chacune est un résultat possible dont on a besoin de savoir s’il est vrai ou non dans un certain état de connaissance. Le but du jeu est de trouver les formules de cet ensemble vraies pour une connaissance donnée. Il s’agit donc d’une notion assez naturelle qui pourra se définir, correctement d’un point de vue logique, de manière simple. De manière très générale, deux problèmes se posent : Problème 2.1: Soit : - L un langage du premier ordre, - P un ensemble de formules de L, le champ de production, - C un ensemble de formules de L, la connaissance, Trouver l’ensemble, produites(C, P), des formules sémantiquement impliquées par C et appartenant à P. Si th(C) représente toutes les formules sémantiquement impliquées par C, on a donc : produites(C, P) = th(C) ∩ P Problème 2.2: Soit : - L, P, C définis comme précédemment, - C’ un nouvel ensemble de formules de L, la nouvelle connaissance, Trouver toutes les formules de P impliquées par C ⋃ C’, qui appartiennent à P et qui ne sont pas impliquées par C. Cet ensemble des formules se notera nouv-prod(C’, C, P) : nouv-prod(C’, C, P) = produites(C ⋃ C’, P) – produites(C, P). Définition 2.11: Si c1 et c2 sont des clauses, on dira que c1 est une sous clause de c2, ou que c1 subsume c2 si tout littéral de c1 est un littéral de c2. On dira également que c1 subsume strictement de c2 (est une sous clause stricte) si c1 subsume c2 et c2 ne subsume pas c1. Si F est un ensemble de formules qui ne sont pas des tautologies, et G un sous ensemble de F, on dit que : - G est un précurseur de F si toute formule de F est impliquée par une formule de G. « Pour toute f dans F il existe g dans G telle que g ⊨ f » 44 Conclusion conséquente et la production - G est un plus petit précurseur de F (ou précurseur minimal de F), si de plus aucune formule de G n’implique une autre formule de G. « Si G est un précurseur de F, et si g1 et g2 sont dans G et g1 ⊨ g2 alors g1 = g2 ». Propriété 2.1: Si G1 et G2 sont deux précurseurs minimaux de F, il existe une bijection bij de G1 dans G2 telle que, pour toute formule g1 de G1, il existe un unique g2 de G2 tel que g1 et bij(g2) sont logiquement équivalentes. Définition 2.12: Un champ de production P est stable pour l’implication sémantique si toute formule qui implique sémantiquement une formule de P est dans P. Propriété 2.2: Si P est un ensemble de clauses propositionnelles, alors P est stable si et seulement si toute sous clause d’une clause de P est dans P. 2.3.2. Exemple d’utilisation Si L est un langage propositionnel contenant une infinité de propositions p1, p2, ..., et si la connaissance est un ensemble de deux clauses : C = ¬p1⋁p2⋁p3 ‘si p1, alors p2 ou p3 est vrai’ p1 ‘p1 est vrai’ Si le champ de production est l’ensemble des clauses de L ne contenant que des littéraux positifs (clauses positives), on a : produites(C, P) = p1 ‘p1 est vrai’ p2⋁p3 ‘p2 ou p3 est vrai’ Si maintenant la nouvelle connaissance se compose des deux unaires : C’ = p4 ‘p4 est vrai’ ¬p3 ‘p3 est faux’ alors on obtient : nouv-prod(C’, C, P) = p4 ‘p4 est vrai’ p2 ‘p2 est vrai’Conclusion conséquente et la production 45 2.4. Algorithmes de calcul de production 2.4.1. Description simplifiée Notre problème pratique est dont de calculer toutes les clauses impliquées par un ensemble fini C de clauses et appartenant à un champ de production P. Comme P est en général très grand, il est évident que la technique consistant à vérifier, pour toute clause de P, si elle est impliquée par C ou non, est totalement inapplicable. Cette partie va étudier un algorithme basé sur la SOL résolution qui essaie de résoudre partiellement ce problème. Pour bien faire son travail, il doit s’arrêter, ne donner que des résultats corrects et donner tous les résultats. On s’assure de ceci en démontrant trois propriétés. Propriété 2.3: Un ensemble fini de clauses a un ensemble fini de productions (l’algorithme s’arrête). Propriété 2.4: Toute clause produite par une production de C est impliquée par C (les résultats sont valides). En particulier, si une production de C produit la clause vide, alors C est inconsistant. Propriété 2.5: Si une clause d est impliquée par C, il existe une production de C dont la clause produite subsume d (les résultats sont tous trouvés). En particulier, si C est inconsistant, il existe une production de C qui produit la clause vide. Propriété 2.6: Si C n’implique pas d et C ⋃ {c} implique d, il existe une production de C ⋃ {c}, d’origine c dont la clause produite subsume d. En particulier, si C ⋃ {c} est inconsistant, et C ne l’est pas, il existe une production de C d’origine c qui produit la clause vide. Il faut maintenant décrire l’algorithme qui génère toutes les clauses impliquées par un ensemble C de clauses et appartenant à un champ de production P. Cet algorithme a été implanté en SWI Prolog. Les clauses, branches et arbres sont représentés classiquement : - un littéral x s’écrira plus(x) s’il est positif et moins(x) s’il est négatif. - une liste de littéraux (clause ou branche) se notera de la manière habituelle l1. l2... ln. nil où nil représentant la liste vide. - un arbre est une liste s1. s2... sm. nil de branches. Les si sont donc des listes non vides de littéraux (donc différentes de nil). - un ensemble de clauses est identifié à une liste c1. c2... cp. nil de clauses.46 Conclusion conséquente et la production Description simplifiée : Pour produire les clauses impliquées par une liste C = c. C’ (c est une clause et C’ une liste de clauses éventuellement vide) appartenant à un champ de production P, il faut produire les clauses impliquées par C’ puis produire les clauses impliquées par c.C’ et non par C’. Pour ce faire on utilise le prédicat grande-production : grande-production(nil, P) → ; grande-production(c.C, P) → grande-production(C, P) construire-arbre(c, nil, nil, nil, A) production(nil, A, C, P) ; Le cœur de l’algorithme est la définition d’un prédicat à quatre arguments production(p, A, C, P), où p est la clause en production, A un arbre, C l’ensemble de clauses et P le champ de production. L’arbre A origine est donné par le prédicat construire-arbre, qui transforme la clause origine c = l1. l2... ln. nil en un arbre dont les branches sont composées d’un littéral de cette clause : A = (l1.nil).(l2.nil) .... (ln. nil).nil On définit production par trois clauses Prolog : (1) production(p, nil, C, P) → utiliser(p) ; (2) production(p, (l.s).B, C, P) → /* Forme C2*/ dans(c’, C) /* Prendre une clause c’ de C */ bonne-clause(c’, p, (l.s).B) /* Conditions C2a */ construire-arbre(c’, p, (l.s).B, B’) /* Construire l’arbre B’ à partir de la clause c’, conditions C2b*/ production(p, B’, C, P) ; (3) production(p, (l.s).B, C, P) → /* Forme C1*/ bon-debut-de-clause(l.p, P) /* l .p satisfaisante le champ de production P*/ production(l.p, B, C, P) ; dans(x, x.r) → ; dans(x, y.r) → dans(x,r) ; La clause (1) est le cas terminal d’une production. Ici, on l’ajoutera sous de forme d’une clause Prolog : clause-produite(p) → ; utiliser(p) → assert(clause-produite(p), nil) ;Conclusion conséquente et la production 47 Pour être en accord avec la définition, bonne-clause doit vérifier les conditions de non répétition. Il faut donc : 1- S’assurer que l’opposé de la feuille de la première branche de l’arbre est bien dans la clause candidate. 2- Vérifier que tous les littéraux de cette clause : - ne sont pas dans la première l.s de l’arbre, - n’ont pas leur opposé dans la clause en production p, - n’ont pas leur opposé égal à une feuille de l’arbre B. Ceci s’effectue de manière naturelle : bonne-clause(c’, p, (l.s).B) → oppose(l, l’) dans(l’, c’) bons-littéraux(c’, p, (l.s), B) bons-littéraux(nil, p, A) → ; bons-littéraux(l.r, p, s.B) → bons-littéraux(r, p, s.B) pas-dans(l, s) oppose(l, l’) pas-dans(l’, p) pas-dans-feuilles(l’, B) ; oppose(plus(x), moins(x)) → ; oppose(moins(x), plus(x)) → ; pas-dans(x, nil) → ; pas-dans(x, y.r) → dif(x, y) pas-dans(x, r) ; pas-dans-feuilles(x, nil) → ; pas-dans-feuilles(x, (l.s).B) → pas-dans(x, l.s) pas-dans-feuilles(x, B) ; 48 Conclusion conséquente et la production Il faut maintenant définir construire-arbre qui, à partir de la clause c’ = l1. l2... ln. nil de la clause en production p et de l’arbre (l.s).B va construire l’arbre A’ = (l’1.l.s) ... (l’p.l.s).B les l’i étant les littéraux de c’ non immédiatement effaçables. construire-arbre(nil, p, s.B, B) → ; construire-arbre(l.r, p, s.B, (l.s).B’) → /* Conditions C2a sont vérifiées*/ oppose(l, l’) pas-dans(l’, s) pas-dans(l, p) pas-dans-feuilles(l, B) / construire-arbre(r, p, s.B, B’) ; construire-arbre(l.r, p, A, A’) → /* Conditions C2a ne sont pas vérifiées*/ construire-arbre(r, p, A, A’) ; Pour vérifier qu’une clause est dans un champ de production défini par une quadruplé de bases quelconque, on peut écrire : bon-debut-de-clause(c, P.l-iste-P) → dans-le-champ(c, P) / ; bon-debut-de-clause(c, P.l-iste-P) → bon-debut-de-clause(c, l-iste-P) ; dans-le-champ(l.c, ) → eq(l, s-igne) dans(l, a-lpha) longueur-inferieure(l.c, l-ong) dans(c’, s-ous-cl) subsume(c, c’)Conclusion conséquente et la production 49 / ; subsume(nil, c) → / ; subsume(l.c’, c) → subsume(c’, c) dans(l, c) ; longueur-inferieure(c, infini) → / ; longueur-inferieure(nil, l) → ; longueur-inferieure(a.c, l) → / impasse ; longueur-inferieure(a.c, l) → val(sub(l, l), l’) longueur-inferieure(c, l’) ; 2.4.2. Algorithme avec coupure A toute étape de production, on essaie d’effacer le premier littéral de la première branche d’arbre (le littéral à effacer). Pour ce faire, il faut choisir une clause candidate contenant l’opposé de ce littéral et satisfaisant aux conditions de non répétition, en ôter tous les littéraux immédiatement effaçables (qui ne satisfont pas aux conditions C2b), puis essayer d’effacer la clause restante. Quand tous ces choix ont été effectués et résolus, il reste un choix supplémentaire qui est de mettre en production le littéral à effacer. Or, si le littéral à effacer a été, pour un certain choix, complètement effacé sans avoir eu besoin d’installer des littéraux en productions supplémentaires, il est inutile d’effectuer les choix restants. On peut formaliser ceci par une définition et une propriété. Définition 2.13: S’il existe un début de production, D, de dernière étape (j) : .............................. (i) .............................. 50 Conclusion conséquente et la production (j) telle que B1 = B2 et p1 = p2, on dira que le littéral l a été complètement effacé. Propriété 2.7: Dans ce cas toute production égale à D jusqu’à l’étape (i) incluse, ne pourra produire que des clauses subsumées par d’autres clauses produites par les productions de début D. Donc, d’après la structure de l’algorithme, qui à partir de l’étage (i+1), calcule toutes les productions ayant ces (i) premières étapes avant de faire les autres choix pour l à l’étape (i+1), il sera inutile si ce littéral est complètement effacé de faire ces autres choix. C’est principalement pour cette raison que l’on essaie d’abord d’effectuer toutes les résolutions possibles sur un littéral avant de mettre ce littéral en production (avant d’essayer d’effacer de manière classique un littéral, on regarde s’il n’existe pas une clause contenant son opposé et dont tous les littéraux sont immédiatement effaçables). Le choix inverse est possible mais donne de moins bons résultats. Démonstration : Soit PR1 une production égale à D jusqu’à (i). Cette production aura une étape (j’) dont l’arbre est B1, et peut donc s’écrire : .............................. (i) .............................. (j’) .............................. (n’) PR1 produit la clause p = r q p1 dans laquelle q et r sont des clauses éventuellement vides (la notation inclut le cas où j’ = n’). Pour prouver le théorème, il faut construire à partir de PR1 une production, PR2, dont le début est D et dont la clause produite subsume p. Le début de PR2 est donc : .............................. (i) .............................. (j) Conclusion conséquente et la production 51 L’important est que, à l’étape (j’) de PR1 et à l’étape (j) de PR2, les arbres sont égaux. À l’étape (j), la clause en production, p1, de PR2 est une sous clause de la clause en production à l’étape (j’), q p1, de PR1. Les étapes de PR2 qui suivent (j) sont construites à partir des étapes de PR1 qui suivent (j’) telles que, si la clause appelée contient un littéral de r q alors ce littéral n’est pas immédiatement effacé mais inséré dans l’arbre. Il sera mis en production à l’étape où il sera littéral à effacer de l’arbre courant. Plus précisément : 1. L’étape (j+1) de PR2 est construite à partir de l’étape (j’+1) de PR1 telle que : - si (j’+1) met en production le littéral à effacer, alors (j+1) mettra également en production ce même littéral à effacer. - si (j’+1) effectue une résolution sur une clause c, alors (j+1) effectuera également une résolution sur cette même clause c. Les branches ajoutées à l’arbre B1 (dans PR2) sont obtenues à partir des littéraux de c non immédiatement effaçables (dans PR1). Mais les littéraux de c immédiatement effaçables dans PR2, sont les littéraux de c immédiatement effaçables dans PR1, plus les littéraux de c, égaux à un des littéraux de q (les ascendants et frères sont les mêmes dans PR1 et PR2 car les arbres sont égaux à l’étape (i)). Donc les branches à ajouter dans PR2 sont les branches à ajouter dans PR1, plus éventuellement un certain nombre de branches dont les racines sont les littéraux de c qui ne sont pas dans q. 2. On répète l’opération pour les étapes suivantes de PR2, qui sont construites à partir des étapes de PR1. Les clauses appelées sont les mêmes dans PR1 et PR2. La seule différence est que dans les arbres correspondants (dans PR2) sont insérées un certain nombre de branches supplémentaires, branches dont les racines seront toujours des éléments de q. Quand le littéral à effacer (dans PR2) portera sur une de ces branches supplémentaires, ce littéral sera mis en production. On insère donc un certain nombre d’étapes qui sont toutes des mises en production de littéraux de q. La suite de couples ainsi formée est bien une production, car comme PR1 en est une, on en déduit que pour toutes les étapes de résolution de PR2 les clauses appelées satisfont aux conditions de non répétition. En effet, ces étapes sont telles que : - l’étape associée dans PR1 satisfait aux conditions de non répétition - les ascendants sont les mêmes dans PR1 et PR2 car ces étapes sont des étapes de résolution et ne portent donc pas sur les branches supplémentaires (on a dit que les étapes portant sur les branches supplémentaires mettent en production un littéral). - l’union des frères et littéraux en production de PR2 est incluse dans l’union des frères et littéraux en production de PR2. PR2 est donc bien une production et la clause produite par PR2 subsume bien celle produite par PR1 car les littéraux mis en production dans PR1 et non dans PR2 sont tous dans q. Exemple 2.2: Soit un ensemble de clause : 52 Conclusion conséquente et la production C = {a b c, ¬a b, ¬a u, ¬u v, ¬v w} On veut calculer toutes les productions d’origine a b c. L’algorithme construira, par ses appels récursifs, la première production qui produit la clause c b : 1. <0 ,(a) (b) (c)> 2. ¬a b <0 ,(b) (c)> 3. 4. Cette production est donnée par le choix de ¬a b à la deuxième étape. Il reste deux choix à cette étape : soit appeler la clause ¬a u, soit mettre a en production. En fait ces choix sont inutiles car ils ne pourront générer que des clauses subsumées par d’autres clauses produites par la production effectuée auparavant. Le premier choix donne trois productions dont la première est : 1. <0 ,(a) (b) (c)> 2. ¬a u <0 ,(ua) (b) (c)> 3. ¬u v <0 ,(vua) (b) (c)> 4. ¬v w <0 ,(wvua) (b) (c)> 5. 6. 7. En fait, c b w est subsumée par c b. 2.4.3. Algorithme en Prolog Pour produire les clauses d’un champ de production P impliquées par un ensemble C on appellera comme auparavant grande-production(C, P) : grande-production(nil, P) → ; grande-production(c.C, P) → grande-production(C, P) production(c, nil, nil, nil, p, C, P) utiliser(p) ; production(nil, A, B, p, p, C, P) → ; //le cas terminal production(l.c, A, B, p1, p3, C, P) → conc(c, B, B1) // B1=c.B, construire la liste des frères oppose(l, l’) dans(c1, C) dans(l’, c1) bonne-clause(c1, l.A, B1, p1) // Conditions C2a Conclusion conséquente et la production 53 simplifier-clause(c1, l.A, B1, p1, c2) // Conditions C2b, enlever les littéraux production(c2, l.A, B1, p1, p2, C, P) //Concaténant aux ascendants le littéral (p1 == p2 *→ !; true) //couper(p1, p2) production(c, A, B, p2, p3, C, P) ; //si p1 = p2 ou p1≠ p2 production(l.c, A, B, p1, p3, C, P) → //mettre en production si p1≠ p2 bon-debut-de-clause(l.p1, P) production(c, A, B, l.p1, p3, C, P) ; bonne-clause(nil, A, B, p) → ; bonne-clause(l.c, A, B, p) → pas-dans(l , A) oppose(l, l’) pas-dans(l’, B) pas-dans(l’, p) bonne-clause(c, A, B, p) ; simplifier-clause(nil, A, B, p, nil) → ; simplifier-clause(l.c, A, B, p, l.c’) → oppose(l, l’) pas-dans(l’, A) pas-dans(l, B) pas-dans(l, p) / simplifier-clause(c, A, B, p, c’) ; simplifier-clause(l.c, A, B, p, c’) → simplifier-clause(c, A, B, p, c’) ; conc(nil, y, y) → ; conc(a.x, y, a.z) → conc(x, y, z) ; Où : production(clause, ascendants, frères, produit-initiale, produit-finale, ensemble, champ) 54 Conclusion conséquente et la production - La clause à effacer, clause, est un bout d’une clause de c ∪ C qui contient le premier littéral (littéral à effacer). - ascendants est la liste des ascendants de ce premier littéral. - frères est la liste des frères de ce premier littéral, autres que les littéraux de clause. - A l’appel de production, produit-initiale donne la clause en production à ce moment. L’argument produit-finale donne alors la clause en production résultante. Pour que ces algorithmes travaillent avec les variables, il faut les améliorer. Par exemple, pour représenter l’idée : a est une protéine et b un substrat ; tous les substrats sont activés par les protéines, ceci doit être écrit dans la basée de données comme ci-dessous : proteine(a). substrat(b). ecrit :- proteine(X), substrat(Y), assert(clause(active(X,Y))). La logique des défauts 55 Chapitre 3. La logique des défauts 3.1. Introduction Quand un algorithme d’Intelligence Artificielle doit résoudre un problème, il peut être en mesure de s'appuyer sur des informations complètes. Sa tâche principale est alors de donner de bonnes conclusions par un raisonnement classique. Dans ce cas, la logique des prédicats peut être suffisante. Cependant, souvent l’information est incomplète, car certaines informations ne sont pas disponibles. Parfois, il peut aussi être nécessaire de répondre rapidement et il est alors impossible de recueillir toutes les données pertinentes en un temps raisonnable. Dans ce cas, le système doit faire des conjectures plausibles, c’est la problématique des logiques nonmonotones [7,9]. Pour la logique des défauts ces conjectures sont basées sur des règles empiriques, appelées défauts. Par exemple, un médecin d’urgence doit faire des conjectures sur les causes les plus probables des symptômes observés et il est impossible d'attendre le résultat de tests éventuellement étendus et chronophages avant le début du traitement. Lorsque les décisions sont fondées sur des hypothèses, elles peuvent se révéler fausses face à de nouvelles informations qui seront disponibles [13]. Par exemple les examens médicaux peuvent conduire à un diagnostic modifié. Il faut alors ajouter de nouvelles informations qui peuvent être contradictoires, avec les conclusions (le diagnostic) précédent. Cet ajout est impossible en logique classique, qui a la propriété de monotonie. Intuitivement cette propriété dit que si une conclusion C est déductible d’un ensemble de prémices P1, et que l’on ajoute des informations P2 à P1, alors C est démontrable de P1 et P2. Dans le cas de la logique du premier ordre P1, P2 et C sont des ensembles de formule et la propriété de monotonie s’écrit : P1 ⊢ C ⇒ P1 ⋃ P2 ⊢ C Si cette propriété n’est pas vérifiée, alors on a une logique non-monotone. La logique des défauts présentée par Reiter en 1980 est une des premières logiques non-monotones. Elle est très intéressante, car simple à comprendre et à utiliser. 3.2. Notion de défaut La logique des défauts définie par Reiter formalise le raisonnement par défaut. Elle permet de traiter les règles admettant des exceptions sans être obligé de remettre en cause les règles précédemment établies à chaque fois qu'une nouvelle exception apparaît. Une théorie des défauts est un couple {W, D} où W est un ensemble de formules classiques de la logique du premier ordre et D un ensemble de défauts, qui sont des règles d'inférence spécifiques. Les défauts permettent de gérer les informations incomplètes [8]. Par exemple, en hiver, une règle générale utilisée par les arbitres de football pourrait être : «Un match de football doit avoir lieu, à moins qu’il n’y ait de la neige sur le stade ». Cette règle de base est représentée par un défaut : 56 La logique des défauts ��������: ¬����� �����_���� L’interprétation du défaut est la suivante : si on n’a pas l’information explicite qu'il y aura de la neige dans le stade, il est raisonnable de supposer qu’il n’y aura pas de neige (¬neige) et de conclure que le match aura lieu. On peut donc préparer le match. Mais s’il y a une forte chute de neige pendant la nuit avant le match, cette hypothèse n’est plus valide. On sait qu'il y a de la neige, et il est donc impossible d’assumer ¬neige, donc le défaut ne peut pas être appliqué. Dans ce cas, il faut renoncer à la conclusion précédente (le match aura lieu). Le raisonnement est donc non-monotone. La logique classique n’est pas appropriée pour modéliser cette situation. En effet, on pourrait tenter d’utiliser la formule football ∧ ¬neige → avoir_lieu Le problème avec cette règle, c'est qu’il faut établir de façon définitive qu'il n'y aura pas de neige dans le stade avant d'appliquer la règle. Pour résoudre ce problème, le même exemple aurait pu être représenté par le défaut ��������: �����_���� �����_���� avec la règle de logique classique neige → ¬avoir_lieu. Si la neige est certaine alors on déduit ¬avoir_lieu par la logique classique, donc on ne peut pas inférer avoir_lieu par le défaut. Dans cette représentation, le défaut est une règle qui dit que les matchs se déroulent généralement et les exceptions de cette règle sont représentées par les règles classiques telles que celle ci-dessus. Les défauts peuvent être utilisés pour modéliser le raisonnement prototypique, ce qui signifie que la plupart des instances d’un concept ont une certaine propriété. Un exemple est l’énoncé « Typiquement, l’enfant a des parents (vivants) », qui peut être exprimé par le défaut : ������(�): �����_�������(�) �����_�������(�) Une autre forme de raisonnement par défaut est le raisonnement sans-risque. Il s'agit de situations où une conclusion peut être tirée, même si ce n'est pas le plus probable, car une autre décision peut conduire à une catastrophe. Par exemple « En l'absence de preuve contraire présumer que l'accusé est innocent, s’exprime par : �����é(�): ��������(�) ��������(�)La logique des défauts 57 On donne aussi des hiérarchies avec des exceptions qui sont en biologie. L’exemple classique est « En règle générale, les oiseaux volent », « les manchots sont les oiseaux », « les manchots ne volent pas ». On a alors le défaut: ������(�): ����(�) ����(�) avec la règle de logique classique : manchot(X) → oiseau(X)∧¬vole(X) Les défauts peuvent être aussi utilisés pour modéliser l’hypothèse du monde clos de Reiter, utilisée pour les bases de données et pour la programmation logique. Selon cette hypothèse, un domaine d’application est décrit par un ensemble de formules logiques F. En simplifiant, l’hypothèse du monde clos dit qu’une information élémentaire positive (un atome) ϕ est considéré comme faux si F n’implique pas logiquement ϕ. Ceci peut se représenter par un défaut normal sans prérequis : ����: ¬ϕ ¬ϕ On encore, s’il est consistant d’assumer ¬ϕ (ce qui est équivalent à ne pas avoir de preuve pour ϕ), on conclue ¬ϕ 3.3. Syntaxe de la logique des défauts. Une théorie des défauts ∆ = (D, W) est une paire (D, W), contenant un ensemble W de formules de la logique des prédicats (appelées faits ou axiomes) et un ensemble dénombrable D de défauts. Dans sa forme la plus générale, un défaut d s’écrit : � = �:�1,�2, … �� � où A, B1,…, Bn et C sont des formules logiques bien formées du premier ordre. La formule A est le prérequis, les formules B1,…, Bn sont les justifications et C est le conséquent. Un défaut signifie informellement : si A est vérifié, et s’il est possible que B1,…, Bn soient vrais alors C est inféré. Un défaut d est appelé normal si et seulement si sa justification est égale à son prérequis, donc s’il est de la forme : � = �: � � Un défaut peut contenir des variables libres, par exemple : ������(�): ����(�) ����(�)58 La logique des défauts Ces défauts sont appelés défauts ouverts. Dans ce cas le défaut ouvert est considéré comme l’ensemble des défauts où X a été remplacée par tous les termes terminaux (sans variables) du langage. Un défaut ouvert représente donc un ensemble de défauts fermés qui peut éventuellement être infini. 3.4. Extensions. L'utilisation des défauts augmente le nombre de formules déduites de la base de connaissance W : nous obtenons alors des extensions qui sont des ensembles de théorèmes dérivables de façon monotone. Intuitivement une extension est obtenue en utilisant un ensemble maximal consistant de défauts possibles. Cette définition va entrainer qu’il pourra exister plusieurs extensions éventuellement contradictoires. 3.4.1. Extensions - définition formelle. Une extension de la théorie des défauts ∆ = (D,W) est un ensemble E de formules, clos pour la déduction, contenant W et vérifiant la propriété suivante : si d est un défaut de D dont le prérequis est dans E, sans que la négation de sa justification soit dans E, alors le conséquent de d est dans E. Plus formellement, les extensions sont définies de la façon suivante. Définition 3.1: E est une extension de ∆ si et seulement si � = ⋃�=0,∞ �� , avec : 1) E0 = W 2) Pour tout i, ��+1 = �ℎ(�� ∪ {�/� = (�:� � ) ∈ �, � ∈ �� , ¬�∉�}) où Th(F) désigne l'ensemble des théorèmes obtenus en logique classique à partir de F, c’est à dire Th(F) = {w/F ⊢ w}. Remarque : Il est important de noter que E apparaît dans la définition de Ei+1. Donc dans le cas général il peut ne pas être possible de construire E car à cause de la condition ¬B ∉ E, il faut déjà connaître E pour construire E. La définition n’est donc pas constructive. Ceci peut être très gênant mais si l’on utilise uniquement des défauts normaux, la condition ¬B ∉ E se transforme en ¬B ∉ Ei . Cette fois, il suffit de vérifier que la négation de la justification n'appartient pas à Ei . Un algorithme récursif peut donc être utilisé pour calculer E. De plus lorsque tous les défauts sont normaux et que W est satisfaisable, l'existence d'au moins une extension est assurée. Exemple 3.1: Soit ∆ = (D, W), où W = {a}, et D contient les défauts normaux suivants : �1 = �:¬� ¬� �2 = �: � �La logique des défauts 59 On obtient avec la définition des extensions une extension E = Th({a, ¬b}) en utilisant le défaut d1. Dans ce cas d2 ne pas être utilisé car comme ¬b ∈ E, la justification de d2 n’est pas vérifiée. Exemple 3.2: C’est l’exemple classique. On sait que Les manchots sont des oiseaux et que Titi est un manchot. Ceci va s’exprimer par W composé de deux formules de la logique des prédicats : W = {∀x, Manchot(x) → Oiseau(x), Manchot(Titi)} On sait aussi que Sauf exception, les oiseaux volent et que Sauf exception, les manchots ne volent pas. On exprime ceci par un ensemble de deux défauts normaux D = {d1, d2} : d1 = Oiseau(x):Vole(x)/Vole(x) d2 = Manchot(x):¬Vole(x)/ ¬Vole(x) Le défaut d1 peut aussi s’exprimer par : Si x est un oiseau et qu'il est consistant de supposer que x peut voler, alors on conclue que x peut voler. On voit que si l’on utilisait les deux défauts en même temps on obtiendrait que Vole(Titi) et ¬Vole(Titi) ce qui est insatisfaisable. Pour cet exemple, on aura deux extensions. On a deux cas : Cas 1: Dans ce cas on va commencer à construite l’extension en utilisant le défaut d1 - On part de E0 = W = Th({Manchot(Titi) → Oiseau(Titi), Manchot(Titi), Oiseau(Titi)}) - On utilise alors d1. Le prérequis de d1, Oiseau(Titi) est dans E0. La négation de la justification de d1, ¬vole(Titi), n’est pas dans E0. Donc avec la définition d’une extension, on peut ajouter Vole(Titi) à E0 pour obtenir E1. E1 = Th({E0) ∪ Vole(Titi)}) - Ensuite on essaie d’utiliser d2 pour compléter E1. Le prérequis Manchot(Titi) est bien dans E1. Mais Vole(Titi) qui est la négation de la justification de d2, est dans E1. Il est impossible d’utiliser d2. Le calcul s’arrête et la première extension est E1. Dans cette extension, Titi vole. Cas 2: On va maintenant commencer la construction de l’extension en utilisant d2 - On part de E0 = W = Th({Manchot(Titi) → Oiseau(Titi), Manchot(Titi), Oiseau(Titi)}) - On utilise alors d2. Le prérequis de d2, Manchot(Titi) est dans E0. La négation de la justification de d2, Vole(Titi) n’est pas dans E0. Donc avec la définition d’une extension, on peut ajouter ¬Vole(Titi) à E0 pour obtenir E1. E1 = Th({E0) ∪ ¬Vole(Titi)}) - Ensuite on essaie d’utiliser d1 pour compléter E1. Le prérequis Manchot(Titi) est bien dans E1. Mais Vole(Titi) qui est la négation de la justification de d2, est dans E1. Il est impossible 60 La logique des défauts d’utiliser d2. Le calcul s’arrête et on a une deuxième extension dans laquelle Titi ne vole pas. Figure 3.1. Arbre de recherche des solutions pour le calcul d'extensions On obtient donc deux extensions qui sont contradictoires. Si nous cherchons à répondre à la question : "Est-ce que Titi vole ?", il faut pouvoir choisir entre ces deux extensions. On peut par exemple préférer les défauts les plus particuliers, ou encore établir des préférences entre les défauts. Comme nous venons de voir dans cet exemple, les théories des défauts peuvent avoir plusieurs extensions. Il y a également des cas où elles n’ont pas d’extension. Dans certains cas, ces défauts classiques peuvent donc poser des problèmes. Mais il est démontré qu’il existe toujours une extension si W est satisfaisable et tous les défauts sont normaux [23]. 3.6 Algorithme de calcul d’extensions. Avant de décrire l’algorithme, on généralise la définition d’une extension en considérant qu’un défaut peu avoir plusieurs prérequis. Pour que la logique des défauts travaille dans le domaine de temps discret, il faut ajouter un argument temporal ti . L’ensemble de faits W = {w1, w2, …} est représenté avec l’argument comme W = {(w1,t0), (w2,t0), …}. Une extension de la théorie des défauts ∆ = (D, W) est un ensemble E de formules, clos pour la déduction, contenant W et vérifiant la propriété suivante : si d est un défaut de D dont les prérequis A(X) (avec tk) sont dans E, sans que la négation des justifications Bi(X) ne soient dans E, alors le conséquent C(X) (avec tk+1) de d est dans E. Formellement, les extensions sont définies de la façon suivante : E est une extension de ∆ si et seulement si � = ⋃�=0,∞ �� , avec E0 = W (avec t0) et pour i >0, �� = �ℎ(��−1) ∪ {(�(�), t�+1)/( �(�):�� (X) �(�) ) ∈ �, (�(�), t� ), ∈ ��−1, ¬��(X)∉��−1} où Th(Ei-1) désigne l'ensemble des théorèmes obtenus de façon monotone à partir de ��−1: �ℎ(��−1) = {�/��−1├�}. La logique des défauts 61 Pour une théorie des défauts ∆ = (D, W), avec D l'ensemble des défauts et W la base de connaissance, le calcul d'extension se fait par l'algorithme : Entrée : D ; (ensemble des défauts). � = ∅; (ensemble d'extension). Sortie : � =∪�=0,� �� . calcul_extension(Ei) :{ Ei := W (en moment t0); tantque il y a un défaut � = �(�):�� (�) �(�) qui n'a pas encore été inspecté faire - Sélectionner ce défaut d, - Vérifier que les prérequis A(X) sont vrais avec Ei (en moment tk), - Vérifier que les justifications Bj(X) sont consistantes avec Ei (utiliser la négation par échec en cas d'inconsistance), - Ajouter (C(X), tk+1)) à Ei fin tantque Fin du calcul pour une extension. Backtracking (Suppression des (C(X), tk+1) ajoutés à Ei). calcul_extension(Ei). } Approche proposée et résultats 63 Chapitre 4. Approche proposée et résultats 4.1. Utilisation de l’algorithme de production de clauses. On revient à la carte d’interactions de Pommier. Pour passer du modèle biologique au modèle logique, il faut considérer plusieurs contraintes : comment modéliser les interactions, bien faire attention aux sens des implications logiques, respecter l'ordre chronologique préalablement défini et vérifier la cohérence des informations [15]. L'étape initiale est de définir correctement les prédicats. Ici les prédicats ont été calqués sur ceux de la carte de Pommier, à savoir stimulation, phosphorylation, autophosphorylation, inhibition, nécessité, liaison, activation de transcription, dégradation et déphosphorylation. Au départ, les prédicats ont été conceptualisés, pour la majorité d'entre eux, de la façon suivante : produit ⃪ réaction(enzyme, substrat). La réaction peut être stimulation, phosphorylation, déphosphorylation, liaison, activation ou dégradation. Par exemple, p*-Y ⃪ phosphorylation(X, Y). Les autres prédicats qui ne sont pas de type produit ⃪ réaction(enzyme, substrat) sont modélisés séparément : p*-Y ⃪ autophosphorylation(Y) ¬Y ⃪ inhibition(X, Y) : si X est vrai, alors Y ne peut pas l’être Y ⃪ nécessité(X, Y) : pour que Y soit vrai, X doit être vrai En effet, certains prédicats ont été modifiés, ou bien supprimés, au cours de l’implémentation, tandis que d’autres ont été rajoutés grâce aux mises à jours effectuées dans le modèle biologique et avec l’avancement de son implémentation dans Prolog. Par exemple, les prédicats ajoutés sont ubiquitination, méthylation et dissociation. Dans ce programme, cnf(nom_de_clause, type_de_clause, [littéraux]) indique une clause. Pour la partie contenant des littéraux, chaque disjonction doit être indiquée par une virgule, une négation par un signe moins, le signe plus peut être « oublié ». Voici un exemple qu’on souhaite mettre au format de Prolog : • D’abord, γH2AX se lie avec Mdc1. • Ensuite, ATM peut phosphoryler Mdc1 liée à γH2AX. • Mdc1, une fois phosphorylée, va se lier avec Rnf8. • Enfin, Rnf8 va se lier avec Ubc13. C’est modélisé par les équations logiques suivant les prédicats : • Produit(γH2AX) → liaison(γH2AX, MDC1). • Liaison(γH2AX, MDC1) → produit(γH2AX/MDC1). • Produit(γH2AX/MDC1) → phosphorylation(ATM, γH2AX/MDC1). • Phosphorylation(ATM, γH2AX/MDC1) → produit(p*-MDC1). • Produit(p*-MDC1) → liaison(p*-MDC1, MRF8).64 Approche proposée et résultats • Liaison(p*-MDC1, MRF8) → produit(MRF8_liée). • Produit(MRF8_liée) → liaison(MRF8_liée, UBC13). • Liaison(MRF8_liée, UBC13) → produit(MRF8/UBC13) De façon plus intuitive, ceci peut être présenté par l’image ci – dessous : Dans la Figure 4.1, une flèche à deux têtes présente une liaison, une flèche à une tête présente une production, et une flèche brisée est une phosphorylation. Suite, on replace les implications en utilisant les équivalences (A → B ≡ ¬A ⋁ B) : • ¬Produit(γH2AX) ⋁ liaison(γH2AX, MDC1). • ¬Liaison(γH2AX, MDC1) ⋁ produit(γH2AX/MDC1). • ¬Produit(γH2AX/MDC1) ⋁ phosphorylation(ATM, γH2AX/MDC1). • ¬Phosphorylation(ATM, γH2AX/MDC1) ⋁ produit(p*-MDC1). • ¬Produit(p*-MDC1) ⋁ liaison(p*-MDC1, MRF8). • ¬Liaison(p*-MDC1, MRF8) ⋁ produit(MRF8_liée). • ¬Produit(MRF8_liée) ⋁ liaison(MRF8_liée, UBC13). • ¬Liaison(MRF8_liée, UBC13) ⋁ produit(MRF8/UBC13) Enfin, on adapte les équations au format de Prolog : • cnf(mdc1_1, axiom, [-product(gamma_h2ax),binding(gamma_h2ax,mdc1)]). • cnf(mdc1_2, axiom, [-binding(gamma_h2ax,mdc1),product(h2ax_mdc1)]). • cnf(mdc1_3,axiom,[product(h2ax_mdc1), phosphorylation(p_atm_bound,h2ax_mdc1)]). • cnf(mdc1_4, axiom, [-phosphorylation(p_atm_bound,h2ax_mdc1),product(p_mdc1)]). • cnf(rnf_01, axiom, [-product(p_mdc1),binding(p_mdc1,rnf8)]). • cnf(rnf_02, axiom, [-binding(p_mdc1,rnf8),product(rnf8_bound)]). • cnf(rnf_03, axiom, [-product(rnf8_bound),binding(rnf8_bound,ubc13)]). • cnf(rnf_04, axiom, [-binding(rnf8_bound,ubc13),product(rnf8_ubc13)]). ATM γH2AX/MDC1 γH2AX MDC1 P*-MDC1 MRF8 MRF8_liée UBC13 MRF8/UBC13 Figure 4.1. Interactions de la carte de PommierApproche proposée et résultats 65 À partir de la carte, avec la modélisation, on a adapté la base de données au format de Prolog. Les lignes ci-dessous sont celles utilisées dans le modèle et qui relatent les événements biologiques précédemment indiques : /****************************************/ cnf(mrn_0, axiom, [-product(dsb),stimulation(dsb,dna)]). cnf(mrn_1, axiom, [-stimulation(dsb,dna),product(altered_dna)]). cnf(mrn_2, axiom, [-product(altered_dna),binding(mre11,rad50)]). cnf(mrn_3, axiom, [-binding(mre11,rad50),product(mre11_rad50)]). cnf(mrn_4, axiom, [-product(mre11_rad50),binding(mre11_rad50,nbs1)]). cnf(mrn_5, axiom, [-binding(mre11_rad50,nbs1),product(mrn)]). cnf(mrn_6, axiom, [-product(mrn),binding(mrn,altered_dna)]). cnf(mrn_7, axiom, [-binding(mrn,altered_dna),product(mrn_bound_to_dna)]). cnf(atm_1, axiom, [-product(mrn_bound_to_dna),binding(mrn_bound_to_dna,atm_atm)]). cnf(atm_2, axiom, [-binding(mrn_bound_to_dna,atm_atm),product(atm_bound_to_mrn)]). cnf(atm_3, axiom, [-product(atm_bound_to_mrn),-product(atm_atm)]). cnf(atm_4, axiom, [-product(atm_bound_to_mrn),autophosphorylation(atm_bound_to_mrn)]). cnf(atm_5, axiom, [-autophosphorylation(atm_bound_to_mrn),product(p_atm_atm_bound)]). cnf(atm_6, axiom, [-product(p_atm_atm_bound),-product(atm_atm)]). cnf(atm_7, axiom, [-product(p_atm_atm_bound),dissociation(p_atm_atm_bound)]). cnf(atm_8, axiom, [-dissociation(p_atm_atm_bound),product(p_atm_bound)]). cnf(atm_9, axiom, [-dissociation(p_atm_atm_bound),product(p_atm_free)]). %Chk1 Phosphorylation cnf(chk1_1, axiom, [-product(p_atm_free),phosphorylation(p_atm_free,chk1)]). cnf(chk1_2, axiom, [-phosphorylation(p_atm_free,chk1),product(p_chk1)]). cnf(chk1_3, axiom, [phosphorylation(atr,chk1)]). cnf(chk1_4, axiom, [-phosphorylation(atr,chk1),product(p_chk1)]). %Other MRN needs cnf(mrn_add_1, axiom, [-product(mrn_bound_to_dna),product(p_smc1)]). cnf(mrn_add_2, axiom, [-product(mrn_bound_to_dna),product(p_mre11)]). %gamma-H2AX cnf(h2ax_1, axiom, [-phosphorylation(atr,h2ax),product(gamma_h2ax)]). cnf(h2ax_2, axiom, [-phosphorylation(p_atm_bound,h2ax),product(gamma_h2ax)]). %MDC1, Ubiquitination and BRCA1 cnf(mdc1_1, axiom, [-product(gamma_h2ax),binding(gamma_h2ax,mdc1)]). cnf(mdc1_2, axiom, [-binding(gamma_h2ax,mdc1),product(h2ax_mdc1)]). cnf(mdc1_3, axiom, [-product(h2ax_mdc1),phosphorylation(p_atm_bound,h2ax_mdc1)]). cnf(mdc1_4, axiom, [-phosphorylation(p_atm_bound,h2ax_mdc1),product(p_mdc1)]). cnf(rnf_01, axiom, [-product(p_mdc1),binding(p_mdc1,rnf8)]). cnf(rnf_02, axiom, [-binding(p_mdc1,rnf8),product(rnf8_bound)]). cnf(rnf_03, axiom, [-product(rnf8_bound),binding(rnf8_bound,ubc13)]). cnf(rnf_04, axiom, [-binding(rnf8_bound,ubc13),product(rnf8_ubc13)]). cnf(rnf_05, axiom, [-product(rnf8_ubc13),ubiquitination(rnf8_ubc13,h2a)]). cnf(rnf_06, axiom, [-ubiquitination(rnf8_ubc13,h2a),product(ub_h2a)]). cnf(rnf_07, axiom, [-product(ub_h2a),binding(ub_h2a,rnf168)]). cnf(rnf_08, axiom, [-binding(ub_h2a,rnf168),product(rnf168_bound)]). cnf(rnf_09, axiom, [-product(rnf168_bound),binding(rnf168_bound,ubc13)]). 66 Approche proposée et résultats cnf(rnf_10, axiom, [-binding(rnf168_bound,ubc13),product(rnf168_ubc13)]). cnf(rnf_11, axiom, [-product(rnf168_ubc13),ubiquitination(rnf168_ubc13,h2a)]). cnf(rnf_12, axiom, [-ubiquitination(rnf168_ubc13,h2a),product(poly_ub_h2a)]). cnf(rnf_13, axiom, [-product(poly_ub_h2a),stimulation(poly_ub_h2a,dna)]). cnf(rnf_14, axiom, [-stimulation(poly_ub_h2a,dna),product(changed_struct_dna)]). cnf(rap_01, axiom, [-product(poly_ub_h2a),binding(poly_ub_h2a,rap80)]). cnf(rap_02, axiom, [-binding(poly_ub_h2a,rap80),product(rap80_bound)]). cnf(rap_03, axiom, [-product(rap80_bound),binding(rap80_bound,abraxas)]). cnf(rap_04, axiom, [-binding(rap80_bound,abraxas),product(abraxas_bound)]). cnf(rap_05, axiom, [-product(abraxas_bound),binding(abraxas_bound,bre)]). cnf(rap_06, axiom, [-binding(abraxas_bound,bre),product(bre_bound)]). cnf(rap_07, axiom, [-product(abraxas_bound),binding(abraxas_bound,brcc36)]). cnf(rap_08, axiom, [-binding(abraxas_bound,brcc36),product(brcc36_bound)]). cnf(rap_09, axiom, [-product(brcc36_bound),binding(brcc36_bound,merit40)]). cnf(rap_10, axiom, [-binding(brcc36_bound,merit40),product(merit40_bound)]). cnf(rap_10, axiom, [-product(merit40_bound),binding(merit40_bound,brcc36_bound)]). cnf(rap_11, axiom, [-binding(merit40_bound,brcc36_bound),product(brcc36_merit40)]). cnf(rap_12, axiom, [-product(brcc36_merit40),binding(brcc36_merit40,brca1)]). cnf(rap_13, axiom, [-binding(brcc36_merit40,brca1),product(brca1_bound_to_rap80_complex)]). %53BP1 binding cnf(mmset_1, axiom, [-product(changed_struct_dna),phosphorylation(p_atm_bound,mmset)]). cnf(mmset_2, axiom, [-phosphorylation(p_atm_bound,mmset),product(p_mmset)]). cnf(mmset_3, axiom, [-product(h2ax_mdc1),binding(h2ax_mdc1,mdc1)]). cnf(mmset_4, axiom, [-binding(h2ax_mdc1,mdc1),product(mdc1_multi)]). cnf(mmset_5, axiom, [-product(mdc1_multi),-product(p_mmset),binding(mdc1_multi,p_mmset)]). cnf(mmset_6, axiom, [-binding(mdc1_multi,p_mmset),product(mmset_mdc1)]). cnf(mmset_7, axiom, [-product(mmset_mdc1),methylation(mmset_mdc1,h4)]). cnf(mmset_8, axiom, [-methylation(mmset_mdc1,h4),product(h4k20me2)]). cnf(p53bp1_1,axiom,[-product(h4k20me2),-product(brca1_bound_to_rap80_complex), binding(h4k20me2,p53bp1)]). cnf(p53bp1_2, axiom, [-binding(h4k20me2,p53bp1),product(p53bp1_bound)]). cnf(p53bp1_3, axiom, [-product(p53bp1_bound),phosphorylation(p_atm_bound,p53bp1_bound)]). cnf(p53bp1_4, axiom, [-phosphorylation(p_atm_bound,p53bp1_bound),product(p_53bp1)]). %Chk2 formation with Plk3 action (and binding with 53bp1) cnf(plk3_1, axiom, [-product(p_atm_free),phosphorylation(p_atm_free,plk3)]). cnf(plk3_2, axiom, [-phosphorylation(p_atm_free,plk3),product(p_plk3)]). cnf(chk2_01, axiom, [-product(p_atm_free),phosphorylation(p_atm_free,chk2)]). cnf(chk2_02, axiom, [-phosphorylation(p_atm_free,chk2),product(p_s33_35_chk2)]). cnf(chk2_03, axiom, [-product(p_s33_35_chk2),phosphorylation(p_plk3,p_s33_35_chk2)]). cnf(chk2_04, axiom, [-phosphorylation(p_plk3,p_s33_35_chk2),product(p_s33_35_s62_73_chk2)]). cnf(chk2_05,axiom,[-product(p_s33_35_s62_73_chk2), phosphorylation(p_atm_free,p_s33_35_s62_73_chk2)]). cnf(chk2_06, axiom, [-phosphorylation(p_atm_free,p_s33_35_s62_73_chk2),product(p_t68_chk2)]). cnf(chk2_07,axiom,[-product(p_s33_35_s62_73_chk2), phosphorylation(atr,p_s33_35_s62_73_chk2)]). cnf(chk2_08, axiom, [-phosphorylation(atr,p_s33_35_s62_73_chk2),product(p_t68_chk2)]). cnf(chk2_09, axiom, [-product(p_t68_chk2),binding(p_t68_chk2,p_t68_chk2)]). cnf(chk2_10, axiom, [-binding(p_t68_chk2,p_t68_chk2),product(chk2_chk2)]). cnf(chk2_11, axiom, [-product(chk2_chk2),autophosphorylation(chk2_chk2)]). cnf(chk2_12, axiom, [-autophosphorylation(chk2_chk2),product(p_active_chk2_chk2)]). cnf(chk2_13,axiom,[-product(p_active_chk2_chk2),-product(p_53bp1), binding(p_active_chk2_chk2,p_53bp1)]). Approche proposée et résultats 67 cnf(chk2_13, axiom, [-binding(p_active_chk2_chk2,p_53bp1),product(chk2_53bp1)]). %BRCA1 regulation by CtIP and Chk2 cnf(ctip_1, axiom, [binding(brca1,ctip)]). cnf(ctip_2, axiom, [-binding(brca1,ctip),product(brca1_ctip)]). cnf(ctip_3, axiom, [-product(brca1_ctip),-product(chk2_53bp1),binding(brca1_ctip,chk2_53bp1)]). cnf(ctip_4, axiom, [-binding(brca1_ctip,chk2_53bp1),product(chk2_53bp1_bound_to_brca1)]). cnf(ctip_5, axiom, [-binding(brca1_ctip,chk2_53bp1),product(brca1_ctip_bound_to_chk2)]). cnf(ctip_6,axiom,[-product(chk2_53bp1_bound_to_brca1),-product(brca1_ctip_bound_to_chk2), phosphorylation(chk2_53bp1_bound_to_brca1,brca1_ctip_bound_to_chk2)]). cnf(ctip_7,axiom,[-phosphorylation(chk2_53bp1_bound_to_brca1,brca1_ctip_bound_to_chk2), product(p_brca1_ctip_bound_to_chk2)]). cnf(ctip_8, axiom, [-product(p_brca1_ctip_bound_to_chk2),product(p_s988_brca_ctip)]). cnf(ctip_9, axiom, [-product(chk2_53bp1_bound_to_brca1),product(chk2_53bp1)]). cnf(brca1_0,axiom,[-product(p_s988_brca_ctip), phosphorylation(p_atm_bound,p_s988_brca_ctip)]). cnf(brca1_1, axiom, [-phosphorylation(p_atm_bound,p_s988_brca_ctip),product(brca_p_ctip)]). cnf(brca1_2, axiom, [-product(brca_p_ctip),-product(brca1_ctip)]). cnf(brca1_3, axiom, [-product(brca_p_ctip),dissociation(brca_p_ctip)]). cnf(brca1_4, axiom, [-dissociation(brca_p_ctip),product(brca1)]). cnf(brca1_5, axiom, [-dissociation(brca_p_ctip),product(p_ctip)]). cnf(brca1_6, axiom, [-product(brca1),phosphorylation(p_atm_bound,brca1)]). cnf(brca1_7, axiom, [-phosphorylation(p_atm_bound,brca1),product(p_brca1)]). cnf(brca1_8, axiom, [-product(brca1),phosphorylation(atr,brca1)]). cnf(brca1_9, axiom, [-phosphorylation(atr,brca1),product(p_brca1)]). %DNA repair proposed mecasism cnf(repa_1, axiom, [-product(p_brca1),-product(p_53bp1),binding(mrn_bound_to_dna,p_brca1)]). cnf(repa_2, axiom, [-binding(mrn_bound_to_dna,p_brca1),product(brca1_bound_to_mrn)]). %p53 pathway and regulation including PML cnf(pml_1, axiom, [-product(chk2_53bp1),phosphorylation(chk2_53bp1,pml)]). cnf(pml_2, axiom, [-phosphorylation(chk2_53bp1,pml),product(p_pml)]). cnf(pml_3, axiom, [-product(p_pml),stimulation(p_pml,cell)]). cnf(pml_4, axiom, [-stimulation(p_pml,cell),product(apoptosis)]). cnf(pml_5, axiom, [-product(p_pml),binding(p_pml,mdm2)]). cnf(pml_6, axiom, [-binding(p_pml,mdm2),product(pml_mdm2)]). cnf(pml_7, axiom, [-product(pml_mdm2),-binding(mdm2,p53)]). cnf(mdm2_1, axiom, [product(p53)]). cnf(mdm2_2, axiom, [-product(mdm2),-product(p53),binding(mdm2,p53)]). cnf(mdm2_3, axiom, [-binding(mdm2,p53),product(mdm2_p53)]). cnf(mdm2_4, axiom, [-product(mdm2_p53),stimulation(p53_degradation_effectors,mdm2_p53)]). cnf(mdm2_5,axiom,[-stimulation(p53_degradation_effectors,mdm2_p53), product(p53_degradation)]). cnf(p53_01,axiom,[-product(p_atm_free),-product(mdm2_p53), phosphorylation(p_atm_free,mdm2_p53)]). cnf(p53_02, axiom, [-phosphorylation(p_atm_free,mdm2_p53),product(p_s15_p53_mdm2)]). cnf(p53_03, axiom, [-product(mdm2_p53),phosphorylation(atr,mdm2_p53)]). cnf(p53_04, axiom, [-phosphorylation(atr,mdm2_p53),product(p_s15_p53_mdm2)]). cnf(p53_05,axiom,[-product(p_s15_p53_mdm2),-product(chk2_53bp1), phosphorylation(chk2_53bp1,p_s15_p53_mdm2)]). cnf(p53_06, axiom, [-phosphorylation(chk2_53bp1,p_s15_p53_mdm2),product(p_p_p53_mdm2)]). cnf(p53_07,axiom,[-product(p_s15_p53_mdm2),-product(p_chk1), phosphorylation(p_chk1,p_s15_p53_mdm2)]). 68 Approche proposée et résultats cnf(p53_08, axiom, [-phosphorylation(p_chk1,p_s15_p53_mdm2),product(p_p_p53_mdm2)]). cnf(p53_09, axiom, [-product(p_s15_p53_mdm2),-product(p53_degradation)]). cnf(p53_10, axiom, [-product(p_p_p53_mdm2),-product(p53_degradation)]). cnf(p53_11, axiom, [-product(p_p_p53_mdm2),dissociation(p_p_p53_mdm2)]). cnf(p53_12, axiom, [-dissociation(p_p_p53_mdm2),product(p_p_p53)]). cnf(p53_13, axiom, [-dissociation(p_p_p53_mdm2),product(mdm2)]). cnf(p53_14, axiom, [-product(p_atm_free),-product(mdm2),phosphorylation(p_atm_free,mdm2)]). cnf(p53_15, axiom, [-phosphorylation(p_atm_free,mdm2),product(p_mdm2)]). cnf(p53_16, axiom, [-product(p_p_p53),binding(p300,p_p_p53)]). cnf(p53_17, axiom, [-product(p_pml),-binding(p300,p_p_p53),product(active_p53)]). cnf(p53_18,axiom,[-product(active_p53), transcription_activation(active_p53,prom_p21_gadd45)]). cnf(p53_19,axiom,[-transcription_activation(active_p53,prom_p21_gadd45), product(p21_and_gadd45)]). cnf(p53_19a, axiom, [-product(p21_and_gadd45),stimulation(p21_and_gadd45,cell_cycle)]). cnf(p53_20, axiom, [-stimulation(p21_and_gadd45,cell_cycle),product(cell_cycle_arrest)]). cnf(p53_21, axiom, [-product(active_p53),transcription_activation(active_p53,prom_bnpf)]). cnf(p53_22,axiom,[-transcription_activation(active_p53,prom_bnpf), product(box_nas_puma_fas)]). cnf(p53_23, axiom, [-product(box_nas_puma_fas),stimulation(box_nas_puma_fas,cell)]). cnf(p53_24, axiom, [-stimulation(box_nas_puma_fas,cell),product(apoptosis)]). cnf(p53_21, axiom, [-product(active_p53),transcription_activation(active_p53,prom_mdm2)]). cnf(p53_22, axiom, [-transcription_activation(active_p53,prom_mdm2),product(mdm2)]). %E2F1 action cnf(e2f1_00, axiom, [product(e2f1)]). cnf(e2f1_01, axiom, [-product(e2f1),-product(chk2_53bp1),phosphorylation(chk2_53bp1,e2f1)]). cnf(e2f1_02, axiom, [-phosphorylation(chk2_53bp1,e2f1),product(p_e2f1)]). cnf(e2f1_03, axiom, [-product(e2f1),stimulation(e2f1_degradation_effectors,e2f1)]). cnf(e2f1_04, axiom, [-stimulation(e2f1_degradation_effectors,e2f1),product(e2f1_degradation)]). cnf(e2f1_05, axiom, [-product(p_e2f1),-product(e2f1_degradation)]). cnf(e2f1_06, axiom, [-product(p_e2f1),phosphorylation(p_atm_free,p_e2f1)]). cnf(e2f1_07, axiom, [-phosphorylation(p_atm_free,p_e2f1),product(p_p_e2f1)]). cnf(e2f1_08, axiom, [-product(p_e2f1),phosphorylation(atr,p_e2f1)]). cnf(e2f1_09, axiom, [-phosphorylation(atr,p_e2f1),product(p_p_e2f1)]). cnf(e2f1_10, axiom, [-product(p_p_e2f1),transcription_activation(p_p_e2f1,prom_chk2)]). cnf(e2f1_11, axiom, [-transcription_activation(p_p_e2f1,prom_chk2),product(chk2)]). cnf(e2f1_12, axiom, [-product(p_p_e2f1),transcription_activation(p_p_e2f1,prom_arf)]). cnf(e2f1_13, axiom, [-transcription_activation(p_p_e2f1,prom_arf),product(arf)]). cnf(e2f1_14, axiom, [-product(p_p_e2f1),transcription_activation(p_p_e2f1,prom_p73_apaf1)]). cnf(e2f1_15, axiom, [-transcription_activation(p_p_e2f1,prom_p73_apaf1),product(p73_apaf1)]). cnf(e2f1_16, axiom, [-product(p73_apaf1),stimulation(p73_apaf1,cell)]). cnf(e2f1_17, axiom, [-stimulation(p73_apaf1,cell),product(apoptosis)]). cnf(e2f1_18, axiom, [-product(arf),binding(arf,mdm2)]). cnf(e2f1_19, axiom, [-binding(arf,mdm2),product(arf_mdm2)]). cnf(e2f1_20, axiom, [-product(arf_mdm2),-product(mdm2_p53)]). cnf(e2f1_21, axiom, [-product(p_p_e2f1),stimulation(p_p_e2f1,unknown_atm_way)]). cnf(e2f1_22, axiom, [-stimulation(p_p_e2f1,unknown_atm_way),product(p_atm_free)]). %p38 phosphorylation (usefull for cdc25c and cdc25b) cnf(p38_1, axiom, [-product(p_atm_free),phosphorylation(p_atm_free,p38)]). cnf(p38_2, axiom, [-phosphorylation(p_atm_free,p38),product(p_p38)]). %Cdc25 regulation cnf(cdc25a_0, axiom, [-stimulation(cdc25a,cell),-product(cell_cycle_arrest)]).Approche proposée et résultats 69 cnf(cdc25a_1, axiom, [-product(chk2_53bp1),phosphorylation(chk2_53bp1,cdc25a)]). cnf(cdc25a_2, axiom, [-phosphorylation(chk2_53bp1,cdc25a),product(p_cdc25a)]). cnf(cdc25a_3, axiom, [-product(p_chk1),phosphorylation(p_chk1,cdc25a)]). cnf(cdc25a_4, axiom, [-phosphorylation(p_chk1,cdc25a),product(p_cdc25a)]). cnf(cdc25a_5, axiom, [-product(p_cdc25a),stimulation(p_cdc25a,cdc25a_degradation_effectors)]). cnf(cdc25a_6,axiom,[-stimulation(p_cdc25a,cdc25a_degradation_effectors), product(cdc25a_degradation)]). cnf(cdc25a_7, axiom, [-product(cdc25a_degradation),-stimulation(cdc25a,cell)]). cnf(cdc25c_00, axiom, [-stimulation(cdc25c,cell),-product(cell_cycle_arrest)]). cnf(cdc25c_01, axiom, [-product(chk2_53bp1),phosphorylation(chk2_53bp1,cdc25c)]). cnf(cdc25c_02, axiom, [-phosphorylation(chk2_53bp1,cdc25c),product(p_cdc25c)]). cnf(cdc25c_03, axiom, [-product(p_plk3),phosphorylation(p_plk3,cdc25c)]). cnf(cdc25c_04, axiom, [-phosphorylation(p_plk3,cdc25c),product(p_cdc25c)]). cnf(cdc25c_05, axiom, [-product(p_chk1),phosphorylation(p_chk1,cdc25c)]). cnf(cdc25c_06, axiom, [-phosphorylation(p_chk1,cdc25c),product(p_cdc25c)]). cnf(cdc25c_07, axiom, [-product(p_p38),phosphorylation(p_p38,cdc25c)]). cnf(cdc25c_08, axiom, [-phosphorylation(p_p38,cdc25c),product(p_cdc25c)]). cnf(cdc25c_09, axiom, [-product(p_cdc25c),stimulation(p_cdc25c,cdc25c_degradation_effectors)]). cnf(cdc25c_10,axiom,[-stimulation(p_cdc25c,cdc25c_degradation_effectors), product(cdc25c_degradation)]). cnf(cdc25c_11, axiom, [-product(cdc25c_degradation),-stimulation(cdc25c,cell)]). cnf(cdc25b_1, axiom, [-stimulation(cdc25b,cell),-product(cell_cycle_arrest)]). cnf(cdc25b_2, axiom, [-product(p_p38),phosphorylation(p_p38,cdc25b)]). cnf(cdc25b_3, axiom, [-phosphorylation(p_p38,cdc25b),product(p_cdc25b)]). cnf(cdc25b_4, axiom, [-product(p_cdc25b),-stimulation(cdc25b,cell)]). %JNK actions (mechanisms quite unclear) cnf(jnk_1, axiom, [-stimulation(jnk,cdc25c),product(p_cdc25c)]). cnf(jnk_2, axiom, [-phosphorylation(jnk,p_s15_p53_mdm2),product(p_p_p53_mdm2)]). %FANCD2 first steps cnf(fancd2_1, axiom, [-product(p_atm_bound),phosphorylation(p_atm_bound,nbs1)]). cnf(fancd2_2, axiom, [-phosphorylation(p_atm_bound,nbs1),product(p_nbs1)]). cnf(fancd2_3, axiom, [-product(p_nbs1),phosphorylation(p_atm_bound,fancd2)]). cnf(fancd2_4, axiom, [-phosphorylation(p_atm_bound,fancd2),product(p_fancd2)]). cnf(fancd2_5, axiom, [-product(p_fancd2),stimulation(p_fancd2,cell)]). cnf(fancd2_6, axiom, [-stimulation(p_fancd2,cell),-product(cell_cycle_arrest)]). %Mus81 actions on DNA Repair cnf(mus81_1, axiom, [-product(chk2_53bp1),binding(chk2_53bp1,mus81)]). cnf(mus81_2, axiom, [-binding(chk2_53bp1,mus81),product(mus81_chk2)]). cnf(mus81_3, axiom, [-product(mus81_chk2),binding(mus81_chk2,altered_dna)]). cnf(mus81_4, axiom, [-binding(mus81_chk2,altered_dna),product(mus81_bound_to_dna)]). %cnf(mus81_5, axiom, [-binding(mus81_chk2,altered_dna),product(mus81_bound_to_dna)]). /****************************************/ Le résultat : Avec le champ de production champ([_,1,[stimulation(_,_)],_]), après l’exécution de programme, le résultat est donné Pour activer product(cell_cycle_arrest): -stimulation(p21_and_gadd45,cell_cycle) 70 Approche proposée et résultats % 261,290 inferences, 0.156 CPU in 20.794 seconds (1% CPU, 1674925 Lips) Pour bloquer product(cell_cycle_arrest) : -stimulation(cdc25a,cell) -stimulation(cdc25c,cell) -stimulation(cdc25b,cell) -stimulation(dsb,dna) -stimulation(p_fancd2,cell) % 18,008 inferences, 0.047 CPU in 7.993 seconds (1% CPU, 384784 Lips) Pour activer product(apoptosis) : -stimulation(p_pml,cell) -stimulation(box_nas_puma_fas,cell) -stimulation(p73_apaf1,cell) % 154,139 inferences, 0.094 CPU in 20.310 seconds (0% CPU, 1646774 Lips) Pour bloquer product(apoptosis), le résultat est un ensemble vide de clauses. 4.2. Utilisation de la logique des défauts 4.2.1. Dans le cas général La Figure 4.2 représente un exemple très simplifié d'interactions dans une cellule. Figure 4.2. Un exemple d’interactions dans une celluleApproche proposée et résultats 71 Par des mécanismes divers non indiqués ici, les ultraviolets (UV) mettent la cellule en apostase (elle devient de fait immortelle) d'où le cancer. Ceci est représenté par une flèche. D'un autre coté les UV activent la production de la protéine p53. Cette protéine va activer une protéine A qui va bloquer le cancer. Mais p53 liée à la protéine Mdm2 va produire B, qui va bloquer A. Pour un biologiste, la question est donc de bloquer le cancer en bloquant B. Les expériences biologiques ont montré que le X pourrait être un candidat pour ce blocage. Les figures (b) et (c) donnent deux types d'interactions possibles avec X pour expliquer ce blocage de B. Le problème est d'utiliser l'informatique pour compléter le graphe [3]. Pour décrire les interactions entre les gênes dans la figure, on part d’un langage L de logique classique (propositionnel ou du premier ordre). Dans L, la proposition A (resp ¬A) signifie que A est vrai (faux). Les interactions entres les gênes sont une forme très simple de causalité. Pour exprimer ces interactions il est courant d'aller à l'essentiel en donnant deux relations binaires cause(A, B) et bloque(A, B). La première relation veut dire, par exemple, qu'une protéine A déclenche la production d'une protéine B, la deuxième est l’inhibition. De manière classique, ces relations sont représentées dans le réseau de gênes, par A → B et A ⊣ B. Bien entendu, ces causalités sont élémentaires et de nombreux travaux très savants ont été écrits pour les représenter. Pour représenter les liens entre les relations, dans le langage L, il faut faire deux choses : décrire les propriétés internes aux relations cause et bloque ; décrire les liens entre ces relations. Les premières propriétés que l’on a envie de donner peuvent s’exprimer naturellement, par des règles du type : (1) Si A cause B et si A est vrai, alors B est vrai. (2) Si A bloque B et si A est vrai, alors B est faux. La solution élémentaire est alors de donner explicitement les deux schémas d'axiomes : (C1) cause(A,B) ∧ cause(B, C) → cause(A, C) (C2) cause(A, B) ∧ bloque (B, C) → bloque(A, C) La première idée est d'exprimer ces lois en logique classique par les axiomes : cause(A, B) ∧ A → B bloque(A, B) ∧ A → ¬B On peut aussi les exprimer plus faiblement par des règles d'inférences proches du modus ponens : cause(A, B) ∧ A / B bloque(A, B) ∧ A / ¬B72 Approche proposée et résultats Mais ces deux formulations posent problème dès qu'il y a conflit. Si par exemple on a un ensemble F de quatre formules F = {A, B, cause(A, C), bloque(B, C)}, alors on va dans les deux approches données ci-dessus inférer de F, C et ¬C ce qui est inconsistant. Pour résoudre ce conflit, on peut utiliser la logique des défauts. Pour résoudre les conflits vus ci-dessus, l'idée intuitive est d'affaiblir la formulation des règles de causalité en : (1') Si A cause B, et si A est vrai, et s'il est possible que B est vrai, alors B est vrai. (2') Si A bloque B, et si A est vrai, et s'il est possible que B est faux, alors B est faux. Dans la logique des défauts, les règles (1') et (2') vont s'exprimer intuitivement. (1") Si A cause B, et si A est vrai, et si B n'est pas contradictoire, alors B est vrai. (2") Si A bloque B, et si A est vrai, et si ¬B n'est pas contradictoire, alors ¬B est vrai. Ces règles vont se représenter par des défauts normaux et s'écrire : d1 : cause(A, B) ∧ A : B / B d2 : bloque(A, B) ∧ A : ¬B / ¬B Pour le cas élémentaire qui précède, si A et B sont vrais, on a : W = {A, B, cause(A,C), bloque(B,C)} D = {d1, d2} et on obtient deux extensions : E1 contient C (en appliquant d1) E2 contient ¬C (en appliquant d2) Le conflit est donc résolu, mais se pose le problème des extensions à préférer ; est-ce que C est induit ou bloqué? En fait ceci va vraiment dépendre du contexte. On peut par exemple préférer les interactions positives par rapport aux négatives ; ou bien utiliser des méthodes statistiques ou probabilistes. Plus en détail, pour l’application, on a [28]: W = {UV, Mdm2} D = { d1 = UV : cancer / cancer d2 = UV : p53 / p53 d3 = p53 : A / A d4 = p53 ∧ Mdm2: B / BApproche proposée et résultats 73 d5 = B : ¬A / ¬A d6 = A : ¬cancer / ¬cancer d7 = C : ¬B / ¬B } On a encore deux défauts généraux : d8 = Y : x /x ; où Y ∈ {UV, Mdm2} et d9 = Z ∧ x: C / C; où Z ∈ {UV, Mdm2, p53, A, B} Comme on a dit précédemment, pour que l’algorithme travaille avec des variables, il faut l’améliorer. Dans ce cas, les défauts d8 et d9 peuvent être écrits : source(uv). % UV est une source source(mdm2). substance(uv). % UV est une substance substance(mdm2). substance(p53). substance(a). substance(b). ecrit: source(Y), % « ordre 1 » assert(cl(def(Y,x))), % « ordre 2 » substance(Z), % « ordre 3 » assert(cl(def(joint(Z,x),c))). % « ordre 4 » où « ordre 1 » et « ordre 2 » peuvent dire : pour toutes les sources Y, ajouter les défauts Y:x/x à la base de données ; « ordre 3 » et « ordre 4 » peuvent dire : pour toutes les substances Z, ajouter les défauts Z∧ x:C/C à la base de données. En utilisant l’algorithme de calculer des extensions, on a 18 extensions cidessous (l’extension 12 correspond à la Figure 4.2-b, et l’extension 13 correspond à la Figure 4.2-c) : EXTENSION 1: uv -> p53 p53 -> a74 Approche proposée et résultats joint(p53,mdm2) -> b uv -> x joint(uv,x) -> c a -> -cancer EXTENSION 2: uv -> p53 p53 -> a joint(p53,mdm2) -> b uv -> x joint(mdm2,x) -> c a -> -cancer EXTENSION 3: uv -> p53 p53 -> a joint(p53,mdm2) -> b uv -> x joint(p53,x) -> c a -> -cancer EXTENSION 4: uv -> p53 p53 -> a joint(p53,mdm2) -> b uv -> x joint(a,x) -> c a -> -cancer EXTENSION 5: uv -> p53 p53 -> a joint(p53,mdm2) -> b uv -> x joint(b,x) -> c a -> -cancer EXTENSION 6: uv -> p53 p53 -> a joint(p53,mdm2) -> b mdm2 -> x joint(uv,x) -> c a -> -cancerApproche proposée et résultats 75 EXTENSION 7: uv -> p53 p53 -> a joint(p53,mdm2) -> b mdm2 -> x joint(mdm2,x) -> c a -> -cancer EXTENSION 8: uv -> p53 p53 -> a joint(p53,mdm2) -> b mdm2 -> x joint(p53,x) -> c a -> -cancer EXTENSION 9: uv -> p53 p53 -> a joint(p53,mdm2) -> b mdm2 -> x joint(a,x) -> c a -> -cancer EXTENSION 10: uv -> p53 p53 -> a joint(p53,mdm2) -> b mdm2 -> x joint(b,x) -> c a -> -cancer EXTENSION 11: uv -> p53 p53 -> a uv -> x joint(uv,x) -> c c -> -b a -> -cancer EXTENSION 12: uv -> p53 p53 -> a uv -> x joint(mdm2,x) -> c76 Approche proposée et résultats c -> -b a -> -cancer EXTENSION 13: uv -> p53 p53 -> a uv -> x joint(p53,x) -> c c -> -b a -> -cancer EXTENSION 14: uv -> p53 p53 -> a uv -> x joint(a,x) -> c c -> -b a -> -cancer EXTENSION 15: uv -> p53 p53 -> a mdm2 -> x joint(uv,x) -> c c -> -b a -> -cancer EXTENSION 16: uv -> p53 p53 -> a mdm2 -> x joint(mdm2,x) -> c c -> -b a -> -cancer EXTENSION 17: uv -> p53 p53 -> a mdm2 -> x joint(p53,x) -> c c -> -b a -> -cancer EXTENSION 18: uv -> p53 Approche proposée et résultats 77 p53 -> a mdm2 -> x joint(a,x) -> c c -> -b a -> -cancer % 599,907 inferences, 1.700 CPU in 2.402 seconds (71% CPU, 352801 Lips) 4.2.2. Utilisation dans le domaine temporel discret Bien que les cellules aient des morphologies et des structures différentes et que leurs rôles dans les organismes différents soient variés, leurs fonctionnalités de base sont les mêmes [1,4]. Une de ces fonctionnalités est d'assurer la survie de la cellule. Cette activité dans son ensemble peut être résumée en deux points [21]. Premièrement, une cellule a besoin de trouver l'énergie nécessaire pour son activité. Cette énergie est principalement obtenue par la dégradation des ressources minérales ou organiques, c’est le catabolisme. Deuxièmement, les cellules doivent fabriquer les molécules simples nécessaires à leur survie, c’est l’anabolisme. Ces deux grandes activités sont regroupées sous le nom de métabolisme, et résultent d'un grand nombre de mécanismes et de réactions biochimiques. La plupart des réactions, qui se déroulent dans une cellule, sont catalysées par des molécules spéciales appelées enzymes. Tout ceci est représenté comme un réseau, appelé voie métabolique [20]. Figure 4.3. Système équilibré de masse La Figure 4.3 représente la topologie simple d'une voie métabolique dans une cellule, qui se compose de cinq métabolites A, B, C, D et E et six réactions, dont chacune relie deux métabolites. Chaque flux est placé sur la réaction correspondante. Bien que les concentrations de A, C, D et E soient expérimentalement mesurables, la concentration de B ne peut pas être mesurée. Par conséquent, B est le métabolite intracellulaire. Sur la base de la cinétique enzymatique, le comportement dynamique du flux d'une réaction enzymatique peut être représenté comme l'équation différentielle suivante: ��� �� = ��� − ���� − ��� (4.2) où Cx est la concentration d'un métabolite X, vin (resp. vout) est la somme des flux de réactions pour la production (resp. consommation) de X, et μCX représente le taux de croissance de la biomasse dans une cellule. Si tous les métabolites sont à l'état stationnaire, le terme de gauche de l'équation (4.2) doit être nul car il n'y a pas de changements de séries chronologiques des concentrations, et aussi, on peut supposer que la dilution des éléments à cause de la croissance 78 Approche proposée et résultats de la biomasse (correspondant à la durée de la dernière équation (4.2)) est négligée. Ce fait signifie que pour chaque métabolite X, les flux de consommation de X sont équilibrés avec les flux de production de X à l'état stationnaire. L’équilibrage de flux métabolique est basé sur cette notion simple. Par exemple, son équilibrage dans la Figure 4.3 peut être représenté comme les équations linéaires suivantes: �1 = ��, �2 + �3 + = �3 − + �1, �5 = �2 + ��, �4 + �� = �5, �3 − + �� = �3 + + �4 (4.3) Ensuite, nous pouvons analyser la distribution du flux sur la base des équations (4.3) avec les flux mesurables rA, rC, rD et rE. En général, ces équations ne peuvent pas être résolues de façon déterministe parce que le nombre de valeurs inconnues comme v1,. . . , v5 correspondant aux flux de réactions enzymatiques intracellulaires devient plus grand que le nombre de valeurs connues correspondant aux flux mesurables. Des méthodes ont été proposées précédemment telles que l'analyse en mode primaire et extrêmes de la voie, des fonctions d'analyse d'utilisation d'optimisation afin de résoudre les équations. Ces fonctions introduites sont généralement construites en supposant que la maximisation de la croissance cellulaire ou la minimisation de la consommation d'énergie. Toutefois, dans le cas d'une grande échelle de la voie métabolique, nous ne pouvons pas résoudre la distribution de flux avec ces méthodes d'approximation en raison du coût de calcul énorme. Le système métabolique cellulaire dispose d'un mécanisme sophistiqué pour contrôler dynamiquement les activités des enzymes pour répondre aux besoins d'une cellule. Ce mécanisme de régulation peut être représenté comme des relations causales entre les activités enzymatiques et la concentration de métabolites changeants. Ici, nous considérons trois voies métaboliques simples: la première se compose de deux réactions avec trois métabolites, la seconde se compose de deux réactions avec trois métabolites aussi, et la troisième se compose d'une réaction avec deux métabolites. Noter que dans les figures suivantes, nous décrivons activé et non-activé par des réactions comme les cercles et barres obliques plus flèches correspondant aux réactions, respectivement. Et aussi, une hausse (resp. baisse) flèche représente l'augmentation (resp. la diminution) à une concentration de métabolites. La figure 4.4 correspond à la voie métabolique composée de trois métabolites X, Y et Z, et deux réactions. La figure dit que si la concentration de Y tend à augmenter à un certain moment, et si la réaction enzymatique Y→X (resp. X→Z) est activée (resp. non-activée) dans un état, alors la concentration de X va aussi augmenter. Cette relation causale est prise en compte par l'équation (4.2). Supposons que l'augmentation de la concentration de X est observée, ce qui est représentée par une flèche en pointillés dans les figures. Un cas possible est que la concentration de Y augmente, la réaction de Y→X est activée et la réaction X→Z n'est pas activée. Ceci parce que la production de X à partir de Y ne peut pas être consommée pour générer le Z. Approche proposée et résultats 79 Figure 4.4. La première relation entre les états de réaction et les changements de concentration de métabolites La Figure 4.5 correspond à la voie métabolique composée de trois métabolites X, Y et Z, et deux réactions. La figure montre que si la concentration de Y tend à augmenter à un certain moment, et si la réaction enzymatique Y→X (resp. X→Z) est non-activée (resp. activée) dans un l'état, alors la concentration de X va diminuer. Cette relation causale est prise en compte par l'équation (4.2). Supposons que la diminution de la concentration de X est observée, ce qui est désignée par une flèche en pointillés dans les figures. Un cas possible est que la concentration de Y augmente, la réaction de Y→X n’est pas activée et la réaction X→Z est activée. C'est parce que la production de Z à partir de X peut être consommée. Figure 4.5. La deuxième relation entre les états de réaction et les changements de concentration de métabolites Ensuite, nous considérons la Figure 4.6 qui représente une voie métabolique composée de deux métabolites X et Y, et une réaction. La figure montre que, même si la réaction Y→X est activée, la concentration de X doit diminuer en ce que la concentration de Y diminue. Par conséquent, si nous observons que la concentration de X diminue, on peut supposer une diminution de la concentration de Y et la réaction Y→X est activée comme un cas possible. Figure 4.6. La troisième relation entre les états de réaction et les changements de concentration de métabolites Les métabolites et les protéines sont considérés comme un même objet. On va souvent se restreindre ici à une représentation propositionnelle. Dans la pratique l'étude fine des interactions va demander de représenter des augmentations ou des diminutions de concentration de protéines. On sort donc du cadre propositionnel mais les problèmes de base sont les mêmes. Pour représenter une variation de concentration il est par exemple possible d'utiliser des prédicats de type "augmente" ou "diminue" et de limiter l'utilisation de ces prédicats. Pour décrire les interactions entre les métabolites dans la cellule, on part d’un langage L de logique classique (propositionnel ou du premier ordre). Dans L, la proposition A (resp ¬A) signifie que A est vrai (faux). On pourra utiliser par exemple con(A, up, ti) pour dire que la Y X Z Y X Z Y X80 Approche proposée et résultats concentration de A est augmentée au moment ti , ou encore, con(A, down, tj) pour dire que la concentration de A est diminuée au moment tj . On est dans un cadre logique, donc il est possible de représenter à peu près tout ce que l'on veut de manière naturelle. Le prix à payer, si l’on utilise la totalité du langage peut être l'explosion combinatoire des algorithmes. Les réactions entres métabolites sont une forme très simple de causalité. Pour exprimer ces réactions, il est courant d'aller à l'essentiel en donnant deux relations binaires act(A, B) et ¬act(A, B). La première relation veut dire, par exemple, qu’un métabolite A est consommé pour la production d'un métabolite B, la deuxième n’est pas consommé. De manière classique ces relations sont représentées dans le réseau de gênes, par A → B et A ⊣ B. Bien entendu cette causalité est élémentaire et de nombreux travaux très savants ont été écrits pour représenter les causalités. (C1) con(A,up,ti)∧react(A,B)∧active(A,B)∧react(B,C)∧non_active(B,C) → con(B,up,ti+1) (C2) con(A,up,tj)∧react(A,B)∧non_active(A,B)∧react(B,C)∧active(B,C) → con(B,down,tj+1) (C3) con(A,down,tk)∧ react(A,B)∧ active(A,B) → con(B,down,tk+1) L’expression (C1) veut dire que si la concentration de A est augmentée au moment ti , s’il y a une réaction entre A et B dans laquelle le métabolite A est consumée pour la production du métabolite B, et si pour toutes les réactions entre B et C le métabolite B n’est pas consommé pour la production du métabolite C, alors la concentration de B est augmentée au moment ti+1. L’expression (C2) veut dire que si la concentration de A est augmentée au moment tj , s’il y a une réaction entre A et B dans laquelle le métabolite A n’est pas consommé pour la production du métabolite B, et si pour une réaction entre B et C le métabolite B est consommé pour la production du métabolite C, alors la concentration de B est diminuée au moment tj+1. L’expression (C3) veut dire que si la concentration de A est diminuée au moment tk, s’il y a une réaction entre A et B dans laquelle le métabolite A est consommé pour la production du métabolite B, alors la concentration de B est diminuée au moment tk+1. Mais ces deux formulations posent problème dès qu'il y a un paradoxe. Si par exemple on a un ensemble F de sept formules F = {con(A, up, ti), react(A, B), react(B, C), active(A, B), non_active(B, C), non_active(A, B), active(B, C)}, alors on va dans les deux approches données ci-dessus inféré de F, con(B, up, ti+1) et con(B, down, ti+1) ce qui est paradoxe, parce que la concentration de B est augmentée et diminuée au même moment ti+1. Pour résoudre ce conflit, on peut utiliser la logique des défauts. Dans notre exemple, pour fournir des liens entre ces relations actives et non actives, l'idée intuitive est donc d'affaiblir la formulation de règles de causalité: (1) Si con(A,up,ti) , react(A,B), react(B,C), active(A,B), et non_active(B,C) sont vrais, et s’il est possible que con(B,up,ti+1), alors con(B,up,ti+1) est conclu (2) Si con(A,up,tj), react(A,B), react(B,C), non_active(A,B), et active(B,C) sont vrais, et s’il est possible que con(B,down,tj+1), alors con(B,down,tj+1) est concluApproche proposée et résultats 81 (3) Si con(A,down,tk), react(A,B), et active(A,B) sont vrais, et s’il est possible que con(B,down,tk+1), alors con(B,down,tk+1) est conclu La question est alors de formellement décrire le possible. Dans la logique des défauts, les règles (1), (2) et (3) seront exprimées de manière intuitive. �1: ���(�, ��,�� ) ∧ �����(�, �) ∧ �����(�, �) ∧ ������(�, �) ∧ ���_������(�, �): ���(�, ��,��+1) ���(�, ��,��+1) �2: �����, ��,��� ∧ �����(�, �) ∧ �����(�, �) ∧ ���_������(�, �) ∧ ������(�, �): ���(�, ����,��+1) ���(�, ����,��+1) �3: ���(�, ����,�� ) ∧ �����(�, �) ∧ ������(�, �): ���(�, ����,��+1) ���(�, ����,��+1) Le paradoxe a été résolu. Pour une théorie des défauts ∆ = (D, W), où D l'ensemble des défauts et W = {con(A, up, t0)}, en utilisant l’algorithme de calcul des extensions, on a 12 extensions ci-dessous [27]: EXTENSION 1: joint(con(a,up, t0), act(a,b), non_act(b,c)) → con(b,up, t1) joint(con(b,up, t1), act(b,d), non_act(d,e)) → con(d,up, t2) joint(con(d,up, t2), act(d,e), non_act(e,c)) → con(e,up, t3) joint(con(e,up, t3), act(e,c), non_act(c,b)) → con(c,up, t4) EXTENSION 2: joint(con(a,up, t0), act(a,b), non_act(b,c)) → con(b,up, t1) joint(con(b,up, t1), act(b,d), non_act(d,e)) → con(d,up, t2) joint(con(d,up, t2), act(d,e), non_act(e,c)) → con(e,up, t3) joint(con(e,up, t3), non_act(e,c), act(c,b)) → con(c,down, t4) EXTENSION 3: joint(con(a,up, t0), act(a,b), non_act(b,c)) → con(b,up, t1) joint(con(b,up, t1), act(b,d), non_act(d,e)) → con(d,up, t2) joint(con(d,up, t2), non_act(d,e), act(e,c)) → con(e,down, t3) joint(con(e,down, t3), act(e,c)) → con(c,down, t4) EXTENSION 4: joint(con(a,up, t0), act(a,b), non_act(b,c)) → con(b,up, t1)82 Approche proposée et résultats joint(con(b,up, t1), non_act(b,d), act(d,e)) → con(d,down, t2) joint(con(d,down, t2), act(d,e)) → con(e,down, t3) joint(con(e,down, t3), act(e,c)) → con(c,down, t4) EXTENSION 5: joint(con(a,up, t0), non_act(a,b), act(b,c)) → con(b,down, t1) joint(con(b,down, t1), act(b,c)) → con(c,down, t2) joint(con(b,down, t1), act(b,d)) → con(d,down, t2) joint(con(d,down, t2), act(d,e)) → con(e,down, t3) EXTENSION 6: joint(con(a,up, t0), non_act(a,b), act(b,c)) → con(b,down, t1) joint(con(b,down, t1), act(b,d)) → con(d,down, t2) joint(con(d,down, t2), act(d,e)) → con(e,down, t3) joint(con(e,down, t3), act(e,c)) → con(c,down, t4) EXTENSION 7: joint(con(a,up, t0), act(a,b), non_act(b,d)) → con(b,up, t1) joint(con(b,up, t1), act(b,d), non_act(d,e)) → con(d,up, t2) joint(con(d,up, t2), act(d,e), non_act(e,c)) → con(e,up, t3) joint(con(e,up, t3), act(e,c), non_act(c,b)) → con(c,up, t4) EXTENSION 8: joint(con(a,up, t0), act(a,b), non_act(b,d)) → con(b,up, t1) joint(con(b,up, t1), act(b,d), non_act(d,e)) → con(d,up, t2) joint(con(d,up, t2), act(d,e), non_act(e,c)) → con(e,up, t3) joint(con(e,up, t3), non_act(e,c), act(c,b)) → con(c,down, t4) EXTENSION 9: joint(con(a,up, t0), act(a,b), non_act(b,d)) → con(b,up, t1) joint(con(b,up, t1), act(b,d), non_act(d,e)) → con(d,up, t2) joint(con(d,up, t2), non_act(d,e), act(e,c)) → con(e,down, t3) joint(con(e,down, t3), act(e,c)) → con(c,down, t4)Approche proposée et résultats 83 EXTENSION 10: joint(con(a,up, t0), act(a,b), non_act(b,d)) → con(b,up, t1) joint(con(b,up, t1), non_act(b,d), act(d,e)) → con(d,down, t2) joint(con(d,down, t2), act(d,e)) → con(e,down, t3) joint(con(e,down, t3), act(e,c)) → con(c,down, t4) EXTENSION 11: joint(con(a,up, t0), non_act(a,b), act(b,d)) → con(b,down, t1) joint(con(b,down, t1), act(b,c)) → con(c,down, t2) joint(con(b,down, t1), act(b,d)) → con(d,down, t2) joint(con(d,down, t2), act(d,e)) → con(e,down, t3) EXTENSION 12: joint(con(a,up, t0), non_act(a,b), act(b,d)) → con(b,down, t1) joint(con(b,down, t1), act(b,d)) → con(d,down, t2) joint(con(d,down, t2), act(d,e)) → con(e,down, t3) joint(con(e,down, t3), act(e,c)) → con(c,down, t4) Cet algorithme a une complexité très grande. Il sera sans doute nécessaire de réduire les possibilités d'expression du langage pour arriver à des temps de calcul raisonnables. On retrouve ici la même problématique que pour la résolution pratique des problèmes NPComplets. Pour la carte de Pommier, après une coupe de l’algorithme pour réduire les extensions équivalentes, on a la base de données et le résultat ci-dessous, où un fait w dans W est défini « dur : --> w », et un défaut d = A:C/C dans D est défini « def : A --> C ». LA BASE DE DONNÉES: 1 dur : --> phosphorylation(atr,h2ax) 2 dur : --> stimulation(dsb,dna) 3 def : stimulation(dsb,dna) --> product(altered_dna) 4 def : product(altered_dna) --> binding(mre11,rad50) 5 def : binding(mre11,rad50) --> product(mre11_rad50) 6 def : product(mre11_rad50) --> binding(mre11_rad50,nbs1) 7 def : binding(mre11_rad50,nbs1) --> product(mrn) 8 def : product(mrn) --> binding(mrn,altered_dna) 9 def : binding(mrn,altered_dna) --> product(mrn_bound_to_dna) 10 def : product(mrn_bound_to_dna) --> binding(mrn_bound_to_dna,atm_atm) 11 def : binding(mrn_bound_to_dna,atm_atm) --> product(atm_bound_to_mrn) 12 def : product(atm_bound_to_mrn) --> bloq-product(atm_atm) 13 def : product(atm_bound_to_mrn) --> autophosphorylation(atm_bound_to_mrn) 14 def : autophosphorylation(atm_bound_to_mrn) --> product(p_atm_atm_bound) 84 Approche proposée et résultats 15 def : product(p_atm_atm_bound) --> bloq-product(atm_atm) 16 def : product(p_atm_atm_bound) --> dissociation(p_atm_atm_bound) 17 def : dissociation(p_atm_atm_bound) --> product(p_atm_bound) 18 def : dissociation(p_atm_atm_bound) --> product(p_atm_free) 19 def : product(p_atm_free) --> phosphorylation(p_atm_free,chk1) 20 def : phosphorylation(p_atm_free,chk1) --> product(p_chk1) 21 dur : --> phosphorylation(atr,chk1) 22 def : phosphorylation(atr,chk1) --> product(p_chk1) 23 def : product(mrn_bound_to_dna) --> product(p_smc1) 24 def : product(mrn_bound_to_dna) --> product(p_mre11) 25 def : phosphorylation(atr,h2ax) --> product(gamma_h2ax) 26 def : phosphorylation(p_atm_bound,h2ax) --> product(gamma_h2ax) 27 def : product(gamma_h2ax) --> binding(gamma_h2ax,mdc1) 28 def : binding(gamma_h2ax,mdc1) --> product(h2ax_mdc1) 29 def : product(h2ax_mdc1) --> phosphorylation(p_atm_bound,h2ax_mdc1) 30 def : phosphorylation(p_atm_bound,h2ax_mdc1) --> product(p_mdc1) 31 def : product(p_mdc1) --> binding(p_mdc1,rnf8) 32 def : binding(p_mdc1,rnf8) --> product(rnf8_bound) 33 def : product(rnf8_bound) --> binding(rnf8_bound,ubc13) 34 def : binding(rnf8_bound,ubc13) --> product(rnf8_ubc13) 35 def : product(rnf8_ubc13) --> ubiquitination(rnf8_ubc13,h2a) 36 def : ubiquitination(rnf8_ubc13,h2a) --> product(ub_h2a) 37 def : product(ub_h2a) --> binding(ub_h2a,rnf168) 38 def : binding(ub_h2a,rnf168) --> product(rnf168_bound) 39 def : product(rnf168_bound) --> binding(rnf168_bound,ubc13) 40 def : binding(rnf168_bound,ubc13) --> product(rnf168_ubc13) 41 def : product(rnf168_ubc13) --> ubiquitination(rnf168_ubc13,h2a) 42 def : ubiquitination(rnf168_ubc13,h2a) --> product(poly_ub_h2a) 43 def : product(poly_ub_h2a) --> stimulation(poly_ub_h2a,dna) 44 def : stimulation(poly_ub_h2a,dna) --> product(changed_struct_dna) 45 def : product(poly_ub_h2a) --> binding(poly_ub_h2a,rap80) 46 def : binding(poly_ub_h2a,rap80) --> product(rap80_bound) 47 def : product(rap80_bound) --> binding(rap80_bound,abraxas) 48 def : binding(rap80_bound,abraxas) --> product(abraxas_bound) 49 def : product(abraxas_bound) --> binding(abraxas_bound,bre) 50 def : binding(abraxas_bound,bre) --> product(bre_bound) 51 def : product(abraxas_bound) --> binding(abraxas_bound,brcc36) 52 def : binding(abraxas_bound,brcc36) --> product(brcc36_bound) 53 def : product(brcc36_bound) --> binding(brcc36_bound,merit40) 54 def : binding(brcc36_bound,merit40) --> product(merit40_bound) 55 def : product(merit40_bound) --> binding(merit40_bound,brcc36_bound) 56 def : binding(merit40_bound,brcc36_bound) --> product(brcc36_merit40) 57 def : product(brcc36_merit40) --> binding(brcc36_merit40,brca1) 58 def : binding(brcc36_merit40,brca1) --> product(brca1_bound_to_rap80_complex) 59 def : product(changed_struct_dna) --> phosphorylation(p_atm_bound,mmset) 60 def : phosphorylation(p_atm_bound,mmset) --> product(p_mmset) 61 def : product(h2ax_mdc1) --> binding(h2ax_mdc1,mdc1) 62 def : binding(h2ax_mdc1,mdc1) --> product(mdc1_multi)Approche proposée et résultats 85 63 def : product(mdc1_multi), product(p_mmset) --> binding(mdc1_multi,p_mmset) 64 def : binding(mdc1_multi,p_mmset) --> product(mmset_mdc1) 65 def : product(mmset_mdc1) --> methylation(mmset_mdc1,h4) 66 def : methylation(mmset_mdc1,h4) --> product(h4k20me2) 67 def : product(h4k20me2), product(brca1_bound_to_rap80_complex) --> binding(h4k20me2,p53bp1) 68 def : binding(h4k20me2,p53bp1) --> product(p53bp1_bound) 69 def : product(p53bp1_bound) --> phosphorylation(p_atm_bound,p53bp1_bound) 70 def : phosphorylation(p_atm_bound,p53bp1_bound) --> product(p_53bp1) 71 def : product(p_atm_free) --> phosphorylation(p_atm_free,plk3) 72 def : phosphorylation(p_atm_free,plk3) --> product(p_plk3) 73 def : product(p_atm_free) --> phosphorylation(p_atm_free,chk2) 74 def : phosphorylation(p_atm_free,chk2) --> product(p_s33_35_chk2) 75 def : product(p_s33_35_chk2) --> phosphorylation(p_plk3,p_s33_35_chk2) 76 def : phosphorylation(p_plk3,p_s33_35_chk2) --> product(p_s33_35_s62_73_chk2) 77 def : product(p_s33_35_s62_73_chk2) --> phosphorylation(p_atm_free,p_s33_35_s62_73_chk2) 78 def : phosphorylation(p_atm_free,p_s33_35_s62_73_chk2) --> product(p_t68_chk2) 79 def : product(p_s33_35_s62_73_chk2) --> phosphorylation(atr,p_s33_35_s62_73_chk2) 80 def : phosphorylation(atr,p_s33_35_s62_73_chk2) --> product(p_t68_chk2) 81 def : product(p_t68_chk2) --> binding(p_t68_chk2,p_t68_chk2) 82 def : binding(p_t68_chk2,p_t68_chk2) --> product(chk2_chk2) 83 def : product(chk2_chk2) --> autophosphorylation(chk2_chk2) 84 def : autophosphorylation(chk2_chk2) --> product(p_active_chk2_chk2) 85 def : product(p_active_chk2_chk2), product(p_53bp1) --> binding(p_active_chk2_chk2,p_53bp1) 86 def : binding(p_active_chk2_chk2,p_53bp1) --> product(chk2_53bp1) 87 dur : --> binding(brca1,ctip) 88 def : binding(brca1,ctip) --> product(brca1_ctip) 89 def : product(brca1_ctip), product(chk2_53bp1) --> binding(brca1_ctip,chk2_53bp1) 90 def : binding(brca1_ctip,chk2_53bp1) --> product(chk2_53bp1_bound_to_brca1) 91 def : binding(brca1_ctip,chk2_53bp1) --> product(brca1_ctip_bound_to_chk2) 92 def : product(chk2_53bp1_bound_to_brca1), product(brca1_ctip_bound_to_chk2) --> phosphorylation(chk2_53bp1_bound_to_brca1,brca1_ctip_bound_to_chk2) 93 def : phosphorylation(chk2_53bp1_bound_to_brca1,brca1_ctip_bound_to_chk2) --> product(p_brca1_ctip_bound_to_chk2) 94 def : product(p_brca1_ctip_bound_to_chk2) --> product(p_s988_brca_ctip) 95 def : product(chk2_53bp1_bound_to_brca1) --> product(chk2_53bp1) 96 def : product(p_s988_brca_ctip) --> phosphorylation(p_atm_bound,p_s988_brca_ctip) 97 def : phosphorylation(p_atm_bound,p_s988_brca_ctip) --> product(brca_p_ctip) 98 def : product(brca_p_ctip) --> bloq-product(brca1_ctip) 99 def : product(brca_p_ctip) --> dissociation(brca_p_ctip) 100 def : dissociation(brca_p_ctip) --> product(brca1) 101 def : dissociation(brca_p_ctip) --> product(p_ctip) 102 def : product(brca1) --> phosphorylation(p_atm_bound,brca1) 103 def : phosphorylation(p_atm_bound,brca1) --> product(p_brca1) 104 def : product(brca1) --> phosphorylation(atr,brca1) 105 def : phosphorylation(atr,brca1) --> product(p_brca1) 106 def : product(p_brca1), product(p_53bp1) --> binding(mrn_bound_to_dna,p_brca1)86 Approche proposée et résultats 107 def : binding(mrn_bound_to_dna,p_brca1) --> product(brca1_bound_to_mrn) 108 def : product(chk2_53bp1) --> phosphorylation(chk2_53bp1,pml) 109 def : phosphorylation(chk2_53bp1,pml) --> product(p_pml) 110 def : product(p_pml) --> stimulation(p_pml,cell) 111 def : stimulation(p_pml,cell) --> product(apoptosis) 112 def : product(p_pml) --> binding(p_pml,mdm2) 113 def : binding(p_pml,mdm2) --> product(pml_mdm2) 114 def : product(pml_mdm2) --> bloq-binding(mdm2,p53) 115 dur : --> product(p53) 116 def : product(mdm2), product(p53) --> binding(mdm2,p53) 117 def : binding(mdm2,p53) --> product(mdm2_p53) 118 def : product(mdm2_p53) --> stimulation(p53_degradation_effectors,mdm2_p53) 119 def : stimulation(p53_degradation_effectors,mdm2_p53) --> product(p53_degradation) 120 def : product(p_atm_free), product(mdm2_p53) --> phosphorylation(p_atm_free,mdm2_p53) 121 def : phosphorylation(p_atm_free,mdm2_p53) --> product(p_s15_p53_mdm2) 122 def : product(mdm2_p53) --> phosphorylation(atr,mdm2_p53) 123 def : phosphorylation(atr,mdm2_p53) --> product(p_s15_p53_mdm2) 124 def : product(p_s15_p53_mdm2), product(chk2_53bp1) --> phosphorylation(chk2_53bp1,p_s15_p53_mdm2) 125 def : phosphorylation(chk2_53bp1,p_s15_p53_mdm2) --> product(p_p_p53_mdm2) 126 def : product(p_s15_p53_mdm2), product(p_chk1) --> phosphorylation(p_chk1,p_s15_p53_mdm2) 127 def : phosphorylation(p_chk1,p_s15_p53_mdm2) --> product(p_p_p53_mdm2) 128 def : product(p_s15_p53_mdm2) --> bloq-product(p53_degradation) 129 def : product(p_p_p53_mdm2) --> bloq-product(p53_degradation) 130 def : product(p_p_p53_mdm2) --> dissociation(p_p_p53_mdm2) 131 def : dissociation(p_p_p53_mdm2) --> product(p_p_p53) 132 def : dissociation(p_p_p53_mdm2) --> product(mdm2) 133 def : product(p_atm_free), product(mdm2) --> phosphorylation(p_atm_free,mdm2) 134 def : phosphorylation(p_atm_free,mdm2) --> product(p_mdm2) 135 def : product(p_p_p53) --> binding(p300,p_p_p53) 136 def : product(p_pml), binding(p300,p_p_p53) --> product(active_p53) 137 def : product(active_p53) --> transcription_activation(active_p53,prom_p21_gadd45) 138 def : transcription_activation(active_p53,prom_p21_gadd45) --> product(p21_and_gadd45) 139 def : product(prom_and_gadd45) --> stimulation(prom_and_gadd45,cell_cycle) 140 def : stimulation(p21_and_gadd45,cell_cycle) --> product(cell_cycle_arrest) 141 def : product(active_p53) --> transcription_activation(active_p53,prom_bnpf) 142 def : transcription_activation(active_p53,prom_bnpf) --> product(box_nas_puma_fas) 143 def : product(box_nas_puma_fas) --> stimulation(box_nas_puma_fas,cell) 144 def : stimulation(box_nas_puma_fas,cell) --> product(apoptosis) 145 def : product(active_p53) --> transcription_activation(active_p53,prom_mdm2) 146 def : transcription_activation(active_p53,prom_mdm2) --> product(mdm2) 147 dur : --> product(e2f1) 148 def : product(e2f1), product(chk2_53bp1) --> phosphorylation(chk2_53bp1,e2f1) 149 def : phosphorylation(chk2_53bp1,e2f1) --> product(p_e2f1) 150 def : product(e2f1) --> stimulation(e2f1_degradation_effectors,e2f1) 151 def : stimulation(e2f1_degradation_effectors,e2f1) --> product(e2f1_degradation) 152 def : product(p_e2f1) --> phosphorylation(p_atm_free,p_e2f1) Approche proposée et résultats 87 153 def : phosphorylation(p_atm_free,p_e2f1) --> product(p_p_e2f1) 154 def : product(p_e2f1) --> phosphorylation(atr,p_e2f1) 155 def : phosphorylation(atr,p_e2f1) --> product(p_p_e2f1) 156 def : product(p_p_e2f1) --> transcription_activation(p_p_e2f1,prom_chk2) 157 def : transcription_activation(p_p_e2f1,prom_chk2) --> product(chk2) 158 def : product(p_p_e2f1) --> transcription_activation(p_p_e2f1,prom_arf) 159 def : transcription_activation(p_p_e2f1,prom_arf) --> product(arf) 160 def : product(p_p_e2f1) --> transcription_activation(p_p_e2f1,prom_p73_apaf1) 161 def : transcription_activation(p_p_e2f1,prom_p73_apaf1) --> product(p73_apaf1) 162 def : product(p73_apaf1) --> stimulation(p73_apaf1,cell) 163 def : stimulation(p73_apaf1,cell) --> product(apoptosis) 164 def : product(arf) --> binding(arf,mdm2) 165 def : binding(arf,mdm2) --> product(arf_mdm2) 166 def : product(arf_mdm2) --> bloq-product(mdm2_p53) 167 def : product(p_p_e2f1) --> stimulation(p_p_e2f1,unknown_atm_way) 168 def : stimulation(p_p_e2f1,unknown_atm_way) --> product(p_atm_free) 169 def : product(p_atm_free) --> phosphorylation(p_atm_free,p38) 170 def : phosphorylation(p_atm_free,p38) --> product(p_p38) 171 def : product(chk2_53bp1) --> phosphorylation(chk2_53bp1,cdc25a) 172 def : phosphorylation(chk2_53bp1,cdc25a) --> product(p_cdc25a) 173 def : product(p_chk1) --> phosphorylation(p_chk1,cdc25a) 174 def : phosphorylation(p_chk1,cdc25a) --> product(p_cdc25a) 175 def : product(p_cdc25a) --> stimulation(cdc25a,cell) 176 def : stimulation(cdc25a,cell) --> bloq-product(cell_cycle_arrest) 177 def : product(p_cdc25a) --> stimulation(p_cdc25a,cdc25a_degradation_effectors) 178 def : stimulation(p_cdc25a,cdc25_degradation_effectors) --> product(cdc25a_degradation) 179 def : product(cdc25a_degradation) --> bloq-stimulation(cdc25a,cell) 180 def : product(chk2_53bp1) --> phosphorylation(chk2_53bp1,cdc25c) 181 def : phosphorylation(chk2_53bp1,cdc25c) --> product(p_cdc25c) 182 def : product(p_plk3) --> phosphorylation(p_plk3,cdc25c) 183 def : phosphorylation(p_plk3,cdc25c) --> product(p_cdc25c) 184 def : product(p_chk1) --> phosphorylation(p_chk1,cdc25c) 185 def : phosphorylation(p_chk1,cdc25c) --> product(p_cdc25c) 186 def : product(p_p38) --> phosphorylation(p_p38,cdc25c) 187 def : phosphorylation(p_p38,cdc25c) --> product(p_cdc25c) 188 def : product(p_cdc25c) --> stimulation(cdc25c,cell) 189 def : stimulation(cdc25c,cell) --> bloq-product(cell_cycle_arrest) 190 def : product(p_cdc25c) --> stimulation(p_cdc25c,cdc25c_degradation_effectors) 191 def : stimulation(cdc25b,cell) --> bloq-product(cell_cycle_arrest) 192 def : product(p_p38) --> phosphorylation(p_p38,cdc25b) 193 def : phosphorylation(p_p38,cdc25b) --> product(p_cdc25b) 194 def : product(p_cdc25b) --> bloq-stimulation(cdc25b,cell) 195 def : stimulation(jnk,cdc25c) --> product(p_cdc25c) 196 def : phosphorylation(jnk,p_s15_p53_mdm2) --> product(p_p_p53_mdm2) 197 def : product(p_atm_bound) --> phosphorylation(p_atm_bound,nbs1) 198 def : phosphorylation(p_atm_bound,nbs1) --> product(p_nbs1) 199 def : product(p_nbs1) --> phosphorylation(p_atm_bound,fancd2) 200 def : phosphorylation(p_atm_bound,fancd2) --> product(p_fancd2)88 Approche proposée et résultats 201 def : product(p_fancd2) --> stimulation(p_fancd2,cell) 202 def : stimulation(p_fancd2,cell) --> bloq-product(cell_cycle_arrest) 203 def : product(chk2_53bp1) --> binding(chk2_53bp1,mus81) 204 def : binding(chk2_53bp1,mus81) --> product(mus81_chk2) 205 def : product(mus81_chk2) --> binding(mus81_chk2,altered_dna) 206 def : binding(mus81_chk2,altered_dna) --> product(mus81_bound_to_dna) LE RÉSULTAT def 3 : (stimulation(dsb,dna), up, t0) ==> (product(altered_dna), up, t1) def 4 : (product(altered_dna), up, t1) ==> (binding(mre11,rad50), up, t2) def 5 : (binding(mre11,rad50), up, t2) ==> (product(mre11_rad50), up, t3) def 6 : (product(mre11_rad50), up, t3) ==> (binding(mre11_rad50,nbs1), up, t4) def 7 : (binding(mre11_rad50,nbs1), up, t4) ==> (product(mrn), up, t5) def 8 : (product(mrn), up, t5) ==> (binding(mrn,altered_dna), up, t6) def 9 : (binding(mrn,altered_dna), up, t6) ==> (product(mrn_bound_to_dna), up, t7) def 10 : (product(mrn_bound_to_dna), up, t7) ==> (binding(mrn_bound_to_dna,atm_atm), up, t8) def 11 : (binding(mrn_bound_to_dna,atm_atm), up, t8) ==> (product(atm_bound_to_mrn), up, t9) def 12 : (product(atm_bound_to_mrn), up, t9) ==> (product(atm_atm), down, t10) def 13 : (product(atm_bound_to_mrn), up, t9) ==> (autophosphorylation(atm_bound_to_mrn), up, t10) def 14 : (autophosphorylation(atm_bound_to_mrn), up, t10) ==> (product(p_atm_atm_bound), up, t11) def 16 : (product(p_atm_atm_bound), up, t11) ==> (dissociation(p_atm_atm_bound), up, t12) def 17 : (dissociation(p_atm_atm_bound), up, t12) ==> (product(p_atm_bound), up, t13) def 18 : (dissociation(p_atm_atm_bound), up, t12) ==> (product(p_atm_free), up, t13) def 19 : (product(p_atm_free), up, t13) ==> (phosphorylation(p_atm_free,chk1), up, t14) def 20 : (phosphorylation(p_atm_free,chk1), up, t14) ==> (product(p_chk1), up, t15) def 23 : (product(mrn_bound_to_dna), up, t7) ==> (product(p_smc1), up, t8) def 24 : (product(mrn_bound_to_dna), up, t7) ==> (product(p_mre11), up, t8) def 25 : (phosphorylation(atr,h2ax), up, t0) ==> (product(gamma_h2ax), up, t1) def 27 : (product(gamma_h2ax), up, t1) ==> (binding(gamma_h2ax,mdc1), up, t2) def 28 : (binding(gamma_h2ax,mdc1), up, t2) ==> (product(h2ax_mdc1), up, t3) def 29 : (product(h2ax_mdc1), up, t3) ==> (phosphorylation(p_atm_bound,h2ax_mdc1), up, t4) def 30 : (phosphorylation(p_atm_bound,h2ax_mdc1), up, t4) ==> (product(p_mdc1), up, t5) def 31 : (product(p_mdc1), up, t5) ==> (binding(p_mdc1,rnf8), up, t6) def 32 : (binding(p_mdc1,rnf8), up, t6) ==> (product(rnf8_bound), up, t7) def 33 : (product(rnf8_bound), up, t7) ==> (binding(rnf8_bound,ubc13), up, t8) def 34 : (binding(rnf8_bound,ubc13), up, t8) ==> (product(rnf8_ubc13), up, t9) def 35 : (product(rnf8_ubc13), up, t9) ==> (ubiquitination(rnf8_ubc13,h2a), up, t10) def 36 : (ubiquitination(rnf8_ubc13,h2a), up, t10) ==> (product(ub_h2a), up, t11) def 37 : (product(ub_h2a), up, t11) ==> (binding(ub_h2a,rnf168), up, t12) def 38 : (binding(ub_h2a,rnf168), up, t12) ==> (product(rnf168_bound), up, t13) def 39 : (product(rnf168_bound), up, t13) ==> (binding(rnf168_bound,ubc13), up, t14) def 40 : (binding(rnf168_bound,ubc13), up, t14) ==> (product(rnf168_ubc13), up, t15) def 41 : (product(rnf168_ubc13), up, t15) ==> (ubiquitination(rnf168_ubc13,h2a), up, t16) def 42 : (ubiquitination(rnf168_ubc13,h2a), up, t16) ==> (product(poly_ub_h2a), up, t17) def 43 : (product(poly_ub_h2a), up, t17) ==> (stimulation(poly_ub_h2a,dna), up, t18) def 44 : (stimulation(poly_ub_h2a,dna), up, t18) ==> (product(changed_struct_dna), up, t19) def 45 : (product(poly_ub_h2a), up, t17) ==> (binding(poly_ub_h2a,rap80), up, t18) Approche proposée et résultats 89 def 46 : (binding(poly_ub_h2a,rap80), up, t18) ==> (product(rap80_bound), up, t19) def 47 : (product(rap80_bound), up, t19) ==> (binding(rap80_bound,abraxas), up, t20) def 48 : (binding(rap80_bound,abraxas), up, t20) ==> (product(abraxas_bound), up, t21) def 49 : (product(abraxas_bound), up, t21) ==> (binding(abraxas_bound,bre), up, t22) def 50 : (binding(abraxas_bound,bre), up, t22) ==> (product(bre_bound), up, t23) def 51 : (product(abraxas_bound), up, t21) ==> (binding(abraxas_bound,brcc36), up, t22) def 52 : (binding(abraxas_bound,brcc36), up, t22) ==> (product(brcc36_bound), up, t23) def 53 : (product(brcc36_bound), up, t23) ==> (binding(brcc36_bound,merit40), up, t24) def 54 : (binding(brcc36_bound,merit40), up, t24) ==> (product(merit40_bound), up, t25) def 55 : (product(merit40_bound), up, t25) ==> (binding(merit40_bound,brcc36_bound), up, t26) def 56 : (binding(merit40_bound,brcc36_bound), up, t26) ==> (product(brcc36_merit40), up, t27) def 57 : (product(brcc36_merit40), up, t27) ==> (binding(brcc36_merit40,brca1), up, t28) def 58 : (binding(brcc36_merit40,brca1), up, t28) ==> (product(brca1_bound_to_rap80_complex), up, t29) def 59 : (product(changed_struct_dna), up, t19) ==> (phosphorylation(p_atm_bound,mmset), up, t20) def 60 : (phosphorylation(p_atm_bound,mmset), up, t20) ==> (product(p_mmset), up, t21) def 61 : (product(h2ax_mdc1), up, t3) ==> (binding(h2ax_mdc1,mdc1), up, t4) def 62 : (binding(h2ax_mdc1,mdc1), up, t4) ==> (product(mdc1_multi), up, t5) def 63 : (product(mdc1_multi), up, t5), (product(p_mmset), up, t21) ==> (binding(mdc1_multi,p_mmset), up, t22) def 64 : (binding(mdc1_multi,p_mmset), up, t22) ==> (product(mmset_mdc1), up, t23) def 65 : (product(mmset_mdc1), up, t23) ==> (methylation(mmset_mdc1,h4), up, t24) def 66 : (methylation(mmset_mdc1,h4), up, t24) ==> (product(h4k20me2), up, t25) def 67 : (product(h4k20me2), up, t25), (product(brca1_bound_to_rap80_complex), up, t29) ==> (binding(h4k20me2,p53bp1), up, t30) def 68 : (binding(h4k20me2,p53bp1), up, t30) ==> (product(p53bp1_bound), up, t31) def 69 : (product(p53bp1_bound), up, t31) ==> (phosphorylation(p_atm_bound,p53bp1_bound), up, t32) def 70 : (phosphorylation(p_atm_bound,p53bp1_bound), up, t32) ==> (product(p_53bp1), up, t33) def 71 : (product(p_atm_free), up, t13) ==> (phosphorylation(p_atm_free,plk3), up, t14) def 72 : (phosphorylation(p_atm_free,plk3), up, t14) ==> (product(p_plk3), up, t15) def 73 : (product(p_atm_free), up, t13) ==> (phosphorylation(p_atm_free,chk2), up, t14) def 74 : (phosphorylation(p_atm_free,chk2), up, t14) ==> (product(p_s33_35_chk2), up, t15) def 75 : (product(p_s33_35_chk2), up, t15) ==> (phosphorylation(p_plk3,p_s33_35_chk2), up, t16) def 76 : (phosphorylation(p_plk3,p_s33_35_chk2), up, t16) ==> (product(p_s33_35_s62_73_chk2), up, t17) def 77 : (product(p_s33_35_s62_73_chk2), up, t17) ==> (phosphorylation(p_atm_free,p_s33_35_s62_73_chk2), up, t18) def 78 : (phosphorylation(p_atm_free,p_s33_35_s62_73_chk2), up, t18) ==> (product(p_t68_chk2), up, t19) def 79 : (product(p_s33_35_s62_73_chk2), up, t17) ==> (phosphorylation(atr,p_s33_35_s62_73_chk2), up, t18) def 81 : (product(p_t68_chk2), up, t19) ==> (binding(p_t68_chk2,p_t68_chk2), up, t20) def 82 : (binding(p_t68_chk2,p_t68_chk2), up, t20) ==> (product(chk2_chk2), up, t21) def 83 : (product(chk2_chk2), up, t21) ==> (autophosphorylation(chk2_chk2), up, t22) def 84 : (autophosphorylation(chk2_chk2), up, t22) ==> (product(p_active_chk2_chk2), up, t23) def 85 : (product(p_active_chk2_chk2), up, t23), (product(p_53bp1), up, t33) ==> 90 Approche proposée et résultats (binding(p_active_chk2_chk2,p_53bp1), up, t34) def 86 : (binding(p_active_chk2_chk2,p_53bp1), up, t34) ==> (product(chk2_53bp1), up, t35) def 88 : (binding(brca1,ctip), up, t0) ==> (product(brca1_ctip), up, t1) def 89 : (product(brca1_ctip), up, t1), (product(chk2_53bp1), up, t35) ==> (binding(brca1_ctip,chk2_53bp1), up, t36) def 90 : (binding(brca1_ctip,chk2_53bp1), up, t36) ==> (product(chk2_53bp1_bound_to_brca1), up, t37) def 91 : (binding(brca1_ctip,chk2_53bp1), up, t36) ==> (product(brca1_ctip_bound_to_chk2), up, t37) def 92 : (product(chk2_53bp1_bound_to_brca1), up, t37), (product(brca1_ctip_bound_to_chk2), up, t37) ==>(phosphorylation(chk2_53bp1_bound_to_brca1,brca1_ctip_bound_to_chk2), up, t38) def 93 : (phosphorylation(chk2_53bp1_bound_to_brca1,brca1_ctip_bound_to_chk2), up, t38) ==> (product(p_brca1_ctip_bound_to_chk2), up, t39) def 94 : (product(p_brca1_ctip_bound_to_chk2), up, t39) ==> (product(p_s988_brca_ctip), up, t40) def 96 : (product(p_s988_brca_ctip), up, t40) ==> (phosphorylation(p_atm_bound,p_s988_brca_ctip), up, t41) def 97 : (phosphorylation(p_atm_bound,p_s988_brca_ctip), up, t41) ==> (product(brca_p_ctip), up, t42) def 99 : (product(brca_p_ctip), up, t42) ==> (dissociation(brca_p_ctip), up, t43) def 100 : (dissociation(brca_p_ctip), up, t43) ==> (product(brca1), up, t44) def 101 : (dissociation(brca_p_ctip), up, t43) ==> (product(p_ctip), up, t44) def 102 : (product(brca1), up, t44) ==> (phosphorylation(p_atm_bound,brca1), up, t45) def 103 : (phosphorylation(p_atm_bound,brca1), up, t45) ==> (product(p_brca1), up, t46) def 104 : (product(brca1), up, t44) ==> (phosphorylation(atr,brca1), up, t45) def 106 : (product(p_brca1), up, t46), (product(p_53bp1), up, t33) ==> (binding(mrn_bound_to_dna,p_brca1), up, t47) def 107 : (binding(mrn_bound_to_dna,p_brca1), up, t47) ==> (product(brca1_bound_to_mrn), up, t48) def 108 : (product(chk2_53bp1), up, t35) ==> (phosphorylation(chk2_53bp1,pml), up, t36) def 109 : (phosphorylation(chk2_53bp1,pml), up, t36) ==> (product(p_pml), up, t37) def 110 : (product(p_pml), up, t37) ==> (stimulation(p_pml,cell), up, t38) def 111 : (stimulation(p_pml,cell), up, t38) ==> (product(apoptosis), up, t39) def 112 : (product(p_pml), up, t37) ==> (binding(p_pml,mdm2), up, t38) def 113 : (binding(p_pml,mdm2), up, t38) ==> (product(pml_mdm2), up, t39) def 114 : (product(pml_mdm2), up, t39) ==> (binding(mdm2,p53), down, t40) def 148 : (product(e2f1), up, t0), (product(chk2_53bp1), up, t35) ==> (phosphorylation(chk2_53bp1,e2f1), up, t36) def 149 : (phosphorylation(chk2_53bp1,e2f1), up, t36) ==> (product(p_e2f1), up, t37) def 150 : (product(e2f1), up, t0) ==> (stimulation(e2f1_degradation_effectors,e2f1), up, t1) def 151 : (stimulation(e2f1_degradation_effectors,e2f1), up, t1) ==> (product(e2f1_degradation), up, t2) def 152 : (product(p_e2f1), up, t37) ==> (phosphorylation(p_atm_free,p_e2f1), up, t38) def 153 : (phosphorylation(p_atm_free,p_e2f1), up, t38) ==> (product(p_p_e2f1), up, t39) def 154 : (product(p_e2f1), up, t37) ==> (phosphorylation(atr,p_e2f1), up, t38) def 156 : (product(p_p_e2f1), up, t39) ==> (transcription_activation(p_p_e2f1,prom_chk2), up, t40) def 157 : (transcription_activation(p_p_e2f1,prom_chk2), up, t40) ==> (product(chk2), up, t41) def 158 : (product(p_p_e2f1), up, t39) ==> (transcription_activation(p_p_e2f1,prom_arf), up, t40) Approche proposée et résultats 91 def 159 : (transcription_activation(p_p_e2f1,prom_arf), up, t40) ==> (product(arf), up, t41) def 160 : (product(p_p_e2f1), up, t39) ==> (transcription_activation(p_p_e2f1,prom_p73_apaf1), up, t40) def 161 : (transcription_activation(p_p_e2f1,prom_p73_apaf1), up, t40) ==> (product(p73_apaf1), up, t41) def 162 : (product(p73_apaf1), up, t41) ==> (stimulation(p73_apaf1,cell), up, t42) def 164 : (product(arf), up, t41) ==> (binding(arf,mdm2), up, t42) def 165 : (binding(arf,mdm2), up, t42) ==> (product(arf_mdm2), up, t43) def 166 : (product(arf_mdm2), up, t43) ==> (product(mdm2_p53), down, t44) def 167 : (product(p_p_e2f1), up, t39) ==> (stimulation(p_p_e2f1,unknown_atm_way), up, t40) def 169 : (product(p_atm_free), up, t13) ==> (phosphorylation(p_atm_free,p38), up, t14) def 170 : (phosphorylation(p_atm_free,p38), up, t14) ==> (product(p_p38), up, t15) def 171 : (product(chk2_53bp1), up, t35) ==> (phosphorylation(chk2_53bp1,cdc25a), up, t36) def 172 : (phosphorylation(chk2_53bp1,cdc25a), up, t36) ==> (product(p_cdc25a), up, t37) def 173 : (product(p_chk1), up, t15) ==> (phosphorylation(p_chk1,cdc25a), up, t16) def 175 : (product(p_cdc25a), up, t37) ==> (stimulation(cdc25a,cell), up, t38) def 176 : (stimulation(cdc25a,cell), up, t38) ==> (product(cell_cycle_arrest), down, t39) def 177 : (product(p_cdc25a), up, t37) ==> (stimulation(p_cdc25a,cdc25a_degradation_effectors), up, t38) def 180 : (product(chk2_53bp1), up, t35) ==> (phosphorylation(chk2_53bp1,cdc25c), up, t36) def 181 : (phosphorylation(chk2_53bp1,cdc25c), up, t36) ==> (product(p_cdc25c), up, t37) def 182 : (product(p_plk3), up, t15) ==> (phosphorylation(p_plk3,cdc25c), up, t16) def 184 : (product(p_chk1), up, t15) ==> (phosphorylation(p_chk1,cdc25c), up, t16) def 186 : (product(p_p38), up, t15) ==> (phosphorylation(p_p38,cdc25c), up, t16) def 188 : (product(p_cdc25c), up, t37) ==> (stimulation(cdc25c,cell), up, t38) def 190 : (product(p_cdc25c), up, t37) ==> (stimulation(p_cdc25c,cdc25c_degradation_effectors), up, t38) def 192 : (product(p_p38), up, t15) ==> (phosphorylation(p_p38,cdc25b), up, t16) def 193 : (phosphorylation(p_p38,cdc25b), up, t16) ==> (product(p_cdc25b), up, t17) def 194 : (product(p_cdc25b), up, t17) ==> (stimulation(cdc25b,cell), down, t18) def 197 : (product(p_atm_bound), up, t13) ==> (phosphorylation(p_atm_bound,nbs1), up, t14) def 198 : (phosphorylation(p_atm_bound,nbs1), up, t14) ==> (product(p_nbs1), up, t15) def 199 : (product(p_nbs1), up, t15) ==> (phosphorylation(p_atm_bound,fancd2), up, t16) def 200 : (phosphorylation(p_atm_bound,fancd2), up, t16) ==> (product(p_fancd2), up, t17) def 201 : (product(p_fancd2), up, t17) ==> (stimulation(p_fancd2,cell), up, t18) def 203 : (product(chk2_53bp1), up, t35) ==> (binding(chk2_53bp1,mus81), up, t36) def 204 : (binding(chk2_53bp1,mus81), up, t36) ==> (product(mus81_chk2), up, t37) def 205 : (product(mus81_chk2), up, t37) ==> (binding(mus81_chk2,altered_dna), up, t38) def 206 : (binding(mus81_chk2,altered_dna), up, t38) ==> (product(mus81_bound_to_dna), up, t39) Ce résultat est représenté dans la Figure 4.7. Les chiffres rouges sont les défauts utilisés dans le résultat.92 Approche proposée et résultats Figure 4.7. Une extension de la carte de PommierConclusion 93 Conclusion Les voies de signalisation sont très importantes pour la compréhension des mécanismes des fonctions biologiques. Cette thèse étudie la synthèse automatique des voies de signalisation à partir d’informations trouvées dans des bases de connaissances. Une composante essentielle de cette approche est l’utilisation du raisonnement logique pour représenter la connaissance biologique de la communication intracellulaire. En choisissant la représentation adéquate des connaissances biologiques la partie « raisonnement » est capable d’assigner un ordre dans l’acquisition des faits et d’extraire les interactions nécessaires à la synthèse des voies métaboliques ou de signalisation. La première partie de la thèse est consacrée à la synthèse des voies pharmaco-cinétiques par des algorithmes de production. Cet algorithme est décidable, cohérent et complet. La deuxième partie utilise la logique des défauts pour représenter les interactions dans les réseaux de gènes. Le problème de l'implémentation et de la complexité algorithmique n'a pas été abordé. Il sera sans doute nécessaire de réduire les possibilités d'expression du langage pour arriver à des temps de calcul raisonnables. On retrouve ici la même problématique que pour la résolution pratique des problèmes NP-Complets. Bien entendu le problème est ici plus compliqué. La complexité pratique peut alors rester accessible en contrôlant l'écriture des règles. Par exemple dans un premier temps on peut essayer de se restreindre à quelque chose qui ressemble à des clauses de Horn (clauses qui contiennent au plus un littéral positif [2]). Bibliographie 95 Bibliographie [1] Demongeot J, “Multi-stationarity and cell differentiation”, J. Biol. Systems., 6, 1-2 (1998). [2] Doncescu A. , Inoue K. and Yamamoto, “Knowledge-based discovery in systems biology using CF-induction”. New Trends in Applied Artificial Intelligence: Proceedings of the 20th International Conference on Industrial, Engineering and Other Applications of Applied Intelligent Systems (IEA / AIE 2007), Lecture Notes in Artificial Intelligence, volume 4570, pages 395-404, Springer-Verlag. [3] Doncescu A, and Siegel P, “Utilisation de la logique des hypothèses pour la modélisation des voies de signalisation dans la cellule”, JIAF 11, Lyon 8-10, June 2011. [4] Doncescu A., Waissman J.,Richard G.,Roux G. “Characterization of bio-chemical signals by inductive logic programming”, Knowledge-Based Systems 15 (1), 129-137, 2002. [5] Christophe Chassagnole, Juan Carlos, A Rodriguez, Andrei Doncescu, Laurence T Yang “Differential evolutionary algorithms for in vivo dynamic analysis of glycolysis and pentose phosphate pathway in Escherichia Coli”, Parallel Computing for Bioinformatics and Computational Biology: Models, Enabling Technologies, and Case Studies, 59-78, John Wiley & Sons, Inc.,2006. [6] Montseny E., Doncescu A., “Operatorial Parametrizing of Controlled Dynamic SystemsApplication to the Fed-Batch Bioreactor Control Problem”, 17th World Congress The International Federation of Automatic Control. Seoul, Korea, June 2008. [7] Forget L, Rish V. , P Siegel. “Preferential Logics are X-logics” Journal of Computational Logic, 10, 2000, pp. 1-13. [8] Ginsberg, ML, Smith, DE (July 1988). “Reasoning about action II: the qualification problem”. Artificial Intelligence Vol. 35 No. 3 pp.311-342. [9] Giunchiglia, E., Lee, J., Lifschitz, V., McCain, N., & Turner, H. (March 2004). “Nonmonotonic causal theories”. Artificial Intelligence No. 1-2 vol.153 pp.49-104. [10]Inoue K, “Induction as Consequence Finding”. Machine Learning, 55 (2) :109-135, 2004. [11]Inoue K, Saito H. “Circumscripta Policies for Induction” Proceedings of 14th Conf. on Inductive Logic Programming, LNAI 3194, pp.164-179, Springer, September 2004. [12]K. Inoue, T. Sato, M. Ishihata, Y. Kameya and H. Nabeshima, “Evaluating abductive hypotheses using an em algorithm on bdds”, in: Proceedings of IJCAI-09, Pasadena, CA, 2009, pp. 810–815. [13]Kayser D., Levy F. “Modeling symbolic causal reasoning”, Intellecta 2004 / 1, 38, pp 291-232 [14]Nabeshima H. , Iwanuma K., Inoue K. Ray O. “SOLAR: An automated deduction system for Finding consequence”. AI Commun. 23 (2-3): 183-203 (2010) [15]Roux-Rouquié M., L. Hood, Imbeaud S., Auffray C. “Issues in Computational Methods for Functional Genomics and Systems Biology”. CMSB 2003 : 182-186 [16]Schwind P. , Siegel P: “Modal Logic for Hypothesis Theory”, Fundamentae Informaticae, cal 21, No. 1-2 89-101. [17]Synnaeve G, Inoue K, Doncescu A, Nabeshima N, Kameya Y, Ishihata M., Sato T, “Kinetic models and qualitative abstraction for relational learning in systems biology”, BIOSTEC Bioinformatics 2011 [18]Siegel P. : “A modal language for Nonmonotonic Reasonning”, Proc. Workshop DRUMS / EEC Marseille 24-27 February 90. [19]P. Siegel , C. Schwind, “Modal logic based theory for nonmonotonic reasoning”. Journal of Applied Non-classical Logic, Volume 3 - No. 1 / 1993, P 73-92. [20]Synnaeve G., Doncescu A., Inoue K., “Kinetic models for logic-based hypothesis finding in metabolic pathways”, Int’l Conf. on Inductive Logic Programming (ILP-09), 2009. [21]Tran N. , C. Baral (2007) “Hypothesizing and reasoning about signaling networks”. Journal of Applied Logic 7 (2009) 253-274 96 Bibliographie [22]Barthélémy DWORKIN “Utilisation de SOLAR dans la voie de signalisation ATM-dépendante de la cassure double-brin de l'ADN”. Mémoire de master 2 / Université Paul Sabatier, Toulouse 2011. [23]Toulgoat I. “Modélisation du comportement humain dans les simulations de combat naval”. Thèse doctorat / Université du Sud, Toulon-Var [s.n] 2011. [24]Pommier Y et al. “Targeting Chk2 kinase: Molecular interaction maps and therapeutic rationale”. 2005 [25]Munna L. Agarwal et al. “The p53 Network”, Journal of Biological Chemistry, Vol. 273, No 1, Issue of January 2, pp. 1-4, 1998 [26]P. Siegel, “Représentation et utilization de la connaissance en calcul propositionnel”, Thèse d’État, Université d’Aix-Marseille II, Luminy, France, 1987. [27]Tan Le, A. Doncescu, P. Siegel, “Default Logic for Diagnostic of Discrete Time System”, 8th international conference BWCCA, October 28-30 2013, Compiegne, France, pp. 488-493. [28]Tan Le, A. Doncescu, P. Siegel, “Utilization of Default Logic for Analyzing a Metabolic System in Discrete Time”, 13th international conference ICCSA, June 24-27 2013, Ho Chi Minh City, Vietnam, pp. 130-136. [29]G. Bossu, P. Siegel, “Nonmonotonic Reasoning and databases”, Workshop Logic and Data Bases. CERT - Toulouse - Décembre 1982 [30]G. Bossu, P. Siegel, “Saturation, Nonmonotonic Reasoning and the Closed World Assumption”, Artificial Intelligence 25, Janvier 1985, p. 13-63 [31]J.M. Boi, E. Innocenti, A. Rauzy, P. Siegel, “Production Fields : a New approach to Deduction Problems and two Algorithms for propositional Calculus”, Revue d'Intelligence Artificielle, vol 6 - n° 3/1992 , p 235, 255. Equilibrage de charge dynamique avec un nombre ´ variable de processeurs bas´e sur des m´ethodes de partitionnement de graphe Cl´ement Vuchener To cite this version: Cl´ement Vuchener. Equilibrage de charge dynamique avec un nombre variable de processeurs ´ bas´e sur des m´ethodes de partitionnement de graphe. Distributed, Parallel, and Cluster Computing. Universit´e de Bordeaux, 2014. French. HAL Id: tel-00952777 https://tel.archives-ouvertes.fr/tel-00952777 Submitted on 27 Feb 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.THESE ` PRESENT ´ EE´ A` L’UNIVERSITE DE BORDEAUX ´ ECOLE DOCTORALE DE MATH ´ EMATIQUES ET ´ D’INFORMATIQUE Par Cl´ement VUCHENER POUR OBTENIR LE GRADE DE DOCTEUR SPECIALIT ´ E : INFORMATIQUE ´ Equilibrage de charge dynamique avec un nombre ´ variable de processeurs bas´e sur des m´ethodes de partitionnement de graphe Soutenue le : 7 f´evrier 2014 Apr`es avis des rapporteurs : Pierre Manneback Professeur Bora U¸car . . . . . . . . Charg´e de Recherche Devant la commission d’examen compos´ee de : Florent Duchaine . Senior Researcher . . . . Examinateur Aur´elien Esnard . . Maˆıtre de Conf´erences Directeur de Th`ese Pierre Manneback Professeur . . . . . . . . . . . . Pr´esident du Jury & Rapporteur Fran¸cois Pellegrini Professeur . . . . . . . . . . . . Examinateur Jean Roman . . . . . Professeur . . . . . . . . . . . . Directeur de Th`ese Bora U¸car . . . . . . . . Charg´e de Recherches Rapporteur 2014iiiii Remerciements Avant tout, je remercie mes directeurs de th`ese Jean Roman et Aur´elien Esnard qui ont accept´e d’encadrer cette th`ese. Et plus particuli`erement Aur´elien pour tout le temps qu’il m’a accord´e, ces longues discussions qui ont permis `a cette th`ese d’avancer et tous les conseils donn´es. Je remercie Pierre Manneback et Bora U¸car qui ont accept´e de rapporter cette th`ese malgr´e des d´elais tr`es courts, ainsi que les autres membres du jury : Fran¸cois Pellegrini et Florent Duchaine pour l’int´erˆet port´e `a mes travaux. Je remercie ´egalement S´ebastien Fourestier et, encore une fois, Fran¸cois Pellegrini pour toute leur aide sur Scotch et comment y ajouter ma m´ethode de partitionnement. Je remercie toute l’´equipe INRIA HiePACS au sein de laquelle j’ai effectu´e cette th`ese et plus particuli`erement les autres doctorants de l’´equipe qui m’ont tenu compagnie pendant pr`es de trois ans pour certains.ivv Equilibrage de charge dynamique avec un nombre variable ´ de processeurs bas´e sur des m´ethodes de partitionnement de graphe R´esum´e L’´equilibrage de charge est une ´etape importante conditionnant les performances des applications parall`eles. Dans le cas o`u la charge varie au cours de la simulation, il est important de redistribuer r´eguli`erement la charge entre les diff´erents processeurs. Dans ce contexte, il peut s’av´erer pertinent d’adapter le nombre de processeurs au cours d’une simulation afin d’obtenir une meilleure efficacit´e, ou de continuer l’ex´ecution quand toute la m´emoire des ressources courantes est utilis´ee. Contrairement au cas o`u le nombre de processeurs ne varie pas, le r´e´equilibrage dynamique avec un nombre variable de processeurs est un probl`eme peu ´etudi´e que nous abordons ici. Cette th`ese propose diff´erentes m´ethodes bas´ees sur le repartitionnement de graphe pour r´e´equilibrer la charge tout en changeant le nombre de processeurs. Nous appelons ce probl`eme « repartitionnement M × N ». Ces m´ethodes se d´ecomposent en deux grandes ´etapes. Dans un premier temps, nous ´etudions la phase de migration et nous construisons une « bonne » matrice de migration minimisant plusieurs crit`eres objectifs comme le volume total de migration et le nombre total de messages ´echang´es. Puis, dans un second temps, nous utilisons des heuristiques de partitionnement de graphe pour calculer une nouvelle distribution optimisant la migration en s’appuyant sur les r´esultats de l’´etape pr´ec´edente. En outre, nous proposons un algorithme de partitionnement k-aire direct permettant d’am´eliorer le partitionnement biais´e. Finalement, nous validons cette th`ese par une ´etude exp´erimentale en comparant nos m´ethodes aux partitionneurs actuels. Mots-cl´es Simulation num´erique, parall´elisme, ´equilibrage de charge dynamique, redistribution, partitionnement de graphe, repartitionnement.vi Dynamic Load-Balancing with Variable Number of Processors based on Graph Partitioning Abstract Load balancing is an important step conditioning the performance of parallel programs. If the workload varies drastically during the simulation, the load must be redistributed regularly among the processors. Dynamic load balancing is a well studied subject but most studies are limited to an initially fixed number of processors. Adjusting the number of processors at runtime allows to preserve the parallel code efficiency or to keep running the simulation when the memory of the current resources is exceeded. In this thesis, we propose some methods based on graph repartitioning in order to rebalance the load while changing the number of processors. We call this problem “M × N repartitioning”. These methods are split in two main steps. Firstly, we study the migration phase and we build a “good” migration matrix minimizing several metrics like the migration volume or the number of exchanged messages. Secondly, we use graph partitioning heuristics to compute a new distribution optimizing the migration according to the previous step results. Besides, we propose a direct k-way partitioning algorithm that allows us to improve our biased partitioning. Finally, an experimental study validates our algorithms against state-of-the-art partitioning tools. Keywords Numerical simulation, parallelism, dynamic load-balancing, redistribution, graph partitioning, repartitioning.Table des mati`eres 1 Introduction 1 2 Etat de l’art ´ 5 2.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.2 Partitionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.2.1 Mod´elisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.2.2 M´ethodes de partitionnement de graphe . . . . . . . . . . . . . . . . . . . 9 2.2.3 Etat de l’art des outils de partitionnement . . . . . . . . . . . . . . . . . . 11 ´ 2.3 Repartitionnement pour l’´equilibrage dynamique . . . . . . . . . . . . . . . . . . 13 2.3.1 Mod´elisation du probl`eme de repartitionnement . . . . . . . . . . . . . . . 13 2.3.2 M´ethodes de repartitionnement de graphe . . . . . . . . . . . . . . . . . . 14 2.4 Positionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3 Mod`ele de migration pour le repartitionnement M × N 25 3.1 Notations et d´efinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.1.1 G´en´eralit´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.1.2 D´efinitions pour le repartitionnement M × N . . . . . . . . . . . . . . . . 27 3.2 Matrices de migration optimales dans le cas ´equilibr´e . . . . . . . . . . . . . . . . 28 3.3 Construction des matrices de migration . . . . . . . . . . . . . . . . . . . . . . . 35 3.3.1 M´ethode bas´ee sur la chaˆıne (1D) . . . . . . . . . . . . . . . . . . . . . . . 35 3.3.2 M´ethode d’appariement (Matching) . . . . . . . . . . . . . . . . . . . . . 42 3.3.3 M´ethode gloutonne (Greedy) . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.3.4 Programme lin´eaire (LP) . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.4 Evaluation des m´ethodes et conclusion . . . . . . . . . . . . . . . . . . . . . . ´ . . 62 4 Repartitionnement M × N 67 4.1 Repartitionnement M × N bas´e sur le partitionnement biais´e (BIASED) . . . . . 67 4.1.1 M´ethodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 4.1.2 Limitations des partitionneurs . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2 Partitionnement k-aire direct (KGGGP) . . . . . . . . . . . . . . . . . . . . . . . 73 4.2.1 Description de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . 73 4.2.2 Crit`eres de s´election . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.2.3 Complexit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 4.2.4 Am´eliorations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 4.2.5 Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 ´ 4.3 Repartitionnement M × N bas´e sur la diffusion (DIFF) . . . . . . . . . . . . . . 85 4.4 Partitionnement biais´e `a l’aide d’hyper-arˆetes de repartitionnement . . . . . . . . 89 4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 viiviii TABLE DES MATIERES ` 5 R´esultats 91 5.1 M´ethodologie exp´erimentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 5.2 Influence du coˆut de migration et du facteur de repartitionnement . . . . . . . . 94 5.3 Influence du nouveau nombre de processeurs . . . . . . . . . . . . . . . . . . . . . 97 5.4 Comparaison sur des graphes complexes . . . . . . . . . . . . . . . . . . . . . . . 101 5.5 Etude de la complexit´e en temps . . . . . . . . . . . . . . . . . . . . . . . . . ´ . . 110 6 Conclusion et Perspectives 115 6.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 6.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 A Programmes lin´eaires pour optimiser les diff´erentes m´etriques 119 A.1 Minimisation de TotalV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 A.2 Minimisation de MaxV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 A.3 Minimisation de TotalZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 A.4 Minimisation de MaxZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 B Documentation du KGGGP dans Scotch 123 C R´esultats suppl´ementaires 125 C.1 Influence du coˆut de migration et du facteur de repartitionnement . . . . . . . . 125 C.2 Comparaison sur des graphes complexes . . . . . . . . . . . . . . . . . . . . . . . 126 Bibliographie 133 Liste des publications 137Chapitre 1 Introduction Une simulation num´erique mod´elise g´en´eralement l’´evolution en temps d’un ph´enom`ene physique dans un domaine de l’espace. Souvent, on utilise un sch´ema it´eratif en temps et une discr´etisation de l’espace via un maillage d’´el´ements g´eom´etriques (triangles, carr´es, t´etra`edres, etc.). Des simulations de plus en plus complexes demandent une plus grande puissance de calcul. Pour cela, ces applications doivent fonctionner en parall`ele sur plusieurs nœuds de calcul. Les donn´ees sont alors r´eparties sur les diff´erentes unit´es de traitement ou « processeurs ». Les processeurs ne pouvant pas acc´eder directement et rapidement aux donn´ees des autres processeurs, ce parall´elisme induit un surcout dˆu aux communications sur le r´eseau. La m´emoire ´etant distribu´ee, la r´epartition des calculs implique une distribution des donn´ees. Dans ce contexte, la distribution des donn´ees est une ´etape importante conditionnant les performances d’une simulation num´erique et elle est faite selon deux objectifs : — la charge de calcul affect´ee aux diff´erents processeurs doit ˆetre ´equilibr´ee pour minimiser le temps de calcul de chacun ; — les communications inter-processeurs induites par la distribution doivent ˆetre minimis´ees. Certaines simulations num´eriques complexes ont une charge de calcul qui peut ´evoluer de fa¸con impr´evisible ; c’est le cas par exemple des simulations de type AMR (Adaptive Mesh Refinement) o`u la discr´etisation de l’espace ´evolue pour ˆetre plus fine autour de points d’int´erˆet. La charge de certains processeurs peut augmenter plus rapidement que d’autres et il n’est alors plus possible de garder une mˆeme distribution tout le long de la simulation. De nouvelles distributions doivent ˆetre recalcul´ees pour r´e´equilibrer la charge lorsque le d´es´equilibre devient trop important. On parle alors d’´equilibrage dynamique. En plus des deux objectifs pr´ec´edents, la nouvelle distribution doit r´epondre `a deux nouvelles contraintes : — la nouvelle partition doit ˆetre calcul´ee rapidement en parall`ele ; — la migration des donn´ees n´ecessaire pour passer de l’ancienne distribution `a la nouvelle doit ˆetre la plus rapide possible, c’est-`a-dire qu’il faut que le moins possible de donn´ees ne change de processeurs. Le probl`eme de calcul de telles distributions peut ˆetre r´esolu `a l’aide du partitionnement d’un graphe non-orient´e en k parties. Les sommets du graphe repr´esentent les calculs et les arˆetes repr´esentent les d´ependances entre ces calculs. Chaque partie repr´esente l’ensemble des calculs affect´es `a un processeur. Deux sommets connect´es qui se trouvent dans deux parties diff´erentes (on dira que l’arˆete est coup´ee) induisent un besoin de communication entre ces deux processeurs. L’objectif de la distribution devient alors de construire une partition dont les parties sont de mˆeme taille et coupant un minimum d’arˆetes. Dans le cas de l’´equilibrage dynamique, on parlera de « repartitionnement ». Le partitionnement de graphe est un probl`eme d´ej`a bien ´etudi´e, que 12 CHAPITRE 1. INTRODUCTION ce soit dans le cas statique o`u une seule partition est calcul´ee, ou dynamique o`u la partition est recalcul´ee r´eguli`erement. Augmentation de la charge M = 4 N = 6 Figure 1.1 – Allocation dynamique de processeurs pour un code parall`ele dont la charge augmente. Lorsque la charge de calcul varie de fa¸con importante, il peut devenir int´eressant de changer le nombre de processeurs allou´es. Cela peut permettre de continuer la simulation quand toute la m´emoire des processeurs est utilis´ee, ou ainsi d’am´eliorer la consommation des ressources pour garder une bonne efficacit´e au cours de la simulation. Par exemple, un code AMR utilise initialement un maillage tr`es simple avec peu d’´el´ements, qu’il ne serait pas efficace de distribuer sur un grand nombre de processeurs. Avec le raffinement du maillage, la quantit´e de calcul augmente de fa¸con importante, et la parall´elisation sur un plus grande nombre de processeurs devient plus int´eressante, voire n´ecessaire si la taille du probl`eme d´epasse la capacit´e m´emoire des processeurs d´ej`a allou´es. Il faut alors ˆetre capable de calculer une nouvelle distribution pour un plus grand nombre de processeurs, comme illustr´e en figure 1.1. Augmentation de la charge relative A/B M + M' = 6 N + N' = 6 A B A B Figure 1.2 – Allocation dynamique de processeurs pour deux codes coupl´es A et B dont la charge relative de A par rapport `a B augmente. L’allocation dynamique de processeurs est ´egalement utile dans le cas des codes coupl´es. Ce sont diff´erents codes s’ex´ecutant en parall`ele et collaborant pour r´ealiser une simulation plus complexe. Ces codes doivent r´eguli`erement ´echanger des donn´ees entre eux durant la « phase de couplage » qui induit une synchronisation plus ou moins explicite. Il est donc n´ecessaire que les diff´erents codes avancent `a la mˆeme vitesse pour ne pas se ralentir entre eux. Cet ´equilibrage entre les codes peut s’av´erer tr`es difficile `a cause des natures tr`es diff´erentes de ces codes, ou dans le cas o`u au moins un des codes a une charge de calcul qui ´evolue dynamiquement. La figure 1.2 pr´esente un exemple avec deux codes coupl´es A et B utilisant initialement 3 processeurs chacun. Si le code B devient trop rapide par rapport `a A, on peut transf´erer un processeur du code B vers A. Cette th`ese propose un ensemble de m´ethodes permettant de r´esoudre le probl`eme d’´equilibrage dynamique de la charge avec changement du nombre de processeurs, et ce en se basant sur3 le repartitionnement de graphe. Nous appellerons ce probl`eme, le repartitionnement M × N. Ce repartitionnement doit r´ealiser les diff´erents objectifs d´ej`a cit´es : — ´equilibrage de la charge ; — minimisation des communications dues aux d´ependances de calculs ; — rapidit´e de calcul de la nouvelle partition ; — minimisation des communications dues `a la redistribution. Ceci devra ˆetre fait en prenant en compte `a la fois une charge variable et un nombre de processeurs variable. Ces m´ethodes de repartitionnement se divisent en deux ´etapes : la construction d’une matrice de migration puis le repartitionnement bas´e sur cette matrice de migration. Plusieurs m´ethodes de construction de matrices de migration permettent d’optimiser diff´erentes m´etriques relatives `a la migration des donn´ees. Deux m´ethodes de repartitionnement sont pr´esent´ees : l’une de partitionnement biais´e et l’autre diffusive. De plus, des limitations des m´ethodes de bissections r´ecursives utilis´ees habituellement sont mises en ´evidence dans le cadre du partitionnement biais´e et nous proposons une m´ethode de partitionnement k-aire direct pour y rem´edier. Nous commencerons par pr´esenter un ´etat de l’art du partitionnement et repartitionnement de graphe (chapitre 2). Puis, dans le chapitre 3, nous d´efinirons et construirons des mod`eles pour la migration. Le chapitre 4 pr´esentera des m´ethodes de repartitionnement s’appuyant sur les mod`eles de migration introduits au chapitre pr´ec´edent. Puis, nous ´evaluerons nos m´ethodes au travers d’une s´erie d’exp´eriences comparatives avec d’autres outils de repartitionnement de graphe (chapitre 5). Finalement, nous conclurons et pr´esenterons quelques pistes d’am´eliorations de ces m´ethodes dans le chapitre 6. Plusieurs annexes compl`etent ce manuscrit.4 CHAPITRE 1. INTRODUCTIONChapitre 2 Etat de l’art ´ Sommaire 2.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.2 Partitionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.2.1 Mod´elisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.2.2 M´ethodes de partitionnement de graphe . . . . . . . . . . . . . . . . . 9 2.2.3 Etat de l’art des outils de partitionnement . . . . . . . . . . . . . . . . ´ 11 2.3 Repartitionnement pour l’´equilibrage dynamique . . . . . . . . . . 13 2.3.1 Mod´elisation du probl`eme de repartitionnement . . . . . . . . . . . . . 13 2.3.2 M´ethodes de repartitionnement de graphe . . . . . . . . . . . . . . . . 14 2.4 Positionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.1 Contexte Une simulation num´erique mod´elise l’´evolution d’un ph´enom`ene physique dans le temps sur un domaine de l’espace. Ces simulations s’appuient sur une discr´etisation en temps et en espace. Le domaine de l’espace simul´e est discr´etis´e `a l’aide d’un maillage d’´el´ements g´eom´etriques : triangles, carr´es, t´etra`edres, ... La discr´etisation en temps permet de calculer l’´etat du syst`eme `a un instant donn´e `a partir de l’´etat pr´ec´edent. Plus pr´ecis´ement, l’´etat d’un ´el´ement est calcul´e `a partir de son ´etat pr´ec´edent et de l’´etat de quelques autres ´el´ements en fonction du mod`ele physique ; g´en´eralement, ce sont les ´el´ements voisins dans le maillage. Ces simulations, de plus en plus complexes, n´ecessitent d’ˆetre ex´ecut´ees en parall`ele. Le domaine doit donc ˆetre distribu´e parmi plusieurs unit´es de calcul. Le maillage est donc d´ecoup´e en autant de parties que de processeurs utilis´es. Le calcul de l’´etat d’un ´el´ement d´ependant de l’´etat d’autres ´el´ements, le plus souvent dans son voisinage, cette distribution induit des communications entre processeurs quand l’un d’entre eux n´ecessite les donn´ees poss´ed´ees par un autre. Ces communications sont synchronisantes et tous les processeurs doivent donc faire progresser la simulation au mˆeme rythme. Une bonne distribution ou partition des donn´ees doit donc fournir des parties ´equilibr´ees et minimisant le nombre de d´ependances de donn´ees entre processeurs, minimisant ainsi le temps de calcul et de communication. Par exemple, un code simulant la diffusion de la chaleur sur un maillage calcule la chaleur de chaque ´el´ement `a partir de sa propre chaleur et de celle des ´el´ements voisins `a l’it´eration pr´ec´edente. Une unit´e de calcul travaillant 56 CHAPITRE 2. ETAT DE L’ART ´ sur un domaine doit donc recevoir les temp´eratures des ´el´ements sur la fronti`ere des domaines voisins. La distribution des donn´ees peut ˆetre statique, c’est-`a-dire fix´ee au d´ebut de la simulation, ou dynamique qui ´evolue au cours de la simulation. Certaines simulations utilisent des maillages dynamiques : le domaine de simulation peut s’´etendre, par exemple pour la simulation d’une explosion, ou le maillage peut ˆetre raffin´e autour de certains points d’int´erˆet permettant ainsi d’utiliser peu d’´el´ements tout en gardant une bonne pr´ecision l`a o`u c’est n´ecessaire. Cette derni`ere m´ethode est appel´ee Adaptive Mesh Refinment (AMR). Au cours de ces simulations dynamiques, la charge de calcul des processeurs ´evolue de fa¸con h´et´erog`ene. Il est donc n´ecessaire de r´e´equilibrer r´eguli`erement cette charge en calculant une nouvelle partition des donn´ees. Une fois cette nouvelle partition r´ealis´ee, les donn´ees doivent ˆetre migr´ees vers leur nouveau propri´etaire. La nouvelle partition doit optimiser cette phase de migration en plus des crit`eres pr´ec´edents. Il existe une grande vari´et´e de m´ethodes pour partitionner des maillages. Les plus courantes sont les m´ethodes g´eom´etriques, s’appuyant uniquement sur les coordonn´ees des ´el´ements dans l’espace, et les m´ethodes bas´ees sur les graphes utilisant les d´ependances de calcul entre ´el´ements et ne s’int´eressant plus qu’`a la topologie et non `a la g´eom´etrie du probl`eme. 2.2 Partitionnement Le partitionnement de maillages `a l’aide de graphes utilise les d´ependances de calcul entre les ´el´ements pour construire un graphe. Certains partitionneurs utilisent un mod`ele d’hypergraphe, plus g´en´eral que le mod`ele de graphe. Un partitionneur de graphe ou d’hypergraphe calcule des partitions en prenant en compte deux objectifs : — les parties doivent ˆetre ´equilibr´ees, c’est-`a-dire de mˆeme taille. Les partitionneurs sont g´en´eralement tol´erants et se contentent de cr´eer des parties `a peu pr`es ´equilibr´ees `a un « facteur de d´es´equilibre » pr`es. Un facteur de d´es´equilibre de 5% veut dire qu’une partie pourra atteindre jusqu’`a 1, 05 fois sa taille id´eale. Ce premier objectif permet d’optimiser le temps de calcul de la simulation. — une fonction de coˆut, appel´ee coupe du graphe, est minimis´ee. Cette fonction de coˆut varie suivant les mod`eles mais repr´esente le temps de communication entre les processeurs. 2.2.1 Mod´elisation Pour pouvoir appliquer le partitionnement de graphe ou d’hypergraphe `a un probl`eme donn´e, il est n´ecessaire de mod´eliser celui-ci. Il est important de choisir une mod´elisation adapt´ee au probl`eme pour que le partitionneur puisse cr´eer une partition optimisant les bons crit`eres pour cette simulation. a) Mod´elisation `a l’aide de graphes L’approche la plus courante consiste `a mod´eliser les ´el´ements `a distribuer sous forme d’un graphe. Le graphe construit doit mod´eliser les contraintes du calcul distribu´e : ´equilibrage de charge et r´eduction de communications. Un graphe est d´efini par un ensemble de sommets et un ensemble d’arˆetes connectant les sommets par paires. Le graphe est donc construit avec un sommet pour repr´esenter chaque ´el´ement. Les arˆetes de ce graphe servent `a repr´esenter les d´ependances entre les ´el´ements. Par exemple, le calcul sur un ´el´ement peut n´ecessiter les donn´ees des ´el´ements voisins dans le maillage. Un sommet est donc connect´e `a tous les sommets repr´esentant les ´el´ements voisins dans le maillage.2.2. PARTITIONNEMENT 7 Si des ´el´ements sont associ´es `a des charges de calcul diff´erentes, il est possible d’associer des poids aux sommets repr´esentant ces charges de calcul. De la mˆeme fa¸con, si certaines communications sont plus coˆuteuses que d’autres, un poids peut ˆetre affect´e aux arˆetes. Un partitionneur de graphe optimise deux objectifs : l’´equilibrage et la coupe. La taille d’une partie est le nombre de sommets dans cette partie ou, s’ils sont pond´er´es, la somme des poids de ceux-ci. La fonction de coˆut la plus g´en´eralement utilis´ee dans les partitionneurs de graphe est le nombre d’arˆetes coup´ees (ou la somme de leurs poids). Une arˆete est dite « coup´ee » lorsque ses deux extr´emit´es sont affect´ees `a des parties diff´erentes. On vise ainsi `a r´eduire le volume de donn´ees `a communiquer entre processeurs. La figure 2.1 pr´esente la mod´elisation d’un maillage : une grille de 2 × 3 carr´es sous forme de graphe. Chaque sommet du graphe correspond `a un carr´e de la grille et est reli´e aux sommets correspondant `a ses voisins dans le maillage. Figure 2.1 – Un maillage de 6 ´el´ements et le graphe associ´e mod´elisant les d´ependances. Cette mod´elisation, bien que tr`es r´epandue, ne mod´elise pas toujours parfaitement le volume de communication n´ecessaire pour la distribution induite. On pourrait penser que comme une arˆete relie deux sommets, chaque arˆete coup´ee induit deux sommets devant communiquer. Mais un sommet peut avoir plusieurs arˆetes coup´ees par la mˆeme partie et la coupe du graphe peut sur´evaluer le volume de communication induit par cette partition. Sur la figure 2.2, un maillage de 6 ´el´ements est partitionn´e en deux : une partie bleue et une partie verte. Il y a 4 ´el´ements qui ont au moins un voisin dans l’autre partie, ce sont les ´el´ements qui ont besoin d’ˆetre communiqu´es avec l’autre processeur. Mais 3 arˆetes sont coup´ees par la partition. Figure 2.2 – Maillage et graphe partitionn´es en deux.8 CHAPITRE 2. ETAT DE L’ART ´ Figure 2.3 – Un maillage de 6 ´el´ements et l’hypergraphe associ´e mod´elisant les d´ependances. Pour ne pas surcharger le dessin, seule l’hyper-arˆete correspondant `a l’´el´ement rouge est repr´esent´ee. b) Mod´elisation `a l’aide d’hypergraphes Il est ´egalement possible d’utiliser une mod´elisation `a partir d’hypergraphe. Le partitionnement d’hypergraphe est depuis longtemps utilis´e pour le partitionnement de VLSI [33, 59], mais il est ´egalement int´eressant dans le cas du partitionnement de matrices ou de maillages [63]. Les hypergraphes sont des extensions des graphes, o`u une arˆete appel´ee hyper-arˆete, ne connecte plus deux sommets mais un nombre quelconque de sommets. Un graphe peut ˆetre consid´er´e comme un hypergraphe particulier contenant uniquement des hyper-arˆetes de taille 2. Ces hyper-arˆetes plus complexes rendent la repr´esentation graphique des hypergraphe plus difficile. Il existe plusieurs fa¸cons de repr´esenter une hyper-arˆete ; par exemple, on peut dessiner une courbe entourant les sommets inclus dans l’hyper-arˆete. Il est aussi possible de repr´esenter une hyper-arˆete par un sommet sp´ecial reli´e aux sommets qu’elle connecte. Cette repr´esentation est en fait celle d’un graphe biparti dont les parties sont l’ensemble des sommets et l’ensemble des hyper-arˆetes. Comme avec les graphes, chaque ´el´ement d’un maillage est repr´esent´e par un sommet de l’hypergraphe. Mais les hyper-arˆetes permettent de mod´eliser diff´eremment les d´ependances. Une hyper-arˆete est associ´ee `a chaque sommet, repr´esentant toutes les d´ependances de cet ´el´ement. Une hyper-arˆete contient donc le sommet auquel elle est associ´ee, ainsi que tous les sommets qui d´ependent de celui-ci. La figure 2.3 montre une hyper-arˆete de l’hypergraphe mod´elisant la grille 2×3. Cette hyperarˆete est associ´ee au sommet rouge et contient tous les sommets voisins. Cette nouvelle mod´elisation des d´ependances permet d’utiliser des mod`eles de coupe diff´erents repr´esentant mieux les communications induites par le partitionnement. La coupe connectivit´e−1, aussi app´el´ee λ−1, permet de repr´esenter fid`element les communications [63]. Ce mod`ele de coupe prend en compte le nombre de parties coupant une arˆete. Si une hyper-arˆete est coup´ee par λ parties, son poids est compt´e λ−1 fois dans la coupe finale. En effet, une hyper-arˆete est associ´ee `a un ´el´ement et λ parties poss`edent des ´el´ements appartenant `a cette hyper-arˆete. Ces ´el´ements sont soit ceux qui ont une d´ependance sur l’´el´ement associ´e `a l’hyper-arˆete, soit l’´el´ement luimˆeme. Parmi ces λ parties, une poss`ede l’´el´ement et les λ−1 autres devront recevoir les donn´ees associ´ees `a cet ´el´ement. La figure 2.4 montre la mˆeme partition que la figure 2.2 mais en utilisant un mod`ele d’hypergraphe. Parmi les 6 hyper-arˆetes de cet hypergraphe, 4 sont coup´ees (en rouge). Ce sont les hyper-arˆetes associ´ees aux sommets se trouvant sur la fronti`ere. La mod´elisation `a l’aide d’hypergraphe permet de mod´eliser exactement la quantit´e de donn´ees se trouvant sur la fronti`ere des domaines contrairement `a la mod´elisation `a l’aide de graphe.2.2. PARTITIONNEMENT 9 Figure 2.4 – Maillage et hypergraphe partitionn´e en deux. Les hyper-arˆetes en rouge sont coup´ees par les deux parties. c) Sommets fixes Certains partitionneurs permettent d’utiliser des sommets fixes. Ces sommets sont initialement fix´es dans une partie et le partitionneur ne remettra pas en cause cette affectation, mais en tiendra compte dans l’´equilibrage et l’optimisation de la coupe. Les sommets fixes ont ´et´e largement utilis´es dans le cadre du partitionnement de VLSI [7] mais ont ´egalement trouv´e une utilisation dans le cadre du r´e´equilibrage dynamique [2, 9]. Le probl`eme de partitionnement `a sommets fixes est une version plus contrainte du partitionnement de graphe ou hypergraphe compl`etement libre. Bien que le probl`eme puisse paraitre plus simple, comme il y a moins de sommets `a placer dans les diff´erentes parties, les heuristiques ´elabor´ees pour le partitionnement libre peuvent avoir du mal `a prendre en compte ces nouvelles contraintes [3, 7]. 2.2.2 M´ethodes de partitionnement de graphe Le partitionnement d’un graphe ou d’un hypergraphe est un probl`eme NP-complet [20, GRAPH PARTITIONING]. On utilise donc diverses heuristiques pour pouvoir calculer une partition en un temps raisonnable. La plupart des m´ethodes utilis´ees s’appliquent aussi bien sur des graphes que sur des hypergraphes. La plupart des partitionneurs de graphe ou d’hypergraphe utilisent des m´ethodes appel´ees « multi-niveaux » [4, 22, 36]. L’approche multi-niveaux permet d’acc´el´erer les m´ethodes de partitionnement classiques tout en gardant une bonne qualit´e. Cette approche se d´ecompose en trois ´etapes, comme indiqu´e en figure 2.5. G0 G1 Gk ... P0 P1 Pk ... Contraction Expansion Partitionnement Initial Figure 2.5 – Phases d’un partitionnement multi-niveaux.10 CHAPITRE 2. ETAT DE L’ART ´ La phase de contraction : Dans un premier temps, la taille du graphe est r´eduite en fusionnant des sommets. Cela est r´ep´et´e pendant plusieurs it´erations, jusqu’`a obtenir un graphe suffisamment petit. Une suite de graphes de taille d´ecroissante a ainsi ´et´e cr´e´ee : (G0, G1, . . . , Gk). Le partitionnement initial : Une fois que le graphe a ´et´e suffisamment contract´e, on applique une heuristique de partitionnement pour calculer la partition Pk du graphe Gk. N’importe quelle strat´egie de partitionnement peut ˆetre appliqu´ee ici. Certaines seront d´etaill´ees par la suite. La phase d’expansion : La suite des diff´erents graphes construits pendant l’´etape de contraction est alors « remont´ee ». La partition Pi+1 du graphe Gi+1 est prolong´ee sur le graphe Gi puis cette nouvelle partition Pi est raffin´ee `a l’aide d’une heuristique am´eliorant localement la coupe. a) Strat´egies de contraction Il existe plusieurs heuristiques pour s´electionner les sommets `a fusionner. La plus connue, appel´ee Heavy Edge Matching (HEM), recherche les arˆetes de poids les plus ´elev´es et en fusionne les deux extr´emit´es. Cette op´eration est r´ep´et´ee jusqu’`a obtenir un graphe suffisamment petit. Dans un partitionneur supportant les sommets fixes, ces derniers doivent ˆetre trait´es de mani`ere particuli`ere pendant la phase de contraction. En effet, le graphe contract´e doit garder les mˆemes informations sur les sommets fixes. Dans certains partitionneurs, il peut ˆetre d´ecid´e de ne jamais fusionner ces sommets fixes. Dans d’autres, il peut ˆetre d´ecid´e de les fusionner seulement avec des sommets non fix´es ou fix´es dans la mˆeme partie. Dans ce cas, le sommet obtenu apr`es fusion est consid´er´e comme un sommet fixe dans le graphe contract´e. b) Strat´egies de partitionnement initial La strat´egie de partitionnement utilis´ee au niveau le plus bas dans un partitionneur multiniveaux peut ˆetre n’importe quelle strat´egie de partitionnement, y compris un autre algorithme multi-niveaux. Il existe une tr`es grande vari´et´e de m´ethodes de partitionnement ou de bissection comme par exemple des algorithmes gloutons ajoutant les sommets un `a un dans les parties [5, 6, 29], ou des algorithmes spectraux utilisant des propri´et´es d’alg`ebre lin´eaire pour obtenir une partition [53]. La strat´egie la plus utilis´ee est celle des bissections r´ecursives. Le graphe est coup´e r´ecursivement en deux parties jusqu’`a obtenir le nombre de parties souhait´e. Il est possible d’obtenir un nombre de parties qui n’est pas une puissance de 2 en cr´eant des parties d´es´equilibr´ees. Par exemple pour obtenir 3 parties, on cr´ee deux parties avec les proportions 1/3 et 2/3, la partie de taille 2/3 est ensuite coup´ee en deux parties ´egales de 1/3 chacune. Son int´erˆet r´eside dans la grande vari´et´e et qualit´e des heuristiques de bissection souvent mieux maˆıtris´ees que les heuristiques de partitionnement k-aires [35]. Le graphe peut ´egalement ˆetre partitionn´e directement en k parties ; on parlera de partitionnement k-aire direct. Ces strat´egies peuvent ˆetre plus rapides que les bissections r´ecursives car une seule partition est calcul´ee. Th´eoriquement, le partitionnement k-aire direct permet une meilleure qualit´e car il profite d’une vision globale du probl`eme que les bissections r´ecursives n’ont pas [60]. Mais en pratique, il est plus difficile de calculer une bonne partition k-aire directement et la m´ethode des bissections r´ecursives donne souvent de meilleurs r´esultats [35].2.2. PARTITIONNEMENT 11 c) Strat´egies de raffinement utilis´ees dans la phase d’expansion Les strat´egies de raffinement modifient une partition d´ej`a existante en changeant quelques sommets de partie pour am´eliorer la coupe. L’algorithme de Kernighan et Lin [39] (KL) raffine une bissection en cherchant des paires de sommets dont l’´echange am´eliore le plus la coupe (ou la d´egrade le moins). Un sommet d´eplac´e ne sera plus consid´er´e pour un ´echange dans la mˆeme passe. Ces ´echanges sont consid´er´es mˆeme s’ils d´egradent la coupe, cela permettant de ne pas rester bloqu´e sur une solution localement optimale mais qui pourrait ˆetre am´elior´ee en s’en ´eloignant plus. A la fin de la passe, seuls les ´echanges ` menant `a la meilleure coupe sont conserv´es. L’´echange par paires permet de conserver l’´equilibre mais rend l’algorithme complexe. Plusieurs passes peuvent ˆetre appliqu´ees pour am´eliorer encore plus la coupe. Fiduccia et Mattheyses [17] (FM) s’inspirent de cet algorithme pour d´ecrire un raffinement lin´eaire en temps en ne d´epla¸cant les sommets que un par un et grˆace `a une structure de donn´ees adapt´ee. L’´equilibre est conserv´e en se refusant d’effectuer des d´eplacements qui d´es´equilibreraient trop la partition, c’est-`a-dire que la partition d´epasserait la taille maximale donn´ee par le facteur de d´es´equilibre. Cet algorithme, initialement con¸cu pour les bissections, a ´egalement l’avantage de s’´etendre facilement aux k-partitions. Le principe g´en´eral reste le mˆeme, mais il y a plusieurs d´eplacements `a consid´erer pour chaque sommet. Les sommets fixes s’int`egrent facilement aux m´ethodes de types KL/FM, car il suffit de ne pas consid´erer ces sommets parmi les d´eplacements possibles. Comme un algorithme de raffinement se contente d’am´eliorer une partition d´ej`a existante en ne d´epla¸cant souvent que les sommets le long de la fronti`ere, il n’est pas toujours n´ecessaire de l’appliquer sur le graphe entier. Ces strat´egies sont souvent appliqu´ees sur un graphe « bande » ne contenant que les sommets `a une certaine distance de la fronti`ere entre les parties, les autres sommets ´etant r´eunis en un seul sommet fixe pour chaque partie appel´e « ancre ». La taille du probl`eme est ainsi largement r´eduite [10]. D’autres m´ethodes de raffinement s’inspirent de la diffusion d’un liquide dans le graphe [42,49]. Ces m´ethodes se basent sur des graphes bandes : un type liquide diff´erent pour chaque partie est inject´e dans chaque sommet ancre. Le liquide se diffuse it´erativement dans le graphe le long des arˆetes et est d´etruit lorsqu’il rencontre un autre type de liquide. Quand un sommet re¸coit plusieurs type de liquide, il choisit la partie dont il en re¸coit le plus. Cette heuristique tend `a cr´eer des parties aux formes tr`es lisses mais la coupe n’est pas toujours optimale. Elle aussi pour avantage d’ˆetre locale et donc d’ˆetre plus efficace en parall`ele que les heuristiques de type KL/FM. 2.2.3 Etat de l’art des outils de partitionnement ´ Il existe une grande vari´et´e d’outils de partitionnement. Le tableau 2.1 pr´esente quelques partitionneurs de graphe ou d’hypergraphe et quelques unes de leurs fonctionnalit´es. Les sommets fixes sont surtout support´es par les partitionneurs d’hypergraphe car ils sont utilis´es depuis longtemps pour le partitionnement de circuits int´egr´es (VLSI). Beaucoup de partitionneurs offrent le choix entre un partitionnement multi-niveaux r´ecursif ou directement k-aire, mais le partitionnement initial du multi-niveaux direct utilise le plus souvent des bissections r´ecursives. Metis [31] est un des partitionneurs les plus connus et utilis´es. Il poss`ede deux m´ethode de partitionnement : r´ecursif ou k-aire mais la m´ethode k-aire se base sur des bissections r´ecursives pour son partitionnement initial. Il existe ´egalement une version parall`ele : ParMetis permettant de cr´eer une partition en parall`ele sur au moins 2 processus. ParMetis propose ´egalement une m´ethode de repartitionnement permettant de r´e´equilibrer une partition existante [57]. hMetis est un partitionneur d’hypergraphe ´egalement disponible en version r´ecursive ou k-aire. Il supporte12 CHAPITRE 2. ´ETAT DE L’ART Outil Type Sommets fixes Parall`ele Type de multi-niveaux Partitionnement initial Metis [31] graphe non non bissections [34] — k-aire [35] bissections ParMetis [32] graphe non oui k-aire [37] bissections hMetis [30] hypergraphe oui non bissections [33] — non k-aire [38] bissections PaToH [64] hypergraphe oui non bissections — kPaToH [3] hypergraphe oui non k-aire bissections + matching Zoltan [1] hypergraphe oui oui bissections — Scotch [48] graphe oui non bissections — k-aire bissections PT-Scotch [48] graphe non oui bissections RM-Metis [2] graphe oui (exactement k) non k-aire k-aire direct (GGGP) Mondriaan [62] hypergraphe non non bissections — ML-Part [47] hypergraphe oui non bissections — Parkway [61] hypergraphe non oui k-aire bissections Chaco [24] graphe non non bissections — Table 2.1 – Partitionneurs de graphe et d’hypergraphe.2.3. REPARTITIONNEMENT POUR L’EQUILIBRAGE DYNAMIQUE ´ 13 les sommets fixes mais ne peut optimiser que le nombre d’hyper-arˆetes coup´ees et non la coupe λ − 1. Scotch [48] est un partitionneur de graphe et de maillage sous licence libre. Il est tr`es configurable et modulaire. Il propose une grande vari´et´e de m´ethodes de partitionnement, mais seulement des m´ethodes de bissections sont disponibles pour le partitionnement initial. Depuis sa derni`ere version (6.0), il permet d’utiliser des sommets fixes et de r´e´equilibrer une partition existante. PT-Scotch est la version parall`ele multi-thread et multi-processus de Scotch. Zoltan [1] est une biblioth`eque permettant de g´erer la distribution des donn´ees pour des applications parall`eles. Il offre en particulier des fonctionnalit´es de partitionneur. Il est possible d’utiliser ParMetis ou Scotch, mais il contient ´egalement son propre partitionneur d’hypergraphe. Le partitionneur d’hypergraphe de Zoltan utilise des bissections r´ecursives et supporte les sommets fixes. Il est ´egalement capable de r´e´equilibrer la distribution des donn´ees lorsque celles-ci ´evoluent dynamiquement [8, 9]. 2.3 Repartitionnement pour l’´equilibrage dynamique Dans certaines simulations num´eriques, la charge varie dynamiquement. C’est par exemple le cas des simulations AMR (Adaptive Mesh Refinement) dans lesquelles la r´esolution du maillage s’adapte dynamiquement pour r´eduire la quantit´e de calcul tout en gardant une pr´ecision suffi- sante l`a o`u elle est n´ecessaire. La charge ne varie pas de fa¸con homog`ene et il devient n´ecessaire apr`es un certain temps de simulation de r´e´equilibrer la charge entre les diff´erents processeurs. Le graphe repr´esentant les donn´ees doit alors ˆetre « repartitionn´e ». Les objectifs du repartitionnement de graphe sont : — la charge de calcul doit ˆetre ´equilibr´ee entre tous les processeurs ; — le volume de donn´ees `a communiquer entre les processeurs doit ˆetre minimal ; — le temps de calcul de la nouvelle partition doit ˆetre minimal ; — la migration des donn´ees, c’est `a dire l’envoi depuis l’ancien propri´etaire des sommets vers le nouveau, doit ˆetre le plus rapide possible. Aux deux premiers objectifs communs avec le partitionnement classique, on ajoute la minimisation du temps de repartitionnement (calcul de la nouvelle partition et migration induite par celle-ci). Notons que pour obtenir une partition de qualit´e (d’apr`es les deux premiers crit`eres), il est souvent n´ecessaire de migrer beaucoup de sommets. 2.3.1 Mod´elisation du probl`eme de repartitionnement On peut exprimer le temps total de la simulation (Ttotal) `a minimiser sous la forme [8, 57] : Ttotal = α × (Tcalcul + Tcomm) + Trepart + Tmig avec : — α le nombre d’it´erations avant que la partition devienne trop d´es´equilibr´ee et qu’un repartitionnement devienne n´ecessaire ; — Tcalcul le temps d’une it´eration de calcul, pris sur le processeur le plus lent et donc minimis´e par l’´equilibrage ; — Tcomm le temps des communications entre processeurs, correspondant `a la coupe du graphe ; — Trepart le temps pass´e `a calculer la nouvelle partition ; — Tmig le temps de migration des sommets vers leur nouvelle partie.14 CHAPITRE 2. ETAT DE L’ART ´ Ce mod`ele d’une simulation it´erative est repr´esent´e en figure 2.6. Apr`es chaque it´eration de calcul, les processeurs effectuent une phase de communication collective qui les synchronise ; le temps de calcul en parall`ele est donc celui du processeur le plus lent. Apr`es α = 3 it´erations, la partition devient trop d´es´equilibr´ee ; une nouvelle partition est calcul´ee lors du repartitionnement puis les sommets sont migr´es pour respecter cette nouvelle partition. En pratique, le repartitionnement n’est pas effectu´e apr`es un nombre fixe d’it´erations mais quand le d´es´equilibre d´epasse un certain seuil. On peut alors consid´erer que α est le nombre moyen d’it´erations avant que ce seuil soit d´epass´e. Obtenir une nouvelle partition de qualit´e (c’est-`a-dire avec Tcalcul et Tcomm faibles), impose un repartitionnement plus complexe et une nouvelle partition plus ´eloign´ee de l’ancienne (Trepart et Tmig plus ´elev´es). Il est donc n´ecessaire de r´ealiser un compromis suivant la valeur de α entre la qualit´e de la nouvelle partition et la rapidit´e de sa construction et mise en place. Si le besoin de repartitionnement est rare (α ´elev´e), il faut privil´egier la qualit´e de la partition avant celle de la migration. Mais pour les applications tr`es dynamiques qui n´ecessitent des repartitionnements fr´equents (α faible), il faut mieux privil´egier la migration devant la qualit´e de la partition qui se d´egradera de toute fa¸con rapidement. Concernant la migration, diff´erents crit`eres peuvent ˆetre optimis´es [44]. L’objectif le plus souvent optimis´e est le volume total des donn´ees migr´ees, appel´e volume total de migration. Mais il peut aussi ˆetre int´eressant de minimiser le volume de migration par processeur, ou encore le nombre de messages n´ecessaires `a la migration d’un point de vue global ou par processeur. Les communications de migration peuvent ˆetre mod´elis´ees par une matrice que nous appellerons matrice de migration dans laquelle chaque ´el´ement repr´esente le volume de donn´ees d’un message. Chaque ligne est associ´ee `a un processeur (et `a son ancienne partie) et chaque colonne est associ´ee `a une nouvelle partie. L’´el´ement (i, j) repr´esente le volume de donn´ees que le processeur i enverra au processeur associ´e `a la nouvelle partie j. La figure 2.7 pr´esente deux exemples de repartitionnement. La partition initiale sur la fi- gure 2.7a est d´es´equilibr´ee : la partie 1 poss`ede quatre sommets alors que la partie 3 n’en a que deux. Les figures 2.7b et 2.7c pr´esentent deux nouvelles partitions et les matrices de migrations associ´ees. Les sommets migrants (en rouge) correspondent aux ´el´ements hors diagonale alors que les sommets ne migrant pas correspondent aux ´el´ements de la diagonale (les messages qu’une partie « s’envoie » `a elle-mˆeme). Par exemple, sur la figure 2.7c, la nouvelle partie 4 contient deux sommets de l’ancienne partie 4 et un de l’ancienne partie 1 : la quatri`eme colonne de la matrice contient donc un 1 sur la premi`ere ligne et un 2 sur la quatri`eme. 2.3.2 M´ethodes de repartitionnement de graphe Pour ´equilibrer la charge, il existe diff´erentes approches bas´ees sur le repartitionnement de graphe dont les plus courantes sont le Scratch-Remap, les m´ethodes diffusives et le partitionnement biais´e. Il existe d’autres approches bas´ees des m´ethodes g´eom´etriques (bissections r´ecursives ou SFC [52]) ou encore des m´ethodes spectrales modifi´ees pour prendre en compte la migration [23]. Nous allors maintenant pr´esenter les trois approches les plus courantes. a) Scratch-Remap La m´ethode la plus simple et la plus ´evidente est le « Scratch-Remap ». Cette m´ethode se d´ecompose en deux ´etapes. Dans un premier un temps, le graphe est partitionn´e « from scratch », c’est-`a-dire sans prendre en compte l’ancienne partition. Ensuite les parties obtenues sont renum´erot´ees pour optimiser la migration.2.3. REPARTITIONNEMENT POUR L’EQUILIBRAGE DYNAMIQUE ´ 15 Calcul Calcul Calcul Calcul Calcul Calcul Calcul Calcul Communications Calcul Calcul Calcul Calcul Calcul Calcul Calcul Calcul Communications Calcul Calcul Calcul Calcul Calcul Calcul Calcul Calcul Communications Repartitionnement Migration Calcul Calcul Calcul Calcul Calcul Calcul Calcul Calcul Communications Calcul Calcul Calcul Calcul Calcul Calcul Calcul Calcul Communications Calcul Calcul Calcul Calcul Calcul Calcul Calcul Calcul Communications Repartitionnement Migration Figure 2.6 – Etapes d’un code se r´e´equilibrant toutes les ´ α = 3 it´erations.16 CHAPITRE 2. ETAT DE L’ART ´ 1 2 3 4 (a) Partition initiale d´es´equilibr´ee en 4 parties. 4 3 1 2     1 0 0 3 0 0 3 0 0 2 0 0 2 1 0 0     (b) Partition en 4 parties avec une mauvaise correspondance des parties. 1 2 4 3     3 0 0 1 0 3 0 0 0 0 2 0 0 0 1 2     (c) Mˆeme partition que pr´ec´edemment mais avec une bonne correspondance. Figure 2.7 – Exemples de repartitionnement. Les sommets migrants sont dessin´es en rouge. La figure 2.7 pr´esente deux exemples de repartitionnement produisant la mˆeme nouvelle partition, mais avec une num´erotation diff´erente des nouvelles parties. Un repartitionnement « from scratch » peut tout `a fait donner la partition de la figure 2.7b o`u tous les sommets sauf un sont migr´es, alors qu’en renum´erotant les nouvelles parties par rapport `a l’ancienne partition comme sur la figure 2.7c, seulement deux sommets doivent ˆetre migr´es. Dans PLUM, Oliker et Biswas [45] proposent une heuristique gloutonne pour r´esoudre le probl`eme d’association des nouvelles parties aux processeurs (remap). Cette heuristique est d´ecrite par l’algorithme 1. Il parcourt les ´el´ements Ci,j de la matrice de migration du plus grand au plus petit ´el´ement. La partie j est associ´ee au processeur i d`es que c’est possible, c’est-`a-dire si le processeur i est libre (free[i] est vrai) et si la partie j n’est pas d´ej`a associ´ee `a un processeur (unassigned[j] est vrai). L’algorithme se termine lorsque toutes les parties ont ´et´e affect´ees `a un processeur. Comme la m´ethode Scratch-Remap recalcule une partition sans prendre en compte la migration, celle-ci poss`ede g´en´eralement une bonne coupe car c’est le seul crit`ere optimis´e lors du partitionnement. En revanche, la migration n’est minimis´ee que dans un second temps et peut ˆetre tr`es sup´erieure `a l’optimal. Il est possible d’apporter quelques am´eliorations au Scratch-Remap. Pour obtenir un volume de migration plus faible, Oliker et Biswas [45] repartitionne en kM parties au lieu de M. Lors de la phase de remapping, k nouvelles parties sont associ´ees `a chaque processeur. Ce grain plus fin permet un volume de migration moindre mais une coupe un peu plus ´elev´ee. Schloegel et al. [58] proposent une autre variante du Scratch-Remap appel´ee LMSR (Locally Matched Scratch Remap) dans laquelle la phase de contraction du partitionnement multi-niveaux est contrainte pour ne fusionner que des sommets appartenant `a une mˆeme ancienne partie en esp´erant cr´eer une nouvelle partition avec des fronti`eres plus proches de l’ancienne partition. b) Diffusion Les m´ethodes diffusives s’inspirent du ph´enom`ene physique de diffusion de la chaleur pour r´e´equilibrer la charge. L’id´ee de base des m´ethodes diffusives est que chaque processeur ´echange2.3. REPARTITIONNEMENT POUR L’EQUILIBRAGE DYNAMIQUE ´ 17 Algorithme 1 R´eaffectation des nouvelles parties aux anciens processeurs (remap) Entr´ee : Matrice de migration C de taille M × M map : vecteur d’association des nouvelles parties unassigned : vecteur de bool´eens initialement vrais free : vecteur de bool´eens initialement vrais n ← M L ← liste tri´ee des Ci,j par ordre d´ecroissant tant que n > 0 faire Prendre et retirer le premier ´el´ement Ci,j de L si free[i] ∧ unassigned[j] alors map[j] ← i free[i] ← faux unassigned[j] ← faux n ← n − 1 fin si fin tant que retourner map des sommets avec ses voisins selon le d´es´equilibre de charge entre les deux parties. Ces ´echanges locaux de sommets `a la fronti`ere des parties concern´ees permettent de r´e´equilibrer la charge. Dans la version it´erative de cette m´ethode, un r´e´equilibrage partiel est r´ep´et´e `a chaque it´eration. Lors de ce r´e´equilibrage partiel, deux processeurs voisins ´echangent un nombre de sommets proportionnel `a leur diff´erence de charge. Cybenko [12] calcule la nouvelle charge w (t+1) i d’une partie i `a l’it´eration t + 1, `a l’aide la formule : w (t+1) i = w (t) i + X j αij (w (t) j − w (t) i ). (2.1) Les αij sont des coefficients positifs ou nuls et tels que ∀i,P j αij ≤ 1 (chaque partie ne peut pas donner plus de charge qu’elle n’en poss`ede), permettant de choisir si les parties i et j ´echangeront facilement des sommets. Cela permet de favoriser les ´echanges entre parties proches dans le graphe ou entre processeurs proches sur le r´eseau. Apr`es plusieurs it´erations, cette m´ethode tend `a homog´en´eiser la charge, conform´ement au principe de diffusion de la chaleur. Le r´e´equilibrage peut ´egalement ˆetre r´ealis´e directement en cherchant la solution finale du probl`eme de diffusion `a l’aide d’un solveur. Hu et Blake [26] montrent que chercher la solution optimisant la norme 2 de la migration (la racine carr´e de la somme des carr´es de la taille de chaque message) est ´equivalent au probl`eme de diffusion. La solution est calcul´ee `a l’aide de la m´ethode du gradient conjugu´e. Ou et Ranka [46] expriment le probl`eme sous forme d’un programme lin´eaire pour minimiser la norme 1 de la migration (la somme des tailles de chaque message). Ce programme est r´esolu `a l’aide de la m´ethode du simplexe [43]. Une fois que la charge `a ´echanger entre chaque processeur a ´et´e d´ecid´ee, il faut choisir quels seront les sommets `a migrer. Ce choix est fait de fa¸con `a optimiser la coupe de la partition finale et peut ˆetre r´ealis´e `a l’aide d’un algorithme de type FM. Comme les d´eplacements de sommets s’effectuent entre des pairs de parties, il est n´ecessaire de trouver un bon ordonnancement de ses migrations [58]. En effet un processeur peut avoir besoin de transmettre plus de sommets qu’il n’en poss`ede initialement et il a donc besoin de recevoir des sommets avant de pouvoir en envoyer.18 CHAPITRE 2. ETAT DE L’ART ´ 1 2 3 (a) Partition d´es´equilibr´ee. 0 0 1 1 2 3 (b) Echanges de sommets entre ´ parties. 1 2 3 (c) Partition finale r´e´equilibr´ee. Figure 2.8 – Exemple de diffusion. Un exemple de repartitionnement par diffusion est illustr´e sur la figure 2.8. Tous les sommets sont de poids unitaires. A partir de la partition initialement d´es´equilibr´ee (figure 2.8a) ` , on calcule la migration optimale (figure 2.8b). Il faut alors d´eplacer un sommet de la partie 3 vers la partie 2. Ce sommet est choisi de fa¸con `a obtenir la meilleure coupe possible et ainsi obtenir la partition finale ´equilibr´ee de la figure 2.8c. Les m´ethodes diffusives permettent d’obtenir de faibles volumes de migration. Mais les heuristiques locales utilis´ees se comportent mal si il y a de grandes variations de charge. c) Partitionnement biais´e Le partitionnement peut ˆetre biais´e pour optimiser la migration. Les heuristiques habituelles sont modifi´ees pour ne plus optimiser seulement la coupe mais un compromis entre la coupe et le volume total de migration. Au lieu de modifier les heuristiques, il est ´egalement possible de modifier le graphe `a partitionner pour biaiser le partitionnement. Plusieurs ´etudes [2, 8, 9] montrent qu’il est possible de mod´eliser le probl`eme de repartitionnement `a l’aide de sommets fixes. Le graphe `a partitionner est enrichi pour mod´eliser les objectifs du repartitionnement : la coupe des arˆetes ajout´ees repr´esente la migration des sommets. Cette m´ethode est utilis´ee par le partitionneur d’hypergraphe Zoltan [9] et le partitionneur de graphe RM-Metis [2]. Des sommets sont ajout´es dans ce graphe pour mod´eliser les processeurs. Les processeurs ne sont pas des calculs `a distribuer ; le poids de ces sommets est donc nul et ils sont fix´es dans la partie du processeur qu’il mod´elise, c’est-`a-dire que le partitionneur ne pourra pas les placer dans une autre partie. Ces sommets fixes sont ensuite connect´es `a tous les sommets contenus dans l’ancienne partie associ´ee au sommet fixe. Ces nouvelles arˆetes permettent de mod´eliser la migration et sont donc appel´ees arˆetes de migration. En effet, si un sommet est migr´e, l’arˆete le connectant au sommet fixe de son ancienne partie sera coup´ee, ajoutant ainsi un coˆut de migration dans la taille de la coupe de la nouvelle partition. Le poids de l’arˆete de migration permet donc de repr´esenter la taille des donn´ees `a migrer. Sur la figure 2.9, on peut voir un exemple de repartitionnement qui illustre cette m´ethode. La partition en 5 parties est initialement d´es´equilibr´ee ; 5 sommets fixes (carr´es) sont ajout´es et reli´es par des arˆetes de migration aux sommets de leur partie respective (figure 2.9a). Apr`es l’utilisation d’un partitionneur `a sommets fixes, une nouvelle partition ´equilibr´ee est obtenue (figure 2.9b). Les arˆetes de migration associ´ees aux sommets ayant migr´e sont coup´ees (en rouge). La plus2.3. REPARTITIONNEMENT POUR L’EQUILIBRAGE DYNAMIQUE ´ 19 (a) Graphe colori´e selon l’ancienne partition auquel les sommets fixes ont ´et´e ajout´es. (b) Graphe colori´e selon la nouvelle partition. Les arˆetes de migration coup´ees sont colori´ees en rouge. Figure 2.9 – Exemple de repartitionnement bas´e sur des sommets fixes.20 CHAPITRE 2. ETAT DE L’ART ´ grande partie des arˆetes n’est pas coup´ee (en vert). Le partitionneur a donc cr´e´e une nouvelle partition avec peu de migration (15 sommets migrent correspondant aux 15 arˆetes de migration coup´ees). Scotch [18,19] utilise une m´ethode de repartitionnement biais´e : sa m´ethode de raffinement par « diffusion » est modifi´ee dans le cas du repartitionnement. Pour prendre en compte la migration des sommets, une nouvelle source de « liquide » est ajout´ee pour chaque sommet l’incitant `a rester dans sa partie d’origine. Hendrikson et al. [23] proposent une autre approche du repartitionnement biais´e o`u chaque sommet u a un d´esir dk(u) d’ˆetre dans un partie k. Au lieu de minimiser le coˆut de migration, le but est de maximiser les d´esirs de chaque sommet (si p(u) est la partie de u, on maximise la somme P u dp(u)(u)). Deux approches sont pr´esent´ees : un raffinement de type FM modifi´e et une m´ethode de partitionnement spectrale prenant en compte les d´esirs des sommets. Le partitionnement biais´e permet un compromis entre qualit´e de la nouvelle partition et volume de migration grˆace `a un coˆut de migration introduit dans la coupe `a optimiser, par exemple, `a l’aide du poids des arˆetes de migration. Mais le repartitionnement est plus complexe car une nouvelle partition est compl`etement recalcul´ee avec des heuristiques modifi´ees. Le partitionnement biais´e peut ´egalement ˆetre hybride [57]. Dans le cadre d’un partitionnement multi-niveaux, le partitionnement initial est r´ealis´e `a l’aide d’une m´ethode Scratch-Remap ou diffusive, mais le raffinement appliqu´e lors de la phase d’expansion est biais´e pour optimiser la migration. 2.4 Positionnement Toutes les m´ethodes de repartitionnement pour l’´equilibrage dynamique pr´esent´ees ici ne s’int´eressent qu’au cas o`u le nombre de processeurs reste fixe. Le probl`eme de l’´equilibrage dynamique avec variation du nombre de processeurs est peu ´etudi´e. Iqbal et Carey [27,28] ont pourtant montr´e que faire varier le nombre de processeurs au cours de la simulation permet d’optimiser la consommation de ressources et mˆeme, dans certains cas, le temps d’ex´ecution. Bien choisir le nombre de processeurs allou´es `a une simulation est essentiel pour avoir une bonne performance ou efficacit´e. Si une simulation est lanc´ee en parall`ele sur un trop grand nombre de processeurs, le temps pass´e `a communiquer peut devenir trop important par rapport au temps de calcul. Utiliser le maximum de processeurs possible n’est pas toujours un bon choix suivant la taille du probl`eme. La taille du probl`eme pouvant varier au cours de la simulation, le nombre de processeurs devrait varier en cons´equence. Augmentation de la charge M = 4 N = 6 Figure 2.10 – Allocation dynamique de processeurs pour un seul code dont la charge augmente. Par exemple, un code AMR (Adaptive Mesh Refinement) commence sa simulation sur un maillage grossier contenant peu d’´el´ements. Puis, au cours de la simulation, le maillage est raf-2.4. POSITIONNEMENT 21 Augmentation de la charge relative A/B M + M' = 6 N + N' = 6 A B A B Figure 2.11 – Allocation dynamique de processeurs pour deux codes coupl´es A et B dont la charge relative de A par rapport `a B augmente. fin´e l`a o`u c’est n´ecessaire. La charge de calcul, initialement tr`es faible, croˆıt avec le temps. La simulation tr`es l´eg`ere au d´ebut finit par demander beaucoup de ressources, que ce soit en puissance de calcul ou en m´emoire. En commen¸cant le calcul sur tr`es peu de processeurs puis en l’augmentant quand la limite m´emoire est atteinte, il est possible de garder une meilleure efficacit´e tout le long de la simulation. Les surcoˆuts dus au parall´elisme inutile en d´ebut de simulation sont ´evit´es quand c’est possible. C’est la cas pr´esent´e sur la figure 2.10 : apr`es une augmentation significative de la charge, deux processeurs suppl´ementaires sont allou´es, et il faut donc effectuer un repartitionnement de 4 processeurs vers 6. L’allocation dynamique de processeurs peut aussi ˆetre utile dans le cas du couplage de codes. Dans un couplage de codes, plusieurs codes parall`eles s’ex´ecutent simultan´ement et doivent r´eguli`erement ´echanger des donn´ees. Cette phase d’´echange est synchronisante. Il est donc important que tous les codes concern´es progressent `a la mˆeme vitesse pour minimiser le temps d’attente lors de cette synchronisation. Le choix du nombre de processeurs utilis´es par chaque code doit ˆetre fait en prenant en compte les charges relatives de chacun. Cette ´equilibrage entre plusieurs codes peut ˆetre difficile, plus particuli`erement si la charge de ces codes peut varier dynamiquement. Pour r´e´equilibrer ces codes, une solution serait donc de r´eallouer des ressources d’un code vers un autre. Le nombre id´eal de processeurs allou´es `a chaque code peut donc ˆetre approch´e exp´erimentalement en corrigeant au cours de la simulation les d´es´equilibre qui surviendraient. Par exemple, sur la figure 2.11, le code A est devenu trop lent par rapport `a B, un processeur est donc r´eallou´e du code B vers le code A. Il faut repartitionner chacun des deux codes : de 3 processeurs vers 4 pour A, et de 3 vers 2 pour B. Pour r´ealiser ce changement du nombre de ressources, il est n´ecessaire de mettre en place une m´ethode repartitionnement prenant en compte le changement du nombre de parties. Nous appelons ce probl`eme, le repartitionnement M × N. Les objectifs du repartitionnement sont similaires `a ceux du repartitionnement classiques : — ´equilibrer la charge parmi les N processeurs ; — minimiser la coupe du graphe ; — calculer rapidement la nouvelle partition ; — minimiser la migration (diff´erentes m´etriques seront pr´esent´ees). Les outils de repartitionnement suivent d´ej`a ces objectifs mais ne sont pas pr´evus pour le changement du nombre de processeurs. La m´ethode de Scratch-Remap est facilement adaptable au repartitionnement M × N. Lors du partitionnement from scratch, l’ancienne partition, et donc l’ancien nombre de processeurs, n’a pas d’influence. L’algorithme de Remapping peut ˆetre facilement adapt´e en prenant en compte le fait que certaines parties ne seront pas associ´ees `a un ancien processeur (lors de l’ajout de processeurs), ou que des anciens processeurs ne recevront pas de nouvelles parties (lors de la suppression de processeurs).22 CHAPITRE 2. ETAT DE L’ART ´ Nous proposons donc une nouvelle m´ethode de repartitionnement adapt´ee au cas o`u le nombre de processeurs varie. La m´ethode propos´ee est pr´esent´ee sur la figure 2.12. Elle se d´ecompose en deux ´etapes. Dans un premier temps, nous cherchons `a construire des matrices de migrations adapt´ees `a ce probl`eme. Apr`es une ´etude de quelques matrices optimales, plusieurs m´ethodes seront pr´esent´ees dans le chapitre 3. La construction de la matrice de migration ne s’int´eresse pas aux sommets du graphe individuellement mais seulement aux parties, `a leurs tailles et `a leurs positions respectives. Ainsi, la construction de la matrice s’effectue `a partir du graphe quotient des parties. Ensuite, la matrice de migration construite est utilis´ee pour guider un repartitionnement du graphe remplissant les objectifs habituels du partitionnement de graphe : l’´equilibre et la coupe tout en fournissant une migration telle que pr´evue par la matrice construite `a l’´etape pr´ec´edente. Plusieurs approches sont possibles : un partitionnement biais´e utilisant des sommets fixes pour imposer une matrice de migration lors du repartitionnement ; une approche diffusive adapt´ee pour le repartitionnement M × N ; et un partitionnement biais´e utilisant des hyper-arˆetes pour optimiser les messages de migration sans utiliser de matrice de migration calcul´ee `a l’avance. Les m´ethodes de partitionnement biais´e mettent en ´evidence les limites des bissections r´ecursives utilis´ees dans les partitionneurs usuels. Un module de partitionnement k-aire utilisant une heuristique de greedy graph growing est ajout´ee dans le partitionneur Scotch pour am´eliorer la qualit´e de nos partitionnements.2.4. POSITIONNEMENT 23 Méthode d'appariement (Matching) Méthode de la chaîne (1D) Méthode gloutonne (Greedy) Méthode de partitionnement biaisé (Biased) Méthode diffusive (Diff) Hyper-arêtes de repartitionnement Matrice de migration Graphe quotient Nouvelle partition en N Graphe partitionné en M Construction de la matrice de migration M×N Repartitionnement M×N Programme linéaire (LP) Figure 2.12 – Vue d’ensemble de nos m´ethodes de repartitionnement M × N.24 CHAPITRE 2. ETAT DE L’ART ´Chapitre 3 Mod`ele de migration pour le repartitionnement M × N Sommaire 3.1 Notations et d´efinitions . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.1.1 G´en´eralit´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.1.2 D´efinitions pour le repartitionnement M × N . . . . . . . . . . . . . . 27 3.2 Matrices de migration optimales dans le cas ´equilibr´e . . . . . . . 28 3.3 Construction des matrices de migration . . . . . . . . . . . . . . . . 35 3.3.1 M´ethode bas´ee sur la chaˆıne (1D) . . . . . . . . . . . . . . . . . . . . . 35 3.3.2 M´ethode d’appariement (Matching) . . . . . . . . . . . . . . . . . . . 42 3.3.3 M´ethode gloutonne (Greedy) . . . . . . . . . . . . . . . . . . . . . . . 47 3.3.4 Programme lin´eaire (LP) . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.4 Evaluation des m´ethodes et conclusion . . . . . . . . . . . . . . . . 62 ´ La premi`ere ´etape de notre m´ethode de repartitionnement consiste `a construire une matrice de migration optimis´ee. Pour r´ealiser cela, il n’est pas n´ecessaire de disposer de toute l’information sur le graphe partitionn´e mais seulement du graphe quotient. Nous proposons plusieurs algorithmes permettant de construire des matrices de migration optimisant diff´erents crit`eres. Cette ´etape est r´esum´ee en figure 3.1. Dans un premier temps, nous ´enoncerons quelques d´efinitions g´en´erales sur le graphe et le partitionnement, puis des d´efinitions particuli`eres pour nos algorithmes de repartitionnement. Ensuite, nous ´etudierons plus en d´etails les matrices de migration dans le cas o`u l’ancienne partition est d´ej`a ´equilibr´ee. Enfin, nous d´ecrirons nos algorithmes de construction de matrice de migration, avant de conclure sur une comparaison de ces diff´erents m´ethodes. 3.1 Notations et d´efinitions Dans cette section, nous d´efinissons les notations et termes qui seront utilis´es dans cette th`ese. Nous rappelons d’abord les d´efinitions relatives au partitionnement, puis nous introduisons les nouvelles notations que nous utiliserons pour le repartitionnement M × N. 2526 CHAPITRE 3. MODELE DE MIGRATION ` Méthode d'appariement (Matching) Méthode de la chaîne (1D) Méthode gloutonne (Greedy) Matrice de migration Graphe quotient Graphe partitionné en M Construction de la matrice de migration M×N Programme linéaire (LP) Figure 3.1 – Vue d’ensemble de nos algorithmes de construction des matrices de migration. 3.1.1 G´en´eralit´es Soit G = (V, E), un graphe o`u V est l’ensemble des sommets et E l’ensemble des arˆetes. A` chaque sommet v est associ´e un poids wv repr´esentant la charge de calcul associ´e `a ce sommet. P Une arˆete e peut avoir un poids we repr´esentant le coˆut de la communication. On notera W = v∈V wv le poids total du graphe. D´efinition 1 (Partition). Une k-partition P de V est un ensemble de k sous-ensembles deux `a deux disjoints (Pi)i∈J1,kK de V tels que l’union de tous les sous-ensembles couvre V . D´efinition 2 (Poids d’une partie). Le poids d’une partie Pi not´e w(Pi) est la somme des poids des tous les sommets de la partie : w(Pi) = P v∈Pi wv. D´efinition 3 (Partition ´equilibr´ee). La k-partition P est dite ´equilibr´ee au facteur de d´es´equilibre ǫ ≥ 0 pr`es si ∀Pi ∈ P, w(Pi) ≤ (1 + ǫ) W k . En pratique, le facteur de d´es´equilibre souvent utilis´e est de l’ordre de quelques pour cent. Avec un facteur de 5 % (ǫ = 0, 05), une partie qui aurait une taille id´eale de 1000 ´el´ements, ne devra pas d´epasser 1050. D´efinition 4 (Coupe d’un graphe). On appelle taille de la coupe (ou par abus de langage, coupe) d’un graphe pour une partition donn´ee, le nombre d’arˆetes coup´ees ou la somme de leurs poids si elles sont pond´er´ees. Les arˆetes coup´ees sont les arˆetes dont les deux extr´emit´es sont dans des parties diff´erentes. D´efinition 5 (Graphe quotient). La graphe quotient Q = G/P d’un graphe G par rapport `a la partition P est obtenu `a partir de G en fusionnant les sommets appartenant `a une mˆeme partie de P. Les arˆetes devenues identiques apr`es la fusion des sommets sont ´egalement fusionn´ees et leurs poids sont additionn´es. Si les arˆetes n’´etaient pas pond´er´ees, le poids des arˆetes du graphe quotient est le nombre d’arˆetes fusionn´ees. Le graphe quotient Q = G/P poss`ede autant de sommets qu’il y a de parties dans P. Le poids de chaque sommet est le poids de la partie correspondante (la somme des poids des sommets de cette partie). Les sommets sont connect´es aux sommets correspondant aux parties voisines et le poids des arˆetes est la somme des poids des arˆetes coup´ees entre ces deux parties.3.1. NOTATIONS ET DEFINITIONS ´ 27 (a) Partition d’un graphe en 5 parties. 4 3 2 1 4 7 7 (b) Graphe quotient correspondant `a la partition. Figure 3.2 – Exemple de construction d’un graphe quotient pour une grille 10 × 10. La figure 3.2 montre la partition d’un graphe issu d’une grille 2D de taille 10 × 10 et le graphe quotient associ´e. La partition est en 5 parties et le graphe quotient poss`ede 5 sommets colori´es de la mˆeme couleur que la partie `a laquelle il est associ´e. La partition ´etant parfaitement ´equilibr´ee, le poids de chaque sommet est ´egal, et vaut 20. Le poids des arˆetes est plus variable : par exemple, l’arˆete entre le sommet jaunes et cyan a un poids 7, comme il y a 7 arˆetes dans le graphe partitionn´e connectant des sommets jaunes et cyan. 3.1.2 D´efinitions pour le repartitionnement M × N Dans le cas du repartitionnement, on distinguera deux partitions : la partition initiale P en M parties et une partition finale d´esir´ee P ′ en N parties. D´efinition 6 (Matrice de migration). On appelle matrice de migration, la matrice C de dimension M × N d´ecrivant les volumes de donn´ees `a migrer entre les diff´erents parties. L’´el´ement Ci,j correspond au nombre d’´el´ements en commun entre l’ancienne partie i et la nouvelle partie j. C’est aussi la quantit´e de donn´ees envoy´ee par le processeur i au processeur j si i 6= j ; si i = j, Ci,i est la quantit´e de donn´ees ne migrant pas, c’est-`a-dire restant « sur place ». Chaque ligne repr´esente une ancienne partie, donc la somme des ´el´ements sur cette ligne est ´egale `a sa taille. De la mˆeme fa¸con, une colonne repr´esente une nouvelle partie et la somme des ´el´ements de chaque colonne est ´egale `a sa taille. Pour ´evaluer la qualit´e des matrices de migration, nous d´efinissons plusieurs m´etriques : TotalV et MaxV sont d´ej`a introduits par Oliker et al. [45] ; nous y ajoutons deux nouvelles m´etriques TotalZ et MaxZ. Le volume total de migration, not´e TotalV, est la quantit´e de sommets qui migrent (ou la somme de leurs poids s’il sont pond´er´es). Cela correspond donc `a la somme des ´el´ements non-diagonaux de la matrice de migration. Le volume maximum par processeur, not´e MaxV, correspond `a la plus grande quantit´e de sommets (ou somme des poids) re¸cus et envoy´es par un mˆeme partie. Il correspond `a la plus grande somme sur une ligne et une colonne de mˆemes num´eros des ´el´ements hors diagonale de la matrice de migration.28 CHAPITRE 3. MODELE DE MIGRATION ` Le nombre total de messages n´ecessaires `a la migration, not´e TotalZ, correspond au nombre de non-z´eros hors diagonale. De la mˆeme fa¸con, on d´efinit le nombre maximal de messages (envoy´es et re¸cus) par processeur, not´e MaxZ. TotalZ vaut au plus M × N − min(M, N) dans le cas o`u tous les ´el´ements non-diagonaux de C sont non nuls. La figure 3.3 montre plusieurs cas de repartitionnement de la partition initiale de la figure 3.3a. Pour chaque repartitionnement, la matrice de migration et les diff´erentes m´etriques sont donn´ees. Les figures 3.3b et 3.3c montrent la mˆeme nouvelle partition mais avec une num´erotation diff´erente. Il est important de bien faire correspondre les anciennes et nouvelles parties pour avoir une faible migration. En effet, le volume total de migration TotalV est bien plus important dans le cas de la figure 3.3b. La figure 3.3d montre une partition diff´erente ayant une meilleure coupe mais une migration plus ´elev´ee. D´efinition 7 (Graphe biparti de migration). Le graphe biparti de migration est le graphe biparti G = ((A, B), E) o`u A est l’ensemble des M anciennes parties et B l’ensemble des N nouvelles parties. Il existe une arˆete dans E entre une ancienne et une nouvelle partie si elles partagent des sommets. Le poids de cette arˆete est la somme des poids des sommets partag´es. La matrice d’adjacence de ce graphe biparti est la matrice de migration C. Il existe une arˆete entre les sommets i et j si et seulement si Ci,j est non nul et si le poids de cette arˆete vaut Ci,j . Des exemples de graphes biparti de migration sont pr´esent´es sur la figure 3.3. Chaque arˆete du graphe repr´esente soit un message de migration, soit les donn´ees qui restent sur place lorsque l’arˆete relie une ancienne partie `a sa nouvelle partie associ´ee. D´efinition 8 (Hypergraphe de repartitionnement). L’hypergraphe de repartitionnement est l’hypergraphe comportant M sommets correspondant aux anciennes parties et N hyper-arˆetes correspondant aux nouvelles parties. Une hyper-arˆete contient tous les sommets correspondant aux anciennes parties avec lesquelles la nouvelle partie ´echange des sommets. Les hyper-arˆetes ne sont pas pond´er´ees. La matrice d’adjacence de cet hypergraphe est la matrice de migration sans prendre en compte les valeurs : on ne s’int´eresse qu’aux z´eros et non-z´eros. Le sommet v appartient `a l’hyper-arˆete e si et seulement si Cv,e est non nul. Chaque ligne de la matrice ou ancienne partie correspond `a un sommet de l’hypergraphe et chaque colonne ou nouvelle partie correspond `a une hyper-arˆete. Une hyper-arˆete contient tous les sommets dont l’´el´ement dans la matrice est non nul. Les hypergraphes de repartitionnement correspondant `a chaque matrice de migration sont donn´es dans la figure 3.3. La renum´erotation des parties entre les figures 3.3b et 3.3c ne change pas l’hypergraphe de repartitionnement mais seulement les num´eros des hyper-arˆetes. L’utilisation de ces graphes bipartis et hypergraphes permet de repr´esenter le sch´ema de communication utilis´e lors de la migration. Les hypergraphes de repartitionnement permettent une repr´esentation plus graphique des relations entre une ancienne et une nouvelle partition : c’est ce que l’on constate par exemple sur la figure 3.4 en le superposant avec le graphe quotient de l’ancienne partition. 3.2 Matrices de migration optimales dans le cas ´equilibr´e Dans un premier temps, nous allons ´etudier les matrices de migration dans le cas particulier o`u la partition initiale est d´ej`a parfaitement ´equilibr´ee. Plus pr´ecis´ement, on consid`ere que les partitions initiales et finales sont parfaitement ´equilibr´ees. Dans ce cas, W doit ˆetre un multiple commun de M et de N. On a donc W = k × ppcm(M, N) avec k un entier strictement positif.3.2. MATRICES DE MIGRATION OPTIMALES DANS LE CAS EQUILIBR ´ E´ 29 1 2 3 Coupe : 8 (a) Partition initiale d´es´equilibr´ee en 3 parties. 4 3 1 2 Coupe : 11 TotalV : 11 MaxV : 8 TotalZ : 4 MaxZ : 3   1 0 0 3 0 0 3 0 2 3 0 0   1 2 3 1 2 3 4 1 3 2 4 2 1 3 (b) Partition en 4 parties avec une mauvaise correspondance des parties. 1 2 4 3 Coupe : 11 TotalV : 3 MaxV : 3 TotalZ : 2 MaxZ : 2   3 0 0 1 0 3 0 0 0 0 3 2   1 2 3 1 2 3 4 1 3 2 1 3 4 2 (c) Mˆeme partition que pr´ec´edemment mais avec une bonne correspondance. 2 1 4 3 Coupe : 10 TotalV : 4 MaxV : 3 TotalZ : 3 MaxZ : 2   3 1 0 0 0 2 0 1 0 0 3 2   1 2 3 1 2 3 4 1 3 2 1 3 2 4 (d) Autre exemple de repartitionnement en 4 parties. Figure 3.3 – Exemples de repartitionnement avec les matrices de migration, graphes bipartis de migration, hypergraphes de repartitionnement et mesures associ´ees.30 CHAPITRE 3. MODELE DE MIGRATION ` 1 2 3 4 1 3 2 Figure 3.4 – Superposition de l’hypergraphe de repartitionnement de la figure 3.3c et du graphe quotient de la partition de la figure 3.3a. Pour simplifier notre discussion, on supposera que les poids des sommets sont unitaires. Ainsi le probl`eme de la partition du graphe est ´equivalent `a la partition de l’entier correspondant `a son poids. D´efinition 9 (Matrice de migration optimale). Nous appelons matrice de migration optimale, une matrice de migration C minimisant `a la fois le volume de total de migration (TotalV) et le nombre de messages (TotalZ). Lemme 1. Le volume total de migration optimal v´erifie : TotalVopt ≥ W  1 − min(M, N) max(M, N)  . D´emonstration. Il y a min(M, N) parties communes entre les partitions initiale et finale et |M − N| parties diff´erentes. Comme les partitions sont ´equilibr´ees, les tailles des parties initiales et finales sont respectivement W M et W N . Donc au plus, min(W M , W N ) = W max(M,N) donn´ees restent en place pour chaque partie commune. Le reste des donn´ees migre, donc TotalVopt ≥ W − min(M, N) × W max(M,N) = W × (1 − min(M,N) max(M,N) ). Lemme 2. Une matrice de migration minimisant le nombre de messages poss`ede au moins M + N − pgcd(M, N) coefficients non nuls. Le nombre minimal de messages v´erifie : TotalZopt ≥ max(M, N) − pgcd(M, N). D´emonstration. Le volume total de donn´ees est W = k × ppcm(M, N) = kaM = kbN avec a et b deux entiers strictement positifs premiers entre eux. Chaque partie poss`ede initialement ka sommets et finalement kb sommets. Soit G = ((A, B), E) le graphe biparti de migration. Pour d´enombrer les ´el´ements non nuls dans la matrice de migration, il suffit de compter le nombre d’arˆetes dans le graphe biparti de migration. On note (Gi = ((Ai , Bi), Ei))i∈J1,KK , les K composantes connexes de G. Pour chaque composante Gi , Mi = |Ai | processeurs envoient Mika sommets `a Ni = |Bi | processeurs qui re¸coivent Nikb sommets. Dans Gi , on a donc Wi = Mika = Nikb sommets qui sont ´echang´es, avec Mi et Ni non nuls. Comme Wi est un multiple commun de ka et kb et comme a et b sont premiers entre eux, le plus petit multiple commun de ka et kb est kab. Donc Wi ≥ kab. Le volume total ´echang´e W = PK i=1 Wi est donc sup´erieur ou ´egal `a Kkab. Autrement dit, K ≤ W kab = M b .3.2. MATRICES DE MIGRATION OPTIMALES DANS LE CAS EQUILIBR ´ E´ 31 D’autre part, on sait que MN = pgcd(M, N) × ppcm(M, N) et ppcm(M, N) = bN. On a donc M b = pgcd(M, N). On obtient alors K ≤ pgcd(M, N). Comme Gi est un graphe connexe, il poss`ede au moins Mi + Ni − 1 arˆetes. Donc le nombre total d’arˆetes |E| = PK i=1 |Ei | est au moins PK i=1 Mi + PK i=1 Ni − K = M + N − K. Comme K ≤ pgcd(M, N), on obtient |E| ≥ M + N − pgcd(M, N). Le nombre de coefficients non nuls dans la matrice de migration est donc au moins M + N − pgcd(M, N). TotalZ est le nombre de coefficients non nuls hors de la diagonale. Il y a au plus min(M, N) coefficients non nuls sur la diagonale. Donc TotalZ ≥ M + N − pgcd(M, N) − min(M, N) = max(M, N) − pgcd(M, N). B A×B 1 2 3 4 5 6 7 1 2 3 4 5 6 7 8 9 10 A 8 11 12 ka kb kab Figure 3.5 – Partitionnement d’un graphe chaˆıne en 8 et 12 parties, le motif de l’intersection A × B permet de construire la matrice de migration « en escalier ». Il existe diff´erentes m´ethodes pour obtenir de telles matrices avec un nombre minimal d’´el´ements non nuls. Une premi`ere m´ethode s’inspire du partitionnement d’un graphe « chaˆıne » ou d’un tableau, comme pr´esent´e sur la figure 3.5. Pour compter le nombre de messages, il faut compter le nombre d’arˆetes du graphe biparti. En reprenant les notations de la d´emonstration du lemme 2, la taille des parties de A est ka et celle des parties de B est kb. Tous les ppcm(ka, kb) = kab sommets, les s´eparateurs des anciennes parties et des nouvelles parties sont juxtapos´es. Le graphe biparti de migration est coup´e en sous-graphes (composantes connexes), chacun avec b anciennes parties de taille ka et a nouvelles parties de taille kb. Ce motif de longueur kab est donc r´ep´et´e W kab = M b = N a = pgcd(M, N) fois. Chacun de ces sous-graphes contient b + a − 1 arˆetes. Le nombre total d’arˆetes est donc (b + a − 1) × pgcd(M, N) = M + N − pgcd(M, N). Sur l’exemple de la figure 3.5, on a ppcm(8, 12) = 24 donc a = 3 et b = 2. Chacune des pgcd(8, 12) = 4 composantes connexes contient 3 + 2 − 1 = 4 arˆetes. Le graphe biparti contient 16 arˆetes. Cette construction donne une matrice « en escalier » comme montr´e sur la figure 3.7a. Il est ´egalement possible de construire une telle matrice r´ecursivement. On remplit la matrice avec des blocs qui sont des matrices carr´ees diagonales de taille min(M, N), et le bloc restant est rempli en r´ep´etant la mˆeme m´ethode sur le nouveau sous-probl`eme. Pour que la matrice soit une matrice de migration, il faut que les sommes sur les lignes ou colonnes soient respectivement les tailles des anciennes et nouvelles parties. Les valeurs diagonales sont donc W max(M,N) . La figure 3.6 donne un exemple de telle construction dans le cas 7 × 10 avec W = 7 × 10 en trois ´etapes. Calculer le nombre de non-z´eros avec cette m´ethode, revient `a appliquer l’algorithme d’Euclide. La division euclidienne de M par N donne M = qN + r : on commence `a remplir q blocs carr´es de taille N × N et on recommence r´ecursivement sur le bloc restant de taille r × N32 CHAPITRE 3. MODELE DE MIGRATION ` avec r < N. L’algorithme d’Euclide donne une suite d’´equations : M = q2N + r2 (3.1) . . . (3.2) ri−2 = qiri−1 + ri (3.3) . . . (3.4) rn−3 = qn−1rn−2 + rn−1 (3.5) rn−2 = qnrn−1 (3.6) avec r0 = M, r1 = N et rn−1 = pgcd(M, N). A chaque ´etape de l’algorithme, ` qiri−1 ´el´ements non nuls sont ajout´es dans la matrice : ce sont les ´el´ements diagonaux des qi blocs carr´es. Le nombre total d’´el´ements non nuls est donc Pn i=2 qiri−1. En faisant la somme de toutes les ´equations pr´ec´edentes, on obtient : nX−2 i=0 ri = Xn i=2 qiri−1 + Xn i=2 ri (3.7) Xn i=2 qiri−1 = r0 + r1 − rn−1 − rn (3.8) Xn i=2 qiri−1 = M + N − pgcd(M, N). (3.9) D’apr`es l’´equation 3.9, cette m´ethode construit bien une matrice avec un nombre minimal de non-z´eros. La figure 3.7d pr´esente un exemple d’une telle matrice. Th´eor`eme 3. Les bornes inf´erieures donn´ees dans les lemmes 1 et 2 sont atteintes. C’est-`a-dire : TotalVopt = W  1 − min(M, N) max(M, N)  (3.10) TotalZopt = max(M, N) − pgcd(M, N). (3.11) D´emonstration. La m´ethode de construction bas´ee sur l’algorithme d’Euclide construit une matrice de migration avec M + N − pgcd(M, N) coefficients non nuls. Les min(M, N) ´el´ements sur la diagonale sont maximis´es et valent W max(M,N) . On a donc TotalV = W  1 − min(M,N) max(M,N)  et TotalZ = max(M, N) − pgcd(M, N). Proposition 4. Soient M et N deux entiers tels que M < N. Soient D une matrice diagonale de dimension M × M dont les ´el´ements diagonaux sont W N et A une matrice de migration de dimension M × (N − M) minimisant le nombre de messages. Alors, la matrice D A est une matrice de migration optimale au sens de la d´efinition 9. De mˆeme, dans le cas o`u M > N, si D est de taille N × N avec des ´el´ements diagonaux valant W M et si A est de taille (M − N) × N, alors  D A  est une matrice de migration optimale. D´emonstration. La d´emonstration est faite dans le cas M < N. La d´emonstration du cas M > N est similaire. La quantit´e de donn´ees qui reste sur place correspond `a la premi`ere diagonale de la matrice, soit D. Donc, on a W M N donn´ees qui restent sur place, ce qui est bien le cas optimal.3.2. MATRICES DE MIGRATION OPTIMALES DANS LE CAS EQUILIBR ´ E´ 33   7 7 7 7 reste 7 7 7   10 = 1 × 7 + 3   7 3 7 3 7 3 7 3 7 3 7 3 7 reste   7 = 2 × 3 + 1   7 3 7 3 7 3 7 3 7 3 7 3 7 1 1 1   3 = 3 × 1 + 0 Figure 3.6 – Exemple de construction r´ecursive (avec les divisions euclidiennes associ´ees `a chaque ´etape) d’une matrice de migration avec un nombre minimal de communications. D contient M ´el´ements non nuls et A contient par hypoth`ese un nombre minimal d’´el´ements non nuls pour sa taille : M + (N − M) − pgcd(M, N − M) = N − pgcd(M, N). Le nombre total d’´el´ements non nuls est donc M + N − pgcd(M, N) qui est bien le nombre minimal. La matrice D A remplit bien les deux crit`eres pour ˆetre optimale. La figure 3.7 pr´esente quelques exemples de matrices de migration. La matrice de la figure 3.7a a ´et´e obtenue par la m´ethode inspir´ee du repartitionnement d’une chaˆıne qui donne une forme en escalier. Le nombre de messages est optimal mais pas le volume de migration. Seules 12 donn´ees restent sur place (les nombres en rouges) contre W M × N  = 49 dans le cas d’une migration optimale. Le volume de migration peut ˆetre am´elior´e `a l’aide d’une simple renum´erotation des parties similaires au « remapping » de la m´ethode Scratch-Remap (cf. section 2.3). La matrice obtenue est pr´esent´ee sur le figure 3.7b, 45 donn´ees restent alors sur place, ce qui est tr`es proche de l’optimal. D’apr`es le th´eor`eme pr´ec´edent, il nous suffit de combiner une matrice diagonale et une matrice minimisant le nombre de message pour obtenir une matrice optimale. La figure 3.7c montre la combinaison d’une matrice diagonale et d’une matrice en escalier. Dans le cas de la figure 3.7d, on construit r´ecursivement une matrice optimale `a l’aide de matrices diagonales en se basant sur l’algorithme d’Euclide. Bien que ces deux matrices soient optimales pour les m´etriques d´esir´ees (TotalV et TotalZ), la matrice construite `a partir de la matrice en escalier donne un nombre de messages par processeur (MaxZ) plus faible que la m´ethode r´ecursive. En pratique, les partitions ne sont pas parfaitement ´equilibr´ees car cela n’est pas n´ecessaire : on se contente d’une partition `a peu pr`es ´equilibr´ee `a un facteur de d´es´equilibre pr`es. Cette ´equilibre parfait peut mˆeme ˆetre impossible lorsque W n’est pas divisible par M ou N ou que le34 CHAPITRE 3. MODELE DE MIGRATION `   7 3 4 6 1 7 2 5 5 2 7 1 6 4 3 7   1 2 3 4 7 5 6 a b c d e f g h i j (a) Matrice « en escalier ».   7 3 6 4 1 7 2 5 5 7 1 2 6 4 7 3   1 2 3 4 7 5 6 a h b c d i e f j g (b) Matrice « en escalier » avec permutation des colonnes pour minimiser TotalV.   7 3 7 3 7 1 2 7 3 7 2 1 7 3 7 3   1 2 3 4 5 6 7 a b c d e f g h i j (c) Matrice optimale utilisant une sousmatrice en escalier.   7 3 7 3 7 3 7 3 7 3 7 3 7 1 1 1   1 2 4 3 5 6 7 a b c d e f g h i j (d) Exemple de matrice optimale construite par ajout de blocs diagonaux r´ecursivement. Figure 3.7 – Exemples de matrices de migration pour le cas 7 × 10 et leurs repr´esentations en hypergraphe de repartitionnement. Les ´el´ements nuls ne sont pas montr´es. Les lignes num´erot´ees de 1 `a 7 correspondent aux sommets et les colonnes num´erot´ees de a `a j correspondent aux hyper-arˆetes. Les ´el´ements en rouge montrent les donn´ees qui restent en place. Les ´el´ements en noir sont ceux qui migrent, la somme de ces ´el´ements donne le volume de migration.3.3. CONSTRUCTION DES MATRICES DE MIGRATION 35 poids des sommets de permet pas un d´ecoupage en parties rigoureusement ´egales. Les r´esultats pr´esent´es dans cette section sur le nombre de messages restent vrais pour des d´es´equilibres faibles. En effet, il est possible de profiter de la tol´erance au d´es´equilibre des nouvelles parties pour mieux s’adapter aux anciennes parties l´eg`erement d´es´equilibr´ees et ´economiser des messages. Le volume de migration optimal reste proche. Dans le cas o`u la partition initiale est fortement d´es´equilibr´ee, il est difficile de donner des valeurs optimales pour tous les cas. Il est toujours possible d’effectuer la migration en max(M, N)−1 messages (le nombre minimal d’arˆetes d’un graphe biparti connexe ´etant M + N − 1), mais ce nombre n’est pas toujours minimal. 3.3 Construction des matrices de migration 3.3.1 M´ethode bas´ee sur la chaˆıne (1D) a) Cas ´equilibr´e Dans le cas d’une partition initiale ´equilibr´ee, la m´ethode la plus simple pour construire une matrice de migration permettant `a la fois une bonne migration (m´etriques TotalV, MaxV, TotalZ et MaxZ) et une bonne coupe, consiste `a r´eutiliser le principe du partitionnement de la chaˆıne pr´esent´ee dans la section 3.2. De telles matrices de migration peuvent ˆetre obtenues `a l’aide d’un repartitionnement bas´e sur des courbes de remplissage ou space filling curve (SFC) [52,54]. Ce repartitionnement g´eom´etrique construit une courbe remplissant l’espace `a partitionner, comme par exemple `a l’aide d’une courbe de Hilbert [54] (cf. figure 3.8). On peut facilement obtenir une partition en M parties en coupant cette courbe en M sections ´egales. Si on construit une nouvelle partition en N parties en utilisant la mˆeme courbe de remplissage, on obtient un repartitionnement bas´e sur la chaˆıne (la chaˆıne ´etant la courbe de remplissage). Cette m´ethode a l’inconv´enient de n´ecessiter des informations g´eom´etriques sur les donn´ees `a partitionner et donne une coupe assez ´elev´ee `a cause de la nature fractale des courbes utilis´ees. Pour appliquer le principe du partitionnement de la chaˆıne sur un graphe quelconque, il suffit de trouver un chemin dans le graphe quotient. L’utilisation du graphe quotient au lieu du graphe `a partitionner permet de laisser `a une heuristique de partitionnement classique le choix de la distribution des sommets. Ainsi, le probl`eme de coupe des courbes de remplissage est r´egl´e tout en gardant le mˆeme sch´ema de communication. Le chemin de M sommets dans le graphe quotient est alors d´ecoup´e en N nouvelles parties, un sommet (correspondant `a une ancienne partie) pouvant ˆetre partag´e entre plusieurs nouvelles parties. Le choix de ce chemin influence directement la coupe de la partition finale. En effet, comme une nouvelle partie peut prendre des sommets de plusieurs anciennes parties cons´ecutives dans ce chemin, il est pr´ef´erable que ces parties soient bien connect´ees entre elles. Il faudra donc trouver un chemin dont les arˆetes ont des poids ´elev´es dans le graphe quotient. Pour optimiser la migration, une renum´erotation des nouvelles parties est n´ecessaire, car en num´erotant les parties dans l’ordre du chemin, les num´eros sont d´ecal´es par rapport `a la partition initiale comme on peut le voir sur la figure 3.9. L’utilisation d’un chemin peut aussi ˆetre vue comme une renum´erotation des anciennes parties apr`es laquelle on applique le repartitionnement de la chaˆıne sur le nouvel ordre des parties. Donc, deux renum´erotations sont en fait n´ecessaires : l’une permutant les anciennes parties (ou lignes de la matrice de migration) en fonction du chemin, l’autre permutant les nouvelles parties (ou colonnes de la matrice de migration) pour optimiser la migration.36 CHAPITRE 3. MODELE DE MIGRATION ` (a) Partitionnement en 3. (b) Partitionnement en 5.   13 8 5 12 5 8 13   (c) Matrice de migration. Figure 3.8 – Partitionnement et repartitionnemnent d’une grille 8 × 8 bas´es sur une courbe de remplissage de Hilbert. B 1 2 3 4 5 6 7 1 2 3 4 5 6 7 8 9 10 A 8 11 12 (a) Num´erotation des nouvelles parties dans l’ordre du chemin. B 1 2 3 4 5 6 7 1 9 2 3 10 4 5 11 6 7 A 8 12 8 (b) Renum´erotation pour optimiser la migration. Figure 3.9 – Exemple de num´erotations des nouvelles parties. Les arˆetes en pointill´es correspondent aux « communications » d’un processeur vers lui-mˆeme. Les donn´ees qui ne migrent pas sont en gris clair.3.3. CONSTRUCTION DES MATRICES DE MIGRATION 37 Nœud courant Partie suivante Partie précédente Figure 3.10 – Exemple d’´etape de l’algorithme de recherche de chemin `a partir de l’arbre des bissections. La zone verte contient les nœuds dont l’ordre est d´ej`a fix´e, la zone rouge ceux dont on ne connait pas encore l’ordre. Le choix de l’ordre est `a faire entre les deux sommets de la zone bleue claire. La recherche d’un tel chemin dans le graphe quotient est un probl`eme analogue `a celui du voyageur de commerce, qui est NP-complet [20, TRAVELING SALESMAN]. Il existe de nombreuses m´ethodes pour obtenir des chemins non optimaux mais assez proches de l’optimal, comme par exemple des algorithmes probabilistes. Mais certains « bons » chemins peuvent cr´eer des probl`emes dans le cas d’un partitionnement par bissections r´ecursives. En effet, une bissection devra couper ce chemin en deux en mˆeme temps que le graphe. La bissection du chemin est forc´ee par la num´erotation des nouvelles parties : elle s´epare les plus petits num´eros des plus grands. Une bissection du chemin par le milieu doit donc laisser la possibilit´e d’une bonne bissection du graphe. Dans le cas o`u la partition initiale a ´et´e r´ealis´ee par un partitionneur utilisant des bissections r´ecursives, l’arbre des bissections peut ˆetre utilis´e pour trouver rapidement un chemin. Les parties issues d’une bissection r´ecursive sont num´erot´ees dans l’ordre des feuilles. Les nœuds internes repr´esentent l’union des parties dans le sous-arbre. A l’aide d’un parcours en largeur de l’arbre, ` chaque nœud interne est visit´e. L’ordre de ses deux fils est choisi de fa¸con `a maximiser les connexions avec les parties (ou unions de parties) pr´ec´edentes et suivantes. Comme tout l’arbre n’a pas encore ´et´e visit´e, l’ordre de toutes les parties n’a pas encore ´et´e d´ecid´e. On prend donc la partie pr´ec´edente au mˆeme niveau dans l’arbre et la partie suivante au niveau sup´erieur comme indiqu´e sur la figure 3.10. La figure 3.12 pr´esente un exemple d’ex´ecution de cet algorithme sur le graphe quotient de la figure 3.11. L’arbre initial est celui de la figure 3.12a. Au niveau de la racine, il n’y a pas de choix `a faire car il n’y a ni partie pr´ec´edente ni suivante. Le premier choix arrive avec le nœud unissant 0 et 1. La partie suivante est 2–4 dont la connexion avec 0 est 39 + 14 = 53 et celle avec 1 est 17 + 34 = 51. La partie 0 est donc plac´ee en second comme indiqu´e sur la figure 3.12b. Sur la figure 3.12c, les connexions des parties 2 et 3–4 avec la partie pr´ec´edente 0 sont compar´ees. Enfin, les connexions des parties 3 et 4 avec les parties pr´ec´edente 0 et suivante 2 sont compar´ees, et l’ordre est conserv´e (figure 3.12d). En pratique, pour am´eliorer la qualit´e du chemin en gardant un algorithme rapide, toutes les solutions possibles sont recherch´ees quand on arrive sur un sous-arbre suffisamment petit. Une fois la nouvelle partition obtenue, il faut renum´eroter les parties pour optimiser la migration comme montr´e sur la figure 3.9. De la mˆeme fa¸con que le Scratch-Remap, il faut chercher la meilleure association entre anciennes et nouvelles parties. Mais dans le cas du partitionnement38 CHAPITRE 3. MODELE DE MIGRATION ` 39 39 14 34 17 62 65 0 1 2 3 4 Figure 3.11 – Exemple de partition initiale en 5 partie et du graphe quotient associ´e. de la chaˆıne, le choix est plus simple : — si M < N, pour chaque ancienne partie, on choisit la nouvelle partie qui re¸coit le plus de donn´ees ; — si M > N, pour chaque nouvelle partie, on choisit l’ancienne partie qui lui en envoie le plus. Les nouvelles parties qui ne sont pas associ´ees `a une ancienne prennent alors de nouveaux num´eros qui n’existaient pas dans l’ancienne partition : ce sont les N − M plus grands. On peut v´erifier par l’absurde que ces choix sont possibles dans le cas M < N. Cette m´ethode de renum´erotation poserait probl`eme si et seulement si une mˆeme nouvelle partie est le meilleur choix pour deux anciennes. Si une ancienne partie partage des donn´ees avec trois ou plus nouvelles parties, une de ces nouvelles parties ne re¸coit des donn´ees que de cette ancienne partie et ne serait le meilleur choix que pour celle-ci. Ces deux anciennes parties n’ont donc chacune des donn´ees partag´ees qu’avec deux nouvelles : les nouvelles parties ´etant plus petites, il y en a au moins deux. La nouvelle partie qui serait le meilleur choix pour les deux anciennes doit donc recevoir plus de la moiti´e des donn´ees de chacune des deux anciennes parties. Elle serait donc plus grande que les anciennes, ce qui est en contradiction avec l’hypoth`ese M < N. On peut faire un raisonnement similaire dans le cas M > N, en inversant les rˆoles des anciennes et nouvelles parties. b) Illustration dans le cas ´equilibr´e La figure 3.13 pr´esente un exemple de repartitionnement dans le cas o`u il y a 5 parties initiales ´equilibr´ees (1400 ´el´ements chacune) et 7 parties finales qui doivent contenir 1000 ´el´ements chacune pour ˆetre ´equilibr´ees. On commence par construire une matrice correspondant au repartitionnement de la chaˆıne comme pr´esent´e dans la section 3.2 (matrice en escalier) :   1000 400 0 0 0 0 0 0 600 800 0 0 0 0 0 0 200 1000 200 0 0 0 0 0 0 800 600 0 0 0 0 0 0 400 1000  3.3. CONSTRUCTION DES MATRICES DE MIGRATION 39 0–4 0–1 2–4 0 1 2 3–4 3 4 (a) Arbre de bissections initial. 0–4 0–1 2–4 1 0 2 3–4 3 4 (b) Permutation de 0 et 1. 0–4 0–1 2–4 1 0 3–4 3 4 2 (c) Permutation de 2 et 3–4. 0–4 0–1 2–4 1 0 3–4 3 4 2 (d) L’ordre entre 3 et 4 est pr´eserv´e. Figure 3.12 – Exemple de recherche de chemin par permutation de l’arbre des bissections. Ensuite, un chemin est recherch´e dans le graphe, maximisant la connexion entre les sommets successifs (les anciennes parties). Ici, le chemin choisi est 1, 0, 3, 4 et 2. Les lignes de la matrice sont permut´ees en cons´equence. Enfin, il faut renum´eroter les nouvelles parties pour minimiser le volume de migration. On choisit les nouvelles parties recevant le plus d’´el´ements des anciennes parties. Les nouvelles parties correspondant aux anciennes 1, 0, 3, 4 et 2, sont respectivement 0, 2, 3, 4 et 6. Renum´eroter les nouvelles parties revient `a permuter les colonnes de la matrice de migration. Les nouvelles parties non associ´ees aux anciennes (1 et 5) prennent de nouveaux num´eros, ici 5 et 6. Les colonnes sont permut´ees en cons´equence, les colonnes suppl´ementaires (5 et 6) peuvent ˆetre dans un ordre quelconque. La figure 3.14 pr´esente les hypergraphes de repartitionnement dans trois cas de repartitionnement. Dans les cas ou les nombres de parties initial et final ne sont pas premiers entre eux (8×12 et 12×14), les chemins sont coup´es en plusieurs parties : ce sont les composantes connexes utilis´ees dans la d´emonstration du lemme 2. On remarque ´egalement que les hyper-arˆetes sont de petites tailles et regroupent des anciennes parties voisines comme on le souhaitait. c) G´en´eralisation au cas d´es´equilibr´e Cette m´ethode peut ˆetre facilement adapt´ee dans le cas o`u la partition initiale est d´es´equilibr´ee. Il faut d’abord trouver un chemin dans le graphe quotient. Ensuite, connaissant cet ordre des parties, il suffit de le red´ecouper en parties de tailles ´egales. Dans le cas d´es´equilibr´e, toutes40 CHAPITRE 3. MODELE DE MIGRATION ` 39 39 14 34 17 62 65   800 0 0 0 0 0 600 0 1000 0 0 0 0 400 0 0 1000 0 0 400 0 200 0 0 1000 200 0 0 0 0 0 0 800 600 0   TotalV = 2400 MaxV = 1000 TotalZ = 6 MaxZ = 2 Figure 3.13 – Exemple de repartitionnement bas´e sur la chaˆıne dans le cas 5×7 (cas ´equilibr´e). 52 22 49 5 26 47 6 50 51 8 24 22 51 (a) Hypergraphe de repartitionnement dans le cas 8 × 12. 26 21 17 32 26 23 30 12 28 27 40 30 3 9 29 19 22 21 25 21 17 29 29 (b) Hypergraphe de repartitionnement dans le cas 12 × 14. 27 20 24 4 23 4 5 30 23 21 5 25 21 25 8 21 21 4 25 29 26 10 24 8 26 23 20 28 4 23 23 24 23 (c) Hypergraphe de repartitionnement dans le cas 16 × 21. Figure 3.14 – Applications du repartitionnement bas´e sur la chaˆıne dans le cas ´equilibr´e.3.3. CONSTRUCTION DES MATRICES DE MIGRATION 41 900 500 1500 1700 2400 1000 1 0 3 4 2 1 0 3 4 6 2 5 39 39 14 34 17 62 65   400 100 0 0 0 0 0 0 900 0 0 0 0 0 0 0 1000 0 0 1000 400 600 0 0 900 0 0 0 0 0 0 100 1000 0 600   TotalV = 2800 MaxV = 1400 TotalZ = 6 MaxZ = 2 Figure 3.15 – Exemple de repartitionnement bas´e sur la chaˆıne dans le cas 5×7 (cas d´es´equilibr´e). les parties ne se valent pas. La forme de l’hypergraphe de repartitionnement utilis´e peut varier suivant l’ordre choisi. Par exemple, consid´erons le cas 5 × 7 o`u les parties sont initialement d´es´equilibr´ees avec comme poids dans l’ordre de 0 `a 4 : 500, 900, 2400, 1500 et 1700. En reprenant le mˆeme chemin 1 que dans le cas ´equilibr´e (figure 3.12), l’ordre des poids devient 900, 500, 1500, 1700 et 2400, et on obtient le repartitionnement pr´esent´e sur la figure 3.15. La figure 3.16 pr´esente alors les hypergraphes de repartitionnement obtenus avec la m´ethode de la chaˆıne dans le cas d´es´equilibr´e. Contrairement au cas ´equilibr´e, il n’est plus garanti que certaines s´eparations entre parties soient communes entre l’ancienne partition et la nouvelle. Le nombre de messages peut donc atteindre, au pire, M+N −1 messages. On peut voir que les hyperarˆetes forment les mˆemes chemins que ceux de la figure 3.14 mais « sans ˆetre coup´ees ». Dans le cas ´equilibr´e, le chemin ´etait d´ecoup´e en pgcd(M, N) parties correspondant aux composantes connexes du graphe biparti de repartitionnement utilis´ees dans la section 3.2. 1. Le chemin ne d´epend que de la connectivit´e du graphe quotient, pas du poids de ses sommets.42 CHAPITRE 3. MODELE DE MIGRATION ` 52 22 49 5 26 47 6 50 51 8 24 22 51 (a) Hypergraphe de repartitionnement dans le cas 8 × 12. 26 21 17 32 26 23 30 12 28 27 40 30 3 9 29 19 22 21 25 21 17 29 29 (b) Hypergraphe de repartitionnement dans le cas 12 × 14. 27 20 24 4 23 4 5 30 23 21 5 25 21 25 8 21 21 4 25 29 26 10 24 8 26 23 20 28 4 23 23 24 23 (c) Hypergraphe de repartitionnement dans le cas 16 × 21. Figure 3.16 – Applications du repartitionnement bas´e sur la chaˆıne dans le cas d´es´equilibr´e. 3.3.2 M´ethode d’appariement (Matching) Dans le cas ´equilibr´e, nous avons vu en section 3.2 qu’il est possible de construire des matrices de migration optimales, c’est-`a-dire optimisant `a la fois le volume de migration et le nombre de messages. Mais l’optimisation de la coupe n’est pas consid´er´ee. Comme on l’a vu avec la m´ethode de la chaˆıne, il peut ˆetre n´ecessaire de permuter la matrice de migration pour obtenir une bonne coupe. Mais une matrice optimale ne correspond pas toujours `a une chaˆıne : il ne suffit plus de trouver un bon chemin dans le graphe quotient. On cherche donc `a apparier correctement la matrice de migration avec le graphe quotient pour que la partition finale ait une bonne coupe. Comme les valeurs des ´el´ements de la matrice de migration n’influencent pas cet appariement, nous utiliserons l’hypergraphe de repartitionnement dans cette section. Le choix de la matrice de migration ou de l’hypergraphe repartitionnement conditionne la qualit´e de la migration. Nous d´ecidons de prendre une matrice de migration optimale (d’apr`es la d´efinition 9), plus pr´ecis´ement la matrice optimale compos´ee d’une diagonale et compl´et´ee avec une sous-matrice « chaˆıne » (comme celle de la figure 3.7c). En plus de minimiser T otalV et T otalZ, cette matrice a l’avantage de garder un M axZ plus faible que les autres matrices optimales. a) Probl`eme d’appariement entre le graphe quotient et l’hypergraphe de repartitionnement Une bonne matrice de migration ne suffit donc pas pour obtenir un bon repartitionnement. Elle ne permet que d’optimiser la migration et l’´equilibre. Un bon repartitionnement doit aussi fournir une coupe basse. La coupe sera principalement d´ecid´ee lors de l’´etape de repartitionnement, mais la matrice de migration a une influence sur la coupe. Une matrice de migration indique l’emplacement des nouvelles parties : elles seront l`a o`u se trouvent les anciennes parties dont elles prennent les sommets. Pour permettre au partitionneur de bien optimiser la coupe, il faut que les anciennes parties communiquant avec une mˆeme nouvelle partie soient proches. Pour obtenir ce r´esultat, on apparie l’hypergraphe de repartitionnement avec le graphe quotient, c’est-`a-dire qu’on cherche une correspondance entre les sommets de l’hypergraphe et ceux du graphe quotient comme pr´esent´e sur la figure 3.17. En effet, les hyper-arˆetes regroupent les anciennes parties donnant des sommets `a une mˆeme nouvelle partie, alors que les arˆetes du graphe quotient connectent les anciennes parties proches.3.3. CONSTRUCTION DES MATRICES DE MIGRATION 43 1 2 3 4 5 6 7 7 2 1 4 3 6 5 Figure 3.17 – Appariement d’un graphe quotient et d’un hypergraphe de repartitionnement. Par exemple, il y a plusieurs fa¸cons d’apparier l’hypergraphe de repartitionnement pour repartitionner la partition initiale d’un maillage en grille visible sur la figure 3.18a. Les figures 3.18b et 3.18c pr´esentent deux possibilit´es d’appariement de l’hypergraphe de repartitionnement en le superposant au graphe quotient. Dans le premier cas, les hyper-arˆetes regroupant plusieurs sommets contiennent des sommets « proches » organis´es en cliques. En cons´equence la partition finale sur la figure 3.18d a des parties bien form´ees, alors que, dans le second cas, les hyper-arˆetes regroupent des sommets « ´eloign´es » et la partition finale sur la figure 3.18e a des parties d´econnect´ees sur le maillage. Les m´etriques pour ´evaluer la migration (TotalV, MaxV, TotalZ et MaxZ) sont les mˆemes dans ces deux cas, mais la coupe du graphe est bien meilleure dans le premier cas. Pour ´eviter de tels sc´enarios, une m´etrique suppl´ementaire est introduite pour estimer la qualit´e de la coupe finale. Cette m´etrique doit favoriser les nouvelles parties prenant des donn´ees `a un ensemble d’anciennes parties bien connect´ees, autrement dit des quasi-cliques. Cette m´etrique s’exprime `a l’aide du graphe quotient de l’ancienne partition et de l’hypergraphe de repartitionnement. b) D´efinition d’un score d’appariement Une fois la matrice choisie, il faut trouver une bonne correspondance entre les sommets du graphe quotient et ceux de l’hypergraphe de repartitionnement associ´e `a la matrice. Cet appariement n´ecessite la d´efinition d’un score. Notons Q = (VQ, EQ) le graphe quotient par rapport `a l’ancienne partition, H = (VH, EH) l’hypergraphe de repartitionnement d´ej`a appari´e (on consid`ere que les sommets de Q et de H sont les mˆemes, on pose V = VQ = VH) et ES(e) l’ensemble des arˆetes du sous-graphe de Q induit par l’hyper-arˆete e. Une premi`ere version simple de ce score compte la somme des poids des arˆetes des sous-graphes induits par chaque hyper-arˆete e : Score = X e∈EH   X e ′∈ES (e) we ′   (3.12) o`u ES(e) = {(i, j) ∈ EQ : i ∈ e ∧ j ∈ e} .44 CHAPITRE 3. MODELE DE MIGRATION ` (a) Hypergraphe de repartitionnement et partition initiale. (b) Exemple de bonne correspondance. (c) Exemple de mauvaise correspondance. (d) La partition est bien form´ee. (e) Certaines parties sont d´econnect´ees. Figure 3.18 – Deux cas d’application d’un mˆeme hypergraphe de repartitionnement.3.3. CONSTRUCTION DES MATRICES DE MIGRATION 45 Il est possible d’´ecrire ce score sous forme matricielle. Notons X la matrice d’appariement (ou de permutation) de taille M × M `a trouver : Xi,i′ vaut 1 si et seulement si le sommet i de l’hypergraphe de repartitionnement est associ´e au sommet i ′ du graphe quotient, sinon 0. La matrice H repr´esente l’hypergraphe de repartitionnement 2 . Elle est de taille M × N et Hi,j vaut 1 si est seulement si le sommet i est inclus dans l’hyper-arˆete j. Q est la matrice d’adjacence du graphe quotient de taille M × M, Qi,j est le poids de l’arˆete entre les sommets i et j. Ces notations sont r´esum´ees sur la figure 3.19. i' j' j i k Qi',j' Xi,i' = 1 Xj,j' = 1 Figure 3.19 – Illustration des notations utilis´ees dans la formule de score avec une arˆete (i ′ , j′ ) du graphe quotient Q `a gauche et une hyper-arˆete k `a droite. Grˆace aux matrices `a valeurs binaires X et H, on peut ´ecrire la somme du poids des arˆetes ei ′ ,j′ dont les extr´emit´es i ′ et j ′ sont respectivement associ´ees `a deux sommets i et j dans la mˆeme hyper-arˆete k : Score = X i,j,i′ ,j′ ,k Xi,i′Xj,j′Hi,kHj,kQi ′ ,j′ soit (3.13) Score = X i,i′  Xi,i′ X j,j′ Xj,j′ X k Hi,kHj,k! Qi ′ ,j′ ! . (3.14) D´efinition 10 (Produit de Kronecker). Le produit de Kronecker de deux matrices A ⊗ B, A de taille m × n et B de taille m′ × n ′ , est une matrice de taille mm′ × nn′ , d´ecrite par la matrice bloc suivante :   A1,1B · · · A1,nB . . . . . . . . . Am,1B · · · Am,nB   . En notant A = HHT ⊗ Q, o`u ⊗ est le produit de Kronecker, et x le vecteur colonne de taille M2 tel que xiM+i ′ = Xi,i′ , le score s’´ecrit comme la forme quadratique : Score = x T Ax. (3.15) Dans l’´equation 3.14, on reconnait le coefficient de la matrice A = HHT ⊗ Q : AiM+i ′ ,jM+j ′ = X k Hi,kHj,k! Qi ′ ,j′ , 2. Par abus de langage, on confond les graphes et hypergraphes avec leurs matrices d’adjacence.46 CHAPITRE 3. MODELE DE MIGRATION ` 20 20 (a) Chaine de 3 parties r´eunies dans une mˆeme hyper-arˆete. Les deux parties aux extr´emit´es sont ´eloign´ees l’une de l’autre. 15 20 5 (b) Clique de 3 parties r´eunies dans une mˆeme hyper-arˆete. Figure 3.20 – Deux exemples de sous-graphes quotients appari´es avec une hyper-arˆete. P k Hi,kHj,k correspondant au coefficient (i, j) de la matrice HHT . Cette m´etrique favorise les hyper-arˆetes regroupant des sommets fortement connect´es. Mais elle est loin d’ˆetre parfaite, car elle ne prend pas en compte le nombre d’arˆetes du graphe quotient associ´ees `a une hyper-arˆete. A score ´egal, il apparait plus avantageux de favoriser trois sommets ` connect´es par trois arˆetes plutˆot que par deux. Sur l’exemple de la figure 3.20, les deux appariements d’une hyper-arˆete avec un graphe de 3 sommets ont le mˆeme score : 40. Pourtant, dans le cas de la figure 3.20a, les deux parties aux extr´emit´es de la chaˆıne peuvent ˆetre ´eloign´ees et la nouvelle partie cr´e´ee devra alors ˆetre ´etir´ee, ce qui n’est pas optimal pour la coupe. On pr´ef´ererait favoriser les cas de cliques comme sur la figure 3.20b, o`u les 3 parties sont bien regroup´ees. Pour corriger ces d´efauts, nous allons modifier le score pour prendre en compte la quantit´e d’arˆetes et la taille des hyper-arˆetes 3 . On propose la nouvelle formule de score suivante. Soient ES(e) l’ensemble des arˆetes du sous-graphe induit par l’hyper-arˆete e et K(e) l’ensemble des arˆetes d’une clique entre les sommets de l’hyper-arˆete e. La m´etrique s’exprime : ScoreR = X e∈EH   |ES(e)| |K(e)| X e ′∈ES (e) we ′   (3.16) o`u  ES(e) = {(i, j) ∈ EQ : i ∈ e ∧ j ∈ e} K(e) =  (i, j) ∈ V 2 : i 6= j ∧ i ∈ e ∧ j ∈ e . En reprenant l’exemple 3.20, les anciens scores sont multipli´es par 2/3 dans le cas de la chaˆıne (fig. 3.20a) et par 1 dans le cas de la clique (fig. 3.20b), ce qui donne les scores 26 et 40 : la clique est maintenant favoris´ee par rapport `a la chaˆıne. c) Choix d’un appariement par une m´ethode d’optimisation du score Afin de choisir un bon appariement, nous allons utiliser une m´ethode d’optimisation du score d´efini pr´ec´edemment. La maximisation de l’´equation 3.15 est un probl`eme d’optimisation quadratique `a valeurs binaires. C’est un probl`eme NP-difficile [20, QUADRATIC PROGRAMMING] mais d´ej`a beaucoup ´etudi´e, en particulier dans le domaine de la vision num´erique [15,41]. Une premi`ere solution consiste `a utiliser une m´ethode spectrale. Comme x T x = M est une constante, maximiser revient 3. On rappelle que la taille d’une hyper-arˆete est le nombre de sommets qu’elle regroupe.3.3. CONSTRUCTION DES MATRICES DE MIGRATION 47 `a maximiser le quotient de Rayleigh-Ritz [25] x T Ax xT x . Dans le cas o`u x est `a coefficient r´eels, ce quotient atteint son maximum pour un vecteur propre associ´e `a la plus grande valeur propre. Mais ici x est `a valeur binaire, et la relaxation du probl`eme ne donne pas de solution convenable. En effet, approcher le vecteur propre avec un vecteur correspondant `a une permutation est une approximation trop importante. D’autres heuristiques pour trouver un bon appariement sont possibles, comme par exemple des algorithmes probabilistes, combinatoires de type branch & bound, ... Nous avons choisi d’utiliser un algorithme de recuit simul´e [40] qui donne des r´esultats satisfaisants. En partant d’une correspondance quelconque, des permutations de deux sommets al´eatoires sont appliqu´ees. Si la nouvelle correspondance a un meilleur score, elle est conserv´ee. Sinon, elle est conserv´ee ou non avec une probabilit´e qui d´ecroit exponentiellement avec le nombre d’it´erations. Apr`es un nombre d’it´erations fix´e, l’algorithme s’arrˆete. Cette m´ethode peut s’appliquer `a n’importe quelle forme de score et notamment `a la formule du score 3.16. d) Illustration de la m´ethode de matching La figure 3.21 pr´esente un exemple de repartitionnement bas´e sur le matching. Dans un premier temps, une matrice de migration optimale est choisie. Ici, on choisit une matrice combinant une sous-matrice diagonale avec une sous-matrice en escalier dont l’hypergraphe de repartitionnement associ´e est repr´esent´e dans la figure 3.21a. Cette classe de matrice a l’avantage de fournir un nombre de messages par partie souvent plus faible que les matrices construites r´ecursivement (cf. section 3.2). Ensuite, cet hypergraphe de repartitionnement est mis en correspondance avec le graphe quotient `a l’aide de l’heuristique de recuit simul´e optimisant la fonction ScoreR (´equation 3.16). Le r´esultat est visible sur la figure 3.21b. Cette appariement correspond `a une permutation des lignes de la matrice mais aussi des 5 premi`eres colonnes pour garder une diagonale optimisant le volume de migration. La figure 3.22 pr´esente des r´esultats d’application de la m´ethode d’appariement dans diff´erents cas. On remarque que dans le cas 8×12 (figure 3.22a), le r´esultat est le mˆeme qu’avec la m´ethode de la chaˆıne. En effet, les matrices 8×12 choisies dans les deux m´ethodes sont ´equivalentes `a une permutation pr`es dans ce cas pr´ecis. Dans le cas 12×14 (figure 3.22b), il y a de tr`es grandes hyperarˆetes. Cela risque de poser probl`eme pour la construction des parties associ´ees `a ces grandes hyper-arˆetes. Ce probl`eme vient du choix de la matrice optimale qui concentre les non-z´eros dans les derni`eres colonnes de la matrice. Cela aurait pu ˆetre ´evit´e en choisissant un autre type de matrice, mais le volume total de migration n’aurait pas ´et´e optimal. Le recuit simul´e ne trouve pas toujours de bonne solution : sur la figure 3.22c, l’hyper-arˆete contenant les sommets 0, 4, 7 et 15 ne contient que deux arˆetes (4–7 de poids 25 et 0–15 de poids 4), mais les autres hyper-arˆetes sont assez bien plac´ees. Notons que cette m´ethode de repartitionnement ne peut pas ˆetre appliqu´ee dans le cas o`u les parties sont initialement d´es´equilibr´ees. La mise en correspondance de l’hypergraphe de repartitionnement et du graphe quotient n´ecessite que les parties initiales soient interchangeables, ce qui n’est le cas que quand les parties initiales ont toutes le mˆeme poids. 3.3.3 M´ethode gloutonne (Greedy) Dans le cas g´en´eral, il n’est pas possible de choisir une matrice avant de l’apparier au graphe quotient : les anciennes parties ont chacune un poids diff´erent et elles ne sont plus interchangeables. Il faut construire la matrice de migration directement en tenant compte de la connectivit´e entre les parties et de leurs diff´erents poids.48 CHAPITRE 3. MODELE DE MIGRATION `   1000 0 0 0 0 400 0 0 1000 0 0 0 400 0 0 0 1000 0 0 200 200 0 0 0 1000 0 0 400 0 0 0 0 1000 0 400   (a) Matrice de migration optimale et hypergraphe de repartitionnement associ´e pour le cas 5 × 7. 39 39 14 34 17 62 65   1000 0 0 0 0 0 400 0 1000 0 0 0 400 0 0 0 1000 0 0 400 0 0 0 0 1000 0 0 400 0 0 0 0 1000 200 200   TotalV = 2000 MaxV = 1000 TotalZ = 6 MaxZ = 3 (b) Hypergraphe appari´e au graphe quotient et matrice de migration finale. Figure 3.21 – Exemple de repartitionnement bas´e sur le matching dans le cas 5 × 7.3.3. CONSTRUCTION DES MATRICES DE MIGRATION 49 52 22 49 5 26 47 6 50 51 8 24 22 51 (a) Hypergraphe de repartitionnement dans le cas 8 × 12. 26 21 17 32 26 23 30 12 28 27 40 30 3 9 29 19 22 21 25 21 17 29 29 (b) Hypergraphe de repartitionnement dans le cas 12 × 14. 27 20 24 4 23 4 5 30 23 21 5 25 21 25 8 21 21 4 25 29 26 10 24 8 26 23 20 28 4 23 23 24 23 (c) Hypergraphe de repartitionnement dans le cas 16 × 21. Figure 3.22 – Application du repartitionnement bas´e sur le matching. a) Construction de la matrice de migration par une m´ethode gloutonne La matrice de migration C est construite par l’algorithme 2 selon une m´ethode gloutonne en prenant en entr´ee le graphe quotient Q = (V, E) et le nouveau nombre de parties N. On note (Pi)i∈J0,M−1K les anciennes parties et (P ′ j )j∈J0,N−1K les nouvelles parties. L’algorithme commence avec une matrice vide, puis les colonnes de la matrice (correspondant aux hyper-arˆetes de l’hypergraphe de repartitionnement) sont remplies une par une. Ce remplissage s’effectue de fa¸con `a respecter les contraintes sur les sommes des lignes et des colonnes qui correspondent respectivement aux poids des anciennes parties (w(Pi)) et des nouvelles parties (w(P ′ j )). La migration peut ˆetre minimis´ee (optdiag = vrai en entr´ee de l’algorithme) en construisant une hyper-arˆete de taille 1 pour chaque sommet du graphe quotient quand cela est possible, c’est-`a-dire quand l’ancienne partie est plus grosse que la nouvelle (w(Pi) > w(P ′ j )). Les hyper-arˆetes suivantes sont construites de fa¸con gloutonne en commen¸cant par une sommet pseudo-p´eriph´erique (voir d´efinition 12) de faible degr´e, puis en ajoutant des sommets v un `a un dans l’hyper-arˆete h en cherchant `a maximiser un score inspir´e de celui pr´esent´e dans la section 3.3.2 : score (v, h) =|ES(h) ∩ EV (v)| |EV (v)| × |ES(h)| × P e∈ES (h)∩EV (v) we P e∈EV (v) we × X e∈ES (h) we avec  ES(h) = {(u, v) ∈ E : u ∈ h ∧ v ∈ h} EV (v) = {e ∈ E : v ∈ e} . (3.17) ES(h) est l’ensemble des arˆetes du sous-graphe d´efini par l’hyper-arˆete h. EV (v) est l’ensemble des arˆetes dont une extr´emit´e est v (son voisinage). Le score de l’´equation 3.17 reprend du score 3.16 le produit du nombre d’arˆetes et de leur poids permettant d’obtenir des groupes d’anciennes parties bien connect´ees et le multiplie par la proportion des arˆetes autour du nouveau sommet v qui sont dans l’hyper-arˆete h, en nombre et en poids. Cette modification du score permet de mieux guider l’algorithme glouton qui pr´ef´erera alors choisir des sommets sur le bord ou encercl´es par l’hyper-arˆete, laissant de meilleurs choix pour la construction des hyper-arˆetes suivantes. Pour chaque sommet ajout´e dans l’hyper-arˆete, on remplit le coefficient correspondant dans la matrice avec la valeur maximale permettant de respecter les contraintes de poids sur les lignes et colonnes. Comme les coefficients de la matrice doivent ˆetre positifs, la somme des valeurs sur la ligne (et respectivement la colonne) ne doit pas d´epasser la taille d’une partie initiale (et respectivement finale). A une it´eration de notre algorithme, la valeur choisie pour l’´el´eme ` nt Ci,j50 CHAPITRE 3. MODELE DE MIGRATION ` est donc min(w(Pi) − P k Ci,k, w(P ′ j ) − P k Ck,j ). Comme on veut obtenir une partition finale ´equilibr´ee, on pose ∀j, w(P ′ j ) = wf inal = W N . Le volume total de migration peut ˆetre minimis´e en commen¸cant par remplir la diagonale de la matrice de migration avec les plus grandes valeurs possibles. Le reste de la matrice est alors rempli normalement selon l’heuristique gloutonne. Algorithme 2 Construction de la matrice de migration C (Greedy1) Entr´ee : Nombre d’anciennes parties M Entr´ee : Nombre de nouvelles parties N Entr´ee : Graphe quotient de l’ancienne partition Q = (V, E) Entr´ee : Bool´een optdiag indiquant l’optimisation de la diagonale C ← matrice nulle de dimension M × N j ← 0 /* Indice de l’hyper-arˆete en cours de construction. */ /* Construction d’hyper-arˆetes de taille 1. */ si optdiag alors pour tout v ∈ V correspondant `a l’ancienne partie Pi faire si wv ≥ wf inal et j < N alors Ci,j ← wf inal wv ← wv − wf inal j ← j + 1 fin si fin pour fin si /* Construction gloutonne des hyper-arˆetes */ tant que j < N faire v ← sommet pseudo-p´eriph´erique de Q d’indice i et de poids wi non nul h ← {v} /* Hyper-arˆete d’indice j en cours de construction. */ Ci,j ← min(wi , wf inal) wi ← wi − Ci,j tant que P k Ck,j < wf inal faire v ← sommet de V d’indice i, de poids wi non nul tel que score(v, h ∪ {v}) soit maximal h ← h ∪ {v} Ci,j ← min(wi , wf inal − P k Ck,j ) wi ← wi − Ci,j fin tant que j ← j + 1 fin tant que retourner C Notre algorithme se base sur la notion de sommet pseudo-p´eriph´erique pour trouver un sommet sur le « bord » du graphe. Rechercher un sommet p´eriph´erique 4 est plus complexe et n’est pas n´ecessaire pour l’application de notre heuristique. D´efinition 11 (Excentricit´e). L’excentricit´e d’un sommet v dans un graphe, not´ee ǫ(v), est la plus grande distance entre v et n’importe quel autre sommet du graphe. 4. Un sommet p´eriph´erique est un sommet d’excentricit´e maximale.3.3. CONSTRUCTION DES MATRICES DE MIGRATION 51 D´efinition 12 (Sommet pseudo-p´eriph´erique). Un sommet v est un sommet pseudo-p´eriph´erique si pour tous les sommets u les plus ´eloign´es de v, on a ǫ(v) = ǫ(u) = d(u, v). Plus formellement v est pseudo-p´eriph´erique si ∀u ∈ V, d(u, v) = ǫ(v) =⇒ d(u, v) = ǫ(u). Un sommet pseudo-p´eriph´erique peut ˆetre facilement trouv´e comme le montre l’algorithme 3. En partant d’un sommet quelconque, on cherche, `a l’aide d’un parcours en largeur, un sommet le plus loin possible (calculant ainsi l’excentricit´e du sommet de d´epart) et de faible degr´e. Cette recherche est r´ep´et´ee `a partir du nouveau sommet jusqu’`a trouver un sommet dont l’excentricit´e est ´egale `a celle du sommet pr´ec´edent. En pratique cet algorithme termine en tr`es peu d’it´erations [21] (2 ou 3 it´erations lors de nos tests). Algorithme 3 Recherche d’un sommet pseudo-p´eriph´erique de degr´e faible Entr´ee : Graphe G u ← sommet quelconque de G ǫnouveau ← 0 r´ep´eter Effectuer un parcours en largeur du graphe G en partant de u v ← sommet avec une distance maximale et un degr´e minimal ǫcourant ← ǫnouveau ǫnouveau ← d(u, v) /* correspond `a l’excentricit´e de u */ u ← v jusqu’`a ǫnouveau = ǫcourant retourner u b) Optimisation du nombre de messages par une recherche de sous-ensembles L’algorithme 2 construit une matrice de migration avec M + N − 1 messages. A chaque ` it´eration, la valeur de l’´el´ement est choisie pour satisfaire la contrainte de poids sur la ligne ou la colonne, sauf `a la derni`ere it´eration o`u les contraintes sur la ligne et la colonne de l’´el´ement sont satisfaites. Comme il y a M lignes et N colonnes, il y a au plus M + N − 1 it´erations et ´el´ements non nuls. Il est possible de diminuer ce nombre de messages en d´ecomposant le probl`eme de construction de la matrice de migration en plusieurs sous-probl`emes de repartitionnement sur des sousensembles disjoints de parties, comme le montre la d´emonstration du lemme 2. Pour d´ecomposer le probl`eme en K sous-probl`emes, l’ensemble des parties (Pi)i∈J1,MK est partitionn´e en K sous-ensembles (Sj )j∈J1,KK . Pour chaque sous ensemble Sj , la somme des poids des parties qu’il contient est `a peu pr`es un multiple de la taille id´eale d’une partie finale. Plus formellement, avec un facteur de d´es´equilibre ǫ, un sous-ensemble Sj est de « bonne taille » si il existe un entier Nj tel que P j Nj = N et (1 − ǫ) × Nj W N < X Pi∈Sj w(Pi) < (1 + ǫ) × Nj W N . On note Mj = |Sj | la taille de chaque sous-ensemble. Comme les sous-ensembles sont une partition de l’ensemble des parties, on a P j Mj = M. Chaque sous probl`eme est donc de taille Mj × Nj et construit une sous-matrice de migration avec Mj + Nj − 1 messages. Le nombre de messages total est donc M + N − K. Pour minimiser le nombre de messages, il faut donc trouver le plus possible de sous-ensembles. Dans le cas ´equilibr´e, on trouvait pgcd(M, N) tels sous-ensembles de chacun M/pgcd(M, N) parties.52 CHAPITRE 3. MODELE DE MIGRATION ` La recherche de tels sous-ensembles est une version plus g´en´erale du probl`eme de la somme d’un sous-ensemble 5 qui est NP-complet [20, SUBSET SUM]. Ces sous-ensembles peuvent ˆetre construits avec un algorithme glouton similaire `a celui de construction de la matrice de migration. Dans l’algorithme 4, on commence par trouver un sommet pseudo-p´eriph´erique dans le graphe quotient, puis on cherche parmi ses voisins si il existe un sommet permettant de cr´eer un sousensemble de la bonne taille, sinon on en choisit un qui maximise le score du sous-ensemble comme dans l’algorithme 2. Puis on recommence `a chercher parmi les voisins du sous-ensemble jusqu’`a construire un sous-ensemble de bonne taille. Au pire, l’algorithme termine en s´electionnant tous les sommets du graphe quotient dans un seul sous-ensemble, puisque par d´efinition de la taille id´eale, le poids total du graphe vaut N fois celle-ci. Algorithme 4 Construction de la matrice de migration avec une recherche de sous-ensembles (Greedy2) Entr´ee : Nombre d’anciennes parties M Entr´ee : Nombre de nouvelles parties N Entr´ee : Graphe quotient Q = (V, E) R ← V /* Ensemble des sommets restants */ tant que R 6= ∅ faire u ← un sommet pseudo-p´eriph´erique du sous-graphe de Q restreint `a R S ← {u} R ← R \ {u} tant que S n’est pas un sous-ensemble de bonne taille pour N′ nouvelles parties faire si il existe v ∈ R tel que v est connect´e `a S et S ∪ {v} est de bonne taille alors S ← S ∪ {v} /* S´electionner v */ R ← R \ {v} sinon u ← sommet maximisant le score du sous-ensemble S ∪ {u} S ← S ∪ {u} /* S´electionner u */ R ← R \ {u} fin si fin tant que Construire la sous-matrice |S| × N′ associ´ee au sous-ensemble S (appel de l’algorithme 2 (Greedy1) sur le sous-graphe de Q restreint `a S) fin tant que Un exemple d’application de ces algorithmes est pr´esent´e sur les figures 3.23 `a 3.25 avec le cas 5 × 7 d´es´equilibr´e. La figure 3.23 pr´esente la recherche des sous-ensembles, alors que les figures 3.24 et 3.25 pr´esentent respectivement les constructions des sous-matrices pour chacun des sous-ensembles. Les poids des parties initiales sont dans l’ordre 500, 900, 2400, 1500 et 1700. Les parties finales devront ˆetre de poids 1000. Les valeurs indiqu´ees `a cot´e des sommets correspondent aux donn´ees des anciennes parties qui n’ont pas encore ´et´e affect´ees dans une nouvelle. Les ´el´ements de la matrice ne faisant pas partie de la sous-matrice concern´ee sont gris´es. L’algorithme commence par chercher un sous-ensemble en partant d’un sommet pseudop´eriph´erique (figure 3.23a). Parmi les voisins, la partie 3 permet d’avoir un sous-ensemble adapt´e 5. Etant donn´e un ensemble d’entiers, existe-t-il un sous-en ´ semble non vide dont la somme vaut une valeur donn´ee ?3.3. CONSTRUCTION DES MATRICES DE MIGRATION 53 39 39 14 34 17 62 65 500 1 900 2 2400 3 1500 4 1700 (a) Premi`ere ´etape de la construction des sousensembles. 39 39 14 34 17 62 65 500 1 900 2 2400 4 1700 (b) Seconde ´etape de la construction des sousensembles : le premier sous-ensemble est termin´e. 39 39 14 34 17 62 65 500 900 (c) Cinqui`eme et derni`ere ´etape de la construction des sousensembles. Figure 3.23 – Construction des sous-ensembles. au repartitionnement en 2 parties (500+1500 = 2×1000) (figure 3.23b). L’algorithme de construction de la matrice de migration est alors appliqu´e sur le sous-ensemble {0, 3}. La partie 0 est trop petite pour cr´eer une hyper-arˆete de taille 1 (figure 3.24a). La partie 3 a un poids suffisant donc 1000 est ajout´e sur la diagonale (figure 3.24b). Il reste alors une hyper-arˆete `a construire : elle part du sommet 0 (figure 3.24c) et s’´etend sur le seul sommet voisin 3 (figure 3.24d). Les deux hyper-arˆetes n´ecessaires sont donc construites et toutes les donn´ees de 0 et 3 ont ´et´e redistribu´ees. Le second sous-ensemble est construit avec le reste du graphe quotient (figure 3.23c). Les parties 1, 2 et 4 seront repartitionn´ees vers 5 parties (900 + 2400 + 1700 = 5 × 1000). On commence par construire les hyper-arˆetes de taille 1 (figure 3.25a) pour optimiser la diagonale de la matrice, ici 2 et 4 sont de poids suffisants. L’hyper-arˆete suivante est construite `a partir de 1 (figure 3.25b) et s’´etend sur le voisin « libre » le plus connect´e `a 1 : 2 (figure 3.25c). La suivante est construite `a partir de 2 qui a encore assez de donn´ees (1300) pour construire une hyper-arˆete de taille 1 (figure 3.25d). La derni`ere hyper-arˆete part de 2 (figure 3.25e) et s’´etend sur le seul sommet restant, la partie 4 (figure 3.25f). Par la suite, nous utiliserons syst´ematiquement la recherche des sous-ensembles (Greedy2) pour notre algorithme glouton (Greedy). c) Illustration de la m´ethode gloutonne Les figures 3.26 et 3.27 pr´esentent des r´esultats de la m´ethode gloutonne avec optimisation de la diagonale dans les cas ´equilibr´es et d´es´equilibr´es. Comme avec la m´ethode d’appariement, de grandes hyper-arˆetes sont cr´e´ees. Cela est dˆu au remplissage de la diagonale qui laisse de petits restes pour cr´eer les parties suppl´ementaires. Dans le cas d´es´equilibr´e, cet effet est att´enu´e : la diagonale ne peut pas toujours ˆetre remplie et les restes peuvent ˆetre plus importants. Les figures 3.28 et 3.29 montrent les r´esultats dans les mˆemes cas, mais sans l’optimisation de la diagonale. Les tailles des hyper-arˆetes sont bien plus raisonnables. Comme avec la m´ethode de la chaˆıne, les nouvelles parties sont souvent plac´ees entre deux anciennes parties voisines.54 CHAPITRE 3. MODELE DE MIGRATION ` 39 39 14 34 17 62 65 0 500 1 0 2 0 3 1500 4 0   0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0   (a) Premi`ere ´etape du remplissage de la diagonale. 39 39 14 34 17 62 65 0 500 1 0 2 0 500 4 0   0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1000 0 0 0 0 0 0 0 0 0 0   (b) Seconde ´etape du remplissage de la diagonale. 39 39 14 34 17 62 65 0 1 0 2 0 500 4 0   500 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1000 0 0 0 0 0 0 0 0 0 0   (c) Premi`ere ´etape de la construction de la seconde hyper-arˆete. 39 39 14 34 17 62 65 0 1 0 2 0 4 0   500 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 500 0 0 1000 0 0 0 0 0 0 0 0 0 0   (d) L’hyper-arˆete est construite. Figure 3.24 – Construction des sous-ensembles et de la sous-matrice correspondant au premier sous-ensemble {0, 3}.3.3. CONSTRUCTION DES MATRICES DE MIGRATION 55 39 39 14 34 17 62 65 1 900 1400 700   500 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1000 0 0 0 0 500 0 0 1000 0 0 0 0 0 0 0 1000 0 0   (a) Remplissage de la diagonale. 39 39 14 34 17 62 65 1400 700   500 0 0 0 0 0 0 0 900 0 0 0 0 0 0 0 1000 0 0 0 0 500 0 0 1000 0 0 0 0 0 0 0 1000 0 0   (b) Premi`ere ´etape de la construction de la troisi`eme hyper-arˆete. 39 39 14 34 17 62 65 700   500 0 0 0 0 0 0 0 900 0 0 0 0 0 0 100 1000 0 0 0 0 500 0 0 1000 0 0 0 0 0 0 0 1000 0 0   (c) Seconde ´etape de la construction de la troisi`eme hyper-arˆete. 39 39 14 34 17 62 65 700   500 0 0 0 0 0 0 0 900 0 0 0 0 0 0 100 1000 0 0 1000 0 500 0 0 1000 0 0 0 0 0 0 0 1000 0 0   (d) Construction de la quatri`eme hyper-arˆete. 39 39 14 34 17 62 65 700   500 0 0 0 0 0 0 0 900 0 0 0 0 0 0 100 1000 0 0 1000 300 500 0 0 1000 0 0 0 0 0 0 0 1000 0 0   (e) Premi`ere ´etape de la construction de la cinqui`eme hyper-arˆete. 39 39 14 34 17 62 65   500 0 0 0 0 0 0 0 900 0 0 0 0 0 0 100 1000 0 0 1000 300 500 0 0 1000 0 0 0 0 0 0 0 1000 0 700   (f) Seconde ´etape de la construction de la cinqui`eme hyper-arˆete et fin de l’algorithme. Figure 3.25 – Construction de la sous-matrice correspondant au second sous-ensemble {1, 2, 4}.56 CHAPITRE 3. MODELE DE MIGRATION ` 52 22 49 5 26 47 6 50 51 8 24 22 51 (a) Hypergraphe de repartitionnement dans le cas 8 × 12 ´equilibr´e. 26 21 17 32 26 23 30 12 28 27 40 30 3 9 29 19 22 21 25 21 17 29 29 (b) Hypergraphe de repartitionnement dans le cas 12 × 14 ´equilibr´e. 27 20 24 4 23 4 5 30 23 21 5 25 21 25 8 21 21 4 25 29 26 10 24 8 26 23 20 28 4 23 23 24 23 (c) Hypergraphe de repartitionnement dans le cas 16×21 ´equilibr´e. Figure 3.26 – Evaluation du repartitionnement `a l’aide de l’algorithme glouton avec op ´ timisation de la diagonale dans des cas ´equilibr´es. 52 22 49 5 26 47 6 50 51 8 24 22 51 (a) Hypergraphe de repartitionnement dans le cas 8 × 12 d´es´equilibr´e. 26 21 17 32 26 23 30 12 28 27 40 30 3 9 29 19 22 21 25 21 17 29 29 (b) Hypergraphe de repartitionnement dans le cas 12 × 14 d´es´equilibr´e. 27 20 24 4 23 4 5 30 23 21 5 25 21 25 8 21 21 4 25 29 26 10 24 8 26 23 20 28 4 23 23 24 23 (c) Hypergraphe de repartitionnement dans le cas 16 × 21 d´es- ´equilibr´e. Figure 3.27 – Evaluation du repartitionnement `a l’aide de l’algorithme glouton avec op ´ timisation de la diagonale dans des cas d´es´equilibr´es.3.3. CONSTRUCTION DES MATRICES DE MIGRATION 57 52 22 49 5 26 47 6 50 51 8 24 22 51 (a) Hypergraphe de repartitionnement dans le cas 8 × 12 ´equilibr´e. 26 21 17 32 26 23 30 12 28 27 40 30 3 9 29 19 22 21 25 21 17 29 29 (b) Hypergraphe de repartitionnement dans le cas 12 × 14 ´equilibr´e. 27 20 24 4 23 4 5 30 23 21 5 25 21 25 8 21 21 4 25 29 26 10 24 8 26 23 20 28 4 23 23 24 23 (c) Hypergraphe de repartitionnement dans le cas 16×21 ´equilibr´e. Figure 3.28 – Evaluation du repartitionnement `a l’aide de l’algorithme glouton sans opt ´ imisation de la diagonale dans des cas ´equilibr´es. 52 22 49 5 26 47 6 50 51 8 24 22 51 (a) Hypergraphe de repartitionnement dans le cas 8 × 12 d´es´equilibr´e. 26 21 17 32 26 23 30 12 28 27 40 30 3 9 29 19 22 21 25 21 17 29 29 (b) Hypergraphe de repartitionnement dans le cas 12 × 14 d´es´equilibr´e. 27 20 24 4 23 4 5 30 23 21 5 25 21 25 8 21 21 4 25 29 26 10 24 8 26 23 20 28 4 23 23 24 23 (c) Hypergraphe de repartitionnement dans le cas 16 × 21 d´es- ´equilibr´e. Figure 3.29 – Evaluation du repartitionnement `a l’aide de l’algorithme glouton sans opt ´ imisation de la diagonale dans des cas d´es´equilibr´es.58 CHAPITRE 3. MODELE DE MIGRATION ` 3.3.4 Programme lin´eaire (LP) Les m´ethodes de repartitionnement diffusives [26,46] optimisent le volume de migration en effectuant des communications entre les parties voisines sur le graphe quotient (cf. section 2.3.2 b)). Nous proposons d’´etendre la m´ethode en utilisant un programme lin´eaire dans le cas du repartitionnement avec changement dynamique du nombre de processeurs et pour optimiser les diff´erentes m´etriques TotalV, MaxV, TotalZ et MaxZ. Le principal probl`eme de cette adaptation est que le graphe quotient ne prend en compte que les anciennes parties et non les nouvelles. Il faut donc adapter celui-ci pour prendre en compte ce changement de nombre de parties. Pour un repartitionnement de M vers N parties, on utilise un graphe d´ecrivant les messages possibles entre max(M, N) parties. Le poids de certaines parties peut ˆetre initialement nul, si elles n’existaient pas dans l’ancienne partition (cas o`u M < N) ; on peut aussi vouloir un poids final nul pour les parties qui n’existent pas dans la nouvelle partition (cas o`u M > N). Dans le cas o`u le nombre de parties augmente (M < N), il faut ajouter des nouveaux sommets dans le graphe quotient et, pour que la migration soit possible, connecter ces nouveaux sommets avec le reste du graphe. En effet, Hu et al. [26] montrent que pour qu’une solution soit possible, le graphe doit ˆetre connexe. On veut donc construire `a partir du graphe quotient Q, un nouveau graphe quotient enrichi Q˜. La fa¸con dont sont connect´es ces nouveaux sommets influence grandement la migration optimale possible, mais aussi la coupe de la partition finale. Pour obtenir une bonne migration, il faut placer les nouvelles parties proches des anciennes parties capables de fournir les sommets n´ecessaires. Pour obtenir une bonne coupe, il faut connecter les nouvelles parties avec des anciennes proches entre elles. Une m´ethode na¨ıve pour trouver de tels placements est de rechercher dans le graphe quotient de petites cliques de parties bien connect´ees entre elles et poss´edant un poids ´elev´e. Dans le cas o`u le nombre de parties diminue, le graphe quotient n’a pas besoin d’ˆetre modifi´e mais il faut choisir les parties qui seront supprim´ees, c’est-`a-dire dont le poids final vis´e est nul. a) Optimisation du volume total de migration TotalV Une fois le graphe Q˜ des messages autoris´es construit, il faut d´ecider du volume de donn´ees `a communiquer sur chaque arˆete. Pour minimiser le volume total de migration, il est possible d’utiliser le programme lin´eaire suivant : minimiser X i,j eij . Contraintes lin´eaires : ∀i ∈ V, vi = X j (eji − eij ). (3.18) Bornes : ∀i ∈ V, vi ≤ di + ub. (3.19) ∀(i, j) ∈ E, 0 ≤ eij . (3.20) On note eij la quantit´e de donn´ees envoy´ees par la partie i vers la partie j. Cette variable est toujours positive ou nulle (´equation 3.20) ; si le message se passe dans l’autre sens, eij est nul et eji contient le volume de donn´ees ´echang´ees. vi est la variation de la quantit´e de donn´ees de la partie i et est ´egale `a la diff´erence des donn´ees re¸cues et envoy´ees (´equation 3.18). di est3.3. CONSTRUCTION DES MATRICES DE MIGRATION 59 1 2 3 1 3 2 4 4 3 5 2 3 3 0 Figure 3.30 – Exemple de partition initiale et de son graphe quotient enrichi. la variation souhait´ee de la quantit´e de donn´ees de la partie i, c’est-`a-dire la diff´erence entre le poids initial et le poids souhait´e. vi doit ˆetre `a peu pr`es ´egal `a di `a une tol´erance de d´es´equilibre ub pr`es (´equation 3.19). Par exemple, en prenant la partition en trois parties de la figure 3.30, on construit un graphe quotient de trois sommets auquel on ajoute un quatri`eme pour repartitionner en 4 parties. Ici, le nouveau sommet est connect´e aux trois autres. L’application des contraintes 3.18 donne : v1 = e21 − e12 + e31 − e13 + e41 − e14 v2 = e12 − e21 + e21 − e23 + e42 − e24 v3 = e13 − e31 + e23 − e32 + e43 − e34 v4 = e14 − e41 + e24 − e42 + e34 − e43 et les bornes 3.19 : v1 ≤ −1 v2 ≤ 0 v3 ≤ −2 v4 ≤ 3. De plus tous les eij sont positifs ou nuls. La solution de ce probl`eme est : e41 = 1 e43 = 2 et tous les autres eij sont nuls. Ce qui veut dire que la partie 1 devra envoyer un sommet `a la partie 4 et la partie 3 devra en envoyer deux. Il n’y a pas d’autre communication. b) Extension `a d’autres m´etriques Il est possible d’´etendre le programme lin´eaire pour d’autres objectifs, tels que : MaxV, TotalZ, MaxZ ou n’importe quelle combinaison lin´eaire de ceux-ci. Pour optimiser MaxV, il suffit d’ajouter une variable v repr´esentant le volume maximal de migration par partie. On cherche donc `a minimiser v = maxi∈V P j (eij + eji)  . Cela se traduit par les contraintes suppl´ementaires :60 CHAPITRE 3. MODELE DE MIGRATION ` 39 39 14 34 17 62 65 0 2020 1 1984 2 1986 3 2014 4 1996 (a) Graphe quotient. 39 39 14 34 17 62 65 (b) Groupes de sommets retenus pour les nouvelles parties ajout´ees. 0 1 2 3 4 5 6 (c) Graphe quotient enrichi avec les nouveaux sommets.   1500 0 0 0 0 520 0 0 1184 0 0 0 0 800 0 0 1428 0 0 0 558 0 0 0 1500 0 514 0 0 172 0 0 1500 324 0   (d) Matrice de migration obtenue pour l’optimisation de TotalV. Figure 3.31 – Enrichissement du graphe quotient puis construction de la matrice de migration pour le cas 5 × 7. ∀i ∈ V,X j (eij + eji) ≤ v. (3.21) v ´etant minimis´e, il vaut bien la plus grande des valeurs P j (eij + eji). Lorsque les valeurs eij sont enti`eres, on peut ajouter des variables binaires xij pour chaque arˆete donnant l’existence ou non d’un message sur cette arˆete grˆace aux contraintes : xij ≤ eij ≤ W xij . (3.22) W est le poids total du graphe, aucun message ne peut d´epasser cette taille. En ´etudiant les deux cas possibles suivant la valeur de xij , on obtient : eij = 0 si xij = 0 1 ≤ eij ≤ W si xij = 1. (3.23) xij correspond donc bien `a l’existence d’un message de la partie i vers la partie j. Il est alors possible de minimiser TotalZ en minimisant la somme des xij et MaxZ en utilisant une m´ethode similaire `a celle pour MaxV. Les programmes lin´eaires complets pour les diff´erentes m´etriques sont d´ecrits dans l’annexe A. c) Application du programme lin´eaire Pour enrichir le graphe quotient, un algorithme recherche, pour chaque nouvelle partie suppl´ementaire, de petits groupes de sommets (de taille 1, 2 ou 3) bien connect´es et de poids importants.3.3. CONSTRUCTION DES MATRICES DE MIGRATION 61 52 22 49 5 26 47 6 50 51 8 24 22 51 (a) Hypergraphe de repartitionnement dans le cas 8 × 12 ´equilibr´e. 26 21 17 32 26 23 30 12 28 27 40 30 3 9 29 19 22 21 25 21 17 29 29 (b) Hypergraphe de repartitionnement dans le cas 12 × 14 ´equilibr´e. 27 20 24 4 23 4 5 30 23 21 5 25 21 25 8 21 21 4 25 29 26 10 24 8 26 23 20 28 4 23 23 24 23 (c) Hypergraphe de repartitionnement dans le cas 16×21 ´equilibr´e. Figure 3.32 – Application de la construction de la matrice de migration `a l’aide du programme lin´eaire dans des cas ´equilibr´es. Nous ne d´etaillerons pas ici cet algorithme qui utilise une approche gloutonne selon un crit`ere comparable `a celui de la m´ethode Greedy, mais en bornant la taille des hyper-arˆetes (entre 1 et 3). Sur l’exemple de la figure 3.31, pour passer de 5 `a 7 parties, il faut ajouter deux nouvelles parties : un groupe de trois sommets et un groupe de deux sont choisis (fig. 3.31b). Les deux nouveaux sommets sont connect´es aux anciens sommets d’apr`es ces ensembles (fig. 3.31c). En appliquant le programme lin´eaire pour l’optimisation de TotalV sur ce graphe quotient enrichi, on obtient 6 messages : 5 messages correspondant aux arˆetes ajout´ees pour cr´eer les nouvelles parties suppl´ementaires et un message entre les parties 4 et 1. Pr´esent´es sous forme de matrice de migration, ces r´esultats donnent la matrice sur la figure 3.31d. Les valeurs sur la diagonale (en gris) ne sont pas obtenues directement par le programme lin´eaire mais calcul´ees indirectement d’apr`es les tailles des messages et les tailles des anciennes parties. 52 22 49 5 26 47 6 50 51 8 24 22 51 (a) Hypergraphe de repartitionnement dans le cas 8 × 12 d´es´equilibr´e. 26 21 17 32 26 23 30 12 28 27 40 30 3 9 29 19 22 21 25 21 17 29 29 (b) Hypergraphe de repartitionnement dans le cas 12 × 14 d´es´equilibr´e. 27 20 24 4 23 4 5 30 23 21 5 25 21 25 8 21 21 4 25 29 26 10 24 8 26 23 20 28 4 23 23 24 23 (c) Hypergraphe de repartitionnement dans le cas 16 × 21 d´es- ´equilibr´e. Figure 3.33 – Application de la construction de la matrice de migration `a l’aide du programme lin´eaire dans des cas d´es´equilibr´es. Les r´esultats obtenus pour diff´erents cas avec l’optimisation de TotalV sont pr´esent´es sur62 CHAPITRE 3. MODELE DE MIGRATION ` les figures 3.32 et 3.33. Les tailles des hyper-arˆetes finales correspondant aux nouvelles parties sont effectivement limit´ees `a un maximum de 3 et les autres communications se font uniquement le long des arˆetes du graphe quotient. Cet algorithme optimise la m´etrique souhait´ee, mais relativement `a un graphe quotient enrichi donn´e dont la construction ne permet pas toujours une migration optimale. 3.4 Evaluation des m´ethodes et conclusion ´ Nous comparons les m´ethodes de construction de matrice de migration pr´esent´ees dans ce chapitre : la m´ethode bas´ee sur la chaˆıne (1D), la m´ethode d’appariement (Matching, seulement dans le cas ´equilibr´e), les deux variantes de l’algorithme glouton avec optimisation de la diagonale (GreedyD) et sans (Greedy) et le programme lin´eaire optimisant TotalV (LP). Les m´ethodes pr´esent´ees sont ´evalu´ees sur six cas ´equilibr´es et d´es´equilibr´es. Les trois cas ´equilibr´es sont : — 8×12 avec des anciennes parties de taille 1500 et donc des nouvelles parties de taille 1000 ; — 12 × 14 avec des anciennes parties de taille 1000 et donc des nouvelles parties de taille 857 ; — 16 × 21 avec des anciennes parties de taille 1000 et donc des nouvelles parties de taille 761. Les trois cas d´es´equilibr´es utilisent les mˆemes nombres de parties : — 8 × 12 avec un d´es´equilibre de 49 % et des nouvelles parties de taille 1509 ; — 12 × 14 avec un d´es´equilibre de 58 % et des nouvelles parties de taille 1311 ; — 16 × 21 avec un d´es´equilibre de 50 % et des nouvelles parties de taille 922. Ces d´es´equilibres ont ´et´e r´ealis´es avec la m´ethode utilis´ee par l’article [56] : pour chaque partie, un nombre al´eatoire de sommets sont s´electionn´es pour avoir leur poids tripl´es, conduisant `a un d´es´equilibre d’environ 50 %. Les tableaux 3.1 et 3.2 pr´esentent les m´etriques associ´ees aux applications pr´esent´ees dans les sections pr´ec´edentes. Les quatre m´etriques pr´esent´ees ne permettent pas d’´evaluer la qualit´e de la coupe finale mais seulement la qualit´e de la migration. La coupe ne pourra ˆetre ´evalu´ee qu’apr`es le repartitionnement dans le chapitre 5. En dehors du repartitionnement 8×12 dans le cas ´equilibr´e, on remarque que les optimisations de TotalV et MaxZ sont contradictoires. En effet, comme expliqu´e avec la m´ethode d’appariement, l’optimisation de la diagonale oblige les nouvelles parties suppl´ementaires `a prendre les donn´ees depuis de nombreuses anciennes parties, ce qui favorise des hyper-arˆetes de grandes tailles et donc l’augmentation de MaxZ. Les m´ethodes 1D et Greedy donnent un MaxZ bas mais un TotalV plus ´elev´e, contrairement aux m´ethodes Matching (avec choix d’une matrice diagonale) et GreedyD qui optimisent en priorit´e TotalV. Le cas du programme lin´eaire est particulier : bien que le programme lin´eaire minimise TotalV, la construction du graphe quotient enrichi impose un degr´e faible. Malgr´e cette minimisation, TotalV peut ˆetre plus ´elev´e qu’avec d’autres m´ethodes mais MaxZ est maintenu bas. TotalV aurait pu ˆetre plus bas avec un choix de graphe quotient enrichi diff´erent. Il est ´egalement possible d’utiliser le programme lin´eaire pour optimiser d’autres crit`eres. Dans le cas 8 × 12 ´equilibr´e, il existe une solution donnant `a la fois un TotalV bas et un MaxZ bas que toutes les m´ethodes trouvent. Le programme lin´eaire est capable de donner un TotalV plus bas que l’optimal (4000) en profitant de la tol´erance au d´es´equilibre. Le MaxV varie peu d’une m´ethode `a l’autre et il est g´en´eralement proche de la taille d’une nouvelle partie. Une nouvelle partie devant recevoir l’int´egralit´e de ses donn´ees, il n’est pas3.4. EVALUATION DES M ´ ETHODES ET CONCLUSION ´ 63 possible d’avoir un MaxV inf´erieur `a la taille id´eale d’une nouvelle partie. Dans le cas ´equilibr´e, le TotalZ optimal est bien atteint pour toutes les m´ethodes sauf le programme lin´eaire qui n’optimise pas ce crit`ere. Dans le cas d´es´equilibr´e, l’optimal n’est pas connu. La m´ethode de la chaˆıne atteint max(M, N) − 1 messages et les algorithmes gloutons donne un nombre de messages inf´erieur grˆace `a la recherche des sous-ensembles. Bien que le programme lin´eaire n’optimise pas le nombre de messages, celui-ci reste tr`es bas. C’est un effet de bord de la minimisation de TotalV. Dans la suite de cette th`ese, nous retiendrons les m´ethodes utilisant l’algorithme glouton (Greedy et GreedyD) et le programme lin´eaire (LP). L’algorithme glouton permet de minimiser TotalZ et offre deux variantes permettant au choix de minimiser fortement TotalV ou de garder MaxZ bas. La m´ethode d’appariement (Matching) n’est pas utilisable dans le cas g´en´eral et la m´ethode 1D donne des r´esultats comparables `a la m´ethode Greedy (MaxZ faible mais TotalV plus ´elev´e) mais avec de moins bons r´esultats. La construction de matrices de migration `a partir du graphe quotient est la premi`ere ´etape de notre m´ethode de repartitionnement dont la d´emarche globale est rappel´ee en figure 3.34. Les matrices de migration ainsi construites vont ˆetre utilis´ees par les algorithmes de repartitionnement de graphe pr´esent´es dans le chapitre suivant.64 CHAPITRE 3. MOD `ELE DE MIGRATION 1D (fig. 3.14) Matching (fig. 3.22) GreedyD (fig. 3.26) Greedy (fig. 3.28) LP (fig. 3.32) Cas 8 × 12 TotalV 4000 4000 4000 4000 3960 MaxV 1000 1000 1000 1000 900 TotalZ 8 8 8 8 8 MaxZ 2 2 2 2 2 Cas 12 × 14 TotalV 3427 1714 1714 3426 2900 MaxV 857 857 857 857 939 TotalZ 12 12 12 12 13 MaxZ 2 6 6 2 3 Cas 16 × 21 TotalV 5239 3808 3808 5335 5606 MaxV 762 762 762 762 1150 TotalZ 20 20 20 20 20 MaxZ 2 4 4 3 3 Table 3.1 – R´esultats des diff´erentes m´ethodes dans le cas ´equilibr´e.3.4. EVALUATION DES M ´ ETHODES ET CONCLUSION ´ 65 1D (fig. 3.16) GreedyD (fig. 3.27) Greedy (fig. 3.29) LP (fig. 3.33) Cas 8 × 12 TotalV 7453 6266 7127 6299 MaxV 1871 1869 1869 1862 TotalZ 11 10 10 10 MaxZ 2 4 3 2 Cas 12 × 14 TotalV 5064 5960 5769 5261 MaxV 1311 1372 1372 2013 TotalZ 13 12 12 13 MaxZ 2 3 3 4 Cas 16 × 21 TotalV 6200 5504 6138 5858 MaxV 922 922 923 1103 TotalZ 20 18 18 19 MaxZ 2 5 3 4 Table 3.2 – R´esultats des diff´erentes m´ethodes dans le cas d´es´equilibr´e.66 CHAPITRE 3. MOD `ELE DE MIGRATION Méthode d'appariement (Matching) Méthode de la chaîne (1D) Méthode gloutonne (Greedy) Méthode de partitionnement biaisé (Biased) Méthode diffusive (Diff) Hyper-arêtes de repartitionnement Matrice de migration Graphe quotient Nouvelle partition en N Graphe partitionné en M Construction de la matrice de migration M×N Repartitionnement M×N Programme linéaire (LP) Figure 3.34 – Vue d’ensemble.Chapitre 4 Repartitionnement M × N Sommaire 4.1 Repartitionnement M×N bas´e sur le partitionnement biais´e (BIASED) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 4.1.1 M´ethodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 4.1.2 Limitations des partitionneurs . . . . . . . . . . . . . . . . . . . . . . 71 4.2 Partitionnement k-aire direct (KGGGP) . . . . . . . . . . . . . . . 73 4.2.1 Description de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . 73 4.2.2 Crit`eres de s´election . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.2.3 Complexit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 4.2.4 Am´eliorations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 4.2.5 Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 ´ 4.3 Repartitionnement M × N bas´e sur la diffusion (DIFF) . . . . . . . 85 4.4 Partitionnement biais´e `a l’aide d’hyper-arˆetes de repartitionnement 89 4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 Dans ce chapitre, nous pr´esentons nos algorithmes de repartitionnement M × N, r´esum´es en figure 4.1. Nos m´ethodes de repartitionnement biais´e (BIASED) et diffusive (DIFF) s’inspirent des m´ethodes de repartitionnement classiques du mˆemes noms mais sont ´etendues dans le cas du repartitionnement avec un nombre de processeurs variable. Ces deux m´ethodes se basent sur une matrice de migration obtenue `a l’aide d’un des algorithmes pr´esent´es dans le chapitre pr´ec´edent. De plus, dans le cadre de notre partitionnement biais´e, nous mettons en ´evidence des limitations de la m´ethode des bissections r´ecursives largement utilis´ee par les diff´erents outils de partitionnement actuels, et nous proposons une m´ethode de partitionnement k-aire direct (KGGGP) qui surmonte ces limitations. 4.1 Repartitionnement M × N bas´e sur une m´ethode de partitionnement biais´e (BIASED) Nous pr´esentons dans cette section une m´ethode partitionnement biais´e permettant de r´ealiser un repartitionnement M × N en respectant un mod`ele de migration donn´e par une matrice C. Cette m´ethode n’impose que les messages donn´es dans le mod`ele de migration et non leur volume. N´eanmoins, les volumes sont respect´es lorsque le nombre de messages de C est minimal, comme 6768 CHAPITRE 4. REPARTITIONNEMENT M × N Méthode de partitionnement biaisé (Biased) Méthode diffusive (Diff) Hyperarêtes de repartitionnement Matrice de migration Nouvelle partition en N Graphe partitionné en M Repartitionnement M×N Figure 4.1 – Vue d’ensemble de nos algorithmes de repartitionnement M × N d’un graphe. nous le verrons dans la section suivante. Cette m´ethode est donc d´econseill´ee pour les mod`eles de migration n’optimisant pas TotalZ, en particulier ceux obtenus `a l’aide du programme lin´eaire optimisant seulement TotalV, MaxV ou MaxZ. Cette m´ethode de partitionnement biais´e s’inspire des m´ethodes de repartitionnement utilisant des sommets fixes [2, 8, 9] (cf. section 2.3.2). Le graphe est enrichi avec des sommets fixes et de nouvelles arˆetes puis il est partitionn´e avec un partitionneur acceptant les sommets fixes. 4.1.1 M´ethodologie Pour cr´eer un nouvelle partition respectant le mod`ele de communication construit grˆace aux m´ethodes pr´esent´ees dans le chapitre 3, on utilise une m´ethode de repartitionnement `a sommet fixes. De la mˆeme fa¸con que dans le cas du repartitionnement sans changement du nombre de processeurs, on ajoute N sommets fixes de poids nuls repr´esentant les processeurs. Mais au lieu de les connecter aux sommets de leur ancienne partie, ils sont connect´es aux sommets des parties dont on accepte qu’ils re¸coivent des donn´ees, conform´ement `a la matrice C. Plus pr´ecis´ement, pour repartitionner un graphe G de M parties vers N et obtenir une nouvelle partition P ′ , ´etant donn´e une ancienne partition P = (Pi)i∈J1,MK et une matrice de migration C, il faut : 1. construire un graphe enrichi G˜ = (V , ˜ E˜) `a partir de G avec : — N sommets fixes (fj )j∈J1,NK de poids nuls, chacun fix´e dans une nouvelle partie diff´erente j ; — des arˆetes suppl´ementaires dont le poids est appel´e « coˆut de migration », telles que pour chaque ´el´ement Ci,j > 0 de la matrice de migration, les sommets de l’ancienne partie i soient connect´es au sommet fixe de la nouvelle partie j. Plus formellement, ∀i ∈ J1, MK, ∀j ∈ J1, NK, ∀v ∈ Pi ,  Ci,j 6= 0 ⇐⇒ (v, fj ) ∈ E˜  . 2. partitionner le nouveau graphe enrichi G˜ en N parties avec un partitionneur acceptant les sommets fixes ;4.1. PARTITIONNEMENT BIAISE´ 69 3. restreindre la partition de G˜ au graphe original G pour obtenir P ′ . Le rˆole des arˆetes ajout´ees, dites « de migration », n’est pas exactement le mˆeme que dans les m´ethodes classiques. Elles ne servent pas, ici, `a minimiser la migration directement mais `a imposer le sch´ema de communication choisi. Un sommet est souvent reli´e `a plusieurs sommets fixes et au plus une de ses arˆetes de migration peut ne pas ˆetre coup´ee. Avec un poids suffisamment ´elev´e, le partitionneur laissera exactement une arˆete de migration par sommet non-coup´ee, pour minimiser la coupe. Ainsi, en cherchant `a remplir ses objectifs habituels, le partitionneur impose le sch´ema de migration choisi. Un exemple de repartitionnement est propos´e en figure 4.2. En partant de l’ancienne partition en M = 5 parties (figure 4.2a), on veut construire une nouvelle partition en N = 7 parties. A l’aide ` du graphe quotient associ´e (figure 4.2b), on construit une matrice de migration (ici repr´esent´ee par l’hypergraphe de repartitionnement) comme indiqu´e dans le chapitre pr´ec´edent (figure 4.2c). Les arˆetes de migration sont ajout´ees d’apr`es cet hypergraphe sur la figure 4.2d : par exemple, le sommet fixe de la nouvelle partie 3 est reli´e `a tous les sommets des parties contenues dans l’hyper-arˆete correspondante (les anciennes parties 3 et 4). Le partitionneur calcule ensuite une nouvelle partition de ce graphe enrichi. La figure 4.2e montre les arˆetes de migration coup´ees (en rouge) et internes (en vert). Enfin, la partition de G˜ est restreinte graphe G pour obtenir la partition finale (figure 4.2f). Cette m´ethode utilise n’importe quel outil de partitionnement classique capable de prendre en compte le cas des sommets fixes 1 . Il est aussi possible d’utiliser des partitionneurs d’hypergraphe, les arˆetes de migration deviennent alors des hyper-arˆetes de taille 2, la coupe de telles hyper-arˆetes ´etant ´equivalente `a celle des arˆetes du graphe. Les sommets fixes et les arˆetes de migration imposent le sch´ema de communication mais pas le volume des messages ´echang´es. Affecter un sommet `a une partie de fa¸con `a engendrer un message non autoris´e correspond `a une arˆete de migration coup´ee en plus. Un sommet est reli´e par des arˆetes de migration `a un ou plusieurs sommets fixes chacun dans une partie diff´erente. Au mieux une seule de ces arˆetes de migration n’est pas coup´ee (le sommet ne peut ˆetre que dans une seule partie), alors la migration de ce sommet est autoris´e par la matrice de migration. Si le sommet est dans une partie diff´erente de celles des sommets fixes auxquels il est connect´e, la migration de ce sommet n’est pas autoris´ee et toutes les arˆetes de migration de ce sommets sont coup´ees. Le partitionneur choisira donc de placer un sommet dans l’une des parties des sommets fixes auxquels il est connect´e. La contrainte sur la taille des parties n’empˆeche pas ce choix car, par construction de la matrice de migration, il y a toujours assez de sommets reli´es au sommet fixe pour cr´eer la partie de la taille souhait´ee parmi ces derniers. Bien que seul le sch´ema de communication soit impos´e, les tailles des messages sont respect´ees lorsque le nombre de message (TotalZ) est minimal. Le partitionneur est libre de cr´eer n’importe quelle partition induisant une matrice de migration avec les non-z´eros souhait´es. On cherche le nombre de matrices de migration C ′ qu’il est possible d’obtenir apr`es le partitionnement. L’espace des matrices de migration possibles peut ˆetre d´efini par un syst`eme d’´equations lin´eaires avec autant d’inconnues, not´ees C ′ i,j , que de messages (d’une ancienne partie i vers une nouvelle partie j). Les ´equations sont les contraintes de sommes sur les lignes et les colonnes ; il y en a M +N. Il y a autant d’inconnues C ′ i,j que d’´el´ements Ci,j non nuls dans la matrice de migration C souhait´ee. En notant Vi le poids de l’ancienne partie i, V ′ j la poids de la nouvelle partie j et W le poids 1. Il est en fait possible d’obtenir un partitionnement ´equivalent sans sommets fixes : il suffit de donner aux sommets « fixes » un poids suffisamment grand, pour qu’il ne puisse pas y en avoir deux dans une mˆeme partie. Les nouvelles parties sont ensuite renum´erot´ees pour que les sommets fixes soient dans les bonnes parties. Le d´efaut de cette m´ethode est que le d´es´equilibre tol´er´e est plus important `a cause du poids de ces sommets.70 CHAPITRE 4. REPARTITIONNEMENT M × N (a) Partition initiale de G en 5 parties. 1 2 3 4 5 (b) Graphe quotient Q de la partition initiale. 1 2 3 4 5 6 7 (c) Hypergraphe de repartitionnement dessin´e par dessus le graphe quotient. (d) Graphe G˜ auquel est ajout´e les sommets fixes et arˆetes de migration. (e) Partition de G˜ en 7 parties. Les arˆetes de migration coup´ees sont en rouge, les arˆetes de migration non-coup´ees en vert. (f) Partition finale de G en 7 parties. Figure 4.2 – Repartitionnement de 5 vers 7 parties.4.1. PARTITIONNEMENT BIAISE´ 71 total du graphe (W = P i Vi = P j V ′ j ), on a : ∀i ∈ J1, MK , X j∈J1,NK Ci,j>0 C ′ i,j = Vi (4.1) ∀j ∈ J1, NK , X i∈J1,MK Ci,j>0 C ′ i,j = V ′ j (4.2) La somme des ´equations sur les lignes (´equations 4.1) est ´equivalente `a la somme des ´equations sur les colonnes (´equations 4.2) et donnent : X i∈J1,MK j∈J1,NK Ci,j>0 C ′ i,j = W Ce syst`eme poss`ede donc M + N − 1 ´equations ind´ependantes 2 . On sait que l’ensemble des solutions n’est pas vide car la matrice de migration C est une solution. La dimension de l’espace solution est donc ´egale `a la diff´erence entre le nombre d’inconnues (le nombre de messages dans la matrice C) et le rang du syst`eme. Si le nombre de messages dans C n’est pas minimal (il n’atteint pas le rang du syst`eme), il existe une infinit´e de solutions C ′ possibles. Le partitionneur peut donner une de ces matrice C ′ (´eventuellement diff´erente de C) en minimisant la coupe du graphe enrichi. Plus le nombre de messages dans C est important plus il y a de libert´e dans le partitionnement. La matrice de migration C ′ effectivement obtenue apr`es repartitionnement peut ne pas ˆetre aussi bonne que la matrice C choisie. On pr´ef´erera donc utiliser ce partitionnement biais´e avec des matrices de migration donnant un faible nombre de messages (TotalZ). 4.1.2 Limitations des partitionneurs Cette m´ethode partitionnement `a sommets fixes peut poser quelques probl`emes avec certains partitionneurs, plus particuli`erement ceux utilisant des bissections r´ecursives [3]. Le premier probl`eme est que le placement et la num´erotation des nouvelles parties peut ne pas ˆetre favorable aux bissections r´ecursives. Comme expliqu´e dans la section 3.3.1, lors d’une bissection, chaque moiti´e regroupera plusieurs parties suivant leurs num´eros : g´en´eralement les parties avec les plus petits num´eros sont regroup´ees dans une moiti´e et les plus grand num´eros dans l’autre. Il est possible qu’une moiti´e regroupe des parties qu’on souhaite ´eloign´ees. Les heuristiques peuvent avoir plus de mal `a cr´eer des parties et devoir travailler avec des graphes non connexes. Mais, certains cas sont encore plus graves. Mˆeme avec des bissections parfaites et un poids tr`es important sur les arˆetes de migration, un partitionneur `a bissections r´ecursives peut ne pas 2. Il est possible de r´eduire encore le nombre d’´equations ind´ependantes lorsqu’il existe une somme partielle de poids d’anciennes parties ´egale `a une somme partielle de poids de nouvelles parties. C’est-`a-dire que s’il existe A ⊂ J1, MK et B ⊂ J1, NK tels que P i∈A Vi = P j∈B V ′ j et que pour tout (i, j) ∈ J1, MK × J1, NK tels que (i ∈ A ∧ j /∈ B) ∨ (i /∈ A ∧ j ∈ B), Ci,j = 0, alors la somme des ´equations sur les lignes correspondant aux anciennes parties de A est ´equivalente `a la somme des ´equations sur les colonnes correspondant aux nouvelles parties de B : X i∈A j∈B Ci,j>0 C ′ i,j = X i∈A Vi = X j∈B V ′ j72 CHAPITRE 4. REPARTITIONNEMENT M × N 1 2 3 4 (a) Partition intiale et sommets fixes. 3 3 4 (b) Graphe quotient et hypergraphe de repartitionnement. (c) Partition finale k-aire direct. 1–2 3–4 (d) Premi`ere bissection. (e) Partition finale avec bissections r´ecursives. Figure 4.3 – Exemple d’´echec de partitionnement avec bissections r´ecursives. respecter le sch´ema de communication impos´e alors qu’un partitionneur k-aire direct trouverait une solution [3, 60]. Par exemple, la figure 4.3 pr´esente un cas o`u la m´ethode des bissections r´ecursives ´echoue. La grille est initialement partitionn´ee en 3 (figure 4.3a) et on souhaite la repartitionner en 4 en utilisant l’hypergraphe de repartitionnement de la figure 4.3b. Un exemple de partition finale respectant ce sch´ema est pr´esent´e sur la figure 4.3c. On essaye d’appliquer les bissections r´ecursives sur ce graphe. Lors de la premi`ere bissection (figure 4.3d), le partitionneur regroupe les parties 1 et 2 d’un cot´e, et 3 et 4 de l’autre. La meilleure bissection possible est de coup´ee le graphe verticalement par le milieu. Les parties 1 et 2 seront donc dans la partie gauche et les parties 3 et 4 dans la partie droite. Il n’est donc pas possible pour la partie 4 de reprendre des sommets de l’ancienne partie 2. Chaque moiti´e est ensuite `a nouveau bipartitionn´ee pour obtenir la partition finale pr´esent´ee sur la figure 4.3e. Sa matrice de migration est :   6 6 3 9 9 3   ,4.2. PARTITIONNEMENT K-AIRE DIRECT (KGGGP) 73 alors que celle attendue, qui est celle de la partition de la figure 4.3c, est :   9 3 9 3 9 3   . La partition de bissections r´ecursives coupent 39 arˆetes de migration alors qu’il est possible de n’en couper seulement 36, mˆeme si on a suppos´e que les bissections ´etaient parfaites et le poids des arˆetes de migration bien plus important que celui des arˆetes internes. En pratique, la plupart des outils utilisent un multi-niveaux k-aire avec une partition initiale du graphe contract´e calcul´ee par bissections r´ecursives. Dans le cas o`u les bissections r´ecursives ´echouent `a calculer une bonne partition initiale, le raffinement k-aire appliqu´e pendant la phase d’expansion doit alors grandement modifier la partition initiale pour optimiser la coupe. Quand l’heuristique de raffinement r´eussit `a corriger la partition initiale, ce qui est difficile comme ces heuristiques sont souvent incr´ementales, le partitionneur est alors tr`es ralenti par la phase d’expansion. Pour cette raison, nous proposons une heuristique de partitionnement k-aire direct pouvant ˆetre utilis´ee `a la place des bissections r´ecursives en tant que m´ethode de partitionnement initiale dans un partitionneur. 4.2 Partitionnement k-aire direct (KGGGP) L’heuristique du Greedy Graph Growing Partitioning (GGGP) est une heuristique gloutonne largement utilis´ee dans le cadre du bipartitionnement [5, 11, 29]. En partant de deux sommets « graines », les autres sommets sont ajout´es un `a un dans chacune des parties. Nous proposons d’´etendre cette m´ethode dans le cas du partitionnement k-aire. Nous l’appellerons dans ce cas KGGGP (k-way greedy graph growing partitioning). 4.2.1 Description de l’algorithme Cette heuristique s’inspire en grande partie de celle de Fiduccia et Mattheyses [17] (abr´eg´ee FM), `a la diff´erence que les sommets ne sont initialement dans aucune partie et sont `a distribuer dans k parties. Cette m´ethode peut ˆetre vue comme un raffinement FM k + 1-aire o`u la partie suppl´ementaire (que l’on num´erotera −1) contient initialement tous les sommets et doit ˆetre vide dans la partition finale. Pour r´ealiser cet algorithme, on consid`ere tous les d´eplacements possibles des sommets sans parties vers une des k parties. Chaque it´eration de l’algorithme 5 place un sommet sans partie dans une partie p. A chaque it´eration, on s´electionne le meilleur d´eplacement, d’ ` apr`es un crit`ere de s´election bas´e sur la coupe, qui respecte l’´equilibre final (c’est-`a-dire que le poids Wp de la partie p ne d´epassera pas la taille maximum permise avec un facteur de d´es´equilibre ǫ). Il existe plusieurs crit`eres de s´election qui seront d´etaill´es plus loin dans cette section. Il est possible qu’aucun sommet ne respecte la contrainte d’´equilibre, particuli`erement dans le cas d’un graphe contract´e dans le cadre d’un algorithme multi-niveaux, o`u des sommets peuvent avoir un poids tr`es important par rapport au poids total du graphe. Dans ce cas, l’´equilibre ne pourra pas ˆetre respect´e et le meilleur d´eplacement est choisi ind´ependamment du poids du sommet et de la partie cible. Une fois un sommet s´electionn´e, il est alors d´eplac´e et verrouill´e, c’est-`a-dire qu’il ne sera plus consid´er´e pour d’autres d´eplacements. Le crit`ere de s´election calcule le score si(u) d’un d´eplacement `a partir des parties de ses voisins (cf. section suivante). Ainsi lorsqu’un sommet est d´eplac´e, le crit`ere de s´election de chacun de ses voisins doit ˆetre mis `a jour.74 CHAPITRE 4. REPARTITIONNEMENT M × N p v s = sp(v) = sp'(v') déplacement de v dans p tableau des scores tableau des déplacements p' v' déplacement de v' dans p' ... score min score max Figure 4.4 – Structure de donn´ees inspir´ee de Fiduccia et Mattheyses, illustrant le cas des d´eplacements de v dans p et de v ′ dans p ′ ayant un mˆeme score s. L’algorithme 5 s´electionne le meilleur d´eplacement globalement. Mais il existe d’autres variantes possibles pour s´electionner un d´eplacement afin d’obtenir une partition ´equilibr´ee [29]. Par exemple, la partie de destination du d´eplacement est choisie l’une apr`es l’autre (m´ethode appel´ee round-robin), ou elle peut ˆetre la partie dont le poids courant est le plus faible. Dans ces deux cas, on choisit le meilleur d´eplacement seulement vers la partie choisie. Pour trouver rapidement le meilleur d´eplacement d’apr`es le crit`ere choisi, la structure de donn´ees pr´esent´ee par Fiduccia et Mattheyses est utilis´ee. Cette structure de donn´ees (r´esum´ee sur la figure 4.4) utilise un tableau `a chaque case duquel est associ´ee une valeur du score utilis´ee comme crit`ere de s´election (le gain de coupe du d´eplacement dans le cas de FM). Chaque case de ce tableau donne la liste doublement chain´ee des d´eplacements correspondant `a ce score. Ce tableau des scores permet de s´electionner rapidement un d´eplacement avec un gain donn´e (ici, le plus grand). Un autre tableau r´ef´eren¸cant les ´el´ements des listes chain´ees par leur num´ero de sommet permet de les retrouver rapidement pour effectuer une mise `a jour du gain. Dans notre algorithme k-aire ce tableau est ´etendu avec une seconde dimension correspondant `a la partie du d´eplacement. Le double chainage permet d’effectuer en temps constant le changement de liste d’un ´el´ement apr`es une mise `a jour ou son retrait quand le sommet est plac´e dans une partie. En pratique, notre mise en œuvre de cet algorithme utilise deux tableaux de score pour classer les d´eplacements. Initialement, le premier contient tous les d´eplacements et le second est vide. Les d´eplacements sont recherch´es d’abord dans la premi`ere structure, lorsque qu’un d´eplacement ne respectant pas la contrainte d’´equilibre est trouv´e, il est d´eplac´e dans la seconde. En effet, le poids des parties ne faisant que croˆıtre, il ne respectera pas la contrainte d’´equilibre dans le futur, il est inutile de le consid´erer `a nouveau pour ˆetre d´eplacer. Quand la premi`ere structure4.2. PARTITIONNEMENT K-AIRE DIRECT (KGGGP) 75 est vide, il n’y a plus de d´eplacements respectant la contrainte d’´equilibre, la seconde structure est alors utilis´ee jusqu’`a la fin de l’algorithme et le poids de la partie n’est plus v´erifi´e. Il est tr`es simple de g´erer le cas des sommets fixes avec cette m´ethode. En effet, les sommets fixes sont simplement plac´es dans leur parties respectives initialement et ne sont pas consid´er´es dans les d´eplacements possibles. Algorithme 5 Heuristique de partitionnement gloutonne (KGGGP) Entr´ee : Graphe G `a partitionner Entr´ee : k parties ne contenant que les sommets fixes Entr´ee : Partition o`u tout les sommets fixes sont dans leur partie respective, et les autres sommets sont dans la partie −1 tant que il existe des sommets dans la partie −1 faire S´electionner un sommet v sans partie dont le d´eplacement vers une partie p a un crit`ere de s´election sp(v) maximal et tel que Wp + wv ≤ (1 + ǫ) × W/k si un tel sommet n’existe pas alors S´electionner un sommet v sans partie dont le d´eplacement vers une partie p a un crit`ere de s´election sp(v) maximal fin si Placer le sommet v dans la partie p Wp ← Wp + wv pour tout voisin u de v faire pour tout partie i faire Mettre `a jour le crit`ere de s´election si(u) fin pour fin pour fin tant que retourner Partition de G en k parties 4.2.2 Crit`eres de s´election Il existe plusieurs crit`eres pour ´evaluer la qualit´e des d´eplacements. On note sp(v), le score du d´eplacement du sommet v vers la partie p. Les d´eplacements sont ´evalu´es en fonction des arˆetes les connectant aux diff´erentes parties. On notera Ni(u) le poids des arˆetes connectant le sommet u `a des voisins dans la partie i, et N−1(u) le poids des arˆetes le connectant `a des sommets sans partie. On appelle arˆete interne, une arˆete dont les deux extr´emit´es sont dans la mˆeme partie et on appelle arˆete externe (ou coup´ee), une arˆete dont les deux extr´emit´es sont dans des parties diff´erentes. Comme avec la m´ethode FM, il est possible d’utiliser la formule du gain de coupe en consid´erant que les sommets sans parties sont dans une partie num´erot´ee −1. Le gain d’un sommet u d´eplac´e de la partie i vers j se calcule par la diff´erence entre les arˆetes vers la nouvelle partie j, qui ´etaient coup´ees mais ne le seront plus, et les arˆetes vers l’ancienne partie i, qui ´etaient internes et seront coup´ees. En reprenant la formule du gain : gi→j (u) = Nj (u) − Ni(u), le crit`ere de s´election bas´e sur le gain pour d´eplacer u dans i est si(u) = g−1→i(u) = Ni(u) − N−1(u). Battiti et Bertossi [5] proposent d’utiliser un autre crit`ere, appel´e diff. Bien que con¸cu pour le bipartitionnement, ce crit`ere peut ´egalement s’appliquer dans le cas du partitionnement k-aire. Ce crit`ere ne s’int´eresse plus aux voisins sans partie, mais utilise la diff´erence entre les nouvelles arˆetes internes (voisins dans la partie vis´ee) et les nouvelles arˆetes coup´ees (voisins dans les autres76 CHAPITRE 4. REPARTITIONNEMENT M × N i j –1 u Figure 4.5 – Diff´erentes arˆetes autour du sommet sans partie u qui se trouve `a la fronti`ere des parties i et j. parties) : si(u) = diffi (u) = Ni(u) − P j6=i Nj (u). En effet, minimiser la coupe avec la partie −1 qui finira par disparaitre peut paraitre inutile alors que les arˆetes vers les autres parties font partie de la coupe finale. D’autre part, en maximisant le nombre d’arˆetes internes (Ni(u)), on esp`ere r´eduire le nombre d’arˆetes qui devront ˆetre coup´ees plus tard. La figure 4.5 pr´esente les diff´erentes arˆetes autour du sommet u : en vert, les arˆetes correspondant `a Ni(u) ; en rouge `a Nj (u) ; et en bleu `a N−1(u). On suppose que toutes les arˆetes de cet exemple ont un poids unitaire. Si on consid`ere le d´eplacement de u dans la partie i, le gain est g−1→i(u) = 0 : initialement 3 arˆetes sont coup´ees (en vert et rouge), apr`es d´eplacement 3 arˆetes sont toujours coup´ees (cette fois en bleu et rouge). Le crit`ere diff ne s’int´eresse pas aux arˆetes avec les sommets sans partie (en bleu) mais seulement `a la diff´erence entre les futures arˆetes internes (en vert) et les arˆetes externes avec les « vraies » parties (en rouge). On a donc diffi (u) = 2 − 1 = 1. 4.2.3 Complexit´e L’algorithme de partitionnement d´eplace une fois chaque sommet libre. Il y a donc autant d’it´erations de la boucle principale que de sommets non fixes (au plus |V |). La boucle principale comporte les ´etapes de s´election, d´eplacement et mise `a jour des structures de donn´ees. Lors de la s´election, chaque d´eplacement n’est consid´er´e qu’une ou deux fois : s’il n’est pas accept´e la premi`ere fois, il est retir´e de la premi`ere liste des d´eplacements et plac´e dans la seconde ; dans la seconde liste, un d´eplacement n’est jamais rejet´e. La complexit´e en temps totale de la s´election est donc au pire proportionnelle au nombre de d´eplacements possibles, c’est-`a-dire O(k|V |). Le d´eplacement est une op´eration simple en temps constant. Cela n’est que le changement d’une valeur dans le tableau repr´esentant la partition. La mise `a jour des structures de donn´ees apr`es le d´eplacement d’un sommet, n´ecessite de visiter tous les voisins du sommet d´eplac´e. Pour chaque voisin, il est n´ecessaire de mettre `a jour le crit`ere de s´election vers chacune des k parties. Comme ces op´erations sont effectu´ees pour chaque sommet du graphe, la complexit´e en temps totale des mises `a jour est au pire O(k|E|). La complexit´e en temps de l’algorithme est donc au pire O(k|E|), en consid´erant que |V | est domin´e par |E|. La complexit´e en m´emoire est principalement due au stockage des d´eplacements possibles, elle est donc au pire O(k|V |).4.2. PARTITIONNEMENT K-AIRE DIRECT (KGGGP) 77 4.2.4 Am´eliorations Plusieurs variantes peuvent ˆetre utilis´ees pour am´eliorer la qualit´e des partitions produites par l’algorithme. a) S´election al´eatoire et r´ep´etition Lors de la s´election des sommets, plusieurs peuvent avoir le mˆeme score. Si le premier sommet trouv´e est choisi, la s´election est biais´ee par l’ordre de parcours des sommets ou par le dernier d´eplacement. En effet, lors de la mise `a jour, les voisins dont le score s’est am´elior´e se retrouvent en d´ebut de liste, ce qui tend `a faire grossir la partie toujours dans la mˆeme direction. En s´electionnant un sommet al´eatoire parmi les meilleurs, on ´evite ce biais. Cela permet d’obtenir des partitions diff´erentes avec diff´erentes ex´ecutions de l’algorithme. Comme cet algorithme est tr`es rapide lorsqu’il est appliqu´e dans le cadre d’un partitionnement multi-niveaux, il devient int´eressant de le r´ep´eter plusieurs fois et de garder la meilleure partition. Cela permet aussi une version parall`ele triviale o`u chaque nœud calcule une partition puis partage la meilleure. b) Graines Bien que l’algorithme puisse s’appliquer sans aucun sommet initialement dans une partie, les crit`eres de s´election ne seront pas tr`es efficaces pour le choix des premiers sommets. Il est donc int´eressant de choisir avant le d´ebut de l’algorithme certains sommets qui initieront les parties. Il existe plusieurs possibilit´es pour choisir ces sommets qu’on appelle « graines ». Graines al´eatoires. k sommets sont choisis al´eatoirement dans le graphe pour servir de graines `a chacune des parties. Ces techniques se combinent bien avec la r´ep´etition de l’heuristique et permettent encore plus de vari´et´e dans les tentatives pour trouver la meilleure partition possible. Graines au centre des parties. La r´ep´etition de l’heuristique peut ´egalement ˆetre utilis´ee pour trouver des graines de fa¸con plus intelligente. Apr`es une premi`ere passe `a l’aide de graines choisies d’une mani`ere quelconque, les centres 3 ou des « pseudo-centres 4 » des parties sont calcul´es et servent de graine `a l’it´eration suivante. Cette m´ethode est propos´ee par Diekmann et al. dans le cadre du Bubble Partitioning [14]. Graines ´eloign´ees. Diekmann et al. [14] proposent ´egalement un algorithme pour optimiser l’ensemble des graines initiales. L’algorithme 6 permet de construire un ensemble de k graines bien ´eloign´ees les unes des autres. En partant d’un sommet quelconque, on recherche le sommet le plus ´eloign´e `a l’aide d’un parcours en largeur. Les graines suivantes sont trouv´ees de fa¸con similaire en initialisant le parcours en largeur avec les n graines d´ej`a trouv´ees. La seconde boucle permet d’am´eliorer cet ensemble. On retire une `a une les graines de l’ensemble et on en cherche une nouvelle, toujours `a l’aide d’un parcours en largeur. Cette derni`ere boucle peut ˆetre r´ep´et´ee jusqu’`a ce que l’ensemble ne change plus ou r´ep´et´ee un nombre limit´e de fois. La complexit´e d’un parcours en largeur ´etant O(|E|), la complexit´e de la cr´eation de l’ensemble initiale ou d’une passe d’optimisation est O(k|E|). 3. Le centre d’un graphe est un sommet avec une excentricit´e minimale. 4. La recherche du centre d’un graphe est complexe. Nous pr´ef´erons donc chercher un « pseudo-centre » `a l’aide d’un parcours en largeur `a partir de la fronti`ere de la partie. Le dernier sommet parcouru est le plus ´eloign´e de la fronti`ere, il est donc s´electionn´e en tant que « pseudo-centre »78 CHAPITRE 4. REPARTITIONNEMENT M × N Algorithme 6 Cr´eation d’un ensemble de k graines ´eloign´ees